Data-driven Marketing: Insights aus Wissenschaft und Praxis [1. Aufl.] 9783658299941, 9783658299958

State-of-the-art Wissen zum Data-driven Marketing aus Forschung und PraxisFokussiert auf die entscheidenden Aspekte für

1,425 111 6MB

German Pages XIII, 312 [313] Year 2020

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Data-driven Marketing: Insights aus Wissenschaft und Praxis [1. Aufl.]
 9783658299941, 9783658299958

Table of contents :
Front Matter ....Pages I-XIII
Front Matter ....Pages 1-1
Das Öl des 21. Jahrhunderts – Strategischer Einsatz von Daten im Marketing (Silvia Boßow-Thies, Christina Hofmann-Stölting, Heike Jochims)....Pages 3-26
Front Matter ....Pages 27-27
Qualität von Kundendaten – Ansätze zur Analyse und Verbesserung als Basis für effiziente Marketingentscheidungen (Heike M. Wolters)....Pages 29-41
Die Kraft effektiver Daten-Visualisierung – CLEAR(I): Ein Leitfaden zur wirkungsvollen Dashboard-Gestaltung (Luise Jacobs, Susanne Hensel-Börner)....Pages 43-75
Front Matter ....Pages 77-77
Psychografisches Targeting – Wirkung und Funktionsweise als eine besondere Form des Micro-Targetings in den sozialen Medien (Gregor Hopf)....Pages 79-103
Programmatic Advertising – Möglichkeiten und Grenzen bei Display-Advertising am Beispiel hedonistischer und utilitaristischer Produkte (Goetz Greve, Mareike Scheibe)....Pages 105-133
Uplift von Werbemaßnahmen – Case-Study zur Marketing-Optimierung (Björn Goerke, Dennis Proppe)....Pages 135-157
A/B-Testing – Verfahren zur Optimierung der digitalen Interaktion zwischen Konsumenten und Unternehmen (Manuel Stegemann, Thomas Suwelack)....Pages 159-176
Front Matter ....Pages 177-177
Data-driven Marketing im Outernet – Geointelligenz als Basis für ort-, zeitspezifische und psychografische Zielgruppenansprache (Carsten Köster, Terence Lutz, Kai-Marcus Thäsler)....Pages 179-198
Live goes digital – wie digitale Komponenten Messen bereichern (Gwen Kaufmann, Lars-Gunnar Frahm)....Pages 199-212
Data-driven Marketing in the Carsharing Economy – Focus on Privacy Concerns (Doreén Pick)....Pages 213-234
Front Matter ....Pages 235-235
Datenschutz gemäß DSGVO im datengetriebenen Marketing – ein Überblick (Christian Westerkamp)....Pages 237-256
Digital Trust für KI-basierte Mensch-Maschine-Schnittstellen (Annette Corves, Eva-Maria Schön)....Pages 257-281
Ethische Grenzen der Datennutzung im Marketing (Nicole Fabisch)....Pages 283-312

Citation preview

Silvia Boßow-Thies Christina Hofmann-Stölting Heike Jochims Hrsg.

Data-driven Marketing Insights aus Wissenschaft und Praxis

Data-driven Marketing

Silvia Boßow-Thies · Christina Hofmann-Stölting · Heike Jochims (Hrsg.)

Data-driven Marketing Insights aus Wissenschaft und Praxis

Hrsg. Silvia Boßow-Thies FOM Hochschule Hamburg, Deutschland

Christina Hofmann-Stölting HAW Hamburg Hamburg, Deutschland

Heike Jochims HAW Hamburg Hamburg, Deutschland

ISBN 978-3-658-29994-1 ISBN 978-3-658-29995-8  (eBook) https://doi.org/10.1007/978-3-658-29995-8 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Planung/Lektorat: Rolf-Günther Hobbeling Springer Gabler ist ein Imprint der eingetragenen Gesellschaft Springer Fachmedien Wiesbaden GmbH und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Abraham-Lincoln-Str. 46, 65189 Wiesbaden, Germany

Geleitwort

Noch nie standen den Menschen so viele Daten so einfach zur Verfügung wie heute. eCommerce-Unternehmen tracken heutzutage alle Aktivitäten (Click-Verhalten) von potenziellen Käufern im Internet. Werden verschiedene ­ Webseiten aufgerufen, können daraus bereits pro Besuch Hunderte von Einzelinformationen entstehen. Werbetreibende können aus Informationen in Social Media wie z. B. Facebook herausfiltern, welche Personen sich für bestimmte Produkte interessieren könnten und diese dann mit Werbe-Banner oder anderen Werbeformen bewerben. Handelsunternehmen können über Sensorik das Verhalten von Personen in ihren Läden erfassen, was wiederum zu Zigtausenden von Datenpunkten führt. Das Datenvolumen betrug 2018 insgesamt 33 Zettabyte (1021) und 137 Gigabyte pro stationärem Festnetzanschluss in Deutschland. Entsprechend dieser Bedeutung sind im Gebiet der Daten-Analytik viele neue Methoden entstanden, mit denen man besser vorhersagen kann, welche Personen am ehesten auf Werbung reagieren und schließlich auch kaufen werden. Auf der anderen Seite wird der Konsument immer gläserner, wodurch die Probleme der Privatsphäre und des Datenschutzes immer wichtiger werden. Bei einem solchen Trend-Thema ist es nicht weiter verwunderlich, dass es dazu schon viele Beiträge gibt. Allerdings sind diese entweder aus einer rein wissenschaftlichen oder praktischen Sicht geschrieben worden. Ich finde es deshalb reizvoll, dass in diesem Buch versucht wird, ausgewählte Themen des Data-driven Marketing gleichzeitig sowohl von der Wissenschaftsseite als auch aus Praxissicht näher und kritisch zu beleuchten. Das heißt, in den Beiträgen wird exemplarisch gezeigt, wie man wissenschaftlich anspruchsvolle Lösungen implementieren kann, die gleichzeitig pragmatisch bei der Datensammlung und Aufbereitung vorgehen, so dass ein gutes Verhältnis zwischen praktischem Ertrag und Aufwand herauskommt.

V

VI

Geleitwort

Das Buch umfasst eine Sammlung von Artikeln, die von der Datensammlung, der Datenvisualisierung bis hin zur Analyse und der Ableitung von Handlungsempfehlungen geht, und schließlich auch die Probleme des Datenschutzes anspricht. Es wird herausgegeben von Wissenschaftlerinnen angewandter Forschung mit den Schwerpunkten Quantitatives Marketing und Digitales Marketing. Alle drei haben nicht nur jahrelange praktische Erfahrungen in diesen Bereichen, sondern sind auch an meinem damaligen Lehrstuhl für Innovation, Neue Medien und Marketing ausgebildet worden, der sich schon frühzeitig mit dem Marketing im Internet beschäftigt hat. Damit ist ein Buch mit attraktiven Inhalten entstanden, das ich einer an praktischem Nutzen interessierten Leserschaft wärmstens empfehlen kann. Prof. Dr. Dr. h. c. Sönke Albers

Inhaltsverzeichnis

Teil I 1

Data-driven Marketing im Überblick

Das Öl des 21. Jahrhunderts – Strategischer Einsatz von Daten im Marketing. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Silvia Boßow-Thies, Christina Hofmann-Stölting und Heike Jochims

Teil II

 atenmanagement als Grundlage für D Marketingentscheidungen

2

Qualität von Kundendaten – Ansätze zur Analyse und Verbesserung als Basis für effiziente Marketingentscheidungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 Heike M. Wolters

3

Die Kraft effektiver Daten-Visualisierung – CLEAR(I): Ein Leitfaden zur wirkungsvollen Dashboard-Gestaltung. . . . . . . . . 43 Luise Jacobs und Susanne Hensel-Börner

Teil III

Smarte Insights fürs Marketing

4

Psychografisches Targeting – Wirkung und Funktionsweise als eine besondere Form des Micro-Targetings in den sozialen Medien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 Gregor Hopf

5

Programmatic Advertising – Möglichkeiten und Grenzen bei Display-Advertising am Beispiel hedonistischer und utilitaristischer Produkte. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 Goetz Greve und Mareike Scheibe VII

VIII

Inhaltsverzeichnis

6

Uplift von Werbemaßnahmen – Case-Study zur ­Marketing-Optimierung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 Björn Goerke und Dennis Proppe

7

A/B-Testing – Verfahren zur Optimierung der digitalen Interaktion zwischen Konsumenten und Unternehmen. . . . . . . . . . . 159 Manuel Stegemann und Thomas Suwelack

Teil IV

Data-driven Marketing in der realen Welt

8

Data-driven Marketing im Outernet – Geointelligenz als Basis für ort-, zeitspezifische und psychografische Zielgruppenansprache. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 Carsten Köster, Terence Lutz und Kai-Marcus Thäsler

9

Live goes digital – wie digitale Komponenten Messen bereichern. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 Gwen Kaufmann und Lars-Gunnar Frahm

10 Data-driven Marketing in the Carsharing Economy – Focus on Privacy Concerns . . . . . . . . . . . . . . . . . . . . . . . . 213 Doreén Pick Teil V

Datenschutz und Ethik im Data-driven Marketing

11 Datenschutz gemäß DSGVO im datengetriebenen Marketing – ein Überblick. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237 Christian Westerkamp 12 Digital Trust für KI-basierte Mensch-Maschine-Schnittstellen. . . . . 257 Annette Corves und Eva-Maria Schön 13 Ethische Grenzen der Datennutzung im Marketing. . . . . . . . . . . . . . 283 Nicole Fabisch

Abbildungsverzeichnis

Abb. 1.1 Abb. 1.2 Abb. 1.3 Abb. 1.4 Abb. 1.5

Abb. 3.1 Abb. 3.2

Abb. 3.3 Abb. 3.4 Abb. 3.5 Abb. 3.6 Abb. 3.7 Abb. 3.8

Eine Minute im Internet 2019 . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Ausgewählte Datenquellen für Big Data. . . . . . . . . . . . . . . . . . 10 Reifemodell für Data Analytics. . . . . . . . . . . . . . . . . . . . . . . . . 12 Data-driven Marketing entlang der Customer Journey inklusive beispielhafter Touchpoints. . . . . . . . . . . . . . . . . . . . . 15 Digitalisierungsgrad (in Prozent) von Industrieunternehmen und unternehmensnahen Dienstleistern in Deutschland (Befragung von 1304 Unternehmen). . . . . . . . . . . . . . . . . . . . . 19 Die Visualisierung stellt den letzten und besonders für die Praxis relevanten Schritt der Datenanalyse dar. . . . . . . . . . . . . 45 Zu verstehen, welche Auswirkungen inhaltliche und visuelle Komponenten haben, kann die Effektivität und Effizienz der Informationsübermittlung erhöhen. . . . . . . . . . . . . . . . . . . . . . . 46 Am Wahrnehmungsprozess sind das visuelle und kognitive System gleichermaßen beteiligt. . . . . . . . . . . . . . . . . . . . . . . . . 49 Illustration präattentiver Wahrnehmung am Beispiel des Attributs Farbe. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 Eine Datenreihe kann auf unterschiedliche Weise visualisiert werden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 Abgeschnittene y-Achsen täuschen die Wahrnehmung und verfälschen den Inhalt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 Die Faktoren des Dashboard-Designs lassen sich in drei Gestaltungsebenen unterteilen. . . . . . . . . . . . . . . . . . . . . . . . . . 55 Inhaltliche und visuelle Klarheit sind von zentraler Bedeutung aus Nutzersicht. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

IX

X

Abb. 3.9

Abb. 3.10 Abb. 3.11

Abb. 4.1

Abb. 5.1 Abb. 6.1 Abb. 6.2 Abb. 6.3 Abb. 6.4 Abb. 7.1 Abb. 7.2 Abb. 7.3 Abb. 7.4 Abb. 8.1 Abb. 8.2 Abb. 8.3 Abb. 8.4 Abb. 8.5 Abb. 8.6 Abb. 8.7 Abb. 8.8 Abb. 9.1

Abbildungsverzeichnis

Der © CLEAR(I) Leitfaden unterstützt bei der Gestaltung wirkungsvoller Dashboards hinsichtlich inhaltlicher und visueller Aspekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 Bereits mithilfe weniger Diagrammtypen lassen sich Informationen effektiv darstellen. . . . . . . . . . . . . . . . . . . . . . . . 65 Indem non-data pixel reduziert und wichtige Informationen hervorgehoben werden, wird die inhaltliche Aussage verstärkt. . . . . . . . . . . . . . . . . . . . . . . . . . . 69 Nutzerzentrierte Targeting-Möglichkeiten ausgewählter, in Europa und Nordamerika beliebter Social-Media-Kanäle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 Programmatic-Advertising-System. . . . . . . . . . . . . . . . . . . . . . 109 Unterschiedliche Kundensegmente in Abhängigkeit von ihrem Potenzial für Uplift. . . . . . . . . . . . . . . . . . . . . . . . . . 141 Ableitung der Zielvariable für die Modellierung nach dem „Flip the target“-Ansatz. . . . . . . . . . . . . . . . . . . . . . . 145 Klassische Zielbildung in Response-Modellen. . . . . . . . . . . . . 145 Auswertung der Werbeaffinität über zehn ­Kundenlebenswert-Klassen. . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 A/B Varianten durch unterschiedliche Positionierung des Kaufbuttons auf einer Website. . . . . . . . . . . . . . . . . . . . . . . 161 Typischer Prozess des A/B-Testing und des multivariaten Testings . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 Elemente eines A/B Tests. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169 Möglicher Conversion-Funnel am Beispiel einer Website . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174 Prozess Zielgruppen-Mapping, Geointelligenz und (werbliche) Kommunikation. . . . . . . . . . . . . . . . . . . . . . . . 181 Innerstädtische Verdichtung der Zielgruppe „City Life“. . . . . . 187 Tagesverlauf der Zielgruppe (ZG) „City Life“ . . . . . . . . . . . . . 188 Mapping nach Psychografien. . . . . . . . . . . . . . . . . . . . . . . . . . . 189 Ausspielung einer klassischen, algorithmusbasierten Kampagnensteuerung in ausgewählten Metropolen . . . . . . . . . 191 Ausspielung durch geointelligente Kampagnensteuerung in ausgewählten Metropolen . . . . . . . . . 191 Heatmaps der Zielgruppen-Lokalisierung. . . . . . . . . . . . . . . . . 194 Entwicklung der Reichweite im Kampagnenverlauf. . . . . . . . . 195 Zusätzliche Informationsebene durch Augmented Reality Titel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204

Abbildungsverzeichnis

Abb. 9.2 Abb. 9.3 Abb. 9.4 Fig. 10.1 Abb. 12.1 Abb. 12.2 Abb. 12.3 Abb. 13.1 Abb. 13.2 Abb. 13.3

XI

Verbesserung der Besucheranalyse . . . . . . . . . . . . . . . . . . . . . . 205 Der humanoide Roboter „Pepper“ von Softbank Robotics. . . . 208 Positive Reaktionen beim Messe-Einsatz von Pepper. . . . . . . . 210 Research model . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226 Trust-Journey mit Vertrauensankern . . . . . . . . . . . . . . . . . . . . . 270 KI-Trust-Journey . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270 Humane Vertrauensanker für digitales Vertrauen. . . . . . . . . . . . 273 Spannungsfeld technische Machbarkeit, wirtschaftliches Interesse, Ethik und Compliance. . . . . . . . . . . 288 5 V-Modell der Big Data und Typen der Datenanalyse. . . . . . . 290 Verantwortungspyramide von Compliance zu Corporate Social Responsibility. . . . . . . . . . . . . . . . . . . . . . 297

Tabellenverzeichnis

Tab. 2.1 Tab. 2.2 Tab. 4.1

Tab. 6.1 Tab. 6.2 Tab. 7.1 Tab. 7.2 Table 10.1 Table 10.2 Table 10.3 Table 10.4 Table 10.5 Table 10.6 Table 10.7 Tab. 11.1 Tab. 12.1

Dimensionen der Datenqualität. . . . . . . . . . . . . . . . . . . . . . . . . 31 Beispiele für Data-Profiling-Metriken . . . . . . . . . . . . . . . . . . . 34 Ausgewählte Studien zur Persönlichkeitsvorhersage auf Basis unterschiedlicher Verhaltenssignale in den sozialen Medien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 Beispielhafte Ermittlung von Uplift im 2-Modell-Ansatz . . . . 143 Exemplarische Berechnung des Werbeaffinitätskennzeichens für vier Kunden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 Typische Anwendungsfelder für A/B Tests im Überblick. . . . . 162 Eine Auswahl typischer Erfolgskennzahlen (KPIs) im Online-Marketing. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 Definitions of privacy concerns. . . . . . . . . . . . . . . . . . . . . . . . . 218 Overview of selected carsharing firms in Germany . . . . . . . . . 221 Collected and saved data by carsharing firms in Germany. . . . 222 Reasons and objectives for data collection by carsharing firms in Germany. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224 Means of privacy concerns across socio-demographics. . . . . . 226 Linear regression results for loyalty intention . . . . . . . . . . . . . 227 Linear regression results for loyalty intention between age groups. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228 Überblick zu einzelnen verhängten Bußgeldern. . . . . . . . . . . . 239 KI-Einsatzgebiete an Mensch-Maschine-Schnittstellen. . . . . . 262

XIII

Teil I Data-driven Marketing im Überblick

1

Das Öl des 21. Jahrhunderts – Strategischer Einsatz von Daten im Marketing Silvia Boßow-Thies, Christina Hofmann-Stölting und Heike Jochims Inhaltsverzeichnis 1.1 Einleitung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.2 Abgrenzung Data-driven Marketing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.3 Datengrundlage für Data-driven Marketing. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.4 Von Big Data über Data Analytics zu Smart Data. . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.5 Einsatzmöglichkeiten des Data-driven Marketings. . . . . . . . . . . . . . . . . . . . . . . . . 14 1.6 Status quo und Herausforderung von Data-driven Marketing in der Praxis. . . . . . 19 1.7 Fazit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

Zusammenfassung

Die Digitalisierung wird bereits als die vierte industrielle Revolution und die entstehenden Daten als das Öl des 21. Jahrhunderts bezeichnet. Der Wert von Daten auch für das Marketing ist unumstritten: Durch die Digitalisierung liegen so viele Kundendaten vor wie nie zuvor, die neue Wege der individuellen S. Boßow-Thies  FOM Hochschule, Hamburg, Deutschland E-Mail: [email protected] C. Hofmann-Stölting · H. Jochims (*)  Department Wirtschaft, HAW Hamburg, Hamburg, Deutschland E-Mail: [email protected] C. Hofmann-Stölting E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 S. Boßow-Thies et al. (Hrsg.), Data-driven Marketing, https://doi.org/10.1007/978-3-658-29995-8_1

3

4

S. Boßow-Thies et al.

Kundenansprache ermöglichen. Neben den klassischen Datenquellen aus Unternehmen und Marktforschung sind durch die Digitalisierung und Vernetzung, beispielsweise aus Social Media, zahlreiche neue Quellen hinzugekommen. Um Data-driven Marketing wertschöpfend einsetzen zu können, sind neue Methoden der Data Analytics notwendig. Die Möglichkeiten der Datenanalyse gehen heutzutage über das klassische Reporting hinaus, Methoden der Predictive Analytics und Künstlichen Intelligenz ermöglichen die maßgeschneiderte Kundenansprache entlang der gesamten Customer Journey. Doch viele Unternehmen schöpfen das Potential ihrer Daten aktuell noch nicht voll aus. Herausforderungen wie notwendige Investitionen in die ITInfrastruktur, fehlendes Know-how und rechtliche Fragestellungen stehen dem Data-driven Marketing häufig noch im Weg.

1.1 Einleitung Durch die Digitalisierung hat sich das Kundenverhalten und somit auch die Kundenansprache grundlegend verändert. Wo früher postalische Werbung oder TV-Werbung dominierend war, tritt heute ein Kunde auf vielfältigste Weise in Interaktion mit Unternehmen, sei es über soziale Medien, per Handy oder über andere digitale, aber auch nicht-digitale Marketingkanäle. Deshalb gibt es auch kontinuierlich mehr und neue Möglichkeiten der Kundenansprache, die immer zielgerichteter und personalisierter ausgerichtet sind, und die immer häufiger auf Daten und ihrer Analyse basieren. Ein viel zitiertes Beispiel für zielgerichtete Kundenansprache beschreibt eine junge Frau, die Gutscheine für werdende Mütter zugeschickt bekommen hatte, woraufhin der Vater die Tochter zur Rede stellte und in dem Zusammenhang von der Schwangerschaft seiner Tochter erfuhr. Der Vater beschwerte sich anschließend beim Supermarkt, warum dieser vor ihm von der Schwangerschaft gewusst hätte (Planet Wissen 2018). Nach welchen Gesichtspunkten auch immer der Supermarkt die Gutscheine für die Kunden tatsächlich auswählte, es wird zunehmend Realität, dass Unternehmen Daten sammeln und auf Basis der Analyse von beispielsweise Kundendaten (Alter, Geschlecht etc.) und Aktivitätsdaten (Kaufhistorie, Online-Aktivität auf der Website oder Webshop) derart passende Werbung oder Coupons an entsprechende Kunden schicken. Die individuelle Kundenansprache basiert auf Daten, die der Kunde hinterlässt, die einerseits gesammelt, andererseits analysiert werden müssen, um eine Grundlage für datengetriebenes Marketing und datengetriebene Entscheidungen zu haben. Das Vorgehen und der Fokus von einer zunehmenden Anzahl von

1  Das Öl des 21. Jahrhunderts

5

Unternehmen ist es, ihre Business-Entscheidungen nicht mehr aus dem Bauch heraus oder allein aufgrund von Management-Erfahrungen zu treffen, sondern Erkenntnisse aus Daten zu gewinnen und diese zu nutzen. So gibt es eine Reihe von Studien, die zeigen, dass das Nutzen von Daten zu besseren Entscheidungen führt als die alleinige Erfahrung oder das Bauchgefühl (z. B. Sundsøy et al. 2014). Das Potential für datengetriebene Entscheidungen ist immens und aktuell immer noch schwierig vollständig abzuschätzen. Ziel dieses Beitrags ist es, die Vielfältigkeit der Einsatzmöglichkeiten von Daten im Marketing beispielhaft zu beleuchten, bevor in den einzelnen Kapiteln dieses Herausgeberwerkes auf ausgewählte unterschiedliche Aspekte näher eingegangen wird – von wissenschaftlicher Seite, aber insbesondere auch aus Praxissicht. Im weiteren Verlauf dieses Beitrags werden zunächst die in aller Munde und im Zusammenhang mit dem Titel des Buches verwendeten Begriffe ­Data-driven Marketing, Big Data, digitales Marketing und KI-Marketing eingeordnet bzw. voneinander abgegrenzt (Abschn. 1.2). In Abschn. 1.3 wird auf das Thema Big Data detaillierter eingegangen, um die Komplexität einordnen zu können, wie große Datenmengen erfasst, strukturiert und analysiert werden, und wie Abschn. 1.4 anschließend erläutert aus Big Data Erkenntnisse generiert werden können, die zu Smart Data führen. In Abschn. 1.5 werden die Einsatzmöglichkeiten von Daten im Marketing anhand der Customer Journey beispielhaft beschrieben, in die auch die Beiträge dieses Herausgeberwerkes eingeordnet werden. Abschn. 1.6 beschreibt abschließend den aktuellen Stand der Nutzung von Data-driven Marketinganwendungen in der Praxis und zeigt die Herausforderungen des Data-driven Marketings auf.

1.2 Abgrenzung Data-driven Marketing Der Begriff Marketing wird von der American Marketing Association (2017) wie folgt definiert: „Marketing is the activity, set of institutions, and processes for creating, communicating, delivering, and exchanging offerings that have value for customers, clients, partners, and society at large.“ Marketingmaßnahmen im Allgemeinen haben also das Ziel, den Kundenwert zu erhöhen; das bedeutet auch, die Bedürfnisse des Kunden bestmöglich zu adressieren und auf dieser Basis zu einer Ergebnisoptimierung des Unternehmens zu gelangen.

6

S. Boßow-Thies et al.

Beim Data-driven Marketing werden genau für dieses Ziel Daten eingesetzt bzw. verwendet (Kumar et al. 2013). Data-driven Marketing zielt unter Einsatz von Daten und deren Analyse somit darauf ab, den Kundenwert zu erhöhen. Die Daten können hierbei einen unterschiedlichen Ursprung haben. Grundsätzlich kann man zwischen Daten unterscheiden, die bei einer Primärerhebung mittels Befragung oder Beobachtung im Rahmen von klassischer Marktforschung auf eine Fragestellung hin zielgerichtet erhoben werden (Survey Data), und Daten, die bei passiven technischen Messungen heutzutage im großen Umfang anfallen und somit zu sogenannten Big Data führen (Wachter 2018). In der Regel werden für datengetriebene Marketingentscheidungen heutzutage genau diese großen Datensätze gesammelt und analysiert, wobei auch eine Fusion von Survey Data und Big Data einen Mehrwert leisten kann (Wachter 2018). Aufgrund der stetigen Zunahme der Leistungsfähigkeit der Speichermedien, der Digitalisierung von Produkten und Dienstleistungen sowie der Vernetzung von Endgeräten ist die Generierung und Speichermöglichkeit von Daten in den letzten Jahrzehnten extrem gestiegen. So steht im engen Zusammenhang mit Data-driven Marketing und Big Data das digitale Marketing, welches Aktivitäten bezeichnet, die über digitale Marketingkanäle (in der Regel Online-Kanäle) gesteuert werden. Beispiele hierfür sind Suchmaschinenmarketing, E-Mail-Marketing, Werbung auf eigenen Websites, etc. Werden für die Steuerung digitaler Marketingkanäle Daten bzw. Erkenntnisse aus Datenanalysen verwendet, kommt das Data-driven Marketing beim digitalen Marketing zum Einsatz. Natürlich können aber auch nicht-digitale Kanäle datengetrieben gesteuert werden. Beispielsweise kann mit Hilfe von Datenanalyse die Frage beantwortet werden, wem man postalische Werbung zukommen lassen sollte und wem nicht. Eine große Herausforderung beim Data-driven Marketing ist es, die für die Marketingentscheidung relevanten Daten intelligent zu verknüpfen und mit entsprechenden Methoden so zu analysieren, dass für das Marketing nützliche Erkenntnisse gewonnen werden können. Denn Daten allein bringen noch lange keine Erkenntnisse. Aufgrund der enormen Fülle von Daten, die heutzutage zur Verfügung stehen, haben sich mehr und mehr intelligente und automatisierte Analysemethoden etabliert. Hierzu zählt die Künstliche Intelligenz (KI). Der Begriff Künstliche Intelligenz als Teilgebiet der Informatik beschreibt ein Konzept von Maschinen, die ähnlich wie Menschen planen, lernen und Sprache verstehen können. Der Software wird dieses Wissen durch maschinelles Lernen (Machine Learning) und tiefgehendes Lernen (Deep Learning) antrainiert. Auch im Marketing wird KI an den unterschiedlichsten Stellen angewandt (KI-Marketing). So werden z. B. Chatbots als Verkäufer eingesetzt.

1  Das Öl des 21. Jahrhunderts

7

Bei der Preispolitik werden KI-Methoden eingesetzt, indem sich Produktpreise nicht nur zeitbezogen, sondern auch individuell der Zahlungsbereitschaft der Kunden anpassen (z. B. Preise bei Amazon oder auf großen Hotelportalen). Auch das Kundenverhalten bei Marketingkampagnen kann mit KIMethoden prognostiziert werden (z. B. Kaufwahrscheinlichkeiten), genauso wie Kündigungswahrscheinlichkeiten oder Kundenlebenswerte. Ein weiterer großer Bereich sind Kundensegmentierungen, die mit KI-Methoden vorgenommen werden (Datasolut, 2020).

1.3 Datengrundlage für Data-driven Marketing „Daten sind das Öl oder das Gold des 21. Jahrhunderts“ – dieser Satz ist in vieler Munde, wenn es um Daten und Erkenntnisgewinn aus Daten für BusinessEntscheidungen geht (z. B. Höinghaus 2015; Spitz 2017). Der Vergleich von Öl bzw. Gold mit Daten zeigt zum einen, dass Daten – wenn man sie für sich nutzen kann – sehr wertvoll sein können. Aber zum anderen muss der Vergleich auch kritisch gesehen werden, schließlich sind Gold oder Öl knappe Güter, die irgendwann aufgebraucht sein werden; vielmehr nehmen dagegen die Datenmengen zu, und zwar so rasant und in einem so starken Ausmaß, dass es eine große Herausforderung ist, sie für sich zum Vorteil zu nutzen. Darüber hinaus bezeichnet beispielsweise die Süddeutsche Zeitung „Daten als das neue Plutonium“, wobei deutlich wird, dass der Einsatz von Daten auch große Risiken birgt, die kontrolliert werden müssen (Kreye 2020). Hierunter fallen z. B. die Themen Datenschutz (vgl. den Beitrag von Westerkamp in diesem Buch, Kap. 11) oder ethische Fragen (vgl. den Beitrag von Fabisch in diesem Buch, Kap. 13). Die weltweit produzierte Datenmenge betrug 2018 33 Zettabyte, in 2025 schätzen Analysten diesen Wert bereits auf 175 Zettabyte. Wieviel 175 Zettabyte ist, zeigt folgender Vergleich: Eine einzelne Person bräuchte 1,8 Mrd. Jahre, um die gesamte Datenmenge von 175 Zettabyte mit herkömmlicher durchschnittlicher Downloadgeschwindigkeit von 25 Mb/s herunterzuladen. Alle Menschen auf der Erde zusammen würden 81 Tage brauchen, wenn sie Tag und Nacht diese Datenmenge downloaden würden (Reinsel et al. 2018). Dass große Datensätze heutzutage generiert und gespeichert werden können, liegt im Wesentlichen an drei Entwicklungen: • der steigenden Speicherkapazität der Computerchips, • der zunehmenden Digitalisierung von Produkten und Services und • der Vernetzung von allem, was vernetzt werden kann.

8

S. Boßow-Thies et al.

Grundvoraussetzung ist zunächst die Speicherkapazität der Daten: Der Computer-Pionier Gordon Moore sagte bereits 1965 voraus, dass sich die Kapazität von Computerchips alle 18 bis 24 Monate bei gleichzeitiger Miniaturisierung und Verbilligung verdoppeln würde. Diese als Mooresches Gesetz bekanntgewordene Erkenntnis besitzt auch heute noch weitgehend Gültigkeit und wurde zum Treiber von Innovationen und die Grundlage für die Speicherung von Big Data (Intel o. J.). Auch wenn die Halbleiterindustrie diese Entwicklung nicht beibehalten kann, wird die Entwicklung alternativer Speichertechnologien wie neuromorphe Systeme oder Quantencomputer die Speicherung immer größerer Datenmengen möglich machen (Strobel 2016). Nur mit der Entwicklung neuer Technologien ist die Speicherung der heute anfallenden Datenmengen auch in der Zukunft möglich. Die Digitalisierung beschreibt die Umwandlung physischer Produkte und analoger Prozesse in digitale Formate. Selbständige Produkte wie Fotoapparat, Diktiergerät und Taschenlampe sind inzwischen als App auf dem Smartphone installierbar. Prozesse wie der Check-In am Flughafen oder in Hotels sind digital möglich (Kreutzer und Sirrenberg 2019). Durch die Digitalisierung entstehen neue Daten – diese Entwicklung wird verstärkt durch die zunehmende Vernetzung von allem, was vernetzt werden kann. Die Darstellung (Abb. 1.1) von Lewis zeigt eindrucksvoll, welche Menge an Daten allein durch das Internet jede Minute entsteht (Lewis 2019). Darüber hinaus ist nicht nur die Vernetzung von Computern, sondern auch von allen Geräten, die einen Sensor in sich tragen, möglich, daher spricht man vom „Internet of Things“ (IoT). Während in 2018 noch 21 Mrd. Objekte vernetzt waren, wird für 2022 bereits eine Vernetzung von 50 Mrd. Objekten prognostiziert (Juniper Research 2018). Die Entwicklung geht außerdem noch weiter: Inzwischen können nicht nur Computer und Objekte vernetzt werden, sondern auch Menschen, Tiere, Prozesse und Services: Das „Internet of Things“ entwickelt sich weiter zum „Internet of Everything“ (Kreutzer und Sirrenberg 2019). Die Digitalisierung und Vernetzung führt nicht nur zu großen Datenmengen, sondern auch zu Daten in neuen Formaten: So können Daten in strukturierten, aber auch teilstrukturierten bis hin zu unstrukturierten Formaten vorliegen. Früher wurden ausschließlich strukturierte Daten verarbeitet, die ein vorgegebenes Format aufweisen, in das sich alle Daten einordnen lassen. Sie weisen eine Zeilen- und Spaltenstruktur auf und können in einer relationalen Datenbank organisiert werden (Luber und Nitzel 2017). Quellen für strukturierte Daten sind neben den klassischen ERP- und CRM-Systemen beispielsweise auch Kundenund Kreditkarten-Sensoren am Point of Sale (PoS), die Produktidentifikation mittels Barcodes oder RFID sowie das Ortungssystem GPS (Gentsch 2019).

1  Das Öl des 21. Jahrhunderts

9

Abb. 1.1   Eine Minute im Internet 2019. (Quelle: Lewis 2019)

Unstrukturierte Daten besitzen dagegen eine nicht identifizierbare Struktur und lassen sich in herkömmlichen Datenbanken nicht ablegen. Es ist lediglich der Dateityp bekannt, die Inhalte liegen nicht in Form voneinander unabhängiger Datenfelder vor. Unstrukturierte Daten sind häufig Text, Audio- oder Videodateien, die häufig aus den sozialen Netzwerken stammen und user-generiert sind. Teilweise lassen sich diese Daten in eine Struktur überführen, ein großer Teil bleibt aber in unstrukturierter Form bestehen. Eine Zwischenform stellen halbstrukturierte Daten dar, die zum Teil eine Struktur aufweisen, zum anderen Teil aber in unstrukturierter Form vorliegen.

10

S. Boßow-Thies et al.

Ein Beispiel dafür sind E-Mails, die einen Absender, einen Empfänger und eine Betreffzeile haben, deren eigentlicher Inhalt aber aus Text besteht, der keine Struktur aufweist (Luber und Nitzel 2017). Halbstrukturierte und unstrukturierte Daten machen häufig einen großen Teil der Big Data aus und stellen die Unternehmen vor große Herausforderungen bei der Speicherung und Verarbeitung dieser Daten. Beispielsweise liefern Social Media-Anwendungen Beziehungs- und Verhaltensdaten, von Smartphones erhält das Unternehmen Geo- und Bewegungsdaten. Durch neue Geschäftsmodelle kommen ebenfalls neue Datenquellen hinzu, digitalisierte Check-Ins liefern zusätzliche Verhaltensdaten, aus Carsharing erhält das Unternehmen Bewegungsmuster (vgl. den Beitrag von Pick in diesem Buch, Kap. 10). Gadatsch und Landrock (2017) haben versucht, die Datenquellen in einer Übersicht darzustellen (siehe Abb. 1.2), mit neuen Technologien kommen ständig neue Datenquellen hinzu. Diese durch die Digitalisierung neu entstehenden großen Datenmengen werden durch das häufig zitierte „3-V-Modell“ der amerikanischen Marktforschungsagentur Gartner beschrieben: „Big Data is high-volume, high-velocity and/or high-variety information assets that demand cost-effective, innovative forms of information processing that enable enhanced insight, decision making, and process automation.“ (Gartner Glossary, o. J.-b). Das ursprüngliche Modell des Marktforschungsinstituts Gartner beinhaltet die drei „V“ Volume, Variety und Velocity, in der jüngeren Literatur sind die zwei weiteren „V“ Veracity und Value hinzugekommen (Fasel und Meier 2016; Kreutzer und Land 2017).

NEUE SYSTEME

KLASSISCHE SYSTEME

Halbstrukturierte und unstrukturierte Daten

Strukturierte Daten Transaktionsverarbeitende Systeme (ERP, CRM) • • • •

Produkt-, PersonenKundendaten Bestellungen Warenströme …

Maschinendaten (Sensordaten, LogDaten) • • • •

Produktionsdaten Wetterinformationen Geodaten …

Positions- und Bewegungsdaten (Mobile IT) • • • •

RFID-Daten Verkehrsdaten Telekommunikationsdaten …

Beziehungs- und Verhaltensdaten (Social Web) • • • •

Facebook, Instagram, Youtube Blogs Communities …

Abb. 1.2    Ausgewählte Datenquellen für Big Data. (Quelle: Eigene Erstellung in Anlehnung an Gadatsch und Landrock 2017)

1  Das Öl des 21. Jahrhunderts

11

Volume bedeutet, dass die zur Verfügung stehenden Daten in großer Menge vorhanden sind. Durch die oben beschriebene stetig steigende Leistungsfähigkeit der technischen Hardware, die zunehmende Digitalisierung von Produkten und die Möglichkeit der Vernetzung von Geräten wächst die Datenmenge exponentiell (Knorre et al. 2020; Kreutzer und Sirrenberg 2019). Variety bezieht sich auf die Vielzahl der oben beschriebenen unterschiedlichen Datenquellen und Datenformate, die verarbeitet werden müssen. Velocity beschreibt die Geschwindigkeit, mit der Daten aktuell verarbeitet werden können, bis hin zur Verarbeitung in Echtzeit. Die Speicherung und Verarbeitung stellen hohe Anforderungen sowohl an die Hardware als auch die Software zur Analyse der Daten. Für Menschen ist diese Geschwindigkeit ohne die Unterstützung durch Analyse-Software nicht mehr zu bewältigen (Gentsch 2019). Im Programmatic Advertising beispielsweise wird Werbung auf Basis verschiedener Datenquellen wie Verhaltensdaten, Wetterdaten oder CRM-Daten in Echtzeit an die Nutzer von Websites, Smartphones oder Wearables ausgespielt (vgl. den Beitrag von Greve, Scheibe in diesem Buch, Kap. 5). Veracity spricht die Qualität der vorliegenden Daten hinsichtlich Richtigkeit und Vertrauenswürdigkeit an. Dabei geht es nicht um die Relevanz der Daten, sondern um die inhaltliche Qualität wie Korrektheit, Vollständigkeit, Konsistenz und Aktualität. Es bestehen bereist vielfältige Methoden zu Sicherung der Datenqualität, die auch bei Big Data zum Einsatz kommen (vgl. den Beitrag von Wolters in diesem Buch, Kap. 2). Zur Veracity zählt neben Richtigkeit und Qualität auch die Glaubhaftigkeit der Daten. Die Auswertung nicht glaubhafter Daten führt zu falschen oder verzerrten Ergebnissen, beispielsweise von Phishing Mails oder Fake News. Problematisch ist aktuell noch, die Glaubhaftigkeit von Daten wie Fake News manuell zu überprüfen, zunehmend werden Systeme entwickelt, die die Veracity sicherstellen sollen (Gentsch 2019). Mit Value ist schließlich der Wert der Daten für die Analyse gemeint. Die Verwendung von Big Data verlangt hohe Investitionen in Hard- und Software, die durch den Mehrwert, der dem Unternehmen durch die Verwendung der Daten entsteht, gerechtfertigt werden müssen (Knorre et al. 2020).

1.4 Von Big Data über Data Analytics zu Smart Data Big Data bedeutet nicht nur, dass große Datenmengen zur Verfügung stehen, sondern dass diese auch wertschöpfend für die Industrie eingesetzt werden: Aus Big Data werden Smart Data. Dazu bedarf es Technologien und Fähigkeiten, neben formatierten Daten halbstrukturierte und unstrukturierte Daten verarbeiten

12

S. Boßow-Thies et al.

und analysieren zu können. Solange Daten ungenutzt bleiben, bieten sie keinen Mehrwert für das Unternehmen. Je mehr Daten vorliegen und verarbeitet werden können, desto genauer kann der einzelne Kunde gemäß seiner individuellen Bedürfnisse angesprochen werden (Kreutzer und Sirrenberg 2019). Um aus großen Daten sinnvolle Erkenntnisse zu gewinnen, sind neue Ansätze der Datenanalyse notwendig. Unter dem Oberbegriff Data Analytics stehen aus der Wissenschaft zahlreiche Methoden zur Verfügung, die der Analyse von strukturierten und auch unstrukturierten Daten dienen. Eine Einordnung der Analyseverfahren bietet das Marktforschungsunternehmen Gartner an. In seinem „Reifemodell für Data Analytics“ zeigt es den Zusammenhang zwischen Schwierigkeitsgrad und Wert der unterschiedlichen Stufen von Data AnalyticsTechniken auf (siehe Abb. 1.3). Die klassischen deskriptiven Verfahren (Descriptive Analytics) der ersten Stufe finden nach wie vor Anwendung im Unternehmenskontext. Dabei geht es um die Auswertung vergangenheitsbezogener strukturierter Daten mit dem Ziel, Potentiale und Problemfelder zu identifizieren. Sie werden vor allem in Reportings im Kontext von Business Intelligence-Systemen eingesetzt. How can we make it happen?

VALUE

What will happen?

PREDICTIVE ANALYTICS

Why did it happen? What happened?

PESCRIPITIVE ANALYTICS

DIAGNOSTIC ANALYTICS

DESCRIPTIVE ANALYTICS

DIFFICULTY Abb. 1.3   Reifemodell für Data Analytics. (Quelle: Eigene Erstellung in Anlehnung an Gartner, 2012)

1  Das Öl des 21. Jahrhunderts

13

Die diagnostischen Verfahren (Diagnostic Analytics) basieren ebenfalls auf vergangenheitsbezogenen Daten. Hier geht es darum, Ursachen, Auswirkungen und Wechselwirkungen zu klären. Hierzu gehören Methoden wie Kausalanalysen oder strukturentdeckende Verfahren (Gartner 2012). Im Marketing werden sie häufig eingesetzt, um Verhaltensmuster in Kundendaten zu identifizieren und den Kunden zielgerichteter ansprechen zu können. Prädiktive Verfahren (Predictive Analytics) sind in der Lage, auf Basis von Vergangenheitsdaten Vorhersagen für zukünftiges Verhalten zu treffen. Auch hier kommen sämtliche statistischen Methoden bis hin zu KI zum Einsatz, um Aussagen über die Wahrscheinlichkeit zukünftiger Ereignisse treffen zu können. Die höchste Stufe nach Gartner stellen die präskriptiven Verfahren (Prescriptive Analytics) dar, die nicht nur zukünftige Ereignisse prognostizieren, sondern auch Hinweise darauf geben, wie Ereignisse beeinflusst werden können. Mit Simulationsstudien und Wenn-Dann-Analysen beispielsweise kann die Auswirkung verschiedener Handlungsoptionen aufgezeigt werden. Bei den sogenannten Advanced Analytics-Methoden, die die diagnostischen, prädiktiven und präskriptiven Verfahren umfassen, werden die klassischen Methoden der Business Intelligence verlassen, um tiefergehende Erkenntnisse zu gewinnen, Vorhersagen zu treffen und gezielte Empfehlungen geben zu können. Hier kommen zahlreiche Methoden wie Text Mining, semantische und Sentiment-Analysen, Simulationsanalysen oder neuronale Netze zum Einsatz (Gartner Glossary o. J.-a). Dabei geht es nicht mehr darum, vermutete Zusammenhänge zu bestätigen, sondern mit Hilfe von Algorithmen in den Daten nach Zusammenhängen und Verhaltensmustern zu suchen (Knorre et al. 2020). Die große Menge an semi- und unstrukturierten Daten kommt kaum ohne Algorithmen und Methoden der Künstlichen Intelligenz aus. Durch maschinelles Lernen (Machine Learning) werden Computer trainiert, analog zum Menschen aus Erfahrungen eigenständig Wissen aufzubauen und Lösungen für unbekannte Probleme zu finden. Maschinelles Lernen erfordert Trainingsdaten, in denen anhand von Algorithmen Regeln und Gesetzmäßigkeiten erkannt und weiterentwickelt werden. Die daraus entstehenden Vorhersagemodelle können auch für die Beurteilung unbekannter Daten eingesetzt werden (Hurwitz und Kirsch 2018). Die Einsatzmöglichkeiten im Marketing sind vielfältig: Während ein Kunde surft, begleitet ihn ein selbstlernendes System auf seiner Customer Journey. Die Analyse des Such- und Kaufverhaltens kombiniert mit Daten über Themen, Kunden, Kaufverhalten, Trends in Social Media und Blogs macht eine individuelle Vorhersage des Kaufverhaltens möglich. Mit zunehmender Datenmenge verbessern sich die Algorithmen und so auch die Auswertungen und Vorhersagen. Unternehmen können so nicht nur die Präferenzen ihrer Kunden verfolgen, sondern

14

S. Boßow-Thies et al.

auch ökonomische, soziale oder Geo- und Wetterdaten in deren Lebensumfeld in Marketingaktionen einbeziehen. Mit den richtigen Informationen sind die Unternehmen in der Lage, praktisch für jeden einzelnen Kunden personalisierte Angebote zu unterbreiten (Sawant und Litzel, 2018).

1.5 Einsatzmöglichkeiten des Data-driven Marketings Einsatzmöglichkeiten des Data-driven Marketings finden sich entlang der gesamten Customer Journey, welche die Reise eines Kunden von der Bedarfserkennung bis zum letztendlichen Kauf beschreibt. Aus Marketingsicht umfasst die Customer Journey alle sogenannten Touchpoints eines Kunden über alle Marketingkanäle hinweg mit einem Produkt bzw. Service (Engelhardt und Magerhans 2019). Mithilfe u. a. datenbasiert gestalteter Touchpoints sollen dabei verschiedene „Moments of Truth“, die für die Meinungsbildung der Kunden entscheidend sind (Carlzon 1987), verbessert werden. Ziel des Marketings ist es dabei, stets ein positives Erlebnis zu kreieren, das den Kunden dazu veranlasst, die gewünschte Zielhandlung wie Kauf und/oder Weiterempfehlung letztendlich durchzuführen (Weissman und Wegerer 2019). Aufgrund der heutigen Ubiquität von Informationen (über unterschiedliche Devices) und Vielzahl an (mobilen) Distributionskanälen hängen Kaufentscheidungen immer mehr von sogenannten „Micro Moments“ ab. Dabei gilt es, Kunden zum jeweiligen Zeitpunkt an dem jeweiligen Ort in dem jeweiligen Kontext individuell richtig anzusprechen (Adams et al. 2015). Die Customer Journey besteht aus unterschiedlichen Phasen. Die Reise geht von der Vorkaufsphase über die Kaufentscheidung bis hin zu Aktivitäten, die nach dem eigentlichen Kauf erfolgen (Puccinelli et al. 2009). In Theorie und Praxis finden sich verschiedene feinere Untergliederungen dieser drei Stufen. Eine häufig herangezogene Variante ist die Unterteilung der Customer Journey in folgende sechs Phasen: Awareness, Evaluation, Purchase, Usage, RePurchase, Advocacy (u. a. Kruse Brandão und Wolfram 2018). Data-driven Marketingmaßnahmen können nun sämtliche Stationen der Customer Journey gestalten. Auf Basis von Data, Big Data und Data Analytics gewonnenen Erkenntnissen, den Smart Data, ist es möglich, die verschiedenen Touchpoints individuell auf die jeweiligen Nutzer zuzuschneiden. Gleichzeitig werden im Verlauf der Customer Journey wiederum Daten gesammelt, welche die ­vorhandene Datenbasis erweitern und eine weitergehende Optimierung künftiger Marketingmaßnahmen ermöglichen. Abb. 1.4 verdeutlicht diesen Zusammenhang.

1  Das Öl des 21. Jahrhunderts

15

Abb. 1.4   Data-driven Marketing entlang der Customer Journey inklusive beispielhafter Touchpoints. (Quelle: Eigene Darstellung)

Zu Beginn der Customer Journey liegt noch kein Bedarf vor oder dieser ist dem Kunden zu jenem Zeitpunkt noch nicht bewusst. Der Zustand, bevor der Bedarf tatsächlich geweckt wird, wird z. T. auch als Pre-Awareness-Phase bezeichnet. Die Erkennung des Bedarfs in der eigentlichen Awareness-Phase kann durch unterschiedliche Stimuli, u. a. auch durch sogenannte Influencing Touchpoints, ausgelöst werden. Um diesem aufgedeckten Bedarf zu begegnen, wird von Kundenseite aus mit Hilfe verschiedenster noch nicht unbedingt produktspezifischer Informationen nach einer (noch offenen) Lösung gesucht. Schließlich wird im weiteren Verlauf die Suche immer konkreter, und spezifische Produkte oder Dienstleistungen kommen als Lösung in Frage. Online kann auf diesen Bedarf z. B. durch Banner aufmerksam gemacht werden. Hier können Daten bzgl. der User bereits in einem anderen Kontext erhoben worden sein. Darunter fallen Informationen zum bisheriges Kauf- sowie Surfverhalten, aber auch technische, geographische oder soziodemographische Daten aus dem Profil des Nutzers in sozialen Medien. Mit Hilfe von Targeting-

16

S. Boßow-Thies et al.

Möglichkeiten können Werbemaßnahmen somit bereits in der ersten Phase der Customer Journey auf den User zugeschnitten werden (vgl. den Beitrag von Hopf in diesem Buch, Kap. 4). Hierunter fallen auch auf Basis von Algorithmen automatisch ausgespielte Produktempfehlungen, welche den Kunden in der ersten Phase helfen und ein Instrument des Data-driven Marketings darstellen. Die verschiedenen Online-Kontaktpunkte können darüber hinaus auch um verschiedene Data-driven Touchpoints in der Offline-Welt ergänzt werden. Hierunter fallen z. B. Out-of-Home-Werbekampagnen, bei denen mit Hilfe von Geointelligenz Zielgruppen hyperlokal verortet werden und somit OnlineTargeting in den öffentlichen Raum übertragen werden kann (vgl. den Beitrag von Köster, Lutz, Thäsler in diesem Buch, Kap. 8). Weitere Use Cases für Datadriven Marketing im Outernet können auch auf Messen gefunden werden, wenn z. B. Stand-Layouts auf Basis digital erfasster Besucherströme optimiert werden oder mit Hilfe digitaler Exponate weitere Daten gesammelt und Insights generiert werden (vgl. den Beitrag von Kaufmann, Frahm in diesem Buch, Kap. 9). In der Evaluation-Phase sucht der Kunde gezielt und informiert sich detailliert über häufig verschiedene Angebote. Das Relevant-Set mit Angeboten, die weiterverfolgt werden sollen, entsteht, und Präferenzen bilden sich aus. Am Ende der Phase steht die Kaufintention für ein bestimmtes Produkt bzw. Service, wobei der Kaufprozess an sich noch nicht eingeleitet wird. Eine besondere Rolle spielen hier Retargeting-Maßnahmen bei denen Nutzer wiederholt angesprochen werden, um z. B. über Banner an eine Marke bzw. ein Produkt zu erinnern. Daten z. B. aus Warenkorbaktivitäten, Auswertung von Suchanfragen sowie Cookies helfen bei der personalisierten Ausspielung. Programmatic Advertising nimmt hier durch die automatisierte Aussteuerung des Display Advertisings und somit entsprechenden Effizienzvorteilen eine besondere Bedeutung ein, wobei jedoch auch Grenzen u. a. hinsichtlich des passenden Kontexts und der Tonalität der Website zu beachten sind (vgl. den Beitrag von Greve, Scheibe in diesem Buch, Kap. 5). Auch das Suchmaschinenmarketing ist hier von besonderer Bedeutung. Suchmaschinen, und hier Google mit einem Marktanteil bei der Desktop-Suche von 89 Prozent bzw. über 98 Prozent bei der mobilen Suche (StatCounter 2020), bilden für User häufig den Einstieg in die Evaluationsphase. Neben bezahlten Suchergebnissen (SEA) werden auch organische Suchergebenisse nach z. B. Such- und Surf-Historie, Endgerät oder Standortdaten personalisiert ausgespielt. In dieser Vorkaufphase finden sich unterschiedliche „Zero Moments of Truth (ZMOT)“, ein Begriff, der von Google geprägt wurde. Potentielle Kunden informieren sich über die unterschiedlichen Devices, bevor sie sich letztendlich entscheiden. Dies gilt für Online- ebenso wie für Offline-Käufe (Lecinski 2011).

1  Das Öl des 21. Jahrhunderts

17

Die dritte Purchase-Phase wird durch die endgültige Entscheidung für eine Alternative, die sich in der Bestellung, dem Kauf und der Bezahlung eines Produktes manifestiert, charakterisiert. Die getroffene Kaufintention soll aus Unternehmenssicht nun auch umgesetzt werden. Unterschiedliche sogenannte Kauf-Touchpoints gestalten hier den „First Moment of Truth“ (Lecinski 2011). In dieser Phase kommt aus Sicht des Data-driven Marketings dem Dynamic sowie dem Personalised Pricing eine besondere Bedeutung zu. Dynamic Pricing beschreibt die datenbasierte, sequentielle Anpassung von Preisen für ein Produkt im Zeitablauf. Variablen wie Wettbewerbspreise, Zeit, aber auch das Wetter können hier als Treiber der Preisdynamik dienen. Beim Personalised Pricing steht nicht die Dynamik im Vordergrund. Vielmehr wird auf Basis gesammelter Informationen über den Kunden der jeweilige Preis für ein Produkt oder einen Service individuell und in Echtzeit gestaltet. Die Preisdifferenzierung, mit dem Ziel des Abschöpfens der Konsumentenrente, kann auf Basis von technischen Informationen wie der Geolokation, dem genutzten Betriebssystem, aber auch der Browser-Historie, Mausbewegungen oder Tippverhalten erfolgen (Hosell 2019). Lernende Algorithmen können dabei die Wechselwirkungen zwischen Preisen und Umsatz laufend untersuchen, wobei die hypothetischen optimalen Preise dann unter Verwendung von A/B-Tests überprüft werden können (vgl. den Beitrag von Stegemann, Suwelack in diesem Buch, Kap. 7). Möglichkeiten der Data-driven Preisstrategien finden sich mittlerweile auch in der Offline-Welt. Digitale Preisschilder im Offline-Handel ermöglichen hier eine dynamische Änderung der Preise, aber auch Service-Punkte, die mit Hilfe von Kundenkarten, individuelle Rabatte automatisiert vergeben, oder Mobile Couponing, die mittels Locations Based Services am PoS Einfluss nehmen können, zählen im weiteren Sinne dazu. Die große Herausforderung ist es hier, die Waage zwischen Kundenakzeptanz (Intransparenz und Fairness der Preise) und Umsatzoptimierung herzustellen. Auch die individualisierte Ausspielung der Website, entsprechend dem bisherigem Surf-/ Kaufverhalten sowie weiterer Kontextfaktoren, wie z. B. das Wetter, kann als weiterer Touchpoint hier aufgeführt werden. Da in dieser Phase die tatsächlichen Käufe getätigt werden, können entsprechend äußerst wertvolle Daten generiert werden. In der anschließenden Usage-Phase sammelt der Kunde Erfahrungen mit dem gekauften Produkt. In dieser Phase geht es um die Beurteilung des Produktes im Vergleich zu den gesetzten Erwartungen, jedoch auch um die Evaluation des Liefervorgangs sowie u. U. die Erfahrungen mit dem Customer Service. In dieser Phase entstehen die individuellen „Second Moments of Truth“ (Lecinski 2011). Im Rahmen von „Digital Augmentation“ von Produkten kann das gekaufte Produkt durch einen digitalen Service ergänzt werden, welcher aufgrund von

18

S. Boßow-Thies et al.

Big Data entsprechend individuell gestaltet werden kann (Kannan und Li 2017). Ein Beispiel wäre hier der Home Mat Home Control, ein lernfähiger Insektenschutz von Henkel. Dabei wird entsprechend z. B. der Raumgröße, der bisherigen Nutzung, der Wettervorhersagen Insektenschutz aus einem vernetzten Mini-Versprüher abgegeben (Grassmann 2017). In dieser Phase können auch Chatbots den Kundenservice unterstützen. So ist z. B. der Chatbot TOBi, den Vodafone in Zusammenarbeit mit IBM entwickelt hat, in der Lage, gegenwärtig 20 Prozent der Kundenfragen selbstständig zu beantworten. Gerät der Bot an seine Grenzen, wird der Kunde automatisch an einen Mitarbeiter weitergeleitet (Baumann 2019). Diese virtuellen Assistenten sind dabei bereits in der Lage, Stimmungen der Kunden aufgrund ihrer Äußerungen aufzunehmen und entsprechend zu reagieren. In der Re-Purchase-Phase entscheidet sich der Kunde für einen entsprechenden Wiederholungskauf des Produktes oder auch für Zusatzprodukte. Somit wird hier die Entscheidung getroffen, ob im nächsten Entscheidungsprozess dieselbe Marke bzw. das gleiche Produkt erneut gekauft wird und somit ein Loyalty Loop entsteht oder der gesamte Entscheidungsprozess mit der ersten Phase erneut beginnt (Court et al. 2009). Auf der jeweiligen Website automatisch ausgespielte, personalisierte Kaufempfehlungen für Zusatzprodukte, Coupons am PoS für Wiederholungskäufe, E-Mails sowie postalische Werbung mit individuellen Incentives oder zusätzlichen Vorschlägen gehören hierzu (vgl. den Beitrag von Goerke, Proppe in diesem Buch, Kap. 6). Zukünftig können mit Blick auf „Internet of Things“ aber auch selbständig bestellende Geräte hierunter gefasst werden, die in Abhängigkeit verschiedener externer Faktoren (Wetter, Kaufzyklen, Kaufpräferenzen etc.) bestimmte Varianten eines Produktes (erneut) kaufen. Gleichzeitig werden in dieser Phase Daten gesammelt, die wiederum für die Gestaltung zukünftiger Touchpoints verwendet werden. Die Advocacy Phase der Customer Journey hat durch die Verbreitung der sozialen Medien an Bedeutung gewonnen. Begeisterte Kunden können das gekaufte Produkt über verschiedene Netzwerke hinweg empfehlen, so dass sich ein selbstverstärkender Kreislauf ergibt (Ahrholdt et al. 2019). Dieser sogenannte „Ultimate Moment of Truth“, in dem die Konsumenten ihre Erfahrungen in den sozialen Medien teilen, kann wiederum Grundlage für den „Zero Moment of Truth“ bilden (Solis 2013). Konsequenterweise steht in dieser Phase mit Blick auf das Data-driven Marketing das Generieren von Daten im Vordergrund. Zusammenfassend birgt Data-driven Marketing Chancen bzw. Vorteile für Unternehmen ebenso wie für Kunden. Unternehmen ermöglicht die zielgerichtete Nutzung von Daten eine effektivere und effizientere Kundenansprache entlang der gesamten Customer Journey mittels entsprechender Marketingmaßnahmen, die das gesamten Marketing-Mix umfassen können. Kunden ermöglichen Data-driven

1  Das Öl des 21. Jahrhunderts

19

Marketingmaßnahmen eine Reduktion der jeweiligen Transaktionskosten, da insbesondere Such-, Verhandlungs-, Entscheidungs- oder auch Kontrollkosten durch eine individualisierte Kundenansprache reduziert werden können.

1.6 Status quo und Herausforderung von Datadriven Marketing in der Praxis Trotz großer Chancen und Vorteile und sicherlich auch noch ungeahnter Möglichkeiten des Data-driven Marketings ist der Dateneinsatz und dessen Nutzen für Business-Entscheidungen in der Praxis aktuell noch sehr eingeschränkt, obwohl viele Unternehmen bereits Daten sammeln und speichern. Das IW (Institut der Deutschen Wirtschaft) hat zusammen mit der IW Consult und dem FraunhoferInstitut ein Reifegradmodell entwickelt, welches die Datennutzung beschreibt (Abb. 1.5). Insbesondere kleine Unternehmen stehen noch am Anfang des sogenannten „Digitalisierungsgrades“ (IWD 2019). Aus einer groß angelegten Commerzbank-Studie des Jahres 2018 gehen ähnliche Zahlen hervor: Hier heißt es, dass lediglich rund acht Prozent der deutschen Firmen mittlerer Größe bereits tief in die Datennutzung eingestiegen sind; und dass, obwohl 81 Prozent der Mittelständler Big Data und deren Analyse für „zentral wichtig“ halten und zwei Drittel dadurch Umbrüche in ihrer Branche erwarten Commerzbank (2018). bis 49 Mitarbeiter 12.1

2.4

50 bis 249 Mitarbeiter 250 und mehr Mitarbeiter 17.9

0.2

10.5

insgesamt 13.8

2.2

27.1 62.4 85.6

81.9

84

Einsteiger: lediglich Unterstützung durch IT-Systeme Fortgeschrittene: etablierte Datenerfassung, -pflege und -weiterverarbeitung Pioniere: proaktives Datenmanagement, Teil einer datengetriebenen Wertschöpfungskette

Abb. 1.5   Digitalisierungsgrad (in Prozent) von Industrieunternehmen und unternehmensnahen Dienstleistern in Deutschland (Befragung von 1304 Unternehmen). (Quelle: IWD 2019)

20

S. Boßow-Thies et al.

Die Nutzung von Daten im Bereich Marketing hat Bünte (2018) näher untersucht. Sie fokussiert dabei auf den Einsatz von KI-Methoden im Marketing. Dazu wurden 208 Manager befragt. Ihre Ergebnisse zeigen Ähnliches: So gibt es große Unterschiede zwischen dem wahrgenommenen Nutzen von KI im Marketing und dem momentanen Einsatz. So halten 80 Prozent aller Manager KI im Marketing für wichtig und fordern, dass es mehr eingesetzt werden sollte, allerdings setzen bis dato lediglich 31 Prozent aller befragten Manager KI im Unternehmen tatsächlich ein, nur 26 Prozent nutzen es für Marketing-Themen, und nur sieben Prozent verwenden es im Marketing intensiv. Nach Bünte (2018) sehen Marketing-Manager allerdings in KI die (positive) Zukunft des Marketings (93 Prozent). Insbesondere im Bereich Consumer Data und Consumer Insights wird KI ihrer Meinung nach eine große Rolle spielen. Vergleichbar sind ebenfalls die Ergebnisse eine Studie der Digitalagentur Wunderman, bei der 250 Entscheider befragt wurden. Danach haben aktuell nur in jedem dritten Unternehmen datenbasierte Analysen Einfluss auf die Gestaltung von Marketingmaßnahmen (Hein 2018). Gleichzeitig sagen aber 99 Prozent, dass Daten über den Marketing- und Vertriebserfolg entscheiden werden. Zusammenfassend sind sich Marketers trotz der heutzutage noch eingeschränkten Nutzung von Daten aber einig, dass dieses Thema in Zukunft eine zentrale Rolle einnehmen wird und die richtige Anwendung von Daten den Unternehmenserfolg maßgeblich steigern wird. Es gibt eine Reihe von Ursachen und Problemen, warum Daten aktuell noch nicht zufriedenstellend genutzt werden können. Anders ausgedrückt: Unternehmen stehen vor verschiedenen Herausforderungen, die es in Zukunft zu bewältigen gilt. Hierunter fallen zum einen unternehmensspezifische Problemstellungen hinsichtlich des Datenmanagements, worunter Fragestellungen hinsichtlich der Datenqualität, fehlender Ressourcen (Infrastruktur/ Know-how/ Zeit) oder unternehmenspolitischer Besonderheiten zu fassen sind, aber auch allgemeinere Herausforderungen bzgl. ethischer Fragestellungen, Vertrauen/ Misstrauen der User in z. B. personalisierte Marketingaktivitäten oder Aspekte des ­Datenschutzes. Große Herausforderungen sind häufig die mangelnde Datenqualität, welche für effiziente Marketingentscheidungen und letztlich für den Erfolg des Datadriven Marketings entscheidend sind. Hierzu müssen zunächst die verschiedenen Datenströme zusammengefasst werden, so dass unterschiedliche Unternehmensbereiche von Marketing- und Kommunikationsabteilungen, IT, Marktforschung, Business Intelligence, Vertrieb, Produkt- und Preismanagement jedoch auch

1  Das Öl des 21. Jahrhunderts

21

externe Datenlieferanten und Agenturen involviert sein können (Hristev und Clessienne 2019). Darüber hinaus muss sichergestellt werden, dass Daten korrekte, vollständige, aber auch eindeutige und aussagekräftige Informationen beinhalten. Allgemein gültige Lösungsansätze sind in diesem Zusammenhang nicht zu finden. Unternehmen müssen je nach Anforderungslage eigene klare Regeln zur automatisierten Identifikation und zum Umgang mit Qualitätsmängeln festlegen (vgl. den Beitrag von Wolters in diesem Buch, Kap. 2). Zusätzlich kann eine geeignete Visualisierung das Verständnis der Datenanalyse unterstützen (vgl. den Beitrag von Jacobs, Hensel-Börner in diesem Buch, Kap. 3). Ebenfalls mangelt es teilweise noch an fehlender IT-Infrastruktur in Unternehmen, die eine Verarbeitung großer Datenmengen erst ermöglichen. Die Menge, Vielfalt und Komplexität der heute vorliegenden Daten gehen inzwischen weit über die Fähigkeiten menschlicher Analysten, Muster und Zusammenhänge zu erkennen, hinaus. Ohne die Investition in technische Hilfsmittel ist die Erkennung komplexer Zusammenhänge in Big Data nicht möglich, vor allem nicht in Echtzeit. Einfache Datenbanken auf einem einzigen Server sind im Zeitalter von Big Data nicht möglich oder mit extrem hohen Kosten verbunden. Mit Software Frameworks wie Hadoop lassen sich intensive Rechenprozesse mit riesigen Datenmengen, wie sie im Big-Data-Umfeld auftreten, auf einer Vielzahl zu einem Cluster zusammengefasster Computer ausführen (Luber und Nitzel 2016). Solche Rechnerverbunde verdrängen aufgrund ihrer Verarbeitungsgeschwindigkeit zunehmend die herkömmlichen relationalen Datenbanken als zentrale Datenablagen. Fehlendes Know-how eigener Fachkräfte und der gegenwärtige Mangel an gut ausgebildeten Data Scientists sind eine weitere Hürde, die es zu bewältigen gilt. Laut des Stifterverbandes der deutschen Wirtschaft fragten Unternehmen in Deutschland 2017 rund 10.000 Data Science-Spezialisten zusätzlich nach. Insbesondere im Marketingbereich suchten 2019 gemäß des Marketing-TechMonitor Deutschlands rund 63 Prozent der Unternehmen nach Data Scientists bzw. 74 Prozent nach Marketing-Technology-Experten (Strauß 2019) und das, obwohl der Harvard Business Review bereits 2012 Data Scientist als „The Sexiest Job of the 21th Century“ bezeichnet hat (Davenport und Patil 2012). Für das Data-driven Marketing ist es elementar, Mitarbeiter zu haben, die zum einen den Kunden im Fokus haben, zum anderen aber auch das Know-how für das Datenmanagement besitzen („Data Literacy“) und ein Verständnis dafür mitbringen, wie IT funktioniert. Das Marketing wird mittlerweile sehr viel technologiegetriebener gesteuert, was auch neue Herausforderungen an das Berufsbild des Marketers bedeutet.

22

S. Boßow-Thies et al.

Häufig sind auch der Faktor Zeit ebenso wie politische Befindlichkeiten, Ängste oder auch veraltete Unternehmensstrukturen in Unternehmen wesentliche Komponenten, die Data-driven Marketers vor Herausforderungen stellen. So müssen theoretisch-fundierte, optimale Lösungen manchmal pragmatischeren Lösungen bei der Datensammlung, -aufbereitung oder -analyse der Vorzug gegeben werden (Hristev und Clessienne 2019, vgl. den Beitrag Goerke, Proppe in diesem Buch, Kap. 6), und manchmal führen die Barrieren auch zu keinen zufriedenstellenden Lösungen. Erfolgreiches Data-driven Marketing zeichnet sich damit auch durch eine gesamthafte Strategie und bereichsübergreifende Zusammenarbeit aus, wobei in einer agilen Arbeitsatmosphäre Talente zusammengebracht und gefördert werden (Klaus 2019). Dabei gilt es, sämtlichen Entscheidungsträgen die Chancen des Data-driven Marketings entsprechend zu verdeutlichen und Skeptiker sowie Opportunisten zu überzeugen. Zusätzlich zu den genannten Herausforderungen ergeben sich Fragestellungen hinsichtlich des Datenschutzes. Grundsätzlich bestehen bei Kunden die Bedenken, dass Daten offengelegt, verändert, missbräuchlich genutzt, gehackt oder auch zerstört werden (Yang et al. 2017), auch wenn ihr Verhalten diesen Bedenken gemäß des sogenannten „Privacy Paradoxons“ oder auch „Privacy Calculus“ nicht entspricht (vgl. die Beiträge von Pick, Kap. 10 und Fabisch, Kap. 13 in diesem Buch). Sorgen hinsichtlich des Datenschutzes werden auch in Politik und Wirtschaft vor dem Hintergrund der Datensammlungsstrategien großer Konzerne gegenwärtig stark diskutiert (u. a. Chen 2019). Aus Unternehmenssicht ist dabei eine Auseinandersetzung mit den grundlegenden Anforderungen des Datenschutzes, gerade in Bezug auf das Handling mit personenbezogenen Daten, für einen verantwortungsvollen Umgang mit letzteren unerlässlich (vgl. den Beitrag von Westerkamp in diesem Buch, Kap. 11). Die Datenschutz-Grundverordnung (DSGVO) bildet hier seit 2018 einen gemeinsamen Datenschutzrahmen in der Europäischen Union, wobei jedoch Gesetze- und Richtlinien nicht alle Themenbereiche abdecken können, die in diesem Zusammenhang ethische Konflikte hervorrufen können (vgl. den Beitrag von Fabisch in diesem Buch, Kap. 13). Ein Ziel aus Unternehmensperspektive muss es daher sein, Vertrauen der Kunden in das jeweilige Datenhandling entlang einer Digital Trust Journey zu generieren (vgl. den Beitrag von Corves, Schön in diesem Buch, Kap. 12).

1  Das Öl des 21. Jahrhunderts

23

1.7 Fazit Marketing ohne Datenanalyse ist heutzutage undenkbar. Erst die Datenanalyse und somit das Data-driven Marketing macht es möglich, große Kundenstämme gezielt anzusprechen und z. B. dadurch hohe Streuverluste zu vermeiden. Aufgrund der enormen Zunahme von verfügbaren Daten haben sich viele neue Analysemethoden etabliert, die intelligent und automatisiert arbeiten und oftmals in Echtzeit Ergebnisse präsentieren oder Selektionen vornehmen. Der Anwendungsbereich dieser Methoden im Marketing ist vielfältig und längst noch nicht ausgeschöpft. Neben großartigen Chancen gibt es aber auch noch eine Vielzahl von Herausforderungen und bis dato ungeklärte Fragen, die für den zukünftigen Einsatz und auch die Weiterentwicklung des Data-driven Marketings zu bewältigen sind. Einige sollen mit Hilfe des vorliegenden Werkes beantwortet werden.

Literatur Adams, L., Burkholder, E., & Hamilton, K. (2015). Your Guide to Winning the Shift to Mobile. Abgerufen am 20.03.2020 unter https://www.thinkwithgoogle.com/marketingresources/micro-moments/micromoments-guide/. Ahrholdt, D. C., Greve, G., & Hopf, G. (2019). Online-Marketing- Intelligence. Wiesbaden: Springer Gabler. Baumann, J. (2019). Alexa und TOBi beraten Dich im Vodafone-Kundenservice. Abgerufen am 17.02.2020 unter https://www.vodafone.de/featured/inside-vodafone/alexa-und-tobiberaten-dich-jetzt-im-vodafone-kundenservice_cv/. Bünte, C. (2018). Künstliche Intelligenz – Die Zukunft des Marketing. Wiesbaden: Springer Gabler. Carlzon, J. (1987). Moments of Truth. Cambridge, Mass.: Ballinger Publishing Company. Chen, B. X. (2019). Hi, Alexa. How Do I Stop You From Listening In On Me? – The New York Times. Abgerufen am 27.11.2019 unter der Website vom 21. August 2019: https:// www.nytimes.com/2019/08/21/technology/personaltech/alexa-siri-google-assistantlisten.html. Commerzbank AG (2018). Der Rohstoff des 21. Jahrhunderts: Big Data, Smart Data – Lost Data? Abgerufen am 20.02.2020 unter https://www.unternehmerperspektiven. de/portal/media/unternehmerperspektiven/up-studien/up-studien-einzelseiten/uppdf/2018_04_17_FL_UP_Studie_online_2018_V2.pdf. Court, D., Elzinga, D., Mulder, S., & Vetvik, O. J. (2009). The consumer decision journey, The McKinsey Quarterly (June). Abgerufen am 20.02.2020 unter https://www. mckinsey.com/business-functions/marketing-and-sales/our-insights/the-consumerdecision-journey. Datasolut (2020). 9 einfache Anwendungsbeispiele für Künstliche Intelligenz (KI) im Marketing. Abgerufen am 19.02.2020 unter https://datasolut.com/kuenstlicheintelligenz-marketing-beispiele/.

24

S. Boßow-Thies et al.

Davenport, T. H., & Patil, D. J. (2012). Data Scientist: The Sexiest Job of the 21st Century, Harvard Business Review. Abgerufen am 19.02.2020 unter https://hbr.org/2012/10/datascientist-the-sexiest-job-of-the-21st-century. Engelhardt, J.-F., & Magerhans, A. (2019). eCommerce klipp & klar. Wiesbaden: Springer Gabler. Fasel, D., & Meier, A. (2016). Big Data Grundlagen Systeme und Nutzungspotentiale. Wiesbaden: Springer Vieweg. Gadatsch, A., & Landrock, H. (2017). Big Data für Entscheider Entwicklung und Umsetzung datengetriebener Geschäftsmodelle. Wiesbaden: Springer Vieweg. Gartner (2012). Gartner’s Data Analytics Maturity Model. Abgerufen am 12.02.2020 unter https://towardsdatascience.com/how-analytics-maturity-models-are-stunting-datascience-teams-962e3c62d749. Gartner Glossary (o. J.-a). Advanced Analytics. Abgerufen am 31.01.2020 unter https:// www.gartner.com/en/information-technology/glossary/advanced-analytics. Gartner Glossary (o. J.-b). Big Data. Abgerufen am 19.02.2020 unter https://www.gartner. com/en/information-technology/glossary/big-data. Gentsch, P. (2019). Künstliche Intelligenz für Sales, Marketing und Service (2. Aufl.). Wiesbaden: Springer Gabler. Grassmann, M. (2017). Dieses Produkt ist Henkels Schritt in die Zukunfts. Abgerufen am 17.02.2020 unter https://www.welt.de/wirtschaft/article170722940/Dieses-Produkt-istHenkels-Schritt-in-die-Zukunft.html. Hein, D. (2018). Wunderman-Studie: Zwei Drittel aller Unternehmen können aus Daten keine Marketing-Maßnahmen ableiten, Horizont. Abgerufen am 22.02.2020 unter https://www.horizont.net/marketing/nachrichten/Wunderman-Studie-Zwei-Drittel-allerUnternehmen-koennen-aus-Daten-keine-Marketing-Massnahmen-ableiten-165526. Höinghaus, C. (2015). Daten: Das Öl des 21. Jahrhunderts - Big Data wirtschaftlich sinnvoll einsetzen. Abgerufen am 31.01.2020 unter https://www.cio.de/a/big-datawirtschaftlich-sinnvoll-einsetzen,3246278. Hosell, S. (2019). Individualisierte Preise und Dynamic Pricing im Internet. In A. Rühle & A. Wrobel (Hrsg.), Innovativer Einsatz digitaler Medien im Marketing (S. 19–28). Wiesbaden: Springer Gabler. Hristev, S., & Clessienne, K. (2019). Data Science im Marketing - die fünf besten Wege zum Scheitern und wie man sie umgeht. Düsseldorf: Deutscher Marekting Verband e.V. (DMV). Hurwitz, J., & Kirsch, D. (2018). Machine Learning for Dummies. Abgerufen am 20.02.2020 unter https://www.ibm.com/downloads/cas/GB8ZMQZ3. Intel (o. J.). Moore’s law and intel innovation. Abgerufen am 31.01.2020 unter https:// www.intel.com/content/www/us/en/history/museum-gordon-moore-law.html. IWD (2019). Deutsche Unternehmen nutzen Daten noch selten. Abgerufen am 20.02.2020 unter https://www.iwd.de/artikel/deutsche-unternehmen-nutzen-daten-noch-selten-438160/. Juniper Research (2018). IoT connections to grow 140% to hit 50 billion by 2022, as edge computing accelerates ROI. Abgerufen am 20.02.2020 unter https://www. juniperresearch.com/press/press-releases/iot-connections-to-grow-140pc-to-50billion-2022.

1  Das Öl des 21. Jahrhunderts

25

Kannan, P. K., & Li, A. (2017). Digital marketing: A framework, review and research agenda. International Journal of Research in Marketing, 34(1), 22–45. https://doi. org/10.1016/j.ijresmar.2016.11.006. Klaus, L. (2019). Data-Driven Marketing und der Erfolgsfaktor Mensch - Schlüsselfaktoren und Kernkompetenzen für das Marketing der Zukunft. Wiesbaden: Springer Gabler. Knorre, S., Müller-Peters, H., & Wagner, F. (2020). Die Big-Data-Debatte. Wiesbaden: Springer Gabler. Kreutzer, R. T., & Land, K.-H. (2017). Digitale Markenführung. Wiesbaden: Springer Gabler. Kreutzer, R. T., & Sirrenberg, M. (2019). Künstliche Intelligenz verstehen - Grundlagen Use-Cases - unternehmenseigene KI-Journey. Wiesbaden: Springer Gabler. Kreye, A. (2020). Daten sind das neue Plutonium. Abgerufen am 31.1.2020 unter https://www.sueddeutsche.de/wirtschaft/ueberwachung-daten-sind-das-neueplutonium-1.4765408. Kruse Brandão, T., & Wolfram, G. (2018). Digital Connection Die bessere Customer Journey mit smarten Technologien – Strategie und Praxisbeispiel. Wiesbaden: Springer Gabler. Kumar, V., Chattaraman, V., Neghina, C., Skiera, B., Aksoy, L., Buoye, A., & Henseler, J. (2013). Data-driven services marketing in a connected world. Journal of Service Management, 24(3), 330–352. https://doi.org/10.1108/09564231311327021. Lecinski, J. (2011). ZMOT winning the zero moments of truth. Abgerufen am 20.02.2020 unter https://www.thinkwithgoogle.com/marketing-resources/micro-moments/2011winning-zmot-ebook/. Lewis, L. (2019). This is what happens in an internet minute. Abgerufen am 17.02.2020 unter https://www.allaccess.com/merge/archive/29580/2019-this-is-what-happens-in-aninternet-minute. Luber, S., & Nitzel, N. (2016). Was ist Hadoop? Abgerufen am 19.02.2020 unter https:// www.bigdata-insider.de/was-ist-hadoop-a-587448/. Luber, S., & Nitzel, N. (2017). Was sind unstrukturierte Daten? Abgerufen am 19.02.2020 unter https://www.bigdata-insider.de/was-sind-unstrukturierte-daten-a-666378/. Planet Wissen (2018). Verräterischer Kassenbon. Abgerufen am 31.01.2020 unter https:// www1.wdr.de/video-verraeterischer-kassenbon-104.html. Puccinelli, N. M., Goodstein, R. C., Grewal, D., Price, R., Raghubir, P., & Stewart, D. (2009). Customer experience management in retailing: Understanding the buying process. Journal of Retailing, 85(1), 15–30. https://doi.org/10.1016/j.jretai.2008.11.003. Reinsel, D., Gantz, J., & Rydning, J. (2018). The Digitization of the World From Edge to Core. In: Data Age 2025, IDC Whitepaper, abgerufen am 20.02.2020 unter https://www. seagate.com/files/www-content/our-story/trends/files/idc-seagate-dataage-whitepaper. pdf. Sawant, S., & Litzel, N. (2018). Machine Learning revolutioniert das Marketing. Abgerufen am 19.02.2020 unter https://www.bigdata-insider.de/machine-learningrevolutioniert-das-marketing-a-667306/. Solis, B. (2013). The ultimate moment of truth and the art of digital engagement. Abgerufen am 20.02.2020 unter https://www.briansolis.com/2013/11/the-ultimatemoment-of-truth-and-the-art-of-engagement/.

26

S. Boßow-Thies et al.

Spitz, M. (2017). Daten – das Öl des 21. Jahrhunderts? Hamburg: Hoffmann und Campe. StatCounter (2020). Marktanteile von ausgewählten Suchmaschinen bei der ­Desktop-Suche und bei der mobilen Suche in Deutschland im Januar 2020. Statista – Das Statistik-Portal. Abgerufen am 20.02.2020 unter https://de.statista.com/statistik/daten/studie/301012/ umfrage/marktanteile-der-suchmaschinen-und-marktanteile-mobile-suche/. Strauß, R. (2019). Marketing-Tech-Monitor Deutschland 2019. Hamburg. Strobel, C. (2016). Das Mooresche Gesetz ist tot, es lebe das Mooresche Gesetz. Abgerufen am 19.02.2020 unter https://www.techtag.de/it-und-hightech/das-mooresche-gesetz-isttot-es-lebe-das-mooresche-gesetz/. Sundsøy, P., Bjelland, J., Iqbal, A. M., & de Montjoye, Y.-A. (2014). Big data-driven marketing: how machine learning outperforms marketers’ gut-feeling. International Conference on Social Computing, Behavioral-Cultural Modeling, and Prediction, 8393, 367–374. The American Marketing Association (approved 2017). Definition of Marketing. Abgerufen am 31.01.2020 unter https://www.ama.org/the-definition-of-marketing-what-is-marketing/. Wachter, B. (2018). Big Data – Anwendungen in der Marktforschung. In C. König, J. Schröder, & E. Wiegand (Hrsg.), Big Data – Chancen, Risiken, Entwicklungstendenzen (S. 17–26). Wiesbaden: Springer VS. Weissman, A., & Wegerer, S. (2019). Management 4.0 – Unternehmensführung im digitalen Zeitalter. In M. Erner (Hrsg.), Management 4.0 – Unternehmensführung im digitalen Zeitalter (S. 43–78). Berlin: Springer Gabler. Yang, H., Lee, H., & Zo, H. (2017). User acceptance of smart home services: An extension of the theory of planned behavior. Industrial Management and Data Systems, 117(1), 68–89.

Silvia Boßow-Thies  ist Professorin für Marketing an der FOM Hochschule in Hamburg. Dem Themengebiet Digitalisierung des Marketings ist sie auch nach der Promotion treu geblieben: Zum einen in ihrer anschließenden Beratungstätigkeit, zum anderen mit ihren gegenwärtigen Schwerpunkten in Lehre und Forschung. Christina Hofmann-Stölting ist Professorin für Quantitative Methoden an der HAW Hamburg. Ihr Lebenslauf – sowohl in der Wissenschaft als auch in der Praxis – ist geprägt von Stationen, wo aus Datenanalysen Erkenntnisse für das (digitale) Marketing gewonnen werden. Heike Jochims ist Professorin für Marketing an der HAW Hamburg. Sowohl in ihrer wissenschaftlichen Ausbildung als auch der beruflichen Laufbahn hat sie sich früh mit dem Einfluss der digitalen Medien im Marketing befasst und dort ihren Schwerpunkt in der Lehre und Forschung gelegt.

Teil II Datenmanagement als Grundlage für Marketingentscheidungen

2

Qualität von Kundendaten – Ansätze zur Analyse und Verbesserung als Basis für effiziente Marketingentscheidungen Heike M. Wolters Inhaltsverzeichnis 2.1 Relevanz und Herausforderungen der Sicherstellung von Datenqualität. . . . . . . . . 30 2.2 Was bedeutet Datenqualität?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 2.3 Ansätze zur Verbesserung der Qualität von Kundendaten. . . . . . . . . . . . . . . . . . . . 32 2.3.1 Datenqualität beim Sammeln von Kundendaten. . . . . . . . . . . . . . . . . . . . . 32 2.3.2 Identifikation von Datenqualitätsmängeln durch Data Profiling. . . . . . . . . 34 2.3.3 Optionen beim Umgang mit Qualitätsmängeln. . . . . . . . . . . . . . . . . . . . . . 37 2.3.4 Datenqualität messen und beobachten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 2.4 Fazit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

Zusammenfassung

Vielen Unternehmen ist heutzutage bewusst, dass Kundendaten unabdingbar für effiziente Marketingentscheidungen sind. Die große Herausforderung liegt jedoch nicht mehr lediglich im Sammeln von Daten, sondern vor allem in der Sicherstellung der Datenqualität. Minderwertige Daten führen zu Fehlentscheidungen, z. B. bezüglich des Targetings oder des Inhalts einer Kampagne, und im Endeffekt möglicherweise sogar zum Verlust des Kunden. Sowohl das Sammeln von qualitativen Daten als auch die Analyse der Datenqualität darf daher nicht unterschätzt werden. Ziel dieses Beitrags ist es, verschiedene Möglichkeiten aufzuzeigen, wie Unternehmen die Qualität ihrer Kundendaten bei der Datenerhebung verbessern, Qualitätsmängel erkennen und sich gezielt mit ihnen auseinandersetzen können. H. M. Wolters (*)  Xing GmbH & Co. KG, Hamburg, Deutschland © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 S. Boßow-Thies et al. (Hrsg.), Data-driven Marketing, https://doi.org/10.1007/978-3-658-29995-8_2

29

30

H. M. Wolters

2.1 Relevanz und Herausforderungen der Sicherstellung von Datenqualität Das Sammeln und die effiziente Nutzung von Kundendaten sind ein wesentlicher Erfolgsfaktor für Unternehmen. Sie erheben beispielsweise Informationen bezüglich des Alters, der Adresse oder der Interessen ihrer Kunden. Diese Informationen sind die Grundlage für datengetriebenes Marketing: Welcher Kunde wird für eine Kampagne selektiert oder welches Produkt erhält ein Kunde als „Next-Best-Offer“? Die Informations- und Datenqualität beeinflusst maßgeblich die Effizienz dieser Maßnahmen. Bei Qualitätsmängeln verschenken Unternehmen Potential für personalisiertes kundenzentriertes Marketing und treffen im schlimmsten Fall Entscheidungen, die weitreichende negative Effekte nach sich ziehen können: Sie launchen z. B. ein erfolgloses Produkt, sprechen die falsche Zielgruppe an oder spielen unpassende Kommunikation aus. Kunden reagieren dann verwirrt oder verärgert und beschließen im schlimmsten Fall abzuwandern. Bei fehlerhaften (E-Mail-)Adressdaten können die Kunden nicht einmal kontaktiert werden. Die Deutsche Post gibt in einer Studie von 2018 an, dass 16,4 % der postalischen Anschriften so fehlerhaft sind, dass Post nicht zugestellt werden kann (Deutsche Post 2018). Redman (2017) schätzt, dass Unternehmen 15–25 % ihres potentiellen Umsatzes aufgrund schlechter Datenqualität verlieren. Zusätzlich steigen die Personalkosten, beispielsweise weil Mitarbeiter an der Analyse und Behebung von Datenqualitätsmängel arbeiten (Redman 2017). Die meisten Unternehmen haben verstanden, dass Datenqualität für effizientes Marketing unabdingbar ist. Die Sicherstellung der Datenqualität ist allerdings nicht trivial. Eine Panel-Befragung von 3000 BI-Software-Kunden, Beratern und BI-Software-Anbietern identifiziert Datenqualität seit Jahren als eine der drei relevantesten Herausforderungen (BARC 2019). Vielen Unternehmen mangelt es an einer adäquaten Strategie und dem nötigen Fachwissen, wodurch sie Fehler machen und so den Unternehmenserfolg gefährden. Dieser Beitrag gibt daher einen Leitfaden für die Verbesserung der Datenqualität für Praxis und Forschung. Zunächst wird das Konzept von Datenqualität erläutert. Abschn. 2.3 beschreibt einen typischen Datenverarbeitungsprozess. In jedem Prozessschritt werden Ansätze zur Analyse und Verbesserung der Datenqualität vorgestellt.

2  Qualität von Kundendaten

31

2.2 Was bedeutet Datenqualität? In der Literatur existiert keine einheitliche Definition von Datenqualität. Forscher sind sich einig, dass eine vollständige Übereinstimmung der Informationen in den Daten mit der Realität die Grundlage für eine gute Datenqualität darstellt. Welche Eigenschaften Informationen konkret haben sollten, variiert jedoch (siehe z. B. Zulkiffli et al. (2019) für eine Literaturübersicht). Einer der bekanntesten Ansätze stammt von Wand und Wang (1996). Die Autoren legen vier Dimensionen fest: Qualitativ hochwertige Daten enthalten korrekte, vollständige, eindeutige und aussagekräftige Informationen. Tab. 2.1 gibt einen Überblick über die Dimensionen von Datenqualität und den damit verbundenen Datenqualitätsmängeln. Diese werden anhand eines Beispiels erläutert. Mittels der Analyse von 60 akademischen Publikationen identifizieren Zulkiffli et al. (2019) Vollständigkeit und Korrektheit als die relevantesten Dimensionen. Gemeinsam mit anderen Autoren argumentieren sie, dass Unternehmen mit unvollständigen und inkorrekten Informationen keine effizienten datengetriebenen Entscheidungen treffen können. Ein Unternehmen, das Kundendaten mit falschen Geburtsdaten erhebt, könnte z. B. fälschlicherweise davon ausgehen, dass ein Kunde in der Altersgruppe von 60–80 liegt, während er tatsächlich 30 Jahre alt ist. Jedwede Marketingmaßnahmen, die dann für die Ansprache von rüstigen Senioren ausgelegt ist, verfehlt die Bedürfnisse des Kunden, gibt dem Unternehmen ein unerwünschtes Image und führt im

Tab. 2.1   Dimensionen der Datenqualität Dimension

Mangel

Beispiel

Vollständigkeit

Information fehlt

Kunde 1 hat kein Geburtsdatum angegeben

Eindeutigkeit

Kunde 1 hat 2 Geburtsdaten Mehrere Informationen beziehen sich auf den gleichen Informations- angegeben systemzustand

Aussagekraft

Information ist bedeutungslos

Kunde 1 hat zwar ein Geburtsdatum angegeben, aber es ist nicht klar, nach welchem Kalender er sein Geburtsdatum berechnet hat

Korrektheit

Information entspricht nicht der Realität

Kunde 1 behauptet, sein Geburtsdatum sei der 1.1.1920. Tatsächlich wurde er am 4.5.1978 geboren

Quelle: In Anlehnung an Wand und Wang (1996)

32

H. M. Wolters

schlimmsten Fall zum Verlust des Kunden. Fehlt die Angabe des Geburtsdatums ganz, wird der Kunde eventuell gar nicht angesprochen und verliert das Unternehmen aus seinem Consideration Set. Dieser Buchbeitrag fokussiert daher im Folgenden darauf, wie die Qualitätsdimensionen Vollständigkeit und Korrektheit bei der Dateneingabe und beim Data Profiling beachtet werden können, und wie Forscher und Unternehmen mit Qualitätsmängeln umgehen können.

2.3 Ansätze zur Verbesserung der Qualität von Kundendaten 2.3.1 Datenqualität beim Sammeln von Kundendaten Es gibt unzählige Möglichkeiten, wo und wie Unternehmen Kundendaten sammeln, z. B. während des Checkout-Prozesses beim Online-Shopping oder beim Anlegen von Kundenprofilen. Hier schlummert das größte Potential für hochqualitative Daten: Letztlich weiß nur der Kunde selbst, welche Informationen korrekt sind. Daher sollten Unternehmen idealerweise ihre Kunden in diesem Schritt dazu motivieren, vollständige und korrekte Informationen zu teilen. Allerdings erfüllen die erhobenen Kundendaten oftmals nicht die Anforderungen einer guten Datenqualität. Kunden geben unbewusst inkorrekte Informationen ein, weil sie z. B. Felder missverstehen, Felder übersehen oder sich beim Freitext vertippen. Eine klares User Interface sowie präzise Formulierungen der geforderten Informationen unterstützen Kunden bei der korrekten Informationsweitergabe. Bei Freitextfeldern verringert der Einsatz von Autovervollständigung Tipp- und Rechtschreibfehler (Hellerstein 2008). Einige Unternehmen nutzen Pflichtfelder, um fehlende Werte zu vermeiden. Sie helfen damit Kunden, die ein Eingabefeld überlesen. Unternehmen setzen außerdem Integritätsregeln ein, um offensichtlich falsche Eingaben zu reduzieren. Integritätsregeln beschränken den akzeptierten Wertebereich einer Eingabe auf plausible Werte. Beispielsweise darf ein Geburtsjahr nicht vor 1900 liegen. Erfüllt die Eingabe des Kunden die Bedingung der Integritätsregel nicht, verhindern Fehlermeldungen, dass der Kunde im Eingabeprozess vorankommt. Kunden, die unbewusst eine falsche Angabe machen, können ihre fehlerhafte Eingabe korrigieren (Hellerstein 2008). Einige Kunden entscheiden sich bewusst gegen die Angabe korrekter Informationen. Gründe hierfür sind z. B. Bequemlichkeit, Zeitmangel oder

2  Qualität von Kundendaten

33

Datenschutzbedenken (Abedjan et al. 2015): Beispielsweise selektieren sie in Drop-Down-Auswahllisten die oberste Option oder bestätigen den vorausgewählten Wert, um Zeit zu sparen. Handelt es sich um sensible Angaben, wie das Gehalt, oder verstehen Kunden nicht, wozu eine Information gebraucht wird, möchten sie eine Information nicht preisgeben. Bei dieser Kundengruppe, die bewusst eine korrekte Informationseingabe verweigert, schaden Pflichtfelder mehr als sie nützen. Eine Fehlermeldung stimmt Kunden nicht um, korrekte Informationen zu teilen, die sie vorher nicht offenbaren wollten. Stattdessen werden sie irgendetwas eingeben, um im Prozess weiterzukommen. Besonders fatal ist es, wenn das Pflichtfeld zusätzlich an Integritätsregeln gekoppelt ist. Kunden werden Informationen eingeben, die ihnen schlüssig erscheinen, aber inkorrekt sind. Plausible, inkorrekte Werte sind bei der Datenverarbeitung deutlich schwieriger zu identifizieren als implausible, inkorrekte Werte. Auch bei den Folgeeingaben entsteht bei dieser Kundengruppe nach einer Fehlermeldung mehr Datenmüll: Frustriert von der Verzögerung lernen sie, plausible, inkorrekte Werte einzutragen, um den Eingabeprozess schnellmöglich abzuschließen (Hellerstein 2008). Die Abwägung zwischen Pro und Contra von Pflichtfeldern und Hinterlegen von Integritätsregeln ist nicht einfach und hängt stark von dem Unternehmen, der Kundengruppe sowie den erhobenen Kundendaten ab. Hellerstein (2008) schlägt drei Prinzipien für höhere Datenqualität bei der Datenerhebung vor: 1. Kunden können implausible Eingaben im Nachhinein kontrollieren und korrigieren, ohne dass sie mit Regeln in bestimmte Wertebereiche gezwungen werden. Unternehmen implementieren Integritätsregeln. Wird eine Integritätsregel verletzt, also fällt eine Eingabe in einen unglaubwürdigen Wertebereich, wird der Kunde selektiv auf diesen Eingabewert hingewiesen. Der Kunde darf entscheiden, ob er diesen Wert ändert. So werden unbeabsichtigte Fehleingaben korrigiert, während kein Kunde zu plausiblen Angaben gezwungen wird, der eine Information nicht teilen möchte. 2. Der Kunde versteht, warum eine Information gebraucht wird. Insbesondere bei komplizierten oder aufwendigen Eingaben sollten Erklärungen die Notwendigkeit einer Information hervorheben. Das Verständnis motiviert den Kunden, notwendige Informationen korrekt zu teilen. 3. Der Kunde kann Feedback geben, wenn er die Eingabe abbrechen oder abkürzen möchte. Kunden haben die Möglichkeit, ihre Probleme beim Ausfüllen an das Unternehmen weiterzugeben. Die Feedbackabgabe muss einfach sein, da der Kunde zu diesem Zeitpunkt frustriert sein kann. Er könnte in ein

34

H. M. Wolters

Freitextfeld schreiben, eine Sprachnachricht schicken oder eine Checkbox auswählen, die seinen Unmut ausdrückt. Diese Angaben helfen, sowohl den Eingabeprozess zu verbessern, als auch im Folgenden bei der Analyse der Daten.

2.3.2 Identifikation von Datenqualitätsmängeln durch Data Profiling Data Profiling beschreibt die Zusammenfassung von Informationen der Daten bezüglich der Daten selbst (Metadaten) und soll Datenqualitätsmängel aufdecken (Ehrlinger et al. 2019). Tab. 2.2 gibt einen Überblick über verschiedene univariate Metriken, mit denen sich Praktiker und Forscher beschäftigen sollten, bevor sie mit der Datenverarbeitung beginnen. Je nach Datentyp sollten unterschiedliche Metriken verwendet werden. Für numerische Daten beispielsweise sind Extremwerte (Minimum/Maximum) aufschlussreich, während bei kategorialen Daten Qualitätsmängel oftmals in Häufigkeitsverteilungen sichtbar werden. Im Folgenden wird beschrieben, wie fehlende und inkorrekte Informationen identifiziert werden können.

Tab. 2.2   Beispiele für Data-Profiling-Metriken Kundendatentyp

Metrik

Numerisch

Minimum/Maximum Median Mittelwert Modus Quartile/Perzentile Häufigkeitsverteilung als Intervalle gruppiert Anteil fehlender Werte Anzahl fehlender Werte

Kategorial

Häufigkeitsverteilung Histogramm Modus Anzahl einzigartiger Werte Anteil fehlender Werte Anzahl fehlender Werte

Quelle: Eigene Darstellung

2  Qualität von Kundendaten

35

Vollständigkeit der Informationen Die Analyse der Vollständigkeit der Informationen ist in der Regel unproblematisch. Die meisten Programme ermöglichen die Ausgabe der Anzahl und Muster fehlender Werte. Darauf sollten sich Praktiker und Forscher jedoch nicht ausschließlich verlassen: Es könnten sich „versteckte“ fehlende Werte in den Daten befinden, die auftreten, wenn ein Wert vorhanden ist, dieser aber in seiner Bedeutung einem fehlenden Wert entspricht. Das kommt vor, wenn Unternehmen Kunden bei Eingaben eine „keine Angabe“-Option bieten oder Systeme alternative Werte für fehlende numerische Werte (z. B. -9999) übergeben (Abedjan et al. 2015). Eine Analyse von Häufigkeitstabellen oder Histogrammen deckt diese Werte auf. Sie müssen zusätzlich als fehlend kodiert werden. Um die Daten sinnvoll weiterverarbeiten zu können, muss die Frage beantwortet werden, warum diese Werte fehlen. Sind Kunden, die ihr Alter angegeben haben, vergleichbar mit Kunden, die ihr Alter vorenthalten? Oder gibt es Kundengruppen, die ihr Alter seltener teilen als andere? Fehlende Werte sind unproblematisch, solange sich keine Kundengruppen herauskristallisieren, die ihr Alter verschweigen. Dann fehlen Werte zufällig und die Aussage von Modellen und Analysen bleibt korrekt, wenn weiterhin ausreichend Daten vorhanden sind. Lassen sich jedoch Muster erkennen, wie beispielsweise, dass jüngere Kunden ihr Alter häufiger angeben, kann dies die Ergebnisse verfälschen. Korrektheit der Informationen Während fehlende Werte in der Regel schnell identifiziert sind, stellt die Analyse der Korrektheit eine große Herausforderung dar. Oftmals ist sowohl technisches als auch inhaltliches Datenverständnis notwendig, um Hinweise für inkorrekte Informationen zu finden. Letztlich ist es jedoch unmöglich zu wissen, ob ein Wert korrekt oder inkorrekt ist. Es bleibt bei Indizien. Folgende Ansätze können bei der Identifikation von falschen Werten unterstützen. Ausreißer als Indiz für fehlerhafte Werte: Ausreißer („Outlier“), also Datenpunkte, die stark von anderen Datenpunkten im Datensatz abweichen, sind oftmals ein Indiz für falsche Werte (Hodge und Austin 2004). Es gibt unterschiedliche Ansätze, diese zu ermitteln. Statistische Methoden nehmen an, dass die Daten einer Wahrscheinlichkeitsverteilung (i. d. R. Standardnormalverteilung) folgen. Ein Datenpunkt gilt als Ausreißer, wenn er außerhalb des 95-%-Perzentils oder zwei Standardabweichungen vom Mittelwert oder Median liegt (Ben-Gal 2005). Diese univariate Methode kann schnell und einfach angewendet werden, allerdings betrachtet sie nicht das Zusammenspiel verschiedener Kundencharakteristika. Methoden des unüberwachten Lernens (Unsupervised Learning) können mehr Informationen und deren Interaktionen einbeziehen. Sie finden

36

H. M. Wolters

Muster in Kundeninformationen ohne konkrete Angaben, bei welchen Kunden es sich um einen Ausreißer handelt. Dabei klassifizieren sie nicht nur einzelne Kundenangaben als Ausreißer, sondern den Kunden im Ganzen. Distanz-basierte Methoden betrachten die Ähnlichkeit von Kunden zueinander, indem sie den Abstand zu ähnlichen Kunden berechnen. Ausreißer sind jene Kunden, deren Distanz zu den „Nachbarkunden“ am Größten ist (Hodge und Austin 2004). Clusteranalysen versuchen die Kunden in möglichst homogene Gruppen aufzuteilen. Kleine Gruppen werden als Ausreißer bezeichnet (Abedjan et al. 2015; Ben-Gal 2005; Campos et al. 2016). Eine Evaluation verschiedener Algorithmen des unüberwachten Lernens zur Identifikation von Ausreißern bieten Campos et al. (2016). Obwohl Ausreißer aufgrund ihrer Abweichung von Erwartungswerten oder einer größeren Distanz zu anderen Datenpunkten eine höhere Wahrscheinlichkeit haben, fehlerhaft zu sein, bedeutet es nicht, dass ein „Outlier“ tatsächlich inkorrekt und ein „Inlier“ korrekt ist. Liegt ein inkorrekter Wert außerhalb des typischen Wertebereichs, wird er als Ausreißer und korrekt als fehlerhaft identifiziert. Beispielsweise muss die Information, dass ein Kunde 1820 geboren ist, falsch sein, weil bisher kein Mensch über 130 Jahre alt geworden ist. Ein 100-jähriger Kunde ist relativ unwahrscheinlich und wird daher als Ausreißer und damit fehlerhaft identifiziert werden, obwohl dies sein tatsächliches Alter ist. Behauptet ein 26-Jähriger jedoch, 56 Jahre alt zu sein, so scheint die Altersangabe an sich zunächst glaubhaft, da dieser Wert innerhalb einer typischen Altersspanne liegt. Solche Datenfehler sind univariat, aber auch mit distanz-basierten Methoden oder Clusteranalysen deutlich schwieriger zu identifizieren. Fehlerhafte Werte durch Tipp- und Rechtschreibfehler: Rechtschreibfehler oder Typos entstehen in Freitextfeldern durch zusätzliches Einfügen, Weglassen oder Vertauschen von Buchstaben. Oftmals ist es nicht nur das Ziel, den Rechtschreibfehler an sich zu entdecken, sondern ähnliche Konzepte zu gruppieren. Im ersten Schritt kann der Text in ein einheitliches Format überführt werden. Je nach Text bietet es sich an, Stoppwörter, Präfixe und Suffixe zu löschen oder Worte mittels Stemming-Algorithmen auf ihren Stamm zurückzuführen. Freitext kann darüber hinaus durch das Entfernen von Leerzeichen und einheitliche Groß- oder Kleinschreibung standardisiert werden (Rahm und Do 2000). Im nächsten Schritt können die standardisierten Zeichenketten mit einem Wörterbuch verglichen werden. Exakte Übereinstimmungen deuten auf eine korrekte Rechtschreibung hin. Sind Zeichenketten unterschiedlich, helfen Distanzmaße: Die Levenshtein-Distanz beispielsweise gibt die Anzahl der Transformationen an, die benötigt werden, um eine Zeichenkette durch Einsetzen, Löschen und Ersetzen von Buchstaben in eine andere zu überführen (Levenshtein

2  Qualität von Kundendaten

37

1966). Je geringer die Levensthein-Distanz, desto höher die Wahrscheinlichkeit, dass es sich um einen Rechtschreibfehler handelt und Kunden das Gleiche aussagen möchten. Gibt ein Kunde beispielsweise bei seinen Interessen „Joga“ statt wie andere Kunden „Yoga“ ein, so deutet die Levensthein Distanz von 1 darauf hin, dass er auch „Yoga“ meinen könnte.

2.3.3 Optionen beim Umgang mit Qualitätsmängeln Unternehmen müssen klare Regeln zur automatisierten Identifikation und zum Umgang mit potentiellen Qualitätsmängeln festlegen (Chu et al. 2016, Rahm und Do 2000). Daten- und Domainexperten sollten sich gemeinsam auf eine Vorgehensweise einigen (Abedjan et al. 2019). Sie haben drei Optionen und können Werte 1) ausschließen bzw. löschen 2) überschreiben oder 3) ignorieren. Die Entscheidung hängt maßgeblich von den Folgeschritten ab. Zunächst stellt sich die Frage, ob eine Information überhaupt für den spezifischen Anwendungsfall relevant ist, beispielsweise ist eine vollständige postalische Adresse für eine E-Mail-Kampagne nicht notwendig. Kundencharakteristika, die keinen Beitrag zur Abgrenzung einer Zielgruppe leisten, sollten nicht in die Kriterien einer Kampagnenselektion einfließen. Fehlende oder falsche Werte können also ignoriert werden, wenn sie nicht verwendet werden. Ob eine Information relevant ist, hängt von der Entscheidung zur Anwendung der Methoden und Modellen im nächsten Schritt ab. Bei einigen Methoden sind fehlende Werte und Ausreißer unproblematisch. Entscheidungsbäume und Ensemble-Methoden betrachten fehlende Werte z. B. als eigene Kategorien, und ordnen sie automatisch in eine passende Kategorie ein. Sie splitten numerische Variablen auf, sodass Extremwerte nicht ins Gewicht fallen (z. B. Chen und Guestrin 2016). Regressionsanalysen hingegen können fehlende Werte nicht in die Modellschätzung einbeziehen. Sie werden ausgeschlossen oder müssen als eigene Kategorie kodiert werden. Auch ist bei Ausreißern in Regressionsmodellen Vorsicht geboten: Diese können die Schätzung stark beeinflussen (Backhaus et al. 2018). Als Robustness Check sollten Modelle mit und ohne Ausreißer gerechnet werden. Bei Abweichungen sollten Ausreißer entweder ersetzt oder gelöscht werden. Wenn sich Unternehmen dagegen entscheiden, fehlende oder falsche Werte zuzulassen, ist Ausschluss oder Löschen eine schnelle und einfache Möglichkeit. Es können sowohl einzelne Werte oder ganze Kundendatensätze ausgeschlossen werden. Wichtig ist, dass genug Daten für eine Analyse oder genug Kunden für die Selektion bleiben.

38

H. M. Wolters

Das Ersetzen falscher oder fehlender Werte bietet unterschiedliche Optionen und ist daher aufwendiger. Einfache Heuristiken substituieren Werte mit der an der häufigsten vorkommenden Kategorie (Modus) oder bei numerischen Werten mit dem Mittelwert oder dem Median. Der Vorteil dieser Methodik liegt in der einfachen Umsetzbarkeit. Allerdings bringt sie die Gefahr, dass ersetzte Werte falsch sind und Ergebnisse verzerren. Multivariate komplexere Modelle zur Schätzung des fehlenden oder falschen Wertes approximieren realistischere Werte. Sie nutzen die vorhandenen, korrekten Informationen eines Kunden und prognostizieren, was fehlt (Backhaus et al. 2018). Praxisbeispiel zum Umgang mit Datenqualitätsmängeln bei einem AboService: Kunden legen bei diesem Service ein Kundenprofil an. In ihrem Profil können sie unter anderem ihren Namen, ihr Geburtsdatum, ihr Geschlecht, ihren aktuellen Job und ihre Interessen angeben. Insbesondere das Alter spielt eine große Rolle bei der Vorhersage von Präferenzen für Newsletter-Inhalte, Website-Personalisierung und Cross-Selling. Allerdings ist die Altersangabe kein Pflichtfeld, woraufhin viele Kunden ihr Alter gar nicht angegeben haben. Viele vorhandenen Altersangaben scheinen fehlerhaft, da Kunden das kleinstmögliche Datum, den 1.1.1920 ausgewählt haben. Das Unternehmen hat sich entschieden, das Alter zu prognostizieren. Idealerweise könnte es ein Modell auf Basis von allen korrekten Kundendaten schätzen und auf inkorrekte Altersangaben anwenden. Ein solcher Datensatz existiert in der Realität jedoch nicht. Unternehmen heuern daher oftmals Personen an, die Kundenprofile manuell evaluieren. Ziel ist es einen Datensatz zu generieren, der korrekte Informationen enthält, um damit ein Modell zu trainieren und zu testen. Allerdings ist es häufig schwierig, korrekte Informationen aus Kundenprofilen zu ziehen. Das Unternehmen schätzt und evaluiert daher ein Modell basierend auf Kunden, deren Geburtsdatum innerhalb einer plausiblen Range liegt. Es geht davon aus, dass diese Altersangaben in der Gesamtheit korrekt sind. Das finale Modell ist eine lineare Regression. Vorname, Jobtitel und Interessen des Kunden werden verwendet, um das Alter des Kunden vorherzusagen. Mit diesem Modell schätzt das Unternehmen das Alter aller Kunden. Die Altersprognose wird neben dem angebenden Alter des Kunden in einer Datenbank gespeichert. Da das Unternehmen der Altersangabe der Kunden nicht traut, basieren alle Modelle, Analysen und Selektionen auf dem prognostizierten Alter, statt auf dem vom Kunden eingegebenen.

2  Qualität von Kundendaten

39

2.3.4 Datenqualität messen und beobachten Unternehmen sollten die Qualität der Daten kontinuierlich messen und beobachten (Ehrlinger et al. 2019). Wirkt sich beispielsweise eine Umstellung des User Interfaces negativ auf die Datenqualität aus, so wird dies direkt ersichtlich und es kann eingegriffen werden. Die im Folgenden vorgestellten Metriken messen die Vollständigkeit und die Fehlerfreiheit. Sie sollten sowohl über Kunden als auch über Kundencharakteristika hinweg betrachtet werden. Vollständigkeitsquote (Completeness) ist ein Maß für die Vollständigkeit der Daten. Sie gibt an, wie viel % der Datensätze keine fehlenden Werte enthalten (Ehrlinger et al. 2019).

Vollst a¨ ndigkeitsquote = 1 −

Anzahl Daten mit fehlenden Werte Gesamte Anzahl Daten

Grad der Fehlerfreiheit ist ein Maß für die Korrektheit der Daten. Sie gibt an, wie viel % aller Daten fehlerfrei ist, also mit der Realität übereinstimmt. Grundlage für die Fehlerbestimmung können Integritätsregeln sein (Ehrlinger et al. 2019).

Grad der Fehlerfreiheit = 1 −

Anzahl Daten mit Fehlern Gesamte Anzahl Daten

Die einmalige Analyse dieser Kennzahlen ist wenig aussagekräftig. Sowohl die Vollständigkeitsquote als auch der Grad der Fehlerfreiheit können je nach abgefragter Information und Implementierung von Pflichtfeldern stark variieren. Unternehmen sollten daher diese Metriken über die Zeit überwachen und mit vorherigen Messungen vergleichen, um Fort- oder Rückschritte festzustellen.

2.4 Fazit Die Analyse und Sicherstellung der Datenqualität ist heikel, aber essential. Es gibt kein Patentrezept, und jedes Unternehmen muss eigene Entscheidungen treffen, um seine spezifischen Anforderungen abzudecken. Generell ist es sinnvoll, den Fokus auf das Sammeln von qualitativ hochwertigen Daten zu legen. Stehen die Daten erstmal in der Datenbank, ist es aufwendig und schwierig, die Qualität der Daten zu verbessern. Ein gutes User Interface mit Erklärungen sowie die Implementierung von Integritätsregeln fördern die Angabe von vollständigen und korrekten Informationen.

40

H. M. Wolters

Beim Data Profiling werden potentielle Qualitätsmängel aufgedeckt. Während sich fehlende Werte in Häufigkeitstabellen oder Histogrammen zeigen, lässt sich die Korrektheit der Informationen nicht sicher identifizieren. Ausreißer sind nur ein Indiz für fehlerhafte Informationen. Das Praxisbeispiel zeigt auf, wie Unternehmen mit dieser Problematik umgehen: Statt sich auf Kundenangaben zu verlassen, werden diese immer geschätzt, auch dann, wenn sie dem Unternehmen vorliegen und in einem plausiblen Wertebereich liegen. Unternehmen sollten die Qualität ihrer Daten kontinuierlich beobachten und anhand von Metriken wie Genauigkeit oder Vollständigkeitsquote regelmäßig überprüfen.

Literatur Abedjan, Z., Golab, L., & Naumann, F. (2015). Profiling relational data: A survey. The VLDB Journal, 24(4), 557–581. Ben-Gal, I. (2005). Outlier detection. In O. Maimon & L. Rokach (Hrsg.), Data mining and knowledge discovery handbook (S. 131–146). Boston: Springer. Backhaus, K., Erichson, B., Plinke, W., & Weiber, R. (2018). Multivariate Analysemethoden (15. Aufl.). Berlin Heidelberg: Springer. BARC Business Application Research Center. (2019). Bi-Survey 19. Campos, G. O., Zimek, A., Sander, J., Campello, R. J. G. B., Micenková, B., Schubert, E., Assent, I., & Houle, M. E. (2016). On the evaluation of unsupervised outlier detection: measures, datasets, and an empirical study. Data Mining and Knowledge Discovery, 30(4), 891–927. Chen, T., & Guestrin, C. (2016). XGBoost: A scalable tree boosting system. Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining, S. 785–794. Chu, X., Ilyas, I. F., Krishnan, S., & Wang, J. (2016). Data cleaning: Overview and emerging challenges. SIGMOD, 26, 2201–2206. Deutsche Post. (2018). Adress-Studie 2018 – Untersuchung zur Qualität von Kundenadressen in Deutschland. Ehrlinger, L., Rusz, E., & Wöß, W. (2019). A survey of data quality monitoring tools, Preprint arXiv:1907.08138. Hellerstein, J. (2008). Quantitative data cleaning for large databases. Technical report, United Nations Economic Commission for Europe. Hodge, V. J., & Austin, J. (2004). A survey of outlier detection methodologies. Artificial Intelligence Review, 22(2), 85–126. Levenshtein, V. (1966). Binary codes capable of correcting deletions, insertions, and reversals. Soviet Physics-Doklady, 10(8), 707–710. Rahm, E., & Do, H. H. (2000). Data cleaning: Problems and current approaches. Bulletin of the IEEE Computer Society Technical Committee on Data Engineering, 23(4), 3–13. Redman, T. C. (2017). Seizing opportunity in data quality. https://sloanreview.mit.edu/ article/seizing-opportunity-in-data-quality/. Zugegriffen: 15. Nov. 2019.

2  Qualität von Kundendaten

41

Wand, Y., & Wang, R. Y. (1996). Anchoring data quality dimensions in ontological foundations. Communication of the ACM, 39(11), 86–95. Zulkiffli, P. N. I. N., Akshir, E. A. P., Azis, N., & Cox, K. (2019). The development of data quality metrics using thematic analysis. International Journal of Innovative Technology and Exploring Engineering (IJITEE), 8(June), 304–310.

Heike M. Wolters ist Data Scientist bei XING GmbH & Co. KG und entwickelt Recommender-Systeme für den XING Stellenmarkt. In ihrer Doktorarbeit beschäftigte sie sich mit der Prognose von Customer Lifetime Value bei der Kundenakquise. Die Autorin besitzt zudem Praxiserfahrung in der Analyse von Kundendaten im Bereich Social Networks, E-Commerce, Telekommunikation und Banken.

3

Die Kraft effektiver DatenVisualisierung – CLEAR(I): Ein Leitfaden zur wirkungsvollen Dashboard-Gestaltung Luise Jacobs und Susanne Hensel-Börner To use visualization effectively, we must do more than simply display data graphically. We must understand how visual perception works and then present data visually in ways that follow the rules. (Few 2009, S. 29)

Inhaltsverzeichnis 3.1 Relevanz der Fragestellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 3.2 Visuelle Wahrnehmung und Prozesse im Gehirn. . . . . . . . . . . . . . . . . . . . . . . . . . . 47 3.3 Identifikation von Erfolgsfaktoren für effektives Dashboard-Design. . . . . . . . . . . 53 3.3.1 Vorgehensweise und Datenbasis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 3.3.2 Auswertung und Vorstellung der Befragungsergebnisse. . . . . . . . . . . . . . . 56 3.4 © CLEAR(I): Ein Leitfaden zur effektiven Dashboard-Gestaltung . . . . . . . . . . . . 60 3.5 Fazit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

Zusammenfassung

Informationen bilden den Grundstein für Entscheidungen, und nie zuvor war der Zugriff auf Daten und ihre Visualisierung so einfach umzusetzen wie in Zeiten der fortschreitenden Digitalisierung. Informationsvisualisierung ist mehr L. Jacobs  Hapag-Lloyd AG, Hamburg, Deutschland E-Mail: [email protected] S. Hensel-Börner (*)  HSBA Hamburg School of Business Administration, Hamburg, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 S. Boßow-Thies et al. (Hrsg.), Data-driven Marketing, https://doi.org/10.1007/978-3-658-29995-8_3

43

44

L. Jacobs und S. Hensel-Börner

als nur vermeintlich bunte Diagramme zu kreieren. Sie kann der entscheidende Faktor für das Verständnis von Informationen sein. Wichtige Inhalte können ihren Zweck nicht erfüllen, wenn sie aufgrund ihrer Darstellung nicht verstanden werden; umgekehrt kann eine gelungene Visualisierung eine fehlende Deckung des Informationsbedarfs nicht kompensieren. Erst die menschlichen kognitiven Fähigkeiten ermöglichen es, aus Daten wertvolle Informationen, Bedeutungen und Zusammenhänge herauszulesen. Dieser Beitrag unterstreicht die Relevanz einer kraftvollen Informationsvisualisierung, zeigt die Gefahren von unbewussten Visualisierungseffekten auf und liefert mithilfe des entwickelten © CLEAR(I) Leitfadens ein Hilfsmittel zur Erstellung effektiver Dashboards. Die Empfehlungen aus der Literatur zur effektiven Informationsvisualisierung wurden in einer empirischen Untersuchung bei der Containerreederei Hapag-Lloyd aus Anwendersicht überprüft. Der Leitfaden wird präsentiert und um Best-Practice-Beispiele aus dem Einsatz bei Hapag-Lloyd ergänzt.

3.1 Relevanz der Fragestellung Nie zuvor stand so umfangreiches Datenmaterial für die Entscheidungsfindung auf jeder Management-Ebene zur Verfügung wie heute. Anzahl und Umfang interner wie auch externer Datenquellen wachsen kontinuierlich an. Die Digitalisierung ermöglicht zudem die Verknüpfung unterschiedlichster Daten in bisher nicht vermutetem Ausmaß. Während früher das Nicht-Vorhandensein geeigneten Datenmaterials eine Ursache für unvollständige oder gar fehlerhafte Informationen war, geht es heute vielmehr darum, aus der Flut an Informationen die richtigen Erkenntnisse zu gewinnen. Eine effektive Informationsvisualisierung kann dabei die entscheidende Rolle spielen. Entscheidungsträger in der unternehmerischen Praxis benötigen die richtigen Informationen zur richtigen Zeit. Exponentiell wachsende Datenmengen und dynamische Veränderungen des Umfelds erfordern einen kontinuierlichen Überblick über entscheidungsrelevante Informationen. Solche Informationen sind die Basis für das Verständnis der Unternehmenssituation und betrieblicher Prozesse. Sie helfen, das Unternehmen in quantitativen Größen abzubilden und das komplexe Umfeld vereinfacht darzustellen (Steiner et al. 2014, S. 189 f.; Sandt 2003, S. 75). Folglich können Informationen laut Taschner (2013b, S. 3) auch als Bedingung für „bewusstes, zielgerichtetes Handeln“ beschrieben werden. Besonders mithilfe von Dashboards (Few 2013, S. 26; Wexler et al. 2017, XIV), auch Cockpits

3  Die Kraft effektiver Daten-Visualisierung

Prozessschritte der Datenanalyse

DATEN

AUSWERTUNG

45

Fokus des Beitrags

VISUALISIERUNG

f(x)=e –x2

Abb. 3.1   Die Visualisierung stellt den letzten und besonders für die Praxis relevanten Schritt der Datenanalyse dar. (Quelle: Eigene Darstellung)

genannt, lassen sich die für den Nutzer wichtigsten und entscheidungsrelevanten Informationen mittels unterschiedlicher Diagramme und Tabellen auf einen Blick übersichtlich visuell darstellen und aggregieren. In der Praxis werden die auf Dashboards ausgewiesenen Kennzahlen häufig als entscheidende Dimension beschrieben. In der Wissenschaft dagegen stehen die eingesetzten Analyseverfahren zu deren Ermittlung im Fokus. Beide Perspektiven unterschätzen allzu oft eine ausschlaggebende Komponente. Denn besonders die Visualisierung quantitativer Informationen hat einen essenziellen Einfluss auf die Wahrnehmung und Verarbeitung von Informationen (Taschner 2013a, S. 79). Wichtige Inhalte können ihren Zweck nicht erfüllen, wenn sie aufgrund ihrer Darstellung nicht verstanden werden; umgekehrt kann eine gelungene Visualisierung eine fehlende Deckung des Informationsbedarfs nicht kompensieren. Eine Ansammlung an Zahlen in großen Tabellen ist daher ebenso ineffektiv wie künstlerisch anmutende und bunte Grafiken. Auch die gestiegenen Möglichkeiten der interaktiven Visualisierung mithilfe von Softwareanbietern sind keine Garantie für verständliche und wirkungsvolle Darstellungen. Vielmehr erhöhen die mannigfaltigen Darstellungsmöglichkeiten gerade interaktiver Tools die Gefahren ungewollter bis hin zu falsch gesendeter Botschaften. Denn erst die kognitiven Fähigkeiten der Dashboard-Ersteller und -Nutzer ermöglichen es, aus Daten wertvolle Informationen und Zusammenhänge herauszulesen. Der Erkenntnisgewinn aus Datenmaterial verläuft, wie in Abb. 3.1 dargestellt, üblicherweise in drei Schritten: Ausgehend von der Generierung von Daten, folgen die Auswertung und damit die Entstehung von Informationen, welche letztendlich durch

46

L. Jacobs und S. Hensel-Börner

Deckung des Informationsbedarfs

Aufnahme und Verarbeitung der Information

Inhaltliche Eigenschaften der Berichtsinformation (Was?)

Hohe Bedeutung

Mittlere Bedeutung

Formale Eigenschaften der Informationsdarstellung (Wie?)

Geringe Bedeutung

Hohe Bedeutung

Fokus INHALT

Auswirkung Gestaltungskomponente

Schlussfolgerung

geeignete Visualisierung zu für das menschliche Auge verständlichen Erkenntnissen werden. Allerdings wird gerade der Schritt der Visualisierung in der wissenschaftlichen Marketingperspektive häufig unterschätzt bis kaum beachtet. In der Praxis dagegen kommt ihr eine ganz zentrale Rolle zu. Hier wird effektive Informationsvisualisierung zum wirkungsvollen Werkzeug für die Entscheidungsfindung. Allerdings nur, wenn die Aufbereitung von Analyseergebnissen in Dashboards mehr ist als „eine Aneinanderreihung von Ampeln und Tachos“ (Kohlhammer et al. 2013, S. 122). In diesem Beitrag wird das Spannungsfeld zwischen inhaltlicher und visueller Relevanz aufgezeigt und die Notwendigkeit einer konsistenten Verbindung der drei Schritte des daten-basierten Erkenntnisgewinns unterstrichen. Werden aus Rohdaten Strukturen und Zusammenhänge aufgedeckt und ein Kontext geschaffen, werden aus Daten Informationen (Nussbaumer Knaflic 2017, S. 2; Kohlhammer et al. 2013, S. 12). Und erst dann haben sie für Entscheider einen Wert. Die Aufbereitung solcher Informationen kann visuell, textuell und verbal erfolgen (Kohlhammer et al. 2016, S. 307). In diesem Beitrag steht die visuelle Aufbereitung im Fokus. Darzustellende Informationen können dabei wiederum in inhaltliche und formale Eigenschaften unterteilt werden, wobei beide Eigenschaften unterschiedliche Ziele und Aufgaben verfolgen (Taschner 2013a, S. 116). Während die Inhalte einer Aufbereitung einen Einfluss auf die Deckung des Informationsbedarfs haben, ist die formale Ausgestaltung für die Aufnahme und Verarbeitung der Informationen entscheidend. Abb. 3.2 visualisiert die Auswirkungen von Inhalt und Form auf den Empfänger und zeigt das Effektivitätspotenzial auf.

Data Driven Effektivitätsund Efizienzsteigerung (!)

Abb. 3.2  Zu verstehen, welche Auswirkungen inhaltliche und visuelle Komponenten haben, kann die Effektivität und Effizienz der Informationsübermittlung erhöhen. (Quelle: Modifiziert nach Taschner 2013a, S. 116 und eigene Darstellung)

3  Die Kraft effektiver Daten-Visualisierung

47

In der Literatur wird besonders die Relevanz gelungener formaler Ausgestaltung (Visualisierung) bekräftigt (Kohlhammer et al. 2016, S. 304.; Taschner 2013a, S. 154; Schön 2016, S. 100; Wolff 2014a, S. 102; Parmenter 2015, S. 82; Eisl et al. 2015, S. 135). Für diesen Beitrag lässt sich auf dieser Basis das Verständnis von effektiven und effizienten Dashboards wie folgt zusammenfassen: • Effektivität bei einem Dashboard ist erreicht, wenn die relevanten und benötigten Informationen abgedeckt und übermittelt sowie vom Empfänger verstanden werden. • Effizienz ist gegeben, wenn die Geschwindigkeit der Informationsaufnahme hoch ist und Wahrnehmungsprobleme oder -verzerrungen vermieden werden. Daraus lässt sich schlussfolgern, dass eine intensive Berücksichtigung von sowohl Inhalt als auch Form (Visualisierung) die Effektivität und Effizienz von Datenaufbereitungen steigern lässt. Festzuhalten ist vor allem, dass Effektivität und Effizienz einer Informationsvisualisierung von beiden Komponenten, Inhalt und Form, beeinflusst werden. Eine gelungene Präsentation irrelevanter Inhalte ist ebenso ineffektiv wie die schlechte Darstellung wichtiger Inhalte (Hichert 2008a, S. 152 ff.; Wolff 2014a, S. 99; Tufte 2006, S. 136). Nach welchen Regeln Datenaufbereitungen, und besonders Dashboards, also gestaltet werden sollen, zeigt der vorliegende Beitrag. Die Beschreibung relevanter Prozesse im Gehirn im Rahmen visueller Wahrnehmung und die Lieferung empirischer Ergebnisse zur Identifikation von Erfolgsfaktoren effektiver Datenvisualisierung bilden die Grundlage. Mit © CLEAR(I) münden die gewonnenen Erkenntnisse in einen anwendungsorientierten Leitfaden zur effektiven Datenvisualisierung, in dessen Entwicklung bereits Anwendungserfahrungen aus der Unternehmenspraxis bei Hapag-Lloyd eingeflossen sind.

3.2 Visuelle Wahrnehmung und Prozesse im Gehirn „Effective information visualization is built on an understanding of how we see and think.“ (Few 2009, S. 53)

Besonders die Autoren Few (2009), Tufte (2006) und Hichert (2008a) heben in ihren Arbeiten verstärkt die Kraft von Visualisierungen hervor. Diagramme und andere Visualisierungshilfen sind anschaulicher als Tabellen und helfen dem Empfänger, quantitative Daten einfacher und schneller zu verarbeiten (Schön 2016, S. 100). Die in der Literatur genannten Vorteile der Visualisierung von Informationen lassen sich wie folgt zusammenfassen:

48

L. Jacobs und S. Hensel-Börner

• Eine große Anzahl von Informationen und komplexe Zusammenhänge können kompakt und verständlich dargestellt werden. (Müller und Lenz 2013, S. 243 f.; Ware 2004, S. 3) • Trends, Muster und Strukturen können in einer Datenmenge schneller erfasst werden (Kohlhammer et al. 2016, S. 304; Müller und Lenz 2013, S. 243 f.; Wexler et al. 2017, S. 3) • Der Vergleich von Informationen kann visuell besser verdeutlicht werden (Müller und Lenz 2013, S. 243 f.) • Bildinformationen werden schneller wahrgenommen und länger erinnert als Zahleninformationen (Taschner 2013a, S. 154; Few 2009, S. 6) Schmidt (2016, S. 35) geht sogar davon aus, dass das Design von Management Reportings der entscheidende Faktor für den Erfolg und „die Wandlung von einem Datenfriedhof zu einem Management-Tool“ ist. Voraussetzung für solch effektives Visualisieren ist allerdings, die für die Informationsaufnahme und -verarbeitung relevanten Prozesse in Auge und Gehirn zu verstehen. Diese werden im Folgenden kurz erläutert und anhand konkreter Beispiele illustriert. Durch den visuellen Apparat, das Sehen, werden mehr Informationen aufgenommen als durch alle anderen Sinne zusammen (Ware 2013, S. 2). Beim Betrachten von Informationen findet eine Vielzahl von Prozessen, Aktivitäten und biochemischen Reaktionen gleichzeitig im menschlichen Gehirn statt. Über das Auge wird ein Bild der Umwelt auf die Netzhaut (Retina) projiziert. Nerven- und Sinneszellen spielen bei der anschließenden Informationsweiterleitung eine entscheidende Rolle, indem sie, die spezialisierten Photorezeptoren, Lichtreize in ein elektrisches Signal codieren und über Aktionspotenziale weiterleiten. Über den Sehnerv gelangen die Informationen schließlich in das Gehirn. Dort werden die Signale über den sog. Thalamus an die Sehrinde, den auf die Verarbeitung visueller Informationen spezialisierten Bereich des Cortex, geschickt. In diesem Teil werden die Informationen decodiert und ausgewertet, um schließlich Objekte wahrzunehmen und zu erkennen (Frings und Müller 2014, S. 278; Birbaumer und Schmidt 2010, S. 389). Bei der Verarbeitung der Informationen sind beide Großhirnhemisphären beteiligt: die linke und die rechte Hemisphäre. Während die linke Gehirnhälfte Daten vor allem kausal und nach Funktion verarbeitet, arbeitet die rechte Gehirnhälfte vorwiegend holistisch emotional (Frings und Müller 2014, S. 172; Pflock et al. 2016, S. 69; Birbaumer und Schmidt 2010, S. 534). Aus der Datenflut an Informationen, die die Sinneszellen aufnehmen, rekonstruiert das Gehirn die Umwelt. Dabei ist zu beachten, dass die Wahrnehmung besonders bei komplexen Objekten und Zusammenhängen trotz gleichbleibender Sinnesreize aufgrund von Interpretation unterschiedlich ausfallen

3  Die Kraft effektiver Daten-Visualisierung

1. Visuelles System: Auge

49

2. Kognitives System: Cortex Prozess

Abb. 3.3   Am Wahrnehmungsprozess sind das visuelle und kognitive System gleichermaßen beteiligt. (Quelle: in Anl. an Few 2009, S. 32)

kann (Frings und Müller 2014, S. 5). Das bedeutet gleichzeitig, dass mangelnde Kenntnis über visuelle Wirkmechanismen eine große Gefahr der Inhaltsverzerrung und Fehlinterpretation auf Empfängerseite birgt. Abb. 3.3 demonstriert die Verarbeitung von Informationen eines einfachen Balkendiagramms. Während der Sehnerv einzelne Attribute eines Objekts wahrnimmt, erfolgt die Zusammensetzung dieser Attribute und die Wahrnehmung im Cortex. Das komplexe Zusammenspiel von Auge und Gehirn in Form visueller Wahrnehmung unterteilt Ware (2013, S. 20 f.) in drei Ebenen. Auf der ersten Ebene werden viele Informationen der Umwelt parallel aufgenommen, die nicht unbedingt alle bewusst wahrgenommen werden. Im zweiten Schritt werden Einzelinformationen aktiv zu Mustern verknüpft, um das Sichtfeld in Bereiche beispielsweise unterschiedlicher Farben und Strukturen zu unterteilen. Auf der dritten Ebene werden einzelne Objekte bewusst wahrgenommen und im visuellen Arbeitsgedächtnis gehalten. Diese Vielzahl an Prozessen und Aktivitäten von Auge und Gehirn findet in Bruchteilen von Sekunden statt. Wenig überraschend ist also die Tatsache, dass die Informationsverarbeitungskapazität des Menschen beschränkt ist (Birbaumer und Schmidt 2010, S. 499). Das Prinzip der Aufmerksamkeit dient hier als Filter, um sich auf bestimmte Bereiche zu konzentrieren (Ware 2013, S. 22). Einige Informationen werden somit wichtiger erscheinen als andere. Dieser Zusammenhang führt zu einem ganz zentralen Element effektiver Informationsvisualisierung: Allein die formale Gestaltung von Berichten kann Verhalten beeinflussen, indem Aufmerksamkeit durch Hervorheben, Unterstreichen, etc. auf bestimmte Informationen gelenkt wird (Taschner 2013a, S. 75). Erschwerend kommt hinzu, dass der Empfänger die dargestellten Informationen trotz gegebener Menge an Sinnesreizen je nach Situation oder der Dominanz linker oder rechter

50

L. Jacobs und S. Hensel-Börner

Abb. 3.4   Illustration präattentiver Wahrnehmung am Beispiel des Attributs Farbe. (Quelle: in Anl. an Wexler et al. 2017, S. 6; Few 2013, S. 80)

Hemisphäre sehr unterschiedlich verstehen und interpretieren kann. Diese Effekte können noch verstärkt auftreten, sobald das Informationsangebot die kognitiven Kapazitäten des Empfängers übersteigt. In diesem Fall wird von einem Information Overload (Informationsüberlastung) gesprochen (Taschner 2013a, S. 206; Volnhals und Hirsch 2008, S. 50; Nussbaumer Knaflic 2017, S. 62; Eisl et al. 2015, S. 134). Für die Eingrenzung der wahrzunehmenden Informationen greift der Effekt der präattentiven Wahrnehmung. Dieser ist ein entscheidender Einflussfaktor auf die Informationsverarbeitung in unserem Gehirn und ist maßgeblich dafür verantwortlich, dass Visualisierungen schneller als Zahlen erfasst werden können. Präattentive Wahrnehmung beschreibt und bezeichnet das schnelle Erkennen von Attributen visueller Bilder ohne bewusste Aufmerksamkeit (Few 2009, S. 38; Wexler et al. 2017, S. 7; Few 2013, S. 78 ff.; Nussbaumer Knaflic 2017, S. 86 ff.; Kohlhammer et al. 2013, S. 1 ff.). Bestimmte Elemente werden somit noch vor (prä) der eigentlichen bewussten Wahrnehmung (attentiv) gesehen. Abb. 3.4 verdeutlicht die Wirkung dieses Phänomens: Es soll die Menge der Zahl 5 bestimmt werden. Während links jede Zeile gelesen werden muss, lässt sich die Zahl 5 rechts dank der farblichen Hervorhebung schnell finden. Das Beispiel unterstreicht die Wirkung von Farbe als präattentives Attribut. Bevor der Leser die erste Zahl im rechten Kasten lesen kann, richtet sich seine Aufmerksamkeit auf die farbige Zahl. Diese Reaktion geschieht automatisch und ohne eine bewusste Entscheidung des Betrachters. Der farbliche Reiz lenkt das Auge, indem Informationen strukturiert und hervorgehoben werden. Neben Farbe gibt es noch zahlreiche weitere Attribute, wie Farbintensität, Position, Länge, Breite, Größe und Form, die zur Strukturierung von Informationen genutzt werden können und dem Auge helfen, die Eindrücke zu verarbeiten (Ware 2013, S. 152 ff.; Wexler et al. 2017, S. 9; Few 2013, S. 80 f.). Visualisierung dient generell dazu, die Informationsverarbeitung zu vereinfachen. Im Kontext quantitativen Datenmaterials kann die Wirkung visueller Wahrnehmung deutlich darüber hinausgehen und den inhaltlichen Aussagegehalt substanziell verändern. Welchen Einfluss die Darstellung der Daten auf Wahrnehmung und Aussage hat, zeigt das Beispiel in Abb. 3.5.

Abb. 3.5   Eine Datenreihe kann auf unterschiedliche Weise visualisiert werden. (Quelle: in Anl. an Wexler et al. 2017, S. 35)

3  Die Kraft effektiver Daten-Visualisierung 51

52

L. Jacobs und S. Hensel-Börner

Die Ausgangsgrößen sind in dem Beispiel bei allen Darstellungsformen identisch, der Schwerpunkt der Aussage ändert sich jedoch mit der gewählten Visualisierung. Während im Liniendiagramm die Unterschiede zwischen den Datenreihen A und B im Zeitablauf gut zu erkennen sind, wird im danebenstehenden Flächendiagramm die Entwicklung der kumulierten Werte deutlich. Ein Vergleich der Werte von A und B wird hier jedoch schwierig. Es wird erkennbar, dass sich der Ersteller mit der Wahl der Visualisierungsart gleichzeitig immer für eine bestimmte Aussage und einen bewussten Zweck entscheidet. Das Ziel von Visualisierungen muss es sein, beabsichtigte Aussagen zu unterstreichen und gleichzeitig kognitive Wahrnehmungsprozesse zu unterstützen. Nur so sind Daten besser zu verstehen und Entscheidungen auf Basis der Erkenntnis von Strukturen und Mustern zu treffen (Ware 2004, XVII). Dabei ist zu beachten, dass die Wirkung von Visualisierungen bei falscher Anwendung die Entscheidungsqualität negativ beeinflussen kann. Während einzelne Zahlen faktische Inhalte übermitteln, können Grafiken Inhalte verzerren oder zu Fehlinterpretationen führen (Taschner 2013a, S. 154; Müller und Lenz 2013, S. 245; Wexler et al. 2017, S. 26; Kohlhammer et al. 2013, S. 86). Abb. 3.6 zeigt, wie Aussagen mittels Visualisierungseffekten scheinbar verändert werden können. Visualisieren heißt demnach, sich entweder bewusst für eine bestimmte Darstellung und den Aussagezweck zu entscheiden oder sich der Gefahr auszusetzen, dass die visuelle Gestaltung (unbewusst) die Informationswahrnehmung manipulieren kann. Für alle Dashboard-Ersteller in Wissenschaft und Praxis, die sich der Kraft und

Säulendiagramm mit abgeschnittener Y-Achse täuscht die Wahrnehmung 120

120

118 115

115

Umsatz in T-EUR

Vollständige Y-Achse zeigt die richtigen relativen Höhen 118

105

110

115

100 80

110

110

105

105

60 40 20

Abb. 3.6  Abgeschnittene y-Achsen täuschen die Wahrnehmung und verfälschen den Inhalt. (Quelle: Eigene Darstellung)

3  Die Kraft effektiver Daten-Visualisierung

53

Wirkung der Visualisierung nicht bewusst sind, erhöht sich zwangsläufig die Gefahr der manipulierten Informationswahrnehmung auf Empfängerseite. Das Verständnis neuronaler Prozesse und der Verarbeitung von Informationen im Gehirn ist folglich Voraussetzung für die Entwicklung und Gestaltung effektiver Dashboards. Eine Visualisierung, die diesen Regeln der Informationsverarbeitung folgt, erleichtert dem Nutzer das Aufnehmen und Verarbeiten von Informationen. Es können Details und Muster schneller erkannt und fundierte Entscheidungen abgeleitet werden (Kohlhammer 2016, S. 87). Auch wenn die Literatur bereits zahlreiche Regeln und Lösungsansätze für die Darstellung quantitativen Datenmaterials liefert, kommt ihnen durch die gestiegenen interaktiven Gestaltungsmöglichkeiten digitaler Tools und dem Vorhandensein unüberschaubarer Datenmengen eine ganz neue Relevanz zu. Sowohl Informationslieferanten wie Data Scientists oder Business Analysten auf der einen Seite als auch Entscheidungsträger in den Fachabteilungen und auf Management-Ebene auf der anderen Seite, alle stehen gleichermaßen vor der Herausforderung, wertvolle und die richtigen Schlüsse aus dem vorhandenen Datenmaterial zu ziehen. Es gilt, das Informationsangebot auf die problemspezifischen Inhalte und Kennzahlen zu begrenzen und nicht wirksame Visualisierungselemente zu vermeiden. Wie eine solche effektive Visualisierung gelingen kann und welches die relevanten Erfolgsfaktoren sind, wurde im Rahmen einer empirischen Untersuchung bei der Containerreederei Hapag-Lloyd untersucht.

3.3 Identifikation von Erfolgsfaktoren für effektives Dashboard-Design 3.3.1 Vorgehensweise und Datenbasis Ausgangspunkt der empirischen Untersuchung war die Zusammenstellung der in der Literatur identifizierten Faktoren, Regelwerke und Handlungsempfehlungen effektiver Informationsvisualisierung. Als Quellen dienten unterschiedliche Veröffentlichungen und Lehrbücher im Kontext der Theorie zur Informationswahrnehmung und zum Auge-Gehirn-System, Erstellung von Management-Reportings und Kennzahlen zur Unternehmensführung. Ergänzt wurden außerdem Aspekte aus der praktischen Anwendungserfahrung bei der deutschen Containerreederei Hapag-Lloyd. Insgesamt ergaben sich 44 Einflussfaktoren, die in einem ersten Schritt in die drei Kategorien Inhalt, Visualisierung und System unterteilt wurden. Die Einordnung erfolgte in Anlehnung an die Unterscheidung visueller

54

L. Jacobs und S. Hensel-Börner

Informationsaufbereitung in inhaltliche und formale Eigenschaften. Um der Digitalisierung und den damit einhergehenden gestiegenen interaktiven Möglichkeiten Rechnung zu tragen, wurde die dritte Kategorie System hinzugefügt. In einem weiteren Schritt wurde die Relevanz der 44 Faktoren aus Nutzersicht ermittelt. Dieser Ansatz verbindet eine adressatengerechte Gestaltung von Dashboards für den betrachteten Anwendungsfall bei Hapag-Lloyd und unterzieht gleichzeitig die in der Literatur als wichtig und notwendig beschriebenen Faktoren einer empirischen Überprüfung. Die Entwicklung des Leitfadens © CLEAR(I) basiert damit auf einem sehr breiten Fundament. Es sind die theoretischen Grundlagen zur Informationsverarbeitung, praktische Anwendungserfahrungen aus Sicht der Dashboard-Ersteller und eine empirische Überprüfung aller Aspekte aus Nutzersicht eingeflossen. Abb. 3.7 gibt einen Überblick über das Vorgehen zur Ermittlung der Erfolgsfaktoren und den Entwicklungsprozess von © CLEAR(I). Um die Bewertungen der Dashboard-Nutzer vergleichen zu können, wurde eine standardisierte Online-Befragung durchgeführt. Für die Befragung wurden Teilnehmer ausgewählt, die das Visualisierungstool QlikView bei Hapag-Lloyd nutzen und auf mehrere Reportings Zugriff haben. So konnte gewährleistet werden, dass alle befragten Personen eine Vorstellung von einem Dashboard in der Praxis hatten und die Wichtigkeit der Faktoren anhand ihrer Erfahrungen bewerten konnten. Bei der Befragung sollte absichtlich kein explizites Dashboard als Beispiel dienen, um die Beurteilung der Faktoren nicht von einer bestimmten Visualisierungsform zu beeinflussen. Vielmehr stellte dieses Vorgehen sicher, dass die Befragten die Bewertungen aufgrund ihrer bisherigen Erfahrungen vornahmen, diese jedoch von unterschiedlichen Gestaltungen geprägt waren. Insgesamt haben 408 Mitarbeiter/-innen an der Befragung teilgenommen. Dies entspricht einer zufriedenstellenden Rücklaufquote von 23 %. Da die befragten Personen unterschiedlichen Abteilungen, Aufgabenschwerpunkten und Managementpositionen zugeordnet werden können, ermöglicht die Stichprobe Rückschlüsse auf die Nutzerperspektive zum Einsatz von Dashboards bei Hapag-Lloyd insgesamt. Ergänzend wurden qualitative Experteninterviews durchgeführt, um mehr zum Umgang mit und der Bedeutung von Dashboards in verschiedenen Abteilungen bei Hapag-Lloyd zu erfahren. Die Auswahl der sieben Interviewpartner erfolgte nach Bereichen, die in der Entwicklung von Dashboards involviert sind (IT und Fachabteilungen) und nach Personen, die Erfahrung in dem Design oder der Konzeption von Dashboards haben (Berater). Als zentrales Ergebnis der Befragung diente eine Importance-Performance Analyse (IPA). Dabei werden „Real-Ideal-Eindrucksdifferenzen“ (Trommsdorff und Teichert 2011, S. 148) ermittelt, auf Basis derer sich Handlungsfelder zur

Kategorisierung der empirisch zu überprüfenden Faktoren

Abb. 3.7   Die Faktoren des Dashboard-Designs lassen sich in drei Gestaltungsebenen unterteilen. (Quelle: Eigene Darstellung)

4. CLEAR(I) Leitfaden

3. Empirie

(Inhalt, Visualisierung, System)

2. Faktoren Kategorisierung

1. Literaturauswertung

Methodisches Vorgehen bei der CLEAR(I) Entwicklung

3  Die Kraft effektiver Daten-Visualisierung 55

56

L. Jacobs und S. Hensel-Börner

Verbesserung ableiten lassen. Neben einer Einschätzung über die tatsächliche (reale) Ausprägung eines Merkmals bei einem Objekt werden die Befragten nach der idealen Ausprägung desselben Merkmals gefragt. Die Differenzen der einzelnen Merkmale können auf die Zufriedenheit und damit auch auf die Gesamtqualität der betrachteten Leistung schließen lassen (Trommsdorff 1975, S. 72 ff.). Bruhn (2016, S. 149) spricht in diesem Zusammenhang von einer affektiven und einer kognitiven Komponente. Während die affektive Komponente als Erwartung und damit auch als Wichtigkeit (Importance) des einzelnen Kriteriums verstanden werden kann, beschreibt die kognitive Komponente den Erfüllungsgrad (Performance) (Bruhn 2016, S. 150). Auf einer bipolaren Skala von 1 bis 7 sollten die Teilnehmer die aus ihrer Perspektive empfundene Wichtigkeit von ausgewählten Kriterien und die Ausprägung (Performance) dieser Kriterien bei Hapag-Lloyd bewerten. Dabei konnte die Wichtigkeit von 1 (unwichtig) bis 7 (extrem wichtig) und die Performance von 1 (keine Performance) bis 7 (extrem gute Performance) angegeben werden. Die Grundidee des Modells besteht darin, besonders bei den für den Befragten wichtigen Faktoren eine hohe Performance zu erreichen und Verbesserungsbedarf (=hohe Wichtigkeit, geringe Performance) zu identifizieren.

3.3.2 Auswertung und Vorstellung der Befragungsergebnisse Ziel des vorliegenden Beitrags ist die Präsentation des Leitfadens © CLEAR(I) zur Erstellung effektiver Dashboards. Einschätzungen zur Performance sind erst dann von Bedeutung, wenn bereits konzipierte Dashboards von Nutzern bewertet werden. Diese Überprüfung gilt es für den eigenen Anwendungsfall individuell durchzuführen. Für die Entwicklung der Handlungsempfehlungen in Form von © CLEAR(I) sind die Performance-Ergebnisse nicht relevant. Die empirischen Ergebnisse werden dahingehend interpretiert, inwieweit die in der Literatur formulierten Anwendungsempfehlungen bestätigt werden. Abb. 3.8 weist für jede der Kategorien Inhalt, Visualisierung und System die aus Nutzersicht fünf wichtigsten Faktoren aus. Die fünfzehn Faktoren heben sich jeweils pro Kategorie in ihrer Bewertung von den anderen Faktoren ab. Bei aggregierter Betrachtung über alle drei Kategorien hinweg kommt den Faktoren Transparenz, klare Botschaft, Klarheit/Struktur und Aktualität der Daten die höchste Bedeutung zu. Es sind die Faktoren mit den höchsten Bewertungen und stellen somit die zentralen Erfolgsfaktoren aus Nutzersicht dar.

Aktualität Filter Sortierung Drill-Down Bookmarks

Top 5 Faktoren

Klarheit/Struktur Visualisierungen/Diagramme Klare Diagramme Geeignete Diagrammtypen Tabellen

Top 5 Faktoren

0

0

0

1

1

1

2

2

2

3

3

3

4

4

4

5

5

5

50% der Ergebnisse

6

6

6

7

7

7

Mittelwert

Abb. 3.8   Inhaltliche und visuelle Klarheit sind von zentraler Bedeutung aus Nutzersicht. (Quelle: Eigene Darstellung)

SYSTEM

Kategorie

VISUALISIERUNG

Kategorie

INHALT

Kategorie

Transparenz Klare Botschaft Vollständigkeit Konsistente Kalkulation Konsistente Deinition

Top 5 Faktoren

Bewertung der Wichtigkeit

6.4 6.1 6.1 6.1 6.1

Mittelwert 8

6.2 6.0 6.0 5.9 5.8

Mittelwert 8

Mittelwert 8 6.2 6.2 6.1 6.1 5.9

Minimum

3  Die Kraft effektiver Daten-Visualisierung 57

58

L. Jacobs und S. Hensel-Börner

Dieses Gesamtergebnis deckt sich mit den theoretischen Grundlagen der Informationswahrnehmung. Nahezu alle Autoren aus dem Bereich der Informationsvisualisierung empfehlen ein klares Design ohne visuellen Lärm. Entsprechend müssen auch aus Nutzersicht Dashboards strukturiert und in ihren Inhalten und der visuellen Aufbereitung klar sein. Klarheit kann hier sowohl inhaltlich (Transparenz, klare Botschaft) als auch visuell (Klarheit/Struktur, klare Diagramme) beschrieben werden. Klarheit im Rahmen der Visualisierung beschreibt eine Gestaltung, die auf dekorative Elemente verzichtet. Anwendungserfahrungen zeigen, dass je besser die Balance zwischen angemessener Informationsdichte und der Masse an dargestellten Datenpunkten gehalten wird, desto leichter ist Klarheit zu realisieren. Daraus kann eine erste – vielleicht nicht überraschende – Handlungsempfehlung zur Dashboard-Erstellung abgeleitet werden: Weniger ist mehr. Vorausgesetzt, alle notwendigen Informationen werden dargestellt, denn eine Herausforderung in dieser Hinsicht entsteht vor dem Hintergrund der Tatsache, dass der Faktor Vollständigkeit der Inhalte nahezu gleich wichtig ist. Dieses Spannungsfeld zeigt, dass die vermeintlich triviale Anforderung alles andere als einfach zu realisieren ist. Denn wirkungsvolles Design beginnt bereits mit der Auswahl der abzubildenden Informationen und Kennzahlen. Abweichende Ergebnisse zeigen sich hinsichtlich des Prinzips der Vereinheitlichung und Konsistenz der Darstellungsformen. Es gilt wieder die inhaltliche und visuelle Einheitlichkeit zu differenzieren. Die Ergebnisse zeigen, dass die Bedeutung der inhaltlichen Einheitlichkeit (konsistente Kalkulation, konsistente Definition) höher als die visuelle Einheitlichkeit (konsistentes Design, konsistenter Farbcode) bewertet wurde. In der Literatur wird im Gegensatz dazu verstärkt für ein einheitliches Notationskonzept argumentiert. Gemeint ist die schriftliche Festlegung von Gestaltungsrichtlinien. Farben, Formen und Diagrammtypen sind zentrale Komponenten, die in diesem Rahmen festgelegt werden; abhängig vom Autor variieren die Empfehlungen hinsichtlich Stringenz und Umfang (Hichert 2008b, S. 16; Stahl 2016, S. 53; Kohlhammer et al. 2013, S. 80 ff.). Dieses Ergebnis verdeutlicht einmal mehr die notwendige Interdependenz zwischen den Dimensionen Inhalt und Form (Visualisierung), wobei die Nutzerperspektive das Gestaltungsprinzip form follows function klar bestätigt. Für die Konzeption von Dashboards muss folglich der gestalterischen Umsetzung eine intensive Diskussion um Ermittlung einheitlicher Kennzahlen und geeigneter Aggregation des Datenmaterials vorausgehen. Eher überraschend ist die hohe Relevanz von Tabellen für die befragten Nutzer. Typischerweise werden gerade auf Management-Ebene kurze und knappe Zusammenfassungen erwartet.

3  Die Kraft effektiver Daten-Visualisierung

59

Dashboards und Management-Reports sollen alle wesentlichen Informationen auf einen Blick darstellen. Die empirischen Ergebnisse deuten dagegen darauf hin, dass die Möglichkeit auf Details zurückzugreifen (insbesondere mittels Tabellen) eine wichtige Komponente erfolgreicher Dashboards ist. Solche Detailelemente unterstützen ganz offensichtlich die aus Nutzersicht notwendige Transparenz der Inhalte. Aus systemtechnischer Perspektive steht die Aktualität der dargestellten Daten an allererster Stelle, was nicht unmittelbar mit der reinen Visualisierung zusammenhängt. Offensichtlich stellt dies die Grundvoraussetzung für den Mehrwert eines Dashboards dar. Hier liegt eine besondere Chance digitaler ­ Tools. Mit korrekter Einbindung und Verknüpfung der relevanten Datenquellen können Berichte und Dashboards nahezu jederzeit auf dem aktuellen Stand sein. Hinsichtlich der Gestaltungsmöglichkeiten zeigen die Ergebnisse, dass Dashboard-Nutzer durchaus Wert darauflegen, mithilfe von Filtern, Sortierung, Drill-Down und Bookmarks die Daten flexibel und auf die individuellen Bedürfnisse abgestimmt nutzen zu können. Direkt danach gefragt geben 85 % der Nutzer an, dass ein Dashboard ansprechend gestaltet sein sollte. Auch aus Sicht der befragten Experten gilt ein ansprechendes Design als wichtiger Faktor für die Akzeptanz eines Dashboards. Softwarelösungen der führenden Anbieter kommen diesen Wünschen der Nutzer einerseits sehr entgegen. Sie bieten vielfältige (bunte) Möglichkeiten der interaktiven Informationsaufbereitung. Andererseits konnten Klarheit/Struktur von Dashboards als einer der wichtigsten Erfolgsfaktoren eines effektiven Dashboards-Designs identifiziert werden. Dies macht deutlich, dass der formalen Aufbereitung, als vermeintlich banales Mittel zum Zweck des Informationstransportes, durch den zunehmenden Einsatz digitaler Visualisierungstools eine ganz entscheidende Rolle zukommt. Der gestalterischen Vielfalt dieser Tools steht das Bedürfnis nach klarer und strukturierter Informationsvisualisierung gegenüber. Erschwert wird diese Aufgabe durch die Tatsache, dass eine Reduktion der Informationsflut und die gleichzeitige Lenkung des Lesers mittels präattentiver Attribute zusätzlich die Gefahr der Manipulation und Fehlinterpretation beinhaltet. Erst wenn dem DashboardErsteller und -Nutzer die Auswirkungen der gewählten Gestaltung bewusst werden, können unbewusste Manipulationen in der Visualisierung vermieden werden. Fasst man die Erkenntnisse aus Literatur und Nutzersicht zusammen, kann von einem wirkungsvollen Dashboard gesprochen werden, wenn diese Kriterien erfüllt sind:

60

L. Jacobs und S. Hensel-Börner

• Die Gestaltung orientiert sich am subjektiven Informationsbedarf der Empfänger und es werden die für eine Entscheidung und Handlung wichtigen und richtigen Informationen geliefert. • Um einen Information Overload und hohe Komplexität zu vermeiden, muss die Anzahl der Kennzahlen und Informationen reduziert und gleichzeitig die Vollständigkeit und Relevanz der Inhalte gewährleistet werden. • Das Design ist klar und übersichtlich; Inhalte sind schnell zu verstehen. • Aufgrund steigender Umweltdynamik ist die Aktualität der Informationen essentiell, Informationen müssen zeitnah berichtet werden. • Die Informationen werden mithilfe von effektiven Tabellen und Diagrammen so präsentiert, dass die Aussagen der Informationen optimal unterstützt werden. • Bei der Gestaltung werden die Kapazitäten des menschlichen Gehirns, die Regeln der visuellen Wahrnehmung und die theoretischen Grundlagen der Informationsverarbeitung berücksichtigt. Wie diese sehr allgemein formulierten Gestaltungskriterien für den Einsatz in der Unternehmenspraxis anzuwenden sind, zeigt der Leitfaden ©, der im folgenden Abschnitt vorgestellt wird.

3.4 © CLEAR(I): Ein Leitfaden zur effektiven Dashboard-Gestaltung Mit Hilfe des Leitfadens © CLEAR(I) werden Gestalter von Dashboards oder alternativer Informationsvisualisierungen durch aufeinander aufbauende Leitfragen und konkrete Anwendungsbeispiele schrittweise durch den Konzeptionsprozess geleitet. Der Leitfaden vereint dabei die theoretischen Grundlagen zur visuellen Informationswahrnehmung, Anwendungserfahrungen sowie die empirische Überprüfung der Einflussfaktoren. © CLEAR(I) unterstützt sowohl die Effizienz während der Gestaltung als auch die Effektivität des vollendeten Dashboards: Entwickler sparen bei der Gestaltung Zeit, da sie sich an definierten Schritten orientieren und den Fokus auf die Aussagen legen können. Die Effizienz von Dashboards wird erhöht, indem die für die vollständige Wahrnehmung des Inhalts am besten geeignete Visualisierung ausgewählt wird. Ein Leitfaden kann zudem inhaltliche und visuelle Gestaltungsaspekte bestehender Konzepte verbessern und richtet sich an ein Aktionsfeld, das systemtechnische Maßnahmen nicht beeinflussen können: die Unterstützung menschlicher Fähigkeiten. Der Leitfaden hilft bei der Gestaltung von Dashboards und gewährleistet, dass die

3  Die Kraft effektiver Daten-Visualisierung

61

für ein wirkungsvolles Dashboard notwendigen Bedingungen erfüllt werden. Im Gegensatz zu dem strikten Notationskonzept von beispielsweise Gerths und Hichert (Gerths und Hichert 2011, S. 15 f.) versteht sich dieser Leitfaden als eine Art Checkliste und orientiert sich an den Empfehlungen von Nussbaumer (Nussbaumer Knaflic 2017, S. 119). Hinzu kommt, dass © CLEAR(I) im Vergleich zu anderen Empfehlungen auf empirisch überprüften Erfolgsfaktoren aus Nutzersicht basiert. Mit dem Leitfaden ist dem Ersteller so viel kreativer Freiraum wie möglich, aber ebenso viel Standardisierung wie nötig gegeben. Der Leitfaden wurde speziell für die Dashboard-Erstellung konzipiert; Teilbereiche, wie die Leitfragen zur Visualisierung, können aber auch als Orientierung bei der Erstellung von PowerPoint Folien oder anderen Berichten genutzt werden, um Visualisierungsimpulse zu geben. Im Akronym © CLEAR(I) steht hinter jedem Buchstaben ein Themenfeld mit Fragen, die bei der Entwicklung unterstützen. Der englische Name CLEAR (dt. ‚klar‘) stützt sich auf die hohe Bedeutung des Faktors Klarheit/Struktur für ein wirkungsvolles Dashboard-Design. Die Anforderung eines sowohl inhaltlich als auch visuell klaren und präzisen Dashboard-Designs wurde in der Literatur und der empirischen Überprüfung eindeutig bestätigt. Das (I) bezieht sich auf eine optionale systemtechnische Unterstützung (IT) und soll mit der Aussprache gleichzeitig auf das englische Wort für Auge (engl. ‚eye‘) anspielen. Schließlich werden wie in Abschn. 3.2 aufgezeigt mehr Informationen über das Auge aufgenommen als durch alle anderen Sinne zusammen. Abb. 3.9 zeigt den im Rahmen der Studie entwickelten Leitfaden © CLEAR(I) im Überblick. Zusätzlich zu Leitfragen beinhaltet der Leitfaden eine Definition von Dashboards und eine an Evergreen angelehnte Übersicht zur Findung des geeigneten Diagrammtyps (Evergreen 2017, S. 1). Die Diagrammübersicht soll helfen, schnell einen geeigneten Diagrammtypen zu finden oder Impulse für eine Visualisierung zu erhalten. Der © CLEAR(I) Leitfaden und seine Komponenten sowie alle Fragen der Checkliste werden im Folgenden näher betrachtet und um konkrete Praxistipps ergänzt. „C“ontext understanding and complete information Die Entwicklung eines effektiven Dashboards beginnt vor der Erstellung und umfasst die Definition des Kontextes. Der Entwickler sollte die Nutzer des Dashboards interviewen und sich in die Lage, Aufgaben und Prozesse des Empfängers hineinversetzen, um ein effektives Dashboard zu gestalten. Bevor dieses entworfen und die Auswahl der Gestaltungselemente getroffen werden kann, müssen Aussage, Anforderungen und der Kontext klar bestimmt werden. Diese erste Anforderung an das Dashboard-Design wird auch in der Literatur einstimmig betont (Wolff 2014b, S. 116 f.; Zelazny 2015, S. 23; Few 2015, S. 22; Tufte 2001, S. 74).

Abb. 3.9   Der © CLEAR(I) Leitfaden unterstützt bei der Gestaltung wirkungsvoller Dashboards hinsichtlich inhaltlicher und visueller Aspekte. (Quelle: Eigene Darstellung)

62 L. Jacobs und S. Hensel-Börner

3  Die Kraft effektiver Daten-Visualisierung

63

Die Bedeutung dieses Schrittes wird deutlich, wenn man sich die unterschiedlichen Auswirkungen der dargelegten inhaltlichen und formalen Eigenschaften vor Augen führt: Während die Inhalte einer Darstellung den Informationsbedarf decken, ist die formale Ausgestaltung für die Aufnahme und Verarbeitung der Informationen entscheidend. Allzu häufig wird in der Unternehmenspraxis gerade die Relevanz der Kontextualisierung unterschätzt und zu wenig Zeit und Ressource hierfür eingeplant. Erste Leitfragen für die Entwicklung sind: • Wer nutzt das Dashboard/die Darstellung? • Welche Funktion erfüllt das Dashboard/die Darstellung (analytisch, operativ, strategisch, explorativ)? • Welche Informationen werden benötigt? Welche sind entscheidungsrelevant? Welche Daten sind verfügbar und bekannt? STOLPERSTEINE IN DER PRAXIS

Oftmals wird einfach drauflos designt, ohne den Zweck und das Ziel der Darstellung genau zu hinterfragen und sich in die Zielgruppe hineinzuversetzen. Analysen und Informationen müssen häufig kurzfristig und schnell verfügbar sein; in der Regel geht das zu Lasten der finalen formalen Gestaltung. Um dies zu vermeiden, sollte rechtzeitig der Kontext definiert und in der Planung ausreichend Zeit für das finale Design einkalkuliert werden. ◄ „L“ook & Feel with appropriate visualizations Wenn der benötigte Informationsgehalt definiert ist, muss eine Visualisierung gewählt werden, mithilfe derer die Informationen effektiv und einfach vermittelt werden können. Dabei können die folgenden Fragen unterstützen: • Bei welchen Informationen ist ein Diagramm oder eine Tabelle angemessen? (Tabellen für Details, Diagramme für die vereinfachte Darstellung von Datenmengen) • Ist die gewählte Visualisierung die effektivste, um die richtigen Informationen zu übermitteln? • Sind die Regeln effektiver Visualisierung von Informationen eingehalten? (Auswahl geeigneter Diagramme, horizontale Ausrichtung bei zeitlicher Entwicklung und vertikale Ausrichtung bei Rangfolgen, keine Dekoration, zweckmäßiger Einsatz von Farbe, Hervorhebung wichtiger Elemente, richtige Skalierung) • Ist die Visualisierung ansprechend gestaltet?

64

L. Jacobs und S. Hensel-Börner

Diagramme und Tabellen sind zentrale Dashboard-Elemente. Ihnen kommt im Look & Feel einer geeigneten Visualisierung eine ganz besondere Rolle zu. © CLEAR(I) enthält daher eine Übersicht unterschiedlicher Diagrammtypen (Chart Finder), die in Anlehnung an die Empfehlungen von Evergreen und Nussbaumer entwickelt wurde (Evergreen 2017, S. 1; Nussbaumer Knaflic 2017, S. 11). Die Visualisierung von Daten erfolgt mit dem Zweck, Inhalte verständlich sichtbar zu machen und dem Empfänger relevante Informationen wiederzugeben (Kohlhammer et al. 2013, S. 46). Der Einsatz von Tabellen und Diagrammen verfolgt dabei unterschiedliche Funktionen und hat Einfluss auf die Wirksamkeit der Darstellung: Während Tabellen nützlich sind, um Zahlen unverarbeitet darzustellen, können mit Diagrammen komplexe Zusammenhänge visualisiert werden (Eisl et al. 2015, S. 142). Bei Tabellen müssen Werte einzeln gelesen werden; bei Diagrammen können mehrere Werte auf einmal betrachtet und verstanden werden, indem die einzelnen Werte zu Mustern verbunden werden, wie beispielsweise in Liniendiagrammen (Few 2009, S. 32; Nussbaumer Knaflic 2017, S. 37). Dennoch haben Tabellen im Gegensatz zu Grafiken Vorteile: Sie ermöglichen die Überprüfung genauer Werte und können zur Berücksichtigung von Detailwerten ergänzend als Übersicht genutzt werden (Wexler et al. 2017, S. 25; Wolff 2014b, S. 115; Schmidt 2016, S. 53 f.). Auch die empirischen Ergebnisse haben gezeigt, dass Tabellen mit Detail-Informationen zusätzlich zu Diagrammen für Dashboard-Nutzer von Bedeutung sind. Je nach Anwendungsfall kann es also sinnvoll sein, Rohdaten in geeigneter tabellarischer Darstellung zu integrieren. Fällt die Entscheidung für eine grafische Darstellung der Informationen, kann der Gestalter aus zahlreichen Diagrammtypen auswählen. Verschiedene Diagramme eignen sich für unterschiedliche Aussagen; erst die Kombination mehrerer Visualisierungen ermöglicht ein vollständiges Abbild von Zusammenhängen. In einem einzigen Diagramm können aber häufig nicht alle Fragen beantwortet werden. Es gilt, die Darstellung zu wählen, die den definierten Informationszweck für die entsprechende Zielgruppe erfüllt. Die Vielfalt der Visualisierungsformen ist groß: Breite, Form, Farbe und Größe ermöglichen eine individuelle Gestaltung von Diagrammen. Während Gehrts und Hichert insgesamt 36 Diagramme als wichtigste Grundtypen von Geschäftsdiagrammen nennen (Gerths und Hichert 2011, S. 14), stellt Schmidt sogar 60 Kombinationsformen von Diagrammarten vor, denen er noch weitere Sonderformen zurechnet (Schmidt 2016, S. 54). Trotz dieser Vielfalt sei festgehalten, dass sich Werte mit den Objekten Punkte, Linien, Balken/Säulen und Boxen ausreichend visuell darstellen lassen (Few 2009, S. 46 f.; Nussbaumer Knaflic 2017, S. 37). Der richtige Einsatz dieser Objekte setzt voraus, dass der Gestalter die Wirkungsweisen und

3  Die Kraft effektiver Daten-Visualisierung

65

Prozesse der Informationswahrnehmung kennt. Allzu häufig ist dies nicht der Fall, und die Auswahl eines Diagrammtyps erfolgt unabhängig vom Inhalt oder rein gewohnheitsmäßig. Die in Abb. 3.10 ausgewählten Diagrammtypen zeigen die im Vergleich zu anderen Darstellungen am wirkungsvollsten beschriebenen Werkzeuge. Die vorgenommene Reduktion auf nur wenige Diagrammtypen ist auch insofern relevant, als dass Informationen vom Empfänger einfacher verarbeitet werden können, wenn die Darstellungsform für gleiche Inhalte gleich bleibt. Das Auge-Gehirn-System verarbeitet Muster, die bekannt sind, am besten und schnellsten (Few 2009, S. 34). Besonders in Zeiten von Big Data ist die Vereinfachung der Informationswahrnehmung relevanter denn je. Das hohe Maß an Komplexität und unendlich erscheinende Datenmengen erschweren das Erkennen von Mustern, Trends und Zusammenhängen. Deshalb ist es wichtig, bei der Visualisierung auf bekannte, dem Gehirn vertraute und vereinfachende Darstellungsformen zurückzugreifen. Zumal mithilfe von Säulen-, Balken- und Liniendiagrammen fast alle Datenszenarien effektiv dargestellt werden können. Aber auch andere Formen eignen sich für die individuelle Gestaltung bestimmter Aussagen. Der Chart Finder im © CLEAR(I) Leitfaden bietet eine Auswahl grundlegender Diagrammtypen, die je nach Aussagegehalt weiterentwickelt werden können. Säulen- und Balkendiagramme nutzen das präattentive Attribut Länge, um die Werte zu kodieren und für den Empfänger sichtbar zu machen (Wexler et al. 2017, S. 8). Während sich Säulendiagramme für die Visualisierung von Trends und Entwicklungen über die Zeit eignen, lassen sich mit Balkendiagrammen vor allem Rangfolgevergleiche unterschiedlicher Objekte darstellen. Dabei ist zu beachten, dass zeitliche Betrachtungen immer mit Säulen- (horizontal) und Strukturvergleiche mit Balkendiagrammen (vertikal) erfolgen sollten (Gerths

Abb. 3.10   Bereits mithilfe weniger Diagrammtypen lassen sich Informationen effektiv darstellen. (Quelle: Eigene Darstellung)

66

L. Jacobs und S. Hensel-Börner

und Hichert 2011, S. 25). Liniendiagramme beschreiben die Darstellung von Werten mittels horizontaler Linien, indem Datenpunkte verbunden werden. Sie eignen sich, wie Säulendiagramme auch, für die Darstellung von Zeitreihen, um Muster und Entwicklungen zu erkennen (Schmidt 2016, S. 55; Kohlhammer et al. 2013, S. 56 ff.). Few (2009, S. 36) warnt allerdings davor, Liniendiagramme für den Vergleich einzelner Objekte, wie Kunden oder Regionen, zu nutzen: durch die Verknüpfung der Datenpunkte wird eine Abhängigkeit suggeriert, die in dem Sinne nicht existiert. Ein in der Praxis verbreitetes Diagramm, welches aber in der Literatur stark kritisiert wird, ist das Kreisdiagramm. Aus wissenschaftlicher Sicht ist ein Kreisdiagramm für das Auge schwierig zu lesen, da einzelne Kreisabschnitte vom Auge nicht in Werte zu überführen sind. Die Verwendung von Balkendiagrammen ist effektiver, da das präattentive Attribut Länge in Form der Balken eindeutiger ist als die Kreisflächen (Wexler et al. 2017, S. 24; Few 2013, S. 144; Nussbaumer Knaflic 2017, S. 53). Nur für die Darstellung von Teilen eines Ganzen als visuelle Unterstützung lässt sich das Kreisdiagramm einsetzen, da hierbei nicht mehr als zwei Kreisflächen betrachtet werden. Bei einer Vielzahl an Dimensionen eignen sich die sog. Small Multiples. Diese beschreiben die Darstellung mehrerer identischer Diagramme mit unterschiedlichen Variablen (Gerths und Hichert 2011, S. 22; Evergreen 2017, S. 66; Tufte 2001, S. 168). Dies ermöglicht einen einfachen Vergleich zwischen mehreren Dimensionen und gewährleistet Übersichtlichkeit. Eine besondere Visualisierungshilfe bilden sog. Sparklines. Die Idee dieser Miniaturdiagramme stammt ursprünglich von Tufte (2001, S. 171 ff.). Es sind kleine Visualisierungen, die in Tabellen und Textinformationen ergänzend eingebaut werden und wie Wörter gelesen werden können. Die Sparklines haben die Größe der Zellen oder der Textzeile, sodass kein Platz für größere Diagramme benötigt wird. Vorteil dieses Gestaltungstyps ist die visuelle Darstellung von Trends auf kleinem Raum und die Möglichkeit, zusätzlich zu absoluten Zahlen Entwicklungen als Miniaturdiagramm zu zeigen. Look & Feel der Gesamtkonzeption des Dashboards sollte abhängig vom Berichtsinhalt gestaltet sein (Schön 2016, S. 95). Aufgrund des Leseablaufs westlicher Konventionen von links nach rechts können Dashboards in vier Felder aufgeteilt werden, deren linker oberer Bereich beim Empfänger am meisten Beachtung erlangt. Die Bereiche unten links und oben rechts werden gleich stark beachtet und unten rechts wird zuletzt wahrgenommen (Few 2013, S. 107 f.). Die Anordnung der Informationen sollte sich entsprechend ihrer Relevanz an diesen Bereichen orientieren. Mithilfe präattentiver Attribute und Hervorhebungen zur gezielten Aufmerksamkeit kann der Fokus verstärkt auf bestimmte Bereiche gelenkt werden. Empfänger erwarten im Dashboard-Aufbau von oben nach

3  Die Kraft effektiver Daten-Visualisierung

67

unten eine Detaillierung; entsprechende übergeordnete Zahlen sollten daher in der oberen Hälfte dargestellt werden (Schmidt 2016, S. 43). Auch die Anordnung einzelner Informationen und Diagramme sollte wohl durchdacht sein, um die Wahrnehmung und Verarbeitung der Informationen zu erleichtern. Bewusstes Storytelling, das Geschichtenerzählen mit Informationen, kann dabei helfen, dass Informationen besser aufgenommen und verstanden werden. STOLPERSTEINE IN DER PRAXIS

Informationsvisualisierung gehört nicht zu den klassischen Inhouse-Trainings oder vom Management vorgeschlagenen Weiterbildungsmöglichkeiten. Dementsprechend stiefmütterlich wird oftmals das Design als letzter Prozessschritt in der Datenanalyse behandelt. Dabei geht es nicht darum, dass jeder Mitarbeiter ansprechende Dashboards kreieren kann; vielmehr sollte sich jeder über die Kraft der Visualisierung bereits bei einfachsten Diagrammen bewusst sein und die Regeln der effektiven Informationsvisualisierung kennen. Nur so kann sichergestellt werden, dass auch die Inhalte vom Empfänger verstanden werden, die der Ersteller beabsichtigt hat. ◄ „E“nsure unifying and standardizing Um die Effizienz der Dashboards und damit die Verarbeitungsgeschwindigkeit beim Empfänger zu erhöhen, müssen Inhalte, Bezeichnungen und der Aufbau standardisiert und den Unternehmensregeln angepasst werden: • Folgt der Aufbau des Dashboards den bestehenden Standards? (Position von Titel, Logo, Reporting-, Metadaten- und Filterbereich) • Sind die Bezeichnungen, Berechnungen, Abkürzungen und Beschriftungen eindeutig und den Empfängern bekannt? • Entsprechen die gewählten Farben und Formen den bekannten Regeln? (Ist-, Soll- und Zukunftswerte, verschiedene Maßeinheiten, Corporate Identity) Standardisierung kann zunächst in Form eines Notationskonzeptes erfolgen. Die Idee einer solchen Richtlinie ist an die Einheitlichkeit von Notenblättern oder Landkarten angelehnt; gleiche Inhalte sollten gleich dargestellt werden (Hichert 2008a, S. 150). Wie in den empirischen Ergebnissen berichtet, ist die Beschränkung auf formale Darstellungsrichtlinien allerdings nicht ausreichend. Nur wenn in einem Unternehmen die gleiche visuelle Sprache – sowohl inhaltlich als auch formell – gesprochen wird, werden Missverständnisse und Interpretationsverzerrungen vermieden.

68

L. Jacobs und S. Hensel-Börner

STOLPERSTEINE IN DER PRAXIS

Obwohl einem konsistenten Design in der Literatur viel Bedeutung zugesprochen wird, gibt es in Unternehmen selten Design-Guidelines oder Notationskonzepte, in denen Darstellungsstandards für interne regelmäßige oder ad-hoc Aufgaben festgehalten werden. Oftmals zeigen sich in den Aufbereitungen eher der persönliche Stil und Abteilungspräferenzen. So werden beispielsweise für einen Vorjahresvergleich unterschiedliche Abkürzungen genutzt, obwohl sie alle dasselbe aussagen: vs. previous year, vs. PY, vs. prev. year, vs. prior year. ◄ „A“ void non-data elements and decoration Ein klares Design ist notwendig, weil jedes Objekt in einer Darstellung die kognitive Belastung des Empfängers erhöht (Nussbaumer Knaflic 2017, S. 62). Wolff fasst dies zusammen, indem er schreibt: „Klarheit entsteht erst dann, wenn jeder Balken, jede Linie, Farbe, Beschriftung usw. ganz bewusst für einen bestimmten Zweck ausgewählt wird.“ (Wolff 2014a, S. 106)

In Bezug auf die Ausschmückung von Darstellungen beschreibt Tufte (2001, S. 93) das „data-ink ratio“ (dt. ‚Daten-Tinte-Verhältnis‘), bei dem es sich um das Verhältnis der Informationselemente (data), die Werte und relevante Inhalte transportieren, und den Bildelementen (ink), die keinen Mehrwert schaffen, wie z. B. Achsen und Rahmen handelt. Um die Aufmerksamkeit auf die relevanten Inhalte zu lenken, sollten Diagramme ohne Achsen, Führungslinien oder farbliche Besonderheiten gestaltet werden (Stahl 2016, S. 51; Nussbaumer Knaflic 2017, S. 76 ff.; Eisl et al. 2015, S. 138). Few (2013, S. 97) erweitert dieses Kriterium in Hinblick auf die Softwareprogramme zur Datenvisualisierung und ändert den Begriff in „pixel-ink ratio“. Um die Informationsdichte und Aussagefähigkeit von Dashboards zu verbessern, schlägt er zwei Schritte vor: „1. Reduce the nondata pixels [and] 2. Enhance the data pixels“ (Few 2013, S. 98). Zunächst sollen demnach alle überflüssigen non-data pixel Elemente wie Linien und Rahmen gelöscht werden. Im zweiten Schritt muss die Auswahl der visualisierten Daten verbessert werden; hierzu werden alle data pixel, die nicht zur Bedeutung des Diagramms beitragen, gelöscht und alle relevanten Informationen hervorgehoben. Abb. 3.11 veranschaulicht dies anhand eines Beispiels. Non-data Elemente und dekorative Einheiten müssen für eine wirkungsvolle Visualisierung reduziert werden, um eine Informationsüberlastung des Empfängers zu vermeiden. Die Leitfragen zur Einhaltung des Prinzips lauten:

3  Die Kraft effektiver Daten-Visualisierung Darstellungen mit hoher Anzahl an non-data pixel Region B

Region C

Darstellungen mit klarem Design und wenig non-data pixel

Region D

Umsatz in T-EUR

Region D

Region D

Region C

Region C

4.5 3.5

Region B

Region B

Region A 0.0

2.0

4.0

Umsatz in T-EUR

6.0 4.0 2.0 0.0

2.5

Region A

6.0

T-EUR

T-EUR

Regionen

Region A

69

6

4.3

-10%

4

+8%

Umsatz Kosten

2 0

Abb. 3.11   Indem non-data pixel reduziert und wichtige Informationen hervorgehoben werden, wird die inhaltliche Aussage verstärkt. (Quelle: Eigene Darstellung)

• Sind Gitternetzlinien und Ränder in Tabellen und Diagrammen wirklich für das Verständnis notwendig? Sie sollten farblich abgeschwächt werden und in den Hintergrund rücken oder vollständig gelöscht werden. • Sind Achsen und ihre Beschriftungen für das Verständnis notwendig? Sie sollten farblich abgeschwächt werden und in den Hintergrund rücken. • Kann die Legende direkt an die Diagrammelemente geschrieben werden? • Wo werden Datenpunkte zum besseren Verständnis benötigt? Wirkungsvolle Visualisierungen entstehen, wenn ein klares, einfaches und präzises Design ohne den Einsatz von Grafikelementen als Dekoration gewählt wird. Auch im Rahmen der empirischen Überprüfung wurden Faktoren wie Farben Vielfalt, Symbole und komplexe Diagramme aus Nutzersicht als weniger wichtig erachtet. Aus diesem Grund können Tachoanzeigen, Radar- und Spinnendiagramme, wie sie in der Vielzahl interaktiver moderner Tools angeboten werden, als inhaltsleer kritisiert werden. STOLPERSTEINE IN DER PRAXIS

Klassische Datenanalyse-Tools wie Excel schlagen für die DiagrammErstellung überladene Darstellungen mit Gitternetzlinien, vielen Farben und Skalenstrichen vor. Die vermeintlich vorteilhafte Vielzahl an unterschiedlichen und besonderen Diagrammtypen erscheint im Licht der Literaturauswertung und Empirie-Ergebnisse als effektivitätsschädigend. In Verbindung mit der

70

L. Jacobs und S. Hensel-Börner

in der Praxis herrschenden Unwissenheit über die Kraft der Visualisierung werden Darstellungen so hingenommen. Ersteller und Empfänger hinterfragen das Design nicht und es bleibt massives Effektivitätspotential ungenutzt. ◄ „R“ einforce information density and set highlights Neben dem generellen Aufbau und der Anordnung von Objekten spielt die Abdeckung des Informationsbedarfs eine entscheidende Rolle. Selbstredend müssen in einem Dashboard ausreichend relevante Informationen zusammengetragen werden, um die Aussage und den Kontext der Informationen auf einen Blick vollständig abzubilden. Dies belegt auch die hohe Wichtigkeit der Vollständigkeit aus Nutzersicht. Je mehr für das Verständnis wichtige Informationen gezeigt werden, desto besser können Zusammenhänge erkannt werden (Hichert 2008a, S. 150 ff.; Gerths und Hichert 2011, S. 21). Ein Zuviel an Informationen kann aber zu einer Informationsüberlastung führen. Few (2015, S. 3) teilt diese Auffassung und bezeichnet weiterhin alle irrelevanten Datenelemente als störend, indem er sagt: ,,Data that isn´t useful is noise“. Der Umfang der Informationen muss daher so gewählt werden, dass dem Empfänger alle für das Verständnis der Aussage wichtigen Informationen vorliegen, ohne ihn zu überfordern. Dabei unterstützen können folgende Leitfragen: • Welche Kennzahlen oder Entwicklungen sind am wichtigsten? Mithilfe von präattentiven Attributen wie Farbe, Form oder Position können sie hervorgehoben werden • Berücksichtigen der Aufbau und die Anordnung der Kennzahlen die Wichtigkeit der dargestellten Informationen? Die Wichtigkeit und Detailtiefe der Informationen sollten auf dem Dashboard von oben nach unten abnehmen. • Ist der Raum gut ausgenutzt? Unterstützt der Aufbau den Lesefluss? Die Hervorhebung relevanter Informationen in einem wirkungsvollen Dashboard ist in diesem Zusammenhang ein wichtiges Instrument. Gerths und Hichert (2011, S. 23) vertreten sogar die Auffassung, dass erst die Hervorhebung von Informationen der Darstellung eine Botschaft verleiht. Hervorhebungen sind eine Form der Abgrenzung und bedienen sich der Theorie der präattentiven Attribute. Nur wenn die Aufmerksamkeit auf wichtige Informationen gelenkt wird, nimmt der Empfänger die relevanten Informationen schnell wahr (Ware 2013, S. 14 ff.; Pflock et al. 2016, S. 68; Wexler et al. 2017, S. 14; Kohlhammer et al. 2013, S. 66 ff.). Dies kann beispielsweise durch die folgenden Mittel (Attribute) erfolgen: Schriftgröße (Größe), Fettdruck (Breite), Kursivschrift (Orientierung), Unterstreichung (Markierung), Farbeinsatz (Färbung) (Taschner 2013a, S. 146;

3  Die Kraft effektiver Daten-Visualisierung

71

Few 2013, S. 109). Das Attribut Farbe kann zudem dazu dienen, verschiedene Bereiche zu unterscheiden (Wexler et al. 2017, S. 14). Farbe ist, theoretisch betrachtet, die Übersetzung von Licht im Gehirn und erregt Aufmerksamkeit (Alexander 2007, S. 25). Wexler et al. (2017, S. 14) sind davon überzeugt, dass Farbe nicht dazu dienen sollte, ein Dashboard aufzuhübschen, da es viele informative Dashboards gäbe, die ohne den Einsatz von Farbe gestaltet wurden. Farben sollten bewusst und in begrenztem Maße eingesetzt werden, da sie sonst die Fähigkeit verlieren, Informationen hervorzuheben. Zudem ist der Einsatz der Farben rot und grün bspw. in der Darstellung von Abweichungen mit Bedacht zu wählen, denn Menschen mit Farbfehlsichtigkeit können diese nicht auseinanderhalten. Dieser Anwendungshinweis mag banal erscheinen, wird in der Praxis aber häufig unterschätzt. STOLPERSTEINE IN DER PRAXIS

Aussage und Wirkung der Darstellung auf die Empfänger werden oftmals nicht ausreichend betrachtet. Solange aber der Kontext einer Visualisierung nicht eindeutig bestimmt ist, können auch keine relevanten Aspekte hervorgehoben werden. Zusätzlich ist besonders an dieser Prozessstelle die Gefahr der Manipulation der visuellen Gestaltung zu nennen. Mit der Hervorhebung von Ausschnitten wird gleichzeitig nur eine bestimmte Aussage verstärkt betrachtet. Andere Aspekte könnten so missachtet werden. Umgekehrt besteht die Gefahr ungewollter Botschaften und Fehlinterpretationen, wenn die beabsichtige Aussage nicht mit Visualisierungseffekten untermauert wird. ◄ „(I)“ nformation technology support Sofern das Dashboard mithilfe eines Visu­ali­sierungstools, wie z. B. QlikView oder Tableau, programmiert werden soll, sind systemtechnische Unterstützungen und die folgenden Fragen zu klären: • • • •

Sind alle Informationen auf einen Blick, d. h. ohne Scrolling, sichtbar? Wie oft müssen die Daten aktualisiert werden? Sind die Filter- und Drill-Down Möglichkeiten sinnvoll gewählt? Welche weiteren systemtechnischen Möglichkeiten können die Interaktion mit den Daten verstärken und sollten genutzt werden?

Die aktuellen Entwicklungen der Digitalisierung gehen mit einer Vielzahl an neuen Möglichkeiten der Informationsdarstellung einher. Neue, moderne und außergewöhnliche Visualisierungsoptionen werden den Nutzern angeboten,

72

L. Jacobs und S. Hensel-Börner

können aber die Komplexität von Inhalten verschleiern. Dabei zeigen besonders die Literaturauswertung und die Nutzerbefragung bei Hapag-Lloyd, dass vor allem die Aktualität der Informationen und die Flexibilität in der Informationsbetrachtung (Filter, Sortierung) ein effektives Dashboard bewirken. Nicht die besonders bunte Verpackung der Informationen ist es, die Dashboards effektiv macht, sondern eine bewusste und auf das Minimum reduzierte Form der Visualisierung.

3.5 Fazit In nahezu allen Fachbereichen und auf allen Managementebenen der Unternehmenspraxis sind Datenauswertungen und Dashboards zu einem zentralen Erfolgsfaktor geworden. Der Umgang mit Big Data und die erfolgreiche Nutzung der teilweise unendlich erscheinenden Daten- und Informationsflut werden allerdings häufig nur rein methodisch diskutiert. Die Aufbereitung und adressatengerechte Darstellung von Kennzahlen und Analyseergebnissen werden oftmals stiefmütterlich behandelt. Meist wird viel zu wenig Zeit dafür eingeplant. Mit der Digitalisierung und den damit verbundenen technischen Möglichkeiten erfreuen sich insbesondere interaktive Dashboards zunehmender Beliebtheit. Einsatz und Akzeptanz dieser Visualisierungsform wachsen durch teilweise kostenfreie Software und Tools kontinuierlich. Es scheint, die Anwendungen liefern die Lösung für eine stets aktuelle Aufbereitung des umfangreichen Datenmaterials und entlasten Ersteller und Nutzer von Dashboards gleichermaßen. Unterschätzt wird aber oftmals, dass sowohl die inhaltliche als auch formale Gestaltungsebene einen entscheidenden Einfluss auf die Effektivität und Effizienz der Datenvisualisierung haben. Nur wenn die Empfänger von Visualisierungen die Inhalte verstehen und richtig deuten können, erfüllen Informationen ihren Zweck. Dies setzt voraus, dass Dashboard-Gestalter die Wirkungsweisen visueller Gestaltungsinstrumente (inhaltlich und formal) kennen und diese gezielt einsetzen können. Der hier vorgestellte Leitfaden © CLEAR(I) bietet ein einfaches Hilfsmittel zur effektiven Visualisierung von Informationen. Der Leitfaden verbindet Handlungsempfehlungen aus der Theorie zur Informationswahrnehmung und zum Auge-Gehirn-System, eine empirische Überprüfung dieser Empfehlung und lässt Anwendungsempfehlungen aus der Unternehmenspraxis bei der deutschen Containerreederei Hapag-Lloyd einfließen. Insgesamt müssen bei der Gestaltung von Dashboards und Reports die Kapazitäten des menschlichen Gehirns, die Regeln der visuellen Wahrnehmung und die theoretischen Grundlagen der Informationsverarbeitung berücksichtigt

3  Die Kraft effektiver Daten-Visualisierung

73

werden. Ein erfolgreicher Einsatz des © CLEAR(I) Leitfadens kann nur gewährleistet werden, wenn die Mitarbeiter über die grundlegenden Kenntnisse zur effektiven Visualisierung von Informationen verfügen. Zusätzliche Schulungen und Trainings zum Thema Informationsvisualisierung und den Grundkenntnissen über Wirkungszusammenhänge bei der Informationswahrnehmung und DesignStandards würden das Bewusstsein über die Kraft der Visualisierung schärfen und auf ihre Bedeutung hinweisen. Effektive Informationsvisualisierung ist weitaus mehr als nur die ansprechende Darstellung von Daten: sie bildet den Grundstein für die Wahrnehmung von Informationen und somit eine sichere, korrekte Übermittlung von Inhalten und Aussagen.

Literatur Alexander, K. (2007). Kompendium der visuellen Information und Kommunikation. Berlin: Springer. (X.media.press). Birbaumer, N., & Schmidt, R. F. (2010). Biologische Psychologie (7. überarb. u. erg. Aufl.). Heidelberg: Springer Medizin Verlag. Bruhn, M. (2016). Qualitätsmanagement für Dienstleistungen. Handbuch für ein erfolgreiches Qualitätsmanagement. Grundlagen – Konzepte – Methoden. 10, vollständig überarbeitete und (erweiterte Aufl.). Berlin: Springer Gabler. Eisl, C., Falschlunger, L., & Losbichler, H. (2015). Kennzahlen in Berichten richtig darstellen. In H. Losbichler, C. Eisl, & C. Engelbrechtsmüller (Hrsg.), Handbuch der betriebswirtschaftlichen Kennzahlen. Key Performance Indicators für die erfolgreiche Steuerung von Unternehmen (S. 134–149). Wien: Linde. Evergreen, S. (2017). Effective data visualization. The right chart for the right data. Thousand Oaks: SAGE. Few, S. (2009). Now you see it. Simple visualization Techniques for quantitative analysis. Oakland: Analytics Press. Few, S. (2013). Information dashboard design. Displaying data for at-a-glance monitoring (2. Aufl.). Burlingame: Analytics Press. Few, S. (2015). Signal. Understanding what matters in a world of noise. Burlingame: Analytics Press. Frings, S., & Müller, F. (2014). Biologie der Sinne. Vom Molekül zur Wahrnehmung. Berlin: Springer Spektrum. (Sachbuch). Gerths, H., & Hichert, R. D. (2011). Geschäftsdiagramme mit Excel nach den SUCCESSRegeln gestalten (1. Aufl.). Freiburg im Breisgau: Haufe-Lexware. (Haufe Fachpraxis). Hichert, R. (2008a). Managementberichte verständlich gestalten. In U. Hannig (Hrsg.), Vom Data-Warehouse zum Corporate Performance Management (S. 148–155). Ludwigshafen: IMIS. Hichert, R. D. (2008b). Klare Botschaften und verständliche Darstellungen verschaffen dem Controller Gehör. ZfCM, 52(1), 15–17.

74

L. Jacobs und S. Hensel-Börner

Kohlhammer, J. (2016). Informationsvisualisierung und Visual Analytics. In A. Klein, C. Schneider, & K.-U. Stahl (Hrsg.), Visualisierung von Managementberichten (S. 83–98). Freiburg: Haufe-Lexware. (Der Controlling-Berater, 44). Kohlhammer, J., Proff, D. U., & Wiener, A. (2013). Visual business analytics. Effektiver Zugang zu Daten und Informationen (1. Aufl.). Heidelberg: dpunkt-Verl. (Edition TDWI). Kohlhammer, J., Proff, D. U., & Wiener, A. (2016). Der Markt für Visual Business Analytics. In P. Gluchowski & P. Chamoni (Hrsg.), Analytische Informationssysteme. Business Intelligence-Technologien und -Anwendungen (5., vollständig überarbeitete Auflage Aufl., S. 303–323). Berlin: Springer Gabler. Müller, R. M., & Lenz, H.-J. (2013). Business intelligence. Berlin: Springer Vieweg. (eXamen.press). Nussbaumer Knaflic, C. (2017). Storytelling mit Daten. Die Grundlagen der effektiven Kommunikation und Visualisierung mit Daten. Unter Mitarbeit von Mike Kauschke. München: Franz Vahlen. Parmenter, D. (2015). Key performance indicators. Developing, implementing, and using winning KPIs (3. Aufl.). Hoboken: Wiley. Pflock, L., Wiener, A., & Schwanz, M. (2016). Texte, Kommentierungen und Storytelling als wichtiges Instrument im modernen Reporting. In A. Klein, C. Schneider, & K.-U. Stahl (Hrsg.), Visualisierung von Managementberichten (S. 61–80). Freiburg: Haufe-Lexware. (Der Controlling-Berater, 44). Sandt, J. (2003). Kennzahlen für die Unternehmensführung — verlorenes Heimspiel für Controller? ZfCM, 47(1), 75–79. Schmidt, T. (2016). Praxisleitfaden Management Reporting. Aufbau und Gestaltung als unternehmerisches Entscheidungstool. Wiesbaden: Springer Fachmedien. Schön, D. (2016). Planung und Reporting. Grundlagen, Business Intelligence, Mobile BI und Big-Data-Analytics (2., überarbeitete Aufl.). Wiesbaden: Springer Gabler. Stahl, K.-U. (2016). Standardisierte Reporting- und Visualisierungskonzepte in Unternehmen einführen und durchsetzen. In A. Klein, C. Schneider, & K.-U. Stahl (Hrsg.), Visualisierung von Managementberichten (S. 41–60). Freiburg: Haufe-Lexware. (Der Controlling-Berater, 44). Steiner, E., Paul, J., & Kah, A. (2014). Finanzmanagement: Die Entscheidung über Finanzierung und Investitionen. In Peter F.-J. Niermann & Andre M. Schmutte (Hrsg.), Exzellente Managemententscheidungen. Methoden, Handlungsempfehlungen, Best Practices (S. 173–212). Wiesbaden: Springer Gabler. Taschner, A. (2013a). Management Reporting. Erfolgsfaktor internes Berichtswesen. Wiesbaden: Springer Gabler. Taschner, A. (2013b). Management Reporting für Praktiker. Lösungsorientierte Kompaktedition. Wiesbaden: Springer Gabler. Trommsdorff, V. (1975). Die Messung von Produktimages für das Marketing. Grundlagen und Operationalisierung. Diss. rer. oec. Köln: Carl Heymanns Verlag KG. (Annales Universitatis Saraviensis, 78). Trommsdorff, V., & Teichert, T. (2011). Konsumentenverhalten (8., vollständig überarb. u. erw. Aufl.). Stuttgart: Kohlhammer. (Kohlhammer-Edition Marketing). Tufte, E. (2001). The visual display of quantitative information (2. Aufl.). Cheshire: Graphics Press.

3  Die Kraft effektiver Daten-Visualisierung

75

Tufte, E. (2006). Beautiful evidence. Cheshire: Graphics Press. Volnhals, M., & Hirsch, B. (2008). Information overload und controlling. ZfCM, 52(1), 50–57. Ware, C. (2004). Information visualization. Perception for design (2. Aufl.). San Francisco: Elsevier. (Interactive technologies). Ware, C. (2013). Information visualization. Perception for design (3. Aufl.). Waltham: Elsevier. (Interactive technologies). Wexler, S., Shaffer, J., & Cotgreave, A. (2017). The big book of dashboards. Visualizing your data using real-world business scenarios. Hoboken: Wiley. Wolff, M. (2014a). Management Reports gestalten: Durchdachtes Design als Erfolgsgeheimnis. In A. Klein & J. Gräf (Hrsg.), Reporting und Business Intelligence. Berichte klar gestalten, effizient erstellen, prägnant kommentieren (2. Aufl., S. 99–112). Freiburg im Breisgau: Haufe-Gruppe. Wolff, M. (2014b). Management Reports gestalten: Lösungsansätze und Praxisbeispiele. In A. Klein & J. Gräf (Hrsg.), Reporting und Business Intelligence. Berichte klar gestalten, effizient erstellen, prägnant kommentieren (2. Aufl., S. 113–124). Freiburg im Breisgau: Haufe-Gruppe. Zelazny, G. (2015). Wie aus Zahlen Bilder werden. Der Weg zur visuellen Kommunikation — Daten überzeugend präsentieren (7., überarb Aufl.). Wiesbaden: Springer Fachmedien.

Luise Jacobs  Seit 2015 beschäftigt sich die gelernte Schifffahrtskauffrau eingehend mit der Datenanalyse und -aufbereitung bei der deutschen Containerreederei Hapag-Lloyd AG. Im Rahmen eines berufsbegleitenden Masterstudiums (MBA Manufacturing Management) konnte sie den Schwerpunkt auf das Thema Dashboard Design legen und so wichtige Erkenntnisse auf dem Gebiet der Informationsvisualisierung sammeln. Ihre Expertise und Erfahrung hinsichtlich effektiver Informationsvisualisierung teilt sie regelmäßig in Inhouse-Vorträgen und Schulungen. Seit März 2020 wendet sie ihr Wissen als Director im Regional Customer Service an, um dem höheren Management entscheidungsrelevante Informationen über Customer Service spezifische KPIs, internationale Projekte, Geschäftsentwicklungen und ad-hoc Analysen zu liefern. Susanne Hensel-Börner Hat mehr als 20 Jahre Erfahrung im Bereich Marktforschung und Datenanalyse in Unternehmenspraxis und Forschung. Seit 2009 ist sie Professorin an der HSBA Hamburg School of Business Administration und leitet das Department Marketing und Sales. Sie lehrt in den Themenfeldern Data Science, Quantitative Analysis und Datenbasiert Entscheiden und gibt der Datenvisualisierung ausreichend Raum in ihren Veranstaltungen. Sie ist Initiatorin und verantwortlich für den interdisziplinären Masterstudiengang MSc Digital Transformation & Sustainability. Ein Programm, das konsequent auf Projektlernen im Rahmen des Studiums setzt. Auch hier nutzt sie erfolgreich Visualisierungstechniken, wie z. B. Visual Summary zur Vertiefung von Inhalten und zur Förderung strukturierten Denkens bei ihren Studierenden.

Teil III Smarte Insights fürs Marketing

4

Psychografisches Targeting – Wirkung und Funktionsweise als eine besondere Form des Micro-Targetings in den sozialen Medien Gregor Hopf Inhaltsverzeichnis 4.1 Targeting in den sozialen Medien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 4.2 Behavioral (Micro-)Targeting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 4.3 Psychografisches Targeting. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 4.4 Vorgehen Psychografisches Targeting. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 4.5 Potential und Stand der Forschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 4.5.1 Ad Avoidance in Online-Medien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 4.5.2 Wirkung von Behavioral Targeting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 4.5.3 Wirkung von Psychografischem Targeting (in den sozialen Medien). . . . . 91 4.5.4 Gefahr der Überpersonalisierung (Personalisierungsparadox) . . . . . . . . . . 93 4.6 Herausforderung in der Umsetzung, ethische Betrachtung und Ausblick. . . . . . . . 94 4.6.1 Herausforderungen in der Umsetzung von psychografischem Targeting . . . 95 4.6.2 Ethische Betrachtung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 4.6.3 Ausblick. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98

Zusammenfassung

Die sozialen Medien erlauben durch die Auswertung der dort verfügbaren Signale eine im Vergleich zu traditionellen Medien potenziell noch zielgenauere, personalisierte und unter Umständen psychografische Ansprache von marketingrelevanten Zielgruppen. Erste Forschungsergebnisse zeigen, dass durch eine psychografisch optimierte Ausspielung von Werbeinhalten KonG. Hopf (*)  Duale Hochschule Baden-Württemberg (DHBW), Ravensburg, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 S. Boßow-Thies et al. (Hrsg.), Data-driven Marketing, https://doi.org/10.1007/978-3-658-29995-8_4

79

80

G. Hopf

versionsraten um potenziell bis zu 50 % gesteigert werden können (Matz et al. 2017). Neben Herausforderungen in der Umsetzung stehen aber insbesondere ethische Bedenken dem Einsatz dieser Targeting-Methode entgegen.

4.1 Targeting in den sozialen Medien Der hohe Grad der Interaktivität der sozialen Medien und die Auswertung der dabei anfallenden Daten über persönliche Präferenzen der einzelnen Nutzer erlauben den Plattformen eine potenziell sehr granulare Ausspielung von Kommunikations- und Werbeinhalten, die durch einen hohen Grad der auf die Präferenzen der einzelnen Nutzer abgestimmten Personalisierung das Versprechen birgt, eine zu den traditionellen Medien relativ hohe Akzeptanz der Inhalte zu generieren. Primäres Ziel des Social-Media-Marketings ist eine individualisierte und qualitativ hochwertige Kommunikation mit der Zielgruppe, die beabsichtigt, die potenziellen Kunden in allen Phasen des Entscheidungsprozesses (der Customer Journey) zu erreichen und mit für die entsprechende Zielgruppe und für den momentanen Entscheidungspunkt relevanten Inhalten und Informationen zu versorgen sowie entsprechende Markenbildung zu betreiben (Reschke et al. 2017, S. 128; Edelman 2015; Esch et al. 2016; Gilmore und Erdem 2008). Die einzelnen Social-Media-Plattformen stellen unterschiedliche Targeting-Formen zur Verfügung, die in unterschiedlichem Grad und entlang unterschiedlicher Attribute die Zusammenstellung potenziell sehr passgenauer Zielgruppen aus individuellen Nutzern erlauben (vgl. Abb. 4.1).

Soziodemografisches Targeng Technisches Targeng Geotargeng Behavioral (Micro-)Targeng: Retargeng Connecon Targeng Interessen Targeng Custom Audiences Lookalike Audiences a

Facebook

Instagram

LinkedIn

Pinterest

Snapchat







































√ √









































YouTube

a

Das Äquivalent zu Facebooks Lookalike Audience heißt bei LinkedIn „Matched Audience“ und bei Pinterest „ActAlike Audience“

Abb. 4.1   Nutzerzentrierte Targeting-Möglichkeiten ausgewählter, in Europa und Nordamerika beliebter Social-Media-Kanäle. (Stand Juni 2019 – Quelle: eigene Darstellung nach Facebook (o. J.), Instagram Business Team (2016), LinkedIn (o. J.), Pinterest (o. J.), Snapchat (o. J.), YouTube (o. J.).)

4  Psychografisches Targeting

81

Soziodemografisches Targeting wertet die im Profil des Nutzers angegebenen Daten (User-Declared Information UDI) wie Alter, Geschlecht, Beruf, Familienstand oder Einkommen aus und wird daher auch Profile oder Audience Targeting genannt. Wenn nicht vom Nutzer selbständig angegeben, werden die Werte zum Teil auch von den Social-Media-Kanälen mittels statistischer Methoden prognostiziert, was zu einer gewissen Unschärfe und unter Umständen zur Verletzung von Persönlichkeitsrechten führen kann (Kosinski et al. 2013, S. 5805). Unter Hinzuziehen des technischen Targetings werden Informationen der vom Nutzer verwendeten Hard- und Software zur Optimierung der Ausspielung passender Inhalte eingesetzt. So wird bspw. sichergestellt, dass Bildschirm, Browser, verfügbare Bandbreite und der ausgespielte Inhalt bestmöglich aufeinander abgestimmt sind. Ebenso kann eine gezielte Mehrfachansprache desselben Nutzers unter Umständen auch über unterschiedliche Endgeräte (CrossDevice Targeting) hinweg erreicht werden, um die Kontaktdosis optimal auszusteuern, indem personenbezogene Informationen wie bspw. Log-ins, Geräte-IDs, E-Mail-Adressen oder Kundenkonten ausgewertet werden (Kamps und Schetter 2018, S. 92). Durch das Anreichern der technischen Attribute mittels weiterer (externer) Informationen wie Uhrzeit oder Wetter können die Zielgruppen auch schon bereits auf dieser Basis sehr spezifisch angesprochen werden (Kreutzer et al. 2015, S. 126; BVDW 2014, S. 6). Im Geotargeting wird der Standort des potenziellen Kunden mittels der IPAdresse lokalisiert mit dem Ziel, das Werbemittel in der Region des relevanten Marktes anzuzeigen (Kreutzer et al. 2015, S. 126). Nutzer können in einer bestimmten Region oder in einem gewissen Radius (Geofencing) angesprochen werden, bspw. in räumlicher Nähe der eigenen Filiale oder eines Out-Of-HomeWerbestandorts aber auch in der Nähe eines Wettbewerbers (Geo-Conquesting). Hintergrund-Information Zusätzlich zu den in Abb. 4.1 aufgeführten Möglichkeiten bieten einige Plattformen, bspw. Pinterest, nutzerzentriertes Targeting auf Keyword-Basis an, das den werblichen Inhalt nur an Nutzer ausspielt, die nach einem bestimmten Keyword gesucht haben. Auf YouTube kann Keyword-Targeting sowohl nutzerzentriert auf die Suchanfragen angewandt werden als auch Content-basiert auf die in der YouTube-Beschreibung der einzelnen Videos erwähnten Keywords.

82

G. Hopf

4.2 Behavioral (Micro-)Targeting Beim Behavioral Targeting werden dynamische Verhaltensprofile erstellt, indem das Surf- und Suchverhalten des Nutzers analysiert wird, um Rückschlüsse auf die Bedürfnisse und Interessen des Nutzers abzuleiten. Auf diesen Erkenntnissen über den Konsumenten aufbauend sollen die werblich-kommunikativen Inhalte so passgenau gestaltet und ausgespielt werden, dass sie optimal zu den gezeigten Präferenzen der einzelnen Nutzer passen (Lambrecht und Tucker 2013). In der sehr häufig eingesetzten Form des Retargetings werden beispielsweise Nutzer wiederholt zu gleichen Inhalten angesprochen und sollen so an die Marke erinnert oder zu einer bestimmten Aktion geführt werden. In Verbindung mit der eigenen Website und einem Abgleich der dort generierten Cookie- und anderer Erhebungs-Daten sowie der Auswertung von Suchanfragen oder Warenkorbaktivitäten im Abgleich mit dem CRM-System kann bereits eine sehr enge Abstimmung mit der individuellen Customer Journey des Nutzers erfolgen. In fortgeschrittener Form erfolgt die Analyse des Nutzerverhaltens bereits vollautomatisiert in Echtzeit und kann verbunden werden mit Auswertungsmethoden zur Mustererkennung, auf deren Basis Vorhersagemodelle über das zukünftige Verhalten erstellt, validiert und kontinuierlich angepasst werden (Predictive Behavioral Targeting). Dies ermöglicht im Vergleich zum einfachen Behavioral Targeting nicht nur ein nutzerspezifisches, sondern auch ein zukunftsorientiertes Bild der Zielgruppe (Ceyp und Scupin 2013, S. 179 ff.; BVDW 2014, S. 9). Behavioral Targeting verfolgt das Ziel, anhand von Daten über das Surfverhalten und Informationen aus Nutzerprofilen eine Ausspielung von OnlineWerbung an eine passgenaue Zielgruppe zu ermöglichen und somit eine hohe Werbewirkung bei gleichzeitiger Reduktion von Streuverlusten zu erreichen (Kielholz 2008, S. 201; Greve et al. 2011, S. 13).1 Traditionelle Medien sind größtenteils nur indirekt über die inhaltliche Ausrichtung der medialen Umfelder in der Lage, eine gewisse persönliche Ansprache der Präferenzen der Nutzer zu ermöglichen (Content Targeting), wohingegen die digitalen, sozialen Medien auf Basis der Auswertung des gezeigten Verhaltens der Nutzer direkt nutzerzentriert die Inhalte ausspielen können (Behavioral Micro-Targeting). Indem durch die massenhafte Verbreitung der sozialen Medien auf diese Weise viele 1Ein

weiterer Vorteil des Social-Media-Marketings im Vergleich zu traditionellen Medien stellt die automatisierte Echtzeit Aussteuerung der Werbemittel dar, die eine laufende, datenbasierte Optimierung auf Basis der Nutzerreaktionen ermöglicht (Greve et al. 2011, S. 10). Dies trifft aber auch auf andere digitale Werbekanäle zu und ist nicht Betrachtungsschwerpunkt dieses Artikels.

4  Psychografisches Targeting

83

einzelne Nutzer in ähnliche Präferenzprofile gruppiert werden können, bietet Behavioral Micro-Targeting über die sozialen Medien die Möglichkeit zur Massenwerbung auf individualisierter Basis, d. h. Werbetreibende können durch Mass Customization der Werbemittel und durch die Ausspielung mit Hilfe von Behavioral Targeting eine granulare Massenkommunikation erreichen (Matz et al. 2017). Indem die digitalen Fußabdrücke (Digital Footprints) der Nutzer analysiert werden, entstehen atmende Zielgruppendefinitionen, die sich in Echtzeit durch datengetriebene Methoden selbst konfigurieren und über die automatisierten Werbeplattformen der sozialen Medien mit den Kommunikationswünschen der Werbetreibenden abgeglichen werden.2 Der digitale Fußabdruck eines Internetnutzers kann in einem starken Detaillierungsgrad und bei vergleichsweise hoher Validität Aufschluss über Gewohnheiten und Präferenzen potenziell bis hin zu psychografischen Merkmalen der Nutzer geben, den es anhand von klassischen Segmentierungsansätzen so bisher nicht gab (Matz und Netzer 2017). Die Aussagefähigkeit und Belastbarkeit der ermittelten Merkmale der einzelnen Nutzer ist von der Anzahl und Aktualität der ausgewerteten Signale sowie der Fähigkeit der Gewichtung im Verhältnis zu anderen Häufigkeiten abhängig (Kreutzer et al. 2015, S. 128 f.; BVDW 2014, S. 8).3 In der einfachsten Form erlaubt Behavioral Targeting gezielt Menschen anzusprechen, die eine Verbindung zur eigenen Social-Media-Seite, App oder einem Event eingegangen sind (Connection Targeting), bspw. durch eine Teilnahmezusage zu einer Veranstaltung, und setzt somit sehr einfach zu erhebende Attribute für ein verhaltensbezogenes Targeting ein. In einem weiteren Schritt können Interessenangaben, bspw. in Form von Facebook „Gefällt-mir“-Angaben, ausgewertet und zur Zielgruppenansprache eingesetzt werden (Interessen Targeting). Custom Audiences erlauben es dem Werbetreibenden, Zielgruppen aus Nutzern zusammenzustellen, die dem Unternehmen bereits durch Aktivitäten der

2Klassische

Formen der Nutzersegmentierung, bspw. sozio-demografische Ansätze, Sinus- oder Sigma-Milieus, treten dabei immer mehr in den Hintergrund. Für eine Übersicht inklusive der digitalen Ansätze siehe Kotler et al. (2012, S. 375 ff.); Kollmann (2013, S. 83 ff.) oder Kreutzer (2012, S. 177 ff.). 3In der Fachliteratur werden unterschiedliche Arten von potenziell informativen Signalen behandelt: Browsing-Verhalten des individuellen Nutzers (Boerman et al. 2017); Interessen (Aguirre et al. 2016; Tucker 2014), Online-Shopping-Verhalten (Bleier und Eisenbeiss 2015) oder Suchhistorie (Van Doorn und Hoekstra 2013). Die verhaltensbasierten Informationen können zusätzlich angereichert werden durch sozio-demografische Daten bzgl. Alter et al. (Aguirre et al. 2016) oder Bildungsniveau (Tucker 2014).

84

G. Hopf

einzelnen Nutzer mit der eigenen Marke bekannt sind und somit bereits Interesse an den Produkten zum Ausdruck gebracht haben. Die Unternehmen können Listen, bspw. mit Bestandskunden oder aus Aktionen innerhalb einer App oder der eigenen Website, in die Werbemanager der sozialen Plattformen hochladen und gezielt über den jeweiligen sozialen Kanal ansprechen. Hintergrund-Information Die Nutzung von Custom Audiences ist im Geltungsbereich der europäischen Datenschutz-Grundverordnung nach Einschätzung des Bayerischen Landesamts für ­ Datenschutzaufsicht (2018) nur nach voriger Einwilligung des Nutzers rechtmäßig. Diese Ansicht wurde vom Bayerischen Verwaltungsgerichtshof (2018) bestätigt.

Lookalike Audiences gehen einen Schritt weiter. Mit dem Ziel, neue Kunden in den sozialen Medien zu finden, werden aus Listen existierender Kontakte durch die Werbeplattform des jeweiligen sozialen Mediums verbindende, gemeinsame Merkmale abgeleitet und anhand dieser Merkmale potenzielle Neukunden aus dem Kreis der Nutzer des sozialen Mediums ermittelt, die dann wiederum gezielt angesprochen werden. Als Basis können Custom Audiences, Fans oder auch die Daten von in der eigenen Website eingebundenen Pixel dienen. Genau wie die Lookalike Audiences berechnet werden, teilen die Social Media Plattformen allerdings nicht mit.

4.3 Psychografisches Targeting Psychografisches Targeting (Psychological Targeting) ist eine besondere Spielart des Behavioral (Micro-)Targetings, das aus verhaltensbasierten Daten versucht, Persönlichkeitsmerkmale abzuleiten und Werbemittel entsprechend auf diese Merkmale optimiert auszuspielen. Aus den diversen Aktivitäten in den sozialen Medien, die von den Plattformen festgehalten werden, können Daten zu einem digitalen Fußabdruck verdichtet werden, der wiederum zur Errechnung einer Persönlichkeitsvorhersage genutzt werden kann. Psychografisches Targeting ist eine Form des Behavioral Targetings, das aus dem auf diese Weise dokumentierten Verhalten des Nutzers zumeist mittels maschinellen Lernens Persönlichkeitseigenschaften herausarbeitet, die Einflüsse auf (zukünftige) Reaktionen haben und Nutzer anhand dieser Eigenschaften gruppieren lassen (Aizen 2005, S. 3). Es kann daher auch als eine besondere Form des Predictive Behavioral Targetings verstanden werden, da über die psychografischen Persön-

4  Psychografisches Targeting

85

lichkeitsmerkmale auf Basis des Verhaltens anderer Nutzer mit den gleichen psychografischen Ausprägungen Vorhersagen über das zu erwartende Verhalten der einzelnen Nutzer in der Zielgruppe gezogen werden können, ohne dass Letztere dieses Verhalten bereits an den Tag gelegt haben. Direkt buchbar über die Werbemanager der Social-Media-Plattformen ist psychografisches Targeting nicht. Zur Persönlichkeitsvorhersage werden vor allem „Gefällt-mir“-Angaben ausgewertet (Matz et al. 2017; Youyou et al. 2015; Kosinski et al. 2013). Wie Kosinski et al. (2013, S. 5803 f.) zeigen, können bereits einzelne, zufällig ausgewählte „Gefällt-mir“-Angaben einen hohen Vorhersagewert haben. Azucar et al. (2018) argumentieren im Rahmen ihrer Metastudie, dass Social Media Inhalte wie eine Verlängerung des Ichs gesehen werden können und damit die tatsächliche und nicht die aus Sicht des Nutzers ideale Persönlichkeit abbilden. Back et al. (2010) kommen zu einem ähnlichen Ergebnis. Durch den Abgleich der Selbsteinschätzungen ihrer Studienteilnehmer mit den Einschätzungen eines unabhängigen Beobachters stellen sie keine signifikante Differenz zwischen wirklichem und angestrebtem Persönlichkeitsprofil fest. Youyou et al. (2015, S. 1036) kamen sogar zu dem Ergebnis, dass die auf Basis von Facebook Likes errechneten Persönlichkeitseinschätzungen stärker mit der Selbsteinschätzung der Teilnehmer ihrer Studie korrelierten als die durchschnittlichen Einschätzungen von Menschen aus ihrem Umfeld. Je mehr Facebook Likes ausgewertet werden konnten, desto genauer wurde die Persönlichkeitsvorhersage. Das Modell benötigte nur zehn Facebook Likes, um die Einschätzungsqualität eines Arbeitskollegen zu übertreffen. Bei einer entsprechend skalierten Auswertung mit mehr Facebook-Likes könne die durchschnittliche Genauigkeit der Vorhersage mit der Einschätzung eines Lebenspartners verglichen werden. Sie verweisen insbesondere auf die Fähigkeit einer Computer-basierten Auswertung viele zum Teil sehr kleine Hinweise, die ein Mensch so nicht alle mit in seine Einschätzung aufnehmen könne, einfließen zu lassen und diese auch ohne Voreingenommenheit (Bias) auszuwerten (Youyou et al. 2015, S. 1039).4 Die Literatur hat neben den „Gefällt-mir“-Angaben auch andere SocialMedia-Signale zur Vorhersage von Persönlichkeitsmerkmalen untersucht. Tab. 4.1 gibt einen Überblick über die relevanten Veröffentlichungen. Die Metastudie von Azucar et al. (2018, S. 155) kommt zu dem Schluss, dass in der Regel

4Für frühere Studien siehe Zhao et al. (2008); Bachrach et al. (2012) und Kosinski et al. (2013). Für eine aktuelle Zusammenfassung der Literatur zur Verlässlichkeit psychografischer Profilierung anhand von Online-Verhalten siehe Hinds und Joinson (2019).

86

G. Hopf

Tab. 4.1   Ausgewählte Studien zur Persönlichkeitsvorhersage auf Basis unterschiedlicher Verhaltenssignale in den sozialen Medien Likes o. Ä.

Musikalische Facebook Likes

Nave et al. (2018)

Texte

Fotofavoriten auf Flickr

Segalin et al. (2017)

Blogs

Marcus et al. (2006), Yarkoni (2010)

Tweets

Goldbeck et al. (2011), Qui et al. (2012)

Facebook Status-Updates

Park et al. (2015)

Bilder

Facebook Privatnachrichten

Schwartz et al. (2013)

Instagram-Postings

Ferwerda und Tkalcic (2018)

Twitter Profilbilder

Liu et al. (2016)

(Quelle: Eigene Darstellung)

die Berücksichtigung mehrerer Arten digitaler Fußabdrücke auch eine höhere Genauigkeit in der Vorhersage der Persönlichkeit zur Folge hat. Hinter Behavioral Targeting liegt die grundsätzliche Annahme, dass vergangenes Surfverhalten momentane Interessen und Präferenzen des Nutzers anzeigt. In Bezug auf psychografisches Targeting treten zwei weitere Grundannahmen hinzu (Schiffman und Kanuk 2010, S. 136–40): Die Persönlichkeit reflektiert individuelle Unterschiede zwischen den Nutzern, so dass sie anhand dieser Unterschiede signifikant gruppiert werden können. Und die durch die Persönlichkeit reflektierten Verhaltensweisen sind beständig, so dass die Kategorisierung anhand der Persönlichkeitsmerkmale belastbare Vorhersagen ermöglicht. Sind diese Voraussetzungen erfüllt lassen sich mittels psychografischer Segmentierung Erkenntnisse über die Persönlichkeit eines Konsumenten gewinnen, die als beständig angesehen werden können und seine speziellen Bedürfnisse, Motive und Einstellungen widerspiegeln. Seit der Abschaltung der myPersonality Datenbank gibt es aktuell keinen validierten, öffentlich zugänglichen Datensatz mehr, aus dem hervorgeht, welche Signale in den sozialen Medien mit welchen Persönlichkeitsausprägungen statistisch signifikant verbunden sind. Bis zur Abschaltung konnte allerdings für den US-amerikanischen Markt aus der myPersonality Datenbank erkannt werden, welche Facebook „Gefällt-mir“-Angaben mit welchen Persönlichkeitsausprägungen korrelieren. Nimmt der Werbetreibende nun die Option des Interessen-Targetings im Werbemanager wahr und steuert seine Kommunikationsmittel gezielt auf Nutzer aus, die bestimmte „Gefällt-mir“-Angaben mit hohen

4  Psychografisches Targeting

87

Persönlichkeits-Korrelationen getätigt haben, kann der Werbetreibende psychografisch optimierte Werbemittel einsetzen. Youyou et al. (2015) zeigen wie nur wenige „Gefällt-mir“-Angaben ausreichen, um die Persönlichkeitsausprägungen individueller Nutzer zutreffend bestimmen zu können. So konnte bis zur Abschaltung der myPersonality Datenbank auf diese Art des InteressenTargetings indirekt psychografisches Targeting betrieben werden (Matz et al. 2017, S. 2), das bspw. über die gezielte Auswahl von „Farm Town“-Fans eine vom Persönlichkeitsprofil tendenziell geschlossene Zielgruppe (low openness) psychografisch optimiert anspricht. Hintergrund-Information Die Grundlage für die myPersonality-Datenbank wurde 2007 von David Stillwell in Form einer Facebook-App gelegt (Psychometrics Centre, o. J.), die die bis dahin vorhandene Hürde der (massenhaften) Datensammlung aus (individuellen) psychologischen Analysen durch die große Verbreitung von Facebook überwinden konnte. Die App ermöglichte dem Nutzer einen auf Basis des International Personality Item Pool (IPIP) validierten psychometrischen Test durchzuführen und so eine eigene Persönlichkeitseinschätzung zu erhalten (Goldberg et al. 2006; Matz et al. 2017, S. 12715). Als die App 2012 den aktiven Betrieb einstellte, hatten insgesamt 6 Mio. Teilnehmer an einem Persönlichkeitsquiz teilgenommen, wovon 40 % dem zusätzlichen Zugriff auf ihre Facebook-Daten zu Forschungszwecken zustimmten. Somit konnten die Facebook-Profildaten mit den psychometrischen Testresultaten kombiniert und ausgewertet werden, d. h. über zwei Million Persönlichkeitsprofile wurden mit Facebook Interessenangaben abgeglichen, um die „Gefälltmir“-Angaben zu finden, die eine hohe, statistisch signifikante Korrelation mit bestimmten psychografischen Ausprägungen aufweisen. Die Ergebnisse in Form von anonymisierten Daten waren bis April 2018 öffentlich über die myPersonality Website zugänglich.

Im deutschsprachigen Raum ist ein Fallbeispiel für psychografisches Targeting in der Werbung öffentlich bekannt (Schröter 2017, 2018; Hedewig-Mohr 2018a, b): Die Agentur Serviceplan hat für das Auto „Mini Countryman“ Online-Banner mit 20 unterschiedlichen Varianten eingesetzt, die anhand von zwei Persönlichkeitsmodellen (Big Three, Big Five) gestalterisch und inhaltlich optimiert eingesetzt wurden. Internationale Aufmerksamkeit erlangte psychografisches Targeting durch die Enthüllungen rund um die Praktiken von Cambridge Analytica, die nach eigenen Angaben einen eigenen Datenpool von mehr als 40 Mio. U.S. Bürgern mit detaillierten Charakteristika und Persönlichkeitsprofilen zusammengestellt und diesen für die Ausspielung von psychografischem Targeting angeboten hatten (The Guardian 2015 und 2018a).

88

G. Hopf

4.4 Vorgehen Psychografisches Targeting Will der Werbetreibende nun psychografisches Targeting ohne die Verwendung einer validierten, externen Datenbank nutzen, muss er zunächst eine Profilierung (einer Stichprobe) seines Zielpublikums auf der Grundlage psychodiagnostischer Modelle vornehmen. Analog zum Vorgehen der myPersonality Datenbank, füllen hierzu üblicherweise die Nutzer einen Fragebogen zu ihren Persönlichkeitsmerkmalen aus.5 Grundlegende Voraussetzung für eine Profilierung anhand eines vom Probanden selbst ausgefüllten Fragebogens ist die Annahme, dass Persönlichkeitsmerkmale in tatsächlichen Eigenschaften widergespiegelt werden, die anhand einzelner Fragen auf individueller Basis abgefragt werden können (Youyou et al. 2015, S. 1036). Um die Verlässlichkeit der erstellten Persönlichkeitsprofile zu verbessern, können Einschätzungen von Bekannten der Probanden hinzugenommen werden, um somit über- oder unterschätzende Antworten auszugleichen. Der hohe Aufwand für ein solch zweistufiges Profilierungsverfahren macht es aber für große Erhebungen beinahe unmöglich, so dass zumeist die Selbsteinschätzung anhand des Fragebogens genutzt wird. Die in diesem Schritt zur Strukturierung der Nutzer verwendeten Profile mit dazugehörigen Persönlichkeitsmerkmalen basieren zumeist auf vorgegebenen Persönlichkeitsmodellen, die zu verstehen und zu erklären versuchen, welche charakteristischen Merkmale ein Mensch mit sich bringt (Digman 1990). Ein für psychografisches Targeting sehr geläufiges Persönlichkeitsmodell ist das auf Allport und Odbert (1936) zurückgehende Five-Factor-Modell, auch Big Five oder OCEAN-Modell genannt.6 Laut des Five-Factor-Modells lassen sich Menschen anhand von fünf Hauptdimensionen der Persönlichkeit kategorisieren und in jeder der fünf Dimensionen je nach Stärke der Ausprägung auch skalieren (John et al. 2008, S. 114–117): 1. Offenheit der Erfahrungen (Aufgeschlossenheit) 2. Gewissenhaftigkeit (Perfektionismus)

5Das

iScience-Institut der Universität Konstanz bietet einen deutschsprachigen und nach eigenen Angaben validierten Test zur Einordnung von Nutzern in die Big Five Persönlichkeitsprofile an, siehe: http://iscience.uni-konstanz.de/de/iexperiments/. 6Für Alternativen oder Varianten des Five Factor Models vgl. Herzberg und Roth (2014, S. 46–48). Siehe auch das Persönlichkeitsmodell im Rahmen der Limbic Map von Häusel (2008), die versucht, den Emotionsraum des Menschen anhand unterschiedlicher Charaktertypen zu strukturieren und damit eine charakteradäquate Ansprache der einzelnen Kundensegmente zu ermöglichen.

4  Psychografisches Targeting

89

3. Extraversion (Geselligkeit) 4. Verträglichkeit (Rücksichtnahme, Empathie) 5. Neurotizismus (emotionale Labilität und Verletzlichkeit). Hintergrund-Information Ein grundsätzlich anderes Persönlichkeitsmodell stellen beispielsweise die Archetypen nach Carl Gustav Jung dar, die in dessen Auffassung universelle, in ihrer Art und Wirkweise vererbbare Urbilder der Menschen darstellen (Jung 1902; Jung und Jung 2019). Inzwischen werden die von C. G. Jung aufgestellten Archetypen eher als ein sozialpsychologisches oder kultur-anthropologisches Phänomen gesehen und damit als erlerntes und weitergegebenes Verhalten (Roesler 2016, S. 175 ff.; Kroeber-Riel und Gröppel-Klein 2013, S. 213 ff.; Mark und Pearson 2001).

Im nächsten Schritt müssen nun die ermittelten Persönlichkeitsprofile mit dem tatsächlichen Verhalten der Probanden in den sozialen Medien abgeglichen werden, um statistisch signifikante Verhaltensmuster zu erkennen, anhand derer wiederum Nutzer mit ähnlichen Persönlichkeitsprofilen erkannt werden können, ohne diese einem Fragebogen unterziehen zu müssen. Hierzu können eine Vielzahl von Signalen ausgewertet werden (siehe Tab. 2). Aufgrund ihrer massenhaften Verbreitung und Nutzung bieten sich aber insbesondere die „Gefällt-mir“-Angaben an. Indem die erhobenen Persönlichkeitsprofile der Probanden in einen Training- und einen Testing-Set unterteilt werden, kann eine Cross-Validierung der Vorhersagegenauigkeit der im Training-Set erkannten Muster vorgenommen werden. Die anhand der Ergebnisse aus dem Training-Set ermittelten Vorhersagen über die Persönlichkeitsausprägungen der Nutzer im Testing-Set werden mit ihren tatsächlichen, d. h. mittels des Fragebogens erhobenen, Persönlichkeitsmerkmalen abgeglichen. Die so ermittelten Signale in den sozialen Medien für bestimmte Persönlichkeitsmerkmale in der Zielgruppe, bspw. „Gefällt-mir“-Angaben für bestimmte Musiker, können nun eingesetzt werden, um durch ein Interessen-Targeting psychografisch optimierte Kommunikationsinhalte persönlichkeits-genau auszuspielen. Die Kommunikationsmittel müssen dabei grafisch wie inhaltlich auf das jeweilige Persönlichkeitsprofil angepasst sein, ohne die überragende Markenbotschaft zu verfälschen.

4.5 Potential und Stand der Forschung Im Vergleich zu anderen digitalen Werbeformen, insbesondere Banner-Werbung, die unter den diversen Möglichkeiten der Ad-Avoidance leiden, birgt das ­(psychografische) Behavioral Targeting über die sozialen Medien das Versprechen

90

G. Hopf

durch die granulare und hochgradig personalisierte Ausspielung eine hohe Relevanz für den Nutzer und somit auch eine hohe Akzeptanz für die werblichkommunikativen Inhalte zu erzeugen bzw. die Ad Avoidance zu verringern (Kelly et al. 2010).

4.5.1 Ad Avoidance in Online-Medien Der in den letzten Jahren stetig gestiegene Online-Werbedruck führt vielfach zu Reaktanz bei den Nutzern, die Abwehrreaktionen und Werbevermeidung (Cho und Cheon 2004; Drèze und Hussherr 2003) in passiver (Banner-Blindness) oder aktiver Form (Ad-Blocker) auslösen kann. Lauf Chaffey (2018) liegt die durchschnittliche Click-Through-Rate bei Display-Werbung inzwischen bei nur noch 0,05 % gemessen über alle Werbeformate. Unter Ad Avoidance werden alle Handlungen subsummiert, die Nutzer unternehmen, um die Konfrontation mit Werbung zu reduzieren (Speck und Elliott 1997, S. 61). Nach Kelly et al. (2010) können vier grundsätzliche Faktoren bzw. Gründe der Ad Avoidance in den sozialen Medien unterschieden werden: die Erwartung einer negativen Erfahrung, fehlende Relevanz und Skepsis gegenüber der Nachricht der Werbung oder gegenüber dem Medium. Elliott und Speck (1998) weisen auch auf den möglichen Grund der Überreizung der Nutzer durch ein Übermaß an Werbestimuli hin. Cho (2004) erweitert die traditionellen Arten der Ad Avoidance, d. h. kognitive Ad Avoidance, die den werblichen Inhalten keine Aufmerksamkeit schenkt, Behavioral Ad Avoidance, die durch unterschiedliche Verhaltensmöglichkeiten der Werbung ausweicht, und technische (mechanische) Ad Avoidance (Clancey 1994; Speck und Elliott 1997), um die Form der affektiven Ad Avoidance, die eine emotionale Hürde zur Werbung aufbaut bspw. indem Werbung grundsätzlich als negativ oder störend eingestuft wird.

4.5.2 Wirkung von Behavioral Targeting7 Diverse Studien beschäftigen sich mit der Effektivität von Behavioral Targeting und legen nahe, dass die höhere Relevanz in der Tat auch generell eine höhere kommunikative Wirkung zur Folge hat (Anand und Shachar 2009; Ansari und

7Für

eine aktuelle Zusammenfassung der Literatur zu Behavioral Targeting im Allgemeinen siehe Ahrholdt et al. (2019, S. 219 ff.).

4  Psychografisches Targeting

91

Mela 2003; Tucker 2014). Weitergehende Studien weisen aber auf Voraussetzungen für diese vergleichsweise starke Wirkung hin. So zeigen Bleier und Eisenbeiss (2015), dass Behavioral Targeting zwar die Click-Through-Rate erhöhen kann, die View-Through-Rate8 aber nur erhöht wird, wenn die Nutzer die werblichen Inhalte als stimmig zu ihren Kaufinteressen verstehen. Lambrecht und Tucker (2013) zeigen ebenso, dass die vorausgehende Aktivität des Nutzers mit der beworbenen Produktkategorie für die Effektivität entscheidend ist. Behavioral Targeting erfordert also einen sehr engen Abgleich der Personalisierung mit der zuletzt beobachteten Position im Kaufentscheidungsprozess. Mehrere Studien kommen zu dem Schluss, dass insbesondere für Kunden in einer frühen Phase des Kaufentscheidungsprozesses personalisierte Werbung wirksamer ist als in den mittleren oder späteren Phasen, in denen die Kaufentscheidung zunehmend determiniert ist (Bleier und Eisenbeiss 2015; Li und Chatterjee 2005; Yoon und Simonson 2008; Lee und Ariely 2006; Simonson 2005). Eine Verbindung mit Preisanreizen unterstützt die Wirksamkeit von Behavioral Targeting (Bruce et al. 2017; Lambrecht und Tucker 2013), ebenso wie relativ homogene Präferenzen auf Seiten der Nutzer (Lambrecht und Tucker 2013).

4.5.3 Wirkung von Psychografischem Targeting (in den sozialen Medien) Bereits frühe Publikationen zu Beginn des 21. Jahrhunderts untersuchen, ob die Nutzung von individuellen Persönlichkeitsdimensionen die Effektivität von persuasiven Botschaften beeinflussen kann. Moon (2002) zeigt anhand zweier Experimente, dass eine an die Persönlichkeitsdimension der Testperson angepasste persuasive Nachricht einen stärkeren Einfluss auf die Testperson haben kann als eine nicht angepasste. Auch Mühling (2007, S. 32) kommt zu der Einschätzung, dass psychografische Merkmale sich als aussagekräftiger für die Zielgruppensegmentierung erweisen als allein demografische Merkmale. Schiffmann und Kanuk (2010, S. 136–140) argumentieren, dass sich Persönlichkeitscharakterisierungen zur Steigerung der Effektivität von Marketingstrategien einsetzen lassen, da sie beständige Differenzen in der Verhaltensweise einzelner

8Im

Unterschied zur Click-Through-Rate misst die View-Through-Rate auch diejenigen Nutzer, die nicht sofort bei Wahrnehmung der werblichen Inhalte, sondern erst zu einem späteren Zeitpunkt auf die beworbene Website gehen.

92

G. Hopf

Nutzer oder ganzer Nutzergruppen aufzeigen, insbesondere in Bezug auf den Umgang der Nutzer mit neuen Konsumerfahrungen (Konsumenteninnovationen) und ihre Einstellung zu Besitz (Konsumentenmaterialismus). Hirsh et al. (2012) finden ebenfalls, dass die Anpassung der persuasiven Botschaft an die Persönlichkeitsdimensionen ihrer einzelnen Probanden die Wirkung der Apelle erhöht. Ihre Befragung von über 300 Probanden, die vorher anhand des Fünf Faktoren Modells psychografisch eingeordnet wurden, ergab, dass die eingesetzte, psychologisch-profilierte Werbung positiver bewertet wurde, wenn sie mit der psychografischen Einordnung der Versuchsperson übereinstimmte. Diese frühen Ergebnisse werden durch die groß angelegte Feldstudie von Matz et al. (2017) weiter bestätigt. Sie zeigen, dass sowohl die Click-ThroughRate (Kaufinteresse) als auch die tatsächlich getätigten Käufe (gemessen als Conversion-Rate) der angesprochenen Nutzer steigen, wenn die ausgespielten Inhalte der psychologischen Profilierung des einzelnen Nutzers entspricht (Matz et al. 2017, S. 12714). Zur psychologischen Profilierung setzten sie das Fünf-Faktoren Modell ein, untersuchten aber nur die Dimensionen Openness und Extraversion, die gemäß Youyou et al. (2015) starke Korrelationen zu bestimmten „Gefällt-mir“-Angaben aufweisen. Die Korrelationen selbst wurden aus der myPersonality-Datenbank extrahiert. Im nächsten Schritt wurden Facebook-Nutzer mit aufgrund ihrer Like-Angaben voraussichtlich starken Ausprägungen der beiden psychografischen Dimensionen unterschiedlich optimierte Sponsored Posts in ihrem normalem Feed angezeigt und die Click-Throughund Conversion-Raten jeweils mit einer Kontrollgruppe verglichen. Matz et al. (2017) führten insgesamt drei Feldstudien durch, die in Summe 3,5 Mio. Nutzer erreichten und zeigen, dass psychografisches Targeting die Wirkung werblicher Inhalte substanziell und statistisch signifikant steigern kann. Im Fall der Kongruenz der psychologischen Ausrichtung der Anzeige mit der Persönlichkeit des Nutzers konnten um bis zu 40 % höhere Click-Through-Raten und um bis zu 50 % höhere Kauf-Konversions-Raten erzielt werden, als dies bei den zur Persönlichkeit unpassenden Werbemitteln der Fall war.9 Inwieweit psychografisches Targeting andere Marketingziele, wie bspw. Awareness, Markenbewusstsein oder Markenloyalität, unterstützen kann, wurde noch nicht untersucht.

9Bei

der oben bereits erwähnten Kampagne um das Auto „Mini Countryman“ konnte nach Angabe der Kampagnenverantwortlichen die Conversion Rate, gemessen als Bereitschaft eine Adresse zu hinterlegen und/oder eine Probefahrt zu vereinbaren, durch psychografisches Targeting um bis zu 400 % gesteigert werden (Hedewig-Mohr 2018b).

4  Psychografisches Targeting

93

Hintergrund-Information Die Studie von Matz et al. (2017) hat auch Kritik auf sich gezogen. Die Autoren weisen selbst auf die Limitation ihrer Studie hin, die sich daraus ergibt, dass die Persönlichkeitsvorhersage nur auf Basis einer einzelnen „Gefällt-mir“-Angabe pro Person anstatt anhand eines kompletten digitalen Fußabdruckes durchgeführt wurde und die Aussagekraft somit stark von der Genauigkeit und Aktualität des Vorhersagemodells abhinge. Darüber hinaus gelte es zu beachten, dass die Vorhersagen aus der myPersonality-Datenbank fragebogengestützt sind, wodurch die Selbsteinschätzungen diverse kognitive Verzerrungen beinhalten können. Sharp et al. (2018) kritisieren das eingesetzte Forschungsdesign und schlagen vor, die Klicks der anhand von psychografischem Targeting ausgespielten Anzeigen mit nicht-personalisierten Anzeigen, die an eine Grundgesamtheit ausgesteuert werden, als Kontrollgröße zu vergleichen. Auch die kreative Überlegenheit einer Anzeigengestaltung gegenüber einer anderen könne die Ergebnisse verfälscht haben. Eckles et al. (2018) hinterfragen die interne Validität der Ergebnisse: den Usern würden die Anzeigen nicht zufällig zugewiesen und sie könnten mehrere Varianten in ihrem Newsfeed erhalten. Des Weiteren stelle die durch Facebook automatisch vorgenommene Optimierung nach Kampagnenzielen eine unkontrollierbare Variable dar. So weisen sie auf statistisch signifikante Unterschiede in der Alters- und Geschlechtsverteilung der psychologischen Kohorten hin, die eventuell für die Studieneffekte verantwortlich sein könnten. Ein direkter Vergleich der Erfolgsquoten der Werbeanzeigen ist laut Eckles, Gordon und Johnson somit nicht aussagekräftig. Siehe auch Matz et al. (2018a und b), die zu den Kritikpunkten Stellung nehmen.

4.5.4 Gefahr der Überpersonalisierung (Personalisierungsparadox) In der Display-Werbung wird die Gefahr der Überpersonalisierung (Overpersonalization) unter dem Überbegriff des Personalisierungsparadox diskutiert.10 Obwohl relevante Werbeanzeigen generell bevorzugt werden (Lambrecht und Tucker 2013), kann eine hochgradig personalisierte Werbung das Gefühl der Intrusivität hervorrufen und damit einen negativen Werbeeffekt auslösen (van Doorn und Hoekstra 2013). Stark personalisierte Bannerwerbung zeigt unter Umständen eine geringere Wirkung als weniger eng personalisierte Banner, die weniger nah an bspw. im Rahmen eines Online-Shop-Besuchs gezeigten Präferenzen, sondern eher auf Basis des Onlineverhaltens in früheren Phasen des

10Eine

anders gelagerte, aber in ihrer Wirkrichtung verwandte Frage untersucht die potenziell negative Wirkung von „aufdringlicher“ Werbung (Obstrusiveness). Goldfarb und Tucker (2011) zeigen in ihrer Studie, dass, wenn das persuasive Ziel vom Nutzer erkannt wird, eine durch (kontextuelles) Targeting optimierte Werbung unter Umständen keine bessere Wirkung erzielt als eine nicht durch Targeting-Mechanismen beeinflusste Werbeausspielung.

94

G. Hopf

Kaufentscheidungsprozesses angelehnt sind (Bleiern und Eisenbeiss 2015). Gründe für das Auftreten des Personalisierungsparadox können das Gefühl der Aufdringlichkeit (Van Doorn und Hockstra 2013), der Verwundbarkeit (Aguirre et al. 2016), der Auslösung von Reaktanz auf Seiten der Nutzer oder als negativ wahrgenommene Nützlichkeit der personalisierten Werbung (Bleier und Eisenbeiss 2015) sein. Der wahrgenommene Kontrollverlust durch eine vermeintliche Einschränkung der Wahlfreiheit und der als Eindringen in die Privatsphäre gedeutete hohe Grad der Personalisierung können somit die Wirkung trotz engen Abgleichs mit den Präferenzen des Nutzers potenziell negativ beeinflussen. Wie Holland (2014, S. 283) argumentiert, könnte der negative Effekt aber auch einfach daher rühren, dass dem Nutzer immer wieder die gleiche Werbung angezeigt wird und er sich gelangweilt fühlt. Inwieweit das Personalisierungsparadox auch auf psychografisches Targeting zutrifft wurde noch nicht gezielt untersucht. Im Sinne von Ozcelik und Varnali (2019, S. 8), die zur Lösung des Personalisierungsparadox eine subtile Ausspielung des personalisierten Inhalts vorschlagen, könnte eine psychologisch optimierte Ausspielung das Personalisierungsparadox umgehen, wenn die Personalisierung vom Nutzer nicht bewusst wahrgenommen wird, da sie nicht auf einfach zu erkennenden sozio-demografischen oder geografischen Daten oder vom Nutzer wiedererkannten Interessensäußerungen oder Verhaltensweisen basiert. Im bestmöglichen Fall wird die über die sozialen Medien ausgespielte Werbung nicht als personalisiert, sondern als attraktiv wahrgenommen (Kelly 2010).11

4.6 Herausforderung in der Umsetzung, ethische Betrachtung und Ausblick Dem Einsatz von psychografischem Targeting stehen einige operative und konzeptionelle Herausforderungen in der Umsetzung aber insbesondere auch datenschutz-rechtliche und ethische Bedenken entgegen.12

11Walker Reczek et al. (2016) schlagen eine alternative Lösung für das Personalisierungsparadox vor: Eine vom Nutzer bewusst als direkt auf ihn personalisiert wahrgenommene Werbung kann unter Umständen ein Gefühl der Profilierung hervorrufen und somit entgegen des Personalisierungsparadox eine Stärkung der Werbewirkung zur Folge haben. 12Für eine allgemeine Diskussion von algorithmischen Identitäten im Online Marketing siehe Cheney-Lippold (2011).

4  Psychografisches Targeting

95

4.6.1 Herausforderungen in der Umsetzung von psychografischem Targeting Dem Einsatz von psychografischem Targeting steht zunächst aus operativer Sicht die Schwierigkeit entgegen, eine valide Persönlichkeitsvorhersage für die gewünschte Zielgruppe treffen zu können. Selbst wenn eine ausreichende Zahl Mitglieder der Zielgruppe sich bereit erklärt, sich einer Profilierung auf Basis eines psychodiagnostischen Modells zu unterziehen, handelt es sich hierbei um Selbsteinschätzungen, die starken Verzerrungen unterliegen können. Für eine statistisch signifikante Herleitung von Korrelationen zwischen Online-Verhalten und Persönlichkeit müssten die Nutzer zusätzlich bereit sein, Informationen über ihre „Gefällt-mir“-Angaben oder ggf. andere Signale aus ihrem Verhalten in den sozialen Medien in großer Zahl zur Verfügung zu stellen. Die so ermittelten Korrelationen unterliegen dann aber immer noch regionalen Unterschieden (Catal et al. 2017) und verändern sich fließend über die Zeit hinweg mit der jeweils vorherrschenden Popkultur (Matz et al. 2017, S. 4). Auch die Konzeption der Werbeinhalte stellt eine Herausforderung dar (Kind und Weide 2017, S. 2). Sowohl Werbebotschaft als auch deren grafische Aufbereitung müssen individuell auf die Persönlichkeitsprofile angepasst werden und müssen trotz des hohen Grades an Personalisierung mit der überragenden Markenbotschaft in Einklang stehen. Bei der letztendlichen Ausspielung der Werbeinhalte ist der Werbetreibende von der Zielgenauigkeit des Targeting-Algorithmus der jeweiligen OnlinePlattform abhängig. Die Ausspielung per Interessen-Targeting erfolgt nur in Annährung an das Persönlichkeitsprofil, indem das vom Nutzer gezeigte Verhalten als Proxy für eine psychografische Ausprägung genutzt wird. Ebenso trifft das grundsätzliche Problem zu, dass die Funktionsweisen der TargetingAlgorithmen von den Plattformen nicht transparent gemacht werden, so dass es aus Sicht des Werbetreibenden immer ungewiss ist, wie genau die tatsächliche Ausspielung am Ende erfolgt. All diese operativen Herausforderungen überragt die Frage des Datenschutzes. Selbst wenn bei der Erhebung der Like-Persönlichkeits-Korrelationen die Zustimmung der Nutzer vorliegt, stellt sich die Frage, ob für eine massenhafte Ausspielung auf Basis der ermittelten Korrelationen nicht ebenfalls eine Zustimmung erfolgen muss, da der Abgleich der eigenen Interessen mit den so ermittelten wahrscheinlichen Persönlichkeitsprofilen als personalisierte Datenverarbeitung gesehen werden kann auch wenn die Ermittlung nur indirekt über bspw. „Gefällt-mir“-Angaben geschieht. Die Nutzer geben ihre „Gefällt-mir“-Angaben in den sozialen Medien nicht mit dem Ziel (und Wissen) ab, hierüber psychografisch profiliert zu werden.

96

G. Hopf

4.6.2 Ethische Betrachtung Aus den Datenschutz-rechtlichen Überlegungen ergibt sich direkt die ethische Betrachtung. Selbst wenn die Daten für die Like-Persönlichkeits-Korrelationen anonymisiert erhoben werden, so erlaubt das Verfahren doch eine sehr personalisierte Ansprache ohne personen-bezogene Details zu den einzelnen Nutzern über die abgegebenen „Gefällt-mir“-Angaben hinaus kennen zu müssen. Selbst wenn die Datenerhebung anonymisiert oder pseudonymisiert stattfindet, kann Persönlichkeits-genau kommuniziert werden. Dies ist den Nutzern wahrscheinlich nicht bewusst, wenn sie den Like-Button drücken oder wenn sie ihre Datenschutzeinstellungen vornehmen. Kosinski et al. (2013) und Matz et al. (2017) weißen bereits auf die ethischen Bedenken hin, die sich insbesondere daraus ergeben, dass die Nutzer nicht ahnen, welche Aussagekraft ihre „Gefällt-mir“-Angaben haben können und dass psychografisches Targeting gezielt und absichtlich menschliche Schwächen bei der Entscheidungsfindung auszunutzen sucht.13 Hintergrund-Information Laut Brittany Kaiser, einer ehemaligen Mitarbeiterin von Cambridge Analytica, wurde die von Cambridge Analytica eingesetzte, psychografische Targeting Technik als so kraftvoll eingeschätzt, dass sie in Großbritannien zeitweise offiziell als „weapons-grade technology“ eingestuft wurde (The Guardian 2018b und Netflix 2019).

Aus Sicht der Forschung, argumentieren Hinds und Joinson (2019), müssen Forscher daher ihre Algorithmen transparent machen, die Nutzer darüber informieren, welche Daten mit welchem Zweck ausgewertet werden, und den Einschränkungen der Nutzer im Rahmen der explizit erteilten Zustimmung Folge leisten. Diese Grundsätze sollten aus ethischer Sicht aufgrund der Wirkungskraft von psychografischem Targeting allerdings nicht nur auf die Forschung begrenzt sein, sondern auch ethische Leitlinien für die werbliche Kommunikation darstellen, die insbesondere von den Plattformen aber auch den Werbetreibenden beachtet werden sollten.

13Geht

man von der individuellen ethischen Ebene auf eine gesellschaftliche Betrachtungsebene, so muss man darauf hinweisen, dass psychografisches Targeting grundsätzlich auch zur Verstärkung von Filterblasen beitragen kann und somit potenziell zu einer stärkeren Trennung einzelner gesellschaftlicher Gruppen voneinander, was allerdings auf alle stark personalisierten Kommunikationstechniken potenziell zutrifft.

4  Psychografisches Targeting

97

4.6.3 Ausblick Trotz der dargestellten bisher vorliegenden Erkenntnisse steht die Forschung zur Funktion und Wirkungsweise von psychografischem Targeting noch am Anfang. Hinds und Joinson (2019) weisen auf die weiteren Entwicklungsmöglichkeiten dieser Technik hin, insbesondere wenn das maschinelle Lernen soweit entwickelt ist, dass keine fragebogen-gestützten Selbsteinschätzungen mehr notwendig sein werden, um Persönlichkeitscharakteristika aus dem Verhalten der Nutzer abzuleiten. Die Einschränkungen durch gesetzte Persönlichkeitsmodelle wie bspw. das Fünf-Faktoren-Modell würden irrelevant, da maschinelles Lernen davon unberührt unabhängige Muster in den massenhaft verfügbaren Daten aus dem Verhalten der Nutzer herausarbeiten können wird. Die Datenbasis könne auch erweitert werden um bspw. Gesichtserkennung, Kaufverhalten, Stromkonsum oder Geo-Daten. Letztendlich sei davon auszugehen, dass Computer besser darin seien, zukünftiges menschliches Verhalten vorherzusagen als der Mensch selbst. Auf das Potential durch die Erweiterung der Datenbasis weisen auch Kamps und Schetter (2018, S. 92) hin, die insbesondere auf die Möglichkeit des emotionalen Targetings auf Basis der durch die Frontkamera erhobenen Daten zu den Gesichtszügen der Nutzer verweisen. Emotionales Targeting als nächster Entwicklungsschritt der Personalisierung der werblichen Kommunikation ist allerdings noch wenig diskutiert. Aus den potenziellen weiteren Entwicklungsschritten ergibt sich abschließend das wohl größte ethische Dilemma in Bezug auf psychografisches Targeting: bei der aktuellen Situation der Datenintransparenz durch die großen digitalen Plattformen geben die demokratischen Gesellschaften diese potenziell sehr wirkstarke Technik und deren weitere Entwicklung allein und größtenteils unkontrolliert in die Hände dieser Plattformen.14 Besonders wenn man die Marktmacht dieser großen Plattformen bedenkt, die die Zustimmung der einzelnen Nutzer erwirken können, indem die (vollumfängliche) Nutzung nur mit Zustimmung eingeräumt wird, sollte aus diesem Grund, wie bereits für die Kontrolle des finanziellen Gebarens großer Firmen üblich, eine regelmäßige, externe und neutrale Prüfung des Umgangs der großen digitalen Plattformen mit Daten erwogen werden, deren Ergebnis öffentlich zugänglich sein muss. 14Zentralistisch geführte Gesellschaften, deren Zentralmacht sich auch auf die jeweils vorherrschenden digitalen Plattformen erstreckt, könnten die Technik potenziell zur gezielten Ausrichtung der eigenen Kommunikation mit der Bevölkerung und somit mittelbar zur weiteren Festigung der eigenen Machtposition einsetzen.

98

G. Hopf

Literatur Aguirre, E., Roggeveen, A. L., Grewal, D., & Wetzels, M. (2016). The personalization-privacy paradox: Implications for new media. Journal of Consumer Marketing, 33(2), 98–110. Ahrholdt, D., Greve, G., & Hopf, G. (2019). Online-Marketing-Intelligence – Kennzahlen, Erfolgsfaktoren und Steuerungskonzepte im Online-Marketing. Wiesbaden: Springer Gabler. Aizen, I. (2005). Attitudes, personality, and behavior. New York: Open University Press. Allport, G. W., & Odbert, H. S. (1936). Trait-names: A psycho-lexical study. Psychological Monographs, 1936, i-171. Anand, B. N., & Shachar, R. (2009). Targeted advertising as a signal. Quantitative Marketing and Economics, 7(3), 237–266. Ansari, A., & Mela, C. F. (2003). E-customization. Journal of Marketing Research, 40(2), 131–145. Azucar, D., Marengo, D., & Settanni, M. (2018). Predicting the big 5 personality traits from digital footprints on social media: A meta-analysis. Personality and Individual Differences, 124(April), 150–159. https://doi.org/10.1016/j.paid.2017.12.018. Bachrach, Y., Kosinski, M., Graepel, T., Kohli, P., & Stillwell, D. (2012). Personality and Patterns of Facebook Usage. In: Proceedings of the ACM Web Science Conference. http:// www.davidstillwell.co.uk/articles/Personality_and_Patterns_of_Facebook_Usage.pdf. Back, M. D., Stopfer, J. M., Vazire, S., Gaddis, S., Schmukle, S. C., Egloff, B., & Gosling, S. D. (2010). Facebook profiles reflect actual personality, not self-idealization. Psychological Science, 21(3), 372–374. https://doi.org/10.1177/0956797609360756. Bayerischen Landesamts für Datenschutzaufsicht. (20. November 2018). Bayerischer Verw altungsgerichtshofentscheidet: BayLDA untersagt zu Recht den Einsatz von Facebook Custom Audience. Pressemitteilung 20.November 2018. https://www.lda.bayern.de/ media/pm2018_18.pdf. Bayerischer Verwaltungsgerichtshof. (2018). Übermittlung gehashter E-Mail-Adressen an soziales Netzwerk – VGH München Beschluss v. 26.09.2018 – 5 CS 18.1157. https:// www.gesetze-bayern.de/Content/Document/Y-300-Z-BECKRS-B-2018-N-25018?Aspx AutoDetectCookieSupport=1. Bleier, A., & Eisenbeiss, M. (2015). Personalized online advertising effectiveness: The interplay of what, when, and where. Marketing Science, 34(5), 669–688. Boerman, S. C., Kruikemeier, S., & Zuiderveen Borgesius, F. J. (2017). Online behavioral advertising: A literature review and research agenda. Journal of Advertising, 46(3), 363–376. Bruce, N. I., Murthis, B. P. S., & Rao, R. C. (2017). A dynamic model for digital advertising: The effects of creative format, message content, and targeting on engagement. Journal of Marketing Research, LIV, 202–218. BVDW. (2014). Kriterien zur Beurteilung von Targeting-Qualität. https://www.eprivacy. eu/fileadmin/Redakteur/PDF/leitfaden_targeting_kriterien_zur_beurteilung_von_ targeting_qualitaet_2014.pdf. Catal, C., Song, M., Muratli, C., Kim, E. H.-J., Tosuner, M. A., & Kayikci, Y. (2017). Cross-cultural personality prediction based on twitter data. JSW, 12, 882–891. https:// doi.org/10.17706/jsw.12.11.882-891.

4  Psychografisches Targeting

99

Ceyp, M., & Scupin, J.-P. (2013). Erfolgreiches social media marketing: Konzepte, Maßnahmen und Praxisbeispiele. Dordrecht: Springer. Chaffey, D. (2018). Average display advertising clickthrough rates. Verfügbar unter: https:// www.smartinsights.com/internet-advertising/internet-advertising-analytics/displayadvertising-clickthrough-rates/. Cheney-Lippold, J. (2011). A new algorithmic identity: Soft biopolitics and the modulation of control. Theora, Culture & Society.. https://doi.org/10.1177/0263276411424420. Cho, C. H., & Cheon, H. J. (2004). Why do people avoid advertising on the Internet? Journal of Advertising, 33(4), 89–97. Clancey, M. (1994). The television audience examined. Journal of advertising Research, 1994, 2–11. Digman, J. M. (1990). Personality structure: Emergence of the five factor model. Annual Review of Psychology, 41, 417–440. Drèze, X., & Hussherr, F.-X. (2003). Internet advertising: Is anybody watching? Journal of Interactive Marketing, 17(4), 8–23. Eckles, D., Gordon, B. R., & Johnson, G. A. (2018). Field studies of psychologically targeted ads face threats to internal validity. PNAS, 115, E5254–E5255. Edelman, D., & Singer, M. (2015). Competing on customer journeys. Harvard Business Review, 93, 88–100. Elliott, M. T., & Speck, P. S. (1998). Consumer perceptions of advertising clutter and its impact across various media. Journal of Advertising Research, 38, 29–41. Esch, F.-R., Brendel, D., Klaus, A., Adler, N. & Thunig, C. (2016). Digital Brand Leadership. Markenführung in einer digital veränderten Welt. https://www.esch-brand.com/ publikationen/studien/studie-zu-digital-brand-leadership/. Facebook. o.  J. Finde Deine Zielgruppe. https://www.facebook.com/business/ads/adtargeting. Zugegriffen: 28. Juli 2019. Ferwerda, B., & Tkalcic, M. (2018). Predicting users’ personality from instagram pictures: Using visual and/or content features? In: Proceedings of the 26th conference on user modeling, adaptation and personalization – UMAP ’18 (S. 157–161). Singapore: ACM Press. https://doi.org/10.1145/3209219.3209248. Gilmore, W., & Erdem, S. A. (2008). The future of online internet marketing – A solution to behavioral marketing using biometrics. Journal of Business & Economics Research, 6(2), 23–26. Golbeck, J., Robles, C., Edmondson, M., & Turner, K. (2011). Predicting personality from Twitter. In 2011 IEEE Third Int’l Conference on Privacy, Security, Risk and Trust and 2011 IEEE Third Int’l Conference on Social Computing (S. 149–156). Boston: IEEE. https://doi.org/10.1109/PASSAT/SocialCom.2011.33. Goldberg, L. R., Johnson, J. A., Eber, H. W., Hogan, R., Ashton, M. C., Cloninger, C. R., & Gough, H. G. (2006). The international personality item pool and the future of publicdomain personality measures. Journal of Research in Personality, 2006, 84–96. Goldfarb, A., & Tucker, C. (2011). Online display advertising: targeting and obtrusiveness. Marketing Science, 30(30), 389–404. Greve, G., Hopf, G., & Bauer, C. (2011). Einführung in das Online targeting. In C. Bauer, G. Greve, & G. Hopf (Hrsg.), Online targeting und controlling: Grundlagen – Anwendungsfelder – Praxisbeispiele (S. 3–22). Wiesbaden: Gabler Verlag.

100

G. Hopf

Guardian The. (2015). Ted Cruz using firm that harvested data on millions of unwitting Facebook users. 11. Dezember 2015. https://www.theguardian.com/us-news/2015/ dec/11/senator-ted-cruz-president-campaign-facebook-user-data. Guardian The. (2018a). Revealed: 50 million Facebook profiles harvested for Cambridge Analytica in major data breach. 17. März 2018. https://www.theguardian.com/ news/2018/mar/17/cambridge-analytica-facebook-influence-us-election. Guardian The. (2018b). Brittany Kaiser’s evidence to Commons culture committee – Summary. 17. April 2018, 12.55. https://www.theguardian.com/politics/blog/live/2018/ apr/17/syria-debate-corbyn-may-will-be-very-frightened-by-internet-campaigning-nazipropaganda-revelations-says-culture-committee-chair-politics-live. Häusel, H.-G. (2008). Brain View – Warum Kunden kaufen (2. Aufl.). Planegg: Haufe Verlag. Hedewig-Mohr, S. (2018a). Psychografisches Targeting: Wir brauchen Tante Emma 2.0. HORIZONT, 3. Januar 2018. https://www.horizont.net/planung-analyse/nachrichten/ Psychografisches-Targeting-Wir-brauchen-Tante-Emma-2.0-163528. Zugegriffen: 28. Juli 2019. Hedewig-Mohr, S. (2018b). Marktforschung fürs Auto: Die Psychografie des Mini Countryman. https://www.horizont.net, https://www.horizont.net/planung-analyse/nachrichten/Marktforschung-fuers-Auto-Die-Psychografie-des-Mini-Countryman-166324. Zugegriffen: 28. Juli 2019. Herzberg, P. Y., & Roth, M. (2014). Persönlichkeitspsychologie. Wiesbaden: Springer. Hinds, J., & Joinson, A. (2019). Human and computer personality prediction from digital footprints. Current Directions in Psychological Science. https://doi. org/10.1177/0963721419827849. Hirsh, J. B., Kang, S. K., & Bodenhausen, G. V. (2012). Personalized persuasion: tailoring persuasive appeals to recipients’ personality traits. Psychological Science, 23(23), 578– 581. Holland, H. (2014). Digitales Dialogmarketing. Wiesbaden: Springer Gabler. Instagram Business Team. (1. November 2016). So erreichst du deine Kunden auf Instagram. Instagram for Business. https://business.instagram.com/blog/targetinginstagram-ads. Zugegriffen: 28. Juli 2019. John, O. P., Naumann, L. P. & Soto, C. J. (2008). Paradigm Shift to the Integrative Big Five Trait Taxonomy. In: von Oliver, P., John, Robins, Richard W. und Lawrence A. Pervin (Hrsg.) Handbook of Personality: Theory and Research (S. 114–158). New York: Guilford. Jung C.G. (1902). Zur Psychologie und Pathologie sogenannter occulter Phänomene. Eine psychiatrische Studie. Diss. Univ. Zürich (Medizinische Fakultät). Mutze Verlag, Leipzig 1902. Neu herausgegeben 2011 in: Carl Gustav Jung: Psychiatrische Studien. In: Carl Gustav Jung: Gesammelte Werke. Ostfildern: Patmos Verlag. Band 1, § 1–150. Jung, C. G., & Jung, L. (Hrsg.). (2019). Archetypen: Urbilder und Wirkkräfte des Kollektiven Unbewussten (Zweite Aufl.). Ostfildern: Patmos Verlag. Kamps, I., & Schetter, D. (2018). Performance Marketing: der Wegweiser zu einem messund steuerbaren Marketing – Einführung in Instrumente, Methoden und Technik. Wiesbaden: Springer Gabler. Kelly, L., Kerr, G., & Drennan, J. (2010). Avoidance of advertising in social networking sites. Journal of Interactive Advertising, 2010, 16–27. https://doi.org/10.1080/1525201 9.2010.10722167.

4  Psychografisches Targeting

101

Kielholz, A. (2008). Online-Kommunikation: Die Psychologie Der Neuen Medien Für Die Berufspraxis. Heidelberg: Springer Medizin Verlag. Kind, S., & Weide, S. (2017). Microtargeting: Psychometrische Analyse Mittels Big Data. Themenkurzprofil 18. Büro für Technikfolgen-Abschätzung beim deutschen Bundestag. Kollmann, T. (2013). Online-Marketing – Grundalgen der Absatzpolitik in der Net Economy (2. Aufl.). Stuttgart: Kohlhammer. Kosinski, M., Stillwell, D., & Graepel, T. (2013). Private traits and attributes are predictable from digital records of human behavior. Proceedings of the National Academy of Sciences, 110(15), 5802–5805. https://doi.org/10.1073/pnas.1218772110. Kotler, P., Lane Keller, K., Brady, M. K., Goodman, M., & Hansen, T. (2012). Marketing management. Harlow: Perason. Kreutzer, R. T. (2012). Praxisorientiertes online-marketing. Wiesbaden: Gabler. Kreutzer, R. T., Rumler, A., & Wille-Baumkauff, B. (2015). B2B-online-marketing und social media: ein Praxisleitfaden. Wiesbaden: Springer Gabler. Kroeber-Riel, W., & Gröppel-Klein, A. (2013). Konsumentenverhalten (10. Aufl.). München: Vahlen. Lambrecht, A., & Tucker, C. (2013). When does retargeting work? Information specificity in online advertising. Journal of Marketing Research, 50(5), 561–576. Lee, L., & Ariely, D. (2006). Shopping goals, goal concreteness, and conditional promotions. Journal of Consumer Research, 33(1), 60–70. Li, S., & Chatterjee, P. (2005). Reducing Shopping Cart Abandonment at Retail Websites, INFORMS Marketing Science Conference, University of Pittsburgh, Pittsburgh, June 2006. LinkedIn. o. J. LinkedIn Zielgruppenwerbung | LinkedIn Marketing Solutions. https:// business.linkedin.com/de-de/marketing-solutions/ad-targeting. Zugegriffen: 28. Juli 2019. Liu, L., Preotiuc-Pietro, D., Samani, Z. R., Moghaddam, M. E., & Ungar, L. (2016). Analyzing personality through social media profile picture choice. In: Tenth International AAAI Conference on Web and Social Media (ICWSM 10). https://www.aaai. org/ocs/index.php/ICWSM/ICWSM16/paper/view/13102. Marcus, B., Machilek, F., & Schütz, A. (2006). Personality in cyberspace: Personal web sites as media for personality expressions and impressions. Journal of Personality and Social Psychology, 90(6), 1014–1031. https://doi.org/10.1037/0022-3514.90.6.1014. Mark, M., & Pearson, C. S. (2001). The Hero and the outlaw. New York: Mc Graw-Hill. Matz, S. C. (2018). Psychological microtargeting could actually save politics. Wired UK, 20. Juli 2018. https://www.wired.co.uk/article/psychological-microtargeting-cambridgeanalytica-facebook. Zugegriffen: 28. Juli 2019. Matz, S. C., & Netzer, O. (2017). Using Big Data as a window into consumers’ psychology. Current Opinion in Behavioral Sciences, 18, 7–12. Matz, S. C., Kosinski, M., Nave, G., & Stillwell, D. J. (2017). Psychological targeting as an effective approach to digital mass persuasion. Proceedings of the National Academy of Sciences, 114(48), 12714–12719. https://doi.org/10.1073/pnas.1710966114. Matz, S. C., Kosinski, M., Nave, G., & Stillwell, D. J. (2018a). Reply to Eckles et al.: Facebook’s optimization algorithms are highly unlikely to explain the effects of psychological targeting. Proceedings of the National Academy of Sciences, 115(23), E5256– E5257. https://doi.org/10.1073/pnas.1806854115.

102

G. Hopf

Matz, S. C., Kosinski, M., Nave, G., & Stillwell, D. J. (2018b). Reply to Sharp et al.: Psychological targeting produces robust effects. Proceedings of the National Academy of Sciences, 115(34), E7891. https://doi.org/10.1073/pnas.1811106115. Moon, Y. (2002). Personalization and personality: some effects of customizing message style based on consumer personality. Journal of Consumer Psychology, 12(12), 313– 325. https://doi.org/10.1016/S1057-7408(16)30083-3. Mühling, J. (2007). Targeting: Zielgruppen Exakt Online Erreichen (8. Aufl.). München: Reinhard Fischer. Nave, G., Minxha, J., Greenberg, D. M., Kosinski, M., Stillwell, D., & Rentfrow, J. (2018). Musical preferences predict personality: evidence from active listening and facebook likes. Psychological Science, 29(7), 1145–1158. https://doi. org/10.1177/0956797618761659. Netflix. (2019). The Great Hack. Directed by Amer K., Noujaim J. Written by Amer K., Barnett E., Kos P. https://www.imdb.com/title/tt9358204/. Ozcelik, A. B., & Varnali, K. (2019). Effectiveness of online behavioral targeting: A psychological perspective. Electronic Commerce Research and Applications, 2019. Park, G., Schwartz, H. A., Eichstaedt, J. C., Kern, M. L., Kosinski, M., Stillwell, D. J., Ungar, L. H., & Seligman, M. E. P. (2015). Automatic personality assessment through social media language. Journal of Personality and Social Psychology, 108(6), 934–952. https://doi.org/10.1037/pspp0000020. Pinterest. o. J., Targeting-Übersicht. Pinterest help. https://help.pinterest.com/de/business/ article/targeting-overview. Zugegriffen: 28. Juli 2019. Psychometrics Centre. o. J., myPersonality database. Cambridge Judge Business School. https://www.psychometrics.cam.ac.uk/productsservices/mypersonality. Zugegriffen: 28. Juli 2019. Qiu, L., Lin, H., Ramsay, J., & Yang, F. (2012). You are what you tweet: personality expression and perception on twitter. Journal of Research in Personality, 46(6), 710– 718. https://doi.org/10.1016/j.jrp.2012.08.008. Reschke, J., Rennhak, C., & Kraft, P. (2017). Digitale Marketing-Kommunikation. In H. H. Jung & P. Kraft (Hrsg.), Digital vernetzt. Transformation der Wertschöpfung. Szenarien, Optionen und Erfolgsmodelle für smarte Geschäftsmodelle, Produkte und Services (S. 117–128). München: Hanser Verlag. Roesler, C. (2016). Das Archetypenkonzept C. G. Jungs: Theorie, Forschung und Anwendung. Stuttgart: Kohlhammer. Schiffman, L. G., & Kanuk, L. L. (2010). Consumer Behavior (10. Aufl.). London: Pearson Education. Schröter, R. (2017). So funktioniert psychografisches Targeting | W&V. W&V. https://www. wuv.de/marketing/so_funktioniert_psychografisches_targeting. Zugegriffen: 28. Juli 2019. Schröter, R. (2018). Mediaplus maßschneidert Botschaften für Mini | W&V. https://www. wuv.de/agenturen/mediaplus_massschneidert_botschaften_fuer_mini. Zugegriffen: 28. Juli 2019. Schwartz, H. A., Eichstaedt, J. C., Kern, M. L., Dziurzynski, L., Ramones, S. M., Agrawal, M., Shah, M., Kosinski, M., Stillwell, D., Seligman, M. E. P., & Ungar, L. H. (2013). Personality, gender, and age in the language of social media: The open-vocabulary

4  Psychografisches Targeting

103

approach. Herausgegeben von Tobias Preis. PLoS ONE, 8(9), e73791. https://doi. org/10.1371/journal.pone.0073791. Segalin, C., Perina, A., Cristani, M., & Vinciarelli, A. (2017). The pictures we like are our image: Continuous mapping of favorite pictures into self-assessed and attributed personality traits. IEEE Transactions on Affective Computing, 8(2), 268–285. https:// doi.org/10.1109/TAFFC.2016.2516994. Sharp, B., Danenberg, N., & Bellman, S. (2018). Psychological targeting. PNAS, 21, E7890. Simonson, I. (2005). Determinants of customers’ responses to customized offers: Conceptual framework and research propositions. Journal of Marketing, 69(1), 32–45. Snapchat. o. J., Snap Business. https://forbusiness.snapchat.com/advertising. Zugegriffen: 28. Juli 2019. Speck, P. S., & Elliott, M. T. (1997). Predictors of advertising avoidance in print and broadcast media. Journal of Advertising, 1997, 61–67. Tucker, C. E. (2014). Social networks, personalized advertising, and privacy controls. Journal of Marketing Research, 51(5), 546–562. van Doorn, J., & Hoekstra, J. C. (2013). Customization of online advertising: The role of intrusiveness. Marketing Letters, 24(4), 339–351. Walker Reczek, R., Summers, C., & Smith, R. (2016). Targeted ads don’t just make you more likely to buy — They can change how you think about yourself. Harvard Business Review. Yarkoni, T. (2010). Personality in 100,000 words: A large-scale analysis of personality and word use among bloggers. Journal of Research in Personality, 44(3), 363–373. https:// doi.org/10.1016/j.jrp.2010.04.001. Yoon, S.-O., & Simonson, I. (2008). Choice set configuration as a determinant of preference attribution and strength. Journal of Consumer Research, 35(2), 324–336. YouTube. o. J., Ausrichtung von Videoanzeigen – YouTube-Hilfe. https://support.google. com/youtube/answer/2454017. Zugegriffen: 28. Juli 2019. Youyou, W., Kosinski, M., & Stillwell, D. (2015). Computer-based personality judgments are more accurate than those made by humans. Proceedings of the National Academy of Sciences, 112(4), 1036–1040. https://doi.org/10.1073/pnas.1418680112. Zhao, S., Grasmuck, S., & Martin, J. (2008). Identity construction on Facebook: Digital empowerment in anchored relationships. Computers in Human Behavior, 24, 1816–1836.

Gregor Hopf  ist  Professor für die „Digitalisierung der Wirtschaft“ an der Dualen Hochschule Baden-Württemberg. Am Standort Ravensburg leitet er den Studiengang Medien- und Kommunikationswirtschaft. Seine fachlichen Schwerpunkte liegen in den Auswirkungen der digitalen Transformation auf Geschäftsmodelle und auf den Anforderungen erfolgreicher Unternehmenskommunikation in den Online-Medien. Prof. Dr. Gregor Hopf leitete bis April 2016 die Geschäftsstelle Digitalisierung im Staatsministerium BadenWürttemberg, die alle Aspekte der Digitalisierung in Wirtschaft und Gesellschaft für die Landesregierung Baden-Württemberg koordinierte. Seine Promotion erlangte er an der London School of Economics and Political Science.

5

Programmatic Advertising – Möglichkeiten und Grenzen bei Display-Advertising am Beispiel hedonistischer und utilitaristischer Produkte Goetz Greve und Mareike Scheibe Inhaltsverzeichnis 5.1 Relevanz von Programmatic Advertising im Online Marketing. . . . . . . . . . . . . . . 5.2 Definition und Funktionsweise des Programmatic Advertising. . . . . . . . . . . . . . . . 5.3 Wirkung von Display Advertising. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.1 Gemessene Effekte von Display-Werbung . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.2 Determinanten des Erfolgs von Display Advertising. . . . . . . . . . . . . . . . . . 5.4 Grenzen des Programmatic Advertising bei Display Advertising. . . . . . . . . . . . . . 5.5 Kontexteffekte als beeinflussende Größen der Werbewirkung . . . . . . . . . . . . . . . . 5.6 Merkmale hedonistischer und utilitaristischer Produkte. . . . . . . . . . . . . . . . . . . . . 5.7 Auswirkungen der Website-Tonalität bei hedonistischen und utilitaristischen Produkten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.8 Implikationen der Studie und Schlussfolgerungen für das Programmatic Advertising. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

106 107 109 110 111 114 115 118 122 125 128

G. Greve (*) · M. Scheibe  HSBA Hamburg School of Business Administration, Hamburg, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 S. Boßow-Thies et al. (Hrsg.), Data-driven Marketing, https://doi.org/10.1007/978-3-658-29995-8_5

105

106

G. Greve und M. Scheibe

Zusammenfassung

Programmatic Advertising nimmt bei der Aussteuerung von Display Advertising im Online-Marketing eine zunehmend bedeutende Stellung ein. Diese Entwicklung gründet auf Effizienzgewinnen und Kosteneinsparungen. Allerdings zeigt die Analyse bestehender empirischer Forschung zur Wirkungsweise von Display Advertising, dass bei der Platzierung von Display Advertising insbesondere auch dem Kontext und der Tonalität einer Website, auf der ein Display Banner platziert wird, Beachtung geschenkt werden sollte. Der folgende Beitrag gibt einen Überblick über die Funktionsweise von Programmatic Advertising und untersucht die Werbewirkung von Display Advertising. Besondere Beachtung wird der Untersuchung des Einflusses der Tonalität einer Website auf die Werbewirksamkeit von Display Advertising für hedonistische und utilitaristische Güter geschenkt, um darauf aufbauend Möglichkeiten und Grenzen des Programmatic Advertising zu diskutieren.

5.1 Relevanz von Programmatic Advertising im Online Marketing Digitale Werbung wird heutzutage immer wichtiger. Die weltweiten Ausgaben steigen von 283 Mrd. US$ im Jahr 2018 auf voraussichtlich 518 Mrd. US$ im Jahr 2023 (Enberg 2019). Für Deutschland schätzt die Mediaagentur Zenith Ausgaben von 6 Mrd. Euro (Puscher 2019, S. 44). Während ein wachsender Anteil des Mediabudgets in digitale Werbung investiert wird, sind die Wirkungsweisen digitaler Werbung und inwieweit diese das Verbraucherverhalte tatsächlich beeinflussen, weiterhin unklar (Hoban und Bucklin 2015, S. 375). Digitale Werbung bezieht sich dabei auf verschiedene Formen von Online-Medien, wie z. B. „kommerzielle Inhalte, die von Sponsoren bezahlt werden und für das Publikum bestimmt sind und per Video, Print, Audio, Grafik oder Animation geliefert werden“ (Wolin et al. 2002, S. 88). In diesem Zusammenhang revolutioniert Programmatic Advertising die Verarbeitung digitaler Werbung. Programmatic Advertising soll Unternehmen einen deutlichen Wettbewerbsvorteil verschaffen, insbesondere wenn es an bestehende Customer Relationship Management-Systeme angebunden ist (Lambrecht und Tucker 2013; Hachen und Bardega 2016; Seitz und Zorn 2016). Derzeit entfallen

5  Programmatic Advertising

107

31,5 % der gesamten digitalen Marketingausgaben auf Programmatic Display Advertising (Puscher 2019, S. 44). Trotz der zunehmenden und raschen Akzeptanz von Programmatic Advertising gibt es nur sehr wenig wissenschaftliche Literatur, die dieses aufkommende Phänomen untersucht. Die wenigen vorhandenen Studien konzentrieren sich tendenziell auf diskrete Aspekte des Programmatic Advertising, einschließlich der Reaktionen der Verbraucher, der Ethik, des betrügerischen Webverkehrs und der Anwendung von Programmatic Advertising im Fernsehen, vernachlässigen jedoch die Untersuchung des Systems als Ganzes (Aguirre et al. 2015; Bush 2016; Fulgoni 2016; Deng und Mela 2018; Malthouse et al. 2018). Dies ist problematisch, da es sich bei Programmatic Advertising um ein komplexes soziotechnisches System handelt (Baxter und Sommerville 2011), und es sind Forschungsarbeiten erforderlich, die die eng miteinander verbundenen Elemente untersuchen (Brosche und Kumar 2016; Gertz und McGlashan 2016; Seitz und Zorn 2016; Gangadharbatla et al. 2017). Die Popularität von Programmatic Advertising, die sich in seiner schnellen Akzeptanz und Fülle bei Websuchen zeigt, unterstreicht seine Bedeutung als Forschungsgegenstand. Das jüngste Auftreten von Kritik an den Fähigkeiten von Programmatic Advertising deutet jedoch darauf hin, dass das Programmatic Advertising den Höhepunkt eines typischen Hype-Zyklus erreicht hat und ein rascher Rückgang bevorstehen könnte (Scharrer 2019; White und Samuel 2019). Seitz und Zorn (2016) folgern, dass die Programmatic Advertising-Branche derzeit mit einer Phase der Hemmung und der Unsicherheit konfrontiert ist. Entsprechend wichtig ist es daher, die Wirkungsweise von Programmatic Advertising zu erforschen.

5.2 Definition und Funktionsweise des Programmatic Advertising Programmatic Advertising, auch programmatische Werbung genannt, ist eine relativ neue, datengetriebene Auslieferung von Werbemitteln, die große Datenmengen verwendet, um stark personalisierte Werbung an zu verbreiten. Die Technik wurde ursprünglich in der webbasierten Werbung eingesetzt und findet weitergehende Anwendung in den Bereichen Film, Fernsehen, Apps, Spiele und Treueprogramme (Gertz und McGlashan 2016; Seitz und Zorn 2016; Deng und Mela 2018; Malthouse et al. 2018). Programmatic Advertising hat die Art und Weise, wie Werbung betrieben wird, radikal verändert (Li et al. 2002; Seitz und Zorn 2016) und kann die Kosten und das Risiko von Werbung erheblich senken (Lambrecht

108

G. Greve und M. Scheibe

und Tucker 2013; Aguirre et al. 2015; Bleier und Eisenbeiss 2015). Grundsätzlich handelt es sich bei Programmatic Advertising um ein datengesteuertes System, das es ermöglicht, Werbeflächen in Echtzeit auf Basis von Geboten in Echtzeit (sog. Real Time Bidding) bereit zu stellen, um potenziellen Kunden personalisierte Marketingmaterialien auszuspielen (Aguirre et al. 2015; Bush 2016; Funk und Nabout 2016; Gertz und McGlashan 2016; Waesche et al. 2016). Programmatic Advertising besteht systemseitig aus mehreren Plattformen und Akteuren. Datenverwaltungsplattformen (Data Management Platforms, DMPs) analysieren Kunden anhand ihrer Surfgewohnheiten, ihres Einkaufsverlaufs und ihrer persönlichen Vorlieben, normalerweise anhand von Daten, die als „Cookies“ gespeichert sind. Andere Daten können ebenfalls verwendet werden, wie beispielsweise der GPS-Standort, aktuelle Aktivitäten und Wetterbedingungen. Display-Anzeigen werden bei Programmatic Advertising über einen automatisierten Prozess zwischen einer nachfrageseitigen Demand-Side-Plattform („DSP“) und einer angebotsseitigen Supply-Side-Plattform („SSP“) verkauft (Münstermann und Würtenberger 2016, S. 31). In diesem komplexen Bieterverfahren wird der Preis für einen Werbeplatz in Echtzeit zwischen den beiden Plattformen ausgehandelt, was zu einer automatisierten Zustellung der Anzeige führt, die die Auktion gewonnen hat. Daher beschreibt Programmatic Advertising die „Automatisierung von Kauf- und Auslieferungsprozessen in der digitalen Werbung“ (Münstermann und Würtenberger 2016, S. 31). Digitales Inventar (d. h. digitale Werbefläche, zum Beispiel für Banner- oder Videoanzeigen) wird per Auktion per Real-Time-Bidding (RTB) in Echtzeit an den Höchstbietenden verkauft, der zum Beispiel basierend auf demografischen Merkmalen (z. B. Geschlecht oder Alter) und Verhaltensweisen (z. B. Verhalten beim Surfen im Internet in der Vergangenheit oder frühere Suchanfragen) bietet (Bush 2016; Schafer und Weiss 2016). Entsprechend kaufen Marketingspezialisten nicht mehr selektiv Platzierungen, sondern setzen auf einen automatisierten Prozess (vgl. Abb. 5.1). Programmatic Advertising kann somit als automatisiert, vernetzt, regelbasiert und weitgehend standardisiert zusammengefasst werden (Buddenberg 2017, S. 304). Experten prognostizieren Programmatic Advertising eine erfolgreiche Zukunft, die jedoch noch vor einigen Hürden steht. Um die Möglichkeiten von Programmatic Advertising voll auszuschöpfen, müssen Manager ihren Fokus auf Kanäle und Formate außerhalb der Bannerwerbung ausdehnen, darunter beispielsweise Social Media und Native Advertising (Seitz und Zorn 2016, S. 37). Es wird daher empfohlen, dem Nutzer selbst, seiner Customer Journey und auch dem jeweiligen Kommunikationskontext mehr Aufmerksamkeit zu schenken (Seitz und Zorn 2016, S. 37). Vielfach findet Programmatic Advertising bei der Aussteuerung von Display Advertising Anwendung.

5  Programmatic Advertising

Werbetreibender

MediaAgentur oder In-HouseTeam

Ad Network Adverser Ad Server

109 Buy-Side

Sell-Side

Demand-SidePlaorm

Sell-SidePlaorm

RTB Client

RTB Server

Bidder Service

Aucon Service

Data Management Plaorm

Data Broker

Konsument

Ad Network

Publisher

Publisher Ad Server

Abb. 5.1   Programmatic-Advertising-System. (Quelle: eigene Darstellung in Anlehnung an o. V. 2019)

5.3 Wirkung von Display Advertising Display Advertising wird grundsätzlich als Platzierung von grafischen Werbemitteln auf Webseiten oder mobilen Endgeräten zu kommerziellen Zwecken bezeichnet. Zur Durchführung einer Display-Advertising-Kampagne stellt ein Publisher seine Ressourcen (Website, AdServer) einem Werbetreibenden zur Verfügung, um die Werbung auszuspielen. Display Advertising nutzt insbesondere Grafiken, Textlinks, Animationen oder Videos. Ziel des Display Advertising liegt vor allem in der Steigerung der Markenbekanntheit und der Reichweite. Aufgrund der Klickbarkeit der Display Ads gilt das Erzielen von weitergehenden Leads oder Conversions als weiteres Ziel (Ahrholdt et al. 2019). Aus funktionaler Sicht kann Display Advertising in die folgenden Gruppen eingeteilt werden: Bannerwerbung, Rich Media und digitales Video. Mehr als die Hälfte der Einnahmen aus Display Advertising stammen dabei aus klassischer Bannerwerbung (Buddenberg 2017, S. 287). Bannerwerbung enthält statische oder bewegte Bilder, die in eine Website integriert sind. Rich Media baut auf neueren Technologien auf, mit denen effektivere Werbematerialien erstellt werden können, die vor oder hinter der Website platziert werden oder deren ursprüngliche Größe überschritten wird (z. B. Overlay-Anzeigen oder Expandables). Zu den Rich-Media-Inhalten zählen außerdem kurze Flash-Animationen oder

110

G. Greve und M. Scheibe

Filmsequenzen. Wenn im Display Advertising auf ein digitales Video Bezug genommen wird, bedeutet dies in der Regel In-Stream-Videoanzeigen, die in Videoinhalten platziert und in einem Videoplayer wiedergegeben werden. Marketingfachleute unterscheiden zwischen linearen und nichtlinearen Videoanzeigen. Während lineare Anzeigen vor, zwischen oder nach dem Videoinhalt (Pre-, Mid- oder Post-Roll) geschaltet werden, werden nicht lineare Videoformate parallel zum eigentlichen Videoinhalt geschaltet. Hierbei überlappen nichtlineare digitale Videoanzeigen entweder einen Teil des Videoinhalts (Overlay-Anzeigen) oder rahmen den tatsächlichen Videoplayer (Branded Player) ein (Buddenberg 2017, S. 289).

5.3.1 Gemessene Effekte von Display-Werbung Trotz der wachsenden Investitionen in das Display Advertising haben Manager immer noch häufig Zweifel hinsichtlich der Wirksamkeit von Display Advertising und fragen sich, ob es das Verbraucherverhalten tatsächlich beeinflusst (Hoban und Bucklin 2015, S. 375). Dennoch kommen zahlreiche empirische Studien zu tendenziell positiver Bewertung der Wirksamkeit von Display Advertising: Eine empirische Analyse der Auswirkungen von Display Advertising auf das Online-Verbraucherverhalten hat gezeigt, dass die Exposition gegenüber Display Advertising das Interesse der Nutzer an der beworbenen Marke und dem beworbenen Produkt steigert. Es wurde gezeigt, dass Verbraucher sowohl aktiv (z. B. direkter Besuch der Website des Werbetreibenden) als auch passiv (z. B. Suchmaschinenanfragen) nach Informationen suchen, nachdem sie der Werbung ausgesetzt wurden (Ghose und Todri-Adamopoulos 2016, S. 907). Darüber hinaus zeigten die Forscher, dass Display Advertising die Kaufbereitschaft der Verbraucher erhöht; außerdem wurde festgestellt, dass die Werbewirkung vervielfacht werden kann, wenn die Verbraucher in einer früheren Phase des Kaufentscheidungsprozesses angesprochen werden (Ghose und Todri-Adamopoulos 2016, S. 907). Eine weitere Studie von Hoban und Bucklin (2015) untersuchte auch die Auswirkungen von Display Advertising auf Konsumenten in verschiedenen Phasen des Kaufentscheidungsprozesses. Die Forscher teilten den Prozess in vier Phasen ein, wobei sie zwischen Nicht-Besuchern, Besuchern, authentifizierten Benutzern und konvertierten Kunden unterschieden (Hoban und Bucklin 2015, S. 375). Interessanterweise konnten die Forscher einen kleinen, positiven und signifikanten Effekt des Display Advertising für drei der vier untersuchten Phasen feststellen (Hoban und Bucklin 2015, S. 390). Für

5  Programmatic Advertising

111

­ ichtbesucher, authentifizierte Benutzer und konvertierte Kunden war ein Effekt N nachweisbar. Lediglich für frühere Besucher, die zunächst keine identifizierenden Informationen zur Verfügung stellten, war keine Auswirkung auf das Verhalten messbar. Im Hinblick auf die Effektivität von Online-Werbung wurde außerdem festgestellt, dass die Anpassung einer Anzeige zum Website-Inhalt und die Erhöhung der Auffälligkeit der Anzeige (z. B. in Form von Pop-ups oder Videos) unabhängig voneinander zu einer Erhöhung der Kaufabsicht führen können. Eine Kombination dieser beiden Faktoren – also Anzeigen, die zum Inhalt passen und aufdringlich sind – hebt jedoch den positiven Effekt auf, den jede Strategie unabhängig für die Kaufabsicht hat. Daher schließen sich die beiden Ansätze aus (Goldfarb und Tucker 2011, S. 390). Die Forscher schlagen vor, dass der negative Effekt der Kombination von Targeting und Auffälligkeit von Datenschutzbedenken der Nutzer herrührt. Während sie im Allgemeinen kontextbezogene Anzeigen tolerieren, da sie nutzerrelevantere Informationen liefern, wird durch die Aufdringlichkeit dieser Anzeigen eine Manipulationsvermutung durch den Nutzer erhöht (Goldfarb und Tucker 2011, S. 400). Da viele Anzeigen heute kontextbezogen und gleichzeitig gut sichtbar sind, ist dies eine wichtige Erkenntnis mit potenziell großer Auswirkung für Werbetreibende (Goldfarb und Tucker 2011, S. 390).

5.3.2 Determinanten des Erfolgs von Display Advertising Viele Studien setzen sich mit der negativen Einstellung der Nutzer zu ­Online-Werbung auseinander. Während Marketingmanager wachsende Budgets in diese Medien investieren, müssen sie sich auch möglicher negativen Wirkungen bewusst sein, die mit Display Advertising verbunden sein können. Im Allgemeinen wurde festgestellt, dass sich Benutzer durch Display Advertising stark gestört und abgelenkt fühlen (Cho und Cheon 2004; McCoy et al. 2007). Dabei wurde festgestellt, dass sich die Exposition gegenüber Werbung negativ auf die Verhaltensabsichten der Nutzer auswirkt. Tatsächlich wurde untersucht, dass Nutzer, die keiner Form von Display Advertising ausgesetzt waren, mit 11 % höherer Wahrscheinlichkeit auf die Website zurückkehren oder diese anderen Nutzern empfehlen, als Nutzer, die Werbung gesehen haben (McCoy et al. 2007, S. 86). Folglich kann sich die Ausspielung von Werbung in irgendeiner Form negativ auf die Entscheidung auswirken, zu der bestimmten Website zurückzukehren, auf der Anzeigen integriert werden. Bei den verschiedenen Anzeigen-

112

G. Greve und M. Scheibe

formaten wurde festgestellt, dass die Akzeptanz von Display Advertising bei den Nutzern weitgehend von der Eindringlichkeit des Formats abhängt. Während Pop-Ups oder Pop-Unders als aufdringlicher angesehen wurden, da sie zu einer Unterbrechung und Beeinträchtigung der Internetnutzung des Nutzers führten, wurden Bannerwerbungen als weniger aufdringlich und damit als akzeptierter eingestuft (McCoy et al. 2007, S. 87). Diese Feststellung steht teilweise im Widerspruch zu der zuvor zitierten Studie von Goldfarb und Tucker (2011), in der festgestellt wurde, dass auffälliges Display Advertising zu einer Erhöhung der Kaufabsicht führt. In ähnlicher Weise untersuchten auch Cho und Cheon (2004) die möglichen negativen Trends in der Online-Werbung und untersuchten die Vermeidung von Werbung im Internet. Seit dem Aufkommen von Bannerwerbung im Jahr 1994 hat sich gezeigt, dass die Klickraten (Click-through-Rate – CTR) von durchschnittlich 2 % im Jahr 1995 auf heute deutlich unter 1 % gesunken sind (Cho und Cheon 2004, S. 89). Dementsprechend zeigt eine weitere Studie, die auf Eye-Tracking-Analysen aufbaut, dass Benutzer es tatsächlich vermeiden, Bannerwerbung während ihrer Online-Aktivitäten zu betrachten. Es hat sich gezeigt, dass die Wahrscheinlichkeit, dass eine Bannerwerbung gesehen wird, nur etwa 50 % beträgt (Drèze und Hussherr 2003, S. 20). Ein Faktor, der möglicherweise zur Vermeidung von Werbung im Internet beiträgt, ist die Tatsache, dass das Internet deutlich ziel- oder informationsorientierter ist als herkömmliche Medien. Aufgrund des funktionalen Charakters des Online-Mediums neigen Verbraucher folglich dazu, Werbung, die als unerwünscht empfunden wird, negativ zu bewerten (Li et al. 2002, S. 37). Zusätzlich sind Nutzer durch die Vielzahl an Werbung, die sie im Internet ausgespielt bekommen, Online Werbung gegenüber eher abgeneigt, was wiederum zu einer verringerten Wirksamkeit von Display Advertising führen kann (Cho und Cheon 2004, S. 93). Darüber hinaus sind negative Erfahrungen mit Display Advertising in der Vergangenheit und eine vermeintlich geringe Nützlichkeit dieser Anzeigen weitere Treiber für die Vermeidung von Werbung im Internet. Daher führt die Unzufriedenheit mit früheren Werbediensten dazu, dass Menschen Werbung im Internet bewusst oder unbewusst vermeiden (Cho und Cheon 2004, S. 93). In Bezug auf die Auswirkungen von Display Advertising wurde weiter untersucht, ob sich die Auswirkungen bei männlichen und weiblichen Nutzern unterscheiden. Tatsächlich zeigten Studien, dass Männer eine positivere Einstellung zu Online-Werbung haben und eher Online-Einkäufe tätigen. Während Männer häufiger aus Gründen der Funktionalität und Unterhaltung surfen, wurde festgestellt, dass Frauen häufiger auf Einkaufsseiten surfen (Wolin und Korgaonkar 2003, S. 383). Darüber hinaus deuten die Ergebnisse der durchgeführten Studie

5  Programmatic Advertising

113

darauf hin, dass Werbemodelle für traditionelle Medien möglicherweise auch auf Display Advertising anwendbar sind (Wolin und Korgaonkar 2003, S. 383). Mit Blick auf das Online-Verbraucherverhalten im Allgemeinen kann ferner festgestellt werden, dass die Aktivitäten bei Männern und Frauen unterschiedlich sind. Während Männer beim Surfen auf einer Website weniger exploratives Verhalten zeigen, entwickeln Frauen eine stärkere Beteiligung an der Website (Richard et al. 2010, S. 926). Als wesentliche Faktoren für die Website-Haltung von Männern und Frauen wurden jedoch Unterhaltung, Herausforderung und die Effektivität des Informationsinhalts herausgestellt. Dennoch führten verschiedene Gründe zu einer wachsenden Bedeutung der Display-Werbung im heutigen Medienmix. Zu diesen Faktoren zählen die Möglichkeit, bestimmte Kundengruppen effektiv anzusprechen, die im Vergleich zu herkömmlichen Medien deutlich geringeren Produktionskosten oder die sich kontinuierlich verbessernden Möglichkeiten eines präzisen Behavioural Targeting (Buddenberg 2017, S. 286). Ursprünglich wurde Display-Werbung ähnlich wie traditionelle Werbung verarbeitet, beispielsweise in Printmedien. Marketingmanager buchten bestimmte Anzeigenplatzierungen direkt beim Verlag und wussten genau, auf welchen Websites ihre Anzeigen geschaltet wurden. In letzter Zeit hat die gezielte Werbung sowohl für Online Publisher als auch für Werbetreibende an Relevanz gewonnen. Mithilfe von Targeting-Technologien können Anzeigen nur denjenigen Nutzern präsentiert werden, die mit dem jeweiligen Produkt gut übereinstimmen, z. B. aufgrund ihres früheren Browserverhaltens, des Standorts der IP-Adresse ihres Computers oder ihrer Suchmaschinenabfragen der letzten Monate (Greve et al. 2011, S. 8; Chen und Stallaert 2014, S. 429; Boerman et al. 2017, S. 363). Mithilfe von Cookies (kleine Textdateien, die von Websites auf einem Computer installiert werden) können detaillierte Daten über das Online-Verhalten und die Online-Aktionen einer Person erfasst werden (Chen und Stallaert 2014, S. 430). Dabei zielt das sogenannte Behavioural Targeting darauf ab, zielgerichtete Werbung für die relevanten Verbraucher bereitzustellen und dadurch die Wirksamkeit der Werbung zu erhöhen. Behavioural Targeting kann dabei definiert werden als „die Praxis, das Online-Verhalten von Menschen zu überwachen und die gesammelten Informationen zu verwenden, um individuell ausgerichtete Werbung für Menschen anzuzeigen“ (Boerman et al. 2017, S. 364). In diesem Zusammenhang wurde unter anderem festgestellt, dass durch die Verwendung von Behavioural Targeting die Click-Through-Rate einer Werbung um bis zu 670 % gesteigert werden kann (Yan et al. 2009, S. 266).

114

G. Greve und M. Scheibe

5.4 Grenzen des Programmatic Advertising bei Display Advertising Während Programmatic Advertising die Effizienz beim Kauf von Medien steigert, bedeutet die Automatisierung immer einen gewissen Kontrollverlust für Werbetreibende, die den Kauf von digitalen Werbeplätzen Maschinen überlassen. Das Volumen der programmatischen Werbeausgaben wird voraussichtlich von 19 Mrd. US$ im Jahr 2016 auf 42 Mrd. US$ im Jahr 2020 ansteigen. Bis dahin werden voraussichtlich 57 % aller Transaktionen in Zusammenhang mit Display Advertising programmatisch bzw. automatisiert getätigt (Magna 2016, S. 6). Wenngleich Experten eine wachsende Bedeutung von Programmatic Advertising prognostizieren – nicht nur im Webumfeld, sondern auch beispielsweise im digitalen Out-of-Home-Kontext – stehen sie noch vor einigen Herausforderungen (Seitz und Zorn 2016, S. 45). In dieser Hinsicht ist der datengetriebene Ansatz ein möglicher Nachteil des programmatischen Medienkaufs. Zwar führt dies zu einer Optimierung der Effizienz, doch Marketingmanager verfolgen neben den Kosteneinsparungen auch andere Ziele. Sie befassen sich beispielsweise mit Aspekten wie dem Aufbau eines positiven Markenimages oder der Erhöhung der Kaufabsicht. Ein möglicher Nachteil der jüngsten technologischen Fortschritte des Programmatic Advertising ist der datengetriebene Charakter. Dies kann zwar zu starken Effizienzoptimierungen führen, wird jedoch hauptsächlich von Indikatoren wie der Klickrate oder den gelieferten Impressionen bestimmt, die für die klassische Markenführung nicht oder kaum geeignet sind (Buddenberg 2017, S. 304). In diesem Zusammenhang hängt die richtige Platzierung einer Anzeige möglicherweise nicht nur von den Einstellungen für das Behavioural Targeting ab, sondern auch von Kontextfaktoren, die derzeit nicht in den automatisierten Gebotsverfahren berücksichtigt werden (z. B. Norris und Colman 1992; Gunter et al. 1997; De Pelsmacker et al. 2002). Targeting und Kontextplanung müssen sich jedoch nicht unbedingt ausschließen oder widersprechen, sondern können bei der Integration zu vielversprechenden Ergebnissen führen. Um die Relevanz des Kontextes einer Werbeplatzierung besser zu verstehen, soll weitergehend erörtert werden, ob sich die Tonalität einer Website auf die Einstellung der Verbraucher zur angezeigten Werbung auswirkt. Hierzu ist es hilfreich, zunächst die Treiber der Werbewirkung im Display Advertising zu untersuchen.

5  Programmatic Advertising

115

5.5 Kontexteffekte als beeinflussende Größen der Werbewirkung Als erste Erfolgsfaktoren werden Medienauswahl und Kontext analysiert. Unter Medienauswahl versteht man dabei die entsprechende Auswahl des richtigen Werbeträgers/Mediums (Ansari und Riasi 2016, S. 27). Der Medienkontext berücksichtigt dagegen „die Merkmale des Inhalts des Mediums, in das eine Anzeige eingefügt wird“, wie beispielsweise Artikel in einer Zeitschrift oder das Fernsehprogramm, das einen TV-Spot umgibt (De Pelsmacker et al. 2002, S. 49). Ansari und Riasi stellten in ihrer Studie fest, dass die Medienauswahl den größten Einfluss auf die Werbewirkung hat (Ansari und Riasi 2016, S. 20). Diese Verbindung wird auch durch Untersuchungen von De Pelsmacker et al. (2002, S. 49) gestützt, die zeigten, dass die Wahl eines relevanten Medienkanals für eine Anzeige zu einer positiveren Einstellung gegenüber dieser führt. Wertschätzung bezieht sich dabei auf das Ausmaß, in dem der Verbraucher den Medienkontext interessant oder langweilig findet und wieder ähnlichen Kontexten ausgesetzt sein möchte (De Pelsmacker et al. 2002, S. 51). Darüber hinaus zeigte die Studie, dass eine Kongruenz zwischen Werbung und Kontext die Werbewirksamkeit für HighInvolvement Produktkategorien fördert, während ein Kontrast zwischen Werbung und Kontext zu besseren Ergebnissen für Low-Involvement Produkte führt (De Pelsmacker et al. 2002, S. 59). Die Faktoren Kongruenz und Kontrast wurden in Form einer Ähnlichkeit oder Unähnlichkeit zwischen dem Medienkontextstil und dem Anzeigenstil bewertet (De Pelsmacker et al. 2002, S. 50). Aus dieser Studie lässt sich ableiten, dass Marketingfachleuten empfohlen wird, das Medienumfeld für ihre Werbekampagnen sorgfältig auszuwählen. In Bezug auf die Auswirkung der Medienauswahl kann somit festgestellt werden, dass die Wahl eines Mediums bereits Auswirkungen auf die Wirksamkeit einer Werbung haben kann. Diese Wahl sollte auf der Grundlage des verfügbaren Werbemittels getroffen werden, da mittels Experiments untersucht wurde, dass genau dasselbe Werbemittel bei der Präsentation in Print- oder OnlineFormaten zu erheblich unterschiedlichen Reaktionen führt (Gallagher et al. 2001, S. 68). Um die Ergebnisse ihres Experiments zu erläutern, schlagen die Forscher vor, dass Web Nutzer mehr Kontrolle und einen höheren Informationsgrad (zum Beispiel über Links zu verwandten Materialien) erwarten als Print-Leser. Infolgedessen wird Marketingmanagern empfohlen, ihre Werbung immer auf der Grundlage der ausgewählten Zielmedien zu erstellen oder die Medien auf der Grundlage des verfügbaren Materials auszuwählen. In jedem Fall müssen diese beiden Faktoren für eine erfolgreiche Werbung aufeinander abgestimmt sein.

116

G. Greve und M. Scheibe

Zahlreiche Studien untersuchten auch den Einfluss des direkten Kontextes einer Werbung auf den Werbeerfolg (z. B. Goldberg und Gorn 1987; Murry et al. 1992; Norris und Colman 1993; Gunter et al. 1997; De Pelsmacker et al. 2002; Calder et al. 2009). Im Zusammenhang mit Fernsehwerbung wurde festgestellt, dass sich die Programmbewertung auf die Fähigkeit des Zuschauers auswirkt, sich an die in der Mitte der Sendung platzierten Anzeigen zu erinnern. Es wurde zwar keine Auswirkung auf den gesamten Programminhalt gemessen, jedoch wurde festgestellt, dass sich das Einbeziehen des Publikums in das Programm negativ auf die Werbeerinnerung auswirkte. Diesbezüglich führte eine größere Sympathie für ein Programm, eine stärkere Beteiligung daran und auch eine stärker wahrgenommene Glaubwürdigkeit des Inhalts dazu, dass die in der Mitte platzierte Werbung weniger häufig erinnert wurde (Gunter et al. 1997, S. 549). In einer anderen Studie zum Kontext von Online-Werbung wurde untersucht, dass sich Engagement und Interaktion der Nutzer mit dem Inhalt einer Website positiv auf den Werbeerfolg innerhalb dieser Site auswirkt (Calder et al. 2009, S. 321). Neben dem Kontext hat sich auch der Inhalt und das Design einer Anzeige als erfolgswirksam erwiesen. In der Werbeforschung hat sich beispielsweise gezeigt, dass Emotionen einen Einfluss auf die Werbewirkung haben. Emotionaler Inhalt kann in Vergnügen, Erregung und Dominanz eingeteilt werden, die jeweils positiv (z. B. Freude, Vitalität, Kompetenz) oder negativ (z. B. Traurigkeit, Überstimulation, Sinnlosigkeit) sein können (Holbrook und O’Shaughnessy 1984, S. 53 f.). Bei der Analyse der Angstgefühle wurde festgestellt, dass Kommunikation, die einen Angstappell beinhaltet, bei den Empfängern zu Erregung führt. Angst wird dabei als Handlungstreiber gesehen – das Aussetzen gegenüber bedrohlichen Inhalten motiviert die Konsumenten, nach Antworten zu suchen, die diese Angst mindern, weshalb Schutzmaßnahmen wirksam empfohlen werden können (De Hoog et al. 2007, S. 259). In einer Meta-Analyse zur überzeugenden Wirkung von Angst-Appellen wurde festgestellt, dass Botschaften, die eine extreme Angst auslösen, nicht wirksamer sind als Botschaften, die lediglich die negativen Folgen einer Handlung veranschaulichen. Dabei muss eine wirksame, angstauslösende Kommunikation nicht so bedrohlich wie möglich sein, sondern sicherstellen, dass sich die Rezipienten für das dargestellte Risiko anfällig fühlen (De Hoog et al. 2007, S. 280). Darüber hinaus wird Humor auch häufig in der Werbung eingesetzt (Weinberger und Gulas 1992, S. 35). Es wurde festgestellt, dass Humor Aufmerksamkeit erregt und die Akzeptanz fördert. Die Forscher untersuchten jedoch auch, dass dies nicht zu einer Zunahme der Überzeugungskraft führt (Weinberger und Gulas 1992, S. 56). Da sich die Produktkategorie auf die Angemessenheit des Humors in der Werbung auswirkt, ist Humor nicht universell anwendbar und eher für wenig engagierte und

5  Programmatic Advertising

117

g­efühlsorientierte Waren geeignet. Daher muss Humor sorgfältig angewendet werden (Weinberger und Gulas 1992, S. 57). Hinsichtlich der kreativen Gestaltung einer Werbung zeigte sich, dass die visuelle Komplexität der Werbung die Aufmerksamkeit fördern und die Einstellung des Verbrauchers zum beworbenen Produkt beeinflussen kann (Pilelienė und Grigaliūnaitė 2016, S. 489). In einem Experiment wurde festgestellt, dass sich der Grad der Layoutkomplexität der Werbung auf die Zeit auswirkt, die für die Verarbeitung der Werbung erforderlich ist (Pilelienė und Grigaliūnaitė 2016, S. 491). Die Ergebnisse deuten darauf hin, dass eine geringe Komplexität des Layouts eine Steigerung der Markenbekanntheit ermöglicht, während sich eine hohe Komplexität positiv auf die Einstellung und das Verhalten auswirkt (Pilelienė und Grigaliūnaitė 2016, S. 497). Entsprechend hängt der empfohlene Komplexitätsgrad vom verfolgten Ziel ab. Die durchgeführte Literaturrecherche lässt darauf schließen, dass sich die Tonalität einer Website auf die Einstellung zu den angezeigten Werbeanzeigen auswirken kann. So kann auf Basis des Stimulus-Organism-Response-Modells angenommen werden, dass Verbraucher auf Reize mit einer emotionalen Reaktion reagieren, die zu einer Verhaltensreaktion führt (Mehrabian und Russel 1974, S. 8; Felser 2015, S. 9; Hoffmann und Akbar 2016, S. 157). Die Verhaltensreaktion auf Basis der wahrgenommenen Stimuli kann entweder eine Akzeptanzoder Vermeidungsreaktionen des Verbrauchers auslösen (Vieira 2013, S. 1421). Für diesen Beitrag kann daher argumentiert werden, dass der Stimulus nicht nur aus dem Display Advertising selbst besteht, sondern auch die Umgebung einschließt – also die Website, in die die Anzeige eingebettet ist, einschließlich ihrer Tonalität und ihres Inhalts. Während die emotionalen Reaktionen von Verbraucher zu Verbraucher variieren, ist anzunehmen, dass ein positiver Reiz zu einer positiveren Reaktion führt, während ein negativer Reiz eine eher negative Reaktion auslöst. Dies entspricht auch Andersons (1971) eingeführter InformationIntegration-Theorie, die besagt, dass die Einstellung und das Verhalten des Verbrauchers als Reaktion auf den Informationswert (d. h., ob er positiv oder negativ ist) und das Gewicht (d. h. seine Bedeutung für den Einzelnen) aufgebaut sind. Dabei wurde festgestellt, dass das Verhalten auch von den Merkmalen anderer Faktoren in unmittelbarer Nähe beeinflusst wird (Lynch et al. 1991, S. 284). Zu diesen Faktoren kann die direkte Umgebung des Stimulus gehören, sodass davon ausgegangen werden kann, dass die Umgebung und der Inhalt einer Website einen Einfluss auf die Einstellung des Nutzers zur angezeigten Werbung haben. In Bezug auf die Spreading-Activation-Theorie von Collins und Loftus (1975) kann darüber hinaus argumentiert werden, dass die Tonalität der Website-Umgebung

118

G. Greve und M. Scheibe

auch die Assoziationen beeinflusst, die die Werbung als Stimulus innerhalb der Gedanken eines Verbrauchers erzeugt. Auf dieser Grundlage kann sich die Tonalität auch auf die Assoziationen des Verbrauchers auswirken, die er unbewusst mit der beworbenen Marke aufbaut. Negative Tonalität könnte in den Augen des Verbrauchers sogar zu negativen langfristigen Markenassoziationen führen. Darüber hinaus wurde im Rahmen der Untersuchung der Kontexteffekte auf den Werbeerfolg festgestellt, dass die Übereinstimmung zwischen einer Werbung und dem Kontext, in den sie eingebettet ist, die Werbewirksamkeit für HighInvolvement Produktkategorien fördert, wohingegen ein Kontrast zwischen Anzeige und Kontext für Low-Involvement Produkte besser funktioniert (De Pelsmacker et al. 2002, S. 59). Zudem wurde festgestellt, dass ein geschätztes Werbeumfeld – also ein interessanter Kontext, dem der Verbraucher gerne wieder ausgesetzt wäre – zu einer positiveren Einstellung gegenüber der Werbung führte (De Pelsmacker et al. 2002, S. 51). Während positive Tonalität als ein geschätzter Kontext für den Verbraucher eingestuft werden kann, ist anzunehmen, dass Display Advertising in einer positiven Website-Umgebung zu einer positiveren Einstellung gegenüber der Werbung führen. Im Gegensatz dazu wird angenommen, dass eine negative Tonalität die Werbewirkung negativ beeinträchtigt. Hinzu kommt, dass davon auszugehen ist, dass auch die Produktkategorie die Wirkung der Werbemittel innerhalb bestimmter Webseiten-Kontexte beeinflusst. Eine mögliche Unterscheidung von Produkten erfolgt anhand des Grades an Hedonismus und Utilitarismus.

5.6 Merkmale hedonistischer und utilitaristischer Produkte Hedonistische Güter bieten in erster Linie experimentellen Genuss, während die Vorteile von utilitaristischen Gütern hauptsächlich in Form von praktischer Funktionalität oder Nützlichkeit liegen (Batra und Ahtola 1990, S. 161; Okada 2005, S. 44). Hedonistische Güter können als solche definiert werden, deren Konsum durch eine affektive und sensorische Erfahrung von beispielsweise sinnlichem Vergnügen und Spaß getrieben wird, wohingegen utilitaristische Güter solche Produkte sind, deren Konsum eher durch Erkenntnis oder Zielorientierung getrieben wird (Hirschman und Holbrook 1982, S. 92; Strahilevitz und Myers 1998, S. 436). Beispiele für hedonistische Waren sind Designerkleidung, Sportwagen, Schokoladentrüffel oder Luxusuhren. Utilitaristische Güter sind beispielsweise Mikrowellen, Lehrbücher oder Waschmittel (Hirschman und Holbrook 1982, S. 95; Strahilevitz und Myers 1998, S. 436; Wertenbroch und Dhar 2000, S. 60).

5  Programmatic Advertising

119

Obwohl es eine Reihe von Gütern gibt, die als primär hedonistisch oder primär utilitaristisch charakterisiert sind, beinhaltet der Konsum vieler Güter gleichzeitig beide Attribute in unterschiedlichem Maße (Batra und Ahtola 1990, S. 161; Wertenbroch und Dhar 2000, S. 61). In dieser Hinsicht wurde festgestellt, dass sich die beiden Konzepte Hedonismus und Utilitarismus nicht gegenseitig ausschließen (Batra und Ahtola 1990, S. 161; Okada 2005, S. 43). Folglich können Produkte sowohl in hedonistischen als auch in utilitaristischen Merkmalen gleichzeitig hoch oder niedrig sein (Crowley et al. 1992, S. 239). Ebenso können Produkte gleichzeitig hedonistische und utilitaristische Gründe oder Motivationen bieten (Batra und Ahtola 1990, S. 161). Daher haben beide Arten von hedonistischen und utilitaristischen Vorteilen einen Einfluss auf die allgemeine Güte eines Produkts und beeinflussen die Bewertung des Verbrauchers in unterschiedlichem Maße (Batra und Ahtola 1990, S. 161). Dies führt zu der Schlussfolgerung, dass Hedonismus und Utilitarismus nicht als die beiden Extreme einer eindimensionalen Skala betrachtet werden sollten, sondern zwei unabhängige Skalen darstellen (Voss et al. 2003, S. 319). Aufbauend auf dieser Konzeptualisierung folgt dieser Beitrag der ganzheitlichen Definition von Okada (2005, S. 43) und definiert „hedonistische (utilitaristische) Alternativen als primär hedonistisch (utilitaristisch) oder relativ hedonistisch (utilitaristisch)“. Hedonistische und utilitaristische Produkte lassen sich auch nach ihrem Gebrauch unterscheiden (Spangenberg et al. 1997, S. 235). In diesem Zusammenhang stellte Hamilton (1987, S. 1541) fest, dass Verbraucher Produkte auf zwei Arten verwenden: Sie verwenden „Waren als Statussymbole und gleichzeitig als Instrumente, um ein bestimmtes Ziel zu erreichen“. Die Aussage von Hamilton beinhaltet die ganzheitliche Sichtweise, die hedonistische und die utilitaristische Perspektive des Konsums zu kombinieren. Es kann festgestellt werden, dass hedonistische Produkte eine experimentellere Konsumform bieten, die Faktoren wie Vergnügen oder Erregung einschließt (Wertenbroch und Dhar 2000, S. 60). Dementsprechend bezieht sich der hedonistische Konsum auf das „multisensorische, phantasievolle und emotionale Erlebnis des Verbrauchers mit Produkten“, das eine sogenannte hedonistische Reaktion hervorruft (Hirschman und Holbrook 1982, S. 92). Utilitaristische Güter erweisen sich dagegen als funktionaler (Wertenbroch und Dhar 2000, S. 60). Entsprechend wird der utilitaristische Konsum von Information und Rationalität bestimmt (Addis und Holbrook 2001, S. 59). Hedonistische und utilitaristische Produkte unterscheiden sich nicht nur im Gebrauch, sondern auch in Bezug auf die Bewertung und Rechtfertigung der Verbraucher. In diesem Zusammenhang ergab eine Studie von Okada (2005), dass Menschen je nach Kaufsituation unterschiedliche Präferenzen zwischen

120

G. Greve und M. Scheibe

hedonistischen und utilitaristischen Alternativen haben können (Okada 2005, S. 43). Wenn beide Alternativen isoliert dargestellt werden, wird die hedonistische Alternative tendenziell positiver bewertet. Bei einer gemeinsamen Präsentation entscheiden sich die Menschen jedoch eher für die utilitaristische Alternative (Okada 2005, S. 43). Darüber hinaus sind die Menschen bereit, mehr Zeit (Aufwand) für hedonistische Güter, aber mehr Geld für utilitaristische Alternativen zu zahlen (Okada 2005, S. 52). Diese Feststellung lässt sich mit dem Bedürfnis der Menschen erklären, ihre Entscheidungen zu rechtfertigen. Während sie motiviert sind, Vergnügen und Freude zu erleben (angeboten von hedonistischen Produkten), ist dieses Verhalten mit einem Gefühl der Schuld verbunden, das einer Rechtfertigung bedarf. Entsprechend bevorzugen die Menschen die hedonistische Alternative in Entscheidungszusammenhängen, die es erlauben, diesen Konsum zu rechtfertigen (Okada 2005, S. 43). Wenn jedoch beide Alternativen gleichzeitig angeboten werden, ist dieser Zusammenhang nicht gegeben und die Entscheidung für das hedonistische Gut ist schwerer zu rechtfertigen (Strahilevitz und Myers 1998, S. 436; Okada 2005, S. 44). Dementsprechend kann die Freude am hedonistischen Konsum von Schuld begleitet sein, die die Erfahrung negativ beeinflusst (Strahilevitz und Myers 1998, S. 436). Aufgrund dieser Unterschiede im Konsum und in der Bewertung erfordern hedonistische und utilitaristische Produkte auch unterschiedliche Ansichten zum Verbraucherverhalten. Nach Addis und Holbrook (2001, S. 61) bezieht sich die rationale Entscheidungsorientierung hauptsächlich auf den utilitaristischen Konsum, während die experimentelle Betrachtung des Konsumverhaltens hauptsächlich auf den hedonistischen Konsum zutrifft. Der utilitaristische Konsum wird dabei anhand des rationalen Modells des Konsumentenverhaltens untersucht, das den Konsumenten als „maschinen- oder computerähnlichen Entscheidungsträger der Informationsverarbeitung“ betrachtet (Addis und Holbrook 2001, S. 61). Nach diesem Ansatz wird der Verbraucher als Denker verstanden, der sich an seinen Zielen und Vorgaben orientiert und als rationaler Problemlöser handelt, der auf der Grundlage der Analyse der verfügbaren Optionen vernünftige Entscheidungen trifft (Babin et al. 1994, S. 646; Addis und Holbrook 2001, S. 60 f.). Bei hedonistischem Konsum sollte das Konsumentenverhalten in der experimentellen Sicht untersucht werden. Diese Sichtweise konzentriert sich auf Emotionen und die multisensorischen Reize und Empfindungen des Verbrauchers, der von seinen sensorischen Wahrnehmungen getrieben wird. Folglich müssen Marketingmanager möglicherweise nicht in erster Linie mit rationalen

5  Programmatic Advertising

121

Argumenten auf diesem Gebiet überzeugen, sondern mit ästhetischen Angeboten, Erfahrungen und Symbolen, die den Verbraucher anregen (Schmitt 1999, S. 58; Addis und Holbrook 2001, S. 61). Aufgrund der deutlichen Unterschiede, die hedonistische und utilitaristische Produkte kennzeichnen, kann geschlussfolgert werden, dass sich das damit verbundene Verbraucherverhalten erheblich unterscheidet. Aufgrund der durchgeführten Literaturrecherche ist daher davon auszugehen, dass sich auch die Reaktionen der Verbraucher auf Werbung der beiden Produktkategorien unterscheiden. Während eine negative Website-Tonalität beim Leser negative Gefühle hervorruft, kann vermutet werden, dass eine positive Tonalität beim Verbraucher positive Emotionen hervorruft. Folglich stützt dieser Ansatz die Annahme, dass die Tonalität einen Einfluss auf die Einstellung zu Werbung für hedonistische Produkte hat. Darüber hinaus kann festgestellt werden, dass hedonistische Produkte besonders mit Erlebnissen und positiver Stimmung verbunden sind, wohingegen utilitaristische Produkte mehr von Rationalität getrieben sind (Schmitt 1999, S. 58; Addis und Holbrook 2001, S. 61). Effektive Werbung für hedonistische Produkte setzt dabei eine positive Stimmung des Verbrauchers voraus – zum Beispiel aufgrund der positiven Tonalität und des Kontexts der von ihm besuchten Website. Positive Stimmung führt dementsprechend zu einer positiveren Einstellung zur Werbung. Darüber hinaus wurde festgestellt, dass die Verbraucher das Bedürfnis verspüren, ihre Entscheidung für und den Einsatz von hedonistischen Produkten zu begründen. Mit anderen Worten, der Konsum hedonistischer Güter geht mit einem Schuldgefühl einher, weshalb die Verbraucher einen Entscheidungskontext benötigen, der es ihnen ermöglicht, ihren Konsum zu rechtfertigen (Okada 2005, S. 43). Es kann daher angenommen werden, dass ein negativer Website-Kontext oder eine negative Tonalität den Werbeerfolg von Anzeigen für hedonistische Produkte untergräbt, da dies die Rechtfertigungsbemühungen des Verbrauchers behindert. Die Rechtfertigung des hedonistischen Verbrauchs ist in einem negativen Kontext schwierig. Darüber hinaus sind die Verbraucher nicht in der richtigen Stimmung, um für den Anreiz des hedonistischen Konsums offen zu sein. Man kann auch argumentieren, dass die hedonistischen Gefühle, die durch Werbung für hedonistische Produkte hervorgerufen werden sollen, in einem negativen Umfeld kaum zu entwickeln sind. Im Gegensatz dazu erleichtern eine positive Einstellung und Tonalität die Begründung einer hedonistischen Wahl und können sogar selbst eine Rechtfertigung sein.

122

G. Greve und M. Scheibe

5.7 Auswirkungen der Website-Tonalität bei hedonistischen und utilitaristischen Produkten Auf der Grundlage der vorstehenden Argumentation kann angenommen werden, dass eine positive Website-Tonalität als Kontext eine positivere Einstellung zur angezeigten Werbung für ein hedonistisches Produkt bewirken, wohingegen die Einstellung in einer negativen Website-Umgebung negativer ist. Für utilitaristische Produkte wird die Argumentation ebenfalls angewendet, jedoch in umgekehrter Logik: Während der utilitaristische Konsum mit dem Konsumenten als rationalem Entscheider mit maschinenähnlichen Verarbeitungsfähigkeiten verbunden ist (Babin et al. 1994, S. 646; Addis und Holbrook 2001, S. 60 f.), kann davon ausgegangen werden, dass der Website-Kontext in diesem Fall nicht die Einstellung gegenüber der angezeigten Werbung beeinflusst. Ebenso ist anzunehmen, dass die Tonalität keinen signifikanten Einfluss auf die Werbewirksamkeit von utilitaristischen Gütern hat, da bei dieser Art von Gütern im Vergleich zum hedonistischen Konsum keine Verbrauchserfordernis kommuniziert werden muss. Bei utilitaristischen Gütern wird in der Forschung häufig auf funktionalen Konsum Bezug genommen (Khan et al. 2005, S. 158). Hierbei ist ferner davon auszugehen, dass der Kontext die Werbewirksamkeit von Produkten, die definitionsgemäß hauptsächlich als Funktionsware oder Mittel zum Zweck angesehen werden, weniger beeinflusst. Darüber hinaus wurde festgestellt, dass die Verbraucher von funktionaler Kongruenz und utilitaristischen (funktionalen) Appellen in Bezug auf utilitaristische Produkte überzeugt sind (Johar und Sirgy 1991, S. 23). Der utilitaristische Appell besteht darin, den Verbrauchern Informationen über wichtige Vorteile zu geben, die von hoher Bedeutung und Funktionalität sind. Im Gegensatz dazu konzentrieren sich Anzeigen für hedonistische Produkte in der Regel auf wertstiftende Merkmale wie Symbole, Bilder oder den Beitrag des Produkts zur gewünschten Selbstdarstellung des Verbrauchers (Shavitt 1992, S. 47). Während hedonistische Produkte mit dem Selbstverständnis des Verbrauchers übereinstimmen müssen, ist die Bewertung utilitaristischer Produkte weitaus weniger emotional und basiert auf objektiven Leistungsmerkmalen (Shavitt 1992, S. 48). Aufbauend auf dieser funktionalen Voraussetzung des utilitaristischen Konsums ist damit davon auszugehen, dass die Einstellung zu funktionaler Werbung auch weniger vom Werbekontext beeinflusst wird als bei hedonistischen Produkten. Dies liegt daran, dass mögliche Kontexteffekte eher irrational und emotional sind und daher keine rationalen Prozesse funktionaler Entscheidungsträger beeinflussen sollten. Infolgedessen kann

5  Programmatic Advertising

123

angenommen werden, dass die Tonalität der Website-Umgebung die Einstellung des Verbrauchers zur Werbung für ein utilitaristisches Produkt nicht wesentlich beeinflusst. Bei diesem Produkttyp ist davon auszugehen, dass Anzeigen sowohl innerhalb der positiven als auch innerhalb der negativen Website-Tonalität die gleiche Werbewirkung haben. Zusammenfassend lässt sich sagen, dass die Tonalität der umliegenden Website einen Einfluss darauf hat, wie Display-Werbung wahrgenommen wird. Darüber hinaus wird davon ausgegangen, dass dieser Effekt durch die beworbene Produktkategorie abgeschwächt wird. Während für utilitaristische Produkte keine signifikanten Auswirkungen zu erwarten sind, wird vorgeschlagen, dass ein signifikanter Zusammenhang zwischen Tonalität und Einstellung zur Werbung für hedonistische Produkte besteht. Greve und Scheibe (2019) testeten die untersuchten Hypothesen mittels eines Experiments. Hierzu wurde ein 2 (positive vs. negative Tonalität) × 2 (hedonistischer vs. utilitaristischer Produkttyp) -Experiment durchgeführt. Dementsprechend wurden vier Stimuli entwickelt, die es ermöglichten, eine positive gegenüber einer negativen Website-Umgebung zu testen, in der eine Werbung für ein hedonistisches gegenüber einem utilitaristischen Produkt angezeigt wird. Auf diese Weise konnte getestet werden, ob die Tonalität einer Website einen Einfluss darauf hat, wie Verbraucher Display Advertising für hedonistische im Vergleich zu utilitaristischen Gütern wahrnehmen. Insgesamt wurde eine ConvenienceStichprobe von 212 Teilnehmern über einen Online-Fragebogen gesammelt und nach dem Zufallsprinzip den vier Behandlungsgruppen zugeordnet, was zu vier unabhängigen Stichproben führte. Für das Experiment wurden zwei Versionen einer Zeitungshomepage erstellt, die dieselben allgemeinen Themen abdeckten, jedoch entweder ausschließlich positiven oder ausschließlich negativen Inhalt hatten. In beiden Website-Umgebungen wurde zusätzlich entweder Display Advertising für ein hedonistisches Produkt oder für ein utilitaristisches Produkt oben auf der Website angezeigt. Ziel dieser Untersuchung war es, eine echte Website-Umgebung mit hoher Beliebtheit in der deutschen Bevölkerung auszuwählen, um die durch die Homepage selbst verursachten Nebenwirkungen zu minimieren. Nach einem Ranking der „Top 20 deutschen Websites im August 2017 nach Besuchen“ ist Spiegel Online die am siebent-meistbesuchte Website in Deutschland und gleichzeitig die meistbesuchte Zeitungshomepage (IVW 2017). Folglich wurde diese Site als Website-Umgebung für diese Studie ausgewählt. Um die Manipulation so klar wie möglich zu gestalten, wurden zwei Versionen der Website erstellt: eine vollständig positive und eine vollständig negative. Beide Versionen enthielten Artikel zu genau denselben Themen, deckten jedoch positive oder negative

124

G. Greve und M. Scheibe

Nachrichten zu diesen Themen ab. Wortlaut und Syntax sollten so ähnlich wie möglich sein, um mögliche Nebenwirkungen zu minimieren. Themen der Artikel waren unter anderem ein Boom oder ein Abschwung der deutschen Wirtschaft als Hauptthema und ein kleiner Artikel über eine sehr geringe oder hohe Zahl von Verkehrstoten im deutschen Straßenverkehr. Darüber hinaus berichtete die Website über ein Mädchen, das in der positiven Version vor dem Zusammenstoß mit einem Zug gerettet oder in den negativen Reizen getötet wurde. Weitere kleine Schlagzeilen enthielten unter anderem Nachrichten über gute/schlechte Wettervorhersagen oder vielversprechende/hoffnungslose Chancen für die deutsche Nationalmannschaft bei der bevorstehenden Fußball-Weltmeisterschaft. Die Bilder für jeden Artikel wurden entsprechend den positiven oder negativen Überschriften ausgetauscht. Bei den ausgewählten Marken sollte im Einklang mit den Untersuchungen von Geuens und de Pelsmacker (2017, S. 85) versucht werden, mögliche Störfaktoren zu reduzieren. Daher wurden zwei Produkte derselben Kategorie auszuwählen. Um eine Kategorie auszuwählen, mit der die meisten Menschen vertraut sind, wurde die Getränkekategorie angewendet. Um zwei Produkte mit klarem hedonistischem oder utilitaristischem Charakter zu erhalten, wurden Wasser und Champagner ausgewählt. Unter Bezugnahme auf die Definition von hedonistischen und utilitaristischen Produkten lassen sich Wasser und Champagner somit leicht in die zwei Kategorien einteilen. Da Champagner mit Genuss und positiven Erfahrungen verbunden sein kann, beinhaltet er wichtige hedonistische Eigenschaften. Im Gegensatz dazu ist Wasser mit funktionelleren und hilfreicheren Konsumanlässen verbunden, die eine essentielle Flüssigkeitszufuhr ermöglichen (Hirschman und Holbrook 1982, S. 93; Wertenbroch und Dhar 2000, S. 61). Obwohl sich beide Merkmale nicht gegenseitig ausschließen, kann angenommen werden, dass Champagner mit relativ mehr hedonistischen Konnotationen verbunden ist als Wasser, was die Wahl dieser beiden Produkte unterstützt. Eine weitere Anforderung bestand darin, die Auswirkungen der Marken selbst so gering wie möglich zu halten und Marken mit einem ähnlichen Bekanntheitsgrad, Image und Popularität in der deutschen Bevölkerung auszuwählen. Hier wurden Gerolsteiner und Moët & Chandon ausgewählt. Gerolsteiner wurde einerseits als bekannteste Wassermarke in Deutschland in den letzten drei Jahren für die Gebrauchsmarke ausgewählt (Statista 2017). Moët & Chandon hingegen wurde als hedonistische Marke ausgewählt, da sie einen Champagner mit hoher Popularität und Bekanntheit in Deutschland bietet, der 2013 als eine der vertrauenswürdigsten Luxusmarken in der DACH-Region ausgezeichnet wurde (Brand-Trust 2013).

5  Programmatic Advertising

125

Um die Manipulation wieder so realistisch wie möglich zu halten, wurden echte Display-Anzeigen beider Marken verwendet. Für beide Produkte wurde ein wirkungsvolles digitales Werbeformat ausgewählt (Billboard), das direkt im Sichtfeld des Nutzers oben auf der Website platziert wurde und daher hohe Rückrufquoten versprach. Der Zugriff auf diese realen Anzeigen erfolgte über die AdZyklopädie, ein deutsches Tool für Wettbewerbs- und Werbemonitoring (AdZyklopädie o. J.).

5.8 Implikationen der Studie und Schlussfolgerungen für das Programmatic Advertising Im Allgemeinen kann festgestellt, dass die Tonalität einen signifikanten Einfluss auf die Einstellung zur gesehenen Werbung hat. Unter Aufschlüsselung dieses Effekts auf die beiden getesteten Produkttypen wurde gezeigt, dass der Einfluss der Tonalität für hedonistische Produkte signifikant ist. Eine positive Tonalität führt zu einer deutlich positiveren Einstellung zur Werbung und umgekehrt, dies ist jedoch nicht der Fall für utilitaristische Produkte (Greve und Scheibe 2019). Marketingmanager auf der ganzen Welt geben immer größere Anteile ihres Medienbudgets für digitale Werbung aus. In letzter Zeit hat Programmatic Advertising begonnen, die Ausspielung von Online-Werbung zu revolutionieren. Dabei werden Werbeflächen nicht mehr selektiv gekauft, sondern über automatisierte Auktionsprozesse zwischen DSP und SSP verkauft. Während Werbetreibende noch Targeting-Kriterien wie Verhaltensdaten oder demografische Daten festlegen, wird der programmatische Kaufprozess von Maschinen gesteuert. Diese Form der Werbung ermöglicht eine Steigerung der Effizienz und eine Reduzierung der Kosten. Sie wirft jedoch auch Bedenken bei Managern auf, z. B. die Befürchtung, das Markenimage zu beschädigen, wenn sie in unpassenden oder negativen Website-Kontexten angezeigt werden. Basierend auf der von Greve und Scheibe (2019) durchgeführten Studie ist es möglich, wertvolle Implikationen für das Management abzuleiten, da festgestellt wurde, dass die Tonalität einer Website einen signifikanten Einfluss auf die Einstellung der Rezipienten von Display Advertising auf der Website hat: Für Marketingmanager zeigt dieses Ergebnis, wie wichtig eine sorgfältige Auswahl des Umfelds für den Werbeerfolg ist. In Bezug auf die Planung und Einrichtung von Display-Kampagnen wird den Managern daher empfohlen, die vorgeschlagenen Website-Listen kritisch zu prüfen, da die Umfelder möglicherweis Einfluss auf die Werbewahrnehmung haben. Dieser Befund steht im Einklang

126

G. Greve und M. Scheibe

mit früheren Studien zu Kontexteffekten auf den Werbeerfolg, die unter anderem den Einfluss der Einbeziehung des umgebenden Inhalts auf die Wirksamkeit von Fernseh- oder Printwerbung (Norris und Colman 1992, S. 37; Gunter et al. 1997 549) oder die Auswirkung der Kongruenz zwischen Kontext und Werbeinhalten auf den Werbeerfolg aufzeigten (De Pelsmacker et al. 2002, S. 59). Da der vorgeschlagene abschwächende Effekt der Produktkategorie auf die Beziehung zwischen Website-Tonalität und Werbeerfolg durch die Ergebnisse von Greve und Scheibe (2019) gestützt wurde, können die Auswirkungen für Manager unterteilt werden in Konsequenzen für die Führung hedonistischen Marken sowie Implikationen für Manager von utilitaristischen Gütern. Für Manager von hedonistischen Produkten, die sich auf Vergnügen und Erfahrung fokussieren, ist die Auswahl des richtigen Website-Kontexts besonders relevant. Hier führt eine negative Tonalität zu einer deutlich negativeren Einstellung zur angezeigten Werbung, was den Werbeerfolg untergräbt. Auf dieser Grundlage wird den Marketingfachleuten geraten, bei der Durchführung von Display Advertising eine Strategie der selektiven Umfeldplanung zu verfolgen, um die volle Kontrolle über den Kauf der Werbeplätze zu haben. Es wird Werbetreibenden hier gerade nicht empfohlen, Programmatic Advertising anzuwenden, da diese Form des automatisierten Medienkaufs, der auf vordefinierten Targeting-Kriterien basiert, sich negativ auf den Werbeerfolg auswirken kann. Während Programmatic Advertising effizienter sein kann, müssen Vermarkter dennoch sicherstellen, dass negative Website-Umgebungen vermieden werden, um erfolgreiche Kampagnen durchzuführen. Obwohl Programmatic Advertising im Allgemeinen für hedonistische Produkte nicht empfohlen wird, gibt es weniger radikale Formen dieser Kaufmethode, die für Marketingmanager relevant sein können und es ihnen ermöglicht, weiterhin von den Vorteilen des programmatischen Einkaufs zu profitieren. In dieser Hinsicht können sogenannte Private Marketplaces oder Whitelist-Auktionen geeignet sein. Beide beziehen sich auf Echtzeit-Gebotsprozesse, die eingeschränkter sind, beispielsweise auf eine Auswahl vordefinierter Angebote von bestimmten Publishern, die einer begrenzten Anzahl von Käufern (privater Marktplatz) zur Verfügung stehen, oder auf eine Liste vorab definierter, sicherer Kontexte (Whitelists) (Groth und Zawadzki 2016, S. 95 f.). Damit ist für Manager von hedonistischen Produkten möglicherweise noch eine „Light-Version“ von Programmatic Advertising anwendbar, die es ihnen ermöglicht, die Behavioral-Targeting-Möglichkeiten zu nutzen, allerdings nicht auf dem freien Werbemarkt (Open Auction). Es wird jedoch deutlich, dass eine erfolgreiche Display-Kampagne einen MarketingManager erfordert, der sorgfältig und selektiv die richtigen Website-Umgebungen für sein Produkt auswählt.

5  Programmatic Advertising

127

Ebenso konnte gezeigt werden, dass der Einfluss der Tonalität auf den Werbeerfolg bei utilitaristischen Produkten durch die Produktkategorie utilitaristisch abgeschwächt wird. Eine negative Tonalität der Website-Umgebung führt nicht zu einer wesentlich negativeren Einstellung gegenüber den angezeigten Werbeanzeigen für nützliche Produkte. Daher können Manager von zweckmäßigen, funktionalen Produkten die allgemein negativen Auswirkungen einer negativen Tonalität auf den Werbeerfolg zugunsten höherer Effizienz oder Kosteneinsparungen vernachlässigen. Dementsprechend kann Programmatic Advertising eine vernünftige und vielversprechende Strategie sein, beispielsweise im Bereich der FMCG-Produkte. Die Ergebnisse dieser Studie können auch für Manager gelten, die für Produkte verantwortlich sind, die nicht eindeutig als hedonistisch oder utilitaristisch eingestuft werden können, da eine allgemeine Tendenz zur Auswirkung der Tonalität auch für die Produktkategorie utilitaristisch gemessen wurde. Dabei wurde die Bedeutung des Kontexts und des Umfelds für alle Produkte aufgezeigt – mit besonderer Relevanz für hedonistische Waren –, die es den Vermarktern ermöglichen, bessere und gut begründete Entscheidungen für Kampagnen zu treffen. Allerdings sei darauf hingewiesen, dass gewisse Limitationen hinsichtlich der Generalisierbarkeit der Ergebnisse berücksichtigt werden sollten: Die Untersuchung berücksichtigt nur eine Produktkategorie – Getränke –, wobei nur angenommen wird, dass die Ergebnisse auch auf andere Produktkategorien anwendbar sind. Zukünftige Forschungen könnten auf diesen Erkenntnissen aufbauen und den Einfluss der Tonalität auf andere Produktkategorien wie Lebensmittel, Mode oder Automobil untersuchen. Abgesehen davon zeigten die Stimuli dieser Untersuchung Bannerwerbung, während zukünftige Untersuchungen möglicherweise auch andere Formen von Display Advertising wie Rich Media oder digitales Video testen können. Die Verallgemeinerbarkeit kann auch in Bezug auf kulturelle Auswirkungen auf Werbewirkungen in Frage gestellt werden. Während diese Studie in Deutschland durchgeführt wurde, könnte es von Interesse sein, zu untersuchen, ob die Tonalität der Website-Umgebung zu unterschiedlichen Auswirkungen auf den Werbeerfolg in anderen Kulturen oder Regionen der Welt führt. Darüber hinaus wurde diese Studie im Kontext der Nachrichten-Website Spiegel Online erstellt. Dies erlaubt es wiederum, die Verallgemeinerbarkeit der abgeleiteten Ergebnisse in Frage zu stellen, da eine positive/negativen Tonalität in anderen Kontexten wie Unterhaltung oder Prominenten-Nachrichten zu unterschiedlichen Effekten führen kann. Darüber hinaus beschränkte sich die Rechercheeinstellung weiter auf die Website von Spiegel Online, wobei

128

G. Greve und M. Scheibe

die Auswirkungen innerhalb der Spiegel Online-App oder in einem SocialMedia-Kontext möglicherweise unterschiedlich sein können. Daher gibt es weitere Bereiche für zukünftige Forschungsvorhaben, beispielsweise zum Einfluss der Tonalität auf die Einstellung zu Werbung in Smartphone- und TabletAnwendungen von Nachrichtenanbietern wie der Spiegel Online-App oder auf Social-Media-Plattformen wie dem Facebook- oder Instagram-Newsfeed der Nutzer. Gleichzeitig könnten auch andere Offline-Nachrichtenkontexte und der Einfluss der Tonalität auf die Einstellung zu Werbung für die zukünftige Forschung relevant sein. Zukünftige Studien könnten in diesem Zusammenhang beispielsweise die Auswirkungen positiver oder negativer Tonalität auf die Einstellung zu Radio- oder Zeitungsanzeigen untersuchen. Während die Untersuchung von Greve und Scheibe (2019) ergab, dass die Tonalität einen Einfluss auf die Werbewirksamkeit von Display-Werbung hat, wäre es vielversprechend, diesen Zusammenhang in anderen Medienkanälen zu untersuchen. In diesem Zusammenhang wäre auch die Prüfung weiterer Moderatoren für Forscher und Praktiker von Interesse und Relevanz. Schließlich kann man auch argumentieren, dass bei dieser Untersuchung die Auswirkungen der Phase des Verbrauchers im Kaufentscheidungsprozess auf seine Einstellung zur Werbung nicht berücksichtigt wurden. Für zukünftige Studien kann es interessant sein zu untersuchen, ob der Einfluss der Tonalität auf den Werbeerfolg durch die jeweilige Phase des Verbrauchers im Kaufentscheidungsprozess beeinflusst wird. Während dies für Kategorien mit tendenziell geringem Involvement, wie Getränke, die in dieser Studie untersucht wurden, von geringerer Relevanz sein kann, könnte es für Kategorien mit höherem Involvement, wie Autos oder Reisen, von besonderem Interesse sein.

Literatur Addis, M., & Holbrook, M. B. (2001). On the conceptual link between mass customization and experiential consumption. Journal of Consumer Behaviour, 1(1), 50–66. AdZyklopädie. (o. J.). AdZyklopädie: Deutschlands größtes Online-Archiv für Werbung. https://v2.adzyklopaedie.com/Login.aspx. Zugegriffen: 25. Aug. 2017. Aguirre, E., Mahr, D., Grewal, D., de Ruyter, K., & Wetzels, M. (2015). Unraveling the personalization paradox: The effect of information collection and trust-building strategies on online advertisement effectiveness. Journal of Retailing, 91(1), 34–49. Ahrholdt, D., Greve, G., & Hopf, G. (2019). Online-Marketing-Intelligence: Kennzahlen, Erfolgsfaktoren und Steuerungskonzepte im Online-Marketing. Wiesbaden: Springer Gabler. Anderson, N. H. (1971). Integration theory and attitude change. Psychological Review, 78(3), 171–206.

5  Programmatic Advertising

129

Ansari, A., & Riasi, A. (2016). An investigation of factors affecting brand advertising success and effectiveness. International Business Research, 9(4), 20–30. Babin, B. J., Darden, W. R., & Griffin, M. (1994). Work and/or fun: Measuring hedonic and utilitarian shopping value. Journal of Consumer Research, 20(4), 644–656. Batra, R., & Ahtola, O. T. (1990). Measuring the hedonic and utilitarian sources of consumer attitudes. Marketing Letters, 2(2), 159–170. Baxter, G., & Sommerville, I. (2011). Socio-technical systems: From design methods to systems engineering. Interacting with Computers, 23(1), 4–17. Bleier, A., & Eisenbeiss, M. (2015). Personalized online advertising effectiveness: The interplay of what, when, and where. Marketing Science, 34(5), 669–688. Boerman, S. C., Kruikemeier, S., & Zuiderveen Borgesius, F. J. (2017). Online behavioral advertising: A literature review and reserach Agenda. Journal of Advertising, 46(3), 363–376. Brand-Trust. (2013). 40 Luxusmarken in DACH, USA und China im Performance Vergleich: Brand:Trust Studie New Luxury & Brands Reloaded. http://www.brand-trust.de/ downloads/pressemitteilungen/2013/BrandTrust_Luxus2013_Info.pdf. Zugegriffen: 25 Aug. 2017. Brosche, K., & Kumar, A. (2016). Realtime data accelerates online marketing. In O. Bush (Hrsg.), Programmatic advertising the successful transformation to automated, datadriven marketing in real-time (S. 221–232). Heidelberg: Springer. Buddenberg, Danny. (2017). Digitale Markenführung mit Display Advertising. In E. Theobald (Hrsg.), Brand Evolution: Moderne Markenführung im digitalen Zeitalter (2. Aufl., S. 285–309). Wiesbaden: Springer Gabler. Bucsh, O. (2016). The programmatic advertising principle. In O. Bush (Hrsg.), Programmatic advertising the successful transformation to automated, data-driven marketing in real-time (S. 3–16). Heidelberg: Springer. Calder, B. J., Malthouse, E. C., & Schaedel, U. (2009). An experimental study of the relationship between online engagement and advertising effectiveness. Journal of Interactive Marketing, 23(4), 321–331. Chen, J., & Stallaert, J. (2014). An economic analysis of online advertising using behavioral targeting. MIS Quarterly, 38(2), 429–449. Cho, C.-H., & Cheon, H. J. (2004). why do people avoid advertising on the internet? Journal of Advertising, 33(4), 89–97. Collins, A. M., & Loftus, E. F. (1975). A spreading-activation theory of semantic processing. Psychological Review, 82(4), 407–428. Crowley, A. E., Spangenberg, E. R., & Hughes, K. R. (1992). Measuring the hedonic and utilitarian dimensions of attitude toward product categories. Marketing Letters, 3(3), 239–249. De Hoog, N., Stroebe, W., & De Wit, J. B. F. (2007). The impact of vulnerability to and severity of a health risk on processing and acceptance of fear-arousing communications: A meta-analysis. Review of General Psychology, 11(3), 258–285. De Pelsmacker, P., Geuens, M., & Anckaert, P. (2002). Media context and advertising effectiveness: The role of context appreciation and context/ad similarity. Journal of Advertising, 31(2), 49–61. Deng, Y., & Mela, C. F. (2018). TV viewing and advertising targeting. Journal of Marketing Research, 55(1), 99–118.

130

G. Greve und M. Scheibe

Drèze, X., & Hussherr, F.-X. (2003). Internet advertising: is anybody watching? Journal of Interactive Marketing, 17(4), 8–23. Enberg, J. (2019). Global digital ad spending 2019. Digital accounts for half of total media ad spending worldwide. https://www.emarketer.com/content/global-digital-adspending-2019. Zugegriffen: 13. Dez. 2019. Felser, G. (2015). Werbe- und Konsumentenpsychologie (4. Aufl.). Heidelberg: Springer. Fulgoni, G. M. (2016). Fraud in digital advertising: a multibillion dollar black hole: How marketers can minimise losses caused by bogus web traffic. Journal of Advertising Research, 56(2), 122–125. Funk, B., & Nabout, N. A. (2016). Cross-channel real-time response analysis. In O. Bush (Hrsg.), Programmatic advertising the successful transformation to automated, datadriven marketing in real-time (S. 141–152). Heidelberg: Springer. Gallagher, K., Foster, D. K., & Parsons, J. (2001). The medium is not the message: Advertising effectiveness and content evaluation in print and on the web. Journal of Advertising Research, 41(4), 57–70. Gangadharbatla, H., Govindan, S., Prince, H., Ligon, D., & Paramithiotti, A. (2017). Programmatic everything: Is this the future of advertising? In Proceedings of the 2017 American academy of advertising (S. 158–160). Gertz, O., & McGlashan, D. (2016). Consumer-centric programmatic advertising. In O. Bush (Hrsg.), Programmatic advertising the successful transformation to automated, data-driven marketing in real-time (S. 55–74). Heidelberg: Springer. Geuens, M., & de Pelsmacker, P. (2017). Planning and conducting experimental advertising research and questionnaire design. Journal of Advertising, 46(1), 83–100. Ghose, A., & Todri-Adamopoulos, V. (2016). Toward a digital attribution model: measuring the impact of display advertising on online consumer behavior. MIS Quarterly, 40(4), 889–910. Goldberg, M. E., & Gorn, G. J. (1987). Happy and sad TV programs: How they affect reactions to commercials. Journal of Consumer Research, 14(3), 387–403. Goldfarb, A., & Tucker, C. (2011). Online display advertising: Targeting and obtrusiveness. Marketing Science, 50(3), 389–404. Greve, G., & Scheibe, M. (2019). Does context matter? Analysis of the effects of editorial content tonality and product type on consumer attitude in display advertising, Working paper, HSBA Hamburg School of Business Administration (S. 1–10). Greve, G., Hopf, G., & Bauer, C. (2011). Einführung in das Online Targeting. In C. Bauer, G. Greve, & G. Hopf (Hrsg.), Online Targeting und Controlling: Grundlagen – Anwendungsfelder – Praxisbeispiele (S. 3–21). Wiesbaden: Gabler. Groth, A., & Zawadzki, V. (2016). Granularity creates added value for every objective. In O. Bush (Hrsg.), Programmatic advertising the successful transformation to automated, data-driven marketing in real-time (S. 87–102). Heidelberg: Springer. Gunter, B., Furnham, A., & Beeson, C. (1997). Recall of television advertisements as a function of program evaluation. The Journal of Psychology, 131(5), 541–553. Hachen, N., & Bardega, S. (2016). Evolution of digital campaign design and management. In O. Bush (Hrsg.), Programmatic advertising the successful transformation to automated, data-driven marketing in real-time (S. 211–220). Heidelberg: Springer. Hamilton, D. B. (1987). Institutional economics and consumption. Journal of Economic Issues, 21(4), 1531–1554.

5  Programmatic Advertising

131

Hirschman, E. C., & Holbrook, M. B. (1982). Hedonic consumption: Emerging concepts, methods and propositions. Journal of Marketing, 46(3), 92–101. Hoban, P. R., & Bucklin, R. E. (2015). Effects of internet display advertising in the purchase funnel: Model-based insights from a randomized field experiment. Journal of Marketing Research, 52(3), 375–393. Hoffmann, S., & Akbar, P. (2016). Konsumentenverhalten: Konsumenten verstehen – Marketingmaßnahmen gestalten. Wiesbaden: Springer. Holbrook, M. B., & O’Shaughnessy, J. (1984). The role of emotion in advertising. Psychology and Marketing, 1(2), 45–64. IVW. (2017). Ranking der Top 20 Internetangebote in Deutschland im August 2017 nach der Anzahl der Visits (in Millionen). http://ausweisung.ivw-online.de/index. php?it=1&setc=1&ic=1. Zugegriffen: 1. Sept. 2017. Johar, J. S., & Sirgy, M. J. (1991). Value-expressive versus utilitarian advertising appeals: when and why to use which appeal. Journal of Advertising, 20(3), 23–33. Khan, U., Dhar, R., & Wertenbroch, K. (2005). A behavioral decision theory perspective on hedonic and utilitarian choice. In S. Ratneshwar & D. G. Mick (Hrsg.), Inside consumption: Frontiers of research on consumer motives, goals, and desires (S. 144– 165). Oxfordshire: Routledge. Lambrecht, A., & Tucker, C. (2013). When does retargeting work? Information specificity in online advertising. Journal of Marketing Research, 50(5), 561–576. Li, H., Edwards, S. M., & Lee, J.-H. (2002). Measuring the intrusiveness of advertisements: Scale development and validation. Journal of Advertising, 31(2), 37–47. Lynch, J. G., Jr., Chakravarti, D., & Mitra, A. (1991). Contrast effects in consumer judgments: Changes in mental representations or in the anchoring of rating scales? Journal of Consumer Research, 18(3), 284–297. Magna. (2016). Global advertising forecast: Winter update. https://www.magnaglobal. com/wp-content/uploads/2016/12/MAGNA-December-Global-Forecast-Update-PressRelease.pdf. Zugegriffen:11. Nov. 2017. Malthouse, E. C., Maslowska, E., & Franks, J. U. (2018). Understanding programmatic tv advertising International. Journal of Advertising: The Review of Marketing Communications, 37(5), 769–784. McCoy, S., Everard, A., Polak, P., & Galletta, D. F. (2007). The effects of online advertising. Communications of the ACM, 50(3), 84–88. Mehrabian, A., & Russel, J. R. (1974). An approach to environmental psychology. Cambridge: MIT Press. Münstermann, H., & Würtenberger, P. (2016). Programmatic disruption for premium publishers. In O. Bush (Hrsg.), Programmatic advertising the successful transformation to automated, data-driven marketing in real-time (S. 25–36). Heidelberg: Springer. Murry, J. P., Jr., Lastovicka, J. L., & Singh, S. N. (1992). Feeling and liking responses to television programs: An examination of two explanations for media-context effects. Journal of Consumer Research, 18(4), 441–451. Norris, C. E., & Colman, A. M. (1992). Context effects on recall and recognition of magazine advertisements. Journal of Advertising, 21(3), 37–46. Norris, C. E., & Colman, A. M. (1993). Context effects on memory for television advertisements. Social Behavior and Personality, 21(4), 279–296.

132

G. Greve und M. Scheibe

Okada, E. M. (2005). Justification effects on consumer choice of hedonic and utilitarian goods. Journal of Marketing Research, 42(1), 43–53. o. V. (2019). Buy-side vs. Sell-side platforms. http://platformmarketer.com/buy-side-vssell-side-platforms. Zugegriffen: 13. Dez. 2019. Pilelienė, L., & Grigaliūnaitė, V. (2016). Effect of visual advertising complexity on consumers’ attention. International Journal of Management, Accounting and Economics, 3(8), 489–501. Puscher, F. (2019). „Programmatic Advertising“. Denn sie wissen nicht, was sie tun. Absatzwirtschaft, 5, 44–46. Richard, M.-O., Chebat, J.-C., Yang, Z., & Putrevu, S. (2010). A proposed model of online consumer behavior: Assessing the role of gender. Journal of Business Research, 63(9– 10), 926–934. Schafer, A., & Weiss, O. (2016). Understanding demand-side-platforms. In O. Bush (Hrsg.), Programmatic advertising the successful transformation to automated, datadriven marketing in real-time (S. 75–86). Heidelberg: Springer. Scharrer, J. (2019). Schluss mit lustig. Horizont, 34, S. 1. Schmitt, B. (1999). Experiential marketing. Journal of Marketing Management, 15(1–3), 53–67. Seitz, J., & Zorn, S. (2016). Perspectives of programmatic advertising. In In O. Bush (Hrsg.), Programmatic advertising the successful transformation to automated, datadriven marketing in real-time (S. 37–54). Heidelberg: Springer. Shavitt, S. (1992). Evidence for predicting the effectiveness of value-expressive versus utilitarian appeals: a reply to Johar and Sirgy. Journal of Advertising, 21(2), 47–51. Spangenberg, E. R., Voss, K. E., & Crowley, A. E. (1997). Measuring the hedonic and utilitarian dimensions of attitude: A generally applicable scale. Advances in Consumer Research, 24(1), 235–241. Statista. (2017). Beliebteste Mineralwasser- und Tafelwassermarken (Konsum in den letzten 4 Wochen) in Deutschland in den Jahren 2014 bis 2016. https://de.statista. com/statistik/daten/studie/171516/umfrage/konsum-mineralwassermarken-im-letztenmonat/. Zugegriffen: 25. Aug. 2017. Strahilevitz, M., & Myers, J. G. (1998). Donations to charity as purchase incentives: How well they work may depend on what you are trying to sell. Journal of Consumer Research, 24(4), 434–446. Vieira, V. A. (2013). Stimuli-organism-response framework: A meta-analytic review in the store environment. Journal of Business Research, 66(9), 1420–1426. Voss, K. E., Spangenberg, E. R., & Grohmann, B. (2003). Measuring the hedonic and utilitarian dimensions of consumer attitude. Journal of Marketing Research, 40(3), 310– 320. Waesche, N. W., Rotberg, T., & Renz, F. (2016). The contribution of measurement in a cross-device, data-driven, real-time marketing world. In O. Bush (Hrsg.), Programmatic advertising the successful transformation to automated, data-driven marketing in realtime (S. 153–164). Heidelberg: Springer. Weinberger, M. G., & Gulas, C. S. (1992). The impact of humor in advertising: A review. Journal of Advertising, 21(4), 35–59. Wertenbroch, K., & Dhar, R. (2000). Consumer choice between hedonic and utilitarian goods. Journal of Marketing Research, 37(1), 60–71.

5  Programmatic Advertising

133

White, G. R. T., & Samuel, A. (2019). Programmatic advertising: Forewarning and avoiding hype-cycle failure. Technological Forecasting and Social Change, 144, 157–168. Wolin, L. D., & Korgaonkar, P. (2003). Web advertising: Gender differences in beliefs, attitudes and behavior. Internet Research, 13(5), 375–385. Wolin, L. D., Korgaonkar, P., & Lund, D. (2002). Beliefs, attitudes and behavior towards web advertising. International Journal of Advertising, 21(1), 87–113. Yan, J., Liu, N., Wang, G., Zhang, W., Jiang, Y., & Chen, Z. (2009). How much can behavioral targeting help online advertising? In Proceedings of the 18th international conference on world wide web (S. 261–270).

Goetz Greve ist Professor für Allgemeine Betriebswirtschaftslehre, insbesondere Marketing und Vertrieb an der HSBA Hamburg School of Business Administration. Er studierte Betriebswirtschaftslehre an der Christian-Albrechts-Universität zu Kiel und wurde am Lehrstuhl für Innovation, Neue Medien und Marketing von Prof. Dr. Dr. h. c. Sönke Albers promoviert. Vor seiner Berufung an die HSBA arbeitete er als Consultant bei der Unternehmensberatung Accenture. Goetz Greves Forschungsinteressen konzentrieren sich auf Themen in den Bereichen Online Marketing und Customer Relationship Management. Seit 2018 engagiert sich Prof. Greve in der Charta digitale Vernetzung zu gesellschaftlichen Themen der Digitalisierung in Deutschland. Mareike Scheibe arbeitet als Senior Project Manager im Marketing des Hamburger E-Commerce Unternehmens ABOUT YOU. Zuvor war sie als Senior Consultant in einer Media Agentur tätig und arbeitete als Analyst in einer Unternehmensberatung. Sie studierte im European Business Programme der Fachhochschule Münster, Marketing an der Dublin Business School und absolvierte ihr Master Studium in Global Management & Governance an der HSBA Hamburg School of Business Administration. Im Rahmen ihrer Master Arbeit beschäftigte sie sich dabei mit Kontext Effekten im Online Marketing.

6

Uplift von Werbemaßnahmen – CaseStudy zur Marketing-Optimierung Björn Goerke und Dennis Proppe

Inhaltsverzeichnis 6.1 Das Problem der Bestimmung der Werbewirkung. . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.1 Lift versus Uplift. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.2 Herausforderung in der Praxis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Die methodischen Ansätze für Uplift-Modelling. . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.1 Grundlegendes Konzept. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.2 Warum eine spezielle Art der Modellierung benötigt wird. . . . . . . . . . . . . 6.2.3 Methoden für Uplift-Modelling. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.4 2-Modell-Ansatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3 Gründe für das Scheitern theoretischer Uplift-Modelle in der Praxis. . . . . . . . . . . 6.3.1 Nullgruppen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.2 Testdesign . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.3 Bewertung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4 Wie Uplift in der Praxis dennoch gelingt – der Case einer Drogeriekette. . . . . . . . 6.4.1 Ausgangssituation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4.2 Herausforderung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4.3 Lösungsansatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4.4 Ergebnis und Next Steps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

136 137 139 140 140 142 143 143 147 147 149 152 153 153 153 154 156 157

B. Goerke (*) · D. Proppe (*)  Gpredictive GmbH, Hamburg, Deutschland E-Mail: [email protected] D. Proppe E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 S. Boßow-Thies et al. (Hrsg.), Data-driven Marketing, https://doi.org/10.1007/978-3-658-29995-8_6

135

136

B. Goerke und D. Proppe

Zusammenfassung

Jeder Werbetreibende weiß, dass nicht jedes Werbemittel den gewünschten Effekt erzielt. Neben Streuverlusten und nicht treffenden Werbebotschaften gibt es insbesondere in bedarfsdeckenden Branchen mit einer hohen Kauffrequenz immer die Herausforderung, die Werbung so zu gestalten, dass sie tatsächlich eine Verhaltensänderung bewirkt. Gerade bei den besten Kunden passiert es sehr häufig, dass die Werbung der Kaufentscheidung eigentlich nur noch hinterhergeschickt wird. Dies bedeutet, dass die angesprochene Gruppe zwar hohe Umsätze tätigt, sie diese aber auch ohne die Ansprache größtenteils getätigt hätte. Ein Ziel des analytischen Direktmarketings ist daher die Maximierung von Uplifts, der Differenz zwischen dem erwarteten Umsatz ohne Werbung und dem erwarteten Umsatz mit Werbung. Im Datadriven Marketing gibt es inzwischen viele statistische Techniken, um UpliftPrognosen zu erstellen, die dann für Werbeaussendungen genutzt werden können. Tatsächlich scheitern in der Praxis viele dieser Methoden an den sehr strengen Datenanforderungen, die an sie gestellt werden. In dieser Fallstudie stellen die Autoren daher eine Heuristik vor, die sehr erfolgreich bei einem großen Drogeriehändler eingesetzt werden konnte und Potenzial für eine verbreitete Anwendung besitzt.

6.1 Das Problem der Bestimmung der Werbewirkung Die Allokation von Werbebudgets stellt einen großen Hebel für die Wirtschaftlichkeit eines Unternehmens dar. Gelingt es, in diejenigen Kunden zu investieren, die man durch die Werbeanstöße zu loyalen und wertvollen Kunden machen kann, dann hat man auch einen hohen Wert für das Unternehmen geschaffen. Beziehungen zu Kunden, die sich nicht gut entwickeln lassen, stellen wiederum keine gute Option für die Budgetallokation dar. Im Idealfall investiert man in jede Kundenbeziehung genau so viel, bis der Grenzertrag Null wird (ohne Berücksichtigung von Kapitalkosten). Bei Kundenbeziehungen, die gar keinen positiven Grenzertrag zulassen, bedeutet dies, dass man überhaupt nicht in die Kundenbeziehung investieren sollte. Wenn die Frage also analytisch so klar beantwortet werden kann, wieso wird das Marketing-Budget dann fast immer auch in Teilen ineffizient investiert? Das Problem liegt in der Identifikation derjenigen Kunden, bei denen das Investment in die Kundenbeziehung eine positive Änderung des Kundenwertes bewirkt. Es geht dabei strikt um den zukünftigen Wert. Bisherige Werte sind sunk. Diese

6  Uplift von Werbemaßnahmen

137

Änderung im Kundenwert ist nicht trivial zu prognostizieren. Wie dies überhaupt funktioniert, welche Probleme in der Praxis auftreten und wie man sich dem Ziel dennoch mit angemessenem Aufwand nähern kann, ist Inhalt dieses Kapitels.

6.1.1 Lift versus Uplift Wenn eine Kundenbeziehung eine Wertsteigerung erfährt, weil man in die Kundenbeziehung investiert hat, so wird dies als Uplift bezeichnet. Wichtig ist hier die Abgrenzung zu dem Konzept Lift. Die beiden Begriffe werden in der Praxis häufig synonym verwendet, was jedoch nicht zutreffend ist, da sie zwei unterschiedliche Bedeutungen haben, die nur vermeintlich gleich oder ähnlich sind. Während für Uplift eine klare, wissenschaftlich fundierte Definition besteht, die auch in der Praxis gängig ist, ist die Definition für Lift weniger präzise. Gerade in der Praxis wird der Begriff unzureichend klar abgegrenzt, sodass wir hier an dieser Stelle insbesondere auch unsere Wahrnehmung wiedergeben: • Als Lift wird der Unterschied bezeichnet, der sich aus einer alternativen Vorgehensweise ergibt. Nehmen wir als Beispiel die Selektion für einen Werbeträger. Es sollen für eine Auflage von 10.000 Stück passende Kunden selektiert werden. Die bisherige Vorgehensweise bestand darin, einfach 10.000 Kunden zufällig zu selektieren. Als neue, alternative Vorgehensweise sollen die Kunden nach der sogenannten Recency selektiert werden. Unter Recency versteht man den Zeitraum seit dem letzten Kauf. Es werden entsprechend die 10.000 Kunden mit der kleinsten Recency selektiert. Ob diese neue Vorgehensweise mehr Umsatz erzeugt, wird dann in einem A/B-Test ermittelt. Für den Test werden jeweils 5000 Kunden nach der alten Vorgehensweise selektiert und 5000 Kunden nach der neuen Vorgehensweise. Sollte die neue Selektionsweise nach der Recency zu mehr Umsatz gegenüber der zufälligen Selektion führen, so wird der Unterschied als Lift bezeichnet und in Prozent angegeben. Sollte also Gruppe A 100.000 EUR Umsatz erzeugen und Gruppe B 120.000 EUR, dann würde dies einem Lift von 20 % entsprechen. Hierbei bleibt unberücksichtigt, ob die Kunden wegen des Werbeträgers den (Mehr)Umsatz gemacht haben. Es kann also durchaus sein, dass diese Umsätze auch in Teilen ohne den Werbeträger erfolgt wären. Gerade die Recency ist hier gefährlich, weil diese Kennzahl auch die Kunden positiv aussehen lässt, die ohnehin häufig kaufen, weil sie den Anbieter als ihren Standardanbieter ausgewählt haben und diese Entscheidung nicht regelmäßig hinterfragen.

138

B. Goerke und D. Proppe

• Die Betrachtung des Uplift sieht anders aus. Unter Uplift versteht man die marginale Änderung, die durch eine Maßnahme eintritt (Radcliffe 2007, Lo 2002, Rzepakowski und Jaroszewicz 2012). Bei dem Beispiel des Werbeträgers würde man also messen, inwiefern sich der Umsatz ändert, weil der Werbeträger eingesetzt wurde. Auch hier werden A/B-Tests eingesetzt, aber das Testdesign ist anders. Würde man beispielsweise testen wollen, ob der Werbeträger einen Effekt hat, dann würde man zwei Gruppen mit den gleichen Eigenschaften ziehen. Wir betrachten nun Kunden mit einer weniger starken Bindung an das Unternehmen als die Kunden, die die niedrigste Recency haben. Die Testgruppe erhält den Werbeträger, die Kontrollgruppe erhält keinen Werbeträger. Macht die Testgruppe jetzt einen Umsatz von 100.000 EUR und die Kontrollgruppe einen Umsatz von 50.000 EUR, dann haben wir einen Uplift von 100 % beobachtet. Die Kontrollgruppe muss dabei nicht wie in diesem Beispiel strikt eine Nullgruppe darstellen. Es wäre beispielsweise ebenso denkbar, einen Werbeträger mit und ohne Incentive zu testen. Im Idealfall wird der Stimulus, über den auch später in der Zuweisung des Marketing-Budgets entschieden werden soll, variiert. Entscheidender Unterschied ist, dass für Uplift die Änderung gemessen wird, die durch einen Stimulus entsteht. Das Beispiel zum Lift wäre also aufgrund des Testdesigns nicht geeignet, Uplift zu messen, da es keine Variation im Stimulus gab. In der Praxis werden die Begriffe häufig nicht trennscharf verwendet. Man wird Situationen erleben, in denen auch im Kontext eines Testdesigns, das Uplift messbar macht, von Lift gesprochen wird. Um der Frage auf den Grund zu gehen, ob es sich um Lift oder Uplift handelt, muss man deswegen prüfen, was durch das Testdesign erzeugt wird. Das RFM-Konzept In der Marketing-Praxis beobachten wir regelmäßig die Verwendung des RFM-Paradigmas. Die Abkürzung RFM steht für die Begriffe Recency, Frequency, Monetary Value. Dieses Konzept wurde vielfach von der Forschung aufgegriffen und u. a. für die Bestimmung von zukünftigen Kundenlebenswerten genutzt (u. a. Fader et al. 2005; Moodley et al. 2019). Es handelt sich hierbei um Kennzahlen, die man für jeden einzelnen Kunden ermitteln kann. Die Recency steht für die Dauer seit dem letzten Kauf eines Kunden. Die Frequency steht für die Anzahl Käufe in einem bestimmten Zeitraum in der Vergangenheit, z. B. in den letzten 12 oder 24 Monaten. Der Monetary Value ist der Umsatz, den mit einem Kunden in einem bestimmten Zeitraum in der Vergangenheit gemacht hat – entweder gemessen als Summe aller Warenkörbe oder als Durchschnittsgröße der Warenkörbe. Wir beobachten in den Datensätzen aus der Praxis häufig, dass Kunden, die eine sehr kleine Recency haben, auch diejenigen sind, die eine hohe Wahrscheinlichkeit haben, in der näheren Zukunft wieder zu kaufen. Ähnlich verhält es sich mit einer hohen Frequency und einem hohen Monetary Value.

6  Uplift von Werbemaßnahmen

139

Wir gehen davon aus, dass es sich hierbei um Kunden mit einer sehr hohen Loyalität handelt. Das RFM-Paradigma führt häufig dazu, dass Kunden, die attraktive Werte auf den drei Dimensionen vorweisen, deutlich stärker beworben werden. Als einfache Heuristik trifft man die guten Bestandskunden nach unserer Einschätzung auch gut. Im Sinne einer holistischen Entwicklung des Kundenlebenswertes ist das Paradigma allerdings limitiert. Für die Entwicklung neuer Kunden beispielsweise lässt RFM kaum eine sinnvolle Differenzierung zu. Diese Kunden sehen in RFM alle sehr ähnlich aus (niedrige Recency, niedrige Frequency und niedriger Monetary Value). Hier müssen andere Daten und stärkere Methoden eingesetzt werden. Ähnlich verhält sich bei Cross-Selling, Churn, Reaktivierung und Incentive-Optimierung.

Die beiden Konzepte ähneln sich auf den ersten Blick. Allerdings kann beispielsweise bei dem Versuch, Lift zu erzeugen, sogar Wert zerstört werden. Nehmen wir an, die A/B-Tests ergeben, dass die 10.000 Kunden mit der niedrigsten Recency diejenigen sind, die den höchsten Umsatz erzeugen. Dann wäre die Schlussfolgerung, die Werbeträger an diese Kunden zu senden. Ohne einen Test auf Uplift bleibt jedoch unbekannt, ob diese Kunden nicht zumindest in großen Teilen sowieso kaufen würden. Wäre das der Fall, dann würde durch den Werbeträger kaum zusätzlicher Wert entstehen. Das Budget ist dann allerdings alloziiert und steht nicht mehr für andere Kundengruppen zur Verfügung, die durch den Werbeträger möglicherweise mehr Umsatz machen würden, als wenn sie keinen Werbeträger erhielten. Dies könnten beispielsweise die Kunden sein, die eine weniger starke Bindung an das Unternehmen haben und tatsächlich erinnert werden müssen, damit das Unternehmen wieder ins Relevant Set aufgenommen wird. In einem A/B-Test dieser Kundengruppe mit der Gruppe mit der niedrigsten Recency mag diese Gruppe zwar im absoluten Vergleich schlechter abschneiden, aber im relativen Vergleich – also bei der Frage, wie viel Umsatz zusätzlich entsteht – kann diese Gruppe den Vergleich möglicherweise gewinnen. Für die Gewinnmaximierung des Unternehmens wäre es dann also die richtige Entscheidung, diejenigen Kunden, die sich stärker aktivieren lassen, mit dem Werbeträger auszustatten. Ein Test auf den Lift würde aber die andere Option favorisieren und damit Wert für das Unternehmen reduzieren.

6.1.2 Herausforderung in der Praxis Methodisch ist das Problem des Uplifts gelöst. Es ist bekannt, wie man methodisch vorgehen müsste. Auch wenn konzeptionell Uplift klar zu bevorzugen ist, kann dieses Vorgehen in der Praxis nicht durchgehend eingesetzt werden. Im Gegenteil ist es unsere Beobachtung, dass Anwendungsfälle, die bewusst zur

140

B. Goerke und D. Proppe

Steigerung des Uplifts aufgebaut werden, zur Ausnahme gehören. Nach unserem Verständnis der Praxis hängt dies mit mehreren Aspekten zusammen. Zum einen gibt es eine einfach einzusetzende, ausreichend gute Heuristik, die fast in jedem Unternehmen Anwendung findet, und zum anderen gibt es eine Überlastung der Mitarbeiter in den analytischen Bereichen, die kaum Zeit finden, sich mit der methodischen Komplexität des Uplifts zu beschäftigen. So greift man in der Praxis häufig auf einfachere Lösungen zurück, die entweder über eine Heuristik oder einfachere Ansätze der Data Science gelöst werden. Nachfolgend stellen wir die unterschiedlichen methodischen Ansätze des Uplift-Modellings vor, um das Verständnis für die Hürden in der Praxis zu vermitteln und um die Grundlagen zu beschreiben, wie Uplift auch ohne den Stateof-the-Art der Data Science erzeugt werden kann. Nachdem die methodischen Grundlagen gelegt sind, gehen wir auf die Frage ein, woran der Einsatz in der Praxis im Detail scheitert, und welche negativen Implikationen sich auch aus Testdesigns zum Uplift ergeben können, die nicht der Situation angemessen erstellt wurden. Abschließend zeigen wir am Beispiel einer Drogeriekette Wege auf, wie man mit angemessenem Aufwand sicher und robust Uplift erzielt und so substanziell Wert für sein Unternehmen schafft.

6.2 Die methodischen Ansätze für Uplift-Modelling Um eine Entscheidung über den Einsatz von Uplift-Konzepten beurteilen zu können, werden zunächst die methodischen Ansätze vorgestellt. Im ersten Schritt wird das Konzept des Uplifts in Bezug zu den unterschiedlichen Kundensegmenten dargestellt und danach zentrale unterschiedliche methodische Ansätze vorgestellt.

6.2.1 Grundlegendes Konzept Das dem Uplift-Modelling zugrundeliegende Konzept ist tatsächlich relativ einfach. Dies lässt sich am besten nachvollziehen, in dem man Kunden eines Unternehmens hinsichtlich ihrer Werbereaktion konzeptionell in vier Gruppen einteilt, wie in Abb. 6.1 dargestellt. Jede Gruppe zeichnet sich durch eine andere Reaktion auf eine Werbeansprache aus. Die Persuadables sind die einzig interessante Gruppe. Sie kauft

6  Uplift von Werbemaßnahmen

141

Abb. 6.1   Unterschiedliche Kundensegmente in Abhängigkeit von ihrem Potenzial für Uplift. (In Anlehnung an Radcliffe und Surry 2011)

nur, wenn sie werblich angesprochen wird. Die Sure Things haben eine hohe Kaufneigung, unabhängig von der Werbeansprache. Die Lost Causes haben immer eine niedrige Kaufneigung, unabhängig von der Werbeansprache. Die Sleeping Dogs hingegen kaufen nur dann, wenn sie nicht angesprochen werden. Dieser recht seltsam anmutende Fall ist in der Praxis gar nicht so selten, insbesondere im Vertragsgeschäft. Besonders Telekommunikationsanbieter und Versicherungen müssen sich aufgrund der Vertragsbeziehungen mit ihren Kunden sehr stark mit diesem Effekt auseinandersetzen, der immer dann auftritt, wenn der Vertrag durch Nichtstun einfach fortgesetzt würde, da die Kunden oft erst dann an die Kündigung denken, wenn sie werblich durch das Unternehmen angesprochen werden. Es gibt also nur zwei Gruppen, bei denen Werbung überhaupt einen Effekt erzielt (Persuadables und Sleeping Dogs) und nur eine Gruppe, bei der der Effekt positiv ist. Diese Gruppe der Persuadables ist die Gruppe, die als einzige angesprochen werden sollte. Bei allen anderen Gruppen hat eine Werbeansprache keinen oder sogar einen negativen Effekt. Da Werbung immer Kosten verursacht, ist der Effekt für das Unternehmen bei diesen drei Gruppen immer negativ, nur bei den Persuadables kann er positiv sein. Das Ziel einer effizienten Kundenansprache muss also das gezielte Ansprechen der Persuadables sein.

142

B. Goerke und D. Proppe

6.2.2 Warum eine spezielle Art der Modellierung benötigt wird Wie im ersten Kapitel beschrieben, führt ein klassisches analytisches Vorgehen oft dazu, dass viele Kunden beworben werden, die ohnehin kaufen würden. Dies liegt darin begründet, dass sowohl die typisch verwendeten Heuristiken für die Kundenbewertung als auch die üblichen Modellierungsvorgehen auf der Analyse der vorherigen Umsätze des Kunden basieren. Typischerweise haben Kunden mit hohen vergangenen Umsätzen eine höhere Wahrscheinlichkeit für einen weiteren Kauf. Allerdings spielt in dieser Modellierung die Tatsache, dass dies auch ohne Werbeanstoß erfolgen kann, keine Rolle. Daher wird ein Scoring von Kunden, welches auf dieser Basis beruht, neben den Persuadables auch immer auf die Sure Things abzielen, da diese ohnehin ein hohes Kaufpotenzial haben. Die Lost Causes werden durch eine solche Analyse immerhin sicher ausgeschlossen, allerdings kann eine solche Analyse durchaus Sleeping Dogs als Kunden für eine Aktion aussuchen. Das ist bei einer Kündigung einer Vertragsbeziehung besonders schmerzhaft, da mit einem einzigen Anstoß der vollständige restliche Kundenlebenswert vernichtet werden kann. Im Vergleich zu dem Streuverlust bei Werbung, die an Lost Causes gerichtet ist, kann dieser Effekte die Wirtschaftlichkeit der Anstöße vollständig in Frage stellen. Daher ist es notwendig, eine Analysemethode zu nutzen, die nicht versucht, den zukünftigen Kundenumsatz zu maximieren, sondern eine Methode, die den zusätzlichen Umsatz aufgrund eines Werbemittels maximiert. Hierfür gibt es viele Methoden, von denen die wichtigsten im Folgenden kurz beschrieben werden. Allen Methoden ist gemein, dass sie mit dem Fakt umgehen müssen, dass die Zielvariable nicht direkt an einem Individuum beobachtbar ist, da ein Kunde ja entweder ein Werbemittel bekommen hat oder nicht. Ebenso kann der Erfolg nicht an einem einzelnen Individuum gemessen werden, da ein Kunde nur entweder kauft oder nicht. Die Erhöhung der Kaufwahrscheinlichkeit lässt sich nicht an einem Individuum beobachten. Daher kann das eigentliche Ziel der Modellierung nicht direkt gemessen werden, sondern eine Auswertung kann nur basierend auf Gruppenvergleichen vorgenommen werden. Man kann also im Gegensatz zu klassischem Marketing-Modelling keine Effekte am Individuum beobachten und auch nicht trainieren, sondern muss Schätzverfahren nutzen, die so auf Gruppen verallgemeinert werden können, dass man an diesen Gruppen die Uplift-Treiber messen kann.

6  Uplift von Werbemaßnahmen

143

6.2.3 Methoden für Uplift-Modelling Es gibt eine Vielzahl von methodischen Ansätzen für Uplift-Modelling. Im Folgenden werden zentrale Konzepte, die auch in der Praxis Aufmerksamkeit gefunden haben, vorgestellt. Dies soll als Entscheidungshilfe dienen, welche Ansätze für einen Einsatz im eigenen Unternehmenskontext denkbar erscheinen.

6.2.4 2-Modell-Ansatz Im so genannten 2-Modell-Ansatz wird für beide Gruppen, die beworbene Gruppe und die nicht beworbene Gruppe, jeweils ein Modell erstellt. Ein Modell wird auf die Kunden ohne Ansprache trainiert, das andere wird auf die Kunden mit Ansprache trainiert. Im Anschluss daran wird jeder Kunde von jedem Modell bewertet, er erhält also zwei Scores. In der Theorie sollte dann die Differenz zwischen diesen Prognoseergebnissen den erwarteten Uplift der Werbemaßnahme aufzeigen. Dies bedeutet, dass der Uplift sich aus dem prognostizierten Wert mit Werbemaßnahme minus dem prognostizierten Wert ohne Werbemaßnahme ergibt. Die folgende Tabelle (vgl. Tab. 6.1) illustriert die Berechnung des Uplifts in diesem Ansatz. Dieses ermöglicht es dann, die Kunden nach der maximalen Differenz zu sortieren, so dass nur diejenigen Kunden angesprochen werden, die laut Prognose einen maximalen Uplift erwarten lassen. Dies sind nicht unbedingt immer die Kunden mit der höchsten absoluten Kaufneigung, sondern die Kunden, bei denen das Werbemittel laut Prognose den höchsten Einfluss auf die Kaufneigung besitzen soll. Ein großer Vorteil dieses Modells ist die sehr einfache Umsetzung, da dies mit allen üblichen Methoden des Predictive Modelling möglich ist, wie zum Beispiel einer klassischen logistischen Regression oder Entscheidungsbaumverfahren. Ein

Tab. 6.1   Beispielhafte Ermittlung von Uplift im 2-Modell-Ansatz Kunde

Prognose mit Bewerbung (€)

Prognose ohne Bewerbung (€)

Uplift-Prognose (€)

147392

33,50

33,23

0,27

484799

23,40

19,40

4,00

584765

5,61

0,56

5,05

Quelle: Eigene Darstellung

144

B. Goerke und D. Proppe

schwerwiegender Nachteil dieses Ansatzes ist, dass aus statistischen Gründen der Vergleich von zwei verschiedenen Modellen nicht empfehlenswert ist, da beide Modelle auf unterschiedlichen Daten aufbauen und auch eine unterschiedliche statistische Aussagekraft haben. Sollte es zum Beispiel einen starken UpliftEffekt durch Werbung geben, so wird das Modell ohne die Werbeansprache eine deutlich geringere Response-Quote haben. Dies kann dazu führen, dass bei der Differenzbildung der beiden Prognosen nicht die valide Uplift-Differenz das Ergebnis ist, sondern die Differenz zum Beispiel auch einfach statistisches Rauschen sein kann. In der Praxis ist dies leider oft ein Nebeneffekt dieses Ansatzes. Oft sind die Differenzen in den beiden Prognosewerten nicht der wirkliche Uplift, sondern ein Artefakt, welches aus der unterschiedlichen Prognosegüte der Modelle gespeist wird. Lo (2002) hat einen Ansatz vorgestellt, der diesen Nachteil zum Teil ausgleichen soll. Er schlägt vor, die Berechnung in einem Modell vorzunehmen, in dem die Tatsache, dass eine Werbung stattgefunden hat, als Einflussvariable aufgenommen wird und mit dieser Variable dann Interaktionseffekte auf andere Einflussgrößen gebildet werden. Dies verringert das Problem des schädlichen Vergleichens zweier unabhängige Modelle. Allerdings bleibt der wesentliche Nachteil, dass hier auch zwei unterschiedliche Kombinationen von Einflussvariablen miteinander verglichen werden. Auch dies kann dazu führen, dass die Prognose des Uplifts mehr ein Artefakt als ein valides statistisches Ergebnis ist. In der Praxis wird dieses Modell von Lo (2002) häufig angewandt. Laut der persönlichen Erfahrungen der Autoren erzeugt dieses Modell teilweise gute praktische Ergebnisse, wobei allerdings auch hier die Anzahl der Fehlschläge die Anzahl der erfolgreichen Einsätze übertrifft.

Flip the Target-Ansatz Einen völlig anderen Ansatz, der ebenfalls konzeptionell einfach ist, schlagen unter anderem Jaskowski und Jaroszewicz (2012) vor. Sie transformieren die Zielvariable, um dann mit Standardmethoden ein Modell berechnen zu können. Sie machen sich die folgende logische Überlegung zu Nutzen: Ein für Werbung möglichst geeigneter Kunde sollte nicht nur eine möglichst hohe Kaufwahrscheinlichkeit bei einer Werbeansprache haben, sondern auch ohne Werbeansprache möglichst nicht kaufen. Daher wird der positive Event wie folgt definiert: Kauft ein durch Werbung angesprochener Kunde, zählt dieser Event positiv. Kauft ein nicht durch Werbung angesprochener Kunde nicht, zählt dieser Event ebenfalls positiv. Wenn ein nicht durch Werbung angesprochener Kunde kauft,

6  Uplift von Werbemaßnahmen

145

Abb. 6.2   Ableitung der Zielvariable für die Modellierung nach dem „Flip the target“Ansatz. (In Anlehnung an Jaskowski und Jaroszewicz 2012)

Abb. 6.3   Klassische Zielbildung in Response-Modellen. (Eigene Erstellung)

zählt dies nicht als positiver Event. Ebenso zählt es nicht als positiver Event, wenn ein durch Werbung angesprochener Kunde nicht kauft. Die folgende Abbildung (vgl. Abb. 6.2) stellt diese Art der Zielgrößenberechnung dar. Im Vergleich dazu die „klassische“ Zielbildung bei Scoring-Modellen für die Kaufwahrscheinlichkeit in Abb. 6.3. Jaskowski und Jaroszewicz (2012) zeigen in ihrer Arbeit, dass durch diese Transformation ein theoretisch optimales Modell berechnet werden kann, da die Zielgröße aus Abb. 6.2 genau die zu optimierende Uplift-Zielgröße ist. Allerdings

146

B. Goerke und D. Proppe

stellt diese Methode sehr hohe Anforderungen an die Daten, so müssen zum Beispiel alle vier Zielvariablenmöglichkeiten gleich häufig in den Daten vorkommen. Dies wird in der Praxis nie erreicht, so dass man komplexe Datenvorbereitungen benötigt. In der subjektiven Praxiserfahrung hat dieses Modell eine hohe Volatilität. Es erreicht sehr hohe Uplifts, wenn es funktioniert, liegt aber auch sehr weit daneben, wenn es nicht funktioniert. Leider lassen sich die Effekte typischerweise nur durch einen Praxistest sicher ermitteln.

Integrierte Algorithmen (Spezialisierte Entscheidungsbäume) Die beiden vorgenannten Ansätze nutzen für die Modellermittlung ausschließlich Standardverfahren der statistischen Analyse und sind daher einfach berechenbar, da für diese bereits in so gut wie allen statistischen Softwarelösungen einfach zu nutzende Pakete vorliegen. Es gibt weitere Ansätze für das Uplift-Modelling, die die Besonderheit des Uplift-Effekts direkt in den Modellalgorithmus einbetten. Hier werden die Prognosen also nicht durch Umstellung der Modellaufbereitung oder der Zielvariablenaufbereitung erreicht, sondern durch ein anderes mathematisches Verfahren. Die Implementierung ist daher deutlich aufwändiger. Sehr häufig werden dabei modifizierte Entscheidungsbaumverfahren angewandt. Pioniere auf diesem Gebiet waren Radcliffe und Surry (2011). Sie haben das Prinzip der sogenannten „Significance-Based Uplift Trees“ geschaffen. Diese sind sehr ähnlich zu klassischen Entscheidungsbaumverfahren, mit dem Unterschied, dass nicht bei jedem Split versucht wird, den Unterschied der Kaufneigung zwischen den beiden zu trennenden Subpopulationen zu maximieren, sondern den Unterschied im Uplift zwischen den beiden zu trennenden Subpopulationen. Dieser Ansatz wurde in späteren Jahren noch auf weitere Methoden neben den Entscheidungsbäumen erweitert. Auch diese Ansätze haben sich in der Praxis noch nicht weitgehend durchgesetzt. Als Grund hierfür werden Implementierungsprobleme, insbesondere in den hohen Datenanforderungen, die an diese komplexen Modelle gestellt werden, vermutet. Einer der Autoren konnte am Rande der PyData-Konferenz in Berlin 2017 mit dem Hauptautor von Radcliffe und Surry (2011), Nicholas Radcliffe über das Thema Adoption in der Praxis ausführlich sprechen. Er hatte inzwischen selber weitestgehend von diesen Projekten Abstand genommen, da seiner Erfahrung nach oftmals Daten und die Bereitschaft sich mit dem komplexen Thema auseinander zu setzen, nicht ausgereicht haben.

6  Uplift von Werbemaßnahmen

147

6.3 Gründe für das Scheitern theoretischer UpliftModelle in der Praxis Wie in der Methodenübersicht dargestellt, gibt es eine Reihe von Herausforderungen, die Uplift mit sich bringt. Die Probleme sind unterschiedlich gelagert. Im Folgenden werden wir auf die spezifischen Aspekte der einzelnen Probleme eingehen. So soll es möglich werden, für die eigenen Rahmenbedingungen im Unternehmenskontext zu entscheiden, ob die zu erwartenden Hürden genommen werden können.

6.3.1 Nullgruppen Ein zentrales Problem bei der Durchführung eines Uplift-Projekts ist die Erstellung und Erhaltung von Nullgruppen. Die Nullgruppen sind notwendig, um sowohl Kunden mit und ohne Stimulus in den Daten zu haben. Das ist in der Praxis nie der Fall – jedenfalls nicht in der notwendigen Form. Die Nullgruppe muss nämlich unter einer Bedingung gezogen werden, die ein Risiko für das Unternehmen darstellt: Zufälligkeit. Stellt man sich beispielhaft den Bestand an Kunden eines Unternehmens vor, so unterteilen sich die Kunden in verschiedene Gruppen, die wiederum sehr unterschiedlichen zukünftigen Wert darstellen. Machen wir der Einfachheit halber eine Unterteilung in A-, B- und C-Kunden. In der Praxis wird man meistens noch deutlich komplexere Segmente bilden, die beispielsweise noch einmal nach Ländern oder Kundenlebenszyklusphasen gegliedert sind (z. B. Neukunden, Bestandskunden, inaktive Kunden). Wo entsteht jetzt das Risiko? Die Nullgruppe im Uplift-Modelling bedeutet, dass diese Gruppe nicht beworben werden darf. Die C-Kunden nicht zu bewerben, wird sich in den meisten Fällen durchsetzen lassen. Bei B-Kunden wird es schon schwieriger, doch bei A-Kunden werden in vielen Unternehmen Widerstände entstehen. Sagen wir, ein Unternehmen hat 1.000.000 Kunden im Bestand. Davon sind 15 % A-Kunden, 25 % B-Kunden und die restlichen 60 % sind die C-Kunden. Wenn man eine Nullgruppe in der Größenordnung von 10 % definiert, dann muss die Zufälligkeit auch für die Kunden aus den Segmenten A und B gelten. Die Nullgruppe würde im Bereich der A-Kunden somit 15.000 Kunden ausmachen und im Bereich der B-Kunden noch einmal 25.000 Kunden.

148

B. Goerke und D. Proppe

Je nachdem, wie lange die Nullgruppe jetzt aufrechterhalten werden muss, werden also 40.000 wichtige Kunden nicht mit Werbung kontaktiert. Dies ist ein recht großer Aufwand, der zudem mit einem gewissen Umsatzrisiko verbunden ist. Dies führt häufig dazu, dass keine sauberen Nullgruppen eingesetzt werden. Wieso sind die Verantwortlichen nicht bereit, in den Erkenntnisgewinn, der auf der Habenseite steht, zu investieren? Hinter der Ablehnung steht die Annahme, dass die Werbung wirkt. Würde sie es nicht tun, könnte man sie entsprechend auch einstellen und es müsste keine Bedenken gegen die Nullgruppe geben. Dieses extreme Szenario ist gut geeignet, um zu verstehen, dass es Grenzen hinsichtlich der Reduzierung von Werbung gibt. Dass ein Unternehmen noch floriert, wenn es überhaupt keine Kommunikation mehr nach außen macht, erscheint in den meisten Situationen nicht plausibel. Entscheidend ist, zu verstehen, wie sehr die Werbung wirkt. Ob sie ihre Wirkung wie angenommen entfaltet, kann nur über ein Design mit Nullgruppen bestimmt werden. Und damit kommt man in eine Situation von Henne und Ei: Ob man Werbung weglassen kann, erfährt man nur, indem man Werbung weglässt. Eine Möglichkeit, die hohen Aufwände für Nullgruppen zu reduzieren, ist der Ausschluss der A-Kunden aus der Nullgruppe. Das ist möglich. Aber dann hat man auch keine Muster für diese Kundengruppe aufgebaut, die über die entsprechenden Methoden herausgearbeitet werden könnten. Schließt man also die A-Kunden aus, bleibt nur die Ermittlung von Uplift-Mustern in den B-Kunden. Sollte diese Modifikation des Experimentdesigns die Akzeptanz des Vorgehens im Unternehmen verbessern, so kann man das in Erwägung ziehen. Man muss jedoch berücksichtigen, dass die entsprechenden Modelle nur geeignet sind, um B-Kunden einzuschätzen. Für A-Kunden gelten die Modelle entsprechend nicht. Technisch kann es dennoch möglich sein, die Modelle auch auf die A-Kunden anzuwenden. Das wird aber zu Verzerrungen führen und damit systematisch zu einer falschen Einschätzung. Wie groß die Nullgruppen tatsächlich sein müssen, kann vorab berechnet werden. Die Größe der Gruppen hängt von mehreren Einflussfaktoren ab. Die Gesamtheit der Gruppe und die durchschnittliche Konversionsrate innerhalb der Gruppe sind wichtig. Diese beiden Werte lassen sich nur wenig beeinflussen. Zwei weitere Faktoren lassen sich jedoch beeinflussen: die Höhe des mindestens angestrebten Uplifts im Vergleich zur Nullgruppe und das Signifikanzniveau. Die Hebel auf die Größe der notwendigen Nullgruppe können erheblich sein. Wenn man entscheidet, dass eine Irrtumswahrscheinlichkeit von 10 % auch im Vergleich zu den häufig angesetzten 5 % akzeptabel ist, dann wird die Nullgruppe dadurch kleiner ausfallen können.

6  Uplift von Werbemaßnahmen

149

Sollte man sich tatsächlich für die Durchführung eines Uplift-Projekts entscheiden, ist es ratsam, die notwendige Nullgruppengröße vorab zu bestimmen. So kann sichergestellt werden, dass die Gruppe weder aus Versehen zu klein ausfällt und später keine Aussage getroffen werden kann, ob sich das gelohnt hat, noch ist die Nullgruppe dann unnötig groß, was eventuelle Opportunitätskosten minimiert.

6.3.2 Testdesign Die Nullgruppen sind Teil des Testdesigns. Da sie wirtschaftlich von so großer Bedeutung für Uplift-Projekte sind, wurden diese separat diskutiert. Aber auch das Testdesign an sich ist ein wichtiger Faktor, wieso Uplift-Projekte in der Praxis nur selten erfolgreich durchgeführt werden können. Zwei Aspekte sind dabei von besonderer Bedeutung, die wir nachfolgend vorstellen: Die eigentliche Entwicklung des Testdesigns und die Einhaltung des Testdesigns während des Experiments.

Entwicklung des Testdesigns Die Entwicklung des Testdesigns für Uplift-Modelling unterliegt einer besonders hohen Komplexität. Und genau darin liegt das Problem. Da die Auswirkungen von Uplift-Projekten weitreichend und meistens bereichsübergreifend sind, müssen regelmäßig sehr viele Personen an einen Tisch gebracht werden, die sich auf eine Linie einigen. Das lässt sich gut an dem Beispiel der Nullgruppen beobachten. Zum einen muss entschieden werden, ob und in welchem Umfang Nullgruppen eingesetzt werden. Und zum anderen muss man sich noch über den zeitlichen Umfang verständigen. Allein die Frage, eine Gruppe von A-Kunde längere Zeit nicht zu bewerben, betrifft viele Bereiche in einem Unternehmen. Unmittelbar betroffen sind die unterschiedlichen Marketing-Bereiche. Häufig ist dies in Bereiche wie Offline-Kanäle, Online-Kanäle, Social, Shop und Performance unterteilt. Alle diese Bereiche können jeweils Kontakt mit den Kunden aufnehmen und führen ihre Aktionen häufig in einem nur grob mit den anderen Bereichen abgestimmten Rahmen durch. Insofern müssen sich diese Bereiche einig werden, damit nicht einer der Bereiche doch in der Nullgruppe wirbt. Darüber hinaus können aber auch eher unerwartete Einflüsse beispielsweise aus den Bereichen wie dem Einkauf oder der Finanzen kommen, die fürchten, dass ihre eingekaufte Ware keinen Abnehmer mehr findet oder dass die Liquidität gefährdet werden könnte. Wenn

150

B. Goerke und D. Proppe

Liquiditätssorgen geäußert werden, erfordert es ein sehr starkes Commitment eines hochrangigen Entscheidungsträgers, der das Risiko übernimmt. Neben der verteilten Entscheidungssituation ist auch über eine Definition der Nullgruppe zu entscheiden. Ein schwerwiegender Aspekt ist die Dauer der Aufrechterhaltung der Nullgruppe. Würde man die Kunden nur für einen einzigen Marketing-Anstoß aus dem Marketing-Programm nehmen, wäre die Entscheidung sicherlich häufig kein Diskussionspunkt. Aber gerade bei den guten Kunden ist die Hypothese plausibel, dass sie eine starke Bindung zu dem Unternehmen haben und einen besonders ausgeprägten Marketing-Stock. Das einfache Auslassen von einzelnen Anstößen würde gerade in diesen Kundengruppen kaum zu einem Nachlassen der Kaufbereitschaft bzw. des Kundenwertes führen. Das ist eine Beobachtung, die die Autoren regelmäßig in Projekten machen. Um ein Nachlassen der Loyalität und des Marketing-Stock zu erreichen, muss man die Kunden länger von dem Marketing-Programm ausschließen. Die Diskussion kreist dann beispielsweise um die Frage, ob zwölf Monate ausreichen. Bei dieser Spanne wiederum bekommen dann die Opportunitätskosten, die durch die fehlende Bewerbung zu befürchten sind, eine große Bedeutung. Über diese Frist ist damit zu rechnen, dass man einen Teil der A-Kunden verliert und möglicherweise auch nach Beendigung des Experiments nicht mehr zurückgewinnen kann. Diese Befürchtungen sind berechtigt und tatsächlich ist im Vorwege nicht seriös ermittelbar, wie schwer dieser Schaden langfristig wiegen wird. Je stärker die Entscheidung in einem Unternehmen verteilt ist, desto unwahrscheinlicher ist es, dass die Entscheidung für ein Uplift-Projekt fällt. Man kann dies durch externe Beratung unterstützen, aber auch hier gibt es Grenzen dessen, was erreicht werden kann.

Einhaltung des Testdesigns Sofern man sich auf ein Testdesign geeinigt hat, muss sichergestellt werden, dass dieses auch eingehalten wird. In vielen Organisationen ist das äußerst komplex. Sofern die unterschiedlichen Kontaktwege zu den Kunden verteilt gesteuert werden, ist es ein erheblicher Aufwand, eine einmal definierte Nullgruppe über alle Kanäle auch ohne ungewollte Kontaktaufnahme sicherzustellen. Die Probleme entstehen in den unterschiedlichen Unternehmensbereichen häufig durch Informationsverluste, weil die unterschiedlichen Mitarbeiter notwendige Informationen nicht teilen oder aber Anweisungen abweichend vom Testdesign interpretieren. Auch für die Einhaltung des Testdesigns ist die Dauer des Experiments von großer Bedeutung. Je länger das Projekt dauert, desto höher ist die Wahrscheinlichkeit von Personalwechseln, die immer mit einem erheblichen Risiko eines

6  Uplift von Werbemaßnahmen

151

Informationsverlustes einhergeht. Ebenso kann es in den einzelnen Bereichen zu neuen strategischen Schwerpunkten kommen, die dazu führen, dass das Testdesign nicht mehr eingehalten werden kann. Seit einigen Jahren besteht die Möglichkeit, für die Steuerung der MarketingAktivitäten sogenannte Marketing Automation Software einzusetzen. In diesen Lösungen werden die unterschiedlichen Kontaktwege, die sogenannten Customer Journeys, modelliert und automatisiert. Neben der Effizienzsteigerung in der Aussteuerung der Marketing-Aktivitäten haben entsprechende technologische Ansätze einen positiven Einfluss auf die Durchführbarkeit von Uplift-Projekten: Da ein Unternehmen sich im Normalfall nur für eine einzige Marketing Automation Software entscheidet, beginnen die einzelnen Unternehmensbereiche, ihre unterschiedlichen Aktivitäten in einer einzigen Software zu steuern. Durch die Zusammenführung der Aktivitäten ist es einfacher, die einzelnen MarketingAktionen aufeinander abzustimmen. Wenn ein Kunde beispielsweise einen Anstoß per Direct Mail ohne Gutschein erhalten soll, wird es einfacher zu kontrollieren, dass dieser Kunde parallel nicht doch einen Newsletter mit einem Gutschein erhält. Nur wenn entsprechende Prozesse sichergestellt werden können, kann das Testdesign funktionieren. Ebenso ist es einfacher, unternehmensweite Nullgruppen einzuhalten. Diese können in einer Marketing Automation Software einfacher hinterlegt und jedem verfügbar gemacht werden. Die Nutzung einer Marketing Automation Software stellt eine wichtige Stütze für ein erfolgreich durchgehaltenes Testdesign dar. Eine voll integrierte Marketing Automation Software ist zum gegenwärtigen Stand allerdings noch die Ausnahme. Wir sehen aktuell eine Reihe von Initiativen, entsprechende Lösungen zu implementieren. Bis tatsächlich das Marketing-Programm vollständig in einer entsprechenden Lösung abgebildet ist, vergehen aber mehrere Jahre. Insofern ist es notwendig, sich mit den Folgen der Nichteinhaltung des Testdesigns auseinanderzusetzen. Das größte Problem besteht unseres Ermessens in der Nicht-Beobachtung von Abweichungen. Dezentral ausgeführte MarketingAktionen, die auch in der Nullgruppe laufen, aber nicht im Testdesign vorgesehen sind, und denjenigen, die die Analysen machen, nicht bekannt sind, können zu schwerwiegenden Verzerrungen der Prognosen über das Kundenverhalten führen. In den Modellstatistiken, die der Bewertung der Analysen dienen, werden diese Probleme möglicherweise nicht zu erkennen sein. Mit der Auflösung genau dieser Fragestellung beschäftigen die Autoren sich einen substanziellen Teil ihrer Zeit in der Kundenbetreuung. Wie kann so ein Problem aussehen? Nehmen wir beispielsweise an, gemäß Testdesign soll eine Gruppe von Kunden ein Angebot zum normalen Preis und ohne weiteres Incentive per Newsletter erhalten. Eine weitere Gruppe erhält das

152

B. Goerke und D. Proppe

gleiche Angebot – nur zu besseren Konditionen – nämlich mit einem Incentive. Nach Ablauf der Aktion kann durch den Vergleich der Gruppen analysiert werden, welchen Einfluss das Incentive auf die Konversionsrate und andere Erfolgsmaße wie beispielsweise den Warenkorb hat. Läuft nun parallel eine Aktion in der App zum Webshop, die dasselbe Produkt mit Incentives bewirbt und an alle Kunden gerichtet ist, obwohl dies im Testdesign ausgeschlossen wurde, besteht die Gefahr, dass die Kunden wegen des incentivierten Angebots in der App reagieren. Sofern das in den Daten nicht ersichtlich ist bzw. niemand danach sucht, weil es eben auch nicht vorgesehen war, wird dies den Erfolg des Angebots ohne Incentive verfälschen. Die Annahme wäre, dass die Kunden besser reagieren, als wenn sie tatsächlich kein Incentive bekommen hätten. Damit wird der Uplift, den das Incentive erzeugt, fälschlich reduziert. So wiederum wird die Wirksamkeit dieses Instruments unterschätzt und zukünftig möglicherweise falsch eingesetzt. So entgeht dem Unternehmen dann Kundenwert. Neben den nicht beobachteten Abweichungen vom Testdesign können natürlich auch Abweichungen auftreten, die man beobachten kann. Das kann zwar den gesamten Testaufbau infrage stellen, aber wenn die Abweichungen bekannt sind, kann man bewusst darüber entscheiden, wie man mit dem Problem umgeht. Möglicherweise gibt es Wege, das Problem noch zu heilen. Zumindest bleibt die Möglichkeit, das Projekt abzubrechen, bevor es zu Interpretationen kommt, die zwar aus den Mustern in den Daten folgen, aber nicht dem entsprechen, was von Seiten der Analysten zu erwarten war.

6.3.3 Bewertung Die Komplexität des Testdesigns ist ein zentraler Aspekt bei der Entscheidung über Uplift-Projekte. Die Herausforderungen, die mit so einem Projekt einhergehen, sind beherrschbar, erfordern jedoch einiges an Aufwand. Aus der Sicht der Autoren ist ein wichtiger Erfolgsfaktor, dass es einen unternehmensweiten Konsens darüber gibt, dass ein entsprechendes Projekt durchgeführt werden soll. Ebenso wichtig ist es, dass die technischen Voraussetzungen geschaffen werden, damit die mit dem Projekt einhergehenden Aufwände in einem vertretbaren Rahmen bleiben. Ansonsten läuft man Gefahr, dass in dem Projekt Abkürzungen genommen werden, die im schlimmsten Fall zu falschen Implikationen führen und dann systematisch Wert vernichten. Häufig ist es nicht möglich, die Voraussetzungen kurzfristig zu schaffen. Das bedeutet aber nicht, dass man nicht systematisch Uplift erzeugen kann und dabei

6  Uplift von Werbemaßnahmen

153

das Risiko überschaubar hält. Im Folgenden stellen die Autoren exemplarisch dar, wie ein Unternehmen ohne hohen methodischen Aufwand Uplift erzeugt und damit einen hohen Wertbeitrag geleistet hat.

6.4 Wie Uplift in der Praxis dennoch gelingt – der Case einer Drogeriekette Die Autoren haben in der Praxis viele verschiedene Ansätze angewandt, um Uplift in Werbekampagnen zu optimieren. Viele dieser Ansätze haben gute Ergebnisse erzielt, viele leider nicht so gute. Wie im vorangegangenen Kapitel erläutert, sind es dabei oft die Ansätze, die ein theoretisch richtiges Uplift-Modell nutzen, die nicht so gut funktioniert haben. Aus dieser Situation heraus haben wir in den letzten Jahren mit unseren Kunden gemeinsam Ansätze entwickelt, bei denen Uplift auch mit klassischen Modellierungsmethoden optimiert werden kann. Exemplarisch stellen wir in diesem Kapitel den Ansatz einer Drogeriemarktkette vor, die die Software Gpredictive einsetzt, um nur den Kunden ihrer Kundenkarte postalische Werbung zukommen zu lassen, bei denen ein Uplift gegenüber der Nichtbewerbung zu erwarten ist.

6.4.1 Ausgangssituation Drogeriemärkte leben von der Frequenz der regelmäßigen Kunden. Im Gegensatz zum klassischen E-Commerce z. B. im Fashion-Bereich gilt hier ein Kunde oft schon als gefährdet, wenn er seit 30 Tagen nicht mehr in einem Markt war. Um die Kunden stärker an einen Drogeriemarktanbieter zu binden, wurde vor Jahren eine Kundenkarte eingeführt. Mit dieser können Kunden sich Incentives verdienen. Für das Unternehmen hat die Karte den Vorteil, dass die Kunden damit namentlich bekannt sind, per Direktwerbung adressiert werden können und ihre jeweilige Einkaufshistorie für Analysen und zielgerichtete Werbekommunikation genutzt werden kann.

6.4.2 Herausforderung Die Frequenz der Kartenkunden wird sehr stark mit postalischen Anstößen getrieben. Da zu den Kundenkartenkunden auch ein großer Teil sehr loyaler und häufig kaufender Kunden gehört, gab es die Vermutung, dass man bei

154

B. Goerke und D. Proppe

einigen Kunden durchaus weniger Werbedruck ausüben und trotzdem ähnliche Frequenzen und Umsätze erzielen kann. Daher war einer der Wünsche an die Zusammenarbeit, einen Mechanismus zu entwickeln, mit dem nur die Kunden beworben werden, die auf einen zusätzlichen Werbeanstoß positiv, d. h., mit einem gesteigerten Umsatz, reagieren.

6.4.3 Lösungsansatz Zunächst wurden Umsatzprognosen für jeden Kunden für jeweils einen Monat erstellt. Somit liegt für jeden Kundenkartenkunden am Anfang des Monats eine Umsatzprognose für den kommenden Monat vor. Diese Kunden erhalten nun in diesem Monat Werbeanstöße. Da es ca. 90 Werbeanstöße im Jahr gibt, erhält ein Kunde, der alle Anstöße bekommt, ca. 2x pro Woche eine postalische Werbung. Diesen Werbedruck erhält allerdings kaum ein Kunde. Tatsächlich variiert die Anzahl der Werbeanstöße, die ein Kunde bekommt, je nach Inhalt und Kaufhistorie des Kunden. Diese Variation wird genutzt, um die Uplift-Heuristik aufzustellen. Natürlich wäre es optimal gewesen, die Kunden zufällig im Werbedruck zu variieren. Diese konnte aber aufgrund der strategischen Ausrichtung der Werbemittel nicht flächendeckend gemacht werden, so dass es natürlich gewisse Endogenitäten in der Variation der Werbemittel gibt. Diese entstehen zum Beispiel dadurch, dass in der Vergangenheit gute Kunden häufig weiterhin viele Werbemittel erhalten. Dennoch rechtfertigen die in der Praxis guten und stabilen Ergebnisse diesen Ansatz. Sie funktioniert wie folgt: Nach jedem Monat wird für jeden Kunden die Prognose vom Monatsanfang mit dem tatsächlichen Umsatz am Monatsende verglichen. Zudem wird notiert, ob der Kunde in diesem Monat einen für ihn überoder unterdurchschnittlichen Werbedruck erhalten hat. Die Hypothese war, dass ein Kunde, der auf Werbung reagiert, bei einem überdurchschnittlichen Werbedruck einen höheren Umsatz als die Prognose erzielt. Ein Kunde, der sich nicht von dieser Art der postalischen Werbung beeinflussen ließe, hätte demnach keine systematische Änderung gegenüber der Prognose. Auf Einzelkundenebene sieht das dann so aus (vgl. Tab. 6.2): Werbedruck steht für eine Erhöhung der Werbedrucks für diesen Kunden. Exemplarisch sieht man hier, dass der Kunde mit der Kundennummer 12003 überdurchschnittlich beworben wurde. Da sein Umsatz über der Prognose für ihn lag, erhält er aufgrund der Heuristik eine höhere Werbeaffinität. Dadurch bekommt jeder Kunde eine individuelle Werbeaffinität, die jeden

6  Uplift von Werbemaßnahmen

155

Tab. 6.2   Exemplarische Berechnung des Werbeaffinitätskennzeichens für vier Kunden Kundennummer

Umsatz Umsatzdelta UmsatzNovember (€) (€) prognose November (€)

Werbedruck

Werbeaffinität

12003

150

1

+0,13

170

20

23004

150

150

0

1

+/-0

34005

150

80

0

+0,47

45006

150

160

−70

0

−0,07

Quelle: Eigene Erstellung

10

Abb. 6.4   Auswertung der Werbeaffinität über zehn Kundenlebenswert-Klassen. (Eigene Darstellung)

Monat aktualisiert wird und es dem Unternehmen ermöglicht anhand der prognostizierten Umsatzwerte und der heuristisch ermittelten Werbeaffinität genau die Kunden für einen Werbeanstoß auszuwählen. Wenn man nun die Ergebnisse aggregiert und zum Beispiel in zehn Prognosegruppen von hoch nach niedrig einteilt, so lassen sich einige Erkenntnisse generalisieren. Aus der obigen Abbildung (vgl. Abb. 6.4) lässt sich entnehmen, dass nicht alle Prognosegruppen gleich auf Werbung reagieren. Während in den oberen drei Gruppen (den Top 30 % nach Umsatzprognose) ein relativ hoher Werbedruck herrscht (blauer Balken), ist das relative Umsatzplus bei Bewerbung dort nicht am größten. Es sieht eher so aus, als wären die Gruppen 4–8 (Das Mittelfeld, geranked nach Umsatzprognose) affiner für eine Erhöhung des Werbe-

156

B. Goerke und D. Proppe

drucks. Hier sind die relativen Umsatzzuwächse gleich hoch oder höher als in der Top-Gruppe, bei gleichzeitig deutlich geringerer Werbeintensität, die hierfür notwendig ist. Hieraus konnte die Schlussfolgerung gezogen werden, generell bei den Top-Kunden die Werbefrequenz etwas zurückzufahren. Die interessanten Kunden für eine starke postalische Bewerbung scheinen die Kunden in den mittleren Segmenten. Hier scheinen die Persuadables gemäß des Konzepts aus Abb. 6.1 einen hohen Anteil zu haben. Bei diesen ist das Unternehmen noch nicht komplett als Standardanlaufstelle gesetzt, so dass diese auf zusätzliche Impulse positiv reagieren.

6.4.4 Ergebnis und Next Steps Mit dieser Maßnahme konnten die Kosten für diese Art der Bewerbung um eine zweistellige Prozentzahl gesenkt und trotzdem ein signifikanter Umsatzzuwachs erzielt werden, der ebenfalls im zweistelligen Prozentbereich liegt. Der Einsatz dieser robusten Heuristik zur Erzielung eines Uplift-Effektes hat sich hier also bezahlt gemacht. Das Charmante bei dieser Heuristik ist, dass diese in einem gewissen Maße selbstregulierend ist, da die Werbeaffinität anhand der tatsächlichen Reaktion im Vergleich zum Werbedruck jeden Monat aktualisiert wird. Wenn ein Kunde also gut auf Werbung reagiert, erhält er mehr Werbung, bis zu dem Punkt, an dem die zusätzliche Werbung nicht mehr zu einer Erhöhung des Umsatzes führt. Dann sinkt seine Werbeaffinität wieder, bis er wieder reagiert. Allerdings eignet sich diese Art der Messung nur für Firmen, deren Kunden sehr häufig und mit recht stabilen Umsätzen kaufen, z. B. Händler, die einen täglichen Bedarf decken. Zudem kann es sein, dass ein Kunde, der eine sehr geringe Werbeaffinität zeigt, irgendwann „austrocknet“, d. h., er bekommt gar keine Werbung mehr und kann sich daher auch nicht mehr in die Bewerbung durchsetzen. Daher sollte man bei der Anwendung dieser Heuristik unbedingt bei jeder Aussendung eine Kontrollgruppe und eine zufällige Bedienungsgruppe mitlaufen lassen, um auch Effekte zu sehen in Gruppen, die man eventuell wegoptimiert hat. Insbesondere ist das wichtig bei denen, die aufgrund geringerer Werbeaffinität irgendwann gar keine Werbung mehr bekommen. Hier sollten evtl. zusätzlich auch gewisse Werbeeinsätze eingestreut werden, damit der Kunde eine Chance hat, wieder zu reagieren.

6  Uplift von Werbemaßnahmen

157

Literatur Fader, P. S., Hardie, B. G. S., & Lee, K. L. (2005). RFM and CLV: Using iso-value curves for customer base analysis. Journal of Marketing Research, XLII(4), 415–430. Jaskowski, M., & Jaroszewicz, S. (2012). Uplift modeling for clinical trial data. ICML Workshop on Clinical Data Analysis. Lo, V. S. (2002). The true lift model – A novel data mining approach to response modeling in database marketing. SIGKDD Explorations, 4(2), 78–86. Moodley, R., Chiclana, F., Caraffini, F., & Carter, J. (2019). A product-centric data mining algorithm for targeted promotions. Journal of Retailing and Consumer Services, 54, 101940. Radcliffe, N. J. (2007). Using control groups to target on predicted lift: Building and assessing uplift models. Direct Marketing Journal, 1, 14–21. Radcliffe, N. J., & Surry, P. D. (2011). Real-world uplift modelling with significance-based uplift trees. White Paper TR-2011-1, Stochastic Solutions (S. 1–33). Rzepakowski, P., & Jaroszewicz, S. (2012). Uplift modeling in direct marketing. Journal of Telecommunications and Information Technology, 2012, 43–50.

Björn Goerke und Dennis Proppe Die Autoren sind Gründer und Geschäftsführer der Softwarefirma Gpredictive GmbH. Diese Software ermöglicht es, hochautomatisiert Machine-Learning-Modelle für Customer-Relationship-Zusammenhänge zu erstellen. Sie wird daher von vielen Händlern, Herstellern und Medienunternehmen genutzt, um ihre Unternehmen in Richtung einer echten Kundenzentrierung zu entwickeln. Beide Autoren sind zudem Dozenten an der Fachhochschule Wedel im Bereich Smart Data und wurden an der Universität Kiel im Fachbereich Marketing promoviert.

7

A/B-Testing – Verfahren zur Optimierung der digitalen Interaktion zwischen Konsumenten und Unternehmen Manuel Stegemann und Thomas Suwelack Inhaltsverzeichnis 7.1 Der Begriff A/B-Testing. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Das Vorgehen beim A/B-Testing. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3 Zentrale Prinzipien beim experimentellen Vorgehen. . . . . . . . . . . . . . . . . . . . . . . . 7.3.1 Systematische Veränderung der potentiellen Einflussfaktoren (UV). . . . . . 7.3.2 Randomisierung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3.3 Drittvariablen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4 Qualitätskriterien und Fallstricke für das A/B-Testing . . . . . . . . . . . . . . . . . . . . . . 7.4.1 Entwicklung begründeter Hypothesen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4.2 Vermeidung technischer Störfaktoren. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4.3 Die große Gefahr der Sample Pollution. . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4.4 Die Unterscheidung von Micro vs. Macro Conversions . . . . . . . . . . . . . . . 7.5 Fazit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

160 162 168 168 169 170 170 170 171 172 173 175 175

Zusammenfassung

A/B-Tests haben für die Marketingpraxis in den letzten Jahren sehr deutlich an Popularität gewonnen und werden mittlerweile von einer Vielzahl großer sowie auch kleinerer Unternehmen eingesetzt. Sie verfolgen das Ziel, M. Stegemann (*)  Fachbereich Wirtschaft, Fachhochschule Kiel, Kiel, Deutschland E-Mail: [email protected] T. Suwelack (*)  Brand University of Applied Sciences, Hamburg, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 S. Boßow-Thies et al. (Hrsg.), Data-driven Marketing, https://doi.org/10.1007/978-3-658-29995-8_7

159

160

M. Stegemann und T. Suwelack

Marketingaktivitäten wie bspw. die Versendung von E-Mails oder den Webauftritt eines Unternehmens zu optimieren. Im Folgenden werden die Grundlagen zur Methodik sowie die Anwendungsmöglichkeiten von A/B Tests anhand von Beispielen dargestellt. Die technischen und statistischen Voraussetzungen für die Durchführung von A/B Tests sind eher gering und sorgen für eine leichte sowie kostengünstige Anwendbarkeit. Dennoch gibt es eine Reihe von Qualitätsfaktoren und Fallstricke, die für eine valide Datenerhebung und -interpretation zu beachten sind und zum Abschluss dieses Beitrags gesondert hervorgehoben werden.

7.1 Der Begriff A/B-Testing Eine Suche nach dem Begriff „A/B-Testing“ in Google Trends offenbart, dass die Suchfrequenz dieses Begriffs in den letzten Jahren stetig angestiegen ist. Oft wird A/B-Testing laut Google auch in Kombination mit Data Science gesucht, einem weiteren Trendwort der letzten Jahre. A/B Tests, häufig auch als Split (Run)-Tests mit verschiedenen URLs oder als A/B/n Tests bei mehr als zwei Varianten bezeichnet, haben vor allem im Zuge der Digitalisierung an Popularität gewonnen, da das (digitale) Verhalten von Konsumenten heutzutage mit relativ wenig Aufwand automatisch und zielgenau erfasst werden kann. Die massenhafte Verfügbarkeit von Daten haben quantitative Analysemethoden und damit auch das A/B-Testing zu einem sehr wichtigen und weit verbreiteten Werkzeug im Marketing werden lassen. Eine einheitliche Definition existiert nach derzeitigem Kenntnisstand nicht und die wissenschaftliche Literatur nutzt den Begriff bisher sehr zurückhaltend. A/B-Testing kann skizziert werden als ein experimentelles Vorgehen zur Optimierung von Gestaltungsmerkmalen, bei dem verschiedene Varianten eines Untersuchungsgegenstandes (z. B. eine Website, ein Newsletter, eine mobile App) entwickelt und anschließend im realen Kontext an Nutzern getestet sowie hinsichtlich ihrer Performance verglichen werden (u. a. Siroker und Koomen 2013). Eine exemplarische Fragestellung könnte wie folgt lauten: Wie kann die Betreffzeile eines Newsletters so (um)gestaltet werden, dass die Öffnungsrate bei den Empfängern ein Optimum erreicht? Verschiedene Betreffzeilen des Newsletters würden dann die Varianten determinieren, die Öffnungsrate würde als Indikator für die Performance dienen.

7 A/B-Testing

161

Was früher oft per Bauchgefühl oder in qualitativen Gruppendiskussion des Marketingteams entschieden wurde, kann heute auf Grundlage quantitativer Analysen (hier im Rahmen des A/B-Testing) gesteuert und optimiert werden. Dabei kommen Testverfahren der Inferenzstatistik zum Einsatz, um zufällige Unterschiede von signifikanten Unterschieden zwischen den entwickelten Varianten zu unterscheiden. Anhand der Testergebnisse kann abgeleitet werden, welche Variante die erfolgversprechendste ist, und so z. B. die Betreffzeile des Newsletters optimiert werden. Abb. 7.1 zeigt ein einfaches Beispiel, in dem zusätzlich zu einer aktuell genutzten Variante A (Kontrolle) eine zweite Variante B (Variation) mit einer veränderten Positionierung des Kaufbuttons erstellt wird. In den meisten Kontexten des Online-Marketing sind zweifellos mehrere Gestaltungsfaktoren identifizierbar (z. B. die Größe, Farbe sowie Positionierung eines Kaufbuttons in einem Webshop), die einzeln oder in Kombination auf den Erfolg (z. B. Kauf) wirken könnten. Sollen mehrere Faktoren parallel und in Kombination getestet werden, sind multivariate Testverfahren erforderlich. Die Inhalte dieses Beitrags gelten auch für multivariate Tests, das A/B-Testing soll jedoch als Standardverfahren im Vordergrund stehen. Die gesteigerte Komplexität von multivariaten Verfahren wird im Abschn. 7.3.1 kurz skizziert. Die Anwendbarkeit von A/B Tests ist enorm breit und betrifft eine Vielzahl von Fragestellungen im (Online-)Marketing. Die aus Autorensicht typischen Anwendungsfelder inklusive exemplarischer Fragestellungen und Hypothesen zwecks einer besseren Veranschaulichung sind in Tab. 7.1 dargestellt.

A

(Kontrolle)

B

(Variation)

BUY BUY

Abb. 7.1   A/B Varianten durch unterschiedliche Positionierung des Kaufbuttons auf einer Website. (Quelle: Eigene Darstellung)

162

M. Stegemann und T. Suwelack

Tab. 7.1   Typische Anwendungsfelder für A/B Tests im Überblick Anwendungsfelder

Exemplarische Fragestellung

Exemplarische Hypothese

E-Mail Marketing

Welcher Betreff führt zur höchsten Öffnungsrate eines Newsletters?

Erwähnung eines Angebots ist besser als „Newsletter [Mon] [Jahr]“

Ein Rabattcode über 15 EUR Wie hoch ist der optimale Wert eines per Email versendeten Gut- führt zu einem höheren ROI als 10 EUR scheins bzgl. des ROIs? Website und App

Online Ads

E-Commerce

Welches Bild auf der Landingpage ist ansprechender für Besucher?

Ein emotionaleres Bild führt zu längeren Verweildauern

Wo sollte die Möglichkeit zur Kontaktaufnahme positioniert sein?

Kontaktaufnahme im Header wird mehr genutzt als im Footer

Welcher Anzeigentitel ist ansprechender bei Google Ads?

Titel XY führt zu einer höheren Klickrate als der aktuelle Titel

Sollten Videos in Anzeigen bei Facebook integriert werden?

Videos führen zu einer höheren Klick- sowie Kaufrate als Bilder

Wie sollte der Kaufbutton für eine Ein grüner, größerer Kaufbutton führt zu mehr Käufen als der optimale Conversion gestaltet aktuelle sein? Welche Zahlungsmöglichkeiten sollten bestehen?

Integration von Paypal führt zu mehr Käufen als Sofortüberweisung

Quelle: Eigene Darstellung

7.2 Das Vorgehen beim A/B-Testing Das idealtypische Vorgehen beim A/B-Testing entspricht im Wesentlichen dem wissenschaftlichen Prozess bei der Erforschung eines Sachverhaltes. Abb. 7.2 stellt die wichtigsten Schritte bei der Anwendung von A/B Tests dar. Zuerst sollten anhand von Zielen definiert werden, was optimiert werden soll, und mit welchen KPIs diese Optimierung gemessen werden kann. In vielen Fällen ist im Online-Marketing das Ziel, sogenannte Conversion Rates zu optimieren (CRO = Conversion Rate Optimization). Statistisch ausgedrückt wäre dieser erste Schritt die Bestimmung einer oder mehrerer abhängiger Variablen (s. dazu auch Abschn. 7.3.1).

7 A/B-Testing

Verwendung und Monitoring der besten Variante

Datenanalyse und Interpretation der Ergebnisse

Durchführung des Experiments

163

Zielsetzung inkl. Festlegung der KPIs

Entwicklung von Ideen und begründeten Hypothesen

Erstellung der Testversionen

Abb. 7.2   Typischer Prozess des A/B-Testing und des multivariaten Testings

 Conversion Rate Conversion Rates (im deutschen auch Konversionsraten) können als prozentualer Anteil der Konsumenten verstanden werden, die eine aus Unternehmenssicht gewünschte Handlung vollziehen. Conversions können Klicks, Anfragen, Anmeldungen, Käufe oder ähnliches darstellen (Kreutzer 2019). Wie genau im konkreten Anwendungsfall eine Conversion definiert ist, hängt von den Zielen des Marketers ab. Im Online-Marketing gibt es neben den klassischen Conversion Rates eine Reihe weiterer KPIs, die häufig als Zielvariablen für das A/B-Testing (und das multivariate Testing) bestimmt werden. In Tab. 7.2 sind die gängigsten Kennzahlen mit kurzen Erläuterungen dargestellt. Sind die Ziele definiert, beginnt die Phase der Ideen- und Hypothesengenerierung. Ideen sowie Hypothesen können anhand kreativer Prozesse, auf Basis bisheriger Daten zum Nutzerverhalten oder auf Grundlage von Recherchen generiert werden. Für die Recherche bieten sich neben wissenschaftlicher Literatur auch Benchmark-Analysen, Websites und Blogs zu Themen rund um die Optimierung von Websites, Apps, Newslettern, Display-Advertising, SEA

164

M. Stegemann und T. Suwelack

Tab. 7.2   Eine Auswahl typischer Erfolgskennzahlen (KPIs) im Online-Marketing Kennzahl

Erläuterung

Anzahl der Seitenaufrufe Maß für die Reichweite einer Website. Es sagt allerdings (Page Impressions, Visits) nichts über das konkrete Verhalten auf der Website aus Absprungrate (Bounce Rate)

Anteil der Besucher einer Website, welcher die Website zeitnah und ohne weitere Klicks wieder verlassen hat. Dies kann z. B. als Desinteresse nach kurzer Erstbetrachtung oder auch als unpassend für die Informationssuche der Besucher bewertet werden. Entsprechend versuchen Unternehmen, die Bounce Rate zu minimieren, z. B. durch Verbesserungen an der Startseite

Verweildauer (Site Stickiness)

Indikator für das Interesse der Besucher bzw. die Attraktivität einer Website

Click-Through-Rate (CTR) Quotient zwischen Ad-Clicks und Ad-Impressions. Häufig zur Effizienzmessung von Werbemitteln (z. B. DisplayWerbung) verwendet Öffnungsrate

Entspricht dem Anteil der geöffneten E-Mails. Häufig für E-Mail-Kommunikation verwendet (z. B. Werbeaktionen oder Newsletter)

Return on Investment (ROI)

Kann das Zielverhalten monetär erfasst werden, z. B. ein Produktkauf nach Einlösen eines Vouchers oder nach Ad-Click, ist der ROI berechenbar und kann als Maß zur Optimierung bei A/B Tests verwendet werden

Transaktionsrate (Transaction Rate)

Anteil der Nutzer (einer Website/App), die eine Transaktion wie z. B. einen Kauf ausführen. Eine höhere Transaktionsrate führt nicht automatisch zu mehr Umsatz, wenn z. B. die einzelnen Transaktionsbeträge geringer werden

Durchschnittlicher Bestell- Quotient von Gesamtumsatz und Anzahl der Transaktionen in einem definierten Zeitraum. Ein höherer Wert bedeutet wert (Average Order nicht zwangsläufig mehr Umsatz, da z. B. gleichzeitig die Value) Anzahl an Transaktionen geringer werden könnten. Häufig im Bereich eCommerce verwendet Umsatz pro Besuch (Revenue per Visitor)

Eine umfassende Metrik, die sich aus dem Produkt der Transaktionsrate und dem durchschnittlichen Bestellwert errechnen lässt, und damit beide Faktoren berücksichtigt. Alternativ als Quotient des Gesamtumsatzes durch die Anzahl der Besucher in einem Zeitraum berechenbar

Quelle: Eigene Darstellung, teilweise in Anlehnung an Kreutzer 2019

7 A/B-Testing

165

etc. an. Die Fülle an Beispielen und Case Studies sollten auch für das eigene Unternehmen zu testbaren Ideen und Hypothesen führen. Wichtig zu beachten ist dabei jedoch folgendes: Erfolgreiche Optimierungsbeispiele sind nicht einfach so auf das eigene Optimierungsprojekt übertragbar. Sie sollten stets für die eigene Zielgruppe selbst getestet werden. Wären Erkenntnisse anderer A/B Tests unternehmensübergreifend übertragbar, würden die Unternehmen schnell eine allgemeingültige optimale Variante gefunden haben und entsprechend ähnlich optimieren. Das ist aber in der Realität nicht so. Vielmehr führen fortschrittliche Unternehmen laufend A/B Tests in ihrem eigenen Setting durch, weshalb der Prozess auch als repetitiver Zyklus anzusehen ist. Die Erstellung der Testversionen folgt auf der Generierung von Ideen und Hypothesen. Wie viele Versionen getestet werden sollten, ist eine komplexe Frage. Sie hängt einerseits von der Anzahl parallel bzw. in Kombination zu testender Merkmale ab (d. h., was soll alles gleichzeitig untersucht werden?). Andererseits ist aber auch die erreichbare Stichprobe ausschlaggebend. Es ist nicht sinnvoll, sehr viele Testvarianten parallel ins Feld zu schicken, wenn die Stichprobe nicht ausreicht, um pro Variante eine Mindestfallzahl für belastbare Ergebnisse zu generieren. Wie hoch die Mindestfallzahl sein sollte, ist vor allem ein statistisches Problem und soll hier nur überblicksartig dargestellt werden. Die zu empfehlende Fallzahl für einen A/B Test hängt von mehreren Faktoren ab. Die wichtigsten sind: • Das Skalenniveau der (unabhängigen und abhängigen) Variablen. Das Skalenniveau determiniert maßgeblich das statistisch sinnvollste Analyseverfahren, da je nach Skalenniveau unterschiedliche Rechenoperationen möglich sind. Ist bspw. das Skalenniveau der abhängigen Variablen metrisch und annähernd normalverteilt, wäre ein parametrischer Test (häufig ein sog. t-Test) möglich. Besteht die abhängige Variable bspw. nur aus zwei Ausprägungen (z. B. Kauf vs. nicht-Kauf), sind der Binomialtest sowie die logistische Regression häufig verwendete Verfahren für das A/B-Testing. • Die Varianz der (abhängigen) Variablen. Je größer die Varianz, desto schwerer ist ein möglicherweise existierender Effekt vom Zufall zu unterscheiden und desto größer muss die Stichprobe sein. • Die minimale Effektstärke, die statistisch identifizierbar sein soll. Soll z. B. bereits ein geringer Effekt bei der Veränderung einer Conversion Rate aufgedeckt werden können, vergrößert sich die notwendige Stichprobengröße. • Die Irrtumswahrscheinlichkeit α, das heißt die Wahrscheinlichkeit, die man bereit ist einzugehen, dass ein Unterschied zwischen den Varianten als statistisch signifikant (nicht durch Zufall zu erklären) gedeutet wird, obwohl es

166

M. Stegemann und T. Suwelack

in Wahrheit keinen Unterschied gibt. Je geringer die Irrtumswahrscheinlichkeit sein soll, desto größer muss die Stichprobe sein. • Die Teststärke 1-β (auch Power genannt), die die Wahrscheinlichkeit angibt, mit der ein statistischer Test einen Effekt, sofern er real existiert, auch als signifikant deutet. Je höher die Teststärke sein soll, desto größer muss die Stichprobe sein. Da die Berechnung einer Stichprobengröße und indirekt damit auch die Bestimmung der Laufzeit eines A/B Tests komplex sind, gibt es eine Vielzahl frei verfügbarer Tools im Internet zur Berechnung der Stichprobengröße bzw. der Testdauer. Empfehlenswert sind beispielsweise die A/B Tools von Evan Miller unter http://www.evanmiller.org. Weiterhin ist anzumerken, dass die traditionellen Signifikanztests der Statistik, basierend auf der Frequentist-Methode, zunehmend in der Kritik stehen. Eine Tendenz, die einhergeht mit der steigenden Popularität Bayes’scher Verfahren, die in bestimmten Situationen ebenfalls für die Analyse von A/B Tests anwendbar sind. Für weitergehende Informationen zu den Prinzipien, Vor- und Nachteilen der Ansätze sei auf Tschirk (2018) verwiesen. Beispiel

Eine aktuell verwendete Werbeanzeige im Internet hat eine Konversionsrate, in diesem Fall als Click-Through-Rate (CTR) spezifiziert, von 10 %. Es wird eine zweite Variante B entworfen, die sich in einem Merkmal unterscheidet. Der Effekt des veränderten Merkmals auf die CTR soll getestet werden. Die minimale Effektstärke, die statistisch identifizierbar sein soll, ist eine Veränderung der CTR von 3 %. Die Irrtumswahrscheinlichkeit α soll 5 % betragen, die Teststärke soll bei 80 % liegen. Unter diesen Umständen sollte die Stichprobengröße pro Variation bei mindestens 1629 Personen liegen, d. h. bei 3258 insgesamt. Eine Erhöhung der Teststärke auf 90 % würde eine Stichprobengröße von 2206 pro Variation erfordern. Eine Verringerung der Irrtumswahrscheinlichkeit von 5 % auf 1 % würde statt einer Stichprobe von 1629 Personen eine Stichprobe 2408 Personen pro Variation erfordern. Wird die minimale Effektstärke, die entdeckbar sein soll, von 3 % auf 2 % verringert, erhöht sich die notwendige Stichprobengröße von 1629 Personen auf 3623 Personen pro Variation. Das Beispiel soll die Komplexität und die Abhängigkeit einer notwendigen Stichprobengröße von den festzulegenden Parametern skizzieren. Es ist daher ratsam, lieber weniger Varianten parallel zu testen als viele Varianten mit zu geringen Stichproben. Eine besonders lange Testlaufzeit, um die nötigen

7 A/B-Testing

167

Stichprobengrößen zu erreichen, ist ebenfalls nicht ratsam aufgrund der steigenden Gefahr der sogenannten Sample Pollution (s. Abschn. 7.4.3). ◄ Sind die verschiedenen Varianten für einen A/B Test erstellt, geht es in die Feldphase der Testdurchführung. Wichtig ist dabei die Einhaltung der Prinzipien beim experimentellen Vorgehen, die separat in Abschn. 7.3 erläutert werden. Während der Datenerhebung ist es weiterhin ratsam, die zuvor als notwendig bzw. sinnvoll erachtete Stichprobengröße abzuwarten, bevor der Test beendet und die Ergebnisse interpretiert werden. Das unter dem Stichwort „Peeking“ bekannte Problem, zu früh in die Daten zu schauen und schlimmstenfalls einen Testlauf bei vorhandenen Signifikanzen verfrüht abzubrechen, ist durchaus verbreitet und unbedingt zu vermeiden. Vor allem bei Programmen kommerzieller Anbieter, die Dashboards zur Live-Verfolgung der Datenerhebung bereitstellen, ist die Verführung besonders groß. Zwecks valider Analysen und Schlussfolgerungen sollte die a priori definierte Stichprobengröße und damit auch die Testlaufzeit stets eingehalten werden. Zur Datenanalyse und Interpretation der Ergebnisse bedarf es eines adäquaten statistischen Testverfahrens. Je nach Skalenniveau und Verteilung der Variablen bieten sich unterschiedliche Verfahren an. Typisch ist bei dichotomen Zielvariablen wie bspw. der Conversion Rate die Verwendung eines Binomialtests oder einer logistischen Regression für die vergleichende Analyse von zwei Varianten A und B. Wäre die Zielvariable ein metrisches Merkmal auf Verhältnisskalenniveau, bspw. der Bestellwert in einem Webshop, müssten andere Verfahren (z. B. der t-Test für unabhängige Stichproben) in Betracht gezogen werden. Die Auswahl eines geeigneten Testverfahrens kann durchaus komplex sein und bedarf in speziellen Fällen tiefgehende Kenntnisse der Statistik. Eine gute Hilfestellung für die Auswahl eines geeigneten Tests bzw. einer passenden multivariaten Methode bietet die Universität Zürich unter https://www. methodenberatung.uzh.ch/de an. Der Entscheidungsbaum enthält die gängigen Methoden, jedoch längst nicht alle denkbaren Verfahren. Kommerzielle Anbieter von A/B-Testing Software nutzen zumeist die gleichen statistischen Methoden, bieten dazu eine einfache Benutzeroberfläche an und stellen Testergebnisse häufig in Kombination mit einfach zu interpretierenden Kennwerten wie Konfidenzintervalle dar. Sofern unter den Varianten ein eindeutiger Gewinner zu identifizieren ist, sollte die beste Variante als Standard implementiert werden. Die Erfolgskennzahlen sollten zudem zur Überprüfung der Validität weiterhin gemessen werden. Weitere Optimierungsideen sind dann in einen erneuten Testzyklus zu überprüfen, sodass viele Unternehmen fortlaufend A/B Tests bzw. multivariate Tests (bei ausreichender Stichprobengröße) durchführen.

168

M. Stegemann und T. Suwelack

7.3 Zentrale Prinzipien beim experimentellen Vorgehen Um beim A/B-Testing zu validen Ergebnissen mit kausalen Wirkungsbeziehungen zu kommen, ist ein experimentelles Vorgehen unabdingbar. Erstaunlich oft sind den Anwendenden von statistischen Testverfahren die wesentlichen Merkmale eines Experimentes unbekannt. Daher werden sie im Folgenden kurz dargestellt. Ausführlicher werden die Prinzipien des experimentellen Vorgehens in einer Vielzahl einschlägiger Werke zur Statistik und Methodik thematisiert (u. a. Sarstedt und Mooi 2019).

7.3.1 Systematische Veränderung der potentiellen Einflussfaktoren (UV) Ein Experiment besteht aus mindestens einer unabhängigen Variablen und einer abhängigen Variablen. Als abhängige Variable im A/B-Testing wird in der Regel ein wichtiger Erfolgsindikator herangezogen, den es zu optimieren gilt, bspw. der Kauf (vs. Nicht-Kauf) eines Produktes oder die Verweildauer (in Sekunden) auf einer Website. Wichtig für die spätere Auswahl eines geeigneten statistischen Tests ist dabei das Skalenniveau (sowie die Verteilung) der abhängigen Variablen. Die unabhängige Variable ist ein Merkmal, dessen Einfluss auf die abhängige Variable überprüft werden soll. Beim A/B-Testing könnten das bspw. die Farbe des Kaufbuttons oder die Höhe eines Gutscheinwertes sein. Von zentraler Relevanz für die Ergebnisqualität ist, dass jede Veränderung einer unabhängigen Variablen zu einer neuen Variante führt, die unter sonst gleichen Bedingungen getestet wird. Anders ausgedrückt: Die verschiedenen Ausprägungen der unabhängigen Variablen sollten das Einzige sein, das zwischen den Testvarianten verändert wird. Ansonsten sind eine wesentliche Voraussetzung für kausale Erkenntnisse nicht gewährleistet sowie die Validität der Ergebnisse enorm reduziert. Abb. 7.3 stellt die wesentlichen Determinanten eines A/B Tests dar. Selbstverständlich können auch mehrere unabhängige Variablen gleichzeitig getestet werden. Möchte man die Farbe (grün vs. rot) und die Positionierung (links vs. rechts) eines Kaufbuttons in Kombination testen, wären dafür 2 × 2 = 4 Varianten nötig, um ein sogenanntes vollfaktorielles Design zu erhalten. Mit Größe des Kaufbuttons (groß vs. klein) als dritte unabhängige Variable wären bereits 2 × 2 × 2 = 8 Gruppen nötig. Da in derartigen Fällen multivariate Testverfahren eingesetzt werden, spricht man statt von A/B-Testing häufig von Multivariate Testing (MVT). Ein wichtiger Vorteil der multivariaten Verfahren

7 A/B-Testing

169

Zufallsstichprobe

Unabhängige Variable

Abhängige Variable

User Variante A

z.B. Conversion Rate

Zufällige Zuordnung (Randomisierung)

Statistischer Test

Variante B

z.B. Conversion Rate

Abb. 7.3   Elemente eines A/B Tests. (Quelle: Eigene Darstellung)

ist die Möglichkeit, Interaktionen zwischen den unabhängigen Variablen mit zu erfassen. So lässt sich erkennen, ob gewisse Kombinationen wie z. B. ein grüner Button (UV1) links im Webshop positioniert (UV2) besonders gute Ergebnisse erzielen. Ein möglicher Nachteil von komplexeren Experimentaldesigns mit mehreren unabhängigen Variablen und Ausprägungen ist die erforderliche Stichprobengröße (pro Variante), um haltbare und aussagekräftige Ergebnisse zu erzielen. Dies könnte bspw. für Betreiber von wenig besuchten Websites oder Unternehmen mit einer geringeren Anzahl an Newsletter-Abonnenten ein Problem sein.

7.3.2 Randomisierung Ein weiteres wichtiges Element für die Aussagekräftigkeit der Ergebnisse ist ein randomisierter Test der verschiedenen Varianten. Würde man bspw. eine Testvariante A immer bei Endgeräten mit Android und eine Variante B immer bei Endgeräten mit IOS zeigen, könnten die Ergebnisse nicht sicher auf den Effekt der unabhängigen Variablen zurückgeführt werden. Denn Nutzer von ­Apple-Geräten unterscheiden sich sicherlich in einigen Merkmalen von Nutzern anderer Geräte und all diese potentiellen Unterscheidungsmerkmale wären ebenfalls als Erklärung für die Ergebnisse denkbar. Eine Randomisierung sorgt bei ausreichend großer Stichprobe dafür, dass sich alle weiteren möglichen Einflussfaktoren, die nicht über die unabhängige Variable manipuliert werden, zufällig

170

M. Stegemann und T. Suwelack

über die verschiedenen Testvarianten verteilen und damit keinen systematischen Einfluss ausüben.

7.3.3 Drittvariablen Eng verbunden mit dem Konzept der Randomisierung ist die Notwendigkeit, potenzielle Einflussfaktoren zu kontrollieren, damit diese keinen Effekt auf die Datenerhebung ausüben und somit die Ergebnisse nicht verzerren. Eine Randomisierung kann den systematischen Einfluss von Störfaktoren wie das Betriebssystem, demographische Faktoren wie Alter und Geschlecht der Teilnehmenden, das Wetter und viele weitere externe Einflüsse sehr effizient kontrollieren. Hat man jedoch andere Merkmale unter Verdacht, die einen Einfluss ausüben könnten und die nicht randomisierbar sind, besteht die Möglichkeit, diese als Drittvariablen mit in das Versuchsdesign aufzunehmen. Der Einfluss kann dann explizit mitgetestet werden und weitere Erkenntnisse liefern. So könnte man Rabattaktionen von Konkurrenten während des eigenen A/B-Testings erfassen und als Drittvariable in die Analyse einfließen lassen. Auch die Unterscheidung von Wochenendtagen und Werktagen könnte eine sinnvolle Drittvariable in vielen Settings sein, um Effekte noch differenzierter zu untersuchen.

7.4 Qualitätskriterien und Fallstricke für das A/BTesting Im Abschn.  7.3 wurden bereits zentrale Prinzipien für die Planung des experimentellen Designs erläutert, die zum Zwecke valider Ergebnisse im Rahmen des A/B-Testing gegeben sein sollten. Es existieren darüber hinaus weitere Kriterien zur Erhöhung der Erkenntnisqualität sowie einige Fallstricke bei der Datenerhebung und -interpretation, die im Folgenden genauer erläutert werden sollen.

7.4.1 Entwicklung begründeter Hypothesen A/B-Testing sollte analog zu anderen Testverfahren hypothesenbasiert angewendet werden. Es ist nicht ratsam, willkürlich verschiedenste Varianten einer Website oder eines Newsletters zu entwerfen und „ins Blaue hinein“ zu testen. Ein derartiges Vorgehen führt in der Regel weder zu wertvollen Erkenntnissen noch zu einer zufällig besonderen Kombination von Faktoren,

7 A/B-Testing

171

die alle anderen Varianten deutlich aussticht. Besser ist es, eine (theoretisch) begründete Hypothese aufzustellen und diese mittels eines Wirkmechanismus, also hinsichtlich des „Warum“, erklären zu können. So sollte man beim Austausch von Bildern nicht einfach verschiedene Bilder ausprobieren, sondern versuchen zu verstehen, warum Bilder (bspw. mit/ohne abgebildeten Menschen oder in anderen Farben) auf Konsumenten einen positiven oder negativen Einfluss ausüben. Morys (2018) spricht in diesem Zusammenhang davon, auf Basis des S-O-R Paradigmas die Elemente Stimulus (z. B. eine Website), Organismus (z. B. emotionale und/oder kognitive Prozesse des Konsumenten) und Response (Verhalten des Konsumenten) in Beziehung zu setzen und daraufhin begründete Hypothesen zu erstellen, die diese drei Elemente beinhalten. Das Verständnis aller Prozesse des Organismus ist in der Praxis sicherlich nicht immer möglich. Jedoch ist die Hypothesengenerierung auf Grundlage des S-O-R Modells ein sinnvolles Mittel, um eine willkürliche Variantenvielfalt in Testdesigns zu vermeiden. Entsprechend sollten die in Tab. 7.1 exemplarisch dargestellten Hypothesen idealerweise ergänzt werden um den Wirkmechanismus, warum die Veränderung eines Merkmals X einen Effekt auf das Verhalten Y haben sollte.

7.4.2 Vermeidung technischer Störfaktoren Ein wichtiger Aspekt für die Datenerhebung ist eine saubere technische Umsetzung, insbesondere wenn es um die Optimierung von Websites geht. Ohne zu sehr in die technischen Details gehen zu wollen, findet bei bestimmten Verfahren der Variantenzuteilung nach Websiteaufruf (Stichwort „Code Injection“ für die Websitemanipulation, welcher von Browsern ausgeführt wird) gegebenenfalls eine leichte zeitliche Verzögerung statt. Manchmal ist sogar noch die originale Website kurz zu sehen bevor die veränderte Variante „darüber gelegt“ wird. Ähnliches kann bei einer URL-Redirect Methode geschehen. Aufmerksame Konsumenten könnten davon irritiert werden, was wiederum einen direkten Einfluss auf das Verhalten (z. B. Website wieder verlassen) haben kann. Auf derartige, technisch vermeidbare Störfaktoren sollte vorher ausgiebig getestet werden. Morys (2018) führt einige Beispiele und Befunde auf, die im Wesentlichen aussagen, dass kleine Unstimmigkeiten und zeitliche Verzögerungen beim Aufruf einer Website oder beim Verwenden der Funktionen einen großen (negativen) Effekt auf Konversionsraten haben. Sie können die zu untersuchenden Effekte von unabhängigen Variablen überlagen und so zu falschen Schlussfolgerungen führen.

172

M. Stegemann und T. Suwelack

7.4.3 Die große Gefahr der Sample Pollution Eine weitere Problematik, die beim A/B-Testing (insbesondere mit dem Ziel der Kaufratenoptimierung) in der Regel unterschätzt wird, ist die Komplexität eines Kaufprozesses über verschiedene Zeitpunkte und Medien hinweg. Dass ein Konsument mit seinem Desktop PC eine Website besucht, sich dort kurz informiert, eine Kaufentscheidung trifft und den Buy Button drückt, ist eine sehr vereinfachte, in der heutigen multimedialen Welt wohl kaum noch zutreffende Vorstellung. Unterschiedliche Devices, mehrere Zeitpunkte der Recherche und Probleme beim Tracking über verschiedene Kanäle hinweg können die Ergebnisse eines A/B Tests verfälschen. Beispiel verfälschte Daten

Elisa ist auf der Suche nach einem neuen Smartphone und nutzt dafür die Mittagspause bei ihrer Arbeit. Sie besucht per Desktop-PC den Webshop XY, der gerade ein A/B-Testing durchführt. Elisa sieht die Variante A des A/B Tests. Ihr gefallen die Gestaltung sowie die Informationen des Shops und sie entscheidet sich schließlich zum Kauf eines Smartphones, erledigt dies jedoch nicht während der Mittagspause. Nach der Arbeit besucht sie erneut den Webshop und zeigt ihrer Mitbewohnerin auf ihrem aktuellen Smartphone das Objekt der Begierde. Gezeigt wird erneut die Variante A des A/B Tests. Da Elisa nicht gerne Käufe per Smartphone erledigt, besucht sie auf ihrem Tablet ein drittes Mal den Webshop, um das gewünschte neue Smartphone zu kaufen. Jetzt sieht sie Variante B des A/B Tests, die ihr nicht so gut gefällt. Aber sie hat sich ja bereits entschieden und führt den Kaufprozess aus. Der Betreiber des Webshops XY erhebt die Daten von Elisa und erkennt nicht, dass es sich dreimal um die gleiche Person handelt. Die Conversion, d. h. in diesem Fall der Kauf, wird Variante B zugerechnet, obwohl Elisa die Variante A mehr zugesagt hat und sie auf Basis von Variante A schon die Kaufentscheidung getroffen hatte. Die erhobenen Daten sind damit verfälscht. ◄ Das Beispiel verdeutlicht, dass sich die Stichproben für die Varianten in einem A/B Test vermischen können. Häufig wird deshalb der Begriff „Sample Pollution“ für die obige Problematik verwendet. Es ist davon auszugehen, dass die Sample Pollution umso größer ist, je komplexer der Kaufprozess (und damit die Customer Journey) ist. Verwendet ein Nutzer einen Login Account, kann die Vermischung recht gut über die eindeutige Identifizierung des Nutzers

7 A/B-Testing

173

eliminiert werden. In den meisten Fällen ist die Sample Pollution jedoch nicht zu kontrollieren. Um den Effekt möglichst gering zu halten, ist folgendes zu empfehlen (Morys 2018): • Einschätzung des Sample Pollution Effekts: Anhand von Web Analytics Tools (die meisten Website Betreiber verwenden Google Analytics) kann zumindest grob quantifiziert werden, wie viele Besucher sich mehrfach einloggen, wie viel Zeit bis zu einer Conversion vergeht, welche und wie viele Endgeräte dabei üblicherweise genutzt werden. Dadurch ergibt sich zumindest ein erster Eindruck über das Ausmaß des Problems. • Angemessene Laufzeit des A/B Tests: Je länger die Laufzeit, desto eher vermischen sich die Stichproben der verschiedenen Testvarianten. Eine zu kurze Laufzeit birgt jedoch die Gefahr einer zu kleinen und nicht repräsentativen Stichprobe oder nicht vieler nicht abgeschlossener Kaufzyklen. Ziel sollte es daher sein, eine Laufzeit zu wählen, die Kaufzyklen abbildet und gleichzeitig repräsentativ genug ist bezüglich verschiedener Wochentage und anderer Drittvariablen. • Separate Datenanalysen pro Device: Eine separate Auswertung pro Device kann zwar nachträglich keine Sample Pollution reduzieren, jedoch ist die einzelne Analyse bzgl. der sogenannten Device Pollution weniger verzerrt. Ist eine Variante über verschiedene Devices hinweg konsistent einer anderen Variante überlegen, spricht das sehr für die Robustheit der Ergebnisse.

7.4.4 Die Unterscheidung von Micro vs. Macro Conversions In Bezug auf das in Abschn. 7.4.1 erwähnte S-O-R Paradigma lässt sich das R für Response bzw. Verhalten der Nutzer weiter ausdifferenzieren in Micro und Macro Conversions, auch wenn die Abgrenzung nicht immer trennscharf ist. Macro Conversions sind Zielgrößen, die als gewünschtes Endresultat einer Verhaltenskette von Konsumenten angesehen werden können und oft einen direkten ökonomischen Effekt nach sich ziehen. Der Kaufabschluss ist das typische Beispiel für eine Macro Conversion im Webshop, aber auch die Einrichtung eines Accounts oder die Anmeldung für einen Newsletter kann als Macro Conversion angesehen werden.

174

M. Stegemann und T. Suwelack

Micro Conversions stellen hingegen Vorstufen in einer Verhaltenskette hin zu einer Macro Conversion dar. Anders ausgedrückt sind sie Zwischenziele entlang der Customer Journey. So ist die (Verringerung der) Absprungrate definiert als das sofortige Verlassen einer Website nach Aufruf, ein Ziel, das als Micro Conversion bezeichnet werden kann. Auch das Ansehen eines Produktvideos oder das Hinzufügen von Artikeln zum Warenkorb sind Micro Conversions. Betrachtet man die „zeitlich vorgelagerten“ Micro Conversions und die Macro Conversion als Endziel einer Verhaltenskette, so lässt sich dies als Conversion-Funnel darstellen (s. Abb. 7.4). A/B Tests können sowohl Micro als auch Macro Conversions als Zielvorgabe (d. h. als abhängige Variable im Experimentaldesign) haben. Die Betrachtung von Micro Conversions zum besseren Verständnis der Customer Journey ist sicherlich ein lobenswertes Ziel. Jedoch ist dabei auf die Gefahr einer Fehlinterpretation zu achten: Die Verbesserung von Micro Conversions wie z. B. eine Verringerung der Absprungrate von 15 % führen nicht automatisch zu einer Erhöhung der nachfolgenden (Macro) Conversions. Anders ausgedrückt: Die Tatsache, dass bei einer Variante weniger Nutzer eine Website nach dem Aufruf direkt wieder verlassen, führt noch längst nicht zu mehr Umsatz. Genauso wenig hat im Fall einer Newsletter-Optimierung eine höhere Öffnungsrate zwingend eine relevante Wirkung auf nachfolgende Conversions wie z. B. Kontaktaufnahme oder Käufe. A/B-Testing sollte letztendlich ökonomische Ziele verfolgen und diese auch messen. So ist eine reine Fokussierung auf Micro Conversions, und noch

Seiteneinstieg Micro Conversion – Stufe 1

Anzahl der Unterseitenaufrufe Micro Conversion – Stufe 2

Artikel in Warenkorb Micro Conversion – Stufe 3

Bezahlvorgang Micro Conversion – Stufe 4

Kauf Macro Conversion

Abb. 7.4   Möglicher Conversion-Funnel am Beispiel einer Website. (Quelle: Eigene Darstellung)

7 A/B-Testing

175

schlimmer eine Generalisierung der gefundenen Effekte auf nachfolgende Conversions entlang einer Customer Journey absolut nicht zu empfehlen. Idealerweise werden mittels A/B Tests systematisch die Conversions entlang der Customer Journey erfasst und optimiert, jedoch stets mit dem Primärziel der Steigerung von Marco Conversions (Morys 2018).

7.5 Fazit A/B-Testing ist ein in vielen Kontexten des Online-Marketings anwendbares Verfahren, um Optimierungsideen quantitativ zu testen und zu validieren. Die methodische Komplexität ist dabei auf den ersten Blick relativ gering, was die Anwendung in vielen Kontexten erleichtert. Eine Vielzahl kommerzieller Anbieter hat zudem sehr einfach zu bedienende Applikationen entwickelt, die die Anwendung für Personen mit rudimentären methodischen Kenntnissen noch weiter vereinfacht. Notwendig sind diese jedoch nicht, da auch empfehlenswerte Open Source Software zu A/B-Testing (z. B. Google Optimize, ABBA) sowie allgemein für die statistische Datenanalyse existieren (z. B. R, JASP und Jamovi). Dennoch gibt es einige Qualitätskriterien und Fallstricke, die es zu beachten gilt, um die Qualität der Ergebnisse nicht zu reduzieren und so unter Umständen sogar zu falschen Optimierungsentscheidungen zu gelangen. Einige der in diesem Beitrag betonten Aspekte wie z. B. die Randomisierung oder die Vermeidung von irritierenden Ladezeiten klingen möglicherweise banal, sollten jedoch immer wieder während der Durchführung von A/B Tests überprüft werden. Andere Störeffekte wie bspw. die Sample Pollution sind häufig nicht vermeidbar, jedoch reduzierbar. Die Bestimmung einer passenden Stichprobengröße sowie eines Analyseverfahrens sind lösbare Aufgaben aufgrund klarer und recht konsistenter Empfehlungen in einer Vielzahl von Ratgeberwerken (u. a. Sarstedt und Mooi 2019). Unter Beachtung der wesentlichen Prinzipien, die in diesem Artikel dargestellt werden, steht der erfolgreichen Anwendung von A/B Tests sowie der Freude an stetigen Optimierungen von Micro und Macro Conversions nichts im Wege.

Literatur Kreutzer, R. T. (2019). Online-Marketing. Wiesbaden: Springer Gabler. Morys, A. (2018). Die digitale Wachstumsstrategie. 10 Prinzipien für ein profitables Online-Geschäft. Wiesbaden: Springer Gabler.

176

M. Stegemann und T. Suwelack

Sarstedt, M., & Mooi, E. (2019). A concise guide to market research – The process, data, and methods using IBM SPSS statistics. Berlin: Springer. Siroker, D., & Koomen, P. (2013). A/B-Testing: The most powerful way to turn clicks into customers. Hoboken: Wiley. Tschirk, W. (2018). Bayes-Statistik für Human- und Sozialwissenschaften. Wiesbaden: Springer Gabler.

Manuel Stegemann  ist seit März 2018 Professor für Marketing und Statistik am Fachbereich Wirtschaft der Fachhochschule Kiel. Seine Schwerpunktgebiete sind quantitative Analyseverfahren im Marketingkontext sowie die Schnittstellen von Marketing und Psychologie. Nach seinem Abschluss als Diplom-Psychologe sowie nach seiner Promotion im Fachgebiet BWL/Marketing an der Westfälischen Wilhelms-Universität Münster arbeitete er mehrere Jahre als Unternehmensberater in der freien Wirtschaft. Thomas Suwelack ist Oktober 2019 Professor of Digital Customer Experience an der Brand University of Applied Sciences in Hamburg. Seine Schwerpunktgebiete sind die Schaffung digitaler Kunden- und Markenerlebnisse entlang der Customer Journey. Nach seinem Abschluss als Diplom-Kaufmann sowie nach seiner Promotion im Fachgebiet BWL/Marketing an der Westfälischen Wilhelms-Universität Münster arbeitete er mehrere Jahre als Unternehmensberater und Geschäftsentwickler in der freien Wirtschaft.

Teil IV Data-driven Marketing in der realen Welt

8

Data-driven Marketing im Outernet – Geointelligenz als Basis für ort-, zeitspezifische und psychografische Zielgruppenansprache Carsten Köster, Terence Lutz und Kai-Marcus Thäsler Inhaltsverzeichnis 8.1 Das Outernet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2 Die Datenquellen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2.1 Statische Geodaten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2.2 Mobilitätsstudien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2.3 Markt-Media-Studien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2.4 Daten von Mobilfunkanbietern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2.5 App-Daten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2.6 Daten aus Social Media. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2.7 3d-Party-Daten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3 Die Datenfusion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4 Das Heatmapping. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5 Kampagnenumsetzung in der Praxis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5.1 Leistungssteigerung durch Geointelligenz bei Online-Kampagnen . . . . . . 8.5.2 Geografische Verortung von Zielgruppen und crossmediale Ansprache. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.6 Fazit und Ausblick. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

180 182 182 182 183 183 183 184 184 184 186 189 190 192 196 197

C. Köster  Google Ireland, Dublin, Irland T. Lutz  Posterscope, Hamburg, Deutschland K.-M. Thäsler (*)  FOM Hochschule, Hannover, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 S. Boßow-Thies et al. (Hrsg.), Data-driven Marketing, https://doi.org/10.1007/978-3-658-29995-8_8

179

180

C. Köster et al.

Zusammenfassung

Die Digitalisierung erobert den öffentlichen Raum: Vor allem in Metropolen werden Smart City-Anwendungen, wie digitale (Werbe-) Screens, intelligente Mobilitätssysteme und digitales Gebäudemanagement, immer präsenter. Grundlage sind raumbezogene Daten, die Zielgruppen und deren Bewegungsmuster, Kommunikations- und Mediennutzungsverhalten hyperlokal verorten, Voraussagen über Verhalten ermöglichen und Verhaltenssteuerung durch kommunikative Impulse induzieren. Treiber dieser Entwicklung sind neben kommerziellen Technologie- und Infrastrukturanbietern werbefinanzierte Medienunternehmen und Daten-Provider. Aus Marketingsicht eröffnet Geointelligenz die Möglichkeit, Zielgruppen hyperlokal zu verorten, Online-Targeting in den öffentlichen Raum zu übertragen und Selektionsmechanismen, wie Targeting und Retargeting sowie psychografische Selektion und Ansprache von Konsumenten um geografische Aspekte zu erweitern – mit nachweislich höherem Impact als herkömmliche (Werbe-) Kampagnen.

8.1 Das Outernet Das „Outernet“, das Pendant für das Internet im öffentlichen Raum, steht als Begriff für zielgruppenspezifische Mobilität, Vernetzung, Rückkanalfähigkeit durch mobile Endgeräte von Nutzern und Interaktion mithilfe mobiler und stationärer Kanäle in der „echten“ Welt – als Gegensatz zur virtuellen digitalen Welt (Thäsler 2016). Die fortschreitende Digitalisierung, insbesondere der Metropolen, ermöglicht es Kommunikatoren, Zielgruppen an für sie relevanten Orten in relevanten Momenten mit für sie relevanten Botschaften zu erreichen. Die datengetriebene Analyse des Zielgruppenverhaltens geschieht hierbei ebenso in Echtzeit, wie das Ausspielen von Kommunikationsinhalten über spezifische Kanäle, wie bspw. mobile Endgeräte oder stationäre digitale Werbeträger. Hierbei werden Medien genutzt, die crossmedial programmatisch – also über OnlineDSPs (Digital Signal Processors, die Online-Inhalte in Echtzeit platzieren) – angesteuert werden: Digitale Außenwerbung kombiniert mit Mobile, OnlineDesktop und -Video, Social Media sowie Addressable TV (Thäsler 2017). Der Vorteil des Einbezugs von Geointelligenz – hier definiert als datenbasierte hyperlokale Zielgruppenanalyse – in datengetriebenes Marketing ist, Konsumenten dann zu erreichen, wenn sie für die Inhalte besonders offen sind, weil sie an definierten Orten, sogenannten Touchpoints, zu definierten Zeiten in definierten Situationen erreicht werden und dadurch Bewusstseinsveränderungen

8  Data-driven Marketing im Outernet

181

und unmittelbare Anschlusshandlungen nach erfolgreicher Kommunikation (Call to Action), wie ein Shop-Besuch in der Nähe oder die Recherche und der Kauf über mobile Endgeräte, wahrscheinlicher werden (Mattgey 2017). Der Prozess kann beim Konsumenten bewusst oder unbewusst ablaufen (Scheier 2005). Dieser Wirkungs-Uplift im Vergleich zum herkömmlichen (Online-) Targeting oder traditioneller Mediaplanung ist anhand von steigendem Abverkauf, steigender Besucherfrequenzen am Point of Interest (POI) oder einer steigenden Anzahl an Zuwendungen zu mobilen oder stationär abgerufenen Websites oder Apps messbar (Thäsler et. al. 2017). Beim geointelligenten datengetriebenen Marketing wird die Zielgruppe zunächst profiliert, über sie zur Verfügung stehende spezifische Daten analysiert und dann geocodiert. Daten, die zur Verfügung stehen, stammen oft aus Markt-Media-Studien, die mit klassischen Geodaten – das sind Daten mit einem direkten oder indirekten Bezug zu einem bestimmten Standort oder einem geografischen Gebiet – und Daten über Wegezwecke auf Straßenabschnittsebene mit psychografischen Informationen aus Mobile-, Online- und Social Media-Nutzung fusioniert und in Echtzeit Postleitzahlen-genau extrapoliert sowie mit Daten von Werbungtreibenden über Käufer- und Verwenderzielgruppen kombiniert werden (s. Abb. 8.1). Es entstehen Heatmaps zur räumlichen Visualisierung. Anschließend erfolgt die Selektion der Kommunikationskanäle. Diese Methode erfüllt die Voraussetzungen der Datenschutzgrundverordnung (DSGVO), weil

Zielgruppen Profil

Relevantes DSGVOkonformes Datenset

Geokodierung der Zielgruppe

Heat Mapping

Umkehr der Geokodierung auf das WerbeInventar

Abb. 8.1   Prozess Zielgruppen-Mapping, Geointelligenz und (werbliche) Kommunikation. (Quelle: Eigene Darstellung)

182

C. Köster et al.

keine personenbezogenen oder -beziehbaren Daten genutzt werden, sondern panelbezogene und kumulierte Geodaten von Zielgruppen. Zur Erstellung von Mobilitätsprofilen von Zielgruppen, also zur Analyse von Bewegungsmustern und Mindsets an definierten Touchpoints, werden dabei zunächst Daten unterschiedlicher Provenienz gesammelt und fusioniert. So entstehen Datennetze, die Zielgruppen in ihrer Mobilität, ihrem Verhalten und ihrer situativen mentalen Offenheit (Mindset) für spezifische Marketingbotschaften beschreiben.

8.2 Die Datenquellen Ausgangspunkt geointelligenter Zielgruppenanalyse sind Daten aus verschiedenen Quellen, die möglichst spezifisch ihre Bewegungsmuster und Mindsets im öffentlichen Raum geografisch verorten: statische Daten wie Geodaten, Mobilitätsstudien, Markt-Media-Studien sowie dynamische Daten, wie bspw. Daten von Mobilfunkanbietern, App-Daten, Daten aus Social Media und 3rd-Party-Daten.

8.2.1 Statische Geodaten Hierunter fallen statische Geodaten, die als Akkumulation zahlreicher öffentlich zugänglicher Daten (z. B. Register, Bebauung, Fahrpläne, Firmenansiedlungen, Bevölkerungsprofile, Ethnien, etc.) und von Wirtschaftsunternehmen erhobene Daten (Adressen, Branchen, Unternehmensgrößen, etc.), die Zielgruppen räumlich beschreiben und visualisieren und von entsprechenden Geo-Analysediensten und Daten-Providern zur Verfügung gestellt werden. Geodaten beschreiben also ein Objekt, entweder direkt (durch Koordinaten), oder indirekt (z. B. durch Postleitzahlen oder räumliche Polygone) anhand seiner Position im Raum. Über ihren jeweiligen Raumbezug werden die verschiedenen Geodaten miteinander verknüpft, um detaillierte Abfragen und Analysen erstellen zu können (Europäische Union 2007).

8.2.2 Mobilitätsstudien Daneben finden turnusmäßige Mobilitätsstudien der öffentlichen Hand statt. Prominentes Beispiel ist die „Mobilität in Deutschland“, in der zuletzt 2017 über 316.000 Personen aus 156.000 Haushalten nach ihren Mobilitätsprofilen befragt

8  Data-driven Marketing im Outernet

183

wurden (Bundesministerium für Verkehr und digitale Infrastruktur 2018). In Studien dieser Art werden Verhalten und Verhaltensabsichten von Zielgruppen beschrieben und geografisch verortet.

8.2.3 Markt-Media-Studien Im Rahmen von Markt-Media-Studien werden turnusmäßig ausgewählte Personen über Mediennutzung, Konsumverhalten und Anschaffungsneigung befragt. Relevante Beispiele sind die Best 4 Planning, in der jährlich, zuletzt 2018, über 30.000 zufällig per Stichprobe ausgewählte Personen insbesondere zur Mediennutzung befragt werden (Gesellschaft für integrierte Kommunikationsforschung 2019), oder die Verbraucheranalyse VuMA, in der jährlich in über 23.000 Interviews Konsumverhalten, Einstellungen und Trends abgefragt werden (VuMA 2019). Diese Studien werden i. d. R. im Auftrag von Medienanbietern durchgeführt und dienen Media-Agenturen und Werbungtreibenden dazu, Kommunikationsstrategien zu entwickeln. Daneben liegen turnusmäßig erhobene proprietäre Studien von Media-Agenturen vor, die beispielsweise die Consumer Connection Survey des Dentsu Aegis Network, in der jährlich über 16.000 Probanden über Lifestyle, Konsumverhalten, Mobilität, relevante Touchpoints und Kaufabsichten befragt werden (Dentsu Aegis Network Resolutions 2019).

8.2.4 Daten von Mobilfunkanbietern Die T-Mobile-Tochter Motionlogic, Vodafone, Telefonica u. a. stellen dynamische Kundendaten DSGVO-konform anonymisiert und grobmaschig zur Verfügung. Hiermit können Soziodemografie und Bewegungsmuster von Zielgruppen bestimmt werden (Küppers 2019).

8.2.5 App-Daten Tracking- und Reporting-Daten aus Applikationen auf mobilen Endgeräten können bei verschiedenen Anbietern erworben werden. Auch diese zielgruppenspezifisch kumulierten dynamischen Daten sind DSGVO-konform nicht personenbezogen oder -beziehbar. Sie dienen dazu, zielgruppenspezifisches Verhalten geografisch zu verorten. Räumliche Einheit sind Postleitzahlen, engmaschiger sind Polygone von 50 mal 50 Metern, innerhalb derer Zielgruppen

184

C. Köster et al.

lokalisierbar sind (AdSquare 2019). Anbieter, wie AdSquare, Groundtruth oder Locarta akkumulieren diese Daten und machen sie zu Analysezwecken zugänglich.

8.2.6 Daten aus Social Media Social Media Footprints sind ebenso geografisch verortbar, wie die App-Daten. Likes, Dislikes, Kommentare und Posts werden in der „echten Welt“ getätigt: zuhause, auf dem Weg zur und von der Arbeit, in der Freizeit, beim Shopping, beim Restaurantbesuch. Auch sie sind geografisch verortbar, wenngleich sie bei Google und Facebook i. d. R. nur innerhalb der Walled Gardens der Anbieter und bezogen auf spezifische Kampagnen zur ausschließlichen Verwendung durch den Werbungtreibenden verfügbar sind.

8.2.7 3d-Party-Daten Werbungtreibende, Interessenverbände, politische und weltanschauliche Organisationen etc. erheben oft selbst direkt Daten von ihren Kunden, die geografisch verortet werden können. Triviales Beispiel ist die Frage nach der Postleitzahl des Wohnorts beim Bezahlen an der Kasse. Weitaus detailliertere Daten speisen sich aus Clubkarten und -mitgliedschaften, eigenen Apps oder Abfragen von Interessen und Wünschen von Kunden oder Mitgliedern. Die Daten der Kategorien 5. und 6. geben Auskunft über die Verfasstheit von Nutzern, was in Form psychografischer Analysen ihre Konsumneigung und das Aktivierungspotenzial von Kommunikationsbotschaften besonders relevant macht (Häusel 2011; Küppers 2019).

8.3 Die Datenfusion Die eigentliche Fusion der Daten und die geografische Verortung geschehen mittels spezieller Algorithmen. Grundlage sind dabei zunächst die Geodaten, wobei hauptsächlich die räumliche Ebene des Wohnquartiers mit durchschnittlich 500 Haushalten pro Quartier genutzt wird. Deutschland besteht aus 8182 Postleitzahlgebieten, diese sind zu grobmaschig für hyperlokale Zielgruppenmodellierungen. Die rund 80.000 Wohnquartiere (die Anzahl differiert marginal je nach Datenanbieter) bieten dagegen eine sehr viel detailliertere Sicht

8  Data-driven Marketing im Outernet

185

auf Zielgruppen und Infrastruktur. Eine noch granularere Betrachtung, wie Straßenzug, macht nur in Ausnahmefällen Sinn, da das Zielguppenpotenzial oft zu gering wird, um belastbare Aussagen hinsichtlich Zielgruppen und deren Verhalten zu treffen. Auch bezüglich der werblichen Mittel gibt es Grenzen: Während für die Identifikation geeigneter Out-of-Home-Werbeträger eine Straßenzugbetrachtung Sinn machen kann, bietet eine App-basierte MobileKampagne kein signifikantes Zielgruppenpotenzial. Browserbasierte Kampagnen können ohnehin nur auf PLZ-Basis ausgespielt werden, da ein granulareres Targeting aufgrund technischer Aspekte (IP-Knotenpunkte, begrenzte Möglichkeiten in Vermarkter-Interfaces) und ebenfalls begrenzter Zielgruppenpotenziale technisch nicht möglich ist: Hier müssen die Wohnquartiere also wieder in die sie umschließende Postleitzahl zusammengefasst werden. Die weitaus größte Bedeutung bei der Fusion der Daten im Rahmen der Geointelligenz besitzen die Markt-Media-Studien, da sich ein Großteil der dort jeweils abgefragten Statements in den öffentlichen Raum übertragen lässt. Insgesamt lassen sich über die Analyse der Statements innerhalb der Studien vier Kategorien identifizieren: 1. Wohnort 2. Arbeitsort 3. Orte des täglichen Bedarfs (Nahversorgung) 4. Orte des höheren Bedarfs (Freizeit, Shopping, Sport etc.) Während die ersten drei Kategorien relativ einfach über automatisierte Algorithmen abgebildet werden können, müssen die Orte des höheren Bedarfs zielgruppenindividuell und produktspezifisch vor der Fusion analysiert werden: Man denke an den Unterschied des Freizeitverhaltens eines Adidas- und eines Chanel-Kunden. Diese Analyse anhand statischer Zielgruppendaten lässt neben der räumlichen Information auch erste zeitliche Rückschlüsse sowie die Skizzierung von Bewegungsmustern zu – z. B. wann fahren die Menschen von wo zur Arbeit und welche Wege nehmen sie? Die Fusion dieser vier Kategorien bildet die Basis für die Analyse unter Zuhilfenahme digitaler Echtzeitdaten aus Apps, Social Media und von Mobilfunkanbietern im Rahmen ihrer jeweiligen räumlichen Verfügbarkeit. Das Ergebnis erlaubt die Darstellung detaillierter Bewegungsmuster, Zeit- und Ortskorrelationen und zeigt den Zusammenhang zwischen Touchpoint und Anwesenheitszweck, all dieses auf Zielgruppen- nicht auf Individualebene. Die gewonnenen Daten lassen zusätzlich Rückschlüsse auf die Verfasstheit der jeweiligen Zielgruppe zu. Die Fusion statischer und dynamischer Daten erlaubt

186

C. Köster et al.

zusätzlich die gegenseitige Referenzierung und damit eine Überprüfung der Güte der jeweiligen Datensätze, da sie, wie beschrieben, aus unterschiedlichen Quellen stammen und sowohl erworben als auch selbst erhoben werden und unterschiedliche Qualität besitzen können. Ein weiterer Bestandteil der Geointelligenz ist das hyperlokale Reporting von Digitalkampagnen, die auf kleinräumiger Ebene geplant und ausgespielt werden. Ist eine Digitalkampagne auf Größenordnung von Wohnquartieren angelegt, lässt das Reporting Analysen anhand geografisch verortbarer Impressions, Clicks oder qualifiziertem Traffic auf der Seite des Werbungtreibenden zu. Im Kampagnenverlauf ergeben sich Optimierungspotenziale und Erkenntnisse über das Verhalten von Zielgruppen auf hyperlokaler Ebene. Diese lokalen, digitalen Informationen, gepaart mit On- und Offline-Informationen eröffnen Optionen für die Optimierung des Media-Mix und die Verzahnung der On- mit OfflineMedien. Die langfristige Kumulation solcher Daten kann auch als Grundlage für strategische Mobilitäts- und Infrastrukturentscheidungen in Smart Cities dienen, für Logistik, Standortplanung und -optimierung und auch für die Optimierung von Produkt- und Vertriebsplanung. Diese Informationen sind insbesondere für lokal bzw. regional agierende Unternehmen, wie für Filialisten oder Nahversorger, von großer Bedeutung, insbesondere in Kombination mit anonymisierten Bestandskundendaten, Abverkaufsdaten und Expansionsplanungen.

8.4 Das Heatmapping Nach der Datenfusion und darauffolgenden -analyse entstehen im Rahmen der geografischen Zielgruppenbeschreibung sogenannte Heatmaps, visuelle Touchpoint-bezogene Verdichtungen von Bewegungsmustern. Aus Gründen des Datenschutzes umfassen sie mindestens fünf Haushalte, können jedoch auch Straßenabschnitte, Postleitzahlen, Wohnquartiere oder Polygone darstellen. Je nach Kommunikationsziel und -botschaft beinhalten sie verschiedene der oben beschriebenen Daten. Die Zielgruppenkonzentration wird prozentual angezeigt. Zur Datenbasis der in Abb. 8.2 dargestellten Zielgruppe „City Life“, eines aus verschiedenen Kriterien, wie beispielsweise das Haushaltsnettoeinkommen (HHNE), zusammengesetztes Merkmal urbanen Lebens, gehören Geodaten innenstadttypischer Branchen und Unternehmen, Einwohner- und Flächenmaße, strukturelle

8  Data-driven Marketing im Outernet

187

Daten sowie Informationen über Frequenzen und Verkehr. Je dunkler die Fläche, desto höher die Zielgruppenkonzentration innerhalb des Gebiets. Bewegungsmuster, Verhalten und Mindsets von Zielgruppen werden nach Analyse der zur Verfügung stehenden Daten bestimmt und anhand von Tagesverlaufskurven wie in Abb. 8.3 dargestellt. Betrachtet man das Zielgruppen-Mapping aus Abb. 8.2 nach psychografischen Gesichtspunkten, wird deutlich, dass es sich in einem weiteren Segmentierungsschritt und durch die Fusion zusätzlicher Daten weiter differenzieren lässt. Abb. 8.4 bildet psychografische Zielgruppenmerkmale geografisch ab. Dabei werden die „Limbic Types“ der Gruppe Nymphenburg räumlich verortet, was aus Marketingsicht insofern relevant sein kann, als Form und Inhalt von Kommunikation zur Provozierung einer gewünschten Anschlusshandlung variieren können (Häusel 2011). Aus der Datenfusion der o. a. Quellen ergeben sich Konsequenzen für das Zielgruppen-Targeting: Zielgruppentypologien inklusive ihrer Bewegungsmuster, Mindsets und Optimierung der Kommunikationsbotschaft werden mit der Mediennutzung fusioniert und in Echtzeit über sämtliche hyperlokal adressierbaren Media-Kanäle hinweg aktiviert.

Abb. 8.2   Innerstädtische Verdichtung der Zielgruppe „City Life“. (Quelle: Eigene Darstellung)

Wann ist die Zielgruppe auf dem Weg zur Arbeit im öffentlichen Raum unterwegs?

Wie lang ist die ZG mittags unterwegs? Arbeitet Sie vielleicht nur halbtags?

Wo arbeitet die ZG? Welchen Job hat Sie? Wie gestaltet sich der Arbeitsalltag?

Wohin geht die ZG mittags essen? Fast Food oder Restaurant?

Wie lange arbeitet die ZG? Wie gestaltet sich der Arbeitsalltag?

Welche Portale nutzt, oder auch Spiele spielt die ZG auf dem Weg zur Arbeit?

Welche KörperpflegeProdukte nutzt die ZG? Hört Sie morgens Radio?

Wann verlässt die ZG den Arbeitsort? Geht Sie einkaufen? Täglicher oder höherer Bedarf?

Welche Verkehrsmittel nutzt die ZG auf dem Weg zur Arbeit?

Welche Kleidung trägt die ZG und für welchen Job wählt Sie die Garderobe?

Abb. 8.3   Tagesverlauf der Zielgruppe (ZG) „City Life“. (Quelle: Eigene Darstellung)

Wann ist die ZG mittags unterwegs? Kauft Sie ein? Wohin geht Sie?

Wann am Morgen nutzt die ZG Ihr Smartphone?

Wo wohnt die ZG? Wann steht Sie ungefähr auf? Welches HHNE hat Sie?

Wann ist die ZG Zuhause? Was macht Sie abends?

Nutzt die ZG Ihr Smartphone auf dem Weg zur Arbeit?

Kaffe oder Tee? Frühstückt die ZG to go?

Wann pendelt die ZG zur Arbeit? Woher kommt Sie, wohin fährt Sie?

188 C. Köster et al.

8  Data-driven Marketing im Outernet

189

Abb. 8.4   Mapping nach Psychografien. (Quelle: Küppers 2019)

8.5 Kampagnenumsetzung in der Praxis Der folgende Abschnitt zeigt beispielhaft Vorgehen und Benefit von geointelligentem On- und Offline-Marketing anhand zweier Mediakampagnen. Zunächst wird anhand der o. a. beschriebenen Datenanalyse eine Zielgruppe selektiert, an die Kommunikationsbotschaften ausgespielt werden. In der Mediaplanungspraxis wird die evaluierte Zielgruppe in Segmente unterteilt. Im OnlineMarketing werden dafür in der Praxis Zielgruppencharakterisierungen der Medienanbieter genutzt. Dies beinhaltet durch das Nutzerverhalten abgeleitete Interessen an Themengebieten, Nutzerdemografien, aber auch Standorte, an dem sich die Nutzer befinden, die jedoch im Rahmen von Online-Kampagnen i. d. R. unberücksichtigt bleiben, weil Anschlusshandlungen digital stattfinden und gemessen werden. Im Gegensatz dazu bieten traditionelle Medien andere Möglichkeiten zur Zielgruppenidentifizierung. TV bietet Umfeldanalysen, die die Demografie und inhaltlichen Interessen von Zuschauern anhand der konsumierten Inhalte bestimmt (Vizeum 2017). Außenwerbung arbeitet im öffentlichen Raum mit hohen Reichweiten und Streugewinnen (Sharpe 2010), bietet sich jedoch zugleich auch als hyperlokaler Kommunikationskanal an, durch den Zielgruppen an dedizierten Points of Interest und Points of Sale gezielt angesprochen werden können (Fachverband Außenwerbung 2013). Die Herausforderung einer gattungsübergreifenden Kampagne ist, dass sie sich in ihrem Leistungsnachweis an Variablen orientiert, die die o. g. Mechaniken der ­ unterschiedlichen

190

C. Köster et al.

Zielgruppenansprache berücksichtigt. Im Folgenden wird geointelligente Mediaplanungspraxis dahingehend untersucht, inwieweit geografische Segmente zur Zielgruppenansprache digitale Platzierungen und Kampagnen on- und offline optimieren. Untersucht wird dabei, ob sowohl digitale als auch Außenwerbekanäle anhand einer geografischen Zielgruppenanalyse aufeinander abgestimmt, Werbewirkung und -leistung nachweislich steigern können.

8.5.1 Leistungssteigerung durch Geointelligenz bei Online-Kampagnen Grundlage der Untersuchung der Leistungssteigerung durch geointelligente Optimierung von Online-Kampagnen ist eine Studie, welche im Zeitraum von Juni bis August 2016 in deutschen Metropolen auf YouTube durchgeführt wurde. Das Budget für die zu Grunde liegende Kampagne lag in einem niedrigen sechsstelligen Bereich. Die Optimierung verwandte dabei eine dedizierte Budgetverteilung auf Ballungszentren, wodurch diese Kampagne zu einer geointelligent ausgesteuerten Kampagne wurde. Unsere Untersuchungen zeigen zunächst, dass ein grundsätzlicher Zusammenhang zwischen Geografie der Platzierung der Kommunikationsmittel und der durch sie erbrachten Leistung besteht. Getestet wurde, wie sich die Anzahl der erreichbaren Nutzer bei einer geointelligenten Kampagne im Vergleich zu einer typischen Online-Video-Kampagne, bei der die Aussteuerung anhand automatisierter, vom Medienanbieter nicht offen gelegten Algorithmen erfolgt, verhält. Dabei wurde die Zielgruppe am jeweiligen Ort ermittelt und den tatsächlich erreichten Nutzern gegenübergestellt. Es ergibt sich ein Verhältnis, das zeigt, in welchen Regionen überproportional viele Kommunikationsmittel an getargetete Nutzer ausgespielt bzw. wie viele Nutzer erreicht wurden und in welchen Regionen dies nicht der Fall war. Bei Analyse der durch den Medienanbieter gesteuerten automatisierte Online-Video-Kampagne fiel auf, dass sowohl der Osten als auch der Norden Deutschlands unterrepräsentiert waren. Der Algorithmus bevorzugte sowohl den Westen als auch den Süden überproportional. Diese Verteilung ergab sich offenbar aus der Anzahl der Ballungszentren und der dadurch differierenden Anzahl von relevanten Nutzern in den jeweiligen Regionen, schließt aber nicht aus, dass sowohl im Norden als auch im Osten zielgruppenrelevante Ballungszentren existierten. Auch die in Abb. 8.5 dargestellten Metropolen wurden vom Algorithmus bevorzugt, wenn kein spezifisches Geotargeting angewandt wird: Sie wiesen eine höhere Anzahl von Impressions auf und sprachen mehr Unique User an, als ihnen gemäß der

8  Data-driven Marketing im Outernet

HAMBURG

ESSEN

94%

101%

BERLIN

STUTTGART

61%

KÖLN

191

161%

120% DÜSSELDORF

MÜNCHEN

93%

LEIPZIG

155%

FRANKFURT

241%

8%

DORTMUND

104%

Abb. 8.5   Ausspielung einer klassischen, algorithmusbasierten Kampagnensteuerung in ausgewählten Metropolen. (Quelle: Eigene Darstellung)

­ inwohner- bzw. Nutzerverteilung zustand (s. Abb. 8.5). Dies lässt den Schluss E zu, dass der Algorithmus Ballungsgebiete bevorzugt, weil diese höchstwahrscheinlich relevantere Zielgruppensegmente beinhalten, welche bessere Leistungswerte generieren. Um dieser Vermutung nachzugehen und die Werbeleistung noch weiter zu steigern, wurde dasselbe Budget innerhalb einer vergleichbaren Kampagne, die von vorneherein geointelligent geplant war, explizit auf Ballungsgebiete verteilt und ländliche Regionen budgetär geschwächt. Dadurch wurde dem Algorithmus die Handlungsvorgabe gegeben, die Impressionen auf bestimmte geografische Gebiete geointelligent zu verteilen. Mit dieser Vorgabe wurde sichergestellt, dass eine größere Anzahl von Impressionen generiert und mehr Nutzer erreicht wurden, als gemäß der Einwohner- bzw. Nutzerverteilung zur Verfügung stehen müssten (Abb. 8.6).

HAMBURG

ESSEN

144%

221%

BERLIN

STUTTGART

134%

KÖLN

388%

507% DÜSSELDORF

MÜNCHEN

257%

LEIPZIG

470%

FRANKFURT

477%

75%

DORTMUND

426%

Abb. 8.6    Ausspielung durch geointelligente Kampagnensteuerung in ausgewählten Metropolen. (Quelle: Eigene Darstellung)

192

C. Köster et al.

Im Ergebnis ergab sich eine Steigerung der Leistung der Kommunikationsmittel von rund 5 % in Bezug auf die Durchschaurate der Videos und den Einkaufspreis des Anzeigenformats im Vergleich zur Zielgruppenerreichung der ursprünglichen, nicht-geooptimierten Kampagne. Dieses Szenario verweist darauf, dass die geografische Aussteuerung digitaler Kampagnen einen positiven Effekt auf die Kampagnenperformance haben kann.

8.5.2 Geografische Verortung von Zielgruppen und crossmediale Ansprache Die Zielgruppe der zweiten Kampagnen, die im Zeitraum von September bis Dezember 2018 mit einem mittleren sechsstelligen Budget zum Einsatz kam, wurde anhand einer Datenanalyse geografisch verortet. Der Mehrwert lag in einer geografisch optimierten und crossmedialen Kampagne mit höherer Budgeteffizienz. Im Vergleich zu einer parallellaufenden monomedialen digitalen Kampagne, sollte die Steigerung der Werbewirkung einer crossmedialen und geointelligenten Kampagne getestet werden. Inhaltlich fokussierte sich das Experiment auf das Interesse an einem Erwerb spezieller Consumer-Electronics-Artikel aus dem Sicherheitsbereich. Key Performance Indikators (KPIs) der Kampagne waren das messbare Interesse an entsprechenden Sicherheitsprodukten über die Zuwendung (bspw. Product Awareness) und/oder Interaktion zu bzw. mit einer dedizierten Website (bspw. Klicks, Verweildauer etc.) sowie der digitale und stationäre Abverkauf. Neben geografischen kamen psychografische Zielgruppenmerkmale zum Einsatz. Die Datenanalyse ergab zunächst wenig überraschend, dass die Zielgruppe überdurchschnittlich gut verdient und häufig in einer eigenen Wohnung oder einem eigenen Haus lebt und in Ballungszentren oder deren Speckgürteln lokalisiert wurde. Mobilitätsprofile, Freizeitverhalten und Bewegungsmuster ergaben ein Pendlerverhalten mit unterschiedlichen Verkehrsmitteln. Als Hauptmotivation für die Kaufentscheidung wurde „Sicherheitsbedürfnis“ identifiziert; als weitere Datenschicht wurden Statistiken zur Einbruchshäufigkeit fusioniert. Daraus resultierend ergab sich die Vermutung, dass das Sicherheitsbedürfnis im Norden Deutschlands ausgeprägter als im Süden ist, da die Einbruchshäufigkeit im Süden Deutschlands geringer ausfällt. Im Umkehrschluss konnte angenommen werden, dass das Interesse am Produkt im Norden stärker ist als im Süden, was in dementsprechende Ergebnisse in Bezug auf o. g. KPIs münden würde.

8  Data-driven Marketing im Outernet

193

Resultat der Analyse waren geografische und für die Media-Planung operationalisierte Targeting-Variablen, die die Zielgruppe über den Tagesverlauf hinweg lokalisierten und in Situationen ansprechbar machten, in denen ihr Kaufmotiv getriggert werden konnte. So ließen sich zeitlich passende Werbebotschaften aussteuern. Im vorliegenden Fall konzentrierten sich die MediaMaßnahmen vornehmlich auf den Einsatz von Social Media in Kombination mit Digital-Out-of-Home Werbeträgern, um durch die crossmediale Verknüpfung von mobile und offline die Werbewirkung zu steigern. Im Fokus der Platzierung der Kommunikationsmittel standen dabei die Ballungszentren Hamburg, München und Stuttgart, mit kaufkräftigen Zielgruppen. Sie bildeten innerhalb der Analyse die geografischen Zentren ab, die die höchste Zielgruppenrelevanz besaßen. Die Datenfusion ermöglichte, die Zielgruppe durch spezifische Kommunikationsmittel ort- und zeitgenau anzusprechen und Streuverluste zu minimieren. Sowohl die in sozialen Netzwerken als auch die in den digitalen Außenwerbungsnetzen platzierten Kommunikationsmittel konnten in Echtzeit aufeinander abgestimmt ausgespielt werden, wodurch die entstehenden Wiederholungskontakte optimiert wurden. Beispielhaft für die Kampagnenregion München lässt sich erkennen, dass die Arbeitsstätte vornehmlich im innerstädtischen Bereich und Industriegebieten liegt, die Freizeit aber eher im Umland verbracht wird. Die höchste Relevanz des Wohnorts der Zielgruppe besitzt das Umland (s. Abb. 8.7). In einer crossmedialen Kampagne bot Social Media einen Ansatzpunkt zur kontinuierlichen Zielgruppenerreichung, gleichsam ein „Grundrauschen“. Digitale Außenwerbung wurde aus budgetären Gründen punktuell als Reichweitenmedium in einem wöchentlichen On-Off-Wechselrhythmus addiert. Die Kampagne bestätigte die Relevanz geointelligenter crossmedialer Planung: Sowohl die Werbeleistung als auch der Abverkauf erfuhren eine Steigerung. Beispielhaft zeigt Abb. 8.8, dass die täglich generierte Reichweite einzelner Werbemittel relativ konstant mit einigen Ausschlägen verläuft. Dies kann bis zum Einsatz der Außenwerbeplatzierungen als ein typischer Verlauf bezeichnet werden. Kommunikationsmittel in sozialen Netzwerken generieren oftmals konstante Reichweiten, da die Anzahl von Nutzern pro Tag, die der Zielgruppe angehören und auf der Plattform aktiv ist, für den jeweiligen Algorithmus voraussehbar ist. Zu erkennen ist nach der Aktivierung durch den zusätzlichen Kommunikationskanal Außenwerbung im Zeitraum vom 28.10. bis 05.11. ein Anstieg, der sich in den Folgetagen ebenfalls registrieren lässt. Die Reichweite erhöht sich also durch die Einbindung digitaler Außenwerbung in dem

194

Abb. 8.7   Heatmaps der Zielgruppen-Lokalisierung

Abb. 8.7   (Fortsetzung)

C. Köster et al.

8  Data-driven Marketing im Outernet

195

Abb. 8.7   (Fortsetzung)

Abb. 8.8   Entwicklung der Reichweite im Kampagnenverlauf. (Quelle: Eigene Darstellung)

196

C. Köster et al.

­ edia-Mix nachweislich. Analog dazu stiegen auch die Klicks und daraus M resultierend die Webseitenbesuche. An dieser Stelle kann die Vermutung formuliert werden, dass der Kontakt mit digitalen Außenwerbemitteln die digital ansprechbaren Zielgruppen vergrößert. Durch die Aktivierung der Personen im öffentlichen Raum könnten diese auf sozialen Plattformen ein Interesse an den beworbenen Produkten bzw. der Produktkategorie signalisiert haben. Dadurch stieg nicht nur die Reichweite, sondern auch die Anzahl der Impressionen und letztendlich die Anzahl der Klicks. Digitale Außenwerbung könnte also die Reichweitenpotenziale digitaler Kampagnen positiv beeinflussen. Zusammenfassend sehen die Ergebnisse der Kampagne im Vergleich zur reinen Digitalkampagne wie folgt aus: 30 % Reichweitenzunahme in sozialen Medien durch den crossmedialen Einsatz digitaler Außenwerbung, 30 % Abverkaufssteigerung, 6 % Steigerung der Brand Awareness, 26 % Click-Uplift im Suchmaschinenmarketing, 25 % gesteigerte Suchmaschinenanfragen durch den zusätzlichen Einsatz digitaler Außenwerbung.

8.6 Fazit und Ausblick Anhand der o. g. Kampagnen konnte gezeigt werden, dass geointelligente, digitale Kampagnen bessere Kommunikationsleistungen erbringen können als herkömmliche Kampagnen, die nicht geografisch optimiert sind. Zielgruppen können anhand verschiedener spezifischer Daten geografisch und psychografisch verortet und damit durch einen kommunikationskanalübergreifenden Media-Mix angesprochen werden. Diese Strategie ermöglicht eine effiziente und effektive Erreichung von Zielgruppen über alle hyperlokal verortbaren Media-Gattungen hinweg. Die Leistungsbeiträge der einzelnen Medien müssen – mit Hilfe von Geointelligenz – in Relation zueinander gesetzt werden. Angesichts begrenzter Kommunikationsbudgets müssen Kanäle und Touchpoints also gleichsam nach dem Prinzip korrespondierender Röhren kombiniert werden. Die hier vorgelegten Befunde sind ein erster Ansatzpunkt. Nun gilt es anhand verschiedenster Kommunikationsaufgaben, Zielgruppen, mediakanalübergreifender Kommunikation und einer Varianz von Werbemitteln zu überprüfen, inwieweit geointelligent geplante Kommunikation von klassischer differiert und welche Daten in Hinblick auf optimale Zielgruppenausschöpfung und -ansprache sowie die Erreichung von Kommunikationszielen relevant ist. Erst dadurch lässt sich bestimmen, inwiefern höhere Werbewirkung und -leistung Abverkauf triggern. Im Outernet stellt werbliche Kommunikation nur einen kleinen Teil zielgruppen-

8  Data-driven Marketing im Outernet

197

spezifischer Mobilität und Vernetzung dar. Geointelligente Daten können genutzt werden, um Mobilität zu optimieren und Herausforderungen in Smart Cities durch crossmediale Kommunikation im Internet of Things zu meistern. Data-driven Geointelligenz steht daher erst am Anfang.

Literatur AdSquare. (2019). (Digital) Out-of-Home. Adsquare´s solutions to optimize OOH/DOOH advertising. Berlin. Bundesministerium für Verkehr und digitale Infrastruktur. (2018). Mobilität in Deutschland. Ergebnisbericht. Berlin. Dentsu Aegis Network Resolutions. (2019). Consumer Connection Survey. Berichtsband. Wiesbaden. Europäische Union. (2007). Richtlinie 2007/2/EG des Europäischen Parlaments und des Rates vom 14. März 2007 zur Schaffung einer Geodateninfrastruktur in der Europäischen Gemeinschaft (INSPIRE). Brüssel. Fachverband Außenwerbung. (2013). maPlakat. https://www.faw-ev.de/wp-content/ uploads/2013/05/Download_ma-Plakat-allgemein.pdf. Zugegriffen: 16. Aug. 2019. Gesellschaft für integrierte Kommunikationsforschung. (2019). b4p. best for planning. https://gik.media/best-4-planning/. Zugegriffen: 15. Aug. 2019. Häusel, H.-G. (2011). Die wissenschaftliche Fundierung des Limbic Ansatzes. München. Küppers, R. (2019). Local Marketing meets Limbic. Grundlagen und Anwendungsbeispiele. Bonn. Mattgey, A. (2017). Plus 25 Prozent: Wie C&A mit Big Data mehr Besucher in die Läden lockte. Lead Digital Online. http://www.lead-digital.de/aktuell/mobile/plus_25_prozent_wie_c_a_mit_big_data_mehr_besucher_in_die_laeden_lockte. Zugegriffen: 20. Okt. 2017. Scheier, C. (2005). Wie wirken Plakate? In W. J. Koschnick (Hrsg.), FOCUS Jahrbuch 2005 (S. 265–289). München: FOCUS Magazin Verlag. Sharpe, B. (2010). How Brands Grow. What Marketers Don’t Know. Oxford: Oxford University Press. Thäsler, K. (2016). Aus Außenwerbung wird das Outernet: Die Digitalisierung des öffentlichen Raums erfordert eine neue Art der Mediaplanung. Werben & Verkaufen, 3. https://wwwwuv.de/medien/aus_aussenwerbung_wird_das_outernet. Zugegriffen: 30. Apr. 2016. Thäsler, K. (2017). Die Zukunft der Außenwerbung ist digital. OOH!, 2(2017), 14. Thäsler, K., Lutz, T., & Ceyp, M. (2017). Out-of-Home-Rezeptionsverfassungen im Zeitalter der Digitalisierung. Transfer Werbeforschung & Praxis, 4(2017), 30–37. Vizeum. (2017). Motivations to Connect. Wiesbaden. VuMA. (2019). VuMA Touchpoints. https://www.vuma.de/vuma-praxis/die-studie/. Zugegriffen: 15. Aug. 2019.

198

C. Köster et al.

Carsten Köster Nach dem Studium der Politikwissenschaften mit Schwerpunkt parteipolitischer Werbemaßnahmen startete Carsten Köster seine berufliche Laufbahn im Jahr 2015 bei der Online-Marketingagentur explido iProspect. Dort beriet er Kunden diverser Branchen in Online-Video-Content- und Innovations-Strategien und leitete die gleichnamige Core-Group. Aus dieser Zeit datiert die Autorenschaft dieses Beitrags. Seit Juli 2019 ist Carsten Köster als Video Specialist für Google tätig und berät Kunden im Hinblick auf ihre internationale Video-Strategie und die Einbettung von Bewegtbild-Maßnahmen in einen Gesamt-Media-Mix. Terence Lutz  Terence Lutz, Diplom-Betriebswirt, ist seit 24 Jahren in der Mediabranche tätig. Er kommt aus der klassischen Media-Planung mit Stationen bei den Agenturen COMPAS und Carat. Er entwickelte Media-Strategien für diverse Großkunden, bevor er 2003 zum Außenwerbespezialisten Posterscope in Hamburg wechselte. Hier baute er vor allem die internationale Zusammenarbeit innerhalb der Agenturgruppe und das digitale Know-how der Agentur auf. Seit 2014 verantwortet er die Integration der OnlineWirkmechanismen in klassische OOH-Media-Strategien zur Optimierung und Messbarkeit crossmedialer Kampagnen im öffentlichen Raum. 2004–2009 war er u. a. Vorstand für Qualität im Fachverband Ambient Media, verantwortlich für alle nicht klassischen OOHMaßnahmen. Kai-Marcus Thäsler  In 25 Berufsjahren hat der Autor das Medien- und Media-Geschäft aus (fast) allen Perspektiven gesehen: Angefangen als Journalist in Nachrichtenagenturen, Print und TV, später Redakteur, Moderator und Reporter beim Nachrichtensender n-tv, TV-Nachrichtenchef und Chefredakteur von n-tv.de, wurde er Sendergeschäftsführer von TV.Berlin und anschließend Geschäftsführer mehrerer Firmen bei Ströer SE, unter anderem der Deutschen Eisenbahnreklame, Infoscreen, ECE Flatmedia und Das Fahrgastfernsehen, bevor er sich als Managing Director von Posterscope, einer Media-Agentur im Dentsu Aegis Network, den Themen Digitalisierung des öffentlichen Raums und Crossmediale Geointelligenz verschieb. Seine heutige Geschäftsführertätigkeit beim Fachverband Außenwerbung verbindet der Kommunikationswissenschaftler mit einer Professur für Digitales Marketing an der FOM Hochschule für Oekonomie und Management.

9

Live goes digital – wie digitale Komponenten Messen bereichern Gwen Kaufmann und Lars-Gunnar Frahm

Inhaltsverzeichnis 9.1 Live-Kommunikation im Marketingmix. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.1.1 Bedeutung von Messen im Marketingmix. . . . . . . . . . . . . . . . . . . . . . . . . . 9.1.2 Relevanz von Messen für ausstellende Unternehmen. . . . . . . . . . . . . . . . . 9.1.3 Zielsetzungen ausstellender Unternehmen . . . . . . . . . . . . . . . . . . . . . . . . . 9.2 Quantitative Messung der Zielerreichung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.2.1 Quantifizierung von Besuchern. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.2.2 Quantifizierung vermittelter Inhalte. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.2.3 Einsatz von Humanoiden Robotern: Anwendungsfall Pepper. . . . . . . . . . . 9.3 Fazit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

200 200 201 202 202 202 206 206 211 211

Zusammenfassung

Formate der Live-Kommunikation leben von der persönlichen Begegnung, da scheinen digitale Komponenten auf den ersten Blick fehl am Platz zu sein. Doch eine zentrale Herausforderung bei der Durchführung von ­Live-Kommunikationsmaßnahmen wie Messeauftritten ist es, Aufmerksamkeit auf sich zu ziehen und die Wirksamkeit im Nachgang quantifizieren zu

G. Kaufmann (*)  dfv Mediengruppe, Frankfurt am Main, Deutschland E-Mail: [email protected] L.-G. Frahm (*)  ISM International School of Management, Hamburg, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 S. Boßow-Thies et al. (Hrsg.), Data-driven Marketing, https://doi.org/10.1007/978-3-658-29995-8_9

199

200

G. Kaufmann und L.-G. Frahm

können. Hierbei können digitale Elemente substanziell unterstützen – ob bei der Attraktion von Besuchern durch einen humanoiden Roboter, der effizienten Erfassung und Weiterbearbeitung von Leads oder der Optimierung des Standlayouts basierend auf der Auswertung von digital erfassten Besucherströmen. Zudem erlauben digitale Exponate die Analyse der wichtigsten Inhalte und können eine Wirkungsverlängerung über die Messe hinaus unterstützen.

9.1 Live-Kommunikation im Marketingmix Live-Kommunikation spielt insbesondere im Business-to-Business (B2B) Marketing und Vertrieb eine wichtige Rolle. Vor allem für erklärungsbedürftige Produkte und Dienstleistungen sowie Industriegüter ist der persönliche Kontakt und Dialog oftmals ein zentraler Schritt im Kaufentscheidungsprozess. „Unsere Kunden starten online und sind zu 60 % mit ihrer Entscheidungsfindung durch, wenn sie Kontakt zu uns aufnehmen. Am Ende des Entscheidungsprozesses steht der persönliche Kontakt“, benennt es etwa Valeska Haux, Vice President Corporate Marketing, Multivac Sepp Haggenmüller (Appel 2019). Zum Face-to-Face (F2F) Marketing zählen u. a. Formate wie Messen, Events, Konferenzen, Festivals, Roadshows u. ä.. In diesem Beitrag wird das Format Messe in den Fokus gerückt und beleuchtet, inwiefern sich durch digitale Tools Kennzahlen generieren lassen, um datenbasierte Bewertungen der Wirkung und des Erfolgs von Messeauftritten vornehmen zu können. Im Folgenden wird dazu zunächst die Bedeutung von Messen dargelegt und im Anschluss verschiedene Ansatzpunkte einer digitalisierten Messung beleuchtet. Der Beitrag schließt mit der detaillierten Aufarbeitung des Potenzials des Einsatzes humanoider Roboter auf Messen.

9.1.1 Bedeutung von Messen im Marketingmix Messen sind seit Jahrhunderten von großer Bedeutung für den – zumeist überregionalen – Handel. Sie lassen sich definieren als Veranstaltungen mit Marktcharakter, die ein umfassendes Angebot mehrerer Wirtschaftszweige oder eines Wirtschaftszweiges bieten (Kenning 2019). Im Allgemeinen finden Messen

9  Live goes digital

201

in regelmäßigem Turnus statt, zumeist am gleichen Ort. Messen geben durch ihren Marktcharakter dem internationalen Handel mit Gütern und Dienstleistungen wesentliche Impulse. Sie sind wichtige Marketinginstrumente in der B2B-Kommunikation von Unternehmen und intensivieren den Wettbewerb und den Handel in nahezu allen Wirtschaftsregionen der Erde (AUMA Edition 2019). Das schlägt sich auch in wirtschaftlichen Kennzahlen nieder: Mit 256 Mrd. EUR Sales-Volumen pro Jahr ist die weltweite Messewirtschaft so groß wie die 56. größte Volkswirtschaft bzw. die Werkzeugmaschinen-Branche (UFI 2019).

9.1.2 Relevanz von Messen für ausstellende Unternehmen Für Unternehmen, die sich auf Messen präsentieren, sind sie ein unverzichtbarer Bestandteil des Marketingmix. Für 83 % ausstellender Unternehmen sind Messebeteiligungen sehr wichtig oder wichtig, hat der AUMA Messetrend 2019 ermittelt (AUMA Edition 2019). Die Befragung von 500 repräsentativ ausgewählten deutschen Unternehmen, die auf Fachbesuchermessen in Deutschland ausstellen, wurde von TNS Emnid durchgeführt. Wichtiger als Messebeteiligungen wird von den Befragten lediglich die eigene Website eingeschätzt (90 %). An dritter Stelle folgt der eigene Außendienst, der für 76 % sehr wichtig oder wichtig ist. Ein weiterer Beleg für die hohe Relevanz von Messen sind die dafür getätigten Investitionen. Rund 50 % ihres B2B-Kommunikationsetats geben ausstellende Unternehmen im Durchschnitt für Messebeteiligungen aus. Betrachtet man den Durchschnitt über Industrieunternehmen, die nicht alle zwingend auf Messen präsent sind, fließt noch immer über ein Drittel (37 %) des B2BKommunikationsetats in Messen und Events, die damit das für B2B-Unternehmen kostenmäßig wichtigste Marketinginstrument sind. Zu diesem Ergebnis kommt die Studie „B2B-Marketing-Budgets 2018“ des BVIK – Bundesverband Industriekommunikation e. V., für die Ende 2018 über 100 deutsche Industrieunternehmen ab einer Größe von 50 Mitarbeitern von Kantar TNS befragt wurden (BVIK 2019). Die Messebudgets der Unternehmen sollen in den Jahren 2019/2020 bei durchschnittlich 262.500 EUR je Unternehmen liegen; 2017/2018 waren es 254.300 EUR (arithmetisches Mittel) (AUMA Edition 2019). Das umfasst sämtliche Kosten für Standmiete, Standbau, Personal, Reisen, Transport und Kommunikation.

202

G. Kaufmann und L.-G. Frahm

9.1.3 Zielsetzungen ausstellender Unternehmen Für ihre Investitionen erwarten die Unternehmen einen Gegenwert. Durchschnittlich verfolgen Aussteller auf einer Messe mehr als acht Ziele. Die Pflege von Stammkunden (90 %) und Neukundengewinnung (89 %) stehen dabei laut AUMA-Studie an vorderster Stelle, gefolgt von der Steigerung der Bekanntheit (89 %) sowie einer Imageverbesserung (83 %) (AUMA Edition 2019). Sich auf einer Branchenleistungsschau im Wettbewerbsumfeld im bestmöglichen Licht zu präsentieren, ist eine weitere wichtige Zielsetzung. In vielen Unternehmen werden Messen als Ankerpunkt für diverse Aktivitäten in Produktentwicklung und Kommunikation genutzt. Die Unverrückbarkeit des von außen vorgegebenen Termins sorgt für Disziplinierung von unternehmensinternen Zeitplänen und Prozessen. Denn ist ein neues Produkt oder Prototyp nicht bis zum Messetermin fertiggestellt, kann er dort nicht gezeigt werden, was eine vertane Chance im Wettbewerbsumfeld darstellt. Gleiches gilt für neue Markenauftritte oder Kommunikationskampagnen.

9.2 Quantitative Messung der Zielerreichung Die Erfolgsmessung von F2F-Kommunikationsmaßnahmen gilt gemeinhin als schwierig (Zanger 2017a, b). Die voranschreitende Digitalisierung öffnet jedoch auch der Live-Kommunikation neue Werkzeuge, um Erfolgsdimensionen zu quantifizieren und darauf basierende Entscheidungen treffen zu können. Zum einen können Besucherströme auf und um den Stand mit unterschiedlichen Tools erfasst und ausgewertet werden. Das verschafft Aufschluss darüber, welche Potenziale ausgeschöpft wurden und in welchen Stand- oder Kompetenzbereichen noch Verbesserungsmöglichkeiten bestehen. Zum anderen erlaubt die Ausgabe von Informationen über digitale Outlets wie Displays, (Multi-)Touchscreens oder Multimediatische das Tracking der wiedergegebenen Inhalte und somit eine Auswertung im Hinblick auf besonders stark bzw. wenig gefragter Themen.

9.2.1 Quantifizierung von Besuchern Durch die Veranstalter von Messen werden typischerweise Angaben zu den Gesamtbesucherzahlen zur Verfügung gestellt. Bei Gesellschaftern der Gesellschaft zur Freiwilligen Kontrolle von Messe- und Ausstellungszahlen FKM

9  Live goes digital

203

erfolgt dies nach einem standardisierten Verfahren (www.fkm.de). Für den einzelnen Aussteller gilt es daraus abzuleiten, welcher Anteil der Besucher bei ihm auf dem Stand zu Gast war. Viele Aussteller haben sich bisher dafür auf Schätzungen der Standmitarbeiter verlassen oder Dienstleister mit der manuellen Zählung beauftragt. Technologie-basierte Verfahren eröffnen die Möglichkeit der empirischen Datenerfassung.

Indoor Navigation als Datenquelle Um Besucher möglichst effektiv mit Ausstellern zusammenzuführen, bieten Messeveranstalter technologiebasierte Indoor Navigationssysteme an, die typischerweise in eine App der jeweiligen Veranstaltung eingebettet sind. Ein Weg, in der Messehalle für eine zusätzliche Informationsebene zu sorgen, ist der Einsatz von Augmented Reality (AR), die Daten an den Stellen sichtbar macht, wo sie benötigt werden (Kaufmann 2019a). Diese Erweiterung der Realität um Hintergrundinformationen zu einzelnen Ausstellern oder auch Laufwegen zu Sonderausstellungen verhelfen Messegästen zu einem besseren Erlebnis und motiviert sie zur Nutzung. Einen AR-Lösungsansatz bietet der IT-Dienstleister Cologne Intelligence. Die Mobile-Mindes-Unit hat sich auf Location-Based-Services spezialisiert. Das Tool, was das Unternehmen unter dem Namen Inplaces anbietet, reichert die physische Messe um eine zusätzliche Dimension an, indem es in einer in eine App eingebetteten AR-Ansicht auf dem Smartphone des Besuchers weitere Informationen anzeigt, siehe Abb. 9.1. Nicht nur der Veranstalter kann in der Anwendung Points of Interest (POI) hinterlegen, die sich per Indoor Navigation ansteuern lassen und deren Attraktivität im Nachgang datenschutzkonform ausgewertet werden kann. Ausstellern bietet das Tool die Möglichkeit, ihren Stand um digitale Informationen zu erweitern, etwa um die Terminliste von Veranstaltungen auf dem Stand sowie Auskünfte zu Exponaten oder Modellen (www.cologne-intelligence.de). Hierdurch erfahren Aussteller, woran Besucher und Passanten des Standes besonderes Interesse haben. Für die technische Umsetzung der Lösung ist in den Messehallen keinerlei Hardware erforderlich, sofern eine vollständige Netzabdeckung mit Mobilfunk oder WLAN für alle Besucher gegeben ist.

Umkreisbasierte Besucherfrequenzanalyse Nestlé ist auf der Internorga, Messe für Außerhausgastronomie, jährlich in Hamburg mit seinen Marken Schöller, Mövenpick, Maggi, Nescafè, Nespresso und Nestlé Waters auf einem gemeinsamen Stand vertreten. Für das Konsumgüterunternehmen war es wichtig zu erfahren, welche Reichweite der Unternehmensauftritt insgesamt hat sowie mit welcher Anzahl an Besuchern die

204

G. Kaufmann und L.-G. Frahm

Abb. 9.1   Zusätzliche Informationsebene durch Augmented Reality Titel. (Quelle: Cologne Intelligence 2019)

Marken jeweils interagiert haben. Zielsetzung war es, datenbasiert Entscheidungen im Offline-Marketing zu treffen und so Auftritte auf Fachmessen quantitativ genauer einschätzen und bewerten zu können. Eine konkrete Besucherfrequenzanalyse in den unterschiedlichen Zonen und Bereichen sollte Aufschluss darüber geben, welche Potenziale für Nestlé bestanden, inwiefern diese ausgeschöpft wurden und ob das Layout des Standes die Besucher besser anspricht und leitet. Um dies empirisch zu messen, wurde ein technischer Kniff angewendet: Smartphones mit aktiviertem WLAN senden regelmäßig Suchrufe aus, mit denen sie Netzwerke in der Umgebung suchen. Mobile Sensoren können diese Signale empfangen und für eine anonymisierte Analyse der Besucherfrequenz und Aufenthaltsdauer nutzen. Dabei gibt die Reichweite an, wie viele Personen sich im Umkreis des Standes aufgehalten haben. Die Besucher innerhalb der Reichweite stellen das Umkreis-Potenzial dar, da sie den Stand bereits in Sichtweite haben. Ein Kontakt wird gemessen, wenn sich eine Person in unmittelbarer Nähe des Messpunktes aufhält, denn dies bedeutet, dass sie sich auf dem Stand befindet. Zur Berechnung von Interaktionen wird darüber hinaus die Aufenthaltsdauer der Kontakte berücksichtigt. Umgesetzt wurde die Messung durch die Technologie des Berliner Start-ups Store2be-Technologie.

9  Live goes digital

205

Im Ergebnis führte die Quantifizierung dank digitalisierter Messung zu einer verbesserten Erfolgskontrolle, wie Abb. 9.2 zusammenfasst. Die Daten gaben Nestlé Aufschluss darüber, dass mehr als 75 % der rund 96.000 Fachbesucher der Internorga angezogen werden konnten. Es wurde hohe Aufmerksamkeit und Brand Awareness generiert und das Produktwissen der relevanten Zielgruppe gesteigert.

Digitalisierte Leaderfassung Ein zumeist zentrales Ziel von Messeauftritten ist die Generierung von Leads. In der Vergangenheit wurden diese typischerweise durch von Standmitarbeitern auszufüllenden Berichtsbögen in Kombination mit Visitenkarten erfasst. Im Nachgang der Messe waren diese Daten zu digitalisieren, um sie in den SalesFunnel einspeisen zu können. Eine direkte digitale Erfassung von Leads bietet einen Effizienzgewinn gegenüber Paper-Pencil. Hierfür stellen Messeveranstalter zunehmend Systeme zur Verfügung, die das Einscannen der Barcodes auf den Besucherausweisen und damit den Zugriff auf die bei der Registrierung hinterlegten Kontaktinformationen erlauben. Diese Daten werden automatisch in einem webbasierten Online-Portal für den Aussteller gespeichert, beispielsweise dem Scan2Lead Portal von Adventics. Eine direkte Schnittstelle zum ausstellereigenen Marketing- und CRM-System ist möglich, ebenso die individuelle Ergänzung der Daten. Der Vorteil besteht darin, dass Kontaktdaten sofort digital zur Verfügung stehen und noch während der Messelaufzeit kontaktiert werden können, etwa mit gewünschten Unterlagen oder Angeboten. Auch die Besucherzahl lässt sich unter Verwendung von Zeitstempeln nach Tagen und Uhrzeiten nachvollziehen und für die Planung der Standbesetzung heranziehen. FRÜHER

HEUTE

Auswertung der Besucherfrequenz basierend auf:

Auf der Event-Analycs-Technologie basierende präzise Daten, die Auskun darüber geben:



internen Auswertungen



Schätzungen

→ sehr ungenaue Besucherzahlen

Einführung Event Analycs

• welche Marken die meisten

Besucher angezogen haben.

• bei welchen Marken

Interessenten am längsten stehen blieben.

Abb. 9.2   Verbesserung der Besucheranalyse. (Quelle: Eigene Darstellung)

206

G. Kaufmann und L.-G. Frahm

9.2.2 Quantifizierung vermittelter Inhalte In vielen Unternehmen hat sich hinsichtlich Kommunikation und Marketing ein „Digital First“-Ansatz etabliert, d. h., alle Maßnahmen werden von der digitalen Seite her gedacht und entsprechend entwickelt. Dies beinhaltet auch Live-Kommunikation sowie die Präsenz auf Messen, die sich in den holistischen Kommunikationsanasatz eingliedern. Bei dieser Auffassung der Kommunikation sind Ausgabegeräte für digitale Inhalte wie Multimedia-Screens oder Touchtables auf dem Messestand der folgerichtige Schritt. So auch bei der SMS Group, Anbieter von Hütten- und Walzwerkstechnik mit Hauptsitz in Düsseldorf, die eine Verschmelzung aller Inhalte auf einer zentralen Plattform forciert hat. Der Input für die Entwicklung dieser digitalen Informationsbasis umfasste 30 Gigabite Powerpoint und Bildmaterial, dazu zweieinhalb Tonnen Prospektmaterial, was aufbereitet werden musste (Appel 2018). Im Ergebnis wurde anlässlich der alle vier Jahre in Düsseldorf stattfindenden Metec 2015 ein mediales Exponat mit emotionalem Ansatz und gleichzeitig großer Informationstiefe entwickelt und kontinuierlich fortgeschrieben. Auf dem Stand sorgte das für eine deutlich höhere messbare Kontaktfrequenz und unternehmensweit besseres Verständnis von Inhalten anderer Bereiche. Welche Inhalte sich besonders großen Interesses erfreuen, lässt sich dabei tracken und auswerten. Das potente Backend kann 30 Produktionsstraßen in Echtzeit in 3D auf der Messe darstellen, wirkt als Kommunikationstool aber weit darüber hinaus. Die Applikation wurde für den Vertrieb sowie den Offline-Betrieb weiterentwickelt und mehrere Installationen sind in den Festbetrieb in Niederlassungen übergegangen. Die globale Datenpflege erfolgt über ein zentrales Content Management System. So sind alle Mitarbeiter jederzeit mit der gleichen, aktuellen Präsentationslösung ausgestattet. Aber auch ohne das Aufsetzen einer unternehmensweiten Content-Plattform können digitale Inhalte als Anwendungen für Live-Kommunikation sinnvollen Einsatz finden. Multimediale Inhalte, die über Touchscreens oder Multimediatischen ausgespielt werden, sorgen für Aufmerksamkeit und Interaktion. Welche Themen besonders relevant sind, kann über die Anzahl und Dauer der Aufrufe gemessen werden, beispielsweise mit Google Analytics.

9.2.3 Einsatz von Humanoiden Robotern: Anwendungsfall Pepper Im Folgenden sollen mögliche Einsatzpotenziale für das Messe-Marketing aus dem Bereich der Robotik aufgezeigt werden. Hierbei kann grob zwischen industriellen und humanoiden Robotern differenziert werden. Unter industriellen

9  Live goes digital

207

Robotern werden universell einsetzbare Bewegungsautomaten verstanden, die der Ausführung einfacher oder schwerer Fertigungsarbeiten in der Industrie (z. B. punktschweißen, lackieren, montieren) dienen und primär zum Ersatz menschlicher Arbeitskräfte konzipiert sind. Diese Technologien sind für das Messe-Marketing vergleichsweise weniger relevant. Humanoide Roboter dienen hingegen der Interaktion mit Menschen und sind in ihrem Aussehen dem Menschen nachempfunden. Sie sind typischerweise sprach- und lernfähig, können sich zumeist fortbewegen und teils auch greifen. Bei ihrem Einsatz stehen typischerweise eine Assistenzfunktion und nicht der Ersatz von menschlichen Arbeitskräften im Vordergrund (Infineon Technologies AG 2019). Während industrielle Roboter bereits eine längere Historie und vielfältige Einsatzbereiche innerhalb der Wirtschaft haben, steht die Nutzung von humanoiden Robotern gerade erst in den Anfängen. In der jüngeren Vergangenheit wurde weltweit eine Reihe von humanoiden Robotern entwickelt, die zumeist noch in der Erprobung sind, teils aber auch schon Marktreife erlangt und eine Markteinführung erfahren haben. Zu letzteren zählt auch der humanoide Roboter „Pepper“ (s. Abb. 9.3), der ursprünglich von dem französischen Unternehmen Aldebaran Robotics entwickelt wurde, welches später von dem japanischen Telekommunikationsunternehmen Softbank gekauft und in SoftBank Robotics umfirmiert wurde (www.softbankrobotics.com). Im Jahr 2014 wurde Pepper erstmalig der Öffentlichkeit vorgestellt. Innerhalb Deutschlands wird Pepper unter anderen von der Hamburger Innodistrict GmbH (www.innodistrict.de) vertrieben in Kooperation mit der Karlsruher CleverGuides GmbH, die sich auf Onlineberatungs- und Konfigurationslösungen für hochwertige, qualifizierte B2B-Leads spezialisiert hat (www.cleverguides.de). Pepper verfügt über folgende technische Spezifikationen: Mit seinen 1,20 m ist er in etwa so groß wie ein Kind, wiegt 28 Kilogramm und hat über 20 Motoren, die für fließende und möglichst lebensechte Beweglichkeit sorgen. Die Hände können ein Gewicht von höchstens 500 g heben und sind somit nicht primär zum Greifen, sondern für eine dialogunterstützende Gestikulation konzipiert. Bei einer Batterielaufzeit von über 10 h kann sich Pepper mit seinen drei Allseitenrädern mit einer Geschwindigkeit von maximal 3 km pro Stunde frei im Raum fortbewegen. Dies kann jedoch nur auf ebenem Untergrund erfolgen; hochflorige Teppiche stellen hierbei ein Problem dar und auch Stufen können nicht überwunden werden. Im Rahmen seiner Navigationsfunktion kann Pepper einen Raum kartographieren, dabei eigenständig Hindernisse erkennen und vor diesen stoppen. Er verfügt über WLAN und Bluetooth, kann auf das Internet sowie auf Daten aus einer Cloud zugreifen und ist somit als eine

208

G. Kaufmann und L.-G. Frahm

Abb. 9.3   Der humanoide Roboter „Pepper“ von Softbank Robotics. (Quelle: Eigene Darstellung)

­ ultiplattform-Entwicklung konzipiert, bei der ein erstellter Content auf viele M gleichartige Endgeräte skaliert werden kann (CleverGuides 2018 und Kaufmann 2019b). Im Hinblick auf den Einsatz im Marketingbereich und speziell auch für das Messe-Marketing sind insbesondere die Kommunikationsfähigkeiten von Pepper interessant. Um die Mensch-Maschine-Interaktion zu gewährleisten, verfügt er über diverse Sensoren (Laser, Infrarot, Sonar, 3D-Kamera, Mikrofone, Berührungssensoren, MRE (Magnetic Rotary Encoders)) sowie über ein integriertes Tablet. Mittels integrierter Kamera können Objekte und Gesichter erkannt sowie Geschlecht, Alter und Emotionen des menschlichen Gegenübers eingeschätzt und autonom darauf reagiert werden. Seine Dialogfähigkeit beinhaltet die Spracherkennung und Wiedergabe von mehr als 22 Sprachen, wodurch ein hohes Potenzial für internationale Kommunikation besteht (www. cleverguides.de). Bei der äußerlichen Gestaltung von Pepper wurde darauf geachtet, dass keine bedrohliche Anmutung gegeben ist. Diese ist insbesondere dann gegeben, je mehr das Aussehen eines humanoiden Roboters dem eines Menschen ähnelt (Rosenthal-von der Pütten und Krämer 2015). Entsprechend wurde für Pepper eine kindlich-niedliche Anmutung angestrebt, die in Anlehnung an das Kindchen-Schema durch einen runden Kopf mit überproportional großen Augen, durch Wahl einer kindlich-freundlich klingenden Stimme und durch eine kindliche Gesamtgröße von 1,20 m umgesetzt wurde. Pepper kommt

9  Live goes digital

209

aktuell bereits innerhalb verschiedener Einsatzbereiche zur Anwendung. Hierzu zählen Empfangsdienste, Kundeninformations-, Beratungs-, Verkaufsgespräche, Kundendatenerfassung sowie Entertainment, beispielsweise innerhalb von Ladengeschäften, Einkaufszentren, Flughäfen, Kreuzfahrtschiffen, Bibliotheken, Krankenhäusern, Pflegeeinrichtungen – und insbesondere auch auf Messen. Im Herbst 2018 und Frühjahr 2019 wurden an der ISM Hamburg zwei Marktforschungsprojekte bzgl. humanoider Roboter durchgeführt. Zum einen handelte es sich um eine quantitative Online-Befragung von Managern (n = 47) bzgl. deren Wissen, Einstellung, möglichen Einsatzbereichen innerhalb deren Unternehmen und deren Investitionsneigung im Hinblick auf humanoide Roboter im Allgemeinen und Pepper im Speziellen. Hierbei waren qualitative Experteninterviews (n = 12) bzgl. der Potenziale von humanoiden Robotern vorgeschaltet. Zum anderen handelte es sich um eine quantitative Online-Befragung von Endverbrauchern (n = 364) bzgl. deren Einstellung und Akzeptanz, sich innerhalb einer PoS-Konstellation von Pepper in Bezug auf verschiedene Produkt- und Dienstleistungsbereiche informieren bzw. beraten zu lassen. Auch hier waren qualitative Experteninterviews (n = 12) vorgeschaltet, innerhalb derer Unternehmensvertreter zu deren bereits vorhandener Anwendungserfahrung mit Pepper befragt wurden. Über beide Studien hinweg haben sich u. a. auch einige interessante Ergebnisse für das Messe-Marketing ergeben, über die an dieser Stelle ein kurzer Überblick gegeben werden soll. Alle Anwender, die Pepper bislang auf Messen oder am Point of Sale eingesetzt haben, machten dabei in Bezug auf eine die hohe Aufmerksamkeitswirkung bei (potenziellen) Kunden sehr positive Erfahrungen. Eben dies deckt sich auch mit den eigenen Erfahrungen der beiden Autoren. Kunden haben Pepper mehrheitlich sehr positiv beurteilt und wurden oft zur spielerischen oder informatorischen Interaktion mit ihm angeregt (vgl. Abb. 9.4). Im Rahmen seiner Eisbrecherfunktion hat Pepper dabei mehrheitlich positive Emotionen bei den Kunden ausgelöst und in der Folge ergab sich eine höhere Verweildauer am Messestand bzw. am Point of Sale. Hieraus resultierte später eine bessere Erinnerung an den Betreiber und vereinzelt konnte auch eine erkennbar höhere Generierung von Leads infolge des Einsatzes von Pepper verzeichnet werden. Dies lässt den Schluss zu, dass Pepper auf allen Stufen des Kaufentscheidungsprozesses positive Wirkungen entfalten kann. Die Ergebnisse der beiden Marktforschungsprojekte haben gezeigt, dass Manager mehrheitlich zwar ein hohes Potenzial für den Einsatz von humanoiden Robotern innerhalb verschiedener Einsatzbereiche sehen, sich jedoch auf diesem Gebiet bislang noch nicht ausreichend informiert fühlen. Mögliche Einsatzbereiche in deren Unternehmen wurden vor allem für Standardaufgaben gesehen wie beispielsweise Begrüßung, Information, Beratung von Kunden sowie

210

G. Kaufmann und L.-G. Frahm

Abb. 9.4    Positive Reaktionen beim Messe-Einsatz von Pepper. (Quelle: www. cleverguides.de)

für Kundendatenerfassung, Verkaufsgespräche, Unterhaltung/Entertainment, Marketing/Vertrieb und auch für Messen. Dabei dominiert jedoch die Auffassung, dass humanoide Roboter derzeit technisch noch nicht genug ausgereift sind und somit ist die Investitionsneigung derzeit noch relativ gering ausgeprägt. Da humanoide Roboter im Allgemeinen und Pepper im Speziellen derzeit noch nicht ausgereift sind, bestehen jedoch auch Limitationen. Beispielsweise ist die Spracherkennung von Pepper beeinträchtigt bei hohem Geräuschpegel, bei Dialekten sowie in Situationen, bei denen mehrere Personen gleichzeitig mit Pepper sprechen. Zudem wird die Erfassung von Person durch helles Gegenlicht beeinträchtigt. Teils wurde auch die aufwändige Programmierung oder der hohe Support-Aufwand durch Anwender bemängelt. Insgesamt ist diese noch recht junge Technologie teils noch erkennbar ausbaufähig. Nichtsdestotrotz sind die bisherigen Möglichkeiten bereits beträchtlich und merklich höher als gemeinhin angenommen wird. Mutmaßlich würde der Einsatz von Pepper und anderen humanoiden Roboters zukünftig auch dadurch mehr beflügelt werden können, wenn seitens der Softwarebranche verstärkt professionelle Standardprogramme entwickelt und vermarktet werden, die sodann auf die individuellen Bedürfnisse der jeweiligen Betreiber angepasst werden können.

9  Live goes digital

211

9.3 Fazit Die Live-Kommunikation auf Messen profitiert auf vielfältige Weise von der Digitalisierung. Digital-basierte Messungen geben präzisere Auskunft über Traffic auf dem Stand und verbessern die quantitative Erfolgskontrolle von Messebeteiligungen. Digitale Helfer vereinfachen zudem Prozesse wie die Leaderfassung und erleichtern effiziente Anschlussprozesse. Zudem verhilft die Digitalisierung von Marketing-Informationen zu ganzheitlichem Storytelling ausgehend von der Messe als Startpunkt. Und – nicht zu unterschätzen – es bereiten digitale Elemente wie der humanoide Roboter Pepper den Ausstellern sowie den Messebesuchern Freude, was die Erfolgsaussichten einer Messebeteiligung erhöht.

Literatur Appel, C. (2018). Taktgeber: Auf den Punkt. m + a report 03, 16–21. Frankfurt a. M.: Deutscher Fachverlag. Appel, C. (2019). Relevanz: Der persönliche Kontakt führt zur Entscheidung. m + a report 02, 24–26. Frankfurt a. M.: Deutscher Fachverlag. AUMA Edition. (2019). Messetrend 2019–20 Jahre Messeforschung, Ausstellungs- und Messe-Ausschuss der Deutschen Wirtschaft e. V. (Hrsg.), Berlin. https://www.auma.de/ de/medien_/publikationen_/Documents/auma-messetrend-2019/auma-messetrend-2019. pdf. Zugegriffen: 6. Aug. 2019. BVIK. (2019). B2B-Marketing-Budgets 2018, Bundesverband Industriekommunikation e. V. https://bvik.org/bvik-studie-ergebnisse-2018/. Zugegriffen: 6. Aug. 2019. CleverGuides. (2018). Management-Trend Robotics – Potenziale und Herausforderungen für die Arbeitswelt, Pressemeldung zum Vortrag an der ISM International School of Management, Campus Hamburg, am 24.10.2018. Infineon Technologies AG. (2019). Grundlagen der Robotik. www.infineon.com/cms/de/ discoveries/grundlagen-robotics; Erscheinungsdatum o.A. Kaufmann, G. (2019a). Indoor Navigation: Finden ohne Suchen. m + a report 04, 28–31. Frankfurt a. M.: Deutscher Fachverlag. Kaufmann, G. (2019b). Sympathieträger Pepper: Mit Kulleraugen zum Lead, m + a report 03, 26–30. Frankfurt a. M.: Deutscher Fachverlag. Kenning, P. (2019). Messe. In Gabler Wirtschaftslexikon online. https://wirtschaftslexikon. gabler.de/definition/messe-37596. Zugegriffen: 6. Aug. 2019. Rosenthal-von der Pütten, A. M., & Krämer, N. C. (2015). Individuals‘ evaluations of and attitudes towards potentially uncanny robots. International Journal of Social Robotics, 7, 799–804. UFI. (2019). global economic impact of exhibitions. https://www.ufi.org/wp-content/ uploads/2019/04/Global-Economic-Impact-of-Exhibitions_b.pdf. Zugegriffen: 6. Aug. 2019.

212

G. Kaufmann und L.-G. Frahm

Zanger, C. (2017a). Beurteilung des Erfolgs von Messeevents. In M. Kirchgeorg, W. Dornscheidt, & N. Stoeck (Hrsg.), Handbuch Messemanagement. Wiesbaden: Springer Gabler. Zanger, C. (2017b). Event-Controlling. In C. Zerres (Hrsg.), Handbuch Marketing-Controlling. Wiesbaden: Springer Gabler.

Gwen Kaufmann ist Leitende Redakteurin bei der dfv Mediengruppe, Frankfurt am Main. Die promovierte Diplom-Kauffrau berichtet im Bereich m + a Internationale Messemedien über Gelände, Veranstalter, Aussteller und Dienstleister der nationalen und internationalen Messewirtschaft. Schwerpunkte bilden dabei Potenziale der digitalen Ergänzung und Erweiterung von Live-Kommunikationsformaten. Ihre weiteren Expertisen umfassen empirisches Marketing und Marktforschung. Lars-Gunnar Frahm ist als Professor für Marketing & General Management an der ISM International School of Management an deren Campus in Hamburg tätig. Zu seinen Interessen- bzw. Forschungsgebieten zählen neben Themen aus den Bereichen Marketing, Marktforschung, Brand Management, Sustainability Management insbesondere auch Digitaler Wandel und Robotik.

Data-driven Marketing in the Carsharing Economy – Focus on Privacy Concerns

10

Doreén Pick Contents 10.1 Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214 10.2 Literature Overview of Privacy Concerns and the Sharing Economy. . . . . . . . . 216 10.2.1 Privacy and Privacy Concerns. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216 10.2.2 Research on Privacy Concerns. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 10.2.3 The Sharing Economy - Carsharing. . . . . . . . . . . . . . . . . . . . . . . . . . . . 220 10.3 Empirical Study on the Impact of Privacy Concerns on Loyalty Intentions. . . . 224 10.3.1 Research Framework. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224 10.3.2 Data Collection and Measures. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 10.3.3 Findings. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227 10.3.4 Implications for Management and Research. . . . . . . . . . . . . . . . . . . . . 229 10.4 Conclusion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230 References. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231

Abstract

In both, traditional and digital business models, firms collect and use data to adapt and customize their products and services. Probably, there is no company that does not collect any data about its customers. Data is gathered in retail stores with loyalty cards, by paying with banking cards or FinTechs like Klarna, it is accumulated if people search in the internet, and data is even collected by using assistants such as Siri, Alexa & Co. (Chen 2019) and by travelling with (automated) cars. As a result, several individuals started to D. Pick (*)  Hochschule Merseburg, Merseburg, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 S. Boßow-Thies et al. (Hrsg.), Data-driven Marketing, https://doi.org/10.1007/978-3-658-29995-8_10

213

214

D. Pick

request what data is gathered and how it is used. This interest into data issues and the related privacy was not only motivated by the sheer mass of gathered data. The interest also increased because of several recent incidents where internet companies such as Facebook provided access of their users’ data to third parties or analyzed voices and private talks of people at home (e.g., Alexa). This paper focuses on privacy concerns in a carsharing context. We present an overview of collected user data by carsharing companies and the influence of privacy concerns of carsharing users in Germany.

10.1 Introduction The collection and usage of personal data for direct marketing purposes is not a novel phenomenon, “Organizations routinely collect and use individual-specific consumer information” (Phelps et al. 2000, p. 27). However, it seems that the collection and usage of consumer-specific data has turned a point where both, individuals and the public have a higher attention on privacy issues than before. Privacy and privacy concerns became more prevalent in the recent past. Not only had the abuse of data by digital companies such as Facebook or data gaps by MasterCard in 2019 motivated consumers to overthink their attitudes; several Facebook users even declared to leave the social network because of data privacy issues. Interestingly, the interest in online privacy is worldwide pretty high. A recent study showed that the share of internet users who are more concerned about their online privacy increased worldwide. In Europe, 39% respondents declared to be concerned about their privacy online (Statista 2019). Another study revealed that in Germany for example, internet users’ concern about potential malpractice of their data varies between 49% and 66%. Also, the so-called Digital Natives (age group 18–34 years) mentioned to have also high concerns about their privacy. The study also showed that 60% of respondents aim to provide less data as possible to prevent the potential of the abuse of their data. However, how does the picture look like if there is eventually no alternative using a service without providing personal data? For example, by browsing in the internet. Even filters and pop-up blockers do not fully prevent that personal data is collected. But what if a service is used in combination with a tangible good, for example in carsharing or bikesharing where people have to register, to start and stop the service with their smartphones and where their travel route is collected? At the moment, there seems to be only two options—using the service or not using it. However, this latter–non-purchase-option–is also not on behalf of firms.

10  Data-driven Marketing in the Carsharing Economy

215

Therefore, a number of companies started to advertise their data security. For example, in 2018, Facebook announced to have improved its data security with advertising “A better Facebook” for maintaining the trust of their users (Facebook 2018). Very recently, in autumn 2019, the Korean smartphone producer Samsung started a campaign that advertises customers’ security with the claim “Damit deins deins bleibt” (i.e., “Yours maintain yours”) (Kerkmann 2019). However, until now it is unknown if and how such communication truly influences its target audience. However, as a starting point, marketing management firstly needs to know how individuals perceive the data collection and its usage by firms and how they respond towards the firm. These perspectives are the topic of this article. In spite of numerous studies on privacy concerns, there is still a lack of knowledge that refers to the phenomenon of privacy concerns in other countries such as the USA (Bellman et al. 2004; Graeff and Harmon 2002) and UK (e.g., Patterson et al. 1997). In particular, the situation in Germany is noteworthy because many companies in the carsharing economy have their rootage in the country, e.g., Car2go from Mercedes (Pick and Neubert 2018). The debate about consumer data and privacy does not stop before the sharing economy. In 2016, the travel data of a carsharing user of DriveNow (now ShareNow) was submitted to a court for deciding about a car accident with a bike-rider that died after the crash (Breitinger 2016). In this specific case, it is unclear what data was collected by BMW and how the carmaker informed customers about data usage. Cars are able to collect data about the driving behavior such as the beginning of each ride, the speed of the car, and even the time of opening the car doors (Quain 2017). In carsharing, “data is king” insofar firms not only earn money by letting their cars but also by analyzing travel patterns and user profiles to improve their business model, introducing new products (e.g., at the insurance market, see also Table 10.4) or to sell data to third parties. Even if firms might not use data for other purposes, data is saved and can be hacked and stolen. For example, in 2017, hackers got access to the GoGet carsharing servers (N. N. 2018) and used carsharing customer profiles for illegal use of cars. GoGet needed several months to communicate the hack and the loss of data to its customers (Australian Associated Press 2018). This case is insofar more sensitive than simply using a credit card for paying, as carsharing services are strongly related with an extensive and required data provision by the users (see Table 10.3). There is more or less no opportunity for providing no data if the consumer would like to drive a carsharing car. Also in Germany, the commercial and non-commercial carsharing industry gets more and more popular. This is related with the provision of data. People

216

D. Pick

said to have to provide more data for using carsharing (Pick and Haase 2015, p. 12). In consequence, the question arises how do people perceive privacy and how great their privacy concerns are. Further, it is of interest if people might reuse the service at a lesser extent if they have a specific level of privacy concerns. Interestingly, research on privacy issues in the sharing economy is rather scarce (Lutz et al. 2018; Teubner and Flath 2019, p.  213). Therefore, the following two research questions are aimed to be answered in this article: 1. What is the level of privacy concerns in the carsharing industry? Are all consumers equally concerned about their data in the carsharing economy? 2. How privacy concerns influence loyalty intentions of carsharing consumers? The findings will display how strong privacy concerns might be given in the sharing economy and if firms should focus on these concerns of their customers to maintain the customer-firm-relationship. Thus, our work contributes to research on privacy concerns in services, in particular in the sharing economy and the research streams on customer loyalty and relationships.

10.2 Literature Overview of Privacy Concerns and the Sharing Economy 10.2.1 Privacy and Privacy Concerns In research, several definitions of privacy and potential related concerns are given. The work of Warren and Brandeis (1890) is often cited as the initial work that focused on the phenomenon of privacy. They defined privacy as „[…] the right to be let alone “(Warren and Brandeis 1890, p. 193). Whereby this definition refers to tangible situations, for online and digital interactions with other people and firms, a further perspective on privacy is certainly compulsory. This paper therefore follows one of the key understandings of privacy that is adequate also for marketing contexts. Privacy is defined as “[…] the ability to control and limit physical, interactional, psychological and informational access to the self or one’s group” (Burgoon et al. 1989, p.  132) and “[…] refers to the ability to affect the dissemination and use of personal information that is collected during, or as a result of, marketing transactions, as well as control over unwanted telephone, mail, or personal intrusions in the consumer’s home” (Phelps et al. 2000, p. 29). In

10  Data-driven Marketing in the Carsharing Economy

217

consequence, the idea of privacy comprehends a multiple concept that consists of at least four dimensions. These dimensions are intrusion, disclosure, false light and appropriation (Phelps et al. 2000, p. 28–29). However, due to scientific rationalization, studies often implement a shortened scale of privacy. Privacy concerns have been investigated in various studies. Most of these studies focused on their perceptions in direct communication with firms (Phelps et al. 2000). However, some studies even understood privacy concerns as the apprehension of potential “catastrophic” events due to an e-vendor’s error or negligence (e.g., server corruption, mistakes, mischief), resulting in spam, identity theft, or data breaches (Acquisti et al. 2016; Dakhlia et al. 2016). If such individuals’ perceptions would be understood as concerns then privacy concerns might be more seldom given. Most data problems in today’s world have less severe consequences for most people. In consequence, an understanding of privacy concerns that only relates to catastrophic events for the ones providing their own data (deliberately or forced) might be misleading because the level of such concerns might be very low. However, low privacy concerns would not mean that there are not no concerns. Privacy concerns might be still given, also if consequences of data collection and data transfer are less fundamental as mentioned. Therefore, it is more common to understand privacy concerns as a fear (i.e., negative emotion) or assumption (i.e., cognitive evaluation) of individuals about the collection, storage and misuse of their personal data by giving it to others, for example (see Table 10.1 for major definitions of privacy or information concern in the marketing area). However, finding an entire definition what privacy concerns are from an individual’s perspective seems to be not an easy task for researchers. Accordingly, many studies did not create their own definition, or they also do not refer to a thorough definition of the latent construct. Nonetheless, research is rather clear in “the concept of privacy is highly complex; therefore, it is unlikely that surveys can accurately reflect respondents’ true concerns” (Paine et al. 2007, p. 527). Despite the diverse elements of the construct, several studies aimed to measure the level of privacy concerns of individuals. Even if these measures might not represent the complete picture of the phenomenon (and it might even create the phenomenon itself also at consumers that do not have such concern), it provides certain information how relevant privacy concerns might be given across people. A recent study showed that 61% of German respondents have high or very high concerns about the misuse of personal data in the internet. The share of skeptical citizens is much higher for people that are older than 35 years. However, also 49% of the 18–34 years old stated to have high or very high concerns (infratest dimap 2019).

218

D. Pick

Table. 10.1   Definitions of privacy concerns Authors

Definition

Graeff and Harmon 2002, p.  307

Privacy concerns are “consumers’ concerns about how personal information is collected and used”

Lutz et al. 2018, p. 1475

Privacy concerns are “institutional privacy threats”; “based on Belk’s (1988) notion of the extended self, as physical intrusions, damages and material losses all constitute infringements on the extended self”

Lwin et al. 2007, p. 574

Online privacy concerns “customers’ apprehension and uneasiness over the use of their personal data”

Paine et al. 2007, p. 527

People are “concerned about whether a retailer stores information about their purchases, and whether this information may be sold to third parties who will then send them unwanted mail”

Phelps et al. 2000, p. 29

Privacy concerns refer to “the ways companies use personal information about them [consumers]”

Source: Own illustration

On the other hand, if we consider our own internet browsing behavior and the behavior of others, people behave–at least somewhat–differently than they claim. Taking a look to public transportation, most people use smartphones for writing messages, sending picture, commenting online and in Social Media channels and thus, leaving traces all the time. In research, this phenomenon is called privacy paradox and it summarizes the phenomenon that people declare to have concerns about their privacy but behave differently like distributing many information online in public (Barnes 2006; Barth and de Jong 2017; Dienlin and Trepte 2015; Jensen et al. 2005; Norberg et al. 2007). For example, the average German consumer carries 4.5 cards in his/her wallet (including bank account cards). However, there are also 9% of respondents having at least six cards in their pocket (TNS Emnid 2014); thus they might consider the “trade-offs” (Ranzini et al. 2017, p. 2) between economic benefits and personal data. More, “most consumers are willing to give up some of their privacy to participate in a consumer society” (Phelps et al. 2000, p. 27). It is also consistent with the privacy paradox that about 37% of interviewed people in Germany said to accept that their data is used for enabling them to use the service (infratest dimap 2019). For the car industry, Schwartmann, a lawyer, claims that people who want to drive a brand-new car have to accept to be monitored (Laudenbach 2017). The privacy paradox seems to go hand in hand

10  Data-driven Marketing in the Carsharing Economy

219

with the so-called privacy calculus. For providing their personal data, people seem to expect something in return. This might be the service at all or a better service than the one that is provided by competitors. Hence, the privacy calculus can be understood as an exchange mode between the consumer and the firm and is therefore also consistent with the input-output ratio of the Equity Theory. If firms provide more output for the customer (e.g., better service), they might gain a greater acceptance of consumers for providing their personal data. Hence, we suggest that privacy concerns should be mutually investigated with benefits from firms, for example economic benefits. However, recent studies on privacy concerns suggest that the key challenge of firms is to decide about the crucial amount of data collection and usage and its customers’ awareness and concerns. Firms have to answer the question of how much data is necessary for improving and delivering the service and how much data collection and usage might concern people and thus prevent them from buying a service. Consequently, firms “face a double-edged-sword in their quest to use marketplace information to build relationships with consumers” (Eastlick et al. 2006, p. 877).

10.2.2 Research on Privacy Concerns For several decades, privacy and privacy concerns were investigated in several scientific areas from IT over psychology towards consumer research and public policy. Despite this paramount number of papers, there is no thorough understanding about privacy concerns and its related antecedents and consequences. In particular, it is less researched how privacy concerns influence customer responses. On these grounds, it is not our objective providing an entire overview of the research on privacy concerns but only a snapshot of the more recent works. Overall, the relevance of internet users’ privacy concern increased (Goldfarb and Tucker 2012). Research on privacy concerns focused on, 1. Antecedents such as perceived audience (Teubner and Flath 2019), internet experience (e.g., Bellman et al. 2004; Lohse et al. 2000), culture (e.g., Bellman et al. 2004; Milberg et al. 2000) but also socio-demographic characteristics such as age (e.g., Bellman et al. 2004), gender (e.g., Bellman et al. 2004) and income (e.g., Graeff and Harmon 2002). Some studies also suggest that firm policy and governmental regulations (Lwin et al. 2007) and privacy assurance (Lutz et al. 2018) influence online privacy concerns.

220

D. Pick

2. Impact of privacy concerns on willingness on providing or withholding data (Krafft et al. 2017; Lwin et al. 2007; Teubner and Flath 2019), and using technologies to protect privacy (e.g., Lwin et al. 2007) and in a sharing context the willingness to provide access to own belongings (Lutz et al. 2018). In particular, research showed that privacy concerns decline with the internet experience of individuals (Bellman et al. 2004; Lohse et al. 2000). Alienated to the sharing economy, this area of business requires the usage of smartphones or other technical devices to register and/or use the service by consumers. Hence, we can assume that users of the sharing economy have more experiences with using online sources and thus might have more internet experiences. Accordingly, in our study of perceptions of carsharing customers, we investigate the impact of privacy concerns on loyalty of a specific group of customers–the more experienced internet users.

10.2.3 The Sharing Economy - Carsharing Carsharing is one of the most relevant sectors of the sharing economy. Without doubt, it can be stated that carsharing and apartment sharing are the pillars of the understanding what the sharing economy is. The first concepts of carsharing date back for several decades when private persons aimed to bundle their cars as resources and provide car access to others. Very often this access to the car was more driven by the idea of inclusion instead of making a profit out of it. The concept of carsharing emerged in the middle of Europe, thus Switzerland and Germany (e.g., Haase and Pick 2015; Shaheen et al. 1998). In the following Table 10.2, we summarize the main carsharing companies in Germany. We intensively reviewed the websites of selected carsharing companies in Germany to identify the customer data that is collected by the firms. Our analysis showed that many different and necessary data is collected. However, users are sometimes also free in providing more information than necessary for the service use, e.g., academic titles of a person (e.g., at Flinkster, Ford Carsharing). Most data that is collected and saved relates to customer characteristics and usage behavior of the rented car. The following data is collected and saved in the carsharing industry (see also Table 10.3),

10  Data-driven Marketing in the Carsharing Economy

221

Table. 10.2   Overview of selected carsharing firms in Germany Provider

Founded

Size

Book n Drive

2000

Customers = 50,000; cars = 1063

Cambio

2000

Customers = 80,000; cars = 1600

Flinkster

2001

Customers = 315,000; cars = 4500

Ford Carsharing

2013

Customers = n.a.; cars = 3600 Customers = 10,000; cars = 300

Greenwheels

1988 under StattAuto in Berlin

ShareNow

Car2Go: 2008; DriveNow: 2011 Customers = 3  million*; cars = 7400

Stadtmobil

1999

Customers = 63,000; cars = 2600

StattAuto München

1992

Customers = 13,000; cars = 450

TeilAuto

1992

Customers = 35,000; cars = 1000

Source: Own illustration *customer data for European Union

• Personal, socio-demographic data from consumer registration, e.g., name, gender, address, mobile phone numbers, banking account information • Usage data e.g., travel time and duration, start and end points of the ride as well as the number of kilometers (sometimes such data is forwarded for criminal investigations, e.g., Reuter 2016) • Financial value of the user, e.g., turnover of the customer • Misbehavior of the customer (e.g., return of soiled cars) There are numerous sources of consumer data in the carsharing industry. First, if users visit the websites or the firms’ Facebook presence, their browsing behavior can be tracked; this is rather similar to other industries. More interestingly is the data the consumer has and can provide while registering for the service and while using the service. In the following Table 10.3, we summarize consumer data that is collected in the process of registration and during car travel. The data source of Table 10.3 are the general terms and conditions of firms and explicit information about data collection.

222

D. Pick

Table. 10.3   Collected and saved data by carsharing firms in Germany Firm

Mandatory data for the service registration and contract

Data from ordering and/or driving the car

Book n Drive

Personal data (name, address, birthday, birth location), data of communication (phone numbers, email address), potential proof of authority (e.g., public transportation subscription number), banking account data (IBAN/BIC), data of the driver´s license (class, number, data and location of issue), and during registration: IP address of the user and date and time of registration

Usage data (kilometer, time of car return and for GPS cars location of the car); Book n Drive states that locating the car during the proper car usage is technically impossible

Cambio

Personal data (name, birthday, address), data of communication (phone numbers, email address), banking account data (account holder, IBAN), data of the driver´s license, credit-worthiness (e.g., Schufa,), history of the contract, payment data (e.g., incoming payments)

Phone calls with the reservation hotline; payment data (e.g., invoice, credit notes), booking information (e.g., usage duration, driven kilometers), usage data: location of receiving and return of the car, data about car accidents and administrative offences and divergent car usage

Flinkster

Usage data (duration of car usage Personal data (name, address, birthday and birth location), contact in minutes, kilometer, location of car receiving and return via GPS) data (email address), banking account data (credit card numbers and validity, IBAN/BIC), depending on contract customer number of other public transportation services, name of the University of students, BahnCard number), information about the driver`s license (class, number, data and location of its issue and issuer, termination data of the license)

ShareNow

Personal data (fingerprint), no further information provided

Not available (Continued)

10  Data-driven Marketing in the Carsharing Economy

223

Table. 10.3   (Continued) Firm

Mandatory data for the service registration and contract

Data from ordering and/or driving the car

Stadtmobil

Personal data (name, birthday, address), contact data (email address, phone number, fax number), banking account data, information about the driver´s license and ID information

Not available

TeilAuto

Personal data (name, address, country, birthday and birth location), contact data (phone numbers, email address), potential proof of authority (e.g., public transportation subscription number), banking account data (IBAN, BIC), information about driver´s license (class, number, data and location of its issue)

Usage data (kilometer, location of car receiving and return), teilAuto states that locating the car during the proper car usage is technically impossible, data from public sources (e.g., telephone directory, internet, social media)

Source: Own illustration

In some studies, it was given that firms might enroll strategies to build and enhance trust of their users into the service and the firm. We reviewed the websites of carsharing firms to identify the reasons for the data collection and data dissemination to other organizations. We found that only some firms explicitly communicate on their website about reasons to collect user data. We summarize the key communication means in the following Table 10.4. If we compare the above revealed definitions on privacy by Burgoon et al. (1989) and Phelps et al. (2000) with the collected data of the carsharing customers, privacy is only partially given for carsharing users because their ability to control and more to restrict information about the persons is rather limited. The majority of reviewed firms communicated a great number of essential information registering and using the cars. Further, the carsharing companies also claimed to monitor some data (like financial information with Schufa data) and therefore have to request customer data. Interestingly, some firms explain why they collect data from the customer. For example, the firm Greenwheels states intensively to use the customer data for getting insights into their behavior and profiles (see Table 10.4).

224

D. Pick

Table 10.4   Reasons and objectives for data collection by carsharing firms in Germany Firm

Explanations

Cambio

a) Enabling the relationship: Initiation and fulfillment of the contract, booking and use of the cars b) Maintaining the interests of the firm: carrying out car accidents and damages at the cars c) Implementing governmental obligations: transfer of data in case of accidents or violations of the road traffic acts

Flinkster

a) Enabling the relationship: to process car booking, payments, check for credit-worthiness, process of cancellation and refunds b) Conducting market research and improving the service

Ford Carsharing

a) Enabling the relationship: to process car booking, payments, check for credit-worthiness, process of cancellation and refunds b) Conducting market research and improving the service

Greenwheels

a) Enabling the relationship: for identifying errors and disturbances b) Conducting market research and improving the service: customer surveys and analyzing usage behavior and user types, identifying trends for new products c) Conducting direct marketing campaigns: sending offers, events and newsletters

Stadtmobil

a) Enabling the relationship b) Implementing governmental obligations: transfer of data to law enforcement agencies

Source: Own illustration

10.3 Empirical Study on the Impact of Privacy Concerns on Loyalty Intentions 10.3.1 Research Framework The sharing economy requires the exchange of information between provider and user (Haase and Pick 2016). Type and amount of information and data differ in the sharing sectors. In apartment sharing, the provider of the accommodation might need to provide more information. In the carsharing industry, the user has to register or enroll and his/her usage behavior can be recorded. Thus, as shown above, carsharing firms ask for several information to enable the customer using the car. This information can even cover very sensitive data such as fingerprints as key substitute for opening the car.

10  Data-driven Marketing in the Carsharing Economy

225

Whereby research on privacy concerns is rather intense and several findings can be evaluated as general across industries, there is just a handful of studies on privacy concerns in the sharing economy. For example, Teubner and Flath (2019) investigated the influence of privacy concerns on the apartment owner’s intention to provide information in different sales and communication channels. Lutz et al. (2018) examined the effect of privacy concerns on the hosts’ benefits from sharing and the sharing frequency in an apartment sharing context. Both studies take the provider perspective, thus, to the best of our knowledge, privacy concerns of users are not investigated so far. Following the research on the privacy calculus as a trade-off between benefits from an interaction or service with the firm and its related costs of providing information about the customer to the firm, we investigate if the effect of privacy concerns on loyalty intentions toward a carsharing firm is higher than economic benefits from the carsharing usage. We focus on economic benefits because they are the key motivations of people using the sharing economy the first time and in future (e.g., Habibi et al. 2016; Hamari et al. 2016; Milanova and Maas 2017; Pick and Neubert 2018; Pick and Schreiner 2020). If economic benefits have a stronger impact on loyalty intentions than privacy concerns, we will find evidence for the privacy calculus. In accordance with Dienlin and Trepte (2015), we argue that carsharing customers have such privacy calculus and compare the privacy threat with the benefits of providing personal data. Consequently, we investigate if the customer’s economic benefits can cushion potential negative effects of privacy concerns on loyalty (see Fig. 10.1 with our research framework). Thus, we state: H1: Economic benefits increase customer loyalty towards the sharing firm. H2: Privacy concerns reduce customer loyalty toward the sharing firm. H3: The impact of economic benefits on customer loyalty is greater than the privacy concerns.

10.3.2 Data Collection and Measures We surveyed respondents who have used a carsharing service at least once within the last 12 months in Germany. They were further asked to specify the company to ensure recall of their usage experience of a carsharing company. Data was gathered from May to July 2017 with the help of an online survey tool (i.e., Clickworker), a common method employed in numerous studies on the sharing economy (e.g., Lamberton and Rose 2012; Lawson et al. 2016; Tussyadiah and

226

D. Pick

Economic benefits Privacy concerns (providing to others)

Loyalty intentions

Privacy concerns

(usage without permission)

Privacy concerns

Controls: age, gemder

(unsafe data)

Fig. 10.1   Research model. (Source: Own illustration)

Pesonen 2016). The 259 respondents have a mean age of 34.20 years, 41.7% are females and 62.9% are singles. We measured privacy concerns by relying on selected items from Baek and Morimoto (2012), see Table 10.5. In the following table, we provide the means for the three types of privacy concerns according socio-demographic variables of respondents. Interestingly, females have significant lower privacy concerns. This is consistent with a study that found that males are more likely aware about data protection strategies (Dommeyer and Gross 2003), suggesting that they have

Table 10.5   Means of privacy concerns across socio-demographics Variable

Item

Gender

Family status

Privacy concern 1

I assume that my personal data will be given to others by the sharing company

2.82 (males = 3.42)**

Singles = 3.15

Privacy concern 2

I assume that this sharing company will use personal data without my permission

2.78 (males = 3.32)**

Singles = 3.13

Privacy concern 3

I feel fear that personal data 2.47 (males = 2.97)** may not be safe with this sharing company

Singles = 2.83

Source: Own illustration Scales: 1–7, 1: strongly disagree, 7: strongly agree; ***p