Publikumsbeobachtung im digitalen Wandel: Massenmedien und Verdatung am Beispiel publizistischer Printmedien 9783839466094

Massenmedien beobachten ihr Publikum genau - und haben hierzu durch Internet und digitalen Wandel schier unbegrenzte Mög

171 70 2MB

German Pages 248 Year 2023

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Publikumsbeobachtung im digitalen Wandel: Massenmedien und Verdatung am Beispiel publizistischer Printmedien
 9783839466094

Table of contents :
Inhalt
Danksagung
Abbildungsverzeichnis
1 Einleitung: Zur massenmedialen Verdatung des Publikums
2 Das Publikum als numerisches Konstrukt. Zur Publikumsbeobachtung der Massenmedien
3 Organisation, Quantifizierung und Digitalisierung
4 Die quantifizierte Publikumsbeobachtung der Print-Massenmedien unter Internetbedingungen. Zeitungsredaktionen im Fokus
5 Zwischenfazit: Numerische Binnen- und Außenverhältnisse von Massenmedienorganisationen als Forschungslücke
6 Methodisches Vorgehen
7 Die empirische Fallanalyse
8 Fazit
9 Literaturverzeichnis

Citation preview

Karsten Pieper Publikumsbeobachtung im digitalen Wandel

Arbeit und Organisation Band 13

Editorial Die Reihe Arbeit und Organisation bietet theoretischen und empirischen Studien der Arbeits- und Industriesoziologie sowie der Organisations- und neuen Wirtschaftssoziologie eine gemeinsame editorische Plattform. Dabei stehen Themen wie die Digitalisierung der Arbeitswelt, Analysen gegenwärtiger Organisationsentwicklungen und deren Effekte auf Individuum und Gesellschaft sowie Untersuchungen von (alternativen) Wirtschaftsformen, Märkten und Netzwerken im Zentrum. Dies macht einen umfassenden Diskurs sichtbar, der den soziotechnischen und sozioökonomischen Wandel nebst dessen Konstitution und Ursachen zu verstehen hilft. Die Reihe schließt Monographien und Sammelbände ebenso ein wie Qualifikationsarbeiten und längere Essays.

Karsten Pieper, geb. 1991, promovierte an der Bielefeld Graduate School in History and Sociology der Universität Bielefeld zur Digitalisierung von Zeitungsredaktionen und zum digitalen Wandel ihrer Publikumsbeobachtung.

Karsten Pieper

Publikumsbeobachtung im digitalen Wandel Massenmedien und Verdatung am Beispiel publizistischer Printmedien

Zugl. Dissertation, Universität Bielefeld

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http: //dnb.d-nb.de abrufbar.

© 2023 transcript Verlag, Bielefeld Alle Rechte vorbehalten. Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Umschlaggestaltung: Maria Arndt, Bielefeld Druck: Majuskel Medienproduktion GmbH, Wetzlar https://doi.org/10.14361/9783839466094 Print-ISBN 978-3-8376-6609-0 PDF-ISBN 978-3-8394-6609-4 Buchreihen-ISSN: 2702-7910 Buchreihen-eISSN: 2703-0326 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff. Besuchen Sie uns im Internet: https://www.transcript-verlag.de Unsere aktuelle Vorschau finden Sie unter www.transcript-verlag.de/vorschaudownload

Inhalt

Danksagung .............................................................................. 9 Abbildungsverzeichnis ................................................................... 11 1

Einleitung: Zur massenmedialen Verdatung des Publikums .........................13

2

Das Publikum als numerisches Konstrukt.  Zur Publikumsbeobachtung der Massenmedien ..................................... 19 2.1 Publikumsinklusion auf Funktionssystemebene...................................... 25 2.2 Publikumsbeobachtung auf Organisationsebene ..................................... 28 2.2.1 Datenerhebung – Zur Abhängigkeit von »Dritten«............................. 30 2.2.2 Datenumgang – Zur Herstellung von interner Datenanschlussfähigkeit ........ 33 2.2.3 Datennutzung – Zur Selbstbeobachtung und (De-)Legitimierung  von Entscheidungen ......................................................... 35 2.3 Zusammenfassung – oder: Plädoyer für eine organisationsorientierte Erforschung massenmedialer Publikumsbeobachtungsprozesse ..................... 37 Organisation, Quantifizierung und Digitalisierung ................................... 41 Der organisationssoziologische Untersuchungsrahmen: Relevantetheoretische Konzepte .................................................... 42 3.1.1 Die System-/Umwelt-Differenz ............................................... 42 3.1.2 Das Treffen von Entscheidungen in Organisationen  qua Entscheidungsprämissen ................................................ 44 3.1.3 Technologie und Organisationswandel ........................................ 54 3.2 Organisationale Selbstbeobachtung im Medium von Zahlen. Funktionen und Folgen numerischer Bezugsrealitäten ........................................... 58 3.2.1 Zum (kommunikationstheoretischen) Erfolg von Quantifizierungen in Organisationen............................................................ 58 3.2.2 Zum Einfluss von Quantifizierungen auf das Organisationsgeschehen und die Autonomie von Organisationen .............. 60 3.3 Organisation und Digitalisierung .................................................... 63 3 3.1

3.4 Zusammenfassung: Organisation, Quantifizierung und Digitalisierung ................ 68 4

Die quantifizierte Publikumsbeobachtung der Print-Massenmedien unter Internetbedingungen. Zeitungsredaktionen im Fokus .............................. 71 4.1 Die Zeitungsredaktion in einem organisationssoziologischen Verständnis ............ 72 4.1.1 Die Binnenperspektive ....................................................... 73 4.1.2 Relevante Umweltsysteme ................................................... 77 4.2 Zeitungsredaktion und Digitalisierung. Die Verlagerung von Zeitungsredaktionen ins Netz .................................................... 81 4.2.1 Der »digital turn« der Zeitungsredaktion ..................................... 82 4.2.2 Zeitungsredaktion und Quantifizierung.  Die zunehmende Bedeutsamkeit von Daten .................................... 91 4.3 Zeitungsredaktionen, Daten und Organisation ....................................... 98 4.4 Zusammenfassung: Die quantifizierte Publikumsbeobachtung der Print-Massenmedien unter Internetbedingungen. Zeitungsredaktionen im Fokus ........................................................................... 101 5

Zwischenfazit: Numerische Binnen- und Außenverhältnisse  von Massenmedienorganisationen als Forschungslücke .......................... 103

6 Methodisches Vorgehen........................................................... 109 6.1 Vom Feldzugang zur Fallanalyse.................................................... 109 6.2 Forschungsdesign und Datenerhebungsmethoden ................................... 110 6.2.1 Der ethnografische Ansatz ................................................... 110 6.2.2 Teilnehmende Beobachtung .................................................. 112 6.2.3 Gespräche und leitfadenorientierte Experteninterviews ....................... 114 6.3 Auswertung des empirischen Materials nach der Grounded Theory ................... 117 Die empirische Fallanalyse ....................................................... 123 Die Praxis der Publikumsbeobachtung ............................................. 125 7.1.1 Messparadigmen und Analysetools .......................................... 126 7.1.2 Technische Herausforderungen in der Publikumsbeobachtung ............... 141 7.1.3 Die redaktionelle Datenanalyse...............................................147 7.1.4 Ein Wandel des Publikumsverständnisses? .................................. 152 7.1.5 Zusammenfassung: Die Praxis der Publikumsbeobachtung ................... 155 7.2 Publikumsbeobachtung und Organisationsgestaltung ................................157 7.2.1 Wandel der Organisationsstrukturen .........................................157 7.2.2 Die Herstellung von Datenverständnissen.................................... 183 7.2.3 Daten als doppeltes Organisationsproblem .................................. 189 7.2.4 Zusammenfassung: Publikumsbeobachtung und Organisationsgestaltung .... 198 7.3 Publikumsbeobachtung als Organisationsbeobachtung ............................. 199

7 7.1

7.3.1

7.5

Das Öffnen der redaktionellen Blackbox: Das Erkennen  von Beobachtungslatenzen ................................................. 201 7.3.2 Von der Publikumsbeobachtung zur Mitarbeiterbeobachtung: Steigerung von internen Wettbewerbs- und Konkurrenzverhältnissen als nicht-intendierte Folge ......................... 204 7.3.3 Selbstverortung im Spiegel der Daten: Das dateninformierte Selbst als informale Erwartung .................................................... 207 7.3.4 Zusammenfassung: Publikumsbeobachtung als Organisationsbeobachtung... 209 Der Wandel der redaktionellen Umwelt – Neue Unsicherheiten  und Ungewissheitszonen............................................................ 211 Zusammenfassung der Ergebnisse ..................................................216

8

Fazit .............................................................................. 223

9

Literaturverzeichnis .............................................................. 233

7.4

Danksagung

Ohne den Zuspruch und die Unterstützung zahlreicher Menschen wäre das vorliegende Buch nicht zustande gekommen. Mein herzlichster Dank gilt an erster Stelle meinem Betreuer und Erstgutachter PD Dr. Josef Wehner, der mein Interesse an dem Forschungsthema weckte, mir stets mit fachlicher Expertise zur Seite stand und jederzeit das Gefühl gab, auf dem richtigen Weg zu sein. Besonders danken möchte ich ebenfalls meinem Zweitbetreuer und -gutachter Prof. Dr. Tilmann Sutter für anregende Gespräche und hilfreiche Anmerkungen. Damit verbunden ist auch mein Dank an den Arbeitsbereich Mediensoziologie der Universität Bielefeld und an Prof. Dr. Florian Muhle für wertvolle Hinweise. Der Bielefeld Graduate School in History and Sociology gilt mein Dank für die finanzielle Unterstützung einer meiner Forschungsaufenthalte. Ganz besonders dankbar bin ich für die inspirierende und erkenntnisreiche Zeit während meiner Feldaufenthalte in verschiedenen Zeitungsredaktionen. Ihnen danke ich für das meinem Dissertationsprojekt und mir entgegengebrachte Vertrauen. Prof. Dr. Tobias Werron und den Teilnehmerinnen und Teilnehmern seiner Research Class möchte ich herzlich für die kritischen Fragen, Diskussionsbereitschaft, anregenden Hinweise und den wertvollen Austausch danken. Mein besonderer Dank gilt zum Schluss meiner Familie und meinen Freunden für ihr volles Vertrauen und ihre Unterstützung. Danken möchte ich vor allem Jana für ihre gewissenhafte und kritische Lektüre meines Manuskriptes in ihrer Freizeit. Mein größter Dank gilt zuletzt meinen Eltern Jutta und Franz, die mir mein Studium ermöglicht und mich auf meinem Weg stets begleitet haben. Für ihre nie nachgelassene Unterstützung möchte ich meinen tief verbundenen Dank zum Ausdruck bringen. Ihnen ist dieses Buch gewidmet.

Abbildungsverzeichnis

Abbildung 1: Die Publikumsbeobachtung der Massenmedien auf Organisationsebene, S. 29. Abbildung 2: Beispielhaftes Dashboard des Datendienstleistungsunternehmens Chartbeat, S. 93 und 130. Abbildung 3: Beispielhafte Datenvisualisierung des Analysetools Storyclash, S. 95 und 139. Abbildung 4: Dreieck zur Bewertung der redaktionellen Datenanalysefähigkeit, S. 99. Abbildung 5: Eine Typologie der redaktionellen Datenanalysefähigkeit, S. 100. Abbildung 6: Zusammenfassung der Codiertechniken nach Strauss/Corbin (1996), S. 121. Abbildung 7: Leserinnen- und Leserbefragungstool Opinary, S. 154. Abbildung 8: Gesamtorganisatorische Datenkommunikation, S. 182.

1

Einleitung: Zur massenmedialen Verdatung des Publikums

Die Auseinandersetzung mit der Digitalisierung und ihrem gesellschaftlichen Einfluss erfährt seit einigen Jahren in der Soziologie und anderen Wissenschaften eine zunehmende Bedeutung. So ist von einer »Kultur der Digitalität« (Städler 2016) die Rede, also davon, dass die Lebens- und Arbeitswelt heutzutage flächendeckend von digitalen Infrastrukturen geprägt ist. Dirk Baecker (2018) spricht mit Blick auf den Computer und digitale Medien von einer vierten Medienepoche (nach Sprache, Schrift und Buchdruck), die zu einer nächsten Gesellschaft führt. Armin Nassehi (2019) zeichnet in seinem Theorieentwurf der digitalen Gesellschaft hingegen eine »dritte« und möglicherweise letzte Entdeckung der Gesellschaft nach, bei der durch das statistische Erheben und Erfassen von Daten eine Verdopplung der Gesellschaft entstehe.1 Die Digitalisierung wird daher nicht selten als ein epochaler Wandel verstanden, der sich zudem in den unterschiedlichen gesellschaftlichen Teilbereichen spezifisch bemerkbar macht (siehe bspw. Dickel/Franzen 2015 zum Wissenschaftssystem). Durch die Digitalisierung erfährt die Gesellschaft, so kann grundlegend festgehalten werden, neue Möglichkeiten der Selbstbeobachtung. Durch das Erheben und Auswerten von Daten können also »Muster« erkannt und Unsichtbares sichtbar gemacht werden. Dies führt zugleich zu einem neuen gesellschaftlichen und sozialen Quantifizierungs- und Bewertungskult, wie Steffen Mau (2017) zeigt. Durch das Vorhandensein von (vorher nicht vorhandenen) Daten entstehen neue Praktiken des Beobachtens, Vergleichens und Bewertens. Ausschlaggebend hierfür sind quantifizierte Leistungsindikatoren wie Ratings, Rankings, Scores oder Screenings: »Daten zeigen an, wo eine Person, ein Produkt, eine Dienstleistung oder Organisation steht, sie leiten Bewertungen und Vergleiche an« (ebd.: 12f.).

1

Nassehis Verständnis nach war die Gesellschaft bereits vor der Verwendung von Computern digital – und zwar in dem Sinne, dass bereits mit der Entstehung der Moderne und dem Beginn gesellschaftlicher Selbstbeschreibung im ausgehenden 18. Jahrhundert (funktionale Ausdifferenzierung) die Gesellschaft in Form von Daten statistisch erfasst wurde, um Muster zu erkennen.

14

Publikumsbeobachtung im digitalen Wandel

Jene Vermessung und Verdatung der Gesellschaft (siehe auch Süssenguth 2015) stehen im Mittelpunkt dieser Arbeit. Dabei wird ein spezifischer gesellschaftlicher Teilbereich betrachtet: Die Massenmedien und ihre vorrangig durch Quantifizierung, also durch statistische Daten, vermittelte Beziehung zum Publikum. Die modernen Massenmedien (Fernsehen, Radio und Printmedien) können insofern als ein Vorreiter der Vermessung und Verdatung angesehen werden, als dass sie schon immer – auch vor der gesellschaftsweiten Digitalisierung – hochgradig an Möglichkeiten des Erfassens, Vermessens und Verdatens des Publikums interessiert waren. So sind sie einerseits bereits aus wirtschaftlicher Sicht auf ein zusehendes, zuhörendes oder lesendes Publikum angewiesen. Auf der anderen Seite stehen sie bedingt durch die Struktur der Massenkommunikation einem anonymen, potenziell unbegrenzten, fluktuierenden und unbekannten Publikum gegenüber, was für die Massenmedien stets die Frage aufwirft, wie viele Zuschauerinnen und Zuschauer, Zuhörerinnen und Zuhörer und Leserinnen und Leser sie mit ihrem Angebot überhaupt erreichen und inwiefern dieses auf Interesse stößt. Nicht unüblich ist daher, dass wissenschaftliche Arbeiten das (verzweifelte) Suchen von Massenmedien nach ihrem Publikum betonen. So zum Beispiel Buß/ Darschin (2004) »Auf der Suche nach dem Fernsehpublikum« oder die aufschlussreiche Arbeit von Ien Ang (1996 [1991]) »Desperately seeking the audience«. Die Publikumsbeobachtung – das statistische Beobachten der Angebotsnutzung – erfüllt demnach wichtige und (überlebens-)notwendige Funktionen für die Massenmedien. Hierbei lassen sich verschiedene, mediengattungsspezifische Voraussetzungen und Bedingungen in der zahlenförmigen Vermessung und Beobachtung des Publikums feststellen. Während sich im Fernsehen mit der Einschaltquote ein Standard der Publikumsmessung etabliert hat und erste kontinuierliche Fernsehnutzungsmessungen in Deutschland bereits seit 1963 erfolgen (vgl. Buß/Darschin 2004: 15), waren für das Radio und die Printmedien entsprechende Möglichkeiten der Publikumsbeobachtung stets stark eingeschränkt. Besonders für den Print-Bereich waren solch systematische Publikumsmessungen technisch bedingt schlichtweg nicht möglich. Bis auf die Anzahl der verkauften Auflagen und unsystematischem Publikumsfeedback (Leserbriefe, vereinzelte Befragungen, Leserschaftsanalysen und aufwendige Readerscans) standen den Zeitungsredaktionen keine Informationen und Angaben zu Verfügung, welche Artikel oder Teile der Zeitung gelesen wurden (vgl. Fürst 2018: 174f.). Für die Zeitungen war dies insofern verkraftbar, als dass sie hierdurch hohe Freiheitsgrade in der Produktion, Selektion und Publikation ihrer Inhalte besitzen und mit ihrem Gesamtprodukt (der gedruckten Zeitung) lange Zeit hohe wirtschaftliche Gewinne erzielen konnten. Mit dem Aufkommen des Internets und den Möglichkeiten der Netzdistribution lässt sich für die Print-Massenmedien ein markanter Wandel in zweifacher Hinsicht nachzeichnen. Erstens ist bereits seit geraumer Zeit der unaufhaltsame Trend der Leserinnen- und Leserverluste zu beobachten (vgl. bspw. Mögerle 2009).

1 Einleitung: Zur massenmedialen Verdatung des Publikums

Die Verkäufe und finanziellen Erlöse sinken im Print-Bereich dramatisch, weshalb Zeitungen zunehmend (oder sogar ausschließlich) das Internet als Distributionsweg nutzen und versuchen, mit ihren Online-Angeboten jenen Trend umzudrehen. Die (Re-)Finanzierung im Netz ist allerdings mit großen wirtschaftlichen Problemen verbunden (siehe Lobigs 2018). Zweitens bieten die digitalen Infrastrukturen den Printmedien neuartige Möglichkeiten zur Publikumsbeobachtung, mit denen Einsichten über vorher nicht Einsehbares erzeugt werden können. Es können mit anderen Worten Sichtbarkeiten über zuvor Unsichtbares hergestellt werden (z.B.: Welcher Artikel oder welches Ressort wird wie oft und intensiv gelesen?). Diese Entwicklung scheint vor allem Auswirkungen auf das Binnenleben und die Binnenverhältnisse der Printmedien zu haben. Die vorliegende Arbeit schließt an diese neuartigen Möglichkeiten der Publikumsbeobachtung für Printmedien an und fragt nach den damit einhergehenden Voraussetzungen und Folgen. Zeitungsredaktionen bilden dabei den konkreten – und später auch empirischen – Untersuchungsgegenstand. Massenmedien werden in dieser Arbeit zudem dezidiert als Organisationen, d.h. als bestimmbare Fernsehund Radiosender oder eben Zeitungen, verstanden, die für das (Funktions-)System der Massenmedien von großer Bedeutung sind. Die übergeordnete, forschungsanleitende Fragestellung der Arbeit lautet: Wie differenzieren sich die Möglichkeiten der Publikumsbeobachtung und -verdatung im Internet aus und welchen Stellenwert haben sie für Zeitungsredaktionen? Es wird angenommen, dass jene Verdatungsmöglichkeiten äußerst relevant für Medienorganisationen sind und einen tiefgreifenden Einfluss auf sie haben (Medienorganisationswandel). Hiermit ist zugleich ein großes empirisches Forschungsdesiderat im deutschsprachigen Raum angesprochen. Denn es existiert keine Forschung, die sich aus der Innenansicht von Redaktionen mit dem Umgang, Einfluss und Nutzen von Online-Nutzungsdaten beschäftigt und dabei über die Methode der quantitativen Befragung oder des qualitativen Interviews hinausgeht (vgl. Muhle/Wehner 2017: 5, Fürst 2018: 191). In theoretischer Hinsicht wird sich an der soziologischen Systemtheorie orientiert, um ein Verständnis von Printmassenmedien als Medienorganisationen zu fördern und dieses begrifflich zu schärfen. Dabei wird an relevante Unterscheidungen und Forschungsstände aus der Mediensoziologie und Organisationssoziologie angeschlossen. Auffällig ist hier, dass sowohl in der medien- als auch in der organisationssoziologischen Forschung die Organisationsebene von Massenmedien vergleichsweise selten untersucht wird. Während die systemtheoretische Mediensoziologie vorrangig das Zustandekommen und die Bedingungen von massenmedialer Kommunikation erforscht (siehe grundlegend Luhmann 1996), ist der Begriff der Medienorganisation in der Organisationssoziologie wenig elaboriert und bezieht sich oftmals auf Medien- und Technologieunternehmen wie Facebook oder Google. Die Organisationsebene von Massenmedien ist jedoch, so will die Arbeit zeigen, für die Beschreibung des digitalen Wandels der Printmedien und ihrer neuen Möglichkeiten

15

16

Publikumsbeobachtung im digitalen Wandel

der Publikumsbeobachtung und -verdatung höchst relevant. Die Verdatung macht sich, anders formuliert, vor allem auf Organisationsebene bemerkbar. Es verwundert daher nicht, dass die massenmediale Verdatung und Vermessung des Publikums in der systemtheoretischen und mediensoziologischen Forschung aufgrund ihrer spezifischen Erkenntnisinteressen und der vernachlässigten Berücksichtigung der Organisationsebene bisher unterschätzt wurden. Da das Untersuchungsfeld Massenmedien darüber hinaus zugleich Gegenstand von Disziplinen wie der Medien-, Kommunikations- und Publizistikwissenschaft oder auch der Journalismusforschung ist, die jeweils selektiv auf soziologische Theorieangebote zurückgreifen, diesen aber einen anderen Zuschnitt geben, wird (medien-)soziologisch mögliche und notwendige thematische Relevanz oftmals durch die Besetzung jener Fachgebiete verdeckt oder gar ersetzt (vgl. Göbel 2006: 112). Wie in den Printmedienorganisationen über das Publikum anhand von Nutzungsdaten kommuniziert wird, wie es intern gleichsam kommunikativ anschlussfähig gemacht wird, wie die Publikumsbeobachtung binnenperspektivisch organisiert wird, welche redaktionelle Relevanz die neue datenförmige Sichtbarkeit des Publikums entfaltet und welche organisationalen Voraussetzungen, Folgeprobleme und Transformationserfordernisse in der Publikumsbeobachtung unter Internetbedingungen beobachtet werden können, stellt insgesamt betrachtet eine empirische wie theoretische Forschungslücke dar, zu der dieses Buch einen Beitrag leisten möchte. Das Forschungsinteresse besteht demnach in der Erforschung der Binnenperspektive der Massenmedien hinsichtlich ihres Umgangs mit den, das Publikum abbildenden, Online-Nutzungsdaten sowie in der Analyse des Wandels der zeitungsredaktionellen Publikumsbeobachtung im Internet. Im Anschluss hieran können folgende Thesen formuliert werden, die für die nachfolgenden Ausführungen forschungsanleitend sind: •





These 1: Die Publikumsbeobachtung wandelt sich unter den Bedingungen der Internetdistribution. Die Printmedien (Zeitungen) sind an den für sie neuen Publikumsbeobachtungs- und -verdatungsmöglichkeiten im Netz hochgradig interessiert (Wandel der Publikumsbeobachtung). These 2: In der Publikumsbeobachtung unter Internetbedingungen werden mit Blick auf die Binnenperspektive der Massenmedien entsprechende Organisationsbedarfe sichtbar, die zugleich zu organisationalen Restrukturierungen führen (Medienorganisationswandel). These 3: Die Verdatung im Netz erfolgt wechselseitig. Es wird nicht nur das Publikum (Umwelt), sondern auch die Medienorganisation (System) verdatet. Die quantifizierten Publikumsdaten werden intern gleichsam in organisationale Leistungsindikatoren übersetzt, die sich folgenreich auf das Organisationsbzw. Redaktionsgeschehen auswirken (komplementäre Verdatung).

1 Einleitung: Zur massenmedialen Verdatung des Publikums

Aufbau der Arbeit und Gang der Argumentation Die Beschäftigung mit der Fragestellung der Arbeit erfolgt zweistufig in einem theoretischen und einem empirischen Teil. In insgesamt drei theoretischen Kapiteln (Kap. 2-4) werden relevante Forschungsstände zusammengetragen und theoretische Annahmen vorgestellt, an die die Arbeit anschließt und die auch für die durchgeführten empirischen Untersuchungen forschungsanleitend sind. Der empirischen Einzelfallanalyse (Kap. 7) vorgelagert sind ein Zwischenfazit (Kap. 5) und Erläuterungen zur methodischen Vorgehensweise (Kap. 6). Die Arbeit befasst sich in theoretischer Hinsicht zunächst mit der quantifizierten Publikumsbeobachtung der Massenmedien (Kap. 2). Hierbei wird an die Theorie der massenmedialen Publikumsinklusion angeschlossen (Kap. 2.1) und die Publikumsbeobachtung der Massenmedien auf Organisationsebene (Kap. 2.2) genauer beschrieben. In der theoretischen Auseinandersetzung mit der Publikumsbeobachtung der Massenmedien auf Organisationsebene fällt auf, dass es hier bislang an theoretischen Konzepten mangelt, weshalb vorgeschlagen wird, in einer organisationszentrierten Erforschung massenmedialer Publikumsbeobachtungsprozesse zwischen drei grundsätzlichen Schritten bzw. Ebenen zu differenzieren: Der Datenerhebung, dem Datenumgang und der Datennutzung (Kap. 2.2.1-2.2.3). In der Vorstellung des entwickelten Modells wird zugleich gefragt und herausgearbeitet, welche organisationalen Erkenntnisgewinne durch diese Betrachtung gewonnen werden können. So lässt sich in der Datenerhebung eine Abhängigkeit von »Dritten« nachzeichnen (Kap. 2.2.1), während der Datenumgang insbesondere durch den Umstand gekennzeichnet ist, dass organisationsintern Daten zunächst anschlusskommunikativ gemacht werden müssen (Kap. 2.2.2). Die Datennutzung kann aus einer Organisationsperspektive heraus als ein Instrument zur Selbstbeobachtung verstanden werden, bei der Daten zur (De-)Legitimierung von Entscheidungen genutzt werden (Kap. 2.2.3). Im Anschluss an die herausgestellten Erkenntnisgewinne einer organisationsorientierten Erforschung massenmedialer Publikumsbeobachtungsprozesse (Kap. 2.2.4) wird der Zusammenhang von Organisation, Quantifizierung und Digitalisierung genauer betrachtet (Kap. 3). Dieser Zwischenschritt ist notwendig, weil Organisationen und ihr Umgang mit numerischen Bezugssystemen von großer Bedeutung für die Ausführungen der Arbeit sind, es aber vergleichsweise wenig Bezugsliteratur in der mediensoziologischen Forschung hierzu gibt, da Medienorganisationen (Zeitungen, Fernseh- und Radiosender) üblicherweise nicht im Fokus stehen. In einem ersten Schritt wird hier der organisationssoziologische Untersuchungsrahmen der Arbeit vorgestellt (Kap. 3.1). Die System-/Umwelt-Differenz (Kap. 3.1.1), das Treffen von Entscheidungen qua Entscheidungsprämissen (Kap. 3.1.2) und der Begriff des Organisationswandels (Kap. 3.1.3) sind dabei maßgebend. Anschließend werden organisations- und zahlensoziologische Forschungsstände dahingehend durchleuchtet, erstens warum

17

18

Publikumsbeobachtung im digitalen Wandel

Quantifizierungen und Praktiken des Zählens und Vermessens für Organisationen unumgänglich sind und zweitens wie und mit welchen Folgen Organisationen mit Zahlen (Daten) umgehen (Kap. 3.2). Abschließend wird eine junge Forschungsdebatte aufgegriffen, die sich mit Fragen von Organisation und Digitalisierung beschäftigt (Kap. 3.3). Die Ausführungen sind insofern relevant, als dass entsprechende Erkenntnisse und Forschungsfragen später auf die Printmedien und ihren »digital turn« im Kontext der massenmedialen Publikumsbeobachtung übertragen werden. Den Theorieteil der Arbeit schließt das Kapitel zur quantifizierten Publikumsbeobachtung der Print-Massenmedien unter Internetbedingungen ab (Kap. 4), welches sogleich den konkreten empirischen Untersuchungsgegenstand vorstellt. Anfangs wird unter Rekurs auf vorangegangene Ausführungen herausgestellt, wie Zeitungsredaktionen in einem organisationssoziologisch informierten Verständnis als organisierte soziale Systeme begriffen werden können (Kap. 4.1). Daran anschließend wird die Verlagerung von Zeitungsredaktionen ins Netz genauer betrachtet (Kap. 4.2). Hier wird der bereits angesprochene »digital turn« der Zeitungsredaktion herausgearbeitet (Kap. 4.2.1) und der vorrangig aus dem US-amerikanischen Raum stammende Forschungsstand zum Einfluss von OnlineNutzungsdaten auf das Redaktionsgeschehen systematisiert wiedergegeben (Kap. 4.2.2). Abschließend wird sich mit der Frage nach den redaktionsinternen Voraussetzungen der Publikumsbeobachtung und der Organisation von Daten beschäftigt (Kap. 4.3). Das Zwischenfazit (Kap. 5) fasst das Forschungsinteresse im Hinblick auf den theoretischen Teil der Arbeit zusammen, benennt zentrale Forschungslücken und -desiderate und formuliert Forschungsfragen, die nachfolgend an das empirische Material gestellt werden. Hiermit wird gleichzeitig in den zweiten Teil der Arbeit eingeleitet: Die empirische Einzelfallanalyse, die sich mit der internetbasierten Publikumsbeobachtung einer überregionalen Tageszeitung befasst und dabei die binnenorganisatorischen Voraussetzungen, Strukturen, Praxen, Praktiken und Folgen der zeitungsredaktionellen Publikumsbeobachtung umfassend beschreibt (Kap. 7). Der Fallanalyse vorgelagert ist notwendigerweise die Erläuterung des hierfür entwickelten methodischen Vorgehens (Kap. 6). Die Arbeit schließt mit einem Fazit (Kap. 8), in dem ein Gesamtresümee hinsichtlich des Wandels der massenmedialen Publikumsbeobachtung gezogen, das Verhältnis von Massenmedien und Publikum im Kontext von Organisation und Verdatung herausgestellt und ein mediensoziologischer Forschungsausblick gegeben wird.

2 Das Publikum als numerisches Konstrukt.  Zur Publikumsbeobachtung der Massenmedien

Die Publikumsbeobachtung der Massenmedien und die Frage nach dem Einfluss von statistischen Nutzungsdaten auf medienorganisationale Entscheidungen sind nicht etwa erst mit dem Aufkommen des Internets und den dortigen Verdatungsmöglichkeiten des Publikums entstanden. Vielmehr haben sich seit Beginn des 20. Jahrhunderts Massenmedien und Publikumsforschung unter wechselseitigem Einfluss herausgebildet und etabliert (vgl. Fürst 2018: 174). Besonders hervorzuheben ist die Radioforschung von Paul Lazarsfeld, dessen RAVAG-Studie von 1932 den Beginn der modernen Rundfunkforschung markiert und äußerst detailreiche Einsichten in die Soziodemografie der Radiohörer in Wien, ihre Hörgewohnheiten, inhaltlichen Präferenzen und Wünsche zeigt (siehe für weitere grundlegende Radioforschung auch die Studie von Lazarsfeld/Dinerman 1949). Diese Studie wurde 1931 von der Radio-Verkehrs-AG (RAVAG), dem Vorläufer des ORF (Österreicher Rundfunk), in Auftrag gegeben. Die Studie galt – obwohl sie immer wieder zitiert wurde – Jahrzehnte lang als verschollen, wurde 1996 dann aber erstmals veröffentlicht (siehe Desmond 1996). Das zentrale Motiv für die Auftragsforschung der RAVAG war Verunsicherung. Denn die Programmgestaltung, die hohen bildungspolitischen Ansprüchen folgte, war zunehmend der Kritik ausgesetzt, an den Wünschen des Publikums vorbeizugehen – was die Ergebnisse der Studien belegten: Die Hörer wünschten sich mehr »Leichtes« (vgl. auch Smudits 2000: 103). Die RAVAG-Studie veranschaulicht die Besonderheit und zugleich grundlegende Problematik in der Beziehung zwischen den Massenmedien und ihrem Publikum. Da die Interkation zwischen Sender und Empfänger durch die Zwischenschaltung von Technik unterbrochen wird (vgl. Luhmann 2017 [1996]: 10), ist der Adressatenkreis für Massenmedien im Unterschied zur Interaktion unter Anwesenden nur schwer bestimmbar. Die Medienorganisationen sind daher in ihrer Programmgestaltung und ihren -entscheidungen auf »Vermutungen über Zumutbarkeit und Akzeptanz [der Rezipienten; Anm. K.P.] angewiesen« (ebd.: 11), was weitreichende Konsequenzen hat, den Massenmedien zugleich aber auch hohe Freiheitsgrade in ihren Angeboten sichert. Im Printbereich zeigte sich letzteres vor allem dadurch, dass die Journalistinnen und Redakteure über nahezu kein Pu-

20

Publikumsbeobachtung im digitalen Wandel

blikumsbild oder -feedback verfügten und lange Zeit ihre Vorgesetzten, Kollegen oder Freunde als Inspirationsquelle nutzen (vgl. Hohlfeld 2005; 2013: 136ff.). Das Publikum des Printjournalismus wurde infolgedessen und aufgrund fehlender technischer Möglichkeiten von Publikumsmessungen lange Zeit als keine relevante Größe für medienorganisationsinterne Entscheidungen bzgl. Themenwahl und Beitragserstellung angesehen.1 In der Nachrichtenforschung etablierten sich Ansätze wie das Agenda-Setting (vgl. Cohen 1963, McCombs/Shaw 1973, von Gross 2008) oder die Nachrichtenwerttheorie (vgl. Lippmann 1922, Galtung/Ruge 1965). Anfang der Jahrtausendwende folgte in Deutschland ein Paradigmenwechsel im Journalismus: die Orientierung der Medienorganisationen am Publikum steigt seitdem stetig – nicht zuletzt auch aufgrund ökonomischer Motive (vgl. Hohlfeld 2013: 135ff.). Das oben beschriebene, grundlegende Problem der Ungewissheit und Unsicherheit der Massenmedien über das (eigene) Publikum wurde in der Forschung bereits früh thematisiert (vgl. McQuail 1965). Massenmedien und insbesondere Zeitungen mussten sich vor den Möglichkeiten der Online-Distribution und den damit einhergehenden Potenzialen einer, auf Nutzungsdaten beruhenden, detaillierten und differenzierten Publikumsbeobachtung mit Imaginationen und Vermutungen über das Publikum, seinen Interessen, Wünschen und Nutzungsgewohnheiten begnügen. Diese Vermutungen und Spekulationen über ein antizipiertes Publikum (»anticipated audience«) beeinflussten maßgeblich, wie Journalisten, aber auch Fernsehproduzenten, ihre Inhalte erstellten und selektierten (vgl. ebd.: 76).2 Ähnlich wie das Wirtschaftssystem auf kaufkräftige Kunden und das Politiksystem auf wahlfreudige Wähler angewiesen ist, so sind Massenmedien auf ein zuschauendes, zuhörendes oder lesendes Publikum angewiesen, weshalb sie auch schon immer ein Interesse daran besaßen, mehr über ihr Publikum, seine Interessen, Wünsche und Bedürfnisse zu erfahren. Während bei einer Theatervorführung die unmittelbare Reaktion des Publikums vernommen und eingeordnet werden kann (durch Lachen, Applaus etc.) und auch Eindrücke über die Größe des Publikums gesammelt werden können (bspw. durch leer gebliebene Sitzplätze), beschreibt das Erfassen der Reaktion, Zufriedenheit und Zusammensetzung eines massenmedialen, distanzierten Publikums seit jeher eine der zentralsten Belange und Herausforderungen für die Massenmedien. Sie suchen verzweifelt nach ihrem Publikum – so der Titel des instruktiven Werkes von Ien Ang 1991 (»Desperately seeking the audience«), einer Schülerin und Doktorandin des oben zitierten Denis McQuail. Ang

1 2

Vereinzelte Ausnahmen eines, jedoch unsystematischen, Publikumsfeedbacks bilden hier Leserbriefe, Leserbefragungen oder informelle Gespräche mit Freunden und Bekannten. Nach McQuail (1965: 79ff.) lassen sich zu seiner Zeit im Umgang mit dieser Ungewissheit und Unsicherheit über das Publikum in der britischen Fernsehproduktion vier Tendenzen erkennen: paternalism, specialisation, professionalisation and ritualism.

2 Das Publikum als numerisches Konstrukt. Zur Publikumsbeobachtung der Massenmedien

(1991: 2) verweist am Anfang ihres Buches auf den Punkt, dass das (Fernseh-)Publikum stets eine imaginäre Entität – ein Diskursobjekt – ist, welches im Interesse der Medienorganisationen und insbesondere der Werbewirtschaft (Fernsehindustrie) konstruiert wird. So schlussfolgert sie auch in ihrem Fazit: »(…) we cannot presume to be speaking with the authentic voice of the ›real‹ audience, because there is no such thing« (Ang 1991: 165). Stattdessen stehen den Massenmedien mit der Entstehung der kommerziellen Fernsehindustrie technologische Behelfssysteme wie die Publikumsmessung zu Verfügung, die – angeleitet aus dem Interesse der Fernseh- und Werbeindustrie – systematische Einblicke in die Angebotsnutzung bieten (Einschaltquote). Der Fokus bei diesen Messungen liegt dabei in einem Verständnis des Publikums als Konsumenten, nicht Rezipienten (vgl. McQuail 1998: 8f.). Konkurrenz, Kommerzialisierung und Marktdenken haben, mit anderen Worten, schon immer die Publikumsmessung und deren (technologische) Entwicklung mitbeeinflusst. Es verwundert deshalb nicht, dass die Massenmedien sich nicht nur für die eigenen Quoten interessieren, sondern auch für die Reichweite der anderen Sender und sie sich folglich in ihrer Publikumsbeobachtung wechselseitig beobachten. Im Netz differenziert sich das Geschäftsfeld der Publikumsmessung durch eine Zunahme an Anbietern und Datendienstleistern weiter aus (Kap. 4 und 7). Während die Reichweitenstatistiken für Werbetreibende und die Werbeindustrie entscheidend und handlungsanleitend sind, stellt sich für Medienorganisation jedoch stets die Frage, wie diese spezifischen (Markt-)Daten sinnvoll und in Fragen nach interner Qualität übersetzt werden sollen. Ang (1991: 27) formuliert treffend: »Ratings play a central role in this process, but that role is a highly ambivalent one. On the one hand, it offers managers a sense of knowing how successful the textualizing has been (what is called ›feedback‹), but on the other hand, it leaves them in in profound ignorance, or at least in great doubt, about the precise ingredients of their success or failure. That is, although ratings produce some generalized information about who has watched which programmes, they do not give any clue about the more specific question of what made people watch the programmes, so that it is very difficult to use ratings to predict future success or failure«. Gleichzeitig scheint auf jene Quantifizierungen des Publikums nicht verzichtet werden zu können, weil sie in den Medienorganisationen die Funktion oder gar Notwendigkeit einer »numerischen Gratifikation« erfüllen: »In other words, what ratings seem to satisfy is not just the need for practical and objective information, but a more generalized, diffuse need to know, which in turn is related to the wish ›to do well‹. And ›how well you are doing‹ can apparently be known by looking at figures and statistics which are seen as mirroring audience behaviour – the ultimate yardstick for doing well in the commercial television in-

21

22

Publikumsbeobachtung im digitalen Wandel

dustry. In this sense, ratings are a solution for the most fundamental problem that the industry is preoccupied with: the need to know the audience« (ebd.: 49). Dabei befinden sich die Massenmedien in dem Dilemma, immer »mehr« über ihr Publikum erfahren zu wollen, mit immer neuen technologischen Möglichkeiten, weil sie denken, dass sie hierdurch immer »korrektere« Daten bekommen und hierdurch mehr Kontrolle über das Publikum erlangen können (vgl. ebd.: 58) Zu erinnern ist an dieser Stelle daran, dass jene systematischen (täglichen) Publikumsmessungen vor allem für das Massenkommunikationsmedium Fernsehen unternommen wurden. Für den Print-Bereich existierten vor der Online-Distribution solche Möglichkeiten der Publikums(ver)messung nicht bzw. allenfalls sporadisch in Form von Informationen über die Anzahl der gedruckten Zeitungen sowie die davon verkauften Exemplare (vgl. McQuail 1997: 44f.). Welche Inhalte dabei jedoch rezipiert wurden, war vor der Netzdistribution und den damit einhergehenden Möglichkeiten der Publikumsverdatung für Print-Massenmedien auf einer täglichen Basis wie die Quotenmessung nicht feststellbar. Der Einfluss von Publikumsmessungen auf Zeitungsredaktionen und ihr Handeln war folglich vergleichsweise gering (bzw. nicht vorhanden). Die klassischen Massenmedien (Radio, TV und Print) entwickelten – auch aufgrund unterschiedlicher Verfügbarkeiten und Möglichkeiten der Publikumsbeobachtung – spezifische Strategien, um mit ihrer Ungewissheit und Unsicherheit über ein Publikum umzugehen, welches sich als anonym, unbegrenzt, fluktuierend und räumlich verstreut herausstellt (vgl. Bonfadelli 2004: 54). Oder wie Wehner et al. (2012: 67) formulieren: »Massenmedien müssen fortlaufend Medieninhalte produzieren, von denen sie nicht wissen können, wie sie beim Empfänger ankommen, weil dieser für sie, durch die Struktur der Massenkommunikation bedingt, immer anonym bleiben wird«. Nach Hohlfeld (2013: 136f.) kann zwischen drei Formen der Publikumsbeobachtung differenziert werden. So entwickelte sich zunächst die Feedbackmöglichkeit durch Leserpost und durch persönliche Kontakte zu den Rezipienten (zufällige Beobachtung). In der Frühphase des Journalismus im 19. Jahrhundert war dies in den Medienorganisationen die einzig mögliche Form der Beobachtung. Mit der Entwicklung der Massenmedien bildeten sich im 20. Jahrhundert Formate und Möglichkeiten der Einbindung des Publikums (Publikumsinklusion) in massenkommunikative Prozesse und massenmediale Inhalte. Zu denken ist hierbei an die Zuschaltung von Zuhörern in Radiosendungen, die Veröffentlichung von Leserkommentaren in Zeitungen oder die Inklusion des Publikums in heutige Fernsehquizsendungen wie bspw. »Wer wird Millionär«. Bei letzterem lassen sich zugleich mehrere Beteiligungsmöglichkeiten (sekundäre Leistungsrollen) und Voice-Optionen

2 Das Publikum als numerisches Konstrukt. Zur Publikumsbeobachtung der Massenmedien

identifizieren: der Kandidat, das Saalpublikum oder auch die Telefonjoker (vgl. Sutter 2016: 200-206).3 Eine zweite Form der Publikumsbeobachtung bildet die empirische Publikumsforschung, die im Journalismus in institutionalisierter Form seit Mitte des 20. Jahrhunderts existiert und Formen wie Nutzerbefragungen, Rezeptionsstudien, telemetrische Messungen oder Sendungstests annimmt. Die wesentliche Anforderung an die Publikumsforschung besteht nach Hohlfeld (2013: 137) »in der systematischen, repräsentativen und zuverlässigen Erfassung und Ermittlung der Rückkopplung im Prozess der Massenkommunikation«. Es geht folglich darum, das Publikum möglichst in seiner Gänze sichtbar zu machen, auf repräsentativer Basis etwas über seine Interessen, Wünsche, Nutzungsgewohnheiten und -motive zu erfahren und die hieraus gewonnenen Erkenntnisse zukünftig in medienorganisationsinterne Entscheidungen (z.B. hinsichtlich Programmegestaltung und -planung) miteinfließen zu lassen, um auf diese Weise die Inhalte besser auf das Publikum, seine Interessen und Bedürfnisse abzustimmen und es letztendlich im Sinne Angs für die eigenen Angebote – und nicht die der Konkurrenz – zu »erobern« (vgl. Ang 2001: 456). Schenk (2007: 659-680) differenziert in der Publikumsforschung zwischen der akademischen und der angewandten Form der Publikumsforschung. Die akademische Publikumsforschung strebt nach Erklärungen, warum, wie und mit welchen Folgen Rezipienten die medialen Inhalte konsumieren. Bei der angewandten (oder auch kommerziellen) Publikums(auftrags)forschung steht die Ermittlung der Größe und Zusammensetzung des massenmedialen Publikums im Zentrum: »Es interessiert vor allem, wie viele Rezipienten ein bestimmtes Medium bzw. Medienangebot nutzen, wann und wie häufig sie dieses Medium bzw. Medienangebot nutzen« (ebd.: 659). Das Betreiben von Publikumsforschung kann folglich auch als ein Instrument verstanden werden, durch welches die Distanz zum Publikum verringert werden soll (vgl. Neuberger/ Kapern 2013: 192). Eine dritte Form der journalistischen Publikumsbeobachtung sieht Hohlfeld in den Möglichkeiten der Internetdistribution, die neue Rücklaufkanäle und Formen der Publikumsbeteiligung sowie selektiv-systematische Beobachtungen des Publikums durch Nutzungsdaten und Zugriffszahlen in Echtzeit erlaubt (siehe zum Forschungsstand hierzu Kap. 4 und für empirische Einsichten Kap. 7). Die vorliegende Arbeit fokussiert sich ausdrücklich auf die quantifizierte (Form der) Publikumsbeobachtung der Massenmedien. Zu klären ist dabei, welche Implikationen und Folgen das Publikum als statistisches Konstrukt für medienorganisationale Publikumsverständnisse, aber auch interne Prozesse der Themenwahl und Beitragserstellung, Entscheidungen über die Programmausrichtung und -gestaltung oder auch die Organisationsstruktur der Massenmedien 3

Zu verweisen ist hierbei allerdings darauf, dass es sich bei dieser Einbindung von (vorher meist selektierten) Publikumsmitgliedern um kein repräsentatives Publikumsbild handelt.

23

24

Publikumsbeobachtung im digitalen Wandel

haben. Es interessiert zudem, in welchem Verhältnis Massenmedienorganisationen und ihre quantifizierte Publikumsbeobachtung zur Digitalisierung und Online-Distribution stehen: Inwiefern wandelt sich die Publikumsbeobachtung der Massenmedien durch die Möglichkeiten der Online-Verdatung und -Analyse von Publikumsaktivitäten? Und welche Auswirkungen haben die Publikumsbeobachtungsmöglichkeiten unter digitalen Bedingungen auf die Binnenverhältnisse der Massenmedienorganisationen und das redaktionelle Geschehen? Anzunehmen ist, dass die mit der Online-Distribution einhergehenden Möglichkeiten der Publikumsbeobachtung von den Massenmedien, insbesondere von den Printmedien, intensiv genutzt werden, weil sie den oben beschriebenen Problemen der Distanziertheit, Ungewissheit und Unsicherheit über das Publikum entgegenwirken und – für Printmedien erstmalig – Einsichten in das (tagesaktuelle) Nutzungsgeschehen liefern sowie über die Nutzerakzeptanz und -rezeption von Inhalten informieren. Die Medienorganisationen müssen sich folglich nicht mehr nur mit Spekulationen und Vermutungen über ihr Publikum begnügen. Die quantifizierte Publikumsbeobachtung scheint für die Massenmedien somit immer bedeutsamer zu werden. Gleichzeitig gehen hiermit aber auch tiefgreifende Einflüsse, Anpassungsbedarfe und Transformationserfordernisse mit Blick auf die Binnenperspektive der Massenmedienorganisationen einher. Im Folgenden wird ein theoretischer Zugriff auf die Publikumsbeobachtung der Massenmedien entwickelt. Dabei wird an Konzepte und Begrifflichkeiten der soziologischen Systemtheorie angeschlossen, welche grundsätzlich zwischen drei verschiedenen Ebenen bzw. Typen sozialer Systeme unterscheidet: den Funktionssystemen, Organisationssystemen und Interaktionssystemen (vgl. Luhmann 2014). Den Ausgangspunkt der Überlegungen bildet die These, dass sich die Publikumsbeobachtung der Massenmedien instruktiv auf der Organisationsebene thematisieren lässt – insbesondere mit Blick auf den »digital turn« der Massenmedien. Eine Organisationsbetrachtung von Massenmedien stellt in der soziologischen Forschung jedoch ein großes Desiderat dar.4 Um die Publikumsbeobachtung system-

4

Dies kann nicht zuletzt auch auf das Erkenntnissinteresse (insbesondere der Systemtheorie) zurückgeführt werden, sich vor allem mit Fragen der Massenkommunikation zu beschäftigen und die Bedingungen ihres Zustandekommens zu untersuchen und beschreiben. Die massenmediale Publikumsbeobachtung und -vermessung nahm dementsprechend stets eine untergeordnete Rolle ein, weshalb diese Phänomene und deren Entwicklung in der Forschung vernachlässigt bzw. als nicht relevant eingestuft wurden. An dieser klassischen systemtheoretischen Vorstellung, dass ausschließlich die Bedingungen von Massenkommunikation interessant sind, können mit Blick auf die zunehmende Verdatung Zweifel angemeldet werden. Massenmedien werden in dieser Arbeit demzufolge nicht klassischerweise im Sinne eines Funktionssystems verstanden, dessen Funktion darin besteht, Informationen und Nachrichten zu verbreiten, von denen angenommen werden kann, dass sie viele Personen erreicht haben. Vielmehr steht die Organisationsebene der Massenmedien im Fokus, da sich

2 Das Publikum als numerisches Konstrukt. Zur Publikumsbeobachtung der Massenmedien

theoretisch und organisationsorientiert zu beleuchten, wird zunächst die Theorie der (Publikums-)Inklusion vorgestellt, die sich vorrangig auf die Funktionssystemebene bezieht (Kap. 2.1). Daran anschließend wird der Blick auf die Organisationsebene gerichtet und die Publikumsbeobachtung der Massenmedien genauer betrachtet (Kap. 2.2). Die massenmediale Publikumsbeobachtung und ihr Wandel unter Internetbedingungen (Kap. 4 und 7) lassen sich empirisch wie theoretisch erst, wie bereits angedeutet, unter Berücksichtigung der Organisationsebene adäquat erfassen und beschreiben. Die Betrachtung der Binnenperspektive der Massenmedien ist für die Beschreibung und Untersuchung massenmedialer Publikumsbeobachtungsprozesse dementsprechend höchst bedeutungsvoll, stellt in der Forschung bislang jedoch ein empirisches wie theoretisches Defizit dar. Die Publikumsbeobachtung wird demzufolge inklusionstheoretisch und auf Organisationsebene beschrieben. Hierbei wird ein organisationszentriertes Modell der massenmedialen Publikumsbeobachtung entwickelt, welches zwischen den Prozessen der Datenerhebung, des Datenumgangs und der Datennutzung differenziert (Kap. 2.2.1-2.2.3).

2.1

Publikumsinklusion auf Funktionssystemebene

Der soziologischen Systemtheorie folgend produzieren und reproduzieren sich soziale Systeme (Funktions-, Organisations- und Interaktionssysteme) durch Kommunikation. Kommunikation bildet demzufolge die grundlegende Operation(seinheit) sozialer Systeme. Ein soziales System muss, mit anderen Worten, kommunizieren, um zu existieren. Die Theorie der Inklusion in der funktional ausdifferenzierten Gesellschaft untersucht, wie Kommunikationen auf Menschen zugreifen (siehe allg. Stichweh 2016 sowie für das Funktionssystem der Massenmedien Sutter 2016). Wie werden Personen, so die daraus ableitbare Frage, von dem Funktionssystem der Wirtschaft, Politik oder des Rechts einbezogen und adressiert? Der dahinterstehende Gedanke ist, dass Menschen bzw. bewusstseinsfähige psychische Systeme erst durch die Prozesse der Inklusion kommunikativ anschließbar werden (vgl. Sutter 2016: 185). Inklusion beschreibt folglich die strukturelle Kopplung zwischen sozialen und psychischen Systemen:

hier mit Blick auf die Internetdistribution tiefgreifende Transformationserfordernisse ankündigen und mediensoziologisch eine Zäsur beobachtbar wird – auch in der Beziehung zwischen Massenmedien und Publikum. Es interessiert im Kontext der Publikumsbeobachtung folglich das Binnenleben der Medienorganisation und wie sich dieses unter digitalen Bedingungen wandelt. Der Frage, wie Massenkommunikation durch Massenmedien zustande kommt, wird in dieser Arbeit nicht nachgegangen.

25

26

Publikumsbeobachtung im digitalen Wandel

»Mit Prozessen der Inklusion können Arten und Weisen beschrieben werden, wie Gesellschaft ihr Personal beobachtet sowie Personen einbezieht und beteiligt. Dies ist ein rein kommunikativer, subjektfreier Prozess, der auf der strikten operativen Differenz zwischen kommunikativen und psychischen Systemen beruht« (ebd.: 193). Stichweh (2016: 24-34) unterscheidet zwischen vier Formen der Inklusion in Funktionssysteme: 1.) Inklusion als professionelle Betreuung, 2.) Inklusion über Voiceund Exit-Strategien, 3.) Inklusion durch Publikums- und Leistungsrollen und 4.) die indirekte Inklusion. Im Folgenden interessiert besonders die Inklusion über Voice- und Exit-Strategien, die Stichweh neben dem Funktionssystem der Politik, Wirtschaft, Kunst und des Sports auch jenem der Massenmedien zuordnet. Während »voice« die vom System vorgegebenen Beteiligungsmöglichkeiten bezeichnet (bspw. wählen, kaufen oder zuschauen), beschreibt »exit« die Entscheidung, jene standardisierten Partizipationsmöglichkeiten nicht wahrzunehmen (nicht-wählen, -kaufen oder abschalten bzw. gar nicht erst einschalten). Die Wahrnehmung der Publikumsinklusion ist demzufolge in einer einfachen, binären Ja-/Nein-Form codiert und vollzieht sich über den Modus der Quantifizierung (vgl. Stichweh 2016: 26f.). Anders als bei der Inklusion als professionellen Betreuung können kommunikative Äußerungen nur mittels quantitativer Aggregatoren in das System eingegeben werden. Für das System sind somit nicht individuelle, sondern die Gesamtheit der Äußerungsakte relevant. Die angesprochenen Funktionssysteme haben daher auch mit Motivationsproblemen des Publikums zu kämpfen, die sie mit der Schaffung bestimmter Anreize (Werbung, Popularität etc.) zur Beteiligung anzuregen versuchen. Die Theorie der Inklusion lässt sich nach Sutter (2016) besonders im Bereich der Massenmedien veranschaulichen, da ihnen ein grundsätzlich unbekanntes Publikum gegenübersteht. In der Untersuchung der massenmedialen Publikumsinklusion können unterschiedliche Formen der Adressierung, Einbeziehung und Beteiligung des Publikums festgestellt und analysiert werden, die jeweils mit verschiedenen Inklusionsmodi und -intensitäten operieren. Dabei geht es nicht, so Sutter (ebd.: 183f.), um die Frage, wie Rezipienten mit den Medien subjektiv umgehen und hieraus eigene Realitäten erschaffen – dies untersucht das Feld der Mediensozialisation. Vielmehr geht es um darum, wie Personen durch die Medien beobachtet, wie auf sie zugegriffen, wie sie von den Medien adressiert, eingebunden und beteiligt werden. Grundsätzlich ist die klassische (Massen-)Kommunikation der Massenmedien einseitig strukturiert. Sie bietet nur geringe Rückkopplungsmöglichkeiten und richtet sich an ein verstreutes, unbekanntes Publikum. Klassische massenmediale Kommunikationsprozesse sind daher besonders durch Interaktionsfreiheit gekennzeichnet. In der Frage, wie Massenmedien dahingehend ihr Publikum kon-

2 Das Publikum als numerisches Konstrukt. Zur Publikumsbeobachtung der Massenmedien

struieren, lautet die Antwort: Quantifizierung. Auch wenn sich hierdurch das Folgeproblem der Intransparenz qualitativer Publikumsmerkmale eingehandelt werde, so sind Massenmedien schlichtweg nicht in der Lage, alle individuelle Meinungen, Kenntnisse und Einstellungen des Publikums zu verarbeiten und miteinzubeziehen – eben auch deshalb, weil das Publikum ihnen zu großen Teilen unbekannt gegenübersteht und ihnen technische Grenzen in der Erfassung qualitativer Publikumsmerkmale gesetzt sind. Durch Prozesse der Inklusion werden die psychischen Systeme (Bewusstseinssysteme) der Personen kommunikativ anschließbar gemacht. So können sie medienintern unterschiedlich und vielfältig inkludiert werden. Die Adressierung und Beteiligung des Publikums kann dabei sowohl in passiven Rollen (der bloße Akt des Rezipierens) als auch in aktiven Rollen (Zuschauerbriefe, Leseranrufe, Teilnahme an bestimmten Inhalten und Formaten) erfolgen. Sutter (ebd.: 195) schlussfolgert hierzu: »Unterschiedliche Modi und Intensitäten massenmedialer Inklusionsprozesse lassen sich dementsprechend an unterschiedlichen Formen der Adressierung, Einbeziehung und aktiven Beteiligung von Personen ablesen«. Während dem Publikum also strategisch Voice-Optionen (aktive Beteiligungsmöglichkeiten) gegeben werden, muss gleichzeitig festgehalten werden, dass für den Großteil des Publikums lediglich die Exit-Option besteht – die Entscheidung über das Zuschauen, Zuhören oder Abschalten. Jener vorrangig quantifizierender Inklusionsmodus der Medien schließt so gesehen an die Notwendigkeit einer kommunikativ erzeugten Adressierbarkeit (des Publikums) an. Neben diesem vorrangigen Modus der numerischen Inklusion (siehe auch Wehner 2010), bei der das vermessene Publikum in Form von Quoten, Kurven, Diagrammen und Daten im Mittelpunkt steht und für organisationsinterne Entscheidungsprozesse anschlussfähig gemacht wird, findet sich eine weitere Ebene der Inklusion in den massenmedialen Inhalten selbst (Castingshows, Quizsendungen etc.).5 Zusammenfassend lässt sich festhalten, dass das Publikum in seiner Gesamtheit für die Massenmedien nur mittels Quantifizierungen operationalisierbar, d.h. 5

Sutter (2016: 200ff.) zeigt dies anschaulich am Beispiel der Fernsehsendung »Wer wird Millionär?« und arbeitet die dort vorherrschenden Inklusionsmodi und -intensitäten heraus. Mit Blick auf neue technologische Entwicklungen und Phänomene wie dem »Social TV« sowie hinsichtlich des Forschungsfeldes Fernsehen und Internet merkt er an, dass es durch diese neuen Kommunikationsmöglichkeiten nicht zu einer Ersetzung, sondern Ergänzung und Ausdifferenzierung massenmedialer Kommunikationsformen kommt (siehe auch Wehner 1997). Der Großteil der massenmedialen Kommunikation sei weiterhin durch Interaktionsfreiheit gekennzeichnet. Die durch das Internet neuen entstehenden Interaktionsmöglichkeiten ändern somit nicht die massenmediale Form der Fernsehkommunikation, jedoch die Wahrnehmung und Sichtbarkeit des Publikums resp. der aktiv kommunizierenden Nutzerinnen und Nutzer.

27

28

Publikumsbeobachtung im digitalen Wandel

kommunikativ adressierbar sowie beobachtbar und behandelbar wird. Da die Personen grundsätzlich kommunikativ dazu bewegt und motiviert werden müssen, die (ihnen jeweils angebotene) Publikumsrolle anzunehmen, ist es für Massenmedien erforderlich, sich für entsprechende Inklusionsmodi und Inklusionstechniken zu interessieren (vgl. Sutter 2016: 192). Die hier beschriebenen Inklusionsprozesse gilt es auf alle Arten sozialer Systeme zu beziehen: gesellschaftliche Funktionssysteme, Organisationen und Interaktionen. Während die massenmediale Publikumsinklusion auf der Funktionssystemebene und der Interaktionsebene bereits untersucht wurde und weiterhin untersucht wird, wurden Forschungen auf der Organisationsebene hierzu bisher vernachlässigt. Auf die Notwendigkeit, die Theorie der (Publikums-)Inklusion nicht nur auf Funktionssystemebene, sondern auch auf Organisationsebene zu untersuchen, wiesen bereits Nassehi/Nollmann (1997) hin. Im Bereich der Massenmedien stellt dies jedoch weiterhin ein großes Forschungsdesiderat dar. Mit dem Wechsel der Untersuchungsebene (von Funktionsebene auf Organisationsebene) bietet sich der inklusionstheoretisch informierte Begriff der Publikumsbeobachtung an, der aus Sicht der Massenmedienorganisation eine existenzielle, permanent erforderliche Operation beschreibt (Umweltbeobachtung). Bezeichnend hierfür ist, dass die numerischen Publikumsbeobachtungen auf Organisationsebene stets operative Anschlusshandlungen (Entscheidungen) erforderlich machen. Zu denken ist hier bspw. an die allseits bekannte Einschaltquote, die zunächst erhoben und aufbereitet werden muss, um Anlass für interne Entscheidungen geben zu können, ob Inhalte entsprechend der aus den Daten übersetzten Publikumsinteressen fortgeführt, ausgebaut, verändert oder abgesetzt werden sollen. Wie sich an diesen Ausführungen bereits erkennen lässt, ist die Publikumsbeobachtung der Massenmedien kein »einfacher«, sondern komplexer und mehrstufiger Prozess, den es im folgenden Kapitel genauer und organisationsorientiert herauszuarbeiten gilt.

2.2

Publikumsbeobachtung auf Organisationsebene

Der Begriff der Publikumsbeobachtung beschreibt die Prozesse einer Massenmedienorganisation, mit denen die Rezeptionsvorgänge und die Nutzungsgewohnheiten des Publikums in Form von quantifizierten Daten erfasst, aufbereitet und für systeminterne Operationen (Entscheidungen) anschlussfähig gemacht werden. Die statistische Auswertbarkeit der Rezeptionsakte sowie die Ermittlung diesbezüglicher Korrelationen und Muster stehen folglich im Vordergrund. Damit sind Fragen angesprochen wie: Welcher angebotene Inhalt wurde am häufigsten (seltensten) rezipiert? Wie kurz oder lang war die durchschnittliche Rezeptionszeit? Welchen weiteren Inhalten wurde im Anschluss Aufmerksamkeit geschenkt? Wel-

2 Das Publikum als numerisches Konstrukt. Zur Publikumsbeobachtung der Massenmedien

che Inhalte werden zu welcher Uhrzeit übermäßig viel rezipiert etc.? Diese Formen und Fragen der Publikumsbeobachtung vollziehen sich vor allem im Modus der Quantifizierung. Wie auf Funktionssystemebene, so ist die Publikumsinklusion auch auf Organisationsebene numerisch geprägt. Wehner (2010: 193) hierzu: »Sender können sich bei der Beantwortung der Frage der Bewertung ihrer Angebote auf keine Gewissheiten berufen. Sie müssen sich stattdessen ausschließlich mit Vermutungen und Projektionen begnügen, gäbe es nicht die Möglichkeit, die Beziehung zum Publikum mit Hilfe statistischer Messverfahren und daraus hervorgehender Sehbeteiligungen und entsprechender Marktanteile zu deuten – was den Medien offenbar vollkommen ausreicht, insofern als es für sie gar nicht darum gehen kann, in mühsamer hermeneutischer Kleinarbeit Einsichten in die komplexen Motivstrukturen und Handlungsgewohnheiten Einzelner zu gewinnen, sondern darum, täglich sich über Konstanten und Veränderungen in den Sehgewohnheiten eines Millionenpublikums zu informieren«. Die Publikumsbeobachtung der Massenmedien kann auf Organisationsebene als ein Geschehen verstanden werden, welches durch drei zentrale Prozesse gekennzeichnet ist: 1.) der Datenerhebung, 2.) dem Datenumgang und 3.) der Datennutzung (siehe Abbildung 1). Abbildung 1: Die Publikumsbeobachtung der Massenmedien auf Organisationsebene

Quelle: Eigene Darstellung

Anhand dieser drei zentralen Prozesse der massenmedialen Publikumsbeobachtung werden im Folgenden die Forschungsstände zur klassischen Publikumsbeobachtung der Massenmedien zusammengefasst und systematisiert (Kap. 2.2.12.2.3). Dabei wird auf die Potenziale einer organisationszentrierten Beschreibung massenmedialer Publikumsbeobachtungsprozesse aufmerksam gemacht. Die Verlagerung des Fokus von der Funktionsebene auf die Organisationsebene ermöglicht

29

30

Publikumsbeobachtung im digitalen Wandel

nicht nur eine grundsätzlich (neue) empirische Erfassbarkeit der Publikumsbeobachtung der Massenmedien, sondern verspricht durch medien- und organisationssoziologische Bezüge erkenntnisreiche Einsichten. Dies zeigt sich besonders im Hinblick auf die Bedingungen der Internetdistribution (siehe Kap. 7). Unter dem Begriff »Daten« werden nachfolgend vorrangig quantifizierbare Nutzungsdaten verstanden, die während des medialen Rezeptionsprozesses erhoben und anschließend aufbereitet und für organisationsinterne Entscheidungen relevant gemacht werden. Zu fragen ist somit auch, welche organisationsinternen Funktionen und Folgen mit der Erhebung, dem Umgang und der Auswertung von Daten für die Medienorganisation im Kontext ihrer Publikumsbeobachtung einhergehen.

2.2.1

Datenerhebung – Zur Abhängigkeit von »Dritten«

Das eigene Publikum zu beobachten erfüllt zwei wichtige Funktionen für die Massenmedien. Einerseits sind privat organisierte Massenmedienorganisationen aus ökonomischen Gründen auf ein Publikum angewiesen. Allgemein gilt: Je größer ihre erzielte Reichweite, desto mehr Werbeeinnahmen können sie verlangen. Das Erreichen von Zielgruppen sowie der Ermittlung der Reichweiten dient den Medienunternehmen aus ökonomischer Sicht folglich zur Erzielung von wirtschaftlichem Gewinn. Andererseits gilt das massenmediale Publikum aufgrund der Struktur der Massenkommunikation als anonym, unbegrenzt, fluktuierend, vorübergehend und räumlich verstreut (vgl. Bonfadelli 2004: 54). Für die Medienunternehmen ist es daher zentral, möglichst aussagekräftige und repräsentative Informationen (Daten) über das eigene Publikum einschließlich seiner Interessen und Nutzungsgewohnheiten zu gewinnen. Massenmedienorganisationen versuchen diese Problematik des »unbekannten Publikums« zu lösen, indem sie ihr Publikum mittels statistischer Verfahren und Analysen beobachten und sich bspw. an Nutzungsparametern wie der allgemein bekannten Quote oder auch an personenbezogenen Daten wie Alter oder Geschlecht orientieren (vgl. Wehner et al. 2012: 67). Es wird also versucht, die Mediennutzung mit demografischen, psychologischen und psychografischen Variablen zu korrelieren. Wird die Publikumsbeobachtung der Massenmedien auf Organisationsebene betrachtet, so fällt auf, dass die Prozesse der Datenerhebung in die Umwelt ausgelagert (externalisiert) werden. Nicht die Massenmedien selbst, sondern spezielle Unternehmen und Forschungseinrichtungen erheben die Publikumsdaten und senden sie an die Medienorganisation. Hierfür lassen sich mehrere Gründe anführen. Erstens besitzen klassische Massenmedien nicht die personellen, finanziellen und zeitlichen Kapazitäten, um selbst Publikumsforschung zu betreiben, d.h. Messinstrumentarien zu entwickeln und die Vorgänge des Messens (technisch) zu realisieren. Zweitens benötigt das Mediensystem aus Gründen des Wettbewerbs und der Wettbewerbsfähigkeit eine Vereinheitlichung von Messungen und Messpro-

2 Das Publikum als numerisches Konstrukt. Zur Publikumsbeobachtung der Massenmedien

zessen, damit unterschiedliche Medienunternehmen hinsichtlich ihrer Reichweite miteinander verglichen werden können und Werbetreibende einen einheitlichen Blick auf die erreichten Zielgruppen haben. Publikumsmessungen müssen, mit anderen Worten, zunächst einen Institutionalisierungsprozess durchlaufen, bei dem die erhobenen Daten sowohl organisationsintern als auch von der Umwelt (andere Massenmedienorganisationen) akzeptiert werden. Aus diesen genannten Notwendigkeiten einer Standardisierung und Vergleichbarkeit der Publikumsmessungen ist die Auslagerung der Datenerhebung in die Umwelt funktional sinnvoll. Auch zahlensoziologisch verwundert dies nicht, weil die Akzeptanz von Messergebnissen dann steigt, wenn bei der Messung methodische Regeln befolgt werden, die prinzipiell überprüfbar und bekannt sind (vgl. Heintz 2007: 68ff., siehe auch Cevolini 2014: 26f.).6 Zwischen Massenmedien(organisationen) und ihren Publika stehen also »Dritte« oder auch Intermediäre, die die Daten erheben, die Messverfahren entwickeln und technisch realisieren. Diese in der Umwelt angesiedelten Dritten haben dementsprechend Einfluss auf die Publikumsvorstellungen der Massenmedienorganisationen, weil sie es sind, die eben jene Messungen bzw. statistischen Publikumsbeziehungen konzipieren. Die bekanntesten Einrichtungen in Deutschland hierfür sind das Marktforschungsinstitut GfK (engl.: Growth from Knowledge; namentlich gegründet als Gesellschaft für Konsumforschung), die Informationsgesellschaft zur Feststellung der Verbreitung von Werbeträgern (IVW) und die Arbeitsgemeinschaft Media-Analyse (AGMA). Nachfolgend werden für die klassischen Massenmedien Fernsehen, Zeitung und Radio in aller Kürze die analogen Reichweitenmessungen vorgestellt. Für das Massenmedium Fernsehen wird mittels der der allgemein bekannten Einschaltquote gemessen, welche Person (soziodemografische Daten) welches Programm um wieviel Uhr an welchem Ort in Deutschland konsumiert und wann das Fernsehprogramm um- oder ausgeschaltet wurde. Die Realisierung dieser technischen Reichweitenmessungen übernimmt die GfK. Mittels einem in mind. 5400 ausgewählten Haushalten installierten Messgerät (dem GfK-Meter) werden die erhobenen Daten telemetrisch an die GfK übertragen, von ihr aufbereitet und an die Medienunternehmen in Form von Reporten geschickt bzw. veröffentlicht.7 Anhand der verarbeiteten Daten kann in einem nächsten Schritt nachvollzogen werden, inwiefern vorab 6

7

Heintz veranschaulicht jene Akzeptanzsteigerungen mit Bezug auf das 19. Jahrhundert und der dortigen Ausdifferenzierung der Wissenschaft als ein eigenes Funktionssystem. Kennzeichnend hierfür seien eine Standardisierung der Maße, der Messinstrumente und der Messbedingungen sowie eine Normierung der wissenschaftlichen Kommunikation gewesen. Siehe für ausführliche Beschreibungen zum Messinstrumentarium, zu Messproblemen und zur Geschichte der Fernsehquotenforschung Wieser 2013: 237ff. Heutzutage gehe es nicht mehr ausschließlich darum, ob, wann und wo ein Inhalt abgerufen wurde, sondern auch darum, den Weg eines Inhalts zu verfolgen – ihn zu »tracken«.

31

32

Publikumsbeobachtung im digitalen Wandel

definierte Zielgruppen erreicht wurden und wie hoch die (Gesamt-)Reichweite eines Senders zu einer bestimmten Zeit war (vgl. AGF 2021). Für die klassischen Printmedien (Zeitungen) gestaltet sich die Datenerhebung komplizierter. Während für das Fernsehen Nutzungsdaten einzelner Inhalte festgehalten und statistisch hochgerechnet werden können, erhalten die Massenmedien im Printbereich ausschließlich Angaben über ihre verkauften Auflagenzahlen. Es existieren folglich keine täglichen oder wöchentlichen Datenerhebungen bzgl. der konkreten Nutzung einzelner Inhalte (Artikel) oder Ressorts. Die AGMA misst die Tageszeitungsnutzung mittels 40.000 Interviewbefragungen in zwei Erhebungswellen pro Jahr (vgl. AGMA 2021a). Die Radionutzung wird ebenfalls über die AGMA (ma Radio) ermittelt. Anhand 67.000 computergestützter Telefoninterviews wird ebenfalls in zwei Erhebungswellen pro Jahr die Nutzung aller Radioprogramme erfasst (vgl. AGMA 2021b). Diese in der Umwelt der Medienorganisationen angesiedelten »Dritten« oder Intermediären nehmen im Prozess der Publikumsbeobachtung der Massenmedien folglich eine bedeutsame Rolle ein. Sie gestalten die auf Quantifizierung beruhenden massenmedialen Publikumsbeziehungen mit, indem sie vorgeben, wie das Publikum vermessen wird und anhand welcher Kennzahlen es zu beobachten ist. Darüber hinaus entwickeln sie spezifische Aufbereitungs- und Visualisierungsformate der Daten (Quoten, Kurvenverläufe, Diagramme, Tabellen etc.), welche die Lesbarund Auswertbarkeit – die medienorganisationsinterne Anschlussfähigkeit – der Daten vereinfachen sollen. Jene Unternehmen stellen somit eine medienübergreifende normierte Kommunikation über Reichweiten und erreichte Zielgruppen sicher (vgl. hierzu auch Heintz 2007: 67ff.). Zusammenfassend lässt sich festhalten, dass Massenmedien in der Datenerhebung von »Dritten« bzw. Intermediären abhängig sind. Diese sind in der Umwelt der Medienorganisation angesiedelt und gestalten die Publikumsbeziehungen mit, indem sie die Publikumsmessungen technisch entwickeln und realisieren. Sie sind an der Publikumsbeobachtung der Massenmedien, mit anderen Worten, hochgradig beteiligt und vermitteln ihnen und Werbetreibenden wichtige, nutzungsbasierte Informationen über das Publikum. Wie die Massenmedien in einem nächsten Schritt nun organisationsintern mit den erhobenen Daten umgehen und sie für ihre Zwecke anschlussfähig machen, wird im folgenden Kapitel dargestellt.8

8

Inwiefern sich jene Datendienstleister und die medienorganisatorischen Verhältnisse zu ihnen im Kontext der Internetdistribution wandeln, veranschaulicht die spätere empirische Fallanalyse (Kap. 7).

2 Das Publikum als numerisches Konstrukt. Zur Publikumsbeobachtung der Massenmedien

2.2.2

Datenumgang – Zur Herstellung von interner Datenanschlussfähigkeit

Durch die Erhebung von Daten kann das »unsichtbare« Publikum für die Massenmedien sichtbar und mit Blick auf organisationsinterne Entscheidungsprozesse kommunikativ verfügbar und anschlussfähig gemacht werden (vgl. Schneider/ Otto 2007: 9). Die Methode der Quantifizierung des Publikums stellt hierbei den grundsätzlichen Operations- und Inklusionsmodus dar: »Anders als in Form von Einschaltquoten wäre das Massenpublikum nicht erfassbar. Es zählen allein die Quoten, die dahinter liegenden Motive bleiben zumeist Spekulationen überlassen« (Passoth et al. 2013: 150). In ähnlicher Weise beschreibt Ang (2001, 1996 [1991]) das Publikum als ein »taxonomisches Kollektiv«, bei dem die (Fernseh-)Zuschauer eine vereinheitlichte und vergegenständlichte Kategorie bilden, indem sie von den Medienorganisationen auf das alleinige Merkmal der Zuschauerschaft reduziert werden, um hierdurch strategisch nützliches Wissen für die Massenmedienorganisationen zu produzieren. Die Subjektivität und soziale Welt der Rezipientinnen und Rezipienten müssten dabei notwendigerweise ausgeblendet werden: »Indem die taxonomische Konzeption des ›Fernsehpublikums‹ (als Bündelung von Menschen) zum impliziten und vorbehaltslosen Ausgangspunkt genommen wird, entsteht eine bearbeitbare Operationalisierung der Kategorie Publikum. Auf dieser Grundlage kann dann ein verfeinertes Wissen, empirischer oder nicht-empirischer Herkunft, über die konstitutiven Teilelemente der Kategorie – die so genannten Mitglieder des Publikums – gewonnen werden« (Ang 2001: 478). Die quantifizierten Verfahren der Publikumsmessung ermöglichen somit, das Publikum als eine einheitliche, subjektlose Kategorie wahrzunehmen und es auf diese Weise in internen Entscheidungen adressier- und thematisierbar zu machen. Ang (ebd.: 476) verweist darauf, dass das Publikum als ein diskursives Konstrukt zu verstehen ist, welches nur innerhalb entsprechender diskursiver Darstellungsweisen verwendet und diskutiert werden könne. Erhobene bzw. vorliegende Daten sind für die Medienorganisation demnach nicht direkt handlungsanleitend und laufen nicht unreflektiert in Entscheidungsprozesse ein. Die Anschlussfähigkeit von Daten muss organisationsintern zunächst kommunikativ hergestellt werden (vgl. auch Schneider/Otto 2007: 9ff.). Wie genau solche internen diskursiven Praktiken und Regelungen des Datenumgangs aussehen, ist aufgrund mangelnder empirischer Untersuchungen größtenteils unbekannt. Eine der wenigen ethnografischen Untersuchungen findet sich bei Espinosa (1982), der die »story conferences« einer amerikanischen Fernsehsendung erforschte und auf die Bedeutsamkeit von regelmäßigen Zusammenkünften der Produzen-

33

34

Publikumsbeobachtung im digitalen Wandel

ten verweist, in denen über Publikumserwartungen und -vorstellungen diskutiert wird und der daraus gewonnene Konsens zukünftige Produktionen beeinflusst. Für den Umgang mit den Daten müssen auf Organisationsebene folglich spezifische Strukturen geschaffen werden. So ist das Festlegen von Zuständigkeiten und Verantwortlichkeiten im Umgang mit den Daten unerlässlich: Wer beschäftigt sich wann, in welcher Intensität und zu welchem Zweck mit den Daten? Welche Standards und Routinen werden etabliert, um Daten für interne Entscheidungen anschlussfähig zu machen? In welchen Formen sollen Daten aufbereitet werden (Berichte, Tabellen oder Diagramme etc.), um sie möglichst vielen Organisationsmitgliedern zugänglich zu machen? Der organisationsinterne Datenumgang erfordert, wie sich an diesen kurzen Ausführungen erkennen lässt, viele institutionelle Regelungen und Lösungen sowie zusätzliche Entscheidungsbedarfe. Unter klassischen Distributionsbedingungen der Massenmedien (Fernsehen, Radio, Print) lässt sich festhalten, dass es vor allem Grenzstellen sind, die sich mit Daten und den damit einhergehenden Fragen und Folgeproblemen beschäftigen.9 Darüber wurden Daten und Ergebnisse aus der Publikumsforschung innerhalb der Medienorganisation nicht selten als »Herrschaftswissen« behandelt wurden (vgl. Hohlfeld 2005: 202ff.). Oftmals besaßen demnach nur die oberen Führungsebenen Zugang zu diesem (Publikums-)Wissen. Im Journalismus bspw. galt das Publikum lange Zeit als »unbekannte und ungeliebte Größe« (ebd.: 197ff.). Zur Jahrtausendwende und mit der zunehmenden massenmedialen Erschließung des Internets wurden das Publikum und die es wiederspiegelnden Daten, auch aus ökonomischen Gründen (neue Refinanzierungsmodelle), zunehmend interessanter für die Zeitungen. Mit Blick auf den organisationsinternen Datenumgang der Massenmedien ist außerdem auf die Notwendigkeit der Datenübersetzung zu verweisen: »Messergebnisse kommen offensichtlich nicht ohne interpretative Leistungen aus«, schreiben Wehner et al. (2012: 64). Die anfallende Deutungsarbeit ist dabei vorrangig eine Leistung der Medienorganisation und wird nicht durch den Prozess der Datenerhebung mitgeliefert. Der Datenumgang wird zusätzlich durch die Mehrdeutigkeit und mehrfachen Interpretierbarkeit von Daten erschwert. Zahlen eröffnen, mit anderen Worten, immer auch Räume für kontroverse Deutungen (vgl. Passoth/ Wehner 2013: 13), sodass Daten auch zu Widerständen und Konflikten führen oder auf Ablehnung treffen können: »[H]och geschätzt und doch verachtet«, schreibt Ang (2001: 461). Im organisationalen Umgang mit Daten sind zusammenfassend Formalisierung und die Herstellung von Anschlussfähigkeit zentral. Die Nutzung von Daten 9

Und genau dies scheint sich mit Blick auf die Internetdistribution zu wandeln (siehe die empirische Fallanalyse in Kap. 7). So rückt die Beschäftigung mit Daten von vereinzelten Grenzstellen des Systems (Peripherie) in dessen Zentrum (in die Redaktion).

2 Das Publikum als numerisches Konstrukt. Zur Publikumsbeobachtung der Massenmedien

setzt Codierungen voraus, d.h. die Übersetzung in für die Organisationsmitglieder lesbare und verständliche Formate. Ähnlich wie Hall (1999) dies für die Rezeption massenmedialer Informations- und Unterhaltungsangebote zeigt, so lässt sich mit Blick auf die Publikumsbeobachtung der Massenmedien feststellen, dass Daten zunächst von entsprechenden Datendienstleistern (»Dritten«) in spezifische Formate bzw. Repräsentationen übertragen – codiert – werden. In einer daran anschließenden organisationsinternen Decodierung geht es mithilfe eines dafür entwickelten und geteilten Wissens darum, die codierten Daten auf organisationale Belange hin zu übersetzen (vgl. auch Pieper/Wehner 2021: 305ff.). Darüber hinaus lässt sich beobachten, dass die decodierten Daten organisationsintern ein weiteres Mal – meist von Expertinnen und Spezialisten – codiert werden, um die übersetzten und interpretierten Daten möglichst vielen Mitarbeiterinnen und Mitarbeitern in einer leicht verständlichen Lesart zugänglich zu machen. Wie die Daten nach ihrer Erhebung und Aufbereitung nun konkret genutzt werden, beschreibt das folgende Kapitel.

2.2.3

Datennutzung – Zur Selbstbeobachtung und (De-)Legitimierung  von Entscheidungen

Der dritte Schritt im hier skizzierten Prozess der Publikumsbeobachtung der Massenmedien ist die Datennutzung. Nachdem die Daten erhoben, für interne Zwecke aufbereitet – d.h. in einfache und verständliche Formate übersetzt und anschlussfähig gemacht – sowie interpretiert wurden, stellt sich die Frage, für welche systeminternen Operationen (Entscheidungen) die quantifizierten Publikumsbeobachtungen letztendlich genutzt werden. Grundsätzlich lässt sich anführen, dass Daten zunächst dazu genutzt werden, um Einsichten über die Nutzungsgewohnheiten (Zeitpunkte mit der höchsten Nutzungszeit, durchschnittliche Rezeptionsdauern, Anzahl an rezipierten Medieninhalten etc.) und etwaige inhaltliche Präferenzen des Publikums (Themen, spezifische Formate etc.) zu generieren, also quantitative Regelmäßigkeiten, Besonderheiten, Auffälligkeiten und Muster zu entdecken. Hierdurch sollen Medieninhalte mitunter »besser« auf das Publikum abgestimmt, d.h. an den Gewohnheiten und Interessen der Nutzerinnen und Nutzer ausgerichtet und an sie angepasst werden. Mit Blick auf die Organisationsebene gehen hiermit insbesondere strategische Entscheidungen einher (vgl. auch Ang 2001: 462). Dabei kann allgemein zwischen Entscheidungen differenziert werden, die auf (a) die Medienhalte oder (b) die Organisationsstruktur abzielen. Dass Medienorganisationen Daten insbesondere auch dazu nutzen, um über die Fort- oder Absetzung der Produktion von Inhalten (Fernsehserien, Radiosendungen etc.) oder über ihren Sendeplatz zu entscheiden, ist allgemein bekannt und breit untersucht. Man denke nur an die bereits vorgestellte Einschaltquote und deren Wirkungsmächtigkeit oder an den Begriff

35

36

Publikumsbeobachtung im digitalen Wandel

des Quotendrucks, der die Anforderung beschreibt, eine »gute« Einschaltquote zu erzielen. Mit der Bestimmung von »guten« und »schlechten« Quoten wird nachträglich über den Erfolg bzw. Misserfolg von Inhalten entschieden (vgl. auch Fürst 2018). Reichweiten werden aufgrund ihrer legitimatorischen Funktion so gesehen vorrangig für programmstrategische Entscheidungen genutzt. Hierbei wird »[…] auf einen neutralen, nicht-subjektiven Fakten-und-Zahlen-Diskurs zurückgegriffen, der vorgeblich die eindeutigsten und systematischsten Erkenntnisse über das Publikum liefert« (Ang 2001: 461). Was in der Forschung bisher wenig beachtet wird, sind die damit einhergehenden organisatorischen Voraussetzungen und binnenperspektivischen Verhältnisse. Inwiefern wirken Daten sich auf Entscheidungen über die Organisationsstrukturen der Massenmedien aus? Hierzu mangelt es vor allem an empirischer Forschung. Es ist davon auszugehen, dass Dateneinsichten nicht nur – wie im Kontext der Einschaltquote – der (De-)Legitimierung inhalts- bzw. produktspezifischer Entscheidungen dienen, sondern auch der Beförderung von Entscheidungen über organisationale Restrukturierungen. Zu denken ist hier bspw. an den Aufbau oder Abbau einzelner Stellen und Teams oder aber im Zuge der Verlagerung klassischer Massenmedien ins Internet an die Einrichtung neuer Abteilungen, die sich dezidiert mit den Möglichkeiten der Datenanalyse oder Monetarisierung im Netz auseinandersetzen. Während die organisationsinternen Relevanzen von Daten also »von außen« durchaus beobachtbar und bestimmbar sind, so ist wenig über die konkreten internen Relevanzzuweisungen und Datennutzungspraktiken bekannt. Dabei scheinen Daten jedoch einen hochgradigen Einfluss auf das innerorganisationale Geschehen von Massenmedien zu haben. Hieran angeschlossen können die quantifizierten Publikumsbeobachtungen immer auch als Selbstbeobachtung und Selbstbeschreibung der Massenmedienorganisation verstanden werden. So hält Hohlfeld (2013: 138) für das journalistische System fest: »Die als Selbstbeschreibungen manifestierten Selbstbeobachtungen dienen auf diese Weise zur Steuerung systeminterner Operationen und befähigen das System zur Reflexivität«. Mit diesem Verständnis einer datenbasierten Selbstbeobachtung und Selbstbeschreibung der Massenmedien zeigt sich, dass Daten – insbesondere im Kontext der Internetdistribution, weil es hier zu einem enormen Anstieg von Daten kommt (siehe Kap. 4.2) – vor allem zur (De-)Legitimierung von Entscheidungen genutzt werden. Dabei werden durch das Vorhandensein von Daten gleichzeitig stets neue Entscheidungsbedarfe erzeugt. Daten, deren Umgang und Nutzung laden die Massenmedien folglich mit neuen Komplexitäten auf. Gleichzeitig vermögen sie das Sichtbarmachen und Erkennen von Funktionalitäten, Dysfunktionalitäten und Optimierungsmöglichkeiten. Quantifizierte Publikumsbeobachtungen werden zudem nicht selten in Organisationsleistung übersetzt und als solche intern themati-

2 Das Publikum als numerisches Konstrukt. Zur Publikumsbeobachtung der Massenmedien

sierbar gemacht, wodurch Daten immer auch als Instrumente der Erfolgskontrolle verstanden werden können (vgl. Fürst 2018: 179f., Hohlfeld 2013: 138ff.). Zuletzt ist noch darauf zu hinzuweisen, dass Daten nicht nur zur Selbst-, sondern auch zur Konkurrenzbeobachtung genutzt werden. Das Wahrnehmen und etwaige Diskutieren der Quoten und Zahlen der Konkurrenz erfüllen die Funktion, sich über Auffälligkeiten in der Umwelt zu informieren und hieraus ggf. Ableitungen für das eigene Handeln zu treffen. Bourdieu (1998: 111) spricht hier von wechselseitigen Beobachtungsverhältnisse und formuliert, ohne sich dabei jedoch auf Daten zu beziehen, überspitzt: »Die Konkurrenz verleitet dazu, die Tätigkeit der Konkurrenten permanent zu überwachen (was bis zu gegenseitigem Ausspionieren gehen kann), um ihr Scheitern zu nutzen, ihre Fehler zu vermeiden, ihre Erfolge zu konterkarieren, wobei versucht wird, die Instrumente zu entlehnen, von denen angenommen wird, daß sie zum Erfolg führten« (Hervorhebung im Original).

2.3

Zusammenfassung – oder: Plädoyer für eine organisationsorientierte Erforschung massenmedialer Publikumsbeobachtungsprozesse

Bedingt durch die Struktur der Massenkommunikation ist das Wissen der Massenmedien über ihr Publikum vor allem durch Ungewissheit und Unsicherheit geprägt. Das Publikum gilt dementsprechend als anonym, unbegrenzt, fluktuierend und dispers. Die Massenmedien reagieren auf das zentrale Problem der Interaktionsunterbrechung durch Technik mit verschiedenen, auch kreativen, Ansätzen. Die zugrundeliegende Frage bleibt dabei aber immer dieselbe: Nämlich wie mit einem anonymen und distanzierten Publikum umzugehen ist und wie Publikumserwartungen systematisch erfasst und intern bearbeitet werden können. Fernsehproduzenten, Redakteure und Journalisten müssen sich in ihrer Publikumsvorstellung deshalb auf Spekulation und Imagination berufen. Mit der Entwicklung technischer (kommerzieller) Publikumsmessungen – vorangetrieben von der Werbe- und Fernsehindustrie, um Reichweiten und Marktanteile zu bestimmen und vergleichbar zu machen – steht insbesondere dem Fernsehen ein Instrument der Publikumsbeobachtung zu Verfügung, welches statistische Einsichten in die Mediennutzungsdauer, die Programmwahl oder Zusammensetzung des Publikums erzeugt und somit die Distanz zum Publikum verringern soll. Jene quantifizierte Publikumsbeobachtungen fließen unweigerlich, aber nicht unreflektiert, in interne Entscheidungen über Prozesse der Themenwahl oder Beitragserstellung der Medienorganisationen ein. Im Journalismus ist seit der Jahrtausendwende in Deutschland eine zunehmende Orientierung am Publikum zu beobachten. Die

37

38

Publikumsbeobachtung im digitalen Wandel

mit der Internetdistribution einhergehenden Möglichkeiten der Online-Verdatung und -Analyse von Publikumsaktivitäten stoßen besonders bei den Printmedien auf ein reges Interesse, da Zeitungen und Zeitungsredaktionen über solch technische Möglichkeiten der Sichtbarmachung des Publikums zuvor nicht verfügten. Die detaillierte und differenzierte Erfassung des (täglichen) Nutzungsgeschehens markiert für sie so gesehen einen zentralen Einschnitt (siehe ausführlich hierzu Kap. 4). In der (system-)theoretischen Einbettung der Publikumsbeobachtung der Massenmedien wird in dieser Arbeit an die Inklusionstheorie angeschlossen. Die Inklusion des Publikums erfolgt im Funktionssystem der Massenmedien demnach vorrangig im Modus der Quantifizierung. Das zentrale Argument ist nun, dass sich die quantifizierte Publikumsbeobachtung instruktiv auf der Organisationsebene der Massenmedien – auch hinsichtlich ihres Wandels unter digitalen Bedingungen – thematisieren lässt. In der Auseinandersetzung mit dem Forschungsstand zur massenmedialen Publikumsbeobachtung macht sich jedoch eine fehlende Organisationsbetrachtung von Massenmedien bemerkbar. Für eine organisationsorientierte Erforschung und Beschreibung der massenmedialen Publikumsbeobachtung wurde daraufhin ein Modell entwickelt, welches zwischen drei zentralen Prozessen unterscheidet (der Datenerhebung, dem Datenumgang und der Datennutzung) und die hieraus entstehenden Erkenntnispotenziale aufzeigt. So fällt im Kontext der Datenerhebung auf, dass klassische Publikumsmessungen wie z.B. die Erhebung der Einschaltquote nicht von den Fernsehanstalten selbst durchgeführt werden, sondern von Marktforschungsinstituten und spezialisierten Unternehmen (GfK, IVW etc.) technisch realisiert werden. Diese mit Blick auf die Beziehung Massenmedien ↔ Publikum auch als »Dritte« zu verstehenden Intermediären sind in der Umwelt der Medienorganisationen angesiedelt und ermöglichen so gesehen in erster Linie die quantifizierte Publikumsbeobachtung – mit der Folge, dass hierdurch gegenseitige Abhängigkeitsverhältnisse entstehen und die Massenmedien für ihre Publikumsbeobachtung auf jene externen Erhebungen und Messungen angewiesen sind. Insofern übernehmen jene »externen Dritten« wichtige Vermittlungsleistungen. Gleichzeitig gestalten sie die massenmedialen Publikumsbeziehungen mit, da sie das Messinstrumentarium entwickeln und demzufolge festlegen, wie die Rezeptionsakte vermessbar gemacht werden. Diese Auslagerung der Datenerhebung in die Umwelt (Externalisierung) erscheint aus Sicht der Medienorganisationen insofern funktional sinnvoll, als dass sie weder über die personellen Voraussetzungen noch über die technischen Kompetenzen verfügen, um die Messungen selbst zu entwickeln, durchzuführen und zu betreuen. Zudem wird durch die Externalisierung der Datenerhebung die Publikumsmessung standardisiert und entsprechende Ergebnisse vergleichbar gemacht – eine für Werbemarkt und Werbetreibende sowie für die Konkurrenzbeobachtung wichtige Bedingung. Durch die Auslagerung der Datenerhebung an spezialisierte Unternehmen (Dritte) wird die Publikumsmessung und -be-

2 Das Publikum als numerisches Konstrukt. Zur Publikumsbeobachtung der Massenmedien

obachtung, mit anderen Worten, regulierbar gemacht und wettbewerbsförmig gestaltet. Mit Blick auf den medienorganisationalen Datenumgang fällt auf, dass sich dieser als äußerst voraussetzungsreich herausstellt. So sind Daten nicht, wie fälschlicherweise angenommen werden könnte, aus sich heraus eindeutig. Daten müssen zunächst für die jeweiligen organisationalen Zwecke und Belange übersetzt werden. Ihre operative Anschlussfähigkeit muss, mit anderen Worten, zunächst diskursiv hergestellt und kommunikativ sichergestellt werden. Ein Beispiel hierfür sind Redaktionskonferenzen oder andere entsprechende Formen institutionalisierter und geregelter Treffen, bei denen über die Daten gesprochen wird, sie also sinnvoll übersetzt und interpretiert werden. Auf Daten beruhende Publikumsbeobachtungen fließen dementsprechend nicht ungefiltert und unverarbeitet in die systeminternen Operationen (Entscheidungen) ein. Darüber hinaus werden für den Umgang mit den Daten spezifische Organisationsstrukturen notwendig. Es müssen Stellen, Teams oder gar Abteilungen eingerichtet oder umgebaut werden, die sich eingehender mit den Daten beschäftigen. Zudem werden auf Organisationsebene Regelungen und Restrukturierungen erforderlich, die definieren, wer sich in welchem Umfang mit den Daten auseinanderzusetzen hat und wie die Datenauswertungen jenen Organisationsmitgliedern verfügbar und anschlussfähig gemacht werden, die sich (bspw. qua Stelle) nicht mit den Daten beschäftigen (können) – oder zumindest nicht in gleicher Intensität. Der Datenumgang benötigt letztlich Formalisierung: Es müssen intern Verantwortlichkeiten geschaffen und Zuständigkeiten festgelegt werden. Daten haben, wie sich hieran erkennen lässt, großen Einfluss auf das Organisationsgeschehen der Massenmedien. Die Datennutzung kann im Anschluss hieran in erster Linie als ein Instrument zur Selbstbeobachtung der Medienorganisation verstanden werden. Die Daten werden dabei ausgewertet, um Muster, Auffälligkeiten, Besonderheiten, Funktionalitäten, aber auch Dysfunktionalitäten sichtbar zu machen und zu lokalisieren – sowohl mit Blick auf die Produktion (Inhalte) als auch auf struktureller Ebene (Organisationsstrukturen). Andersherum formuliert kann der organisationale Nutzen von Daten auch als Negativgarantie verstanden werden: »dass nichts weiter los ist« (Luhmann 1964: 224). Daten werden intern zudem, wie am Beispiel der Einschaltquote schnell ersichtlich wird, als Mittel zur Erfolgskontrolle genutzt und in maßgebende Indikatoren übersetzt, die über den »Erfolg« oder »Misserfolg« von Medieninhalten mitentscheiden und zukünftige Produktions- und Publikationsentscheidungen beeinflussen. Die quantifizierten Publikumsbeobachtungen können organisationsintern somit als Beförderer von Restrukturierungen genutzt werden und generell zur (De-)Legitimierung von Entscheidungen beitragen (siehe auch die empirische Fallanalyse in Kap. 7). Insgesamt lässt sich festhalten, dass die Betrachtung von Massenmedien als Organisationen in der Mediensoziologie im Allgemeinen (vgl. Hasse/Wehner 2020:

39

40

Publikumsbeobachtung im digitalen Wandel

3f.) und in der massenmedialen Publikumsbeobachtung im Besonderen ein großes empirisches wie theoretisches Forschungsdesiderat darstellt. Während die Frage nach dem Umgang mit Medieninhalten auf der Rezipientenseite breit und ausgiebig untersucht wurde und weiterhin, ist die Frage nach den organisatorischen Binnenverhältnissen der Massenmedien bisher wenig erforscht (»Wie gehen die Massenmedien mit ihrem quantifizierten Publikum um?«). Wie sich die Datenübersetzungsprozesse intern gestalten und wie voraussetzungsvoll die Auseinandersetzung mit Nutzungsdaten ist, erfährt in der mediensoziologischen Forschung selten Beachtung. In der systemtheoretischen Auseinandersetzung mit Massenmedien werden zudem überwiegend das Zustandekommen von Massenkommunikation und deren Bedingungen untersucht, wodurch die Binnenperspektive der Massenmedienorganisation in den Hintergrund tritt. Dabei zeigt sich jedoch, dass gerade jene organisatorischen Binnenverhältnisse mit Blick auf die massenmediale Publikumsbeobachtung, den Medienwandel und die daraus resultierenden Verlagerung der Massenmedien ins Internet erkenntnisreiche Einsichten – auch nicht zuletzt in den gesellschaftsweiten Trend der Verdatung – versprechen. Erst durch eine Organisationsbetrachtung der Massenmedien werden die Komplexität der Publikumsbeobachtung und die Folgeprobleme, die sich die Medienorganisationen im Zuge dessen einhandeln, sichtbar. Eine organisationszentrierte Erforschung massenmedialer Publikumsbeobachtungsprozesse, die die Prozesse der Datenerhebung, des Datenumgangs und der Datennutzung miteinschließt, drängt sich daher nahezu auf und erfolgt später im empirischen Teil der Arbeit.

3 Organisation, Quantifizierung und Digitalisierung

Nachdem im vorherigen Kapitel in die quantifizierte Publikumsbeobachtung der Massenmedien eingeführt, dabei auf das Forschungsdesiderat einer fehlenden Organisationsbetrachtung von Massenmedien aufmerksam gemacht und die Erkenntnisgewinne einer organisationsorientierten Erforschung massenmedialer Publikumsprozesse skizziert wurden, beschäftigt sich das nun folgende Kapitel aus einer organisationssoziologischen Perspektive heraus mit Quantifizierung und Digitalisierung. Hierzu werden aufgrund mangelnder mediensoziologischer Studien organisationssoziologische und zahlensoziologische Forschungsstände zusammengetragen, die die Einführung numerischer Bezugssysteme in Organisationen untersuchen und nach ihren organisationalen Funktionen und Folgen fragen. Zunächst wird jedoch der organisationssoziologische Untersuchungsrahmen der Arbeit vorgestellt (Kap. 3.1). Dabei werden theoretische Grundannahmen und relevante organisationssoziologische Konzepte präsentiert, an die die Arbeit anschließt und die für die spätere empirische Fallanalyse von Bedeutung sein werden. Im Anschluss an die Vorstellung des organisationssoziologischen Gerüsts wird gezeigt, dass Organisationen Quantifizierungen primär zur Selbstbeobachtung nutzen (Kap. 3.2). Dabei wird sowohl der (kommunikationstheoretische) Erfolg von Quantifizierungen in Organisationen (Kap. 3.2.1) als auch ihr Einfluss auf das Organisationsgeschehen und auf die Autonomie von Organisationen beleuchtet (Kap. 3.2.2). Abschließend wird an eine junge organisationssoziologische Forschungsdebatte angeschlossen, die sich mit Fragen der Digitalisierung und dem wechselseitigen Verhältnis von Organisation und Digitalisierung beschäftigt (Kap. 3.3). Hierbei wird aufgezeigt, welche Erkenntnisse und Anschlussstellen die Organisationssoziologie an die gesellschaftsweite Digitalisierung bereitstellt, um diese Überlegungen dann in einem nächsten Schritt (Kap. 4) auf den konkreten empirischen Forschungsgegenstand der Arbeit zu übertragen: Print-Massenmedienorganisationen resp. Zeitungsredaktionen.

42

Publikumsbeobachtung im digitalen Wandel

3.1

Der organisationssoziologische Untersuchungsrahmen: Relevantetheoretische Konzepte

Die vorliegende Arbeit schließt an die systemtheoretische Organisationssoziologie Niklas Luhmanns an (siehe insbesondere Luhmann 2000). Hierzu werden die für das Forschungsvorhaben zentralen theoretischen Konzepte vorgestellt, mit denen der Wandel der Publikumsbeobachtung der Massenmedien – auch empirisch – beobachtbar und beschreibbar gemacht werden kann. Diese Konzepte bestehen in der System-/Umwelt-Differenz sowie der damit einhergehenden Notwendigkeit der Selbstbeobachtung (Kap. 3.1.1), dem Treffen von Entscheidungen in Organisationen qua Entscheidungsprämissen (Kap. 3.1.2) und in den Überlegungen zu Technologieeinsatz und Organisationswandel (Kap. 3.1.3).

3.1.1

Die System-/Umwelt-Differenz »Aber das Spezifische von Organisationen wird sich nur erkennen lassen, wenn man Organisationen von anderen Arten der Systembildung unterscheiden kann; und wenn man also, wenn es denn um Systemtheorie geht, die besondere Art und Weise angeben kann, in der Organisationssysteme die Differenz von System und Umwelt erzeugen« (Luhmann 2000: 38).

»Eine Organisation ist ein System, das sich selbst als Organisation erzeugt«, schreibt Luhmann (2000: 45; vgl. für die folgenden Ausführungen ebd.: 45ff.). Die Systemtheorie konzipiert Organisationen von ihrem ständigen Zerfall her (Diskontinuität). Die Kontinuität des organisierten sozialen Systems wird daher für erklärungsbedürftig gehalten und mit dem Begriff der Autopoiesis (der Reproduktion/Selbsterhaltung des Systems) beschrieben: »Die Autopoiesis ist demnach nur möglich, wenn das System sich im Dauerzustand der Unsicherheit über sich selbst im Verhältnis zur Umwelt befindet und diese Unsicherheit durch Selbstorganisation produzieren und kontrollieren kann« (ebd.: 47; Hervorhebung im Original). Organisationen »bekämpfen« ihre Unsicherheit vor allem retrospektiv. Sie halten sich an das, was bereits in der Vergangenheit geschehen ist und wofür sie bereits (ähnliche) Lösungen gefunden haben. Hierbei besteht die Gefahr, dass der Umwelt aufgrund jener Selbstreferenz zu wenig Beachtung geschenkt wird. Wichtig zum Verständnis der Theorie von Organisationen als autopoietische Systeme ist, dass von der Erhaltung eines Bestandes auf die Erhaltung einer Differenz umgestellt wird. Das bedeutet, dass nicht von existentiellen Notwendigkei-

3 Organisation, Quantifizierung und Digitalisierung

ten einer Organisation gesprochen wird (eine Organisation kann nur existieren, wenn …), sondern von Bedingungen der Möglichkeit der Beobachtung von Organisationen. Denn nur wenn Organisationen sich unterscheiden, können sie auch beobachtet werden: »Wenn wir im Folgenden Organisationen als autopoietische Systeme beschreiben, geht es also immer um die Erzeugung und Reproduktion einer Differenz (systemtheoretisch: von System und Umwelt), und der Begriff Autopoiesis besagt, das [sic!] ein Beobachter, der ihn verwendet, voraussetzt, dass diese Differenz vom System selbst erzeugt und mit systemeigenen Operationen reproduziert wird« (ebd.: 55; Hervorhebung im Original).1 Der Selbst- und Umweltbeobachtung der Organisation kommt in diesem Kontext ein besonderer Stellenwert hinzu. Organisationen bestehen und reproduzieren sich, wie jedes soziale System, aus Kommunikation. Auch Organisationen entstehen und reproduzieren sich so gesehen durch Kommunikation, jedoch aus einer besonderen Art von Kommunikation: der Entscheidung. Der permanente Entscheidungsbedarf und -prozess erfordert Informationen und Gründe, wofür auch auf die Umwelt zurückgegriffen werden muss. Die sich hier offenbarende (theoretische) Frage ist, wie ein geschlossenes System sich zur Umwelt hin öffnen kann, wenn es mit seinen eigenen Operationen die Umwelt nicht erreichen kann. Luhmann verweist hierbei auf den Begriff der Selbstbeobachtung. Mit dem Terminus der Selbstbeobachtung wird eine (weitere) Differenz zwischen Selbstreferenz (System) und Fremdreferenz (Umwelt) eingeführt. »Mit dieser Unterscheidung wird die Differenz von System und Umwelt, die das System durch die Autopoiesis seiner Operationen erzeugt, in das System hineinkopiert«, so Luhmann (2000: 72). Das System muss sich folglich deshalb selbst beobachten, damit es einerseits auf die Umwelt zurückgreifen, andererseits sich aber auch von seiner Umwelt unterscheiden kann. Durch die Selbst- und Umweltbeobachtung sowie durch die daraus entstehende Anpassungsnotwendigkeit an die Umwelt, ist die Organisation in ihren Strukturen variabel – unter der Prämisse, dass jene Strukturveränderungen mit der Autopoiesis kompatibel sind (siehe hierzu auch Kap. 3.1.3). Anpassungen an die Umwelt sind für Organisationen demzufolge zentral bzw. überlebenswichtig, weshalb die Einführung von Innovationen und ein damit einhergehender Organisationswandel oftmals Gegenstand organisationssoziologischer Untersuchungen

1

Luhmann (ebd.) weiter zur Beschreibung der Systemtheorie: »Die Systemtheorie hat also darauf zu verzichten, Weltkenntnis zu vermitteln. Sie hält sich stattdessen, mit hinreichender Plausibilität, an die Regel, alle Beobachtungen thematisch entweder auf das System oder auf dessen Umwelt zu beziehen. Dabei muss allerdings vorab entschieden werden, welches das System ist, von dem aus gesehen alles andere Umwelt ist. Das erfordert die Angabe einer Systemreferenz«.

43

44

Publikumsbeobachtung im digitalen Wandel

sind. In der vorliegenden Arbeit interessieren auf Organisationsebene insbesondere die internen Folgen der Transformation der grundlegenden Distributionsinfrastrukturen der Massenmedien (von Print- zu Internetbedingungen), der Wandel des Verhältnisses zur Umwelt (Publikum) sowie das darauf reagierende Einführen von Verdatungssystemen und die daraus entstehenden Möglichkeiten der Selbstund Umweltbeobachtung.

3.1.2

Das Treffen von Entscheidungen in Organisationen  qua Entscheidungsprämissen

»Ohne Entscheidungen ändert sich nichts«, schreibt Luhmann (Luhmann 2000: 228) prägnant. Entscheidungen vollziehen sich in Organisationen durch sogenannte Entscheidungsprämissen (vgl. ebd.: 222-255). Entscheidungsprämissen »koordinieren« die Entscheidungen und sind als die zentralen Strukturen der Organisation zu verstehen. Sie legen eine unbestimmte Vielzahl anderer Entscheidungen fest bzw. schränken den Spielraum für mögliche Entscheidungen ein. Eine Entscheidungsprämisse ist dabei nur eine Entscheidungsprämisse, wenn sie im Entscheidungsprozess wirklich als solche benutzt wird, »sei es konform, sei es abweichend, sei es kooperativ, sei es sabotierend, sei es schweigend, sei es ›aktenkundig‹ mit Zustimmung oder Widerspruch« (Luhmann 2000: 228). Entscheidungsprämissen sind dementsprechend auch dann funktional, wenn abweichend von ihnen entschieden wird. Sie fungieren demzufolge als Oszillatoren: »Sie legen die künftigen Entscheidungen noch nicht fest, sie können ja nicht jetzt schon in der Zukunft entscheiden. Aber sie fokussieren die Kommunikation auf die in den Prämissen festgelegten Unterscheidungen, und das macht es wahrscheinlich, dass man künftige Entscheidungen mit Bezug auf die vorgegebenen Prämissen unter dem Gesichtspunkt der Beobachtung oder Nichtbeachtung und der Konformität oder Abweichung beobachten wird, statt die volle Komplexität der Situationen jeweils neu aufzurollen« (ebd.: 224). Mit dem Wort ›Prämisse‹ sind also Voraussetzungen gemeint, die bei ihrer Verwendung nicht mehr geprüft werden, da sie bereits selbst durch Entscheidungen entschieden (festgelegt) wurden.2 Als zentrale Entscheidungsprämissen nennt Luhmann Entscheidungsprogramme (Kap. 3.1.2.1), das Personal (Kap. 3.1.2.2) und die Kommunikationswege

2

Darüber hinaus bricht der Begriff der Entscheidungsprämisse(n) mit klassischen organisationstheoretischen Vorstellungen und Kontroversen zum Begriff der Rationalität, dass Rationalität folglich nach einer Art logischen Verfahren durch die Anwendung von Regeln erreicht werde (vgl. Luhmann 2000: 226). Der Punkt sei vielmehr, eine Mehrzahl an Entscheidungen in (spezifischen) Situationen einzuschränken.

3 Organisation, Quantifizierung und Digitalisierung

(Kap. 3.1.2.3). Entscheidungsprogramme stellen gewissermaßen Regeln dar, die für mehr als nur eine Entscheidung festgelegt werden. Sie sind demzufolge auch als regulative Bedingungen für richtiges (oder fehlerhaftes) Entscheiden zu verstehen. Das Personal besetzt bestimmte Stellen innerhalb der Organisation. Dabei wird es aufgrund seiner Eignung für bestimmte Aufgaben gewählt, d.h. Personen werden, »ähnlich wie Programme, als Entscheidungsprämissen für Entscheidungen gewählt« (ebd.: 225). Das Einhalten bestimmter Kommunikationswege ist relevant, damit die Entscheidung als solche in der Organisation auch anerkannt wird (»Dienstwege«). Wichtig anzumerken ist, dass kein Primat dieser drei Entscheidungsprämissen existiert. So könnte vermeintlich angenommen werden, dass insbesondere (Entscheidungs-)Programme für Organisationen von vorrangiger Bedeutung sind. Faktisch operieren die drei Entscheidungsprämissen jedoch wechselseitig. Denn auch wenn Programme für die Auswahl von Personen (Rekrutierung, Beförderung, Versetzung) existieren, so wurden eben jene Programme durch Entscheidungen realisiert, die wiederum von Personen (Stellen) getroffen wurden (vgl. ebd.: 226). Insgesamt betrachtet fände so gesehen ein ständiger, die Organisation belebender, »Führungswechsel« der Entscheidungsprämissen statt. Auch sind die Entscheidungsprämissen in einer Organisation nicht für alle Zeit festgelegt. Vielmehr müssten Entscheidungsprämissen in ihren Auswirkungen beobachtet werden und sich auf eventuelle Überarbeitungen einstellen (vgl. ebd.: 325). Bevor die drei Entscheidungsprämissen genauer vorgestellt werden, ist noch auf eine Beobachtung Luhmanns hinzuweisen, die im weiteren Verlauf der Arbeit und insbesondere im empirischen Teil von Bedeutung sein wird: die Notwendigkeit von interaktionsbasierter Kommunikation bei Mehrdeutigkeit (vgl. Luhmann 2000: 253f.). Luhmann bezieht dies darauf, dass Entscheidungsprämissen zunächst relativ problemlos kommunizierbar seien. Das Entscheidungsprogramm kann in Textform erfolgen, Kommunikationswege und Hierarchien werden (anhand von Schaubildern) aufgezeichnet, das Personal wird mit Namen bezeichnet. Sinn und Zuordenbarkeit der Entscheidungsprämissen sind in dieser theoretischen Form schnell zu erschließen. Sobald die Prämissen jedoch auf konkrete Situationen bezogen und angewandt werden sollen, wird ihr Sinn mehrdeutig, so Luhmann. Dies stelle sich bei genauerer Betrachtung als ein Alltagsproblem jeder Organisation heraus, denn nicht ohne Grund würden Kompromisse gefunden bzw. formuliert oder Entscheidungen vertagt werden. Sobald sich Mehrdeutigkeit zu einem Problem entwickelt, empfehle sich die mündliche Kommunikation in Interaktionssystemen unter Anwesenden: »Das heißt nicht unbedingt, dass die Interaktion dazu dient, Mehrdeutigkeit in Eindeutigkeit zu transformieren. Eher scheint sie dazu zu verhelfen, die Mehrdeutigkeit erfolgreich zu ignorieren und sich auf Entscheidungen zu verständi-

45

46

Publikumsbeobachtung im digitalen Wandel

gen, die eine neue Situation schaffen. […] Die Theorie autopoietischen Entscheidens würde sagen: es kommt darauf an, gegebene, mehrdeutig beschriebene Situationen in andere zu transformieren, für die in absehbarer Zukunft Dasselbe gelten wird. Diese Überlegungen zeigen, dass bei aller Ausweitung des Informationsbedarfs und bei aller Verwendung ausgefeilter Kommunikationstechnologien mündliche Kommunikation unentbehrlich bleiben wird; und sie bestätigen auch die Beobachtung, dass gerade auf Leitungsebene auf Basis von ausgewählten Kontakten und nicht auf der Basis komplexer, ausgearbeiteter Vorlagen der Informationsverarbeitung entschieden wird« (ebd.: 254). Der Umgang mit situationsspezifischer Mehrdeutigkeit erfordert demnach zumindest gegenseitige Verständigungsbedarfe und auch das Entscheiden könne nicht ausschließlich durch Informations- und Kommunikationstechnologien bzw. -techniken realisiert werden. Der Umgang mit Mehrdeutigkeiten macht, mit anderen Worten formuliert, stets Anschlusskommunikation erforderlich (und kann nicht vollständig technisch bearbeitet oder automatisiert werden). Dies wird später im Hinblick auf den organisationsinternen (redaktionellen) Umgang mit publikumsbezogenen Nutzungsdaten wieder aufgegriffen.

3.1.2.1

Entscheidungsprogramme

Der Begriff des Entscheidungsprogramms beschreibt Regeln, die ohne Zeitbezug oder -beschränkung auf mehrere Fälle angewendet werden können. Jene Programme gelten, sobald sie in Kraft gesetzt sind (d.h. entschieden wurden), bis sie geändert oder aufgehoben werden (vgl. Luhmann 2000: 271). Sie bilden, in Worten Luhmanns, das positive (Entscheidungs-)Recht der Organisation und »definieren Bedingungen der sachlichen Richtigkeit von Entscheidungen« (Luhmann 2000: 257). Fehler in den Entscheidungen bzw. in der Anwendung der Programme können jedoch durchaus funktional wirken, da sie notwendige Regelungsbedarfe aufzeigen und in der Folge zu einer detaillierteren Entscheidungsprogrammierung führen. Luhmann (ebd.: 261) unterscheidet Input- und Outputgrenzen der Entscheidungsprogrammierung und differenziert demnach zwischen Konditionalprogrammen (inputorientiert) und Zweckprogrammen (outputorientiert). Bei beiden Programmformen handelt es sich um künstliche, nicht natürliche, Unterscheidungen, die vom System selbst konstruiert und durch Entscheidung verbindlich gemacht werden müssen. Während Konditionalprogramme zwischen Bedingungen und Konsequenzen unterscheiden (»wenn – dann«), unterscheiden Zweckprogramme zwischen Zwecken und Mitteln. Die Auslösebedingung eines Konditionalprogramms liegt in der (nahen) Vergangenheit. Konditionalprogramme legen fest, auf welche wiederholt zu erwarteten Auslöseanlässe besonders zu achten ist (vgl. ebd.: 276f.). Konditionalprogramme können auch die Form eines logischen Schlusses annehmen oder maschinell

3 Organisation, Quantifizierung und Digitalisierung

durchgeführt werden. Möglich ist ferner das sequenzielle Hintereinanderschalten von Konditionalprogrammen. Die Durchführung eines Programms kann somit ein Auslösesignal für das nächste darstellen. Hierdurch könnten komplexe Programme in Ketten mit eingebauter, selbstläufiger Synchronisation aufgelöst werden. Dies ermöglicht die Integration unterschiedlicher Kompetenzen und Entscheidungsebenen, indem eine Stelle nur dann tätig wird, wenn eine andere tätig geworden ist (vgl. ebd.: 263f). Unbestimmtheit in der Entscheidungsprogrammierung kann sowohl in dem »Wenn« als auch in dem »Dann« liegen: »[W]enn der Lagerbestand eine bestimmte Menge unterschreitet, muss nachbestellt werden; aber es mag offen bleiben, bei welchem Lieferanten und zu welchen Preisen« (ebd.: 264). Luhmann beschreibt dies als Fall organisatorischen Lernens, bei dem oftmals typische Auffüllungsnormen entwickelt und die Programme mit Anmerkungen versehen werden. Ein weiterer Sonderfall der Konditionalprogramme beschreibt das Einbauen von Ausnahmeregeln in die Entscheidungsprogrammierung. Diese müssen jedoch eine gewisse Drastik und Dringlichkeit aufweisen. Diese Verdichtung des Regelwerks und Erzeugung von Aufmerksamkeitsansprüchen würde viel Entscheidungszeit absorbieren. Stellen könnten aufgrund dessen stärker aufgegliedert werden, was darin mündet, dass Organisationen (anders als Lebewesen) mit zunehmendem Alter zu wachsen scheinen resp. sich ausdifferenzieren. »Auf der anderen Seite dieser Entwicklung«, so Luhmann (2000: 265), »ergibt sich ein Dauerwunsch nach Vereinfachung, nach Innovation, man möchte fast sagen: nach Vernichtung der Akten. Und ebenso die Tendenz, neue Probleme durch Neugründung von Organisationen anzugehen«. So gesehen lässt sich in der Frage nach Komplexitätsreduzierung ein stetiges Spannungsfeld zwischen Ausdifferenzierung und Neugründung von Organisationen beobachten. Zweckprogramme sind gegenüber Konditionalprogrammen reine Zukunftsprogramme – auch wenn sie stets in der Gegenwart praktiziert, d.h. Entscheidungen für die stets unsichere und unbekannte Zukunft getroffen werden. Während bei Konditionalprogramen gelte »was nicht erlaubt wird, ist verboten«, gelte für die Zweckprogramme bzw. die Wahl der Mittel »was nicht verboten ist, ist erlaubt«. Zweckprogramme können darüber hinaus nur retrospektiv bewertet und dann in ihren Wertungen und Kausalannahmen korrigiert werden: »Man kann zum Beispiel feststellen, dass sich Produkte nicht so verkaufen lassen, wie man gehofft hatte oder dass geplante Investitionen teuer werden. Man kann soweit es um Programme für wiederholbare Entscheidungen geht […] lernen. Aber alle Kondensierung von Erfahrungen erfolgt in der Ungewissheit darüber, ob die jetzt vergangenen Bedingungen auch in der Zukunft noch zutreffen würden« (ebd.: 267).

47

48

Publikumsbeobachtung im digitalen Wandel

Das Programm setzt demnach voraus, dass Kausalität ausschnitthaft beobachtet wird. Luhmann spricht in diesem Sinne auch von »Kausalplänen«, da die Möglichkeit bestehe, über Alternativen nachzudenken, deren Erfolgswahrscheinlichkeiten eventuell größer sind. »Während bei Konditionalprogrammen eher an eine hermeneutische Einschränkung des Spielraums der Interpretation der Auslösesignale zu denken ist, geht es bei Zweckprogrammen eher um eine Abdichtung der Kausalabläufe gegen externe Interferenzen« (ebd.: 268f.). Kausalität spielt in Luhmanns Ausführungen eine besondere Rolle. Durch die Konstruktion von Eigenkausalität könne das System die eigene Umweltorientierung variieren und entscheiden, welchen Umweltfakten (Ereignissen, Strukturen) es kausale Wirkung verleihen will. In Organisationssystemen geschehe dies anhand der Entscheidungsprogramme bzw. -programmierung (vgl. ebd.: 278). Ähnlich wie bei Konditionalprogrammen können sich auch bei Zweckprogrammen Routinen entwickeln – hier in der Kopplung von Zwecken und Mitteln (oder: Problemen und Problemlösungen), an die sich erinnert wird und die wiederholte Anwendung finden (vgl. ebd.: 277). Generell werde auf erinnerte Routinen oder auf Erfahrungen anderer Organisationen zurückgegriffen und das zu lösende Problem auf die Weise definiert, dass bereits bekannte Problemlösungen anwendbar zu sein scheinen. Von besonderer Relevanz ist in den Zweckprogrammen die Möglichkeit der Zweck/Mittel-Verschiebung, die es erlaubt, Zwecke so stark zu generalisieren, dass die Zweckerreichung zeitlich nicht fixiert wird und sie dadurch weder positiv noch negativ (als Unerreichbarkeit) bewertet werden kann. Zwecke vermengen sich in diesem Fall mit Werten, die zur Begründung der angestrebten Differenz dienen. Luhmann (2000: 270) schreibt hierzu bspw.: »Die Armee dient der ›Erhaltung des Friedens‹; aber dann müssen Waffen beschafft, Kasernen gebaut, Soldaten ausgebildet werden […]«. Das Erreichen des Zweckes ist dann nur durch Mittelverschiebungen zu realisieren. Die Zweck/Mittel-Verschiebung ermögliche es, »Nochnicht-Realisiertes« von »Noch-nicht-Realisiertem« abhängig zu machen – sie ermögliche Imagination. Zu bedenken ist allerdings, dass alle Entscheidungen einer Organisation sich nicht an einem einzigen Gesamtzweck orientieren (können) (vgl. ebd.: 270f.). Sich vorzustellen, dass solch ein Gesamtzweck in alle Entscheidungen als eine Art Kontrollkriterium mit einfließen könnte, wäre hoch unrealistisch. Hierdurch würden alle Entscheidungen mit zu starker Komplexität aufgeladen werden. Luhmann sieht den Sinn und Vorteil von »Programmierung« zu sprechen – und sich damit von einem rationalistischen Verständnis der Zweckerreichung abzugrenzen – darin, den Blick hierdurch auf eine komplexitätsadäquate Differenzierung und Verteilung von Entscheidungsprämissen lenken zu können. Nur über Programmierung und im Falle von Zweckprogrammen nur über Zweck/ Mittel-Verschiebung könne die Komplexität des Systems über das unmittelbare plausible Nahziel hinaus gesteigert werden.

3 Organisation, Quantifizierung und Digitalisierung

Abschließend ist festzuhalten, dass durchaus Mischprogramme dieser beiden Programmformen existieren. So können mit Konditionalprogrammen auch Zwecke verfolgt werden oder Zweckprogramme an Bedingungen geknüpft sein.

3.1.2.2

Personal

Das Personal führt Luhmann als eine weitere Entscheidungsprämisse auf. Das Personal besetzt bestimmte Stellen in der Organisation. Der Organisation sind die Qualifikationen der Personen bekannt, wie sie in welchen Situationen handeln werden, ist jedoch unsicher. Oder in Worten Luhmanns: »In den Personen findet man gleichsam das als Kompromiss zwischen Vergangenheit und Zukunft (sie sind, wie sie sind, aber man kann nicht sicher sein, wie sie handeln werden), was die Organisation in Entscheidungen umzusetzen hat« (Luhmann 2000: 285). Das Personal ist insofern eine relevante Entscheidungsprämisse, weil es in letzter Instanz Personen sind, die entscheiden. D.h. sie entscheiden darüber, ob sie bspw. Entscheidungsprogramme anwenden oder von ihnen abweichen. Das Personal im Sinne einer Entscheidungsprämisse wird von Luhmann in doppelter Hinsicht beschrieben. Erstens als persönlich kommunizierte Entscheidungsprämissen, denn es benötigt Personal bzw. Personen, um Entscheidungen (überhaupt) kommunizieren zu können. Des Weiteren ist es von zentraler Bedeutung, dass Entscheidungen stets auf Personen und Stellen zurechenbar sind. Zweitens als Personalentscheidungen, also künftige Entscheidungen über bestimmte Personen. »Mit Personalentscheidungen wird über Stellenbesetzungen und damit über Entscheidungsprämissen entschieden« (Luhmann 2000: 288). Es gehe demzufolge um Mitgliedschaft im System oder um Stellenbesetzungen (Einstellung, Entlassung, Beförderung, Degradierung).3 Durch Personalentscheidungen bilden sich in der Organisation sogleich Karrieren. »Sobald es unterschiedlich bewertete Stellen gibt, bilden sich Karrieren«, schreibt Luhmann (ebd.: 297). Karrieren stellen eine personenbezogene Beobachtungsform dar. Hierbei werden feste und bewertete Indikatoren erforderlich, wie

3

Bei Personalentscheidungen unterschiedet Luhmann weiter zwischen Rekrutierungsentscheidungen und Versetzungsentscheidungen. Während bei Rekrutierungsentscheidungen die Person (als Individuum) der Organisation unbekannt ist, ist sie ihr bei Versetzungsentscheidungen bekannt. Dies wirft die Frage auf, wie über das einzustellende Personal entschieden werden soll, wenn es der Organisation unbekannt ist. Hier erweisen sich Instrumente wie Lebensläufe, Zeugnisse, Vorstellungsgespräche, Empfehlungen, externe Gutachten oder anschließende Probezeiten als hilfreich: »Ein allgemeiner Qualitätsfilter wird vorgeschaltet, um dann durch Vergleich verschiedener Bewerber, die für eine engere Auswahl in Betracht gezogen werden, die Entscheidung zu treffen« (Luhmann 2000: 290).

49

50

Publikumsbeobachtung im digitalen Wandel

bspw. Zensuren in der Schule, anhand derer Erfolg und Misserfolg gemessen werden kann und wodurch zugleich Anreiz- und Belohnungssysteme entstehen. Im Hinblick auf die Organisation kann von einer permanent laufenden Selbstbeobachtung des Organisationssystems gesprochen werden, bei der die Beobachtungsform ›Karriere‹ maßgeblich ist (vgl. ebd.: 299f.). »Karrieren sind nach all dem die Form, die Individuen und Organisationen integriert; wobei integriert heißt: wechselseitig beschränkt. Jede einzelne Stelle muss ja so definiert sein, dass sie durch verschiedene ›geeignete‹ Personen besetzt werden kann. Von den Stellen aus gesehen, haben alle Individuen Doppelgänger. Nicht die Stelle also, sondern nur die Karriere gibt den Personen, und folglich den Individuen, die sich als Personen einbringen, ein individuelles Profil« (ebd.: 301). Das hier vorgestellte Konzept der »Karriere« samt seiner Annahme von »Doppelgängern« verweist – zumindest indirekt – auf organisationsinterne Wettbewerbs- und Konkurrenzverhältnisse. Diese organisatorischen Binnenverhältnisse werden im empirischen Teil der Arbeit insofern von Bedeutung sein, als dass im Kontext der Digitalisierung und mit der Einführung von Verdatungssystemen in die Organisation neue wechselseitige Wahrnehmungs- und Beobachtungsmöglichkeiten des Personals (in Form von einzelnen Stellen, Teams oder ganzen Abteilungen) entstehen (Kap. 7.3).

3.1.2.3

Kommunikationswege

Die Kommunikationswege bilden nach Luhmann eine dritte Entscheidungsprämisse. Die Organisation der Organisation – die Organisationsplanung und Einrichtung der Kommunikationswege – ist demnach von grundlegender Bedeutung. Erst durch die kommunikative Vernetzung des Systems kann die Systemstruktur (Programme und Personal) verknüpft werden (vgl. Luhmann 2000: 327). Die vom Personal besetzten Stellen sind dabei nicht als isoliert arbeitende Stellen zu verstehen: »Erst ihre Verknüpfung durch Kommunikation bestimmt und variiert die zu erfüllenden Anforderungen. Dabei geht es nicht um ein bloßes Zusammenfügen für sich bestehender Einheiten. Vielmehr erhalten die Stellen ihr eigentümliches Profil erst aus dem, was woanders geschieht« (ebd.; Hervorhebung im Original). Organisationen sind folglich dynamische Systeme, weshalb fortwährend kontrolliert werden müsse, was an anderen Stellen passiert und was gegebenenfalls geändert oder angepasst werden muss. Die Kommunikationswege beschreiben somit, wie Entscheidungen organisationsintern kommuniziert werden. Luhmann (ebd.: 306ff.) differenziert hier zunächst zwischen einer strukturellen Ebene, wofür er den Begriff der Kompetenzen verwendet, und einer operati-

3 Organisation, Quantifizierung und Digitalisierung

ven Ebene, die der (tatsächlich benutzten) Kommunikationswege. Auf struktureller Ebene bedarf es an unterschiedlichen fachlichen Kompetenzen des Personals. Neben dem fachlichen Können, welches mit der Person rekrutiert oder an ihr ausgebildet wird, sind innerhalb der Organisation außerdem hierarchische Kompetenzen erforderlich. Diese Weisungsbefugnisse werden, im Gegensatz zur fachlichen Kompetenz, jedoch intern erzeugt und zugewiesen. Für die oben angesprochene kommunikative Vernetzung des Systems sind zunächst vom Personal besetzte Stellen notwendig, die den Kommunikationen als Adressen dienen. Die Kommunikationswege ergeben sich dann aus der Festlegung von Zuständigkeiten und Verantwortlichkeiten der Stellen (vgl. ebd.: 316). Die Stellen müssen folglich dahingehend definiert werden, welche Aufgaben von ihnen zu erwarten und auszuführen sind (fachliche Kompetenz), und welche hierarchischen Kompetenzen mit ihnen einhergehen (Grad der Zuständigkeit für das Verbindlichmachen von Entscheidungen). Erst bei einer solchen generellen Regelung kann von Entscheidungsprämissen gesprochen werden. Kommunikationswege haben nun den Sinn des Transports von Kompetenz, die in einem Entscheidungsprozess benötigt wird (vgl. ebd.: 319). Kommunikationswege bergen jedoch auch die Gefahr des Informationsverlusts, weshalb sie idealerweise nicht über mehrere Stellen vermittelt, sondern so kurz wie möglich gehalten werden. Im Sinne der Organisationsplanung gehe es vor allem darum, Kommunikation »beweglich« zu gestalten, sodass möglichst adressatengerecht Kompetenzen aktiviert werden können. Von besonderer Bedeutung ist auch das Gedächtnis des Systems, welches erinnern und vergessen kann bzw. muss. Denn durch die fortwährend kommunizierten Entscheidungen irritiert sich das System selbst. »Es gibt laufend etwas zu tun, wenn andere etwas getan haben«, schreibt Luhmann (2000: 317) und verweist darauf, dass riesige Mengen an Informationen in das System hineinorganisiert werden. Um Doppelarbeit zu vermeiden und die Komplexität zu reduzieren, benötigt es folglich ein Systemgedächtnis, auf das in solchen Situationen zurückgegriffen werden kann. Vor allem die elektronische Datenverarbeitung kann hier Abhilfe schaffen, weil sie das Systemgedächtnis im Umgang und in der Speicherung von Informationen entlastet. Mit der Organisation der Organisation – der kommunikativen Vernetzung durch Kommunikationswege – wird zusammenfassend die Funktion der Reflexion der Organisation in die Organisation eingebaut. Generell geht es um die Frage, »welche Informationen, welches Wissen, welche Entscheidungen in das formale (und damit abgreifbare) Netzwerk eingespeist werden können, sollen, müssen – und welche nicht« (ebd.: 326). Neben dieser Formalität ist Informalität (siehe z.B. den »kurzen Dienstweg«) ebenfalls hochgradig funktional für die Organisation, da nicht alles oder jede Situation formalisiert werden kann. Die Selbstbeobachtung des Systems nimmt für die Organisation, wie gezeigt, eine zentrale Funktion ein. Luhmann (ebd.: 328) stellt zu seiner Zeit dabei die These auf,

51

52

Publikumsbeobachtung im digitalen Wandel

dass der Einbau von Reflexionsschleifen – verstanden als organisatorische Vernetzungen, wie z.B. die elektronische Datenverarbeitung – der Selbstbeobachtung des Systems hilfreich sind. Die zentrale Frage wäre dabei: »in welchen Messeinheiten die Operationen überhaupt erfasst und auf Vergangenheit/Zukunft-Differenzen hin beobachtet werden können. Hier sind Organisationen des Wirtschaftssystems deutlich im Vorteil, weil sie ohnehin über eine ausgebaute Kostenrechnung verfügen, die durch in sie übersetzbare Kennziffern ergänzt werden können. Die einschlägigen Forschungen beziehen sich denn auch hauptsächlich auf Industrieverwaltungen. Anders orientierte Organisationen werden, weil ihre Erfolge bzw. Misserfolge nicht über Marktdaten ins System eingespeist werden können, mit ›Schätzungen‹ arbeiten müssen, und es wird für sie immer eine ›politische‹ Frage sein, wenn diese Schätzungen auf Grund von Erfahrungen revidiert werden müssen« (ebd.: 328f.). Diese Überlegungen sind mit Blick auf die immer weiter voranschreitende, gesellschaftsweite Digitalisierung und die zunehmende Verdatung von Organisationen aktueller denn je. Während im Vergleich zu Wirtschaftsorganisationen auch »anders orientierte Organisationen« sich immer mehr mit elektronischer Datenverarbeitung auseinandersetzen (müssen), besteht für Organisationen allgemein weiterhin eine große Herausforderung in der Beantwortung der Frage, wie der eigene Erfolg und Misserfolg mittels welcher Daten und Indikatoren ge- und vermessen werden sollen. Die zunehmende Digitalisierung ermöglicht organisationale Verdatungsmöglichkeiten, die sukzessiv von Organisationen entdeckt werden und ihr Interesse wecken. Diese hier durch Technik (Verdatungssysteme) realisierte Selbstbeobachtung des Systems sowie die daraus resultierenden intendierten wie nichtintendierten Folgen werden im empirischen Teil der Arbeit veranschaulicht.

3.1.2.4

Exkurs: Entscheidbare, unentscheidbare und nicht entschiedene Entscheidungsprämissen –  Zum Begriff der Organisationskultur

In Rückgriff auf die im letzten Kapitel angesprochene Relevanz und Funktionalität von Informalität in Organisationen wird im Folgenden kurz der Begriff der Organisationskultur vorgestellt. Organisationskulturen entstehen dort, wo Probleme auftreten, die nicht durch Anweisungen gelöst werden können, schreibt Luhmann (2000: 241). Oder mit anderen Worten: »Organisationskultur entsteht dadurch, dass einzelne Entscheidungen wiederholt getroffen werden und so eine Erwartungshaltung in Bezug auf ähnliche Entscheidungen entsteht, ohne dass dies aber durch eine Entscheidung der Organisation als Entscheidungsprämisse festgelegt wurde« (Kühl 2019: 16).

3 Organisation, Quantifizierung und Digitalisierung

Während die festgelegten (entschiedenen) Entscheidungsprämissen also die Formalstruktur der Organisation beschreiben, lässt sich nach Kühl (2018, 2019) über die nichtentschiedenen (aber prinzipiell entscheidbaren) Entscheidungsprämissen die informale Erwartungsstruktur – die Organisationskultur – auch empirisch beobachten und bestimmen. In Anlehnung an Luhmann (2000) und Rodríguez (1991), die bereits zwischen entscheidbaren und unentscheidbaren Entscheidungsprämissen unterscheiden und die Organisationskultur als nichtentschiedene Entscheidungsprämissen verstehen, arbeitet Kühl (2019) die Vorteile einer engen organisationssoziologischen Begriffsbestimmung über die Differenzierung zwischen nichtentschiedenen Entscheidungsprämissen und unentscheidbaren Entscheidungsprämissen heraus. Nach Kühl würden die beiden Begriffe Informalität und Organisationskultur das gleiche Phänomen beschreiben: nämlich nicht entschiedene, aber prinzipiell entscheidbare, Entscheidungsprämissen (vgl. Kühl 2018: 7).4 Diese würden sich bspw. in informalen Netzwerken, verdeckten Anreizstrukturen oder impliziten Denkschemata wiederfinden. So gäbe es in Organisationen Erwartungen, die zwar grundsätzlich formalisierbar seien und deren Einhaltung als Mitgliedschaftsbedingung kontrollierbar wäre, die in formalisierter Form jedoch nicht auftreten. Hierbei sei bspw. an die bekannten »kurzen Dienstwege« zu denken, die sich prinzipiell auch als »offizielle Dienstwege« formalisieren lassen würden. Demgegenüber gibt es Erwartungen, die sich als formale Mitgliedschaftsbedingung gar nicht formulieren lassen – die unentscheidbaren Entscheidungsprämissen (vgl. Kühl 2019: 7f.). Beispiele hierfür sind das »implizite Wissen« und dessen Anwendung oder Erwartungen wie »Sei kreativ«, »Sei authentisch« oder »Sei innovativ«. Die Überwachung oder Kontrollierbarkeit dieser Erwartungen lässt sich hierbei nicht realisieren. Nicht selten hätten jene Versuche, unentscheidbare Entscheidungsprämissen zu formalisieren, den gegenteiligen Effekt erzeugt: das aktive Unterlaufen oder Ignorieren der als übergriffig empfundenen Ansprüche. Es zeigt sich also, dass nicht alles (nicht alle Entscheidungsprämissen) in einer Organisation formalisierbar ist und dass dies »auch gut so« resp. hoch funktional ist. Denn durch formale Entscheidungen bilden sich auf informaler Ebene oftmals Ausgleichsprozesse aus, die der Anpassung, Ergänzung oder Abweichung dienen. Eine verstärkte Formalisierung führe letzten Endes sogar zu einer Zunahme von Verstößen auf der Ebene der Organisationskultur (vgl. Kühl ebd.: 9-14). Organisationskultur kann zudem als ein wichtiges Hindernis geplanter Innovationen verstanden werden: »[D]enn nur wer im Sinne des bisher Üblichen handelt, kann davon ausgehen, dass er Konsens findet. […] Ein Wandel der Organisationskultur

4

Siehe für Argumente und »Potenziale« solch einer engen Begriffsbestimmung von Organisationkultur im Kontext dieser Forschungsdebatte insbesondere Kühl 2019: 16f.

53

54

Publikumsbeobachtung im digitalen Wandel

wird oft durch einen gesellschaftlichen Wertewandel induziert sein«, so Luhmann (2000: 245). Diese kurzen theoretischen Ausführungen zum Begriff der Organisationskultur sind insofern relevant für die Arbeit, da mit dem Einzug von Daten in die Zeitungsredaktion etwas grundsätzlich Neues (Innovationen) in die Massenmedienorganisation resp. ihre Strukturen eingeführt wird: Verdatungssysteme und die daraus entstehenden neuen Potenziale und Möglichkeiten der Selbst- und Umweltbeobachtung. Mit der Verdatung geht notwendigerweise, so die Annahme, ein Organisationswandel einher, der sich ebenfalls auf der Ebene der Organisationskulturen5 beobachten lässt. So sind mit der Einführung von Daten in das Redaktionssystem sich neu bildende informelle Praktiken und Praxen im Umgang mit den Daten zu erwarten, zugleich aber auch Widerstände und Konflikte. Die Fragen nach Formalisierung(sgraden), Formalität (entschiedene Entscheidungsprämissen) und Informalität resp. Organisationskulturen (nicht entschiedene, aber prinzipiell entscheidbare Entscheidungsprämissen) sind im Kontext der Digitalisierung und Verdatung von Organisationen daher höchst spannend und verweisen auf theoretische Konzepte, mithilfe derer die Publikumsbeobachtung der Massenmedien und ihr Wandel unter Internetbedingungen (auch empirisch) beobachtbar gemacht und untersucht werden können. Im nun folgenden Kapitel wird im Anschluss hieran das Verhältnis von Technologie und Organisationswandel genauer betrachtet.

3.1.3

Technologie und Organisationswandel

Der Einsatz von Technik bzw. Technologien ist für und in Organisationen höchstrelevant. Der Computer, samt seinen organisationsentlastenden Funktionen und Leistungen, ist aus dem Alltag von Organisationen nicht mehr wegzudenken. Wenn neue Geräte oder Technologien in ein gegebenes System eingeführt werden, hat dies strukturelle Konsequenzen (vgl. Luhmann 2000: 363). Die aus der Technik neu entstehenden Kopplungen führen zu neuen bzw. veränderten Arbeitsabläufen in der Organisation und zum Aufgeben alter und Entwickeln neuer Gewohnheiten. Insbesondere der Einsatz von Computern verändert die Kommunikationswege und Entscheidungskompetenzen in Organisationen (vgl. ebd.: 365). Von einer Automation, d.h. technologischen Determination des sozialen Systems, sei nicht auszu5

Mit der Verwendung des Singulars (Organisationskultur) schleicht sich leicht die Vermutung ein, dass eine Organisation nur eine Organisationskultur hat und diese einigermaßen konsistent gehandhabt werden kann (vgl. Luhmann 2000: 242). Jedoch können in einer Organisation durchaus verschiedene Organisationskulturen beobachtet werden. Das Konzept der Begriffsdefinition über nichtentschiedene Entscheidungsprämissen lässt hieran anschließend auch offen, auf welcher Ebene der Organisation die Organisationskulturen gelten: Ob in einzelnen Teams, Abteilungen oder in der gesamten Organisation (vgl. Kühl 2019: 16).

3 Organisation, Quantifizierung und Digitalisierung

gehen, da die organisatorische Einbettung von Computern wiederum stets eine Frage von Entscheidungen ist. Es muss folglich von der Organisation selbst entschieden werden, ob und an welcher Stelle computerisierte Automatisierungs- und Informationsverarbeitungsprozesse eingesetzt werden sollen. Der Einsatz von Technik ermöglicht nach Luhmann das Erkennen von Irregularitäten. Störungen würden buchstäblich auffallen und es könnte herausgefunden werden, wie diese zu beseitigen sind.6 Technik, Luhmann macht dies am Beispiel des Computers deutlich, erweitert zudem die Gedächtnisleistungen des Systems. Durch Technologie werden neue Selbstbeschreibungen des Systems erzeugt mit unabsehbaren, entscheidungsbedürftigen Anschlussmöglichkeiten (vgl. ebd.: 373ff.). Computer resp. Technologien erschaffen in der Organisation somit neue Beobachtungsperspektiven: »Sie erzeugen neue Möglichkeiten, Alternativen zu sehen«, schreibt Luhmann (ebd.: 376). Technologie führt aber auch zu Folgeproblemen innerhalb der Organisation. So können Abhängigkeiten entstehen und es muss Risikovorsorge getroffen oder kostenintensiver Sicherungsaufwand betrieben werden. Trotz vieler Vereinfachungen, die feste technische Kopplungen bieten, bergen sie gleichzeitig das Risiko eines Konsensersatzes – was Luhmann (2000: 372) jedoch nicht als gefährlich, sondern als funktional für die Organisation beschreibt: »Innerhalb der Computer, bei ihren ›unsichtbaren Maschinen‹ ermöglichen sie ein Arbeitstempo, das bewusstseinsmäßig nicht mehr nachvollzogen und kontrolliert werden kann. Vor allem reduziert die Technik den Konsensbedarf. Das Funktionieren selbst kann vorausgesetzt werden; und zwar so vorausgesetzt werden, dass man voraussetzen kann, dass auch die anderen es voraussetzen. Sie stellt artifizielle Objekte zur Verfügung, die zugleich als Konsensersatz dienen. […] Selbst die Theorien, die für ein wissenschaftliches Verstehen und Erklären technischer Vollzüge notwendig wären, braucht man beim Gebrauch von Technik nicht zu kennen«. Anzumerken ist hierbei allerdings, dass das Personal für den Umgang mit der Technik geschult werden muss, d.h. entsprechende Kompetenzen entwickelt werden müssen, um die Technologie hinsichtlich der damit verfolgten Zwecke adäquat anwenden zu können. Auch wenn der Computer Vollzüge übernimmt, so ist das Wissen darüber hilfreich, warum Programme so funktionieren, wie sie funktionieren. Dies zeigt sich vor allem beim Einsatz immer komplexer werdende Softwareprogramme, die mittels (intransparenter) Algorithmen Daten erheben, verarbeiten und auswerten. Die Programme operieren hier nach bestimmten Logiken –

6

»Die Zeit scheint nicht fern zu sein, in der ein Auto seinen Fahrer über Eigenarten seines Fehlverhaltens unterrichten wird«, schrieb Luhmann (2000: 375) gewissermaßen vorausahnend.

55

56

Publikumsbeobachtung im digitalen Wandel

und zwar nicht zwingendermaßen nach denen der eigenen Organisation, sondern denen der Programmentwickler. Organisationswandel Technologie und technologische Innovationen können zu organisationalen Restrukturierungen und neuen Ausrichtungen führen. Organisationswandel definiert Luhmann (ebd.: 331) wie folgt: »Der Begriff des organisatorischen Wandels bezieht sich immer und ausschließlich auf die Strukturen des Systems, nie auf seine Operationen, nie also auf die Ebene, auf der die Dynamik des Systems sich realisiert. Denn Operationen (hier: Entscheidungen) sind immer Ereignisse, die sich nicht ändern können, sondern in ihrem Entstehen schon wieder vergehen. Die Dynamik des Systems ist gleichsam existenziell garantiert; aber sie erscheint nur in der Form von Strukturänderungen. Und organisatorischer Wandel ist immer beobachtete Änderung« (Hervorhebung im Original). Die Organisationsstrukturen bestehen, wie weiter oben vorgestellt, aus Entscheidungsprämissen (Programme, Personal und Kommunikationswege). Innovationen (Reformen) beziehen sich in diesem Verständnis stets auf jene Entscheidungsprämissen. Organisationswandel bzw. die Forderungen hiernach werden nach Luhmann (2000: 336) auf zwei unterschiedliche Formen ins Leben gerufen: Einerseits als bessere Anpassung an Ideen (z.B. familienfreundlichere Arbeitsbedingungen) und andererseits als bessere Anpassung an Realitäten (z.B. Medienwandel). Durch Reformen werden neue Selbstbeobachtungmöglichkeiten gewonnen. Die Poesie der Reformen, wie Luhmann formuliert, zielt dabei auf konsenssichere Konstruktionen ab: Es werden Werte formuliert oder Tatsachen konstruiert. Die tatsächliche Beschreibung der angestrebten Zukunft bleibt jedoch unbestimmt, weshalb Reformen (Innovationen) in erster Linie auch als Mittel und Verfahren vorgestellt werden. Oftmals wird eingestanden, dass die Ergebnisse insgesamt betrachtet nicht vorhersehbar seien und die Durchführung der planmäßigen Neuerung demzufolge ein strategischer Prozess ständigen Lernens sei. Auch die Bezeichnung der Reformen als »Experimente« sei nicht untypisch. Der Vorteil besteht darin, dass nichts festgelegt und alles offen sowie – je nach Ergebnisausgang – reversibel ist (vgl. ebd.: 339f.). Das Problem der unbekannten Zukunft werde nicht selten durch den Verweis auf andere Organisationen, die ebenfalls Reformen durchgeführt haben, entschärft und als eine Art Musterschablone für die eigene Organisation genutzt – mit dem Vorteil, entsprechend gemachte Erfahrungen beobachten und sich zu eigen machen zu können. Mit diesem Verständnis von Organisationswandel geht es also um Entscheidungsprämissen, die geändert werden. Zuständigkeiten können verändert, Pro-

3 Organisation, Quantifizierung und Digitalisierung

gramme hinzugefügt, aufgegeben oder in die Umwelt ausgelagert werden. »Reformen sind somit«, so Luhmann (ebd.: 342), »in erster Linie Defizienzbeschreibungen vor dem Hintergrund der Annahme, es könne besser gemacht werden«. Diesen beobachteten und festgestellten Mängel bzw. Defizite gilt es sodann zu beheben. Die Vergangenheit werde schlecht gemacht, damit die Zukunft besser sein kann. Auslöser für Organisationswandel ist oftmals eine – teilweise zu starke – Orientierung an der Umwelt. Eine Organisation müsste dabei beachten, nicht zu schnell und häufig ihre Strukturen zu ändern. Denn auch wenn Innovationen im üblichen Sprachgebrauch positiv bewertet werden, so kann bei Änderungen viel falsch gemacht werden (vgl. ebd.: 359f.). Heutzutage sind besonders erfolgreiche Organisationen gefährdet, weil notwendige Umweltanpassungen und organisationale Lernerfordernisse durch zahlenbasierte Erfolge verdeckt werden. Da die Ergebnisse stimmen, werde auch kein Grund oder Bedarf gesehen, diese durch Innovationen und Veränderung zu gefährden. Während Organisationswandel zusammengefasst also immer beobachtete und beobachtbare Änderung der Organisationsstrukturen (Entscheidungsprämissen) beschreibt, verweist der praxisorientierte Begriff der Organisationsgestaltung hingegen auf die angestrebten und notwendigen Prozesse, um Organisationswandel herbeizuführen. Hierbei geht es vor allem um das Erkennen von Beobachtungslatenzen und der entsprechenden Sichtbarmachung von ausgeblendeten Alternativen in der Organisation (vgl. Kühl/Muster 2016: 43ff.). Dazu müssen beobachtungslatente Strukturmerkmale identifiziert und diskutiert werden.7 Neben den Beobachtungslatenzen existieren in einer Organisation auch Kommunikationslatenzen, die die Unmöglichkeit beschreiben, bestimmte Themen in einer Kommunikation zu adressieren. Organisationsgestaltung kann insgesamt als ein aktiver Prozess verstanden werden, bei dem aus einer Fremdbeobachtungsperspektive heraus die dominanten Realitätskonstruktionsmuster der Organisation in den Blick genommen sowie spezifische Blindheiten und daraus resultierende Folgen thematisiert werden. Organisationsgestaltung und auch Organisationswandel treffen dabei nicht selten auf Widerstände. Nachdem nun die relevanten organisationssoziologischen Konzepte der Arbeit (Kap. 3.3.1-3.3.3) vorgestellt wurden, beschäftigt sich das folgende Kapitel mit der zahlenbasierten Selbstbeobachtung und Selbstbeschreibung von Organisationen. Ausgehend von der Beschäftigung mit der Publikumsbeobachtung der Massenmedien auf Organisationsebene (Kap. 2) wird sich mit der Frage auseinandergesetzt,

7

Eine solche Möglichkeit – das Sichtbarmachen und Wahrnehmen von ausgeblendeten Alternativen (Beobachtungslatenzen) – bieten, wie sich im weiteren Verlauf und besonders in der empirischen Fallanalyse noch zeigen wird, die Potenziale der Verdatung. Daten können dabei allerdings Gefahr laufen, kommunikationslatent zu sein (und bleiben).

57

58

Publikumsbeobachtung im digitalen Wandel

was passiert, wenn Zahlensysteme in Organisationen eingeführt werden. Hierzu werden organisationssoziologische und zahlensoziologische Überlegungen zusammengeführt.

3.2

Organisationale Selbstbeobachtung im Medium von Zahlen. Funktionen und Folgen numerischer Bezugsrealitäten

»Kaum eine Organisation kommt an Zählpraktiken vorbei – und sei es das Zählen ihrer Mitglieder«, schreibt Schäffer (2017: 76). Praktiken und Prozesse des Zählens, (Ver-)Messens, Vergleichens sowie das Betreiben »derivativer Zahlenspiele« (Vollmer 2004: 450) können als konstitutiv für Organisationen angesehen werden. Innerorganisationales Zählen und Messen ist folglich allgegenwärtig.8 Die Form der Quantifizierung scheint für Organisationen dabei besonders verheißungsvoll. Sie wird, wie dieses Kapitel darlegt, vor allem zur organisationalen Selbstbeobachtung genutzt – jedoch bleibt die Einführung entsprechender Zahlensysteme organisational nicht folgenlos.

3.2.1

Zum (kommunikationstheoretischen) Erfolg von Quantifizierungen in Organisationen

Numerische Vergleiche können nach Heintz (2010: 164) als Beobachtungsinstrumente verstanden werden, durch die eine Beziehung zwischen Einheiten oder Ereignissen hergestellt wird. Quantifizierungen transformieren, mit anderen Worten, soziale Phänomene in eine organisierbare, komplexitätsreduzierende und handhabbare Größe (vgl. Vormbusch 2007: 54). Sie besitzen eine hohe kommunikative Anschlussfähigkeit, weil Zahlen grundsätzlich vertraut wird und sie scheinbar objektiv sind. Für die Selbstbeschreibung und Selbstbeobachtung von Organisationen erweisen sich Zahlen und Quantifizierungen also in einem ersten Zugriff insofern als funktional, weil sie anschlussfähiger sind als z.B. Erzählungen oder Beschreibungen: »Numbers travel better and faster than words«, zitiert Schäffer (2017: 91) Porter (1995).9 Sie sind zudem schwerer negierbar: »Während Sprache aufgrund ihrer binären Struktur über das Gegebene hinaus verweist und damit gewissermaßen von selbst Kontingenz erzeugt, ist in nume-

8

9

Siehe beispielhaft zum Hochfrequenzhandel Schwarting (2015), zum Hochschulbereich Espeland/Sauder (2007), Münch (2015) und Schäffer (2017), zum Gesundheits- und Krankenhauswesen Molzberger (2020) oder zum organisationalen Einsatz der Unternehmenssoftware SAP Mormann (2013, 2016). Siehe hierzu auch Heintz 2010: 174ff.

3 Organisation, Quantifizierung und Digitalisierung

rische und visuelle Repräsentationen nicht von vornherein eine Alternativfassung eingebaut« (Heintz 2007: 78). Quantifizierungen liefern somit eindeutigere Entscheidungsgrundlagen und befördern die (De-)Legitimation von Entscheidungen. Sie sind unverdächtig, erzeugen Plausibilität und Akzeptanz, wodurch ihnen kommunikationstheoretisch eine hohe Erfolgswahrscheinlichkeit zugesprochen wird (vgl. Heintz 2010). Zugleich versprechen sie immer weitere Erfolgs- und Optimierungsmöglichkeiten, was nicht zuletzt aber auch zu Wettbewerbsintensivierungen führt, weil die Messlatte für Erfolg immer weiter nach oben rückt (vgl. Keller 2019). Organisationsintern können Quantifizierungen, wie Gruber (2015) zeigt, als relevante Steuerungs-, Kontroll- und Planungsinstrumente verstanden werden. Organisationen – vor allem ihre Manager – seien begeistert von Zahlen und fasziniert von den Möglichkeiten der Quantifizierung: »Für das Management von Organisationen haben Zahlen einen ganz besonderen Reiz, wenn sie als Direktiven für Entscheidungen verstanden werden. Zahlen und die darauf aufbauenden Visualisierungen und Diagrammen wirken per se glaubwürdig, denn sie suggerieren Objektivität, Neutralität und Unabhängigkeit. Um soziale Phänomene angemessen einschätzen und Entscheidungen über sie treffen zu können, erscheint es Managern daher häufig geradezu als Königsweg, sie zahlenmäßig auszumessen und sich dann an Übereinstimmungen oder Differenzen zwischen quantifizierten Ergebnissen zu orientieren« (Gruber 2015: 8). Während Zahlen grundsätzlich also auf die Befriedigung gewisser Erwartungen in Organisationen abzielen, eignen sie sich darüber hinaus dazu, »Dritte« (nicht direkt Beteiligte oder Betroffene wie z.B. die Geschäftsleitung, den Vorstand, direkte Vorgesetzte etc.) zufriedenzustellen (vgl. ebd.: 91). Zahlen wirken somit immer auch stabilisierend auf die Organisation. Hierin zeigt sich die organisationale »Attraktivität« wie Funktionalität von Zahlen: Vieles scheint vermessbar, auswertbar und infolgedessen auch optimierbar zu sein. So verwundert es nicht, dass Heintz (2019) vom Zeitalter des Superlativs spricht: »gut – besser – am besten«. Nicht mehr das Normale, sondern das Herausragende oder Außergewöhnliche wird prämiert, wodurch eine endlose Spirale der Leistungssteigerung und Überbietung entsteht (vgl. ebd.: 75). Numerische Bezugsrealitäten ermöglichen neue und spezielle Beobachtungsformen von Wirklichkeit (vgl. Heintz 2007: 75, Mennicken/Vollmer 2007: 10, Wehner 2010: 188ff.). Auf was Zahlen letztendlich verweisen (sollen), ist jedoch eine Frage kontingenter Rahmungsaktivitäten in konkreten sozialen Situationen (vgl. Vollmer 2013: 41). Nach Cevolini (2014: 22ff.) erzeugt die Verwendung von Zahlen in Organisationen eine Realitätsverdopplung, die einerseits Orientierung bietet und andererseits die Illusion verschafft, die Realität unter Kontrolle zu halten. Dabei er-

59

60

Publikumsbeobachtung im digitalen Wandel

folgt eine Umkehrung von Zuschreibungen in der System-Umwelt-Beziehung. So werden Folgen von Verhalten, die extern der Umwelt zuzurechnen wären, intern den Handelnden zugerechnet. Hierdurch werde eine eigentlich unkontrollierbare Situation (Umwelt) in eine Situation der Kontrollierbarkeit (System) umgewandelt, was zugleich aber auch zu einer »Explosion von Entscheidungsnotwendigkeiten« im System führt: »Die Möglichkeit, Zahlenmessungen der eigenen Leistungen zu berücksichtigen, setzt Organisationen zunächst in die Lage, die reine Zirkularität ihrer Selbstreferenz zu unterbrechen und die Illusion des Vorhandenseins eines Blickwinkels zu erzeugen, von welchem aus sich das System selbst beschreiben kann, als ob es sich von außen beobachtete. Die Nebenfolge der Verbreitung besteht aber darin, dass eine Beobachtung dritter Ordnung in Gang gesetzt wird und dadurch eine Öffentlichkeit entsteht, innerhalb derer jeder beobachten kann, dass alle damit rechnen, dass alle beobachtet werden« (ebd.: 28). Cevolini verweist hier auf den Umstand, dass durch Quantifizierung immer auch Sichtbarkeiten über organisationale Strukturen, Vorgänge und Abläufe erzeugt werden. Es entstehen Einsichten in das Organisationsgeschehen, die zugleich neue Vergleichs- und Bewertungsmöglichkeiten entstehen lassen. Es formiert sich in der Folge eine organisationale Öffentlichkeit, die sich dessen bewusst ist, dass sie (die Organisation im Ganzen sowie ihre Abteilungen und mitunter auch Mitglieder) numerisch beobachtet werden. Die zentralen Fragen, die sich hier nun stellen, sind a) welche generellen Folgen mit der Einführung von Zahlensystemen (Quantifizierungen) in Organisationen einhergehen, und b) inwiefern das Wissen um das (eigene) Vermessen- und Beobachtetwerden die Operationen und das Organisationsgeschehen beeinflusst.

3.2.2

Zum Einfluss von Quantifizierungen auf das Organisationsgeschehen und die Autonomie von Organisationen

Einleitend ist festzuhalten, dass es nicht die »reinen« Zahlen sind, die zur organisationalen Selbstbeschreibung, Selbstbeobachtung und Entscheidungsfindung genutzt werden, sondern deren Aufbereitung und Visualisierung (siehe auch Schoeneberg/Pein 2014). Dies gilt es daher im Folgenden kurz zu beschreiben: »Nicht auf die Zahlen allein, also die numerische Differenz, wird in organisationalen Selbstbeschreibungen vertraut, sondern ihre persuasive Kraft entfalten Zahlen durch Aufbereitungen in Diagrammen und durch die Einbettung in entsprechende Narrative. Es wird gewissermaßen auf die Überzeugungskraft der

3 Organisation, Quantifizierung und Digitalisierung

Kombination numerischer, ikonischer und literaler Differenz gesetzt« (Schäffer 2017: 90).10 Es ist folglich der organisierte Umgang mit den Zahlen, der sie für die Organisation operativ anschlussfähig macht und differenzierte Beobachtungs- und Bewertungsmöglichkeiten erlaubt (vgl. auch Vollmer 2004: 257). Entsprechend müssen organisationsintern Handlungsstrategien und Kompetenzen für den praktischen Umgang mit Zahlen entwickelt und diese den zuständigen Organisationsmitgliedern vermittelt werden (vgl. Vormbusch 2007: 57f.). Dass im Umgang mit numerischen Bezugsrealitäten immer auch folgenreiche Fantasien einhergehen können, zeigt Vollmer (2013). Zahlen würden demnach hintergründig stets auf unentdeckte und ausgelassene Potenziale hinweisen. In ihnen werde eine verborgene Wirklichkeit gesucht, wodurch ein fantasierender Blick auf Zahlen entsteht, der sich als spekulativ und riskant erweisen kann. Dies wird dadurch ermöglicht, dass Zahlen mehrfach lesbar und interpretierbar sind, was deren Auswertung wiederum erschwert und letztendlich zu dem von Vollmer beschriebenen »fantastischen Realismus« führt. Am Beispiel von Bildungsorganisationen (Hochschulen) zeigt Schäffer (2017), dass in der Selbstbeschreibung der Erfolg im Medium von Vergleichszahlen kommuniziert wird. Dabei könne auch die vermeintlich sinnlose Messung von Reiseaktivitäten (Dienstreisen) als sinnvoll und funktional verstanden werden, wenn sie als Indikator für die Organisationsziele »Internationalität und Mobilität« aufgefasst bzw. interpretiert werden. Hochschulrankings sind inzwischen kein neues Phänomen mehr. Mit ihrer Studie zum Ranking amerikanischer Law Schools durch das Nachrichtenmagazin U.S. News & World Report zeigen Espeland/Sauder (2007) eindrucksvoll die organisationalen Folgen eines organisationsvergleichenden Rankings.11 Sie stellen dabei den Mechanismus bzw. das Konzept der Reaktivität vor, welches besagt, dass durch das Wissen um das (eigene) Vermessen- oder Beobachtetwerden eine Verhaltensänderung erfolgt: »the idea that people change their behavior in reaction to being evaluated, observed, or measured« (ebd.: 1). Reaktivität ist demnach als eine Form von Reflexivität zu verstehen. Rankings verändern, mit anderen Worten, die Situationsdefinition. Aus der Sozialpsychologie ist bekannt, dass Indikatoren, die ein Verhalten messen sollen, einen direkten Einfluss auf das Verhalten einüben (vgl. Münch 2015: 152). Das gelte umso mehr, je mehr Belohnungen an den Indikator geknüpft sind. Durch Zahlen und deren Aufbereitung (bspw. in Rankings, Graphen oder Kurven etc.) werden höchst relevante numerische Realitäten und zugleich handlungsanleitende Bezugssysteme geschaffen. So zitieren Espeland/Sauder (2007: 11) einen von ihnen interviewten Dekan: »[Rankings] are

10 11

Siehe zur Aufbereitung von Daten im Kontext der Massenmedien u.a. Thiele 2006 und Stauff/ Thiele 2007. Siehe zur Soziologie der Rankings auch Ringel/Werron (2019).

61

62

Publikumsbeobachtung im digitalen Wandel

always in the back of everybody’s head. With every issue that comes up, we have to ask, ›How is this impacting our ranking?‹« Die Autoren zeigen, dass Rankings organisationsinterne Strukturen und Entscheidungen wie bspw. die Definition von Zielen, Beurteilung von Fortschritt, Zulassung von Studierenden, Verteilung von Stipendien und Ressourcen, Entwicklung neuer Programme oder Erstellung von Budgets beeinflussen können. Quantifizierungen wirken dementsprechend auf die Entscheidungsprogrammierung von Organisationen ein. Eine rankingbezogene Sinnerschließung wirkt sich nach Espeland/Sauder nachhaltig darauf aus, wie Menschen mit anderen Menschen, aber auch mit anderen (gerankten) Institutionen umgehen. Neben systeminternen Einflüssen beeinflussen Zahlen demnach auch die Wahrnehmung über die Umwelt und über Umweltverhältnisse. Zu denken ist hier bspw. an eine numerisch geprägte Definition von Konkurrenz – wer folglich als Mitbewerber angesehen wird (und wer nicht). Ein weiteres anschauliches Beispiel über die zunehmenden Quantifizierungspraktiken und deren organisationalen Folgen stellt das Krankenhaus- und Gesundheitswesen dar (vgl. Molzberger 2020). Dieses ist – in den USA Mitte der 1970er, in Deutschland ab den 1990er Jahren – unter starken Ökonomisierungsdruck geraten, der zu einem epochalen Strukturwandel führte (vgl. ebd.: 25ff.). In seinen empirischen Untersuchungen und Analysen zeichnet Molzberger (ebd.: 229-336) eine drohende »Verkehrung des Gewöhnlichen« nach. Durch die Einführung des Fallpauschalensystems und der veränderten Funktion und Bedeutung des Controllings ist es – aus einer soziologischen Perspektive – fortan das Krankenhaus, welches mit immer mehr Patienten versorgt werden muss, um zu überleben. Kalkulative Praktiken sowie die Quantifizierung von Leistung und Verfehlung haben sich zu zentralen Steuerungs- und Kontrollinstrumenten entwickelt, die tief in die Autonomie der Ärzte eingreifen und zu nur schwer auflösenden Konflikten in ihrem professionellen Rollenverständnis führen, da sie neben der Gesundheit der Patienten (realisiert durch eine optimale Behandlung) auch für die wirtschaftliche Sicherheit des Hauses (realisiert durch eine entsprechend hohe Fallzahl) verantwortlich gemacht werden. Das zeitgenössische Krankenhaus befindet sich demnach zwischen Autonomie und Kalkulation (vgl. Molzberger 2020: 338ff.; so auch der Titel seines Buches). Die Controlling-Daten machen den ökonomischen Druck, dem das Krankenhaus ausgesetzt ist, sichtbar und weisen stets auf Optimierungspotenziale hin. Durch entsprechende Kennzahlen werden Leistungen und unterschiedliche Behandlungen zudem vergleichbar gemacht, was nicht zuletzt auch (neue) numerische Konkurrenzverhältnisse zwischen Ärzten und Abteilungen entstehen lässt und die Operationen sowie Autonomie der Organisation tiefgreifend beeinflusst. Mit Blick auf eine immer weiter voranschreitende Digitalisierung und Verdatung der Gesellschaft ist auffällig, dass es besonders Organisationen sind, die sich mit Quantifizierungen, Daten und relevanten numerischen Erfolgsindikato-

3 Organisation, Quantifizierung und Digitalisierung

ren auseinandersetzen (müssen). Diese noch junge Forschungsdebatte über das Verhältnis von Digitalisierung und Organisation wird im folgenden Kapitel aufgegriffen.

3.3

Organisation und Digitalisierung

Die Digitalisierung schafft für Organisationen zahlreiche neue Quantifizierungsmöglichkeiten, da mit ihrem Fortschreiten Unmengen an Daten digital produziert, verarbeitet und gespeichert werden. Mormann (2013, 2016) zeichnet am Beispiel des Einsatzes der Unternehmenssoftware SAP eine wechselseitige Dynamik einer immer komplexer werdenden informationstheoretischen Formalisierung (Darstellung und Verarbeitung von Daten) und organisationstheoretischen Formalisierung (zunehmenden Verregelung von Arbeits- und Kommunikationsabläufen, d.h. Festschreibung bestimmter Erwartungen an die Mitglieder) in Organisationen nach. Organisation und Technik passen sich wechselseitig an. Angefangen als bloßes technisches Werkzeug zur Datenverarbeitung habe sich die Software zum Organon für die Strukturierung von Organisation insgesamt entwickelt. Unternehmenssoftware kann Mormann (2013: 84) zufolge als eine Entscheidungsprämisse verstanden werden, »die den Spielraum für eine Mehrzahl von Entscheidungen einschränkt, sie jedoch nicht festlegt«. Die Einführung der Software in Organisationen markiert den Versuch, Kommunikation stärker zu formalisieren, Unsicherheiten durch die softwaregestützte Verarbeitung von quantifizierten Daten zu reduzieren und Komplexität auf entscheidungsfähige Problemgrößen zu verringern (vgl. Mormann 2016: 233). Im Umgang mit der Software im Organisationsalltag sei Informalität von entscheidender Bedeutung zu, da hierdurch widersprüchliche Anforderungen der Organisation abgefedert und bearbeitet werden können. Neben dem qua Formalisierung festgeschriebenen Umgang rücken somit vor allem die informellen Umgangsstrategien der Organisationsmitglieder mit der Software und den Daten in den Fokus. Daten in Organisationen zu ignorieren, sie nicht zu nutzen oder ihnen zu widersprechen ist in der heutigen Zeit insofern zumindest begründungspflichtig geworden (vgl. Muster/Büchner 2018: 271). Die Beschäftigung mit den Auswirkungen der Digitalisierung auf Organisationen stellt eine weitere aktuelle Forschungsdebatte dar, die die vorliegende Arbeit aufgreift (siehe hierzu vor allem Büchner 2018, Muster/Büchner 2018 und Tacke/Drepper 2018: 115ff.). Diese Forschungsdebatte beschäftigt sich insbesondere mit den Fragen, inwiefern die Entscheidungsfindung in Organisationen durch die Zunahme an (Echtzeit-)Daten beeinflusst wird und welche organisationalen Restrukturierungsprozesse durch die Digitalisierung bzw. Datafizierung beobachtbar sind. Wie wird – so kann im Hinblick auf die spätere empirische Einzelfallanalyse einer überregionalen Tageszeitung (Kap. 7) ge-

63

64

Publikumsbeobachtung im digitalen Wandel

fragt werden – Erwartungssicherheit im Umgang mit den Daten und in deren Übersetzung hergestellt und stabilisiert? Tacke/Drepper (2018: 115f.) konstatieren, dass der rapide Wandel von Informations- und Kommunikationstechnologien (Internet, soziale Medien etc.) organisationssoziologisch dazu auffordert, die internen Programmabläufe, Kommunikationswege, Hierarchien, die Erwartungen an Personen, organisationalen Grenzziehungen sowie die damit verbundenen Beziehungen zum Publikum zu überdenken. Zu untersuchen sei außerdem, welche Implikationen, Auswirkungen und Dynamiken die rasante Zunahme von Leistungsvergleichen für Organisationen und ihre Umwelt hat. Die Autoren fragen, ob sich das »stille« Prozessieren von Algorithmen im Hintergrund zu einer Art subkutanen Ubiquität und Omnipräsenz von Organisationen entwickelt habe, und inwieweit Organisationsroutinen und -strukturen durch die Digitalisierung eine Mathematisierung und »Neokybernetisierung« erfahren: »Wenn die Genese von Ordnung durch Digitalisierung, Mathematisierung und Algorithmisierung dazu dient, Organisationspraktiken des Rechnens und Berechnens, Abgleichens und Vergleichens, Urteilens und Beurteilens zu befördern und zu legitimieren, dann wird man es zukünftig nicht nur mit neuen Produktionsformen zu tun bekommen, die heute unter ›Industrie 4.0‹ im Kontext von Unternehmen von sich reden machen […], sondern möglicherweise auch im allgemeinen Sinne mit einem Typ ›Organisation 4.0‹. (ebd.: 118). Die Digitalisierung, Big Data und damit einhergehende Datenverarbeitungs- und Datenauswertungstechnologien sowie die zunehmende Algorithmisierung markieren demnach äußerst relevante Forschungsbereiche in der Organisationssoziologie. Hilfreich und gewinnbringend ist in dieser noch jungen Forschungsdebatte das Einbeziehen der Begriffs- und Wissensbestände der Medien-, Wissens- und Techniksoziologie (vgl. ebd.). Die Auswirkungen der Digitalisierung auf das faktische Verhalten in Organisationen sind zudem empirisch größtenteils noch unerforscht (vgl. Muster/Büchner 2018: 271). Muster/Büchner (2018) setzen sich mit dem Begriff der Datafizierung aus einer organisationssoziologischen Perspektive heraus auseinander und ordnen ihn als einen Unterfall von Digitalisierung ein. Datafizierung beschreibt, so die Autorinnen, in erster Linie die organisationsinterne Datengenerierung und -nutzung und untersucht, wie Entscheidungen in Organisationen anhand von Daten vorbereitet und getroffen werden. Letzteres äußert sich vorrangig in Restrukturierungsmaßnahmen, die die Organisationsstrukturen betreffen. So werden bspw. neue Regeln eingeführt oder Kommunikationswege verändert. Wie bei jeder Restrukturierung seien auch in der digitalen Transformation intendierte und nicht-intendierte Folgen beobachtbar. Die Autorinnen arbeiten im Hinblick auf die Datafizierung von Organisationen drei Anschlussstellen der Organisationssoziologie heraus: Forma-

3 Organisation, Quantifizierung und Digitalisierung

lität, Information und rationales Entscheiden. Datafizierung setze dabei zunächst an den formalen Strukturen der Organisation an. Hier werden bestimmte Erwartungen an die Mitglieder formalisiert. Es werden Regeln für den Umgang mit Daten formuliert, Zugriffsrechte verteilt, aber auch bspw. bestehende Stellen umstrukturiert oder neues Personal eingestellt, da neue Kompetenzen erforderlich werden. Wie generell bei formalen Erwartungen lassen sich auch im Umgang mit Daten diesbezüglich ergänzende informale Ausweichpraktiken beobachten. Zudem sei auch im Kontext der Datafizierung die Herausbildung »lokaler Rationalitäten« (vgl. Cyert/March 1963) charakteristisch für Organisationen. Hiermit verweisen die Autorinnen auf gruppen- oder abteilungsspezifische, mitunter widersprüchliche, Überzeugungen und Denkmuster bzgl. der Relevanz, Interpretation und Aussagekraft von Daten. Mit Blick auf die Daten seien diese stets als Kommunikationsangebote zu verstehen. Denn die Organisation bestimme selbst, ob und wenn ja, von welcher Information sie sich überraschen lassen möchte. Es wird organisationintern folglich zunächst einmal die Entscheidung darüber getroffen, welche Daten überhaupt als für sie relevant angesehen werden. In der Deutung und Auswertung der Daten fließen die Informationen sodann nicht unreflektiert und ungefiltert in die Operationen der Organisation (Entscheidungen) ein – auch deshalb, weil Daten anfällig für Mehrdeutigkeit sind. Für den Umgang mit Daten ist vielmehr Kontextwissen notwendig. Muster/Büchner (2018: 269) sprechen hier auch von sozialer Aufladung von Daten: »Außer im Grenzfall automatisierten Entscheidens produzieren Daten allein eben keine Entscheidung«. Daten sind aus diesem Blickwinkel heraus betrachtet nicht selten auf Interaktionssysteme angewiesen, bei denen sie mittels institutioneller Regelungen und Praxen (z.B. regelmäßige Zusammenkünfte und Besprechungen) gemeinsam ausgehandelt und ihre Anschlussfähigkeit kommunikativ hergestellt wird: »Daten allein führen also nicht automatisch zu mehr Informiertheit. Sie müssen als mediatisierte Mitteilung erst in eine Information, die einen Unterschied macht, transformiert werden. Welche Informationen in einer Organisation anschlussfähig sind, hängt von der spezifischen Organisation und ihrer Erwartungsstruktur ab. Über die Relevanz von Daten, so kann man schlussfolgern, entscheidet die Organisation selbst« (ebd.: 263). Organisationen verfolgen dabei nicht nur den Diskurs um Digitalisierung, sondern beobachten auch die Digitalisierung anderer Organisationen und geraten hierdurch unter Zugzwang (vgl. ebd.: 253). Dieser Effekt stelle einen klassischen Fall der Angleichung bzw. Nachahmung (mimetische Isomorphie) dar, wie er auch schon vor der Digitalisierung bezeichnend für Organisationen und ihre Selbst- sowie Umweltbeobachtung ist (siehe DiMaggio/Powell 1983).

65

66

Publikumsbeobachtung im digitalen Wandel

Büchner (2018) zeigt in ihrer Untersuchung zum Verhältnis von Digitalisierung und Organisation, dass Digitalisierung und Organisation sich wechselseitig beeinflussen – die Digitalisierung also nicht organisationsneutral stattfindet. Vielmehr beeinflussen Organisationen Digitalisierung uneinheitlich und prägen sie strukturspezifisch. Anhand fünf zentraler theoretischer Konzepte (Formalität, Entscheidungsbasiertheit, Informalität, Organisationsgrenzen und Umwelten) erläutert sie die gegenseitige Einflussnahme von Organisation und Digitalisierung und resümiert: »Organisationen ermöglichen, verstärken, bremsen und prägen Digitalisierung und werden zugleich in ihrer Erwartungs- und Entscheidungsordnung von Digitalisierung beeinflusst. Wie dies empirisch geschieht, ist eine soziologisch reizvolle und gesellschaftlich drängende Frage« (ebd.: 345). Wie Digitalisierung sich konkret in Organisationen vollzieht, stellt demnach eine empirische Forschungslücke dar. Zu beantworten sind Fragen wie: Inwiefern wandeln sich die Strukturen (Entscheidungsprämissen) einer Organisation unter digitalen Bedingungen und welche Einflüsse haben die mit der Verdatung bzw. Datafizierung einhergehenden neuen Möglichkeiten der Selbstbeobachtung und Umweltbeobachtung auf die Binnenperspektive? Anzunehmen ist zum Beispiel, dass die Digitalisierung bestimmte Anforderungen an die Organisation hinsichtlich ihres Personals stellt (neue Stellen, Abteilungen, Kompetenzen etc.) oder ein zunehmender Optimierungszwang im Spiegel der Daten entsteht. Interessant ist außerdem die Untersuchung der System-Umwelt-Beziehung unter digitalen Infrastrukturen sowie die Frage nach entsprechenden Rekonfigurationen von Organisationsgrenzen: Welche Anpassungsbedarfe werden hier notwendig und inwiefern lassen sich neue umweltbezogene Abhängigkeiten beobachten? Untersuchenswert ist ebenfalls die Frage nach gesteigerten Wettbewerbs- und Konkurrenzverhältnissen durch die neuartigen Sichtbarkeiten und Beobachtbarkeiten von einführbaren Verdatungssystemen. Welche organisationalen Unsicherheiten entstehen sodann im Umgang mit den Daten und wie wird versucht auf jene neuen Unsicherheiten zu reagieren? Es zeichnen sich demnach viele spannende Fragen ab, die zugleich auch in der empirischen Fallanalyse der Arbeit (Kap. 7) thematisiert werden. Abschließend ist festzuhalten, dass keine Blaupause – kein organisationsübergreifender Digitalisierungsplan – für die digitale Transformation von Organisationen existiert. Organisationen durchlaufen ihren digitalen Transformationsprozess vielmehr mit je unterschiedlichen Voraussetzungen, Herausforderungen und Digitalisierungsideen. Bevor im nächsten Kapitel (Kap. 4) der konkrete empirische Forschungsgegenstand (Zeitungsredaktionen und ihre Publikumsbeobachtung unter digitalen Bedingungen) vorgestellt wird, werden noch kurz einige wichtige datensoziologische Überlegungen vorgestellt, die im Nachfolgenden von Bedeutung sind. So können

3 Organisation, Quantifizierung und Digitalisierung

Daten allgemein als grundlegende Einheit der Digitalisierung verstanden werden. Sie sind dabei nicht »einfach so« da oder vorhanden, sondern bilden das Produkt zahlreicher Entscheidungen (vgl. auch Prietl/Houben 2018: 15ff., Mützel et al. 2018 und Angermüller 2011: 188). Daten sind auch kein neuer Gegenstand, der erst mit der Digitalisierung entstanden ist – so beschäftigt sich die empirische Sozialforschung seit jeher mit »Daten«. Daten sind methodisch generierte Repräsentationen und dadurch zwangsläufig selektive Reduktionen sozialer Wirklichkeit. Dabei bringen sie gleichzeitig die von ihnen vorgeblich nur beschriebene soziale Wirklichkeit mit hervor (vgl. Prietl/Houben 2018: 16f.). »Neu« ist im Hinblick auf Big Data und die komplexen digitalen Verarbeitungstechnologien die zeitliche, sachliche und soziale (Sinn-)Dimension von Daten. So können Daten immer schneller erhoben und verarbeitet werden (zeitliche Dimension), sie erfassen durch die digitalen Infrastrukturen zunehmend mehr Sachverhalte und können Muster erkennen sowie Verbindungen und Regelmäßigkeiten herstellen (sachliche Dimension) und können währenddessen auf eine Vielzahl von (Kommunikations-)Adressen zurückgreifen (soziale Dimension). Insgesamt betrachtet sind Daten folglich methodisch absichtsvoll reduzierte und technisch, medial oder materiell prozessierte Wirklichkeitsausschnitte, die zudem notwendigerweise interpretationsbedürftig sind (siehe auch Nassehi 2019, Nerukar/Gärtner 2020, Diaz-Bone 2018: 211). So schreiben Prietl/Houben (2018: 19f.): »Zusammengenommen sind Datenprozesse also hochgradig kontingent, aber nicht beliebig. […] Am Ausgangspunkt eines jeden Generierens, Hinterlassens und Verarbeitens von Audio-, Bild-, numerischen oder andersförmigen Daten stehende verschiedene Akteure_innen in spezifischen Konfigurationen, die sich mit der Erhebung und Speicherung, Strukturierung und Verarbeitung, Distribution und Visualisierung jener Daten gemäß ihrer Interessen und soziotechnischen Bedingungen auseinandersetzen«. Mit Blick auf die Organisationsebene ist es demzufolge das Personal, welches entsprechende Lese- und Interpretationskompetenzen im Umgang mit den Daten entwickeln oder sich aneignen muss. Ferner müssen organisationsintern die Kommunikationswege bzgl. der Daten geregelt werden (»Wer hat Zugriff auf welche Daten?«) und es muss entschieden werden, inwiefern Daten Einfluss auf die Entscheidungsprogramme der Organisation nehmen und ob auf ihnen beruhende Entscheidungsprogramme (wie z.B. Unternehmenssoftware) eingeführt werden sollen. Der mit der Digitalisierung entstehende rasante Anstieg von Daten macht es aus der Binnenperspektive der Organisationen heraus erforderlich, die eigenen Strukturen (Entscheidungsprämissen) zu reflektieren und sie im Hinblick auf die Bedingungen der Digitalisierung und der sich wandelnden Umwelt anzupassen.

67

68

Publikumsbeobachtung im digitalen Wandel

3.4

Zusammenfassung: Organisation, Quantifizierung und Digitalisierung

Ausgehend von dem Forschungsdesiderat einer Organisationsbetrachtung von Massenmedien wurde zunächst der organisationssoziologische Untersuchungsrahmen der Arbeit vorgestellt. Die Arbeit schließt an organisationssoziologische Konzepte Niklas Luhmanns an und versteht Organisationen als soziale Systeme, die durch Grenzziehungen gegenüber ihrer Umwelt gekennzeichnet sind (System-/ Umwelt-Differenz) und sich durch Entscheidungen als spezifische Kommunikationsform und grundlegende Operationseinheit reproduzieren. Die Organisationsstrukturen bilden die sog. Entscheidungsprämissen (Entscheidungsprogramme, Personal und Kommunikationswege), über die die Organisation selbst entscheidet. Während jene Entscheidungsprämissen die Formalstruktur der Organisation beschreiben, sind in Organisationen auch nichtentschiedene, aber prinzipiell entscheidbare Entscheidungsprämissen beobachtbar, die sich mit den Begriffen der Informalität oder auch der Organisationskultur erklären lassen und für das Organisationsgeschehen hochfunktional sind. Der Einsatz von Technologie und Organisationswandel bilden weitere relevante Konzepte des organisationssoziologischen Untersuchungsrahmens der Arbeit. Technologie ermöglicht Arbeitserleichterung sowie das Erkennen von Irregularitäten und Störungen. Gleichzeitig gehen mit der Einführung von Technologie in die Organisation aber auch Folgeprobleme und strukturelle Konsequenzen einher, wie zum Beispiel veränderte Arbeitsabläufe und Kommunikationswege. Organisationswandel wird nicht selten durch technologische Innovationen ausgelöst. Der Wandel bezieht sich dabei jedoch stets auf die Organisationsstrukturen (Entscheidungsprämissen) und nicht auf einzelne Operationen (Entscheidungen). Nach der Vorstellung des organisationssoziologischen Untersuchungsrahmens der Arbeit wurde sich sodann unter Bezugnahme auf zahlensoziologische und organisationssoziologische Forschungsstände mit der auf Quantifizierung beruhende Selbstbeobachtung von Organisationen beschäftigt. Es zeigt sich, dass Quantifizierungen und numerische Vergleiche höchst bedeutend für Organisationen sind. Ihre besondere »Attraktivität« und Funktionalität besteht darin, dass sie objektiv, neutral, plausibel und unverdächtig wirken sowie (ökonomischen) Erfolg, Optimierung und Effizienz versprechen. Im Vergleich zur Sprache oder Schrift ist der kommunikationstheoretische Erfolg von Zahlen wahrscheinlicher. Es verwundert daher nicht, dass Quantifizierungen als zentrale Steuerungs-, Kontroll- und Planungsinstrumente fungieren und auf die Organisationsstrukturen einwirken, indem sie bspw. die Entscheidungsprogrammierung beeinflussen. Dabei konstruieren Zahlensysteme in der Organisation neue, spezielle Beobachtungswirklichkeiten, die es ihr ermöglichen, sich aus einer Fremdperspektive heraus zu beobachten. Die Vermessung organisationaler Phänomene, Ereignisse und Abläufe bildet

3 Organisation, Quantifizierung und Digitalisierung

das Organisationsgeschehen aber nicht nur ab, sondern macht es – darunter auch organisationale Leistungen und Verfehlungen – überhaupt erst sichtbar. Zahlen erzeugen, mit anderen Worten, Entscheidungsanlässe und Optimierungsmöglichkeiten, die ohne sie nicht zustande gekommen wären. Darüber hinaus lassen sich mit dem Einführen numerischer Bezugsrealitäten in die Organisation neben intendierten Folgen auch nicht-intendierte Folgen beobachten, die von dem eigentlich beabsichtigen Zweck abweichen oder ihm gar diametral gegenüberstehen können. Zuletzt stellte das Kapitel eine noch junge Forschungsdebatte vor, die das Verhältnis von Digitalisierung und Organisation untersucht. Insgesamt betrachtet lässt sich von einem wechselseitigen Verhältnis zwischen Organisation und Digitalisierung sprechen. So hat Digitalisierung nicht nur auf Einfluss auf Organisationen, sondern Organisationen strukturieren Digitalisierung auch mit. Sie ermöglichen Digitalisierung und treiben sie voran, indem sie bspw. Softwareprogramme anbieten und hiermit entsprechende digitale Kommunikationsund Infrastrukturen bereitstellen, die auf Organisationsseite zu einer immer komplexer werdenden informationstheoretischen und organisationstheoretischen Formalisierung führen. Zentrale Forschungsfragen einer organisationsorientierten Digitalisierungsforschung lauten demnach, wie (Echtzeit-) Daten Prozesse der Entscheidungsfindung beeinflussen und inwiefern sie zu organisationalen Restrukturierungen führen. Neben der Frage nach Organisationswandel (Wandel der Entscheidungsprämissen) sind Veränderungen in der organisationalen Grenzziehung ebenso zu erforschen wie die sich transformierenden Beziehungen zum Publikum. Hier mangelt es vor allem noch an empirischen Untersuchungen. Im Folgenden wird an die in diesem Kapitel vorgestellten organisationssoziologischen und zahlensoziologischen Überlegungen, Konzepte und Debatten angeschlossen und in den konkreten empirischen Forschungsgegenstand der Arbeit eingeleitet: Print-Massenmedienorganisationen (Zeitungsredaktionen) und ihre Publikumsbeobachtung unter digitalen Infrastrukturen.

69

4 Die quantifizierte Publikumsbeobachtung der Print-Massenmedien unter Internetbedingungen. Zeitungsredaktionen im Fokus

Nachdem sich ausgehend von der Theorie der Publikumsinklusion mit der quantifizierten Publikumsbeobachtung auf Organisationsebene beschäftigt (Kap. 2) und im Anschluss daran das Verhältnis von Organisation, Quantifizierung und Digitalisierung genauer betrachtet wurde (Kap. 3), stellt dieses Kapitel den konkreten empirischen Forschungsgegenstand vor: Zeitungsredaktionen und deren Publikumsbeobachtung unter digitalen Infrastrukturen. Hierzu wird in einem ersten Schritt an die organisationssoziologischen Ausführungen in Kap 3.1 angeschlossen und erläutert, wie Print-Massenmedien resp. Redaktionen organisationssensibel beschrieben und erforscht werden können (Kap. 4.1). Dabei fällt erneut die in der mediensoziologischen Forschung bislang mangelnde Auseinandersetzung mit Massenmedien als Organisationen auf. Nach einer organisationssoziologischen Beschreibung von Zeitungsredaktionen, die zwischen einer Binnenperspektive der Redaktion (System) und ihrer Umwelt differenziert, wird sodann die Verlagerung von der printbasierten hin zur digitalen Distribution beleuchtet (Kap. 4.2). Der »digital turn« der Zeitungsredaktion (Kap. 4.2.1) wird anhand vier zentraler Gesichtspunkte anschaulich gemacht: dem Medienwandel (Kap. 4.2.1.1), wirtschaftlichen Finanzierungsproblematiken (Kap. 4.2.1.2), der Rekonfiguration der Publikumsbeziehungen (Kap. 4.2.1.3) und organisationalen Restrukturierungen sowie veränderten redaktionellen Arbeitsweisen (Kap. 4.2.1.4). In der Auseinandersetzung mit den durch die digitalen Infrastrukturen einhergehenden neuen Möglichkeiten der zeitungsredaktionellen Publikumsbeobachtung zeigt sich sodann, dass diese vor allem durch eine steigende Bedeutsamkeit von Daten gekennzeichnet ist (Kap. 4.2.2). Von zuvor vereinzelten, nachgelagerten Prozessen der Datenerhebung unter Print-Bedingungen, wie bspw. der verkauften Auflagezahlen oder aufwendigen Leserbefragungen, kann das Nutzungsgeschehen im Internet äußerst detailliert und in Echtzeit auf der eigenen Homepage und auf Drittanbieterplattformen (Facebook, Twitter, Instagram) verfolgt werden. Dies führt anschließend zu der

72

Publikumsbeobachtung im digitalen Wandel

Frage nach den redaktionsinternen Voraussetzungen der Publikumsbeobachtung und der Organisation von Daten (Kap. 4.3).

4.1

Die Zeitungsredaktion in einem organisationssoziologischen Verständnis

Massenmedien sind organisationsförmig strukturiert (vgl. Marcinkowski 1993: 98ff.). Im Kontext von Redaktionen gibt die Organisation die Rahmenbedingungen vor, unter denen Nachrichten entstehen (vgl. auch Srugies 2016: 507). Eine Redaktion kann folglich als »[o]rganisatorische Einheit zur (massenmedialen) Filterung, Lenkung und Vervielfältigung von Informationen« (Weichert et al. 2015: 79) beschrieben werden. In der soziologischen Systemtheorie werden Organisation als soziale Systeme verstanden, welche sich durch Entscheidungen reproduzieren (Entscheidungsprämissen), sich von ihrer Umwelt abgrenzen (System-/Umwelt-Differenz) und die Mitgliedschaft im System unter bestimmte Bedingungen (Mitgliedschaftsregeln) stellen (siehe auch Kap. 3.1). Mithilfe dieses Theoriegerüsts wird im Folgenden die Redaktion, die ein Teilsystem der Medienorganisation »Zeitung« bildet, in den Blick genommen und später empirisch untersucht (siehe Kap. 7).1 Wie können Zeitungsre1

In der Kommunikationswissenschaft differenziert Altmeppen (2006, insbesondere 11-22) hingegen zwei grundsätzlich verschiedene Typen von Massenmedienorganisationen resp. Organisationssystemen: die journalistische Organisation und die Medienorganisation. Die journalistische Organisation operiere im Orientierungshorizont der Öffentlichkeit, während die Medienorganisation im Orientierungshorizont der Wirtschaft anzusiedeln sei (siehe ebd.: 115-199; vgl. auch Altmeppen/Greck/Kössler 2016). Während Medien Unternehmen seien, die das Geschäft der Distribution von medialen Inhalten betreiben, erbringe der Journalismus eine öffentliche Leistung. Auf diese strikte Trennung kann trotz der Anerkennung von Ko-Orientierung zwischen den Systemen (Altmeppen 2006: 201-208) im Fall von PrintMassenmedien (publizistische Tageszeitungen) entgegnet werden, dass solch eine trennscharfe Unterscheidung dem aktuellen Medien- und auch Journalismuswandel nicht gerecht wird und den Blick auf wechselseitige Systemintegrationstendenzen versperrt. Auch eine journalistische Organisation muss die Distributionsmöglichkeiten und die damit einhergehenden Bedingungen (vor allem im Netz) berücksichtigen. Darüber hinaus ist es nicht unüblich, dass von Journalistinnen und Redakteuren erwartet wird, die Texte gleichsam für die Netzdistribution entsprechend aufzubereiten und zu veröffentlichen. So muss auch eine journalistische Organisation heutzutage sowohl distributionsorientiert als auch wirtschaftlich denken und operieren. Zu untersuchen wäre innerhalb der Mediengattung Zeitung daher, inwiefern journalistische Organisation und Medienorganisation unter digitalen Infrastrukturen zunehmend integriert werden. Den Begriff der Medienorganisation lediglich auf zentrale Distributoren und wirtschaftliche Unternehmen – im Netz sind dies bspw. Plattformen wie Facebook oder Google – einzuschränken, würde interessante binnenperspektivische Einsichten und Erkenntnisse des digitalen Wandels von Zeitungsredaktionen verschließen.

4 Die quantifizierte Publikumsbeobachtung der Print-Massenmedien unter Internetbedingungen

daktionen, so die zentrale Frage, in einem organisationssoziologischen Verständnis beschrieben werden? Hierzu wird im Folgenden der Fokus auf die Binnenperspektive (Kap. 4.1.1) und auf relevante Umweltsysteme (Kap. 4.1.2) der Redaktion gelegt.

4.1.1

Die Binnenperspektive

Der Organisationsbegriff wurde in der deutschen Redaktions- und Journalismusforschung vor allem durch Manfred Rühls Pionierstudie »Die Zeitungsredaktion als organisiertes soziales System« (1979 [1969]) geprägt, in der er erste empirische Studien durchführte und einen Paradigmenwechsel von einer akteurszentrierten hin zu einer organisationszentrierten Redaktionsforschung einläutete (vgl. auch Srugies 2016: 510f.). So schreibt er in seinem Vorwort: »Die Zeitungsredaktion als Organisation zu denken und sie in ihren internen und externen Beziehungen zu untersuchen, scheint einleuchtend, ja beinahe selbstverständlich« (Rühl 1979: 13). Trotz des Hinweises, die Organisationsebene mit in die Analyse von Massenmedienorganisationen einzubeziehen, ist jener Untersuchungsfokus bis heute weithin ein »unerfülltes Desiderat« (ebd.: 66) geblieben (vgl. auch Hasse/Wehner 2020: 3f.).2 Im Folgenden werden die Organisationsstrukturen der Redaktion, die von den Entscheidungsprämissen (Programme, Personal und Kommunikationswege) gebildet werden (siehe Kap. 3.1), kurz vorgestellt.

4.1.1.1

Entscheidungsprogramme

Im Mittelpunkt von Rühls Analysen stehen die organisatorischen Strukturen und entscheidungsprogrammatischen Aspekte der Redaktion. Er prägt den Begriff des redaktionellen Entscheidungshandelns, welches sich über Entscheidungsprämissen vollzieht und dabei systemgebunden, zugleich aber auch umweltorientiert ist. Die einzelnen Entscheidungsprozesse der Zeitungsredaktion werden von dem Entscheidungsprogramm strukturiert. Es bestimmt, in welcher Weise die eintreffenden oder eingeholten Mitteilungen verarbeitet werden, und bildet die Grundlage für das redaktionelle Alltagshandeln (vgl. Rühl 1979: 78). Auch wenn das Entscheiden als primäres Strukturmerkmal dominiere, seien damit nicht

2

Siehe für unterschiedliche Theorieansätze in der (organisationalen) Redaktionsforschung darüber hinaus Srugies 2016 und Altmeppen/Arnold 2013: 88ff. Ausnahmen mit organisationssoziologischen Bezügen und Überlegungen bilden hierbei u.a. die Arbeiten von Marcinkowski (1993), Blöbaum (1994), Altmeppen (2006), Altmeppen/ Arnold (2013) und Srugies (2016).

73

74

Publikumsbeobachtung im digitalen Wandel

die gesamten funktionalen Leistungen der Redaktion benannt. So seien typische Handlungen wie das Recherchieren, Redigieren, Verfassen von Kritiken und Kommentaren ebenfalls essenziell für die Redaktion. Jedoch lassen sich diese redaktionellen Handlungen wiederum auf übergeordnete, entscheidungsbasierte Ordnungsmerkmale (Entscheidungsprämissen) der Zeitungsredaktion zurückführen, auf denen die formale Organisation der Redaktion aufgebaut ist. Redaktionelles Entscheidungshandeln beschreibt nach Rühl (ebd.: 273f.) einen Prozess, bei dem Informationen für die publizistische Öffentlichkeit allgemein und für die Publika der Zeitung im Besonderen qua Entscheidungsprogramme erarbeitet und bereitgestellt werden. Er differenziert dabei zwischen inputorientierten Konditionalprogrammen, die das Routineverhalten der Reaktion steuern (wenn – dann), und outputorientierten Zweckprogrammen, durch die eine bestimmte Wirkung in der Umwelt erzielt werden soll. Die Entscheidungsprogramme seien dabei nicht als starr, sondern elastisch und umweltsensibel zu verstehen. Sie beeinflussen das Entscheidungshandeln der Redakteurinnen und Redakteure im Einzelfall. Dabei operiert jedes Ressort nach eigenen Teilprogrammen, die Entscheidungen für bestimmte auftretende Fälle vorgeben (jedoch nicht festlegen). Diese ressortspezifischen Entscheidungsprogramme verdeutlichen die Gesamtkomplexität des organisierten sozialen Systems ›Zeitungsredaktion‹.

4.1.1.2

Personal

Das Personal besetzt die Stellen der Redaktion. Hauptsächlich sind die besetzten Stellen Redakteursstellen, deren Funktion in dem Sammeln (Recherchieren), Vereinfachen, Auswählen und Bereitstellen von Informationen besteht (vgl. Rühl 1979: 275). Redakteurinnen und Redakteure filtern, mit anderen Worten, interessante und bedeutsame Informationen und Meldungen, die über verschiedene Kanäle in der Redaktion eintreffen (Korrespondenten, Volontäre, freie Mitarbeitende, Nachrichtenagenturen, Pressestellen oder soziale Netzwerke) heraus und bereiten diese auf. Darüber hinaus schreiben sie selbst Texte oder redigieren Artikel von Kollegen. Das Personal ist folglich eine wichtige Entscheidungsprämisse für die Herstellung und Bereitstellung des massenkommunikativen Produkts Zeitung (vgl. ebd.: 296). Mit dem Eintritt des Redakteurs in die Organisation richtet sie formale Erwartungen an ihn auf, die bspw. das Ausführen von Redaktionstätigkeiten oder allgemein das Anerkennen der systeminternen Zuständigkeiten und Entscheidungsprämissen betreffen. Zusätzlich ist jede Redakteurin und jeder Redakteur einem Vorgesetzten unterstellt, der wiederum eine weitere, hierarchisch höhere, Stelle besetzt (Ressortleiterin, Chef vom Dienst, geschäftsführender Redakteur oder Chefredakteurin). Die traditionelle Redaktion ist grundsätzlich aufgegliedert in unterschiedliche thematische Ressorts (Politik, Wirtschaft, Sport, Lokales, Kultur etc.), die über ei-

4 Die quantifizierte Publikumsbeobachtung der Print-Massenmedien unter Internetbedingungen

ne spezifische Anzahl an Stellen verfügen. Ressortintern können sich bei den Redakteurinnen und Redakteuren, je nach Kompetenzen, unterschiedliche Aufteilungen und Spezialisierungen auf bestimmte Themenbereiche oder Darstellungsformen herausbilden. Mit Blick auf den digitalen Wandel und die Internetdistribution wandeln sich nicht nur die Kompetenzen und Erfordernisse (Computerkompetenzen und Internetkenntnisse) bzw. die Erwartungen, die an sie gestellt werden, sondern auch die festen Ressortgrenzen, die sich zunehmend auflösen. Vorher strikt voneinander getrennte Print- und Onlineredaktionen werden im Zuge des »digital turn« der Massenmedien vermehrt zusammengelegt und das Personal nicht selten in thematische Teams oder Gruppen aufgegliedert. Die Zusammenlegung von Print- und Onlineredaktion sowie das Entstehen einer ressortübergreifenden Produktionseinheit spiegelt sich auch in der neuen Organisationsform des sog. Newsdesks (oder auch Newsroom) wider. Ressortleitende oder Mitarbeitende aus unterschiedlichen Ressorts sitzen hier räumlich zusammen und legen gemeinsam Themen und Nachrichten fest. Auch das Personal der Online-Redaktion ist hier vertreten. Typisch für die räumliche Gestaltung der Newsdesks sind darüber hinaus das Aufstellen oder Aufhängen großer, zentraler Monitore, auf denen die Redaktionsmitglieder das Nutzungsgeschehen auf der eigenen Homepage und anderen relevanten Distributionskanälen (Social Media) in Echtzeit wahrnehmen, beobachten und darauf basierend redaktionelle Entscheidungen treffen können.

4.1.1.3

Kommunikationswege

Durch die Einrichtung von Kommunikationswegen erfolgt die kommunikative Vernetzung der Systemstruktur (Programme und Personal). Die Stellen werden durch Kommunikation verknüpft, sodass sie Auskunft darüber erhalten, »was woanders geschieht« (Luhmann 2000: 327; Hervorhebung im Original). Die Kommunikationswege in der (Gesamt-)Redaktion sind folglich von entscheidender Bedeutung. Die Redaktionskonferenz ist dabei besonders bezeichnend, da sie ein wichtiges Zwischensystem der Redaktion bildet. Für die Redaktion besteht die Notwendigkeit, »besondere Institutionen zu entwickeln, die zur Erhaltung und Förderung der Redaktion integrative Funktionen übernehmen« (Rühl 1979: 269). Es bestehen, mit anderen Worten, das Bedürfnis nach Koordination und der Bedarf nach regelmäßigen und geregelten Zusammenkünften: »Redaktionskonferenzen sind organisationsinterne Kommunikationszusammenhänge, in denen aber auch Änderungen und Modulationen des Entscheidungsprogramms der einzelnen Ressorts sowie der Gesamtredaktion erörtert oder zumindest den Mitgliedern zur Kenntnis gebracht werden. Ohne diese internen, zwischen Ressorts und Chefredaktion angesiedelten Kommunikationssysteme würde das Selbständigkeitsstreben der einzelnen redaktionellen Teilbereiche schnell zur Dysfunktion, zumindest weniger kontrollierbar, werden« (ebd.: 270).

75

76

Publikumsbeobachtung im digitalen Wandel

Eine redaktionsweite, kommunikative Verständigung und Vergegenwärtigung ist demnach systemrelevant und wirkt systemstabilisierend. Die Redaktionskonferenz trägt dazu bei, wichtige Teilsysteme (bspw. die unterschiedlichen Ressorts) zu integrieren, organisationsinterne Unsicherheiten zu reduzieren und Entscheidungen als solche auch thematisierbar zu machen. Die kommunikative Anschlussfähigkeit an tagesaktuelle Themen, Entscheidungen und Beobachtungen wird durch diese institutionelle Kommunikationsstruktur hergestellt. Die Redaktion greift darüber hinaus auf eine kommunikative Vernetzung in Form eines Systemgedächtnis zurück (vgl. ebd.: 287ff.). Hier werde das redaktionsinterne Informationspotenzial mit den aus der Umwelt in die Redaktion eingegangenen Informationen verknüpft und kondensiert. Die aus der Umwelt eintreffenden Informationen durchlaufen demnach ein Prozess, »in dem sie ausgewählt und durch Assoziation und Kombination mit Gedächtnisbeständen das Gedächtnis auf ein neues Informationsniveau bringen« (ebd.: 288). Die Funktion des Gedächtnisses bestehe darin, entscheidungsrelevante Informationen (Informationskomplexe) zu speichern, bei Bedarf zu Verfügung zu stellen und jene Umweltinformationen weiterzuverarbeiten, die den Relevanzaspekten der eigenen publizistischen Linie, den eigenen Erfahrungen und Maßstäben entsprechen.3 Mit der kommunikativen Vernetzung des Systems wird zusätzlich die Funktion der Reflexion und Selbstbeobachtung in die Organisation eingebaut (siehe Kap. 3.1.2.3). Die Selbstbeobachtung und -beschreibung der Redaktion erfolgen in der Regel in Form von publikumsbezogenen Statistiken, Tabellen und Grafiken und werden für die Optimierung eigener Operationen verwendet – etwa für die optimale Gestaltung von Form und Inhalt, die Wahl effizienter Verbreitungstechniken oder die Auswahl passender Zeitpunkte, weshalb keine programmplanerische Entscheidung und keine gestalterische Frage größerer Tragweite getroffen wird, ohne auf solche Beobachtungsergebnisse zurückzugreifen (vgl. Marcinkowski 1993: 93). Die hier skizzierte Binnenperspektive ist einerseits durch Formalität gekennzeichnet: Entscheidungsprämissen, Teilsysteme (Ressorts und Abteilungen) und Zwischensysteme (Redaktionskonferenz). Andererseits ist Informalität, also die nicht entschiedenen, aber prinzipiell entscheidbaren, Entscheidungsprämissen (siehe Kap. 3.1.2.4), von ebenso großer und funktionaler Bedeutung. Manch Formalisierung ist in der Redaktion demnach »nicht einmal wünschenswert«, so Rühl (1979: 268). In einer organisationssensiblen Redaktionsforschung muss neben der Binnenperspektive darüber hinaus auch die Umwelt miteinbezogen werden, da sich die Redaktion an ihr orientiert und durch sie beeinflusst wird (vgl. auch

3

Eine hieran anschließende und mit Blick auf den »digital turn« der Massenmedien (empirische) Forschungsfrage ist, inwiefern Nutzungsdaten das Gedächtnis der Redaktion irritieren (oder gar überfordern).

4 Die quantifizierte Publikumsbeobachtung der Print-Massenmedien unter Internetbedingungen

ebd.: 19). Dieser wechselseitige Verkehr zwischen System und Umwelt wird im Folgenden anhand relevanter redaktioneller Umweltsysteme näher betrachtet.

4.1.2

Relevante Umweltsysteme

Rühl (ebd.: 175ff.) arbeitet sechs gesellschaftlich relevante Umweltsysteme der Redaktion heraus: 1.) die Informatoren, 2.) das Publikum, 3.) andere Massenkommunikationsmedien, 4.) das Verlagsunternehmen, insbesondere 4a) die Anzeigenabteilung, 4b) die Technologie, 4c) das Redaktionsarchiv, 5.) das Personal der Redaktion4 und 6.) das Presserecht. Aus Gründen des Forschungsinteresses und des theoretischen Untersuchungsrahmens der vorliegenden Arbeit wird an die kursiv markierten Umweltsysteme angeschlossen, indem diese zunächst kurz vorgestellt und anschließend mit Blick auf neue, vor allem technologische, Entwicklungen im Kontext der Digitalisierung der Zeitungsredaktion ergänzt und angereichert werden.

4.1.2.1

Die Informatoren

Rühl (1979: 179) versteht unter dieser redaktionellen Umweltsphäre »alle potentiellen Lieferanten von potentiell informativen Mitteilungen […], soweit sie für die Leistung- und Wirkungsabsichten der Zeitungsredaktion, insbesondere zu deren Zweckerfüllung beitragen können«. Neben »klassischen« Informationsquellen wie Nachrichtenagenturen, Pressestellen und Korrespondenten kann hierunter auch ein unverlangt eingesandtes Manuskript, der gelegentliche Tipp einer freien Mitarbeiterin oder eines Freundes bzw. Bekannten sowie das (Zweiaugen-)Gespräch auf einer öffentlichen Veranstaltung fallen. All diese Kanäle dienen zur Informationsbeschaffung. Die Informationen laufen dann in das Entscheidungsprogramm der Redaktion ein. Im Internet differenzieren sich diese »Informatoren« weiter aus, weil aufgrund der digitalen Infrastrukturen auf ein Vielfaches mehr an (Kommunikations-)Adressen zurückgegriffen werden kann. So können bspw. Recherchenetzwerke, Foren, Blogs oder soziale Medien wie Facebook und Twitter etc. als neue relevante Informatoren verstanden werden. Darüber hinaus nehmen publikumsbezogene Informationen (die Auswertung von Online-Nutzungsdaten) einen immer größer werdenden Stellenwert für redaktionelle und strategische Entscheidungen ein (siehe Kap. 4.2.2).

4

Rühl (1979: 218ff.) siedelt, im Gegensatz zu den theoretischen Annahmen dieser Arbeit, das Personal in der Umwelt des Redaktionssystems an.

77

78

Publikumsbeobachtung im digitalen Wandel

4.1.2.2

Das Publikum

Das Publikum kann als das zentrale Umweltsystem für die Redaktion verstanden werden, da Massenmedien und Publikum in einem besonderen, wechselseitigen Verhältnis zueinanderstehen: »So konnten sich z.B. Zeitungen im 17. und 18. Jahrhundert nur entwickeln, weil es ein Publikum gab, das lesen konnte und an regelmäßigen Nachrichten interessiert war. Und der Aufstieg der populären Massenpresse im 19. Jahrhundert war nur möglich, weil sie auf die Wünsche breiter Publikumsschichten einging und auf Unterhaltung, Serviceinformation und Lokales konzentrierte« (Altmeppen/ Arnold 2013: 63). Nach Marcinkowski (1993: 88) werden zwischen Redaktion und Publikum Programmstrukturen gegen Erwartungsstrukturen ausgetauscht. Die redaktionellen Programmstrukturen werden wiederum von Erwartungsstrukturen beeinflusst, die die Redaktion gegenüber dem Publikum hegt (Erwartungserwartung). So werde auf der Titelseite einer »Qualitätszeitung« kein Klatsch und Tratsch über Prominente erwartet, sondern wichtige und tagesaktuelle Themen sowie Nachrichten aus Politik und Wirtschaft. Umgesetzt wird dieser Austausch von Erwartungen durch empirische Beobachtungsformen wie den bekannten Instrumenten der Reichweitenmessung, der Akzeptanz- und Marktforschung, der Telemetrie, Meinungsumfragen und der Rezeption von bspw. Leserbriefen oder Zuschauerpost. Der Begriff der Beobachtung operiert hierbei mit der Unterscheidung, ob mediale Empfangsgeräte ein- oder ausgeschaltet sind, ob zugehört und zugeschaut wird oder nicht, ob eine Nachricht gelesen oder nicht gelesen wird. Der Austausch zwischen Publikum und Redaktion vollzieht demzufolge vorrangig im Modus der Quantifizierung: »Ebenso wie die Wahlbevölkerung als politisches Publikum über den kommunikativen Akt der Stimmabgabe in das politische System inkludiert wird, vollzieht sich die Inklusion des potentiellen Medienpublikums ins publizistische System über den ständigen (und vom journalistischen Subsystem ständig beobachteten) Wahlakt per Fernbedienung, Abonnement oder Kaufentscheidung am Kiosk« (Marcinkowski 1993: 82). Rühl hält in seiner Studie zum Umweltsystem »Publikum« fest, dass das redaktionelle Wissen über das Publikum auf nur wenigen Daten basiert. Das Terrain der Fiktion und Spekulation wird hierbei kaum verlassen (vgl. Rühl 1979: 192; siehe hierzu auch Kap. 2). Trotz der vom Publikum vereinzelt kommunizierten Erwartungsstrukturen (Leserbriefe) entscheide die Redaktion selbst über ihre Inhalte sowie die Mischung aus »Pflichtlektüre« und »Lesestoff«. Mit Blick auf die digitalen Infrastrukturen und die dortigen Möglichkeiten des Erfassens und Auswertens von Daten über Publikumsaktivitäten erweitert sich das

4 Die quantifizierte Publikumsbeobachtung der Print-Massenmedien unter Internetbedingungen

redaktionelle Wissen über das Publikum um ein Vielfaches. Die Publikumsbeobachtung im Netz beschränkt sich nicht mehr nur auf die verkauften Auflagen, sondern bietet zahlenreiche und äußerst differenzierte Einsichten in das Nutzungsgeschehen. Ebenso differenzieren sich die Feedbackmöglichkeiten des Publikums mit dem Internet weiter aus. Neben dem quantifizierten Publikumsfeedback in Form von Seitenaufrufen, Lesetiefe, Lesetempo etc. bieten vor allem Drittanbieterplattformen wie Facebook und Twitter den Nutzerinnen und Nutzern Kommentierungsmöglichkeiten. Die Anschlusskommunikation des Publikums ist auf besagten Plattformen öffentlich und kann zurück an die Journalistinnen und Redakteure gespiegelt werden (vgl. Altmeppen/Arnold 2013: 59). Einige Nutzerinnen und Nutzer scheinen zudem Gefallen daran gefunden zu haben, ihre programmbezogenen oder inhaltlichen Erwartungsbrüche unverzüglich an die Medienorganisation, bspw. über entsprechende Kommentarfunktionen, zurückzumelden. Die Publikumsbeobachtung wird angesichts des Medienwandels, der veränderten und immer komplexer werdenden Mediennutzungsmuster sowie der sich intensivierenden Wettbewerbsverhältnisse unter Internetbedingungen zunehmend wichtiger für die Medienorganisationen (vgl. Altmeppen/Arnold 2013: 80). Das Umweltsystem »Publikum« erweist sich unter digitalen Bedingungen für die Redaktion dementsprechend als bedeutsamer denn je.

4.1.2.3

Andere Massenkommunikationsmedien

Als ein weiteres relevantes Umweltsystem führt Rühl andere Massenkommunikationsmedien auf. Neben den Informatoren und dem Publikum beeinflussen insbesondere gleichartig oder ähnlich strukturierte und/oder im gleichen Verbreitungsgebiet lokalisierte Medien das Verhalten und die Entscheidungen der Zeitungsredaktion (vgl. Rühl 1979: 192). Die als Konkurrenten definierten Tages- und Wochenzeitungen werden in den Redaktionen permanent beobachtet und verfolgt.5 Dies geschieht insbesondere durch die Lektüre besagter publizierten Inhalte. Nicht selten werden Texte der Konkurrenz als Inspirationsquelle genutzt, um zu überprüfen, ob in den eigenen Ressorts über dasselbe oder ein verwandtes Thema bereits berichtet wurde. Rühl beschreibt in seinen Untersuchungen eine Art Publikationsdilemma sowie einen gewissen Publikationsdruck bzw. -zwang, der durch die Konkurrenz auf die eigene Zeitung ausgeübt wird. So zitiert er einen interviewten Redakteur: »Was ist, wenn wir als einzige Zeitung auf ein Thema nicht eingehen, das alle anderen bringen? Wir kommen damit in Teufels Küche. Das können wir uns bei unserer Größe nicht leisten« (ebd.: 197). Jene hier von Rühl beschriebene Praxen der Konkurrenzbeobachtung weiten sich unter digitalen Infrastrukturen aus. Neben dem Lesen von Artikeln der Konkurrenz kann die Zeitungsredaktion

5

»Niemand liest so viele Zeitungen wie die Journalisten (…)«, schreibt Bourdieu (1998: 31).

79

80

Publikumsbeobachtung im digitalen Wandel

außerdem die entsprechende Publikumsresonanz in den sozialen Medien beobachten und diese Informationen mit in ihre Entscheidung einfließen lassen, ob das Thema redaktionsintern ebenfalls aufgegriffen werden soll. Es wandelt sich unter Internetbedingungen somit auch die Wahrnehmung und Sichtbarkeit der Konkurrenz, da insbesondere in den sozialen Medien deren Publikumsresonanz in Form von Likes, Kommentaren oder geteilten Beiträgen öffentlich einsehbar ist.

4.1.2.4

Technologie

Ein weiteres Umweltsystem der Redaktion beschreibt Rühl (1979: 215ff.) als »Technologie« und verweist zu seiner Zeit damit insbesondere auf die Setzerei und Chemigraphie. Technische Innovationen und Technologien beeinflussen den Journalismus im Allgemeinen sowie den Print-Bereich im Besonderen seit jeher (vgl. Altmeppen/Arnold 2013: 47-61). Technologie bestimmt und beeinflusst durch eine Reihe von Bedingungen die Inhalte der Zeitungsredaktion mit. So sei die Redaktion gezwungen, sich in ihren Tätigkeiten auf die technologischen Notwendigkeiten und Bedingungen einzustellen: »[D]ie Idee für eine Glosse, die Form und Länge eines Berichtes oder Bildertextes und der Entwurf einer dem Artikel adäquaten Überschrift [sind] in der Konzeption bereits dem Einfluß der Technologie indirekt ausgesetzt«, schreibt Rühl (1979: 216). Mit Blick auf die heutige Zeit und die neuen Distributionsmöglichkeiten, fällt auf, dass auch jene neue Verbreitungsmedien in der Redaktion entsprechende Anpassungen erforderlich machen. Dies betrifft zum Beispiel die Begrenzung der Anzahl von verwendbaren Zeichen (Twitter) oder auch die Notwendigkeit bestimmte Keywords in die Artikelstruktur (Dachzeile, Überschrift, Teaser, Artikeltext) einzubauen, um von den Suchalgorithmen im Netz möglichst positiv bewertet zu werden und in der Folge mehr Nutzerinnen und Nutzer zu erreichen. Besonders deutlich wird dies bei Internetsuchmaschinen oder Internetnachrichtendiensten wie Google News oder Apple News. Technologien versprechen nicht zuletzt auch immer Optimierungserfolge und –möglichkeiten – bspw. hinsichtlich der Nutzung von Verbreitungskanälen oder der Sichtbarkeit der eigenen Inhalte (Suchmaschinenoptimierung). Print-Massenmedienorganisationen sind an technologischen Entwicklungen stets interessiert, vor allem um den unaufhaltsamen Trend der Leserverluste entgegenzuwirken (vgl. Mögerle 2009). Zu beobachten ist allerdings auch, dass der Einsatz neuer Technologien redaktionsintern – insbesondere zu Anfang – nicht per se auf Akzeptanz und eine entsprechend breite Nutzungsbereitschaft trifft. So läuft Technologieanwendung prinzipiell Gefahr, als ein Eingriff in die Autonomie und Entscheidungshoheit der Redaktion verstanden zu werden. Dies lässt sich besonders in der internetbasierten Publikumsbeobachtung und der Nutzung von publikumsbezogenen Daten veranschaulichen (siehe Kap. 4.2.2 und Kap. 7).

4 Die quantifizierte Publikumsbeobachtung der Print-Massenmedien unter Internetbedingungen

Nachdem nun die System-Umwelt-Beziehungen der Zeitungsredaktion skizziert wurden, beleuchtet das nächste Kapitel die Verlagerung der Zeitungsredaktion ins Internet und deren organisationale Folgeproblemen.

4.2

Zeitungsredaktion und Digitalisierung. Die Verlagerung von Zeitungsredaktionen ins Netz

Medienorganisationen sind stets an die Veränderungen der Medienumgebung gebunden (vgl. Hölig/Loosen 2018: 232f., siehe auch Stöber 2013). Mediensoziologisch markiert das World Wide Web für Zeitungsredaktionen einen besonderen Einschnitt – und zwar in mehrfacher Hinsicht. So ermöglicht das Internet für Medienorganisationen nicht nur die Erschließung neuer Distributionskanäle und -plattformen, sondern führt auch zu einem Wandel des Publikumsverständnisses sowie zu einer Re-Konfiguration der Publikumsbeziehungen (vgl. Napoli 2011, Loosen/Schmidt 2012). Neben bekannten Kontaktmöglichkeiten wie dem Leserbrief bietet das Internet entsprechende elektronische Äquivalente (E-Mails) und zusätzliche niederschwellige Feedbackmöglichkeiten (bspw. das Liken, Teilen und Kommentieren von Beiträgen in den sozialen Medien). Verglichen mit den Print-Bedingungen stellt die Beobachtung der Angebotsnutzung und des Nutzungsgeschehens auf der eigenen Homepage sowie in den sozialen Medien hingegen ein Novum für die Redaktion dar. Durch die Analyse entsprechender publikumsbezogener Daten können Nutzungsgewohnheiten (Rezeptionsweisen), Nutzerinteressen (Themengebiete), Regelmäßigkeiten (Muster) und Auffälligkeiten (z.B. Trends) festgestellt werden, die organisationsintern wiederum Anschlusskommunikationen (redaktionellen Entscheidungen) erforderlich machen und Restrukturierungen anstoßen können. Mit den immer differenzierter werdenden Verdatungsmöglichkeiten und Einsichten in das Nutzungsgeschehen verändern sich auch redaktionelle Arbeitsweisen, wie bspw. das Aufbereiten von Artikeln für bestimmte Distributionskanäle. Darüber hinaus entstehen im digitalen Umfeld neue Bedingungen und Voraussetzungen, an die sich die Redaktion anpassen muss. Im Folgenden werden die mit der Netzdistribution einhergehenden binnenperspektivischen Veränderungen in den Blick genommen. Dazu wird anfangs der »digital turn« (Kap. 4.2.1) der Zeitungsredaktion herausgearbeitet, der anhand vier zentraler Aspekte veranschaulicht wird: dem Medienwandel und veränderten Mediennutzungsgewohnheiten (Kap. 4.2.1.1), wirtschaftlicher Finanzierungsproblematiken (Kap. 4.2.1.2), der Rekonfiguration der Publikumsbeziehungen (Kap. 4.2.1.3) und redaktionellen Restrukturierungserfordernissen (Kap. 4.2.1.4). Daran anschließend wird auf die zunehmende Bedeutsamkeit von Daten in der Publikumsbeobachtung der Zeitungsredaktion aufmerksam gemacht (Kap. 4.2.2).

81

82

Publikumsbeobachtung im digitalen Wandel

Wie Nutzungsdaten redaktionsintern jedoch konkret erhoben, aufbereitet, ausgewertet und anschlussfähig gemacht werden, stellt im deutschsprachigen Raum eine empirische Forschungslücke dar, zu deren Schließung die spätere empirische Fallanalyse (Kap. 7) einen Beitrag leisten möchte.

4.2.1

Der »digital turn« der Zeitungsredaktion

Der »digital turn« der Massenmedien beschreibt aus Sicht der Zeitungen und Zeitungsredaktionen zunächst vor allem die Erschließung neuer Distributionsmöglichkeiten, die das Internet mit seinen digitalen Infrastrukturen bereitstellt. Zu denken ist hierbei an eine eigene Homepage, für die bestehende Inhalte aus der Print-Zeitung übernommen, aufbereitet oder auch neue Inhalte dezidiert für das Netz erstellt werden. Zudem bieten Drittanbieterplattformen wie Facebook, Instagram oder Twitter zusätzliche netzbasierte Verbreitungskanäle. Die digitale Wende (der »digital turn«) von Zeitungsredaktionen lässt sich in einem ersten Zugriff folglich durch die Möglichkeit von webbasierten Distributionsmöglichkeiten beschreiben. Hierbei zeigt sich bereits, dass der digital turn für Medienorganisationen mit vielen neuen Entscheidungsbedarfen verbunden ist. So muss entschieden werden, welche der neuen Verbreitungswege erschlossen und bedient werden sollen – oder ob gar ein kompletter Übergang ins Digitale erfolgt und die Print-Distribution entsprechend aufgegeben wird. Beim strategischen Umschwenken von Zeitungsverlagen ins Digitale bleibt nach Weichert et al. (2015: 21) unklar, ob das Digitalgeschäft überhaupt gleichbedeutend ist mit dem journalistischen. Nicht selten muss sich eine Medienorganisation, die zusätzlich oder ausschließlich im Netz Inhalte distribuiert, demzufolge mit der Frage nach einer strategischen Neuausrichtung auseinandersetzen, da die Internetdistribution neue Bedingungen und Anforderungen hinsichtlich Inhalte, Arbeitsweisen und Organisationsstrukturen an sie stellt. Der Begriff des »digital turn« der Massenmedien beschränkt sich bei genauerer Betrachtung demzufolge nicht auf die neuen infrastrukturellen Gegebenheiten und Distributionsmöglichkeiten des Internets. Er beschreibt vielmehr einen grundlegenden und weitreichenden Transformationsprozess der Massenmedien – vor allem für Zeitungen –, der sich vorrangig in einem Wandel ihrer Organisationsstrukturen beobachten lässt. Dabei zeigt sich, dass bestehende Strukturen nicht »einfach so« genommen und digitalisiert oder ohne Anstrengungen (und Widerstände) in das digitale Umfeld übertragen werden können. Der digital turn der Zeitungsredaktionen ist folglich durch seine Prozesshaftigkeit gekennzeichnet und an entsprechende technologische und umweltliche Voraussetzungen und Verhältnisse geknüpft, an die sich die Medienorganisationen anpassen müssen. Diese Implikationen und Folgeprobleme der digitalen Wende von Zeitungsredaktionen werden im Folgenden näher skizziert.

4 Die quantifizierte Publikumsbeobachtung der Print-Massenmedien unter Internetbedingungen

4.2.1.1

Medienwandel und veränderte Mediennutzung

Die Nutzung medialer Inhalte über das Internet ist in den letzten Jahren erheblich angestiegen, wie eine Langzeitstudie zum Medienwandel in Deutschland zeigt (vgl. Breunig/Handel/Kessler 2020). Orts- und zeitunabhängiger Medienkonsum scheint für die Nutzerinnen und Nutzer wichtiger denn je zu sein. Begleitet wird diese Entwicklung durch einen immer stärker werdenden Wettbewerb der Medienorganisationen um das Zeitbudget und die Aufmerksamkeit der Nutzerinnen und Nutzer. Vor allem den Print-Bereich haben die Folgen des Medienwandels der letzten Jahre besonders nachhaltig getroffen. So ist die Tagesreichweite einer gedruckten Zeitung oder Zeitschrift in den letzten 15 Jahren ausgesprochen stark gesunken. Während diese im Jahr 2005 noch bei über 60 % lag, ist sie im Jahr 2020 auf 22 % gefallen (vgl. ebd.: 417). Durch Streaming-Dienste wie Netflix, Amazon Prime Video oder Spotify und Online-Portale wie bspw. YouTube oder auch das Online-Angebot traditioneller Massenmedien (Fernsehen, Radio, Zeitung) schreitet die Ausdifferenzierung der Massenmedien und entsprechender Nutzungsmuster weiter voran. Ein Beispiel hierfür sind Second Screen-Nutzungspraktiken, die die parallele Nutzung von Medien beschreiben – also bspw. die eines Fernsehers und Smartphones – und besonders für jüngere Nutzerinnen und Nutzer alltagsrelevant sind. In der Forschung wird hierbei auch von Ko-Orientierung in der Medienrezeption gesprochen, bei der veränderte Rezeptions-, Aneignungs- und Nutzungsformen untersucht werden (vgl. Göttlich/Heinz/Herbers 2017). Der medienorganisationsund mediengattungsübergreifende »Kampf« um die Aufmerksamkeit der Nutzerinnen und Nutzer intensiviert sich folglich durch den digitalen Medienwandel (vgl. auch Pujik 2008: 31). Mit einer immer digitaler und mobil werdender Mediennutzung können Tageszeitungen auf ihrem traditionellen Distributionsweg (Print) heutzutage nicht mehr auf aktuelle Entwicklungen im Mediennutzungsverhalten und die Bedürfnisse der Nutzerinnen und Nutzer reagieren. Zeitungsredaktionen stehen angesichts des hier kurz skizzierten Medienwandels vor großen Herausforderungen. Seit geraumer Zeit erschließen sie daher neue Verbreitungswege und Distributionsmöglichkeiten, die das Internet bzw. die digitalen Infrastrukturen bieten (vgl. Boczkowski 2005, 2013, Paterson/Domingo 2008, 2011) – nicht zuletzt auch um die Print-Leserverluste auszugleichen. Neben Online-Angeboten auf ihrer eigenen Homepage nutzen Medienorganisationen besonders soziale Medien als Verbreitungskanal, um neue (insbesondere jüngere) Zielgruppen anzusprechen. Mit jenen Distributionskanälen gehen zugleich neue Anforderungen und Bedingungen einher, die die Redaktion zur Anpassung ihrer Inhalte bewegen. So wird nicht selten besonders in den sozialen Medien eine emotionalere Sprache in den Beiträgen verwendet; die Inhalte folglich entsprechend redaktionell aufbereitet. Keine Tageszeitung kann heutzutage mehr allein durch eine tagesaktuelle Politikberichterstat-

83

84

Publikumsbeobachtung im digitalen Wandel

tung punkten (vgl. Weichert et al. 2015: 111). Eine hiermit angesprochene Neuerfindung ist so gesehen keine Wahl, sondern stellt sich vielmehr als eine Notwendigkeit für die Zeitungsredaktion heraus: »Der digitale Medienwandel hat die Durchsetzung eines Innovationsparadigmas in der Zeitungswirtschaft begünstigt, in dessen Mittelpunkt unter anderem (neue) Varianten der Publikumsbeteiligung und die Frage nach der Lern- und Innovationsfähigkeit einer Zeitungsredaktion in Zeiten struktureller Unsicherheit stehen« (ebd.: 24).

4.2.1.2

Wirtschaftliche Probleme und neue Geschäftsmodelle

Mit dem Medienwandel und der daraus resultierenden zunehmenden Verlagerung des Medienkonsums ins Internet entstehen für Printmedienorganisationen weitrechende Finanzierungsprobleme (vgl. grundlegend Lobigs 2018, Röper 2020). Die Refinanzierung der journalistischen Inhaltsproduktion erfolgt online weit überwiegend im traditionellen Markt: Das (zum Teil kostenlose) Online-Angebot wird demzufolge von den (sinkenden) Print-Erlösen querfinanziert (vgl. Lobigs 2018: 299). Die Medienorganisationen stehen angesichts dieses Missverhältnisses vor der großen Herausforderung, wie Inhalte im Netz verkauft und vermarktet werden können. Aus einer historischen Perspektive stellen diese Entwicklungen für Zeitungen eine neue und höchst unbefriedigende Situation dar – kommen sie doch aus einer Zeit, in der sie mit ihren Print-Verkäufen große wirtschaftliche Gewinne erzeugen konnten. Heutzutage ist dahingegen zu beobachten, dass viele lokale und regionale Zeitungen unter immer weniger Herausgebern zusammengelegt werden. Auswirkungen hiervon sind unter anderem Personalabbau, Honorarverkürzungen, Einstellungsstopps, Redaktionsschließungen und Outsourcing oder die Folge, dass ein nahezu identisches Angebot unter den verschiedenen Zeitungsmarken entsteht (vgl. Weichert et al. 2015: 19f.). Die wohl bekannteste Finanzierungsmöglichkeit von Inhalten im Netz stellt die Bezahlschranke (»Paywall«) dar, die immer mehr Medienorganisationen – auch lokale Tageszeitungen – einführen. Um entsprechende Artikel lesen zu können, müssen die Nutzerinnen und Nutzer hier entweder über ein (Digital-)Abonnement der Zeitung verfügen oder für einzelne Inhalte bezahlen. Ein grundlegendes Problem in dieser Finanzierungsstrategie besteht darin, dass der Großteil der Nutzerinnen und Nutzer im Netz eine »Gratismentalität« besitzt und dementsprechend nicht dazu bereit ist, für Informationen im Internet Geld zu bezahlen (vgl. Lobigs 2018: 308). Sie für kostenpflichtige Inhalte zu überzeugen ist folglich eine permanente Herausforderung für die Medienorganisationen (siehe auch Hülsen 2015). Weitere Schwierigkeiten in der Vermarktung von Inhalten unter digitalen Infrastrukturen bestehen außerdem darin, dass im Netz eine grassierende Bannerblindheit, eine weit verbreitete Nutzung von Ad-Blockern und eine zunehmende

4 Die quantifizierte Publikumsbeobachtung der Print-Massenmedien unter Internetbedingungen

Mobilbildschirmnutzung (Smartphone) vorherrscht, die allesamt Werbungsmöglichkeiten erschweren (vgl. Lobigs 2018: 304). Die Situation mangelnder Erlösquellen spiegelt sich auch darin wider, dass Medienunternehmen für das Distribuieren von Inhalten in den sozialen Medien wie Facebook oder Twitter keine direkten Gewinne erzielen. Wirtschaftlich profitieren tun hierbei in erster Linie die Drittanbieter selbst, weil mehr Daten, mehr Geschehen und Traffic auf ihrer Plattform erzeugt werden. Lobigs (ebd.: 322) These verwundert daher nicht, »dass sich der privatfinanzierte Journalismus in diesem neuen Paradigma aufgrund eines intensiven Wettbewerbsdrucks evolutionär dem Geschäftsmodell von digitalen Content Marketing-Agenturen angleichen wird. Unabhängiger Journalismus könnte sich in diesem Umfeld nicht aus sich selbst heraus finanzieren«. Jene zunehmende Angleichung an die Geschäftsmodelle und Strategien von digitalen Content Marketing-Agenturen lässt sich bereits darin beobachten, dass suchmaschinenoptimierte Tätigkeiten und Fähigkeiten in der Redaktion immer wichtiger werden oder Werbungsstrategien und -modelle wie das native advertising6 oder data driven marketing7 verfolgt werden. Im Netz wird folglich nicht mehr unbedingt die gesamte Zeitung (als Komplettpaket) vermarktet, sondern vielmehr zielgruppenorientiert einzelne Inhalte und Themen. Die Internetdistribution und das digitale Umfeld führen mit Blick auf die Binnenperspektive der Medienorganisation zugleich zu der Frage, welche der vielfältigen und heterogenen Daten aus redaktioneller und wirtschaftlicher Sicht wichtig sind und als relevant für interne Operationen (Entscheidungen) eingestuft werden. Soll das Geschäftsmodell vorrangig auf dem Abschluss von (Digital-)Abonnements und der Herausbildung von loyalen, wiederkehrenden Nutzerinnen und Nutzern basieren oder auf dem Erzielen von Werbeeinahmen? Je nach strategischer Ausrichtung werden die verschiedenen Daten intern unterschiedlich gewichtet. Somit hat das Geschäftsmodell im Netz auch Auswirkungen auf organisationsinterne und redaktionelle Entscheidungen, was sich z.B. in bestimmten SEO-Strategien (engl.: search engine optimization; dt.: Suchmaschinenoptimierung), redaktionellen Aufbereitungsformen oder Publikationsentscheidungen äußern kann.

6

7

Native Advertising beschreibt eine Form von Werbung im Internet und in Printmedien, die nicht sofort als solche zu erkennen und so gestaltet ist, dass sie nur schwer von redaktionellen Inhalten zu unterscheiden ist. Beim data driven marketing werden Daten über die Nutzerinnen und Nutzer gesammelt, analysiert und genutzt, um die Ausspielung von (Werbe-)Kampagnen automatisiert, zielgerichtet und personalisiert zu gestalten.

85

86

Publikumsbeobachtung im digitalen Wandel

4.2.1.3

Die Rekonfiguration der Publikumsbeziehungen

Dem Publikum wurde im Journalismus lange Zeit eine geringe Bedeutung zugemessen (vgl. auch Hohlfeld 2005 und Weichert et al. 2015: 127). In der Nachrichtenauswahl und -produktion orientierte man sich vorrangig an sich selbst, an Vorgesetzten und Kollegen oder an der Konkurrenz. Wünsche, Interessen und Vorlieben des Publikums wurden nur wenig Beachtung geschenkt. Eine allzu starke Orientierung am Publikum und dem Massengeschmack galt lange Zeit sogar schädlich, weil hierunter Boulevardisierung und das genaue Gegenteil von Qualitätsjournalismus verstanden wurde (vgl. Schmidt 2012). Spätestens mit den digitalen Infrastrukturen und dem »digital turn« der Massenmedien beginnen sich jedoch das redaktionelle bzw. medienorganisationsinterne Verständnis vom Publikum und entsprechende Publikumsbeziehungen durch neue Technologien der Verdatung, Vermessung und Sichtbarmachung zu wandeln: »[…] new media technologies, as well new technologies for measuring media audiences, gathering feedback from them, and anticipating their tastes and preferences, are making it possible for media industries to fundamentally redefine what media audiences mean to them […]« (Napoli 2011: 4). Die ominöse und schwer greifbare Kategorie »Publikum« differenziert sich in der Folge aus: »›The audience‹ as we used to know it, seems to be disappearing because the old structural and technological lacuna between journalists and consumers is closing« (Ahva/Heikkilä 2016: 315). In der digitalen Umwelt verändert sich auch die Mediennutzung. So beschränkt sich das Rezipieren nicht ausschließlich auf das Lesen, Hören oder Zuschauen. Die medialen Inhalte werden auch öffentlich, zeit- und ortsunabhängig geteilt, kommentiert, empfohlen oder verlinkt. Aufgrund des Medienwandels und der damit einhergehenden gewandelten Mediennutzungsmuster wird im digitalen Kontext vermehrt der Begriff des Nutzers bzw. der Nutzerin (und nicht der des Publikums) verwendet. Der Nutzerbegriff suggeriere nach Ahva/Heikkilä (2016) einen gewissen Optimismus, da er die aktiven und dialogischen Formen des Journalismus und der Beziehungen zu den Rezipienten betont. Zusätzlich werde eine gewisse Zusammenarbeit zwischen Redaktionen und Nutzerinnen und Nutzern im gesamten Nachrichtenproduktionsprozess signalisiert. Während in der Theorie die Journalistinnen und Journalisten jene Interaktionen mit den Nutzerinnen und Nutzern befürworten, zeige sich in der Praxis ein entgegengesetztes Bild, insbesondere im Nachrichtenherstellungsprozess. Man muss diesem »vom Publikum zum Nutzer«-Ansatz nicht unbedingt zustimmen, da die aktuellen Nutzerinnen und Nutzer wiederum als ein aktuelles Publikum verstanden werden können und nicht jeder Rezipient auch ein bzw. eine In-

4 Die quantifizierte Publikumsbeobachtung der Print-Massenmedien unter Internetbedingungen

halte teilende oder kommentierende Nutzerin ist, jedoch zeigt sich mit den aus den digitalen Infrastrukturen entstehenden Möglichkeiten der Verdatung, Sichtbarmachung und Beobachtung des Nutzungsgeschehens, dass es »das eine« Publikum – wie unter klassischen, analogen Bedingungen – nicht (mehr) gibt (vgl. auch Hölig/ Loosen 2018: 235, Hasebrink 2008 und Thomä 2014). Die Medienorganisationen stehen vielmehr verschiedenen, fragmentierten Nutzergruppen (oder Publika) mit jeweils unterschiedlichen Motiven, Motivationen, Interessen und Nutzungsgewohnheiten gegenüber. Diese Einsichten in das Nutzungsgeschehen sind für Zeitungsredaktionen aus einer historischen Perspektive ein Novum, da sie unter PrintBedingungen über keine tagesaktuellen Berichte darüber verfügten, welche Teile der Zeitung (welche Artikel, welche Ressorts etc.) gelesen wurden oder an welcher Stelle die Leserinnen und Leser ausstiegen. Die Erhebung von Informationen und Daten darüber, was sie augenscheinlich interessiert, waren in dieser Schnelle, Breite und Fülle schlichtweg nicht möglich (siehe hierzu Kap. 4.2.2). Zusammenfassend lässt sich festhalten, dass das Publikumsverständnis (die Sender-EmpfängerBeziehung) von Zeitungsredaktion heutzutage vor allem numerisch geprägt ist. Zugleich bietet das Netz erweiterte Möglichkeiten der Publikumsinklusion und Partizipation (vgl. Loosen et al. 2013). Die Beteiligung des Publikums stellt für Zeitungsredaktionen per se nichts Neues dar (Leserbriefe, Umfragen, Einsendungen, Gastbeiträge etc.), jedoch war sie unter analogen Bedingungen stets begrenzt. Die stärkere Vernetzung führt somit auch zu einer gesteigerten Aufmerksamkeit gegenüber der Wahrnehmung des Publikums, was sich mit Blick auf die Notwendigkeit der Erschließung neuer Geschäftsmodelle nicht zuletzt auch auf wirtschaftliche Interessen der Medienorganisationen zurückführen lässt. Um effektiv, effizient und bedürfnisorientiert im digitalen Umfeld zu arbeiten, muss die Zeitungsredaktion sich in ihrer Inhaltsproduktion und -distribution den gewandelten Nutzungsmustern und -motiven anpassen (vgl. Weichert et al. 2015: 42), was wiederum – so der letzte hier präsentierte Aspekt des »digital turn« der Zeitungsredaktion – organisationale Restrukturierung und veränderte redaktionelle Arbeitsweisen zur Folge hat.

4.2.1.4

Organisationale Restrukturierungen und redaktionelle Arbeitsweisen im Wandel

Medienorganisationen sind seit jeher durch Innovationen und Restrukturierungen sowie durch ihre Anpassung an die Umwelt geprägt. Mit dem »digital turn« stehen die Zeitungsredaktionen vor großen Herausforderungen (Medienwandel, Leserverluste, Erschließen neuer und jüngerer Zielgruppen, Fragen der (Re-)Finanzierung im Netz etc.). Angesichts dieser existenzbedrohlichen Veränderungen sind Zeitungen für Innovationen besonders offen und experimentierfreudig. Innovationen gelten daher auch als zentraler Erfolgsfaktor von Medienorganisatio-

87

88

Publikumsbeobachtung im digitalen Wandel

nen (vgl. Lischka 2018: 283f.). Jedoch trifft nicht jede neue Regel auf Akzeptanz unter den Mitarbeitenden. Nicht alle neuen Arbeitsprozesse werden, mit anderen Worten, enthusiastisch angenommen. So lasse sich eine grundsätzliche Offenheit gegenüber Innovationen beobachten, wenn sich diese positiv auf die publizistische Qualität auswirken. Wird jenen Veränderungen jedoch journalistischer Autonomieverlust oder eine Verschlechterung des Nachrichtenprodukts beigemessen, reagieren die Redakteurinnen und Redakteure mit Zurückhaltung oder auch Widerstand (siehe bspw. Tages-Anzeiger-Redaktion 2013). Eine wesentliche Veränderung ist das sich wandelnde Publikumsverständnis, wie Weichert et al. (2015: 22) ausführen: »Heute Journalist zu sein bedeutet deshalb auch, immer wieder das eigene Handeln und das professionelle Rollenselbstbild unter dem Primat neuer Technologien zu hinterfragen. Dabei verlangt gerade die Verzahnung mit dem Publikum den Redakteuren die wohl extremste Veränderung ab, weil sie […] vor allem eine ungewohnte Nähe der Redaktion zu ihrem Publikum [provoziert], die von vielen Journalisten erst akzeptiert und deren Umgang erlernt werden muss, bis sie zu einer sichtbaren Qualitätssteigerung journalistischer Arbeit beiträgt«. Crossmedialität und redaktionelle Konvergenz sind weitere Kennzeichen des digitalen Wandels der Medienorganisationen. Journalistinnen und Redakteure arbeiten nicht mehr ausschließlich mit dem Medium Text bzw. Schrift, sondern vermehrt auch mit Ton und Bild (Medienkonvergenz). Für crossmediales Arbeiten ist räumliche Nähe notwendig, was unweigerlich zu Umstrukturierungen innerhalb der Redaktion führt (vgl. Bechmann 2011). Im Zuge der digitalen Distribution lösen immer mehr Redaktionen ihre traditionellen Ressortgliederungen auf und führen das Prinzip des Newsdesks ein, bei denen die Produktion der Inhalte für sowohl Print-Zeitung als auch weitere Ausspielkanäle im Netz zentral organisiert und koordiniert wird (vgl. Altmeppen/Arnold 2013: 47ff.). Auch die Nachrichtenbeschaffung und Recherche wandeln sich mit den Möglichkeiten, die das Internet bietet. Agenturmeldungen und Pressemitteilungen gelangen heutzutage bspw. hauptsächlich über das Internet in die Redaktion. Die räumliche Annäherung von Print- und Online-Redaktionen oder ihre Integration in einen zentralen Newsroom führen darüber hinaus zu neuen Publikationsstrategien wie »online first«, um die Inhalte den Leserinnen und Lesern möglichst zeitnah und vor der Printpublikation am nächsten Tag zu Verfügung zu stellen. Diese redaktionelle Konvergenz kann als »technologiebasierte Integration vormals unabhängiger Strukturen, Produktions- und Distributionsprozesse innerhalb einer Nachrichtenorganisation« (Lischka 2018: 277) verstanden werden und beschreibt die strategische Anpassung der Redaktion an den umweltinduzierten, soziotechnischen Wandel. Hierbei ist erheblicher Koordinations- und personeller Aufwand erforderlich (vgl. Hofstetter/Schönhagen 2014).

4 Die quantifizierte Publikumsbeobachtung der Print-Massenmedien unter Internetbedingungen

Die Erschließung und Nutzung von Social Media-Kanälen (Facebook, Instagram, Twitter) als zusätzliche Verbreitungswege, Publikumskontaktmöglichkeiten und »Publikumsinteressensseismografen« kann als eine zentrale Innovation und Neuerfindung von Zeitungsredaktionen angesehen werden. Hier wollen sie vor allem neue (und junge) Zielgruppen ansprechen und auf den Trend der immer mobiler werdenden Mediennutzung reagieren. Interessant an dieser Entwicklung ist, dass nicht mehr, wie unter Print-Bedingungen, die Medienorganisation den Distributionsweg zwangsweise vorgibt, sondern die Redaktion sich vielmehr den Nutzerinnen und Nutzern in ihren (neuen) Mediennutzungsgewohnheiten anpasst, ihre Online-Präsenz ausbaut und die Inhalte entsprechend auf den entsprechenden Kanälen ausspielt. Die Produktion von Online-Nachrichten unterscheidet sich dabei fundamental von jener unter analogen Bedingungen (vgl. grundlegend Domingo/ Paterson 2008, 2011), da die neuen Plattformen bestimmte Handhabungen festlegen.8 So dürfen Inhalte auf Twitter bspw. nur eine spezifische Zeichenlänge besitzen, was zu veränderten redaktionellen Arbeitsweisen führt, weil die Texte hier besonders einladend formuliert werden müssen, um die Leserinnen und Leser auf das Anklicken des verlinkten Artikels zu motivieren.9 Darüber hinaus können die plattformbezogenen Distributionsalgorithmen und -logiken auch die Themenauswahl von Zeitungsredaktionen beeinflussen, wie Lischka/Werning (2017) zeigen. Neben diesen, die redaktionellen Arbeitsweisen verändernden, Distributionsbedingungen werden mit neuen Verbreitungskanälen zugleich neue Entscheidungsbedarfe mit Blick auf die Organisationsstruktur notwendig. So geht es immer auch um Entscheidungen, entsprechende Distributionswege zu nutzen oder (aus guten Gründen) auch nicht, z.B. wegen fehlender personeller Ressourcen oder plattformbezogener Intransparenzen (vgl. Brake 2017). Es müssen organisationsintern Rahmenbedingungen für den digitalen Wandel geschaffen werden, die vor allem in den Strukturen der Organisation (Programme, Personal und Kommunikationswege) festgeschrieben werden. Der »digital turn« erfordert, mit anderen Worten, Formalisierung. Mit Blick auf die Forschungsliteratur lassen sich vor allem beim Personal zentrale Veränderungen beobachten (vgl. Robinson 2011 8 9

Gleichzeitig etablieren sich neue Formen des Journalismus wie bspw. der Datenjournalismus (siehe Felle 2016, Lewis 2015, Weinacht/Spiller 2014). In gewissem Ausmaß werden Nutzungsdaten redaktionsintern auch dazu genutzt, um sie zurück das Publikum zu spiegeln. Zu denken ist hier bspw. an den Internetauftritt (Homepage) von Massenmedien, bei dem an bestimmten Positionen auf der Startseite über das aktuelle Nutzungsgeschehen auf der Seite und in den sozialen Medien informieren (»Am meisten gelesen«, »Am meisten empfohlen« etc.). Hierdurch werden die jeweiligen Inhalte mit Relevanz aufgeladen und den Rezipientinnen und Rezipienten Vergleichs- und Orientierungsmöglichkeiten geboten (vgl. Fürst 2014). Diese Rückspiegelung des Nutzungsgeschehens an das Publikum habe die Folge, dass die Inhalte für die Nutzerinnen und Nutzer unterschiedlich bedeutsam und anschlussfähig erscheinen (vgl. hierzu auch Wendelin 2014).

89

90

Publikumsbeobachtung im digitalen Wandel

und Paulussen et al. 2011). So werden neue Stellen in der Medienorganisation eingerichtet, wie zum Beispiel die des Social Media-Redakteurs, des Datenanalysten oder des SEO-Mitarbeiters, die sich im Wesentlichen mit Publikums- und Nutzungsdaten im Netz beschäftigen und diesbezüglich intern über Beobachtungen und Auffälligkeiten berichten. Der digitale Wandel lässt dementsprechend neue Kompetenzen und Fähigkeiten der Mitarbeiterinnen und Mitarbeiter notwendig werden. Es entstehen neue Aufgabenfelder, Rollen und Funktionen, wie z.B. die des »Community Managers«. Die Professionalisierung dieser neuen redaktionellen Tätigkeitsfelder erfolgt teilweise noch. Gynnild (2014: 728) spricht auch von einem »innovation-oriented mindset«, welches die Mitarbeiterinnen und Mitarbeiter unter digitalen Infrastrukturen entwickeln müssen. Für die Redakteure und Journalistinnen wird es zudem zunehmend wichtiger, unternehmerisch zu denken und handeln sowie Verantwortung für den geschäftlichen Erfolg und die Rentabilität der eigenen Angebote zu übernehmen (vgl. Weichert et al. 2015: 170). Dass dieser Paradigmenwechsel zu Widerstand und Konflikten in der Redaktion führen kann, überrascht daher nicht (siehe bspw. Bunce 2019 und Christin 2014a). Zu weiteren Veränderungen des redaktionellen Arbeitens zählen darüber hinaus die Beschleunigung des Schreibprozesses und die Zunahme des Arbeitstempos durch die Online-Distribution (vgl. Steensen 2011, Quandt 2008: 86). Eine immer stärker frequentierte und schnellere Berichterstattung scheint notwendig, um im Wettbewerb mit den anderen Medien- und Nachrichtenorganisationen gut dazustehen und die Aufmerksamkeit der Nutzerinnen und Nutzer für sich zu gewinnen (vgl. Weichert et al. 2015: 59). Mit der Verlagerung ins Digitale verschieben sich folglich auch journalistische Praktiken, wie bspw. der Wandel vom »Gatekeeping« hin zum »Gatewatching« zeigt (vgl. Schmidt 2012, Auer 2016: 493ff.). Die grundsätzliche Asymmetrie zwischen journalistischen Gatekeepern (Sender) und dem Publikum (Empfänger) wandelt sich im Netz insofern, als dass Grenzen zwischen Kommunikator und Rezipient sowie zwischen Massen- und Individualkommunikation aufgelöst werden (vgl. Hölig/Loosen 2018: 233, Loosen 2016). Unter digitalen Infrastrukturen kann potenziell jeder Nutzer und jede Nutzerin Informationen verbreiten, wodurch es für Redakteurinnen und Redakteure zunehmend wichtiger wird, relevante Inhalte im Netz zu kuratieren. Das Zusammenstellen, (Ein-)Ordnen und Kommentieren von Quellen und Informationen tritt in den Vordergrund: »Die Herausbildung neuer Rollenbilder, die den Schwerpunkt des journalistischen Funktionsspektrums weniger auf der Produktion von Inhalten als auf ihre begleitende Vermittlung, Kommentierung und Moderation legen, ist insbesondere in der Zeitungswirtschaft ein Novum: Erstmals in der Geschichte des Journalismus wird ein Aufgabenbereich als gleichwertig anerkannt, dessen Kern der Aufbau und die Pflege einer Leser-/Nutzer-Gemeinschaft ist – was bislang eine Aufgabe des Leser-Marketings war« (Weichert et al. 2015: 120).

4 Die quantifizierte Publikumsbeobachtung der Print-Massenmedien unter Internetbedingungen

Darüber hinaus ändern sich, wie weiter oben gezeigt, die Distributionsbedingungen auf fundamentaler Weise. Wurde bzw. wird unter Print-Bedingungen die Zeitung bis zur Haustür der Leserinnen und Leser geliefert, ist unter Internetbedingungen jene garantierte Lieferung alles andere als selbstverständlich oder voraussetzbar. Die Distribution wird vielmehr erschwert und gestört durch intransparente Distributionsalgorithmen (Facebook) und fehlende Sichtbarkeiten (GoogleSuche). Die Arbeit der Redakteurinnen und Redakteure endet folglich nicht mehr mit der Fertigstellung und Veröffentlichung der Inhalte. Im Anschluss hieran wird eine Beobachtung der Publikumsresonanz notwendig, deren Ergebnis nicht selten kleinere »Reparaturarbeiten« (Titelüberarbeitung, Ausspielung auf weiteren Kanälen) sind, um die Sichtbarkeit und Aufmerksamkeit zu steigern (siehe auch Moyo et al. 2019: 500f.). Trotz der hier aufgeführten Entwicklungen, organisationalen Restrukturierungen und veränderten redaktionellen Arbeitsweisen bewähren sich in der Redaktion auch weiterhin alte Regeln, Routinen und Orientierungen (vgl. Weichert et al. 2015: 61). Es zeigt sich jedoch, dass mit der steigenden redaktionellen Bedeutsamkeit von Daten traditionelle, printbasierte Denk- und Handlungsmuster zunehmend hinterfragt werden. Die Auseinandersetzung mit Nutzungsdaten entwickelt sich dementsprechend zu einer neuen, zentralen Praxis in der Zeitungsredaktion.

4.2.2

Zeitungsredaktion und Quantifizierung.  Die zunehmende Bedeutsamkeit von Daten

Nutzungsdaten haben sich zu einem festen Bestandteil des redaktionellen Alltags entwickelt (vgl. Cherubini/Nielsen 2016, Fürst 2018, Neuberger/Nuernbergk 2015). Das aktuelle Nutzungsgeschehen im Netz wird in nahezu jedem Newsroom auf großen Bildschirm visualisiert und von den Redakteurinnen und Redakteuren an ihrem Arbeitsplatz verfolgt. Zusätzlich werden Nutzungsdaten sowie darin erkannte Entwicklungen und Auffälligkeiten häufig auf Redaktionskonferenzen thematisiert oder in aufbereiteter Form (Berichte) an die Redaktionsmitglieder verschickt. Das quantifizierte Publikum hat sich, mit anderen Worten, zu einer zentralen Größe in den Redaktionsräumen entwickelt. Durch die digitalen Infrastrukturen wird die quantifizierte Publikumsbeobachtung gewissermaßen auf Dauerbetrieb gestellt, weil jeder Klick, jede Interaktion sowie das gesamte Nutzungsverhalten in Form von Daten und in »Echtzeit« festgehalten und analysiert werden kann. Das Treffen von sinnvollen redaktionellen Ableitungen aus den Daten hat sich folglich zu einem bedeutsamen Aufgabenbereich und Tätigkeitsfeld herausgebildet. So wird bspw. auch von einem »analytic turn« im Journalismus gesprochen (vgl. Moyo et al. 2019: 429ff.). Durch das Erheben, Aufbereiten und Auswerten von Daten soll das eigene Angebot besser auf die Nutzerinnen und Nutzer, ihre Interessen und Nutzungs-

91

92

Publikumsbeobachtung im digitalen Wandel

gewohnheiten abgestimmt werden. Von entscheidender Bedeutung hierfür sind Technologien (Softwareprogramme externer Dienstleister), die die Daten für die Redakteurinnen und Redakteure listen-, kurven- oder balkenförmig übersetzen und visualisieren (siehe Abbildung 2). Solche sog. Dashboards visualisieren das derzeitige Nutzungsgeschehen des eigenen Angebots im Netz und sollen den Redakteurinnen und Redakteuren eine schnelle Orientierung über Regelmäßigkeiten und Besonderheiten des quantifizierten Publikums geben. So wird in Echtzeit (Real-Time) angegeben, wie viele Nutzerinnen und Nutzer gegenwärtig auf der Homepage befinden (14.910), wie lange sie sich durchschnittlich mit den Artikeln beschäftigen (1:25min), wie das Verhältnis von neuen, wiederkehrenden und loyalen Nutzerinnen und Nutzern ist, mit welchem technischen Endgerät (Mobile, Desktop, Tablet) und von welchem Land aus sie die Homepage abrufen. Darüber hinaus wird auf diesem Dashboard mittig das tagesaktuelle Nutzungsgeschehen anhand der Artikelaufrufe (Pageviews) und deren prognostizierte Entwicklung (ausgegrauter Bereich) dargestellt. Die Einfärbung des Kurvenverlaufs zeigt dabei gleichzeitig, wie oder über welchen Weg die Nutzerinnen und Nutzer auf die jeweiligen Artikel gekommen sind – ob sie bspw. in den sozialen Medien (Social), durch eine Suchmaschine (Search) oder durch das Surfen auf der Homepage (Internal) auf den Artikel aufmerksam gemacht wurden. Zentral in der Mitte listet das Dashboard außerdem auf, welche Artikel zurzeit am meisten gelesen werden (Concurrents), wie lange die Artikel gelesen werden (Engaged Time) und wie viele Aufrufe der jeweilige Artikel am heutigen Tag bereits generiert hat (PV’s Today). Diese kurzen Ausführungen verdeutlichen bereits, wie viele (Beobachtungs-)Daten rund um die Nutzung des eigenen Online-Angebots erhoben werden können. Das Beispiel des Dashboards bzw. der verwendeten Softwaretechnologie zeigt zugleich, dass die Daten in irgendeiner Form aufbereitet werden (müssen), damit sie für die Redaktionsmitglieder rezipierbar und kommunikativ anschlussfähig sind. Die Publikumsbeobachtung der Zeitungsredaktionen differenziert sich unter Internetbedingungen in der Folge immer weiter aus, was binnenperspektivisch gleichzeitig unweigerlich zu einer Komplexitätssteigerung führt. So stellt dies nur eine Möglichkeit dar, sich bestimmte bzw. als relevant eingestufte (Publikums-)Daten anzeigen zu lassen. Es gibt dementsprechend eine Vielzahl an weiteren Visualisierungsmöglichkeiten wie z.B. Wochen- oder Monatsvergleiche, die wiederum neue Einsichten und Erkenntnisse versprechen und sich nicht, wie im Beispiel oben, dezidiert auf das Tagesgeschäft konzentrieren. Die datenbasierte Sichtbarmachung des Nutzungsgeschehens ermöglicht außerdem zahlreiche Vergleichsmöglichkeiten: Welche Artikel bzw. Themengebiete und Ressorts sind bei den Nutzerinnen und Nutzern am beliebtesten? Für welche Artikel bzw. Themen wenden sie die meiste Lesezeit auf?

4 Die quantifizierte Publikumsbeobachtung der Print-Massenmedien unter Internetbedingungen

Abbildung 2: Beispielhaftes Dashboard des Datendienstleistungsunternehmens Chartbeat

Quelle: Screenshot, https://www.getapp.de/software/103369/chartbeat (letzter Zugriff: 08.10.2022)

93

94

Publikumsbeobachtung im digitalen Wandel

All diese Dateneinsichten und -erkenntnisse können sodann zukünftige Publikations- und Distributionsentscheidungen beeinflussen. Auch Langzeitstrategien können durch diese neuen Möglichkeiten der Publikumsbeobachtung entwickelt werden: Wenn über einen längeren Zeitraum beobachtet wird, dass die Nutzerinnen und Nutzer insbesondere durch soziale Medien auf das eigene Online-Angebot aufmerksam werden, könnte bspw. überlegt werden, die Artikel vermehrt über die sozialen Medien auszuspielen. Die Auswertung publikumsbezogener Daten sowie die zuvor notwendige Einordnung der Relevanz von Daten macht, anders formuliert, medienorganisationsinterne Entscheidungsbedarfe erforderlich. Darüber hinaus wird es für die Medienorganisationen zunehmend interessanter, die unterschiedlichen, vereinzelten Daten (Artikelaufrufe, Lesezeit, Lesetiefe, Interaktionen in den sozialen Medien wie das Liken, Teilen und Kommentieren der Beiträge etc.) in Beziehung zueinander zu setzen, um Muster (Nassehi 2019) zu erkennen. So lässt sich die Entwicklung beobachten, dass in den Redaktionen sog. Artikelscores gebildet werden, bei denen unterschiedliche Daten aggregiert und in einem Wert zusammengefasst werden – denn: »Wertvoll ist nicht (nur), was klickt« (Dillinger 2018). Entscheidungsrelevant und handlungsanleitend ist demnach nicht (mehr) nur »die eine« Zahl oder »der eine« Indikator wie bspw. die Klickzahl, sondern eine möglichst ganzheitliche Betrachtung und Auswertung aller – intern als relevant eingestufter – Daten. Neben dieser hier skizzierten Beobachtung des eigenen Nutzungsgeschehens scheint es für die Redaktionen auch zunehmend wichtiger zu werden, das Angebot und besonders die ebenfalls quantifizierte Nutzerresonanz der Konkurrenz zu verfolgen. Auch hierfür existieren von externen Unternehmen entwickelte Technologien (Softwareprogramme), die diese entsprechenden Daten visualisieren und die Medienorganisation folglich über das Konkurrenzangebot sowie dessen Nutzerresonanz im Netz informieren (siehe Abbildung 3). Das hier abgebildete Analysetool Storyclash zeigt eine Ranking-Liste der Top Posts (links) und der Top Sites (rechts), also die am besten performenden Nachrichtenseiten. Die Softwaretechnologie greift dabei die (öffentlich einsehbaren) Daten aus den sozialen Medien ab und zählt resp. quantifiziert die sog. sozialen Interaktionen (Interactions) eines Postings, die den (Rezeptions-)Akt des Likens, Teilens oder Kommentierens eines Beitrags beschreiben. Neben der reinen Aufzählung der Interaktionen werden auch entsprechende Zugewinne (grün) oder Verluste (rot) dargestellt. Die Visualisierung jener Daten kann redaktionsintern zugleich Entscheidungen dahingehend evozieren, ob oder inwiefern auf jene »Trends« in der netzspezifischen Nutzerresonanz reagiert werden soll. So vergewissert sich die Redaktion, ob eigene oder ähnliche Inhalte zu den Top Posts existieren und, wenn ja, wie diese optimiert oder überarbeitet werden können, um ebenfalls eine ähnlich große Sichtbarkeit und Aufmerksamkeit zu erzeugen.

4 Die quantifizierte Publikumsbeobachtung der Print-Massenmedien unter Internetbedingungen

Abbildung 3: Beispielhafte Datenvisualisierung des Analysetools Storyclash

Quelle: Screenshot, https://www.horizont.net/medien/nachrichten/Storyclash-Social-News-D ienst-bietet-nun-auch-Echtzeitanalyse-137281 (letzter Zugriff: 08.10.2022)

95

96

Publikumsbeobachtung im digitalen Wandel

Die Visualisierung und Auswertung von Daten stoßen redaktionsintern somit vor allem Selbstbeobachtungs- und Optimierungsprozesse an. Gleichzeitig werden die Wettbewerbsverhältnisse unter den Medienorganisationen gesteigert, weil durch jene Technologien reichweitenbezogene Daten nicht nur sichtbar, sondern auch vergleichbar gemacht werden. Der Name des Analysetools (»Storyclash«) scheint daher alles andere als zufällig gewählt zu sein, beschreibt er doch das wettbewerbsförmige Aufeinanderprallen von Nachrichtenartikeln – oder, etwas freier formuliert: den verdateten Wettbewerb um die Aufmerksamkeit der Nutzerinnen und Nutzer und den Kampf um die »beste(n)« Geschichte(n). Einhergehend mit dem Wandel des Publikumsverständnisses im Journalismus (siehe Kap. 4.2.1.3) lässt sich beobachten, dass Redakteurinnen und Redakteure neben ihrer steigenden Orientierung an dem Publikum und seinen Interessen auch zunehmend auf möglichst breite (und öffentlichkeitswirksam vermarktbare) Themen eingehen: »It is quite evident that there is a new drive to re-orient the journalist toward producing content that is ›marketable‹ to a wide audience« (Moyo et al. 2019: 501). Ein extremes Beispiel ist hier eine Form der Berichterstattung, bei der vorrangig sog. »clickbait« betrieben wird, also die Formulierung besonders reißerischer und aufmerksamkeitserzeugender Artikelüberschriften mit dem Zweck, möglichst viele Zugriffszahlen und dadurch mehr Werbeeinahmen zu erzielen (vgl. Tandoc 2014, Tandoc/Jenkins 2017). Diese Art der Berichterstattung ist für datengetriebene Geschäftsmodelle von Medienorganisationen nicht ungewöhnlich. Analog zur Einschaltquote im Fernsehen gilt auch hier: Je mehr Nutzerinnen und Nutzer den Artikel aufrufen und die geschaltete Werbung sehen, desto höhere Werbeeinnahmen können auch verlangt werden.10 Welchen Einfluss Nutzungsdaten auf die journalistische und redaktionelle Praxis haben, wird breit erforscht und diskutiert. So untersuchen Journalismusforscher und Kommunikationswissenschaftler bspw. die Bedeutung von Daten in den Entscheidungsfindungsprozessen der Nachrichtenselektion und -produktion (vgl. Fürst 2018, Lee at al. 2012, Welbers et al. 2016, Wendelin et al. 2015, Vu 2014) oder machen auf redaktionellen Herausforderungen in der Web-Analyse aufmerksam

10

Das »clickbait-Phänomen« stellt sich bei genauerer Betrachtung alles andere als »neu« heraus. So betreibt bspw. die sog. Regenbogenpresse seit jeher »clickbait« im übertragenen Sinne, indem sie mit reißerischen Überschriften und Sensationsmeldungen möglichst viel Aufmerksamkeit erzeugen möchte. Die Nachrichtenforschung führt dies auf Nachrichtenfaktoren und -werte wie Sensationalismus, Dramatik oder Kuriosität zurück, die eine Veröffentlichung der Nachricht und eine Berichterstattung wahrscheinlicher machen (siehe z.B. Lippmann 1922 oder Galtung/Ruge 1965).

4 Die quantifizierte Publikumsbeobachtung der Print-Massenmedien unter Internetbedingungen

(vgl. Nguyen 2013). Inwiefern Nutzungsdaten generell mit professionellen Werten und der journalistischen Autonomie konfligieren, stellt ein weiteres Untersuchungsfeld dar (vgl. Anderson 2011, Christin 2014b). Darüber hinaus können die datenbasierten Publikumsbeobachtungen Auswirkungen auf das Organisationsgefüge haben, wie Moyo et al. (2019: 501) am Beispiel von Personalentscheidungen (Vergütung und Beförderung) zeigen. Es scheint als würden die quantifizierten Publikumsdaten organisationsintern zunehmend auch in organisationale Leistungsindikatoren und Möglichkeiten der Organisationsgestaltung übersetzt werden (siehe hierzu Kap. 7.3 und 7.4 in der empirischen Fallanalyse). Ein vergleichsweise junges Forschungsfeld beschäftigt sich darüber hinaus mit dem zunehmenden Einfluss von zwischen Publikum und Medienorganisation stehenden »Dritten« oder auch »Intermediären« (vgl. Belair-Gagnon/Holton 2018, Bell et al. 2017, Brake 2017, Haim 2019, Nielsen/Ganter 2018, Petre 2015 und Wang 2017). Hierunter sind einerseits Plattformen wie Facebook, Twitter und Instagram zu verstehen, die für die Verbreitung von Inhalten im digitalen Umfeld immer wichtiger werden. Jedoch stehen hinter diesen Plattformen Unternehmen mit eigenen Interessen und Logiken stehen, was für Redaktionen zu neuen Ungewissheiten in ihrer Distribution führt (intrasparente Algorithmen). Andererseits werden für den redaktionsinternen Umgang mit Daten Dienstleistungsunternehmen wie bspw. Chartbeat immer wichtiger, da sie mit ihren angebotenen Technologien (Softwareprogrammen) detaillierte Visualisierungs- und Analysemöglichkeiten der Nutzungsdaten bereitstellen. Auch hier lässt sich insofern eine umweltliche Einflusseinnahme beobachten, als dass jene Unternehmen die Nutzungsdaten nach ihren Vorstellungen aufbereiten, visualisieren und übersetzen. Sie legen, überspitzt formuliert, die Standards fest, wie und anhand welcher Indikatoren das Publikum redaktionell beobachtet werden kann. Durch die Visualisierung der Dynamik des Nutzungsgeschehens werden in den Redaktionen zudem stets redaktionelle Entscheidungen (Änderungs- und Anpassungsbedarfe) evoziert. Insgesamt betrachtet scheinen die Redaktionen sich im digitalen Umfeld zunehmend an neue Umweltsysteme anpassen zu müssen, die in die Autonomie der Medienorganisationen eingreifen bzw. sie irritieren. Zum Forschungsstand ist abschließend festzuhalten, dass der Großteil der Forschung zum redaktionsinternen Umgang mit den Daten aus dem USamerikanischen Raum stammt. In der deutschsprachigen Forschungslandschaft mangelt es hierzu an empirischen Studien, die vor allem qualitativ mittels Experteninterviews und ethnografischer Forschungsansätze arbeiten und nicht auf quantitative Methoden wie z.B. Umfragen zurückgreifen (vgl. Muhle/Wehner 2017: 5). Ethnografische Forschung (wie etwa die teilnehmende Beobachtung) ermögliche die Untersuchung der Praxis der Publikumsvermessung und die Verarbeitung der Daten in situ – also eine Beobachtung des tatsächlichen Geschehens, während Interviews oder auch Umfragen stets rekonstruierende Verfahren (Berichte über

97

98

Publikumsbeobachtung im digitalen Wandel

das Geschehen) darstellen. Diese Divergenz zwischen tatsächlichem Geschehen und dessen Darstellung beschreibt auch Christin (2014a) in ihren Untersuchungen: »When it comes to chasing clicks, journalists say one thing but feel pressure to do another«.

4.3

Zeitungsredaktionen, Daten und Organisation

Wie zuvor dargelegt, entwickelt sich das Tracken, Beobachten und Auswerten des Nutzungsgeschehens im Internet zu einer neuen, zentralen redaktionellen Praxis in den Zeitungsredaktionen. Die Bedeutsamkeit der Daten (siehe vorheriges Kapitel) beschränkt sich dabei jedoch nicht nur auf das Publikum. Vielmehr werden durch das Erheben, Sammeln und Auswerten von Daten auch Sichtbarkeiten und Erkenntnisse über das innerorganisationale Geschehen produziert. So können Nutzungsdaten bspw. Aufschluss darüber geben, welche Themen oder Ressorts vom Publikum verhältnismäßig oft angeklickt, gelesen oder empfohlen werden. Bei dieser »einfachen« Übersetzung der Daten bleibt es jedoch nicht. Jene Daten werden medienorganisationsintern vielmehr ein zweites Mal übersetzt und ausgewertet – und zwar vor dem Hintergrund der Anpassung, Optimierung oder auch Restrukturierung von internen Arbeitsabläufen und -prozessen (vgl. Pieper/Wehner 2020). Die Publikumsdaten werden, mit anderen Worten, gleichzeitig »nach innen« übersetzt und auf redaktionelle bzw. medienorganisationale Belange überprüft. Vereinzelte Fallstudien aus dem Ausland deuten dies indirekt an (vgl. Brlek 2018, Moyo et al. 2019 und Robinson 2011). Die Auseinandersetzung mit Daten scheint demzufolge höchst entscheidungsbedürftig zu sein. Auch die Entscheidung, bestimmte Datenbeobachtungen nicht in redaktionelle Entscheidungen einfließen zu lassen, muss zunächst einmal entschieden werden. Die Untersuchung der Entscheidungsprämissen der Zeitungsredaktion verspricht folglich interessante Erkenntnisse im Hinblick auf ihren »digital turn« (siehe Kap. 7). Cherubini/Nielsen (2016) nähern sich in ihrer instruktiven Studie (»Editorial Analytics: How news media are developing and using audience data and metrics«) aus einer Organisationsperspektive heraus auf Zeitungsredaktionen bzw. Nachrichtenorganisationen und machen bei der Publikumsbeobachtung unter Internetbedingungen auf drei zentrale Dimensionen aufmerksam (siehe Abbildung 4). Die Dimension tools beschreibt hierbei die Verwendung technologischer Analyseinstrumente (Softwareprogramme und Interfaces), die die Redaktion für die Datenerhebung, den Datenumgang und die Datenauswertung nutzt. Der Begriff der organisation richtet den Blick auf die Organisationsstrukturen und fragt, ob in der Redaktion entsprechende Stellen (oder in größeren Medienorganisationen: dedizierte Abteilungen und Teams) für die Datenanalyse eingerichtet und folglich die notwendigen Kompetenzen hierfür vorhanden sowie interne Verantwortlichkeiten festgelegt sind. Die Dimension culture schildert den Zustand, inwiefern die

4 Die quantifizierte Publikumsbeobachtung der Print-Massenmedien unter Internetbedingungen

Abbildung 4: Dreieck zur Bewertung der redaktionellen Datenanalysefähigkeit

Quelle: Cherubini/Nielsen 2016: 23

Nachrichtenredaktion als Ganzes die Daten akzeptiert und die Möglichkeiten der Datenanalyse regelmäßig und bereitwillig für redaktionelle Entscheidungen nutzt. Diese drei Dimensionen (tools, organisation und culture) stehen dabei in einem wechselseitigen Verhältnis zueinander, wie Cherubini/Nielsen (2016: 23) erläutern: »A newsroom can have the best-available tools and a strong analytics team with a clear position in the newsroom organisation, but without a culture of data use, it will fail to realise its full potential. Similarly, a newsroom can have good tools and a culture of data, but no in-house analytics expertise, and will thus struggle to do in-depth analysis and use analytics systematically, especially for longer term planning«. Die Autoren entwickeln sodann ein Typenmodell, welches anhand der zuvor präsentierten Dimensionen zwischen drei unterschiedlichen Entwicklungsstadien der redaktionellen Datenanalyse differenziert (siehe Abbildung 5). Diese Redaktionstypologie unterscheidet zwischen einer rudimentären, generischen und redaktionellen Datenanalyse. Ausschlaggebend für die verschiedenen Typen sind die jeweiligen Ausprägungen und Verhältnisse der Dimensionen. Einen redaktionelle Datenanalyse sollte idealtypisch über eine starke Ausprägung und Ausdifferenzierung aller drei Dimensionen verfügen (Analysetools, Organisationsstruktur und Redaktionskultur). Eine rudimentäre Datenanalyse zeichnet dagegen

99

100

Publikumsbeobachtung im digitalen Wandel

Abbildung 5: Eine Typologie der redaktionellen Datenanalysefähigkeit

Quelle: Cherubini/Nielsen 2016: 24

eine vergleichsweise hohe Nutzung von Analysetools bei einer gleichzeitig schwach ausgeprägten Organisationsstruktur und Redaktionskultur aus. Charakteristisch für diese Form der Datenanalyse ist das zuvor geschilderte Folgeproblem, wie in mit den vorhandenen Nutzungsdaten intern umgegangen und wie sie für redaktionelle Belange anschlussfähig gemacht werden sollen. Cherubini/Nielsen (ebd.) schlussfolgern mit Blick auf die unterschiedlichen wirtschaftlichen, strukturellen und kulturellen Voraussetzungen der Redaktionen: »The question is thus not only what tools, but also what kind of organisation und culture an newsroom needs to make the best use of analytics«. Im Hinblick auf a) die zunehmende Relevanz von Online-Nutzungsdaten für das Redaktionsgeschehen und b) die herausgearbeitete Bedeutsamkeit einer Organisationsbetrachtung von Massenmedien im Kontext ihrer Publikumsbeobachtung unter Internetbedingungen werden im Folgenden Anschlussfragen an die Binnenperspektive der Redaktion entwickelt, die auf die medien-, organisations- und zahlensoziologischen Bezüge der Arbeit (siehe Kap. 2 – 4) zurückgreifen und nachfolgend an das empirische Material gestellt werden. 1) Inwiefern wandelt sich unter Internetbedingungen die Publikumsbeobachtung der Massenmedien? 2) Wie wird redaktionsintern über die Relevanz von Daten entschieden und wie werden sie kommunikativ anschlussfähig gemacht? Wie werden die quantifizierten Publikumsbeobachtungen sodann in redaktionelle Belange übersetzt? 3) Welche Auswirkungen hat die internetbasierte Publikumsbeobachtung auf die Entscheidungsprämissen der Medienorganisation?

4 Die quantifizierte Publikumsbeobachtung der Print-Massenmedien unter Internetbedingungen 4) Inwiefern rekonfigurieren sich mit Blick auf die Verdatung neben den Publikumsbeziehungen auch die Beziehungen der Beteiligten und das Geschehen innerhalb der Redaktion? 5) Inwiefern wandelt sich durch den »digital turn« die Umwelt der Redaktion – und mit welchen Folgen?

4.4

Zusammenfassung: Die quantifizierte Publikumsbeobachtung der Print-Massenmedien unter Internetbedingungen. Zeitungsredaktionen im Fokus

Das Kapitel schloss an die Ausführungen der Arbeit zur massenmedialen Publikumsbeobachtung (Kap. 2), dem dort herausgearbeiteten Forschungsdesiderat einer organisationsorientierten Erforschung der Massenmedien sowie an die Frage nach dem grundsätzlichen Verhältnis von Organisation und Zahlen (Kap. 3) an und beschrieb eingangs Zeitungsredaktionen in einem organisationsoziologisch informierten Verständnis (Kap. 4.1). Unter Bezugnahme der System-Umwelt-Differenz wurde zunächst zwischen einer Binnenperspektive (Kap. 4.1.1.) und den relevanten Umweltsystemen der Redaktion (Kap. 4.2.2) unterschieden. In der Auseinandersetzung mit der Binnenperspektive wurden vereinzelte Studien zur deutschen Redaktionsforschung herangezogen und die Redaktion anhand ihrer Organisationsstrukturen (Entscheidungsprämissen) beschrieben: Entscheidungsprogramme, Personal und Kommunikationswege (Kap. 4.1.1.1 – 4.1.1.3). Als zentrale Umweltsysteme der Redaktion wurden anschließend die Informatoren, das Publikum, andere Massenkommunikationsmedien und Technologie definiert (Kap. 4.1.2.1 – 4.1.2.4). In einem nächsten Schritt wurde die Verlagerung von Zeitungsredaktionen ins Netz beleuchtet (Kap. 4.2). Der damit einhergehende Wandel der Distributionsbedingungen (von Print zu online) markiert für die Print-Massenmedien einen markanten Einschnitt. Hiermit ist jedoch nicht nur die Nutzung entsprechender digitaler Infrastrukturen und Distributionsmöglichkeiten gemeint. Vielmehr entstehen mit dem Übergang ins Netz organisationale Restrukturierungsbedarfe und neue redaktionelle Verhältnisse. Dieser »digital turn« der Massenmedien (Kap. 4.2.1) wurde mit Blick auf den Medienwandel und veränderte Mediennutzungsmuster, wirtschaftliche Probleme und die Notwendigkeit der Entwicklung neuer Geschäftsmodelle, die Rekonfiguration der Publikumsbeziehungen sowie sich verändernde Organisationsstrukturen und neue redaktionelle Arbeitsweisen und Verständnisse veranschaulicht (Kap. 4.2.1.1 – 4.2.1.4). Hierbei deutete sich bereits an, dass der Übergang ins Netz für die Redaktion durch eine zunehmende Bedeutsamkeit von Daten gekennzeichnet ist (Kap. 4.2.2). Dies stellt sich insofern als ein Umbruch heraus, als dass die Ergebnisse aus Publikumsbefragungen und beobachtungen in den Zeitungsredaktionen lange Zeit wenig oder keine Beachtung

101

102

Publikumsbeobachtung im digitalen Wandel

fanden. Für eine redaktionelle Datenanalyse sind neben der Verwendung technologischer Analysetools (Softwareprogramme), die die Daten aufbereiten, visualisieren und hierdurch eine redaktionsinterne Anschlussfähigkeit an die Daten herstellen, auch eine entsprechende, die Datenkommunikation und -auswertung fördernde, Organisationsstruktur und Redaktionskultur erforderlich (Kap. 4.3). Datenverständnisse und der redaktionelle Sinn der Daten liegen, anders formuliert, nicht »einfach so« vor, sondern müssen intern mittels institutionalisierter Behelfs- oder Zwischensysteme (wie bspw. dem Aushandeln von Daten auf Redaktionskonferenzen) erschlossen werden. Formalisierung und Organisation sind in der Publikumsbeobachtung der Zeitungsredaktionen so gesehen alles andere als unbedeutend. Die Möglichkeiten der Publikumsbeobachtung im Netz gestalten sich insgesamt betrachtet als viel differenzierter und detaillierter als jene unter PrintBedingungen, weshalb in der Redaktion auch neue Kompetenzen notwendig und entsprechende Stellen eingerichtet werden (Datenanalysten, Social MediaMitarbeitende, SEO-Mitarbeitende etc.). Um Unsicherheit(en) über Publikumsinteressen und -nutzungsgewohnheiten zu reduzieren, dementsprechend Muster und (nachhaltige) Trends in der Angebotsnutzung zu erkennen und anhand der gewonnenen Erkenntnisse die Produktion und Distribution von Inhalten zu optimieren, lädt sich das Redaktionssystem folglich mit datenbasierten Komplexitäten auf. Das Betreiben von Publikumsbeobachtung (hier immer verstanden als Prozesse der Datenerhebung, Datenumgang und Datennutzung; siehe Kap. 2) führt in der Redaktion demnach in erster Linie zu neuen Beschäftigungserfordernissen und Entscheidungsnotwendigkeiten. In der Umwelt der Redaktion zeichnet sich darüber hinaus eine Wirkmächtigkeit von »Dritten« (zwischen Massenmedien und Publikum stehende Distributionsplattformen und Datendienstleister) ab, die zu neuen redaktionellen Unsicherheiten und Abhängigkeiten führt. Das nun folgende Zwischenfazit führt die bisherigen Erkenntnisse (Kap. 2-4) zusammen und markiert die Forschungslücke, an die der empirische Teil der Arbeit anschließt.

5 Zwischenfazit: Numerische Binnenund Außenverhältnisse  von Massenmedienorganisationen als Forschungslücke

Die Untersuchung der massenmedialen Publikumsvermessung und -beobachtung wurde lange Zeit vernachlässigt und scheint erst mit dem Aufkommen des Internets und den dortigen Möglichkeiten der Verdatung ein größeres Forschungsinteresse geweckt zu haben. Die fehlende Beschäftigung mit der Publikumsbeobachtung der Massenmedien lässt sich auch darauf zurückführen, dass Massenmedien aus einem systemtheoretischen Verständnis heraus oftmals auf Funktionssystemoder Interaktionsebene betrachtet und untersucht werden. Im Fokus stehen hierbei Fragen nach der gesellschaftlichen Funktion der Massenmedien oder Fragen nach dem Zustandekommen von Massenkommunikation und ihren Bedingungen. Die Organisationsebene von Massenmedien spielt in den Analysen, wenn überhaupt, eine untergeordnete Rolle (siehe auch Tacke 2010: 356). Dabei lässt sich die Publikumsbeobachtung (und auch die Verdatung) der Massenmedien, wie in Kap. 2 gezeigt, instruktiv mit Blick auf die Organisationsebene thematisieren. Wie und mit welchen Folgen konkrete Fernseh- und Radiosender oder Zeitungen ihr Publikum – vor allem im Kontext ihrer Internetdistribution – beobachten und welche Auswirkungen die Beobachtungsergebnisse auf das organisationale Geschehen haben, stellt nach wie vor ein empirisches Forschungsdefizit im deutschsprachigen Raum dar. Die vorliegende Arbeit verortet sich im Feld der numerischen bzw. quantifizierten Publikumsbeobachtung der Massenmedien (vgl. Ang 1991; 2001, Hohlfeld 2013, Muhle/Wehner 2017, Neumann-Braun 2000, Schenk 2007, Schrage 2005, Wehner 2010, Wehner et al. 2012, Wehner et al. 2017). Sie untersucht die sich im Kontext der Internetdistribution wandelnden Beobachtungsverhältnisse und -möglichkeiten. Als zentralen Forschungsgegenstand werden Zeitungsredaktionen in den Blick genommen, die das Nutzungsverhalten des Publikums verdaten und entsprechende Daten für redaktionsinterne Zwecke analysieren. Da insbesondere das Zeitungswesen mit dem Übergang ins Netz mit wirtschaftlichen Finanzierungsproblemen

104

Publikumsbeobachtung im digitalen Wandel

zu kämpfen hat (vgl. Lobigs 2018, Röper 2014) und die Beziehungen zum Publikum neu justiert werden müssen, da bspw. klassische Lesergruppen wegfallen, findet sich insbesondere in diesem Bereich ein großes Interesse und eine intensive Praxis der »Verdatung«. Für die Massenmedien erfährt das Publikum, insbesondere im Vergleich zu Zeiten »klassischer« Print-Distribution, einen neuartigen und immerzu bedeutsameren Stellenwert (vgl. Hölig/Loosen 2018, Wendelin 2014). Seitens der Forschung wird den, das Publikum abbildenden, Nutzungsdaten (insbesondere in Form von Klickzahlen) bereits eine große Relevanz für die redaktionelle Praxis zugeschrieben (vgl. Anderson 2011, Cherubini/Nielson 2016, Fürst 2018, Hammond 2017, Napoli 2011, Tandoc 2014, Vu 2014, Wang 2017, Welbers et al. 2016). Jene »numerischen Inklusionen« (Wehner 2010) stehen folglich im Zentrum der Arbeit. Es interessiert vor allem, inwiefern sich aufgrund der zunehmend differenzierteren und feingliedrigeren Quantifizierungsmöglichkeiten des Publikums organisationsintern neue Entscheidungsgrundlagen bilden und welche organisationalen Restrukturierungsprozesse in den Zeitungsredaktionen beobachtbar sind. Gleichzeitig zeichnet sich ab, dass im Netz große Medienkonzerne wie Google, Facebook und Twitter tiefgehend in die Praxen und Praktiken der massenmedialen Publikumsbeobachtung eingreifen (vgl. Brake 2017, Belair-Gagnon/Holton 2018, Diakopoulos 2015, Gillespie 2014, Petre 2018) und sie um neue Formate ergänzen. Zu fragen und erforschen ist dabei, welche Abhängigkeits- und notwendigen Anpassungsverhältnisse zwischen Medienorganisationen und jenen Medienkonzernen bzw. »Intermediären« (vgl. Nielsen/Ganter 2018) entstehen. Anzunehmen sind unter anderem gegenseitige Beobachtungsverhältnisse sowie die Herausbildung von speziellen Erwartungen und Erwartungserwartungen (vgl. bspw. Haim 2019). Eine Fokussierung der vorliegenden Arbeit besteht neben der Untersuchung der numerischen Außenverhältnisse (»Umweltverdatung«) in der Erforschung der numerischen Binnenverhältnisse der Massemedienorganisationen (innerorganisationelle Verdatung). So ermöglicht die Erhebung und Auswertung von Nutzungsdaten nicht nur die Generierung von Wissen über das Publikum. Für die jeweilige Organisation ergeben sich zugleich Möglichkeiten der eigenen Beobachtung sowie neue quantifizierte Formen des Vergleichens und Bewertens von Inhalten. Es können statistisch valide Sichtbarkeiten in zuvor nicht einsehbare redaktionelle Prozesse hergestellt werden, wie z.B.: Welches Ressort und welche Artikel resp. welcher Journalist bzw. welche Journalistin generiert die größte Aufmerksamkeit (erreicht das Publikum »am besten«)? Wie viele Inhalte werden von einem Ressort über einen Zeitraum verfasst und wie »gut« oder »schlecht« funktionieren sie? Welche Resonanz erzeugt der Artikel beim Publikum, auch in den Sozialen Medien (Likes, Beitragsteilungen, Kommentierungen etc.). Diese auf Quantifizierung beruhenden Beobachtungsmöglichkeiten dürften nicht nur für die Online-Redaktion interessant sein. Neben Kollegen und direkten Vorgesetzten können sich auch unbeteiligte Dritte (bspw. die Geschäftsleitung) ein zahlenreiches Bild über die An-

5 Zwischenfazit: Numerische Binnen- und Außenverhältnisse

gebotsnutzung sowie über einzelne Abteilungen machen. Gleichermaßen dürften interne Stellen für Werbung und Vermarktung ein großes wirtschaftliches Interesse an den Daten haben.1 Es wird nachfolgend somit ebenfalls der Frage nachgegangen, inwiefern mit dem Einblick in die Daten neue organisationale Entscheidungsgrundlagen und -zwänge sowie (De-)Legitimierungsmuster entstehen. Soziologisch interessant ist somit auch die Frage nach der Herausbildung organisationsinterner und -spezifischer (Kommunikations-)Regeln und Umgangsformen (institutionalisierte Verselbstständigungen) mit den Daten sowie die Entstehung möglicher Kommunikationsschranken. Hochgradig spannend ist ebenso die Frage nach den redaktionsinternen Folgen der Verdatung. Durch das Beobachten, Vergleichen und Bewerten von Daten scheinen sich organisationsintern zugleich neue und datenspezifische Leistungsindikatoren zu entwickeln. Ungewiss und untersuchenswert ist, inwiefern in diesem Zusammenhang Neudefinitionen oder Reformulierungen von »Erfolg« (von Medieninhalten) und »Leistung« (einzelner Mitglieder oder Ressorts) zu beobachten sind.2 Mit der Verdatung respektive den gesteigerten und differenzierteren Beobachtungsmöglichkeiten eng verbunden ist die zunehmende Relevanz von externen Dienstleistungsunternehmen, die Softwareprogramme für den Umgang mit Daten anbieten (vgl. Belair-Gagnon/Holton 2018, Fürst 2018, Petre 2015; 2018). Diese Programme helfen bei der Visualisierung, Übersetzung und Auswertung der Nutzungsdaten. So verspricht bspw. das Unternehmen Chartbeat (2021) wertvolle Dateneinsichten: »Unlock the value in your content data. Clever and powerful software

1

2

Hinzu kommen interessierte Dritte aus der Umwelt der Organisation (Werbetreibende), die für eigene Werbezwecke ebenfalls an den Publikumsdaten des jeweiligen Medienunternehmens (Reichweite, Zusammensetzung des Publikums) interessiert sind, um ihre Werbung bestmöglich zu platzieren Interessant ist außerdem der Verweis auf die sich neu herausbildenden Beobachtungsmöglichkeiten aufseiten des Publikums. Denn: das Publikum kann die Zeitung in dem Wissen darüber beobachten, dass es (das Publikum) weiß, dass sie (die Zeitung) über Nutzungsdaten verfügt und das Publikum anhand derer beobachtet. Nun kann das Publikum wiederum »quantifizierte Mehrheiten« in den sozialen Netzwerken wahrnehmen und beobachten, wie diese Daten seitens der Redaktion genutzt werden (zu denken ist hier bspw. daran, dass viele Gefällt mir-Angaben, Beitragsteilungen oder Kommentare auf eine gewisse Relevanzund Aufmerksamkeitssetzung des Publikums markieren, was möglicherweise auf den Publikumswunsch nach zusätzlicher Berichterstattung, einer Kommentierung, Richtig- oder Falschstellung etc. hindeutet). Zu erforschen ist hier, inwiefern sich durch die Möglichkeiten der Online-Verdatung (Berufung auf numerische Bezugssysteme) die massenmedialen Publikumsbeziehungen wandeln. Anders formuliert und gefragt: Welche datenbasierten Erwartungen und Erwartungserwartungen bilden sich zwischen Massenmedien und Publikum? Und zu welchen Folgen kommt es bei Brüchen in der Erwartung(serwartung)? Siehe auch Wehner (2020), der im Hinblick auf die Beziehung zwischen Sender und Empfänger unter Internetbedingungen von einem »Numerical Coupling« spricht.

105

106

Publikumsbeobachtung im digitalen Wandel

that grows your audience through insights and action«. Mithilfe eines Dashboards können publikumsbezogene Daten (die aktuelle Anzahl der Websitenutzerinnen und -nutzer, ihr Herkunftsland, ihre vorher besuchte Internetseite, die meistgeklickten Artikel auf der Website etc.) übersichtlich und zeitlich geordnet (»Echtzeit« oder Zeitpunkt t¹-t²) dargestellt werden. Die Programme haben dementsprechend einen maßgeblichen Einfluss auf die Beobachtungs- und Vergleichspraktiken der Massenmedien, da sie jene neuen Sichtbarkeiten mittels Visualisierungstechniken (Tabellen, Verlaufskurven, Netzwerke, Tachometer) (erst) herstellen und folglich in hohem Maße an der Datenübersetzung beteiligt sind. Das Wahrnehmen von Auffälligkeiten und Aufmerksamkeit geht somit – wie unter Bedingungen der Quote – auf die Relevanzsetzungen und Eigenlogiken »dritter« Akteure zurück. Da es im deutschsprachigen Raum bisher noch an empirischen Einsichten und Studien über die Publikumsbeobachtung der Massenmedien – insbesondere auf Organisationsebene – mangelt, möchte die vorliegende Arbeit hierzu einen Forschungsbeitrag leisten. Folgende Forschungsfragen werden an das empirische Material gestellt: 1) Welche Ausweitungen bzw. Differenzierungen der verdatbaren Publikumsaktivitäten lassen sich unter Internetbedingungen beobachten?

Mit Blick auf die stark limitierten, »traditionellen« Beobachtungsmöglichkeiten einer Zeitungsredaktion soll herausgestellt werden, welche neuen Möglichkeiten der Erfassung und Darstellung von Publikumsaktivität unter digitalen Infrastrukturen entstehen. In Bezug auf den Medienwandel (»analoge« Distribution (Print) → »digitale« Distribution (online)) und die erweiterten resp. neuartigen Möglichkeiten der Publikumsbeobachtung wird ferner die Frage nach dem medienorganisationsinternen Stellenwert des Publikums gestellt. Inwiefern lässt sich hier zudem eine Neugestaltung der Publikumsbeziehungen beobachten? 2) Wie werden die (Publikums-)Daten für redaktionelle Entscheidungen relevant gemacht?

Hier wird nach der Übersetzung von Nutzungsdaten in anschlussfähige Objekte und nach dem internen Datenumgang gefragt. Welche Kommunikationsbedarfe, aber auch Übersetzungskonflikte werden sichtbar? Inwiefern wird der Datenumgang formalisiert und reguliert (bspw. durch Zugriffsrechte)? Welche organisationalen Erwartungen bilden sich im Umgang mit den Daten und wie werden diese aktualisiert (bspw. durch regelmäßige Meetings)? Inwiefern lassen sich team- oder abteilungsspezifische »lokale Rationalitäten« (Cyert/March (1963) im Datenumgang beobachten? Nicht zuletzt ist dabei auch zu fragen, welche

5 Zwischenfazit: Numerische Binnen- und Außenverhältnisse

neuen Entscheidungsgrundlagen, (De-)Legitimierungsmuster und veränderten redaktionellen Verständnisse durch die Publikumsverdatungen entstehen. 2) a) Wie und mit welchen Folgen werden die Publikumsdaten in Organisationsbeobachtungen übersetzt?

Diese Unterfrage schließt an eine zentrale These der Arbeit: Nämlich, dass die Organisation resp. Redaktion unter Internetbedingungen nicht nur das Publikum, sondern auch sich selbst anhand von Daten beobachtet. Informationen über vorher nicht einsehbare redaktionelle Prozesse können nun sichtbar gemacht und durch Vorgesetzte, die Geschäftsleitung oder weitere interessierte Dritte beobachtet werden. Welche organisationalen Restrukturierungen werden durch solch eine datenbasierte Selbstbeobachtung angestoßen (Wandel der Entscheidungsprämissen)? 2) b) Wie rekonfigurieren sich die Beziehungen der Beteiligten durch die innerorganisationalen Beobachtungmöglichkeiten?

Unmittelbar an die vorherige Forschungsfrage anschließend sollen auch die Folgen jener datenbasierten Organisationsbeobachtung untersucht werden. Durch die jederzeit abrufbaren und visualisierbaren Daten ist davon auszugehen, dass sich auch die Beziehungen zwischen den Beteiligten wandeln und stärker numerisch geprägt werden. Es wird danach gefragt, welche neuen Formen und Praktiken des Vergleichens und Bewertens durch die Verdatung entstehen können und inwiefern sich hierdurch neue Konkurrenz- und Wettbewerbsverhältnisse herausbilden oder bestehende intensiviert werden. Inwiefern beobachten sich die Beteiligten (Mitglieder, Teams, Abteilungen) folglich wechselseitig im Spiegel der nun verfügbaren Daten? 3) Welchen Stellenwert nehmen »Dritte« in der Publikumsbeobachtung unter Internetbedingungen ein?

Die dritte übergeordnete empirische Forschungsfrage befasst sich mit den sog. »Dritten«, definiert als in der Umwelt befindliche Intermediäre der Publikumsbeobachtung (siehe Kap. 2.2.1). Angesprochen sind hiermit insbesondere Drittanbieter- bzw. Distributionsplattformen wie Facebook, Twitter, Instagram oder Google News und Datendienstleistungsunternehmen wie bspw. Google Analytics oder Chartbeat, die Technologien zur Publikumsbeobachtung im Netz zur Verfügung anbieten, ihre Nutzung gleichzeitig aber unter bestimmte Bedingungen stellen. So operieren »Dritte« nach jeweils eigenen Logiken (Algorithmen) und Vorstellungen. Zu untersuchen ist, welcher Stellenwert ihnen in der redaktionellen Publikumsbeobachtung zuzuschreiben ist und welche ordnungs- und strukturbildenden

107

108

Publikumsbeobachtung im digitalen Wandel

Effekte von ihnen ausgehen können. Inwiefern lassen sich Abhängigkeiten von jenen »Dritten« entdecken – und mit welchen binnenperspektivischen Folgen?3 Bevor nun die zeitungsredaktionelle Publikumsbeobachtung, ihr Wandel unter Internetbedingungen und dessen mediensoziologische Implikationen fallanalytisch am Beispiel einer überregionalen Tageszeitung empirisch herausgearbeitet und veranschaulicht werden, ist zunächst die Erläuterung des methodischen Vorgehens notwendig.

3

Es ist darüber hinaus anzunehmen, dass durch die Verwendung jener Technologien (Softwareprogramme) massenmedienübergreifende Angleichungsprozesse in der Publikumsbeobachtung angestoßen werden. Denn jede Redaktion, die entsprechende Analysetools benutzt, wählt zwischen denselben Filter- und Anzeigemöglichkeiten der Daten aus. Welche der Daten für redaktionelle Entscheidungen und die redaktionelle Weiterentwicklung letztendlich genutzt werden und welchen der Daten besondere Aufmerksamkeit geschenkt wird, ist jedoch wiederum fallspezifisch zu untersuchen.

6 Methodisches Vorgehen

Im Folgenden wird das methodische Vorgehen des empirischen Teils der Arbeit erläutert. Hierzu wird in einem ersten Schritt die zurückliegende empirische Forschungsphase kurz reflektiert, indem der Feldzugang skizziert, die daran anschließende Feldforschung beschrieben und die daraus entstehende Fallanalyse eingeordnet wird (Kap. 6.1). Hiernach werden das Forschungsdesign und die verwendeten Methoden zur Datenerhebung genauer vorgestellt (Kap. 6.2). Abschließend wird dargelegt, wie die erhobenen empirischen Daten ausgewertet wurden (Kap. 6.3).

6.1

Vom Feldzugang zur Fallanalyse

Der konkrete empirische Untersuchungsgegenstand der Arbeit sind Zeitungsredaktionen, die die Möglichkeiten der Online-Distribution nutzen, dabei entsprechende Nutzungsdaten redaktionsintern verarbeiten und sich mithilfe dessen ein Bild von ihrem Publikum machen. Oder anders formuliert: Zeitungsredaktionen, die die Möglichkeiten der Publikumsbeobachtung und Online-Verdatung sowie Analyse unter digitalen Infrastrukturen nutzen. Der Feldzugang stellte sich aufgrund des aktuellen Journalismuswandels und einem damit einhergehenden Diskurs, welchen Einfluss die Sichtbarmachung des Nutzungsgeschehens im Internet auf die redaktionelle Praxis hat, als kompliziert heraus. Retrospektiv verwundert es daher nicht, dass viele Zeitungsredaktionen der Forschungsanfrage abgesagt oder hierauf nicht reagiert haben. Generell stellt sich ein schwieriger (oder manchmal auch unmöglicher) Feldzugang in der Redaktions- und Journalismusforschung als etwas nicht Unübliches heraus (siehe auch Quandt 2011). Im gesamten Forschungsprozess konnten drei Zeitungen für das Forschungsanliegen gewonnen werden. Die empirische Fallanalyse in Kap. 7 greift dezidiert auf eine zweiwöchige Feldforschung in einer überregionalen Tageszeitung im November 2018 zurück. Das hier gewonnene empirische Material beläuft sich auf 8 Audioaufnahmen (438 Minuten), Feldnotizen und Beobachtungsprotokolle im Umfang von 34 Seiten und auf ein siebenseitiges

110

Publikumsbeobachtung im digitalen Wandel

Forschungstagebuch. Das entwickelte Forschungsdesign sowie die konkreten Datenerhebungsmethoden werden im nun folgenden Kapitel erläutert.

6.2

Forschungsdesign und Datenerhebungsmethoden

Für die Untersuchung der Zeitungsredaktion und ihrer Publikumsbeobachtung unter Internetbedingungen wurde ein qualitatives und exploratives Forschungsdesign entwickelt. Dabei wurde sich für einen ethnografischen Ansatz (Kap. 6.2.1) entschieden, der insbesondere auf die Methoden der teilnehmenden Beobachtung (Kap. 6.2.2) und des Experteninterviews (Kap. 6.2.3) zurückgreift. Den konkreten Fall bildet, wie oben ausgeführt, eine überregionale Tageszeitung resp. ihre Redaktion: »Bei der Einzelfallanalyse (Case Study) handelt es sich demnach um eine umfassende Forschungsstrategie, bei der eine abgrenzbare Einheit – ein Fall – in ihren Binnenstrukturen und Umweltverhältnissen umfassend verstanden werden soll« (Hering/Schmidt 2014: 529; Hervorhebung im Original). Eine Fallanalyse ist durch kein spezielles oder vorher strikt festgelegtes Set an Erhebungs- oder Auswertungsverfahren gekennzeichnet, sondern will ein Tiefenverständnis des Falles erzeugen (vgl. Hering/Schmidt 2014). Als praktisches Leitmotiv gilt, den vielfältigen Facetten des Falles zu folgen und ihn in seiner Komplexität möglichst umfassend darzustellen. Im Fokus der Analyse steht also der per se interessante Fall, der das Phänomen der Publikumsbeobachtung unter digitalen Infrastrukturen aus der Binnenperspektive der Zeitungsredaktion möglichst erschöpfend beschreiben und dabei für besondere Aspekte sensibilisieren will.

6.2.1

Der ethnografische Ansatz

Ethnografie beschreibt eine sozialwissenschaftliche Forschungsstrategie, bei der mehr oder weniger unbekannte Völker, Kulturen, ethnische Gruppen, Gemeinschaften oder andere soziale Einheiten – wie bspw. in diesem Fall: eine Zeitungsredaktion – und deren Handlungsweisen und Wissensformen untersucht werden (vgl. Knoblauch 2014: 521). Der Forscher betreibt, mit anderen Worten, Forschung über ein Feld, welches durch das Handeln und Wissen der Akteure geschaffen, gestaltet und aufrechterhalten wird. Das Verstehen »der Anderen« und ihrer Praktiken, Entscheidungen und Kultur steht dabei im Vordergrund, weshalb nach Knoblauch (ebd.: 523) die Ethnografie auch als Paradefall der interpretativen Sozialforschung verstanden werden kann. Die Ethnografie ist keine eindeutig darstellbare und standardisierte Methode (vgl. Breidenstein et al. 2013: 10). Die Vorgehensweise folgt im Gegensatz zu an-

6 Methodisches Vorgehen

deren sozialwissenschaftlichen Methoden wie bspw. der Hermeneutik oder qualitativen Inhaltsanalyse keinen vorgegebenen und streng einzuhaltenden Regeln im Sinne einer immer wieder gleich anzuwendenden Technik. Es gibt, kurzum, keine »Regeln« der Ethnografie. Das Vorgehen selbst ist vielmehr vom jeweiligen Fall und Feld sowie von den Forschungsfragen abhängig. Methodisch kann die Ethnografie als ein integrierter Forschungsansatz beschrieben werden (vgl. Breidenstein et al. 2013: 34ff.). Es werden Beobachtungen mit Interviews und Dokumenten aller Art kombiniert. So reichen die Datentypen von Protokollen und Feldnotizen über Tagebücher bis hin zu Interview- und Gesprächstranskripten. Die teilnehmende Beobachtung (Kap. 6.2.2) steht allerdings im Zentrum der Ethnografie. Denn sie stiftet die soziale Form, in der alle mögliche Daten überhaupt erst gewonnen werden können: »Auf Basis einer Begleitung von Praktiken an einem Ort über längere Zeit werden Vertrauensbeziehungen aufgebaut, informelle Gespräche geführt, Dokumente aller Art erhoben, Fotos geschossen, Gespräche der Teilnehmer aufgezeichnet. Es gibt also keine Beschränkung auf einen bestimmten Datentyp, man geht vielmehr sehr offen und gelegenheitsgetrieben vor und nimmt alles an Eindrücken und Daten mit, das gewinnbringend erscheint« (ebd.: 34). Auch Fehlschläge beim Feldzugang oder misslingende Kommunikations- und Verstehensversuche können als Daten genutzt werden. Wo etwas verborgen wird, zeigt ein Feld, dass es etwas zu sehen gibt. Wo man etwas falsch versteht, gibt es etwas Interessantes zu verstehen. Was auf den ersten Blick als scheiternder Zugang erscheint, ist schon das erste Datum, so die Autoren. Die Forschung im Feld ist für ethnografisches Vorgehen zusammenfassend ausschlaggebend. Die dahinterliegenden Begründungen sind, dass a) sich das sozialwissenschaftliche Relevante nur in situativer Präsenz zeigt, b) man nur als Anwesender in der Lage ist, die Selektionen nachzuvollziehen, die für die Teilnehmer relevant sind und c) die soziale Praxis vor allem im zeitgleichen Vollzug zu beobachten ist (vgl. Breidenstein et al. 2013: 40f.). Diese synchrone Begleitung und Untersuchung lokaler Praxis (quasi in situ) ist für einen ethnografischen Ansatz entscheidend und unterscheidet sich von anderen methodischen Vorgehensweisen, in denen ausschließlich Daten und Erzählungen über die Praxis (bspw. in Form von Interviews) produziert werden. Im Hinblick auf die Untersuchung der konkreten redaktionellen Praxis der Aufbereitung und Interpretation der Daten sowie der daran anschließenden Entscheidungsprozesse oder der Erforschung neuer sich etablierender Routinen im Umgang mit den Daten verspricht ein ethnografischer Ansatz gewinnbringende Erkenntnisse (vgl. Muhle/Wehner 2017: 20, Paterson 2008: 2). Oder in den Worten Domingos (2011: xvi-xvii):

111

112

Publikumsbeobachtung im digitalen Wandel

»What ethnographic research on online news has in common is that it investigates the tension between technological innovations and the social context where they are adopted, while always aware of the general cultural framework (journalism at large) and the particularities of the specific settings (media organizations) where decisions are being made«. Besonders interessante Untersuchungsgegenstände für das Forschungsvorhaben sind neben der allgemeinen Beobachtung der redaktionellen Praxis der Publikumsbeobachtung daher Redaktionskonferenzen und Treffen von Teams oder Abteilungen, in denen über die Daten gesprochen und ihr redaktioneller Sinn ausgehandelt wird. Interessant ist darüber hinaus, wie eigens für die Analyse und Auswertung eingerichtete Stellen mit den Daten umgehen. Zu denken ist hier bspw. an den sog. Homepage-Chef, der die Homepage mit Inhalten bestückt und sich dabei auch am aktuellen Nutzungsgeschehen orientiert, an SEO-Mitarbeiter, die die Artikel für die Suchmaschinen aufbereiten und hierdurch eine größere Sichtbarkeit der Artikel im Netz herstellen, oder an Datenanalystinnen und Social MediaMitarbeiterinnen, die Auffälligkeiten, (Un-)Regelmäßigkeiten und Muster in den Daten erkennen, über entsprechende Datenerkenntnisse informieren und sie für redaktionelle Entscheidungen anschlussfähig machen.

6.2.2

Teilnehmende Beobachtung

Das Betreiben von Feldforschung steht unter der Bedingung der Anwesenheit des Forschers im Feld (siehe auch Strübing 2018: 59ff.). Teilnehmende Beobachtung meint, dass der Forscher – verdeckt/offen, aktiv/passiv, systematisch/unsystematisch – an dem Geschehen im Feld teilnimmt, dieses beobachtet und hierdurch Prozesse, Strukturen, Beziehungen, Handlungsabläufe oder Interaktionsmuster erkennen und verstehen möchte. Die Frage nach dem »Wie?« oder »Was geschieht hier?« steht dabei im Vordergrund (vgl. Thierbach/Petschick 2014: 855). Die teilnehmende Beobachtung sei wie keine andere Methode dazu geeignet, etwas zu entdecken, das man vorher nicht gewusst hat – oder in Worten Bachmanns: »eine Fragestellung zu entwickeln, von der man vorher noch nicht wusste, dass dies eine wichtige Frage ist« (Bachmann 2009: 267). Auch wenn das Beobachten für diese Methode charakteristisch ist, so darf sie nicht metaphorisch als ein statischer Hochsitz verstanden werden, wie Breidenstein et al. (2013: 73) erläutern. Denn der Forscher ist nicht immobil, nimmt keine künstliche Stellung im Raum ein und produziert keine Über-Sicht über die Ereignisse. Vielmehr bewegt er sich »auf Augenhöhe« im Feld, tummelt sich im Geschehen und wird mitunter als Beobachter gar nicht wahrgenommen. Die Feldforschung ist durch Phasen schwacher und starker Teilnahme sowie durch das situative Anpassen des Beobachters an das Geschehen gekennzeichnet

6 Methodisches Vorgehen

(vgl. ebd.: 66ff.). Während eine starke Teilnahme den Vorteil hat, einen guten Einblick in die Teilnehmerperspektive zu erhalten, gehen hiermit gleichzeitig schlechte Aufzeichnungschancen einher. Gute Aufzeichnungschancen bietet hingegen eine schwache Teilnahme – jedoch mit der Kehrseite, dass die Eigenlogik des Feldes für den Beobachter hierdurch unverständlich und unzugänglich bleiben kann. Die Teilnehmende Beobachtung stellt demzufolge ein Wechselspiel zwischen Nähe und Distanz dar: »Einerseits muss man sich dem Prozess überlassen: Gelegenheiten ergreifen, abwarten, auf der Lauer liegen und den Relevanzen der Teilnehmer folgen. Andererseits muss man den Prozess gestalten im Sinne der Präzisierung und Fokussierung der Forschung: Man muss Entscheidungen treffen, sich konzentrieren, auch weglassen und Optionen verwerfen« (ebd.: 68). Durch die Variation von Beobachtungsweisen können zudem die Beobachtung intensiviert und verschiedene Perspektiven des Feldes sichtbar gemacht werden. Hierzu bietet es sich an, soziale Ereignisse wiederholt zu beobachten, indem z.B. zu unterschiedlichen Zeitpunkten (an unterschiedlichen Orten) beobachtet wird. Positionen zu wechseln und Akteuren zu folgen (d.h. mobil zu sein) ist für eine Beobachtungsintensivierung ebenso hilfreich wie die thematische, zeitliche, personelle oder räumliche Zuspitzung der Beobachtung. Gleicherweise ist eine Beobachtung an den Grenzen des Feldes lohnenswert (siehe hierzu ebd.: 75-80). Insgesamt muss der Forscher ein Feingefühl dafür entwickeln, was wann wo erlaubt ist und wann eine Interaktion – oder gar seine bloße Anwesenheit – stört (vgl. Thierbach/Petschick 2014: 861f.). Gleichzeitigt gilt es zu erkennen, wann es sich lohnen könnte, weiter zu beobachten und nachzufragen, bestimmten Akteuren in bestimmten Situationen zu folgen – die Beobachtung also zu intensivieren. Bei jeder Beobachtung(sintensivierung) sollte das Feld jedoch so wenig wie möglich verändert werden. Mit dem Teilnehmen, Beobachten und Führen von Gesprächen verbunden ist das Dokumentieren – das Erzeugen von Daten (vgl. Breidenstein et al. 2013: 85ff.). Das Dokumentieren kann dabei unterschiedliche Formen annehmen: Aufschreiben (Feldnotizen), Aufnehmen (Ton- und Bildmitschnitte) oder Auflesen (Textartefakte). Besonders zu Anfang gilt die Maxime sehr gründlich und ausgiebig zu dokumentieren. Während das Aufnehmen von Audioaufnahmen technisch gesehen relativ »einfach« ist und »nur« das Einverständnis im Feld benötigt, gestaltet sich das (meist handschriftliche) Aufschreiben, also das selektive Notieren von Eindrücken, Äußerungen, Abläufen und Anordnungen als sehr arbeitsintensiv. Anhand der Feldnotizen und (Beobachtungs-)Protokolle gilt es anschließend, Memos bzw. analytische Notizen (»analytic notes«) anzufertigen, die von der Beobachtungsund Beschreibungsebene auf die Analyseebene wechseln und mit denen analytische und interpretative Bemerkungen festgehalten werden.

113

114

Publikumsbeobachtung im digitalen Wandel

Für die Redaktionsforschung sieht Quandt (2011: 294f.) die Potenziale der Beobachtung darin, dass Beobachtungen einen direkten Einblick in die interessierenden Untersuchungsbereiche erlauben. Im Gegensatz zur Befragung existiere keine Filterung durch Wahrnehmungen und (Selbst-)Einschätzungen der Akteure. Beobachtungen würden zudem die Erschließung weitgehend unbekannter Felder erlauben und hierdurch wichtige Impulse für die Forschung erzeugen. Mittels Beobachtung könnten komplexe Interrelationen und Zusammenhänge erforscht werden, die mit anderen Methoden (qualitative Inhaltsanalyse, Interviews) verdeckt bleiben. So resümiert er: »Die Methode bietet ein hohes Potenzial, das aber erschlossen werden muss – mit oftmals nicht unerheblichem Aufwand« (ebd.: 294). Die Beobachtung sei in der Redaktions- und Journalismusforschung im Gegensatz zu den anderen Erhebungsmethoden noch nicht so weit vorangetrieben, differenziert, kanonisiert und konsentiert, was somit zu neuen Möglichkeiten, aber auch Herausforderungen führt. Anzumerken ist ebenfalls, dass die teilnehmende Beobachtung einem generellen Repräsentativitätsproblem gegenübersteht, da es oftmals nur Ausschnitte von Einzelfällen sind, die in den Blick genommen werden. Eine vorschnelle Generalisierung auf Basis von teilnehmender Beobachtung ist dementsprechend immer auch angreifbar (vgl. Bachmann 2009: 267).

6.2.3

Gespräche und leitfadenorientierte Experteninterviews

Interviews und Gespräche belgeiten die ethnografische Feldforschung und finden meist entweder in Form informeller Gespräche (ethnografische Interviews), die in verschiedenen Situationen der teilnehmenden Beobachtung entstehen, oder in Form explizit vereinbarter Interviews statt (vgl. Breidenstein et al. 2013: 80ff.). Die vereinbarten Interviews finden oftmals in der laufenden Feldforschung und zu späteren Zeitpunkten der Forschungsphasen statt, da der Forscher dann erste Einblicke und Eindrücke des Feldes gesammelt hat und feldperspektivenerweiternde Interviewpartner (bspw. eine Expertin für ein bestimmtes Thema) lokalisieren kann. Das Experteninterview (vgl. grundlegend Meuser/Nagel 1991) unterscheidet sich wesentlich von biografischen oder offenen Interviews, bei denen die Gesamtperson (und insbesondere ihre privaten Erfahrungen und Einstellungen) Gegenstand der Analyse ist. Für das Experteninterview ausschlaggebend ist das spezifische, detaillierte Wissen über interne Strukturen und Ereignisse sowie organisatorische und institutionelle Zusammenhänge. Der befragte Experte bzw. die befragte Expertin wird folglich als Repräsentant einer Organisation oder Institution angesprochen, der über ein spezifisches Rollenwissen verfügt. Das Experteninterview soll einen Zugang zu Wissen liefern, welches »nicht kodifiziert, sondern in betriebliche Praktiken eingelagert ist« (Przyborski/Wohlrab-Sahr 2014: 120). Experte-sein stellt sich in diesem Zusammenhang als ein relationaler Status

6 Methodisches Vorgehen

dar, der von dem jeweiligen Forscher anhand seines spezifischen Forschungsinteresses bestimmt wird. Diese Zuschreibung als Experte bzw. Expertin ist somit von der sprachlich verbreiteteren Form jenes Experten abzugrenzen, der zu etwas objektiv Stellung beziehen bzw. Auskunft darüber geben kann (bspw. ein Gutachter). Für Meuser/Nagel (1991: 443) ist entscheidend, dass der Experte jemand ist, »[d]er in irgendeiner Weise Verantwortung trägt für den Entwurf, die Implementierung oder die Kontrolle einer Problemlösung oder [d]er über einen privilegierten Zugang zu Informationen über Personengruppe und Entscheidungsprozesse verfügt«. Wird das Experteninterview als primäre Datenquelle genutzt, sprechen die Autoren von generiertem Betriebswissen. Auskünfte über das Handlungsfeld der Experten stehen hierbei im Vordergrund. Stellt das Interview lediglich eine Bezugsgröße neben weiteren, auch anderen Formen der Datenerhebung (wie bspw. einem quantitativen Fragebogen) dar, werde es im Forschungsprozess als Kontextwissen verwendet. In der Auswertung von Betriebswissen geht es im Wesentlichen darum, »[…] die entsprechenden Wissens- und Handlungsstrukturen, Einstellungen und Prinzipien theoretisch zu generalisieren, Aussagen über Eigenschaften, Konzepte und Kategorien zu treffen, die den Anspruch auf Geltung auch für homologe Handlungssysteme behaupten können bzw. einen solchen theoretisch behaupteten Anspruch bestätigen oder falsifizieren« (Meuser/Nagel 1991: 447). Die Aussagen der Expertinnen und Experten sind zudem als Deutungswissen – nicht als Sachinformationen – zu verstehen. Es gilt folglich von der manifesten Ebene (dem Text) auf latente (Sinn-)Strukturen zu schließen. Dabei ist herauszuarbeiten, an welchen (impliziten) Prinzipen, Regeln, Werte und Normen sie sich in ihrem Handeln orientieren (vgl. Bogner et al. 2014: 75f.). Das Experteninterview orientiert sich in der Regel an einem Leitfaden, der eine kommunikative und systematische Ordnung herstellt (vgl. Przyborski/WohlrabSahr 2014: 132). Die Entwicklung eines Leitfadens dient zunächst der inhaltlichen wie methodischen Vorbereitung des Interviews (vgl. Bogner et al. 2014: 28, siehe für die Erstellung eines Leitfadens auch Helfferich 2014: 566ff.). Nach Meuser/Nagel (1991: 448f.) verhindert ein offener Leitfaden einerseits, dass der Forscher von dem Experten bzw. der Expertin als ein inkompetenter Gesprächspartner wahrgenommen wird. Andererseits gewährleiste der Leitfaden eine Fokussierung auf die für den Forscher relevanten Themen. Eine leitfadenorientierte Interviewführung ermöglicht darüber hinaus eine Vergleichbarkeit der Interviewpassagen, wenn mehrere Interviews durchgeführt werden. Der Leitfaden schreibt jedoch kein starres Ablaufmodell vor, welchem strikt zu folgen ist. »Offen« bedeutet neben einer offe-

115

116

Publikumsbeobachtung im digitalen Wandel

nen Gesprächsführung zusätzlich, dass Fragen möglichst offen formuliert werden, um keine Ja-/Nein-Antworten zu generieren: »Es geht dann in erster Linie darum, Gesprächssituationen herzustellen, in denen die Befragten zu Schilderungen angeregt werden, in denen sie ihre Relevanzen und Einschätzungen entwickeln und offenlegen können – und zwar in Bezug zu bestimmten, in der Forschungsfragestellung konkretisierten Themen« (Bogner et al. 2014: 32). Ein Leitfaden besteht allgemein aus verschiedenen thematischen Blöcken mit je eigenen Hauptfragen und untergeordneten Detailfragen. Die Themenblöcke sind dabei so zu strukturieren, dass sie einerseits in sich geschlossene Themenfelder darstellen, andererseits aber auch als Gesprächsbausteine in ihrer Reihenfolge verschoben werden können (vgl. ebd.: 28ff.). Ziel ist es, »Raum für die Darstellung von Sachverhalten und Positionen in ihrem situativen Kontext, ihrem Entstehungszusammenhang und ihrer Einbettung in die Relevanzstruktur des Befragten zu geben« (Pryzoborski/Wohlrab-Sahr 2014: 132). Der entwickelte Leitfaden Der, für die im Feld geführten Gespräche und Experteninterviews, entwickelte Leitfaden orientiert sich an dem in Kap. 2.2 entwickelten und vorgestellten Modell der massenmedialen Publikumsbeobachtung. Die thematischen Blöcke des Leitfadens beziehen sich dementsprechend auf folgende Schwerpunkte: Die Datenerhebung Der Datenumgang Die Datennutzung Einfluss relevanter »Dritter« (Drittanbieterplattformen und Datendienstleister) 5) Die Zukunft des Journalismus und der Online-Verdatungsmöglichkeiten 1) 2) 3) 4)

Folgende Forschungsfragen sollen mithilfe des Leitfadens beantwortet werden: • • • •

Welche Methoden und Verfahren der Publikumsmessung und -beobachtung werden genutzt? Wie werden die Daten intern kommuniziert, anschlussfähig gemacht und in Entscheidungen der Themenwahl und Beitragserstellung übersetzt? Inwiefern wandeln sich das redaktionelle Geschehen und die Beziehungen der Beteiligten durch die Sichtbarmachung der Angebotsnutzung? Inwiefern entstehen durch die Bedingungen der Internetdistribution neue redaktionelle Anpassungserfordernisse sowie etwaige Autonomieverluste der Redaktion?

6 Methodisches Vorgehen



6.3

Wie entwickeln sich die Möglichkeiten der Publikumsverdatung und -beobachtung weiter – und mit welchen Folgen? Welche Potenziale und Herausforderungen werden in diesem Kontext wahrgenommen?

Auswertung des empirischen Materials nach der Grounded Theory

Das empirische Material wurde im Sinne der Grounded Theory nach Strauss/ Corbin (1996) ausgewertet. Dazu wurden die Audioaufnahmen zunächst mithilfe einer Computersoftware transkribiert. Die Transkription des empirischen Materials orientiert sich an dem Basistranskript des Gesprächsanalytischen Transkriptionssystems (GAT) 2 (vgl. Selting et al. 2009). Die Feldnotizen und Beobachtungsprotokolle wurden handschriftlich angefertigt und anschließend digitalisiert, um dieses Material ebenfalls codieren zu können. Den Übergang von der Forschung im Feld hin zur soziologischen Analyse der erhobenen Daten beschreiben Breidenstein et al. (2013: 107) wie folgt: »Die ethnografische Datenanalyse besteht wesentlich darin, dass sich das Schreiben allmählich den Teilnehmer-Selektionen entzieht und durch sozialwissenschaftliche Relevanzen steuern lässt. Mit diesen Rückzügen wird weiter an einer Beobachtungsposition gearbeitet – Beobachtung jetzt nicht mehr nur im Sinne einer handlungsentlastenden Wahrnehmung sozialer Situationen, sondern Beobachtung im Sinne einer in ihrer Distanziertheit gesteigerten Reflexionsposition«. Die Grounded Theory folgt, ähnlich wie die Ethnografie, keinem streng einzuhaltenden Regelwerk. Sie wird dementsprechend nicht als eine klassische Methode (oder Methodologie), sondern vielmehr als ein Forschungsstil verstanden, der ein an die konkrete Forschungspraxis flexibel anzupassendes Gerüst von Verfahrensvorschlägen anbietet (vgl. Strübing 2014: 457ff.). Die Forschungslogik der Grounded Theory zeichnet sich auch dadurch aus, dass die Prozesse der Datengewinnung, Datenanalyse und Theoriebildung nicht linear organisiert sind, d.h. nicht zwingend als jeweils nachgelagerte Prozesse angelegt werden. Alle drei Tätigkeiten können daher auch parallel betrieben werden, um sich gegenseitig produktiv zu beeinflussen. Im Folgenden werden der Forschungsstil der Grounded Theory1 und die für die vorliegende Arbeit relevanten Auswertungsverfahren näher vorgestellt. Charakteristisch für die Grounded Theory ist ihre gegenstandsverankerte und theoriegenerierende Kategorienbildung. Ziel ist die Generalisierung von Aussagen auf Basis von Einzelbefunden (vgl. Bogner et al. 2014: 77f.). Oder in den Worten von Strauss/Corbin (1996: 7): 1

Eine ähnliche Beschreibung der Grounded Theory findet sich auch in Pieper (2016).

117

118

Publikumsbeobachtung im digitalen Wandel

»Eine ›Grounded‹ Theory ist eine gegenstandsverankerte Theorie, die induktiv aus der Untersuchung des Phänomens abgeleitet wird, welches sie abbildet. Sie wird durch systematisches Erheben und Analysieren von Daten, die sich auf das untersuchte Phänomen beziehen, entdeckt, ausgearbeitet und vorläufig bestätigt. Folglich stehen Datensammlung, Analyse und die Theorie in einer wechselseitigen Beziehung zueinander. Am Anfang steht nicht eine Theorie, die anschließend bewiesen werden soll. Am Anfang steht vielmehr ein Untersuchungsbereich – was in diesem Bereich relevant ist, wird sich erst im Forschungsprozeß herausstellen«. Entscheidend ist, dass die Grounded Theory an den jeweiligen Forschungsgegenstand und an die eigene Fragestellung angepasst werden muss. So ist es durchaus möglich, dass in der Auswertung nur bestimmte Verfahren der Grounded Theory angewendet werden. Die Verfahren und Techniken der Grounded Theory, die in der Fallanalyse in erster Linie benutzt werden, sind die drei Phasen des Codierens (offen, axial und selektiv) des empirischen Materials. Bevor die einzelnen Codierverfahren genauer vorgestellt werden, soll jedoch eine übergeordnete Technik respektive Fähigkeit erläutert werden, die im gesamten Forschungsprozess von zentraler Relevanz ist – die theoretischen Sensibilität: »Theoretische Sensibilität ist die Fähigkeit zu erkennen, was in den Daten wichtig ist, und dem einen Sinn zu geben« (Strauss/Corbin 1996: 30). Die Fähigkeit, Wichtiges von Unwichtigem zu trennen, geht einerseits auf das Lesen von Fachliteratur und andererseits auf professionelle und persönliche Erfahrung zurück. Bei ersterem sei stets eine skeptische Haltung einzunehmen. Denn die – oftmals durchaus plausiblen – theoretischen Annahmen und Erklärungen aus der Fachliteratur dürfen nicht als feststehende Tatsachen angesehen werden, sondern müssen stets mit den konkreten Daten des eigenen Falles überprüft werden. Hierdurch können interessante, kontextspezifische Erweiterungen, Unterschiede oder Abgrenzungen zu bereits bestehenden Erklärungsansätzen generiert werden. Das Lesen von Fachliteratur kann gleichwohl zu Forschungsanregungen und zu einer Glaubwürdigkeitssteigerung der eigenen Ergebnisse verhelfen. Jedoch sollte fortwährend darauf geachtet werden, in der eigenen Datenauswertung nicht von den eigenen oder aus der Literatur stammenden Annahmen und Kenntnissen befangen zu sein, um die (latenten) Sinnstrukturen der Daten herauslesen zu können. Die theoretische Sensibilität kann des Weiteren durch verschiedene Techniken erhöht werden (vgl. Strauss/Corbin 1996: 56-74; Kap. 6). Indem Vergleiche (»FlipFlop-Technik« oder systematischer Vergleich) angestellt werden, können wichtige Fragen an das Material gestellt werden, die zu weiteren Hypothesen, Einsichten und Ergebnissen führen können. Das Stellen jener Fragen dient dazu, alte Denkmuster aufzubrechen und neue Ideen und Herangehensweisen an die Daten zu tra-

6 Methodisches Vorgehen

gen.2 Durch das Fragenstellen und das Vergleichen werden die theoretischen Erklärungen dichter, die theoretische Sensibilität nimmt zu. Zudem ist auf bestimmte Signalwörter wie »nie«, »immer« oder »unmöglich« zu achten, die es stets zu hinterfragen gilt (»Ist das wirklich so?«). In der Analyse dürfe deshalb niemals etwas für selbstverständlich gehalten werden. Die Autoren nennen diese Technik das »Schwenken der roten Fahne«. Durch die Techniken zum Erhöhen der theoretischen Sensibilität wird das Hintergründige der Daten beachtet, sich von Vorannahmen und Vorkenntnissen freigemacht und von einer deskriptiven auf eine analytische und theoretische Ebene gewechselt. Die Auswertung des empirischen Materials wird in der Grounded Theory durch das Codieren bestimmt (vgl. Strauss/Corbin 1996: 39ff.). Das offene Codieren bildet dabei den ersten Schritt: »Während des offenen Kodierens werden die Daten in einzelne Teile aufgebrochen, gründlich untersucht, auf Ähnlichkeiten und Unterschiede hin verglichen, und es werden Fragen über die Phänomene gestellt, wie sie sich in den Daten widerspiegeln. Durch diesen Prozess werden die eigenen und fremden Vorannahmen über Phänomene in Frage gestellt oder erforscht, was zu neuen Entdeckungen führt« (ebd.: 44). Dabei werden zunächst sogenannte Konzepte identifiziert (vgl. für die nachfolgenden Ausführungen Strauss/Corbin 1996: 43-55). Hierbei wird bspw. ein Satz herausgegriffen und jedem dort auftretenden Ereignis Bezeichnungen zugeteilt sowie die Beziehung dieser Ereignisse herausgearbeitet. Durch die Methode des Vergleichens werden ähnliche Phänomene anschließend mit der gleichen Bezeichnung benannt. Zusätzlich werden analytische Fragen an den Text gestellt, um Phänomene (Konzepte) entdecken und benennen zu können. Im Anschluss daran werden die Konzepte miteinander verglichen und gruppiert: es werden Kategorien aufgestellt. Kategorien besitzen verschiedene Eigenschaften, die dimensioniert werden können (Dimensionen). Den Kategorien werden abstraktere Bezeichnungen zugewiesen, sodass sich unter ihnen weitere Gruppen von Konzepten (Eigenschaften und Dimensionen) zusammenfassen lassen und Subkategorien gebildet werden können. Die Eigenschaften sowie dessen Dimensionen verleihen der Kategorie Tiefe und Spezifität. Hilfreich für das Benennen einer Kategorie können neben Begriffen aus der Fachliteratur auch sogenannte »In-vivo-Codes« sein, die durch Worte oder Äu-

2

Klassische Fragen sind hierbei: Wer? Wann? Wo? Was? Wie? Wieviel? Warum? Darüber hinaus sind zeitbezogene Fragen bezüglich der Frequenz, Dauer, Änderungsrate und des Timings des Phänomens hilfreich.

119

120

Publikumsbeobachtung im digitalen Wandel

ßerungen der Personen im Feld entstehen.3 Diese können sich für eine Kategorienbezeichnung insofern eignen, als dass hierdurch das angesprochene Phänomen auf einer übergeordneten, abstrakten Ebene prägnant beschrieben wird. Nach dem offenen Codieren werden durch das Verfahren des axialen Codierens (siehe hierzu ebd.: 75-93) Bezüge zwischen den einzelnen Kategorien hergestellt. Hierfür müssen zunächst die ursächlichen Bedingungen des jeweiligen entdeckten Phänomens aufgezeigt werden. Anschließend gilt es, den Kontext sowie die intervenierenden Bedingungen herauszuarbeiten. Nachdem beleuchtet wurde, wie und warum das Phänomen entstanden ist, durch was es strukturell bedingt ist und welche Bewältigungs- bzw. Handlungsstrategien entwickelt wurden, können daraus resultierende Konsequenzen benannt werden. Durch die Auseinandersetzung mit diesen Fragen können in der Folge Verbindungen zwischen den Kategorien, ihren Eigenschaften und Dimensionen hergestellt werden, wodurch sich die Daten auf eine neue Art zusammensetzen. Das Herausarbeiten von Ähnlichkeiten und Unterschieden zwischen den Kategorien bildet in der Grounded Theory einen wichtigen Eckpfeiler. Für das Aufzeigen von Verbindungen zwischen den einzelnen Kategorien, ihren Eigenschaften und Dimensionen ist ein wechselseitiges induktives und deduktives Denken erforderlich. Hierbei werden zunächst deduktiv Aussagen über mögliche Verbindungen aufgestellt bzw. abgeleitet, die es anschließend anhand der Daten induktiv zu verifizieren gilt. Durch das anschließende selektive Codieren wird eine Kernkategorie ausgewählt und diese systematisch in Beziehung mit den anderen Kategorien gesetzt. Das Material wird, mit anderen Worten, entlang eines roten Fadens neu codiert, der die vielen kleinen Zusammenhänge des offenen und axialen Codierens unter einer fokussierten Schlüsselkategorie zusammenfasst (vgl. Strübing 2014: 468f.). Die Überarbeitung der bisherigen Codierungen stellt dabei keineswegs eine »Verbesserung« im Sinne zuvor fehlerhafter Kodierungen dar. Vielmehr ist das selektive Codieren als eine Neujustierung der analytischen Perspektive zu verstehen, die zu einem höheren Maß an Konsistenz der Materialcodierung und der angestrebten, gegenstandsverankerten Theoriebildung führt. Die Abbildung 6 beschreibt zusammenfassend die drei zentralen Codiertechniken nach Strauss/Corbin (1996). Wesentlich bei der Wahl der Untersuchungs- und Auswertungsmethode war, dass weder ein dominierendes Theorieverständnis der Publikumsbeobachtung der Massenmedien auf Organisationsebene noch eine dominierende methodische Vorgehensweise für dessen empirische Untersuchung existiert. Die Kombination aus einem ethnografischen Ansatz für die Datenerhebung und der Grounded Theory für die Datenauswertung stellen folglich insofern geeignete Instrumente für die 3

Jedoch sei bei den Begriffen aus der Fachliteratur darauf zu achten, dass ihnen bereits eine analytische Bedeutung und Assoziationen zugeschrieben sind, wodurch weiteres, genaueres Nachdenken über das vorliegende Phänomen verhindert werde.

6 Methodisches Vorgehen

Abbildung 6: Zusammenfassung der Codiertechniken nach Strauss/Corbin (1996)

Quelle: Przyborski/Wohlrab-Sahr 2014: 211

Erforschung der massenmedialen Publikumsbeobachtung dar, weil sie sich dezidiert am empirischen Untersuchungsgegenstand orientieren und gegenstandsnah bzw. -verankert theoriegenerierende Aussagen (abstrakte und übertragbare Kategorien) ermöglichen. Das methodische Vorgehen ist daher insbesondere auch im Forschungsinteresse und in den Forschungsfragen der Arbeit begründet. Es wurde ein Kategoriensystem entwickelt, welches die organisationalen Voraussetzungen, Strukturen, Praxen, Praktiken und Folgen der zeitungsredaktionellen Publikumsbeobachtung fallanalytisch beschreibt. Die gebildeten Kategorien, Dimensionen und ihre Verbindungen lassen sich dabei in der Strukturierung der empirischen Fallanalyse und in der Formulierung ihrer Kapitel und Unterkapitel wiederfinden. So geht es vor allem um die Darstellung und Beschreibung von Strategien und Konsequenzen, wie intern mit neuen Sichtbarkeiten der Umwelt (Publikum) und des eigenen Systems (Redaktion) umgegangen wird.

121

7 Die empirische Fallanalyse

Die Fallanalyse bezieht sich auf die Redaktion resp. den Newsroom einer überregionalen, auflagenstarken Tageszeitung. Die Print- und Online-Redaktion sind nicht voneinander getrennt, sondern befinden sich in einem Prozess zunehmender Integration. So sitzt der Print-Newsdesk (bestehend aus dem Geschäftsführenden Redakteur Print sowie zwei Planern für Außen- und Innenpolitik) dem OnlineNewsdesk (bestehend aus dem Geschäftsführenden Redakteur Online, einem Politikplaner und einem Mitarbeiter aus dem Textmarketing) gegenüber. Durch die räumliche Nähe sollen Print- und Online-Bereich weiter verschmelzen sowie gegenseitige Verständigungs- und Mitteilungsbedarfe schnell kommunizierbar gemacht werden. In dem Newsroom befinden sich Arbeitsplätze für insgesamt 28 Mitarbeiterinnen und Mitarbeiter, von denen regelmäßig 22 besetzt sind. Neben den oben genannten Print- und Online-Newsdesk-Mitarbeitenden arbeiten hier drei Mitarbeiterinnen und Mitarbeiter aus dem Team Social Media und Leserdialog, ein bzw. eine Homepage-Chefin, der Textchef, ein Panorama-Redakteur, jeweils ein bzw. eine Bild-, Video- und Grafikredakteurin, zwei NewsdeskRedakteure, ein redaktioneller SEO-Mitarbeiter1 , der redaktionelle Projektmanager, ein Newsletter-Redakteur sowie zwei Mitarbeiter aus der Schlussredaktion. Auffällig sind zudem vier große, an Säulen hängende Bildschirme, auf denen das Nutzungsgeschehen der eigenen Seite und das der Konkurrenz visualisiert werden. Auf einem der Bildschirme werden im Zwanzigsekundentakt nacheinander die Startseiten nationaler und internationaler Tageszeitungen automatisch angezeigt. An diesen kurzen, einleitenden Beschreibungen des Newsrooms lässt sich bereits erkennen, dass »Daten« – die Beobachtung der Konkurrenz und des allgemeinen Netzgeschehens (besonders gut »performende« Artikel, aktuelle Schlagzeilen) – von zentraler Bedeutung für das redaktionelle Geschehen ist. Neben dem Newsroom als ethnografisch bedeutsamer Untersuchungsgegenstand sind in dieser Fallanalyse darüber hinaus Interviews und Gespräche mit Mitarbeitern aus der Abteilung Produktmanagement Content maßgeblich. Hier sind Teams angegliedert wie Datenanalyse und Audience Development, User Research

1

SEO = Suchmaschinenoptimierung (engl.: search engine optimization).

124

Publikumsbeobachtung im digitalen Wandel

und SEO. Beobachtungen auf den täglichen Redaktionskonferenzen sowie die Teilnahme an unterschiedlichen redaktionellen Treffen, in denen der Datenumgang, die Datenauswertung und Fragen der redaktionellen Weiterentwicklung besprochen wurden, bilden weitere relevante Beobachtungs- und Analysegegenstände. Die Fallanalyse greift insgesamt auf acht Audioaufnahmen zurück, in denen der Chefredakteur, der Teamleiter der Datenanalyse, der Teamleiter für Social Media und Leserdialog, ein technischer SEO-Mitarbeiter und die Teamleiterin für User Research zu Wort kommen. Die Gliederung der Fallanalyse Bevor im Folgenden die Ergebnisse der Fallanalyse präsentiert werden, wird zur Einführung ihre Gliederung vorgestellt. Die Fallanalyse gliedert sich demnach in vier zentrale Kapitel: • • • •

Die Praxis der Publikumsbeobachtung Publikumsbeobachtung und Organisationsgestaltung Publikumsbeobachtung als Organisationsbeobachtung Der Wandel der redaktionellen Umwelt

Die vier zentralen Kapitel untergliedern sich dabei in weitere Kapitel, die wiederum eigene Unterkapitel besitzen. Diese weiteren Unterkapitelebenen werden aus Gründen der Übersicht an dieser Stelle jedoch nicht aufgelistet. Die übergeordnete Gliederungsstruktur der Fallanalyse gestaltet sich insofern wie folgt: 1) Kap. 7.1: Die Praxis der Publikumsbeobachtung            7.1.1: Messparadigmen und Analysetools            7.1.2: Technische Herausforderungen in der Publikumsbeobachtung            7.1.3: Die redaktionelle Datenanalyse            7.1.4: Ein Wandel des Publikumsverständnisses?

2) Kap. 7.2: Publikumsbeobachtung und Organisationsgestaltung            7.2.1: Wandel der Organisationsstrukturen            7.2.3: Die Herstellung von Datenverständnissen            7.2.3: Daten als doppeltes Organisationsproblem

3) Kap. 7.3: Publikumsbeobachtung als Organisationsbeobachtung            7.3.1: Das Öffnen der redaktionellen Blackbox: Das Erkennen von Beobachtungslatenzen            7.3.2: Von der Publikumsbeobachtung zur Mitarbeiterbeobachtung: Steigerung von internen Wettbewerbs- und Konkurrenzverhältnissen als nicht-intendierte Folge

7 Die empirische Fallanalyse

           7.3.3: Selbstverortung im Spiegel der Daten: Das dateninformierte Selbst als informale Erwartung 4) Kap. 7.4: Der Wandel der redaktionellen Umwelt – Neue Unsicherheiten und Ungewissheitszonen

7.1

Die Praxis der Publikumsbeobachtung

Die Möglichkeiten der (Ver-)Messung von Publikumsaktivitäten im Netz sowie die Internetdistribution allgemein »veränder[n] wirklich alles«, so der OnlineChefredakteur. Die Verlagerung ins Netz habe insbesondere Auswirkungen auf das redaktionelle Arbeiten und das Geschäftsmodell, wie er erläutert: »Oah, die verändert alles. In der Zeitung kann ich ja nicht lesen. [gemeint ist das Nachvollziehen, welche Artikel von den Nutzerinnen und Nutzern gelesen werden; Anm. K.P]. Die Zeitung verkauft immer das Bundle. Die bequemste Art, das Bundle zu verkaufen, ist das Abo. Das schließt sich im Idealfall einmal ab und das endet erst, wenn ich tot bin. Das heißt auch ich muss mir viel weniger Mühe geben, die einzelnen Geschichten zu verkaufen, weil ich ja eben das Bundle im Angebot habe. Das funktioniert online überhaupt((betont)) nicht mehr. Da muss jede Geschichte für sich selbst stehen, was auch dazu führt, dass wir eine ganz andere Art haben zu teasern. Weil unsere Texte auch die sind bei Google, die sind bei Facebook, bei Twitter im Stream, bei Pocket oder bei Apple News. Da erkennen Leser überhaupt nicht mehr den Gesamtzusammenhang. Wir verlieren auch die Kontrolle über diesen Zusammenhang. Eine Komposition einer monothematischen Seite wie die Seite 2 der gedruckten Zeitung ist ja im Netz überhaupt nicht möglich. Das heißt jeder Artikel, jeder Content muss tatsächlich für sich selbst stehen und er muss die Leute dazu verleiten: ›Boa das ist so interessant getitelt. Da will ich jetzt draufklicken‹. Und das haben Sie nicht, wenn Sie einen Text schreiben für die Wirtschaft Seite 7 links unten. Da ist egal, ob da eine gute Zeile drüber steht oder nicht – mehr oder weniger. Also natürlich sollte das nicht egal sein, die Praxis ist aber leider so, dass es egal ist. Joa. Also es verändert wirklich alles«. Die Folgen der Internetdistribution machen sich redaktionell in mehrfacher Hinsicht bemerkbar. Im Vergleich zur Print-Distribution müssen die Inhalte im Netz für sich alleine stehen, d.h. sie müssen verkaufbar gemacht und ansprechend gestaltet und aufgebaut werden. Die traditionelle Verkaufsstrategie einer Print-Zeitung – der Abschluss eines Abos – funktioniert im Netz »überhaupt nicht mehr«. Die Erkenntnis über jenes Nichtfunktionieren ist auf das Betreiben von Publikumsbeobachtung zurückzuführen. Eine wesentliche Funktion der

125

126

Publikumsbeobachtung im digitalen Wandel

Publikumsbeobachtung scheint folglich das Erkennen von Dysfunktionalitäten zu sein. Die Netzdistribution allgemein und das Betreiben von Publikumsbeobachtung im Besonderen führen unweigerlich auch zu Veränderungen in den redaktionellen Arbeitsweisen. Aufgrund eines im Netz permanent vorherrschenden Zeitdrucks muss die Redaktion einen »guten Spagat hinkriegen zwischen Tempo und Tiefe« (ebd.), ohne jedoch den Qualitätsanspruch und die nachrichtliche Grundausrichtung der Zeitung zu vernachlässigen. Durch die Diversifikation der Distributionskanäle resp. die Entstehung zentraler Informationsräume im Netz (Soziale Medien, Google, Nachrichtenaggregatoren, Artikelempfehlungsapplikationen etc.) stehen die eigenen Inhalte zudem in dauerhafter Konkurrenz zu Inhalten anderer Zeitungen und Nachrichtenwebsites. In diesem Überangebot an Nachrichten und Informationen müssen die Nutzerinnen und Nutzer folglich zur Rezeption motiviert werden, wenn sie im Vorhinein kein genuines Interesse an dem Thema haben (»Boa das ist so interessant getitelt. Da will ich jetzt draufklicken«). Die Beobachtung des Publikums anhand von quantifizierbaren Kennzahlen scheint unter Internetbedingungen und besonders im Vergleich zur Print-Distribution demnach eine neue redaktionelle Relevanz zu erfahren. Im Folgenden wird die Praxis der Vermessung von Publikumsaktivitäten beschrieben. Dazu werden in einem ersten Schritt die Messparadigmen im Netz und die von der Redaktion verwendeten Analysetools vorgestellt (Kap 7.1.1). Hieran anschließend werden die technischen Herausforderungen in der Publikumsvermessung aufgezeigt (Kap. 7.1.2), bevor abschließend auf die redaktionelle Datenanalyse (Kap 7.1.3) und das damit sich wandelnde Publikumsverständnis (Kap. 7.1.4) genauer eingegangen wird.

7.1.1

Messparadigmen und Analysetools

Das Internet als Distributionsmedium bietet zahlreiche Möglichkeiten der Publikumsbeobachtung. Die Nutzung der angebotenen Inhalte kann auf vielfache Weise vermessen und analysiert werden – vom einzelnen Seitenaufruf über die Scrolltiefe und Lesegeschwindigkeit bis hin zur Berechnung von Absprunggraten oder der Zusammenführung all jener Daten in einem Wert. Doch wie und anhand welcher Daten und Tools wird das Publikum von der Redaktion beobachtet? Die klassische und »einfachste« Messung ist der Seitenaufruf. Diese Messeinheit wird bspw. von der IVW (Informationsgemeinschaft zur Feststellung der Verbreitung von Werbeträgern) als Standardwährung für Werbe- und Vermarktungszwecke festgelegt. Jene Zahlen werden von der Tageszeitung genutzt, um gegenüber Werbekunden und Werbetreibenden vergleichbare und im Werbemarkt akzeptierte Kennzahlen ausweisen zu können. Diese Werbemarktdaten werden insbesondere für die Außendarstellung der Medienorganisation genutzt. Redaktionel-

7 Die empirische Fallanalyse

le Handlungsableitungen werden aus diesen Daten nicht gezogen, wie der technische SEO-Mitarbeiter im Vergleich zu den internen Google Analytics-Daten erklärt: »Also bei der IVW jetzt ganz böse gesagt da ist mir egal, ob bei demjenigen auch die Seite erscheint. Da möchte ich einfach viel Reichweite machen, dass ich im Reichweitenranking weit oben erscheine. Und es immer heißt unsere Zeitung ist ja total erfolgreich. Für die interne Statistik, für die interne Auswertung möchte ich aber eine ganz ehrliche Zahl haben, weshalb wir Google Analytics viel später feuern und viel später erst die Zahl auswertbar machen. Damit wir da ganz ehrlich sein können und sagen nee da haben sich einfach nur viele verklickt und da hatten wir vielleicht Seitenladezeitprobleme oder oder oder. Also da gehen wir ganz anders mit um«. Durch den Einsatz von Google Analytics sollen folglich Zahlen generiert werden, die auf Dysfunktionalitäten, Optimierungspotenziale oder technische Fehler hinweisen und die im Vergleich zu den IVW-Daten »ehrlich« sind, d.h. Einsichten in das reale Nutzungsgeschehen liefern. Mit den IVW-Daten sollen hingegen möglichst hohe Reichweiten ausweisbar gemacht werden, um auf den obersten Plätzen im Reichweitenranking (Werbemarkt) zu erscheinen und hierdurch höhere Werbeeinahmen erzielen zu können. Die IVW-Daten besitzen dementsprechend wichtige Legitimierungs- und Positionierungsfunktionen für die Schauseite der Medienorganisation. Inwiefern diese Daten jedoch reale Rezeptionsvorgänge repräsentieren, ist fraglich, wie der technische SEO-Mitarbeiter mit Blick auf Seitenladeprobleme und weitere technische Probleme anmerkt. Google Analytics wird daher »viel später gefeuert«, was bedeutet, dass die Messung auch Seitenladezeitprobleme oder die Lesezeit erfasst sowie hieraus abzuleitende Schlüsse zulässt (»da haben sich einfach nur viele verklickt«). Hier wird versucht, den Rezeptionsvorgang – und nicht nur der Aufruf der Seite – zu vermessen. Mit den unterschiedlichen Daten und Analysetools gehen folglich auch verschiedene Umgangsformen einher, mit denen wiederum je unterschiedliche Zwecke verfolgt werden (siehe dazu auch Kap. 7.2.1.3). Im Vergleich zu der »einfachen« Messeinheit des Seitenaufrufs stellt sich die Erfassung der Unique User als robusteste und komplexeste Währung im Netz heraus, wie die Teamleiterin für User Research erläutert: »[A]lso im Netz gibt es so verschiedene Währungen, an denen man messen kann, wie erfolgreich ein digitales Produkt ist. Und eine Währung ist Unique User. Das heißt jeder, der einmal in einem Monat auf unsere Seite kommt, wird gezählt. Und wenn jetzt dieselbe Person zehnmal kommt, wird sie auch nur einmal gezählt. Also das ist wirklich so der einzelne Mensch und da ist noch nicht widergespiegelt, wie häufig der kommt, wie intensiv seine Bindung zu uns ist. Wenn man sich Visits anschaut – das und page impressions das sind so eher die älteren Währungen im Netz sage ich jetzt mal. Die gibt’s schon länger […]. Und

127

128

Publikumsbeobachtung im digitalen Wandel

der Unterschied zwischen Unique Usern und Visit ist: Unique User ist, wenn ich einmal im Monat auf die Seite komme, dann mache ich einen Visit. Wenn ich zehnmal komme, bin ich immer noch nur ein Unique User, aber ich mach zehn Visits. Und der Begriff page impressions noch kurz ist, wenn ich auf die Seite komme, mache ich einen Visit und wenn ich da dreimal klicke, mache ich wahrscheinlich drei page impressions. Wenn ich fünfmal klicke, mache ich fünf page impressions. Das heißt das ist im Prinzip von der Ordnung her ein Unique User kann viele Visits machen und kann noch viel mehr page impressions machen. Also so Zahlen wenn man sich die Zahlen größer anguckt, wird es immer größer. Was jetzt so am Markt eigentlich viel wichtiger geworden ist als page impressions, sind die sogenannten ad impressions. Page impressions war früher immer der typische Klick. Deshalb gibt’s auch das Clickbaiting. Das in irgendwelchen Teasern irgendwelche reißerischen Texte stehen und man dann unbedingt klicken will und dann stellt man fest in diesen Text geht es überhaupt nicht um diesen Promi, den haben die nur die Überschrift reingeschrieben, irgendwie so«. Die einfachen Seitenaufrufe (page impressions) sowie die Visits (Zählung aller Besuche eines Nutzers bzw. einer Nutzerin) gehören zu den älteren Währungen. Für Werbezwecke zunehmend relevanter werden die sog. ad impressions. Hier wird nicht der Seitenaufruf an sich gemessen, sondern die Anzahl der eingeblendeten Werbungen und Werbebanner (Ads). Wird eine Seite angeklickt, wird eine page impression erzeugt. Sind auf dieser Seite bspw. drei Werbungen (z.B. Werbebanner) eingebaut, werden drei ad impressions generiert. Für die Redaktion und das redaktionelle Arbeiten lassen sich aus diesen werberelevanten Messeinheiten jedoch wenig bis keine Ableitungen treffen, wie ein Datenanalyst erläutert: »Weil ein Zugriff auf eine URL ist erst mal eine relativ nichtssagende Messeinheit. Die sagt nichts drüber aus: Hat sich die Person überhaupt dafür interessiert? Hat sie viel davon gelesen? Hat die noch etwas anderes danach gelesen? Ist sie ein interessierter also ein loyaler Nutzer? Kommt die Person regelmäßig zu uns oder war es eben so [ein] Zufallstreffer?«. Redaktionelle Ableitungen lassen sich aus diesen »einfachen« und vielmehr für die Werbewirtschaft relevanten Daten nicht ziehen. Für die interne, redaktionelle Publikumsbeobachtung existiert kein »Goldstandard« analog zur Einschaltquotenmessung im Fernsehen. Den Urmeter, ein institutionalisierter Standard wie das Publikum aus redaktioneller Sicht zu vermessen und beobachten ist, gibt es im Internet nicht. Vielmehr wird auf verschiedene Mess- und Analysetools zurückgegriffen, die jedoch – obwohl sie das Gleiche versuchen zu messen – stets unterschiedliche Messergebnisse produzieren:

7 Die empirische Fallanalyse

»Da wird es immer auch ein bisschen Schwankungen geben. Also wenn du mit zwei verschiedenen Tools eigentlich das Gleiche misst, dann wird da bestimmt so eine, ja, so eine fünf Prozent Plus-Minus-Schwankung kann da immer vorhanden sein. Was im Endeffekt aber ab dem Punkt dann auch egal ist solange man mit dem gleichen Tool halt immer das Gleiche misst. Also so lang, also es gibt halt nicht so den Urmeter gibt’s halt irgendwie nicht im Internet. Wo du sagst: das ist genau die Einheit und so und so soll die sein. Sondern es ist immer abhängig von dem Tool. Da muss man auch immer wissen, wie funktioniert ein Tool?« (Datenanalyst). An dieser Interviewstelle wird deutlich, dass neben entsprechenden Entscheidungsbedarfen, welches Tool zur Publikumsbeobachtung überhaupt eingekauft und genutzt werden soll, medienorganisationsintern Kompetenzen und Expertisen erforderlich werden, um die Datenanalysetools redaktionell sinnvoll nutzen zu können und ihre Funktionsweisen zu verstehen. Die Publikumsvermessung und -beobachtung endet, mit anderen Worten, nicht mit dem Einkauf von Analysetools und geschieht von da an gewissermaßen automatisch. Vielmehr muss die Redaktion selbst in einem permanenten Aushandlungs- und Vergewisserungsprozess festlegen, welche Messwerte und Nutzungsdaten für sie wie und zu welchem Zweck relevant sind. In der untersuchten Redaktion lassen sich drei unterschiedliche »Messparadigmen« feststellen, anhand derer das Publikum redaktionell vermessen und beobachtet wird: 1.) die Live-Daten, 2.) der Artikelscore und 3.) konkurrenzbasierte Performance-Faktoren.

7.1.1.1

Die Live-Daten

Live-Daten haben sich – auch aus einer historischen Perspektive – zu einem ersten redaktionsinternen Messparadigma entwickelt. Durch sie kann sich die Redaktion relativ schnell verorten und dahingehend informieren, wie die eigenen Inhalte (oder auch die Angebote der Konkurrenz) auf den jeweiligen Verbreitungskanälen von dem Publikum genutzt werden – oder, um wichtige Feldbegriffe aufzugreifen: wie diese Inhalte in Echtzeit funktionieren und »performen«. Realisiert wird diese Verortung im Spiegel der Daten über sog. Dashboards, also Computerprogramme, die relevante Informationen zusammenfassen und visualisieren. Ein solches Dashboard eines beispielhaften Anbieters zeigt Abbildung 2. Dieses Dashboard bietet bereits vielerlei Dateneinsichten. So zum Beispiel die aktuelle Zahl der Nutzerinnen und Nutzer (14.910), die aktuell meistaufgerufenen Artikel inklusive der durchschnittlichen Interaktionszeit der Nutzerinnen und Nutzer (Engaged Time) oder aber auch Informationen über sie: Aus welchem Land kommen sie? Welche technischen Geräte benutzen sie? Wie sind sie auf die aktuelle Seite gekommen? Welche Webseite haben sie zuvor besucht?

129

130

Publikumsbeobachtung im digitalen Wandel

Abbildung 2: Beispielhaftes Dashboard des Datendienstleistungsunternehmens Chartbeat. Dieser Screenshot besitzt keinen inhaltlichen Bezug zur untersuchten Zeitung, sondern dient lediglich der Anschauung.

Quelle: Screenshot, https://www.getapp.de/software/103369/chartbeat (letzter Zugriff: 08.10.2022)

7 Die empirische Fallanalyse

Dieses Tool bietet zudem die Möglichkeit der grafischen Darstellung von Daten, womit bpsw. unterschiedliche Zeitpunkte der Angebotsnutzung miteinander verglichen werden können. Die Auswahlmöglichkeiten »All sections« und »All authors« in der obersten Zeile deuten bereits darauf hin, dass die Daten auch je nach Ressort oder Redakteurin bzw. Redakteur angezeigt und gefiltert werden können.2 Die hier untersuchte Zeitung nutzte früher Chartbeat und nimmt heute die Dienstleistung eines Vergleichsproduktes (Linkpulse) in Anspruch, wie der Teamchef für Social Media ausführt: »[U]ns interessiert vor allem, wie gut die Artikel auf welcher Position laufen. Wie gut die Artikel über die Homepage angenommen werden und wie gut die Artikel über Kanäle wie Facebook, Google, Twitter, Xing, LinkedIn angenommen werden. Das ist natürlich immer interessant«. Die Visualisierung der Live-Daten, d.h. die Wahrnehmung und (Vor-)Interpretation, ist dabei von besonderer Bedeutung: »Grün heißt halt positiv, überdurchschnittlich. Rot heißt auf der Position eher nicht so gut performend. Und grau heißt durchschnittlich dann«, erklärt der Social Media-Teamchef. Die Dashboards sind von Ressort zu Ressort unterschiedlich eingestellt. Über die Relevanz der unterschiedlichen Daten wird demzufolge ressortintern entschieden. Die Konfiguration der Dashboards ist deshalb wichtig, weil viele unterschiedliche Informationen über die Nutzung der Angebote erhoben werden. Neben den Klicks können bspw. Visits, Unique User, Bounce-Rate, click-ratio, quick-exits, viewtime, external traffic und viele weitere Dateninformationen angezeigt werden. Für das Bespielen der sozialen Medien bilden die Live-Daten eine Art Prognoseinstrument: »Auch zu sehen ich habe einen Artikel noch nicht auf Facebook gepostet, er geht aber trotzdem schon auf. über den Kanal klicken viele Leute drauf. Sollte das für mich der Hinweis sein dieser Artikel scheint Leute zu interessieren. Den sollte ich auch auf Facebook posten. So einfach mal für mich: Das Tool sagt mir dieser Artikel könnte gut funktionieren« (Teamchef Social Media). Die Live-Daten sind außerdem für die Arbeit des Homepage-Chefs relevant, der die Dynamiken des Nutzungsgeschehens im Blick behalten, die eintreffenden Nachrichten berücksichtigen, überdurchschnittlich performende Artikel wahrnehmen und auf all das reagieren muss. Die Live-Daten nehmen hier also die Funktion eines Alarmierungssystems ein. Hierzu ein Einblick in eine Feldnotiz, die über die Arbeit des HP-Chefs berichtet:

2

Die Folgen solch neuer Dateneinsichten und -relationen für die Binnenperspektive der Redaktion werden in Kap. 7.3 thematisiert.

131

132

Publikumsbeobachtung im digitalen Wandel

»Der Homepage-Chef erzählt mir, dass der Artikel zum Frauenwahlrecht nicht gut klickt. Er ist seit einer Stunde auf der Homepage. ›13 Klicks in den letzten 5 Minuten. Das ist schon sehr schlecht«, bewertet er die Daten. Diese ›schlechten‹ Zahlen nimmt er als Anlass, einen Kollegen über diese Performance zu informieren. Er greift zum Telefonhörer und ruft ihn an: ›Der Beitrag zu 100 Jahre Frauenrecht funktioniert sehr schlecht gerade, leider. Könnt ihr euch vielleicht nochmal eine neue Überschrift überlegen?‹, fragt er den Kollegen und gibt ihm damit gleichzeitig eine Handlungsanweisung. Nach dem kurzen Telefonat erzählt er mir, dass er den Artikel inklusive selbstproduziertem Video von der Homepage jetzt noch nicht runterschmeißen möchte, weil er wisse, dass ›da auch viel technische Arbeit drinsteckt‹. Generell müsse man immer abwägen zwischen ›Wie wichtig ist uns das Thema redaktionell?‹ und ›Wie wird es von den Nutzern angenommen?‹ Nach ca. 15-20 Minuten berichtet er mir sichtlich erfreut: ›Guck mal da hat es jetzt was gebracht mit der Überschriftumstellung‹. Die Zugriffszahlen haben sich nun von einem unterdurchschnittlichen auf einen durchschnittlichen Wert verbessert«. Die Formulierung »da hat es jetzt was gebracht mit der Überschriftumstellung« deutet darauf hin, dass diese Versuche kleiner »redaktioneller Reparaturarbeiten« nicht immer erfolgreich sind. Es scheint für den Homepage-Chef somit auch darum zu gehen, in einer spezifischen Situation bzw. Datenlage über ein Entscheidungsund Handlungswissen zu verfügen, durch welches schlecht performende Artikel verbessert und optimiert werden können, um (wie dieses Beispiel zeigt) die Zugriffszahlen eines technisch aufwendig produzierten Stücks zu erhöhen. Für die Redakteurinnen und Redakteure hält sich die Handlungsableitung aus den Live-Daten hingegen sehr in Grenzen, erklärt der Datenanalyst. Diese Art von Daten schaffen vielmehr eine Befriedigung auf einer Gratifikationsebene, weshalb sie im amerikanischen Sprachraum bspw. auch als »crack for journalists« bezeichnet werden würde: »Ich schreibe einen Text. Der wird online gestellt, der funktioniert gut. Und dann habe ich eine hormonelle Befriedigung, weil ich das halt gut finde, ein Publikum gefunden zu haben. Ob das halt gute inhaltliche Arbeit ist, wage ich zu bezweifeln. Die ist glaube ich auch nicht nachhaltig. Die ist so ein bisschen Schrotflintenprinzip und ich freue mich, dass ich mal was getroffen haben. Aber das hat natürlich eine sehr lange Kultur. So arbeiten mit Live-Daten, weil die natürlich auch sehr plastisch sind. Die sind relativ direkt und ich kann gleich sehen, ob das funktioniert oder nicht. Und falls ich irgendwas verändern wollen würde, könnte ich das tun und würde im Zweifelsfall auch einen Effekt sehen«. Der Datenanalyst steht einer redaktionellen Handlungsableitung aus den LiveDaten demzufolge kritisch gegenüber: »[E]s [ist] eher so ein Lagerfeuer und man kann damit relativ viel Zeit verbringen, aber die Handlungsableitung hält sich sehr in Grenzen«.

7 Die empirische Fallanalyse

Für die mittel- und langfristige thematische Weiterentwicklung der Redaktion bzw. Ressorts seien sie wenig zielführend, da sie – wie der Datenanalyst in der Interviewpassage andeutet – auch viel »Spielraum« für mitunter fragwürdige operative Eingriffe bieten (»Und falls ich irgendwas verändern wollen würde, könnte ich das tun und würde im Zweifelsfall auch einen Effekt sehen«). Für die redaktionelle Datenanalyse und Weiterentwicklung werden vielmehr Langzeitdatenauswertungen und das Überprüfen datenorientierter Thesen als sinnvoller erachtet (siehe Kap. 7.1.3).

7.1.1.2

Der Artikelscore

Mit der Einführung eines Artikelscores als ein weiteres, für die Redaktion neuartiges Messparadigma wird auf die oben genannte Kritik einer geringen redaktionellen Handlungsableitung aus den Live-Daten reagiert. Hierbei wird für jeden online publizierten Artikel ein Wert durch ein entsprechendes Softwareanalysetool algorithmisch ermittelt. Dieser Wert (der Score) speist sich aus vielzähligen publikumsbezogenen Nutzungsdaten und basiert nicht nur auf den Zugriffszahlen. Der Artikelscore rangiert auf einer Werteskala zwischen 0 und 1000, wobei 0 einen sehr schlechten Wert und 1000 einen sehr guten (nahezu nicht zu erreichenden) Wert darstellt. Durch den Artikelscore soll die Möglichkeit geschaffen werden, einzelne Artikel auf einer komplexen Datengrundlage miteinander in Verbindung zu bringen; sie also anhand eines Wertes vergleichbar zu machen und ihre jeweilige »Performance« zu vermessen. Mit der Verwendung des Artikelscores wird das Ziel verfolgt, Daten ganzheitlich in einem »journalistischen Sinne« zu betrachten: »Was soll der ganze Artikelscore überhaupt sein? Der Artikelscore, also der Content Performance Indicator, soll im Idealfall eigentlich journalistisches Bauchgefühl repräsentieren. Also ich soll. es muss eigentlich mein. mein Ziel muss es ja eigentlich sein, zu sagen ich kann über Daten halbwegs eine Leserschaft repräsentieren oder diese Standardleserschaft, die ich auf unserer Seite eigentlich habe, ich kann die darstellen in einem Wert und anhand des Wertes kann ich vielleicht noch Muster feststellen, welche Texte wie funktionieren oder nicht« (Datenanalyst, eigene Hervorhebung). Der Artikelscore setzt sich aus den Datentöpfen Reichweite, Engagement (engl.) und Loyalität zusammen. Die einzelnen Töpfe und die dort einfließenden Metriken werden weiter unten erläutert. Die Redaktion kann die Gewichtung der Töpfe selbst einstellen. Ein reichweitengetriebenes Medienunternehmen kann bspw. den Score aus 80 % Reichweite und 20 % Engagement bilden lassen und den Loyalitätsfaktor ausklammern. Durch die unterschiedliche Gewichtung und Einstellungen der einzelnen Töpfe kann es bspw. vorkommen, dass ein Artikel mit relativ wenig Aufrufen einen höheren Score zugeschrieben bekommt als ein Artikel mit vielen Zugriffen.

133

134

Publikumsbeobachtung im digitalen Wandel

Ein möglicher Grund kann hierfür dann sein, dass die Nutzerinnen und Nutzer sich mit dem ersten Artikel »mehr« beschäftigt haben (höhere Lesedauer, Anklicken von Zusatzinformationen wie Grafiken, Nutzung der eingebauten Formen der Publikumsbeteiligung etc.) und das Analysetool dementsprechend eine hohe Interaktionsrate bzw. ein hohes Engagement-Level ermittelt. Alle 90 Tage wird ein neuer Korridor erzeugt, in dem die jeweiligen Artikelscores miteinander verglichen werden. Durch diese vergleichsweise lange Zeitspanne können die Artikel weiterhin Nutzungsdaten generieren, durch die der Artikelscore gegebenenfalls nach oben oder unten korrigiert wird. Der Hintergrund hierfür ist, dass nicht nur eine Momentaufnahme (wie bei den Live-Daten) erzeugt werden soll, sondern die Artikel und ihre Performance über einen längeren Zeitraum vermessen und analysiert werden, um hieraus Ableitungen für das redaktionelle Arbeiten treffen zu können. So erklärt der Datenanalyst: »Jeder Text, der dann neu publiziert wird, sammelt ja verschiedenste Daten um sich drumherum. Das schreibt dann das Analysetool in eine sehr, sehr große Datenbank rein und 500 ist der Median. Und im Endeffekt rankt dann halt mein Text in dieser langen Liste an Texten, die es in meinem Ressort halt gibt, an irgend so einer Stelle und bekommt dann halt einfach so einen Wert dann errechnet«. Von zentraler Bedeutung ist die hierbei Lesbarkeit des Scores. Denn vielen Redaktionsmitgliedern fehlt oftmals die Zeit oder nötige Expertise, um sich mit den Daten auseinandersetzen zu können: »Und hier ist es eher ich versuche halt Daten, relevante Daten so darzustellen, dass Journalisten es verstehen. Und auch eine Sortierung, die halt dem nahekommt, was man eh immer braucht. Also dass sie sagen können naja im vergangenen Monat: Wie hat denn welches Ressort funktioniert? Wie viele Artikel gab es denn da? Wie oft wurden die Seiten wie viel wurden die Artikel aufgerufen? Auch im Durchschnitt. Wie war die Lesezeit? Und dann mich quasi da reinfuchsen können ein bisschen tiefer. Wo ich auch sagen könnte, ja welche Themen funktionierten denn eigentlich im vergangenen – also nach welcher Zeiteinheit auch immer – funktionierten gut? Welche einzelnen Artikel waren das? Welche einzelnen Referrer?«. Die durch das Analysetool einsehbaren Metriken übernehmen folglich eine Vorsortierungsfunktion, die den Redakteurinnen und Redakteuren den Umgang mit den Daten erleichtern und datenbasierte Einsichten in das »Funktionieren von Artikeln« geben soll. Das Tool bietet neben der Generierung und dem Anzeigen des jeweiligen Artikelscores (des einzelnen Wertes) folglich auch Möglichkeiten für eine tiefere Datenanalyse. Das Lesen des Artikelscores ist zunächst vermeintlich »einfach«. Jedoch verdeutlich der Teamchef für Social Media, dass »eigentlich« immer noch ein Daten-

7 Die empirische Fallanalyse

analyst benötigt wird, der sich eingehender mit den Scores beschäftigt und diese interpretiert, denn: »Das heißt du brauchst eigentlich immer einen Analysten, der sich das anguckt und nochmal die Sache interpretiert. Weil es könnte sein, dass ein Artikel schlecht lief, weil er nicht über Social Media gepostet worden ist, weil er vielleicht, dass der Inhalt auf zwei Seiten verbaut worden ist. Da muss man dann mal schauen, was da Gründe sein könnten dafür. Man sieht dann auch – hatten wir eben schon – bei der Seitentiefe, dass das hier wahrscheinlich eine Bildergalerie ist, die natürlich mehr Seitenaufrufe hat, weil sich Leute durch die folgenden URLs dann Punkt 1, Punkt 2, Punkt 3 durchgeklickt haben. Das heißt das muss man wissen, wenn man sich die Zahlen anguckt. Man kann nicht die einfach gleichwertig vergleichen die beiden Artikel«. Die Beschreibung, dass »eigentlich« zusätzlich noch ein Analyst die Scores interpretieren muss, lässt darauf schließen, dass dies zurzeit nicht der Fall ist – womöglich aus fehlenden zeitlichen und personellen Kapazitäten. Obwohl der Artikelscore also ein journalistisches intuitives Tool darstellt, das die Datenauswertung vereinfachen soll, so scheint auch diese Form der Publikumsbeobachtung nicht ohne Interpretation auskommen zu können (siehe auch Kap. 7.2.2.1). Generell stellt sich die Frage nach der redaktionell-intendierten Bedeutung, wenn von »gut« oder »schlecht« laufenden Artikel gesprochen und über überdurchschnittlich oder unterdurchschnittlich »performende« Artikel berichtet wird. Hierzu ein Blick in das Interview mit dem Online-Chefredakteur: »Interviewer: Wenn ihr dann davon sprecht ›Ein Artikel läuft gut. Der funktioniert gut‹. Damit ist dann immer gemeint, dass er im Vergleich überdurchschnittlich gut oder überdurchschnittlich viele Klickzahlen hat. Also. oder nicht Klickzahlen, da ist ja dann der Artikelscore. Der ist ja dann nochmal eine etwas härtere Währung oder ein tieferer Wert als dieser. Online-Chefredakteur: Der ist ein bisschen besser gewichtet als reine Zahlen, Klicks. Genau, ja. Genau aber das meinen wir, wenn wir sagen läuft gut, dann heißt das: Da sind viele Leser drin, die gut interagieren und da lange drinbleiben und sich damit beschäftigen. Ja. Und das muss doch unser Ziel sein, dass wir… weil das heißt, die Leute sind glücklich. Sie können mit dem Content, den wir produzieren, mit dem können sie was anfangen. Und das muss ja unser Ziel sein, dass wir Sachen schreiben, die die Leser interessieren. Und nur dann bleiben sie ja auch lange in einem Text und so«. Der Artikelscore fungiert folglich als ein wichtiges Instrument zur Erfolgsmessung von Inhalten. Viele Leserinnen und Leser und viel Beschäftigung (Engagement) mit dem Text wird vom Online-Chefredakteur demnach als ein Indikator dafür angesehen, dass das Publikum glücklich und zufrieden mit den Inhalten ist. Wenn die

135

136

Publikumsbeobachtung im digitalen Wandel

Nutzerinnen und Nutzern lange im Text bleiben, muss ihnen der Inhalt offensichtlich gut gefallen, so der Online-Chefredakteur. Da das Ziel sein müsse, Inhalte zu produzieren, die sie interessieren, bietet der Artikelscore gleichsam die Möglichkeit der Erfolgskontrolle, die durchaus das redaktionelle Arbeiten beeinflusst. Mit dem Artikelscore wird zusammengefasst ein Messparadigma in die Redaktion eingeführt, welches neue quantifizierte Möglichkeiten des Vergleichens und Bewertens von Artikeln sowie eine datenbasierte Erfolgsvermessung verspricht. Zur weiteren Veranschaulichung und Erklärung der Funktionsweise des Artikelscores werden abschließend die einzelnen Datentöpfe (Reichweite – Engagement – Loyalität) und die dort einfließenden Metriken kurz vorgestellt. Reichweite: In diesen Topf fließen die klassischen Metriken der Reichweitenmessung ein: Der Visit, die Page Impression, aber auch die Qualität der Reichweite. D.h.: Wie ist das Verhältnis zwischen Seitenaufruf und sozialen Interaktionen? Unter sozialen Interaktionen wird das Liken, Teilen oder Kommentieren eines Artikels verstanden. Der Seitenaufruf (Klick) wird aufgrund seiner negativen Konnotation und Assoziation (»clickbaiting«) von der untersuchten Zeitung als »Lektüre« reformuliert: »Lektüre klingt da ein bisschen näher an dem, was man eigentlich macht: Der Akt des Lesens«, so der Datenanalyst. Die Qualität der Reichweite eines Artikels mit bspw. 10.000 Lektüren und nur zwei sozialen Interaktionen wird dementsprechend niedriger bewertet als ein Artikel mit 5.000 Lektüren und 1.000 sozialen Interaktionen: »Weil offensichtlich das Erregungspotenzial oder die Art und Weise die Anregung zum Teilen wollen dieses Beitrags höher war und dementsprechend wird das dann belohnt auch von diesem Algorithmus«. Eine Lektüre wird ferner nur als solche betrachtet, wenn der bzw. die Nutzerin mindestens 10 Sekunden in dem Artikel verweilt. Bei einer Nutzungszeit von unter 10 Sekunden bewertet der Algorithmus den Nutzungsvorgang als clickbaiting oder »schlechten« Einstieg in den Text. Die »Bounce-Rate« (Absprungrate) fließt dementsprechend ebenfalls mit in den Reichweitentopf ein. Engagement: Der Topf »Engagement« kann frei übersetzt werden als Grad oder Stärke der nutzerseitigen Beschäftigung mit dem Text. Das Engagement beschreibt dabei einerseits die Lesezeit, andererseits aber auch die Lesetiefe (d.h. wie viel Prozent des Artikels wurden gelesen?). Die Lesetiefe wird anhand mehrerer Faktoren algorithmisch berechnet: der tatsächlichen Scrolltiefe, der Lesezeit und der Anzahl der Worte im Artikel. Der Wert der Lesetiefe soll das Produzieren von ausschließlich langen Texten verhindern (und nicht fördern). Denn eine Dreiabsatzmeldung wird von dem Algorithmus grundsätzlich besser bewertet als ein Artikel mit 15.000 Zeichen bei nur zwei Minuten durchschnittlicher Lesezeit, wie der Datenanalyst erläutert:

7 Die empirische Fallanalyse

»Weil es auch schon darum geht ja tatsächlich das Bedürfnis von Nutzerinnen und Nutzern zu befriedigen in dem Fall. Und auch zu wissen, wie das funktioniert und dann zu sagen naja wenn ich eine Nachricht hab, dann weiß ich, dass sie so und so lang sein sollte und dann ist gut«. Das Schreiben eines kontextualisierenden, siebten oder achten Absatzes sei meist nur für eine sehr kleine Nutzergruppe relevant. Für die meisten Nutzerinnen und Nutzer bestehe hier hingegen die Gefahr der Unzufriedenheit mit dem Text und in der Folge der Textausstieg. In den Topf des Engagements fließt zusätzlich mit ein, ob über den Text hinaus in das Angebot der Website eingestiegen wurde und, wenn ja, welche weiteren Artikel gelesen wurden: »Das ist dann so, das geht dann so ein bisschen in die Richtung: Wie produziere ich denn meine Texte oder wie baue ich dann auch so einen weiterführenden Text so ein, dass da noch ein Klick erfolgt?«. Loyalität: In den Topf »Loyalität« fließen Daten ein, die den Anteil der wiederkehrenden Nutzerinnen und Nutzer bestimmen. Loyalität ist für die Redaktionsmitglieder ein interessanter und wichtiger Wert, jedoch sind sie mit dessen aktueller Berechnung nicht zufrieden, weil die Loyalität nicht absolut, sondern relativ berechnet wird. Das heißt wenn viele Nutzerinnen und Nutzer einen Artikel lesen, die keine (Ver-)Bindung zur Marke besitzen und in Relation mehr sind als die »loyalen« Nutzerinnen und Nutzer, wirkt sich das negativ auf den Loyalitätsaspekt und folglich auf den Score aus. So erklärt der Datenanalyst: »Also Loyalität macht wirklich nur Sinn, wenn ich die betrachte in Bezug auf meine Kernleserschaft. Mich interessiert überhaupt nicht, ob ich jetzt darüber hinaus noch wahnsinnig viele neue Leute angesprochen habe. Das ist keine Größe, die dann eine Rolle spielt, ja. Aber natürlich wäre es im Idealfall, also der Wert ist halt deswegen auch sinnvoll für uns, weil Texte in kleineren Zielgruppen eher Aufmerksamkeit hervorrufen«. Die noch nicht zufriedenstellende Berechnung des Loyalitätswerts verweist auf die technischen Herausforderungen in der Publikumsvermessung (siehe Kap. 7.1.2). Gleichzeitig werden hier insofern die im Umgang mit Daten einhergehenden Entscheidungsbedarfe in der Medienorganisation verdeutlicht, als dass die Redaktion sich zunächst dazu entschlossen hat, den Loyalitätswert in der Berechnung des Artikelscores auszuklammern.

7.1.1.3

Konkurrenzbasierte Performance-Faktoren

Neben den Live-Daten und dem Artikelscore stellen sich konkurrenzbasierte Performance-Indikatoren als ein weiteres Messparadigma in der redaktionellen Publikumsbeobachtung heraus. Während der Artikelscore detailreiche Dateninformationen zu den jeweiligen eigenen Artikeln liefert, dienen die nun vorgestellten

137

138

Publikumsbeobachtung im digitalen Wandel

Performance-Faktoren insbesondere der Konkurrenzbeobachtung und stoßen selbstreferenzielle Prozesse an, indem überdurchschnittlich gut performende Artikel der Konkurrenz mit eigenen – möglicherweise hierzu fehlenden – Artikeln verglichen werden (Selbstverortung im Spiegel konkurrenzbasierter Daten). Ein beispielhaftes Analysetool, welches solche konkurrenzförmigen PerformanceFaktoren ermittelt und hierüber benachrichtigt, ist Storyclash.3 Dieses Tool betreibt ein Social Media-Monitoring, indem es die Social Media-Nutzungsdaten sammelt und miteinander vergleicht. Dabei werden nicht nur die eigenen Daten, sondern auch die der Konkurrenz bzw. aller Medienunternehmen, mit denen man sich vergleichen will, relationiert. Dies ist möglich, weil Social Media-Nutzungsdaten grundsätzlich öffentlich verfügbar sind. Das Programm misst dabei, wie »gut« oder »schlecht« welche Themen und Artikel bei der Konkurrenz laufen und wie diese im Vergleich zum eigenen Angebot funktionieren. Das Softwareprogramm ist optisch ähnlich strukturiert wie die weiter oben vorgestellten Analysetools Chartbeat und Linkpulse. Es verfügt über verschiedene Visualisierungsmöglichkeiten der Daten und rankt die Nachrichtenseiten sowie deren in den sozialen Medien geposteten Artikeln (siehe Abbildung 3). Das Analysetool ermittelt einen sogenannten performance factor, der einen Wert zwischen 1 und 10 annehmen kann. In einer weiteren Übersichtsliste werden all jene Artikel der Konkurrenz angezeigt, die mindestens einen Performance-Faktor von 5 besitzen. Dieser Wert heißt übersetzt, dass sie mindestens fünf Mal so gut wie ein durchschnittlicher Post des Medienunternehmens in einem bestimmten Zeitraum funktionieren. Den Performance-Faktor erklärt der Teamchef für Social Media wie folgt: »Es ist ein Bezug aus Interaktionen in einem bestimmten Zeitraum. Interaktionen in einem bestimmten Zeitraum im Vergleich zur durchschnittlichen Interaktion im bestimmten Zeitraum. Weil du willst ja nicht die totalen Interaktionen haben, du willst ja schon wissen wie performt das halt einfach über einen bestimmten Zeitraum. Deshalb Zeit durch Interaktionen. Da kommt dann ein Wert raus und der wird verglichen mit anderen Zahlen der Seite. Und dann kannst du sagen, dass es so viel Mal besser wie das durchschnittliche Verhältnis aus Interaktionen, die in dem Zeitraum normalerweise für die WELT oder für jetzt den Stern in dem Fall gut ist«. Die überdurchschnittlich gut funktionierenden Artikel der Konkurrenz werden über die Kommunikationsplattform Slack via Push-Benachrichtigung an die intern hierfür verantwortlichen Stellen automatisiert weitergeleitet (siehe Kap. 7.1.2.1.4).

3

Man beachte hierbei bereits die Namenszusammensetzung des Programms: story (dt.: Geschichte, Artikel) und clash (dt.: Aufeinanderprallen, Zusammenstoß, Konflikt).

7 Die empirische Fallanalyse

Abbildung 3: Beispielhaftes Ranking des Analysetools Storyclash. Dieser Screenshot besitzt keinen inhaltlichen Bezug zur untersuchten Zeitung, sondern dient lediglich der Anschauung.

Quelle: Screenshot, https://www.horizont.net/medien/nachrichten/Storyclash-Social-News-D ienst-bietet-nun-auch-Echtzeitanalyse-137281 (letzter Zugriff: 08.10.2022)

139

140

Publikumsbeobachtung im digitalen Wandel

In einem nächsten Schritt wird dann überprüft, ob ebenfalls ein Artikel zu dem Thema geplant ist oder ob ein hierzu bereits veröffentlichter Artikel überarbeitet werden soll, damit dieser ebenfalls erfolgsversprechend performt. Unterstützt wird dieses automatische Reporting von Performance-Faktoren durch das manuelle Weiterleiten von Auffälligkeiten. Hierzu ein Beispiel aus dem Feld, bei dem der Social Media-Teamchef in dem Analysetool einen gut performenden Artikel der Konkurrenz entdeckt: »Zum Beispiel das hier: ›So transportierte eine Frau ihr Pony – und die Polizei hatte nichts einzuwenden‹. Großartig. Das gebe ich mal den Kollegen weiter. Jetzt siehst du zum Beispiel so, was ich hier öfters mache. Heute ist der 5. November? Genau. 10 Uhr, 11 Uhr. Jetzt schreibe ich dem Pano-Kollegen. […] Und jetzt schreibe ich mal eine Slack-Nachricht: ›Habt ihr das gesehen?‹ Das ist jetzt nicht sehr professionell. Nicht so: ›Wir haben nach Zahlen festgestellt, das ist der beste Artikel, der …‹, sondern so der Hinweis: ›Guckt mal, habt ihr das gesehen? Ist es interessant für euch?‹ Einfach nur um darauf hinzuweisen. Im ersten Schritt so: ›Ist euch das durch die Lappen gegangen? Interessiert euch das?‹«. Ein weiteres in der Redaktion genutztes Analysetool ist CrowdTangle. Das Tool bietet einerseits ein E-Mail-Reporting, in dem Artikel aus den Sozialen Medien mit überdurchschnittlich hohen sozialen Interaktionen aufgelistet werden. Andererseits errechnet CrowdTangle ebenfalls Performance-Faktoren, die die Artikel in ein Verhältnis zueinander setzen und über besonders gut funktionierende Artikel informieren. Zusätzlich beinhaltet das Tool die Funktion, sich anzeigen zu lassen, welcher Social Media-Account den meisten Traffic für den Artikel generiert hat – der sog. CrowdTangle Linkchecker. Wenn bspw. ein Artikel in den sozialen Medien überdurchschnittlich »performed«, der Grund hierfür innerhalb der Redaktion oder des Social Media-Teams aber unklar ist, können mithilfe des Tools Nutzerströme verfolgt, Kulminationspunkte angezeigt und relevante Multiplikatoren ausfindig gemacht werden: »Aber allein für um zu gucken, was ist da passiert, ist das Tool halt schon goldwert dabei. Du siehst auch, dass unsere Kollegen selber etwas gepostet haben. Auch die AfD hat es fleißig geteilt. Ist eigentlich total hilfreich, weil du dort genau gucken kannst: ›Wo ist was passiert?‹. Einfach um einen schnellen Überblick zu bekommen« (Teamchef Social Media). Die Weiterleitung und Verbreitung der Artikel in den Sozialen Medien kann dementsprechend nur bedingt gesteuert werden: Überraschungen sind hier, anders formuliert, erwartbar. Performance-Faktoren sind darüber hinaus für die SEO-Mitarbeiter und ihre Netzbeobachtung von großer Relevanz. Besonders relevant ist hier der sog. Sicht-

7 Die empirische Fallanalyse

bakeitsindex des Datendienstleistungsunternehmens Sistrix, wie der technische SEO-Mitarbeiter erklärt: »Der Sichtbarkeit sagt dir in einem Satz aus: Wie gut werde ich gerade gefunden? Und nicht im Sinne von gut ehm positiv-negativ, sondern nur wie viel wie häufig wie weit oben werde ich gefunden. Wie berechnet sich dieser Index? Desto mehr Keywords mit hohem Suchvolumen auf einer hohen Position sind, desto höher ist dieser Index. Soll heißen, wenn ich mit Facebook, (eigener Zeitungsname), SPIEGEL und Trump auf Platz eins bin, dann haben diese Keywords einen bestimmten Punkt und oder bestimmte Punkte. Und diese Summe aufsummiert bildet diesen Index«. Sobald der Sichtbarkeitsindex mehr als 10 % sinkt, »ist Panik angesagt und ich kriege Achselschweiß und schlechte Laune, weil irgendwie wieder was nicht stimmt«, erläutert er mit leicht ironischem Unterton im Hinblick auf die Bedeutsamkeit dieser Daten. Mithilfe des Tools kann also nachvollzogen werden, mit welchen Keywords (Suchwörtern) das Gesamtprodukt im Internet in den Rankings auf- und abgestiegen ist: »Das heißt dieses Ranking bzw. diese Indexzahl ist sozusagen eine vorbereitende Zahl, die mir ermöglicht rauszukriegen, welche von unseren Themen, die wir beackern, denn gut bzw. schlecht laufen«. Diese SEO-spezifischen Daten zur Sichtbarkeit von Themen und Artikeln im Netz können demzufolge auch als zusätzliche Interpretationshilfe von Nutzungsdaten herangezogen werden. Wenn bspw. im Netz zu einem Thema ein besonders hohes Suchvolumen registriert wird, der eigene Inhalt hierzu aber nur unterdurchschnittliche oder durchschnittliche Werte aufweist, setzt dies Kontrollmechanismen in Gang, die nicht selten zu redaktionellen Überarbeitungen des Textes führen. Jene Sichtbarkeitsdaten sind insofern redaktionell interessant und relevant, weil etwa die Hälfte der Nutzerinnen und Nutzer durch eine GoogleSuchanfrage auf die Artikel der Tageszeitung stoßen.4

7.1.2

Technische Herausforderungen in der Publikumsbeobachtung

Die Vermessung des Publikums und des nachrichtlichen Geschehens im Netz wird durch diverse technische Probleme begleitet und teilweise eingeschränkt. Als eine zentrale Herausforderung lassen sich Messprobleme aufführen (Kap. 7.1.2.1). Die intensive Praxis der Verdatung führt unweigerlich zu unterschiedlichen Datenqualitäten und Verzerrungen in den Daten. So können zwei verschiedene Tools zwar

4

Weitere benutzte SEO-spezifische Analysetools sind Trisolute und searchmetrics suite. Diese Programme zeigen bspw. die aktuell am häufigsten benutzten Keywords im Netz an und erfassen die Suchbegriffe und verwendeten Schreibkombinationen, durch die die Nutzerinnen und Nutzer auf den Artikel gelangt sind. Diese Tools bieten folglich viele Möglichkeiten der Fehleranalyse und Sichtbarkeitsoptimierung hinsichtlich der Verschlagwortung von Artikeln.

141

142

Publikumsbeobachtung im digitalen Wandel

das Gleiche messen, dabei jedoch zu unterschiedlichen Messergebnissen kommen. Die Medienorganisation muss darüber hinaus ihre KPI (Key Performance Indicators) festlegen (Kap. 7.1.2.2), anhand derer der (wirtschaftliche) Fortschritt und Erfolg bestimmt werden soll.

7.1.2.1

Messprobleme und blinde Flecken der Webanalyse

Ein zentrales Messproblem besteht in der Zusammenführung der Daten über das Desktop- und Mobilangebot. Die jeweils erhobenen Daten können sich hierbei unterscheiden, da die Inhalte für mobile Endgeräte anders aufgebaut und aufbereitet werden, wie der Datenanalyst erklärt: »Wir paginieren ja auch viel. Und wenn ich nun beispielsweise diesen Artikel habe, ja. Der hat hier eine zweite Seite, hat er aber nur auf dem Desktop. Mobil hast du halt ja nur eine Seite und dann ist so ja gut wie soll ich denn das jetzt bitte genauer vergleichen? […] Ja deswegen das andere ist halt eine andere URL. Die kann natürlich nochmal andere Lesetiefe haben, aber ich kann ja nicht quasi irgendwie zwei Technik. zwei URLs und dann irgendwie zusammenpacken und das wird halt so nicht funktionieren. Und das macht natürlich die Qualität der Daten auch eh definitiv deutlich schlechter dann mal schnell«. An diesem konkreten Beispiel lässt sich die Herausforderung bzw. derzeitige Impossibilität erkennen, die Artikel ihrer grundsätzlichen Ausspielung (Desktop und mobil) datentechnisch zusammenzuführen. In der Folge existieren sowohl eine Desktop- als auch eine Mobilversion des Artikels, zu denen getrennt voneinander Nutzungsdaten erhoben werden. Dies verzerrt und vermindert die Datenqualität insofern, weil hierdurch die Aussagekraft der Daten über den Artikel verringert wird. Aus Sicht der Daten handelt es sich hierbei um zwei unterschiedliche Artikel. Neben Problemen der Zusammenführung von Daten stellt sich das Problem fehlender Publikums- bzw. Nutzersegmentierungsmöglichkeiten, wie der Datenanalyst weiter erläutert: »Und dann beißt sich halt auch schnell: Was kann ein Tool? Was messen wir? Wie genau sind die Daten? Wie muss ich vielleicht auch irgendwie Leserschaften segmentieren, um dann wirklich möglichst exakt das auszudrücken zu können mit den Daten, was ich eigentlich lesen mag oder was irgendwie relevant ist«. So besteht in der Berechnung des Artikelscores der Wunsch bestimmte Leserschaften oder Distributionskanäle mit einfließen zu lassen. Ein großes Potenzial an Datenverzerrungen bergen auch Nachrichtenaggregatoren wie Google News, Apple News, Pocket, Upday. Denn auch wenn diese Plattformen aus Sicht des Medienunternehmens zunächst einen positiven Effekt erzeugen – sie erreichen Nutzerinnen und Nutzer, die durch die Bespielung eigener Distributionskanäle womöglich nicht

7 Die empirische Fallanalyse

erreicht worden wären (Reichweitenerhöhung) – handelt sich die Redaktion hierdurch das Folgeproblem einer viel größeren Leserschaft ein, die mit der Marke und der Kernleserschaft der Zeitung eigentlich nichts zu tun hat. In der Vermessung der Angebote hat dies insbesondere einen negativen Effekt auf die Berechnung des Artikelscores, da hierdurch der Engagement-Wert der Kernleserschaft verzerrt wird. Daten erzählen nach Ansicht des Datenanalysten somit nicht unbedingt die ganze Wahrheit: »Ehm beim Engagement kann es aber dann passieren, wenn ich viele Nutzer habe auf unserer Homepage, also in meinem Kosmos, die finden den Text relevant, die lesen da viel von, die klicken auch vielleicht auf einen anderen Text. Durch Zufall landet der dieser Text aber auch in einem Aggregator also bei Google News und ging total ab – oder bei Apple News oder Upday und so weiter und sofort. Und obwohl meine Kernleserschaft das dann auch eigentlich sehr interessant fand, wird die dann vielleicht mit einer sehr viel größeren Leserschaft, die halt nichts mit meiner Marke eigentlich zu tun hat, vermengt. Dementsprechend sinkt dieser Wert beim Engagement sehr stark und es macht den Anschein, als ob es quasi – also es macht ja auch, es stimmt ja auch, dass für die Gesamtleserschaft das irgendwie dann halt nicht so intensiv war oder wichtig war. Auch im Verhältnis zu anderen Texten, die wir bisher auch auf der Seite hatten. Aber es sagt halt nicht unbedingt die ganze Wahrheit, genau«. Der Datenanalyst verwendet an späterer Stelle für diese Messproblematik auch die Metapher von Touristenströmen (»Zufallstreffern«), die in einem Geschäft etwas kaufen: »Wenn ich jetzt [in] so [einem] Klamottenladen wäre, dann hingen da immer so ähnliche Sachen so an den Kleiderstangen. Aber die sind irgendwie dann doch irgendwie immer so ein bisschen anders. […] Und manchmal kommen dann irgendwie, weiß ich nicht, irgendwann würden dann irgendwelche so Touristenströme plötzlich auftauchen, die überhaupt nichts damit zu tun haben, was ich eigentlich verkaufen will. Genau. Deswegen sind da viele, gibt es da viele Herausforderungen […]«. Einerseits freue man sich über die zusätzlichen Verkäufe, andererseits erfahre man hierdurch jedoch nichts über seine Stammkunden. Es verwundert folglich nicht, dass der Loyalitätswert in der Berechnung des Artikelscores für die Redaktion hochgradig interessant ist – auch wenn sie ihn wegen Unzufriedenheit über dessen aktuelle Berechnung nicht nutzen. Das Problem der fehlenden Differenzierbarkeit zwischen Kernleserschaft und weiteren Lesergruppen sowie der daraus resultierenden Datenverzerrungen beschreibt auch der Teamchef für Social Media, der dabei auf eine Paradoxie in der Publikumsvermessung hinweist:

143

144

Publikumsbeobachtung im digitalen Wandel

»Das hat damit zu tun mit meiner allgemeinen Problematik mit den KPIs. Das heißt nur weil Leute interagieren, heißt das noch lange((betont)) nicht, dass sie halt in den Artikel reinklicken. Der hat zwar eine höhere Reichweite, nur wenn er eine hohe Reichweite hat, aber keiner hat ihn gelesen, dann geht der Artikelscore automatisch wieder nach unten. Das heißt du hast auf einmal eine komische Verknüpfung, die. bei der viel nicht gleich viel ist. Sondern viel auch gleich durch das viel automatisch weniger wird. Das heißt weil es bei Apple News ist, weil es bei Facebook gut läuft, uns eigentlich viele Leute sehen könnten, sehen müssten, aber trotzdem nicht draufklicken trotzdem nicht lesen weil sie schnell wieder raus sind weil Facebook-Leser einfach nicht so lange lesen wie unsere eigenen Leser, geht der Artikelscore auf einmal runter. Was eigentlich gar nicht. weil du hast verschiedene Lesergruppen, die verschieden eigentlich bewertet werden müssten. Ich weiß nicht, inwieweit ((Vorname des interviewten Datenanalysten)) das halt, das sich mal regelmäßig anguckt. Wäre aber schon mal eigentlich eine spannende Analyse für sich, aber dann bist du halt. da schreibst du eine Doktorarbeit drüber, wenn du das halt so machst. Weil es halt so um drei Ecken halt dann nochmal ist«. »Viel ist nicht gleich viel«, so könnte eine alltagssprachliche Umschreibung dieser hier angesprochenen Paradoxie der Publikumsvermessung lauten. Jene Paradoxie aufzulösen ist jedoch mit viel – zurzeit nicht leistbarem – Aufwand verbunden (»da schreibst du eine Doktorarbeit drüber, wenn du das halt so machst«). Mit anderweitigen Messproblemen geht der Social Media-Teamchef ironisch um: »Eigentlich sind es auch mehr. Das ist ein bisschen von den Zahlen her, weil die 43.000 entspricht nicht dem, was hier unbedingt steht. Weil hier nochmal andere Zahlen dabei sind. Dann sind die nämlich viel höher insgesamt. Das sind eigentlich 49.000. Das passt aber auch nicht ganz. Du siehst auf die Zahlen ist super Verlass«. Er bezieht sich hierbei vor allem auf ein technisches Problem, bei dem das Tool Storyclash die Aufrufzahlen nicht mehr weiterzählt, sobald die URL einmal verändert wurde. Die Veränderung der URL ist keine Seltenheit, da die Artikel nach ihrer Veröffentlichung meist noch für die Suchmaschinenergebnisse optimiert werden und in die URL dann bspw. relevante Schlagwörter eingebaut werden. Auch wenn die Webanalyse im Vergleich zur Print-Distribution sehr viele neue Möglichkeiten bietet, um etwas über das Publikum, seine Interessen und Nutzungsgewohnheiten zu erfahren, so lassen sich insgesamt betrachtet auch blinde Flecken in der quantifizierten Publikumsvermessung und -beobachtung konstatieren, wie die Teamleiterin User Research berichtet:

7 Die empirische Fallanalyse

»Auch ganz interessant, was wir da so hören ist – ehm und das kriegst du aus keiner Umfrage raus. Das musst du einfach hören –, dass halt am Tisch mehrere Gäste sich dann überhalten eh unterhalten, dass es in der Zeitung oft so eine negative Grundstimmung gibt, weil wir halt über sehr viel Negatives berichten, weil wir sehr viel Kritik äußern an Politik, an Wirtschaft. Und dass einfach Leser – und das ist vor allem ein weibliches Phänomen – sagen ihnen ist es manchmal zu viel. Sie wollen am Ende von so einem Tag, wenn sie dann noch irgendwie eine Viertelstunde Zeit haben, sich nicht etwas zu Gemüte führen, was sie irgendwie noch deprimierter macht als sie vielleicht von dem gestressten Tag eh schon sind. Und dann kommen so Aussagen wie: Unsere Zeitung ist zwar positiver als SPON, aber negativer als Die Zeit. Und dann merkt man so im Gespräch: Die Leute überlegen sich manchmal wirklich: Gehe ich jetzt lieber zur Zeit, weil da kriege vielleicht eher was, was mich positiv stimmt, oder gehe ich jetzt zur (eigener Zeitungsname) – da muss ich heute aber gut gefestigt sein. Und also. und das ist was. ich wüsste nicht, welche Umfrage ich machen müsste online oder welche Webanalyse ich mache könnte, um so eine Information zu bekommen. Die bekomme ich einfach sonst nicht. Deshalb müssen wir Formate entwickeln, wo wir mit Lesern tatsächlich reden«. Die Teamleiterin für User Research spricht hier die Relevanz von qualitativer Leserforschung an, wie sie bspw. von der hier untersuchten Tageszeitung anhand spezifischer Formate umgesetzt wird. Durch den Austausch mit Leserinnen und Lesern (Face-to-Face-Kommunikation) wird wertvolles Feedback gewonnen, welches redaktionelle Entscheidungen in hohem Maße beeinflussen kann. Dies zeigt auch das Beispiel der Berichterstattung über politische Parteien (hier: AfD). So wurde sich die Frage gestellt, wie mit getätigten Aussagen der AfD redaktionell umgegangen werden soll. Soll »über jeden Blödsinn«, den irgendein Führungsmitglied sagt, berichtet werden, auch wenn es nicht im Bundestag ist? Die Meinung der befragten Leserinnen und Leser war eindeutig: Ihnen ist lieber, dass die Zeitung hierüber berichtet, als würde sie nicht berichten, weil sie sich selbst ein Bild machen wollen. Nach ihrer Ansicht müsste über jedes verbale Vergreifen der Partei berichtet werden: »Und dann ist es natürlich schon ein hilfreicher Input, wenn man wieder am Newsdesk sitzt und entscheiden muss, ob man jetzt irgendwie irgendwas was Alice Weidel gestern in irgendeinem Wirtshaus erzählt hat, ob man das jetzt erwähnt oder nicht«. Die quantifizierte Publikumsbeobachtung im Netz scheint demzufolge um qualitative Leserforschung und -befragung ergänzungsbedürftig zu sein. »Du willst ja wissen, was die Leute denken«, sagt die Teamleiterin für User Research an späterer Stelle. Und eben jenes Erfassen der Bewusstseinssysteme ist in der Webanaly-

145

146

Publikumsbeobachtung im digitalen Wandel

se nicht operationalisier- und realisierbar. Dies ist im Übrigen keine Erkenntnis, die erst durch die internetbasierte Publikumsbeobachtung evident wird. Jene Notwendigkeit qualitativer Publikumsforschung ist auch im Kontext der Fernseh- oder Radioforschung zu beobachten, bei der sich die Publikumsinklusion gleichermaßen im Modus der Quantifizierung vollzieht. Interessant ist allerdings, dass jene Notwendigkeit durch die Webanalyse resp. deren blinde Flecken einen neuen Stellenwert erfährt. Je mehr das Publikum quantifiziert wird und je mehr es anhand statistischer Daten beobachtet wird, desto mehr scheint das redaktionelle Verlangen nach der Entwicklung von Formaten zu steigen, bei denen mit Leserinnen und Lesern »tatsächlich geredet wird«. Zurückzuführen lässt sich das unter anderem auf das hohe Irritationspotenzial der publikumsbezogenen Nutzungsdaten (siehe Kap. 7.2.2).

7.1.2.2

Das Festlegen der »KPI«

Da die Möglichkeiten der Publikumsvermessung vielfältig sind, wird dem Festlegen der Key Performance Indicators (KPI) eine große Bedeutung zugeschrieben. KPI sind als organisational festgelegte Leistungskennzahlen zu verstehen, anhand derer der (wirtschaftliche) Fortschritt und Erfolg der Medienorganisation bestimmt wird. Das Festlegen der KPI gestaltet sich als äußerst voraussetzungsvoll und entscheidungsbedürftig, wie der Online-Chefredakteur anmerkt: »Ja, und dann ist natürlich auch so die große Frage: Auf welche KPIs wollen wir denn eigentlich optimieren? Was ist jetzt wichtig für uns? Sind es Conversions, also digitale Abo-Abschlüsse? Oder ist es noch die Reichweite, wovon unser Werbemarkt abhängt? Wie kriege ich das in einen guten Mix?«. Es stellt sich folglich die Frage, welche Daten wichtig für die Redaktion, aber auch für das gesamte Medienunternehmen sind. Bei welchen Daten erscheint eine Optimierung aus der Sicht der Medienorganisation funktional, um hieraus »Erfolg« ableiten zu können? Mit Erfolg ist hierbei sowohl wirtschaftlicher Erfolg als auch Erfolg in Form von sinnvollen redaktionellen Handlungsableitungen gemeint. So deutet auch der Social Media-Teamchef die Notwendigkeit an, sich organisational auf bestimmte KPI zu verständigen und diese auch redaktions- bzw. abteilungsweit durchzusetzen: »Da macht es Sinn nochmal reinzugucken, weil die bei Instagram. von den Zahlen ist es spannend: Will man da die Interkationen haben oder will man sehen wie oft das Leute angeguckt haben?«. Eine grundsätzliche Herausforderung ist demnach, welche der publikumsbezogenen Nutzungsdaten die Redaktion zur Selbstbeobachtung und Weiterentwicklung als relevant erachtet (Priorisierung von Daten) und wie ihnen zur organisationsweiten Anerkennung verholfen werden kann. Gleichzeitig besteht durch das Fest-

7 Die empirische Fallanalyse

legen der KPI das Risiko einer zu starken Fokussierung, bei der andere relevante Daten außer Acht gelassen werden. So spricht der Online-Chefredakteur auch davon, dass mit der Festlegung von Leistungskennzahlen eine selbsterfüllende Prophezeiung angestoßen wird – »You become what you measure«: »Ich habe mal auf einer Konferenz irgendwann den schönen Satz gehört: ›You become what you measure‹. Also wenn du, wenn du auf PIs optimierst, dann werden die PIs steigen. Und wenn du auf Jujus optimierst, dann geht halt die Zahl nach oben. Aber das heißt nicht. also den richtigen Mix muss man da schon immer finden«. Der Online-Chefredakteur deutet hier mit der Formulierung eines »richtigen Mix« an, dass die redaktionelle sowie organisationale Erfolgsbestimmung nicht anhand eines Wertes erfolgen kann. Vielmehr müssten mehrere KPI festgelegt und bestimmt werden. Dies zeigt sich auch in einem grundsätzlichen Spannungsfeld zwischen wirtschaftlichem und redaktionellem Denken bzw. entsprechenden Belangen, mit denen sich der Online-Chefredakteur auseinandersetzen muss: Welche Daten sind aus der Sicht des Medienunternehmens relevant (Fragen der Finanzierung) und welche Daten sind aus der Sicht der Redaktion bedeutsam (Fragen nach redaktionellen Handlungsableitungen)?

7.1.3

Die redaktionelle Datenanalyse

Die redaktionelle Datenanalyse beschreibt die auf Daten beruhende Weiterentwicklung der Redaktion und ihrer einzelnen Ressorts. Ausschlaggebend hierfür sind nicht die für das Tagesgeschäft relevanten Live-Daten (Kap. 7.1.1.1), sondern vielmehr Daten, die über einen längeren Zeitraum erhoben werden. Da die Verdatungs- und Analysemöglichkeiten im Netz unbegrenzt scheinen, stellt die Integration von Daten in die redaktionelle Praxis eine wichtige Vermittlungsleistung dar, wie der Datenanalyst erläutert: »Analysieren kann man alles. Man muss es dann aber immer in sinnvolle Arbeitsabläufe reinbekommen. Das ist glaube ich die. das ist immer der Knackpunkt. Zu wissen was. also auch so mit Daten möglichst ökonomisch umzugehen. Hier keine Datenverschmutzung zu herzustellen, sondern zu sagen zu wissen, wer wann welche Daten brauchen könnte, um auf der Basis relevante Entscheidungen treffen zu können«. Der Datenanalyst beschreibt hier die Kuration von Datenanalyseergebnissen an relevante Empfänger bzw. Stellen in der Redaktion. Die analysierten Daten sollen dann eine Orientierung für die Entscheidungsfindung bieten. Das Ziel jener redaktionellen Datenanalysen besteht darin, Nutzungszusammenhänge und Publikumsinteressen sichtbar zu machen und herauszustellen. Das Schaffen von Ver-

147

148

Publikumsbeobachtung im digitalen Wandel

ständnissen, wie die eigenen Nutzerinnen und Nutzer auf den jeweiligen Distributionsplattformen »funktionieren« und welche redaktionellen Handlungsableitungen hieraus abgeleitet werden können, steht folglich im Mittelpunkt: »Und ich habe das Gefühl, dass diese ganze, dass diese ganze Datenanalyse, die redaktionelle Datenanalyse, eigentlich immer nur darauf abzielen kann zu checken, wie die eigenen Leser auf welcher Plattform auch immer funktionieren und wie ich naja das als relevante Informationen für mich aufnehmen kann und dann halt einen Weg finde, klug damit umzugehen oder auch nicht umzugehen. Also man also Ansatz ist ja eh immer zu sagen naja das ist halt das redaktionelle Programm, mal gucken wie es funktioniert. Ehm manche Dinge werden wir nicht ändern, weil es Leser nicht toll finden. Da ändern wir dann nichts. Aber in allen Bereichen, wo es erstmal relativ irrelevant ist, ob wir über dieses oder jenes oder so und so berichten. Da sollte ich [die Daten; Anm. K.P.] tatsächlich dann ehm schon so im Sinne von so einer Dateninformiertheit einfach so als Informationsbestandteil ehm zusammennehmen«. Ausgehend von einem grundsätzlichen journalistischen Primat (redaktionellen Programm) besteht eine zentrale Umgangsstrategie mit den Daten darin, eben nicht mit ihnen umzugehen, d.h. sie zu ignorieren bzw. sie wahrzunehmen, ohne redaktionelle Veränderungen anzustoßen. Bei anderen Themen jedoch, »wo es erstmal relativ irrelevant ist«, über welche Inhalte berichtet wird, sollten die Daten nach Auffassung des Datenanalysten im Sinne eines relevanten Informationsbestandteils handlungsanleitend genutzt werden: »Ob du jetzt aber beispielsweise ob wir über die Royals, Formel 1 oder die Modewoche in Mailand berichten, das ist eigentlich vollkommen wurscht. Da muss man glaube ich dann sich gut überlegen, warum wir das machen, wie man das macht. Um auch zu versuchen herauszufinden: Wie tickt denn eigentlich das Publikum? Welche Zielgruppe haben wir denn eigentlich auf der Seite? Wen können wir wie ansprechen und warum machen wir die ganze Sache?«. Als Königsweg der redaktionellen Datenanalyse wird eine ganzheitliche Datenbeobachtung des Publikums angesehen, bei der die Daten thesengeleitet analysiert werden: »Sonst ist es schwierig irgendwas zu analysieren. Da muss irgendetwas, eine These im Raum stehen die man analysieren kann, um dann irgendwas zu verbessern, zu optimieren, anzupassen. […] Um dann im Endeffekt drei Monate später die Möglichkeit zu haben und zu gucken, hat es eigentlich Erfolg gehabt? Hat es keinen Erfolg gehabt? Müssen wir uns anpassen oder lassen wir es bleiben? Um dann so eine Kultur hier zu etablieren von: ›Ich hab Daten und hab eine objektive Grundlage auch über eine Leserschaft und versuche auf der Basis eher so

7 Die empirische Fallanalyse

in kleineren Schritten irgendwas zu optimieren‹. Genau, so soll das eigentlich stattfinden«. Eng verbunden mit diesem Ansatz der ganzheitlichen und ressortspezifischen redaktionellen Datenanalyse ist das Konzept verbunden, Inhalte zukünftig plattformunabhängig zu produzieren. Auch hierbei müssen die Daten ganzheitlich betrachtet und Zusammenhänge in den Daten herausgearbeitet werden, wie der Datenanalyst erklärt: »Wie können wir es denn jetzt schaffen nicht für so Einzelplattformen zu publizieren und Inhalte zu entwickeln, sondern das möglich ganzheitlich zu machen, ja. Und dann reicht es mir halt nicht mehr nur zu sagen: ›Hm das hatte so so viel Visits und so und so viele Seitenaufrufe‹. Und auf der anderen Seite: ›Naja das wurde so und so quasi interagiert mit dem mit dem Inhalt auf Facebook oder Twitter oder wo auch immer‹«. Daten über Visits, Seitenaufrufe und soziale Interaktionen (Likes, Beitragsteilungen, Kommentare) müssen für eine plattformunabhängige Inhaltserstellung demnach nicht alleinstehend und plattformspezifisch ausgewertet werden, vielmehr müssen aus den Daten plattformübergreifende Zusammenhänge herausgelesen und Beziehungen zwischen den Daten aufgezeigt werden: »Darum müsste ich auch sagen naja welchen Zusammenhang gibt es denn hier eigentlich zwischen sozialen Interaktionen und Seitenaufrufen? Welche Auswirkungen hat das denn auf die Lesezeit, die Lesetiefe?«. Eine hausinterne Lösung zur ganzheitlichen Datenanalyse scheiterte jedoch aus Ressourcengründen. Deshalb kooperiert die Zeitung mit einem externen (Daten-)Dienstleister, der Daten »ganzheitlich und in einem journalistischen Sinne betrachtet«. Maßgeblich ist hierbei der weiter oben vorgestellte Artikelscore (Kap. 7.1.1.2). Perspektivisch soll durch die Analyse von Daten die Aussteuerung von Inhalten nach bestimmten Kriterien (z.B. Zielgruppen) unterstützt werden. Auch wenn solche datenbasierten Distributionsweisen technisch noch nicht umsetzbar sind, so wird über diese Möglichkeiten in der Medienorganisation bereits diskutiert, wie der Teamleiterin für User Research ausführt: »Was kann man da für Fragen ableiten? Im Moment leiten wir davon noch zu wenig ab, weil wir die Inhalte nicht unterschiedlich aussteuern. Also wissentlich, dass hier bei unserem stationären Websiteangebot mehr Abonnenten sind und mehr Männer, könnte man sagen wir spielen hier vor allem Plus-Texte aus, die wirtschaftslastig sind oder sportlastig. Und unserem mobilen Websiteangebot vielleicht weniger Plus-Texte und vielleicht eher auch andere Themen. Im Moment haben wir diese Aussteuerungsmöglichkeit noch nicht, aber solche Gedanken kann man sich ((klatscht in die Hände)) natürlich machen«.

149

150

Publikumsbeobachtung im digitalen Wandel

In gleicher Hinsicht sei eine Ausspielung der Inhalte nach Region sinnvoll. Die Beobachtungen und Erkenntnisse aus den Daten hat die Tageszeitung veranlasst, in einem Bundesland eine zusätzliche Korrespondentenstelle einzurichten, da hier besonders viele Menschen auf die Website zugreifen: »Dann so im Hinblick auf die Regionen. Wo wohnen die Menschen, die unser Websitenangebot nutzen? Überdurchschnittlich viele unserer Nutzer wohnen in Nordrhein-Westfalen5 . Ist jetzt nicht ganz so überraschend. Aber was man jetzt hier auch sieht, dass vor allem in der App Nutzer aus NRW ins Gewicht fallen. Da könnte man sich jetzt wieder fragen müsste man vielleicht den Köln- und den NRW-Teil weiter nach oben schieben in der App? Weil er einfach jeden Vierten interessiert und nicht nur jeden Zehnten wie vielleicht auf der mobilen Seite. Wir sehen dann auch in welchen anderen Bundesländern wir stark sind. Wir sehen ja zum Beispiel hier auch, dass wir wirklichen einen großen Anteil an Lesern haben, die aus Baden-Württemberg sind, wir aber relativ wenig Content zu Baden-Württemberg hatten. Aus solchen Ergebnissen plus einer qualitativen Untersuchung, die wir in Baden-Württemberg gemacht haben – da sind wir nach Baden-Württemberg gefahren und haben tatsächlich mit Leuten geredet – haben wir jetzt eine zusätzliche Korrespondentenstelle in Baden-Württemberg geschaffen. […] Also dass man quasi versucht BW öfter in unserem Content vorkommen zu lassen, damit eben die Leser, die wir haben, – das ist ja irgendwie jeder Fünfte bei uns, die in BW wohnen – öfter etwas finden, was vielleicht auch für sie selber einen Bezug hat«. Mit den Verdatungsmöglichkeiten gehen dementsprechend viele Ideen und Möglichkeiten zur Personalisierung von Inhalten einher. Neben der Überlegung Inhalte nach soziodemografischen Kategorien unterschiedlich auszusteuern, wird sich auch die Frage gestellt, ob bestimmte Inhalte oder Ressorts je nach Region verschieden ausgespielt und priorisiert werden sollten, um – so der dahinterstehende Gedanke – einen lebensweltlicheren Bezug zu den Leserinnen und Lesern herzustellen und sie im Idealfall zu einem Abo-Abschluss zu motivieren. Daten beeinflussen somit nicht nur Publikumsvorstellungen oder die Gestaltung und Entwicklung von Inhalten, sie wirken – wie das oben genannte Beispiel zeigt – auch als Beförderer von organisationalen Entscheidungen (siehe Kap. 7.3.1). Insgesamt betrachtet stehen die derzeitigen Verdatungspotenziale und Möglichkeiten der redaktionellen Datenanalyse jedoch noch am Anfang ihrer Entwicklung, wie der Online-Chefredakteur mit Blick auf die geplante ePrivacyVerordnung und im Vergleich zu US-amerikanischen Tageszeitungen erläutert: 5

Die Namen der genannten Bundesländer und Städte wurden aus Anonymitätsgründen in allen hier zitierten Transkriptausschnitten geändert. Zur besseren Lesbarkeit und um den Lesefluss zu verbessern, wurden zudem die zitierten Passagen geglättet.

7 Die empirische Fallanalyse

Online-Chefredakteur: »Wenn wir dürfen((betont)), machen wir mit den Daten alles, was möglich ist ((lacht)). Also es ist wirklich total wichtig. Ich glaube wir müssen auch so ein bisschen aufpassen, dass wir uns nicht zu Tode messen. Aber da steckt schon wahnsinnig viel drin((betont)). Wenn wir zum Beispiel wissen du hast schon dreimal einen Tagespass gekauft und einmal ein Probe-Abo abgeschlossen, dann werden wir dir auf unserer Seite wahnsinnig viel (Abkürzung Zeitungsname)Plus-Stoff zeigen können, weil bei dir die Wahrscheinlichkeit, dass du ein Abo abschließt, die kennen wir ja, weil wir eben diese Daten haben. Es ist für uns eine total wichtige Information. Wenn wir aber wissen, du hast noch nie ein Probe-Abo abgeschlossen, du stößt sieben Mal die Woche an die Paywall. Du bist aber total. du willst einfach nicht zahlen. Dann müssen wir es dir auch nicht mehr anzeigen. Dann schütten wir dich zu mit unserem Bildergalerien und den klickträchtigen Stoffen. So. Also das ist echt auch für’s Geschäftsmodell wichtig ((lacht)). Dahin, glaube ich, wird die Reise gehen. Oder wenn wir wissen, jemand wählt sich vom Knotenpunkt Hamburg aus ein und hat noch nie einen einzigen Köln-Artikel gelesen, dann wird der Köln-Ressortaufmacher auf der Seite – ich glaube, ich würde ihn nicht ausblenden – aber er wird einfach weiter unten landen und dafür die Politik dann höher oder so«. Interviewer:»Aber diese automatisierten Prozesse gibt’s noch nicht, oder?« Online-Chefredakteur: »((Atmet schwer aus)) Wir stehen da echt noch am Anfang, muss man sagen. Ich glaube im Vergleich zu der [von dir besuchten; Anm. K.P.] Lokalzeitung sind wir natürlich wahnsinnig weit. Aber im Vergleich zu den Amis sind wir halt noch nicht so weit. Ja«. Der Online-Chefredakteur spricht in der dieser Interviewpassage sehr anschaulich und offen über die Relevanz von Daten (»Wenn wir dürfen, machen wir mit den Daten alles, was möglich ist. Also es ist wirklich total wichtig«, »da steckt schon wahnsinnig viel drin«). So erzeugen Daten viele neue Sichtbarkeiten über die Nutzungsgewohnheiten und Interessen des Publikums, die neben redaktioneller auch aus wirtschaftlicher Sicht genutzt werden müssen (»Also das ist echt auch für’s Geschäftsmodell wichtig«). Gleichzeitig mahnt der Online-Chefredakteur, »sich nicht zu Tode zu messen«, was einerseits auf die komplexen Prozesse der Datenerhebung, des Datenumgangs und der Datennutzung zurückgeführt werden kann, die entsprechende zeitliche, personelle und finanzielle Ressourcen erfordern. Andererseits kann hierunter auch ein Aufruf zur Achtsamkeit verstanden werden, die eigene journalistische Grundausrichtung im Zuge der Verdatungsmöglichkeiten beizubehalten und sich nicht übermäßig durch einen Blick in den Spiegel der Daten irritieren (oder negativ formuliert: steuern) zu lassen.

151

152

Publikumsbeobachtung im digitalen Wandel

7.1.4

Ein Wandel des Publikumsverständnisses?

Die Vorstellungen vom Publikum differenzieren sich mit der Internetdistribution und den dortigen Möglichkeiten der Publikumsbeobachtung und -vermessung weiter aus. Stellte sich den Zeitungen unter Print-Bedingungen das Publikum als eine vage Größe heraus, da nur die Auflagenzahl der Zeitung gemessen wurde und der Publikumskontakt auf Leserbriefe oder vereinzelte (persönliche) Gespräche beschränkt war, bietet das Netz zahlreiche Vermessungs- und Inklusionsmöglichkeiten. Insofern verwundert es nicht, wenn der Online-Chefredakteur das OnlinePublikum mit folgenden Worten anfängt zu beschreiben: »Das ist sehr anders zu Print natürlich«. Die Vorstellung von einem Print- und einem Online-Publikum haben nicht unbedeutende Einflüsse auf das redaktionelle Arbeiten, wie die Teamleiterin für User Research erklärt: »Da holen wir andere Leser ab. Also wir erreichen andere Gesellschaftsschichten in Deutschland mit unserem Online- und Digitalangebot im Vergleich zu unserem Print-Angebot. Und das ist zum Beispiel unglaublich wichtig für die Wahrnehmung auch im Haus, weil natürlich viele Print-Kollegen tendenziell sagen: ›Oah die online machen manchmal so profane Sachen‹. Ja, aber wir haben auch eine andere Zielgruppe. Also wir unsere Aufgabe ist quasi, gerade für Hedonisten und Adaptiv-Pragmatische [die Teamleiterin bezieht sich hierbei auf die unterschiedlichen Milieus der Sinus-Studie; Anm. K.P.], die die Zeitung relativ schlecht erreicht, für die halt ein Angebot zu machen. Und da gehört eben dazu, dass man eben – weiß ich nicht – einen Porsche testfährt und einen Bericht drüber schreibt. Oder so Tipps macht wie ›Der beste Wimperntusche-Test‹. […] Das ist natürlich ein Inhalt, mit dem sich so ein Teil unserer Print-Redaktion nicht unbedingt identifizieren kann. Aber es ist ein Service, es ist ein Lifestyle […]. Und das hat auch irgendwie seine Berechtigung. Sag ich. Sieht jetzt vielleicht nicht jeder immer so«. Das Print- und Online-Produkt der Zeitung haben dementsprechend unterschiedliche Publika und damit einhergehend verschiedene Zielgruppen mit unterschiedlichen Interessen. Das »eine«, homogene (Zeitungs-)Publikum scheint nicht zu existieren, weshalb die befragten Mitarbeiterinnen und Mitarbeiter auch stets von Zielgruppen (und nicht vom Publikum) sprechen. Der letzte Satz aus der zitierten Interviewpassage (»Und das hat auch irgendwie seine Berechtigung. Sag ich. Sieht jetzt vielleicht nicht jeder immer so«) verweist auf online- bzw. printspezifische Differenzen in der Publikumsvorstellung und auf interne Akzeptanzprobleme unterschiedlicher Publikumsbilder (siehe hierzu auch Kap. 7.2.3). Die verschiedenen Zielgruppen spiegeln sich auch in den Nutzungsdaten wider, wie der Homepage-Chef mit Bezug auf die unterschiedlichen Informationsangebote des Medienunternehmens (Print-Ausgabe, Online-Ausgabe, zwei Magazine

7 Die empirische Fallanalyse

und eine App) erläutert. So verweist er auf einen in der App und in dem OnlineAuftritt des Magazins gut laufenden Artikel. Derselbe Artikel funktioniert auf der Homepage der Zeitung aber »überhaupt nicht«. Neben dieser rein quantifizierten Publikumsbeobachtung bieten die digitalen Infrastrukturen außerdem neue Formate der Publikums- bzw. Nutzerinklusion. Die Redaktion nutzt jene Inklusionsmöglichkeiten, um ein Stimmungsbild der Nutzerinnen und Nutzer (Einstellungen, Meinungen, Ansichten) einzufangen, dieses redaktionell sichtbar zu machen und an die Nutzerinnen und Nutzer zurückzuspielen, indem bspw. vertiefende oder ergänzende Inhalte und Angebote entstehen, die sich anhand jener erhobenen Stimmungsbilder orientieren. Welche Formen und Möglichkeiten der Nutzerinklusion redaktionell genutzt werden, wird im Folgenden näher beschrieben. Für die Nutzerbindung und -inklusion unter Internetbedingungen ist das sogenannte »Social Team« zuständig, zu dessen Aufgaben auch das Bespielen und Beobachten der Social Media-Kanäle gehört: »Für was ich noch zuständig bin, ist halt diese Leser-Kommunikation. Das heißt wir haben Tools, zum einen Rawr und Opinary. Das heißt User-Engagement niederschwellig auf der Seite. Wo Leute was anklicken können, wo Leute halt sich einschätzen können. Das fehlt unserer Zeitung, weil wir immer. ich habe vor drei Jahren die Kommentare abgeschaltet. Es geht eigentlich darum zu gucken, dass man die Leute einfach nicht nur reden lässt, sondern stärker mit einbezieht. Das heißt auch da versuche ich halt mit den Ressourcen, die ich habe, zu haushalten. Das heißt es gibt nicht unter jedem Artikel zu Politikern eine Diskussion. Aber es gibt einen Artikel und da sind alle Artikel zum jeweiligen Politiker verlinkt und da arbeiten wir mit Discuz!. Aber wie lange weiß ich auch noch nicht genau. Aber es geht schon darum zu überlegen, wie kann man die Nutzerinteraktion einbinden? Und dann auch wirklich so, das hört sich so ein bisschen 2009 an, aber User generated Content. Lesergeschichten. Machen wir im Autoressort auch oft. ›Die besten Motorradgeschichten‹ von Lesern. Wann saßen Sie im Zug und fanden irgendwie das Personal doof. Die Möglichkeit, den Leuten die Möglichkeit zu geben, dass sie sich halt in irgendeiner Form bei uns ausdrücken können. Das machen wir auch nach politischen Entscheidungen. Was halten Sie als FDPWähler davon, dass Herr Lindner die Verhandlungen abgebrochen hat damals?« (Teamchef Social Media). Der Möglichkeit der Leserbeteiligung wird folglich eine große Bedeutung zugeschrieben, um nicht zuletzt hierdurch auch neue, für die Nutzerinnen und Nutzer interessante Inhalte zu schaffen. Während sie bei einer Rawr-Befragung zwischen zwei vorgefertigten Antwortmöglichkeiten wie Ja/Nein oder Gut/Schlecht auswählen, verorten die Nutzerinnen und Nutzer ihre Antwort bei einer OpinaryBefragung innerhalb einer bestimmten Skala (siehe Abbildung 7).

153

154

Publikumsbeobachtung im digitalen Wandel

Abbildung 7: Leserinnen- und Leserbefragungstool Opinary

Quelle: Screenshot einer beispielhaften Zeitung, https://uebermedien.de/33050/das-heikle-ge schaeft-mit-den-online-umfragen/ (letzter Zugriff: 08.10.2022)

Pro Tag werden ca. drei Leserbeteiligungen initiiert (Leserdiskussion via Discuz!, Opinary, Rawr). Leserdiskussionen bleiben ca. 2-3 Tage geöffnet. Hierbei müssen die Kommentare der Nutzerinnen und Nutzer vor der Veröffentlichung von einem Mitarbeitenden aus dem Social Team freigeschaltet werden. Dies dient der Absicherung, weil das Team für die Kommentare in dem Diskussionsforum, für welches eine Registrierung notwendig ist, verantwortlich ist. Auf die Frage, wie gewisse Zahlen einzuschätzen sind und was quantitativ gesprochen »gute« und »schlechte« Leserdiskussionen sind, ordnet eine Mitarbeiterin aus dem Social Team ein, dass 360 Kommentare je Diskussion »schon eine Top-Zahl sind«. Sie hätten darüber hinaus einen festen Kreis von 100 kommentierungsfreudigen Leserinnen und Lesern. Die Anzahl der Kommentare sei von Thema zu Thema jedoch unterschiedlich. Der Nachrichtendienst WhatsApp, worüber die Zeitung newsletterförmig Artikel und Nachrichten verschickt, wird vom Chef des Social Teams als »beste Leserbindung überhaupt« beschrieben: »Mein Lieblingsbereich, weil es keine Hassmails gibt. Weil wir nur Eins-zu-EinsKommunikation schreiben. Wenn Leute schreiben: ›Schatzi, kaufst du noch Tomaten?‹, schreiben wir zurück: ›Vielen Dank. Wir warten noch auf ein Abo und danach bringen wir ein paar Tomaten mit. Liebe Grüße Ihre (eigener Zeitungsname)‹. Beste Leserbindung überhaupt«.

7 Die empirische Fallanalyse

Die Leserbindung scheint im Netz folglich einen neuen redaktionellen Stellenwert zu erfahren, was auch auf den Einbau niederschwelliger Angebote zurückzuführen ist, die die Voraussetzungen des sich Beteiligens für die Nutzerinnen und Nutzer erleichtern. Die unter Internetbedingungen erhebbaren, beobachtbaren und auswertbaren Daten sowie neue Formate des Austauschs und der Publikumsbeteiligung ermöglichen zusammenfassend neue Einsichten in die Zusammensetzung des Publikums sowie in die Nutzungsgewohnheiten und Interessen der Nutzerinnen und Nutzer. Die Erkenntnisse jener neuen Beobachtung- und Inklusionsmöglichkeiten können – aus Sicht der Online-Chefredaktion: sollen – bisherige, traditionelle Publikumsvorstellungen irritieren.

7.1.5

Zusammenfassung: Die Praxis der Publikumsbeobachtung

In der Vermessung und Beobachtung des Publikums besteht kein Primat. Es existiert, im Vergleich zum Fernsehen und der dortigen Einschaltquotenmessung, nicht das eine Messparadigma. Den »Urmeter« der Publikumsmessung gibt es im Netz schlichtweg nicht. Stattdessen lässt sich die Entstehung und redaktionelle Einführung mehrerer, unterschiedlicher Messparadigmen nachzeichnen, mit denen die überregionale Tageszeitung versucht, aus den publikumsbezogenen Nutzungsdaten redaktionelle Handlungsableitungen zu treffen. Hierzu zählen die Live- bzw. Echtzeit-Daten, die – historisch gewachsen – einen institutionalisierten Platz in der Publikumsbeobachtung einnehmen. Die redaktionelle Handlungsableitung aus diesen Daten wird jedoch als gering eingeschätzt. Auf diese fehlenden redaktionellen Anschlussfähigkeiten an jene »relativ nichtssagende[n] Messeinheiten« (Klickzahlen) wird mit der Bildung von Artikelscores und konkurrenzbasierter Performance-Faktoren reagiert. Diese beruhen auf komplexen Datengrundlagen, bei denen unterschiedliche Nutzungsdaten in Beziehung zueinander gesetzt werden und schließlich einen Wert auf einer vordefinierten Skala annehmen (Datenaggregation). Hierdurch soll einerseits die Lesefähigkeit der Daten für die Redaktionsmitglieder erhöht werden, die sich nicht intensiv mit Daten beschäftigen (können). Andererseits werden die Artikel anhand des Scores und bestimmter Kategorien (Reichweite, Engagement und Loyalität) zahlenförmig miteinander vergleichbar gemacht, um hieraus neue redaktionelle Erkenntnisse zu gewinnen und die Nutzergruppen im Netz besser zu verstehen (Nutzungsgewohnheiten und Interessen). Für die redaktionelle Weiterentwicklung werden Daten zusätzlich thesengeleitet erhoben und analysiert. In der Publikumsvermessung und -beobachtung im Netz zeigt sich insgesamt, dass redaktionsintern permanent datenbasierte Entscheidungsbedarfe erforderlich werden – bspw. dahingehend welche (»gut« performenden) Artikel auf weiteren Kanälen verbreitet oder welche (»schlecht« performenden) Inhalte redaktionell überarbeiteten werden sollen. Die Herstel-

155

156

Publikumsbeobachtung im digitalen Wandel

lung von Sichtbarkeit – abseits der eigenen Homepage – stellt sich im Kontext der Netzdistribution als äußerst bedeutsam heraus, weshalb hierfür auch eine redaktionelle SEO-Stelle geschaffen wurde, die jene Artikel mit einem niedrigen Sichtbarkeitsindex suchmaschinenoptimiert aufbereitet. Hiermit sind zugleich technische Herausforderungen in der Publikumsbeobachtung im Netz angesprochen, die sich sowohl in Messproblemen als auch blinden Flecken der Analysetools bemerkbar machen. Die Publikumsbeobachtung befindet sich, mit anderem Worten, in keinem fertigen oder finalisierbaren Zustand. Dies wird z.B. daran ersichtlich, dass die Redaktion mit einigen Erhebungen und Ermittlungen bestimmter Werte unzufrieden ist (bspw. der Berechnung des Loyalitätswerts im Artikelscore) oder sie sich weitere Datenanalysemöglichkeiten wünscht. Hier werden unterschiedliche Logiken bzw. Vorstellungen darüber sichtbar, wie das Publikum vermessen werden sollte (redaktionelle Vorstellung vs. Vorstellung der Analysetoolentwickler). Dementsprechend muss die Redaktion entscheiden, welchen Daten sie welche redaktionelle (und wirtschaftliche) Handlungsrelevanz zumisst – sie muss die KPI (Key Performance Indicators) festlegen. Die vielfältigen Möglichkeiten der Verdatung des Publikums und die daraus gewonnenen redaktionellen Erkenntnisse entbehren die Redaktion jedoch nicht von der Notwendigkeit, »mit den Leuten tatsächlich zu reden«, weshalb die quantifizierte Publikumsbeobachtung um qualitative Formen der Publikumsforschung (Faceto-Face-Kommunikation) ergänzt wird. Zuletzt wurde auf einen voranschreitenden Wandel des redaktionellen Publikumsverständnisses hingewiesen. So wird das Publikum zunehmend als unterschiedliche Nutzer- und Zielgruppen mit je verschiedenen Interessen und Nutzungsgewohnheiten verstanden und nicht als eine homogene Masse. Dieses Denken wird jedoch noch nicht redaktionsweit geteilt, da es mit traditionellen Publikumsvorstellungen und -annahmen über inhaltliche Relevanz und Nutzungsmotiven konfligieren kann. Die Vorstellung, dass ein nicht unbedeutender Anteil des Publikums an Lifestylethemen interessiert ist, stößt vor allem bei PrintRedakteurinnen und -Redakteuren demzufolge (noch) auf Irritationen. Jenes neue redaktionelle Publikumsverständnis und die damit einhergehende Relevanz von Nutzungsdaten redaktionsweit durchzusetzen bzw. diesem zur Akzeptanz zu verhelfen, stellt derzeit eine große Herausforderung dar (»Da brechen Weltbilder zusammen«). Die in diesem Kapitel beschriebene Praxis der Publikumsbeobachtung lenkt den Blick nun weiter auf die Binnenperspektive der Redaktion und ihre sich im Zuge der neuen Möglichkeiten der Publikumsvermessung und -beobachtung wandelnden Organisationsstrukturen. Es zeigt sich, dass die Erhebung, der Umgang mit und die Auswertung von Daten zunächst einmal einen hohen organisatorischen Aufwand für die Redaktion bedeuten. Die Frage nach der zeitungsredaktio-

7 Die empirische Fallanalyse

nellen Publikumsbeobachtung unter Internetbedingungen ist so gesehen immer auch die Frage nach entsprechender Organisationsgestaltung.

7.2

Publikumsbeobachtung und Organisationsgestaltung

Die aus der Publikumsbeobachtung gewonnenen Erkenntnisse bieten einerseits unentwegt Möglichkeiten zur Organisationsgestaltung und markieren andererseits organisationale Transformationserfordernisse. Die Publikumsverdatung im Netz führt somit zu nachhaltigen Veränderungen in der Redaktion. Dies wird Folgenden anhand drei zentraler Beobachtungen veranschaulicht: • • •

Der Wandel der Organisationsstrukturen (Kap. 7.2.1.) Die Herstellung von Datenverständnissen (Kap. 7.2.2) Daten als doppeltes Organisationsproblem (Kap. 7.2.3.)

So werden zunächst die sich wandelnden Organisationsstrukturen (verstanden als Entscheidungsprogramme, Personal und Kommunikationswege) im Kontext der Publikumsbeobachtung unter digitalen Infrastrukturen herausgearbeitet. Anschließend wird die Notwendigkeit der Übersetzung und Interpretation von Daten sowie deren Verankerung resp. Institutionalisierung im redaktionellen Alltag hervorgehoben. Dass dies nicht ohne Probleme, Herausforderungen und redaktionelle Widerstände verläuft, zeigt sodann ein letztes Kapitel, welches auf Konflikte in der Datenübersetzung aufmerksam macht.

7.2.1

Wandel der Organisationsstrukturen

Die Fallanalyse zeigt, dass der »digital turn« der Redaktion organisationale Restrukturierungen erforderlich macht. So muss die Redaktion für ihre Publikumsbeobachtung im Netz auf bestimmte Personalstellen zurückgreifen können, die über entsprechende Kompetenzen und Expertisen (Wissen) verfügen (Kap. 7.2.1.1). Die Gründung neuer Abteilungen, Teams und Stellen bildet demnach vielmehr die Regel als die Ausnahme. Es zeigt sich sogleich, dass mit den Möglichkeiten der Publikumsbeobachtung und -verdatung neue Entscheidungsprogramme entstehen, bei denen Daten eine alarmierende Funktion einnehmen und als Seismograf verstanden werden können (Kap. 7.2.1.2). Die interne Kommunikation von Daten setzt zudem, so eine weitere Erkenntnis, bestimmte Wege und Regelungen voraus. Sollen Daten und die daraus gewonnen Ableitungen den Redaktionsmitgliedern kommunikativ verfügbar und anschlussfähig gemacht werden, so ist das Errichten spezifischer Kommunikationswege von zentraler Bedeutung (Kap. 7.2.1.3).

157

158

Publikumsbeobachtung im digitalen Wandel

7.2.1.1

Neue Abteilungen, Teams und Stellen

Für die Analyse und Auswertung von Daten sind neben spezialisiertem Personal in erster Linie Verantwortlichkeiten notwendig. Es muss formal entschieden werden, welche Daten in welchem Zeitraum auf welche Weise zu erheben sind und wer diese wie zu übersetzen, auszuwerten und in welcher Form weiterzuleiten hat. Oder mit anderen Worten: Es muss organisations- und redaktionsweit erwartbar gemacht werden, a) welches Personal sich mit b) welchen Daten, c) wie und d) zu welchem Zweck auseinandersetzt. Steigt hierdurch die Komplexität zunächst an, weil neue Entscheidungsbedarfe entstehen und Verantwortlichkeiten festgelegt werden müssen, so besteht der eigentlich beabsichtigte Zweck in einer Komplexitätsreduktion. Denn durch die Einrichtung jener Strukturen soll allen Organisationsmitgliedern der Umgang mit den Daten und deren Aneignung erleichtert werden. Die für die Datenerhebung, den Datenumgang und die Datenauswertung relevanten Abteilungen, Teams und Stellen werden im Folgenden näher vorgestellt. Das Audience Development Team Online-Nutzungshaben haben sich in der Redaktion, wie weiter oben beschrieben, zu zentralen Kenn- und Orientierungsgrößen entwickelt. Das Audience Development Team ist eines der zentralen Teams, welches sich mit den publikumsbezogenen Nutzungsdaten beschäftigt. Die Mitarbeiterinnen und Mitarbeiter dieses Teams sind für eine strukturierte Datenerhebung, -auswertung und -kommunikation verantwortlich, wie der Online-Chefredakteur erläutert: »Angefangen von Google Analytics bis zu Umfragen, die wir selber auf unserer Seite extra laufen lassen. Die fertigen wir selber an und werten die auch selber aus. Und da sind sogar auch Offline-Veranstaltungen mit Nutzern angesiedelt. Die Kollegen werten das alles aus und stellen das, wie ich finde, ziemlich strukturiert uns zur Verfügung«. Auch wenn die Daten nach Aussage des Chefredakteurs strukturiert zu Verfügung gestellt werden, so macht sich in der Erhebung und Ansammlung all jener Daten über das Publikum das Problem der nachträglichen Speicherung und Archivierung der Daten bemerkbar. Die Langzeitnutzung von Daten bedarf einer strukturellen Dokumentation und Ergebnissicherung, wie die Teamleiterin für User Research erklärt: »Manchmal weiß ich gar nicht, wo die Ergebnisse abgelegt sind, und wir müssen einfach gucken, dass wir jetzt irgendwie ein gut verschlagworteten Hub irgendwie im Wiki anlegen, sodass man halt Sachen auch wieder findet. Also zum Beispiel das Thema Leserbeteiligung und Kommentieren auf (eigener Zeitungsname).de. Damit haben wir uns jetzt eigentlich fünf Jahre lang immer mal wieder beschäftigt. Aber ich muss ungefähr ((lacht)) meine E-Mails an zehn Stellen

7 Die empirische Fallanalyse

nach den verschiedenen Ergebnissen, die wir dazu schon in Gesprächsrunden in Online-Umfragen und so hatten, suchen bis ich alles wieder gefunden habe. Also mittlerweile haben wir so viele Informationen über die Leser, dass es wirklich eine Aufgabe wird jetzt dieses Knowlegde-Sharing irgendwie auch ein bisschen effizienter zu gestalten und umso leichter man Informationen findet umso leichter werden sie ja auch dann wieder genutzt. Das ist so gerade die Baustelle, die wir haben«. Der Umgang mit Daten erfordert, wie sich hieran erkennen lässt und wie im weiteren Verlauf der Fallanalyse explizit gezeigt wird, Regelungsbedarfe und institutionelle Lösungen, da sonst eine Überforderung sowie eine nur schwer operationalisierbare Komplexitätssteigerung durch die Daten droht. Das Audience Development Team ist auch für die Datenkommunikation auf der Redaktionskonferenz verantwortlich sowie erster Ansprechpartner bei tieferen Datenanalysen oder Nachfragen. Das Team für Social Media und Leserdialog Das Team für Social Media und Leserdialog beschäftigt sich eingehender mit »dem Publikum« resp. den Nutzerinnen und Nutzern und kommuniziert mit ihnen auf einer täglichen Basis. Sie setzen sich sowohl mit dem quantitativen Feedback aus den sozialen Medien (Nutzungsdaten) als auch mit dem schriftlichen Publikumsfeedback auseinander (Kommentare, Direktnachrichten, Diskussionsbeiträge in einem eigens eingerichteten Leserforum). Leser- bzw. Nutzerbindung und -inklusion wird als eine zentrale und wichtige Aufgabe wahrgenommen. Ein weiteres wichtiges Aufgabenfeld des Teams ist das Beobachten und Auswerten der Social Media-Nutzungsdaten. Festgestellte Auffälligkeiten werden direkt an die zuständigen Kollegen aus der jeweiligen Abteilung weitergeleitet. Darüber hinaus leiten sie das Feedback aus den sozialen Medien in Form von wöchentlichen Reports an die Redaktion weiter, in denen sie »erzählen«, welche Geschichten und Artikel am besten liefen (siehe hierzu auch Kap. 7.1.2.1.3). Das Team für Social Media und Leserdialog versteht sich selbst als einen redaktionellen Servicedesk – als eine Schnittstelle zwischen den Leserinnen und Lesern und der Redaktion, die eine Vermittlerfunktion einnimmt. So beschreibt der Teamleiter den Prozess der Veröffentlichung von Inhalten in den sozialen Medien wie folgt: »Wir wählen das – wir sitzen am Newsdesk auch direkt hinter dem HomepageChef – und suchen das dann so aus, wie wir denken das aus der Erfahrung heraus, aus den Zahlen heraus, die schlaueste Geschichte für den Augenblick wäre«. Das Social Media-Team versteht sich so gesehen als Flaschenhals der Redaktion: Sie nehmen eine wichtige Filterfunktion ein. Bei ihnen kommt das gesamte, nicht ge-

159

160

Publikumsbeobachtung im digitalen Wandel

bündelte Feedback der Nutzerinnen und Nutzer rein, welches sie in einem nächsten Schritt zusammenfassen und dann an die Redaktion bzw. die verantwortlichen Personen weiterleiten. Das Team muss sich dabei stets mit schnell- und langlebigen Veränderungen im digitalen Umfeld auseinandersetzen und seine Arbeit hieran anpassen, wie der Teamchef im Hinblick auf die sich gewandelten Distributionsalgorithmen in den sozialen Medien erläutert: »[Früher] aber haben wir so wie ein Kiosk gearbeitet. Hier ist der Linkpost, klickt bitte drauf, wir spielen unsere Werbung aus. Jetzt ist es mehr so, dass wir mehr so der Mensch sind. die Menschen sind, die im Kiosk halt noch Werbung dafür machen. So: ›Guck mal hier magst du nicht vielleicht so eine (Zeitungsname) lesen? Wir haben hier diese schönen Kommentare zu wichtigen Themen«. Durch die Umstellung des Algorithmus fällt zusätzliche Arbeit an. Die Bewerbung von eigenen Inhalten auf den Social Media-Plattformen scheint – auch aufgrund des Überangebots an Informationen und Nachrichten in den jeweiligen Newsfeeds der Nutzerinnen und Nutzer – unverzichtbar geworden zu sein. Dies äußert sich bspw. in der Produktion von Teasern (Anreißern), die zum Anklicken des Artikels motivieren sollen und explizit für die Social Media-Distribution verfasst werden. Das Verwenden einer emotionaleren Sprache oder das entsprechende Aufbereiten von Überschrift, Dachzeile, Teaser und Bild eines Artikels gehören dementsprechend zum Tagesgeschäft, um die Nutzerinnen und Nutzer auf besagten Plattformen für die eigenen Inhalte aufmerksam(er) und empfänglich(er) zu machen. Das Team SEO Das Team SEO (search engine optimization; dt.: Suchmaschinenoptimierung) ist in der Abteilung für Produktmanagement Content angesiedelt. Das SEO-Team ist für die Redaktion und Medienorganisation im Ganzen insofern von großer Bedeutung, als dass für die Beobachtung und Vermessung des Publikums nicht nur die bereits angesprochenen quantifizierbaren Nutzungsdaten wie Klicks, Verweildauer, Lesertiefe und deren Aggregation (Artikelscore und Performance-Faktoren) relevant sind, sondern in zunehmendem Maße auch die von den Nutzerinnen und Nutzern benutzten Schlagwörter (Keywords), durch die sie über eine Suchmaschinenanfrage auf den jeweiligen Artikel gelangen. Denn ein nicht unbeträchtlicher Teil des gesamten Traffics auf der Homepage wird durch Suchmaschinenanfragen erzeugt. Die quantifizierte Beobachtung jener Suchmaschinennutzungen sowie die daran anschließende suchmaschinenoptimierte Aufbereitung von Artikeln bilden folglich neue, relevante Praxen der Publikumsbeobachtung und -vermessung. Die hierfür geschaffenen Stellen der Suchmaschinenoptimierung erfüllen deshalb wichtige Funktionen in der Publikumsbeobachtung, weil sie analysieren, wie (d.h. durch welche Suchbegriffe) die Nutzerinnen und Nutzer den Artikel im Netz gefunden haben.

7 Die empirische Fallanalyse

Eine weitere Aufgabe des Teams besteht in der Erhöhung der netzspezifischen Sichtbarkeit der eigenen Inhalte. Hierfür ist ein redaktioneller SEO-Mitarbeiter zuständig, der sich selbst als »digitalen Paperboy« bezeichnet. Streng genommen sei dies keine redaktionelle Stelle, sondern vielmehr ein Vertriebsposten, wie er erzählt. Er fungiert als Promoter der eigenen Inhalte und vergleicht seine Aufgabe gewissermaßen mit der eines klassischen Zeitungsausträgers: »Ich werfe den Lesern nicht die Zeitung vor die Haustür, aber ich ermögliche ihnen das Lesen unserer Nachrichten im Google-Fenster bzw. in deren GoogleNutzung«. Interessant ist, dass er hiermit die sich gewandelten Vorzeichen in der digitalen Distribution anspricht. Unter Internetbedingungen kann nicht mehr vorausgesetzt werden, dass die Zeitung – wie unter Print-Bedingungen – bis zum Briefkasten der Leserinnen und Leser geliefert wird. Die Angebote der Zeitung kommen nicht mehr garantiert bei ihnen an; sie müssen vielmehr selbst die Angebote der Zeitung finden, die in den Weiten und Informationsfüllen des Netzes jedoch an Sichtbarkeit verlieren. Problematisch sei zudem, dass die Gesamtsichtbarkeit der eigenen Homepage vergleichsweise gering ist. Die Stellen des SEO-Teams bilden im Vergleich zu den klassischen Redakteursstellen in der Medienorganisation neue Stellen, weshalb ihre redaktionelle Relevanz im Folgenden ausführlicher beschrieben wird. Mit den Möglichkeiten der Verdatung im Netz können nicht nur die eigenen Inhalte der Zeitung in Form von Daten beobachtet und ausgewertet werden, sondern es kann zusätzlich das gesamte (Such-)Geschehen im Netz vermessen und abgebildet werden, wie der technische SEO-Mitarbeiter erläutert: »Wir können ja nicht nur gucken, wie ranken die Leute im regulären organischen, in der organischen Auffindbarkeit, sondern wir können hier auch mit unserem schönen Newsdashboard – hat dir das der redaktionelle SEO-Mitarbeiter schon gezeigt [Interviewer: Eh, nee]. Das kennst du noch nicht, okay. Also hier haben wir die Möglichkeit auch zu sehen auf allen mobilen Newsboxen zu Keyword 9. November, Alzheimer, künstliche Intelligenz, Annegret Kramp-Karrenbauer. Wer rankt denn gerade dazu und wie oft wurden die im oben gewählten Zeitraum dazu gefunden? Und das geht entweder nach eigenen Keywords, die wir hier rein schmeißen, was dann auch die aus dem Newsletter sind und die wir überprüfen, vs. Markt Insgesamt. Also hier ist es immer ganz interessant bei Spiegel Online, die machen sehr gute Keyword-Recherche. Da siehst du halt auch auf was für Themen die ranken wollen. Das sind immer ganz knallharte politische Themen: Trump, Donald Trump, Kramp-Karrenbauer, aber auch so etwas wie Meg Ryan, auch wirtschaftliche, Tesla, Schimpanse Robby«.

161

162

Publikumsbeobachtung im digitalen Wandel

Mit diesen suchmaschinenbezogenen Daten »[h]at man hier halt ein schönes Mittel, um gleich mitzukriegen: ›Oh sollten wir vielleicht was tun‹«. Durch die Analyse jener SEOspezifischen Daten soll die Redaktion folglich darüber informiert werden, welche Themen und Suchbegriffe momentan oft gesucht werden und welche Themen bei der Konkurrenz »gut funktionieren«. Das Hinweisen auf und Weiterleiten von aktuellen Themen- und Suchtrends im Netz sowie das SEO-spezifische Überarbeiten von Artikeln, wie z.B. das Einbauen aktuell oft gesuchter Schlagworte in Überschrift, Dachzeile und Teaser sind Hauptaufgaben der SEO-Mitarbeiter. Hierdurch sollen die Artikel von den Algorithmen der Suchmaschinen und Newsboxen möglichst positiv bewertet und weit oben in den Ranglisten angezeigt werden, um die Sichtbarkeit der eigenen Angebote zu erhöhen. Jene neuen Umwelt- bzw. Publikumsinformationen erfordern jedoch auch redaktionelle Abstimmungs- und Entscheidungsprozesse – z.B. ob besonders gut performende Artikel und Themen im Netz der eigenen journalistischen Ausrichtung und dem Selbstbild entsprechen. Durch die einsehbaren Daten von Google (Google Trends, Google Analytics) können Informationen über das GoogleNutzungsverhalten der Menschen in Deutschland (oder weltweit) gewonnen werden. Die analysierten und aufbereiteten Daten fließen dann wiederum in redaktionelle Überlegungen und Entscheidungen ein (Produktion und Selektion von Inhalten). Hierzu ein Ausschnitt aus dem Interview mit dem bereits oben zitierten technischen SEO-Mitarbeiter, der sich eine intensivere redaktionelle Einbindung jener Daten wünscht: »[E]s gibt ein schönes Tool namens Google Trends, was du vielleicht kennst und da kannst du dir mal angucken, wie funktioniert denn Trump oder wie stark wird es im Gegensatz zum normalen Suchvolumen dieses Keywords durchschnittlich gerade gesucht. Wir können auch nochmal die Merkel noch reinschreiben. Und dann schreiben wir noch mal Kino mit rein und dann wirst du sehen, dass Trump und Merkel und alles Mögliche geht total ab. Kino wird eigentlich immer gesucht. Oder du machst noch dazu den Tatort. Dann siehst du der Tatort schafft’s teilweise schafft er das auch mal über die Merkel auch mal über einen Trump. Der Tatort. So das heißt es gibt einfach neben den nachrichtlichen Sachen gibt es auch Sachen, die total vorhersehbar sind, die immer sind. Kino, Tatort, Fernsehfilme. Wir hatten so eine schöne Game of Thrones-Kolumne, die abartig Reichweite produziert hat. Und deswegen lasse ich halt dieses nachrichtlich ja ist halt eine Nachrichtenlage das lasse ich nicht gelten. Weil Leute wollen immer ins Kino – egal ob die Welt untergeht, egal ob Bundestagswahl ist: Die Leute wollen ins Kino, interessieren sich für Kinofilme, gehen auf Netflix, schauen sich Sachen an. Und bevor sie das tun, wollen sie ja halt auch wissen, was gut ist. […] Wenn ihr das ändern wollt, dann könnt ihr euch ja auch mal überlegen besides Nachrichten versuchen ein bisschen Wachstum zu generieren wie zum Beispiel über Kino,

7 Die empirische Fallanalyse

Tatort und so weiter. Über vorhersehbare Themen. […] Und da muss ich halt sagen das musst du halt auch als eine (Zeitungsname) machen dieses Thema, weil es ja das ist ja das hat halt einfach, wie soll ich sagen, nicht gesellschaftliche Relevanz, sondern es ist so ein gesellschaftliches Phänomen finde ich – Game of Thrones und Pokemon. Dem kannst du dich einfach nicht verschließen. Also egal ob du sagst, das ist jetzt PokemonGo, ist total blöd und ist total stumpf«. Mit der Distribution im Netz wandelt sich folglich auch die Wahrnehmung über das Publikum und deren Interessen. Diese neuen Sichtbarkeiten müssten nach Auffassung des SEO-Mitarbeiters redaktionell genutzt werden, da sie gesellschaftliche Phänomene widerspiegeln, die von der Nachrichtenlage unabhängig sind und die Nutzerinnen und Nutzer hochgradig interessieren. Insgesamt seien 80-90 % der Themen auf der Seite nachrichtliche, d.h. nicht vorhersehbare Themen. Die Serie Game of Thrones – und deren Erfolg – hingegen schon. So wünscht sich der technische SEO-Mitarbeiter auch redaktionelle Handlungsableitungen aus diesen publikumsbezogenen Umweltinformationen: »Hier wäre in diesem Fall unser nicht gepflegter journalistischer Kalender natürlich super, in dem man sehen würde ah ok Reminder hier in einem Monat geht es wieder los. Game of Thrones Staffel 8 ihr erinnert euch: Tolle PI-Visit-Quote, kam super an, musste in Anführungszeichen nur eine Person so und so viel Texte schreiben und darüber haben wir fast eine halbe Million PIs gemacht. Wäre doch total super, wenn ihr dieses Jahr – nicht wäre super –, sondern müssen wir dieses Jahr wieder machen, weil vorhersehbar und Fanbase und so weiter und so fort« (eigene Hervorhebung). Obgleich die Zeitung eine bestimmte journalistische Ausrichtung besitzt und nachrichtengetrieben arbeitet – die aktuelle Nachrichtenlage also äußerst bedeutsam für die Erstellung eigener Inhalte ist – so sollen die Daten zur Sichtbarkeit von Themen und Suchwörtern im Netz insbesondere dazu genutzt werden, Nutzerinteressen abseits der aktuellen Nachrichtenlage bedienen. Das Such- und Nutzungsgeschehen im Internet wird folglich als ein redaktionell relevanter Beobachtungsraum angesehen, den es zu erschließen gilt.

7.2.1.2

Daten als Entscheidungsprogramme

Folgt man der organisationssoziologischen Unterscheidung von Konditional- und Zweckprogrammen als eine wesentliche Entscheidungsprämisse von Organisationen (neben dem Personal und den Kommunikationswegen), so lassen sich angewandt auf die Publikumsbeobachtung der hier untersuchten Zeitung datenbasierte Entscheidungsprogramme nachzeichnen, welche einerseits der Wahrnehmung von redaktionell relevanten Informationen und andererseits der Selektion, Produktion und Bewertung von Inhalten dienen. Daten laufen zudem in weitere Entscheidungspro-

163

164

Publikumsbeobachtung im digitalen Wandel

gramme der Redaktion ein, um – so die Quintessenz – redaktionelle und organisationale Entscheidungen zu unterstützen bzw. (de-)legitimieren. Für die Verarbeitung der aus der Publikumsbeobachtung gewonnen Daten werden mittels entsprechender Software Konditionalprogramme eingerichtet, bei denen ein bestimmter (Daten-)Input einen spezifischen Output erzeugt – meist ist dies ein Hinweis zur Wahrnehmung von und Auseinandersetzung mit spezifischen Daten. Veranschaulichen lässt sich das an dem Artikelscore und an den sog. Boost-Alerts. Der von einer Software ermittelte Artikelscore wird automatisiert an die jeweiligen Redakteure bzw. Autorinnen verschickt. Der Score nimmt einen Wert (zwischen 0 und 1000) an und markiert damit eine unterdurchschnittliche, durchschnittliche oder überdurchschnittliche Performance des Artikels. Ab welchem Wert der Artikel »unter-« oder »überperformed« kann die Redaktion selbst festlegen. Die Standardeinstellung beschreibt den Wert 500 als durchschnittlich, alles unter 500 als unterdurchschnittlich und Scores über 900 als überdurchschnittlich. Dieses softwaregestützte und datenbasierte Konditionalprogramm übersetzt Nutzungsdaten (Input) in eine Performance der Artikel (Output) und soll durch eine algorithmische Vermittlung auf Stärken und Schwächen des Artikels hinweisen. Dieses Konditionalprogramm entscheidet folglich über die Leistung (nicht Qualität) der Artikel im Netz und soll neben einer erleichterten Datenaneignung redaktionelle Optimierungs- und Weiterentwicklungsprozesse anstoßen. Als ein weiteres datenbasiertes Konditionalprogramm können die sog. Boost Alerts verstanden werden, die über die redaktionsinterne Kommunikationsplattform Slack ebenfalls automatisiert durch eine entsprechende Softwareanwendung versendet werden. Diese Datenalarmierungen beziehen sich auf Artikel und Inhalte der Konkurrenz und werden ausgelöst, wenn ein bestimmter Schwellenwert (ein überdurchschnittlicher Performance-Faktor) erreicht wird. Wenn ein definierter Wert erreicht wird, dann erhalten die zuständigen Mitarbeiterinnen und Mitarbeiter eine automatische Benachrichtigung über das offensichtlich überdurchschnittliche Nutzerinteresse. Es wird sodann redaktionsintern durch den jeweiligen verantwortlichen Mitarbeitenden überprüft, ob eigene Inhalte zu diesem Thema bereits existieren oder diese ggf. überarbeitet werden sollten (Einbau neuer Schlagworte oder Veränderung der Überschrift, um die Sichtbarkeit zu erhöhen). Ein weiteres datenbasiertes Entscheidungsprogramm erläutert der technische SEO-Mitarbeiter am Beispiel des Sichtbarkeitsindexes, bei dem ab einem bestimmten Schwellenwert Alarm geschlagen wird: »Also es passiert immer mal, dass man mal so ein bisschen rauf und runter geht. Das ist in Ordnung, aber sobald es eigentlich mehr als 10 Prozent sind, ist Panik angesagt und ich kriege Achselschweiß ((Interviewer lacht)) und schlechte Laune, weil irgendwie wieder was nicht stimmt«.

7 Die empirische Fallanalyse

Hier deutet sich bereits an, dass Daten vor allem auch zur Selbstbeobachtung genutzt werden (siehe hierzu ausführlich Kap. 7.3). Neben der Konditionierung von Entscheidungsprogrammen können diese auch mit einem Zweck ausgestattet werden, dessen Erfüllung es im Anschluss datenbasiert zu untersuchen gilt. Ein bereits angesprochener Zweck besteht in der Optimierung und Weiterentwicklung der Ressorts. So kann durch die Erhebung und Auswertung von Nutzungsdaten überprüft werden, ob bestimmte strategische Ideen zur Weiterentwicklung des Ressorts erfolgreich sind. Der interviewte Datenanalyst erklärt das beispielhaft anhand eines Ressorts: »Nehmen wir die Literatur. Im Endeffekt läuft das so durchschnittlich, aber wir haben im Print einen super großen Literaturteil. Theoretisch könnte die Teamleitung ja sagen hm ehm die könnte die These vertreten ›Literatur und Lesen hat in unserer Gesellschaft einen extrem hohen Stellenwert. Menschen, extrem viele Menschen lesen Bücher. Und wir sind davon überzeugt, dass wir den mit den besten Literaturteil und auch umfangreichsten Literaturteil in Deutschland haben. Wir müssen uns überlegen, wie wir unsere Inhalte an Nutzerinnen und Nutzer bekommen‹. Und da könnte ich ja hier gucken und sagen naja dann lasst uns doch einfach mal diesen Bereich Literatur jetzt anschauen, in dem Fall einen Monat ich könnte auch irgendwie ein Vierteljahr anschauen […].Und dann könnte ich hier gucken wie läuft denn eigentlich das Thema? Auch im Verhältnis zu den anderen Themen, die wir in der Kultur haben? Wie waren denn eigentlich die einzelnen Texte die im Bereich Literatur funktioniert haben? Und auch tatsächlich auch woher kamen denn die Nutzerinnen und Nutzer? Um mir dann vielleicht anzugucken, was stimmt vielleicht inhaltlich noch nicht. Könnte es sein, dass wir zu viele standardisierte Buchrezensionen versuchen auf die Homepage zu packen und wir haben vielleicht auf unsere Homepage keine aktuell keine Leserschaft, die so empfänglich dafür ist, wie wir uns das vorstellen. Könnte sein. Da könnte ich andererseits sagen gut lass uns mal den Plan ausprobieren jeden, weiß ich nicht, Dienstag zu einem Literaturtag zu machen und dann irgendwie prominente die Sachen auf die Seite zu packen«. Eng verbunden mit dem Bestreben der Weiterentwicklung der Ressorts besteht ein allgemeiner Zweck der Datenanalyse darin, die Nutzerinnen und Nutzer besser zu verstehen: Welche Themen lesen sie gerne innerhalb eines Ressorts (und welche Themen finden eher weniger Beachtung)? Woher kommen sie? Diese aus den Daten gewonnen Erkenntnisse über Themeninteressen und Nutzungsgewohnheiten können dann in einem nächsten Schritt dazu genutzt werden, das Angebot besser auf das Publikum abzustimmen oder auch auszuweiten. Ein weiteres wesentliches Zweckprogramm, welches mithilfe von Daten eingerichtet wird, ist das ökonomische Eruieren der aufgewandten Arbeitsressourcen. Der Teamchef für Social Media beschreibt dies am Beispiel der Bespielung der

165

166

Publikumsbeobachtung im digitalen Wandel

verschiedenen Distributionskanäle (Facebook, Twitter, Instagram, WhatsApp etc.) und den damit einhergehenden Entscheidungen über Betreuungs- bzw. Pflegebedarfe respektive deren organisationale (De-)Legitimierung: »Es ist immer noch solange was drinsteckt, muss man gucken wie viel man noch reinsteckt und wir sind gerade was Social Media angeht versuchen wir uns zu professionalisieren, dass wir halt wesentlich mehr eine Kosten-Nutzen-Rechnung daraus machen. Wie viel Ressourcen stecken wir rein? Was kriegen wir nachher heraus?«.

7.2.1.3

Die Kommunikationswege von Daten

Die Datenanalyse benötigt intern formalisierte Kommunikationswege, um die Daten den relevanten Stellen und Verantwortlichen zugänglich zu machen. Es müssen, mit anderen Worten, Regelungen gefunden und spezifische Kommunikationsstrukturen etabliert werden, die festlegen, welche Daten wie, wann, an wen und zu welchem Zweck kommuniziert werden. Dies gestaltet sich jedoch als höchst voraussetzungsvoll, weil zunächst ein grundsätzliches Interesse der Redaktionsmitglieder bestehen bzw. gefördert muss, sich mit Daten regelmäßig auseinanderzusetzen, sie wahrzunehmen, zu akzeptieren und als relevante Orientierungs- und Entscheidungshilfen zu nutzen. Mit der Einrichtung von datenspezifischen Kommunikationswegen kann folglich auch das Vorhaben verstanden werden, Daten redaktionsweit zu institutionalisieren und ihnen zur Anerkennung zu verhelfen. Die Kommunikationswege, die für eine Thematisierung von Daten geschaffen wurden, stellt der Online-Chefredakteur wie folgt vor: »Wir haben jeden Morgen in der Konferenz einen Block, in dem es um Zahlen geht: Was haben Nutzer gelesen? Woher kamen die? Wir haben im Monat einen mindestens einstündigen Termin mit den Analysten und der Chefredaktion, wo wir einfach Besonderheiten durchgehen, wo man auch mal einfach sich bisschen ausführlicher Gedanken machen kann. Beispiel: Mist, unser Videotraffic sinkt seit vier Monaten. Was ist in dem Team eigentlich los? Woran kann das liegen? Wir haben automatisierte Benachrichtigungen über Slack für jeden Autor. Der bekommt detaillierte Infos über alle Artikel, die er am gestrigen Tag geschrieben hat wie auch Ressortbenachrichtigungen, die dann ans ganze Team gehen. Wir haben Ressortgespräche quartalsweise, wo die Analysten mit den Kollegen dann zum Beispiel mit dem Sport noch einmal detailliert reingucken: Was hat im letzten Quartal gut funktioniert? Was nicht? Wieso? Wir haben uns von einem Thema alle mehr versprochen – wieso hat das nicht funktioniert? Wieso muss man das demnächst. oder gibt’s vielleicht demnächst Wege, das anders zu erzählen?«. Der Online-Chefredakteur skizziert hier die Ebenen der redaktionellen Datenkommunikation und nennt dabei:

7 Die empirische Fallanalyse

• • • •

die tägliche Redaktionskonferenz, das monatliche Treffen von Datenanalysten und Chefredaktion, automatisierte Benachrichtigungen über die interne Kommunikationsplattform Slack und ressortinterne Quartalgespräche mit den Datenanalysten.

Der Online-Chefredakteur merkt weiter an, dass bei Auffälligkeiten und Erwartungsbrüchen in den Daten die jeweiligen Stellen meldepflichtig sind, da er nicht alle Daten wahrnehmen und jedes Reporting lesen kann: Interviewer: »Welche Daten würdest du für dich auch als Chefredakteur als am relevantesten einschätzen?« Online-Chefredakteur: »((lacht)) Budget ((lacht lauter)). Ja Euros ((lacht)). Äh nee, aber darauf zieltest du ja nicht ab. Was. ((bricht den Satz ab und überlegt 7 Sekunden lang)) Keine, eigentlich. Ich muss mich auf das Team verlassen können, dass die sich sofort bei mir melden, sobald irgendetwas Ungewöhnliches und nicht den Erwartungen entspricht – im Guten wie im Schlechten. Ansonsten bin ich jetzt nicht. ich verfolge das interessiert. Allein schon deshalb, weil man hier auch vom Verlag oder sowas drauf angesprochen werden kann, wenn irgendwas ungewöhnlich ist. Aber ich gucke mir nicht jeden Morgen all diese Reportings an. Das mache ich nicht. Da müssen die Leute sich. dafür werden die bezahlt. Das ist deren Job, dass die auf einmal: ›Krass unser Google-Traffic bricht übel ein. Wir müssen uns da was überlegen‹. Und dann das ist der Moment, wo ich dann dazukomme, aber vorher nicht«. Neben dieser bemerkenswerten Antwort auf die Frage nach der Relevanzeinschätzung von Daten (»Budget«, »Euros«), die auf die sich mit der Netzdistribution gewandelte wirtschaftliche Finanzierungslage der Medienorganisation verweist, ist die Aussage interessant, dass er jederzeit auf »gute« oder »schlechte« Daten von relevanten Dritten (Verlag) angesprochen werden kann. Dies deutetet auf einen gewissen Rechtfertigungsdruck hin, der entsteht, sobald Daten (öffentlich) einsehbar sind (siehe hierzu auch Kap. 7.3.1). Der interviewte Datenanalyst fügt in der Beschreibung der redaktionsbezogenen Datenkommunikation das Format der Mail-Reportings hinzu und priorisiert die Kommunikationswege wie folgt: »Erste Stufe sind Quartalgespräche. […] also Quartalgespräche wiegesagt längere Zeiträume, mehr Datenpunkte, Daten so zusammengemischt algorithmisch, dass die dem nahe kommen, was wir eigentlich aussagen wollen mit den Daten. Nächster Schritt wären dann die Mailings, die wir haben, aber noch deutlich stärker ausbauen müssen. Ehm die nächste Stufe, die dann draufgesetzt wäre, dass wir – wir haben hier so Kanäle, die hast du bestimmt auch schon mal gese-

167

168

Publikumsbeobachtung im digitalen Wandel

hen – Slack das wir benutzen, wofür die ganze Homepage oder einzelne Ressorts oder jene Texte, an denen ich beteiligt war mit meinem Kürzel oder mit meiner Autorenzeile, dass ich die gepusht bekomme. Ich bekomme dann die Informationen zu diesen eigenen Texten halt gepusht mit dem angesprochenen ScoringWert erstmal. Das ist für uns natürlich die wichtigste Kenngröße und noch mit so Einzelmetriken. Wobei ich der Ansicht bin, dass Einzelmetriken im Zweifelsfall dann eher verwirren […]. Und dann nächste Ebene: Eben dann die Live-Daten, genau. Wo ich hier dann ganz gut sehen kann. Ich kann im Endeffekt extrem viele Sachen sehen, alles Mögliche darstellen. Die Frage ist auch immer, was, ja was messe ich denn? Was zeige ich? Welche Information hat Relevanz? Und worauf kann ich irgendeine Handlung basieren, ja? […] [Live-Daten sind] eigentlich nur noch dafür da, Potenziale zu optimieren, die ich ohnehin schon vermutet hatte in bestimmten Bereichen«. Insgesamt betrachtet lassen sich also folgende unterschiedliche Kommunikationswege von Daten feststellen, die jeweils zeitlich unterschiedlich frequentiert sind: • • • • •

die tägliche Redaktionskonferenz die dreimonatlichen Ressortgespräche die wöchentlichen E-Mail-Reportings die jederzeit möglichen automatisierten Benachrichtigungen sowie die allgegenwärtigen Live-Daten

Diese formalen Kommunikationswege von Daten sowie ihre informellen Aneignungsund Weiterverarbeitungsweisen werden im Folgenden näher vorgestellt. Die Online-Redaktionskonferenz Die morgendliche Redaktionskonferenz wird »mit einem Datenschnipsel eröffnet, der interessant, spannend und motivierend wirken kann«, so der Datenanalyst. Im Idealfall gestaltet diese Dateninformation gleichzeitig auch das Tagesprogramm mit. Hierzu ein Beispiel: »Also beispielsweise hatten wir vor zwei Tagen, ich glaube du warst nicht in der Frühkonferenz, da ging es. genau ich hatte am Sonntag, war ich am Desk. Und da tauchten dann nochmal einige Meldungen zu Italien auf wegen dem Unwetter. Und wir hatten das ansatzweise bisher auf der Seite. Vor allem es gibt ja diese Bilder aus Venedig, wo Leute mit den Gummistiefeln durch die Gegend laufen und in den Pizzerien sitzen und das ist schon relativ skurril ist. Das hatte sich aber noch einmal so dargestellt, dass das sehr viel intensiver wurde. In Sizilien starben dann auch zehn Menschen. Und diese beiden Stücke am Sonntag, also wir hatten da eine Nachricht dazu und eine Bildergalerie. Beide Stücke liefen extrem gut. Und ich dann versucht hatte das mitzuteilen als Zahl des Tages

7 Die empirische Fallanalyse

oder als Bericht am Morgen. Daten am Morgen – wie auch immer. Um dann den Kolleginnen und Kollegen, die auch für das aktuelle Programm verantwortlich sind, zu sagen hm wir hatten das eher nicht so intensiv auf der Seite gehabt. Es hat aber extrem gut funktioniert. Offensichtlich interessiert unsere Leserschaft sich doll dafür. Wäre doch vielleicht eine Überlegung wert da jetzt nochmal was draufzusetzen, da dranzubleiben und sich zu überlegen naja wie können wir die Berichterstattung der nächsten paar Tage dahingehend vielleicht doch noch mal ein bisschen verstärken« (Datenanalyst). Der Online-Chefredakteur betont ebenfalls die Relevanz der Datenpräsentation auf der Redaktionskonferenz. Neben der Schaffung einer allgemeinen »awareness« und Akzeptanz von Daten soll eine Möglichkeit geschaffen werden, sich über Daten im Redaktionsteam austauschen zu können. Hierdurch sollen den Redakteurinnen und Redakteuren bspw. Besonderheiten in der Netzdistribution erklärt und auf Veränderungen in den Nutzungsgewohnheiten der Leserinnen und Leser aufmerksam gemacht werden: »Die Zahl des Tages, wie wir das nennen, das ist morgens dieser Konferenzblock, das soll natürlich auch irgendwie den Wissensstand, das Wissensniveau insgesamt ein bisschen heben. Weil wir da dann auch mal erzählen über. Gestern ein Artikel über eine Kleinstadt mit ungefähr 10.000 Einwohnern – fast eine Millionen Abrufe. Wie kommt denn das zustande? Und dann nutzt man das, um den Leuten auch einfach mal zu verklickern: Krass, so eine Plattform wie Pocket kann auf einmal wahnsinnig wichtig werden. Was wir hier nicht auf dem Schirm haben, weil wir immer nur die Homepage uns angucken und immer noch so naiv sind zu glauben die Leute setzen sich zu Hause vor ihren PC und tippen unsere Internetadresse ein. Nee das ist ein Nutzungsszenario, was immer unwahrscheinlicher wird, leider«. Die Datenpräsentation am Morgen stellt insgesamt betrachtet ein relativ neues Dateninstitutionalisierungsvorhaben dar. Eingeführt wurde die Umstellung der Datenpräsentation von der nachmittäglichen in die morgendliche Redaktionskonferenz vor zwei Wochen zum Zeitpunkt des Feldaufenthaltes (November 2018). Zuvor wurden Daten auf der Redaktionskonferenz am Nachmittag vorgestellt. Dies war nach Aussage des Datenanalysten aber nur mäßig erfolgreich, weil viele Redakteurinnen und Redakteure mit den Daten im Anschluss daran nichts mehr anzufangen wussten. Dass die Datenpräsentation auf der Redaktionskonferenz am Morgen eine Umstellung für die Redaktionsmitglieder darstellt, wird bspw. auch durch eine Feldbeobachtung veranschaulicht, bei der der Wortführer der Redaktionskonferenz an einem Morgen die Datenpräsentation zunächst vergisst und der Online-Chefredakteur in den Ablauf der Konferenz eingreifen muss (»Jetzt haben wir die Zahlen vergessen«). Die Redaktionskonferenz stellt sich insgesamt betrachtet

169

170

Publikumsbeobachtung im digitalen Wandel

als eine zentrale Maßnahme heraus, um Daten zu institutionalisieren und redaktionsweite Datenverständnisse zu erzeugen. Quartalsgespräche Vierteljährlich treffen sich die Ressorts mit einem Datenanalysten und sprechen datenorientiert über die publizistische Weiterentwicklung. Dabei halten sie gewisse Trends und Muster fest, die sich in den Daten über längere Zeiträume beobachten ließen: »Aufgabe wäre dann für die Teamleitung eine Idee zu haben, wie man das Ressort eigentlich weiterentwickeln könnte. Weil darauf basiert einfach alles, dass die wissen wohin es gehen soll. Sonst ist es schwierig irgendwas zu analysieren. Da muss irgendetwas, eine These im Raum stehen die man analysieren kann, um dann irgendwas zu verbessern, zu optimieren, anzupassen« (Datenanalyst). Entscheidend ist, dass im Ressort Verantwortlichkeiten geschaffen und Personen bestimmt werden, die – vom Datenanalysten betreut – Methoden und Maßnahmen für die Untersuchung der aufgestellten These6 entwickeln: »Um dann im Endeffekt drei Monate später die Möglichkeit zu haben und zu gucken, hat es eigentlich Erfolg gehabt? Hat es keinen Erfolg gehabt? Müssen wir uns anpassen oder lassen wir es bleiben? Um dann so eine Kultur hier zu etablieren von ›Ich hab Daten und hab eine objektive Grundlage auch über eine Leserschaft und versuche auf der Basis eher so in kleineren Schritten irgendwas zu optimieren‹«. Die Schaffung von ressortinternen Verantwortlichkeiten für die Quartalsgespräche ist bedeutend, weil der Datenanalyst nicht Teil des Ressorts ist, dementsprechend kein ressortspezifisches Wissen über einzelne Publikationsentscheidungen und Herangehensweisen besitzt und stets »von außen draufschaut«. Datenexpertise und Ressortexpertise bedingen sind daher wechselseitig. Das Quartalsgespräch ist so aufgebaut, dass zunächst der Datenanalyst in max. 15 Minuten seine grundsätzlichen Datenbeobachtungen der letzten drei Monate vorstellt. Anschließend stellen die ernannten Ressortmitglieder die Ergebnisse ihrer Thesenuntersuchung vor. In diesen 30 bis 45 Minuten soll sodann ein offener Austausch über die Daten erfolgen:

6

Eine beispielhafte These könnte lauten, dass die Nutzerinnen und Nutzer vermehrt über eine Google-Suchanfrage auf die Artikel eines Ressorts kommen und nicht (mehr) über Facebook oder die eigene Homepage. Durch die Bestätigung der These durch die Analyse entsprechender Daten könnte dann in einem nächsten Schritt die redaktionelle Handlungsableitung getroffen werden, die Artikel im Ressort vermehrt suchmaschinenoptimiert aufzubereiten und weniger Arbeits- und Zeitressourcen für die Facebook-Distribution aufzuwenden.

7 Die empirische Fallanalyse

»[…] dass ein Raum da vorhanden ist, um auch so eine offene Runde. jeder seine Gedanken da reinbringen kann. Und man auch zusammen das Gefühl hat wir haben eigentlich uns irgendwie weiterentwickelt. Und hinwegzukommen von irgendjemand denkt, dass dies und das vielleicht so und so sein müsste und dann gucken wir mal. Und je hierarchisch höher die Person ist, die das wollte oder dachte, desto wahrscheinlicher ist auch, dass das lange mitgeschleppt wird auch wenn es vielleicht nicht so gut funktioniert«. Der Datenanalyst spricht hier eine gewünschte Offenheit und Akzeptanz gegenüber Daten an, die mitunter einschließt, sich von Daten überraschen zu lassen und Restrukturierungen im Ressort anzustoßen. Die Quartalsgespräche sollen folglich einer hierarchieabhängigen (De-)Legitimation von Entscheidungen entgegenwirken. Jedoch konfligieren sie auch mit datenspezifischen Vertrauens- und Akzeptanzprobleme in den Ressorts, wie der Datenanalyst weiter erläutert: »Das ist total teamleiterabhängig, ob die das wollen. Weil wir gefühlt auch nicht so eine Kultur im Haus haben, dass das so offen angenommen wird oder man dem so vertraut, dass man da gut sich mit entwickeln kann. Und ich verstehe auch, dass in bestimmten Bereichen es einfacher und in anderen schwieriger. Je nachrichtlicher und härter von der Berichterstattung das wird, desto irrrelevanter wird’s glaube ich auch ob man das macht oder nicht. Ob du jetzt aber beispielsweise ob wir über die Royals, Formel 1 oder die Modewoche in Mailand berichten, das ist eigentlich vollkommen wurscht«. E-Mail-Reporting E-Mail-Reportings sind eine weitere relevante Form der redaktionsinternen Datenkommunikation. So verschicken die SEO-Mitarbeiter einen monatlichen und einen wöchentlichen Report. Der monatliche Bericht wird fast hundertprozentig automatisch befüllt und gibt Einsicht in aktuelle Entwicklungen im Netz. Er dient als Beobachtungsinstrument zur eigenen Positionierung innerhalb des Marktes, wie der technische SEO-Mitarbeiter erklärt: »Genau und das ist eigentlich so monatlich das große Ding, was durchgeht und wo dann eigentlich drinstehen soll: Oh wie stehen wir denn gegenüber dem Markt? Also wie entwickelt sich der Desktop? Wie entwickelt sich mobil? Wie entwickeln sich die Apps? Was waren die wichtigsten Themen? Wie viele Einstiege haben wir generiert? Wie viele Folge-PIs? Und und und. Also das ist so der meta meta meta Überreport«. Das wöchentliche SEO-Reporting wird hingegen explizit an die Redaktion adressiert und berichtet über relevante Keywords, die es in die Artikel einzubauen gilt, um ihre Sichtbarkeit in der Google-Suche und in den Google-Newsboxen zu erhöhen. Relevante Suchbegriffe sind zum Zeitpunkt des Feldaufenthaltes bspw. »Brex-

171

172

Publikumsbeobachtung im digitalen Wandel

it«, »große Koalition« und »Midterms«. Gleichzeitig soll das Reporting über Themen aufmerksam machen, zu denen im Netz viel gesucht wird. Den Ressortleiterinnen und -leitern soll der Bericht folglich Optimierungsprozesse ermöglichen, indem relevante Keywords und Themen mit derzeitigen Planungen und der aktuellen Themenauswahl im Ressort abgeglichen werden können. Das Reporting beschreibt »welche Themen bespielt werden sollen. wollen«, so der redaktionelle SEO-Mitarbeiter, weshalb es auch am Anfang der Woche verschickt wird. Die Korrektur seiner Wortwahl (»wollen« statt »sollen«) verweist dabei auf die hohe Erfolgswahrscheinlichkeit jener Themen, die ihnen durch die Daten zugeschrieben wird. Ein besonders aufschlussreichtes E-Mail-Reporting ist der redaktionsinterne Bericht über die sog. »Social Hits«. Das Reporting veranschaulicht in besonderer Weise die Herstellung von Datenverständnissen sowie die damit einhergehenden Dateninterpretationsnotwendigkeiten und Herausforderungen im Umgang mit den Daten. Die Erstellung dieses E-Mail-Reporting wurde im Feld begleitet, weshalb es im Folgenden ausführlich vorgestellt wird. Die Social Hits werden freitags zum Wochenabschluss händisch am Computer von einem Mitarbeiter oder einer Mitarbeiterin aus dem Social Media-Team erstellt. Per Mail wird über die »besten« Artikel in den sozialen Medien (Facebook, Instagram und Twitter) berichtet: »Jetzt fragt man sich: Besten Texte? Und dann geht es wieder um – wie heißt das? – KPI. Was sind wirklich die Zahlen, nach denen wir gehen? Das heißt wir sind gerade am Überlegen ist die wichtigste Kenngröße der Traffic? Also heißt die Zuführung auf die Seite ist ja interessant. Oder auch die Interaktionen. Das ist halt irgendwie ein bisschen beides eigentlich« (Teamchef Social Media). Die Datengrundlage dieses Reportings bildet dementsprechend einerseits die Reichweite (Traffic, Seitenaufrufe) und andererseits die sozialen Interaktionen (Likes, Beitragsteilungen, Kommentare in den sozialen Medien). Insgesamt werden 10 eigene Artikel sowie die drei »besten« Geschichten der Konkurrenz gelistet. Der Bericht dient, mit anderen Worten, zu einer datenbasierten Selbst- und Konkurrenzbeobachtung. Adressaten des Reportings sind die gesamte Online-Redaktion (inkl. Online-Chefredaktion) sowie einzelne Mitarbeiterinnen und Mitarbeiter aus der Technik- und Anzeigenabteilung. Da die Daten aus verschiedenen Analysetools stammen, tritt während der Berichterstellung die Problematik auf, welches Tool die aussagekräftigsten Zahlen liefert. Der Social Media-Teamchef muss die Daten folglich priorisieren und entscheidet sich für die »größtmögliche Zahl«: »Weil das ist halt so: Welche Zahl will ich denn wirklich genau? Gehe ich jetzt von der Zahl aus, die bei Storyclash steht? Oder gehe ich von der aus, die bei Dings steht? Ist ein bisschen Gefrickel gerade, weil du siehst da sind auch wieder ganz

7 Die empirische Fallanalyse

andere Zahlen als eben angezeigt worden. Ich versuche halt die größtmögliche Zahl halt irgendwie rauszufinden, die halt irgendwie so für den Text ausschlaggebend ist«. Dabei erstellt der Social Media-Chef das Reporting alles andere als unreflektiert. Der Bericht basiert vielmehr auf voraussetzungsvollen Kommunikationsabsichten: »[U]nd da ist dann die Frage auch, die wir bei diesem Motor am Morgen, dieser Zahl des Tages [in der Redaktionskonferenz; Anm. K.P.] haben: Was macht die Redaktion damit? Und was bringt die Redaktion das weiter, wenn wir das machen? Das muss ich mir eigentlich überlegen: Was sende ich da eigentlich und warum sende ich das an sie?«. Die Handlungsableitung aus den Daten muss in ihrer Kommunikation stets mitbedacht werden: Was soll mit der Datenkommunikation bewirkt werden? Das Mitliefern von Interpretationshilfen an Redakteurinnen und Redakteure sowie Mitarbeitende, die sich nicht intensiv mit den Daten beschäftigen (können), soll die Datenaneignung erleichtern bzw. unterstützen: »Frage ist jetzt: Checkt das überhaupt ein Redakteur, wenn er weiß okay wie viel ist das jetzt überhaupt? Wie viel ist denn, wie viel ist denn 10.000? […] Theoretisch müsste man den Leuten mal sagen, wie viel macht denn ein durchschnittlicher Post? Das heißt in Relation setzen ist auch mal ganz wichtig für die Redaktion«. Durch Kontextualisierung soll folglich ein besseres redaktionelles Verständnis der kommunizierten Daten erzeugt werden. So wird auf Durchschnittswerte verwiesen, um die Interpretation der Daten zu vereinfachen. Auf die Social Hits kommen »mittelviele« Kommentare der Redakteurinnen und Redakteure zurück (»zwei bis drei Mails«). Diese beziehen sich meist auf die Frage, warum die eigene Geschichte gut bzw. nicht so gut lief. Insgesamt sei der Bericht optimierungsbedürftig, wie der Social Media Teamchef anmerkt. Es mangelt an einem tiefergehenden Austausch mit der OnlineRedaktion über ihre Bedürfnisse und Wünsche nach bestimmten Daten. Die Datenkommunikation müsste so gesehen um eine zusätzliche Feedbackschleife erweitert werden: »Aber eigentlich ist es was, das die einfach so hinnehmen, sich das angucken. Und ehrlich gesagt brauche ich mal mehr, bräuchte ich fast nochmal mehr. eigentlich bräuchte man für Feedback auch Feedback. Das heißt ich müsste die Kollegen fragen: ›Hey, was wollt ihr eigentlich wissen?‹ Und an dem Punkt sind wir noch nicht ganz, wo wir auch hinmüssen. Ich muss meins verfeinern, weil ich irgendwie überlegen möchte, ich weiß schon was ich ihnen sagen möchte, ich muss noch besser überlegen, wie ich ihnen sowohl grafisch als auch von den Zahlen her das

173

174

Publikumsbeobachtung im digitalen Wandel

einfacher kommuniziere. Und ich muss von ihnen dann wissen: Was gibt euch das? Was wollt ihr vielleicht anderes wissen?«. Darüber hinaus offenbart sich noch ein weiteres Problem, welches auf die Notwendigkeit der Festlegung von Zuständigkeiten im Datenumgang zurückgeführt werden kann. Denn die »reine« Datenanalyse sowie die Frage nach sinnvollen Kommunikationsstrukturen und -abläufen sind eigentlich keine festen Aufgabenbereiche des Social Media-Teamchefs: »Aber ich bin eigentlich auch jetzt nicht der Analytic-Dienstleister. Eigentlich ist das sowas, was ich eigentlich mehr den Datenanalysten geben müsste. Weil das ist schon mein Job, weil ich die Sachen bastele und verpflege und ich will es auch präsentieren in der Form, wie ich es präsentiere. Aber es macht halt schon Sinn, dass das auch so ein bisschen gegengeschnitten ist, so das was da läuft«. Hinsichtlich der Darstellungsform erklärt der Teamchef, dass er kein »lebloses« Reporting erzeugen möchte. Vielmehr will er »Geschichten zu erzählen«, weshalb er in der Erstellung des Berichts auch ein »Agenda-Setting« betreibt: »Das ist jetzt so ein bisschen auch was will ich halt darstellen? Was für welche Geschichte erzähle ich der Redaktion halt einfach? Die erzähle ich nicht. Damit machen sie halt alte Sachen noch einmal halt irgendwie neu auf. Ist aber die stärkste die stärkste Zahl. Über die Zahlen freue ich mich natürlich, dass sie so hoch sind. Aber ich würde halt schon gerne halt irgendwie die Sachen loben, wenn sie gesagt haben guckt mal wir schaffen es halt unsere Inhalte noch mal besser zu bewerben. Und deshalb nehme ich den anderen Artikel in dem Fall jetzt. Aber jetzt natürlich ganz klar die Frage: Was kommuniziere ich und warum kommuniziert das? Mir geht es schon darum den Leuten dann zu zeigen wir haben eigene Inhalte, die wir halt wenn wir die gut aufbereiten, dass die auch eine große Wirkung erzielen. Ich will nicht haben ›Guck mal wir haben ein Haha-Bild gefunden, das posten wir nochmal‹. Das ist für mich nicht die Geschichte dahinter. Man könnte jetzt sagen ich schummel dann ein bisschen. Joa«. In diesem Fall entscheidet sich der Teamchef für Social Media bewusst gegen den rein nach Zahlen gesehen »besseren« Inhalt und listet stattdessen einen qualitativ wertvolleren Artikel auf, dessen Reichweite durch die Verbreitung und Aufbereitung in den sozialen Medien noch einmal erhöht werden konnte. Das »Schummeln« – oder das bewusste Ignorieren anderer Daten – stellt sich somit als funktional und teilweise erforderlich heraus, wie sich auch an weiteren Stellen zeigt: »Deshalb müsste man theoretisch wenn ich es jetzt gut machen würde – mache ich jetzt nicht, ich schummel jetzt einfach mal ein bisschen – müsste ich jetzt gerade bei der 10.000 eigentlich alles das abrechnen, was nicht über den LinkPost kam«.

7 Die empirische Fallanalyse

In der Frage nach dem am besten funktionierenden Video der Woche entscheidet sich der Social Media-Teamchef ebenfalls gegen jenes mit den höchsten Zugriffszahlen (Kochvideo), weil dies keine neuen redaktionellen Erkenntnisse erzeugt: »Und das wollte ich sehen. Und das werde ich auch kommunizieren. Weil das ist das, jetzt bin ich wirklich so ein bisschen ja 13.000 Aufrufe »nur«. Mir geht es aber auch dabei halt welche Emotionen sie auslösen, welche Leute damit was machen und da ist für mich halt einfach die Zahl. unterstützt mich zwar schon. Ich könnte natürlich sagen ›wir haben viel mehr Aufrufe‹. Aber für so ein Video – wir machen das regelmäßig, das Kochvideo – das ist für mich nichts Neues. Für mich ist das neu, dass wir halt einfach mit der emotionalen Botschaft die Midterms halt irgendwie einleiten und das in dem Format das ist so ein bisschen. […]. Kurze Videos, kurze Aussage. Aussage ist eigentlich gewonnen hat die Vielfalt. Punkt. Das ist halt so die Message, die wir dann rüberbringen wollen«. Für die eigene publizistische Weiterentwicklung ist solch ein Agenda-Setting unabdingbar, wie der Teamchef weiter ausführt: »Und ich glaube es geht wirklich so ein bisschen darum, in welche Richtung man auch die Redaktion drängt. Ich könnte natürlich halt jetzt sagen einfach die besten Fundstücke Netzfundstücke sind irgendwo gefunden worden. Das bringt uns aber als Zeitung nicht weiter, weil es uns abhängig von dem macht, was halt irgendwo im Netz passiert«. In der Erstellung der Social Hits spricht sich der Teamchef des Weiteren gegen ein automatisiertes Reporting aus, da hierdurch unsinnige redaktionelle Handlungsableitungen getroffen werden könnten: »Das ist nicht die geilste Form des Reportings, aber ich will auch kein lebloses Reporting haben, weil ich schon eine Geschichte erzählen will. Weil mit dem Reporting, wenn ich es automatisiert machen würde, würde da halt sehr viel Quark reinkommen, der halt die Leute auf falsche Gedanken bringt. Der so ›Oh Gott da machen wir besser noch nur Fremdposts und nur alte Sachen‹. Nee, die anderen Sachen haben halt ein Potenzial. Wir müssen es halt nur sinnvoll einplanen«. Zusammenfassend lässt sich festhalten, dass die Erstellung der Social Hits durch viele Datenübersetzungsprozesse gekennzeichnet ist. Die Daten werden spezifisch aufbereitet (Agenda Setting) und an die Redaktion weitergeleitet, um hieraus Handlungsableitungen treffen zu können. In der Datenaufbereitung und -kommunikation an die Redaktion erweist sich das Hervorheben und Missachten bestimmter Daten als funktional. Mit Blick auf die fehlende Datenexpertise der Redakteurinnen und Redakteure interpretiert der Teamchef für Social Media die Daten für sie vor, ohne dabei jedoch Handlungsanweisungen zu formulieren. So sollen vielmehr Dateneinsichten erzeugt und Geschichten über die Nutzerinnen und Nutzer und

175

176

Publikumsbeobachtung im digitalen Wandel

ihre Angebotsnutzung in den sozialen Medien erzählt werden – wohlwissend um die zeitintensive Form dieser Berichterstattung und dessen Optimierungsbedürftigkeit. Die Social Hits können folglich als ein Dateninstitutionalisierungsversuch angesehen werden, durch den dezidiert Social Media-Nutzungsdaten redaktionell anschlussfähig gemacht und zur Akzeptanz verholfen werden sollen. Automatisierte Datenbenachrichtigung via Slack Die automatisierte Datenbenachrichtigung via Slack bildet einen weiteren Eckpfeiler der Datenkommunikation. Slack ist ein webbasierter Instant-MessagingDienst und wird als zentrale Kommunikationsplattform des Medienunternehmens genutzt. Die Kommunikation kann dabei individuell oder auch gruppenbezogen durch die Einrichtung von Channels erfolgen. Zentral in der Datenkommunikation via Slack sind die eingeschalteten automatisierten Benachrichtigungen, die über spezifische Daten informieren. Dies sind einerseits die Artikelscore-Werte und andererseits überdurchschnittliche Performance-Faktoren, die über sog. Alerts mitgeteilt werden. Dieser Datenkommunikationsweg zeichnet sich also durch Datenalarmierungen aus, die Prozesse der Selbstverortung und Optimierung anstoßen (sollen). Die automatisierte Benachrichtigung über den angesprochenen Artikelscore gestaltet sich wie folgt: »[D]as wird automatisiert verschickt. Also ich würde quasi alle Texte, bei denen ich in der Autorenzeile stehe oder unter denen mein Kürzel steht, wo ich in denen ich beteiligt war in der Bearbeitung der Redigatur, die bekomme ich in den beiden Folgetagen – weil sich der Artikelscore noch ein bisschen verändern kann – bekomme ich quasi die Informationen dazu zugeschickt. Kann mir dann, also hier steht dann auch so – nehmen wir mal den hier ((liest die Überschrift eines Artikel vor)). Dann sehe ich hier 601 war der Artikelscore in der Politik. Das ist ein Artikel aus der Print-Ausgabe. Das wurde ›meet hard‹ eingestellt. Also einer von zehn Artikeln, die ich lesen kann. Und auch wie lang war das tatsächlich ein Topthema? Zwei Stunden und acht Minuten. Wie viel Zeichnen hatte das? Hat es eine oder zwei Seiten? Die ID. Dann so ein paar Einzelinformation, die ich hier nicht unbedingt brauchen wollen würde. Und dann kann ich hier auf den Text klicken einerseits oder halt auch auf die Artikelscore-Details, lande dann gleichzeitig im Analysetool und kann mir dann anschauen, was hat hier wie gut funktioniert?« (Datenanalyst). Neben dem Artikelscore werden weitere redaktionell relevant eingestufte Daten mitgeliefert. Diese zusätzlichen Informationen über bspw. die Seitenlänge oder die Dauer einer großen Sichtbarkeit auf der Homepage (Topthema) sind dabei gleichzeitig Indikatoren, die der weiteren Auswertung und Interpretation des Artikelscores helfen sollen. Unterstützt wird die Dateninterpretation zusätzlich durch

7 Die empirische Fallanalyse

Emoticons. So werden die Dateninformationen zu »Auf die Homepage gekommen« und »Von der Homepage runter« mit einem »Daumen hoch« bzw. »Daumen runter« visualisiert. Auch die Artikelscores erfahren eine »Emoticon-isierung« bzw. besondere Form der Visualisierung: • • •

      (Unterdurchschnittlicher Artikelscore)       (Durchschnittlicher Artikelscore)       (Überdurchschnittlicher Artikelscore)

In der automatisierten Benachrichtigung, die über den sog. »Relevanz-Bot« erfolgt, existiert zusätzlich ein Direktlink zum Analysetool, um sich intensiver mit den Daten zum Text auseinandersetzen zu können und etwaige Optimierungspotenziale festzustellen (»was hat hier wie gut funktioniert?«): »Naja gut, du siehst ja schon tatsächlich das ist ehm ((atmet mit dem Mund aus)). Die Frage ist immer wie relevant ist, also wie relevant kann die Information für mich sein? Ich könnte jetzt natürlich sagen als Person, die den Text geschrieben hat, (3.0) naja das Engagement ist jetzt nicht so toll. Woran mag es denn gelegen haben? Häufiger kann sein, dass viel so direkte Zugriffe kamen und dass ein quasi sehr sehr illoyales Publikum da das runtertreibt. Ist hier aber nicht so, eigentlich sehr sehr viel intern. Und dann würde ich im Zweifelsfall dann halt in den Text reingehen und gucken lags daran vielleicht? Vielleicht war er auch zu lang, vielleicht wurde es aber auch zu trocken. Habe ich hier redigiert in dem Fall ((lacht)). Ja woran kann es denn liegen?« (Datenanalyst). Jene Datenbenachrichtigungen sollen die Redakteurinnen und Redakteure folglich zu einer intensiveren Auseinandersetzung mit den Daten motivieren. So zählt der Datenanalyst Fragen und Anhaltspunkte auf, die datenbasiert in einem nächsten Schritt zu untersuchen sind. Eine spontane Interpretation des Artikelscores scheint dem Datenanalyst schwerzufallen, weshalb man »im Zweifelsfall dann halt in den Text reingehen [muss]«. Neben der automatisierten Benachrichtigung über den Artikelscore (RelevanzBot) werden über Slack auch sog. Boost Alerts mitgeteilt, die über überdurchschnittlich gut funktionierende Inhalte der Konkurrenz informieren. Hierzu ein Einblick in eine Feldnotiz, die über die Arbeitsroutine einer Social Media-Mitarbeiterin berichtet: »Anschließend zeigt mir eine Mitarbeiterin aus dem Team Social Media und Leserdialog die verschiedenen Slack-Kanäle, an die sie angeschlossen ist bzw. die sie nach relevantem Material durchsucht. Der wohl relevanteste Kanal ist ›hp-viral‹, der mit dem Analysetool Storyclash verbunden ist: Hier werden automatisiert Nachrichten und Artikel der Konkurrenz aufgeführt, die einen überdurchschnitt-

177

178

Publikumsbeobachtung im digitalen Wandel

lichen Performance-Faktor haben. Es werden Beiträge ab dem Wert 6 angezeigt. Dieser Wert bedeutet, dass der Beitrag sechs Mal so gut wie ein durchschnittlicher Beitrag funktioniert. Wenn in diesem Kanal etwas Interessantes gefunden wird, leitet Maria den Beitrag an die jeweiligen Ressortleiter über Slack weiter (›Ist das was für euch?‹). Ein weiterer Slack-Kanal ist ›video-viral‹. Dieser funktioniert genauso wie der Kanal hp-viral, bloß dass hier Videos aufgelistet werden, die einen überdurchschnittlichen Performance-Faktor besitzen. Die Mitarbeiterin leitet auch hier interessante und auffällige Beobachtungen an ihre Kollegen über Slack weiter. Generell checkt sie diese Kanäle morgens, um nachzugucken, was in der Nacht bei der Konkurrenz »gut lief « und welche Themen man dementsprechend aufgreifen bzw. an Kollegen weiterkommunizieren kann. »cross-viral« ist ein dritter relevanter Slack-Kanal, der ›ganz hilfreich für die Übersicht‹ ist. Hier posten Kollegen von Tochterunternehmen (Magazin, Jugendmagazin etc.) ihre Vorschläge, Ideen und Beobachtungen rein. Dieser Kanal wird auch dafür genutzt, besondere Artikel zu promoten und um direkt oder indirekt die Kollegen zu bitten, den besagten Inhalt bei ihnen zu teilen. Zum Beispiel kommt es vor, dass jemand schreibt ›Hey schaut mal, dieser Artikel von uns läuft besonders gut. Postet den doch auch mal auf euren Kanälen‹. In einen weiteren, vierten Slack-Kanal laufen alle im Haus resp. von den Grafikern produzierte Grafiken rein, die das Social Media-Team für ihre Posts auf Facebook, Instagram und Twitter dann nutzen kann. Interessant bei diesen Kommunikationskanälen ist auch die eingebaute Funktion des ›alerts‹. So ploppt unten rechts am Bildschirm ein kleines Fenster mit der Bezeichnung ›video viral alert‹ auf, wenn ein kürzlich hochgeladenes Video einen überdurchschnittlichen Performance-Faktor erreicht«. Die automatisierten Datenbenachrichtigungen via Slack sind zusammenfassend fest in den redaktionellen Alltag integriert und beschreiben einen weiteren, redaktionsweiten Institutionalisierungsversuch von Daten. Live-Daten Live-Daten ermöglichen ein permanentes, schnelles Vergegenwärtigen des Selbst und der Konkurrenz im Spiegel der Zahlen. Neben den Aufrufmöglichkeiten verschiedener Dashboards in den Computerprogrammen, in denen die vielzähligen Daten aufbereitet, visualisiert oder auch Prognosen erstellt werden, werden die Live-Daten zusätzlich auf großen Bildschirmen an zentralen Stellen im Newsroom aufgerufen. Die Live-Daten besitzen dementsprechend eine hohe augenscheinliche Relevanz und können als ein Datenkommunikationsweg verstanden werden, der insbesondere mittels Visualisierungsformen und -medien operiert (Listen, Kurvenverläufe, Rankings). Mit der Entscheidung, Live-Daten prominent am Arbeitsplatz zu platzieren und sie für die Redakteurinnen und Redakteure ebenfalls am eigenen Computer zugänglich zu machen, gehen somit gleichzeitig Sensibilisie-

7 Die empirische Fallanalyse

rungsversuche für Daten einher. Die redaktionelle Handlungsableitung aus den Live-Daten hält sich jedoch, wie der interviewte Datenanalyse anmerkt, sehr in Grenzen, da sie eine Momentaufnahme darstellen und keine tieferen Analysen erlauben: »Aber wie gesagt Live-Daten lange Tradition bei uns, in anderen Medienhäusern. Damit man einfach so eine, wie ich finde, eher relativ oberflächliche Kontrolle darüber hat, was funktioniert wo wie gut. Gleichzeitig aber ich der Ansicht bin du kannst da eh nicht mehr viel optimieren. Ich kann eher Dinge, die ich in anderen tieferen Analysen festgestellt habe, kann ich verifizieren oder falsifizieren. Das ist quasi finde ich die Aufgabe von Live-Daten. Ich kann überprüfen, ob die Handlung, die ich mir grundsätzlich überlegt habe, und nicht eben aus Einzelbeobachtung also einzelne völlig random Beobachtung in verschiedensten Szenarien irgendwie zusammengebastelt habe«. Live-Daten bieten demzufolge eine wichtige Monitoring- und Kontrollfunktion über das »Funktionieren« von Inhalten auf unterschiedlichen Plattformen. Große Optimierungspotenziale werden durch Live-Daten nach Ansicht des Datenanalysten aber nicht ermöglicht: »[D]as Kind ist an einer anderen Stelle in den Brunnen gefallen«. Vielmehr werden aus einer tieferen Beschäftigung mit Daten entwickelte Thesen mithilfe von Live-Daten kontrollierbar gemacht. Gleichzeitig verweist der Datenanalyst bei der Aneignung von Live-Daten auf ein bestehendes, potenziell folgenreiches Subjektivitätsproblem: »Wenn du dir die Live-Daten anschaust, hat jeder so seine gefühlte Wahrheit. Deswegen ist es auch glaube ich relativ schwierig dann mit diesen Informationen, die man hat, halbwegs objektiv sich zu unterhalten über Dinge, die man festgestellt hat. Und dann passiert das, was ich vorher schon angedeutet habe. Dann benutzt jeder Daten für seine eigene politische Agenda und funktioniert eben die Sachen zu eh zu sehen, auch die er oder sie auch gerne feststellt«. Während Live-Date somit für eine redaktionelle Weiterentwicklung nur bedingt nützlich sind, so sind sie für eine Stelle in der Online-Redaktion von besonderer Bedeutung: den Homepage-Chef bzw. die Homepage-Chefin. Diese bestückt die Seite regelmäßig mit Inhalten und beobachtet das Nutzungsgeschehen auf der Seite in Echtzeit. Im Folgenden wird daher kurz vorgestellt, wie der HomepageChef aus den Live-Daten relevante Informationen herausliest und diese für seine Arbeit anschlussfähig macht. Die Ausführungen beziehen sich dabei auf Beobachtungen und Notizen, die während einer mehrstündigen Arbeitsbegleitung entstanden sind. Der Homepage-Chef entscheidet, welche Artikel wann auf welche Position auf die Startseite kommen. Darüber hinaus bestimmt er, wann der Aufmacher der Seite gewechselt wird und ob Artikel ggf. geändert oder angepasst werden müssen –

179

180

Publikumsbeobachtung im digitalen Wandel

hier insbesondere ihre Überschriften und Fotos. Für die Arbeit des HomepageChefs sind die Live-Daten von besonderer Relevanz, da er das Nutzungsverhalten beobachten und auf etwaige Dynamiken reagieren muss. Dabei werden nicht nur die Echtzeit-Daten der eigenen Seite wahrgenommen und eingeschätzt resp. bewertet, sondern auch die der Konkurrenz. Der Arbeitsplatz des Homepage-Chefs befindet sich an einer Stelle im Newsroom, von der er einen zentralen Blick auf die Redaktionsbildschirme hat, auf denen einerseits aufbereitete Nutzungsdaten in Form von Artikelscores und Rankings visualisiert werden und andererseits sowohl die eigene Startseite als auch die Startseiten der (definierten) Konkurrenz in regelmäßigen Abständen automatisch aktualisiert werden. Live-Daten sind für eine schnelle Orientierung im Nachrichtengeschehen, aber auch für das Überprüfen, wie bestimmte Artikel funktionieren, von wesentlicher Bedeutung. Für den Homepage-Chef besitzen sie eine wichtige Alarmierungsfunktion. Hierzu ein Rückblick auf eine bereits zitierte Feldnotiz: »Der Homepage-Chef erzählt mir, dass der Artikel zum Frauenwahlrecht nicht gut klickt. Er ist seit einer Stunde auf der Homepage. ›13 Klicks in den letzten 5 Minuten. Das ist schon sehr schlecht‹, bewertet er die Daten. Diese ›schlechten‹ Zahlen nimmt er als Ausgangspunkt, einen Kollegen über diese Performance aufzuklären. Er greift zum Telefonhörer und ruft ihn an: ›Das Video zu 100 Jahre Frauenrecht funktioniert sehr schlecht gerade, leider. Könnt ihr euch vielleicht nochmal eine neue Überschrift überlegen?‹, fragt er den Kollegen und erteilt ihm damit gleichzeitig eine Handlungsanweisung. Nach dem kurzen Telefonat erzählt er mir, dass er den Artikel inkl. Video von der HP jetzt noch nicht runterschmeißen möchte, weil er wisse, dass ›da auch viel technische Arbeit drinsteckt‹. Generell müsse man immer abwägen zwischen ›Wie wichtig ist uns das Thema redaktionell?‹ und ›Wie wird es von den Nutzern angenommen?‹«. Der Homepage-Chef sieht sich folglich permanent in einem Spannungsfeld und Aushandlungsprozess zwischen journalistischer Relevanz der Themen und dem datenbasierten Nutzer(des)interesse. Das Ändern der Überschrift stellt sich als ein gängiges Handlungsmuster bei »schlechten« Zahlen heraus. So freut sich der Homepage-Chef nach ca. 15-20 Minuten, zeigt auf einen der Bildschirme im Newsroom, auf dem die Daten visualisiert werden, und sagt: »Guck mal da hat es jetzt was gebracht mit der Überschriftumstellung«. Die Zugriffszahlen des Videos haben sich nun von einem unterdurchschnittlichen auf einen durchschnittlichen Wert verbessert. Live-Daten können darüber hinaus auch die Artikelposition beeinflussen und einen Aufmacherwechsel evozieren, wie der folgenden Feldnotiz zu entnehmen ist: »Der aktuelle Aufmacher ist mittlerweile drei Stunden auf der Homepage und performt schlecht, sagt der Homepage-Chef. Deshalb – d.h. aufgrund der hohen

7 Die empirische Fallanalyse

Uptime und der schlechten Performance – nimmt er ihn jetzt von der Aufmacherposition herunter. Er erklärt mir im Zuge dessen, dass, wenn die Artikelaufrufe überdurchschnittlich gut sind, die Artikel auf den oberen Startseitenpositionen länger stehen bleiben als durchschnittlich«. Auf die Nachfrage, was der Homepage-Chef im Gegensatz dazu als »schlechte« Zugriffszahlen auffasst oder definiert, antwortet er: »Unter 20 Zugriffe in den letzten 5 Minuten ist [für die Aufmacher-Position; Anm. K.P.] schon sehr schlecht«. Die Datenalarmierungen sowie die permanente Sichtbarkeit und Visualisierung von Daten lassen die Frage aufkommen, inwiefern jene Daten überhaupt vollständig wahrgenommen und für die Arbeit nutzbar gemacht werden können. Auf diese Frage hin antwortet der Homepage-Chef: »Man kann all die Reize nur bedingt verarbeiten«. Die Reize belaufen sich dabei nicht nur auf die weiter oben angesprochenen »Boost-Alerts« und Datenvisualisierungen (Dashboards, Redaktionsbildschirme), sondern auch auf die fortlaufenden DPA-Meldungen sowie die Konkurrenzbeobachtung. Die zahlreichen Möglichkeiten des Monitorings können – diesen Gedankengang weiterfortführend – auch in einer Datenüberforderung resultieren, insbesondere für nicht »datengeschultes« Personal. Hieraus kann abgeleitet werden, dass der redaktionsweite Umgang mit Daten formalisierte Aneignungsstrategien, aber auch dazu komplementäre informelle Ausweichpraktiken bedarf, um die Komplexität im Umgang mit den Daten bewältigen zu können. Insofern ist die Kommunikation und Nutzung von Daten in der Medienorganisation höchst voraussetzungsvoll und entscheidungsbedürftig: Welche der Daten sind für welche Stellen relevant oder handlungsanleitend? Mit welchen Daten müssen sich bestimmte Abteilungen, andersherum gefragt, aber eben auch nicht auseinandersetzen? All dies gilt es medienorganisational zu entscheiden. Abteilungsübergreifende Datenkommunikation Zum Abschluss soll kurz die abteilungsübergreifende, also die medienorganisationsweite, Kommunikation von Daten skizziert werden. Neben der OnlineRedaktion, die im Fokus der Fallanalyse steht, beschäftigen sich darüber hinaus weitere Abteilungen mit Nutzungsdaten. Zu nennen sind hier bspw. die Geschäftsführung, der Verlag, die Print-Redaktion oder aber auch die Abteilung Produkt Management Content. Es zeigt sich, dass die verschiedenen Abteilungen verschiedene Datenverwertungsinteressen besitzen und dementsprechend unterschiedlich mit Daten umgehen. Gesamtorganisatorisch lässt sich die Datenkommunikation, dessen Detailtiefe und Beschäftigungskomplexität wie folgt darstellen (siehe Abbildung 8). Der technische SEO-Mitarbeiter erläutert die abteilungsübergreifende Datenkommunikation folgendermaßen:

181

182

Publikumsbeobachtung im digitalen Wandel

Abbildung 8: Gesamtorganisatorische Datenkommunikation

Quelle: Eigene Darstellung

»Also der Verlag, dann haben wir die Printausgabe der Zeitung, dann haben wir die digitale Ausgabe. Dann hast du hier halt auch noch unterschiedliche Abteilungen, unterschiedliche Level. Also du hast hier eine Geschäftsführung der verschiedenen Unternehmen, den Vorstand des Verlages, der dann mit dabei ist. Und du kannst dir, also nehmen wir jetzt mal an das wäre hierarchisch geordnet, kannst du wirklich ((lacht)) so von der Komplexität der Zahlen, die wir kommunizieren ((lacht erneut)), kannst du eigentlich sagen hier oben das ist so die simpelste Zahl. Da sagen wir einfach immer nur so ›Summe Gesamt‹ und je weiter du runtergehst, also wenn wir jetzt hier unten auf Abteilungsebene wären, also nehmen wir jetzt mal an die digitale Ausgabe der Zeitung würde jetzt hier unten stehen und du hättest hier das Produkt Management Content, in welcher Abteilung du dich gerade befindest. So hier ist eigentlich so die höchste Komplexität. Und hier schlagen wir uns eigentlich so mit am meisten drum herum. Also AIs vs. PIs vs. Bounce-Rate vs. tralala. Das findet eigentlich immer, ja oder was heißt immer, so doch der härteste Kampf findet an der untersten Ebene statt«. Der »härteste Kampf« mit den Daten, folglich die höchste Intensität und Komplexität in der Beschäftigung mit Daten, findet demnach in der Abteilung Produkt Management Content statt. Interessant ist in diesem Zusammenhang die Kommu-

7 Die empirische Fallanalyse

nikation der Daten nach »oben«, d.h. die Datenkommunikation in andere Abteilungen der Organisation. Der Verlagsvorstand interessiert sich dementsprechend für andere Zahlen als die Online-Redaktion. Für die Print-Redaktion sind wiederum andere Daten relevant. Je hierarchisch höher die Daten mitgeteilt werden, desto einfacher werden sie kommuniziert: »[J]e quasi tiefer du in den Maschinenraum ((lachst)) gehst, desto mehr nimmst du, desto mehr Abhängigkeiten hast du und desto mehr schaust du dir auch wirklich an. Das soll nicht heißen, dass denen da oben das gar nicht bewusst ist, so dass es da unten die Abhängigkeiten gibt, sondern das heißt nur je weiter wir quasi raufgehen, desto einfacher versuchen wir zu kommunizieren. Vielleicht ist es auch ein bisschen um zu vermeiden, dass man die Abhängigkeiten erklären muss die ganze Zeit, weil es halt auch unglaublich viel Zeit in Anspruch nimmt, ja«. Die gesamtorganisatorische Datenkommunikation ist je nach Adressaten dementsprechend unterschiedlich komplex, um die Komplexität der Daten und deren Abhängigkeiten nicht permanent miterklären zu müssen. Jene Abhängigkeiten interessieren darüber hinaus bestimmte Abteilungen womöglich nicht, da ihr Augenmerk vielmehr auf Metadaten (»Summe Gesamt«) liegt. An diesen kurzen Ausführungen zur abteilungsspezifischen Datenkommunikation lässt sich bereits erkennen, dass mit der Einführung und Nutzung von Daten in einer Medienorganisation viele Regelungsbedarfe einhergehen. Von großer Bedeutung ist außerdem, organisations- bzw. redaktionsweise Datenverständnisse zu schaffen, sodass die Daten insbesondere von den Redakteurinnen und Redakteuren akzeptiert und genutzt werden. Die Herstellung eben jener Datenverständnisse wird im Folgenden näher beschrieben.

7.2.2

Die Herstellung von Datenverständnissen

Der Umgang mit Online-Nutzungsdaten ist, wie die bisherigen Kapitel zeigen, äußerst voraussetzungsvoll. So liegen Datenerkenntnisse nicht »einfach so« vor. Daten fließen demzufolge nicht unbearbeitet und unreflektiert in redaktionelle Arbeitsabläufe und Entscheidungen ein, sondern durchlaufen vielmehr komplexe Prozesse der Übersetzung und Interpretation, wodurch sie kommunikativ anschlussfähig und nutzbar gemacht werden (Kap. 7.2.2.1). Für die Relevanz und Sinnhaftigkeit von Daten müssen die Redaktionsmitglieder folglich zunächst sensibilisiert, teilweise sogar überzeugt, werden. Nutzungsdaten wahrzunehmen, sie zu akzeptieren und letztlich auch für die redaktionelle Arbeit zu nutzen, fällt dabei nicht allen Redaktionsmitgliedern in gleicher Weise leicht (siehe hierzu ausführlich Kap. 7.2.3). Daten und Datenverständnisse müssen aus Sicht der Organisation demnach redaktions- bzw. ressortweit relevant gemacht werden, d.h. sie müssen

183

184

Publikumsbeobachtung im digitalen Wandel

institutionalisiert und fortlaufend aktualisiert werden (Kap. 7.2.2.2). Die Beschäftigung mit Daten rückt somit von der Peripherie – vereinzelte (Grenz-)Stellen in der Medienorganisation oder ihre Auslagerung an externe Dienstleister – ins Zentrum der Redaktion: Jeder Redakteur und jede Redakteurin soll sich, so der Wunsch seitens Online-Chefredakteur und Datenanalysten, mit Daten beschäftigen, um hierdurch nicht zuletzt seine Arbeit und die des Ressorts verbessern bzw. optimieren zu können (siehe hierzu Kap. 7.3.3). Eine der zentralsten Herausforderungen in der Herstellung von Datenverständnissen besteht zunächst einmal jedoch darin, das Interesse der Redaktionsmitglieder für solche Dateninformationen zu wecken, wie der OnlineChefredakteur erläutert: »Wie interessiere ich Leute überhaupt für solche Informationen? Journalisten stehen ja in dem Ruf, dass sie nicht so wahnsinnig zahlenaffin sind oft. Es macht keinen Spaß. Ich glaube, das ist auch gerade((betont)) für die Print-Kollegen eine krasse Umstellung, weil dies überhaupt nicht gewöhnt sind, sich mit solchen Zahlen zu beschäftigen. Lesedauer eines Textes. Können sie in Print konnten die noch niemals messen und wenn man denen heute sagt ›Ja, 13 Sekunden‹. Da brechen Weltbilder zusammen, weil die das über(haupt). die hatten nie diesen Realitätscheck ((lacht))«. Daten erzeugen demzufolge Sichtbarkeiten in Bereiche, über die (technisch bedingt) vorher keine Einsichten verfügbar waren. Mit den Möglichkeiten der Verdatung entsteht ein besonders für die Print-Kollegen folgenreicher »Realitätscheck«, der einen zentralen Paradigmenwechsel markiert (»Da brechen Weltbilder zusammen«). Insofern verwundert es nicht, dass insbesondere hier hohe Sensibilisierungs- und Vermittlungsbedarfe bzgl. der Daten, ihrer Aussagekraft und Aneignung erforderlich werden.

7.2.2.1

Die Notwendigkeit der Datenübersetzung und Dateninterpretation

Die Aneignung von Nutzungsdaten, d.h. das Ableiten entsprechender redaktionell sinnvoller Handlungen und Entscheidungen, ist unweigerlich auf Prozesse der Übersetzung und Interpretation von Daten angewiesen. Diese Datenübersetzungsleistung ist umso relevanter für jene Redaktionsmitglieder, die sich aus zeitlichen Gründen oder aufgrund fehlender Kompetenzen nicht eingehend mit den Daten beschäftigen können. Hierzu ein kurzer Einblick in eine Feldnotiz über eine Redaktionskonferenz: »Es wird mit der Vorstellung der ›Zahl des Tages‹ begonnen. Der Datenanalyst berichtet davon, dass die Berichterstattung zur Schach-WM und der dazugehörige Live-Ticker gestern am besten funktioniert haben (insgesamt 480.000 Zugriffe). ›Um es in ein Verhältnis zu setzen: Die Nachricht zum Bundesliga-Spitzenspiel hatte

7 Die empirische Fallanalyse

183.000 Aufrufe‹, erläutert der Datenanalyst. Er bietet hiermit eine konkrete Übersetzungsleistung und Einordnung der Daten an, indem er die Zahlen mit jenen eines anderen aufmerksamkeitserregenden Ereignisses vergleicht. Ich erinnere mich dabei an ein Gespräch mit dem Datenanalysten vom Vortag, als dieser mir erzählte, dass er den Anwesenden auf der Redaktionskonferenz die Daten auf eine Weise kommunizieren möchte, durch die sie die Daten auch verstehen – weil sie möglicherweise gar nicht wissen, ob mehrere hunderttausend Visits viel sind oder nicht«. Das Relationieren von Daten, sie in ein Verhältnis zueinander zu setzen und hierdurch den Redakteurinnen und Redakteuren eine Interpretationshilfe mitzuliefern bilden demnach zentrale Praxen der Datenübersetzung, durch die ein redaktionelles Verstehen der Daten sichergestellt und gefördert werden soll. Das bloße Aufzählen von Zugriffszahlen auf der Redaktionskonferenz wird als wenig anschlussfähig angesehen, weil bei dieser Form der Datenpräsentation relevante Kontextinformationen fehlen, die für eine Einordnung der Daten hinsichtlich ihrer redaktionellen Relevanz notwendig sind. Den Bedarf an der Interpretation von Daten und dem Mitsenden von Interpretationshilfen betont der Social Media-Teamchef ebenfalls an mehreren Stellen: »Frage ist jetzt: Checkt das überhaupt ein Redakteur, wenn er weiß okay wie viel ist das jetzt überhaupt? Wie viel ist denn, wie viel ist denn 10.000? […] Theoretisch müsste man den Leuten mal sagen, wie viel macht denn ein durchschnittlicher Post? Das heißt in Relation setzen ist auch mal ganz wichtig für die Redaktion«. Totale (absolute) Zahlen stellen sich demnach als nur bedingt redaktionell aussagekräftig heraus. Sie eröffnen vielmehr den Raum für tiefergehende Anschlussfragen: »Ich kann aber auch sagen ich würde gerne wissen, wie gut ist denn der Artikel im Verhältnis zu anderen Artikeln der WELT? Weil die totalen Zahlen bringt mir das irgendwas? Und ist dann 189 viel? In einem bestimmten Zeitraum? Im Vergleich zu einer kleinen Nachrichtenseite mit einer großen Nachrichtenseite?«. Die (redaktionelle) Aussagekraft von Daten ist dementsprechend von bestimmten (selbst definierten) Bedingungen und Betrachtungsweisen abhängig. Höchst interpretationsbedürftig sind darüber hinaus auch die Nutzungsdaten aus den Sozialen Medien, besonders die sozialen Interaktionen (Gefällt mir-Angaben, Beitragsteilungen, Kommentare), die je nach Plattform intern unterschiedliche redaktionelle Relevanzen zu besitzen scheinen: »Wie sind die umrechenbar? Heißt: Ist eine Interaktion auf Facebook vergleichbar mit einer Interaktion auf Twitter? Nicht ganz. Auf Instagram auch gar nicht. Die Interaktion auf Facebook ist mir immer schon noch am wichtigsten, weil sie

185

186

Publikumsbeobachtung im digitalen Wandel

dafür die höhere Wahrscheinlichkeit da entsteht, dass ein höherer Traffic bei uns entsteht. Das heißt Geldwert nachher«. Allgemein sei auch der »Wert« sozialer Interaktionen schwer bestimmbar: »7829 gefällt das. […] Ja die Frage ist, was ist denn der Wert dieser Interkation? Der ist dann schwer zu bestimmen«, so der Teamchef für Social Media und Leserdialog. Es stellt sich folglich die Frage, ob bzw. was genau aus diesen Daten redaktionell abgeleitet werden kann. Hier greift wieder das bereits oben sich abzeichnende Paradigma der Verhältnismäßigkeit in der Dateninterpretation: Um aus dem Wert (7829) redaktionelle Handlungsableitungen treffen zu können, muss er in ein Verhältnis zu anderen Werten gesetzt werden. Die bisherigen Ausführungen zeigen, dass die Dateninterpretation eine gewisse Datenexpertise oder zumindest ein (zeit-)intensives Auseinandersetzen mit Daten erfordert. Eine erste Abhilfe zur Dateninterpretation bietet der weiter oben thematisierte Artikelscore, der redaktionsweit eingeführt wurde und durch den sich die Redakteurinnen und Redakteure Daten auf eine niederschwellige Weise aneignen können. Der Artikelscore ist bei einer tiefergehenden Betrachtung und Analyse jedoch ebenfalls interpretationsbedürftig, wie die folgende Interviewpassage mit dem Datenanalysten zeigt, in der er beispielhaft einen Artikelscore übersetzt: »[E]in sehr langer Text aber. Drei Seiten. Klicken wir mal rein. Es hat jetzt für die Politik mit 15.000 Seitenaufrufe, das hält sich eigentlich in Grenzen, ne. Dann siehst du aber hier, auch wegen der Paginierung: Die erste Seite zumindest haben 50 Prozent zu Ende gelesen und haben halt noch ziemlich weit da reingeklickt. Und dann siehst du in den Berechnungen hier: Reichweite, hm mäßig eigentlich. Engagement war aber total super. Dementsprechend landet der doch so in der Mitte. Und dann könnte ich auch eigentlich sagen nee ich hab ehm ich habe vielleicht ein Nischen, ein Nischenthema. Ich weiß aber, dass wir die Nutzerinnen und Nutzer auf der Seite haben und wir haben die Kompetenz das super gut. ja zu formulieren und eine Berichterstattung darzustellen und dementsprechend hat es dann auch seine Berechtigung. Genau also das ist quasi so grundsätzlich das, was mit dem. was der Artikelscore dann auch ehm fördern soll«. Dieses Beispiel ist insofern interessant, weil der Artikel von der Reichweite zunächst nur mäßig bis schlecht performt hat. Der Engagement-Wert war hingegen hoch, wodurch der Artikelscore insgesamt einen durchschnittlichen Wert erhält. Ein durchschnittlicher Wert wird jedoch per se nicht als negativ bewertet, da es sich bei den Artikeln auch ein Nischenthema handeln kann, bei dem generell weniger Reichweite zu erwarten ist. In dieser Hinsicht hat solch ein Artikel trotz seiner geringen Reichweite und seines durchschnittlichen Artikelscores »dann auch seine Berechtigung«, weil Nischenthemen gefördert werden sollen. Diese Auswertung der Daten lässt sich jedoch erst auf einer tieferen Analyseebene treffen und betont so

7 Die empirische Fallanalyse

gesehen die Interpretationsbedürftigkeit des Artikelscores. Das Beispiel zeigt, dass jene (Vor-)Übersetzung der Daten durch den Artikelscore nicht immer mit einer redaktionellen Interpretation und Auswertung der Daten übereinstimmen muss. Bevor sich mit den Daten auf einer solch tieferen Analyseebene allerdings beschäftigt werden kann, müssen sie zunächst redaktionsweit relevant gemacht und Anerkennung finden, was für die Medienorganisation – nach wie vor – eine zentrale Herausforderung darstellt. Im nächsten Kapitel werden daher die Einführung von Daten in die Redaktion und die damit einhergehenden Institutionalisierungsversuche genauer vorgestellt und beschrieben.

7.2.2.2

Die Institutionalisierung von Daten

Die Institutionalisierung von Daten in der hier untersuchten Medienorganisation ist eng mit der allgemeinen »Verdatungsgeschichte« des Hauses verbunden. Ausschlaggebender Impuls für die Restrukturierung des Umgangs mit Daten waren wissenschaftliche Forschungsergebnisse, wie der Datenanalyst berichtet: »Genau wo waren wir. Wir waren ja quasi an dem Punkt, wo ich dir erklärt hatte, wie wir dann anfang. so wie ich quasi Teil dieses Teams wurde – Analyse und Audience Development – und wir dann schauen mussten, wie wir entsprechend mit Daten umgehen. Also genau dieses Paper ›Editorial Analytics‹ vom Reuters Instituts siehste hier 22. Februar 2016 haben die das veröffentlicht. Und dann nahm das Thema bei uns auch nochmal wirklich einen anderen Lauf. Weil in diesem Paper halt ganz gut beschrieben wurde und relativ umfassend und für mich zumindest in der Umfänglichkeit neu, wie verschiedene Newsrooms eben mit Daten umgehen. Das eben auch so ein bisschen theoretisches Level zu heben. Und dann wurde auch relativ schnell klar, wo es bei uns eventuell mangeln könnte oder generellen Mangel eben besteht darin sich die richtigen Fragen zu stellen. Besteht heute auch immer noch. Aber auch bestimmte Parameter tatsächlich erst mal gesetzt werden müssen, damit das funktioniert. Hier haben wir diese Grafik, die finde ich ganz gut beschreibt, woher wir kommen wohin wir eigentlich gehen müssen«. Die Forschungsergebnisse des Reuter Instituts über den Umgang mit Daten von Nachrichtenredaktionen (siehe Cherubini/Nielson 2016 sowie Kap. 4.3) waren für die Medienorganisation Wegbereiter und maßgeblicher Auslöser für eine ausführliche Beschäftigung mit den Möglichkeiten der Publikumsbeobachtung und -vermessung im Netz. Der Reuters Report diente so gesehen als ein bedeutsames Legitimierungsinstrument für die Intensivierung der Verdatungspraxis und stieß organisationalen Wandel an (siehe Kap. 7.2.1). Die drei in dem Bericht angesprochenen zentralen Achsen der Verdatung (Tools – Organisation – Culture) entwickelten sich dementsprechend zu zentralen Restrukturierungsbereichen in der Medienorganisation. Dass diese Organisationsentwicklung und die Ge-

187

188

Publikumsbeobachtung im digitalen Wandel

staltung jener Prozesse noch nicht abgeschlossen sind (und aufgrund eines sich ständig im Wandel befindlichen digitalen Umfeldes wahrscheinlich auch nie abgeschlossen werden können), verdeutlicht die Aussage des Datenanalysten, dass »heute auch immer noch« ein Mangel darin besteht, sich die richtigen Fragen in der Publikumsbeobachtung zu stellen. So muss der interne Umgang mit den Daten gut strukturiert und durchdacht sein, wie der Datenanalyst mit Blick auf die Historie des Hauses schildert: »[W]ir kommen eher aus einer Historie von möglichst viel Daten, Leute mal zuschütten, viel Spaß damit und auch aus so einer Kultur des. was natürlich auch ein Trend der vergangenen Jahre ist: ›Höh das ist Big Data. Das ist irgendwie wichtig so. Da steckt irgendwas drin. Macht mal was damit‹. Ohne zu wissen, was es jetzt genau bringen kann und wo die Stellschrauben sind. Auch so ein bisschen eine Datenfurcht von ›Höh. Das optimiert. Also das quatscht mir irgendwie rein, die Daten. Das widerspricht vielleicht dem, was ich eh so fühle oder ich weiß es eh besser‹. Deswegen ist es glaube ich auch so eine lange Kulturarbeit, auch wie man damit umgehen kann«. Die Etablierung einer Kultur von Daten erfordert in erster Linie Zeit ein grundsätzliches, konfliktreiches Umdenken. So wurden und werden Daten von den Redakteurinnen und Redakteuren als Eingriff in ihre Autonomie wahrgenommen (»das quatscht mir irgendwie rein. Das widerspricht vielleicht dem, was ich eh so fühle oder ich weiß es eh besser«).7 Die mit dem Netz sich entwickelten Negativbeispiele wie »Clickbaiting« oder »hardcore SEO-Strategien« hätten innerhalb der Redaktion die Abneigung gegenüber Daten zusätzlich verstärkt. Für die Schaffung einer generellen Datenakzeptanz ist folglich eine »lange Kulturarbeit« notwendig. Darüber hinaus habe es zu Anfang an fehlenden Organisationsstrukturen gemangelt, die eine regelmäßige und nachhaltige Daten- bzw. Publikumsbeobachtung ermöglichen. Ohne solch strukturelle Voraussetzungen »[g]ab es natürlich auch keine Chance, dass sich eine Kultur etabliert im Haus, die dateninformiertes Arbeiten oder vor allem nachhaltiges dateninformiertes Arbeiten fördert«, erklärt der Datenanalyst. Der Datenumgang sowie die entsprechenden Zuständigkeiten waren nicht klar geregelt (wer soll sich mit welchen Daten, in welchem Umfang und zu welchem Zweck auseinandersetzen?). So haben Personen mit Daten gearbeitet, obwohl dies eigentlich nicht ihr Aufgabenfeld war. Auch die Auseinandersetzung mit Analysetools stellt(e) sich im Kontext der redaktionellen Datenanalyse als ein permanenter Lernprozess heraus, wie der Datenanalyst reflektierend berichtet:

7

Diese Aussage spiegelt zugleich wider, dass das Wissen der Redakteurinnen und Redakteure über ihr Publikum unter Print-Bedingungen maßgeblich auf Unsicherheit und Unkenntnis (oder: Gefühlen) beruhte (siehe Kap. 2).

7 Die empirische Fallanalyse

»Wo man auch mal fragen muss: Was misst welches Tool? Welche Aussagen lassen die Daten überhaupt zu? Klassischerweise wir hatten früher mal ganz früher mal Comscore verwendet, wo es ja – kommt ja auch aus dem E-Commerce – wo es halt darum geht: Was schaue ich an? Visits meistens, PIs. Auch ein bisschen verständlich, weil es früher auch bei uns oder generell und alles online wirklich ja nur werbefinanziert war und du dann natürlich mit, [was] relativ naheliegend war, Werbemetriken zu arbeiten. Da waren diese Tools vielleicht noch ausreichend, wobei selbst da schon es immer so ein Clash gab zwischen inhaltlichem Anspruch und journalistischer Mission. Die in Einklang zu bringen mit speziellen Daten, die mir dann so ein Tool ausspuckt«. Daten stehen, wie der Datenanalyst erläutert, folglich oftmals in einem Spannungsfeld zwischen inhaltlichem Anspruch und journalistischer Mission. Dies in Einklang zu bringen und dabei redaktionelle Synergieeffekte zu erzeugen, stellt eine große organisationale Herausforderung dar. Nutzungsdaten und hieraus gewonnen Erkenntnisse werden, wie bereits angedeutet, nicht von allen Redaktionsmitgliedern akzeptiert und gleichermaßen geteilt. Mit Bezug auf die bereits zitierten Aussagen des Online-Chefredakteurs besitzen Daten ein großes Potenzial, traditionelle Vorstellungen über das Publikum (Zusammensetzung, thematische Interessen und Nutzungsgewohnheiten) hochgradig zu irritieren (»Realitätscheck«) oder ihnen zu widersprechen (»Da brechen Weltbilder zusammen«). Insofern überrascht es nicht, dass Daten sich zu einem zentralen und komplexen Organisationsproblem herausstellen können, wie das folgende Kapitel zeigt.

7.2.3

Daten als doppeltes Organisationsproblem

Daten können als ein doppeltes Organisationsproblem verstanden werden. Einerseits erfordert der Umgang mit Daten feste und formalisierte Strukturen: Die Organisationsstrukturen (Personal, Entscheidungsprogramme und Kommunikationswege) müssen demnach angepasst und neugestaltet werden (Kap. 7.2.1). Andererseits führt die Einführung und Institutionalisierung von Daten in der Medienorganisation auch zu neuen Herausforderungen und Irritationen (Kap. 7.2.2). So lassen sich Zuständigkeits- und Akzeptanzprobleme sowie Übersetzungs- und Interpretationskonflikte im Umgang mit den Daten beobachten. Dass der Umgang mit Daten höchst voraussetzungsvoll und entscheidungsbedürftig ist, verdeutlicht folgende Interviewpassage mit dem Datenanalysten, in der er über den Artikelscore und dessen Details spricht: »Und sehe dann halt tatsächlich, wie der Text im Zweifelsfall dann funktioniert hat, ne. Naja gut, du siehst ja schon tatsächlich das ist ehm ((atmet mit dem

189

190

Publikumsbeobachtung im digitalen Wandel

Mund aus)). Die Frage ist immer wie relevant ist, also wie relevant kann die Information für mich sein?«. Es besteht somit, andersherum formuliert, auch die Gefahr, sich »zu viel« mit Daten zu beschäftigen. Für das Herstellen redaktioneller Datenverständnisse scheint die Entwicklung einer Datenkompetenz erforderlich zu sein. Eine Überforderung durch Daten müsse demnach durch das Mitliefern von Interpretationshilfen verhindert werden: Interviewer: »Ist es dann schon eher so, dass es fast eine Reizüberflutung((betont)) ist, wenn man auch über Slack – das hatte ich nämlich mitbekommen [Ja]. Das ist ja schon dann. man kann sich ja dann. nicht verlieren, aber auf jeden Fall sehr, sehr viel beschäftigen mit diesen ganzen Daten und wirklich tief da reingucken und« Online-Chefredakteur: »Also ich glaube wir müssen normalen Redakteuren, die nicht so also deren Hauptberuf nicht die Analyse ist, müssen wir immer eine gute Hilfestellung geben bei der Interpretation«. Dass Daten ein zentrales Organisationsproblem darstellen, veranschaulicht außerdem eine Feldnotiz über ein Treffen des Teamleiters für Social Media mit dem Datenanalysten und dem redaktionellen SEO-Mitarbeiter. Anlass für das Meeting war die Diskussion die Präsentationsform von Daten auf der Redaktionskonferenz: »Im Meeting wird die ›Zahl des Tages‹, samt Darstellungsform und Verantwortlichkeit besprochen. Die Zahl des Tages wurde bisher immer auf der Spätkonferenz um 16.40 Uhr vorgestellt. Vor zwei Wochen wurde die Präsentation jedoch in die Frühkonferenz verlegt, weil der redaktionelle Sinn der Datenpräsentation auf der Spätkonferenz nicht wirklich klar war (Was können die Redakteure so kurz vor Feierabend jetzt noch damit anfangen?). Sie besprechen und fragen sich, was das Ziel und die Intention der Datenpräsentation sein soll. Dabei kommt die Frage auf, ob man auch negative bzw. »schlechte« Daten vorstellen soll – bspw. ein Artikel oder auch ein Thema, welches 0 soziale Interaktionen hervorruft. Sie entscheiden sich dies nicht zu machen, weil es zu groß und zu viel für die Konferenz sei. […] Ein weiterer zentraler Diskussionspunkt ist, wer für die Datenpräsentation zuständig sein soll. Der Datenanalyst erklärt, dass im Idealfall die Datenanalysten dies machen sollen, weil sie sich sowieso mit den Daten beschäftigen und sie dann mehr Sichtbarkeit und einen fest institutionalisierten Platz in der Konferenz bekommen. Darüber hinaus würden hierdurch, so die Hoffnung, die einzelnen Abteilungen mehr zusammenarbeiten. Der redaktionelle SEO-Mitarbeiter und der Teamchef für Social Media stimmen zu. Dateninformationen müssten zudem ›verständlich‹ an die Online-Redaktion weitergeleitet werden, damit die Redakteure die Daten auch für ihre Arbeit nutzen«.

7 Die empirische Fallanalyse

Die Feldnotiz veranschaulicht den Prozess der Institutionalisierung von Daten in der Organisation. Dabei werden zentrale Fragen thematisiert: Sollen auch negative, »schlechte« Daten in der Konferenz vorgestellt werden? Wer soll für die Datenpräsentation zuständig sein? Wie und wann sollen Daten überhaupt präsentiert werden? Und was soll mit der Vorstellung der Daten eigentlich beabsichtigt werden? All diese Fragen zeigen, dass ein reflektierter Umgang mit Daten und diesbezüglich Entscheidungen notwendig sind, um Daten redaktionell anschlussfähig zu machen. In der Organisation müssen, wie die Feldnotiz zeigt, Verantwortlichkeiten für Daten dem Umgang mit Daten geschaffen werden. Diese Notwendigkeit formal festgelegter bzw. formalisierter Datenzuständigkeiten betont ebenfalls der technische SEO-Mitarbeiter im Hinblick auf die automatisierte Datenkommunikation über Slack: »So und da siehste auch schon das Problem mit diesen Dingern. Die setzte einmal auf, niemand ist in Anführungszeichen hauptverantwortlich für die Kommunikation von automatischen Zahlen und Ergebnissen. Ich will mir diesen Stiefel auch nicht anziehen, gebe ich ehrlich zu. Und dann hast du halt mal solche Sachen. Die wichtigsten Leute ((lacht)) sind hier noch Mitglied in diesem Channel dieses Unternehmens. But nobody gives a fuck, so. Wann geben die Leute einen fuck? Wann regen sie sich auf? Wenn du halt eine E-Mail schreibst mit Ausrufezeichen oder im Termin dich hinstellst mit roter Birne und Schweißflecken und sagst: ›Leute wir haben ein Problem. Die Visits gehen runter‹. Das machen wir ungefähr einmal im Jahr. Rufen wir dann auf zu so einem Paniktermin und dann dreht sich mal wieder ein bisschen was«. Der hier eingerichtete Datenkommunikationsbot funktioniert seit längerem nicht mehr richtig. Das letzte Mal daran gearbeitet wurde vor knapp einem Jahr. An diesem Beispiel zeigt sich, dass einmal eingerichtete automatische Kommunikationsprogramme (Bots) nicht verantwortlich für ihr eigenes Funktionieren sein können, da sie nicht in der Lage sind, sich selbst zu reparieren. Auch auf Automation beruhende Kommunikationsstrukturen benötigen, mit anderen Worten, regelmäßig einen Pflege- und Betreuungsbedarf (Reparaturen) durch einen dafür zuständigen Mitarbeitenden. Die interne Zuständigkeit hierfür ist jedoch nicht geklärt (»But nobody gives a fuck«). Es werden vielmehr ein jährlicher Paniktermin oder andere institutionell anerkannte Kommunikationsformen in der Organisation (E-Mail mit Ausrufezeichen oder rote Birne und Schweißflecken während eines Termins) erforderlich, damit »sich mal wieder ein bisschen was [dreht]«. Datenbeobachtungen und -erkenntnisse sowie ihre organisationale Relevanzmachung scheinen demnach eine höhere Akzeptanz- und Annahmewahrscheinlichkeit zu besitzen, wenn sie sich in bestimmten, nicht automatisierten Kommunikationsstrukturen vollziehen, in denen die Informationsmitteilung nicht durch ein Bot (automatisiertes Programm), sondern einen Menschen erfolgt.

191

192

Publikumsbeobachtung im digitalen Wandel

Neben der Festlegung von Verantwortlichkeiten müssen die Organisationsmitglieder (hier: vor allem die Redakteurinnen und Redakteure) generell für die Relevanz von Daten sensibilisiert werden, indem bspw. auf der Redaktionskonferenz ein fester Platz für die Präsentation von Daten eingerichtet wird. Diese »Datensensibilisierungsmission« kann aber durchaus auf Akzeptanzprobleme und Widerstände treffen (Kap. 7.2.3.1) sowie zu Konflikten in der Datenübersetzung und -interpretation führen (Kap. 7.2.3.2), wie die folgenden Ausführungen zeigen.

7.2.3.1

Widerstände und Akzeptanzprobleme im Umgang mit Daten

Nutzungsdaten werden redaktionsintern weder ausnahmslos noch zweifellos akzeptiert. Vor allem bei Print-Redakteurinnen und -Redakteuren können Daten auf Ablehnung treffen, insbesondere dann, wenn sie eigenen Auffassungen und der langjährigen Erfahrung widersprechen. Hierzu erneut die Ausführungen des Online-Chefredakteurs: »Wie interessiere ich Leute überhaupt für solche Informationen? Journalisten stehen ja in dem Ruf, dass sie nicht so wahnsinnig zahlenaffin sind oft. Es macht keinen Spaß. Ich glaube, das ist auch gerade((betont)) für die Print-Kollegen eine krasse Umstellung, weil dies überhaupt nicht gewöhnt sind, sich mit solchen Zahlen zu beschäftigen. Lesedauer eines Textes. Können sie in Print konnten die noch niemals messen und wenn man denen heute sagt ›Ja, 13 Sekunden‹. Da brechen Weltbilder zusammen, weil die das über(haupt). die hatten nie diesen Realitätscheck ((lacht))«. Die Formulierungen des Zusammenbrechens von Weltbildern und des Realitätschecks explizieren den durch die Möglichkeiten der Datenanalyse sich andeutenden Paradigmenwechsel des Publikumsbildes und der Publikumsvorstellungen. Ein datenbasiertes Erkennen von veralteten, möglicherweise verklärten, Vorstellungen über das Publikum und seine Nutzungsweisen und -gewohnheiten birgt zugleich jedoch großes Konfliktpotenzial. Prinzipiell besteht im Haus eine gewisse Grundskepsis gegenüber Daten, wie der Datenanalyst am Beispiel des Einführungsversuchs eines A/B-Artikelüberschriftentests erläutert: »Ehm da sind wir aber eigentlich immer gescheitert, das zu machen, weil es mit den regulären inhaltlichen Arbeitsabläufen irgendwie ständig kollidierte und dann ja wahrscheinlich auch insbesondere bei uns im Haus immer auch eine Grundskepsis herrschte gegenüber Daten, ohne dass man es eben journalistisch eh besser weiß«. Diese Überzeugung eines journalistischen »Besserwissens« verlangsamt folglich den Prozess der Dateninstitutionalisierung in der Medienorganisation und ist für die Etablierung einer Datenkultur im Haus hinderlich. Das Vertrauen in Daten stößt, anders formuliert, nicht selten auf Widerstände. Der redaktionelle SEO-

7 Die empirische Fallanalyse

Mitarbeiter beschreibt die redaktionsinterne Akzeptanz der SEO-Daten als defizitär bzw. ausbaufähig: Die Redaktion sei »nicht wirklich an der SEO-Performance interessiert«. Unmittelbar hieran anschließend verweist der SEO-Mitarbeiter auf die geringe Annahmebereitschaft des wöchentlichen »Social Hits«-Reportings (siehe Kap. 3.3.3): »Das gucken sich nur die wenigsten an. Das weiß ich aus sicherer Quelle«. Ob der Grund hierfür in einer fehlenden Akzeptanz der Daten oder aber in fehlenden zeitlichen Ressourcen für die Beschäftigung mit den Daten liegt, kann an dieser Stelle nicht eindeutig gesagt werden. Der hier untersuchte Fall zeigt jedoch, dass die Akzeptanz und Nutzung von Daten ressortspezifisch und teamleiterabhängig sind: »Das ist total teamleiterabhängig, ob die das wollen, weil wir gefühlt auch nicht so eine Kultur im Haus haben, dass das so offen angenommen wird oder man dem so vertraut, dass man da gut sich mit entwickeln kann. Und ich verstehe auch, dass in bestimmten Bereichen es einfacher und in anderen schwieriger [ist]. Je nachrichtlicher und härter von der Berichterstattung das wird, desto irrelevanter wird es glaube ich auch, ob man das macht oder nicht« (Datenanalyst). Die Relevanz und Aussagefähigkeit von Daten werden folglich je nach Ressort unterschiedlich gewichtet. Datennutzungspraktiken (formaler oder informeller Art) scheinen sich demzufolge team- und ressortspezifisch zu etablieren, was Bildung lokaler (Daten-)Rationalitäten begünstigt, die überlokal (ressort- und teamübergreifend) jedoch wiederum in Konflikt zueinander stehen können. Im Online-Print-Vergleich seien die Print-Redakteurinnen und -Redakteure zwar an den Daten interessiert, eine tatsächliche Nutzung der Daten fände hier jedoch nicht statt, so der Online-Chefredakteur. Deswegen werde in der Rückspiegelung von Daten an sie ausschließlich mit der Methode der positiven Verstärkung gearbeitet: »Ach interessiert [an den Daten; Anm. K.P.] sind immer alle. Und dann heißt es auch ›Schick mir mal eure Tools‹ und höhöhö. Nutzen tut die am Ende fast((betont)) keiner, glaube ich. Und wir arbeiten bei Print-Kollegen nur((betont)) mit der Methode der positiven Verstärkung. Das wir also nur weitergeben, wenn was wirklich besonders toll war. Und sonst sagen wir es gar nicht, weil es ist. also das ist. Vielleicht ist das auch falsch((schlägt auf die Stuhllehne)) und wir müssten da mehr hinterher sein. Aber das ist einfach mühsam. Ja«. Besonders anschaulich ist hier die Reflexion am Ende der Interviewpassage. So wird die Datenkommunikation an die Print-Redakteurinnen und -Redakteure, die bisher auf der Methode der positiven Verstärkung beruht, hinterfragt. »Vielleicht ist das auch falsch«, weil sie hierdurch – so den Gedanken weiterführend – in ihrem traditionellen Publikumsbild bestätigt werden und verharren. Ein bewusstes Irritieren traditioneller Annahmen durch die Daten jedoch »ist einfach mühsam« und

193

194

Publikumsbeobachtung im digitalen Wandel

mit viel Überzeugungsarbeit verbunden. Mit der Methode der positiven Verstärkung besteht, anders formuliert, immer auch das Risiko, dass Daten für Selbstresp. eigene (De-)Legitimierungszwecke genutzt werden, die dem redaktionellen Datenverständnis des Online-Chefredakteurs entgegenstehen. Um einem falschen Datenverständnis entgegenzuwirken resp. ein sich wandelndes Publikumsbild zu fördern und redaktionsweit durchzusetzen, werden entsprechende Print-Artikel in der Online-Ausgabe bewusst nicht berücksichtigt. Hierzu zurück in die Interviewpassage: Interviewer: »Aber langfristig wird sich das schon wahrscheinlich ändern müssen((betont)), oder?« Online-Chefredakteur: »Ja. Das auf jeden Fall. Und die merken ja auch schon allein an der Auswahl, die wir treffen aus der Zeitung. Es gibt ja total viele Sachen, die uns schnurz egal sind, die wir überhaupt nicht anfassen und niemals irgendwo groß präsentieren. Und dann fragen natürlich Kollegen auch: Wieso findet mein Artikel bei euch nicht statt? Und dann ist natürlich die Antwort: Ist zu spät. Liest jetzt keiner mehr. Ist so geschrieben, dass er sich nicht gut verkaufen lässt und so. Und das ist natürlich dann auch ein Feedback in Form von Nichtmachen oder Ignorieren. [Hm_hm]. Ja«. Mit dieser »Feedbackmethode« des Ignorierens von Artikeln sollen PrintRedakteurinnen und -Redakteure folglich dafür sensibilisiert werden, dass mit der Netzdistribution (neue) Nutzungsgewohnheiten des Publikums sichtbar werden, die die Auswahl von Inhalten mitbestimmen. Zusätzlich müssen weitere Bedingungen (z.B. die Vermarktbarkeit) erfüllt sein, damit ein Print-Artikel online gestellt wird. In Ergänzung zu der weiter oben vorgestellten Methode der positiven Verstärkung, erläutert der technische SEO-Mitarbeiter, dass eine zu starke Vorinterpretation der Zahlen deren Akzeptanz und Annahmewahrscheinlichkeit allerdings reduziere: »Und die Erfahrung zeigt es bringt nichts den Leuten zu sagen ›Hey macht jetzt das und das‹. Sondern: ›Guckt mal die machen es so und so. Was könnten wir denn tun?‹. Und also es bringt nichts sozusagen die Zahlen vorzuinterpretieren behaupte ich, sondern du musst den Leuten immer noch den letzten Punkt geben, dass sie selber so ›Ah okay wir sehen ZEIT ONLINE macht ganz viel in dem Bereich‹. Die machen zum Beispiel ganz viel über Games. […] Und da könnte man den einfach mal vorkauen: ›Guckt mal wir haben so viele Artikel zu Computerspielen gemacht. Wir sehen bei der Konkurrenz die wachsen in Digital. Die machen so viel. Ist da was drin?‹ Und dann sagen die ›Ah stimmt, wenn die viel zu Games machen. Hey, würde es Sinn machen wir sollten eine ComputerspielKolumne machen?‹ Wow, super Idee ((sarkastisch)). Wie seid ihr da draufgekom-

7 Die empirische Fallanalyse

men? Finde ich total toll. Also es bringt meiner Meinung nach nichts, die Zahlen schon so vorinterpretiert fertig hinzulegen und ›Hier mach‹. Weil die Leute sich dann relativ schnell gezwungen fühlen und dann ehm. ich glaube es macht mehr Spaß, wenn man selbst auf eine Idee kommt, etwas zu tun. Das funktioniert besser«. Den Redakteurinnen und Redakteuren soll folglich der letzte Interpretationsschritt und die daraus abzuleitende Handlung überlassen werden – in der Hoffnung, sie für Daten und ihre Erkenntnispotenziale zu interessieren und hierdurch ihre Datenakzeptanz zu steigern. Statt eine datenbasierte Handlungsanforderung zu formulieren (»Hey macht jetzt das und das«), die wahrscheinlich auf Ablehnung trifft und als Autonomieeingriff interpretiert wird, soll mithilfe der Daten vielmehr auf bestimmte Beobachtungen hingewiesen werden, aus denen sie selbst redaktionelle Schlüsse ableiten sollen (»Hey, würde es Sinn machen wir sollten eine ComputerspielKolumne machen?«). In diesem Kontext lässt sich auch von einer verdeckten oder hintergründigen Kommunikations- und Interpretationsstrategie von Daten sprechen, weil die Aufmerksamkeit auf bestimmte Daten gezielt gelenkt und die daraus abzuleitende Interpretation sozusagen vorprogrammiert wird, um – so in letzter Instanz – Widerstände und Akzeptanzprobleme im Umgang mit Daten zu reduzieren. Die Datenakzeptanz ist individuell betrachtet unterschiedlich stark ausgeprägt. Der technische SEO-Mitarbeiter benutzt Daten dafür, um der Redaktion einen »harten Ist-Zustand« darzustellen: »Das gelingt mir manchmal gut, manchmal überhaupt nicht. Problem ist das liegt halt immer auch stark an den Personen, mit denen du diskutierst, mit denen du sprichst«. Im Gegensatz zu den Redakteurinnen und Redakteuren könne man den Technikern, SEO-Mitarbeitern und Entwicklern die Daten schon mal »einfach so hinklatschen« und sie damit »schon so ein bisschen ärgern«. Sie verfügen qua Stelle demzufolge über eine hohe Datenakzeptanz, auch weil sie tagtäglich mit Nutzungsdaten arbeiten. Dieses direkte Hinweisen und Ansprechen auffällig negativer Daten stößt bei Redakteurs- und Ressortleiterstellen prinzipiell jedoch auf Ablehnung, wie der Datenanalyst erzählt: »Das wird erfahrungsgemäß schlecht angenommen, wenn man auf die zugeht und sagt: ›Ja guck mal hier läuft, funktioniert was nicht‹«. Das Ressort müsse sich vielmehr von sich aus mit den Daten beschäftigen oder zumindest ein Interesse an einer Auseinandersetzung zeigen, erklärt er weiter. Eine notwendige Entwicklung im Haus sei diesbezüglich die Etablierung einer »dialogischen Struktur«.

7.2.3.2

Konflikte in der Datenübersetzung

Daten sind nicht immer eindeutig. Die Beschäftigung mit Daten kann redaktionsintern mitunter zu verschiedenen Interpretationen und konträren Auffassun-

195

196

Publikumsbeobachtung im digitalen Wandel

gen (Lesarten) führen. So können zwei Redakteure einen Artikelscore unterschiedlich interpretieren. Während der erste Redakteur einen Artikelscore von 500 als schlecht bewertet, kann eine zweite Redakteurin die Auffassung vertreten, dass dieser Score relativ und kontextualisierend zu interpretieren sei, weil der Artikel womöglich ein Nischenthema bedient, welches generell wenig Nutzerinnen und Nutzer interessiert oder diese spezifische Nutzergruppe prinzipiell weniger mit dem Artikel interagiert. Wird in diesem fiktiven Beispiel die Interpretation des Artikelscores von einer gleichen Stelle geleistet (Redakteursstelle), so lassen sich in der hier untersuchten Medienorganisation auch verschiedene stellen- und abteilungsübergreifende Datenverwertungsinteressen nachzeichnen. Die Redaktion interpretiert und nutzt Online-Nutzungsdaten bspw. auf eine andere Weise als die Abteilung für Werbung und Vermarktung. Diese unterschiedlichen Interpretationsweisen und Datenübersetzungen können mitunter zu Konflikten in der Auswertung der Daten führen. Besonders anschaulich zeigt dies folgende Passage aus dem Interview mit dem Online-Chefredakteur, in der er auf die Frage antwortet, für wie aussagekräftig er Daten hält: »((Fängt an zu lachen)) es gibt ja diesen schönen Spruch ›Glaube keiner Statistik, die du nicht selbst gefälscht hast‹ [Interviewer: Ja. (lacht)]. Ähm ist schon ein zweischneidiges Schwert. Wir hatten neulich einen Streit oder nein keinen Streit, aber eine Diskussion über eine Statistik. Jetzt muss ich nochmal kurz überlegen äh, worum es da ging. Es war eine Auswertung der Ressortseiten und wie weit die Leute da stöbern oder nicht. Und das Produktmanagement fand da viele Klicks positiv – jetzt sehr verkürzt gesagt. Und mein Argument war dann ›Naja, Moment, aber wenn die Leute viel klicken, kann das auch heißen sie finden nicht auf Anhieb das, was sie suchen. Und deswegen klicken sie. Vielleicht sind wir da einfach schlecht in der Nutzerführung‹. Und das ist ein super Beispiel, das illustriert, dass Daten alleine nicht aussagekräftig sind und die Interpretation oder dann wirklich den Nutzungsmotiven auf den Grund zu gehen, das ist echt eine Herausforderung. Da sind wir auch noch nicht so weit, wie wir das alle gerne wären. […] Also es ist einfach echt mörderkompliziert, leider«. Daten allein sind– um die Worte des Online-Chefredakteurs aufzugreifen – nicht aussagekräftig, sondern bedürfen der Interpretation. Die Interpretation von Daten kann jedoch, wie der hier geschilderte Fall zeigt, unterschiedliche Lesarten erzeugen. Während das Produktmanagement die Quantität der Daten (viele Klicks) als positiv bewertet, steht der Online-Chefredakteur dieser Interpretation kritisch gegenüber und fragt sich, ob diese quantitative Größe mit etwas qualitativ Gutem gleichgesetzt werden kann oder ob die Quantität nicht als ein Indikator dafür zu verstehen sei, dass etwas nicht auf Anhieb gefunden wurde – und dementsprechend die Daten auf eine Dysfunktionalität hinweisen. Dieses Beispiel zeigt, dass in der Aneignung von Daten durchaus unterschiedliche, miteinander konfligieren-

7 Die empirische Fallanalyse

de Datenverwertungsinteressen bestehen können. Eine organisationsweite Datenaneignung ist dementsprechend alles andere als vorprogrammiert oder gesichert, sondern muss vielmehr durch diskursive Praktiken hergestellt werden. Versuche einer datenbasierten Entscheidungs(de-)legitimierung sowie deren Akzeptanz verlaufen, anders formuliert, nicht immer widerstandslos. Da die Auswertung der Daten durch zwei gegensätzliche und unvereinbare Lesarten erheblich gestört wird, kommt die Frage nach der Deutungshoheit in der Dateninterpretation auf: Wer entscheidet, wie die Daten »final« oder »richtig« zu interpretieren sind? Hierzu zurück in die Interviewpassage: Interviewer: »Hattet ihr da jetzt schon Konsens gefunden in dem Gespräch?« Online-Chefredakteur: »Nein ((lacht)). Darüber nicht. Da war jetzt so Meinung gegen Meinung. Und da weiß ich auch leider nicht so. am Ende ist es dann immer der, der am lautesten schreit, hat Recht. Aber das ist ja auch nicht klug. Ich habe noch keine Lösung. Wenn du im Laufe deiner Forschung auf eine stößt, gib mir gerne Bescheid«. Bei Konflikten in der Datenübersetzung behauptet sich demnach jene Interpretation mit dem stärksten (»lautesten«) Durchsetzungsvermögen einer Person oder Abteilung. Die Einsicht, dass dies nicht klug sei, zurzeit jedoch keine andere Lösung vorläge, verweist auf die Notwendigkeit einer Formalisierung der Datenauswertung. D.h. es müssen Entscheidungsträger formal festgelegt werden, deren Entscheidung von allen anerkannt und akzeptiert wird – auch bzw. vor allem in Konfliktsituationen. Zugleich scheint aber auch das Schaffen von Räumen und Möglichkeiten für eine diskursive Auseinandersetzung mit den Daten unausweichlich, um sich auf eine Lesart und daraus ableitbare Schlüsse zu verständigen. Möglicherweise besteht das Ergebnis solch diskursiver Praktiken auch in dem Erzielen von Einigung darüber, dass die Herausbildung unterschiedlicher, abteilungsspezifischer Lesarten und Logiken (»lokaler Rationalitäten«) in der Dateninterpretation für die Medienorganisation hochfunktional sind und verschiedene Zwecke erfüllen. So erscheint es nur plausibel, dass die Abteilung für Werbung und Vermarktung Daten nach einem anderen Zweck auswertet (wirtschaftliches Interesse an Daten) als bspw. die Online-Redaktion (redaktionelles Interesse an Daten). Ergänzend hierzu lässt sich festhalten, dass der Umgang mit den Daten auch nur bis zu einem gewissen Grad formalisierbar zu sein scheint. Die Formalisierung konkreter, teils situationsspezifischer Datenübersetzungen und -interpretationen ist demzufolge nicht möglich. Dies wiederum lenkt den Blick auf die Notwendigkeit und die Funktionalität der Herausbildung informeller Praxen in der Datenaneignung.

197

198

Publikumsbeobachtung im digitalen Wandel

7.2.4

Zusammenfassung: Publikumsbeobachtung und Organisationsgestaltung

Das Betreiben von Publikumsbeobachtung unter Internetbedingungen erfordert organisationale Restrukturierungsmaßnahmen. Das Medienunternehmen im Ganzen sowie die Redaktion im Besonderen muss im Zuge ihres »digital turn« ihre Organisationsstrukturen insofern neugestalten, als dass viele Regelungsbedarfe in der Erhebung, im Umgang und in der Auswertung von Nutzungsdaten sichtbar werden. Markante Transformationen betreffen das Personal, die redaktionelle Entscheidungsprogrammierung und die Kommunikationswege (Kap. 7.2.1). So müssen spezielle Abteilungen, Teams und Stellen eingerichtet werden, die sich intensiv mit Daten beschäftigen, diese auswerten und für die Redaktion sowie weitere Abteilungen anschlussfähig machen. Es werden, mit anderen Worten, neue Kompetenzen, Expertisen und Verantwortlichkeiten bei der Einführung von Daten in das Redaktionssystem notwendig. Gezeigt wurde dies am Beispiel folgender Teams: Audience Development, Social Media und Leserdialog und SEO (Suchmaschinenoptimierung) (Kap. 7.2.1.1.). Wird die Entscheidungsprogrammierung der Redaktion in den Blick genommen, so fällt auf, dass mit den Daten neue redaktionelle Konditional- und Zweckprogramme verfolgt werden (Kap. 7.2.1.2). Neben ihrer Funktion des internen Alarmschlagens (Registrierung bestimmter Schwellenwerte) werden Daten insbesondere zur Weiterentwicklung der Ressorts, Optimierung einzelner Inhalte und generell als ein Instrument zur (De-)Legitimierung von Entscheidungen genutzt. Für den redaktionsinternen Umgang mit den Daten werden, so zeigte sich des Weiteren, neue Kommunikationswege erforderlich, die den Redakteurinnen und Redakteuren die Datenaneignung erleichtern und sie für die Relevanz von Daten im redaktionellen Kontext sensibilisieren sollen (Kap. 7.2.1.3). So wurden neben einem festen Platz in der Online-Redaktionskonferenz Ressortquartalsgespräche und mailbasierte Reportings als zentrale Datenkommunikationsstrukturen etabliert. Auf einer täglichen Basis werden zudem publikumsbezogene Nutzungsdaten in Form von Live-Daten und automatisierten Datenbenachrichtigungen an die Redaktionsmitglieder kommuniziert. Die Herstellung von (redaktionellen) Datenverständnissen zeichnet sich mit Blick auf die Binnenperspektive als eine zentrale Herausforderung im Umgang mit den Daten ab (Kap. 7.2.2). Denn durch die Erhebung von Daten werden entsprechende Erkenntnisse und Verständnisse nicht automatisch mitgeliefert. Sie durchlaufen vielmehr komplexe Aufbereitungs- sowie Übersetzungs- und Interpretationsprozesse, durch die sie redaktionell anschlussfähig gemacht werden (Kap. 7.2.2.1). Für die Förderung einer Datenkultur und entsprechender Datenlesekompetenzen werden Daten fest im redaktionellen Alltag verankert (Kap. 7.2.2.2). Daten rücken, mit anderen Worten, von der Peripherie (vereinzelte Grenzstellen oder

7 Die empirische Fallanalyse

Auslagerung der Beschäftigung mit Daten in die Umwelt) ins Zentrum der Redaktion. Dieser Kulturwandel innerhalb der Medienorganisation verläuft dabei nicht widerstandslos. Daten können demzufolge auch als ein doppeltes Organisationsproblem verstanden werden (Kap. 7.2.3). Neben der Frage und der Herausforderung des Organisierens von Daten (Etablierung bzw. Restrukturierung entsprechender Organisationsstrukturen) lässt sich redaktionsintern auch Datenablehnung – insbesondere unter Print-Redakteurinnen und -Redakteuren – beobachten (Kap. 7.2.3.1), da sich mit dem Vorhandensein und Auswerten von Daten ein Paradigmenwechsel im Publikumsbild ankündigt. Daten irritieren, mit anderen Worten, traditionelle Publikumsvorstellungen, stellen diese infrage und lassen in der Folge »Weltbilder zusammenbrechen«. Die Redaktionsmitglieder von Daten zu überzeugen, stellt dementsprechend eine große Herausforderung dar. Erschwert werden diese Datenüberzeugung sowie die konkrete Datenübersetzungspraxis zudem durch den Umstand, dass Daten mehrdeutig sein und unterschiedlich interpretiert werden können. So lassen sich verschiedene, abteilungsspezifische Datenverwertungsinteressen innerhalb der Medienorganisation nachzeichnen, die die Verständigung auf eine gemeinsame Interpretation von Daten verkomplizieren – oder gar unmöglich machen. Die Auseinandersetzung mit Daten führt intern folglich nicht selten zu konfliktreicher Anschlusskommunikation und Diskussionen über das »richtige« Auswerten von Daten (Kap. 7.2.3.2). Die Datenauswertung ist daher auch auf informelle Praktiken angewiesen, wie das Beispiel der Erstellung des »Social Hits«-Reportings zeigt.

7.3

Publikumsbeobachtung als Organisationsbeobachtung

Im vorherigen Kapitel wurde gezeigt, dass das Betreiben von Publikumsbeobachtung gleichzeitig immer auch Organisationsgestaltung und -anpassung bedeutet resp. erforderlich macht. Hieran wird im Folgenden angeschlossen und eine weitere Dimension der »Verdatung« vorgestellt: Nämlich Publikumsbeobachtung als eine dazu komplementär verlaufende Organisationsbeobachtung zu verstehen. Denn die Beobachtung des Publikums anhand quantifizierbarer Kennzahlen ermöglicht nicht nur neue Erkenntnisse über das Publikum, sondern schafft – binnenperspektivisch gesehen – auch die Voraussetzungen für eine neue, datenbasierte Form der Organisationbeobachtung, die notwendige Anpassungs-, Weiterentwicklungs- und Optimierungspotenziale im digitalen Umfeld markiert. So besteht seitens der Online-Chefredaktion die Erwartung, dass sich die Redakteurinnen und Redakteure mit den Daten beschäftigen, weil jene redaktionelle Selbstbeobachtung im Spiegel der Daten als überlebenswichtig für die Medienorganisation angesehen wird. Hierzu der Online-Chefredakteur:

199

200

Publikumsbeobachtung im digitalen Wandel

»Ich will, dass die Kollegen aus der Redaktion sich damit beschäftigen, weil das ist kein Selbstzweck was wir hier machen. Wir brauchen unsere Leser, davon leben wir. Letzten Endes sind die auch die, die unsere wirtschaftliche Profitabilität gewährleisten. Und die wiederum ist die Grundlage dafür, unabhängigen Journalismus zu betreiben. Deswegen finde ich wichtig, dass die Leute sich damit beschäftigen. Was wird gelesen? Wer liest uns denn? Und warum? Aus welchen Motiven?«. Daten liefern demzufolge wichtige, für die Medienorganisation überlebensnotwendige, Informationen über das Publikum. Diese hier angesprochene Beziehung zum Publikum kann unter Internetbedingungen mittels Vermessung sichtbar, beobachtbar und nicht zuletzt auch optimierbar gemacht werden. Da das Publikum für das Massenmedium aus wirtschaftlicher Sicht überlebensnotwendig ist (»Wir brauchen unsere Leser«), stoßen die Möglichkeiten der Publikumsbeobachtung und verdatung im Netz dementsprechend auf ein großes Interesse. Die Selbstverortung im Spiegel der Daten wird als eine neue und zukünftig immer relevanter werdende redaktionelle Praxis angesehen (siehe auch Kap. 7.3.3). Dabei gilt es nichtsdestotrotz den »richtigen Mix« im Umgang mit den Daten zu finden, wie der OnlineChefredakteur anmerkt: »Aber es soll auch nicht zu viel sein. Und, ja, vielleicht, ich weiß nicht. Manchmal machen wir es vielleicht zu viel, manchmal zu wenig«. Mit den Verdatungs- und Vermessungsmöglichkeiten der digitalen Infrastrukturen werden publikumsbezogene Nutzungsdaten also gleichsam nach innen in relevante redaktionelle Belange und Erfordernisse übersetzt. Nicht mehr nur das Publikum ist anhand von Daten beobachtbar, sondern auch das innerredaktionelle Geschehen. Mit diesem Fokus auf die Binnenperspektive der Redaktion wird im Folgenden beschrieben, welche Folgen jener Verdatung sich redaktionsintern beobachten lassen. Dabei wird zunächst beschrieben, welche neuen Sichtbarkeiten und Beobachtbarkeiten über das redaktionelle Geschehen im Vergleich zu Zeiten der reinen Print-Distribution erzeugt werden (Kap. 7.3.1). Im Anschluss daran wird der Blick auf das redaktionelle Beziehungsgefüge gerichtet und auf neue Wettbewerbsund Konkurrenzverhältnisse verwiesen, die durch jene datenbasierten Einsichten und Sichtbarkeiten entstehen (Kap. 7.3.2). Abschließend werden die im Zuge der Redaktionsverdatung sich etablierenden (informalen) Erwartungen hinsichtlich eines dateninformierten Arbeitens und einer Selbstverortung im Spiegel der Daten vorgestellt (Kap. 7.3.3).

7 Die empirische Fallanalyse

7.3.1

Das Öffnen der redaktionellen Blackbox: Das Erkennen  von Beobachtungslatenzen

Kann unter Print-Bedingungen nur vereinzelt und durch aufwändige Leserbefragungen nachvollzogen werden, wie oft und wie lange ein Artikel oder auch ein Ressort insgesamt gelesen wird, ist die Publikumsbeobachtung unter Internetbedingungen auf keine derart zeitintensiven und nachgelagerten Prozesse angewiesen. Die Vermessung findet zeitgleich mit dem Akt des Rezipierens statt. Da zusätzlich qua digitaler Infrastruktur das gesamte Angebot verdatet und vermessen werden kann, wird gleichsam die redaktionelle Blackbox geöffnet. Welche Inhalte unter Print-Bedingungen wie funktionierten, erwies sich für die Redaktion bekanntermaßen stets als eine große Unbekannte – eben als eine Blackbox –, weshalb sich die Redakteurinnen und Redakteure größtenteils mit Spekulationen über ihr Publikum, deren Interessen und Nutzungsgewohnheiten begnügen mussten. Die mit der Internetdistribution einhergehenden Möglichkeiten der Verdatung erlauben nun das Öffnen jener redaktionellen Blackbox.8 Damit ist gemeint, dass mit den Daten neue Einsichten und Beobachtbarkeiten in sowohl das Nutzungsgeschehen als auch das Redaktionsgeschehen erzeugt werden können. Vereinfacht gesagt können zuvor nicht einsehbare Prozesse nun einsehbar gemacht werden. Hierzu eine bereits weiter oben präsentierte Interviewpassage, in der der OnlineChefredakteur diese Öffnung der redaktionellen Blackbox indirekt beschreibt und dabei auf einen folgenreichen Paradigmenwechsel hinweist: »Ich glaube, das ist auch gerade((betont)) für die Print-Kollegen eine krasse Umstellung, weil dies überhaupt nicht gewöhnt sind, sich mit solchen Zahlen zu beschäftigen. Lesedauer eines Textes. Können sie in Print konnten die noch niemals messen und wenn man denen heute sagt ›Ja, 13 Sekunden‹. Da brechen Weltbilder zusammen, weil die das über(haupt). die hatten nie diesen Realitätscheck ((lacht))«. Daten schaffen in erster Linie neuartige Bezugsrealitäten, wie hier am Beispiel der Print-Redakteurinnen und -Redakteure gezeigt wird. Die aus den Daten gewonnenen Informationen können mitunter stark irritieren und bislang etablierten, traditionellen (Publikums-)Vorstellungen in hohem Maße widersprechen. Daten erlauben ferner Auskünfte über die »Funktionsweise« und Rezeption von Inhalten. D.h. es kann nachvollzogen werden, wie die Redaktion im Ganzen, aber auch Inhalte einzelner Ressorts oder einzelner Redakteursstellen, funktionieren. »Funktionieren« bedeutet in einem redaktionellen Verständnis, wie weiter oben erläutert: »(…) Da sind viele Leser drin, die gut interagieren und da lange drinbleiben und sich 8

Es können hierdurch nun Beobachtungslatenzen sichtbar gemacht werden. Siehe zum Begriff Kühl/Muster (2016: 44ff.).

201

202

Publikumsbeobachtung im digitalen Wandel

damit beschäftigen. (…) Und das muss ja unser Ziel sein, dass wir Sachen schreiben, die die Leser interessieren«. Daten können demzufolge nicht nur quantitativ den (Miss)Erfolg des Inhalts bestimmen, sondern auch qualitativ in eine vom Ressort oder Redakteur erbrachte Form von Leistung übersetzt werden. Diese Dateneinsichten über Erfolg oder Misserfolg und über eine daraus ableitbare Leistung sind redaktionsweit einsehbar und nicht spezifischen Stellen (Vorgesetzte etc.) vorbehalten. Die redaktionelle Blackbox wird also in dem Sinne geöffnet, dass nun jede Redakteurin und jeder Redakteur sowie jedes Ressort sich wechselseitig im Spiegel der Daten und im Hinblick auf die erbrachte »Leistung« beobachten und vergleichen kann, wodurch wiederum neue interne Vergleichs- und Bewertungsmöglichkeiten entstehen. Jene nun verfügbaren Daten und die daraus gewonnen Erkenntnissen schaffen außerdem die Voraussetzung für neue (De-)Legitimierungsmuster. Hierfür kann das Beispiel einer datenbasierten Entscheidungslegitimierung über die Veröffentlichung von Print-Inhalten im Online-Angebot erneut angeführt werden: »Und die merken ja auch schon allein an der Auswahl, die wir treffen aus der Zeitung. Es gibt ja total viele Sachen, die uns schnurz egal sind, die wir überhaupt nicht anfassen und niemals irgendwo groß präsentieren. Und dann fragen natürlich Kollegen auch: Wieso findet mein Artikel bei euch nicht stand? Und dann ist natürlich die Antwort: Ist zu spät. Liest jetzt keiner mehr. Ist so geschrieben, dass er sich nicht gut verkaufen lässt und so« (Online-Chefredakteur). In der redaktionellen Selbstbeobachtung im Spiegel der Daten werden also auch Argumentations- und Rechtfertigungshilfen gewonnen, wie der Online-Chefredakteur weiter erläutert: »Es ist ja schon manchmal so, dass man als Chefredaktion Kollegen triezt, weil man sagt ein Thema ist wichtig oder sowas. Und dann ist es für mich natürlich im Nachhinein eine Rechtfertigung, eine Argumentationshilfe, wenn ich dann sagen kann: ›Guck, haste gemacht, ich fand super, dass du es gemacht hast, obwohl du es nicht machen wolltest. Und siehe da es hat sich voll gelohnt‹. Sowas mache ich dann schon. Ja. Oder wenn ich vorher sage ((schlägt auf die Stuhllehne und amüsiert sich)) gestern: Diskussionen mit dem Sport. Die haben eine Push rausgeschickt und die Push-Dachzeile lautete ›Umbruch‹. Ich halte das für eine total beschissene Dachzeile ehrlich gesagt, da muss es sowas wie der Name des Fußballvereins rein oder sowas. Und ich glaube, dass die Push nicht gut gelaufen ist, weil sie nicht gut getextet war. Und ich habe denen sofort gesagt – ich habe die Push bekommen auf mein Telefon – ich hab gesagt ›Boa ich. hm. kann man auch schöner machen, gebt euch mal mehr Mühe‹. Und dann würde ich jetzt – das war erst gestern, heute hatte ich noch keine Zeit – würde ich schon nochmal in die Push reingucken und dann auch sagen ›Guck, ist auch nicht gelesen worden‹. Ist doch schade((betont)), weil da sitzen ja auch Leute, die haben sich mehrere

7 Die empirische Fallanalyse

Stunden Arbeit gemacht, um diesen Artikel zu schreiben. Dann will ich den doch auch gut verkaufen. Ja. Also so benutze ich Zahlen auch ((lacht))«. Das Öffnen der redaktionellen Blackbox führt folglich zu (Daten-)Einsichten, die offensichtlich nur schwer zu ignorieren sind. Die Ablehnung von Daten wird zumindest begründungspflichtig. Jene Daten und neue Sichtbarkeiten sind dabei nicht nur – wie das obige Beispiel zeigt – für die Chefredaktion oder die OnlineRedaktion interessant, sondern generell für Vorgesetzte, die Geschäftsleitung, die Abteilung für Werbung und Vermarktung, Werbetreibende oder eben auch die weiter oben angesprochene die Print-Redaktion. Es scheint allgemein ein großes Interesse seitens »Dritter« an den Daten aus der redaktionellen Blackbox zu bestehen (siehe hierzu auch Kap. 7.4). Mit der Öffnung der redaktionellen Blackbox werden ferner viele Optimierungsmöglichkeiten und -bedarfe sichtbar, die nicht selten zu organisationalen Restrukturierungsprozessen führen. Hierzu ein Beispiel aus der Abteilung für Social Media, in der Daten auch dafür genutzt werden, Arbeitsressourcen zu optimieren und sich grundsätzlichen Fragen zur finanziellen Ausrichtung zu stellen: »Es ist immer noch solange was drinsteckt, muss man gucken, wie viel man noch reinsteckt. Und wir sind gerade was Social Media angeht, versuchen wir uns zu professionalisieren. Das wir halt wesentlich mehr eine Kosten-NutzungRechnung daraus machen: Wie viel Ressourcen stecken wir rein? Was kriegen wir nachher raus? Und das halt zu klären: Wollen wir wirklich nur Traffic? Wollen wir halt Imagepflege, Markenpflege? Geht’s auf die Abos halt mehr? Müssen wir mehr mit Plus-Artikeln da arbeiten? Da schauen wir gerade drauf. Und das gleiche gilt für die anderen Kanäle« (Teamchef Social Media). Ebenso stellt sich der Teamchef für Social Media die Frage, wie hinsichtlich der Redaktion und Publikation von Inhalten auf sozialen Plattformen strukturell mit Veränderungen in den Nutzungsgewohnheiten des Publikums umgegangen werden soll: »Und das ist halt eine Veränderung, bei der wir halt gucken müssen, wie wir damit umgehen. (…) Was fangen wir damit an, dass halt irgendwie ein Bild über Instagram fünfmal so gut läuft und fünfmal so viele Interaktionen hat [wie bei Facebook; Anm. K.P.]? Wobei du überlegen musst: Fünfmal so viele Interaktionen, wir haben bei Facebook potenziell ((…))) Fans und bei Instagram im Moment ((…)) Fans. Das heißt fünfmal so viele Interaktionen bei einem Fünftel der oder einem Siebtel der Leute, die da sind. Das heißt die Interaktionsrate, die Leute die was machen, ist viel höher. Also das mit dem Bild hat jeder Zehnte interagiert von den Instagram-Fans«.

203

204

Publikumsbeobachtung im digitalen Wandel

Durch die Erhebung und Auswertung von publikumsbezogenen Nutzungsdaten werden insgesamt betrachtet Einsichten in das »Funktionieren« von Inhalten generiert, wodurch wiederum die redaktionelle Arbeit bewertbar und vergleichbar gemacht wird. Die Analyse von Daten macht, anders formuliert, auf redaktionelle Funktionalitäten und Dysfunktionalitäten aufmerksam, weshalb Daten nicht zuletzt auch dazu genutzt werden, um organisationsinterne Strukturen und Entscheidungen zu (de-)legitimieren. Dies kann bspw. bestimmte redaktionelle Arbeitsweisen, Publikationsentscheidungen, inhaltliche Themenschwerpunktsetzungen oder aber auch den personellen Auf- oder Abbau bestimmter Abteilungen (Ressorts) betreffen.

7.3.2

Von der Publikumsbeobachtung zur Mitarbeiterbeobachtung: Steigerung von internen Wettbewerbs- und Konkurrenzverhältnissen als nicht-intendierte Folge

Daten erzeugen redaktionsintern, wie im vorherigen Kapitel erläutert, neue Bezugsrealitäten, wodurch wiederum neuartige wechselseitige Beobachtungs- und Vergleichsmöglichkeiten entstehen. In das Redaktionssystem und redaktionelle Beziehungsgefüge wird demzufolge eine zusätzliche Wahrnehmungs- und Beobachtungsebene eingebaut, die auf Daten beruht. Datenbasierte Beobachtungen erfolgen somit nicht (mehr) ausschließlich mit Blick auf die Umwelt der Redaktion (Publikum und Mitbewerber), sondern beziehen sich auch auf das System selbst, um redaktionelle Prozesse und Strukturen zu optimieren sowie Entscheidungen zu (de-)legitimieren. Der Begriff Verdatung kann im Kontext der massenmedialen Publikumsbeobachtung als ein komplementärer Prozess verstanden werden, bei dem nicht nur das Publikum, sondern auch die Redaktion verdatet wird. Hierbei kommt es zu intendierten Folgen, aber auch zu nicht-intendierten Folgen. Eine intendierte Folge ist bspw., dass durch die Einführung des Artikel-scores (siehe Kap. 7.1.1.2) neue Vergleichs- und Bewertungsmöglichkeiten journalistischer Inhalte (Artikel) entstehen. Thematisch unterschiedliche Artikel können nun durch das Aggregieren unterschiedlicher Nutzungsdaten anhand eines Wertes miteinander verglichen werden. Dieser Wert sowie eine tiefere Beschäftigung mit den ihm zugrundeliegenden Daten bestimmt über den Erfolg oder Misserfolg eines veröffentlichten Inhalts mit und markiert gleichzeitig Optimierungspotenziale. Der Artikelscore übersetzt die Daten in eine erbrachte journalistische Leistung, die wiederum mit anderen Leistungen (Artikelscores) verglichen werden kann. Diese redaktionsinterne Vergleichsmöglichkeit von Leistung führt zu einer Entwicklung (Folge), die zunächst nicht intendiert war: die Steigerung von internen Wettbewerbs- und Konkurrenzverhältnissen. Hierzu ein Blick in das Interview mit dem Datenanalysten:

7 Die empirische Fallanalyse

»Als wir den eingeführt hatten, den Scoring-Wert, war tatsächlich der Gedanke erst mal, dass sie sich nicht vergleichen. […] Deswegen haben wir die Berechnung des Scoring-Werts eigentlich ((betont)) zu Beginn auch so gestaltet oder im Moment ist es immer noch so, dass die Werte in den Ressorts nur verglichen werden, ja? Also dass du sagst Wissenstexte werden mit Wissenstexten verglichen, Politiktexten mit Politiktexten […]. Gerade gibt’s schon Überlegungen, ob man vielleicht doch das so für die Gesamtseite macht und ein bisschen diese Ressortbindungen auflöst. Um genau das zu schaffen halt. Eine größere Vergleichbarkeit unter den Ressorts. Um vielleicht auch doch mal dann so eine ((4 Sekunden Pause)), ja, Konkurrenz ist jetzt ein bisschen scharfes Wort, aber doch so ein bisschen, äm. So einen Blick nach links und rechts zwischen Ressorts zu ermöglichen. Damit wir auch wissen hier dies und das funktioniert im Zusammenhang der Gesamtseite echt nicht so wirklich gut. Und da muss man sich ein bisschen was überlegen«. Der Artikelscore schafft folglich eine neue interne Vergleichs- und Wettbewerbslogik, die zunächst nicht beabsichtigt war, zukünftig jedoch genutzt oder sogar durch die artikelscoreseitige Auflösung von Ressortbindungen gefördert werden soll, um Konkurrenzverhältnisse bewusst herbeizuführen. Die Beziehungen der Beteiligten befinden sich demzufolge in einem Wandel, der durch eine redaktionsweite Relevanz von Daten gekennzeichnet ist. Zurück in die Interviewpassage: Interviewer: »Dieser Blick nach links und rechts, ist der denn, also gibt es den schon ressortintern?« Datenanalyst: »Ja klar. Das ist glaube ich. also man ist durchaus hier. Also Ressorts sind groß. Ressorts kämpfen auch um Plätze und um Reichweiten und im Zweifelsfall dann auch so auch um personelle Ausstattung, langfristig. Und dann klar guckt man da schon, wie funktioniert es eigentlich bei den anderen? Wie ist das Programm? Wie sind wir eigentlich gerade aufgestellt? Was können wir besser machen als die anderen eigentlich?«. Die Ausführungen des Datenanalysten verdeutlichen die bereits existierenden und gängigen Vergleichs- und Beobachtungspraktiken anhand von Daten (»Ja klar. […] Man ist durchaus hier«). Diese regen wiederum Prozesse oder sogar die Notwendigkeit der (Selbst-)Optimierung an (»Was können wir besser machen als die anderen?«). Die Wettbewerbs- und Konkurrenzverhältnisse innerhalb der Redaktion werden durch die Selbstbeobachtung im Spiegel der Daten intensiviert. Dabei spielen quantifizierbare Leistungsindikatoren wie der Artikelscore im Kampf um Plätze, Reichweiten oder auch personelle Ausstattung keine unwesentliche Rolle. Die Bildung von Scores führt redaktionsintern somit zu neuen Praktiken und Prozessen des Beobachtens, Vergleichens, Bewertens und Optimierens.

205

206

Publikumsbeobachtung im digitalen Wandel

Die Selbstverortung im Spiegel der Daten und den möglichen Einfluss der Artikelscores auf die Einschätzung des (Miss-)Erfolgs von Inhalten verdeutlicht zudem folgende Feldnotiz, in der eine junge Mitarbeiterin aus dem Team für Social Media und Leserdialog einige ihrer Artikel anhand der Scores bewertet: »›507, hm da habe ich jetzt mehr erwartet‹, sagt sie. Allgemein nehme ich wahr, dass sie den Artikelscores eine große Bedeutung zumisst. Sie ruft weitere Artikelscores von ihr auf und ist sichtlich sehr erfreut als sie mir einen Artikel mit einem Score von 900 zeigt. Sie erzählt mir, dass sie schon sehr auf den Artikelscore achte und ihn als ein relevantes Vergleichsinstrument nutzt. Zudem sei es schön, auf diese Weise auch eine Bestätigung für die erbrachte Arbeit zu bekommen. Sie scheint den Artikelscore als eine relevante Leistungs(be)messung anzusehen – vielleicht auch deshalb, weil sie noch nicht allzu lange im Team ist? Ich frage mich, welche Folgen niedrige oder ›schlechte‹ Artikelscores auf die Empfindung und Wahrnehmung eines Redakteurs haben könnten«. Die Feldnotiz kann als ein Hinweis dafür verstanden werden, dass mit der Einführung von Daten in das Redaktionssystem gleichzeitig auch ein datenbasierter Leistungsdruck entstehen kann und das Wahrnehmen von Daten sowohl anspornend und motivierend, aber auch entmutigend wirken kann. Passend hierzu erzählt der Teamchef für Social Media, dass die Aneignung der Artikelscores sehr individuell erfolgt. In der Redaktion seien beide Extreme beobachtbar: Einerseits die (sehr) starke Beeinflussung und andererseits die minimale bis nicht existente Beeinflussung durch den Score. Die neuen Möglichkeiten eines datenbasierten Vergleichens und Beobachtens – sowohl der eigenen Scores als auch der der Kolleginnen und Kollegen – bleiben redaktionsintern also nicht unbeachtet und ungenutzt. Wie die Redaktionsmitglieder sich die Artikelscores letztendlich aneignen und sie nutzen, ist jedoch (noch) nicht regelbehaftet bzw. formalisiert. Fraglich ist hierbei, ob solch eine Festlegung von »außen« oder »oben« überhaupt durchführbar und funktional ist, oder ob nicht vielmehr die Entscheidung getroffen wurde, dies bewusst an die Mitarbeiterinnen und Mitarbeiter und an die jeweiligen Ressorts auszulagern, um sie für die Relevanz von Daten zu sensibilisieren. Zusammenfassend lässt sich also ein redaktionelles Beziehungsgefüge nachzeichnen, in dem Daten neue und relevante Bezugsrealitäten darstellen. Mit den einsehbaren Daten werden – vor allem in Form des angesprochenen Artikelscores – neue Beobachtungs- und Vergleichsmöglichkeiten geschaffen: Thematisch unterschiedliche Artikel können ressortintern (und zukünftig auch ressortübergreifend) miteinander verglichen und in Beziehung gesetzt werden. Die »Performance« der Artikel wird bestimmbar und vergleichbar gemacht, wodurch wiederum eine Zuschreibung von redakteurs- oder auch ressortspezifischer Leistung ermöglicht wird. Diese neuen »Performance«bzw. Leistungszuschreibungen fördern und intensivieren die redaktionsinternen

7 Die empirische Fallanalyse

Wettbewerbs- und Konkurrenzverhältnisse, was mit der Einführung jener neuen Zahlensysteme zunächst nicht beabsichtigt war (nicht-intendierte Folge). Die Auseinandersetzung mit Daten scheint sich folglich zu einer zentralen Praxis zu entwickeln, die redaktionsweit erwartet wird: Das »dateninformierte Selbst« beginnt zu entstehen.

7.3.3

Selbstverortung im Spiegel der Daten: Das dateninformierte Selbst als informale Erwartung

Das dateninformierte Selbst beschreibt die kontinuierliche Selbstverortung einer Redakteurin bzw. eines Redakteurs im Spiegel der Daten. Denn die individuelle Aneignung von Daten scheint, wie die vorherigen Ausführungen zeigen, von »außen« oder »oben« nicht formalisierbar zu sein (im Sinne schriftlich festgelegter Interpretationsanleitungen). Die Redakteurinnen und Redakteure sollen qua formal festgelegter Kommunikationswege (siehe Kap. 7.2.1.3) vielmehr für die Relevanz von Daten sensibilisiert und bei der Dateninterpretation durch Hilfestellungen und kontextualisierende Informationen unterstützt werden. Die konkrete Aneignung der Daten sowie die Selbstverortung im datenbasierten redaktionellen Gefüge erfordert somit Eigeninitiative, -motivation und eine grundlegende Datenakzeptanz. Die Auseinandersetzung mit Daten ist in hohem Maße erwünscht bzw. wird seitens der Online-Chefredaktion auch erwartet. Hierzu ein kurzer Rückblick auf die zu Anfang des Kapitels präsentierte Interviewpassage: »Ich will, dass die Kollegen aus der Redaktion sich damit beschäftigen, weil das ist kein Selbstzweck was wir hier machen. Wir brauchen unsere Leser, davon leben wir. Letzten Endes sind die auch die, die unsere wirtschaftliche Profitabilität gewährleisten. Und die wiederum ist die Grundlage dafür, unabhängigen Journalismus zu betreiben. Deswegen finde ich wichtig, dass die Leute sich damit beschäftigen. Was wird gelesen? Wer liest uns denn? Und warum? Aus welchen Motiven?«. Mit den Möglichkeiten der Verdatung richten sich zugleich neue Erwartungen an die Redakteurinnen und Redakteure auf: Es gilt »dateninformiert« – so ein im Feld oft verwendeter Begriff – zu arbeiten. Von besonderer Bedeutung ist hierbei der Artikelscore, der eine kontinuierliche Selbstverortung und Bewertung der eigenen Arbeit erlaubt: »[D]eshalb glaube ich ist der Artikelscore ein Mittel zum Selbstmanagement. Das ist ein gutes Feedback für die eigene Arbeit, sodass man sich einfach jeden Tag fragen kann: ›Hab ich das Thema so aufgeschrieben, dass es die Leser erreicht hat? Ja oder Nein?‹« (Online-Chefredakteur).

207

208

Publikumsbeobachtung im digitalen Wandel

Der Artikelscore stellt demnach ein wichtiges individuelles Feedbackinstrument dar, welches zur täglichen Kontrolle genutzt werden soll. Hiermit werden zugleich neue Anforderungen an die Redakteurinnen und Redakteure gestellt. So wird vorausgesetzt, dass Daten und ihre redaktionelle Funktionalität(en) anerkannt werden. Das bedeutet auch, für datenbasierte Potenziale der (Selbst-)Optimierung offen sein, sie zu erkennen, zu nutzen sowie sich darauf einzulassen, von Daten überrascht und irritiert zu werden – und dies auch zu wollen. Hierfür müssen sie die Kompetenz besitzen oder entwickeln, Daten »richtig« zu lesen, d.h. sie zu interpretieren. Daten als »ein Mittel zum Selbstmanagement« zu nutzen bedeutet darüber hinaus, sich über die wechselseitigen Beobachtungs- und Vergleichsmöglichkeiten sowie über die generelle Einsehbarkeit und Ansprechbarkeit auf (eigene) Scores und Daten bewusst zu sein. Die Vision eines dateninformierten Redakteurs und die damit einhergehenden, hier skizzierten, Anforderungen beschreiben folglich ein »Mehr« an Selbstorganisation, Selbstkontrolle, Selbstoptimierung und Selbstverantwortung im Spiegel der Daten. Jene Daten und Scores können zusätzlich in einem personalisierten und individuellen Redakteursprofil festgehalten werden. Auch wenn solche Performanceprofile im Rahmen der unternommenen Feldforschung nicht einsehbar waren, so sollen hieran anschließend weitere Möglichkeiten, potenzielle Funktionen und Folgen eines datenbasierten Redaktionsgefüges aufgezeigt werden. Solche individuellen Profile listen detaillierte Dateninformationen über die Redakteurin bzw. den Redakteur und den von ihnen geschriebenen Artikeln auf. Es wird angezeigt, wie viele neue Artikel in einem bestimmten Zeitraum geschrieben wurden, wie oft und wie lange sie von den Nutzerinnen und Nutzern gelesen wurden und wie viele soziale Interaktionen dabei erzeugt wurden. Dabei kann auch aufgelistet werden, zu welchen Themenbereichen die Redakteurin bzw. der Redakteur geschrieben hat und welchen Platz – gemessen an den Daten bzw. dem Artikelscore – er im internen Redakteursranking eingenommen hat. Diese Performance wird dabei im Spiegel der Daten als durchschnittliche, unterdurchschnittliche oder überdurchschnittliche markiert. Solch ein Redakteursprofil ermöglicht folglich eine Übersicht über die erhobenen Daten resp. definierten Leistungsindikatoren. Die geleistete Arbeit (geschriebene Artikel) des Autors bzw. der Redakteurin wird anhand von Daten bewertet und nach bestimmten Kategorien gefiltert und angezeigt. Dabei werden stets Vergleichswerte und -horizonte mitaufgelistet. Diese Möglichkeit des Anlegens von redakteursspezifischen Performance- bzw. Leistungsprofilen verdeutlicht die zunehmenden binnenperspektivischen Verdatungspotenziale. Nicht nur das Publikum und seine Nutzungsgewohnheiten, sondern komplementär hierzu auch das redaktionelle Geschehen und der Redakteur bzw. seine Arbeit kann unter digitalen Infrastrukturen verdatet werden. Dies stößt unweigerlich Prozesse der permanenten (Selbst-)Optimierung an. Im Sinne eines dateninformierten Selbst kann in

7 Die empirische Fallanalyse

der Auseinandersetzung mit dem eigenen Profil sich somit stets die Frage gestellt werden, wo und wie man sich noch verbessern kann. Darüber hinaus dürften jene Dateneinsichten und Redakteursprofile für Vorgesetzte, die Chefredaktion und ihre Entscheidungs(de-)legitimierung nicht unbedeutend sein. »Verdatung« kann folglich als ein komplementärer Prozess verstanden werden: Nicht nur das Publikum, sondern auch die Redaktion (einschließlich der Mitarbeiterinnen und Mitarbeiter) wird verdatet. Es entwickelt sich ein neues, folgenreiches Redaktions- und Beziehungsgefüge, in dem Daten a) relevante Bezugsrealitäten und -systeme erschaffen, b) redaktionelle Arbeitsweisen und Ansichten irritieren, c) interne Konkurrenzen entstehen lassen bzw. intensivieren und d) permanent Optimierungsmöglichkeiten aufzeigen. Die Selbstverortung im Spiegel der Daten – das dateninformierte Selbst – kann demzufolge als eine Anforderung an die Redakteurinnen und Redakteure verstanden werden, die immer wichtiger zu werden scheint.

7.3.4

Zusammenfassung: Publikumsbeobachtung als Organisationsbeobachtung

Das Kapitel schloss an die zuvor herausgearbeitete Beziehung von Publikumsbeobachtung und Organisationsgestaltung (Kap. 7.2) an, bei der gezeigt wurde, dass der »digital turn« der Medienorganisation interne Restrukturierungsmaßnahmen erforderlich macht. So müssen bspw. Abteilungen, Teams und Stellen neu gegründet werden, die sich dezidiert mit den Daten auseinandersetzen – d.h. sie erheben, aufbereiten, analysieren, auswerten und für die Redaktion anschlussfähig machen. Zudem müssen redaktionsweite und ressortinterne Datenverständnisse hergestellt, geteilt und aktualisiert werden. Auffällig und beobachtbar ist nun im Anschluss hieran – so die Quintessenz dieses Kapitels –, dass die Redaktion durch ihre organisationale Restrukturierung eine folgenreiche Selbstbeobachtung und thematisierung im Spiegel der Daten erfährt (Redaktionsverdatung). Die hieraus entstehenden Folgen sind einerseits intendiert, wie z.B. die Herstellung von mehr Vergleichbarkeit zwischen den einzelnen Artikeln durch die Bildung von Artikelscores. Hierdurch sollen Erkenntnisse darüber gewonnen werden, welche Inhalte, Themen und Formate, aber auch welche Ressorts am häufigsten und intensivsten gelesen oder kommentiert werden, um – in einem daran anschließenden Schritt – Strategien zur Weiterentwicklung und Optimierung zu entwickeln oder auch redaktionelle Entscheidungen zu (de-)legitimieren (bspw. im Hinblick auf die Erstellung, Aufbereitung, Publikation und Distribution von Inhalten im Netz). Zur Publikumsverdatung verläuft so gesehen eine komplementäre Organisationsverdatung. Denn durch das Erheben und Auswerten von Publikumsdaten entstehen gleichzeitig Einsichten und Beobachtbarkeiten des redaktionellen Geschehens, was zur Öffnung der redaktionellen Blackbox und dem Erkennen von Beobachtungsla-

209

210

Publikumsbeobachtung im digitalen Wandel

tenzen führt (Kap. 7.3.1). Es können nun Sichtbarkeiten über vorher – unter PrintBedingungen – nicht einsehbare Abläufe erzeugt werden, z.B. darüber, welche Inhalte und Themen die Nutzerinnen und Nutzer besonders interessieren, wie lange sie einzelne Artikel lesen oder welches Ressort am meisten gelesen wird. Hierdurch entstehen in der Redaktion neue und wechselseitige Möglichkeiten des Beobachtens, Vergleichens und Bewertens. Daten erschaffen und fördern somit neuartige Bezugsrealitäten. In dieser zur Publikumsverdatung komplementär nach innen verlaufenden Organisations- bzw. Redaktionsverdatung lassen sich zudem Folgen beobachten, die zu Anfang nicht intendiert waren, so z.B. die Steigerung von internen Konkurrenz- und Wettbewerbsverhältnissen (Kap. 7.3.2). Dadurch, dass der Artikelscore und weitere Daten für die Redakteurinnen und Redakteure offen einsehbar sind, finden unter ihnen wechselseitige Beobachtungs- und Vergleichsprozesse statt. Jene Daten ermöglichen den Vorgesetzten (Ressortleitende und Chefredaktion) darüber hinaus neue Bewertungsgrundlagen und Entscheidungslegitimierungen. Für die Redakteurinnen und Redakteure bedeutet dies, zunächst ein Bewusstsein über jene neuen Bezugsrealitäten und -möglichkeiten zu entwickeln. Gleichzeitig müssen sie die damit einhergehenden Voraussetzungen und Auswirkungen akzeptieren. Dies führte sodann zu der Beschreibung einer redakteursspezifischen Selbstverortung im Spiegel der Daten und der Herausbildung eines »dateninformierten Selbst« (Kap. 7.3.3). So werden neue Erwartungen aufgerichtet und Anforderungen an die Redakteurinnen und Redakteure gestellt, sich mit den (eigenen) Daten auseinanderzusetzen, eine Datenkompetenz zu entwickeln, Optimierungspotenziale zu erkennen sowie die Möglichkeiten des Beobachtens und Vergleichens zu nutzen – d.h. jene neue Form und des redaktionellen Beziehungsgefüges und Wettbewerbs letztendlich auch anzunehmen. Durch die Möglichkeiten der Organisationsverdatung und -beobachtung werden demnach immer auch Prozesse der Optimierung des Selbst – der eigenen redaktionellen Arbeit – angestoßen. Es verwundert daher nicht, dass der Artikelscore aus Sicht des Online-Chefredakteurs insbesondere als Mittel zum Selbstmanagement genutzt werden soll. Die Redakteurinnen und Redakteure sind insofern für ihre eigene Weiterentwicklung und für die redaktions- bzw. ressortinterne Wahrnehmung ihres Datenspiegelbildes (mit-)verantwortlich. Es scheint folglich nicht unplausibel, dass Daten insofern auch zu neuen Formen von interner Anerkennung verhelfen können und dementsprechend Handlungen vorgenommen oder Entscheidungen getroffen werden, die ein erfolgreiches Abschneiden im Spiegel der Daten wahrscheinlich(er) machen. Indirekt und direkt – latent und manifest – beeinflussen die Publikums- und die komplementär dazu verlaufende Organisationsverdatung die redaktionelle Praxis und die innerredaktionellen Verhältnisse. Es entwickelt sich eine auf Daten beruhende und dauerhaft angelegte Selbstbeobachtung und -thematisierung – eine datenbasierte Sozialität.

7 Die empirische Fallanalyse

7.4

Der Wandel der redaktionellen Umwelt – Neue Unsicherheiten  und Ungewissheitszonen

Ergänzend zu den bisherigen Erkenntnissen, die sich einerseits auf die Praxis der Publikumsbeobachtung beziehen (Kap. 7.1) und andererseits aus den Analysen gewonnen wurden, dass Publikumsbeobachtung immer auch Organisationsgestaltung bedeutet (Kap. 7.2) und als eine komplementär nach innen verlaufende Organisationsbeobachtung verstanden werden kann (Kap. 7.3), wird in diesem Kapitel – den Fokus auf die Binnenperspektive der Redaktion beibehaltend – der Wandel der redaktionellen Umwelt herausgearbeitet und vorgestellt. So kann zunächst festgehalten werden, dass sich die Konkurrenzwahrnehmung im digitalen Umfeld wandelt. Nicht mehr nur andere Print-Zeitungen, sondern prinzipiell alle Medienorganisationen, die ihre Inhalte im Internet veröffentlichen, werden für die Redaktion als potenzielle Konkurrenten wahrgenommen. Der generelle »Kampf um die Aufmerksamkeit« der Nutzerinnen und Nutzer – oder in den Worten Angs: die Notwendigkeit der »Eroberung des Publikums« – verschärft sich durch diese Zunahme an Konkurrenzverhältnissen im Netz. Umso wichtiger scheint es daher, das Publikum und seine Interessen und Nutzungsgewohnheiten zu vermessen, es folglich permanent zu beobachten und darauf basierend redaktionelle Entscheidungen (Produktion, Publikation und Distribution von Inhalten) zu treffen. Gleichzeitig gilt es aber auch neue Leserinnen und Leser bzw. Nutzerinnen und Nutzer zu gewinnen, weshalb nicht nur die Rezeption von Inhalten auf der eigenen Homepage, sondern das gesamte nachrichtliche und publizistische Geschehen im Netz durch entsprechende Stellen (SEO-Mitarbeiter, Datenanalysten) und Technologieanwendung (Softwareprogramme) beobachtet wird, um eigene Inhalte an jene ermittelten Interessen und Bedürfnisse anzuschließen. Betrachtet man die redaktionelle Umwelt im digitalen Raum, so lässt sich feststellen, dass zunehmend »Dritte« in die Beziehung zwischen Massenmedium und Publikum treten. Zu nennen sind hier einerseits Datendienstleister, auf dessen Daten die Medienorganisation angewiesen ist. Andererseits wird die Beziehung zum Publikum zunehmend durch große Medienunternehmen wie Google oder Facebook vermittelt und mitgestaltet. Darüber hinaus entwickeln sich sog. Nachrichtenaggregatoren (Google News, Apple News, Flipboard, Upday etc.) zu relevanten Umweltsystemen, da durch sie die eigenen Inhalte einem breiten Netzpublikum, welches man mit den eigenen Distributionswegen womöglich nicht erreicht hätte, sichtbar und zugänglich gemacht werden können. Jene Nachrichtensuchmaschinen bzw. -applikationen listen, teils personalisiert, Nachrichtenartikel auf. Die Ausspielung der eigenen Inhalte auf diesen Plattformen kann jedoch allenfalls nur gering mitbestimmt werden, da hinter ihnen große Medienunternehmen stehen, die stets nach eigenen Logiken operieren. Dies macht sich für die Redaktion insbesondere bei sozialen Netzwerken wie Facebook oder Instagram bemerkbar, bei

211

212

Publikumsbeobachtung im digitalen Wandel

denen die Distributionsentscheidungen für sie qua intransparenter Algorithmen schlichtweg nicht nachvollziehbar sind. Eine große Herausforderung im Wandel der redaktionellen Umwelt besteht demnach darin, dass die eigenen Inhalte die Nutzerinnen und Nutzer erreichen und für sie sichtbar sind.9 Publikumsbezogene Nutzungsdaten bieten im digitalen Raum daher wichtige Orientierungshilfen. Der Datenanalyst beschreibt dies mithilfe der Metapher eines Autotachometers: »[…] ich hab auch natürlich habe ich in meinem Auto einen Tachometer, weil ich wissen will wie schnell ich fahre, ne? Also ich kann natürlich das Ding auch ausbauen, weil ich keinen Bock hab, dass. weiß ich nicht. weil ich irgendwie frei in meinen Entscheidungen sein will, wie schnell ich diese Kurve angehe. Würde wahrscheinlich dazu führen, dass ich irgendwann beim zehnten Versuch halt rausfliege, weil ich nicht ((lacht)) weiß, wie schnell ich diese Kurve angehen muss oder zumindest wenn das eine Kurve ist, die ich nicht kenne«. Der Tachometer resp. die darauf zu sehenden Zahlen (Daten) sind dementsprechend relevante, teils überlebensnotwendige Informationen und Entscheidungsinstrumente. Sie dienen der Überwachung, Orientierung und Kontrolle des eigenen Handelns und dem unfallfreien Fortbewegen in unbekannten Umgebungen. Jene Daten könnten auch ausgeblendet, d.h. der Tachometer ausgebaut werden, um sich nicht in seinen Entscheidungen beeinflussen zu lassen und unabhängig zu bleiben. Doch: »In einem Umfeld, in dem wir uns bewegen, in so einem sehr sich häufig und fix ändernden digitalen Raum, da weiß man nicht, welche Kurven auf einen warten und wie schnell man welche Dinge dann angehen könnte oder sollte«. Übertragen auf die Redaktion bedeutet dies, dass Daten sich zu einem zentralen, überlebensnotwendigen Mittel zur Wahrnehmung der sich schnell wandelbaren Umwelt entwickelt haben und sie außerdem erforderliche Beobachtungs- und Kontrollinstrumente des eigenen Fortschreitens und Entwickelns unter digitalen Infrastrukturen bilden. Mit dem Wandel der redaktionellen Umwelt lassen sich neben neuen Voraussetzungen des redaktionellen Arbeitens zugleich auch neue Abhängigkeiten, Anpassungserfordernisse sowie Kontrollverluste beobachten. Diese werden im Folgenden näher herausgearbeitet.

9

In den Worten des Online-Chefredakteurs: »[S]o eine Plattform wie Pocket kann auf einmal wahnsinnig wichtig werden. Was wir hier nicht auf dem Schirm haben, weil wir immer nur die Homepage uns angucken und immer noch so naiv sind zu glauben die Leute setzen sich zu Hause vor ihren PC und tippen unsere Internetadresse ein. Nee das ist ein Nutzungsszenario, was immer unwahrscheinlicher wird, leider«.

7 Die empirische Fallanalyse

Die Möglichkeiten, etwas über das Publikum zu erfahren, verändern sich unter Internetbedingungen grundlegend (siehe Kap. 7.1). Sowohl die Publikumsbeobachtung als auch der Wandel der redaktionellen Umwelt sind dabei nicht an einem bestimmten Punkt abgeschlossen, sondern vielmehr als ein kontinuierlicher Prozess zu verstehen. Der Zustand einer »Finalisierung« scheint in dieser Hinsicht nicht erreichbar zu sein, »[w]eil das natürlich alles ständig in Veränderung und Entwicklung irgendwie ist ((lacht)) im Internet«, so der Datenanalyst. Ein Beispiel hierfür ist etwa das Vorhandensein und Entstehen neuer Distributionskanäle. Deren Bespielung erweist sich als voraussetzungsvoll und entscheidungsbedürftig, da Verantwortlichkeiten – und hiermit kostbare personelle Ressourcen – festgelegt werden müssen: Neuer Mitarbeiter: »Kurz zu. Überlegt ihr das gerade ernsthaft, also Xing und LinkedIn. Oder ist das schon wieder vom Tisch sozusagen?«. Teamleiterin User Research: »Nö es ist noch nicht wieder vom Tisch. Es ist eher eine Frage von: Wer macht’s? Wie kriegt man es hin? Wie messen wir dann auch den Erfolg? Also posten wir da jetzt monatelang was rein und wie stellen wir dann fest, ob es etwas gebracht hat oder nicht? Das sind so die Fragen. Und auch so ein bisschen eine Priorität. Also ist das jetzt ein Thema, mit dem man sich sofort beschäftigen muss oder sind andere Themen gerade dringender und wir reden über das in zwei Monaten nochmal so bisschen«. Der Wandel der redaktionellen Umwelt erfordert hohe Anpassungsbedarfe. Die Redaktion muss lernen mit den netzspezifischen Entwicklungen umzugehen. Dies markiert im Gegensatz zur Print-Distribution insofern einen großen Unterschied, als dass hier die Regeln und Bedingungen der Distribution selbst (mit-)bestimmt oder den Nutzerinnen und Nutzern sogar vorgeschrieben werden können. Unter Internetbedingungen kann die Zeitung die Distributionslogiken »Dritter« nur bedingt nachvollziehen sowie die eigene Inhaltsverbreitung je nach Kanal lediglich in geringem Maße steuern bzw. mitgestalten. Es entstehen mitunter intensive Beschäftigungsbedarfe, wie der Datenanalyst erläutert: »Für uns ist es ja so, wenn ein Kanal auftaucht, über den wir merken, dass da Nutzerinnen und Nutzer auf die Seite kommen. Und dann fängt natürlich ein Prozess an, dass sich jemand mit der Plattform beschäftigt. Dass man versucht mal zu gucken, wie funktioniert die überhaupt? Im Zweifelsfall auch mal mit denen telefoniert oder sich trifft, um herauszufinden, was denn deren Ziel eigentlich ist. Wie wir da reinpassen könnten und was wir dann im Zweifelsfall auch liefern können«. Ein exemplarisches Beispiel ist das soziale Netzwerk Facebook. Im Jahr 2018 erfolgte hier eine gravierende Algorithmusänderung, die fortan Inhalte von Freunden und Familie im sog. Newsfeed den nachrichtlichen Inhalten vorzog und zu

213

214

Publikumsbeobachtung im digitalen Wandel

einer erheblichen Reduzierung der Nutzerzuführung auf die Homepage und Artikelseiten der Zeitung führte, weil die Inhalte vielen Nutzerinnen und Nutzern nicht mehr angezeigt wurden. Die Redaktion musste sich hieran anpassen und entsprechende Umgangsstrategien entwickeln, wie der Datenanalyst schildert: »Also im Falle von Facebook, weil da ist ja ein Problem von Sichtbarkeit auf der Plattform, die du dann halt nicht mehr in der Form erreichst, wie es früher der Fall war. Und dann fängt es halt mit Tests an, von denen man denkt, ja da könnte was drinstecken. In unserem Falle beispielsweise die Facebook-Gruppen. […] Da geht es dann erst einmal darum eine These aufzustellen. These In dem Fall wäre gewesen: Die genauer definierte Zielgruppe und an einem bestimmten Thema interessierten Menschen werden noch häufiger mit der Gruppe interagieren und mit den Inhalten der Gruppe. Dementsprechend haben wir da ein höheres Engagement, was die Klicks auf die Inhalte anbelangt und auch was die Likes, Shares, Kommentare und so weiter in Zusammenhang mit den Posts in der Gruppe erreicht. Und das im Verhältnis zu setzen zur regulären Fanpage um dann sagen zu können: These stimmt. These stimmt nicht. Und das sind die Werte, die wir beobachtet haben. Und dann geht es darum halt mit diesen Ergebnissen so umzugehen oder sich dann zu überlegen, würde es jetzt in einem größeren Rahmen Sinn machen viele Gruppen aufzuziehen. Aber dann natürlich sich auch dann mit den Fragen auseinander zu setzen, die wir bisher noch nicht beantwortet haben. Wie würde ich denn die Gruppe eigentlich aufbauen? Wie bekomme ich die Leute in die Gruppe rein? Lernen die Leute das? Mögen die das?«. Die Sichtbarkeit und Ausspielung der eigenen Inhalte auf Plattformen wie Facebook stellt für die Redaktion eine große Herausforderung dar, die zugleich in einem Kontrollverlust resultieren kann. Hierzu der Teamchef für Social Media: »Das Ding ist halt auch das zeigt so ein bisschen, dass halt die Nachrichtenseiten gar nicht mehr so die Player sind, die es halt kontrollieren. Es sind teilweise halt Privatpersonen halt, die diese Social Media-Sachen halt so beeinflussen, dass du halt gar nicht mehr weißt, was wie wo wer was wirklich ausschlaggebend ist«. Der Social Media-Chef macht hier auf den Umstand aufmerksam, dass die Distribution von Inhalten in sozialen Netzwerken in hohem Maße auch durch das Teilen der Artikel von Privatpersonen bedingt ist. Redaktionell lässt dadurch immer schwieriger nachvollziehen, »was wirklich ausschlagegebend« für den Erfolg oder die Reichweite des Artikels war. Zentrale relevante Umweltsysteme sind demzufolge einerseits Drittanbieterplattformen wie Google, Facebook, Twitter, Pocket etc. Andererseits werden im Netz softwarebasierte Datenverarbeitungsprogramme wie Chartbeat, Linkpulse, Content Insights immer wichtiger. Die Redaktion hat dabei stets mit Unsicherheiten über die Funktionsweise und Logiken jener Umweltsysteme zu kämpfen.

7 Die empirische Fallanalyse

Gravierende Folgen können dann entstehen, wenn die Relevanz und Wirkungsmächtigkeit ein Niveau (wie z.B. bei Google oder Facebook) erreicht, dass ein redaktioneller Nutzungszwang besteht, die Redaktion also entsprechende Plattformen oder Programme aus Überlebensgründen nutzen muss, auch wenn diese für sie hermetische Systeme darstellen. Jener Kontrollverlust über die Distribution von eigenen Inhalten kann sich dabei als existenzbedrohlich erweisen, weshalb der Online-Chefredakteur den Einfluss von »Dritten« wie folgt bewertet: »Groß. Und es wird immer größer und immer wichtiger. Und das ist für uns total gefährlich, dass die eben ganz oft wie solche Blackbox arbeiten. […] Apple zum Beispiel kommuniziert überhaupt((betont)) nicht. Die haben noch nicht mal einen Ansprechpartner in Europa. Da kommt man nicht ran. Und das ist natürlich für uns total gefährlich. So Stichwort Kontrolle abgeben, das hatte ich ja vorher schon. Da haben wir. wir haben überhaupt((betont)) keine Einflussmöglichkeiten. Ja, es ist gefährlich für uns. Ich weiß auch nicht, ob wir Zeitungen oder wir Verlage, wir Medienhäuser, ob wir das überleben. Das ist. kann echt existenziell werden. Vor allen Dingen, weil die ja auch alle so auf ›Viel kostet nichts‹, ne?«. Die notwendige Transformation der Redaktion, die Bedingungen und Folgen der Digitalisierung sowie den hier beschriebenen Einfluss »Dritter« betont der OnlineChefredakteur erneut am Ende des Interviews als er nach aktuellen und zukünftigen Herausforderungen gefragt wird: »Ja in diesem Umfeld noch Zeitung und Inhalte zu verkaufen ((lacht)). Ja. Also wiegesagt, ich weiß nicht. Das werden sicher nicht alle Medien überleben. Es haben ja schon nicht alle überlebt«. Es müssen folglich Überlebensstrategien entwickelt und getestet werden. Die Möglichkeiten der Verdatung bieten diesbezüglich nicht zu verkennende Potenziale (siehe Kap. 7.1-7.3). Die Internetdistribution stößt Reflexionsprozesse an, die zu einer Veränderung der Selbstwahrnehmung und -verortung im gesamten Mediensystem führen, wie der Online-Chefredakteur erläutert: »(…) [K]lar die Denke muss sich da ganz stark ändern, dass so. (2.0) aber ist eigentlich schon auch ein Erfolg. Das ist jetzt nicht mehr so, dass wir die alleingültige Wahrheit haben, sondern dass uns allen bewusst ist wir sind nur ein Angebot von vielen. Es ist halt auch alles wahnsinnig schnell erreichbar. Gerade im Internet so. Mit einem Klick bin ich halt bei ganz anderen Portalen. Und dass wir dann eher zu so einer Art Wegweiser im Informationsüberangebot werden müssen. Dass wir die Seite sind, die vorsortiert und so. Niemand hat viel Zeit, deswegen kommt zu uns. Da könnt ihr euch darauf verlassen, dass es stimmt, dass es gut ist und dass es das ist, was wirklich wichtig ist. Bei den anderen findet ihr halt auch Sachen, die vielleicht nicht so gut vorsortieren für euch und so. Ja«.

215

216

Publikumsbeobachtung im digitalen Wandel

Zusammenfassend ist festzuhalten, dass sich im Wandel der redaktionellen Umwelt eine steigende Relevanz wirkmächtiger »Dritter« (distributionsplattformbetreibende Medienunternehmen und Datendienstleister) beobachten lässt. Auf Seiten der Redaktion führt dies zu neuen Abhängigkeiten, Anpassungszwängen und Kontrollverlusten sowie zu der Entwicklung neuer Überlebens-, d.h. auch Finanzierungsstrategien. Die Redaktion resp. Medienorganisation durchläuft unter den Bedingungen der Internetdistribution demnach strukturelle Transformationsprozesse. Die Bildung und Zumutung neuer Unsicherheiten und Ungewissheitszonen im Rahmen des hier skizzierten Wandels der redaktionellen Umwelt scheinen daher unvermeidbare Folgen zu sein, mit denen die Medienorganisation zwangsläufig umzugehen hat.

7.5

Zusammenfassung der Ergebnisse

Die Fallanalyse, die den Wandel der Publikumsbeobachtung unter digitalen Infrastrukturen beschreibt und die damit einhergehenden binnenorganisatorischen Veränderungen und Folgen für eine überregionale Tageszeitung thematisiert, gliedert sich in vier zentrale, aufeinander aufbauende Kapitel: 1) 2) 3) 4)

Die Praxis der Publikumsbeobachtung Publikumsbeobachtung und Organisationsgestaltung Publikumsbeobachtung als Organisationsbeobachtung Der Wandel der redaktionellen Umwelt – Neue Unsicherheiten und Ungewissheitszone

Diese zentralen Ergebniskapitel (oder im Sinne der Grounded Theory: Kernkategorien) präsentieren anhand verschiedener Unterkapitel (Kategorien und Dimensionen) detailreiche empirische Einsichten und Erkenntnisse. Diese werden im Folgenden pointiert zusammengefasst. Für detaillierte Ausführungen mit reichhaltigen empirischen Bezügen ist auf das jeweilige Kapitel sowie auf die am Ende der zentralen Hauptkapitel erfolgende Zusammenfassung zu verweisen. Die Praxis der Publikumsbeobachtung Der Distributionsweg des Internets bietet der Medienorganisation neuartige Möglichkeiten der Publikumsbeobachtung. Deren Ausmaß und redaktionelle Folgen werden durch die Bewertung des Online-Chefredakteurs verdeutlicht, dass das Vorhandensein und Auswerten von Nutzungsdaten Weltbilder zusammenbrechen lässt und vor allem für die Print-Redakteurinnen und -Redakteure einen vorher nie da gewesenen Realitätscheck ermöglicht. Das gesamte Nutzungsgeschehen kann im Netz in Echtzeit erfasst sowie anschließend aufbereitet und analysiert

7 Die empirische Fallanalyse

werden – etwas, das in zeitlicher, sachlicher und auch sozialer Dimension unter den Bedingungen der Print-Distribution derart nicht möglich war und dementsprechend einen markanten Wandel markiert. Die Publikumsbeobachtung im Netz wird demzufolge in mehrfacher Hinsicht von einem Paradigmenwechsel begleitet. Einerseits betrifft dies schlichtweg die Möglichkeiten der Publikumsbeobachtung, nämlich detailliertere und differenziertere Informationen über konkrete Nutzungspraktiken, -gewohnheiten und thematische Interessen des Publikums zu gewinnen. Andererseits wird in den Prozessen des redaktionellen Arbeitens und Entscheidens zunehmend auf publikumsbezogene Nutzungsdaten zurückgegriffen. Daten haben sich in der Folge zu zentralen Orientierungs- und Kontrollinstrumenten resp. redaktionellen Bezugsrealitäten entwickelt. Als Paradigmen der Publikumsvermessung haben sich Live-Daten, der Artikelscore und weitere Performance-Faktoren etabliert. Daten, die über die »Leistung« und das »Funktionieren« von Artikeln Auskunft geben sollen. Insbesondere der Artikelscore hat sich zu einer wesentlichen redaktionellen Kenngröße entwickelt, anhand derer die Weiterentwicklung der einzelnen Ressorts verfolgt und Optimierungspotenziale sichtbar gemacht sowie bestimmt werden. Der Artikelscore basiert dabei nicht auf einer singulären Datenauskunft wie bspw. der Klickzahl oder der Verweildauer, wodurch er sich von vorherigen Techniken der Publikumsmessung unterscheidet, die unter Print-Bedingungen zudem auf die verkaufte Auflagezahl (Gesamtprodukt) beschränkt sind. Es werden vielmehr viele unterschiedliche Daten und Datenpunkte algorithmisch vermittelt und aggregiert, wodurch ein Wert (Score) in einem vorher fest definierten Bereich (0 – 1000) entsteht. Durch den Artikelscore werden robuste Datengrundlagen und zugleich Vergleichbarkeiten zwischen verschiedenen Artikeln und auch Ressorts geschaffen. Der Artikelscore soll zusätzlich Redaktionsmitgliedern, die sich nicht intensiv mit der Datenanalyse auseinandersetzen (können), die Aneignung der Nutzungsdaten erleichtern. In der Publikumsbeobachtung im Netz wandelt sich folglich, bedingt durch die Voraussetzungen und Möglichkeiten der digitalen Infrastrukturen, das Messund Beobachtungsinstrumentarium. Es findet eine zunehmende algorithmische Vermittlung des Publikums statt. Die Praxis der Publikumsbeobachtung unter Internetbedingungen ist allerdings auch durch Messprobleme und blinde Flecken gekennzeichnet, wodurch den erhobenen Daten in der Folge unterschiedliche Qualitäten und Relevanzen zugeschrieben werden. Hinzu entsteht die paradoxe Situation, dass genutzte Analysetools unterschiedliche Messergebnisse produzieren, obwohl sie dasselbe messen. Es stellt sich daher die Frage, welchen Daten in welchem Maße vertraut werden soll, welche redaktionellen Handlungsableitungen die Daten jeweils erlauben und mithilfe welcher KPI (Key Performance Indicators) die Weiterentwicklung der Redaktion gestaltet werden soll. All dies macht die Bildung und Förderung einer entsprechenden Datenexpertise im Haus notwendig, die an spezifische Organisati-

217

218

Publikumsbeobachtung im digitalen Wandel

onsstrukturen (Personal) gekoppelt ist. Darüber hinaus werden auch Limitierungen in der netzbasierten Publikumsbeobachtung erkennbar. So lassen sich manche Aspekte wie die nutzerseitige Wahrnehmung von Inhalten nur schwer vermessen, weshalb qualitative Formen der Publikumsforschung, wie z.B. regelmäßige Veranstaltungen (Face-to-Face-Kommunikation) mit den Nutzerinnen und Nutzern, die quantifizierte Publikumsbeobachtung im Netz komplementär ergänzen. Publikumsbeobachtung und Organisationsgestaltung Die Fallanalyse zeigt des Weiteren, dass das Betreiben von Publikumsbeobachtung im Internet gleichzeitig Organisationsgestaltung bedeutet und dementsprechend organisatorische Aufwendungen erforderlich macht. Für die Medienorganisation im Ganzen sowie für die Redaktion im Besonderen werden strukturelle Anpassungen und Transformationsprozesse erforderlich. Eingehend und anschaulich gezeigt wurde dies an den organisationssoziologischen Entscheidungsprämissen Personal, Programme und Kommunikationswege. So werden mit der Publikumsbeobachtung im Internet neue Abteilungen, Stellen und Teams notwendig, die sich intensiv mit der Erhebung, Aufbereitung und Auswertung von Nutzungsdaten beschäftigen und demzufolge über entsprechende Kompetenzen und Expertisen verfügen. Durch die Festlegung von datenbasierten Verantwortlichkeiten und Zuständigkeiten in der Medienorganisation wird entschieden, wie mit welchen Daten intern verfahren wird. Veranschaulicht wurde dieser personale Strukturwandel anhand drei eingerichteter Teams, die sich eingehend mit Nutzungsdaten beschäftigen: (1.) das Audience Development Team, (2.) das Team für Social Media und Leserdialog und (3.) das Team SEO (search engine optimization). Daten werden darüber hinaus zur redaktionellen Entscheidungsprogrammierung genutzt. So konnte gezeigt werden, dass mit Daten sowohl Zweckprogramme (Weiterentwicklung, Optimierung, Sensibilisierung) als auch Konditionalprogramme (automatische Benachrichtigungen ab Erreichen eines bestimmten Schwellenwerts) verfolgt werden. Daten fungieren in diesem Sinne immer auch als redaktionell relevante Alarmierungssysteme, die auf besondere Vorkommnisse und Entwicklungen aufmerksam machen. Die eingerichteten datenbasierten Entscheidungsprogramme können dabei gleichermaßen als (neue) Formen der Selbst- und Umweltbeobachtung verstanden werden. Der Umgang mit Daten setzt neben neuen Entscheidungsprogrammierungen auch neue Kommunikationswege voraus. Die Kommunikation von Daten bedarf, mit anderen Worten, festen Regelungen und Abläufen. Zentrale Praxen der Datenkommunikation bilden demnach die Online-Redaktionskonferenz, Ressortquartalsgespräche, E-Mail-Reportings, automatisierte Datenbenachrichtigungen und die Live-Daten. Im Anschluss an die Beschreibung des organisationalen Strukturwandels, welcher in der Anpassung(snotwendigkeit) entsprechender Entscheidungsprämissen

7 Die empirische Fallanalyse

zu beobachten ist, wurde auf die Relevanz der redaktionsweiten Herstellung und Aktualisierung von Datenverständnissen hingewiesen. Denn um Daten kommunikativ sinnvoll und für redaktionelle Belange anschlussfähig zu machen, müssen sie zunächst übersetzt werden. Daten fließen demnach nicht ungefiltert und unreflektiert in redaktionelle Entscheidungen. Den Daten sind vielmehr komplexe Prozesse der Aufbereitung und Interpretation vorgelagert. Die Redaktionsmitglieder hierfür sowie für die Relevanz von Daten generell zu sensibilisieren, stellt die Medienorganisation vor große Herausforderungen. Mit Blick auf die Geschichte des Hauses wurde sodann die Institutionalisierung von Daten in der Redaktion in den Blick genommen. Dabei zeigte sich, dass Daten als ein doppeltes Organisationsproblem verstanden werden können. Einerseits muss der Umgang mit den Nutzungsdaten organisiert, d.h. formalisiert, werden. Andererseits lassen sich redaktionsintern auch Widerstände und Akzeptanzprobleme in der Datenaneignung beobachten, da Daten traditionelle Annahmen und Vorstellungen über das Publikum, seine Interessen und Nutzungsgewohnheiten in hohem Maße irritieren oder ihnen sogar widersprechen können. Es verwundert daher nicht, dass unter den Redakteurinnen und Redakteuren und auch in den Ressorts voneinander abweichende Datenakzeptanzen feststellbar sind – auch deshalb, weil die Datenüberzeugung oftmals von dem jeweiligen Vorgesetzten (Ressortleiterin, Teamleiter) abhängig ist. Eine redaktionsweite Anerkennung von Daten ist demnach auf eine permanente Sensibilisierung angewiesen. In der Aneignung von Daten ließen sich darüber hinaus unterschiedliche, abteilungsspezifische Verwertungsinteressen und Datenverständnisse beobachten, die zu Konflikten in der Datenübersetzung führen und in der Folge das »richtige« Auswerten von Daten thematisieren. Dies führte sodann zur Erkenntnis der Relevanz und Funktionalität von informellen Praktiken in der Datenaneignung und -auswertung, da die konkrete Interpretation von Daten nicht formalisierbar scheint, sondern in bestimmten und situativen Kontexten erfolgt. Publikumsbeobachtung als Organisationsbeobachtung Die Publikumsbeobachtung der Zeitungsredaktion kann gleichzeitig, so ein weiteres zentrales Ergebnis, als eine komplementär nach innen verlaufende Organisationsbeobachtung verstanden werden. Die Möglichkeiten der Verdatung unter digitalen Infrastrukturen erlauben sozusagen das Öffnen der redaktionellen Blackbox. Das heißt, dass nun folgenreiche Sichtbarkeiten und Einsichten in das Redaktionsgeschehen erzeugt werden können, die zuvor – unter Print-Bedingungen – nicht einsehbar waren (z.B.: Welcher Artikel oder welches Ressort wird wie häufig gelesen?). Es können nun, mit anderen Worten, Beobachtungslatenzen erkannt und lokalisiert werden, die wiederum zu zahlreichen internen Entscheidungsanlässen führen. Mittels publikumsbezogener Nutzungsdaten beobachtet und beschreibt sich die Medienorganisation selbst »von außen«. Die Daten werden also

219

220

Publikumsbeobachtung im digitalen Wandel

in relevante Organisationsbeobachtungen übersetzt und markieren operative Eingriffsmöglichkeiten (Tagesgeschäft) oder verweisen auf strukturelle Transformationserfordernisse (Organisationswandel). Mittels jener Selbstbeobachtung sollen demnach organisationsinterne (Dys-)Funktionalitäten erkannt, Möglichkeiten der redaktionellen Weiterentwicklung identifiziert und Optimierungspotenziale entdeckt werden. Die Redaktion wird folglich verdatet. Darüber hinaus entstehen mit dem Vorhandensein von tagesaktuellen oder über einen längeren Zeitraum erhobenen Nutzungsdaten neue Möglichkeiten zur (De-)Legitimierung von Entscheidungen, bspw. hinsichtlich der Produktion, Publikation und Distribution von Inhalten. Sich gegen die Daten zu entscheiden, wird zumindest begründungspflichtig, wodurch ein gewisser Rechtfertigungsdruck erwachsen kann. Eine weitere Erkenntnis ist, dass in der Redaktionsverdatung neben intendierten Folgen (Einsicht in das redaktionelle Geschehen und Schaffung von Vergleichbarkeit zwischen Artikeln und Ressorts) auch nicht-intendierte Folgen beobachtbar sind. Diese betreffen vor allem das innerredaktionelle Beziehungsgefüge. So werden durch die Daten (insbesondere den Artikelscore) neue wechselseitige Beobachtungs- und Bewertungsprozesse ermöglicht und befördert, wodurch neue folgenreiche numerische Bezugsrealitäten – sozusagen eine neue redaktionsinterne Öffentlichkeit – entstehen. So können die Redakteurinnen und Redakteure nicht nur ihr eigenes Abschneiden im Spiegel der Daten wahrnehmen, sondern darüber hinaus auch jene »Performance« ihrer Kollegen beobachten und sich dazu in ein Verhältnis setzen. Diese Möglichkeiten des wechselseitigen Vergleichens, Beobachtens und Bewertens führen zu einer Intensivierung interner Wettbewerbsund Konkurrenzverhältnisse. So scheint es nur plausibel, dass Redakteurinnen und Redakteure im Lichte der Daten und Scores möglichst positiv (und nicht negativ) dastehen und auffallen möchten, weil sie wissen, dass sie theoretisch nicht nur von ihren Kollegen, sondern auch von Vorgesetzten und weiteren Dritten beobachtet werden können. Mit dieser komplementär nach innen verlaufenden Organisationsbeobachtung bildet sich sogleich die informelle Erwartung eines dateninformierten Selbst. So sollen sich die Redakteurinnen und Redakteure eigenverantwortlich und in Eigenregie ausführlich mit den Daten beschäftigen, Optimierungspotenziale erkennen und sie für ihre redaktionelle Arbeit nutzen. Die Selbstverortung und -beobachtung im Spiegel der Daten entwickeln sich demzufolge zu einer neuen zentralen redaktionellen Praxis. Hierbei dient insbesondere der Artikelscore als ein Mittel zum Selbstmanagement. Das dateninformierte Selbst bedeutet demnach auch, sich auf die Daten und ihre Irritationspotenziale einzulassen sowie das datenbasierte Beziehungsgefüge und die neuen Formen des Wettbewerbs zu akzeptieren und anzunehmen. Mit Blick auf die Verdatung und besonders im Vergleich zur Print-Distribution wandeln und erweitern sich folglich die redakteursspezifischen Anforderungen und Kompetenzen. Der Organisationswandel kann somit nicht nur

7 Die empirische Fallanalyse

durch die Analyse sich verändernder Organisationsstrukturen (Personal, Programme und Kommunikationswege) festgestellt und beschreibbar gemacht werden, sondern auch durch das Nachzeichnen einer sich etablierenden »datafizierten« Redaktionskultur. Insgesamt betrachtet lassen sich in dem »digital turn« der hier untersuchten Medienorganisation folgenreiche Wandlungsprozesse mit Blick auf die Binnenperspektive der Redaktion beobachten. Durch die zunehmende Verankerung von Daten im redaktionellen Alltag und die Schaffung entsprechender Datenkommunikationsstrukturen lässt sich eine Verlagerung der Relevanz von Daten beobachten: Daten rücken mit anderen Worten von der Peripherie (vereinzelte (Grenz-)Stellen oder Externalisierung der Datenkompetenz und -beschäftigung) ins Zentrum der Redaktion. Jedes Redaktionsmitglied soll, so die Erwartung seitens der Chefredaktion, Datenanalysten und SEO-Mitarbeiter, mit den Daten arbeiten und sie für seine Arbeit anschlussfähig machen. Das Publikum erfährt insofern einen grundlegend neuen Stellenwert, als dass es permanent in Form von Daten in organisationale und redaktionelle Belange übersetzt wird. Der Wandel der redaktionellen Umwelt Die redaktionelle Umwelt wandelt sich unter Internetbedingungen auf fundamentaler Weise. Hinsichtlich der Publikumsbeobachtung und Distribution von Inhalten entstehen neue Möglichkeiten, zugleich aber auch neue Voraussetzungen, die redaktionsintern zu Abhängigkeiten, Flexibilitätserfordernissen und Kontrollverlusten führen. Kurzum: In der Internetdistribution entstehen neue Unsicherheiten und Ungewissheitszonen für die Redaktion – unausweichliche Folgen, die sie nur bedingt beeinflussen kann. Besonders bemerkbar macht sich dies an der steigenden Relevanz von »Dritten« im digitalen Raum (Soziale Medien, Distributionsplattformen, Nachrichtenaggregatoren etc.), die in der Umwelt der Redaktion angesiedelt sind und zunehmend in die massenmediale Publikumsbeziehung treten. Sie stellen Distributionskanäle bereit, die die Redaktion nicht selbst steuern oder über die sie nicht bestimmen kann. Dadurch, dass nicht nur eigene Inhalte, sondern vielzählige Nachrichten und Informationen anderer Nachrichtenorganisationen auf jenen Kanälen und Plattformen verbreitet werden, potenziert sich in erster Linie der Wettbewerb um die Gunst der Nutzerinnen und Nutzer. Ihre Aufmerksamkeit gilt es durch die Entwicklung entsprechender Strategien (Ansprache, Wahl des Themas, der Überschrift und des Bildes etc.) zu gewinnen. Durch die Ausdifferenzierung der Distributionsmöglichkeiten von Inhalten im Netz ändert sich folglich auch die Selbstwahrnehmung der Medienorganisation. Und zwar insofern, als dass sie nur einer von vielen Informations- und Nachrichtenanbietern sind und der Großteil des Publikums nicht aus loyalen, d.h. wiederkehrenden, Nutzerinnen und Nutzern besteht,

221

222

Publikumsbeobachtung im digitalen Wandel

was wiederum bedeutet, dass das Publikum resp. die Nutzerinnen und Nutzer zunächst überzeugt werden müssen. Gleichzeitig ist beobachtbar, dass die Medienorganisation auf die Infrastrukturen »Dritter« angewiesen ist, um Nutzerinnen und Nutzer und bestimmte Zielgruppen zu erreichen. Dabei muss sie zwangsweise bestimmte Bedingungen wie bspw. die intransparente algorithmische Distributionsentscheidung jener Plattformen akzeptieren. Jene Dritte üben demzufolge einen immer größeren Einfluss auf die Redaktion aus, was zugleich auch in zusätzlichen Entscheidungsbedarfen resultiert. So muss stets entschieden und abgewägt werden, welche Distributionsplattformen genutzt werden und welche (aus guten Gründen) nicht. Durch die notwendige Auseinandersetzung mit »Dritten«, ihren Eigeninteressen und redaktionsinternen Folgen steigt folglich die Komplexität im System. Einen Stillstand oder eine Finalisierung scheint es hier nicht zu geben, da sich die redaktionelle Umwelt im Netz stetig wandelt. Das Redaktionssystem befindet sich so gesehen in einem Zustand permanenter Unruhe, auch weil es sich durch seine Umweltbeobachtungen (Daten) fortwährend selbst irritiert. Die neuen Herausforderungen, Komplexitäten und Unsicherheiten, die durch die Vervielfältigung und Ausdifferenzierung der Distributionskanäle im Netz entstehen, markieren einmal mehr einen zentralen Einschnitt im Übergang von der Print- zur Internetdistribution. Die redaktionelle Umwelt und deren Wahrnehmung ändern sich im Netz grundlegend. Die Medienorganisation wird mit neuen Abhängigkeiten, Ungewissheitszonen und Kontrollverlusten konfrontiert, die die Entwicklung entsprechender Anpassungs- und Ausweichstrategien erforderlich macht, um im digitalen Umfeld zu überleben. Der Wandel der redaktionellen Umwelt führt somit unweigerlich zu organisationalen Transformationserfordernissen – sowohl auf struktureller als auch auf operativer Ebene.

8 Fazit

Im Mittelpunkt der Arbeit standen die Publikumsbeobachtung der Massenmedien und ihre neuen Möglichkeiten der Beobachtung und Verdatung des Publikums im Internet. Hervorgehoben wurde dabei die Organisationsebene von Massenmedien. Im Besonderen wurde der Frage nachgegangen, welchen Stellenwert die Verdatungsmöglichkeiten im Netz für die Medienorganisationen (vor allem Zeitungsredaktionen) haben. Hiermit verbunden war die Annahme, dass jene neuen Möglichkeiten der Beobachtung und Verdatung des Publikums äußerst bedeutsam für die Massenmedien sind, einen tiefgreifenden Einfluss auf die Medienorganisationen haben und einen einschneidenden Wandel markieren. Die Publikumsbeobachtung der Massenmedien im digitalen Wandel Eine systemtheoretisch informierte Auseinandersetzung mit der quantifizierten Publikumsbeobachtung der Massenmedien setzt zunächst die Angabe einer Systemreferenz (Systemebene) voraus. Die Publikumsbeobachtung und ihr digitaler Wandel lassen sich, so die grundlegende Überlegung der Arbeit, instruktiv auf der Organisationsebene der Massenmedien thematisieren. Die Erkenntnisgewinne einer solchen Systemverortung wurden in Kap. 2 erörtert. Massenmedien demnach als Organisationen zu betrachten und untersuchen, stellt in der Medien- und Organisationssoziologie jedoch noch ein Forschungsdesiderat dar. Daher wurde ein organisationszentriertes Konzept entwickelt, nach dem die Publikumsbeobachtung als ein dreistufiger Prozess verstanden werden kann, der durch die Datenerhebung, den Datenumgang und die Datennutzung gekennzeichnet ist. Massenmedien als Organisationen zu verstehen, verweist außerdem auf eine ihnen zugrundeliegende System-/Umwelt-Differenz und auf ihre spezifische Kommunikationsform (Entscheidungen). Ein solches Verständnis von massenmedialer Publikumsbeobachtung führt zu der Einsicht, dass Publikumsbeobachtung in einem ersten Zugriff vor allem eines ist: höchst voraussetzungsvoll und entscheidungsbedürftig. Vermeintlichen Annahmen, dass die Beobachtung des Publikums ohne größere medienorganisatorische Aufwendungen erfolgt oder entsprechend gewonnene Erkenntnisse unreflektiert übernommen und gleichsam automatisch medienorganisationsinterne Entscheidungen festlegen, kann bzw. muss also widerspro-

224

Publikumsbeobachtung im digitalen Wandel

chen werden. Ein organisationssensibles Verständnis von massenmedialer Publikumsbeobachtung verweist vielmehr auf umweltbezogene Abhängigkeitsverhältnisse, organisationale Regelungs- und (Re-)Strukturierungsbedarfe, Prozesse der systeminternen Selbstbeobachtung und -irritation, die Notwendigkeit der Herstellung von Datenverständnissen, das Ermöglichen und Sicherstellen von kommunikativer Anschlussfähigkeit an die Publikumsbeobachtungen, die Herausbildung von datenbasierten Möglichkeiten der (De-)Legitimierung und auf sowohl beabsichtige als auch nicht beabsichtige Zwecke hinsichtlich der Einführung von Daten in die Organisation bzw. Redaktion (intendierte und nicht-intendierte Folgen der Verdatung). Mit Blick auf die Print-Massenmedien kann der Wandel der massenmedialen Publikumsbeobachtung unter Internetbedingungen nun zunächst in einer neuen zahlenförmigen Sichtbarkeit des Publikums begriffen werden. Während die Möglichkeiten der Publikumsbeobachtung für das Massenmedium Zeitung unter Print-Bedingungen stets beschränkt waren (und weiterhin sind), kann die Nutzung eigener Angebote im Netz äußerst detailliert und differenziert beobachtet und analysiert werden. (Medien-)historisch gesehen stellt dies für die Zeitung einen markanten Einschnitt dar, weshalb der Wandel der Publikumsbeobachtung eng mit der Verlagerung bzw. Erschließung des Internets und dem Medienwandel verbunden ist. Zugespitzt formuliert bedingen Medienwandel und Publikumsbeobachtung sich gegenseitig. So ermöglicht Medienwandel neue Möglichkeiten der Publikumsbeobachtung, während Erkenntnisse aus der Publikumsbeobachtung stets Medienwandel begünstigen und fördern. Unter Internetbedingungen kann aus der Perspektive der Print-Massenmedien von grundlegend neuen Voraussetzungen und Möglichkeiten der Publikumsbeobachtung gesprochen werden. Dieser Wandel der massenmedialen resp. zeitungsredaktionellen Publikumsbeobachtung kann im Hinblick auf eine im Netz nun zeitlich, sachlich und sozial verdatbare Sinndimension (siehe hierzu Luhmann 1984: 112ff. und Baraldi et al. 1997: 173ff.) plausibilisiert werden. In der zeitlichen Dimension ist zunächst festzuhalten, dass die Prozesse der Datenerhebung nicht mehr – wie unter Print-Bedingungen – zeitlich nachgelagert sind. Das Nutzungsgeschehen kann vielmehr in Echtzeit sichtbar gemacht und visualisiert werden. Die dadurch entstehende Temporalität und Serialität von Beobachtungsmöglichkeiten ermöglicht zugleich neue Vergleichspraktiken und formen.1 Die Angebotsnutzung kann folglich zu beliebigen Zeitpunkten und in beliebigen Abständen differenziert beobachtet werden – etwas was unter PrintBedingungen in solch systematischer Weise (technisch) nicht möglich war. Die Publikumsbeobachtung unter Internetbedingungen ist zudem dadurch gekennzeich1

Siehe zum Merkmal der Serialität und Temporalität in der Vergleichsforschung Ringel/ Werron 2021.

8 Fazit

net, dass ununterbrochen Daten über die Nutzung der Angebote erhoben werden und fortwährend in Analyseprogramme einfließen. Es erfolgt also eine »stille« Verdatung des Publikums – still in dem Sinne, dass sich das redaktionsseitige Tracking und Monitoring des Nutzungsverhaltens den Nutzerinnen und Nutzern nicht bemerkbar macht. Die Rezeption und Verdatung finden so gesehen simultan, in Echtzeit, statt. In der sachlichen Dimension des Wandels der Publikumsbeobachtung zeigt sich, dass nicht mehr nur das Gesamtangebot (die Zeitung im Ganzen) Gegenstand der Beobachtungen ist (unter Print-Bedingungen: die Auflagenzahl). Durch die Verdatung entwickeln sich sachliche Unterscheidungsmöglichkeiten, wodurch die Angebotsnutzung und das Publikum bzw. die Nutzerinnen und Nutzer thematisch beobachtbar werden. So kann bspw. erfasst werden, welche Artikel und Ressorts, aber auch welche Themen wie häufig und intensiv gelesen werden. Durch den Artikelscore werden darüber hinaus verschiedene, sogar sachfremde Inhalte vergleichbar gemacht. Die Publikumsbeobachtung im Netz erlaubt demnach neuartige sachliche (thematische) Zurechnungs- und Anschlusskommunikationsmöglichkeiten, die aus einer weitreichenden Verdatung des Publikums resultieren (Erfassung der Lesezeit, Lesetiefe, Verweildauer, Klicks, Bewegung auf der Homepage etc.). Das Publikum wird für die Redaktion sachlich zuordenbar und differenzierbar – ebenfalls etwas, was unter Print-Bedingungen in diesem Umfang nicht möglich war. In sozialer Dimension kann der Wandel der zeitungsredaktionellen Publikumsbeobachtung in erster Linie darin verstanden werden, dass das Publikum nicht mehr als eine homogene Masse verstanden wird, sondern als Gruppen von Nutzerinnen und Nutzern mit unterschiedlichen Interessen und Nutzungsgewohnheiten. Das Publikumsverständnis wandelt sich, was in der Folge zu nicht unerheblichen Auswirkungen auf die Produktion, Selektion, Publikation und Distribution von Inhalten führt. Neben dem thematischen Tracken des Publikums können zudem Nutzerinformationen darüber festgehalten werden, von welchem Land, Ort oder Gerät auf die Seite bzw. das Angebot zugegriffen wird (Desktop vs. Mobil). Die Entwicklung der Publikumsmessung und -erfassung in Form von Page Impressions hin zu Unique Usern verdeutlicht, dass in der Publikumsbeobachtung zunehmend Versuche unternommen werden, die Angebotsnutzung sozial – wenn auch selbstredend anonym – zurechenbar zu machen. Es wird folglich versucht, die Daten mit entsprechenden Adressen (»Quasi-Identitäten«) auszustatten und in Verbindung zu bringen. Perspektivisch kann dies dazu führen, dass den Nutzerinnen und Nutzern bestimmte Inhalte je nach Zugriffsort (lokale, regionale Themen) oder datentechnisch festgestelltem Interesse ausgespielt werden, um – so der dahinterstehende redaktionelle Gedanke – das Angebot »besser«, d.h. interessens-, nutzungs-, und bedürfnisorientiert, auf das Publikum respektive die Nutzerinnen und Nutzer zuzuschneiden. Das Berücksichtigen und Vermessen jener »sozialen« Faktoren scheinen in der Publikumsbeobachtung und den daran anschließenden redaktionellen Entscheidungen demnach immer wichtiger zu werden. Die massen-

225

226

Publikumsbeobachtung im digitalen Wandel

mediale Publikumsbeobachtung differenziert sich unter Internetbedingungen, so lässt sich zusammenfassend festhalten, in zeitlicher, sachlicher und sozialer Hinsicht aus. In der zeitungsredaktionellen Publikumsbeobachtung lässt sich darüber hinaus ein Trend der Vermessung nachzeichnen, der zunehmend auf ScoringVerfahren basiert. Der in der Fallanalyse vorgestellte Artikelscore stellt dabei kein fallspezifisches, sondern ein mediengattungsspezifisches Phänomen dar (siehe Kap. 4.2.2).2 So lässt sich redaktionsübergreifend erkennen, dass das Publikum zunehmend anhand von Scores beobachtet wird. Die algorithmische Vermittlung des Publikums – die Bildung und Ermittlung entsprechender Scores, bei denen unterschiedliche Daten miteinander aggregiert werden – stellt somit eine neue dominante Beobachtungsform dar, die einerseits auf die neuen Möglichkeiten der Verdatung und andererseits auf das steigende redaktionelle Publikumsinteresse (auch bedingt durch wirtschaftliche Motive) zurückgeführt werden kann. Während die Komplexität des Artikelscores, eine durch den Score erfolgende redakteursbezogene Leistungszuschreibung und die redaktionellen, nicht-intendierten Folgen (Steigerung interner Konkurrenzverhältnisse) interessante empirische Erkenntnisse darstellen, überrascht es aus mediensoziologischer Perspektive nicht, dass das Publikum anhand von quantifizierten bzw. quantifizierbaren Daten beobachtet wird (siehe Kap. 2). Auffällig ist bei genauerer Betrachtung vielmehr, dass mit der Bildung des Artikelscores auf das Defizit reagiert wird, das Publikum lediglich anhand eines Datentyps (wie bspw. der Klickzahl) zu vermessen und beobachten. Eine redaktionelle (und nicht kommerzielle3 ) Publikumsbeobachtung zielt demnach darauf ab, das Publikum möglichst ganzheitlich anhand mehrerer, unterschiedlichen Datentypen und -sätze zu beobachten, diese zusammenzustellen und hieraus Handlungsableitungen treffen zu können. Die Zusammenfassung jener Daten in

2

3

Genauer gesagt lässt sich im gesellschaftsweiten Trend der Verdatung erkennen, dass Scores bzw. Scoring-Verfahren allgegenwärtig sind und sich in unterschiedlichen gesellschaftlichen Teilbereichen (Funktionssystemen) etabliert haben (siehe auch Mau 2017: 103-137). Anwendung finden sie bspw. in Banken (Ermittlung der Zahlungsfähigkeit und Vergabe von Krediten), diversen Unternehmen (Nutzwertanalyse), Hochschulen (Rankings) oder aber auch im chinesischen »Social Scoring«-System, bei dem durch die Vergabe von Punkten das systemkonforme Verhalten der Menschen bewertet und dementsprechend belohnt oder sanktioniert wird. Während hier bei einem hohen Score Vorteile und Vergünstigen winken, drohen bei einem niedrigen Punktestand Einschränkungen im alltäglichen Leben wie z.B. Reiseverbote, Jobverlust oder ein eingefrorenes Bankkonto. Die Funktion der kommerziellen Publikumsbeobachtung (siehe bspw. die IVW) besteht hingegen in der Herstellung von werbemarktrelevanten Vergleichbarkeiten zwischen den Reichweiten der Massenmedien, weshalb hier auf unkomplizierte Reichweitenmessungen wie die Ermittlung von Seitenaufrufen (page impressions) zurückgegriffen wird.

8 Fazit

einem Score erleichtert sodann die Datenaneignung und -anschlussfähigkeit. Mediensoziologisch interessant ist hieran, dass das Publikum in letzter Konsequenz wie zuvor hauptsächlich anhand eines Zahlenwertes beobachtet wird. Die Form der Publikumsbeobachtung bleibt demnach dieselbe – nämlich das Publikum anhand einer Kennzahl oder eines Indikators zu beobachten und infolgedessen weitreichende redaktionelle Entscheidungen über Produktion, Publikation und Distribution von Inhalten zu treffen sowie entsprechende Entscheidungen hierdurch zu (de-)legitimieren. Was sich gewandelt hat, ist die Datengrundlage in der Publikumsbeobachtung und das nun mögliche Berufen auf belastbare(re) numerische Bezugsrealitäten, was in der Redaktion die kommunikative Erfolgsund Annahmewahrscheinlichkeit von datenbasierten Entscheidungen erhöht. Redaktionelle und organisationale Entscheidungen erfahren durch das Verweisen auf Daten demnach neue (De-)Legitimierungsmöglichkeiten. Massenmedien und Publikum – Organisation und Verdatung Das Beispiel der Print-Massenmedien zeigt eindrücklich, welche organisationalen Folgen und Transformationserfordernisse mit der Digitalisierung (dem »digital turn« der Zeitungsredaktion) einhergehen können. Die journalistische und redaktionelle Praxis – das Binnenleben der Medienorganisation – war unter Print-Bedingungen und vor der Internetdistribution maßgeblich dadurch bestimmt, dass die Mitarbeiterinnen und Mitarbeiter keine Kenntnisse und Informationen über ihr Publikum besaßen und sich deshalb mit Spekulationen sowie vereinzeltem, unsystematischem Publikumsfeedback begnügen mussten.4 Die »uncertainty about the audience« (McQuail 1965) gewährleistet(e) der Redaktion im Gegenzug hohe operative und strukturelle Freiheitsgrade, bspw. hinsichtlich der Produktion, Selektion und Publikation von Nachrichten und Inhalten oder aber auch im Hinblick auf die personelle Besetzung einzelner Ressorts. Den Print-Massenmedien wird demnach, auch in ihrer Selbstbeschreibung, ein großes Maß an Autonomie zugeschrieben. Systemtheoretisch formuliert wird die Autopoiesis der Medienorganisation durch eben jene Unsichtbarkeit des Publikums mit ermöglicht. Durch die neuartigen Möglichkeiten der Publikumsbeobachtung scheint die Autonomie respektive das Autonomieempfinden der Medienorganisation nun insofern eine Relativierung bzw. Transformation zu erfahren, als dass sie sich jetzt nicht mehr ausschließlich auf ihre Imaginationen und Vorstellungen über thematische Interessen, Zusammensetzung und Nutzungsgewohnheiten des Publikums berufen kann. Die durch die Möglichkeit des Erhebens und Analysierens von Nutzungsdaten entstehende neue redaktionelle Sichtbarkeit des Publikums führt 4

Luhmann (2017: 130-140) spricht in diesem Kontext auch von der Notwendigkeit der Schemabildung. So werden von den Massenmedien bestimmte Adressaten(kreise) vorausgesetzt.

227

228

Publikumsbeobachtung im digitalen Wandel

vielmehr dazu, dass die Medienorganisation interne Transformationserfordernisse registriert und infolgedessen ein Wandel der Entscheidungsprämissen (Personal, Programme und Kommunikationswege) wahrscheinlich wird. Die neuen Möglichkeiten der Publikumsbeobachtung werden dabei gleichzeitig als Medium der organisationsinternen Selbstbeobachtung genutzt. Es verwundert daher nicht, dass solch tiefgreifenden Veränderungen das Organisationssystem und seine Autopoiesis hochgradig irritieren und die neuen Möglichkeiten der Publikumsbeobachtung dementsprechend auch auf Ablehnung treffen und zu Konflikten führen können. Die Komplementärverdatung des Publikums und der Medienorganisation wird dabei als ein Eingriff in die traditionell stark ausgeprägte Autonomie verstanden, da hierdurch womöglich etwaige Freiheitsgrade gefährdet werden und das eigene Publikumsbild mit einem Blick in den Spiegel der Daten konfrontiert wird. Eine im Anschluss hieran provokant formulierte These wäre, dass die Print-Massenmedien und Redaktionen nie derart autonom waren und jener historisch begründete Autonomiegedanke bzw. -anspruch einerseits auf die fehlenden Möglichkeiten der Sichtbarmachung und Beobachtung des Publikums und andererseits auf eine fehlende Ausdifferenzierung der Massenmedien, wie sie sich mit dem Aufkommen des Internets bemerkbar macht, zurückgeführt werden kann. Hierfür sprächen auch die (frühen) Erkenntnisse aus der Nachrichten(wert)forschung, die zeigen, dass die Auswahl von Inhalten und Nachrichten durch entsprechende Faktoren (Überraschung, Sensationalismus, Prominenz, Nähe etc.) beeinflusst und mitbestimmt wird. Man muss dieser überspitzten und radikalen These nicht zustimmen, doch macht sie darauf aufmerksam, dass im Zuge der Digitalisierung der Massenmedien und ihrer Verdatung auf Organisationsebene weitreichende Veränderungen und Folgen sichtbar werden und neue Selbst- und Publikumsverständnisse entstehen. Die System-/Umwelt-Beobachtung erfährt so gesehen einen Bedeutungszuschuss. Die Medienorganisation verdatet sich (komplementär zum Publikum), um sich besser an ihre Umwelt anzupassen. Die Autopoiesis des Organisationssystems wird unter Internetbedingungen dementsprechend zur Aktualisierung aufgefordert – damit verbunden sind bspw. die Entwicklung von Strategien zur (Re-)Finanzierung im Netz oder aber auch eine neue redaktionelle Entscheidungsprogrammierung und Veränderungen in der Personalstruktur (neuen Kompetenzerfordernisse). Organisationen der Massenmedien (Zeitungen, Fernseh- und Radiosender) können insofern als Vorreiter der Verdatung angesehen werden, als dass sich moderne Massenmedien seit jeher mit Versuchen und Möglichkeiten der Verdatung ihres Publikums befassen. Selbstredend existieren mediengattungsspezifische Unterschiede, die es zu berücksichtigen und weiterhin zu erforschen gilt. Das große Interesse der Printmedien an den Verdatungsmöglichkeiten lässt sich unter anderem darauf zurückführen, dass sie über solch ein systematisches, detailliertes

8 Fazit

und differenziertes quantifiziertes Publikumsfeedback unter Bedingungen der Print-Distribution nicht verfügten. Dahingegen steht dem Massenmedium Fernsehen mit der Einschaltquotenmessung bereits vor der Internetdistribution ein komplexes Publikumsverdatungsinstrument zu Verfügung: das sog. GfK-Meter bzw. der Telecontrol Score, bei dem neben der statistischen Hochrechnung von Reichweiten auch soziodemografische Daten von mind. 5.400 Haushalten (ca. 11.000 Personen) berücksichtigt werden. Vorsichtig generalisierend können nun Thesen einer organisationsübergreifenden Verdatung plausibilisiert und abgeleitet werden, die nicht zwangsweise auf Massenmedienorganisationen beschränkt bleiben müssen. So lässt sich zunächst aufführen, dass mit der Verdatung von Organisationssystemen neue Möglichkeiten der Selbst- und Umweltbeobachtung eingeführt werden. Das Erheben und Auswerten von Daten kann dabei – wie im Fall der Print-Massenmedien – zur Öffnung interner Blackboxen führen. D.h., dass Sichtbarkeiten über Prozesse, Abläufe, Muster und (Dys-)Funktionalitäten hergestellt werden können, über die die Organisation zuvor keine Einsichten und Informationen besaß. Hierdurch entstehen folgenreiche numerische Bezugsrealitäten (Bezugssysteme), die das Organisationsgeschehen irritieren und das interne Beziehungsgefüge um neue Beobachtungsebenen erweitern können. Die Organisation wird so gesehen mit der Möglichkeit einer permanenten Selbstirritation, Selbstüberraschung und Selbstthematisierung im Spiegel der Daten ausgestattet. Es ist zudem nicht unwahrscheinlich, dass die Verdatung zu einer Rekonfiguration von Organisationsgrenzen führt. Es zeichnet sich immer deutlicher ab, dass Daten und die Beschäftigung mit ihnen von der Peripherie (Grenzstellen) ins Zentrum – in das Systeminnere – rücken. Die Fähigkeit, organisationsspezifische System- und Umweltdaten für die eigene Arbeit anschlussfähig zu machen, entwickelt sich demnach zunehmend zu einer generellen Kompetenzanforderung an die Organisationsmitglieder. Die Verdatung (und der Umgang mit ihr) erfordert demnach einen hohen Grad an Eigenregie – sowohl seitens der Organisation (Bereitstellung und Transformation entsprechender Strukturen) als auch auf Seite ihrer Mitglieder. Es existiert insofern keine Blaupause der Verdatung, da Organisationen von ihren spezifischen strukturellen Voraussetzungen abhängig sind. Gleichzeitig ist im Kontext der Verdatung darauf zu verweisen, dass keine einseitige Einflussnahme erfolgt. So zeigt Büchner (2018) bereits, dass Digitalisierung und Organisation sich wechselseitig beeinflussen. Gleiches scheint auch für die Verdatung zu gelten, da es wiederum Organisationen sind, die die Verdatungssysteme entwickeln, entsprechende Software- und Datenanalysetools zu Verfügung stellen sowie die Selbst- und Umweltbeobachtung des Systems überhaupt erst ermöglichen. Die hier skizzierte Perspektive einer organisationszentrierten Verdatung gilt es – auch mit Blick auf eine gesellschaftsweite Digitalisierung und Verdatung – genauer und besonders empirisch zu untersuchen.

229

230

Publikumsbeobachtung im digitalen Wandel

Ein mediensoziologischer Forschungsausblick Die Arbeit zeigt, dass die Beobachtung und Verdatung des Publikums von großer und nicht zu unterschätzender Relevanz für Massenmedien und deren mediensoziologisches Verständnis sind. Diese Erkenntnis resultiert insbesondere aus einer Organisationsbetrachtung von Massenmedien. Hiermit ist sowohl ein empirisches als auch ein theoretisches Forschungsdesiderat angesprochen, welche beide in der Arbeit thematisiert wurden. So besteht das Erkenntnisinteresse der soziologischen Systemtheorie an den Massenmedien vorrangig darin, das Zustandekommen und die Bedingungen von massenmedialer Kommunikation zu untersuchen (vgl. bspw. Luhmann 1996, Esposito 2008, Sutter 2010), was auch darauf zurückzuführen ist, dass der allgemeine Schwerpunkt der Systemtheorie auf Kommunikationsanalysen liegt. Die Systemtheorie versucht demnach »die eigenlogische Form der Massenkommunikation« (Sutter 2008: 161; Hervorhebung im Original) zu erfassen. Die Auseinandersetzung mit der massenmedialen Publikumsbeobachtung und -vermessung tritt hierdurch jedoch in den Hintergrund und wurde auch von der mediensoziologischen Forschung vernachlässigt (wenige Ausnahmen bilden hier Muhle/Wehner 2017, Wehner 2010, Wehner et al. 2017 oder Wieser 2013). Dadurch, dass Massenmedien oftmals auf Funktionssystemebene untersucht werden – also maßgeblich die Formen, Funktionen und Leistungen von Medien in der Gesellschaft analysiert werden –, bleiben ihre organisatorischen Binnenverhältnisse und Strukturen häufig unberücksichtigt. Die Betrachtung von Massenmedien als Organisationen führt jedoch zu neuen Einsichten, Erkenntnissen und Verständnissen über Massenmedien – insbesondere im Hinblick auf ihren »digital turn«. So gesehen bilden Massenmedienorganisationen wie z.B. Fernsehsender, Radiosender oder Zeitungen – auch aus systemtheoretischer Perspektive – interessante und forschungsrelevante Untersuchungsgegenstände, da hier, wie gezeigt, viele publikumsbezogene Kommunikations- und Entscheidungsbedarfe feststellbar sind. Die Fragen darüber, wie in den Medienorganisationen über das Publikum kommuniziert wird, wie es beobachtet und kommunikativ anschlussfähig gemacht wird, welche organisationalen Erfordernisse und Folgeprobleme mit der Beobachtung und Verdatung des Publikums in den Massenmedien einhergehen, sind demnach mediensoziologisch hochgradig interessant. Hier wäre eine stärkere Einbeziehung und Konsultation organisationssoziologischer Wissens- und Begriffsbestände wünschenswert (siehe auch Tacke/Drepper 2018: 115 und Hasse/Wehner 2020). Die Ausblendung der Organisationsebene von Massenmedien kann somit gewissermaßen auch als ein Erkenntnisverzicht verstanden werden. Massenmedien als Organisationen zu verstehen, bedeutet demnach, sich auch für die Binnenperspektive der Massenmedien zu interessieren. Die quantifizierte Publikumsbeobachtung erweist sich hier als eine systeminterne Notwendigkeit der Massenmedien, die unter den Bedingungen der Internetdistribution eine neue

8 Fazit

Bedeutsamkeit erfährt. Im deutschsprachigen Raum bedarf es hierzu noch an weiteren empirischen Studien sowie vergleichenden Fallanalysen, da sich die vorliegende Arbeit auf eine Medienorganisation fokussiert (überregionale Tageszeitung). Für weitere Untersuchungen erweist sich ein ethnografischer Forschungsansatz als fruchtbar und sinnvoll. Dabei gilt es sowohl mediengattungsspezifische als auch mediengattungsübergreifende Gemeinsamkeiten und Unterschiede in der Publikumsbeobachtung der Massenmedien herauszuarbeiten und auf ihre entsprechenden unterschiedlichen Voraussetzungen und Bedingungen hinzuweisen. Eine vorschnelle Verallgemeinerung »der« Medienorganisationen läuft – auch im Hinblick auf ihre Publikumsbeobachtung – Gefahr, relevante Spezifika moderner Massenmedien zu übersehen (siehe auch Göbel 2006: 119). Jene Typizität wird jedoch erst deutlich, wenn die Organisationsebene der Massenmedien mitberücksichtigt wird. So ist anzunehmen, dass lokale Tageszeitungen stark limitierte finanzielle und personelle Möglichkeiten zur Publikumsverdatung und -beobachtung besitzen, während überregionale Tageszeitungen hierfür – wie im vorliegenden Fall – ganze Abteilungen und entsprechende Stellen einrichten. Tageszeitungen verfügen darüber hinaus über andere Möglichkeiten der Inklusion (Adressierung, Einbeziehung und Beteiligung des Publikums) als Radio- oder Fernsehsender. Interessant wäre sodann, unterschiedliche Vorstellungen und Annahmen über das Publikum, seine Zusammensetzung, Interessen und Nutzungsgewohnheiten gegenüberzustellen, um hierdurch möglicherweise unterschiedliche Publikumsfiguren herausarbeiten zu können (der bzw. die »stille«, »kommentierende«, »loyale«, »flüchtige«, (un)aufmerksame Nutzerin). Des Weiteren scheint sich in der Netzdistribution eine stärkere Fragmentierung des Publikums insofern zu dokumentieren, als dass das Publikum anhand unterschiedlicher Datentypen und -spuren beobachtet werden kann und seine Nutzungs- bzw. Rezeptionsvorgänge in immer mehr Einzelteile (Datenfragmente) zerlegt werden können, die zusammengeführt ein ganzheitliches und aussagekräftiges Publikumsbild ergeben sollen. Zusammenfassend betrachtet zeichnet sich in der Digitalisierung der Massenmedien, ihrer Publikumsbeobachtung und Verdatung im Netz ein vertiefter Forschungsbedarf ab. Besonders in den Blick zu nehmen ist dabei die Organisationsebene der Massenmedien.

231

9 Literaturverzeichnis

AGF (Arbeitsgemeinschaft Fernsehforschung) (2021): https://www.agf.de/bewegtb ildforschung/methode/tv (letzter Zugriff: 06.10.2021). AGMA (Arbeitsgemeinschaft Media-Analyse e.V.) (2021a): https://www.agma-mmc .de/media-analyse/ma-tageszeitungen (letzter Zugriff: 06.10.2021). — (2021b): https://www.agma-mmc.de/media-analyse/ma-radio (letzter Zugriff: 06.10.2021). Ahva, Laura/Heikkilä, Heikki (2016): Mass, Audience, and the Public, in: Witschge et al. (Hg.): The SAGE Handbook of Digital Journalism, S. 315-325. Altmeppen, Klaus-Dieter/Greck, Regina/Kössler, Tanja (2016): Journalismus und Medien, in: Löffelholz, Martin/Rothenberger, Liane (Hg.): Handbuch Journalismustheorien. Wiesbaden: Springer Fachmedien, S. 603-618. Altmeppen, Klaus-Dieter/Arnold, Klaus (2013): Journalistik. Grundlagen eines organisationalen Feldes. Berlin/Boston: Oldenbourg Wissenschaftsverlag. Altmeppen, Klaus-Dieter (2006): Journalismus und Medien als Organisationen. Leistungen, Strukturen und Management. Wiesbaden: VS Verlag für Sozialwissenschaften. Anderson, CW (2011): Between creative and quantified audiences. Web metrics and changing patterns of newswork in local US newsrooms, in: Journalism, Vol. 12(5), S. 550-566. Ang, Ien (2001): Zuschauer, verzweifelt gesucht, in: Adelmann et al. (Hg.): Grundlagentexte zur Fernsehwissenschaft. Theorie – Geschichte – Analyse. Konstanz: UVK Verlagsgesellschaft, S. 454-483. — (1996 [1991]): Desperately seeking the audience (Repr.). London [u.a.]: Routledge. Angermüller, Johannes (2011): Wissenschaft zählen. Regieren im digitalen Panopticon, in: Hempel et al. (Hg.): Sichtbarkeitsregime. Überwachung, Sicherheit und Privatheit im 21. Jahrhundert. Wiesbaden: VS Verlag, S. 174-190. Auer, Claudia (2016): Internet und Journalismus, in: Löffelholz, Martin/ Rothenberger, Liane (Hg.): Handbuch Journalismustheorien. Wiesbaden: Springer Fachmedien, S. 489-506. Baecker, Dirk (2018): 4.0 oder die Lücke die der Rechner lässt. Leipzig: Merve.

234

Publikumsbeobachtung im digitalen Wandel

Bachmann, Götz (2009): Teilnehmende Beobachtung, in: Kühl, Stefan/Strodtholz, Petra/Taffertshofer, Andreas (Hg.): Handbuch Methoden der Organisationsforschung. Quantitative und Qualitative Methoden. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 248-271. Baraldi, Claudio/Corsi, Giancarlo/Esposito, Elena (1997): Glossar zu Niklas Luhmanns Theorie sozialer Systeme. Frankfurt a.M.: Suhrkamp. Bechmann, Anja (2011): Closer apart? The networks of cross-media production, in: Paterson, Chris A./Domingo, David (Hg.) (2011): Making Online News. Newsroom Ethnographies in the Second Decade of Internet Journalism. New York [u.a.]: Peter Lang, S. 15-30. Belair-Gagnon, Valerie/Holton, Avery E. (2018): Boundary Work, Interloper Media, And Analytics In Newsrooms, in: Digital Journalism, Vol. 6(4), S. 492-508. Bell, Emily/Owen, Taylor (2017): The Platform Press: How Silicon Valley reengineered journalism. New York: Columbia Journalism School. Blöbaum, Bernd (1994): Journalismus als soziales System. Geschichte, Ausdifferenzierung und Verselbständigung. Opladen: Westdeutscher Verlag. Boczkowski, Pablo J. (2013): The continual transformation of online news in the digital age. In: Communication & Society, 25, S. 1-26. — (2005): Digitizing the News: Innovation in Online newspapers. Cambridge, MA: MIT Press. Bogner, Alexander/Littig, Beate/Menz, Wolfgang (2014): Interviews mit Experten. Eine praxisorientierte Einführung. Wiesbaden: Springer VS. Bonfadelli, Heinz (2004): Mediennutzungsforschung, in: Ders.: Medienwirkungsforschung. 1. Grundlagen und theoretische Perspektiven, 3. überarb. Aufl. Konstanz: UVK Verlagsgesellschaft, S. 53-93. Bourdieu, Pierre (1998): Über das Fernsehen. Frankfurt a.M.: Suhrkamp. Brake, David R. (2017): The Invisible Hand of the Unaccountable Algorithm: How Google, Facebook and Other Tech Companies Are Changing Journalism, in: Tong, Jingrong/Lo, Shih-Hung (Hg.): Digital Technology and Journalism. An international Comparative Perspective. London: Palgrave Macmillan, S. 25-46. Breidenstein, Georg, Kalthoff, Herbert & Nieswand, Boris (2013). Ethnografie. Die Praxis der Feldforschung. Konstanz: UVK Verlagsgesellschaft. Breunig, Christian/Handel, Marlene/Kessler, Bernhard (2020): Massenkommunikation 1964-2020: Mediennutzung im Langzeitvergleich, in: Media Perspektiven, Heft 7-8/2020, S. 410-432. Brlek, Aleksander Sašo Slaček (2018): Audience Metrics as a Decision-Making Factor in Slovene Online News Organizations, in: Bilić et al. (Hg.), Technologies of Labour and the Politics of Contradiction, Dynamics of Virtual Work, S. 211-232. Bunce, Mel (2019): Management and resistance in the digital newsroom, in: Journalism, Vol. 20(7), S. 890-905.

9 Literaturverzeichnis

Buß, Michael/Darschin, Wolfgang (2004): Auf der Suche nach dem Fernsehpublikum, in: Media Perspektiven, Heft 1/2004, S. 15-27. Büchner, Stefanie (2018): Zum Verhältnis von Digitalisierung und Organisation, in: Zeitschrift für Soziologie, Jg. 47, Heft 5, S. 332-348. Cevolini, Alberto (2014): Zahlen, Zahlenverhältnisse, Zahlensucht, in: Ders. (Hg.): Die Ordnungen des Kontingenten. Beiträge zur zahlenmäßigen Selbstbeschreibung der modernen Gesellschaft. Wiesbaden: Springer VS, S. 9-37. Chartbeat (2021): https://chartbeat.com/ (letzter Zugriff 06.10.2021). Cherubini, Federica/Nielsen, Rasmus Klein (2016): Editorial analytics. How news media are developing and using audience data and metrics, in: Reuters Institute for the Study of Journalism (Hg.): Digital News Project 2016, S. 1-48. Christin, Angèle (2014a): When it comes to chasing clicks, journalists say one thing but feel pressure to do another. Abrufbar unter: https://www.niemanlab .org/2014/08/when-it-comes-to-chasing-clicks-journalists-say-one-thing-but -feel-pressure-to-do-another/ (letzter Zugriff: 06.10.2021). — (2014b): Clicks or Pulitzers? Web journalists and their work in the United States and France. Princeton University. Abrufbar unter: https://dataspace.princeton .edu/bitstream/88435/dsp01wd375z524/1/Christin_princeton_0181D_11058.pdf (letzter Zugriff: 06.10.2021). Cohen, Bernard C. (1963): The Press and Foreign Policy. Princeton: Princeton University Press. Cyert, Richard M./March, James G. (1963): A Behavioral Theory of the Firm. Englewood Cliffs (NJ). Desmond, Mark (1996) (Hg.): Paul Lazarsfelds Wiener RAVAG-Studie 1932. Der Beginn der modernen Rundfunkforschung. Wien und Mühlheim a. d. Ruhr. Diakopoulos, Nicholas (2015): Algorithmic Accountability. Journalistic investigation of computational power structures, in: Digital Journalism, Vol. 3(3), S. 398415. Diaz-Bone, Rainer (2018): Neue Ausschließdynamiken durch Big Data-generierte Unsichtbarkeiten, Inkohärenzen und ungleiche Zeitlichkeiten, in: Houben, Daniel/Prietl, Bianca (Hg.): Datengesellschaft. Einsichten in die Datafizierung des Sozialen. Bielefeld: transcript, S. 207-229. Dickel, Sascha/Franzen. Martina (2015): Digitale Inklusion: Zur sozialen Öffnung des Wissenschaftssystems, in: Zeitschrift für Soziologie, Jg. 44, Heft 5, S. 330-347. Dillinger, Yannick (2018): Artikelscore: Wertvoll ist nicht (nur), was klickt. Abrufbar unter: https://www.yannickdillinger.de/post/176188732393/artikelscorewertvoll-ist-nicht-nur-was-klickt (letzter Zugriff: 06.10.2021). DiMaggio, Paul J./Powell, Walter W. (1983): The iron cage revisted: Institutional isomorphism and collective rationality in organizational fields, in: American Sociological Review, Vol. 48(2), S. 147-160.

235

236

Publikumsbeobachtung im digitalen Wandel

Domingo, David (2011): Introduction: The Centrality of Online Journalism Today (and Tomorrow), in: Paterson, Chris A./Domingo, David (Hg.) (2011): Making Online News. Newsroom Ethnographies in the Second Decade of Internet Journalism. New York [u.a.]: Peter Lang, S. xiii-xvii. Espeland, Wendy Nelson/Sauder, Michael (2007): Rankings and reactivity: How public measures recreate social worlds, in: American Journal of Sociology, Vol. 111(1), S. 1-40. Espinosa, Paul (1982): The audience in the text. Ethnographic observations of a Hollywood story conference, in: Media, Culture and Society, Vol. 4(1), S. 77-86. Esposito, Elena (2008): Abhängige Unabhängigkeit. Die Autonomie des Journalismus als Operationsmodus und Erfordernis, in: Pörksen, Bernhard/Loosen, Wiebke/Scholl, Armin (Hg.): Paradoxien des Journalismus. Theorie – Empirie – Praxis. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 327-340. Felle, Tom (2016): Digital watchdogs? Data reporting and the news media’s traditional ›fourth estate‹ function, in: Journalism, Vol. 17(1), S. 85-96. Fürst, Silke (2014): »The audience is the message«. Die journalistische Berichterstattung über Publikumsresonanz, in: Loosen, Wiebke & Dohle, Marco (Hg.): Journalismus und (sein) Publikum. Schnittstellen zwischen Journalismusforschung und Rezeptions- und Wirkungsforschung. Wiesbaden: Springer VS, S. 131-149. — (2017). Popularität statt Relevanz? Die journalistische Orientierung an OnlineNutzungsdaten, in: Mämecke et al. (Hg.): Bedeutende Daten. Modelle, Verfahren und Praxis der Vermessung und Verdatung im Netz. Wiesbaden: Springer VS, S. 171204. Galtung, Johann/Ruge, Mari Holmboe (1965): The Structure of Foreign News. The presentation of the Congo, Cuba and Cyprus Crises in Four Norwegian Newspapers, in: Journal of Peace Research, Vol. 2, No. 1 (1965), S. 64-91. Gillespie, Tarleton (2014): The Relevance of Algorithms, in: Ders./Boczkowski, Pablo J./Foot, Kirsten A. (Hg.): Media Technologies: Essays on Communication, Materiality, and Society. Cambridge: MIT Press, S. 167-193. Göbel, Andreas (2006): Der »Heilige Geist des Systems«? Gesellschaftstheoretische Bemerkungen zum System der Massenmedien, in: Ziemann, Andreas (Hg.): Medien der Gesellschaft – Gesellschaft der Medien. Konstanz: UVK Verlagsgesellschaft, S. 111-139. Göttlich, Udo/Heinz, Luise/Herbers, Martin (Hg.) (2017): Ko-Orientierung in der Medienrezeption. Praktiken der Second Screen-Nutzung. Wiesbaden: VS Verlag für Sozialenwissenschaften. Gruber, Alexander (2015): Beraten nach Zahlen. Über Steuerungsinstrumente und Kennzahlen in Beratungsprojekten. Wiesbaden: Springer Fachmedien. Gynild, Astrid (2014): Journalism innovation leads to innovation journalism: The impact of computational exploration on changing mindsets, in: Journalism, Vol. 15(6), S. 713-730.

9 Literaturverzeichnis

Haim, Mario (2019): Die Orientierung von Online-Journalismus an seinem Publikum. Anforderung, Antizipation, Anspruch. Wiesbaden: Springer VS. Hall, Stuart (1999): Kodieren/Dekodieren, in: Bromley, Roger/Göttlich, Udo/ Winter, Carsten (Hg.): Cultural Studies. Grundlagentexte zur Einführung. Lüneburg: zu Klampen, S. 92-110. Hammond, Philip (2017): From computer-assisted to data-driven: Journalism and Big Data, in: Journalism, Vol. 18(4), S. 408-424. Hasebrink, Uwe (2008): Das multiple Publikum. Paradoxien im Verhältnis von Journalismus und Mediennutzung, in: Pörksen, Bernhard/Loosen, Wiebke/ Scholl, Armin (Hg.): Paradoxien des Journalismus. Theorie – Empirie – Praxis. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 513-530. Hasse, Raimund/Wehner, Josef (2020): Organisationssoziologie und Mediensoziologie im Dialog. Raimund Hasse im Gespräch mit Josef Wehner, in: Apelt et al. (Hg.): Handbuch Organisationssoziologie, Wiesbaden: Springer VS, S. 1-8. Heintz, Bettina (2019): Vom Komparativ zum Superlativ. Eine kleine Soziologie der Rangliste, in: Nicolae et al. (Hg.): (Be)Werten. Beiträge zur sozialen Konstruktion von Wertigkeit. Wiesbaden: Springer Fachmedien, S. 45-79. — (2010): Numerische Differenz. Überlegungen zu einer Soziologie des (quantitativen) Vergleichs, in: Zeitschrift für Soziologie, Jg. 39, Heft 3, S. 162-181. — (2007): Zahlen, Wissen, Objektivität: Wissenschaftssoziologische Perspektiven, in: Mennicken, Andrea/Vollmer, Hendrik (Hg.): Zahlenwerk. Kalkulation, Organisation und Gesellschaft. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 65-85. Helfferich, Cornelia (2014): Leitfaden- und Experteninterviews, in: Baur, Nina/ Blasius, Jörg (Hg.), Handbuch Methoden der empirischen Sozialforschung, Wiesbaden: Springer Fachmedien, S. 559-574. Hering, Linda/Schmidt, Robert J. (2014): Einzelfallanalyse, in: Baur, Nina/ Blasius, Jörg (Hg.), Handbuch Methoden der empirischen Sozialforschung, Wiesbaden: Springer Fachmedien, S. 529-541. Hohlfeld, Ralf (2013): Journalistische Beobachtungen des Publikums, in: Meier, Klaus/Neuberger, Christoph (Hg.): Journalismusforschung. Stand und Perspektiven. Baden-Baden: Nomos Verlagsgesellschaft, S. 135-146. — (2005): »Der missachtete Leser revisted«. Zum Wandel von Publikumsbild und Publikumsorientierung im Journalismus, in: Behmer et al. (Hg.): Journalismus und Wandel. Analysedimensionen, Konzepte, Fallstudien. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 195-224. Hölig, Sascha/Loosen, Wiebke (2018): Das Publikum des Journalismus. Nachrichtenrezeption, Einstellungen und aktive Beteiligung, in: Nuernbergk, Christian/Neuberger, Christoph (Hg.): Journalismus im Internet. Profession – Partizipation – Technisierung, 2. Aufl. Wiesbaden: Springer Fachmedien, S. 209-240.

237

238

Publikumsbeobachtung im digitalen Wandel

Hofstetter, Brigitte/Schönhagen, Philomen (2014): Wandel redaktioneller Strukturen und journalistischen Handelns, in: Studies in Communication | Media, Jg. 3(2), S. 228-252. Hülsen, Isabell (2015): Zahlt er, zahlt er nicht?, in: Spiegel 12/2015, S. 138-143. Abrufbar unter: https://www.spiegel.de/politik/zahlt-er-zahlt-er-nicht-a-c6ef dc06-0002-0001-0000-000132327451 (letzter Zugriff: 06.10.2021). Keller, Reiner (2019): Positionierungsmacht, in: Nicolae et al. (Hg.): (Be)Werten. Beiträge zur sozialen Konstruktion von Wertigkeit. Wiesbaden: Springer Fachmedien, S. 147-169. Knoblauch, Hubert (2014): Ethnographie, in: Baur, Nina/Blasius, Jörg (Hg.), Handbuch Methoden der empirischen Sozialforschung, Wiesbaden: Springer Fachmedien, S. 521-528. Kühl, Stefan (2019): Jenseits von zweckrationalen Steuerungsfantasien im Management, in: Apelt et al. (Hg.): Handbuch Organisationssoziologie, Wiesbaden: Springer VS, S. 1-19. — (2018): Organisationskultur. Eine Konkretisierung aus systemtheoretischer Perspektive, in: Managementforschung, Jg. 28(7), S. 7-35. Kühl, Stefan/Muster, Judith (2016): Organisationen gestalten. Eine kurze organisationstheoretisch informierte Handreichung. Wiesbaden: Springer VS. Lazarsfeld, Paul F./Dinerman, Helen (1949): Resarch for action, in: Lazardsfeld, Paul F./Stanton, Frank N. (ed.): Communication Research 1948-1949. New York: Harper & Brothers, S. 73-108. Lee, Angela/Lewis, Seth/Powers, Matthew (2012): Audience Clicks and News Placements: A Study of Time-Lagged Influence in Online Journalism, in: Communication Research, Vol., 41 (4), S. 505-530. Lewis, Seth C. (2015): Journalism In An Era Of Big Data. Cases, concepts, and critiques, in: Digital Journalism, Vol. 3(3), S. 321-330. Lippmann, Walter (1922): Public Opinion. New York: Harcourt Brace & Company. Lischka, Juliane A. (2018): Nachrichtenorganisation. Umbrüche durch Konvergenz, Crossmedialität, Multikanal- und Innovationsfähigkeit, in: Nuernbergk, Christian/Neuberger, Christoph (Hg.): Journalismus im Internet. Profession – Partizipation – Technisierung, 2. Aufl. Wiesbaden: Springer Fachmedien, S. 273-293. Lischka, Juliane A./Werning, Markus (2017): Wie Facebook den Regionaljournalismus verändert: Publikums- und Algorithmusorientierung bei der FacebookThemenselektion von Regionalzeitungen, in: kommunikation@gesellschaft, Jg. 18, Beitrag 6, S. 1-25. Lobigs, Frank (2018). Wirtschaftliche Probleme des Journalismus im Internet. Verdrängungsängste und fehlende Erlösquellen, in: Neuberger et al. (Hg.): Journalismus im Internet. Profession – Partizipation – Technisierung. Wiesbaden: Springer VS, S. 295-334.

9 Literaturverzeichnis

Loosen, Wiebke (2016): Journalismus als ein (ent-)differenziertes Phänomen, in: Löffelholz, Martin/Rothenberger, Liane (Hg.): Handbuch Journalismustheorien. Wiesbaden: Springer Fachmedien, S. 177-189. Loosen, Wiebke/Schmidt, Jan-Hinrik (2012). (Re-)Discovering the audience. The relationship between journalism and audience in networked digital media, in: Information, Communication & Society, Vol. 15 (6), S. 867-887. Loosen, Wiebke/Schmidt, Jan-Hinrik/Heise, Nele/Reimer, Julius/Scheler, Mareike (2013): Publikumsinklusion bei der Tagesschau. Fallstudienbericht aus dem DFG-Projekt »Die (Wieder-)Entdeckung des Publikums«. Hamburg: Verlag HansBredow-Institut. Luhmann, Niklas (2017 [1996]): Die Realität der Massenmedien, 5. Aufl. Wiesbaden: Springer VS. — (2014): Ebenen der Systembildung – Ebenendifferenzierung (unveröffentliches Manuskript 1975), in: Zeitschrift für Soziologie, Sonderheft Interaktion – Organisation – Gesellschaft revisted, S. 6-39. — (2000): Organisation und Entscheidung. Opladen [u.a.]: Westdt. Verlag. — (1984): Soziale Systeme. Grundriß einer allgemeinen Theorie, Frankfurt a.M.: Suhrkamp. — (1964): Funktionen und Folgen formaler Organisation. Berlin: Duncker & Humblot Marcinkowski, Frank (1993): Publizistik als autopoietisches System: Politik und Massenmedien. Eine systemtheoretische Analyse. Opladen: Westdt. Verlag. Mau, Steffen (2017): Das metrische Wir. Über die Quantifizierung des Sozialen. Berlin: Suhrkamp. McCombs, Maxwell E./Shaw, Donald L. (1972): The agenda-setting function of mass media, in: Public Opinion Quarterly, Jg. 36(2), 176-187. McQuail, Denis (1997): Audience analysis. Thousands Oaks [u.a.]: SAGE Publications. — (1965): Uncertainty about the audience and the organization of mass communications, in: The Sociological Review, Vol. 13 (1), S. 75-84. Mennicken, Andrea/Vollmer, Hendrik (2007): Einleitung: Fundstellen von Zahlenforschung, in: Dies. (Hg.): Zahlenwerk. Kalkulation, Organisation und Gesellschaft. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 9-18. Meuser, Michael/Nagel, Ulrike (1991): ExpertInneninterviews – vielfach erprobt, wenig bedacht. Ein Beitrag zur qualitativen Methodendiskussion, in: Garz, Detlef/Kraimer, Klaus (Hg.): Qualitativ-empirische Sozialforschung. Konzepte, Methoden, Analysen. Opladen: Westdeutscher Verlag, S. 441-471. Mormann, Hannah (2016): Das Projekt SAP. Zur Organisationssoziologie betriebswirtschaftlicher Standardsoftware. Bielefeld: transcript. — (2013): Zur informationstheoretischen und organisationstheoretischen Formalisierung von Organisation, in: Passoth, Jan-Hendrik/Wehner, Josef (Hg.): Quo-

239

240

Publikumsbeobachtung im digitalen Wandel

ten, Kurven und Profile. Zur Vermessung der sozialen Welt. Wiesbaden: Springer VS, S. 69-86. Molzberger, Kaspar (2020): Autonomie und Kalkulation. Zur Praxis gesellschaftlicher Ökonomisierung im Gesundheits- und Krankenhauswesen. Bielefeld: transcript. Moyo, Dumisani/Mare, Admire/Matsilele, Trust (2019): Analytics-Driven Journalism? Editorial Metrics and the Reconfiguration of Online News Production Practices in African Newsrooms, in: Digital Journalism, Vol. 7 (4), S. 490-506. Mögerle, Ursina (2009). Substitution oder Komplementarität? Die Nutzung von Onlineund Print-Zeitungen im Wandel. Konstanz: UKV. Muhle, Florian/Wehner, Josef (2017). »Online-Audiences« – Zur Publikumsvermessung im Internet, in: kommunikation@gesellschaft, Jg. 18, Beitrag 4, S. 1-23. Münch, Richard (2015): Alle Macht den Zahlen! Zur Soziologie des Zitationsindexes, in: Soziale Welt, Jg. 66, S. 149-159. Muster, Judith/Büchner, Stefanie (2018): Organisation und Datafizierung, in: Houben, Daniel/Prietl, Bianca (Hg.): Datengesellschaft. Einsichten in die Datafizierung des Sozialen. Bielefeld: transcript, S. 253-277. Mützel, Sophie/Saner, Philippe/Unternährer, Markus (2018): Schöne Daten! Konstruktion und Verarbeitung von digitalen Daten, in: Houben, Daniel/Prietl, Bianca (Hg.): Datengesellschaft. Einsichten in die Datafizierung des Sozialen. Bielefeld: transcript, S. 111-132. Napoli, Philip M. (2011): Audience evolution. New technologies and the transformations of media audiences. New York: Columbia University Press. Nassehi, Armin (2019): Muster. Theorie der digitalen Gesellschaft. München: C.H. Beck Nassehi, Armin/Nollman, Gerd (1997): Inklusionen. Organisationssoziologische Ergänzungen der Inklusion-/Exklusionstheorie, in: Soziale Systeme, Jg. 3(2), S. 393-411. Nerurkar, Michael/Gärtner, Timon (2020): Datenhermeneutik: Überlegungen zur Interpretierbarkeit von Daten, in: Wiegerling et al. (Hg.): Datafizierung und Big Data. Wiesbaden: Springer Fachmedien, S. 195-209. Neuberger, Christoph/Kapern, Peter (2013): Der Journalismus und sein Publikum – Was denkt und erwartet das Publikum? Und wie erfährt der Journalismus davon?, in: Dies.: Grundlagen des Journalismus. Wiesbaden: Springer Fachmedien Wiesbaden, S. 169-192. Neuberger, Christoph/Nuernbergk, Christian (2015): Verdatete Selbstbeschreibung der Gesellschaft. Über den Umgang des Journalismus mit Big Data und Algorithmen, in: Süssenguth, Florian (Hg.): Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung. Bielefeld: transcript, S. 199-224. Neumann-Braun, Klaus (2000): Publikumsforschung – im Spannungsfeld von Quotenmessung und handlungstheoretisch orientierter Rezeptionsforschung, in: Ders./Müller-Doohm, Stefan (Hg.), Medien- und Kommunikationssoziologie. Eine Einführung in zentrale Begriffe und Theorien. Weinheim: Juventa, S. 181-204.

9 Literaturverzeichnis

Nguyen, An (2013): Online News Audiences: The challenges of web metrics, in: Fowler-Watt, Karen/Allan, Stuart (Hg.): Journalism: New Challenges. Fern Barrow: Bournemouth University, S. 146-161. Nielsen, Rasmus Klein/Ganter, Sarah Anne (2018): Dealing with digital intermediaries: A case study of the relations between publishers and platforms, in: new media & society, Vol. 20(4), S. 1600-1617. Passoth, Jan-Hendrik/Wehner, Josef (2013): Quoten, Kurven und Profile – Zur Vermessung der sozialen Welt. Einleitung, in: Dies. (Hg.:) Quoten, Kurven und Profile. Zur Vermessung der sozialen Welt. Wiesbaden: Springer VS, S. 7-23. Passoth, Jan-Hendrik/Sutter, Tilmann/Wehner, Josef (2013): Vernetzungen und Publikumskonstruktionen im Internet, in: Job et al. (Hg.): Die Dynamik sozialer und sprachlicher Netzwerke. Wiesbaden: Springer VS, S. 139-159. Paterson, Chris A. (2008): Why Etnography?, in: Paterson, Chris A./Domingo, David (Hg.) (2008): Making Online News. The Ethnography of New Media Production. New York [u.a.]: Peter Lang, S. 1-11. Paterson, Chris A./Domingo, David (Hg.) (2011): Making Online News. Newsroom Ethnographies in the Second Decade of Internet Journalism. New York [u.a.]: Peter Lang. — (2008): Making Online News. The Ethnography of New Media Production. New York [u.a.]: Peter Lang. Paulussen, Steve/Geens, Davy/Vandenbrande, Kristel (2011): Fostering a Culture of Collaboration. Organzational Challenges of Newsroom Innovation, in: Paterson, Chris A./Domingo, David (Hg.) (2011): Making Online News. Newsroom Ethnographies in the Second Decade of Internet Journalism. New York [u.a.]: Peter Lang, S. 3-14. Petre, Caitlin (2018): Engineering Consent. How the design and marketing of newsroom analytic tools rationalize journalists’ labor, in: Digital Journalism, Vol. 6(4), S. 509-527. — (2015): The Traffic Factories: Metrics at Chartbeat, Gawker Media, and The New York Times, New York: Columbia University. Pieper, Karsten/Wehner, Josef (2021). Politik der Verdatung – Zum »digital turn« der Massenmedien, in: Wieser, M. & Pilipets, E. (Hg.): Medienkultur als kritische Gesellschaftsanalyse. Festschrift für Rainer Winter. Köln: Halem, S. 382-400 Pieper, Karsten (2016): Publikumskonstruktion unter Internetbedingungen. Fallanalyse eines öffentlich-rechtlichen Internetradios (unveröffentlichte Masterarbeit). Universität Bielefeld. Porter, Theodore M. (1986): The rise of statistical thinking: 1820-1900. Princeton/NJ: Princeton University Press. Prietl, Bianca/Houben, Daniel (2018): Einführung. Soziologische Perspektiven auf die Datafizierung der Gesellschaft, in: Dies. (Hg.): Datengesellschaft. Einsichten in die Datafizierung des Sozialen. Bielefeld: transcript, S. 7-32.

241

242

Publikumsbeobachtung im digitalen Wandel

Przyborski, Aglaja/Wohlrab-Sahr, Monika (2014): Qualitative Sozialforschung. Ein Arbeitsbuch, 4. erweiterte Aufl. München: Oldenbourg. Pujik, Roel (2008): Ehnographic Media Production Research in a Digital Environment, in Paterson, Chris A./Domingo, David (Hg.): Making Online News. The Ethnography of New Media Production. New York [u.a.]: Peter Lang, S. 29-41. Quandt, Thorsten (2011): Journalisten unter Beobachtung. Grundlagen, Möglichkeiten und Grenzen der Beobachtung als Methode der Journalismusforschung, in: Jandura, Olaf/Quandt, Thorsten/Vogelsang, Jens (Hg.): Methoden der Journalismusforschung. Wiesbaden: Springer VS, S. 277-297. — (2008): News Tuning and Content Management: An Observation Study of Old and New Routines in German Online Newsrooms, in: Paterson, Chris A./ Domingo, David (Hg.): Making Online News. The Ethnography of New Media Production. New York [u.a.]: Peter Lang, S. 77-98. Rodríguez, Darío (1991): Gestion organizacional. Elementos para su estudio. Ediciones Universidad Católica de Chile, Santiago de Chile. Ringel, Leopold/Werron, Tobias (2021): Serielle Vergleiche: Zum Unterschied, den Wiederholung macht. Anhand der Geschichte von Kunst- und Hochschulrankings, in: KZfSS Kölner Zeitschrift für Soziologie und Sozialpsychologie. Abrufbar unter: https://doi.org/10.1007/s11577-021-00750-2. — (2019): Soziologie der Rankings: Neue Perspektiven, in: Dies. (Hg.): Rankings – Soziologische Fallstudien. Wiesbaden: Springer VS, S. V-XXVI. Robinson, Sue (2011): »Beaming up« Traditional Journalists: The Transition of an American Newspaper into Cyberspace, in: Paterson, Chris A./Domingo, David (Hg.) (2011): Making Online News. Newsroom Ethnographies in the Second Decade of Internet Journalism. New York [u.a.]: Peter Lang, S. 31-43. Röper, Horst (2020): Tageszeitungen 2020: Schrumpfender Markt und sinkende Vielfalt, in: Media Perspektiven, Heft 6/2020, S. 331-52. Rühl, Manfred (1979 [1969]): Die Zeitungsredaktion als organisiertes soziales System, überarbeite und erweiterte 2. Aufl. Freiburg Schweiz: Universitätsverlag. Schäffer, Burkhard (2017): Organisationale Selbstbeschreibungen im Medium von Zahlen – Perspektiven dokumentarischer Zahlinterpretation, in: Amling, Steffen/Vogd, Werner (Hg.): Dokumentarische Organisationsforschung – Perspektiven der praxeologischen Wissenssoziologie. Opladen: Barbara Budrich, S. 76-96. Schenk, Michael (2007): Medienwirkungsforschung. 3., vollst. überarb. Aufl. Tübingen: Mohr Siebeck. Schmidt, Jan-Hindrik (2012): Vom Gatekeeping zum Gatewatching. Verändern Soziale Medien den Journalismus?, in Bundeszentrale für politische Bildung (Hg.): Dossier Lokaljournalismus. Abrufbar unter: https://www.bpb.de/gesells chaft/medien-und-sport/lokaljournalismus/151433/vom-gatekeeping-zum-gat ewatching (letzter Zugriff: 06.10.2021).

9 Literaturverzeichnis

Schneider, Irmela/Otto, Isabell (2007): Strategien der Verdatung. Einleitung, in: Dies. (Hg.): Formationen der Mediennutzung II. Strategien der Verdatung. Bielefeld: transcript, S. 9-15. Schoeneberg, Klaus-Peter/Pein, Jennifer (2014): Entscheidungsfindung mit Big Data – Einsatz fortschrittlicher Visualisierungsmöglichkeiten zur Komplexitätsbeherrschung betriebswirtschaftlicher Sachverhalte im Unternehmen, in: Schoeneberg, Klaus-Peter (Hg.): Komplexitätsmanagement im Unternehmen. Herausforderungen im Umgang mit Dynamik, Unsicherheit und Komplexität meistern. Wiesbaden: Springer Fachmedien, S. 309-354. Schrage, Dominik (2005): ›Anonymus Publikum‹. Massenkonstruktion und die Politiken des Radios. In: Gethmann Daniel/Stauff, Markus (Hg.): Politiken der Medien. Diaphanes, Zürich/Berlin, S 173-194 Schwarting, Rena (2015): Hochfrequenzhandel zwischen Entscheidungsautomation und Entscheidungsautonomie, in: Apelt, Maja/Senge, Konstanze (Hg.): Organisation und Unsicherheit. Wiesbaden: Springer VS, S. 159-174. Selting, Margret/Auer, Peter/Barth-Weingarten, Dagmar/Bergmann, Jörg/Bergmann, Pia/Birkner, Karin/Couper-Kuhle, Elizabeth/ Deppermann, Arnulf/Gilles, Peter/Günthner, Susanne/Hartung, Martin/Kern, Friederike (Hg.) (2009): Gesprächsanalytisches Transkriptionssystem 2 (GAT 2), in: Gesprächsforschung – Online-Zeitschrift zur verbalen Interaktion, Jg. 10, S. 353-402. Smudits, Alfred (2000): Desmond Mark (Hg.): Paul Lazarsfelds Wiener RAVAGStudie 1932. Der Beginn der modernen Rundfunkforschung, in: MEDIENwissenschaft: Rezensionen | Reviews, Jg. 17, Nr. 1, S. 101-103. Srugies, Alice (2016): Journalismus als Organisation, in: Löffelholz, Martin/ Rothenberger, Liane (Hg.): Handbuch Journalismustheorien. Wiesbaden: Springer Fachmedien, S. 507-522. Stauff, Markus/Thiele, Matthias (2007): Mediale Infografiken. Zur Popularisierung der Verdatung von Medien und ihrem Publikum, in: Schneider, Irmela/ Otto, Isabell (Hg.): Formationen der Mediennutzung II. Strategien der Verdatung. Bielefeld: Transcript, S. 251-267. Städler, Felix (2016): Kultur der Digitalität. Berlin: Suhrkamp. Steensen, Steen (2011): Making Online Features. How the Discursive Practice of an Online Newsroom Affects Genre Development, in: Paterson, Chris A./ Domingo, David (Hg.) (2011): Making Online News. Newsroom Ethnographies in the Second Decade of Internet Journalism. New York [u.a.]: Peter Lang, S. 87-100. Stichweh, Rudolf (2016): Inklusion und Exklusion. Studien zur Gesellschaftstheorie, 2., erweiterte Aufl. Bielefeld: transcript. Stöber, Rudolf (2013): Neue Medien. Geschichte: Von Gutenberg bis Apple und Google – Medieninnovation und Evolution. Bremen: edition lumière.

243

244

Publikumsbeobachtung im digitalen Wandel

Strauss, Anselm L./Corbin, Juliet M. (1996): Grounded Theory. Grundlagen qualitativer Sozialforschung. Weinheim: Beltz, Psychologie-Verl.-Union. Strübing, Jörg (2014): Grounded Theory und Theoretical Sampling, in: Baur, Nina/ Blasius, Jörg (Hg.), Handbuch Methoden der empirischen Sozialforschung, Wiesbaden: Springer Fachmedien, S. 457-472. Strübing, Jörg (2018): Qualitative Sozialforschung. Eine komprimierte Einführung, 2., überarbeitete und erweiterte Auflage. München: De Gruyter Oldenbourg. Sutter, Tilmann (2016): Massenmediale Inklusionsprozesse. Adressierung, Einbeziehung und Beteiligung des Publikums im Fernsehen, in: Zeitschrift für Theoretische Soziologie, Heft 2, S. 182-213. — (2010): Medienanalyse und Medienkritik. Forschungsfelder einer konstruktivistischen Soziologie der Medien. Wiesbaden: VS Verlag für Sozialwissenschaften. — (2008): Systemtheorie, in: Sander, Uwe/von Gross, Friederike/Hugger, Kai-Uwe (Hg.): Handbuch Medienpädagogik, Wiesbaden: VS Verlag für Sozialwissenschaften, S. 160-165. Süssenguth, Florian (2015) (Hg.): Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung. Bielefeld: transcript. Tacke, Veronika (2010): Organisationssoziologie, in: Kneer, Georg/Schroer, Markus (Hg.): Handbuch Spezielle Soziologien. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 341-359. Tacke, Veronika/Drepper, Thomas (2018): Soziologie der Organisation. Wiesbaden: Springer VS. Tages-Anzeiger-Redaktion – Die Gruppe 200 (2013): Wir möchten unsere Arbeit machen. Abrufbar unter: https://www.infosperber.ch/data/attachements/Prot est %20TA-Redaktion.pdf (letzter Zugriff: 06.10.2021). Tandoc, Edson C. (2014): Journalism is twerking? How web analytics is changing the process of gatekeeping, in: new media & society, Vol. 16 (4), S. 559-575. Tandoc, Edson C./Jenkins, Joey (2017): The Buzzfeedication of journalism? How traditional news organizations are talking about a new entrant to the journalistic field will surprise you!, in: Journalism, Vol. 18(4), S. 482-500. Thiele, Matthias (2006): Zahl und Sinn. Zur Effektivität und Affektivität der Fernsehquoten, in: Adelmann, Ralf et al. (Hg.): Ökonomien des Medialen. Tausch, Wert und Zirkulation in den Medien- und Kulturwissenschaften. Bielefeld: transcript, S. 305-330. Thierbach, Cornelia/Petschick, Grit (2014): Beobachtung, in: Baur, Nina/ Blasius, Jörg (Hg.), Handbuch Methoden der empirischen Sozialforschung, Wiesbaden: Springer Fachmedien, S. 855-866. Thomä, Manuel (2014): Der Zerfall des Publikums. Nachrichtennutzung zwischen Zeitung und Internet, 2. Aufl. Wiesbaden: Springer VS.

9 Literaturverzeichnis

Vollmer, Hendrik (2013): Fantastische Zahlen, in: Passoth, Jan-Hendrik/Wehner, Josef (Hg.:) Quoten, Kurven und Profile. Zur Vermessung der sozialen Welt. Wiesbaden: Springer VS, S. 27-45. — (2004): Folgen und Funktionen organisierten Rechnens, in: Zeitschrift für Soziologie, Jg. 33, Heft 6, S. 450-470. von Gross, Friederike (2008): Agenda-Setting, in: Sander, Uwe/von Gross, Friederike/Hugger, Kai-Uwe (Hg.): Handbuch Medienpädagogik. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 282-285. Vormbusch, Uwe (2007): Die Kalkulation der Gesellschaft, in: Mennicken, Andrea/ Vollmer, Hendrik (2007): Zahlenwerk. Kalkulation, Organisation und Gesellschaft. Wiesbaden: VS Verlag für Sozialwissenschaften. Vu, Hong Tien (2014): The online audience as gatekeeper: The influence of reader metrics on news editorial selection, in: Journalism, Vol. 15 (8), S. 1094-1110. Wang, Qun (2017): Dimensional Field Theory, in: Digital Journalism, Vol. 6 (4), S. 472491. Wehner, Josef (2020): »Numerical Coupling«. Zum Verhältnis von Massenmedien und Internet, in: Maasen, Sabine/Passoth, Jan-Hendrik (Hg.): Soziologie des Digitalen – Digitale Soziologie? Soziale Welt, Sonderband 23. Baden-Baden: Nomos, S. 176-197. — (2010): »Numerische Inklusion« – Wie die Medien ihr Publikum beobachten, in: Sutter, Tilmann/Mehler, Alexander (Hg.): Medienwandel als Wandel von Interaktionsformen. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 183-210. — (1997): Interaktive Medien – Ende der Massenkommunikation?, in: Zeitschrift für Soziologie, Jg. 26, Heft 2, S. 96-114. Wehner, Josef, Passoth, Jam-Hendrik/Sutter, Tilmann (2017): Medien, Musik und Algorithmen – Zur Publikumsvermessung im Internet, in: Krotz et al. (Hg.): Mediatisierung als Metaprozess. Transformationen, Formen der Entwicklung und die Generierung von Neuem. Wiesbaden: Springer VS, S. 233-256. — (2012): Gesellschaft im Spiegel der Zahlen – Die Rolle der Medien, in: Krotz, Friedrich und Hepp, Andreas (Hg.): Mediatisierte Welten. Forschungsfelder und Beschreibungsansätze. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 59-86. Weichert, Stephan/Kramp, Leif/Welker, Martin (2015): Die Zeitungsmacher. Aufbruch in die digitale Moderne. Wiesbaden: Springer Fachmedien. Weinacht, Stefan/Spiller, Ralf (2014): Datenjournalismus in Deutschland. Eine explorative Untersuchung zu Rollenbildern von Datenjournalisten, in: Publizistik, Jg. 59, S. 411-433. Welbers, Kasper/van Attelveldt, Wouter/Kleinnijenhuis, Jan/Ruigrok, Nel/Schaper, Joep (2016): News selection criteria in the digital age: Professional norms versus online audience metrics, in: Journalism, Vol. 17 (8), S. 10371053.

245

246

Publikumsbeobachtung im digitalen Wandel

Wendelin, Manuel (2014): Transparenz von Rezeptions- und Kommunikationsverhalten im Internet. Theoretische Überlegungen zur Veränderung der Öffentlichkeitsdynamiken zwischen Journalismus und Publikum, in: Loosen, Wiebke & Dohle, Marco (Hg.): Journalismus und (sein) Publikum. Schnittstellen zwischen Journalismusforschung und Rezeptions- und Wirkungsforschung. Wiesbaden: Springer VS, S. 73-89. Wieser, Matthias (2013): Wenn das Wohnzimmer zum Labor wird. Medienmessungen als Akteur-Netzwerk. In: Passoth, Jan-Hendrik/Wehner, Josef (Hg.): Quoten, Kurven und Profile. Zur Vermessung der sozialen Welt. Wiesbaden: Springer VS, 231-253. Wintsch, Dani (2006): Doing News – Die Fabrikation von Fernsehnachrichten. Eine Ethnografie videojournalistischer Arbeit. Wiesbaden: VS Verlag für Sozialwissenschaften.

Soziologie Michael Volkmer, Karin Werner (Hg.)

Die Corona-Gesellschaft Analysen zur Lage und Perspektiven für die Zukunft 2020, 432 S., kart., 2 SW-Abbildungen 24,50 € (DE), 978-3-8376-5432-5 E-Book: PDF: 21,99 € (DE), ISBN 978-3-8394-5432-9 EPUB: 21,99 € (DE), ISBN 978-3-7328-5432-5

Vera Hofmann, Johannes Euler, Linus Zurmühlen, Silke Helfrich

Commoning Art – Die transformativen Potenziale von Commons in der Kunst Juli 2022, 124 S., kart 19,50 € (DE), 978-3-8376-6404-1 E-Book: kostenlos erhältlich als Open-Access-Publikation PDF: ISBN 978-3-8394-6404-5

Kerstin Jürgens

Mit Soziologie in den Beruf Eine Handreichung 2021, 160 S., kart. 18,00 € (DE), 978-3-8376-5934-4 E-Book: PDF: 17,99 € (DE), ISBN 978-3-8394-5934-8

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

Soziologie Gabriele Winker

Solidarische Care-Ökonomie Revolutionäre Realpolitik für Care und Klima 2021, 216 S., kart. 15,00 € (DE), 978-3-8376-5463-9 E-Book: PDF: 12,99 € (DE), ISBN 978-3-8394-5463-3

Wolfgang Bonß, Oliver Dimbath, Andrea Maurer, Helga Pelizäus, Michael Schmid

Gesellschaftstheorie Eine Einführung 2021, 344 S., kart. 25,00 € (DE), 978-3-8376-4028-1 E-Book: PDF: 24,99 € (DE), ISBN 978-3-8394-4028-5

Bernd Kortmann, Günther G. Schulze (Hg.)

Jenseits von Corona Unsere Welt nach der Pandemie – Perspektiven aus der Wissenschaft 2020, 320 S., Klappbroschur, 1 SW-Abbildung 22,50 € (DE), 978-3-8376-5517-9 E-Book: PDF: 19,99 € (DE), ISBN 978-3-8394-5517-3 EPUB: 19,99 € (DE), ISBN 978-3-7328-5517-9

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de