Datengesellschaft: Einsichten in die Datafizierung des Sozialen 9783839439579

The society of data - This book explores the increasing interconnectedness between digital data (processes) and social r

254 86 2MB

German Pages 390 Year 2018

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Datengesellschaft: Einsichten in die Datafizierung des Sozialen
 9783839439579

Table of contents :
Inhalt
Einführung. Soziologische Perspektiven auf die Datafizierung der Gesellschaft
PRAKTIKEN DER DATENGESELLSCHAFT
Daten-Teilen? Digitale Selbstvermessung aus praxeologischer Perspektive
Rationalisierungsparadoxien der Datafizierung und Algorithmisierung alltäglicher Internetnutzung
Affirmative Superlative und die Macht negativer Bewertungen. Online-Reputation in der Datengesellschaft
SOZIOTECHNISCHE BEDINGUNGEN DER DATENGESELLSCHAFT
Schöne Daten! Konstruktion und Verarbeitung von digitalen Daten
Die (implizite) Pädagogik von Self-Tracking. Handlungspraxis und Vermittlungsweisen der EntwicklerInnen im Spannungsfeld von Entrepreneurship, Technik und Design
Wer Datengesellschaft sagt, muss auch Cloud-Computing sagen. Die Cloud als zentrale Infrastruktur der datafizierten Gesellschaft
MACHT UND LEGITIMITÄT VON DATENREGIMEN
Do digital markers have politics? Die digitale Markierung von Identität und die Konstruktion von Marktordnung
Neue Ausschließungsdynamiken durch Big Data-generierte Unsichtbarkeiten, Inkohärenzen und ungleiche Zeitlichkeiten
ORGANISATIONALE TRANSFORMATIONEN IN DER DATENGESELLSCHAFT
Algorithmus = Logik + Kontrolle. Algorithmisches Management und die Kontrolle der einfachen Arbeit
Datafizierung und Organisation
EPISTEMOLOGISCHE HERAUSFORDERUNGEN
Governing by Data. Zur historischen Medienkulturanalyse der Datengesellschaft
Die Soziologie in Zeiten von Big Data. Angebote der Relationalen Soziologie
DATENGESELLSCHAFT ALS ZEITDIAGNOSE
Strukturdynamiken, Reproduktionsmechanismen und Subjektformen der Datengesellschaft
Autor_innen

Citation preview

Daniel Houben, Bianca Prietl (Hg.) Datengesellschaft

Digitale Gesellschaft  | Band 17

Daniel Houben, Bianca Prietl (Hg.)

Datengesellschaft Einsichten in die Datafizierung des Sozialen

© 2018 transcript Verlag, Bielefeld Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Umschlaggestaltung: Maria Arndt, Bielefeld Druck: Majuskel Medienproduktion GmbH, Wetzlar Print-ISBN 978-3-8376-3957-5 PDF-ISBN 978-3-8394-3957-9 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff. Besuchen Sie uns im Internet: http://www.transcript-verlag.de Bitte fordern Sie unser Gesamtverzeichnis und andere Broschüren an unter: [email protected]

Inhalt

Einführung. Soziologische Perspektiven auf die Datafizierung der Gesellschaft

Bianca Prietl & Daniel Houben | 7

P RAKTIKEN DER DATENGESELLSCHAFT Daten-Teilen? Digitale Selbstvermessung aus praxeologischer Perspektive

Matthias Leger, Susanne Panzitta & Maria Tiede | 35 Rationalisierungsparadoxien der Datafizierung und Algorithmisierung alltäglicher Internetnutzung

Christian Papsdorf, Sebastian Jakob & Jan-Peter Schmitten | 61 Affirmative Superlative und die Macht negativer Bewertungen. Online-Reputation in der Datengesellschaft

Thomas Frisch & Luise Stoltenberg | 85

S OZIOTECHNISCHE BEDINGUNGEN DER D ATENGESELLSCHAFT Schöne Daten! Konstruktion und Verarbeitung von digitalen Daten

Sophie Mützel, Philippe Saner & Markus Unternährer | 111 Die (implizite) Pädagogik von Self-Tracking. Handlungspraxis und Vermittlungsweisen der EntwicklerInnen im Spannungsfeld von Entrepreneurship, Technik und Design

Denise Klinge | 133 Wer Datengesellschaft sagt, muss auch Cloud-Computing sagen. Die Cloud als zentrale Infrastruktur der datafizierten Gesellschaft

Michael Eggert & Daniel Kerpen | 155

MACHT UND LEGITIMITÄT VON DATENREGIMEN Do digital markers have politics? Die digitale Markierung von Identität und die Konstruktion von Marktordnung

Karoline Krenn | 181 Neue Ausschließungsdynamiken durch Big Data-generierte Unsichtbarkeiten, Inkohärenzen und ungleiche Zeitlichkeiten

Rainer Diaz-Bone | 207

O RGANISATIONALE TRANSFORMATIONEN IN DER D ATENGESELLSCHAFT Algorithmus = Logik + Kontrolle. Algorithmisches Management und die Kontrolle der einfachen Arbeit

Heiner Heiland | 233 Datafizierung und Organisation

Judith Muster & Stefanie Büchner | 253

E PISTEMOLOGISCHE HERAUSFORDERUNGEN Governing by Data. Zur historischen Medienkulturanalyse der Datengesellschaft

Ramón Reichert | 281 Die Soziologie in Zeiten von Big Data. Angebote der Relationalen Soziologie

Marco Schmitt | 299

DATENGESELLSCHAFT ALS ZEITDIAGNOSE Strukturdynamiken, Reproduktionsmechanismen und Subjektformen der Datengesellschaft

Daniel Houben & Bianca Prietl | 323 Autor_innen | 383

Einführung Soziologische Perspektiven auf die Datafizierung der Gesellschaft1 B IANCA P RIETL & D ANIEL H OUBEN

Soziotechnische Praktiken und Prozesse der Überführung sozialer Wirklichkeit in (vorgeblich) objektivierende Datenstrukturen und die Nutzung dieser Daten werden zunehmend ubiquitär und dabei konstitutiv für die Strukturierung und Reproduktion der Gegenwartsgesellschaft. So bilden Daten(sätze) beispielsweise in vermehrtem Maße die Grundlage für die Organisation von Entscheidungen (Stichwort: Algorithmisches Management), die Reproduktion sozialer Ungleichheit (Stichwort: Social Scoring) oder die Hervorbringung von Subjekten (Stichwort: Quantified Self). Mit anderen Worten vollzieht sich das Soziale in steigendem Maße datenvermittelt und datenbasiert, wenn nicht gar datengetrieben, und zentrale gesellschaftliche Bereiche reproduzieren sich mit Rückgriff auf Daten. Eine Gesellschaft, die fortwährend reflektiert und reflexiv Daten produziert, sich mittels dieser Daten in ihren zentralen Bereichen reproduziert, Lebenschancen datenbasiert verteilt, sich zunehmend anhand von Daten selbst beschreibt, das Thema Daten intensiv diskutiert und sich in vielerlei Hinsicht in eine (un-)bewusste Abhängigkeit gegenüber ihren eigenen Datenbeständen begibt, wollen wir hier als Datengesellschaft bezeichnen. In diesem Sinne wird im vorliegenden Sammelband der These nachgegangen, dass soziotechnische Prozesse der Datafizierung des Sozialen im Zentrum gegenwärtiger gesellschaftlicher Transformationen stehen. Dass Daten produziert, bearbeitet und ausgewertet werden, ist für sich genommen natürlich keinesfalls neu. So basieren wirtschaftlicher Austausch, der

1

Für konstruktive Hinweise bedanken wir uns herzlich bei Michael Eggert und Daniel Kerpen.

8 | P RIETL & HOUBEN

Ausbau systematischer politischer Herrschaft und nicht zuletzt auch Organisationen auf dem kundigen Umgang mit Daten (Foucault 1977; Brückner/Wolff 2015): ob Register über Schuldner_innen, Bürger_innen oder Inventar, die Dokumentation bedeutsamer Ereignisse, Akten in der Bürokratie oder auch das minutiöse Protokollieren medizinischer und wissenschaftlicher Prozeduren – der geneigten Leser_innenschaft fielen wohl noch eine Reihe weiterer Beispiele ein. Diese Vertrautheit hat auch damit zu tun, dass sich spätestens seit dem 18. Jahrhundert die staatlich organisierte und wissenschaftlich informierte amtliche Statistik institutionalisierte und mit diesen statistischen Untersuchungen zur Lösung der sozialen Frage im ausgehenden 19. und frühen 20. Jahrhundert Daten auch in politischen Prozessen Legitimität erhielten. In der Folge wurde die Statistik als Wissenschaft von der Datenanalyse sowohl für die staatliche Planung als auch für die politische Willensbildung zu einer bedeutenden Referenz (Schnell/Hill/ Esser 1999: 17ff.). Diesen seine Bevölkerung erfassenden Datenschatz hatte der Staat in Form seiner Behörden und Agenturen bis vor Kurzem weitgehend konkurrenzlos inne2; wenngleich sich dieser im Vergleich zu den heutigen Möglichkeiten bescheiden ausnahm: So dokumentierten etwa die Bevölkerungsregister lediglich Stammdaten wie Namen, Geschlecht, Geburtsdaten, Steuernummern und Wohnorte. Ergänzt wurde dies zunächst von wenigen Transaktionsdaten wie den Steuern oder bei kommunaler Trägerschaft auch dem Stromverbrauch. Diese tradierte staatliche Souveränität über Datenregime wird heute durch die Entstehung völlig neuer Modi und Akteur_innen der Datenproduktion, -sammlung und -analyse zunehmend in Frage gestellt (Kitchin 2014; Iliadis/Russo 2016). Freilich machten sich bereits ab der Mitte des letzten Jahrhunderts Unternehmen vermehrt die akademischen Fortschritte in Erhebungsmethodik und Statistik zunutze, um Daten über ihre (potentiellen) Kunden_innen mittels Umfragen zu generieren3. Die so erhobenen Daten beschränkten sich jedoch größten-

2

Auch die Datensammlung verschiedener supranationaler Organisationen, wie der UN, der EU, der OSZE oder der IAO, änderten wenig daran, dass die Sammlung von Bevölkerungsdaten fast vier Jahrhunderte lang im weitgehend exklusiven Zugriff des Staates blieb.

3

Dabei waren Meinungs- und Marktforschung nicht nur wesentliche Treiber für die Etablierung der Sammlung allgemeiner Bevölkerungsdaten, sondern auch für die Methodenentwicklung in den Sozialwissenschaften (Coleman 1986). Historische Arbeiten vor allem der Medienforschung zeigen zudem, dass einhergehend mit dem Aufbau von Vorläufertechnologien des Internets (wie bspw. ersten Time-Sharing-Systemen) bereits in den späten 1950er Jahren erste „Weltdatenzentren“ geschaffen wurden, die bis heute richtungsweisend für die digitale Großdatenforschung und den Aufbau von

E INFÜHRUNG

|9

teils auf bestimmte Bevölkerungsgruppen und deckten vergleichsweise enge, marktspezifische Interessen ab (Osborne/Rose 1999). Den nächsten Schritt läutete die Verbreitung digitaler Bezahlsysteme wie EC- und Kreditkarten ein, die Transaktionsdaten zugänglich machten und Rückschlüsse auf Konsumverhalten zuließen. Mit der Etablierung des Internets, insbesondere dem sogenannten Web 2.0 mit seinem „user generated content“, wurden diese Daten weiter ergänzt um das Surfverhalten von Nutzer_innen vor dem Abschluss ihrer Transaktionen. Diese aus Sicht der Nutzenden passive Aufzeichnung digitaler Spuren wird jedoch zunehmend um solche Daten erweitert, die Menschen bereitwillig und aktiv über sich selbst im Internet preisgeben: anfänglich in Form von Umfragen und Steckbriefen, mittlerweile jedoch vornehmlich auf sozialen Medien oder Plattformdiensten und dabei verstärkt auch zu allen erdenklichen Inhalten wie Beziehungsleben, politische Meinungen oder intimes Körperbefinden. Damit wächst nicht nur die Menge, sondern auch die Bandbreite und Varietät der verfügbaren Daten ebenso stetig wie die technologischen Kapazitäten ihrer digitalen Speicherung und Vernetzung sowie ihrer automatischen bzw. algorithmischen Analyse4. Heute sind zudem immer mehr elektronische Geräte mit dem Internet verbunden, sodass zusätzlich Unmengen von ort- und zeitbezogenen Metadaten mittels dieser Artefakte des sogenannten Internet of Things erzeugt werden. Auch die immer günstiger und leistungsfähiger werdenden mobilen Endgeräte und smarten Sensortechnologien leisten der Datenakkumulation weiter Vorschub – und das weitgehend unabhängig davon, ob die Nutzer_innen sich dessen bewusst sind oder nicht (Kitchin 2014; Reichert 2014a; Süssenguth 2015). Mit den soziotechnischen Entwicklungen der letzten Jahre gehen also mindestens sechs qualitative Verschiebungen in der Datafizierung des Sozialen einher, die die gegenwärtige Akkumulation von Daten und den aktuell beobachtbaren Umgang mit ihnen von historisch früheren Epochen unterscheidet:

weltweit vernetzten Datenbanken sind (Aronova/Baker/Orsekes 2010: 183ff.). Fourcade und Healy (2017b) betonen in diesem Zusammenhang auch, dass die Bereitstellung der informationstechnologischen Infrastruktur für das groß angelegte Sammeln und Auslesen von Daten stets auf staatliche Unterstützung angewiesen war und weiterhin ist. 4

Staaten wie die DDR, die ihre Bevölkerung systematisch ausspionierten und dabei eine buchstäblich unübersehbare Menge an Daten produzierten, waren nota bene in der Vergangenheit gerade nicht in der Lage, die in den Datenbergen verborgenen Informationen auch vollständig zu verarbeiten.

10 | P RIETL & HOUBEN

Erstens werden Daten heute längst nicht mehr nur über uns gesammelt, gespeichert und verarbeitet; wir generieren und teilen – wenngleich mitunter unreflektiert und unkontrolliert – zunehmend auch Daten über uns selbst, sodass etwa mit dem Teilen von Daten auf Social Media-Seiten oder dem Bewerten von Dienstleistungen und Produkten gänzlich neue soziale Praktiken entstanden sind (Reichert 2014c; Alaimo/Kallinikos 2017). Zweitens dienen Bewertungen anderer uns zunehmend als Handlungs- und Entscheidungsgrundlage, wodurch Daten heute mehr denn je als vorgeblich neutrale, objektive und verlässliche Informationen jeweils individuelles Agieren, aber auch das von Organisationen, anleiten (Jürgenmeyer/Krenn 2016). Drittens vollzieht sich das Soziale zunehmend in numerisierten Umwelten, wenn mit der Digitalisierung Daten in auch zuvor noch nicht quantifizierte Bereiche, wie Intimbeziehungen und die sog. Privatsphäre, Einzug halten und im wahrsten Sinne des Wortes ubiquitär werden (Hagendorff 2016). Viertens gewinnen Daten durch ihre für informationstechnische Lai_innen kaum nachvollziehbare algorithmische Verknüpfung eine „neue Dimension der Konnektivität“ (Baecker 2013: 156), die es erlaubt, durch Akkumulation und Verarbeitung vielzähliger Datenpunkte unser jegliches Tun und Lassen zu „verfolgen“ (Latour 2013: 120). Fünftens werden Daten heute nicht länger primär von einem Souverän, sei es Staat oder Kirche, erhoben und verwaltet, sondern von dezentralen und großteils privatwirtschaftlich organisierten Konzernen wie Google oder Facebook, deren Verantwortlichkeit gegenüber der Bevölkerung und ihren Nutzenden höchst unklar ist (Dolata 2015). Sechstens können Daten mit der steigenden Bedeutung von (in Teilen selbst-)lernenden Algorithmen heute weitestgehend ohne menschliches Zutun gesammelt und ausgewertet werden, wodurch sich Fragen nach der Handlungsträgerschaft und Deutungshoheit von Technik neu stellen (Miller 2011). Als sichtbarster Effekt der zunehmenden Durchdringung aller Lebensbereiche mit datensammelnden digitalen Technologien und der sich verbreitenden Praxis des Generierens und Teilens von Daten durch Individuen, gepaart mit den technischen Fortschritten in der Speicherung und Verarbeitung großer Datenmengen, steigt nicht nur das gesamte, sondern auch das über jede Einzelperson verfügbare Datenvolumen rasant an, was gemeinhin unter dem Begriff Big Data verhandelt wird. Dabei zeigt sich Big Data als Label gegenwärtig sowohl in der wissenschaftlichen als auch in der öffentlich-populärwissenschaftlichen Diskussionen zur Datafizierung des Sozialen als außerordentlich präsent und erfolgreich, wobei sich die darunter geführten Debatten tendenziell entweder technikeuphorisch und fortschrittsoptimistisch oder kulturpessimistisch und alarmistisch ausnehmen. Während erstere vor allem die Potentiale einer (teil-)automatisierten und algorithmisierten Generierung von Wissen – sei es in Wissenschaft, Arbeits-

E INFÜHRUNG

| 11

organisationen oder dem Staatsapparat – propagieren (exemplarisch: Anderson 2013; Mayer-Schönberger/Cukier 2013; Ramge/Mayer-Schöneberger 2017), warnen letztere vor den Gefahren der sich von Big Data in Big Brother verwandelnden Daten(un)mengen (exemplarisch: Morgenroth 2014; Schreier 2015). Gemein ist beiden Positionen ihre tendenziell totalisierende Betrachtung der Datafizierung. Der sozialwissenschaftliche Diskurs zur Datafizierung hat sich in den vergangenen Jahren dagegen deutlich differenzierter aufgestellt. Bereits 2014 betonte Kitchin in seinem Buch „The Data Revolution“ die gesellschaftsdefinierende, wenn nicht -konstituierende, Bedeutung von Daten. Im Zentrum seiner Argumentation stehen die disruptiven Potentiale der neuen Möglichkeiten der Datensammlung, -speicherung und -analyse für die Generierung von Wissen und Steuerung von Gesellschaft. Im deutschsprachigen Raum haben zuerst die Beiträge im Sammelband „Die Gesellschaft der Daten“ (Süssenguth 2015) noch relativ vorsichtig nach den (praktischen) Bedeutungen und „Irritationspotentialen“ der zunehmenden Durchdringung unterschiedlicher gesellschaftlicher Bereiche durch digitale Daten gefragt. Entschieden deutlicher attestierten zuletzt Mämecke, Passoth und Wehner (2018: 1) Daten – unter Rekurs auf die RohstoffMetapher – einen „Fetisch“-Charakter. Sie betonen gleichzeitig die Bedeutung von Daten für die (kulturelle) Ordnung der Gegenwartsgesellschaft als auch, dass Daten „immer schon gesellschaftlich bedeutsa[m]“ sind (a. a. O.: 2). Auch wo Daten in zeitdiagnostischen Gesellschaftsanalysen nicht explizit im Zentrum stehen, zeigt sich ihre Bedeutung für die jeweilige Zeitdiagnose zumindest auf den zweiten Blick: So setzt die von Mau (2017) jüngst wahlweise mit den Bezeichnungen Bewertungs- oder Kontrollgesellschaft auf den Begriff gebrachte Gesellschaftstransformation die Verfügbarkeit, fortwährende Produktion und Analyse von Daten voraus. In „Das metrische Wir“ beschreibt er, wie die datenbasierte Vermessung von allen und allem zu dem zentralen Mechanismus der Reproduktion sozialer Ungleichheit avanciert, indem beispielsweise Rankings und Ratings Partizipations- und Lebenschancen begründen. Auch Reckwitz (2017) misst den vernetzten, digitalen (Daten-)Technologien des Internets eine bedeutende Rolle für den Aufstieg der spätmodernen „Gesellschaft der Singularitäten“ zu. Nicht nur seien die Gesellschaftsmitglieder aufgefordert als mobile User_innen mit einem möglichst einzigartigen (Online-)Profil am Sichtbarkeitsmarkt im Netz um Aufmerksamkeit zu ringen; sie würden zugleich auch mittels Datenanalyse etwa als Empfänger_innen von auf sie individuell zugeschnittenen Werbebotschaften singularisiert. Waren differenzierte Analysen zu den Potentialen und Fallstricken von Big Data zunächst rar (boyd/Crawford 2012; Kitchin 2014; Reichert 2014a; Shaw

12 | P RIETL & HOUBEN

2015), explodieren Publikationen zu diesem Themenfeld in den letzten beiden Jahren, die zwischen der Ausrichtung der diesen Sammelband begründenden Tagung und seiner Finalisierung liegen, regelrecht. Realistischerweise müssen wir deshalb von einer exhaustiven Darstellung des sich rasch entspinnenden Forschungsstandes Abstand nehmen und uns stattdessen auf die Skizzierung zentraler Forschungslinien und ihrer Rezeption in der deutschsprachigen Soziologie beschränken.

Z ENTRALE F ORSCHUNGSLINIEN SOZIOLOGISCHER D ATAFIZIERUNGSFORSCHUNG Eine lange und immer noch prominente Forschungstradition findet sich im Anschluss an frühe Beiträge zur Internetforschung sowie an Arbeiten zu Sozialen Medien in der interdisziplinär organisierten und großteils kulturwissenschaftlich orientierten Medien- und Kommunikationsforschung (überblicksartig: Reichert 2014b; Ortner et al 2014; Hepp 2016). Ausgehend von einem gegenwärtig zu beobachtenden Medienwandel wird hier nach seinen soziokulturellen Voraussetzungen und historischen Vorläufern gefragt und versucht, die neuen Datentechnologien bzw. Techniken des Umgangs mit Daten zu charakterisieren und konzeptualisieren. So werden Protokolle (Galloway/Thaker 2015), Listen (Passoth/Wehner 2018) oder Datenbanken (Burkhardt 2015) als kulturelle Ordnungstechniken und damit soziotechnische Voraussetzung des Umgangs mit Daten zu verstehen gesucht. Unauflöslich mit diesen Fragen verbunden ist stets jene nach der Bedeutung von Daten(-Technologien) für die kulturelle (Wissens-)Ordnung der Gesellschaft (siehe hierzu auch den Beitrag von Reichert in diesem Band). Früh fanden auch Auseinandersetzungen mit den Themen Datenschutz und Privatheit statt, die wohl auch den stärksten Widerhall in populärwissenschaftlichen Debatten und öffentlichen Diskursen erfahren (Stichwort: Recht auf informationelle Selbstbestimmung). Diese Diskussionen werden traditionellerweise an der Schnittstelle von Rechtswissenschaften, Rechtsphilosophie und Ethik geführt; unter dem Label Surveillance Studies werden in den letzten Jahren aber vermehrt kultur- und sozialwissenschaftliche Perspektiven auf Fragen des Verhältnisses von Datenverfügbarkeit, Sichtbarkeit und Privatheit zusammengeführt (überblicksartig: Ball/Haggerty/Lyon 2012; Andrejevic/Gates 2014; Richter 2015). Wenngleich Anleihen an dem Gleichnis des Bentham’schen Panoptikums dominant scheinen, wurden hier auch differenzierte neue Konzepte begründet, die etwa auf die Spezifika einer (verdachtsunabhängigen) Überwachung durch Daten (Stichwort Dataveillance: Degli Esposti 2014) oder die Möglichkeit der

E INFÜHRUNG

| 13

eigenen Datensammlung als Schutz vor (staatlichen) Übergriffen (Stichwort Sousveillance: Mann 2004) aufmerksam machen. Vergleichsweise spät haben Fragen zur Datafizierung Eingang in die (deutschsprachige) Soziologie gefunden. Behandelt werden diese dabei vor allem in den diversen Speziellen Soziologien mit ihren stärker gegenständlich eingegrenzten Betrachtungen: Die international unter dem Schlagwort Big Data geführten Diskussionen um Erkenntnis- und Prognosepotentiale großer Datensätze werden hierzulande vor allem im Bereich der empirischen Sozialforschung aufgegriffen (König/Schröder/Wiegand 2018). Derzeit erklingen dabei die Stimmen jener lauter, die sich dem Ruf nach einem „computational turn in research“ anschließen und in Social Media-Daten zukunftsträchtige Instrumente für die Erforschung sozialer Wirklichkeit in noch nie dagewesenem Umfang sehen. Sie fordern, das Repertoire empirischer Sozialforschung eher früher als später auf die Verarbeitung von Big Data auszurichten (Diekmann 2016) und informationsund datentechnisches Wissen in der Soziologie selbst zu kultivieren, um Soziolog_innen rechenkompetent zu machen (Passoth 2016). Leiser erklingen datenund technikkritische Bedenken, aber auch Beiträge, die die Aufgabe der Soziologie vor allem darin sehen, vor dem Hintergrund ihrer gesellschaftsanalytischen Theorietraditionen und ihrem differenzierten sozialwissenschaftlichen Methodenwissen die Datafizierung des Sozialen kritisch analysierend zu begleiten und derart mit zu gestalten (siehe hierzu auch den Beitrag von Schmitt in diesem Band). In der Arbeits- und Industriesoziologie, der Organisationsforschung sowie der Politischen Ökonomie kommen – wie eingangs bereits angedeutet – Prozesse der Datafizierung vor allem im Kontext einer – wohlgemerkt auch politisch geförderten wie geforderten – Digitalisierung von Arbeit und ihren organisationalen Bedingungen in den Blick. Wiederkehrendes Thema in den rasch zunehmenden Auseinandersetzungen mit der sog. Industrie 4.0 (Hirsch-Kreinsen 2017) aber auch der Plattformökonomie (Schmidt 2017) oder der umfassender konstatierten Entwicklung hin zu einem digitalen oder auch informationellen Kapitalismus (Nachtwey/Staab 2015; Sevignagni 2016; Butollo/Engel/Schmalz 2017) ist die datenbasierte Rückkehr der technischen Organisation und Kontrolle von Arbeit. Diese nimmt nicht nur ob ihrer weitestgehenden Automatisierung durch Algorithmen neue Züge an, sondern erstreckt sich zunehmend auch auf die bislang von derartigen Zugriffen geschützten Tätigkeiten von hochqualifizierten Wissensarbeitenden (Boes et al. 2016; siehe hierzu auch den Beitrag von Heiland in diesem Band). An diese Fragen anschließend werden nun auch vermehrt Fragen nach den Effekten der Datafizierung von immer mehr Organisationspro-

14 | P RIETL & HOUBEN

zessen in zuvor nicht digitalisierten Handlungsbereichen gestellt (siehe dazu den Beitrag von Muster und Büchner in diesem Band). Trotz der unmittelbar ersichtlichen Bedeutung von Technik(en) und Technologieentwicklung für das Phänomen der Datafizierung nehmen sich techniksoziologische Beiträge tendenziell rar aus. Instruktiv sind zwar Analysen, die im Kontext der Internetforschung vorgelegt wurden, sei es zu Monopolbildungen der sog. Internetgiganten bzw. Datenkonzerne und damit einhergehende Machtasymmetrien (Dolata 2015), zu den Spezifika von Sozialität im Internet (Dolata/Schrape 2015) oder zu Subjektivierungsformen im Netz (Paulitz 2005; Paulitz/Carstensen 2014). Wiederkehrendes Thema sind hierbei Spannungsverhältnisse zwischen Autonomie und Kontrolle, Empowerment und Unterwerfung oder Effizienzgewinnen und -verlusten (siehe zu Paradoxien der Internet- bzw. App-Nutzung auch die Beiträge von Papsdorf, Jakob und Schmitten sowie Leger, Panzitta und Tiede in diesem Band). Die sich um die soziokulturellen Konstitutionsbedingungen von digitalen Datentechnologien und ihren Daten bemühenden, hochgradig interdisziplinär organisierten Critical Data-, Code- und Algorithm Studies haben in der deutschsprachigen Soziologie aber bislang noch wenig Niederschlag gefunden (siehe als Ausnahme Roberge/Seyfert 2017 und Häußling et al. 2017). Während die kritische Algorithmusforschung vor allem auf Machteffekte algorithmisch strukturierter sozialer Ordnungen zielt (Neyland 2015; Beer 2017), aber auch unintendierte Nutzungsweisen rekonstruiert (Christin 2017), fokussieren die Critical Data Studies auf die Hervorbringung von Big Data innerhalb von Daten-Assemblagen, d.h. auf die technischen, politischen, sozialen und ökonomischen Apparate, die die Generierung, Distribution und Nutzung von Daten rahmen bzw. konstituieren und diesen damit vorausgehen (Kitchin/Lauriault 2014; Iliadis/Russo 2016). Diese Arbeiten legen damit den Grundstock, die Black Box der komplexen soziotechnischen Prozesse des Wahrnehmens, Beobachtens und Klassifizierens, welche der Sammlung, Speicherung, Verarbeitung und nicht zuletzt Generierung von Daten zugrunde liegen, zu öffnen (siehe hierzu auch die Beiträge von Diaz-Bone; Klinge; Eggert und Kerpen; sowie Mützel, Saner und Unternährer in diesem Band). Zwar haben bisher Fragen zur Datafizierung keinen expliziten Eingang in die Allgemeine Soziologie gefunden, dennoch sind hier in den letzten Jahren einige äußerst anschlussfähige Arbeiten entstanden, die wahlweise auf Tendenzen der Quantifizierung (Vormbusch 2007), der Bewertung (Lamont 2012) oder des Vergleichens (Heintz 2016) fokussieren und in diesem Zusammenhang auch immer wieder gesellschaftstheoretische Fragen der zunehmenden Datenverfasstheit sozialer Praktiken und gesellschaftlicher Prozesse berücksichtigen (siehe auch den Beitrag von Frisch und Stoltenberg in diesem Band). Gleichermaßen

E INFÜHRUNG

| 15

werden rund um das Phänomen der Selbstvermessung Fragen der datenbasierten Regulierung von Subjekten und ihren Körpern im Spannungsfeld zwischen Unterwerfung und Ermächtigung betrachtet (Duttweiler et al. 2016; Selke 2016). Genuin gesellschaftstheoretische Fragen nach der Bedeutung von Daten für die soziale Ordnung, gesellschaftliche Reproduktion und Subjektwerdung werden bislang jedoch nur am Rande angedeutet, aber kaum einmal systematisch verfolgt und zusammenführend betrachtet (siehe als diesbezüglichen Versuch unseren eigenen Beitrag in diesem Band). Auch Analysen zum Zusammenhang von Datafizierung und sozialer Ungleichheit, wie sie im anglo-amerikanischen Raum seit einigen Jahren etwa mit Blick auf die datenbasierte Sortierung von Personen hinsichtlich ihrer ökonomischen Kaufkraft diskutiert werden (Fourcade/Healy 2013) stecken hierzulande noch in den Kinderschuhen (siehe als Ausnahme Krenn 2017; Mau 2017 sowie den Beitrag von Krenn in diesem Band). Bevor wir die Beiträge in diesem Band vorstellen, gilt es noch eine wichtige Auseinandersetzung mit dem zentralen Begriff dieses Sammelbandes zu führen, denn wer von Datafizierung und einer Datengesellschaft spricht, kann zum Verständnis dessen, was Daten eigentlich sein sollen, schlecht schweigen.

D ATEN – V ERSUCH EINER

KONZEPTIONELLEN

ANNÄHERUNG

Wenngleich die Wissenschafts- und Techniksoziologie schon seit langem auf die soziale Fabrikation von Daten etwa in Laboren hinweist (Latour/Woolgar 1979; Knorr-Cetina 1984; Pickering 1989), scheint die Vorstellung, dass Daten einfach verfügbar und reichlich vorhanden seien, mit dem Aufstieg von Big Data sowohl in Teilen der Wissenschaft als auch in Politik, Wirtschaft und nicht zuletzt der Öffentlichkeit erneut an Zulauf gewonnen zu haben. Daten werden dabei weithin als kleinste Informationseinheiten über die Welt verstanden, die nur darauf warten, von Wissenschaftler_innen, Analyst_innen, Messgeräten, Rechnern oder digitalen Programmen geborgen zu werden. Demgegenüber setzen wir in diesem Sammelband auf eine Perspektive, welche die Gemachtheit von Daten betont (Boellstorff 2013) und die im Anschluss an die klassische konzeptionelle Trennung von Daten, Information und Wissen (Aamodt/Nygard 1995; Faßler 1997; Floridi 2010; Kitchin 2014; Burkhardt 2015) die komplexen sozialen Interdependenzen zwischen diesen fokussiert, um die soziotechnischen Konfigurationen ihrer rekursiven Generierung, Strukturierung und Nutzung sichtbar zu machen. Die Ansicht, dass Daten ein für die Soziologie vergleichsweise neuer Gegenstand wären, entpuppt sich als wenigstens irreführend, denn die empirische Sozi-

16 | P RIETL & HOUBEN

alforschung hat bekanntlich ein ansehnliches Methodenset entwickelt, in dessen Zentrum nichts anderes steht als die zielgerichtete Produktion und Interpretation unterschiedlicher Datentypen. So liegt es nahe, die einschlägige Methodenliteratur für eine erste Gegenstandsbestimmung dessen zu konsultieren, was Daten eigentlich sind. Die quantitativ orientierte Sozialforschung lehrt uns, Daten als die methodisch kontrollierte Überführung einer empirischen Beobachtung in ein numerisches Relativ zu verstehen. Das Ziel der Generierung von Daten ist es, möglichst numerische Verdichtungen der im Forschungskontext als relevant erachteten Eigenschaften, Einstellungen oder Ereignisse herzustellen, die außerdem zu bestimmten theoretischen Vorannahmen, Wirklichkeitsmodellen oder Erklärungsmustern passen sollen (Friedrichs 1980; Schnell/Hill/Esser 1999; Diekmann 2009). In der qualitativ orientierten Sozialforschung finden sich keine gleichermaßen definitorischen Aussagen über Daten; allerdings basiert dieses Forschungsparadigma auf den Annahmen, dass Daten letztlich immer eine Konstruktionsleistung der Forschenden darstellen und dass sich diese ihrerseits forschend an der Hervorbringung der sozialen Wirklichkeit beteiligen (Flick/Kardorff/Steinke 2007). Aus der Perspektive der empirischen Sozialforschung sind Daten also methodisch generierte Repräsentationen und damit notwendigerweise selektive Reduktionen sozialer Wirklichkeit und gleichzeitig Elemente der Herstellung dieser Wirklichkeit. Als solche können sie komplex oder einfach, alleinstehend oder verbunden, interdependent oder unabhängig, qualitativ oder quantitativ, symbolisch, visuell oder auditiv sein – womit die Liste ihrer Formen längst nicht abgeschlossen ist (für eine ausführlichere wissenschaftstheoretische Diskussion verschiedener Datentypen und -formen siehe Kitchin 2014). Im Anschluss an Befunde der sozialwissenschaftlichen Zahlen- und Accountingforschung (Vormbusch 2004, Heintz 2007) und der Wissenschafts- und Technikforschung (überblicksartig: Bauer/Heinemann/Lemke 2017) lässt sich dieses Verständnis von Daten als soziale Konstrukte weiter schärfen: In einem Prozess der Reifizierung können sich Daten als verdichtete Repräsentationsformen von jenen konkreten Ereignissen, Prozessen, Figurationen oder Gegenständen ablösen, die sie eigentlich zu repräsentieren beanspruchen, und dabei eine konsensgenerierende und wirklichkeitskonstituierende Kraft entfalten und „zur Grundlage einer oft stillschweigenden Übereinkunft darüber werden, wie die soziale Welt zu sehen ist. Auf diese Weise werden sie verallgemeinert und erlangen eine soziale Verbindlichkeit, die zur Entwicklung eines Common Sense beiträgt“ (Barlösius 2011: 183). Daten beziehen ihre Legitimität dabei vornehmlich aus der Anerkennung der ihnen zugrunde liegenden Produktionsverfahren sowie ihrer (kommunikativen) Anschlussfähigkeit und Nachvollziehbarkeit (Heintz 2007). Somit gilt es zu betonen, dass Daten eher erfunden und generiert, denn einfach nur ge-

E INFÜHRUNG

| 17

funden oder gesammelt werden, und folglich nie in einem exakten Abbildungsverhältnis zu einer wie auch immer verstandenen Realität stehen. Entgegen der alltagsweltlichen Repräsentationsthese ist vielmehr festzuhalten, dass Daten die von ihnen vorgeblich nur beschriebene soziale Wirklichkeit als solche erst mit hervorbringen. Dies wird noch deutlicher, wenn man sie ins Verhältnis zu Information und Wissen setzt. Information ist ebenfalls ein äußerst vielschichtiges Konzept, das, wie Burkhardt (2015: 187ff.) ausführt, mit der Verbreitung der sog. Informationstechnologien sogar noch Bedeutungen hinzugewonnen hat. In einer medientheoretisch inspirierten Minimaldefinition adressiert Information die Übertragung von Signalen zwischen einem Sender und einem Empfänger sowie die sinnhafte Interpretation eben jener Signale (Ott 2007: 389). Dabei kann jedoch nicht apodiktisch bestimmt werden, wo oder wann genau innerhalb eines solchen Übertragungsprozesses aus einem dargebotenen Signal – gleich ob Buchstaben, digitale Daten, Klopfzeichen oder Aminosäuren – schließlich eine Information wird. Letztlich hängt dies sowohl von der Situation, in der die Signalverarbeitung stattfindet, als auch von den beteiligten Akteur_innen und deren Zielsetzung ab. Wenngleich sich Information unter semiotischer Perspektive in syntaktische (Signalfrequenz u.ä.), semantische (Zeichenbedeutsamkeit, Sinnrepräsentation o.ä.) und pragmatische (Wirksamkeit) Dimension unterteilen lässt, erfordert auch deren Analyse die Berücksichtigung der sozialen Kontexte, in die sie jeweils eingebettet sind (Ott 2007). Information ist als analytisches Konzept damit streng relativ, als sie situativ, kontextabhängig und auch abhängig von ihren Adressat_innen bzw. Interpret_innen bleibt. Die klassische konzeptionelle Trennung zwischen Daten und Informationen beruft sich letztlich auf ein Verständnis, das Informationen als schon prozessiertes, vorsortiertes und aufbereitet dargebotenes Datenmaterial begreift, an das Kommunikations-, Interaktions- oder Deutungsprozesse sinnhaft anschließen können (Faßler 2001: 281; Kitchin 2014: 9f.; Burkhardt 2015: 187ff.). In dieser Lesart wird Information durch sinnhaftes Prozessieren in Form von Deutung, Kommunikation, Interaktion, Handlung oder Praxis in – in der Regel medial dargebotenes – Wissen übersetzt. „Information ist quasi Wissen im Wartestand“ (Faßler 1997: 337). Wissen entsteht, wenn Informationen in sprachliches, organisatorisches, planendes soziales Handeln überführt wird. Diese Handlungs- und Praxisbezogenheit des Wissens findet sich etwa in Stehrs (1994: 197) Arbeiten zur Wissensgesellschaft, wenn er Wissen als „Bündel breitgefächerter allgemeiner Kompetenzen“ definiert. Phänomenologisch wäre Wissen als sedimentierte Erfahrung zwar in ausreichender Weise charakterisiert, die soziologische Betrachtung von Wissen geht jedoch insofern darüber hinaus, als seine Gel-

18 | P RIETL & HOUBEN

tung und Verbreitung ebenfalls in den Fokus geraten, schließlich gilt Wissen hier als zentraler Bedingungsfaktor des Sozialen (Schnettler 2007: 167). Dieser auf Berger und Luckmann (1969) zurückgehenden Sicht zufolge ist die „Wirklichkeit“, in der wir uns bewegen, sozial konstruiert und der wesentliche Baustoff dieser Konstruktion ist Wissen. Dieses Verständnis deutet weniger auf Beliebigkeit hin, sondern betont vielmehr, dass alles was interindividuell, wechselseitig, sprich: sozial als abgesichert gilt auch zu einem kollektiven Orientierungspunkt für Handlungen und Praktiken geraten kann. Wissen trägt damit maßgeblich zur Strukturierung der Gesellschaft bei, indem es die institutionelle Ordnung und die ihr zugrundeliegenden strukturellen Kategorien mit sozialem Sinn und mit überindividuell gültigen Handlungs- und Praxisbezügen ausstattet (wenngleich im Anschluss an andere Theorietraditionen und unter Verwendung anderer Begrifflichkeiten soziale Wissensbestände auch in der Praxis- und Diskursforschung als konstitutiv für soziale Wirklichkeit gelten; überblicksartig: Reckwitz 2003). Folgt man diesen Überlegungen, offenbart sich im praktischen Zusammenhang von Daten, Information und Wissen also eher eine zirkulär-iterative Interdependenz statt einer andernorts oftmals postulierten hierarchischen Kaskade. Zusammengenommen sind Daten folglich methodisch absichtsvoll reduzierte und technisch, medial oder materiell prozessierte Wirklichkeitsausschnitte. Obwohl sie mit dem Ziel generiert werden, als Repräsentationen dieser Wirklichkeit intersubjektiv anschlussfähig zu sein, bleiben sie dabei jedoch notwendigerweise interpretationsbedürftig. Daten bilden somit Referenzpunkte der informationsund wissensbasierten Konstruktion der sozialen Wirklichkeit, während Wissen und damit kollektive Deutungs-, Wahrnehmungs- und Bewertungsmuster notwendigerweise die Grundlage der stets kontingenten Konventionen bilden, auf denen die Generierung von Daten beruht. Die soziale Konstruiertheit von Datenmodellen und damit ihre Kontingenz lässt sich sehr gut nachvollziehen, wenn man sich einige Grundsatzfragen vergegenwärtigt, die etwa bei der funktionalen Architektur von informationstechnologischen Datenmodellen zu beantworten sind: Was soll im konkreten Modell überhaupt ein Datum bilden? Wie viele distinkte Daten lassen sich sinnvoll aus der ‚Wirklichkeit‘ ableiten? Wie authentisch bzw. einheitlich sind sie? Wie lange sollen sie im System Bestand haben? Welche Repräsentationsform ist den Datentypen angemessen? Welche Repräsentationsform ist für die weitere Prozessierung innerhalb des Systems funktional? Dass ‚richtige‘ Antworten auf solch basale Fragen nicht existieren ist offensichtlich. Wenn sie ihre Datenmodelle konstruieren, werden die involvierten Akteur_innen in den jeweiligen konkreten Situationen mit je variierenden Zielen dennoch situativ sinnhaft erscheinende und gut begründete Antworten wählen, die allerdings ganz unterschiedlich ausfallen

E INFÜHRUNG

| 19

können (Kent 1978: 194). Prozesse in denen Daten generiert werden unterliegen Rationalitäten und Interessen, die weder kohärent sein müssen, noch nach Kriterien bewertet werden, die an repräsentativer Exaktheit ausgerichtet sind5 (Shaw 2015). Dabei bringt die Digitalität und damit binäre Codierung von Daten, wie sie vermittelt durch Computer dominant geworden ist, eine Reihe höchst relevanter Spezifika mit sich. Wie Manovich (2001) darlegt, macht gerade die numerische Repräsentation digitalen Inhalt programmierbar, modifizierbar, tauschbar und anschlussfähig für algorithmische Verarbeitung. Informationstechnologisch bildet dies die Voraussetzung dafür, dass „digital products and media can be automatically modified or even created through software and programs instead of being specifically created or modified by people. In short, much of what we experience as media objects in digital culture are created out of databases by machines as opposed to being the result of human endeavor“ (Miller 2011: 19). Deshalb können digitale Daten leicht kopiert und vervielfältigt werden und sich gewissermaßen an mehreren Orten gleichzeitig befinden. Sie sind somit hervorragend für den Austausch in Netzwerken geeignet, an immer mehr technische Geräte anschlussfähig und unterliegen damit auch divergierenden Nutzungen und konkurrierenden Deutungen6. Datendiffusion wird dadurch dezentralisiert, flüchtig und bleibt nur schwer zu kontrollieren. Zusammengenommen sind Datenprozesse also hochgradig kontingent, aber nicht beliebig. Es ist daher nur folgerichtig, Daten als Grenzobjekte zu betrachten (Gitelman 2013: 6; Reichert 2018). Am Ausgangspunkt eines jeden Generierens, Hinterlassens und Verarbeitens von Audio-, Bild-, numerischen oder andersförmigen Daten stehen verschiedene Akteur_innen in spezifischen Konfigu-

5

Je breiter dabei die Nutzungsvielfalt eines Datenmodells angelegt ist, desto weniger konzeptionelle Kohärenz wird seine Architektur aufweisen. So repräsentieren zum Beispiel Daten mit Personenbezug diejenigen, auf die sie sich beziehen keinesfalls eindeutig. Stattdessen dokumentieren sie nach zuvor festgelegten Modellen generierte Fragmente, aus denen sich sukzessive ableiten, mithin imaginieren lässt, welche Präferenzen die abgeleiteten ‚Personen‘ hegen oder wie hoch die Wahrscheinlichkeit einzuschätzen ist, dass sie eine bestimmte Handlung vollführen werden (Amoore 2011: 34).

6

Die Bedeutung von Datenbanken für die moderne Kultur kann hier nicht umfänglich gewürdigt werden. Miller (2011) und Manovich (2001) sowie Burkhardt (2015) zufolge werden Datenbanken zu einer dominierenden Kulturform: „almost every practical act involves choosing from some menu, catalogue, or database“ (Manovich 2001: 128).

20 | P RIETL & HOUBEN

rationen, die sich mit der Erhebung und Speicherung, Strukturierung und Verarbeitung, Distribution und Visualisierung jener Daten gemäß ihrer Interessen und soziotechnischen Bedingungen auseinandersetzen (siehe auch Flyverbom/Madsen 2015; Häußling et al. 2017). Analytisch ist dann von entscheidender Bedeutung, die jeweiligen wechselseitigen Überführungs- bzw. Übersetzungsprozesse von Daten über Information und Wissen zu fokussieren und danach zu fragen, welche Akteur_innen mit welchen Interessen oder welche soziotechnischen Prozesse, Handlungen und Praktiken jeweils konkret involviert sind, wenn Daten generiert und verarbeitet werden und darüber zur Produktion sozialer Tatsachen und Wirklichkeiten beitragen. Die Interdependenz von Daten, Information und Wissen konzeptionell zu berücksichtigen bewährt sich, wenn sie auf die strukturierten und strukturierenden Konstellationen (Assemblagen; s.o.) hinweist, in denen verschiedene Akteur_innen mit ihren jeweiligen Interessen, Interpretationen, Ideologien und Methoden an der Generierung von Daten, von Informationen und von Wissensformen bzw. -ordnungen beteiligt sind. An diese Überlegungen anschließend argumentieren wir schließlich für eine soziologische Perspektive, die Daten und Gesellschaft als wechselseitiges Konstitutionsverhältnis versteht. Jedoch bilden gerade jene Prozesse der Generierung und Verarbeitung der semiotischen, synthetischen, symbolischen, materiellen etc. Einheiten, die als Daten fungieren, für die Öffentlichkeit ebenso wie die Sozialwissenschaften bislang zumeist noch eine Black Box.

Z U DEN B EITRÄGEN

IN DIESEM

B AND

Der vorliegende Band versteht sich vornehmlich als Einladung zur konstruktiven Auseinandersetzung mit der gesellschaftlichen Datafizierung, ihren soziokulturellen Voraussetzungen und Folgen sowie mit den sozialwissenschaftlichen Perspektiven, die diese Entwicklung zu erfassen suchen. Er versammelt theoretischkonzeptionelle und empirische Beiträge, die aus unterschiedlichen, primär soziologischen Perspektiven Einsichten zur Datafizierung einer breiten Palette sozialer Phänomene präsentieren und zur Diskussion stellen. Dabei verstehen die Autor_innen ihre jeweiligen Untersuchungsgegenstände als je spezifisch für eine bzw. als genuine Bestandteile einer Datengesellschaft und verweisen so auf weiterführende gesellschaftstheoretische Implikationen. Im ersten Teil Praktiken der Datengesellschaft geht es um die Frage, wie Akteur_innen im Alltag mit Daten und datenbasierten Technologien umgehen und sich zu diesen positionieren. Deutlich wird dabei, dass derartige Datenpraktiken sich keinesfalls eindeutig oder widerspruchsfrei vollziehen. Vielmehr do-

E INFÜHRUNG

| 21

kumentieren sich im praktischen Umgang mit Daten bzw. digitalen Datentechnologien vielfältige Ambivalenzen und Paradoxien. In ihrem Beitrag Daten-Teilen? Digitale Selbstvermessung aus praxeologischer Perspektive gehen Matthias Leger, Susanne Panzitta und Maria Tiede der Frage nach, warum Individuen überhaupt freigiebig Daten über sich teilen und befassen sich hierzu mit dem Spannungsverhältnis zwischen Datenschutz und Privatheit einerseits und den Anforderungen des Daten-Teilens im Rahmen von App-Nutzungen andererseits. Auf Basis qualitativer Interviewdaten rekonstruieren sie drei Legitimationsfiguren, auf die Individuen rekurrieren, um mit der Dissonanz zwischen Daten-Teilen und Datenschutzbedenken umzugehen: „Convenience“, Motivationsantrieb und Imagepflege. Erhellend ist dabei nicht zuletzt der Befund, dass intentionales Daten-Teilen keineswegs ‚einfach‘ die Folge fehlenden Datenschutzbewusstseins ist; vielmehr arbeiten die Autor_innen heraus, dass App-Nutzer_innen ihre Daten gerade trotz ihrer Bedenken teilen und ihr Tun anschließend etwa damit legitimieren, dass sie Daten in flexibler Weise als schützenswert bzw. eben nichtschützenswert definieren. Im Zentrum des Beitrags Rationalisierungsparadoxien der Datafizierung und Algorithmisierung alltäglicher Internetnutzung von Christian Papsdorf, Sebastian Jakob und Jan-Peter Schmitten stehen fünf Paradoxien, die mit der Nutzung von algorithmisierten und datafizierten Internettechnologien einhergehen. Auf Basis von qualitativen Interviews mit Jugendlichen machen die Autoren das ambivalente Zusammenspiel von Effizienzgewinnen einerseits und den mit diesen unmittelbar verbundenen Negativfolgen der Internetnutzung andererseits sichtbar. In der abschließenden Diskussion stellen sie die auf Seiten der Nutzenden identifizierten Rationalisierungsparadoxien in einen Zusammenhang mit den von Anbieter_innenseite verfolgten Zielen der Technologieentwicklung und zeigen damit Potentiale, aber auch Herausforderungen für deren Überwindung auf. Thomas Frisch und Luise Stoltenberg untersuchen in ihrem Beitrag Affirmative Superlative und die Macht negativer Bewertungen die Bewertungskultur (auf) der Plattform Airbnb als paradigmatisches Momentum der Datengesellschaft. Vor dem Hintergrund einer Soziologie des Wertens und Bewertens verdeutlichen sie das spezifische Zusammenspiel von sozialen Bewertungspraktiken und durch die Plattformarchitektur bereitgestellter, technischer Bewertungsinfrastruktur. Sie beschreiben, wie der auf Airbnb zu beobachtende, affirmative Bewertungsbias sowohl als Effekt der spezifischen Plattformarchitektur mit ihren Normen der Reziprozität und Veröffentlichung aller Bewertungen zu verstehen ist, als auch als Effekt eines von Nutzer_innen gezielt verfolgten Reputationsmanagements. Angesichts der von der Bewertungskultur geforderten positiven Superlative entwickelten Gäste wie Gastgeber_innen jedoch

22 | P RIETL & HOUBEN

auch (widerständige) Umgangsstrategien, etwa die ‚versteckte‘ Kommunikation negativer Erlebnisse mittels subtiler Sprachcodes. Im zweiten Teil Soziotechnische Bedingungen der Datengesellschaft stehen Fragen nach den soziotechnischen Voraussetzungen der Datengesellschaft und sozialen Praktiken der Konstruktion von Daten und Datentechnologien im Mittelpunkt. Daten werden dabei nicht als einfach ‚gegeben‘ hingenommen, sondern als Ergebnis sozialer Aushandlungsprozesse und Inskriptionen sowie soziomaterieller Konstruktionsleistungen verstanden. So wenden sich Sophie Mützel, Philippe Saner und Markus Unternährer in ihrem Beitrag Schöne Daten! Konstruktion und Verarbeitung von digitalen Daten ausgehend von dem Diktum, dass Daten nie in Reinform existieren, sondern stets ein Produkt vielfacher Entscheidungen sind, der Frage zu, wie genau diese allenthalben proklamierten sozialen Konstruktionsprozesse eigentlich genau vonstattengehen. Dazu erforschen sie Datenverarbeitungsprozesse in einem Datenunternehmen ethnografisch und arbeiten die unterschiedlichen Bewertungslogiken der Datenanalyst_innen, Marketingfachleute und des Managements heraus. Die Autor_innen werfen damit nicht nur Licht auf Entscheidungsprozesse, die sich für gewöhnlich auf der Hinterbühne von Datenkonzernen vollziehen und bisher viel zu selten untersucht werden, sondern tragen auch zur kritischen Selbstreflexion des sozialwissenschaftlichen Umgangs mit Big Data bei. In ihrem Beitrag Die (implizite) Pädagogik von SelfTracking betrachtet Denise Klinge das Phänomen des digitalen Sammelns und Auswertens alltäglicher Körper- und Umweltdaten unter Fokussierung auf die damit einhergehende „Selbstexpertisierung“, genauer mit Blick auf die Frage, welche – auch impliziten – Werte und Ziele in die entsprechenden Technologien eingeschrieben werden und wie diese den Nutzer_innen vermittelt werden sollen. Damit folgt sie der These, dass Selbstaufzeichnungstechnologien auch erzieherisch tätig sind bzw. ihnen eine bestimmte Pädagogik eigen ist. Unter Rekurs auf qualitative Interviews mit App-Entwickler_innen wirft der Beitrag damit aus erziehungswissenschaftlicher wie wissens- und techniksoziologischer Perspektive einen innovativen Blick auf diese kaum beleuchteten Momente der Datafizierung. Der Beitrag Wer Datengesellschaft sagt, muss auch CloudComputing sagen. Die Cloud als zentrale Infrastruktur der datafizierten Gesellschaft von Michael Eggert und Daniel Kerpen setzt an der technischen Prozessierung der wachsenden Datenmengen an und fokussiert die soziotechnischen Voraussetzungen der Datengesellschaft. Dabei legen die Autoren dar, weshalb es unabdingbar ist, die technologischen Infrastrukturen zu untersuchen, um ein Verständnis für die damit einhergehende Gesellschaftstransformation zu entwickeln. Sie fundieren ihre Auseinandersetzung auf Überlegungen zu großen technischen Systemen und schlagen auf dieser Grundlage Cloud-Computing als die

E INFÜHRUNG

| 23

zentrale Infrastruktur der Datengesellschaft vor. Damit eröffnen sie auch einen Blick auf die der Datengesellschaft zugrundeliegenden und zumeist unsichtbar bleibenden Interessenslagen. Im dritten Teil Macht und Legitimität der Datenregime werden die vorangehenden Analysen dahingehend weitergedacht, als nun Fragen nach der Herrschaftsförmigkeit und den Machteffekten datenbasierter sozialer Prozesse und Technologien ins Zentrum gerückt werden. In ihrem Aufsatz Do digital markers have politics? Die digitale Markierung von Identität und die Konstruktion von Marktordnung nimmt Karoline Krenn unintendierte Effekte zukunftsorientierter, datenbasierter Geschäftsprozesse in den Blick. Am Beispiel der Identifikation persönlicher Bonitätsprofile von Verbraucher_innen, die von Datenfirmen über die Auswertung digitaler Datenspuren erzeugt und dann zur Beurteilung der Kreditwürdigkeit genutzt werden, zeigt sie, wie aus zunächst nur der ökonomischen Rationalität der Bank dienenden digitalen Markierung für ökonomische Transaktionen im Zuge der Kreditvergabe diskriminierende Klassifikationen werden. Indem sie die soziotechnische Gemachtheit dieser digitalen Identitätsmarkierungen darlegt, richtet sie den Fokus auf die Macht- und Verteilungsverhältnisse hinter den sich herauskristallisierenden sozialen Ordnungsgefügen der Datengesellschaft. Rainer Diaz-Bones Beitrag Neue Ausschließungsdynamiken durch Big Data-generierte Unsichtbarkeiten, Inkohärenzen und ungleiche Zeitlichkeiten wirft einen konventionentheoretisch informierten Blick auf die sozialen Grundlagen von Prozessen digitaler Datafizierung. Im Fokus steht dabei das Zusammenfallen von einerseits numerischen Repräsentationen und andererseits Normativitäten, die sich in Konvention niederschlagen. Hierzu untersucht er anhand von Märkten und der amtlichen Statistik, unter welchen Bedingungen diese Verbindungen in der Datengesellschaft problematisch, exkludierend und widersprüchlich werden. Er argumentiert, dass sozialen Repräsentationen und Datenanalysen jeweils gegenläufige Entwicklungen und unterschiedliche Zeitlichkeiten unterliegen, was zu gesellschaftlich wirksamen Paradoxien und Exklusionsmechanismen führt, denen jedoch das Problem anhaftet, nicht der öffentlichen Diskussion bzw. politischen Kontrolle zugänglich zu sein. Der vierte Teil des Sammelbandes Organisationale Transformationen in der Datengesellschaft widmet sich mit Organisationen wesentlichen Stätten und gleichzeitig wichtigen Treibern der datenförmigen Transformation der Gesellschaft. Dabei werden in den beiden Artikeln je unterschiedliche Herangehensweisen verfolgt. Heiner Heiland widmet sich in seinem Aufsatz Algorithmus = Logik + Kontrolle. Algorithmisches Management und die Kontrolle der einfachen Arbeit softwaregestützten Managementpraktiken und stellt damit auch mit den Themen Arbeit, Leitung und Kontrolle sowie nicht zuletzt Formalisierung

24 | P RIETL & HOUBEN

der Mitgliedschaft drei zentrale Aspekte der klassischen Organisationssoziologie vor den Spiegel zeitgenössischer Entwicklungen. Er schlägt vor, algorithmisches Management als innovativen Ansatz zur Lösung des Kontrollproblems von Arbeit zu fassen, das auftritt, wenn in der neuen Plattformökonomie nun von Intermediären vermittelte selbstständig Beschäftigte an die Stelle klassischer Angestellte_r in Unternehmen treten. Dabei nutzen die Plattformen ihre Einflussmöglichkeiten auf sowohl die Logik- als auch die Kontrollkomponente der Algorithmen. Mit Rückgriff auf das Konzept der losen Kopplung wird der analytische Fokus auf die algorithmische Steuerung unternehmerischer Aspekte der Plattformen gelegt und eine Entwicklung hin zu einem digitalen Taylorismus konstatiert. Judith Muster und Stefanie Büchner wählen demgegenüber einen konzeptionellen Zugang und verstehen in ihrem Beitrag Datafizierung und Organisation die Datafizierung als einen Spezialfall der digitalen Transformation von Organisationen. Sie nehmen dabei eine systemtheoretisch informierte organisationssoziologische Perspektive ein, mittels derer sie drei wesentliche Aspekte für die organisationssoziologische Datafizierungsforschung identifizieren; namentlich das Verhältnis von Daten zur Formalität der Organisation, die Perspektive auf Organisationen als informationsverarbeitende Systeme sowie die Veränderung der Möglichkeiten und Grenzen rationalen Entscheidens qua Datafizierung. Die Autorinnen belegen damit, wie wichtig die Verknüpfung von Organisations- und Datafizierungsforschung ist und werfen dazu eine Reihe instruktiver Forschungsfragen auf, um die Wechselwirkung von Organisationen und Datafizierung tiefergehend zu untersuchen. Epistemologische Herausforderungen in der Datengesellschaft und mit ihnen reflexive Fragen der (sozial-)wissenschaftlichen Auseinandersetzung mit den Verheißungen von Big Data stehen im Zentrum von Teil fünf dieses Bandes. Dabei wird deutlich, dass die Ablehnung eines (neo-)positivistischen Verständnisses von Daten, wie es bei nicht wenigen Apologet_innen von Big Data zu beobachten ist, nicht in einer kompletten Ablehnung der wissenschaftlichen Nutzung von Big Data münden muss, sondern die Geistes- und Sozialwissenschaften mit ihrer Theorie- und Methodentradition auch produktive Irritationspotentiale für einen Umgang mit Big Data bereit halten. Zunächst wirft Ramón Reichert in seinem Beitrag Governing by Data einen vor allem medien- wie wissenschaftstheoretisch informierten Blick auf die (potentiellen) Neuordnungen von wissensbezogenen Macht- und Produktionsverhältnissen im Zuge der Verbreitung digitaler Datentechnologien und ihren Big Data. Hierzu sondiert er die medienhistorischen Hintergründe und Voraussetzungen der gegenwärtigen Entwicklungen ebenso wie die sich in diesem Zusammenhang formierenden neuen Wissensfelder. Vor dieser breit angelegten Sichtung zum Teil datenkritisch, zum Teil affir-

E INFÜHRUNG

| 25

mativ argumentierender Forschungsbeiträge, fordert er eine theoretisch informierte Datenkritik und entsprechend kritische Auseinandersetzungen mit den Erkenntnishoffnungen wie -ansprüchen der Großdatenforschung. Auch der Beitrag Die Soziologie in Zeiten von Big Data. Angebote der Relationalen Soziologie von Marco Schmitt setzt bei den Herausforderungen an, die Big Data für die Sozialwissenschaften bedeuten. Er identifiziert dabei drei grundlegende Positionen, die in den aktuellen Debatten eingenommen werden, namentlich Big Data als Bedrohung, Kritik oder Chance. Er spricht sich nun dafür aus, Big Data vornehmlich als Chance zu betrachten und lotet in der Folge aus, welche theoretischen und methodischen Ansätze die Relationale Soziologie, allen voran die Konzepte Harrison Whites, offerieren, um sowohl analytische Potentiale von Big Data zu nutzen als auch gleichzeitig ein für die Soziologie konstitutives kritischreflexives Moment zu bewahren. Im letzten Teil Datengesellschaft als Zeitdiagnose versuchen wir in einer gesellschaftsdiagnostischen Annäherung an gegenwärtige Entwicklungen der Datafizierung, diese als Moment sozialen Wandels und Ausdrucks einer sich gerade etablierenden Gesellschaftsformation zu fassen. Hierzu fokussieren wir in dem gleichnamigen Beitrag auf Strukturdynamiken, Reproduktionsmechanismen und Subjektformen der Datengesellschaft, um die unzähligen aktuell beobachtbaren Prozesse und Aspekte der Datafizierung unter einer Perspektive zu integrieren und in ihrem transformativen Potential für die Gesellschaft zu deuten.

D ANKSAGUNG Ausgangspunkt des vorliegenden Sammelbandes waren die Tagung „Daten\Gesellschaft!?“, die im März 2016 im Institut für Soziologie der RWTH Aachen stattfand und die Ad-Hoc-Gruppe „Klassifikation und Big Data. Ein- und Ausschlüsse in der Datengesellschaft“, die wir gemeinsam mit Karoline Krenn am 38. Kongress der Deutschen Gesellschaft für Soziologie in Bamberg organisieren konnten. Der Sammelband nimmt die Diskussionen dieser Veranstaltungen auf und führt sie fort. Unser Dank gilt deshalb zunächst allen Teilnehmer_innen an besagten Formaten sowie den Autor_innen, die darüber hinaus gewonnen werden konnten. Für die finanzielle Unterstützung der Aachener Tagung danken wir der ThyssenStiftung. Ein herzlicher Dank gilt der vielfältigen und wertvollen kollegialen Unterstützung, die wir durch den Lehrstuhl für Kultur- und Wissenssoziologie der TU Darmstadt sowie den Lehrstuhl für Technik- und Organisationssoziologie der RWTH Aachen erfahren durften, ohne die unsere Arbeit nicht möglich gewesen wäre. Last but not least sei den studentischen Mitarbei-

26 | P RIETL & HOUBEN

ter_innen, Nadine Diefenbach, Anna Feininger und Martin Mrosek, für ihre Unterstützung bei der Tagungsorganisation sowie der Edition des Sammelbandes herzlich gedankt.

L ITERATUR Aamodt, Agnar/Nygard, Mads (1995): Different roles and mutual dependencies of data, information, and knowledge. An AI perspective on their integration. In: Data and Knowledge Engineering, Vol. 16, S. 191-222. Alaimo, Christina/Kallinikos, Jannis (2017): Computing the everyday: Social media as data platforms. In: The Information Society, Vol. 33, No. 4, S. 175-191. Amoore, Louise (2011): Data Derivatives. On the Emergence of a Security Risk Calculus for Our Times. In: Theory, Culture and Society, Vol. 28, No. 6, S. 24-43. Anderson, Chris (2013): Das Ende der Theorie. Die Datenschwemme macht wissenschaftliche Methoden obsolet. In: Geiselberger, Heinrich/Moorstedt, Tobias (Hrsg.): Big Data. Das neue Versprechen der Allwissenheit, Berlin, S. 124-130. Andrejevic, Mark/Gates, Kelly (2014): Big Data Surveillance: Introduction. In: Surveillance & Society, Vol. 12, No. 2, S. 185-196. Aronova, Elena/Baker, Karen/Oreskes, Naomi (2010): Big Science and Big Data in Biology. From the International Geophysical Year through the International Biological Program to the Long-Term Ecological Research Program, 1957- Present. In: Historical Studies in the Natural Sciences, Vol. 40, No. 2, S. 183-224. Baecker, Dirk (2013): Metadaten. Eine Annäherung an Big Data. In: Geiselberger, Heinrich/Moorstedt, Tobias (Hrsg.): Big Data. Das neue Versprechen der Allwissenheit, Berlin, S. 156-186. Ball, Kirstie/Haggerty, Kevin D./Lyon, David (Hrsg.) (2012): Routledge Handbook of Surveillance Studies, London. Barlösius, Eva (2001): Die Macht der Repräsentationen. In: Dies./Müller, HansPeter/Sigmund, Steffen (Hrsg.): Gesellschaftsbilder im Umbruch. Soziologische Perspektiven in Deutschland. Opladen, S. 179-202. Bauer, Susanne/Heinemann, Torsten/Lemke, Torsten (2017): Science and Technology Studies. Klassische Positionen und aktuelle Perspektiven, Berlin. Beer/David (2017): The social power of algorithms. In: Information, Communication & Society, Vol. 20, No. 1, S. 1-13.

E INFÜHRUNG

| 27

Berger, Peter L./Luckmann, Thomas (1969): Die gesellschaftliche Konstruktion der Wirklichkeit, Frankfurt am Main. Boellstorff, Tom (2013): Making Data in Theory. In: First Monday, Vol. 18, No. 10. Online unter: http://firstmonday.org/article/view/4869/3750 (aufgerufen am 25.01.2018). Boes, Andreas/Kämpf, Tobias/Gül, Katrin/Langes, Barbara/Lühr, Thomas/ Marrs, Kira/Ziegler, Alexander (2016): Digitalisierung und „Wissensarbeit“: Der Informationsraum als Fundament der Arbeitswelt der Zukunft. In: Aus Politik und Zeitgeschichte, H. 18-19, S. 32-39. boyd, danah/Crawford, Kate (2012): Critical Questions for Big Data. Provocations for a cultural, technological, and scholarly phenomenon. In: Information, Communication & Society, Vol. 15, No. 5, S. 662-679. Brückner, Fabian/Wolff, Stephan (2015): Die Listen der Organisation. Und der Blick dazwischen. In: von Groddeck, Viktoria/Wilz, Marlene (Hrsg.): Formalität und Informalität in Organisationen, Wiesbaden, S. 341-370. Burkhardt, Marcus (2015): Digitale Datenbanken. Eine Medientheorie im Zeitalter von Big Data, Bielefeld. Butollo, Florian/Engel, Thomas/Schmalz, Stefan (2017): Editorial. Arbeit und Wertschöpfung im digitalen Kapitalismus. In: PROKLA, H. 187, S. 168-172. Christin, Angèle (2017): Algorithms in practice. Comparing web journalism and criminal justice. In: Big Data & Society. DOI: doi.org/10.1177/2053951717718855. Coleman, James (1986): Social Theory, Social Research, and a Theory of Action. In: American Journal of Sociology, Vol. 91, No. 6, S. 1309-1335. Degli Esposti, Sara (2014): When big data meets dataveillance. The hidden side of analytics. In: Surveillance & Society, Vol. 12, No. 2, S. 209-225. Diekmann, Andreas (2009): Empirische Sozialforschung, Hamburg. Diekmann, Andreas (2016): Die Gesellschaft der Daten. In: Süddeutsche Zeitung, 9.9.2016. Dolata, Ulrich (2015): Volatile Monopole. Konzentration, Konkurrenz und Innovationsstrategien der Internetkonzerne. In: Berliner Journal für Soziologie, Jg. 24, H. 4, S. 505-529. Dolata, Ulrich/Schrape, Jan-Felix (2015): Masses, Crowds, Communities, Movements. Collective Action in the Internet Age. In: Social Movement Studies. DOI: 10.1080/14742837.2015.1055722. Duttweiler, Stefanie/Gugutzer, Robert/Passoth, Jan-Hendrik/Strübing, Jörg (Hrsg.) (2016): Leben nach Zahlen. Self-Tracking als Optimierungsprojekt?, Bielefeld.

28 | P RIETL & HOUBEN

Faßler, Manfred (1997): Informations- und Mediengesellschaft. In: Kneer, Georg/Nassehi Armin/Schroer, Markus (Hrsg.): Soziologische Gesellschaftsbegriffe. Konzepte und moderne Zeitdiagnosen, München, S. 332360. Faßler, Manfred (2001): Netzwerke. Einführung in die Netzstrukturen, Netzkulturen und verteilte Gesellschaftlichkeit, München. Flick, Uwe/Kardorff, Ernst von/Steinke, Ines (2007): Was ist qualitative Forschung? In: Flick, Uwe/Kardorff, Ernst von/Steinke, Ines (Hrsg.): Qualitative Forschung. Ein Handbuch, Hamburg, S. 13-29. Floridi, Luciano (2010): Information: A Very Short Introduction, Oxford. Flyverbom, Mikkel/Madsen, Anders K. (2015): Sorting data out. Unpacking big data value chains and algorithmic knowledge production. In: Süssenguth, Florian (Hrsg.): Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung, Bielefeld, S. 123-144. Foucault, Michel (1977): Der Wille zum Wissen. Sexualität und Wahrheit 1, Frankfurt am Main. Fourcade, Marion/Healy, Kieran (2013): Classification situations: Life-chances in the neoliberal era. In: Accounting, Organizations and Society, Vol. 38, S. 559-572. Fourcade, Marion/Healy, Kieran (2017): Categories All the Way Down. In: Historical Social Research, Vol. 42, No. 1, S. 286-296. Friedrichs, Jürgen (1980): Methoden empirischer Sozialforschung, Opladen. Galloway, Alexander/Thaker, Eugene (2014): Protokoll, Kontrolle, Netzwerke. In: Reichert, Ramón (Hrsg.): Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie, Bielefeld, S. 289-311. Gitelman, Lisa (Hrsg.) (2013): Raw Data is an Oxymoron, Cambridge. Hagendorff, Thilo (2017): Das Ende der Informationskontrolle. Digitale Mediennutzung jenseits von Privatheit und Datenschutz, Bielefeld. Häußling, Roger/Eggert, Michael/Lemm, Jacqueline/Kerpen, Daniel/Strüver, Niklas/Ziesen, Nenja (2017): Schlaglichter der Digitalisierung: Virtureale(r) Körper – Arbeit – Alltag. Ein Vorstoß zum Kern der Digitalisierung aus einer techniksoziologisch-relationalen Perspektive. Workingpaper des Lehrstuhls für Technik- und Organisationssoziologie der RWTH Aachen. Heintz, Bettina (2007): Zahlen, Wissen, Objektivität. In: Mennicken, Andrea/ Vollmer, Hendrik (Hrsg.): Zahlenwerke. Kalkulation, Organisation und Gesellschaft. Wiesbaden, S. 65-85. Heintz, Bettina (2016): „Wir leben im Zeitalter der Vergleichung.“ Perspektiven einer Soziologie des Vergleichs. In: Zeitschrift für Soziologie, Jg. 45, H. 5, S. 305-323.

E INFÜHRUNG

| 29

Hepp, Andreas (2016): Kommunikations- und Medienwissenschaft in datengetriebenen Zeiten. In: Publizistik Jg. 61, H. 3, S. 225-246. Hirsch-Kreinsen, Hartmut (2017): Digitalisierung industrieller Einfacharbeit. Entwicklungspfade und arbeitspolitische Konsequenzen. In: Arbeit, Jg. 26, H. 1, S. 7-32. Iliadis, Andrew/Russo, Federica (2016): Critical data studies: An introduction. In: Big Data & Society. DOI: doi.org/10.1177/2053951716674238. Jürgenmeyer, Julian/Krenn, Karoline (2016): Classification Situations – A New Field of Research for Valuation Studies? In: Valuation Studies, Vol. 4, No. 2, S. 177-189. Kent, William (1978): Data and Reality. Basic Assumptions in Data. Processing Reconsidered, Amsterdam. Kitchin, Rob (2014): The Data Revolution. Big Data, Open Data, Data Infrastructures and Their Consequences, London. Kitchin, Rob/Lauriault, Tracey P. (2014): Towards critical data studies. Charting and unpacking data assemblages and their work. Pre-print version of chapter to be published. In: Eckert, J./Shears, A./Thatcher, J. (Hrsg.): Geoweb and Big Data, Lincoln. Knorr-Cetina, Karin (1984): Die Fabrikation von Erkenntnis. Zur Anthropologie der Naturwissenschaft, Frankfurt am Main. König, Christian/Schröder, Jette/Wiegand, Erich (Hrsg.) (2018): Big Data. Chancen, Risiken, Entwicklungstendenzen, Wiesbaden. Krenn, Karoline (2017): Markets and Classifications – Constructing Market Orders in the Digital Age. An Introduction. In: Historical Social Research, Vol. 42, No. 1, S. 7-22. Lamont, Michelle (2012): Toward a Comparative Sociology of Valuation and Evaluation. In: Annual Review of Sociology, Vol. 38, S. 201-221. Latour, Bruno (2013): Achtung: Ihre Phantasie hinterlässt Spuren! In: Geiselberger, Heinrich/Moorstedt, Tobias (Hrsg.): Big Data. Das neue Versprechen der Allwissenheit, Berlin, S. 119-123. Latour, Bruno/Woolgar, Steve (1979): Laboratory Life. The Construction of Scientific Facts, Beverly Hills. Mämecke, Thorben/Passoth, Jan-Hendrik/Wehner, Josef (Hrsg.) (2018): Bedeutende Daten. Modelle, Verfahren und Praxis der Vermessung und Verdatung im Netz, Wiesbaden. Mann, Steve (2004): „Sousveillance“. Inverse Surveillance in Multimedia Imaging. In: ACM Multimedia 04, S. 10-16. Manovich, Lev (2001): The Language of New Media, Boston.

30 | P RIETL & HOUBEN

Mau, Steffen (2017): Das metrische Wir. Über die Quantifizierung des Sozialen, Berlin. Mayer-Schönberger, Viktor/Cukier, Kenneth (2013): Big Data. Die Revolution, die unser Leben verändern wird, München. Miller, Vincent (2011): Understanding Digital Culture, London. Morgenroth, Markus (2014): Sie kennen dich! Sie haben dich! Sie steuern dich! Die wahre Macht der Datensammler, München. Nachtwey, Oliver/Staab, Philipp (2015): Die Avantgarde des digitalen Kapitalismus. In: Mittelweg, Jg. 36, H. 6, S. 1-21. Neyland, Daniel (2015): On Organizing Algorithms. In: Theory, Culture & Society, Vol. 32, No. 1, S. 119-132. Ortner, Heike/Pfurtscheller, Daniel/Rizzolli, Michaela/Wiesinger, Andreas (Hrsg.) (2014): Datenflut und Informationskanäle, Innsbruck. Osborne, Thomas/Rose, Nicolas (1999): Do the social sciences create phenomena? The example of public opinion research. In: British Journal of Sociology, Vol. 50, No. 3, S. 367-396. Ott, Sascha (2007): Information. In: Schützeichel, Rainer (Hrsg.): Handbuch Wissenssoziologie und Wissensforschung, Konstanz, S. 388-393. Passoth, Jan-Hendrick (2016): Mit dem Rechnen rechnen. Vortrag an der RWTH Aachen. Juli 2016. Passoth, Jan-Hendrik/Wehner, Josef (2018): Listen, Daten, Algorithmen. Ordnungsformen des Digitalen. In: Mämecke, Thorben/Passoth, JanHendrik/Wehner, Josef (Hrsg.): Bedeutende Daten. Modelle, Verfahren und Praxis der Vermessung und Verdatung im Netz, Wiesbaden, S. 51-68. Paulitz, Tanja (2005): Netzsubjektivität/en. Konstruktionen von Vernetzung als Technologien des sozialen Selbst. Eine empirische Untersuchung in Modellprojekten der Informatik, Münster. Paulitz, Tanja/Carstensen, Tanja (Hrsg.) (2014): Subjektivierung 2.0. Machtverhältnisse digitaler Öffentlichkeiten. Sonderheft der österreichischen Zeitschrift für Soziologie, Wiesbaden. Pickering, Andrew (1989): Living in the Material World: On Realism and Experimental Practice. In: Gooding, David/Pinch, Trevor J./Schaffer, Simon (Hrsg.): The Uses of Experiment: Studies of Experimentation in the Natural Sciences, Cambridge, S. 275-297. Ramge, Thomas/Mayer-Schöneberger, Viktor (2017): Das Digital. Markt, Wertschöpfung und Gerechtigkeit im Datenkapitalismus, Berlin. Reckwitz, Andreas (2003): Grundelemente einer Theorie sozialer Praktiken. Eine sozialtheoretische Perspektive. In: Zeitschrift für Soziologie, Jg. 32, H. 4, S. 282-301.

E INFÜHRUNG

| 31

Reckwitz, Andreas (2017): Die Gesellschaft der Singularitäten, Berlin. Reichert, Ramón (2014a): Einführung. In: Ders. (Hrsg.): Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie, Bielefeld, S. 9-31. Reichert, Ramón (Hrsg.) (2014b): Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie, Bielefeld. Reichert, Ramón (2014c): Facebook und das Regime der Big Data. In: Paulitz, Tanja/Carstensen, Tanja (Hrsg.): Subjektivierung 2.0. Sonderheft der Österreichischen Zeitschrift für Soziologe, Wiesbaden, S. 163-179. Reichert, Ramón (2018): Big Data als Boundary Objects. Zur medialen Epistemologie von Daten. In: Mämecke, Thorben/Passoth, Jan-Hendrik/Wehner, Josef (Hrsg.): Bedeutende Daten. Modelle, Verfahren und Praxis der Vermessung und Verdatung im Netz, Wiesbaden, S. 17-34. Richter, Philipp (Hrsg.) (2015): Privatheit, Öffentlichkeit und demokratische Willensbildung in Zeiten von Big Data, Baden-Baden. Roberge, Jonathan/Seyfert, Robert (2017): Was sind Algorithmuskulturen? In: Dies. (Hrsg): Algorithmuskulturen. Über die rechnerische Konstruktion der Wirklichkeit, Bielefeld, S. 7-40. Schmidt, Florian A. (2017): Arbeitsmärkte in der Plattform-ökonomie. Zur Funktionsweise und den Herausforderungen von Crowdwork und Gigwork, Bonn. Schnell, Rainer/Hill, Paul B./Esser, Elke (1999): Methoden der empirischen Sozialforschung, München. Schnettler, Bernt (2007): Thomas Luckmann. In: Schützeichel, Rainer (Hrsg.): Handbuch Wissenssoziologie und Wissensforschung, Konstanz, S. 161-170. Schreier, Bruce (2015): Data und Goliath. Die Schlacht um die Kontrolle unserer Welt: Wie wir uns gegen Überwachung, Zensur und Datenklau wehren müssen, München. Selke, Stefan (Hrsg.) (2016): Lifelogging. Digitale Selbstvermessung und Lebensprotokollierung zwischen disruptiver Technologie und kulturellem Wandel, Wiesbaden. Sevignani, Sebastian (2016): Privacy and Capitalism in the Age of Social Media, New York. Shaw, Ryan (2015): Big Data and Reality. In: Big Data & Society. DOI: doi.org/10.1177/2053951715608877. Stehr, Nico (1994): Arbeit, Eigentum und Wissen. Zur Theorie von Wissensgesellschaften, Frankfurt am Main. Süssenguth, Florian (Hrsg.) (2015): Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung, Bielefeld.

32 | P RIETL & HOUBEN

Vormbusch, Uwe (2004): Accounting. Die Macht der Zahlen im gegenwärtigen Kapitalismus. In: Berliner Journal für Soziologie Jg. 14, H. 1, S. 33-50. Vormbusch, Uwe (2007). Die Kalkulation der Gesellschaft. In: Mennicken, Andrea/Vollmer, Hendrik (Hrsg.): Zahlenwerk. Kalkulation, Organisation und Gesellschaft, Wiesbaden, S. 43-64.

Praktiken der Datengesellschaft

Daten-Teilen? Digitale Selbstvermessung aus praxeologischer Perspektive M ATTHIAS L EGER , S USANNE P ANZITTA & M ARIA T IEDE

S ELBSTVERMESSUNGSAPPS ALS T EIL SOZIALER P RAKTIKEN Wir posten, wir liken, wir teilen – unser Alltag ist digital geworden. Soziale Netzwerke erfreuen sich einer großen Beliebtheit; kaum ein Unternehmen kommt heute noch ohne eine eigene Facebookseite bzw. eigenen Internetauftritt aus. Smartphones ermöglichen es, jederzeit und überall auf das Internet zuzugreifen; es gibt nur wenige Aspekte des Lebens, für die es keine passende App gibt. Dass mit all diesen Angeboten auch zunehmend Daten erhoben und verarbeitet werden, wird häufig ausgeblendet oder ist uns nicht bewusst. Doch gründen Facebook1, Instagram2 oder Twitter3, um nur die prominentesten Beispiele zu nennen, ihren Erfolg darauf, dass deren Nutzer4 Inhalte – also Daten – hochladen und mit anderen teilen. Die Verbreitung von Daten in und über Social Media, sowie das (stillschweigende) Sammeln und Auswerten dieser Daten durch Herstellerfirmen, ist durch die Verwendung technischer Infrastrukturen nahezu unbegrenzt möglich. Während die Nutzung von Online-Plattformen wie Facebook und Twitter mittlerweile üblich ist, werden in den letzten Jahren verstärkt

1

www.facebook.com. (Zuletzt aufgerufen: 05.06.2017)

2

www.instagram.com. (Zuletzt aufgerufen: 05.06.2017)

3

www.twitter.com. (Zuletzt aufgerufen: 05.06.2017)

4

Im Folgenden wird weder die männliche noch die weibliche Variante als Normalform verwendet, sondern willkürlich zwischen verschiedenen Formen gewechselt, sofern die Logik der Aussage keinen besonderen Bezug auf eine der beiden Formen notwendig macht.

36 | L EGER, P ANZITTA & TIEDE

neue Apps und Angebote entwickelt, die sich unter dem Begriff Selbstvermessung subsumieren lassen. Ob Fitnesstracker, Kalorienzähler oder Apples Health, die Popularität von Selbstvermessungsangeboten wächst. Durch die Nutzung dieser Angebote werden fortlaufend Daten produziert; insbesondere Körperdaten, die gemeinhin und zumindest partiell als persönlich und sensibel eingestuft werden.5 Dem allgemeineren Trend folgend und ihn zugleich verstetigend, bieten Selbstvermessungsapps die Möglichkeit des Teilens von Daten an. Doch wird von diesem vermeintlichen Angebot auch Gebrauch gemacht? Und falls ja, wie vollzieht sich dieses Daten-Teilen? „Sharing is caring“ (Eggers 2014), so lautet die Devise. Aber wie freiwillig ist die Teilnahme am Data Sharing und wie verhalten sich die Selbstvermesserinnen im Angesicht der vielfältigen medial präsenten Skandale um Datensicherheit und Schutz der Privatsphäre dazu? Wagner und Stempfhuber (2015: 68) konstatieren, dass es trotz fortlaufender Skandale um NSA, PRISM, Google und so weiter auf der Nutzerinnenseite „relativ wenig ‚Bewusstsein‘ für das Gefahrenpotential“ digitaler Medien gebe – eine These, die anhand der breiten gesellschaftlichen Debatte um Datenschutz zumindest paradox erscheint. Aufbauend auf einem unserer Forschung vorangegangenen Lehrforschungsprojekt, welches sich mit Praktiken der Selbstvermessung im Allgemeinen befasste (Staiger et al. 2015), setzen wir mit unserem Beitrag6 an diesem Paradoxon an, indem wir die Praktiken des Daten-Teilens ins Zentrum unseres Interesses rücken. Wie, so fragen wir, gestaltet sich diese Praxis im Spannungsfeld von technischem Fortschritt, digitalen Lifestyles und medial vermittelter Datenschutzdebatte? Und wo verorten sich die Nutzerinnen von Selbstvermessungsangeboten innerhalb dieses Feldes? Mit Daten-Teilen meinen wir in diesem Zusammenhang die Spannweite von gewolltem und bewusstem Mitteilen von Daten via sozialer Netzwerke oder Funktionen von Apps und Geräten selbst bis hin zur nicht-intentionalen automatischen Weitergabe von Daten an die Hersteller, welcher die Nutzenden jedoch über das Akzeptieren der AGBs bei der App- oder Account-Installation ausdrücklich zustimmen. Der Begriff umfasst damit ein Kontinuum, an dessen einem Ende sich die intentionale Weitergabe von Daten an relativ klar definierte Adressaten (z. B. via Facebook, Runtastic) befindet. Am anderen Ende steht das

5

Siehe zum sogenannten „Privacyparadox“ auch den Beitrag von Papsdorf, Jakob und

6

Die diesem Aufsatz zu Grunde liegende Studie ist als Lehrforschungsbericht (Leckert

Schmitten in diesem Band. et al. 2017) online bei der Universitätsbibliothek Tübingen erschienen.

D ATEN -T EILEN ?

| 37

nicht bewusste Teilen von Daten mit Unternehmen, das sich im Hintergrund über in technische Artefakte eingeschriebene Funktionen sowie deren Verknüpfung mit digitalen Infrastrukturen vollzieht. Unter welchen Umständen, auf welche Weise und von wem oder was werden Daten überhaupt geteilt? Aber auch: Wer sind die relevanten Partizipanden und wie können wir diese identifizieren? Diese Fragen bilden den Ausgangspunkt unserer Analyse. Dazu werden wir im Folgenden unsere theoretischen und methodischen Grundlagen aufzeigen, um darauf aufbauend die von uns aus dem empirischen Material herausgearbeiteten Kernkonzepte des Daten-Teilens näher zu erläutern7. Dabei wird unter anderem gezeigt, dass unsere Informanten im Sprechen über das Teilen von Daten Argumentationsfiguren nutzen, die sich mit dem Konzept der Legitimierungsstrategien fassen lassen. Damit verbunden sind die Gründe für die Nutzung von Selbstvermessungsangeboten wie die Vereinfachung der Praktik durch die App (Convenience), sowie im Vergleichen, Verbessern, Motivieren und Daten-Teilen aus Gründen der Imagepflege, welche die fortlaufende Attraktivität der App-Nutzung erklären. Ein zusammenfassendes Fazit mit gleichzeitiger Einordnung unserer Ergebnisse in einen gesamtgesellschaftlichen Kontext rundet den Beitrag ab. Die gesellschaftliche oder wissenschaftliche Thematisierung von Selbstvermessungspraktiken ist durchaus nicht so neu wie es scheint. So kann man das Self-Tracken aus einer Foucault’schen Perspektive als Technologien des Selbst deuten, welche schon in der griechischen Antike praktiziert worden sind (Schmechel 2016: 142ff.; Zillien/Fröhlich/Kofahl 2016; Schaupp 2016). Mit dem Aufkommen neuer digitaler Technologien, Diskurse und Wearables müssen sich Theorie und Empirie jedoch neuerlich dieser Thematik zuwenden. Einige der Forschenden nähern sich diesem Thema aus einer genealogischen Perspektive und untersuchen Praktiken der Selbstvermessung in Zusammenhang mit gesellschaftlichen Entwicklungen. Darunter z. B. Vormbusch (2016), der sich mit den neuentstehenden Kategorisierungsformen durch Selbstvermessungspraktiken befasst und Schaupp (2016), bei dem Self-Tracking unter den Prinzipien8 des kybernetischen Kapitalismus thematisiert wird. Diese Studien,

7

Die Forschungslogik der Grounded Theory beinhaltet das Bilden von Konzepten, die man durch die Interpretation des Materials erarbeitet. Das bedeutet, dass in den Äußerungen der Informanten, den Diskursfragmenten und Artefakten gemeinsame Deutungsmuster und Wissensvorräte herausgearbeitet und theoretisch zu einem Konzept verdichtet werden.

8

Welche wären: Überwachung und Quantifizierung, Rückkopplung, Selbstoptimierung und performative Selbststeuerung.

38 | L EGER, P ANZITTA & TIEDE

neben anderen, zeichnen eine Reifizierung von Macht- und Herrschaftsverhältnissen sowie neue Formen der Kategorisierung des Körpers respektive des quantifizierten Selbst nach. Die Herstellung des Selbst im Rahmen von digitalen Selbstvermessungspraktiken bzw. die damit einhergehenden Subjektivierungsweisen werden von Strübing, Kasper und Staiger (2016) aus einer praxeologischen Perspektive betrachtet. Die analytische Dezentrierung des Subjekts in Praktiken der Selbstvermessung lässt den Nexus aus Akteur, Artefakten, Körpern und Orten bei der Konstruktion von (Körper-)Daten in den Mittelpunkt rücken. Interessant ist ebenfalls, dass diese Daten im Gegensatz zu früheren Selbstvermessungspraktiken nun entkörpert gespeichert, geteilt, verbreitet und weiterverwendet werden – und dies ohne die unbedingte Einwilligung der Träger der Körperdaten geschieht (Strübing/Kasper/Staiger 2016: 281). Darüber hinaus gibt es ebenfalls praxeologisch argumentierende empirische Studien, die anders gelagerte Konzepte herausarbeiten. Als erstes sind hier Zillien, Fröhlich und Kofahl (2016) zu nennen, die ihren Fokus, ähnlich dem unseren, auf Apps legen und sich dabei jedoch nicht mit körperlich-sportlichen Aktivitäten, sondern mit der Nahrungsaufnahme sowie deren Regulierung beschäftigen. Sie zeigen anhand dessen die reflexive Selbstverwissenschaftlichung, ein Konzept welches sich implizit auch in unsrem Projekt wieder finden lässt, wenn unsere Interviewpartner von „objektiven Daten“9 sprechen. Die Autoren beziehen sich hauptsächlich auf die Quantified-Self-Bewegung, die durchaus ihren eigenen Gesetzlichkeiten folgt. Es kann allerdings festgestellt werden, dass sich die Praktik der Selbstvermessung in andere Bevölkerungsschichten ausbreitet. Das ermöglicht, den Blick nicht nur auf eine spezifische Gruppe zu begrenzen, sondern das ganze Spektrum der Anwenderinnen miteinzubeziehen. Gerade in der Studie von Staiger und andere (2015) wird die Expansion des Self-Trackings deutlich. In ihrem breit aufgestellten Datenmaterial zeigen sie, was unter Selbstvermessung verstanden werden kann, warum man sich vermisst und wie Selbstvermessung praktisch vonstattengeht. Zentral für die Beantwortung dieser Fragen waren die Konzepte experimentelle Grundhaltung und besser werden wollen. Diese stehen in Zusammenhang mit der Optimierung des Selbst und der Verwissenschaftlichung von Körperaktivitäten außerhalb von Sport und Medizin. Viele Studien, die sich unter dem Thema Selbstvermessung subsumieren lassen, nehmen eine praxeologische Perspektive ein. Mit dieser Theorieperspektive und unserem Fokus auf das Daten-Teilen, das wir als einen elementaren Be-

9

Bspw.: „[D]ass ich objektiv weiß, ja des war jetzt wirklich was“ (Jan Weis: 185).

D ATEN -T EILEN ?

| 39

standteil dieser Praktik sehen, können wir das Innovative der digitalen Selbstvermessungspraktiken herausstellen. Wenn Duttweiler und Passoth (2016: 29) danach fragen, ob durch Self-Tracking neue, ungewöhnliche Mess-, Bewertungsund Lebenspraktiken entstehen, dann ist ein Aspekt davon sicherlich die Aufarbeitung und Darstellung von (datenförmigen) Körperrepräsentationen mit einem Nexus an Partizipanden10. Der diskursive und praktische Umgang der Partizipanden mit den datenförmigen Körperrepräsentationen und den damit gekoppelten Taxonomien von digitalen Körperdaten ist in der empirischen Forschung noch weitgehend nicht thematisiert. In unserem Beitrag legen wir erste Grundsteine dazu.

T HEORIE

UND

M ETHODE

Digitale Selbstvermessung – und noch spezieller der Umgang mit damit generierten Daten – ist also ein Gegenstand, an dem verschiedene Instanzen beteiligt sind. In die Praktiken des Daten-Teilens sind Artefakte und Menschen gleichermaßen involviert und untrennbar miteinander verschränkt. So stellte sich uns zunächst die Frage, wie wir dem Untersuchungsgegenstand angemessen begegnen und diesen empirisch fassbar machen können. Bei der theoretischen Annäherung an das Feld zeigte sich, dass eine klassisch handlungstheoretische Perspektive den Blinkwinkel zu sehr einengt. Einerseits können Menschen aus anderen Motivkonstellationen als rein intentionalen handeln (z. B. Routinen, implizites körperliches Wissen etc.), andererseits führt die Engführung auf menschliche Akteure dazu, dass bestimmte Phänomene gar nicht in den Fokus einer soziologischen Analyse gelangen können. So zeigte unser empirisches Material etwa, dass auch Apps als mit Handlungsfähigkeit begabt behandelt werden und darüber hinaus weitere Materialitäten existieren, denen in Bezug auf das Daten-Teilen Akteursqualitäten zugeschrieben werden können. Es handelt sich dabei bspw. um digitale Infrastrukturen, Online-Communities oder Server, die, von den Nutzerinnen unabhängig und teils ohne deren Wissen, selbst Daten aufbereiten und verteilen. Angesichts einer solch komplexen und verwobenen Vielfalt an beteiligten Instanzen beim Daten-Teilen, erscheint es uns sinnvoll und notwendig, einen theoretisch wie methodisch offenen Zugang zu wählen. Für uns sind theoretische Perspektiven analytische Werkzeuge zur Lösung empirischer Probleme, die dann herangezogen werden, wenn sie für die Bearbeitung des empirischen Materials relevant sind. In diesem Sinne geht es uns „nicht

10 Darunter verstehen wir u. a. Akteure, Artefakte, Diskurse, Orte, Körper und Zeit.

40 | L EGER, P ANZITTA & TIEDE

um Anwendung von Theorie, sondern um eine Verwendung von Theorie(n) für ihre empirischen Zwecke […] und um ihre theoretische Weiterentwicklung“ (Kalthoff 2008: 21). Aus dieser Herangehensweise entstand ein Patchwork verschiedener theoretischer Fokussierungen auf das empirische Material. Eine Möglichkeit, diese Fokussierungen anhand einer grob gefassten Leitperspektive zu bündeln, stellen die in der soziologischen Forschung seit geraumer Zeit prominent gewordenen Praxistheorien dar. Eine praxeologische und pragmatistisch informierte Herangehensweise11 kann die genannten Probleme auflösen, da sie durch eine analytische Dezentrierung des Subjekts in der Lage ist, auch die verschiedenen in die Praktik des Daten-Teilens eingebundenen technischen Artefakte als relevante Partizipanden in die Analyse mit einzubeziehen. Wir verstehen Praktiken als „ein typisiertes, routinisiertes und sozial ‚verstehbares‘ Bündel von Aktivitäten.“ (Reckwitz 2003: 289) Im Gegensatz zum Konzept des Handelns im Sinne Max Webers braucht eine Praktik keinen Anstoß, „sie läuft immer schon, die Frage ist nur, was sie am Laufen hält und wie ‚man‘ oder ‚die Leute‘ sie praktizieren“ (Hirschauer 2004: 73; H.i.O.). Neben einem Verständnis, Akteure und Artefakte analytisch als gleichberechtigt zu betrachten, ist jedoch auch eine diskursive Komponente zu berücksichtigen. In Anlehnung an Keller verstehen wir unter Diskursen „historisch entstandene und situierte, geregelte Aussagepraktiken, welche die Gegenstände konstituieren, von denen sie handeln“ (Keller/Truschkat 2013: 30). Wichtig ist hier, dass Diskurse in der Tradition des Symbolischen Interaktionismus respektive der Wissenssoziologie und der Foucault’schen Fokussierung von Macht/ Wissen-Regimen nicht als ein bloß semiotisch prozessierendes System betrachtet werden, sondern als soziale Praxis. Der Schwerpunkt liegt also nicht in der formalen sprachwissenschaftlichen Analyse, sondern viel mehr in der Analyse von Wissensgebilden, die unter anderem Praktiken informieren. 12 Der Einfluss von öffentlichen Diskursen auf das vergleichsweise sensible Thema des Daten-Teilens ist in seiner Wirkung nicht zu unterschätzen. Bei der Analyse unseres Materials wird deutlich, dass sich in den Apps bzw. ihrem Funktionieren diskursive Fragmente (bspw. des Gesundheitsdiskurses13) wieder-

11 Zur Verbindung von praxeologischen Perspektiven und Pragmatismus siehe Strübing (2017). 12 Eine ausführliche Auseinandersetzung des Verhältnisses von Praktiken und Diskursen findet sich bei Reckwitz (2008). 13 Unter dem Begriff Gesundheitsdiskurs verstehen wir eine Vielzahl von Diskursen, die ein Narrativ um die Trias „Lebe Gesund, halte dich fit und sei schlank“ bilden (Leckert et al. 2017: 64ff.).

D ATEN -T EILEN ?

| 41

finden lassen. Ebenso zeigt sich, dass die Selbstvermessenden im Sprechen über das Teilen von Daten Diskursfelder, wie etwa Datenschutzdiskurse14, adressieren und diese gleichzeitig fortschreiben. Diese Verbindung einer praxeologischen und einer diskursanalytischen Herangehensweise setzten wir unter Rückgriff auf den Forschungsstil der Grounded Theory (Strauss 1991; Strübing 2014) um. Dieser ermöglichte es uns, Feldzugänge, Methoden und Forschungsfragen flexibel zu handhaben. In Kombination mit der Situationsanalyse nach Clarke (2012) lassen sich so auch materielle und diskursive Elemente berücksichtigen und somit sowohl die Praktiken als auch die Diskurse des Daten-Teilens mit ihren verschiedenen Aspekten und Einflüssen behandeln. Eine analytische Perspektive, die auf Praktiken fokussiert, erfordert klassischerweise einen ethnographisch-beobachtenden Zugriff (Hirschauer 2004; Breidenstein et al. 2015). Daten-Teilen jedoch ist eine Praktik, die nur schwer systematisch zu beobachten ist. Zum einen, weil sie sich zu großen Teilen in der Privatsphäre und damit in einem für Beobachtungen schwer zugänglichen Bereich abspielt. Zum anderen, weil sich auch die technische Seite des Teilens durch vernetzte Infrastrukturen der Beobachtung weitgehend entzieht. Folglich schlossen wir ein solches Vorgehen als primären Feldzugang aus, nutzten die Methode der Beobachtung allerdings zur Generierung ergänzender und kontrastierender Daten (darunter bspw. einige Feldbeobachtungen in Fachgeschäften und Fitnessstudios) und ließen die in Protokollen festgehaltenen Beobachtungen in die Analyse mit einfließen. Darüber hinaus nutzten wir dezidiert unterschiedliche empirische Zugänge, um den vielschichtigen Praktiken des Daten-Teilens und der Heterogenität der an ihnen beteiligten Partizipanden gerecht werden zu können. So führten wir 13 leitfadengestützte Interviews15 und initiierten zwei onlinebasierte Gruppendiskussionen in einschlägigen Diskussionsforen. Des Weiteren analysierten wir Print- und Onlinemedien sowie Werbeanzeigen von Selbstvermessungsgadgets hinsichtlich relevanter Diskursfragmente. Um die materielle Seite der Praktiken zu berücksichtigen und einen Eindruck von der Funktions-

14 Auch hier möchten wir einer vorschnellen Leseart, dass es einen Datenschutzdiskurs gäbe, der simpel zu identifizieren ist, vorbeugen. Vielmehr handelt es sich dabei um situativ variierende Narrative, die nicht immer trennscharf abzugrenzen sind (Leckert et al. 2017: 47ff.). 15 Die Bandbreite unserer Interviewten war sehr weit gestreut. Diese Heterogenität lässt sich als Indiz für die Ausbreitung der Verwendung von Selbstvermessungsapps in verschiedene Bevölkerungsschichten deuten. Die in diesem Aufsatz zitierten Interviewten werden bei erstmaliger Nennung kurz in einer Fußnote charakterisiert.

42 | L EGER, P ANZITTA & TIEDE

weise von Selbstvermessungs-Apps zu bekommen – und diese gleichzeitig hinsichtlich ihrer Handlungsbeteiligung und potentiell eingeschriebener diskursiver Elemente zu untersuchen – führten wir mehrere Artefaktanalysen häufig genutzter Apps16 durch. So konnten wir uns den Praktiken des Daten-Teilens auf einer breiten empirischen Grundlage nähern, die über die reine Analyse verbaler Interviewdaten hinausreicht. Ein solches „Theorie-Methoden-Paket“ (Clarke 2012: 46) aus Pragmatismus/Praxistheorien und Grounded Theory/Situationsanalyse stellt also die Basis unserer Untersuchung dar. Mit der damit einhergehenden prozessimmanenten Verschränkung von Analyse und Datengenerierung waren wir in der Lage, auf Einflüsse des Feldes einzugehen und unsere Forschungsfrage zunehmend genauer und orientiert an der Spezifik des Feldes zu verfolgen. Die zentralen Ergebnisse unserer Forschung haben wir in den nachfolgenden Konzepten verdichtet und werden diese anhand empirischer Beispiele näher erläutern.

D ER S CHUTZ VON D ATEN UND DIE R HETORIK DER L EGITIMIERUNG In der Interviewsituation wurden die Nutzer der Vermessungs-Apps und -geräte angeregt, ihre Praxis und die Diskurse, die damit in Verbindung stehen, zu explizieren. Dabei begannen so gut wie alle Interviewten, ihre Selbstvermessung vor dem Hintergrund der Datenschutzdebatte zu legitimieren.17 Meist kamen unsere Gesprächspartner dabei von selbst auf Datenschutz zu sprechen, teils jedoch erst nach der Frage, ob sie AGBs vor dem Installieren lesen oder welche Privatsphäreeinstellungen sie vornehmen würden. Bis auf einen Interviewten waren sich alle unserer Informanten einig, dass Datenschutz etwas sehr Wichtiges sei, wodurch sie sich als aufgeklärte Nutzer darstellten. Sie wollten also – im Interviewgespräch mit Studierenden von der Universität wenig überraschend – zuerst einmal als ausreichend informiert gelten und verwendeten verschiedene Erklärungsfiguren, um ihr Tun mit ihrem Wissen über den Datenschutzdiskurs in Einklang zu bringen. Pragmatistisch aufgefasst benutzen Akteure diese Legitimierungen als Problemlösungsstrategien, um den Widerspruch zwischen Handeln

16 Zu nennen sind hier u. a. Endomondo sowie Runtastic, welche bei unseren Informanten aufgrund ihrer vielseitigen Nutzungsmöglichkeiten gerne verwendet werden. 17 Einzige Ausnahme bildete der Fall Noyam Erdem, der extrem viel teilte und sich keine Sorgen um Datenschutz machte. Die hier zitierten Interviewpartner wurden von uns anonymisiert.

D ATEN -T EILEN ?

| 43

und Wissen, der in der Interviewsituation aufgedeckt wurde, zu lösen. Daher findet eine Umdeutung statt, um den Widerspruch aus der Welt zu schaffen und das eigene Handeln als legitim und rational erscheinen zu lassen (Bowker/Star 2000). An der Appnutzung wird, wie noch zu illustrieren ist, aus Gründen der Convenience festgehalten, sodass das Handeln selbst nicht geändert wird (siehe nächster Abschnitt). Was wir bei vielen Interviewten antrafen, ist eine Einteilung der Daten in schützenswert und nicht schützenswert, wobei nicht schützenswerte Daten problemlos weitergegeben werden dürfen. Die Legitimierungsstrategie setzt hier dabei an, die relevanten Daten als nicht-schützenswert zu kategorisieren. Zunächst einmal wurden die Daten entweder als persönlich oder unpersönlich definiert, wobei die unpersönlichen Daten als nicht schützenswert angesehen wurden. Als persönlich wurden oft private Emails, Facebooknachrichten oder private Fotos, aber auch Körperdaten wie Blutdruck oder Puls genannt. Als unpersönlich hingegen wurde die Laufstreckenaufzeichnung oder der Kalorienverbrauch angesehen. Weiterhin nicht-schützenswert waren Daten, die etwas Positives über die Nutzenden aussagen, wie beispielsweise Sportlichkeit. Das Teilen selbst bedarf also dann keiner Rechtfertigung mehr, wenn die Daten, die geteilt werden, positive Nutzerinformationen preisgeben oder als nicht schützenswert betrachtet werden – also keine Informationen preisgeben, die der Nutzer nicht über sich verbreitet wissen will. Im Material spiegelt sich diese Art der Legitimation in Aussagen wie ‚Ist mir nicht wichtig, können sie gerne haben‘ wider. Am häufigsten sprachen die Interviewten hierbei Daten an, die mit den Lauf-Apps generiert wurden und deren Weitergabe in der Regel als nicht problematisch angesehen wurde, da die Nutzung von Selbstvermessungsangeboten in unserem Sample als etwas allgemein Positives aufgefasst wurde. Ein Selbstvermessender meinte hierzu: [W]enn jetzt irgendjemand sehen kann irgendwie ja ich bin halt sportlich aktiv des ist ja jetzt eigentlich nichts was niemand jetzt irgendwie zu interessieren hat find ich, es ist okay wenn jetzt wenn die des jetzt irgendwie wissen okay der ist sportlich dann, oder der macht Sport dann kann ich damit eigentlich leben (lacht) aber so persönliche E-Mails oder sowas sowas stört mich dann schon eher18 (Bernd Seiler: 28-32)19.

18 Die hier aufgeführten Interviewausschnitte stammen aus einem Lehrforschungsprojekt von angehenden Forscherinnen. Daher gibt es in den einzelnen Passagen differierende Nuancen in der Transkriptionsdarstellung.

44 | L EGER, P ANZITTA & TIEDE

Die potentielle Weitergabe von Daten, die von den Befragten als Problem kategorisiert wurde, kollidierte also mit dem eigenen Verhalten. Um erst einmal einen Teil dieses Konfliktes zu lösen, wurden Daten einfach als unproblematisch teilbar, und damit nicht schützenswert, kategorisiert. Das Teilen der restlichen Daten, die noch als schützenswert galten, wurde durch eine weitere Argumentationsfigur legitimiert. Es wurde ein allgemeiner Fatalismus konstruiert, mit dem der vernetzten Welt begegnet wird: ‚Die da (oben), also die Firmen, die NSA, die bei Facebook etc., wissen sowieso schon alles von mir‘, so lässt sich eine Synthese aus vielen Interviewaussagen bilden. Drastisch drückte es der zuvor zitierte Student aus: „aber ich mein das ist ich mein sobald man halt irgendwie anfängt sowas zu nutzen wie ein Smartphone dann hat man eigentlich den Pakt mit dem Teufel schon gemacht (lacht)“ (Bernd Seiler: 126-128). Damit wird ein diskursiv geprägtes Gegenüber konstruiert das als übermächtig und unausweichlich dargestellt wird, sodass eine Legitimierung der eigenen Praktik darin besteht, dass eine Überwachung durch die da oben sowieso stattfindet. Die Interviewten bringen hier eine Weltanschauung ähnlich dem „Gesellschaftsbild des Arbeiters“ an, das Popitz und andere (1957) bereits Mitte des letzten Jahrhunderts entwickelt haben. Damit ist der „Glaube an eine gesellschaftliche Dichotomie von Macht und Ohnmacht“ (a. a. O.: 205) gemeint, in dem „wir da unten“ (a. a. O.: 201) „denen da oben“ (a. a. O.: 205) schutzlos ausgeliefert sind. Die Selbstvermessung wird damit, im Vergleich zu all den anderen vernetzten Praktiken, relativ unbedeutend. Der mächtige Datensammler da oben weiß sowieso schon alles. Der oben bereits zitierte Interviewpartner fuhr fort: „[A]lso der beste Weg wäre natürlich sowas gar nicht zu nutzen entweder man nutzt es oder man nutzt es nicht aber wenn man es halt nutzt dann gibt man eben auch Daten von sich Preis“ (Bernd Seiler: 131-133). Aus dieser Perspektive wäre der einzige Weg zum Schutz privater Daten, einfach keinerlei vernetzte Geräte mehr zu nutzen. Doch dieser Schritt ist wohl für viele undenkbar, da die Benutzung von Computern und Smartphones generell mit vielen Praktiken und Annehmlichkeiten des Alltags verbunden ist. Der Kontakt zu Freunden, die Organisation von Arbeitsgruppen, Sport und Unterhaltung sind in vernetzten, digitalen Artefakten fest verankert und sie einfach nicht zu benutzen, grenzt fast schon an soziale Isolation. Ob dann noch Daten hinzukommen, die zudem noch entproblematisiert werden, scheint in dieser Rhetorik nicht weiter relevant zu sein.

19 Bernd Seiler war zum Interviewzeitpunkt 25 Jahre alt und Chemiestudent. Zuvor hatte er eine Ausbildung zum Chemisch-Technischen Assistenten abgeschlossen. Er nutzte die App Runtastic, die er von einem Freund empfohlen bekommen hatte.

D ATEN -T EILEN ?

| 45

Das legitimierungswürdige Verhalten wird als problematisch angesehen oder zumindest als Solches anerkannt, aber trotzdem immer noch ausgeführt. Insofern hängt das gerade vorgestellte Konzept eng mit den Nutzungsgründen, die die Attraktivität der Geräte und Apps ausmachen, zusammen, tritt aber nicht zwingend mit diesen auf. So erkannte der Interviewte Noyam Erdem20 zwar an, dass es einen Diskurs um Datenschutz gibt, brachte aber keine Legitimierungen, da er sein Verhalten selbst nicht problematisch fand. Im Folgenden werden eine Reihe von Konzepten vorgestellt, die unsere Informanten als Gründe für die Nutzung von Selbstvermessungsartefakten anführten.

C ONVENIENCE : D IE APP

ALS

S ERVICE

Apps und Tracker bieten vordergründig viele Erleichterungen und Möglichkeiten an, ohne die Körperdaten schwerer zu produzieren wären. Im Konzept Convenience bündeln wir sowohl die Leichtigkeit der Handhabung, die Vereinfachung der Selbstvermessungspraktik und des Daten-Teilens, aber auch die zusätzlichen Funktionen von Selbstvermessungsartefakten. Die Kehrseite dieses Rundum-Sorglos-Paketes, wie es die Werbung nennt, sind jedoch Einschränkungen durch die im Programm implementierten Einstellungen des Artefakts. Der kreative Umgang der Nutzenden mit dem Gerät muss sich folglich mit der vorprogrammierten Nutzungslogik des Programms auseinandersetzen. Gleichzeitig können durch die Übernahme lästiger Aufgaben durch die App die Handlungsmöglichkeit der Nutzenden in Bezug auf den Umgang mit ihren Daten eingeschränkt werden: Da die Vermessung und Aufbereitung über das Gerät läuft, hat es potentiell auch die freie Verfügung über die Daten, kann diese an Firmenserver weitergeben und damit für die Nutzerin unerkannt Daten teilen. Dass die Nutzerin selbst mit der Installation der App ihre Zustimmung zu diesem Vorgehen ausgedrückt hat, erscheint in diesem Zusammenhang als vollständig entkoppelt. Zu sehr lockt das Angebot der App, zu aufwendig ist das aufmerksame Lesen der AGBs – die Anderen (Freunde, Bekannte oder die imaginierten Anderen) nutzen es ja auch. „Eigentlich sollte man es lesen, ich weiß es, dass weiß glaub jeder, aber keiner machts, weil es hat ja irgendwie jeder und dann kann nicht so

20 Noyam Erdem war bei der Befragung Anfang 20 und befand sich in der Ausbildung zum Polizeimeister. Er nutzte die Apps Runtastic und Fitness Point, beide in der kostenpflichtigen Pro-Version. Zudem besaß er einen Brustgurt und eine Pulsuhr.

46 | L EGER, P ANZITTA & TIEDE

viel drinnen stehen wo falsch ist (lacht)“ (Jan Weis: 364-366)21. Etwaige Bedenken werden ausgeblendet und auf einen unbestimmten Zeitpunkt in der Zukunft verschoben. Die Convenience ist ein Knotenpunkt, in dem viele Aspekte der AppNutzung vereint sind. Die App übernimmt mit ihren Funktionen viele Arbeiten, die vorher von den Selbstvermessenden hätten übernommen werden müssen. Nehmen wir als Beispiel die von uns interviewte Sofia Bogner. Ihr aufwändigeres Vorgehen vor der Nutzung ihrer Lauf-App erklärte sie hier: [J]a ich hab’s vorher hab ich’s immer verschriftlicht, hab ich auch schon diesen Tick gehabt, [...] dann bin ich mit`m Fahrrad immer diese Strecken abgefahren, hab mir das aufgezeichnet [...]. In nem Büchlein, hab ich buchgeführt. (Susanne Panzitta: Mhm.) Wie viel Zeit ich gebraucht hab, immer hier mit so ner (1) Digitaluhr, Zeit gestoppt (lacht), und dann ähm eben aufgeschrieben, akribisch genau, bis ich dann diesen Runkeeper gekriegt habe. Jetzt brauch ich des nich mehr machen, jetzt tipp ich da druf, der startet und der hört auf wenn ich sage jetzt ist die Zeit zu Ende, jetzt bin ich wieder angekommen, hört er auf (Susanne Panzitta: Mhm.) und dann is das erledigt. (Sofia Bogner: 85-95)22

Hier sehen wir, wie Sofia Bogner das Ausmessen per Fahrradtacho und die Buchführung durch die App ersetzte, also aus ihrer Sicht mit ein paar Knopfdrücken erledigte. Das Ausmessen der Strecke, der Zeit, der Kalorien, des Pulses – all diese Dinge werden in Laufapps zusammengeführt und aufbereitet. Apps wie Runkeeper vermessen alles außer Puls oder Herzfrequenz eigenständig, wo vorher andere und vor allem mehrere Hilfsmittel benötigt wurden. Aber für die Interviewte ist nicht nur die ohnehin schon ausgeführte Handlung erleichtert, sie nutzt auch eine zusätzliche Funktion von Runkeeper, die auch längere Spaziergänge, die sie unternimmt, vollkommen automatisch aufzeichnet und ihrem Aktivitätskonto hinzufügt: [J]eden Spaziergang der länger als 15 Minuten geht, zeichnet der mir auf und zählt als Aktivität mit dazu. (Susanne Panzitta: Mhm.) Also wenn ich da unterwegs bin, auch spazieren gehe, oder ich geh jetzt hier vor in die Stadt, oder ich geh in Kaufhalle oder so und

21 Jan Weis war Anfang 20 und absolviert eine Ausbildung zum Polizisten. Er nutzte die App Runtastic, auf die er über Gespräche im Freundeskreis aufmerksam geworden war. 22 Sofia Bogner ist 55 Jahre alt und Erzieherin in einem Kinderhort. Sie nutzte die Apps Health und Runkeeper auf dem iPhone und hatte zusätzlich eine Apple Watch. Die App Runkeeper wurde ihr von ihrer Tochter installiert.

D ATEN -T EILEN ?

| 47

lauf das, wird das mit aufgezeichnet und als Aktivität verbucht (lacht) (Sofia Bogner: 5053).

Die App bietet also auch zusätzlich zum Grundsätzlichen noch ein Extra an, das der Nutzerin gefällt, sie aber selbst wohl nicht vermessen und aufgezeichnet hätte. Das Gerät erweitert seine Nützlichkeit durch diese Zusatzdienste. In den Äußerungen von Sofia Bogner wird auch die den Apps zugeschriebene Handlungsfähigkeit ersichtlich: „der startet“, „der zeichnet auf“. In den Narrativen der Selbstvermessenden werden Artefakte zu begabten Partizipanden; sie handeln und ermöglichen bestimmte Handlungen ihrer Nutzerinnen erst. Ein weiterer Punkt, an dem die Handlungsfähigkeit von Artefakten – ebenso wie die conveniente Bündelung verschiedener Arbeitsschritte – ersichtlich wurde, ist die Berechnung bestimmter Werte. Gehen wir von einer manuellen Aufzeichnung in Büchern oder computergestützten Tabellen aus, müssen die eingetragenen Werte, um eine Auswertung darzustellen, erst aufbereitet werden (etwa wie stark die Geschwindigkeit zugenommen oder die Strecke sich verändert hat). Dazu ist Wissen nötig, etwa wie eine Tabelle erstellt wird oder, wenn so etwas wie die Laufgeschwindigkeit berechnet werden soll, wie die Werte miteinander verrechnet werden müssen. Die App hingegen macht das alles von allein. Der bereits zu Wort gekommene Bernd Seiler drückte es im Interview folgendermaßen aus: [I]ch fands eigentlich ganz cool, mal zu sehen, ja ehm, weil die berechnet dir ja ungefähr die Leistung, die man bringt, das heißt die Geschwindigkeit, Höchstgeschwindigkeit, Durchschnittsgeschwindigkeit. (holt hörbar Luft) Des ist eigentlich insofern ganz gut, dass man dann halt schauen kann wie hat man sich verbessert von der letzten, also einen Monat oder über nen bestimmten Zeitraum (Bernd Seiler: 14-19).

Im Hinblick auf die vorher genannten Legitimierungsstrategien fuhr der Interviewpartner damit fort, die Gefahren zu reflektieren, aber wiederum durch den Nutzen der App zu legitimieren: [E]h was halt nicht so gut ist ist natürlich klar, es wird alles aufgezeichnet, es sind alles Daten die über dich gespeichert werden, des sind dann schon Daten die halt, weils auch über Facebook verknüpft ist dann Facebook hat, aber es ist halt klar, es gibt natürlich nix umsonst, also wenn man halt so ne App nutzen will dann muss man halt auch in Kauf nehmen, dass halt solche Daten dann eben auch verwendet werden, das mir schon bewusst (Bernd Seiler: 19-25).

48 | L EGER, P ANZITTA & TIEDE

Er hat sich für die Nutzung der App entschieden, da die grafische Aufbereitung vieler Variablen für ihn „cool, mal zu sehen“ und ihm auch die Messung seiner Leistung wichtig war. Seine Datenschutzbedenken äußerte er gleich darauf, verwies aber wieder auf den großen Nutzen, den die App für ihn brachte und für die er auch gerne „bezahlte“. In der grafisch dargestellten Auswertung liegt ein weiteres Feature vieler Selbstvermessungsapps, das wir unter dem Konzept Convenience subsumieren. Die vom Artefakt gemessenen Ergebnisse werden zentral in der App gespeichert, sortiert, aufbereitet und visualisiert – ein Prozess der ohne das entsprechende Artefakt mehrere, zum Teil umständliche Arbeitsschritte erfordern würde. Durch das Zusammenspiel von App, Wearables, Smartphone und Sensoren aber wird sofort nach Ende des Laufs Feedback in Form einer Grafik ausgegeben. Die Visualisierung von Leistungen anhand farbiger Diagramme und Kurven ist ein wichtiger Aspekt, der von vielen unserer Informanten angesprochen wurde. Die damit gegebene Möglichkeit des Vergleichs und der daraus resultierende sichtbare Fortschritt sind für die Nutzenden ebenfalls sehr convenient. Dass die App diese Möglichkeit erst dadurch bieten kann, dass Daten auf externen Servern gespeichert und damit geteilt werden, scheint durch den Gewinn an Bequemlichkeit wieder aufgewogen zu werden. Sowohl die Interviewten als auch die Hersteller sehen in der durch die App erzeugten Motivation einen ihrer großen Vorteile – viele Nutzende möchten sich in ihren Aktivitäten verbessern und arbeiten auf ein Ziel hin.

V ERGLEICHEN – V ERBESSERN – M OTIVIEREN : D IE APP ALS M OTIVATOR „Fordere dich heraus: Tritt gegen dich selbst an, indem du dich mit einer bereits absolvierten Aktivität misst“ (Runtastic GmbH 2014) – so lautet eine Werbung von Runtastic, die die Vorzüge der App unterstreichen soll. Der Vergleich als Ansporn wurde oft als Vorteil von Selbstvermessungsapps genannt. Wir unterscheiden drei Arten des Vergleichens, die in den verschiedenen Selbstvermessungsartefakten unterschiedlich prominent angelegt sind: der Vergleich mit sich selbst, der Vergleich mit (konkreten) Anderen, sowie der Vergleich mit normierten Scores und Indizes – eine Möglichkeit, die sich erst durch die neuen Angebote der technischen Partizipanden ergibt. Vergleichen sehen wir dabei als eine Form des Daten-Teilens, die verschiedene Daten (in unserem Fall oft Leistungen) miteinander in Relation setzt. Dieser Vergleich wird durch die App besser

D ATEN -T EILEN ?

| 49

nachvollziehbar, sichtbarer und bequemer (siehe voriges Kapitel zu Convenience). Die oben beschriebene Herausforderung an sich selbst meint hier den Versuch, die eigene Leistung zu überbieten, was den Vergleich mit früheren Leistungen nötig macht – wohl kein Novum bei Selbstvermessenden. Auch mit konventionellen Methoden konnten durch den Vergleich zu früheren Aktivitäten bspw. Fortschritte verzeichnet werden, allerdings vermutlich nicht in der durch die Apps gebotenen Differenziertheit. Auch die Herausforderung an sich selbst, die Leistung zu übertreffen, birgt zunächst keine neue Qualität – wohl aber die durch die Quantifizierung dieser Vergleiche hergestellte „numerische Differenz“ (Heintz 2010), die diesen Vergleich nun objektiviert. Durch die Nutzung von Apps wird dies wesentlich vereinfacht: Die App kann alle generierten und in ihr zusammengeführten Daten vergleichen, diese aufbereiten, sichtbar machen und den Nutzenden sogleich mitteilen wie sie in diesem Vergleich abschneiden. Die App nimmt darüber hinaus auch eine Bewertung vor: „Und, jetzt, durch die App, krieg ich die (klopft auf den Tisch) Rückmeldung automatisch und am, ändere mich dann auch schneller (lacht)“ (Christian Mönk: 344-346)23. Hier zeigt sich erneut die den Apps zugeschriebene Handlungsbeteiligung. Die App generiert, bereitet auf und visualisiert Daten, welche sie dann an den Nutzer, aber eben auch an Server, „weiter gibt“24. Diese Form des Daten-Teilens wird von den Unternehmen meist mit dem Argument legitimiert, durch die Aggregation von Nutzerdaten eine bessere Vergleichbarkeit herstellen zu können. Der Vergleich mit anderen Nutzenden birgt insofern eine neue Qualität, als der Akteur sich zeit- und raumunabhängig mit anderen vergleichen kann. So bewerben verschiedene Fitness-App-Anbieter den Vorteil des Teilens von Aktivitätsdaten mit Freunden. „SEI GESELLIG“ (Google Inc. 2017, Endomondo) wird z. B. von Endomondo gefordert. Darunter fällt auch der konkurrenzartige Vergleich von miteinander vernetzten Selbstvermessenden in einer Rangliste. Das wird erst dann möglich, wenn das Unternehmen Zugriff auf die Rubrik persönliche Informationen und Kontakte erhält. Auf diese Art und Weise wird die Notwendigkeit plausibilisiert, Daten mit dem Unternehmen zu teilen, um sich vergleichen zu können. Die dritte Art des Vergleichens, sich also an normierten Indizes zu messen, findet man (interessanterweise) weniger in diskursiven Fragmenten, als im Inter-

23 Christian Mönk ist Mitte 30 und Außendienstmitarbeiter. Er nutzte die App Runtastic und hatte eine Pulsuhr von Polar. 24 Im Verlauf unseres Forschungsprozesses wurde deutlich, dass der Grad der Handlungsbeteiligung von Akteur und Aktant je nach Praktik des Daten-Teilens variiert.

50 | L EGER, P ANZITTA & TIEDE

viewmaterial. Ein Informant nutzte die NikeFuel App. Sie berechnete seine Leistung und stellte dann den Vergleich zum sog. NikeIndex dar. Das Zustandekommen der Werte für den Index bleibt, wie auch bei manch anderen Indizes, im Verborgenen. Der Index bietet für den Nutzer jedoch die Chance des Vergleichs des eigenen Fitnesslevels mit einem Soll-Fitnesslevel. Neben dem Vergleich dient ein solcher Index folglich auch der Vermittlung normativer Standards, die trotz der Undurchsichtigkeit ihres Zustandekommens zumeist unhinterfragt bleiben – ein Faktum, das vor allem den Unternehmen entgegenkommen könnte (siehe dazu auch Strübing i.E.: 9). Schließlich werden die verschiedenen Vergleichsarten vor allem von den Herstellern und ihren Werbetexten mit zwei anderen Konzepten in Verbindung gebracht – Motivieren und Verbessern. Der Ansporn für mehr Leistung und bessere Ergebnisse kommt aus dem Vergleich: Bin ich besser geworden? Hat meine Anstrengung etwas gebracht? Während Vergleichen die Grundlage für das Verbessern und das Motivieren darstellt, ist deren Zusammenhang wesentlich komplexer: Es geht um die Motivation weiter zu machen, sich anzustrengen, um besser zu werden und auch darum, dabei zu bleiben. Der einfache Vergleich, seine eigenen Leistungen durch einen Index in Relation zu setzen, kann die Freude bringen, besser zu sein als vorher: Fitness Index, keine Ahnung, is’n Index, wie der errechnet wird weiss i ned […] so’n kleines, ähm ja, Instrument mit dem ich mich mich messen kann, wo ich mich dann au freu wenn’s mal nach oben geht, um diesen Index (Christian Mönk: 112-121).

Obwohl der Wert des Indexes für Christian Mönk nicht unmittelbar Sinn machte oder im Detail interpretierbar war, freute ihn schon alleine die Tatsache, dass er seinen Wert nach oben verändert hatte. Dies brachte ihm wieder Ermutigung, weiterhin Laufen zu gehen. Für die Nutzenden fügt der Vergleich der Praktik auch eine vermeintliche Objektivität und Ernsthaftigkeit hinzu, wie der Informant Jonas Kleber in einem Interview zu einer Gehirntrainings-App beschrieb. Auf die Frage, wie wichtig es sei, persönliche Fortschritte festzustellen, antwortete dieser: Es is sehr wichtig. Die Motivation, des Ganzen is, basiert auf, einem Punktesystem […] Und ohne das, wäre es, einfach nur so’n bisschen Spielerei. Also es ist schon sehr wichtig

D ATEN -T EILEN ?

| 51

dass man sich da vergleicht mit Anderen und, auch seine Leistung, stetich, verbessert sieht, um die Motivation aufzubauen auch weiter zu machen (Jonas Kleber: 115-124)25.

Zum Punktesystem der App führte er aus: „das ist relativ kompliziert () wissenschaftlich aber hoffentlich, so weit fundiert dass es ok ist und dann kann man sagen man ist (1) fähich (lacht) in dem Bereich oder man sollte da noch nachlegen“ (Jonas Kleber: 229-231). Der Informant konnte, ähnlich wie Christian Mönk, nicht genau nachvollziehen, wie das Punktesystem funktioniert, hoffte aber dennoch auf dessen Wissenschaftlichkeit26. In dieser Hoffnung zeigt sich eine allgemeine Tendenz einer Verwissenschaftlichung des Alltags, die in Zahlen gefassten Aktivitäten und Leistungen einen anderen Stellenwert zuschreibt als subjektivem Gefühl27: [U]nd mir ist ganz wichtig, dass ich im Nahhinein halt immer weiß, wie ich jetzt wirklich objektiv war, also nicht nur meine subjektive Einschätzung […] sondern dass ich objektiv weiß, ja des war jetzt wirklich was (Jan Weis: 182-185).

Hier sieht man wie der Vergleich, der die Verbesserung der Leistung anzeigt, die Motivation aufrechterhält, weiter zu machen und so stetig besser zu werden. Die App ist nicht nur Selbstzweck, eine schöne Spielerei, sondern auch konkretes Instrument zur Selbstverbesserung, also quasi Selbstverbesserung durch Selbstvermessung. In unserem Sample befinden sich viele, die sich durch Laufen fit halten oder auf einen Marathon trainieren, abnehmen oder ihre geistigen Fähigkeiten verbessern wollen. Selbstvermessung hilft ihnen dabei, indem sie Vergleichbarkeit schafft, Fortschritte sichtbar macht und dadurch Motivation erzeugt. Vergleichen-Verbessern-Motivieren ist eine Trias aus Konzepten, anhand derer die empirisch wirksam werdende Wechselwirkung der einzelnen Praktiken besonders sichtbar wird. Um eine Verbesserung zu erreichen, ist die Motivation durch das Feedback der Selbstvermessung sehr wichtig, es hilft, dabei zu bleiben

25 Jonas Kleber ist 29 Jahre alt. Nach einem abgebrochenen Studium der Politikwissenschaft befand er sich derzeit in Ausbildung zum Brauer und Mälzer. Er nutzte die App NeuroNation, um sich geistig fit zu halten. 26 Diese Hoffnung korrespondierte in einigen unserer Fälle mit einem nur ungefähren Halbwissen über die genaue Funktionsweise der App und deren Berechnung bestimmter Werte (wie bspw. Kalorienverbrauch). 27 Siehe hierzu auch Heintz (2010), die die These aufstellt, dass „Quantifizierung eine besonders effiziente Form ist, um Akzeptanz herzustellen.“ (162)

52 | L EGER, P ANZITTA & TIEDE

und besser zu werden. Das Vorhandensein dieses Vergleichs empfinden Selbstvermesser wie Jonas Kleber als einen nötigen, objektivierenden Maßstab, um die Verbesserung auch wirklich zu machen und nicht bloß zu fühlen. Während Vergleichen-Verbessern-Motivieren größtenteils zwischen App und Nutzer, im Goffman`schen Sinne also auf der Hinterbühne, stattfindet, kann die Selbstvermessung auch genutzt werden, um das eigene Image auf der Vorderbühne zu pflegen (Goffman 1969).

D AS „S OZIALE “ DER P RAKTIK : D ATEN -T EILEN ALS I MAGEPFLEGE Die Option, Daten aus der Selbstvermessung zu teilen, ist bereits in den meisten Artefakten von vornherein angelegt. In unseren Artefaktanalysen (Leckert et al. 2017: 44ff.) fanden wir sowohl prominent platzierte Klickflächen für das Teilen auf Facebook, als auch die Aufforderung, eine Aktivität nach Beendigung oder bereits während der Ausführung zu teilen28. Die Darstellung auf öffentlichen Netzwerken ist auch ein Teil des öffentlichen Bildes, das der Akteur von sich selbst erstellt und pflegt – ein Phänomen, das Goffman bereits in seiner TheaterAnalogie schilderte. Dass dies auch bedingt auf Facebook als Selbstdarstellungsplattform übertragen werden kann, wurde von vielen Autoren bereits herausgearbeitet (siehe eine Aufstellung bei Hogan 2010: 3). Dabei ist es nicht nur wichtig, was geteilt wird, sondern vor allem auch, was nicht geteilt wird. In unserem Sample konnten wir verschiedene Arten von Selbstdarstellung und Teilverhalten identifizieren, die wir zu drei Typen zusammenfassen: die offensiven Selbstdarstellenden, die viel teilen und die Aufmerksamkeit brauchen; die selektiven Selbstdarstellenden, die ihre Highlights, nicht aber jede Aktivität posten. Darunter fallen etwa besonders gute Läufe, persönliche Rekorde oder außergewöhnliche Ereignisse wie das Laufen eines (Halb-)Marathons. Schließlich identifizieren wir die abstinenten Selbstdarstellenden, die sehr wenig bis gar nicht teilen. Die offensiven Selbstdarstellenden nutzen das Angebot der App intensiv, um Feedback zu ihren Trainingsläufen zu erhalten: [W]ie gesagt des’ einfach ne Genugtuung für mich dass ich seh, dass es anderen Leuten gefällt und, eigentlich ne wichtige Rolle. (2) Weil, (2) ich meine Fortschritte jemandem

28 Wie das Live-Tracking von Runtastic erlaubt (https://www.runtastic.com/blog/de/ technologie/runtastic-features-2017/).

D ATEN -T EILEN ?

| 53

zeigen kann, und dadurch, ja Achtung bekomme oder, ja, also für mich is es wichtig, dass es die anderen Leute sehen (Noaym Erdem: 60-64).

Noyam Erdem ist unter unseren Interviewpartnern der einzige, der seine Laufdaten stetig auf Facebook teilt und dem das Feedback seiner Freunde so enorm wichtig ist. Er erzählte, dass er früher kein guter Läufer war und sein Bild bei anderen jetzt durch das Teilen von Fitnessdaten korrigieren möchte. Wie er im Interview sagte, bekommt er dadurch Achtung und Genugtuung. Diese starke Form der Selbstdarstellung fand sich jedoch bei den anderen Befragten nicht in dieser Form wieder. Sein Verhalten ging sogar so weit, dass die Fitnessapp für weiteres Teilen einen Geldbetrag verlangte: „Aber inzwischen, also die letzten zwei drei Monate hab ich`s unterlassen hochzuladen, weil, ja, meine App des nicht mehr, so, möchte, dass ich des hochlade [. . .] da müsste man wieder, ja, n` Betrag bezahlen“ (Noaym Erdem: 130-131). In der App ist angelegt, nur ein bestimmtes Volumen an Daten kostenfrei hochladen zu können. Ist dieses aufgebraucht, muss für weiteres Teilen gezahlt werden. Dieses wirtschaftliche Interesse des Unternehmens legt den Schluss nahe, dass intensives Teilen von vielen Nutzern der App praktiziert wird. Vom Fall Noyam Erdems abgesehen, herrscht in unserem Datenmaterial – was das intentionale Teilen von Aktivitäten via Social Media betrifft – fast durchgängig der Tenor, dass Daten nur selten bewusst und intentional geteilt werden. Die meisten Interviewten laden, wenn überhaupt, nur das hoch, was sie selbst als Highlight bezeichnen würden. Wir subsummieren diese Gruppe unter die selektiven Selbstdarstellenden. Diese Selektivität zielt, wie oben erwähnt, auf eine positive Selbstdarstellung ab – die selektiven Teiler in unserem Sample teilten keine besonders schlechten Daten: Und wenn ich wirklich sag, okay jetzt- heut war ich echt zufrieden mit mir, so weit bin ich noch nie glaufen, das soll jetzt grad echt jeder wissen (lacht) (Maria Tiede: ja) ähm: dann poscht ich des ja, quasi, und dann könn die au alles angucken (Sina Meier: 390-393)29.

Durch diese Form des selektiven Teilens wird von den Nutzenden ein ganz bestimmtes Selbstbild konstruiert, welches dann nach außen hin sichtbar gemacht wird: das Bild eines guten Läufers. Der von uns Interviewte Jan Weis brachte es folgendermaßen auf den Punkt:

29 Sina Meier ist Anfang 20 und Polizeimeisteranwärterin. Sie nutzte die App Runtastic, von der sie über ihren Bruder, der im Fitnessbereich tätig ist, erfahren hatte.

54 | L EGER, P ANZITTA & TIEDE Weil, wenn ich jetzt wüsste, die Zeit die ich lauf, die läuft jeder x-Beliebige, dann würde ich es nicht posten, aber wenn ich jetzt weiß, das ist wirklich ne gute Zeit, und da kann man auch stolz drauf sein, dann poste ichs. (4) Im Einzelfall, Ja (Jan Weis: 302-306).

Das Ziel ist einerseits motivierendes Feedback, andererseits etwas von sich zu zeigen, auf das man stolz sein kann. Gewöhnliche oder gar negative Ergebnisse werden dabei außen vor gelassen, da die Nutzenden darin keinen Imagegewinn sehen. Jan Weis illustrierte das dahingehend: „Irgendwo ist es ja schon dazu da um zu zeigen, wie toll man ist (lacht)“ (Jan Weis: 233-236). Dieser Argumentation folgend kann Daten-Teilen aus der Perspektive der Interviewten durchaus als Selbstdarstellung oder – um mit Goffman zu sprechen – als Imagepflege betrachtet werden. Das Image eines guten Sportlers wird in diesem Fall dadurch hergestellt, dass Daten über den eigenen Körper – also datenförmige Körperrepräsentationen – verbreitet werden. Man könnte sich bspw. auch vorstellen, ein Bild zu posten, das einen bei der sportlichen Aktivität zeigt, um sich selbst damit als sportlich zu präsentieren. Zwar ist diese Möglichkeit in den verschiedenen Apps durchaus angelegt, der eigentliche Kern des Teilens sind für die Nutzerinnen jedoch die vermeintlich objektiven hard facts, also die vom Artefakt produzierten leistungsbezogenen Körperdaten. Diese Verwissenschaftlichung von Alltagsaktivitäten dient dazu, die Glaubwürdigkeit der Daten zu unterstreichen: wenn die App das misst, ist das so passiert (dazu auch Heintz 2010). Wie bereits erwähnt wurde, besteht auch die Option, Daten nicht zu teilen, was von den Interviewten ebenfalls als Imagepflege beschrieben wurde. So hat jemand, der viel postet, das Image eines Spamers, der die Leute nervt. Die Wirkung des eigenen Teilverhaltens auf andere wird also durchaus reflektiert, überdacht und stellenweise auch geplant. Viele teilen auf öffentlichen Plattformen überhaupt Nichts, diese subsumieren wir unter die abstinenten Selbstdarstellenden. Diese posten nicht auf sozialen Netzwerken, da ihnen diese teilweise nicht geheuer sind (auch wenn es ihnen nichts ausmachen würde, dass andere Zugriff auf ihre Daten haben). So sagte Sofia Bogner: Nein das mach ich nicht. (Susanne Panzitta: Ahh.) Weil weil man da gleich hier im Facebook drinnen ist. (Susanne Panzitta: Ahh, okay) Diese Geschichten die mach ich gar nicht. Hanna [ihre Tochter] kriegt das auch nicht. Weil ich nicht da das will ich nicht. (energisch) (Sofia Bogner: 349-351).

Ihre Entscheidung, nichts intentional mit anderen Userinnen zu teilen, ist sehr dezidiert. Sie nutzt die App eher zu Zwecken der Convenience und Motivation.

D ATEN -T EILEN ?

| 55

Allerdings teilt sie ihre Daten punktuell offline mit anderen Personen: „ner guten Freundin zeig ich das a mal, aber sonst niemanden. [...] Und dann Hanna vielleicht dass die reinguckt oder so, die das noch interessieren könnte“ (Sofia Bogner: 376-378). Diese Nutzerinnen haben nicht das Gefühl, dass sich jemand für ihre Laufdaten interessiert, sodass das Posten für sie sinnlos erscheint. Das intentionale Teilen der Körperdaten wurde von den Interviewten also auch zur Selbstdarstellung genutzt und als eigenes Feature der digitalen AppNutzung wahrgenommen. Im Falle von Noyam Erdem war das Teilen sogar ein sehr wichtiger Teil der Selbstvermessungspraktik – bei den selektiven Selbstdarstellenden hingegen wird es gerne genutzt, ist jedoch nicht der Hauptmotivator für die Nutzung von Apps. Von Seiten der Hersteller wird das Posten von Daten prominent in die Artefakte eingeschrieben und auch als Motivation für die Nutzung beworben.

D ATEN -T EILEN ?! E IN F AZIT Im Hinblick auf die eingangs gestellte Frage, wie sich die Praxis des DatenTeilens im Kontext von Selbstsorgediskursen einerseits, sowie Datenschutzdebatten andererseits vollzieht, konnten wir folgendes herausarbeiten: Die vielfältigen Angebote zur Selbstvermessung bieten den Nutzerinnen einen niederschwelligen und spielerischen Zugang, der die Frage des Datenschutzes zunächst als wenig relevant erscheinen lässt. Apps und Gadgets locken mit Challenges und symbolischen Belohnungen, mit der Abnahme lästiger Aufgaben und motivierendem Feedback, das einen bei der Stange hält oder zumindest halten soll. Das Forschungsprojekt um Staiger und andere (2015) konnte in einer allgemeinen Technikneugierde und experimentellen Grundhaltung ein zentrales Moment der Nutzung von Selbstvermessungsangeboten ausmachen. Unser Projekt kann daran anschließend diagnostizieren, dass diese Neugierde dazu führt, potentiell vorhandene Bedenken trotz medialer Skandale um Datenschutz und Privatsphäre zunächst beiseite zu schieben – und die eigene Praxis in der Reflexion darüber dann zu legitimieren. Zwar verzichten unsere Informanten zumeist auf intentionales Daten-Teilen, doch wird die Datenfreigabe an App-Anbieter und weitere Unternehmen – sofern denn überhaupt bewusst – zumindest in Kauf genommen. Die Nutzung von Selbstvermessungsangeboten ist dabei aufgrund mehrerer Aspekte trotz etwaiger Datenschutzbedenken sehr attraktiv. Daten werden automatisch aufgezeichnet, katalogisiert und grafisch dargestellt, sodass mit einem vergleichsweise kleinen Aufwand die Leistungsentwicklung nachgezeichnet werden kann. Ebenso wird auf mediale Diskurse um Selbstoptimierung rekur-

56 | L EGER, P ANZITTA & TIEDE

riert, der Wettkampfcharakter und der motivationale Aspekt des Daten-Teilens im Rahmen von Selbstvermessung hervorgehoben. Die Einfachheit der Anwendung sowohl der neuen Messtechniken als auch des Teilens mit einem Klick ist ein weiterer Aspekt. Es ist einfacher denn je, sportliche Fortschritte, kognitive Leistungen etc. anderen zugänglich zu machen und so ein positives Selbstbild zu erzeugen. Die Weitergabe der eigenen Daten durch die Apps wird durch eine Reihe von Erklärungsmustern legitimiert. Die entsprechenden Daten werden als nicht persönlich oder nicht schützenswert konstruiert, oder aber ihre Bedeutung wird, im Vergleich zu jenen Daten, die durch die Nutzung anderer digitaler Angebote wie Google, Facebook und Co. anfallen, als verschwindend gering dargestellt. Die direkte Convenience der Techniken digitaler Selbstvermessung scheint in vielen Fällen also schwerer zu wiegen als die abstrakten Nachteile, die in Form geteilter Daten durch die Nutzung dieser Techniken entstehen könnten – ein Phänomen, das Pörksen und Detel (2012) als „Möglichkeitsblindheit“ bezeichnen. Der Befund von Wagner und/Stempfhuber (2015: 68), dass es auf der Nutzerinnenseite „relativ wenig Bewusstsein für das Gefahrenpotential“ digitaler Medien gebe, muss in Bezug auf digitale Selbstvermessung dahingehend relativiert werden, dass es den Interviewten weniger an Bewusstsein um das Gefahrenpotential des Daten-Teilens mangelt, sondern dass vielmehr trotz eines vorhandenen Bewusstseins Daten geteilt werden, was sich in der Interviewsituation in der Zuhilfenahme diverser Legitimationsstrategien niederschlägt. Technische Neugier und spielerischer Zugang sind dabei nur die vordergründig sichtbaren Motivationen, sich mit digitalen Selbstvermessungsangeboten auseinanderzusetzen. Im Hintergrund steht ebenso das Narrativ eines (medial vermittelten) Selbstsorge-Diskurses, „der uns alle wissen lässt, dass wir es selbst in der Hand haben und uns also gefälligst auch selbst darum kümmern sollen, fit und arbeitsmarktverwertbar zu sein“ (Strübing 2016: 279). Der Diskurs sagt warum, Werbung und ins Artefakt implementierte Nutzungsanweisungen sagen wie. Die den Einzelnen damit entgegentretenden gesellschaftlichen Erwartungen zeigen sich nicht zuletzt auch in Thesen wie Bröcklings (2013) „unternehmerischem Selbst“. Praktiken des Daten-Teilens im Rahmen digitaler Selbstvermessung sind also nicht isoliert von öffentlichen Diskursen und damit gesellschaftlichen Einflüssen zu betrachten. In ihnen werden fortlaufend Daten (re-)produziert, die – durch das Teilen – auf der Herstellerseite zu wertvollen Ressourcen gemacht werden.30 Empirisch können wir dieser neuen Gesellschaftsform auf die Spur kommen, in-

30 Zur Debatte um Big Data siehe Reichert (2014).

D ATEN -T EILEN ?

| 57

dem wir uns die alltäglichen, routinierten Praktiken im Umgang mit Daten anschauen. Digitale Selbstvermessung zeigt sich dabei als ein Forschungsfeld, welches verdeutlicht, dass (die Produktion von) Daten im Digitalen immer auch das Daten-Teilen miteinschließen (siehe Strübing i.E.). Solche Formen des DatenTeilens sind folglich ein zentrales Thema der Datengesellschaft, welches einer gründlicheren empirischen Forschung Bedarf. Unser Projekt leistet dazu einen ersten Beitrag.

L ITERATUR Bowker, Geoffrey C./Star, Susan Leigh. (2000): Sorting Things Out: Classification and Its Consequences, Cambridge. Breidenstein, Georg/Hirschauer, Stefan/Kalthoff, Herbert/Nieswand, Boris (2015): Ethnografie. Die Praxis der Feldforschung, Konstanz. Bröckling, Ulrich (2013): Das unternehmerische Selbst, Frankfurt am Main. Clarke, Adele E. (2012): Situationsanalyse. Grounded Theory nach dem Postmodern Turn, Wiesbaden. Duttweiler, Stefanie/Passoth, Jan-Hendrik (2016): Self-Tracking als Optimierungsprojekt? In: Duttweiler, Stefanie/Gugutzer, Robert/Passoth, JanHendrik/Strübing, Jörg (Hrsg.): Leben nach Zahlen. Self-Tracking als Optimierungsprojekt?, Bielefeld, S. 9-42. Eggers, Dave (2014): The Circle: a novel, London. Goffman, Erving (1969): Wir alle spielen Theater: Die Selbstdarstellung im Alltag, München. Google Inc. (2017): Endomondo – Laufen + Gehen. Online unter: https://play.google.com/store/apps/details?id=com.endomondo.android (aufgerufen am 30.03.2017). Heintz, Bettina (2010): Numerische Differenz. Überlegungen zu einer Soziologie des (quantitativen) Vergleichs. In: Zeitschrift für Soziologie, Jg. 39, H. 3, S. 162-181. Hirschauer, Stefan (2004): Praktiken und ihre Körper. Über materielle Partizipanden des Tuns. In: Hörning, Karl H./Reuter, Julia (Hrsg.): Doing Culture. Zum Begriff der Praxis in der gegenwärtigen soziologischen Theorie, Bielefeld, S. 73-91. Hogan, Bernie (2010): The presentation of self in the age of social media. Distinguishing performances and exhibitions online. In: Bulletin of Science, Technology & Society, Vol. 30, No. 6, S. 377-386.

58 | L EGER, P ANZITTA & TIEDE

Kalthoff, Herbert (2008): Einleitung: Zur Dialektik von qualitativer Forschung und soziologischer Theoriebildung. In: Kalthoff, Herbert/Hirschauer, Stefan/Lindemann, Gesa (Hrsg.): Theoretische Empirie, Frankfurt am Main, S. 8-34. Keller, Reiner/Truschkat, Inga (Hrsg.) (2013): Methodologie und Praxis der Wissenssoziologischen Diskursanalyse. Band 1: Interdisziplinäre Perspektiven, Wiesbaden. Leckert, Max/Panzitta, Susanne/Atanisev, Kaan/Dawgiert, Lukas/Dieterich, Manuel/Lauterwasser, Thomas/Leger, Matthias/Orlowski, Alexander/Steidle, Sebastian/Tiede, Maria (2017): Vermessen und Teilen – Praktiken und Diskurse des Teilens digitaler Selbstvermessungsdaten, Tübingen. DOI: http://dx.doi.org/10.15496/publikation-16665. Popitz, Heinrich/Bahrdt, Hans/Jüres, Ernst A./Kesting, Hanno (1957): Das Gesellschaftsbild des Arbeiters. Soziologische Untersuchungen in der Hüttenindustrie, Tübingen. Pörksen, Bernhard/Detel, Hanne (2012): Der entfesselte Skandal. Das Ende der Kontrolle im digitalen Zeitalter, Köln. Reckwitz, Andreas (2003): Grundelemente einer Theorie sozialer Praktiken: Eine sozialtheoretische Perspektive. In: Zeitschrift für Soziologie, Jg. 32, H. 4, S. 282-301. Reckwitz, Andreas (2008): Praktiken und Diskurse. Eine sozialtheoretische und methodologische Relation. In: Kalthoff, Herbert/Hirschauer, Stefan/ Lindemann, Gesa (Hrsg.): Theoretische Empirie, Frankfurt am Main, S. 188-209. Reichert, Ramón (Hrsg.) (2014): Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie, Bielefeld. Runtastic GmbH (2014): All About Runtastic. Mehr Spaß mit Runtastic 5.1. Online unter: https://www.runtastic.com/blog/de/runtastic-all-about/mehr-spamit-runtastic-5-1/ (aufgerufen am 30.03.2017). Runtastic GmbH (2017): 17 Runtastic-Funktionen, die du 2017 ausprobieren musst. Online unter: https://www.runtastic.com/blog/de/technologie/runtastic -features-2017/ (aufgerufen am 31.03.2017). Schaupp, Simon (2016): Wir nennen es flexible Selbstkontrolle. Self-Tracking als Selbsttechnologie des kybernetischen Kapitalismus. In: Duttweiler, Stefanie/Gugutzer, Robert/Passoth, Jan-Hendrik/Strübing, Jörg (Hrsg.): Leben nach Zahlen. Self-Tracking als Optimierungsprojekt?, Bielefeld, S. 63-86. Schmechel, Corinna (2016): Der vermessene Mann? Vergeschlechtlichungsprozesse in und durch Praktiken der Selbstvermessung. In: Duttweiler, Stefa-

D ATEN -T EILEN ?

| 59

nie/Gugutzer, Robert/Passoth, Jan-Hendrik/Strübing, Jörg (Hrsg.): Leben nach Zahlen. Self-Tracking als Optimierungsprojekt?, Bielefeld, S. 142-146. Staiger, Lisa/Kasper, Beate/Urbanczyk, Maja/Flischikowski, Christin/Ehlert, Pia/Gerloch, Tanja/Hammerl, Annika/Klaiber, Markus/Klose, Merle/Schleifer, Tobias/Wurst, Myriam (2015): Das vermessene Selbst. Praktiken und Diskurse digitaler Selbstvermessung. Lehrforschungsprojekt 2013/14, Tübingen. Strauss, Anselm L. (1991): Grundlagen qualitativer Sozialforschung. München. Strübing, Jörg (2014): Grounded Theory. Zur sozialtheoretischen und epistemologischen Fundierung eines pragmatistischen Forschungsstils, Wiesbaden. Strübing, Jörg (i.E.). Vermessen? Von Datenschatten und Schattenkörpern der Selbstvermessung. In: Schubert, Cornelius/Schulz-Schaeffer, Ingo (Hrsg.): Berliner Schlüssel zur Techniksoziologie, Wiesbaden. Strübing, Jörg (2017): Where is the Meat/d? Pragmatismus und Praxistheorien als reziprokes Ergänzungsverhältnis. In: Dietz, Hella/Nungesser, Frithjof/ Pettenkofer, Andreas (Hrsg.): Pragmatismus und Theorie sozialer Praktiken. Vom Nutzen einer Theoriedifferenz, Frankfurt am Main, S. 41-75. Strübing, Jörg/Kasper, Beate/Staiger, Lisa (2016): Das Selbst der Selbstvermessung. Fiktion oder Kalkül? Eine pragmatistische Betrachtung. In: Duttweiler, Stefanie/Gugutzer, Robert/Passoth, Jan-Hendrik/Strübing, Jörg (Hrsg.): Leben nach Zahlen. Self-Tracking als Optimierungsprojekt?, Bielefeld, S. 271291. Vormbusch, Uwe (2016): Taxonomien des Selbst. Zur Hervorbringung subjektbezogener Bewertungsordnungen im Kontext ökonomischer und kultureller Unsicherheit. In: Duttweiler, Stefanie/Gugutzer, Robert/Passoth, JanHendrik/Strübing, Jörg (Hrsg.): Leben nach Zahlen. Self-Tracking als Optimierungsprojekt?, Bielefeld, S. 45-62. Wagner, Elke/Stempfhuber, Martin. (2015): Praktiken des Digitalen. Über die digitale Transformationsoziologischer Unterscheidungen. In: Süssenguth, Florian (Hrsg.): Die Gesellschaft der Daten. Über die digitale Transformation sozialer Ordnung, Bielefeld, S. 67- 92. Zillien, Nicole/Fröhlich, Gerrit/Kofahl, Daniel (2016): Ernährungsbezogene Selbstvermessung. Von der Diätetik bis zum Diet-Tracking. In: Duttweiler, Stefanie/Gugutzer, Robert/Passoth, Jan-Hendrik/Strübing, Jörg (Hrsg.): Leben nach Zahlen. Self-Tracking als Optimierungsprojekt?, Bielefeld, S. 123140.

Rationalisierungsparadoxien der Datafizierung und Algorithmisierung alltäglicher Internetnutzung C HRISTIAN P APSDORF , S EBASTIAN J AKOB & J AN -P ETER S CHMITTEN

1. E INLEITUNG Mhm, ich glaube ein Nachteil ist wirklich, dass man nicht mehr selbst nachdenkt. Anstatt sich das kurz selber zu überlegen: „Ok, ein anderes Wort für ‚Bedeutung‘?“ Und ich denke aber nicht nach, weil ich nicht nachdenken brauche. Sondern ich frage Google: „Sag mir bitte ein anderes Wort für ‚Bedeutung‘.“ Und natürlich ist es toll, weil du die Möglichkeit hast, auf der einen Seite viele verschiedene Synonyme zu bekommen. Auf der anderen Seite google ich drei Stunden später wieder „ein anderes Wort für Bedeutung“ (lp03: 136)1.

Die Vorteile, die der User im obenstehenden Zitat beschreibt, zeigen anschaulich, welchen Stellenwert Anwendungen und Dienste haben, die daten- und algorithmenbasiert sind. Im gleichen Atemzug wird daraufhin gewiesen, dass mit solch neuen Technologien auch Nachteile einhergehen, die die Vorteile relativieren. Derartige Paradoxien sind keine gesellschaftlichen Randphänomene mehr, sondern haben sich über Smartphones, Computer und Internet of Things-Geräte im Alltag etabliert. Daten- und algorithmenbasierte Anwendungen sind zu fast allgegenwärtigen kleinen Helfern im Alltag geworden: Mit hoher Selbstverständlichkeit werden vielzählige Anwendungen genutzt, um Versicherungen und

1

Die Interviewsequenzen wurden zur besseren Lesbarkeit sprachlich geglättet. Die Quellenangabe gibt die Nummer des Interviews sowie den entsprechenden Absatz wieder.

62 | P APSDORF , J AKOB & S CHMITTEN

Preise zu vergleichen, um Informationen zu selektieren oder inzwischen auch um Schlafphasen zu optimieren. Die mit dem Internet einhergehenden neuartigen Möglichkeiten haben in nahezu allen Lebensbereichen innerhalb weniger Jahre zu gravierenden Umwälzungen geführt, wobei die vielfältigen Veränderungen der Impetus eint, alltägliches und berufliches Handeln effizienter zu gestalten. Auch im Privaten ist die Logik des Optimierens auf Basis digitaler Kommunikationstechnologien angekommen. Kleine Programme, Apps genannt, versprechen, „smart“ auf individuelle Bedürfnisse zu reagieren und nützlich zu sein. Gleichzeitig sind die Userinnen und User beispielsweise gezwungen, die oft undurchsichtigen Nutzungsbedingungen der Anbieterinnen und Anbieter zu akzeptieren und ihnen umfangreiche Nutzungsrechte ihrer Daten einzuräumen. Für die Nutzerinnen und Nutzer hat die Algorithmisierung durchaus ambivalente Folgen. So beschreibt der Befragte aus dem Eingangszitat, welche Nachteile unweigerlich mit den Vorteilen einhergehen. Aufgrund der ubiquitären Verfügbarkeit der Informationen hat er es sich unmerklich abgewöhnt, Daten und Fakten zu erinnern, da sie jederzeit wieder nachgeschlagen werden können. Der technische Wandel wirkt mehr oder minder direkt auf die Fähigkeiten und Fertigkeiten der Userinnen und User zurück. Damit geht mit der Auslagerung von Tätigkeiten an technische Instanzen eine Abhängigkeit von diesen einher. Passig (2013: 23) fordert in diesem Zusammenhang ein aktives Verlernen bisheriger Techniken, da der moderne Mensch „einfach zu viele Lösungen für nicht mehr existente Probleme [kennt]“.2 Hinter derartigen Algorithmisierungen steht häufig eine Logik der Datafication (van Dijck 2014), also die Übertragung der sozialen Wirklichkeit in informatisch bearbeitbare Datensätze, die in Algorithmen3 ihren Ausdruck finden (Mayer-Schönberger/Cukier 2013). Internettechnologien stellen eine überaus potente Möglichkeit dar, gesellschaftliche Kontroll- und Effizienzbestrebungen, wie sie bereits länger exemplarisch Ausdruck in der Informatisierung der Arbeit finden (Schmiede 1996), zu realisieren. Für die Verbesserung und Weiterentwicklung ihrer Dienste benötigen Internet-, aber auch klassische Unternehmen primär große Datenmengen, die dann durch Algorithmen für unterschiedliche

2

An dieser Stelle soll weder für die eine Option noch für die andere votiert werden.

3

Algorithmen werden im Folgenden als „softwarebasierte sozio-technische Systeme der Automatisierung einer anspruchsvollen gesellschaftlichen Tätigkeit oder Funktion verstanden“ (Papsdorf/Jakob 2017: 4). Algorithmen lösen damit soziale und nicht primär technische Probleme, wenngleich dies im Rahmen einer Technisierung geschieht.

R ATIONALISIERUNGSPARADOXIEN

DER

DATAFIZIERUNG

| 63

Zwecke verarbeitet werden. Wie und mit welchen (paradoxen) Folgen dies im Detail geschieht, ist Gegenstand des vorliegenden Beitrages. Im Folgenden werden wir die These prüfen, dass Prozesse der Datafizierung untrennbar mit spezifischen Rationalisierungslogiken individueller und sozialer Handlungsmuster verbunden sind. Wir nehmen an, dass die automatisierte Verarbeitung großer Datenmengen zur Optimierung der Zweckmittelrelation in unterschiedlichsten Bereichen eingesetzt wird. Dazu wird zunächst der theoretische Rahmen vorgestellt und der Forschungsstand aufgearbeitet, anschließend wird das Vorgehen der qualitativen Studie erläutert. Vier Forschungsfragen waren für die empirische Auswertung handlungsleitend: − Welche Formen und Ausprägungen der Datafizierung nehmen junge Internetnutzerinnen und -nutzer wahr? − Inwiefern und wodurch werden gesellschaftliche Kommunikationszusammenhänge im Rahmen der Datafizierung rationalisiert? − Führen Nebenfolgen der Rationalisierung zu Paradoxien? − Wie reagieren die Userinnen und User im Sinne sozialer Praktiken auf diese Paradoxien? Der vorliegende Beitrag ist mit zwei theoretischen Konzepten gerahmt, die im Folgenden aufeinander bezogen werden sollen. Erstens wird die technischmediale Vermittlung von Kommunikation mit dem Mediatisierungskonzept nach Krotz (2001) gefasst, das hier um den relevanten Aspekt der Algorithmen erweitert wird. Zweitens wird auf die soziologische Rationalisierungstheorie (Horkheimer 1947: 21) unter besonderer Berücksichtigung der mit Rationalisierungsprozessen einhergehenden Paradoxien Bezug genommen. Anschließend soll ein Blick auf den Stand der Forschung zeigen, was über Paradoxien im Rahmen forcierter und (teil-)automatisierter Internetnutzung bereits bekannt ist.

2. T HEORIE : M EDIATISIERUNG UND R ATIONALISIERUNG VON K OMMUNIKATION Prozesse der Datafizierung, also des Überführens gesellschaftlicher Wirklichkeit in objektivierte Datenstrukturen, lassen sich als eine besondere Form der Mediatisierung fassen. Gemeinhin wird Mediatisierung verstanden als „a concept used to analyse the (long-term) interrelation between the change of media and communication on the one hand, and the change of culture and society on the other hand in a critical manner“ (Hepp 2013: 619). Es handelt sich also um Prozesse,

64 | P APSDORF , J AKOB & S CHMITTEN

in denen sich, primär ausgehend von technisch-medialen Innovationen, die gesellschaftliche Kommunikation verändert. Von zentraler Bedeutung ist, dass die je spezifische Kombination von (technischen) Medieneigenschaften und den über die Medien kommunizierten Inhalten verantwortlich für bestimmte gesellschaftliche Folgen der Mediatisierung sind (Hepp et al. 2010). Lange Zeit waren derartige Prozesse durch (neuartige) Medien geprägt, die die Qualität und Quantität der Kommunikation zwischen Menschen veränderten. Mit dem Fernsehen etwa konnten im Vergleich zu Face-to-Face-Kommunikation, die immer den Vergleichshintergrund von Mediatisierungsprozessen bildet, vielmehr Menschen in Echtzeit erreicht werden. Das Internet allerdings ermöglicht es, dass Medien selbst zu Akteuren des Kommunikationsprozesses werden (Papsdorf 2013: 218). So gehören neben interaktiver (also one-to-one) und massenmedialer (also oneto-many) inzwischen auch Mensch-Maschine- und Maschine-Maschine-Kommunikation zum Alltag. Kommunikation zwischen Mensch und Maschine findet sich beispielsweise im Rahmen von automatisierten E-Mails und MaschineMaschine-Kommunikation findet sich generell im Internet und neuerdings im Internet der Dinge wieder. Beide Spielarten sind für Phänomene der Datafizierung von Bedeutung. Solche Kommunikationskonstellationen basieren unweigerlich auf Algorithmen, also auf softwarebasierten Regelsystemen, die bisher zwischenmenschlich realisierte Kommunikation zu automatisieren vermögen. Wie an anderer Stelle bereits gezeigt (Papsdorf 2015), ist der Einsatz von Algorithmen mit Rationalisierungsbestrebungen verbunden. Es sollen entweder die Kommunikation als solche oder deren gesellschaftliche wie auch individuelle Folgen zum (vermeintlich) Positiven verändert werden. Unter Bezug auf das Konzept der instrumentellen Vernunft, maßgeblich entwickelt von Horkheimer (1947: 21) sowie unter Rückgriff auf Webers (1972) Idealtypus des zweckrationalen Handelns wird Rationalisierung im Folgenden verstanden als die Suche und Nutzung der besten und damit der effizientesten Mittel, um bestimmte Ziele zu erreichen. Beispielhaft zeigt sich dies in der gegenseitigen Empfehlung von Personen auf Online-Datingplattformen, die basierend auf einer Vielzahl von Daten versuchen, möglichst optimal passende Paare zu erarbeiten. Die Geschichte technischer Medien und Rationalisierungsbestrebungen stehen direkt miteinander in Verbindung, wobei mit unterschiedlichen Medienarten je spezifische Rationalisierungsdimensionen einhergehen. So ist die Sprache an sich eine basale und entwicklungsgeschichtlich frühe Möglichkeit der Rationalisierung sozialen Handelns. Sie bildet die Grundlage für alle weiteren Medienarten, indem sie die Wahrscheinlichkeit des Verstehens optimiert. Eine zweite Dimension hängt eng mit ihr zusammen. Es handelt sich dabei um die kommunikative Rationalisierung im Sinne von Habermas (1995: 141). Hierbei geht es da-

R ATIONALISIERUNGSPARADOXIEN

DER

DATAFIZIERUNG

| 65

rum, dass Äußerungen oder Verhaltensweisen als rational gelten können, wenn sie kritisierbar und begründungsfähig sind. Eine dritte Rationalisierungsdimension bezieht sich auf Verbreitungs- beziehungsweise Massenmedien. Sie rationalisieren die Frage der Erreichbarkeit, indem Kommunikation über Raum und Zeit hinweg realisiert werden kann. Und viertens gibt es symbolische Medien wie Geld und Macht, die den Erfolg von Kommunikation sichern sollen, aber gleichermaßen Verständigung als Ziel der Kommunikation verdrängen. Da das Internet sowohl für Sprache, Verbreitungsmedien als auch für symbolische Medien eine Plattform bietet (Papsdorf 2013: 108ff.), ist es imstande, alle vier Rationalisierungsdimensionen zu bedienen. Dies ist dahingehend bedeutsam, als bisherige Medientechnologien in der Regel nur eine der vier Dimensionen realisieren konnten. Die technische Rationalisierung durch Algorithmen und Datafizierung bildet gegenwärtig die Grundlage der vier Arten medialer Rationalisierung. Dass Rationalisierungsprozesse Widersprüche und Paradoxien mit sich bringen, ist spätestens seit Adorno und Horkheimer (1969) bekannt. Von Paradoxien soll im Folgenden gesprochen werden, wenn die durch automatisierte Internetkommunikation erzielten Fortschritte, Verbesserungen oder Optimierungen sogleich durch dieselben Wirkmechanismen von Rückschritten, Nachteilen und Problemen begleitet werden. Derartige Paradoxien im Kontext der Internetnutzung sind aufgrund ihrer Neuartigkeit bisher nur punktuell erforscht. Einige wenige Problemkomplexe und Widersprüche forcierter Internetnutzung sind bereits bekannt: Mit den Nachteilen intensiver Internetnutzung beschäftigt sich zum einen die psychologische Forschung. Speziell die Gesundheitspsychologie befasst sich mit individuellen Nachteilen gegenwärtiger Nutzungsformen unter Begriffen wie „Internet Addiction“ und „Problematic Internet Use“ (Yellowlees/Marks 2007; Appel/Schreiner 2014), wobei darunter eine Nutzung verstanden wird, „that creates psychological, social, school, and/or work difficulties in a person’s life“ (Beard/Wolf 2001: 378). Zum anderen fokussieren verschiedene soziologische Teildisziplinen negative Konsequenzen der Internetkommunikation. Dazu gehören Sicherheits- und Datenschutzbedenken (Initiative D21 2013: 13), Stressbelastungen (Hilty et al. 2003: 235ff.), neue Ungleichheiten (Keen 2015), Ausbeutungsverhältnisse (Papsdorf 2009) oder nachteilige Veränderung sozialer Beziehungen durch die Internetkommunikation (Bakardjieva 2014; Turkle 2012). Darüber hinaus wurden einzelne widersprüchliche Entwicklungen bereits als Paradoxien analysiert. So besteht das Partizipationsparadox (Schmidt 2013: 81) im Rahmen von Social Media darin, dass einerseits die sozialen Medien vielfältige Möglichkeiten zur Teilhabe, etwa an gesellschaftlichen und politischen Debatten, bereitstellen. Andererseits sind viele Plattformen jedoch kommerziell be-

66 | P APSDORF , J AKOB & S CHMITTEN

triebene Dienste, die ihren Nutzerinnen und Nutzern nur wenig oder überhaupt keine Mitbestimmung erlauben. Weiterhin beschreibt Schmidt (2014) ein sogenanntes Persistenzparadox. So werden im Rahmen der Internetnutzung Informationen in historisch neuartigem Ausmaß erhoben und vor allem dauerhaft gespeichert, während soziale Medien aber gleichzeitig verstärkt auf das Aktuelle und den Moment fokussieren und damit der Flüchtigkeit von Kommunikation Vorschub leisten. Ein weiterer Widerspruch findet im sogenannten „Privacyparadox“ (Trepte/Reinecke 2011) Ausdruck. Es beschreibt die hinlänglich bekannte Tatsache, dass Userinnen und User ihrer Privatsphäre zwar einen hohen Wert beimessen, aber gleichzeitig im Internet weitestgehend freiwillig und oft in großem Umfang persönliche Daten und Informationen über sich preisgeben.4 Mit Turkle (2012) lässt sich so etwas wie ein Integrationsparadox ergänzen, das sich in der Metapher des „gemeinsam einsam“ widerspiegelt. Diese Paradoxien liefern erste Hinweise darauf, dass die Internetnutzung auf mehrfache Weise widersprüchlich und damit auch problematisch ist. Im Folgenden soll es darum gehen, empirisch zu untersuchen, ob derartige Paradoxien auch im Rahmen der Algorithmisierung und Datafizierung von Kommunikation auftreten. Hierzu liegen bisher noch keine wissenschaftlichen Erkenntnisse vor, ebenso ermangelt es einer Algorithmenforschung, die von den Userinnen und Usern ausgeht.

3. S AMPLE

UND METHODISCHES

V ORGEHEN

Im Rahmen einer Studie über die Nichtnutzung des Internets bei Jugendlichen und jungen Erwachsenen haben wir im Frühjahr 2016 insgesamt 30 Leitfadeninterviews durchgeführt. Die Befragten waren zwischen 14 und 25 Jahre alt. Unser Ziel war es, durch ein exploratives Vorgehen nach Gründen und Praktiken des Umgangs mit den Nachteilen und den daraus resultierenden Folgen der Internetkommunikation zu suchen. Für den vorliegenden Beitrag wurden die Interviews in einer Sekundäranalyse unter besonderer Berücksichtigung von Algorithmen und zugehörigen Rationalisierungstendenzen ausgewertet. Die insgesamt vier Fragekomplexe umfassten erstens die bisherige Technikbiographie und die gegenwärtige Internetnutzung. Im zweiten Block wurden die Vorteile der Internetkommunikation und Nutzungsgründe befragt, wobei eine Vielzahl algorithmischer Anwendungen zur Sprache kam. Drittens wurde in der

4

Zum Umgang mit dem widersprüchlichen Verhältnis von Datenschutz, Privatheitsanliegen und Praktiken des Datenteilens siehe auch den Beitrag von Leger, Panzitta und Tiede in diesem Band.

R ATIONALISIERUNGSPARADOXIEN

DER

DATAFIZIERUNG

| 67

Gegenperspektive nach den Nachteilen und Defiziten der Internetnutzung gefragt. Schließlich interessierte uns der Umgang mit den Nachteilen und dessen Folgen. Dabei wurde nicht allein nach interaktiver und massenmedialer Kommunikation, sondern auch nach Mensch-Maschinen-Kommunikation gefragt, wobei die Interviewten für letztere vielfältige Vor- und Nachteile berichteten. Beispielsweise wurde danach gefragt, in welchen Situationen die Technik selbst als belastend wahrgenommen wird, etwa, weil sie dysfunktional oder bevormundend, eigenwillig oder intransparent ist. Die Interviews dauerten im Durchschnitt knapp eine Stunde. Das Sample bestand aus insgesamt 17 Frauen und 13 Männer, von denen derzeit 25 studieren und fünf noch zur Schule gehen. Da unser Sample vorwiegend aus Personen besteht, die eine höhere Bildung genießen und damit einer intensiven Internetnutzung gegenüber aufgeschlossen sind (DIVSI 2016), soll auf die Gefahr eines Bildungsbias hingewiesen werden. Die Teilnehmenden wurden offline (bspw. über Aushänge) und online (bspw. über Rundmails) akquiriert. Im Sinne des Theoretical Samplings wurde darauf geachtet, möglichst kontrastierende Fälle auszuwählen. Dies geschah hinsichtlich Geschlecht und Ausbildungsrichtung, aber auch hinsichtlich des Grades der Internetnutzung (Intensivnutzer und Alltagsnutzer). Orientierte sich das erste Auswertungsverfahren noch am Aufbau der Grounded Theory (Glaser/Strauss 1967), codierten wir diesmal entlang der Forschungsleitfragen mit offenen Codes. Auswertung und Analyse erfolgten mittels einer qualitativen Inhaltsanalyse (Mayring 2008) und der Software MAXQDA.

4. E RGEBNISSE 4.1 Phänomene der Datafizierung und Algorithmisierung Die Frage nach den Formen und Ausprägungen der Datafizierung, die Userinnen und User im Alltag wahrnehmen, kann nur in Zusammenhang mit den zugehörigen Algorithmen beantwortet werden, da letztere nah am Kern der hier interessierenden Rationalisierungslogik sind. Im Detail wurden die Befragten gebeten, ihre Erfahrungen mit der Nutzung von Diensten, die entweder „automatisch“ funktionieren oder zur Optimierung bestimmter Aufgaben (jenseits von klassischer Kommunikation) beitragen, zu schildern. Die genannten Phänomene, teils von den Befragten selbst auch als Algorithmen bezeichnet, wurden entlang theoretisch fundierter gesellschaftlicher Teilbereiche kategorisiert (Papsdorf 2013: 154f.). Insgesamt finden sich in sechs von diesen Bereichen datenbasierte Algo-

68 | P APSDORF , J AKOB & S CHMITTEN

rithmen wieder. Zudem konnten wir aus der Befragung insgesamt 19 Phänomene herausarbeiten, die im Rahmen der alltäglichen Internetnutzung seitens der Befragten wahrgenommen werden. In Tabelle 1 wurden die Phänomene den gesellschaftlichen Teilbereichen zugeordnet. Es zeigt sich, dass nicht in allen elf gesellschaftlichen Teilbereichen, wie sie Luhmann (Runkel/Burkart 2005: 7) vorschlägt, Algorithmen wahrgenommen werden oder existent sind (Religion, Recht oder Erziehung fanden in den Interviews keine Erwähnung). Die meisten Nennungen entfallen auf den Teilbereich der Wirtschaft und der Massenmedien. Das hängt mit den jeweils inhärenten Logiken dieser Teilbereiche zusammen. Der Wirtschaft sind Rationalität und Effizienzsteigerung eigen wie keinem anderen Teilbereich. Folglich finden sich im Segment der Wirtschaft innovative Technologien frühzeitig wieder. Die Massenmedien, vertreten durch das Internet, standen einerseits im Zentrum der Befragung und sind andererseits primäre Quelle der Datafizierung. Das in den letzten Jahren immer beliebter gewordene Quantified Self findet sich sowohl im gesellschaftlichen Teilbereich des Sports wie auch der Gesundheit wieder. Algorithmische Anwendungen können sowohl im Rahmen des Sports zur Effizienz- und Leistungssteigerung als auch in der Gesundheitsvorsorge nutzbar gemacht werden. Tabelle 1: Von den Befragten wahrgenommene Algorithmen gesellschaftliche Teilbereiche

Wirtschaft

Massenmedien

Gesundheit Intimbeziehungen

Phänomene Preisvergleiche/-kalkulationen Algo-Trading Autonomes Fahren Bezahlverfahren Bewerberauswahl Big Data-Analysen Suchmaschinen Social Media Recommendation Engines Adblocker Targeted Advertising Automatische Notrufsysteme Quantified Self Versicherungstarife Online-Partnervermittlung

Sport

Quantified Self

Politik

Anonymisierungsdienste Überwachung

Quelle: Eigene Darstellung

R ATIONALISIERUNGSPARADOXIEN

DER

DATAFIZIERUNG

| 69

Im Zuge der Datafizierung wurde von den Jugendlichen und jungen Erwachsenen besonders häufig der Einsatz von datenbasierten Algorithmen zur Überwachung thematisiert. Dies ist auf die mediale Berichterstattung zurückzuführen, da sie dort viel über die Enthüllungen von Edward Snowden und die NSA erfuhren. Aber auch überwachende Algorithmen des Targeted Advertising werden wahrgenommen: „Aber es ist halt schon verrückt, wenn ich jetzt, ich habe zum Beispiel vor kurzem irgendwas gegoogelt und dann hab’ ich bei Facebook die Werbung da passend dazu“ (lp03: 146). 4.2 Rationalisierungsdimensionen und -modi Im vorangegangen Abschnitt haben wir gezeigt, welche Algorithmen Userinnen und User wahrnehmen. Daran anschließend soll nun gefragt werden, zu welchem Zweck derartige Anwendungen im Alltag genutzt werden. Im Vordergrund steht dabei der Gegenstand der Rationalisierung. Zudem wird analysiert, wie Rationalisierungsinteressen durch Algorithmen im Detail umgesetzt werden. Unsere Analyse zeigt drei zentrale Rationalisierungsdimensionen: Userinnen und User wenden Algorithmen mit dem Ziel von Effizienzgewinnen in (1) zeitlicher Hinsicht, in Bezug auf die (2) Qualität des Handlungs- oder Kommunikationsergebnisses und in Bezug auf (3) kognitive Belastungen an. Die im Material am stärksten vertretene Dimension stellt die zeitliche Rationalisierung dar. Es wird durch Algorithmen versucht, bestimmte Aufgaben und Ziele in kürzerer Zeit zu realisieren oder im selben Zeitraum eine größere Anzahl von Aufgaben zu erledigen. Exemplarisch zeigt sich dies im Bereich der Massenmedien, etwa bei der Suche nach Informationen. Die interviewten Jugendlichen und jungen Erwachsenen stehen prototypischen Anwendungen, wie Recommendation Engines, zumeist positiv gegenüber: „Ich muss zugeben, ich habe eine feministische Tendenz, gebe ich jetzt zu. Deswegen teile ich, oder lese ich bevorzugt nur solche Artikel. Die werden mir natürlich auch angezeigt“ (jps05: 85). Derartige Empfehlungsalgorithmen verringern Suchzeiten und verbessern in Zusammenhang mit qualitativ hochwertigen Ergebnissen die Internetnutzung insgesamt. Auch im Bereich der Wirtschaft nutzen die Befragten Suchmaschinenanfragen, Vergleichsportale oder verlassen sich auf die Algorithmen von Verkaufsplattformen, um schnell Preise und Produktinformationen zu erhalten. Zweitens finden sich Rationalisierungsbestrebungen, die auf die Qualität des Handlungs- oder Kommunikationsergebnisses bezogen sind. So gestalten sich Einkaufsprozesse beispielsweise effizienter, wenn mit moderatem Aufwand ein adäquates Produkt gefunden wird: „Es gibt auch manche Dinge, die sind einfach

70 | P APSDORF , J AKOB & S CHMITTEN

unkomplizierter im Internet zu kaufen. Zum Beispiel habe ich mir jetzt ein Skateboard gekauft: Da hätte ich wahrscheinlich auch zu Titus [Handelskette, Anm. d. Autoren] gehen können. Aber man hat da im Internet einfach viel mehr Auswahl. Was es da so alles gibt“ (cp07: 156). Algorithmen bereiten verschiedene Informationen derart zu Kommunikationsangeboten auf, dass sie in ihrer Qualität den Ergebnissen menschlicher Suche und Recherche überlegen sind. Neben der Wirtschaft finden sich strukturgleiche Phänomene auch im Bereich der Massenmedien oder der Intimbeziehungen, wenn Online-Partnervermittlungsplattformen treffendere Vorschläge machen können als dies mit klassischen Medien oder offline möglich ist. Während die ersten beiden Dimensionen recht nah am konventionellen Rationalisierungsverständnis liegen, gilt dies für die dritte Dimension nicht. So rationalisieren Algorithmen Alltagshandeln, indem sie Userinnen und User kognitiv entlasten. Dies betrifft etwa die Fähigkeit des Erinnerns, wie eingangs erwähnt, indem durch Algorithmen bestimmte Informationen wieder abgerufen werden können: „Ansonsten halt Internet, halt auf YouTube. Sei es auch nur mal ein Rezept, wenn ich einen Kuchen backen möchte: ‚Oh Gott, wie viel Butter muss ich jetzt noch einmal hineintun?‘“ (jps02: 103). Ein zweiter wichtiger Aspekt, der des Entscheidens, spiegelte sich bereits in der weiter oben zitierten Interviewsequenz wider. Recommendation Engines sind nicht nur zeiteffizient, sondern können Nutzerinnen und Nutzer auch Entscheidungen abnehmen. Derartiges versprechen auch Quantified Self-Apps, können dies jedoch augenscheinlich noch nicht einlösen: „Ich finde das richtig geil, wenn meine Armbanduhr, die halt eine Wearable ist und meinen Puls dauerhaft misst und die auch immer meine Hautleitfähigkeit misst und die sagt dann: ‚Achtung, du bist unterzuckert, du solltest jetzt eine Apfelschorle trinken‘. So das wäre natürlich super, aber die Wearables, die bis jetzt auf dem Markt sind, die erfüllen das halt nicht“ (jps01: 144). Diese drei Rationalisierungsdimensionen werden durch unterschiedliche Funktionsweisen von Algorithmen bedient, die von den Befragten nur in Ansätzen reflektiert werden, aber hier insofern von Interesse sind, als sie den Kern der Rationalisierung bilden. Papsdorf (2015) hat für die Automatisierung von Kommunikation fünf aufeinander aufbauende, aber distinkte Funktionsweisen und damit Rationalisierungsmodi beschrieben. Für die vorliegende Studie sind davon die folgenden vier Modi von Bedeutung: (1) Leistungserhöhung, (2) Kumulation, (3) Rekombination, (4) Korrelation. Der erste Modus, die Leistungserhöhung, setzt die Potenziale der Prozessoren konsequent um, indem bisher von Menschen realisierte Kommunikation durch Maschinen schneller, in größerem Umfang und effizienter erledigt wird.

R ATIONALISIERUNGSPARADOXIEN

DER

DATAFIZIERUNG

| 71

Der Modus der Leistungserhöhung kommt primär dort zum Einsatz, wo Kommunikation verhältnismäßig stark standardisiert ist, auf objektive Fakten rekurriert und homogen strukturierte Informationen in schneller Taktung sowie großer Quantität bearbeitet werden sollen. Der Kern der Kumulation besteht darin, große Mengen an Informationen systematisch und umfassend zu speichern, um sie dann nach bestimmten Kriterien zu bearbeiten. Dies geht in Regel weit über die händisch oder durch klassische EDV-Systeme handhabbare Menge an Daten hinaus. Der dritte Modus zeichnet sich durch eine Rekombination, also durch eine neuartige Verknüpfung bestehender Daten aus. Bei diesem Modus können gewissermaßen fremdartige Daten aufeinander bezogen werden, die in Summe weit über das hinausgehen, was Menschen im Stande sind zu verknüpfen. So ist es auch hier vor allem die Quantität an Informationen, weniger die Komplexität der Bearbeitung, die die Rationalisierung innovativ macht. Der vierte Modus, die Korrelation von Daten, knüpft eng an den vorhergehenden Modus an. Allerdings werden hier Daten mit Hilfe von statistischen Verfahren wechselseitig aufeinander bezogen (Papsdorf 2015: 996ff.). Diese Modi lassen sich, wenngleich sie aufeinander aufbauen, einzelnen Phänomenen zuordnen. So stehen Preisvergleichsportale primär für den Modus der Leistungserhöhung, Suchmaschinen für den Modus der Kumulation, Quantified Self-Anwendungen für den Modus der Rekombination und Recommendation Engines stehen für den Modus der Korrelation. Mit Blick auf die drei Rationalisierungsdimensionen, zeitliche Effizienzgewinne, Qualitätsverbesserungen und die Reduktion kognitiver Belastungen, ist eine eindeutige Zuordnung hingegen nicht möglich. Vielmehr lassen sich in allen drei Dimensionen, wenn auch in verschiedenem Ausmaß, Elemente der vier Modi finden. 4.3 Fünf Paradoxien der Rationalisierung Die im vorangegangenen Abschnitt dargestellten Rationalisierungsmöglichkeiten führen in vielen Fällen zu Effizienzgewinnen für die Userinnen und User. Derartige Effizienzgewinne stellen das zentrale Argument für die Nutzung algorithmen- und datenbasierter Anwendungen dar und führen dazu, dass Internetanwendungen klassischen Medien überlegen sind. Gleichermaßen gehen mit den Rationalisierungsmöglichkeiten aber Nachteile oder problematische Nebenfolgen einher, die dem Rationalisierungspotenzial zuwiderlaufen. Im Folgenden werden fünf Paradoxien vorgestellt, die Ergebnis der Datafizierung und Algorithmisierung von Kommunikation und Handeln sind. Sie basieren auf den Interviewdaten und wurden im Rahmen der Inhaltsanalyse offengelegt. Die Paradoxien sind das Resultat von miteinander zusammenhängenden Vor- und Nachtei-

72 | P APSDORF , J AKOB & S CHMITTEN

len, die die befragten Userinnen und User im Rahmen ihrer alltäglichen Internetnutzung feststellen. Sie wurden teils von den Befragten als solche erkannt (wenngleich freilich nicht so benannt), teils resultieren sie aus der fallübergreifenden Analyse. Es handelt sich dabei um (1) das Informationsparadox, (2) das Effizienzparadox, (3) das Privacyparadox, (4) das Zentralisierungsparadox und (5) das Autonomieparadox. (1) Das Informationsparadox geht im Kern davon aus, dass Internetkommunikation einerseits eine weithin positiv bewertete Vielfalt von Informationen garantiert, deren Gehalt und Belastbarkeit andererseits aber angezweifelt wird. Ein User verdeutlicht dies anhand einer Mobile-Dating-App: „Das denke ich mir auch immer bei Tinder oder so […]. Dann denke ich immer: Da kann man so viel, mit so vielen Leuten gleichzeitig schreiben und sich Dates ausmachen und so, dass das irgendwann ja total beliebig wird. Also wie will man dann noch wissen, wann jemand wirklich cool ist, auf den man sich einlassen will, wenn halt immer gleich 50 Leute nachkommen oder so“ (lp02: 221). Die Menge an Informationen in Kombination mit technisierten Strukturierungs- und Suchmöglichkeiten erleichtern zunächst Beruf und Alltag: „Ich frage mich wirklich, wie man zum Beispiel früher eine Seminararbeit schreiben konnte, ohne Internet. Das ist völlig verrückt! Die mussten sich dann hunderte von Büchern ausleihen und heute lädst Du Dir einfach mal ein paar Papers runter, blätterst das dann durch, […] gibst einfach nur etwas in die Stichwortsuche ein, schon findest Du, was Du brauchst“ (cp02: 58). Auch Suchmaschinen oder Preisvergleichsportale werden hinsichtlich der Quantität der Informationen positiv bewertet. Ein User bewertet die Qualität der verfügbaren Informationen, gerade auch im Kontrast zu klassischen Medien, aber kritisch: „Ich habe jetzt einen Vortrag gehalten in Bionik, über Biosensoren. Und da gab es halt im Internet ganz viel Pseudowissenschaftliches oder irgendwelche Ratgeber, die dann auch noch von der ethischen Seite an diese Sache herangehen und ihren Senf dazu geben“ (sj03: 119). (2) Als Effizienzparadox wird im Folgenden, ähnlich dem „IT productivity paradox“ (Hilty 2007), ein ursächlich miteinander verknüpfter Widerspruch zwischen der Verbesserung und gleichzeitigen Verschlechterung der KostenNutzen-Bilanz datafizierter und algorithmischer Internetnutzung verstanden: „Also seien es jetzt Apps, wo ich mir eben denke, dass ist Zeitverschwendung. Also ich bin ein großer Freund von nützlichen Apps, die mir eben Zeit ersparen oder so. Aber ansonsten wehre ich mich wirklich dagegen, […] um eben nicht so einen Zwang oder so eine Gewohnheit zu entwickeln, ständig irgendwie die neueste App, oder irgendwelche Neuheiten zu haben“ (cp03: 127). Der User verdeutlicht die Effizienzpotenziale einerseits und die Gefahr einer habitualisierten

R ATIONALISIERUNGSPARADOXIEN

DER

DATAFIZIERUNG

| 73

Nutzung, die den originären Kommunikationszielen entgegensteht. Für viele Userinnen und User stehen dabei die zeitliche und die finanzielle Dimension im Vordergrund, gleichermaßen ist Internetnutzung aber in alltagspraktischer Hinsicht effizient: „Ich denke, es wäre möglich offline alles zu erledigen, aber es ist halt praktischer, das online zu machen. […] Wenn man jetzt gucken will, wann der Bus kommt, gibt es halt diese Deutsche-Bahn-Navigator-App“ (cp07: 216). Die Kehrseite derartiger Vorteile besteht in Effizienzverlusten, die unterschiedliche Ursachen haben können. Der eingangs bereits geschilderte Zeitverlust wird dabei von den Befragten am stärksten thematisiert: „Ich glaube, es [das Internet, Anm. d. Autoren] stiehlt Zeit. Es stiehlt unglaublich viel Zeit“ (lp03: 224). Auf die Frage nach der Nutzung von Onlineshopping antwortet ein User in Bezug auf Kleidung: „Es hat halt auch oft nicht gepasst. Dann muss man es zurückschicken und so, das ist schon immer ein Aufwand. Und so geht man halt gleich in die Stadt“ (lp01: 57). (3) Das Privacyparadox, das klassischerweise die Divergenz zwischen Einstellungen zum Datenschutz und dem eigenen Kommunikationsverhalten hinsichtlich datenschutzrechtlicher Belange thematisiert, findet sich in dieser Spielart auch in unserem Material wieder. So berichtet ein datenschutzsensibler User auf die Frage, ob er bereits eine alternative Suchmaschine genutzt hätte: „Ixquick. Ich habe mal so einen Artikel im Unicum glaube ich, gelesen. Da wurden eben solche diskreten Suchmaschinen vorgestellt. Und dann habe ich das eben ausprobiert und mir das als Startseite eingerichtet. […] Ja, es war eben nicht so gut. […] Deswegen habe ich jetzt wieder auf Google zurückgegriffen“ (cp03: 105-109). Darüber hinaus besteht ein weiterer Widerspruch. Es handelt sich dabei um die einerseits nützliche und hilfreiche Verwendung privater und sensibler Daten und die andererseits viel kritisierte politische und wirtschaftliche Überwachung (Barnes 2006). So besteht bei manchen Userinnen und Usern eine grundlegende Bereitschaft, persönliche Daten preiszugeben, wenn ihnen dadurch bestimmte Vorzüge eröffnet werden: „Aber standorttechnisch erlaube ich es eigentlich fast überall, weil Google mich so oder so kontrolliert. Und es tut mir eigentlich auch gut, weil dann weiß ich da war ich und dort war das. Und es speichert auch Adressen, die ich brauche bei Google Maps beispielsweise. Und ja, dann erlaube ich denen das“ (lp07: 136). Die inhärente Paradoxie ist Userinnen und Usern zu Teilen durchaus bewusst: „Aber das kommt gerade: intelligente Zahnbürsten, Kühlschränke, alles wird vernetzt! Also das ist die Zukunft! Alles ist vernetzt, Daten ohne Ende. […] Da bin ich schon durchaus skeptisch so, dass die Leute gern einfach auf diese Bequemlichkeiten hereinfallen, einfach, dass die das alles so hinnehmen und ‚Ja, noch einmal einfacher!‘ und ‚Nochmal mehr Komfort!‘ und dann einfach gar

74 | P APSDORF , J AKOB & S CHMITTEN

nicht mehr hinterfragen, ‚Brauche ich das wirklich? Bringt mir das wirklich etwas und ist eigentlich dieser Preis, also diese Daten, die ich da zahle und generell, ja diese gewisse Unmündigkeit, die immer mehr dazu kommt, ist es mir das wirklich wert‘“ (jps05: 158)? (4) Das Zentralisierungsparadox resultiert aus den widersprüchlichen Tatsachen, dass die Konzentration von Funktionen auf einer Plattform, bei einem (monopolartigen) Anbieter oder in einem digitalen Ökosystem Effizienzvorteile mit sich bringt, gleichermaßen aber eine Abhängigkeit erzeugt, die die Skalenoder Netzwerkeffekte relativieren. Auf Basis großer Datenmengen und leistungsfähiger Algorithmen wird Kommunikation rationalisiert, aber auch für Daten im engeren Sinne zeigt sich das Paradox: „Dropbox – da sind meine ganzen Daten gespeichert. Ich besitze auch keinen USB-Stick mehr, weil alles in der Dropbox ist. Also das ganze Leben ist im Internet“ (lp03: 74). Zudem führt die Zentralisierung, trotz verschiedener Bedenken, für die Userinnen und User auch zu wirtschaftlichen Vorteilen: „Worüber ich mal eine Zeit lang nachgedacht habe, war, ob man seine Amazon-Nutzung zumindest einschränkt. Vor allem wieder so aus politischen Gründen. Das ist aber bisher dann doch schon eher so verlaufen, dass man, wenn man denn schnell was brauchte, und es war eben doch billiger, dass man es doch wieder genutzt hat“ (cp01: 103). Die Kehrseite besteht zunächst in der Abhängigkeit von einzelnen Anbietern, wie dieselbe Userin schildert: „So, alles befindet sich in einer Cloud. Das kann natürlich gefährlich sein. Wenn jetzt Dropbox lahmgelegt wird, dann habe ich ein Problem. […] Man hat alles immer zur Verfügung, aber diese Angst, dass dann wirklich Daten verloren gehen, nein, also nein“ (lp03: 210). Es handelt sich aber nicht allein um eine technische Abhängigkeit, sondern auch um eine soziale Abhängigkeit: „Ich habe auch überlegt, Facebook zu löschen. Aber es ist einfach Gang und Gäbe, wegen dem Messenger. Facebook ist einfach so ein Meilenstein geworden im Internet. Da kommt man nicht drum herum“ (lp07: 142). Wer an derartig technisierten Kommunikationszusammenhängen nicht partizipiert, kann durchaus sozial teilexkludiert werden. (5) Das Autonomieparadox schließlich umfasst den Widerspruch, dass die Datafizierung und Algorithmisierung gesellschaftlicher Kommunikation einerseits individuelle Entscheidungen erleichtern kann oder Userinnen und User überhaupt erst zu diesen ermächtigt. Andererseits führen derartige Entwicklungen auch zur Reduzierung individueller Entscheidungsmöglichkeiten. Die Positiva zeigen sich beispielsweise in einer verbesserten Wissensbasis in Bezug auf den eigenen Körper, etwa bei Quantified Self-Anwendungen. Derartige Daten können eine Grundlage für Entscheidungen bilden, die bisher, wenn überhaupt bewusst, allenfalls auf Basis von subjektiven Erfahrungen und Heuristiken oder

R ATIONALISIERUNGSPARADOXIEN

DER

DATAFIZIERUNG

| 75

zeitaufwendigen Aufzeichnungen und händischen Berechnungen getroffen werden konnten. Solche Potenziale werden zwar benannt, aber dennoch nur zögerlich in den Alltag integriert. Ein User antwortet auf die Frage, ob seine Gesundheit durch das Internet negativ beeinflusst wird: „Nein, definitiv nicht. Verbessert vielleicht sogar. Man kann ja nachgucken, wie man am besten trainiert. Da gibt es ja auch solche Apps dann. Wo man dann Laufhilfen und solchen Kram. Wie gesagt, das Internet bietet für alle Leute das passende Repertoire und wenn man sich dann eher gesund damit ernähren will“ (jps07: 74). Dies liegt unter anderem daran, dass die Userinnen und User die Kehrseite derartiger datenbasierter Automatisierungen als problematisch einschätzen. Haben sie das Gefühl, dass sie durch Algorithmen manipuliert werden sollen, führt das zur Ablehnung entsprechender Anwendungen: „Bei den Gesundheitsdingern denk ich daran, dass, also da habe ich so eine Dystopie im Kopf mit Krankenkassen. Es gibt halt schon Ansätze, wo probiert wird, die Leute zu kategorisieren und zu sagen: ‚Wenn Du Dich gesund ernährst, musst Du weniger bezahlen‘ und das ist für mich ein absolutes Unding“ (cp01: 218). Auch bei stärker im Alltag verhafteten Anwendungen entwickeln Userinnen und User sehr kritische Einstellungen, wenn ihnen das Heft des Handelns partiell aus der Hand genommen wird: „Wenn man dann auf Facebook zurückgreift, oder sonst wohin, sieht man ja direkt alle Werbungen eingeblendet, wo man gerade irgendetwas gegoogelt hat. […] So manchmal ist es irgendwie nützlich auch, aber trotzdem denke ich mir immer, dass man immer dazu animiert wird zu konsumieren“ (cp03: 99). 4.4 Umgangsweisen der User mit den Rationalisierungsparadoxien Die fünf vorgestellten Paradoxien erzeugen bei den Befragten jeweils insofern einen Handlungsdruck, als sie einen Umgang mit den Widersprüchen finden müssen. Wie verfahren sie also in Anbetracht der Tatsache, dass Internetkommunikation zwar vielfältige Vorteile, aber auch Nachteile mit sich bringt? Unsere Analyse zeigt, dass vier spezifische Praktiken bestehen, die sich über ein Spektrum erstrecken, das von partieller Nichtnutzung bis zu unbeeinflusster Weiternutzung reicht. Erstens verzichten Userinnen und User bei zu großen Nachteilen in bestimmten Kontexten auf die Nutzung, zweitens wechseln sie das Medium, drittens passen sie die Technik an und viertens ändern sie ihre Einstellung. Beim partiellen Nutzungsverzicht, der sich primär im Rahmen des Privacyund Zentralisierungsparadox findet, setzen die Befragten oft kontext- und situationsbezogen ihre Internetkommunikation aus. In Bezug auf das Privacyparadox

76 | P APSDORF , J AKOB & S CHMITTEN

findet sich diese Praktik in Form des sogenannten Lurkings, also der passiven Teilnahme an diversen Internetmedien (Stegbauer/Rausch 2001). Aus den Interviews geht hervor, dass die Jugendlichen und jungen Erwachsenen, in Kontrast zur Logik des User Generated Content, vor allem keine persönlichen Inhalte posten, sondern dann nur Inhalte konsumieren. So müssten Userinnen und User „eben wirklich vor allem darauf achten, dass man nicht zu viel im Internet von sich selber preisgibt“ (sj01: 64). Sie erwägen und realisieren ebenso die ersatzlose Nichtnutzung von ganzen Diensten. Dazu kommen zeitliche begrenzte Phasen der Nichtnutzung, die von den Interviewten als „Fastenzeit“ (cp05: 180), „Zwangspausen“ (jps05: 190) oder auch „digitaler Sabbat“ (jps01: 40) bezeichnet und sich bewusst „gegönnt“ (jps05: 190) werden, um den Widersprüchen zumindest zeitlich zu entgehen. Die zweite Umgangsweise, der Wechsel des Mediums, umfasst zwei Spielarten. So werden Online-Alternativen zu problematischen Internetmedien und -angeboten genutzt oder es werden Offline-Alternativen, also klassische Medien genutzt. Letzteres findet sich vorrangig im Rahmen des Informationsparadoxes. So wird in bestimmten Situationen auf Bücher zurückgegriffen, es werden Zeitungen gelesen, Einkäufe in Ladengeschäften erledigt oder persönliche Gespräche geführt, anstatt digitale Medien zu nutzen. In Bezug auf das Privacyparadox machen die Userinnen und User von der Möglichkeit Gebrauch, mediale OnlineAlternativen zu nutzen. Diese umfassen etwa die Nutzung alternativer Suchmaschinen wie DuckDuckGo oder Ixquick, die keine persönlichen Informationen speichern und so auch der Entstehung einer Filter Bubble (Pariser 2011) vorbeugen: „Ja, ich gucke dann jetzt nicht wirklich so auf Google, sondern eher auf anderen Plattformen, wo sie anscheinend die Daten noch nicht speichern und verkaufen” (sj01: 54). Die dritte Praktik, die Anpassung der Technik, bezieht sich primär auf das Privacyparadox. Hierbei versuchen die Nutzerinnen und Nutzer, die unfreiwillige Preisgabe ihrer Daten zu minimieren. Dies ist aber nur sehr eingeschränkt realisierbar. Auf Seiten der Hardware sind lediglich einfache, aber dennoch weitverbreitete Schutzmaßnahmen, wie das Abkleben der Kamera oder des Mikrofons von Laptops, möglich. Softwareseitig bieten sich hingegen einige fruchtbare Möglichkeiten, der Datafizierung und Algorithmisierung zu entgehen. So werden etwa Produktempfehlungen auf Marktplätzen deaktiviert, Werbebanner über sogenannte Adblocker ausgeblendet und Anonymisierungsdienste beim Surfen eingesetzt. Darüber hinaus wünschen sie sich mehr Anpassungsmöglichkeiten: „Man kann ja beispielsweise bei einer App nicht einstellen, dass man zwar Bilder zulässt, aber den Standort nicht, oder umgekehrt. Man muss ja die App so nehmen, wie die das einem anbieten“ (lp01: 147).

R ATIONALISIERUNGSPARADOXIEN

DER

DATAFIZIERUNG

| 77

Die vierte Praktik stellt keine Auflösung der Paradoxien im engeren Sinne dar, sondern eine weitverbreitete Umgangsweise, die eine unveränderte Weiternutzung ermöglicht. Sie lässt sich mit Ausnahme des Informationsparadoxes in Reaktion auf alle Paradoxien finden. Es handelt sich dabei um Strategien zur Auflösung kognitiver Dissonanz, also um die Harmonisierung widersprüchlicher Wahrnehmungen, wobei die eigene Einstellung angepasst wird. Eine Userin äußert sich in Bezug auf Überwachung wie folgt: „Ja, ich hatte anfangs schon Bedenken, dass die irgendwelche Daten mitlesen: Was ich wo im Internet mache, wo ich bin, welche Geräte ich benutze, was ich mache. […] Es liest sowieso jeder immer alles mit. […] Ich meine, ich bin halt eher eine von denen, die sagen: Naja, ich habe nichts zu verbergen, dann sollen sie es ruhig mitlesen, das ist mir egal“ (lp05: 232). Der Wirkmächtigkeit von Datafizierungs- und Algorithmisierungsanwendungen haben Userinnen und User ihrer Meinung nach wenig entgegen zu setzen. So sind sie vielmals auch in Bezug auf das Zentralisierungsparadox resignativ: „Google und Amazon, das kann man quasi nicht umgehen, da gibt es keine Alternativen, die muss man nutzen“ (jps05: 310). Gerade in Bezug auf Privacy-Bedenken wird Überwachung als Austauschgeschäft gerahmt. So sagt ein Interviewter: „Daten kosten mich nichts“ (sj08: 137). Aus den vier vorgestellten Praktiken lassen sich zwei Folgerungen ableiten. Erstens zeigt sich für alle Interviewten, dass sie Lösungsmöglichkeiten für Paradoxien suchen, die mit algorithmischer und datafizierter Kommunikation einhergehen. Die vorgestellten Praktiken sind zweitens aber oft fragmentarisch. Das durch einen hohen Grad an Komplexität, Indirektheit, Intransparenz und Dynamik geprägte Feld algorithmenbasierter Kommunikation lässt sich primär durch Erfahrung und technische Expertise erschließen. So müssen die Praktiken primär als vorläufige Versuche des Umgangs gelten.

5. D ISKUSSION Wie unsere Analyse zeigen konnte, verbinden die Userinnen und User vielfältige Vorteile mit Anwendungen, denen Algorithmisierungs- und Datafizierungsprozesse zugrunde liegen. Ein wesentliches Argument für die Nutzung derartiger Apps, Programme oder Web-Dienste besteht in der Effizienzsteigerung in beruflichen, aber auch in alltäglichen Kontexten. Damit geht es um die Rationalisierung individuellen Handelns. Darüber hinaus sind die vorgestellten Phänomene aber in eine zweite Rationalisierungslogik eingebettet: Die Anbieterinnen und Anbieter von entsprechenden Anwendungen verfolgen, als wirtschaftliche Akteure, eigene Ziele. Neben der Bereitstellung von Services, die für die Userinnen

78 | P APSDORF , J AKOB & S CHMITTEN

und User möglichst hilfreich und effizient sind, geht es um Profitziele. Unternehmen entwickeln und gestalten ihre Anwendungen derart, dass diese die Bestrebungen der Unternehmen möglichst gut umsetzen.5 Diese zweite Seite der Rationalisierung soll im Folgenden diskutiert werden, weil sie direkte Bezugspunkte zu den Rationalisierungsinteressen der Userinnen und User aufweist. Diese zweite Seite ist den Nutzerinnen und Nutzern von algorithmen- und datenbasierten Diensten durchaus nicht unbekannt. So stellt eine Interviewte fest: „Google zensiert ja auch Dinge. Also ich spreche jetzt nicht von Kinderpornographie. Das ist natürlich gut, dass sie das zensieren. […] Aber halt auch wirklich Zensur von vielleicht wahrheitsentsprechenden Nachrichten. […] So russische Meldungen werden auch völlig unter den Tisch gekehrt und da fängt Google zum Beispiel an zu zensieren“ (jps08: 84). Damit wird zunächst zum Ausdruck gebracht, dass auch algorithmisch vermittelte Informationen kulturellen, politischen oder wirtschaftlichen Prägungen unterliegen können. Dies kann auf zweifache Weise problematisch sein. Erstens vermitteln daten- und algorithmenbasierte Anwendungen den Eindruck, präziser, verlässlicher und objektiver Informationen, indem sie beispielsweise bisher allein indirekt vermittelte Tatsachen quantifizieren. Dies zeigt sich beispielhaft in der Anzahl der Suchergebnisse bei Suchmaschinen, der sekundengenauen Protokollierung von Bewegungsdaten oder der Errechnung individueller Kreditscores. Zweitens ist unklar, welche technischen Restriktionen und eben spezifischen Interessen derartigen Prozessen im Detail zugrunde liegen. Userinnen und User können nicht wissen, welche Informationen eine Suchmaschine auf welche Art und Weise in ihr Suchergebnis einfließen lässt und welche Sensoren von Wearables wie genau messen und mit welcher Gewichtung in das Bewegungsprofil Einzug halten. Zwar ziehen Algorithmen ihre Legitimität daraus, dass ihre Ergebnisse auf Daten und der Anwendung wissenschaftlicher und vor allem statistischer Methoden basieren. Jedoch sind von der Sammlung und Auswahl der Daten, über die Gestaltung der algorithmischen Prozeduren ihrer Verarbeitung bis hin zur Ergebnisinterpretation und -darstellung menschliche Hände am Werk. Es gibt in diesem Sinne keine Rohdaten (Gitelman 2013). Welche Daten für die Verarbeitung und Auswertung ausgewählt werden und in welcher Form sie indiziert und zu Kategorien zusammengefasst werden (Gillespie 2014: 169ff.), basiert auf menschlichen Entscheidungen, die zudem kulturelle Konventionen und Traditio-

5

Siehe für die Ziele von App-Entwickler und App-Entwicklerinnen auch den Beitrag von Klinge in diesem Band.

R ATIONALISIERUNGSPARADOXIEN

DER

DATAFIZIERUNG

| 79

nen in sich tragen (Angwin et al. 2016).6 Die Auswahl von geeigneten Methoden und die Implementierung von Relevanzkriterien in Algorithmen wird von Programmiererinnen und Programmierern und von Datenwissenschaftlerinnen und Datenwissenschaftlern und mit bestimmten Zielen vorgenommen und wird damit ebenfalls zu einem Ort, an dem nicht (zumindest nicht ausschließlich) wissenschaftliche Ansprüche und Gütekriterien entscheidend sind, sondern wirtschaftliche und politische Interessen (O’Neil 2016). Computer und Algorithmen sind allein objektiv in dem Sinne, dass sie strikte und präzise formulierte Anweisungen strikt und präzise abarbeiten, bis die Prozedur zu einem vorgesehenen oder unvorhergesehenen Ende führt. Dies befreit aber weder die Daten, noch die Operationen davon, partikularen Interessen zu dienen und damit Kultur und Politik in sich zu tragen und sie zu perpetuieren (siehe auch Habermas 1968: 484). Vor dem Hintergrund des zentralen Befundes dieses Beitrages, den fünf Rationalisierungsparadoxien, soll im Folgenden diskutiert werden, inwiefern diese in Zusammenhang mit der vorgestellten zweiten Rationalisierungslogik stehen. Gibt es also Grund zur Annahme, dass die Rationalisierungsinteressen der Anbieterinnen und Anbieter von Services den Rationalisierungsgesuchen der Userinnen und Usern entgegenstehen? Und findet dieser Widerspruch Ausdruck in den Rationalisierungsparadoxien? Während das Informationsparadox auf qualitativen Defiziten (teil-)automatisierter Internetkommunikation basiert, finden sich für die anderen vier Paradoxien Hinweise auf konfligierende Rationalisierungslogiken. Das Effizienzparadox beschreibt den Widerspruch zwischen Zeitersparnis durch entsprechende Dienste und Effizienzverlusten durch Tätigkeiten, die den originären Kommunikationszielen entgegenstehen. Neben persönlichen Gewohnheiten, die eine möglichst effiziente Online-Nutzung behindern, gibt es auch ein strukturelles Hindernis. Während Userinnen und User ein Interesse haben, Dienste möglichst kurz zu nutzen, haben die Anbieterinnen und Anbieter das Interesse, die Nutzenden möglichst lang „auf“ ihrem Angebot zu halten. So ist der Traffic in der Aufmerksamkeitsökonomie des Internets eine wichtige Kenngröße, Werbeeinnahmen steigen mit der Nutzungsdauer und auch Abonnement- und Servicegebühren laufen einer punktuellen und kurzen Nutzung zuwider. Das Privacyparadox beschreibt neben der Kluft zwischen Einstellung und Verhalten den Widerspruch zwischen der nützlichen Verwendung sensibler Daten und der politischen und wirtschaftlichen Überwachung. Gerade letztere ist

6

Siehe für die Konstruktion „schöner Daten“ in einem datenverarbeitenden Start-up auch den Beitrag von Mützel, Saner und Unternährer in diesem Band.

80 | P APSDORF , J AKOB & S CHMITTEN

aber kein Selbstzweck, sondern essentieller Bestandteil einer großen Vielzahl von Diensten. Sind Web-Angebote für die Userinnen und User kostenfrei, müssen sie auf andere Art und Weise refinanziert werden. Neben der Einbindung in weitere Services und der Platzierung von Werbung besteht eine dritte Möglichkeit in der Verwertung von Daten. Es kann speziell für Unternehmen sinnvoll sein, möglichst umfangreiche Datensammlungen ihrer Nutzerinnen und Nutzer anzulegen, während es für diese anstrebenswert ist, lediglich diejenigen Informationen preiszugeben, die tatsächlich für die effiziente Nutzung notwendig sind. Im Rahmen des Zentralisierungsparadoxes wurde bereits angesprochen, dass Anbieterinnen und Anbieter versuchen, sogenannte digitale Ökosysteme zu etablieren. Während für Userinnen und User die damit intendierten Pfadabhängigkeiten eine Kehrseite der Effizienzvorteile darstellen, sind sie ein zentrales Ziel von Leistungsanbieterinnen und -anbietern in der digitalen Wirtschaft. Neben einem konkurrenzfähigen Produkt liegt es im Interesse des Unternehmens, die Wechselkosten möglichst hoch zu halten. Eine Strategie hierfür sind inhaltlich, strukturell und finanziell miteinander verzahnte Dienste. Dementsprechend sind Effizienzvorteile der Nutzenden nur eine Rationalisierungsdimension, die seitens der Anbieterinnen und Anbieter bedient werden muss. Das Autonomieparadox folgt mit Blick auf die doppelten Rationalisierungsinteressen einer ähnlichen Logik. Werden auf Basis von Algorithmisierungs- und Datafizierungsprozessen individuelle Entscheidungen beeinflusst, ist der Grat zwischen Emanzipation und Manipulation schmal. Für Unternehmen ist es essentiell, individuelles Verhalten mit Blick auf ihre Organisationsziele zu prägen. Ein klassisches Instrument hierfür ist das Marketing. Im Rahmen der beschriebenen Prozesse sind Unternehmen allerdings in der Lage, individuelle, echtzeitliche und lernfähige Angebote automatisch zu unterbreiten. Je mehr Entscheidungen und Handlungsweisen seitens der Unternehmen beeinflusst werden, umso besser lassen sich Profitziele erreichen. Neben dieser doppelten Rationalisierungslogik soll noch ein zweiter Aspekt mit Blick auf die Rationalisierung diskutiert werden. Unter Rückgriff auf den im zweiten Teil vorgestellten Zusammenhang zwischen (technischen) Medien und Rationalisierungsbestrebungen lässt sich vor dem Hintergrund der vorliegenden Befunde fragen, ob im Rahmen der Datafizierung und Algorithmisierung eine neuartige Spielart der Rationalisierung durch Kommunikation entsteht. Augenscheinlich geht es tatsächlich nicht mehr nur um Verständigung (wie im Fall der Sprache und der kommunikativen Rationalisierung), nicht mehr nur um eine Verbesserung der Erreichbarkeit (wie bei Massenmedien), und nicht mehr nur um den Erfolg von Kommunikation (wie bei symbolisch generalisierten Kommunikationsmedien). Stattdessen wird im Rahmen von Datafizierungs- und Al-

R ATIONALISIERUNGSPARADOXIEN

DER

DATAFIZIERUNG

| 81

gorithmisierungsprozessen individuelles Handeln in nahezu beliebigen Bereichen, genannt wurden hier Gesundheit, Intimbeziehungen, Wirtschaft, Massenmedien, Politik und Sport, auf Basis von Kommunikation optimiert. Neu ist dabei, dass so vielfältige gesellschaftliche Felder der instrumentellen Vernunft (Horkheimer 1947) zugeführt werden. Damit handelt es sich um eine eigentümliche Hybridvariante aus einer Rationalisierung der Kommunikation und eine Rationalisierung durch Kommunikation. Im Rahmen der Informatisierung der Arbeit lassen sich zwar bereits seit Längerem ähnliche Prozesse finden, die sich aber auf Organisationen und eben nicht auf Individuen beziehen. Ob derartige Bereiche überhaupt, und im Detail unter Einfluss unternehmensseitiger Rationalisierungskalküle, rationalisiert werden sollten, muss an anderer Stelle diskutiert werden. Die vorgestellten Paradoxien geben einen ersten Hinweis darauf, dass Datafizierungs- und Algorithmisierungsprozesse zumindest für die Userinnen und User mit nicht unproblematischen Nebenfolgen einhergehen.

L ITERATUR Adorno, Theodor W./Horkheimer, Max (1969): Dialektik der Aufklärung, Frankfurt am Main. Angwin, Julia/Larson, Jeff/Mattu, Surya/Kirchner, Lauren (2016): Machine Bias: There’s Software Used Across the Country to Predict Future Criminals. And It’s Biased Against Blacks. ProPublica. Online unter: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing (aufgerufen am 01.04.2017). Appel, Markus/Schreiner, Constanze (2014): Digitale Demenz? Mythen und wissenschaftliche Befundlage zur Auswirkung von Internetnutzung. In: Psychologische Rundschau, Jg. 65, H. 1, S. 1-10. Bakardjieva, Maria (2014): Social media and the McDonaldization of friendship. In: Communications, Vol. 39, No. 4, S. 369-387. Barnes, Susan B. (2006): A Privacy Paradox: Social Networking in the United States. In: First Monday, Vol. 11, No. 9. Online unter: http: //firstmonday.org /ojs/index.php/fm/article/view/1394/1312 (aufgerufen am 01.04.2017). Beard, Keith W./Wolf, Eve M. (2001): Modification in the proposed diagnostic criteria for Internet addiction. In: CyberPsychology & Behavior, Vol. 4, S. 377-383.

82 | P APSDORF , J AKOB & S CHMITTEN

DIVSI (2016): DIVSI Internet-Milieus 2016 Die digitalisierte Gesellschaft in Bewegung, Hamburg. Gillespie, Tarleton (2014): The Relevance of Algorithms. In: Gillespie, Tarleton/Boczkowski, Pablo/Foot, Kirsten (Hrsg.): Media Technologies: Essays on Communication, Materiality and Society, Cambridge, S. 167-194. Gitelman, Lisa (Hrsg.) (2013): ‚Raw Data‘ Is an Oxymoron, Cambridge/London. Glaser, Barney G./Strauss, Anselm L. (1967): The discovery of grounded theory: strategies for qualitative research, New Brunswick/London. Habermas, Jürgen (1995): Theorie des kommunikativen Handels: Zur Kritik der funktionalistischen Vernunft, Frankfurt am Main. Habermas, Jürgen (1968): Technik und Wissenschaft als ‚Ideologie‘?. In: Man and World, Vol. 1, No. 4, S. 483-523. Hepp, Andreas (2013): The communicative figurations of mediatized worlds: Mediatization research in times of the ‚mediation of everything‘. In: European Journal of Communication, Vol. 28, No. 6, S. 615-629. Hepp, Andreas/Hjarvard, Stig/Lundby, Knut (2010): Mediatization – Empirical perspectives: An introduction to a special issue. In: Communications, Vol. 35, No. 3, S. 223-228. Hilty, Lorenz M. (2007): Risiken und Nebenwirkungen der Informatisierung des Alltags. In: Mattern, Friedemann (Hrsg.): Der Computer im 21. Jahrhundert. Die Informatisierung des Alltags. Perspektiven, Technologien, Auswirkungen, Berlin, S. 187-205. Horkheimer, Max (1947): Eclipse of Reason, New York. Initiative D21 (2013): D21 – Digital-Index: Auf dem Weg in ein digitales Deutschland?! Online unter: http://www.initiatived21.de/wp-content/up loads/2013/04/digitalindex.pdf (aufgerufen am 01.04.2017). Keen, Andrew (2015): The Internet Is Not the Answer, London. Krotz, Friedrich (2001): Die Mediatisierung kommunikativen Handelns: der Wandel von Alltag und sozialen Beziehungen, Kultur und Gesellschaft durch die Medien, Wiesbaden. Mayer-Schönberger Viktor/Cukier, Kenneth (2013): Big Data. Die Revolution, die unser Leben verändern wird, München. Mayring, Phillip (2008): Qualitative Inhaltsanalyse: Grundlagen und Techniken (10., aktualisierte und überarbeitete Auflage), Weinheim. O’Neil, Cathy (2016): Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, London. Papsdorf, Christian (2015): How the Internet automates Communication. In: Information Communication and Society, Vol. 18, No. 9, S. 991-1005.

R ATIONALISIERUNGSPARADOXIEN

DER

DATAFIZIERUNG

| 83

Papsdorf, Christian (2013): Internet und Gesellschaft. Wie das Netz unsere Kommunikation verändert, Frankfurt am Main. Papsdorf, Christian (2009): Wie Surfen zu Arbeit wird, Frankfurt am Main/New York. Papsdorf, Christian/Jakob, Sebastian (2017). Ein Kampf gegen Windmühlen: Jugendliche und junge Erwachsene im Umgang mit Algorithmen und Überwachung im Internet. In: kommunikation@gesellschaft, Vol. 18, Sonderband „Algorithmen, Kommunikation und Gesellschaft“. Online unter: http://nbn-resolving.de/urn:nbn:de:0168-ssoar-51464-4 (aufgerufen am 01.01. 2010). Pariser, Eli (2011): The Filter Bubble. What the Internet Is Hiding from You, New York. Passig, Kathrin (2013): Standardsituationen der Technologiekritik, Berlin. Runkel, Gunter/Burkart, Günter (2005): Einleitung: Luhmann und Funktionssysteme. In: Runkel, Gunter/Burkart, Günter (Hrsg.): Funktionssysteme der Gesellschaft. Beiträge zur Systemtheorie von Niklas Luhmann, Wiesbaden, S. 7-11. Schmidt, Jan-Hinrik (2014): Leitmedium Internet - Persistenz und Flüchtigkeit. In: Hollmann, Michael/Schüller-Zwierlein, André (Hrsg.): Diachrone Zugänglichkeit als Prozess. Kulturelle Überlieferung in systematischer Sicht, Berlin, S. 103-121. Schmidt, Jan-Hinrik (2013): Social Media, Wiesbaden. Schmiede, Rudi (1996): Informatisierung, Formalisierung und kapitalistische Produktionsweise: Entstehung der Informationstechnik und Wandel der gesellschaftlichen Arbeit. In: Schmiede, Rudi (Hrsg.): Virtuelle Arbeitswelten: Arbeit, Produktion und Subjekt in der „Informationsgesellschaft“, Berlin, S. 15-47. Stegbauer, Christian/Rausch, Alexander (2001): Die schweigende Mehrheit – „Lurker“ in internetbasierten Diskussionsforen. In: Zeitschrift für Soziologie, Jg. 30, H. 1, S. 48-64. Trepte, Sabine/Reinecke, Leonard (Hrsg.) (2011): Privacy Online. Perspectives on Privacy and Self-Disclosure in the Social Web, Berlin. Turkle, Sherry (2012): Alone Together: Why We Expect More from Technology and Less from Each Other, New York. van Dijck, Jose (2014): Datafication, dataism and dataveillance: Big Data between scientific paradigm and ideology. In: Surveillance & Society, Vol. 12, No. 2, S. 197-208. Weber, Max (1972): Wirtschaft und Gesellschaft – Grundriß der verstehenden Soziologie, Tübingen.

84 | P APSDORF , J AKOB & S CHMITTEN

Yellowlees, Peter M./Marks, Shayna (2007): Problematic Internet use or Internet addiction? In: Computers in Human Behavior, Vol. 23, S. 1447-1453.

Affirmative Superlative  und die Macht negativer Bewertungen Online-Reputation in der Datengesellschaft T HOMAS F RISCH & L UISE S TOLTENBERG

D ATAFIZIERUNG DES R EISENS

UND

V ERREISENS

Gesellschaftliche Phänomene und Entwicklungen sind nicht ohne ihren Bezug zum technologischen Fortschritt und zur Digitalisierung beschreibbar. Die starke Verschränkung von Gesellschaft und Technik spiegelt sich in den Diagnosen der „electronic society“ (Meyrowitz 1985), der „network society“ (Castells 1996) oder der „digital society“ (Lupton 2015) wider. Die durch Digitalisierung ausgelösten Transformationsprozesse haben sämtliche soziale Sphären ergriffen. So sind auch der Tourismus und die Art und Weise des Reisens von grundlegenden Veränderungen betroffen1. Zunächst lässt sich hier eine Destabilisierung klassischer Grenzziehungen beobachten: Traditionelle Unterscheidungen wie zuhause/unterwegs oder Tourismus/Alltag scheinen nicht mehr adäquat, um die Dynamiken der erhöhten Mobilität und die innovativen Reisepraktiken zu beschreiben (Larsen/Urry/Axhausen 2007). Als Gründe für die Aufweichung etablierter Kategorien werden die Nutzung neuer Medien, der Zugang zum Internet und die permanente Erreichbarkeit genannt (Jansson 2007; White/White 2007). Planung und Organisation einer Reise werden zu-

1

Dieser Beitrag greift auf Forschungen aus dem Projekt „Tourismus 2.0- Zwischen medialer Vermittlung und digitaler Entnetzung“ an der Universität Hamburg zurück. Als Teilprojekt der DFG-geförderten Forschergruppe „Mediale Teilhabe. Partizipation zwischen Anspruch und Inanspruchnahme“ untersucht es den Einfluss digitaler Medien auf Tourismus.

86 | FRISCH & STOLTENBERG

nehmend auch unabhängig von den klassischen Akteuren, wie beispielsweise dem Reisebüro oder der Touristeninformation vor Ort (Gretzel/Fesenmaier 2009). Ermöglicht wird diese neue Spontanität und Selbstständigkeit Reisender maßgeblich durch sogenannten user generated content (UGC), insbesondere durch Online-Bewertungen. Das Verfassen und Rezipieren von derartigen Bewertungen kann als eine Form der Datafizierung des (Ver-)Reisens verstanden werden. Wenn eine Gesellschaft über ihre digitalisierten Daten und ihre Datenspuren erfasst und beschrieben werden soll, so sind Online-Bewertungen vor allem aus zwei Gründen ein interessanter Forschungsgegenstand. Zum einen produzieren UserInnen mit jedem bewerteten Reiseziel, Erlebnis, Restaurant- oder Hotelbesuch Daten mit evaluativem und quantifizierbarem Charakter. Sie übersetzen ihre Erfahrungen und Eindrücke in bezifferbare Werte auf einer mehrstufigen Skala. Zum anderen scheint das Verfassen und Rezipieren von online geteilten Bewertungen ein wesentliches Merkmal der Datengesellschaft zu sein. Denn hier kann und wird beinahe alles einer Beurteilung unterzogen, etwa Hotels, ÄrztInnen, Universitäten, Bücher, Filme, Unternehmen oder potentielle DatingPartnerInnen. Die Untersuchung von Online-Bewertungen im Tourismus eröffnet damit einen ersten Einblick in ein kennzeichnendes Prinzip der Datengesellschaft. Dieser Beitrag analysiert die Datafizierung des (Ver-)Reisens anhand der Plattform Airbnb.2 Hierbei handelt es sich um einen Community-Marktplatz, mit dessen Hilfe UserInnen private Unterkünfte vermieten und buchen können. Die Bewertung anderer NutzerInnen sowie der besuchten Unterkünfte ist zentraler Bestandteil der Nutzungsweise von Airbnb. Da Online-Bewertungen eine spezifische Form des user generated content darstellen, werden zunächst die Ursprünge und Auswirkungen nutzergenerierter Inhalte im Kontext des (Ver-)Reisens beschrieben. Darauf aufbauend erfolgt die Untersuchung des komplexen Zusammenspiels von Airbnbs implementiertem Bewertungssystem und den von UserInnen angewandten Bewertungspraktiken. Hierfür wird die Plattform zuerst anhand ihrer Strukturen und Logiken kurz vorgestellt. Danach greift der Beitrag auf eigene empirische Forschungen zurück und arbeitet mithilfe dieser das Verhältnis von Bewertungspraktiken und Plattformlogiken heraus. Es wird gezeigt, dass die Dominanz positiver Superlative sowie die gravierende Kraft negativer Bewertungen charakteristisch für Airbnb-Bewertungen sind. Sie formen und prägen eine plattformspezifische Bewertungskultur. Abschließend werden die

2

www.airbnb.de.

A FFIRMATIVE S UPERLATIVE | 87

wesentlichen Ergebnisse zusammengefasst und in ihrer Bedeutung für die Datengesellschaft diskutiert.

D IGITALE R EISEPRAKTIKEN : U SER G ENERATED C ONTENT Die medial und digital fundierte Dedifferenzierung klassischer Grenzziehungen kann im Kontext des Reisens als Fortschreibung des „Endes des Tourismus“ (Lash/Urry 1994) gedeutet werden. Dieses kontrovers diskutierte Postulat gründet sich auf der Beobachtung, dass die Zunahme individueller Mobilität sowie die massenmediale Verbreitung von Bildern touristische Erfahrungen und Erlebnisse in das Alltagsleben integrieren und infolgedessen in einer Dedifferenzierung von Alltag und Tourismus münden (Lash/Urry 1994; Urry 2008: 158f.). Die analytische Trennung dieser beiden Kategorien ist demzufolge nicht mehr gegeben: Tourismus ist von alltäglichen Praktiken ebenso durchzogen wie Alltag von touristischen Erlebnissen (Larsen 2008a). Neben den technischen Innovationen, wie beispielsweise der Erfindung der digitalen Fotografie (van House 2011; Larsen 2008b), ist die treibende Kraft der Veränderungen im Tourismus und im Reiseverhalten das Internet und hier insbesondere das Web 2.0. User generated content auf Reiseblogs, in Social MediaNetzwerken und auf anderen interaktiven und kollaborativen Webseiten hat sich als wichtige Informationsquelle für Reisende etabliert. Reiseblogs, auf denen Reisende ihre persönlichen Erfahrungen und Erlebnisse posten, werden im Gegensatz zu den Webseiten professioneller Tourismusagenturen von RezipientInnen oftmals als glaubwürdiger eingeschätzt (Akehurst 2009; Schmallegger/Carson 2008). UserInnen berichten dort hauptsächlich über unternommene Aktivitäten, kulinarische Erfahrungen sowie ihre Berührungspunkte mit der lokalen Kultur und bewerten diese nach Authentizität und Originalität (Azariah 2017: 80f.; Bosangit/McCabe/Hibbert 2009). Aufgrund des großen Einflusses, den persönliche Blogs auf die Attraktivität einer Destination haben, konzentriert sich eine Vielzahl wissenschaftlicher Arbeiten auf die Integration und Nutzung derartiger Formate für Marketingmaßnahmen oder leitet Handlungsanweisungen für kommerzielle Tourismusakteure ab (u. a. Munar 2011; Banyai/Glover 2012). Neben Reiseblogs sind Social Media-Netzwerke eine intensiv genutzte Möglichkeit, um Erlebnisse mit anderen zu teilen (Xiang/Gretzel 2010; Munar/Jacobsen 2014). Darüber hinaus können soziale Netzwerke nicht nur neu geknüpfte Kontakte festigen, sondern ebenfalls als direkte Verbindung zu daheimgebliebenen Freunden und Familienmitgliedern dienen (Berger/Paris 2013; Maschero-

88 | FRISCH & STOLTENBERG

ni 2007). Für die Tourismusindustrie stellen soziale Netzwerke eine weitere Möglichkeit dar, ihre Angebote zu bewerben und direkt mit UserInnen zu kommunizieren (Hudson/Thal 2013; Hvass/Munar 2012). Interaktive Webseiten, deren Geschäftsmodell auf UGC basiert und die ebenfalls einen umfassenden Einfluss auf die Praktiken des (Ver-)Reisen ausüben, sind kollaborative Portale wie TripAdvisor3 oder Yelp4. Derartige Dienste dienen der Vor- und Nachbereitung einer Reise, sind sowohl zuhause als auch unterwegs zunehmend essentiell für die Planung oder Evaluierung von Destinationen, Hotels, Restaurants und Aktivitäten (Zehrer/Crotts/Magnini 2011; O’Connor 2008). Die hier öffentlich einsehbaren, von NutzerInnen verfassten Bewertungen bestimmen maßgeblich über den (finanziellen) Erfolg von Beherbergungsbetrieben, Gaststätten und anderen touristischen Angeboten (Baka 2015; Jeacle/Carter 2011). Darüber hinaus ist zu beobachten, dass die Implementation eines Bewertungssystems zu einem Standard für Online-Dienstleistungen geworden ist. Das gilt insbesondere auch für Plattformen, die Aufenthalte in privaten Wohnräumen vermitteln und sich damit stark von klassischen Hotel- und Beherbergungsbetrieben abgrenzen (Tussyadiah 2016). Konkrete Beispiele für diese Anbieter sind unter anderem Airbnb, 9flats, Wimdu oder Couchsurfing.5

Z UR S OZIOLOGIE

DES

W ERTENS

UND

B EWERTENS

Die zuvor angeführten Nutzungsweisen online verfügbarer Inhalte und Möglichkeiten sind trotz ihrer Vielfältigkeit und ihrer unterschiedlichen Schwerpunktsetzung als Momente der Bewertung zu beschreiben. Hervorzuheben ist, dass die Evaluation einer Situation, eines Produktes, einer Handlung in ihrem Kern stets

3

TripAdvisor (www.tripadvisor.de) ist ein Bewertungs- und Informationsportal, auf dem UserInnen eigene Bewertungen von Hotels, Restaurants und Sehenswürdigkeiten online stellen können (zuletzt aufgerufen: 04.07.2017).

4

Auf Yelp (www.yelp.de) bewerten NutzerInnen Restaurants und Geschäfte (zuletzt

5

Wie bei Airbnb ist die Vermittlung von Unterkünften auf den beiden Portalen 9flats

aufgerufen: 04.07.2017). (www.9flats.com) und Wimdu (www.wimdu.de) für die UserInnen kostenpflichtig. Es werden sowohl Unterkünfte bei Privatpersonen, als auch Ferienwohnungen angeboten. Couchsurfing (www.couchsurfing.de) ist hingegen ein Gastfreundschaftsnetzwerk, d.h. Übernachtungen bei anderen NutzerInnen sind kostenlos (zuletzt aufgerufen: 04.07.2017).

A FFIRMATIVE S UPERLATIVE | 89

ein fester Bestandteil von sozialen Interaktionen und individuellem Verhalten ist (Lamont 2012). Obwohl Werten und Bewerten allgegenwärtige soziale Praktiken sind, die in einer Vielzahl von gesellschaftlichen Bereichen ihre Wirkmächtigkeit entfalten, ist die dezidierte wissenschaftliche Auseinandersetzung mit diesen Praktiken noch relativ jung (Kjellberg/Mallard 2013; Star/Lampland 2009). Dabei lässt sich auch abseits von touristischen Online-Bewertungen leicht eine Vielzahl von Beispielen finden, in denen Bewertungen dominant auf Organisationen oder auch auf die individuelle Lebensgestaltung einwirken. Rankings und die Exzellenz-Initiative beeinflussen beispielsweise das Prestige und die Finanzierung von Universitäten (Espeland/Sauder 2007). Im Sport setzt die Quantified SelfBewegung oder das Lifelogging auf die detaillierte Vermessung des Körpers und die darauf aufbauende permanente und präzise Bewertung und Steigerung der persönlichen Leistung (Selke 2014; Allan 2008). Mit jeder Google-Suche bewerten UserInnen – häufig unbewusst – die Seiten, die sie aufrufen und tragen auf diese Weise zu einer individuellen Personalisierung der anzuzeigenden Ergebnisse bei (Tran/Yerbury 2015; Simpson 2012). In Dating-Apps bewerten UserInnen sich gegenseitig anhand ihres Profils, ohne dass die Ergebnisse des Bewertens allen NutzerInnen kenntlich gemacht werden (Chase 2015; Pierce 2016). Die hier angeführten Beispiele verdeutlichen die Notwendigkeit einer soziologisch fundierten Untersuchung des Wertens und Bewertens. Damit verbunden ist auch die Auseinandersetzung mit Praktiken des Standardisierens, Kategorisierens, Vergleichens oder Evaluierens.6 Darüber hinaus muss das jeweilige System, in dem die Praktiken vollzogen werden, berücksichtigt werden, da sie diese prägen und strukturieren. Für die in diesem Beitrag behandelten OnlinePraktiken des Bewertens bedeutet dies konkret, dass jede Bewertung im Kontext der Airbnb-Plattformarchitektur betrachtet werden muss. Eine Soziologie des Wertens und Bewertens analysiert Bewertungsinstrumente, -praktiken und -kulturen des zu untersuchenden Phänomens (Mellet et al. 2014). Denn je nachdem, was und wie bewertet wird, kristallisieren sich spezifische Bewertungskulturen und -normen heraus (Bridges/Vásquez 2016; Scott/Orlikowski 2012; Otterbacher 2013). Gleichzeitig spielen die Grade der Sichtbarkeit einer Bewertung sowie möglicherweise vorhandene Kontrollinstrumente eine entscheidende Rolle (Luca/Zervas 2016; Bialski 2016). Bei öffentlich einsehbaren Bewertungen konnten mitunter eigene Codes sowie analog dazu typische Lesarten und Deutungsmuster identifiziert werden (Bissell 2011). In ihrer

6

Für Klassifikationspraktiken im Kontext ökonomischer Bewertungen siehe auch den Beitrag von Krenn in diesem Band.

90 | FRISCH & STOLTENBERG

Funktion als Hilfestellung, Empfehlung und Orientierung für andere versteht dieser Beitrag die Abgabe einer Bewertung als immaterielle, affektive Arbeit für eine mehr oder weniger deutlich umrissene Community. Vor dem Hintergrund der zunehmenden Dedifferenzierung von Alltag und Tourismus erscheint es als logische Konsequenz, dass eine digital geformte Gesellschaft die alltäglichen Praktiken des (Be-)Wertens in digitale Praktiken übersetzt. Gleichzeitig ist der auf diese Weise produzierte UGC als Verdatung eines individuellen, subjektiven Erlebnisses und damit als Element von Big Data zu deuten (Lu/Stepchenkova 2015). Bei dem hier behandelten Fallbeispiel Airbnb ist die Aufforderung zur Bewertung einer Übernachtung fester Bestandteil der Nutzung der Plattform. Bewertungen dienen vornehmlich dazu, Vertrauen zwischen UserInnen herzustellen (Oskam/Boswijk 2016; Yannopoulou/Moufahim/Xuemei 2013). Sie begründen und festigen die individuelle Reputation innerhalb der Community. Aufgrund ihrer herausragenden Stellung liegt es nahe, Bewertungen als Infrastruktur dieses online fundierten Tourismus zu verstehen (Frisch 2017). Aber sie fungieren nicht nur als Bedingung einer Begegnung zwischen Gast und GastgeberIn. Das Wissen um eine nachträgliche, öffentlich einsehbare Bewertung gestaltet und prägt die Interaktion und das Verhalten der beteiligten AkteurInnen über den gesamten Zeitraum, der neben dem tatsächlichen Aufenthalt auch die Vor- und Nachbereitung umfasst, die über die Plattform abgewickelt werden. Folglich entfalten Bewertungen eine Wirkung, die über die konkrete Beurteilung einer temporären (touristischen) Erfahrung hinausreicht.

AIRBNB : R EPUTATION

ALS SOZIALE

W ÄHRUNG 7

Kurzporträt der Plattform Die Plattform Airbnb ist derzeit eine der populärsten Akteure der sogenannten Sharing Economy. Seit sie 2008 im Silicon Valley als Start-up gegründet wurde, ist ihr Aufstieg medial intensiv begleitet und kritisch diskutiert worden (Kagermeier/Köller/Stors 2016). Airbnb bezeichnet sich selbst als CommunityMarktplatz für die Vermittlung von Übernachtungsmöglichkeiten bei Privatpersonen. NutzerInnen haben die Möglichkeit, die Plattform sowohl in der Rolle des

7

In einem Interview mit der ZEIT im August 2012 wies einer der drei Airbnb-Gründer, Nathan Blecharczyk, auf den hohen Stellenwert von Bewertungen auf der Plattform hin. Er sagte: „In der Onlinewelt, wo Unbekannte aufeinandertreffen, ist der eigene Ruf Kapital. Reputation wird zur sozialen Währung“ (Bunde 2012).

A FFIRMATIVE S UPERLATIVE | 91

Gastes (Guest) als auch in der des Gastgebers oder der Gastgeberin (Host) zu verwenden. Die Buchung einer Unterkunft ist kostenpflichtig, Airbnb erhebt eine Provision, die von GastgeberIn und Gast gezahlt werden muss. Laut eigenen Angaben haben mehr als 150 Millionen Gäste seit der Gründung der Plattform diesen Dienst genutzt (Airbnb 2017). Neben Unterkünften werden seit Ende 2016 Aktivitäten und geführte Touren über die Plattform angeboten (Airbnb 2016). Zugang zum Angebot erhält, wer sich auf der Airbnb-Website mit einem persönlichen Profil registriert. Die Registrierung kann entweder mithilfe eines bereits bestehenden Online-Kontos bei sozialen Netzwerken oder durch die Preisgabe von rudimentären Personendaten erfolgen. Anschließend haben UserInnen die Möglichkeit, sich über verschiedene Mechanismen verifizieren zu lassen und damit Nachweise für ihre Identität zu liefern. Die Prozesse der Registrierung und Verifizierung beinhalten auch die Weitergabe der persönlichen Daten an Dritte und sind daher unter dem Recht auf informationelle Selbstbestimmung kritisch zu diskutieren (Frisch/Stoltenberg 2017). Airbnb wurde häufig als ein Paradebeispiel der Sharing Economy beschrieben (Botsman/Rogers 2010), da es mit einem innovativen, disruptiven und technologiebasierten Geschäftsmodell, die Tourismusbranche revolutioniert (Guttentag 2015). Kritische Beiträge werfen dem Unternehmen hingegen „PseudoSharing“ (Belk 2014) vor und fordern eine Demokratisierung der Plattform (Schor 2016). In den wissenschaftlichen Arbeiten zu Airbnb lässt sich insgesamt eine Reihe von Themenfeldern identifizieren, die zum Teil auch in der breiteren öffentlichen Debatte diskutiert werden. Zunächst ist hier das Problem der Regulierung der kurzzeitigen Vermietung von Wohnraum zu nennen. Untersuchungen beschäftigten sich häufig mit der Frage nach der Legalität solcher Aktivitäten und den Möglichkeiten steuerlicher Geltendmachung für die jeweiligen Behörden (Gottlieb 2013; Jefferson-Jones 2014; Lazarow 2015). Da einige Städte eine besonders hohe Dichte von AirbnbAngeboten aufweisen, werden die Auswirkungen derartiger Inserate auf die Stadtplanung und die urbane Entwicklung thematisiert (Gurran/Phibbs 2017). Die fehlende Regulierung wird vor allem dort kritisch bewertet, wo AirbnbVermietungen einen angespannten Wohnungsmarkt8 in hohem Maße beeinflus-

8

Diese Entwicklung hat bereits zu politischen Interventionen geführt. So hat Berlin beispielsweise Ende 2013 das sogenannte Zweckentfremdungsverbot-Gesetz erlassen, das die nicht genehmigte gewerbliche Vermietung von Wohnungen an TouristInnen untersagt und nach einer Übergangsfrist seit dem 1. Mai 2016 angewendet werden kann (ZwVbG 2013).

92 | FRISCH & STOLTENBERG

sen (Kagermeier/Köller/Stors 2016; Oskam/Boswijk 2016; Sans/Domínguez 2016). Einen zweiten Schwerpunkt bilden die medial vermittelten, neuen Formen von Gastfreundschaft und die Motive der UserInnen, die Dienste der Plattform zu nutzen. Es wird beispielsweise nach dem Einfluss der Monetarisierung von Gastfreundschaft auf die sozialen Interaktionen zwischen Host und Guest gefragt (Ikkala/Lampinen 2015) oder danach, wie Identität im Falle von sogenannten usergenerated brands konstruiert und visuell repräsentiert wird (Lee/Kim 2017; Yannopoulou/Moufahim/Xuemei 2013). Als Motivation der Airbnb-UserInnen wurden bislang vor allem der finanzielle Vorteil gegenüber dem klassischen Beherbergungsgewerbe sowie das Versprechen eines Zugangs zu authentischen Erfahrungen hervorgehoben (Varma et al. 2016; Kagermeier/Köller/Stors 2015). Schließlich erfuhr auch die Bedeutung der Reputation in einigen neueren Beiträgen Aufmerksamkeit. Diese Arbeiten beschäftigen sich mit der Herstellung von Vertrauen und Glaubwürdigkeit anhand von Profilbildern (Ert/Fleischer/Magen 2016; Fagerstrøm et al. 2017) oder mit der auffälligen Dominanz überdurchschnittlich guter Bewertungen (Zervas/Proserpio/Byers 2015; Bridges/Vásquez 2016). Das reziproke Bewertungssystem gilt als zentrales Mittel zur Herstellung von Sicherheit und einer positiven Reputation (Richardson 2015; Oskam/Boswijk 2016). Den Ausgangspunkt der hier vorliegenden Analyse bildet die Beschäftigung mit der auffälligen Dominanz überdurchschnittlich positiver Bewertungen bei Airbnb – ein Umstand, der bereits häufiger bei Bewertungsplattformen beobachtet wurde (Askay 2015). Was die Ergebnisse auf der etablierten 5-SterneSkala betrifft, fällt auf, dass Airbnb-Unterkünfte fast ausschließlich Werte von 4,5 oder 5 Sternen erhalten, während Bewertungen unter 3,5 Sternen quasi nicht existent sind (Zervas/Proserpio/Byers 2015). Dieser Bias in Form einer affirmativen Verzerrung zeigt sich allerdings nicht nur in der Tendenz, die höchstmöglichen Werte auf der fünfstufigen Skala zu vergeben, sondern auch in den evaluativen Texten. Eine Untersuchung dieser Texte hinsichtlich ihrer linguistischen Muster in vier US-amerikanischen Städten zeigte, dass diese ein sehr kleines Repertoire an Formulierungen und Vokabular besitzen, grundsätzlich sehr große Ähnlichkeiten aufweisen und generell der Norm der Website im Sinne von sehr positiven Beurteilungen entsprechen. Gleichzeitig konnten die AutorInnen anhand der Analyse einzelner Texte darstellen, dass vermeintlich weniger positive Erfahrungen über subtile Mittel kommuniziert werden, die oberflächlich gelesen nicht als negativ wahrgenommen werden (Bridges/Vásquez 2016).

A FFIRMATIVE S UPERLATIVE | 93

Diese Befunde und Erfahrungen sind insofern von Bedeutung, als sie die zentrale Frage aufwerfen, wie diese überdurchschnittlichen positiven Bewertungen zustande kommen. Methodisches Vorgehen Ein großer Teil der Bewertungsaktivitäten der Airbnb-UserInnen ist auf den entsprechenden Webseiten öffentlich zugänglich. Es kann ohne viel Aufwand nachvollzogen werden, welcher Gast zu welchem Zeitpunkt bei welchem Host übernachtet hat, wie der Aufenthalt verlaufen ist, ob es Konflikte gab oder nicht. Für die wissenschaftliche Auseinandersetzung mit dem Thema können ForscherInnen daher – dank der umfassenden Datafizierung – auf sehr umfangreiches Material zurückgreifen. Das Bewertungssystem ist ein essentieller Bestandteil der Plattformarchitektur, das Bewerten einer Airbnb-Erfahrung nach der Abreise oft eine Selbstverständlichkeit für die UserInnen. Wie im vorherigen Abschnitt erläutert, impliziert der Begriff „Bewertung“, wie er in der Folge verwendet wird, stets die technische Umsetzung eines bestimmten Bewertungssystems als auch die jeweilige Anwendung und Überführung in (routinierte) Praktiken der UserInnen. Reviews, so der im englischsprachigen Raum gebräuchliche Begriff, sind von erheblicher Bedeutung für Airbnb. Das Unternehmen betont dies vielerorts, wie zum Beispiel bei der letzten größeren Modifikation des Bewertungssystems im Jahr 2014: Our community is built on a great deal of trust – trust that makes hosts feel comfortable allowing travelers to stay in their home, and trust that helps travelers feel like they belong anywhere. The foundation of that trust is our review system […] (Airbnb 2014).

Bewertungen schaffen demzufolge Vertrauen zwischen Unbekannten und sind eine zentrale Voraussetzung dafür, dass diese online vermittelten Begegnungen überhaupt zustande kommen. Anhand ihrer Anzahl und ihres Inhalts lässt sich die Reputation der UserInnen innerhalb der Community bemessen. Bewertungen können folglich darüber entscheiden, ob UserInnen in Zukunft wieder die Möglichkeit haben, die Plattform zu nutzen oder nicht. Um den Stellenwert des reziproken Bewertungssystems bei Airbnb sowie die damit verbundenen UserInnen-Praktiken zu identifizieren, rekurriert dieser Beitrag auf empirische Ergebnisse aus einem Mix qualitativer Methoden. Die Architektur der Plattform, die den Handlungsspielraum der UserInnen bestimmt, wurde mithilfe einer deskriptiven Webseitenanalyse erforscht. Die Beschreibung und

94 | FRISCH & STOLTENBERG

Untersuchung der Plattformstruktur gibt Hinweise auf ihre impliziten Logiken und die von ihr gewünschten UserInnen-Praktiken. Die Webseitenanalyse bezieht sich auf die Architektur der Plattform im September 2016.9 Um hingegen Einblicke in die Praktiken der UserInnen im Umgang mit der Plattform zu erhalten, wurden teilnehmende Beobachtungen und qualitative, leitfadengestützte Interviews durchgeführt. Die Erhebung begann im Januar 2016 und wird noch bis Juli 2017 fortgeführt. Die teilnehmende Beobachtung findet in der Rolle des Gastes statt, um hier verstärkt Host-Praktiken in den Fokus zu rücken. Bislang konnten 15 teilnehmende Beobachtungen durchgeführt werden. Demgegenüber werden InterviewpartnerInnen direkt über die Plattform, den Besuch von einschlägigen Veranstaltungen sowie das Schneeballprinzip rekrutiert. Auf diese Weise konnten bislang 25 Interviews mit einer durchschnittlichen Länge von 60 Minuten geführt werden. Zusätzlich wird das von Airbnb betriebene Host-Forum untersucht, mit deren Hilfe UserInnen sich online öffentlich austauschen und gegenseitig beraten können. Für diesen Beitrag wurden ausschließlich diejenigen Threads analysiert, in denen UserInnen über Bewertungspraktiken berichten oder sich über Möglichkeiten, Bewertungen zu beeinflussen, informieren. Hervorzuheben ist, dass auf Basis des empirischen Materials keine repräsentativen Aussagen über die Gesamtheit der Airbnb-UserInnen-Praktiken getroffen werden können. Dies ist jedoch auch nicht das Ziel der Untersuchung. Vielmehr geht es darum, erste Erkenntnisse über die individuellen Alltagspraktiken des Wertens und Bewertens von Airbnb-NutzerInnen zu gewinnen. Der Beitrag untersucht das Bewerten als Teil der „kleinen digitalen Datenpraktiken des Alltags, die sich innerhalb weniger Jahre in unser Lieben, Lernen, Konsumieren und unsere Körper selbst eingeschrieben haben“ (Süssenguth 2015: 7). Affirmative Superlative – der positive Bias Die Architektur des Bewertungssystems und das Design des Interfaces bilden den Rahmen, innerhalb dessen die Bewertungspraktiken vollzogen werden. Airbnb beeinflusst als Plattformbetreiber dadurch bereits in hohem Maße das Bewertungsverhalten seiner UserInnen, beispielsweise durch das Festlegen von Bedingungen, das Ermöglichen, Verunmöglichen und Einschränken von Aktionen.

9

Airbnb verändert seine Webseite regelmäßig, indem neue Features ausprobiert werden. Zum Zeitpunkt der hier betrachteten Analyse bestand die Möglichkeit, Reiseerlebnisse über Airbnb zu buchen, noch nicht. Das Bewertungssystem ist jedoch seither keinen grundlegenden Veränderungen unterworfen, sodass die Webseitenanalyse diesbezüglich aktuell bleibt.

A FFIRMATIVE S UPERLATIVE | 95

Im Zuge der Webseiten-Analyse konnten vier Faktoren identifiziert werden, die in ihrer Kombination eine affirmative Verzerrung von Bewertungen begünstigen: (1) die reziproke Ausrichtung des Bewertens, also die Möglichkeit der gegenseitigen Beurteilung ohne zu wissen, wie die Bewertung durch das Gegenüber ausfällt; (2) die öffentliche und nicht-anonyme Darstellung der Bewertungstexte auf der Webseite; (3) das strukturelle Ausschließen einer Bewertungsabgabe bei Stornierung oder frühzeitigem Abbruch eines Aufenthalts; (4) die alleinige Macht des Bearbeitens und Löschens von Bewertungen durch die Plattform. Reziprozität und Öffentlichkeit wirken zusammen disziplinierend, denn die UserInnen wissen, dass sie selbst auch bewertet werden und das Ergebnis dieses Bewertungsprozesses allen, die die entsprechende Profilseite aufrufen können, zugänglich gemacht wird. Mit dem Verhindern von Bewertungen bei Stornierungen oder Abbruch von Aufenthalten wird von Vornherein die Schilderung von negativen Erlebnissen, welche die UserInnen zu einer solchen Entscheidung veranlassen, ausgeblendet. Ähnlich verhält es sich mit der Befugnis zum Bearbeiten von Inhalten der verfassten Bewertungen bzw. dem Löschen von Bewertungen, die den UserInnen verwehrt bleibt. Allein Airbnb wird diese Befugnis erteilt, ein Kennzeichen für die authority des Plattformbetreibers (Bialski 2016). Neben diesen Entscheidungen für eine spezifische Bauart der Bewertungsinstrumente können aber auch bestimmte Elemente im Design des Interfaces, über das der Prozess einer Bewertungsabgabe der UserInnen abgewickelt wird, als Gründe ausgemacht werden. Diese teilweise sehr subtilen Steuerungsmaßnahmen sind in ihrer Wirkung zwar schwer abzuschätzen, sollten hier aber nicht unerwähnt bleiben. Darunter fallen u. a. Erklärungen, wie die einzelnen Schritte absolviert werden sollen, Verweise auf Hilfe-Artikel und Richtlinien über angemessene Inhalte von Bewertungen oder die Strukturierung des vertraulichen, also nicht öffentlich angezeigten, Feedbacks in gut/verbesserungswürdig statt in gut/schlecht. Besonders schön illustrieren lassen sich diese Kontrollversuche an der (freiwilligen) Vergabe von Sternen auf einer fünfstufigen Skala für einzelne Kriterien der Gast- bzw. Hosterfahrung. Sobald weniger als die maximale Anzahl von fünf Sternen ausgewählt werden, erscheint ein zusätzliches Feld, in dem die Gründe für diesen Entschluss erläutert werden können. Die Entscheidung gegen die höchste Bewertung wird somit zwar mit der Möglichkeit verknüpft, diese zu legitimieren, ist aber gleichzeitig mit einem Mehraufwand verbunden, den viele UserInnen vermutlich nicht gewillt sind, zu betreiben. An dieser Stelle tritt wiederum deutlich zutage, welches handlungsermöglichende bzw. -verunmöglichende Potential in Technologien eingeschrieben ist und wie eng sie an die Praktiken ihrer UserInnen geknüpft sind.

96 | FRISCH & STOLTENBERG

Allerdings kann die Beziehung zwischen Technologie und Praktiken nicht auf diese eine Einflussrichtung reduziert werden. Schließlich wenden UserInnen die ihnen zur Verfügung stehenden Werkzeuge aktiv und in ihrem Interesse an und wirken ihrerseits wieder auf deren Veränderung zurück, z. B. durch das kollektive Nichtnutzen von Funktionen, durch vom intendierten Zweck abweichendes Verwenden oder durch Beschwerden beim Plattformbetreiber. UserInnenPraktiken wohnt folglich auch eine gewisse Autonomie inne. Während in der bisherigen Analyse ausschließlich auf die Architektur und das Design der Plattform eingegangen wurde, betrachtet der nachfolgende Abschnitt die Praktiken der UserInnen. Die bisher geführten Interviews legen den Schluss nahe, dass die affirmativen Superlative der Airbnb-Bewertungen ebenfalls durch die Entwicklung einer spezifischen Schreib- und Lesekompetenz seitens der UserInnen zustande kommen. Darüber hinaus finden sich eine Reihe von Strategien und Taktiken, die das Ziel haben, die eigene Bewertung durch andere UserInnen zu steuern. Die Macht negativer Bewertungen Die affirmative Verzerrung der Airbnb-Bewertungen führt dazu, dass es kaum explizit negative Bewertungen gibt. Infolgedessen fallen Reviews, die Kritikpunkte anführen oder keine überschwänglichen Formulierungen enthalten, besonders stark auf (Bridges/Vásquez 2016). Die Macht negativer Bewertungen wirkt sich jedoch unterschiedlich stark auf Guests und Hosts aus. Aus diesem Grund werden zunächst die UserInnen, die Airbnb in der Gast-Rolle nutzen, behandelt. Anschließend werden einige Praktiken der Hosts im Umgang mit Bewertungen vorgestellt. Im Interview erläutert ein Airbnb-Gast, wieso für ihn schon kleine Beanstandungen stark ins Gewicht fallen. Auf die Frage, worauf er beim Lesen von Bewertungen besonders achtet, antwortet er: Und natürlich sind die Bewertungen meistens, immer sehr positiv. Und wenn eine Bewertung mittelmäßig oder schlecht ist, dann ist das Ding, glaub ich, richtig grottig, weil man dazu neigt, schon eher eine positivere Bewertung zu geben (Sebastian, Airbnb-Gast)10.

Die Auswirkungen einer explizit negativen Bewertung können demnach gravierend sein, wie im Folgenden noch dargelegt werden wird. Jene UserInnen, die

10 Die Namen der InterviewpartnerInnen wurden anonymisiert. Für eine bessere Lesbarkeit wurden Pseudonyme vergeben.

A FFIRMATIVE S UPERLATIVE | 97

Airbnb über einen längeren Zeitraum nutzen, wissen meist um dieses Risiko, weshalb es Bestrebungen gibt, Negatives subtil in den geschriebenen Text einfließen zu lassen. Nur gründliche LeserInnen können dann durch das Dekodieren einzelner Signale Hinweise auf Mängel und Beanstandungen finden. Dies setzt die Entwicklung einer Schreib- und Lesekompetenz voraus, mit deren Hilfe Bewertungen entsprechend formuliert und interpretiert werden können. Eine Airbnb-Nutzerin berichtet im Interview, wie sie gemeinsam mit einer Freundin die Formulierung eines Bewertungstextes abwägt. Sie schildert ihre Überlegungen folgendermaßen: Wir dachten: ‚Gut, wir schreiben das jetzt, wie kann man so ver[packen], dass es andere auch verstehen?‘ Und da haben wir [...] geschrieben ‚professioneller Gastgeber‘, wo halt schon klar wird, dass es halt eigentlich nicht den persönlichen Bezug [gibt], diesen Anschein, den sich Airbnb – ja, dass es davon eben abweicht. Ich weiß nicht, wie viele das jetzt tatsächlich verstanden haben (Laura, Airbnb-Gast).

Laura hofft, dass andere in der Lage sind, den Code „professioneller Gastgeber“ zu erkennen und dementsprechend zu deuten. Es ist ihr ein Bedürfnis, den fehlenden persönlichen Stil der Wohnung in der Bewertung zu erwähnen. Gleichzeitig geht es ihr darum, ein explizit negatives Feedback zu vermeiden. Infolgedessen zeichnet sich, wie bereits beschrieben, eine affirmative Verzerrung in den abgegebenen Bewertungen ab, die eine sorgfältige Dekodierung der Wortwahl und Schreibweise erforderlich machen. Darüber hinaus übt die Macht negativer Bewertungen für Guests einen starken Einfluss auf die Möglichkeiten der Teilhabe am Airbnb-Angebot aus. Da Bewertungen auf Airbnb öffentlich einsehbar sind, wird es für UserInnen mit einer schlechten Bewertung schwieriger, GastgeberInnen zu finden. Ein AirbnbGast berichtet von einer Konfliktsituation mit seinem Gastgeber: NachbarInnen hatten sich aufgrund von hoher Lautstärke bei dem Besitzer der Wohnung beschwert, der Airbnb-Gast versuchte laut eigener Darstellung, zur Deeskalation der Situation beizutragen – auch weil er eine negative Bewertung fürchtete. Nichtsdestotrotz erhielt er im Nachgang ein schlechtes Review von seinem Airbnb-Host: Er hatte dann trotzdem eine miese Bewertung rausgehauen. So dass ich im Endeffekt erst mal meinen Airbnb-Account nicht mehr nutzen wollte und dann immer bei Reisen halt meine Reisepartner das machen mussten. Das war super ätzend (Noah, Airbnb-Gast).

98 | FRISCH & STOLTENBERG

Die öffentliche Bewertung, die Verdatung des Konfliktes, macht die erlebte Auseinandersetzung zwischen Noah und seinem Host für andere UserInnen sichtbar und gefährdet seine zukünftige Partizipation. Die Abhängigkeit von einem kontinuierlich positiven Feedback wirkt sich jedoch unterschiedlich stark für GastgeberInnen und ihre Gäste aus, wie eine Airbnb-Nutzerin darlegt: Ich glaube, dass die Hosts, also die Vermieter, [...] unter viel größerem Druck stehen als die Mieter. Schließlich bekommen die ja Geld und es ist ja ’ne Dienstleistung irgendwie auch [...]. Ich glaube, dass die Vermieter da eher unter Druck stehen, alles gut zu machen, damit die ’ne gute Bewertung kriegen und weiterhin auch irgendwie Geld damit machen können, mit ihren Wohnungen (Jasmin, Airbnb-Gast).

Das reziproke Bewertungssystem erscheint in dieser Darstellung als Garant für die Qualität eines über Airbnb gebuchten Erlebnisses. Hervorzuheben ist zudem, dass Jasmin sich nur bedingt an dem von Airbnb-geprägtem Vokabular bedient: Sie beschreibt die Hosts als VermieterInnen, Gäste als MieterInnen und spricht von einer zu erbringenden Dienstleistung. In dieser Darstellung wird Gastfreundschaft zu einem Service, dessen Inanspruchnahme eine finanzielle Entlohnung nach sich zieht. Ein Umstand, der dann stark kritisiert wird, wenn von einem unentgeltlichen Charakter von Gastfreundschaft ausgegangen wird (Belk 2014). Die ständige Bestätigung einer guten Reputation ist nicht nur die soziale Währung für die Interaktionen auf Airbnb – für Hosts ist sie zusätzlich die bestimmende Größe für zukünftige finanzielle Einkünfte. Die Bewertungspraktiken der Airbnb-Gäste sind nicht unabhängig von denjenigen Praktiken der GastgeberInnen. Die Hinweise auf die Entwicklung einer Schreib- und Lesekompetenz im Umgang mit Bewertungen lassen sich ebenso in den Aussagen der interviewten Hosts wiederfinden. Doch aufgrund der Gefahr, die von einer drohenden negativen Bewertung für das finanzielle Einkommen der GastgeberInnen ausgeht, sind diese stärker von der Macht negativer Bewertungen betroffen. Im AirHostsForum11 diskutieren UserInnen unter dem Thread „Review Period Update“ den Umgang mit Bewertungen von Gast-Aufenthalten, die sie als unangenehm empfunden haben. Die Beurteilung einer derartigen Situation ist heikel: Die Abgabe eines Reviews innerhalb der gesetzten Frist von 14 Tagen

11 Das Online-Forum (www.airhostsforum.com) richtet sich speziell an Airbnb-GastgeberInnen und bietet ihnen die Möglichkeit, sich weltweit zu vernetzen.

A FFIRMATIVE S UPERLATIVE | 99

könnte den jeweiligen Gast motivieren, ebenfalls eine Bewertung zu hinterlassen. Die Reziprozität des Bewertungssystems wird zum Problem. Im Forum werden zwei Lösungsansätze diskutiert und gegeneinander abgewogen. Zum einen wird vorgeschlagen, auf die Bewertung komplett zu verzichten und nur zu reagieren, wenn der Gast ein Review verfasst. Dieser Vorschlag wird entschieden zurückgewiesen, indem UserInnen daran erinnern, dass GastgeberInnen sich mithilfe von Reviews gegenseitig vor problematischen Gästen warnen sollten. Als Alternative wird ein zweiter Lösungsansatz präsentiert, der dem öffentlichen Sanktionieren einer problematischen Begegnung gerecht wird und gleichzeitig das Risiko einer negativen Beurteilung für den Host minimiert: [S]ometimes leaving a review for bad guests actually PROMPTS them to write a review in return. So if there’s any doubt you’ll get smacked in a return review but you still want to leave one for them, try to wait until the last minute (AirHostForum 2015; H.i.O.).

Wenn diese Strategie aufgeht, hat der Host seinen/ihren Gästen ein negatives Review hinterlassen, ohne dass sein/ihr Profil mit einer schlechten Bewertung belastet wird. Darüber hinaus ist hervorzuheben, dass das Ausbleiben einer Bewertung, so wie im Forum zuerst empfohlen, ebenfalls als negativ gedeutet werden kann. In einer Bewertungskultur, die maßgeblich auf der ständigen Beurteilung jeder einzelnen Interaktion beruht, ist das Unterlassen einer Bewertung Indiz eines möglichen Konflikts. Im Interview berichtet eine Gastgeberin von einem Paar, das sich aufgrund ihrer ausbleibenden Bewertung beunruhigt nach ihrem Aufenthalt an sie wendet: Er hat mir schon eine Bewertung geschrieben und ich hatte das noch nicht gemacht, weil ich da irgendwie keinen Bock grade drauf hatte. […] Und dann hat er geschrieben, ob alles okay ist. Weil die haben ja auch so eine Nachricht hinterlassen und die haben sich so wohl gefühlt und fanden das so nett, wie ich immer reagiert habe und was ich empfohlen habe und, dass es genau deren Geschmack getroffen hat. […] Und dann dachten die halt, es ist irgendwas nicht okay gewesen, wie sie es hier hinterlassen haben (Sophie, AirbnbHost).

Sophie erwähnt hier auch das Hinterlassen einer schriftlichen Notiz, mit der sich ihre Gäste noch einmal bei ihr bedankten. In den teilnehmenden Beobachtungen und den Interviews finden sich noch weitere Verweise auf derartige kleine Gesten, die zu einer positiven Erfahrung und folglich ebenso zu einer positiven Bewertung beitragen sollen. Ein User, der sowohl als Gast als auch als Gastgeber bei Airbnb aktiv ist, sieht in diesen Zetteln die Chance, Bewertungen positiv zu

100 | F RISCH & STOLTENBERG

beeinflussen. Er sagt: „Das, denk ich mir immer, könnte das Zünglein an der Waage sein“ (Simon, Airbnb-Host und -Gast). Weitere Beispiele für diese Versuche der Einflussnahme durch Hosts sind das Bereitstellen einer Flasche Wasser für Gäste oder das Zurverfügungstellen einer Mappe mit nützlichen Informationen zu ihrem Wohnort.12

O NLINE -R EPUTATION IN DER D ATENGESELLSCHAFT Anhand des Fallbeispiels Airbnb konnte gezeigt werden, wie OnlinePlattformen, aufgrund ihrer spezifischen Architektur und dominanten Logiken zusammen mit den von UserInnen verwendeten Praktiken an der Entwicklung einer eigenen Bewertungskultur beteiligt sind. Bei Airbnb zeichnet sich diese Kultur durch eine affirmative Verzerrung und die daraus resultierende Macht negativer Bewertungen aus, die durch ein komplexes Zusammenspiel von Technologie und UserInnen-Praktiken kontinuierlich bestätigt wird. Denn alle beteiligten Akteursgruppen – Airbnb als Plattformbetreiber, GastgeberInnen und Gäste – profitieren letztlich von der überschwänglichen Bewertungskultur. Gut bewertete Unterkünfte werden häufiger gemietet und verschaffen den GastgeberInnen und Airbnb mit jeder Buchung ein finanzielles Einkommen. Gäste haben durch positive Bewertungen ihrerseits ein geringeres Risiko von potenziellen Hosts abgelehnt zu werden. In Reaktion auf diesen positiven Bias müssen Airbnb-UserInnen eine Schreib- und Lesekompetenz entwickeln, um die Spielregeln der Plattform erfolgreich anwenden zu können. Diese Kompetenz bezeichnet zum einen die Fähigkeit, negative Erlebnisse so in Texten zu verstecken, dass sie auf den ersten Blick nicht als solche erkennbar sind. Zum anderen beinhaltet sie das Wissen, wie einzelne Formulierungen und Begriffe entsprechend interpretiert und dekodiert werden. Die weitreichende Macht einer negativen Bewertung hat UserInnen darüber hinaus dazu veranlasst, eine Vielzahl von Praktiken, Strategien und Taktiken zu entwerfen, um der potenziellen Bedrohung durch ein schlechtes Review entgegenzuwirken oder das Erscheinen einer solchen Bewertung komplett zu verhindern.

12 Neben den hier beschriebenen beiden Möglichkeiten können UserInnen erhaltene Bewertungen ebenfalls kommentieren. Ein Kommentar erlaubt zwar eine Auseinandersetzung mit möglichen Kritikpunkten, jedoch bleiben die negativen Beurteilungen auf dem Profil der UserInnen sichtbar.

A FFIRMATIVE S UPERLATIVE | 101

Eine Gesellschaft, die ihre Dynamiken, Entwicklungen und Prozesse in Datenstrukturen übersetzt, bildet konsequenterweise auch eigene Praktiken digitaler Bewertungen aus. Die plattformspezifische Bewertungskultur von Airbnb zeigt, wie diese Praktiken das Werten und Bewerten prägen. Sie bestimmen über die Reputation innerhalb der UserInnen-Community und sind strukturgebend für die dort stattfindenden und über die Plattform vermittelten Interaktionen. Als kleine digitale Datenpraktik des Alltags entfaltet das Online-Bewerten eine immense Kraft, die nicht nur das (Ver-)Reisen in der Datengesellschaft grundlegend transformiert. Aufgabe zukünftiger Forschungen, die sich mit digitalen Bewertungspraktiken auseinandersetzen, wird zunächst die Analyse von Bewertungen in weiteren Online-Kontexten sein. Denn es ist davon auszugehen, dass sich die hier geschilderten Merkmale einer Bewertungskultur deutlich von jenen Umgebungen unterscheiden, in denen das Bewerten eine andere Funktion hat, auf ein anderes Objekt bezogen ist und über andere Techniken realisiert wird. Dabei darf weder die Frage nach den spezifischen Anforderungen an die jeweilige Bewertungsgemeinschaft noch die Untersuchung der Effekte auf ihre alltäglichen Routinen und Praktiken aus dem Blick verloren werden. Nur durch das Heranziehen zusätzlicher Beispiele und ihren Vergleich ist es wiederum möglich, auf konzeptioneller Ebene mehr über die Wirkmächtigkeit von Online-Bewertungen als kennzeichnendes Prinzip der Datengesellschaft zu erfahren.

L ITERATUR Airbnb (2014): Building Trust with a new review system. Online unter: http://blog.airbnb.com/building-trust-new-review-system (aufgerufen am 22.11.2017). Airbnb (2016): Airbnb Expands Beyond the Home with the Launch of Trips. Online unter: https://press.atairbnb.com/airbnb-expands-beyond-the-homewith-the-launch-of-trips/ (aufgerufen am 22.11.2017). Airbnb (2017): Über uns. Online unter: www.airbnb.de/about/about-us (aufgerufen am 22.11.2017). AirHostForum (2015): Review Period Update. Online unter: http://www.airhostsforum.com/t/review-period-update/1797/5 (aufgerufen am 22.11.2017). Akehurst, Gary (2009): User generated content: the use of blogs for tourism organisations and tourism consumers. In: Service Business, Vol. 3, No. 1, S. 51-61.

102 | F RISCH & STOLTENBERG

Allan, Anita L. (2008): Dredging up the past: Lifelogging, Memory, and Surveillance. In: The University of Chicago Law Review, Vol. 75, No. 1, S. 47-74. Askay, David A. (2015): Silence in the crowd: The spiral of silence contributing to the positive bias of opinions in an online review system. In: new media & society, Vol. 17, No. 11, S. 1811-1829. Azariah, Deepti Ruth (2017): Tourism, Travel, and Blogging: A discursive analysis of online travel narratives, New York. Baka, Vasiliki (2015): Understanding Valuing Devices in Tourism through ‘Place-making‘. In: Valuation Studies, Vol. 3, No. 2, S. 149-180. Banyai, Maria/Glover, Troy D. (2012): Evaluating research methods on travel blogs. In: Journal of Travel Research, Vol. 51, No. 3, S. 267-277. Belk, Russell (2014): Sharing versus pseudo-sharing in Web 2.0. In: The Anthropologist, Vol. 18, No. 1, S. 7-23. Berger, Edward Alexander/Paris, Cody Morris (2013): Exploring the role of Facebook in re-shaping backpacker’s social interactions. In: Xiang, Zheng/ Tussyadiah, Iis (Hrsg.): Information and Communication Technologies in Tourism 2014, Cham, S. 299-312. Bialski, Paula (2016): Authority and Authorship: Uncovering the Sociotechnical Regimes of Peer-to-Peer Tourism. In: Russo, Antonio Paolo/Richards, Greg (Hrsg.): Reinventing the Local in Tourism: Producing, Consuming and Negotiating Place, Bristol, S. 35-49. Bissell, David (2011): Mobile testimony in the information age: The powers of travel reviews. In: International Journal of Cultural Studies, Vol. 15, No. 2, S. 149-164. Bosangit Carmela/McCabe, Scott/Hibbert, Sally (2009): What is Told in Travel Blogs? Exploring Travel Blogs for Consumer Narrative Analysis. In: Höpken, Wolfram/Gretzel, Ulrike/Law, Rob (Hrsg.): Information and Communication Technologies in Tourism 2009, Wien, S. 61-71. Botsman, Rachel/Rogers, Roo (2010): What’s mine is yours. The rise of collaborative consumption, London. Bridges, Judith/Vásquez, Camilla (2016): If nearly all Airbnb reviews are positive, does that make them meaningless? In: Current Issues in Tourism, S. 119. (Online first) Bunde, Kerstin (2012): „Teilen war nie so einfach“. Interview mit Nathan Blecharczyk. In: Die Zeit Nr. 34/2012 vom 16.08.2012. Online unter: http://www.zeit.de/2012/34/Airbnb-Wohnungsvermietung-Nathan-Blecharczyk/ komplettansicht (aufgerufen am 22.11.2017). Castells, Manuel (1996): The Rise of the Network Society. The Information Age: Economy, Society and Culture Vol. I, Cambridge.

A FFIRMATIVE S UPERLATIVE | 103

Chase, Robin (2015): Peers Inc. How People and Platforms Are Inventing the Collaborative Economy and Reinventing Capitalism, Bristol. Ert, Eyal/Fleischer, Aliza/Magen, Nathan (2016): Trust and reputation in the sharing economy: The role of personal photos in Airbnb. In: Tourism Management, Vol. 55, S. 62-73. Espeland, Wendy Nelson/Sauder, Michael (2007): Rankings and Reactivity: How Public Measures Recreate Social Worlds. In: American Journal of Sociology, Vol. 113, No. 1, S. 1-40. Fagerstrøm, Asle/Pawar, Sanchit/Sigurdsson, Valdimar/Foxall, Gordon R. /Yanide-Soriano, Mirella (2017): That personal profile image might jeopardize your rental opportunity! On the relative impact of the seller’s facial expressions upon buying behavior on Airbnb. In: Computers in Human Behavior, Vol. 72, S. 123-131. Frisch, Thomas (2017): Dynamiken der Grenzziehung und -auflösung im Tourismus 2.0. Bewertungen als Produzenten hybrider Erfahrungsräume. In: Lessenich, Stephan (Hrsg.): Geschlossene Gesellschaften. Verhandlungen des 38. Kongresses der Deutschen Gesellschaft für Soziologie in Bamberg 2016. Frisch, Thomas/Stoltenberg, Luise (2017): Hybride Erfahrungsräume im Tourismus. Neue Formen der Steuerung, Regulierung und Kontrolle von Partizipation. In: Lessenich, Stephan (Hrsg.): Geschlossene Gesellschaften. Verhandlungen des 38. Kongresses der Deutschen Gesellschaft für Soziologie in Bamberg 2016. Gottlieb, Charles (2013): Residential Short-Term Rentals: Should Local Governments Regulate the ‘Industry‘? In: Planning & Environmental Law, Vol. 65, No. 2, S. 4-9. Gretzel, Ulrike/Fesenmaier, Daniel R. (2009): Information technology: shaping the past, present and future of tourism. In: Jamal, Tazim/Robinson Mike (Hrsg.): The Sage Handbook of Tourism Studies, Thousand Oaks, S. 558580. Gurran, Nicole/Phibbs, Peter (2017): When Tourists Move In: How Should Urban Planners Respond to Airbnb? In: Journal of the American Planning Association, Vol. 83, No. 1, S. 80-92. Guttentag, Daniel (2015): Airbnb: disruptive innovation and the rise of an informal tourism accommodation sector. In: Current Issues in Tourism, Vol. 18, No. 12, S. 1192-1217. Hudson, Simon/Thal, Karen (2013): The Impact of Social Media on the Consumer Decision Process: Implications for Tourism Marketing. In: Journal of Travel & Tourism Marketing, Vol. 30, No. 1-2, S. 156-160.

104 | F RISCH & STOLTENBERG

Hvass, Kristian Anders/Munar, Ana María (2012): The takeoff of social media in tourism. In: Journal of Vacation Marketing, Vol. 18, No. 2, S. 93-103. Ikkala, Tapio/Lampinen, Airi (2015): Monetizing network hospitality: Hospitality and sociability in the context of Airbnb. In: Proceedings of the 18th ACM conference on computer supported cooperative work & social computing, Vancouver, S. 1033-1044. Jansson, André (2007): Spatial Phantasmagoria: The Mediatization of Tourism Experience. In: European Journal of Communication, Vol. 7, No. 1, S. 5-24. Jeacle, Ingrid/Carter, Chris (2011): In TripAdvisor we trust: Rankings, calculative regimes and abstract systems. In: Accounting, Organizations and Society, Vol. 36, No. 4-5, S. 293-309. Jefferson-Jones, Jamila (2014): Airbnb and the Housing Segment of the Modern Sharing Economy: Are Short-Term Rental Restrictions an Unconstitutional Taking? In: Hastings Constitutional Law Quarterly, Vol. 42, No. 3, S. 557576. Kagermeier, Andreas/Köller, Julia/Stors, Natalie (2015): Share Economy im Tourismus. Zwischen pragmatischen Motiven und der Suche nach authentischen Erlebnissen. In: Zeitschrift für Tourismuswissenschaften, Jg. 7, H. 2, S. 117-146. Kagermeier, Andreas/Köller, Julia/Stors, Natalie (2016): Airbnb als Share Economy-Herausforderung für Berlin und die Reaktionen der Hotelbranche. In: Bauhuber, Florian/Hopfinger, Hans (Hrsg.): Mit Auto, Brille, Fon und Drohne. Aspekte neuen Reisens im 21. Jahrhundert, Mannheim, S. 67-94. Kjellberg, Hans/Mallard, Alexandre (2013): Valuation Studies? Our collective Two Cents. In: Valuation Studies, Vol. 1, No. 1, S. 9-30. Lamont, Michèle (2012): Toward a Comparative Sociology of Valuation and Evaluation. In: Annual Review of Sociology, Vol. 38, S. 201-221. Larsen, Jonas (2008a): De exoticizing Tourist Travel: Everyday Life and Sociality on the Move. In: Leisure Studies, Vol. 27, No. 1, S. 21-34. Larsen, Jonas (2008b): Practices and Flows of Digital Photography: An Ethnographic Framework. In: Mobilities, Vol. 3, No. 1, S. 141-160. Larsen, Jonas/Urry, John/Axhausen, Kay W. (2007): Networks and tourism: Mobile social life. In: Annals of Tourism Research Vol. 34, No. 1, S. 244262. Lash, Scott/Urry, John (1994): Economies of Signs and Space, London. Lazarow, Andrea (2015): Airbnb in New York City: Law and Policy Challenges. In: International Journal of Knowledge and Innovation in Business, Vol. 2, No. 3, S. 24-52.



A FFIRMATIVE S UPERLATIVE | 105

Lee, Seunghwan/Kim, Dae-Young (2017): Brand personality of Airbnb: Application of user involvement and gender differences. In: Journal of Travel & Tourism Marketing, S. 1-14. Lu, Weilin/Stepchenkova, Svetlana (2015): User-Generated Content as a Research Mode in Tourism and Hospitality Applications: Topics, Methods, and Software. In: Journal of Hospitality Marketing & Management, Vol. 24, No. 2, S. 119-154. Luca, Michael/Zervas, Georgios (2016): Fake It Till You Make It: Reputation, Competition, and Yelp Review Fraud. In: Management Science, Vol. 62, No. 12, S. 3412-3427. Lupton, Deborah (2015): Digital Sociology, London/New York. Mascheroni, Giovanna (2007): Global nomads’ networks and mobile sociality: Exploring new media uses on the move. In: Information, Communication & Society, Vol. 10, No. 4, S. 527-546. Mellet, Kevin/Beauvisage, Thomas/Beuscart, Jean-Samuel/Trespeuch, Marie (2014): A “democratization“ of markets? Online consumer reviews in the restaurant industry. In: Valuation Studies, Vol. 2, No. 1, S. 5-41. Meyrowitz, Joshua (1985): No Sense of Place: The Impact of Electronic Media on Social Behavior, Oxford. Munar, Ana María (2011): Tourist-created content: rethinking destination branding. In: International Journal of Culture, Tourism and Hospitality Research, Vol. 5, No. 3, S. 291-305. Munar, Ana María/Jacobsen, Jens Kr. Steen (2014): Motivations for sharing tourism experiences through social media. In: Tourism management, Vol. 43, S. 46-54. O’Connor, Peter (2008): User-Generated Content and Travel: A Case Study on Tripadvisor.Com. In: Ders./Höpken, Wolfram/Gretzel, Ulrike (Hrsg.): Information and Communication Technologies in Tourism 2008, Wien, S. 4758. Oskam, Jeroen/Boswijk, Albert (2016): Airbnb: the future of networked hospitality businesses. In: Journal of Tourism Futures, Vol. 2, No. 1, S. 22-42. Otterbacher, Jahna (2013): Gender, writing and ranking in review forums: a case study of the IMDb. In: Knowledge and Information Systems, Vol. 35, No. 3, S. 645-664. Pierce, Cindy (2016): Sex, College & Social Media, London/New York. Richardson, Lizzie (2015): Performing the sharing economy. In: Geoforum, Vol. 67, S. 121-129. Sans, Albert Arias/Domínguez, Alan Quaglieri (2016): Unravelling Airbnb. Urban Perspectives from Barcelona. In: Russo, Antonio Paolo/Richards, Greg

106 | F RISCH & STOLTENBERG

(Hrsg.): Reinventing the Local in Tourism Producing, Consuming and Negotiating Place, Bristol, S. 209-228. Schmallegger, Doris/Carson, Dean (2008): Blogs in tourism: Changing approaches to information exchange. In: Journal of Vacation Marketing, Vol. 14, No. 2, S. 99-110. Schor, Juliet (2016): Debating the Sharing Economy. In: Journal of SelfGovernance and Management Economics, Vol. 4, No. 3, S. 7-22. Scott, Susan V. /Orlikowski, Wanda J. (2012): Great expectations: The materiality of commensurability in social media. In: Leonardi, Paul M./Nardi, Bonnie A./Kallinikos, Jannis (Hrsg.): Materiality and organizing: Social interaction in a technological world, Oxford, S. 113-133. Selke, Stefan (2014): Lifelogging als soziales Medium? – Selbstsorge, Selbstvermessung und Selbstthematisierung im Zeitalter der Digitalität. In: Jähnert, Jürgen/Förster, Christian (Hrsg.): Technologien für digitale Innovationen, Wiesbaden, S. 173-199. Simpson, Thomas W. (2012): Evaluating Google as an Epistemic Tool. In: Metaphilosophy, Vol. 43, No. 4, S. 426-445. Star, Susan Leigh/Lampland, Martha (2009): Reckoning with Standards. In: Dies. (Hrsg.): Standards and their stories. How quantifying, classifying, and formalizing practices shape everyday life. Ithaca, London, S. 3-24. Süssenguth, Florian (2015): In Gesellschaft der Daten. In: Ders. (Hrsg.): Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung, Bielefeld, S. 7-14. Tran, Theresa/Yerbury, Hilary (2015): New Perspectives on Personalised Search Results: Expertise and Institutionalisation. In: Australian Academic & Research Libraries, Vol. 46, No. 4, S. 277-290. Tussyadiah, Iis P. (2016): Factors of satisfaction and intention to use peer-topeer accommodation. In: International Journal of Hospitality Management, Vol. 55, S. 70-80. Urry, John (2008): Globalising the Tourist Gaze. In: Babu S., Sutheeshna/Mishra, Sitikanta/Parida, Bivraj Bhushan (Hrsg.): Tourism Development Revisited: concepts, issues and paradigms, London, S. 150-160. van House, Nancy A. (2011): Personal photography, digital technologies and the uses of the visual. In: Visual Studies, Vol. 26, No. 2, S. 125-134. Varma, Arup/Jukic, Nenad/Pestek, Almir/Shultz, Clifford J./Nestorov, Svetlozar (2016): Airbnb: Exciting innovation or passing fad? In: Tourism Management Perspectives, Vol. 20, S. 228-237. White, Naomi Rosh/White, Peter B. (2007): Home and away: Tourists in a connected world. In: Annals of Tourism Research, Vol. 34, No. 1, S. 88-104.

A FFIRMATIVE S UPERLATIVE | 107

Xiang, Zheng/Gretzel, Ulrike (2010): Role of social media in online travel information search. In: Tourism management, Vol. 31, No. 2, S. 179-188. Yannopoulou, Natalia/Moufahim, Monaand/Bian, Xuemei (2013): Usergenerated brands and social media: Couchsurfing and AirBnb. In: Contemporary Management Research, Vol. 9, No. 1, S. 85-90. Zehrer, Anita/Crotts, John C./Magnini, Vincent P. (2011): The perceived usefulness of blog postings: An extension of the expectancy-disconfirmation paradigm. In: Tourism Management, Vol. 32, No. 1, S. 106-113. Zervas, Georgios/Proserpio, Davide/Byers, John. (2015) A First Look at Online Reputation on Airbnb, Where Every Stay is Above Average. Online unter: SSRN: https://ssrn.com/abstract=2554500 (aufgerufen am 22.11.2017). ZwVbG (Zweckentfremdungsverbot-Gesetz) (2013): Gesetz über das Verbot der Zweckentfremdung von Wohnraum. Online unter: http://gesetze.berlin.de/ jportal/?quelle=jlink&query=WoZwEntfrG+BE&psml=bsbeprod.psml&max =true&aiz=true (aufgerufen am 22.11.2017).

Soziotechnische Bedingungen der Datengesellschaft

Schöne Daten! Konstruktion und Verarbeitung von digitalen Daten S OPHIE M ÜTZEL , P HILIPPE S ANER & M ARKUS U NTERNÄHRER

Data Scientists sind eine begehrte Berufsgruppe.1 Mit stetig wachsenden Mengen an generierten und gesammelten digitalen Daten wächst der Bedarf in Unternehmen und anderen Organisationen an Personen, die diese vielen Daten auswerten können. In einem vorausschauenden Kommentar wies Varian, Chefökonom von Google, 2009 auf die Rolle von in der Datenbearbeitung und Datenanalyse ausgebildeten Professionen hin: I keep saying the sexy job in the next ten years will be statisticians. People think I’m joking, but who would’ve guessed that computer engineers would’ve been the sexy job of the 1990s? The ability to take data – to be able to understand it, to process it, to extract value from it, to visualize it, to communicate it – that’s going to be a hugely important skill in the next decades [...].

Seitdem weisen Berichte von Unternehmensberatungen, politischen sowie wissenschaftlichen BeobachterInnen auf die wachsende Nachfrage nach Data Scientists hin (z. B. Manyika et al. 2011), die gemäß einer vielzitierten Selbstbeschreibung diejenigen Personen sind, „who understand how to fish out answers to important business questions from today’s tsunami of unstructured information“ (Davenport/Patil 2012: 73). Das neuentstehende Feld Data Science befindet sich im Prozess der professionellen und akademischen Institutionalisierung, wovon u. a. internationale Konferenzen, die Gründung universitärer Programme, weltweite MOOCs sowie auch Grundsätze der Selbstregulierung zeugen (Brandt

1

Wir danken Bianca Prietl, Daniel Houben sowie Lisa Kressin für hilfreiche Kommentare zu einer früheren Fassung dieses Beitrages.

112 | M ÜTZEL, SANER & U NTERNÄHRER

2016; Walker 2015). Auffälliger Bestandteil dieser Institutionalisierungsprozesse sind zudem Selbstfindungsdiskussionen, denn es ist keineswegs eindeutig oder unumstritten, welche Fähigkeiten Data Scientists kennzeichnen, ob die Bezeichnung eine passende ist, ob nun StatistikerInnen, InformatikerInnen, IngenieurInnen, MathematikerInnen, ÖkonomInnen eigentlich als DatenanalystInnen schon immer Data Scientists waren und welche Fähigkeiten und Kompetenzen von den Unternehmen gesucht werden (für nur einige Diskussionsbeiträge siehe Burtch 2014; Conway 2010; Patil/Mason 2015; Warden 2011). Dieser Beitrag nähert sich dem entstehenden Feld der Data Scientists durch die Daten, mit denen sie arbeiten. Er gliedert sich in ein größeres Forschungsprogramm ein, das unterschiedliche professionelle Felder untersucht, die mit großen Datensätzen arbeiten. Ausgehend von der Annahme, dass es bei der Analyse von großen Datenmengen in erster Linie nicht um die Daten selbst (King 2016), sondern hauptsächlich um deren Verarbeitung, d.h. Erfassung, Aufbereitung, Analyse und Interpretation geht, sollen in Anlehnung an Perspektiven der Science and Technology Studies bzw. der Social Studies of Methods (z. B. Ruppert/Law/Savage 2013; Savage 2013) die eingesetzten Methoden und Instrumente sowie der Aufbau und die Akquisition der dazu erforderlichen Kompetenzen genauer untersucht werden. Im Rahmen dieses Beitrages diskutieren wir dazu Einsichten aus anleitenden Data Science Handbüchern sowie erste Eindrücke einer aktuellen Feldforschung bei einem datenverarbeitenden Unternehmen. Wie müssen Daten aufbereitet sein, damit Analysen möglich sind? Welche Entscheidungen müssen getroffen werden, damit DatenanalystInnen Daten vorliegen haben, mit denen sie arbeiten können? Unsere Untersuchung zeigt, dass und vor allem wie Daten unterschiedlich bewertet werden. Wir zeigen, wie DatenanalystInnen, Marketingfachleute und Mitglieder des Managements Daten nach unterschiedlichen Bewertungslogiken als „schöne Daten“ bewerten. Von ihrer Art sind die Daten, von denen in diesem Beitrag die Rede ist, sowohl Zahlenwerte als auch unstrukturierte Texte. Substantiell, so unsere Argumentation, müssen diese Daten als Materialien verstanden werden, die niemals roh oder rein sind, und die in vielen Schritten bearbeitet und verarbeitet werden, bevor sie Grundlage für empirische Analysen und Erkenntnisse werden – um dann im iterativen Ablauf von data mining Prozessen weiterbearbeitet zu werden. Daten in diesem Sinne sind Ergebnisse historisch kontingenter Entscheidungen, wie Auswahl, Formatierung, Kombination etc. und als solche weder neutral, transparent oder objektiv, sondern immer konstruiert: „,raw data‘ is an oxymoron“ (Gitelman 2013). Unsere Untersuchung zeigt auch, dass das Arbeiten mit diesen anfallenden Daten anspruchsvoll, voraussetzungsvoll und zeitaufwändig ist. Das Reinigen

S CHÖNE D ATEN!

| 113

von Daten, also Entscheidungen darüber zu treffen, wie schmutzige von schönen Daten unterschieden werden können oder wie aus schmutzigen Daten schöne Daten gewonnen werden können, sind fundamentaler Teil jeder Datenbearbeitung und Datenweiterverarbeitung. Seit einigen Jahren wird auch die Datenaufbereitung als wichtiger Bestandteil der Arbeit mit großen Datenmengen erkannt (McAfee/Brynjolfsson 2012: 8) und es wird insbesondere auf die subjektive Prägung (z. B. boyd/Crawford 2012: 667) und die soziotechnischen Kontexte (z. B. Kitchin 2017) dieser Prozesse hingewiesen. Jedoch wissen wir bislang nicht viel über die Praktiken der Datenaufbereitung, auch nicht über die Entscheidungen, die dabei getroffen werden (aber z. B. Tanweer/Fiore-Gartland/Aragon 2016). Diese Entscheidungen, die maßgeblich für Datenkonstruktion und auch für spätere Kategorisierungen und Klassifikationen sind, finden auf einer Hinterbühne statt, die als Produktionsstätte klassischerweise für Außenstehende im Verborgenen liegt und über die auch dort Arbeitende wenig veröffentlichen. In den späteren Ergebnissen der Datenanalysen, also in dem, was auf der Vorderbühne präsentiert wird, werden nur punktuell die „hinter dem Vorhang“ getroffenen Entscheidungen genannt, ohne den Entscheidungsfindungsprozess zu beschreiben. Dieser Beitrag wird einen Blick auf eine solche Hinterbühne werfen. Diese befindet sich im vorliegenden Fall in einem Unternehmen. Wir gehen jedoch davon aus, dass sich entsprechende Erkenntnisse gleichermaßen auf andere Kontexte, wie etwa der Bearbeitung von großen, unstrukturierten Datenmengen im Rahmen sozialwissenschaftlicher Fragestellungen, übertragen lassen (z. B. Jungherr 2015; Munzert et al. 2015). Somit soll dieser Beitrag auch zur Reflektion der eigenen sozialwissenschaftlichen Praxis im Umgang mit Datenbereinigung und damit der Datenkonstruktion einladen. Denn auch unsere traditionellen, disziplinären Kriterien der Bearbeitung stehen mit dem Vorhandensein von neuen digitalen bzw. digitalisierten, oftmals unstrukturierten Daten, – noch bevor es überhaupt zu einer ersten Analyse kommt – vor neuen Herausforderungen. Bereits in der Datenaufbereitung, dem preprocessing, müssen Entscheidungen getroffen werden, die weitreichende Auswirkungen auf die Analyse haben können, für die SozialwissenschaftlerInnen jedoch oft nur ungenügend vorbereitet sind (DiMaggio 2015; Mützel 2015).2 Der Beitrag beschäftigt sich zunächst mit messy data im entstehenden Feld der Data Science und stellt disziplinäre Perspektiven für deren Aufbereitung vor. Anschließend stellen wir ethnografisch gewonnene Einblicke in Entscheidungs-

2

Diese Herausforderung durch neue große digitale Datenmengen zieht sich durch alle mit Daten arbeitenden Professionen.

114 | M ÜTZEL, SANER & U NTERNÄHRER

bildungsprozesse in einem datenverarbeitenden Unternehmen, Earlybird3, vor. Hier wird auch eine gleichzeitige Vielfalt von Bewertungslogiken und Interpretationen ersichtlich, die kennzeichnend ist für Arbeitsschritte, in denen es nicht um Lösungen für klar umrissene Probleme geht, sondern um Suchprozesse als „the kind of search during which you do not know what you are looking for but will recognize it when you find it“ (Stark 2009: 1). Im Fazit wird diese Diskussion erneut aufgenommen.

M ESSY D ATA Im Sitzungszimmer von Earlybird wird diskutiert, von welcher Qualität die Daten in Earlybirds Kundendatenbank sind. Der Senior Datenanalyst präsentiert der Geschäftsleitung, wie er und seine Mitarbeiter die Qualität der Daten evaluiert haben. Zu Beginn erscheint der Prozess simpel: Bei 4000 „Membern“, so werden KundInnen in diesem Unternehmen genannt, ist im Feld „Anrede“ eine Null enthalten (anstelle einer 1 für männlich oder 2 für weiblich); von einem Prozent aller Member sei das Geschlecht also unbekannt. Der strategische Geschäftsführer hakt nach, wie sie auf diesen einen Prozentpunkt kommen, und stößt damit eine Diskussion an: was ist die Grundgesamtheit? Es ist nicht ganz klar, ob sich diese auf die gesamte Datenbank bezieht – also alle Member, die jemals erfasst wurden – oder auf die aktuell aktiven. Der Junior Datenanalyst, der die Analyse vorgenommen hat, erklärt: In der Datenbank existiere eine Markierung, eine sogenannte „Flag“, die aktive Member markiert. Wenn man im Administrationssystem nachschaue, dann werden 350.000 aktive Member ausgegeben, wirft die Leiterin des Kundenmanagements ein. Das könne nicht sein, so der strategische Geschäftsführer, es müssten zirka 250.000 aktive Member sein. Der operative Geschäftsführer weist darauf hin, dass sie zu Beginn die Memberdaten von Hand eingegeben mussten; als die Webseite aufgeschaltet war, konnten die Member sich selbst auf der Webseite registrieren. Mittlerweile werden die meisten Memberdaten von Partnerunternehmen erfasst und größtenteils automatisch, teilweise aber auch manuell, an Earlybird weitergeleitet. Zu einem späteren Zeitpunkt in der Diskussion wird angedeutet, dass bereits eine Bereinigung der Memberdatenbank vorgenommen wurde, um unvollständige, fehlerhafte oder veraltete Daten zu entfernen – wie sich herausstellt, hat das aber nicht restlos geklappt. Der strategische Geschäftsführer zeigt sich etwas ungeduldig darüber, wie aufwendig es ist, qualitative hochstehende Daten zu sammeln und

3

Name geändert.

S CHÖNE D ATEN!

| 115

damit überhaupt erst das Fundament für die Datenauswertung zu legen. Der operative Geschäftsführer verweist auf zwei Abwesende, die wissen, was es mit der Markierung von aktiven und passiven Membern auf sich hat. Messiness, der schmutzige und unordentliche Zustand von Daten, der sich im vorangehenden Beispiel auf unterschiedliche Weise äußert (unvollständige, fehlerhafte oder veraltete Daten, unklare Grundgesamtheit, unterschiedliche Modi der Datenerfassung etc.), ist nach Mayer-Schönberger und Cukier (2013) ein elementarer Bestandteil von Big Data. Die Schmutzigkeit und Unordnung der Daten spiegele die reale Welt wider. Anstatt um Präzision ginge es bei der Auswertung von großen Datensätzen eher um die Berechnung von Wahrscheinlichkeiten (a. a. O.: 35). Letztendlich müssten die analytischen Werkzeuge so angepasst werden, dass sie flexible und adaptive Ergebnisse anstelle von fixen Taxonomien liefern (a. a. O.: 43). In diesem Sinne bestätigt auch der Senior Datenanalyst von Earlybird, dass ein Großteil der Arbeit aus solchen Überprüfungs- und Datenaufbereitungsaufgaben und nicht aus der Datenauswertung selbst besteht. Diese Feststellung wird durch die wenigen empirischen Erhebungen bestätigt, die es bis dato zu den Arbeitspraktiken von Data Scientists gibt: Eine Befragung von Data Scientists in den USA zeigt, dass die größte Herausforderung und gleichzeitig die zeitintensivste Aufgabe das Aufbereiten und Bereinigen von „messy data“ ist (CrowdFlower 2015). Umgekehrt bleibe nur sehr wenig Zeit für die zwei beliebtesten Tätigkeiten, nämlich „predictive analysis“ sowie das „mining data for patterns“ (a. a. O.: 7), also zwei jener sexy skills, die Varian (2009) beschreibt. Hinweise auf das Verhältnis von 80 Prozent für Datenerhebung, Aufbereitung und Bereinigung zu lediglich 20 Prozent für Modellierung, Berechnung und Visualisierung an der jeweiligen Arbeitszeit von Data Scientists finden sich in verschiedenen Ausprägungen auch in wissenschaftlichen Publikationen (z. B. Wickham 2014), Praxishandbüchern (z. B. Grolemund/Wickham 2017), Medienberichten (z. B. Lohr 2014) und Blogbeiträgen (z. B. Mayo 2017; Wilson 2017). Disziplinäre Perspektiven auf messy data Welche Antworten finden sich in wissenschaftlichen Disziplinen, die sich dem Feld der Datenanalyse verschrieben haben und in denen ein Großteil der heutigen Data Scientists ausgebildet werden, auf das Problem der messiness und den zeitraubenden Umgang damit? Erwartungsgemäß existieren sehr unterschiedliche Perspektiven und Herangehensweisen. Eine grundlegende Differenz zeigt

116 | M ÜTZEL, SANER & U NTERNÄHRER

sich etwa darin, ob der primäre Fokus beim data preprocessing auf der Strukturiertheit eines Datensatzes oder auf den darin enthaltenen Informationen liegt. Aus Sicht der Statistik, die sich auf tabellarische Datensätze mit Spalten, Zeilen sowie verhältnismäßig wenigen Beobachtungen (small data) konzentriert, ist jeder Datensatz „messy“, der nicht „tidy“ ist, wobei für tidy data folgende Kriterien angeführt werden: jede Variable ist eine Spalte, jede Beobachtung eine Zeile, jeder Wert eine Zelle und jeder Typ von Beobachtungen eine Tabelle (Wickham 2014: 4).4 Diese Sichtweise konzentriert sich sehr viel stärker auf die Struktur eines Datensatzes als auf die darin enthaltenen, möglicherweise fehlerhaften Informationen. Das „Aufräumen“ des Datensatzes kommt dabei immer vor dessen Exploration: „The tidy data standard has been designed to facilitate initial exploration and analysis of the data, and to simplify the development of data analysis tools that work well together“ (a. a. O.: 1). In dieser Perspektive fehlen jedoch Anleitungen für die Bereinigung von fehlerhaften oder unzuverlässigen Informationen, die in den jeweiligen beobachteten Werten enthalten sind, sowie zu unstrukturierten Datenquellen wie Text, Audio, Bild oder Video (z. B. Grolemund/Wickham 2017: xiii). Die Computerwissenschaften und auch die Wirtschaftsinformatik beschäftigen sich mit verschiedenen Techniken zur (semi-)automatischen Bereinigung von fehlerhaften oder unvollständigen großen Datensätzen bzw. Datenbanken (large data sets bzw. databases), wie sie oft in Unternehmen oder anderen datenverarbeitenden Organisationen verwendet werden (z. B. Hellerstein 2008; Han/Kamber/Pei 2012). Dabei kommen verschiedene Datentypen zur Sprache, die neben den für die Sozialwissenschaften und Statistik vertrauten numerischen und „categorical data“ (z. B. Produktnamen oder -gruppen) auch Daten wie Postadressen oder Identifier (Telefonnummern, Produktcodes, Sozialversicherungsnummern etc.) umfassen, die sowohl in Textform, numerisch als auch in Mischformen vorliegen können (Hellerstein 2008: 4). Als grundlegende Fehlerkategorien werden „data entry“, „measurement“ und „distillation errors“, die sich auf die Datenerfassung beziehen (a.a.O: 2), sowie „integration“ und „transmission errors“ genannt, wie sie bspw. bei der Integration verschiedener Datensätze in sogenannten Data Warehouses auftreten (Han/Kamber/Pei 2012: 91). Es existieren diverse Tools, die eine spezifische Verbesserung der Qualität bei der Eingabe, Migration oder Transformation der jeweils relevanten Daten unterstützen. Im Zusammenhang mit Dateneingabe und Bereinigung ist auch der Aspekt des Interface Design relevant. Gemäß dem in der Welt des data processing gän-

4

Diese Kriterien haben auch für die mit quantitativen Daten arbeitenden Sozialwissenschaften Gültigkeit (Lazer/Radford 2017: 20).

S CHÖNE D ATEN!

| 117

gigen Sinnbild von „garbage in, garbage out“5 liegt hierbei der Fokus auf die Ausgestaltung der Datenerfassung, die z. B. mit Hilfe einer Eingabemaske qualitativ verbessert werden soll. Die Fortschritte in data mining Techniken der letzten Jahrzehnte erlauben so auch, dass aus messy data gehaltvolle Analysen und Erkenntnisse gewonnen werden können (ebd.). Dies verweist auf die generelle Potentialität von Daten im Rahmen von organisationalen Datenaufbereitungen und Datenanalysen, bei denen nicht immer im Vornherein klar ist, wonach überhaupt gesucht wird oder welche Einsichten durch die Analyse von Daten angestrebt werden, sondern die Erfassung und Verfügbarkeit von großen Datensätzen an sich einen Mehrwert darstellt (Mayer-Schönberger/Cukier 2013). Wie umgehen mit messy data? Real-world data sets have missing decimal points, extra zeroes, typographical errors, and countless other problems that it’s your job to catch. (Maybe it’s not officially your job, but who else is going to do it?) (GRUS 2015: 129)

Zusätzlich zu Methodenbüchern der Statistik oder Informatik bieten sich stärker praxisorientierte Handbücher an, die sich explizit an DatenanalystInnen in Unternehmen und anderen datenverarbeitenden Organisationen richten und von denen auch genutzt werden. Auch diese beschreiben die Vorgehensweisen von Data Scientists im Sinne eines Prozesses, bei dem die Schritte der Datenerhebung, Datenaufbereitung und Datenbereinigung zentral und auf gleicher Stufe wie die Modellierung, Analyse oder Evaluation stehen (O’Neil/Schutt 2013: 41; Provost/Fawcett 2013: 27). Die Kapitelinhalte in den Handbüchern stellen jedoch das Verhältnis zwischen den einzelnen Schritten in dezidiert umgekehrter Relation dar: 90% des Textumfangs widmen sich unterschiedlichen Techniken der Modellierung, Berechnung oder Visualisierung und lediglich 10% der Datenerhebung, Aufbereitung und Bereinigung. In zwei vielzitierten Handbüchern finden sich nur wenige, konkrete Hinweise zu den Arbeitsschritten des data preprocessing: O’Neil und

5

Zu viele Einschränkungen an die BenutzerInnen führten jedoch dazu, dass diese versuchten, die Angaben so zu erfassen, dass sie vom System vor allem akzeptiert werden, woraus ebenfalls fehlerhafte Daten resultieren (Hellerstein 2008: 34).

118 | M ÜTZEL, SANER & U NTERNÄHRER

Schutt fassen im Handbuch Doing Data Science: Straight Talk from the Frontline (2013: 41) den Prozess der Datenaufbereitung in den folgenden Sätzen zusammen: So we build and use pipelines of data munging: joining, scraping, wrangling, or whatever you want to call it. To do this we use tools such as Python, shell scripts, R, or SQL, or all of the above. Eventually we get the data down to a nice format, like something with columns: name | event | year | gender | event time.

Diese Beschreibung, die diverse unterschiedliche Bearbeitungsschritte umfasst („joining, scraping, wrangling“), verweist auf Programmiersprachen und Software („Python, shell scripts, R, or SQL“), in denen diese Schritte ausgeführt werden können, gefolgt von der hervorgehobenen Bemerkung: „This is where you typically start in a standard statistics class, with a clean, orderly dataset. But it’s not where you typically start in the real world“ (a. a. O: 42).6 Obwohl die Autorinnen auf diese Problematik hinweisen, bleibt eine vertiefende Auseinandersetzung mit den einzelnen Schritten innerhalb des „data science process“ aus. Provost und Fawcett konzentrieren sich in einem weiteren vielzitierten Handbuch, Data Science for Business. What You Need to Know about Data Mining and Data-Analytic Thinking (2013), auf die dateninduzierte Lösung von Problemen innerhalb von Unternehmen. Das Buch ist u. a. deshalb interessant, weil es tatsächlich bei der Besprechung von Problemstellungen der Datenerhebung, Prozessierung sowie Auswertung im Alltag des beobachteten Unternehmens verwendet wird. Als zentral erachten die Autoren eine konkrete Problemstellung im jeweiligen Geschäftsfeld, die gelöst werden soll: „business understanding“. Dabei schildern sie einige allgemeine Herausforderungen (wie die Datenformatierung oder das Skalenniveau von Variablen), die sich bei der Vorbereitung von Daten für die Analyse ergeben (a. a. O: 30f.). Konkreter werden die Autoren in einem kurzen Unterkapitel zu den Herausforderungen bei der Analyse von Textdaten. Textdaten werden dabei als „unstructured“, weil oft nur beschränkt in einem maschinenlesbaren Format vorliegend, sowie als „relatively dirty“ beschrieben, da eine hohe Fehleranfälligkeit bei der Erfassung von Text in Eingabemasken besteht (a. a. O.: 249ff.). Nach diesen einleitenden Bemerkungen zur Unstrukturiertheit von Textdaten leiten die Autoren direkt über zu ver-

6

Hinweise auf die Divergenz von bereinigten und präformatierten Übungsdatensätzen und der messiness von Daten in der realen Welt finden sich in diversen Handbüchern zu Data Mining und Data Science (z. B. Han/Kamber/Pei 2012: 84; Provost/Fawcett 2013: 249; Grus 2015: 127).

S CHÖNE D ATEN!

| 119

schiedenen Techniken der Textanalyse, wie term frequency, inverse document frequency, die Bildung von n-grams oder topic models. Die dazu notwendigen und komplexen Schritte der Vorbereitung, wie bspw. das Entfernen von als unwichtig angenommenen Stoppwörtern oder die Reduzierung von Begriffen auf ihren Wortstamm (stemming), die im Bereich des natural language processing benutzt werden (z. B. Jurafsky/Martin 2009), kommen hingegen nur im Rahmen der genannten Analyseschritte vor. Dieser kurze und keineswegs abschließende Einblick in Data ScienceHandbücher verweist darauf, dass die Herausforderungen bei der Datenerhebung und -aufbereitung zwar anerkannt werden, diesen dennoch vergleichsweise wenig Beachtung geschenkt wird.7 Alternativen für eine niederschwellige Unterstützung bei konkreten Problemen der Datenbearbeitung finden sich insbesondere auf Blogs und Hilfeforen wie Stack Overflow, das spezifisch für Fragen der Softwareprogrammierung gegründet wurde.8 Die Annahme liegt nahe, dass solche mühsamen, zeitaufreibenden Tätigkeiten des data cleaning, munging oder wrangling keinen Platz finden in den euphorischen Selbstbeschreibungen und Zukunftsversprechungen von Data Science als „the sexiest job of the 21st century“ (Davenport/Patil 2012). Auch für das wissenschaftliche Feld kann gelten, dass diese Arbeitsschritte selten umfassend dokumentiert oder ausgewiesen werden, zumal damit kaum wissenschaftliches Kapital gewonnen werden kann. Die-

7

Neben Handbüchern können auch MOOCs hilfreiche Unterstützung bieten, die fokussierter auf spezifische Probleme im „data science process“ eingehen und eine kürzere Erarbeitungszeit bedingen als (gedruckte) Handbücher. Obwohl viele MOOCs Inhalte zur Datengenerierung und Aufbereitung beinhalten, sind Kurse, die sich explizit diesen wichtigen Schritten widmen, ebenfalls selten. Beispiele sind die MOOCs „Getting and Cleaning Data“ auf Coursera (John Hopkins University 2017), „Data Wrangling with MongoDB“ auf Udacity (MongoDB 2017) sowie Kurse zu „Importing and Cleaning“ auf DataCamp (2017). Es gibt ferner auch Tools, die neben den klassischen Programmierwelten, beim Untersuchen, Strukturieren und Bereinigen von großen Datenmengen helfen können, z. B. Trifacta Wrangler.

8

Abfragen über die Suchmaske von Stack Overflow (https://stackoverflow.com/search) deuten darauf hin, dass erste Hilfe bei Problemen der Datenbereinigung und Aufbereitung möglicherweise eher in solchen niederschwelligen Onlineforen gesucht wird, entspricht doch das Verhältnis von Fragen zur Datenbereinigung eher jener der Datenanalyse, wie dies in den erwähnten Publikationen angeführt wird: Eine Suche mit den Stichworten „how to clean data“ bzw. „data cleaning“ ergibt jeweils mehr relevante Ergebnisse als die Suche mit den Stichworten „how to analyse OR analyze data“ bzw. „data analysis OR analysing“.

120 | M ÜTZEL, SANER & U NTERNÄHRER

se Arbeiten verbleiben verborgen und unpubliziert auf der Hinterbühne. Unser Argument ist jedoch, dass eine Beschäftigung mit eben diesen verborgenen Entscheidungsbildungsprozessen zu einer vertieften Auseinandersetzung mit iterativen Such- und Aufbereitungsprozessen in datenverarbeitenden Organisationen der Ökonomie, aber auch in der Wissenschaft, beitragen und somit auch wichtige Einblicke in die Vorstrukturierung späterer Analyseergebnisse liefern. Nach diesem Blick in einschlägige Handbücher leisten die folgenden Ausführungen aus der Feldforschung dazu einen weiteren Beitrag.

D ATENKLASSIFIKATION IN EINEM U NTERNEHMEN Markus Unternährer war von Oktober 2016 bis April 2017 teilnehmender Beobachter in dem datenverarbeitenden Unternehmen Earlybird. In Projektsitzungen, bei informellen Gesprächen und durch die eigene Mitarbeit konnte er vielfältiges Datenmaterial erheben. Die teilnehmende Beobachtung erlaubte Einblick in laufende Entscheidungsbildungsprozesse, die sowohl Datenerhebung, Datenbearbeitung und Datenauswertung, also die Verdatung9, als auch die weitergehende strategische Ausrichtung des Unternehmens betreffen. Die nun folgenden Ausführungen sind Teil dieser ethnografischen Forschung. Sie beruhen auf Feldnotizen und Erinnerungsprotokollen sowie auf zur Verfügung gestellten Dokumenten. Wenn in der Beschreibung Begriffe wiedergegeben werden, wie sie auch die Personen im Feld verwenden, so ist deren erstmalige Verwendung mit Anführungszeichen hervorgehoben. Das Unternehmen Earlybird hat zirka 25 Angestellte. Es betreibt für mehrere Banken ein Programm der Kundenakquise und der Kundenbindung: Jugendliche und junge Erwachsene erhalten Rabatte bei über 600 Partnerunternehmen, mit denen Earlybird Angebote ausgehandelt hat, beispielsweise 20 Prozent Rabatt für eine Mahlzeit in einem Fastfood Restaurant. Im Gegenzug erhalten die Partnerunternehmen über Earlybird Zugang zu den über 200.000 aktiven „Membern“, also den Jugendlichen und jungen Erwachsenen, die über verschiedene Publikationskanäle erreicht werden können: Viermal im Jahr erhalten alle Member per Post einen kleinen Katalog, in dem die ausgehandelten Angebote verzeichnet sind. Earlybird betreibt auch eine Webseite sowie eine App für iPhones

9

Für ein soziologisches Verständnis von Verdatung siehe z. B. Mämecke/Passoth/ Wehner (2018) oder Duttweiler et al. (2016), für eine medienwissenschaftliche Perspektive z.B. Otto/Schneider (2007). Zum Begriff datafication: Mayer-Schönberger/Cukier (2013).

S CHÖNE D ATEN!

| 121

und Android Mobiltelefone. Diese erheben Daten über Präferenzen, wie das Markieren von Herzchen, und zur Nutzung. Die Member können über die Webseite und die App an Umfragen und Verlosungen teilnehmen, um diverse Preise zu gewinnen. Insbesondere die Entwicklung der App hat das ausdrückliche Ziel, „möglichst viel über die Member und ihre Interessen zu erfahren“. Möglichst viel über die Member zu wissen, ist keineswegs eine triviale Angelegenheit. In der Praxis beginnt die Herausforderung damit, überhaupt etwas über die Member in Erfahrung zu bringen und dieses Wissen in bedeutungsvoller Weise anzuwenden – beispielsweise für die Suche nach neuen, attraktiveren Partnerunternehmen bzw. Angeboten oder um potentielle Neumitglieder zu erreichen. Was es heißt, mit Hilfe von Daten Wissen über die Member zu generieren, entfaltet sich sowohl für den wissenschaftlichen Beobachter als auch für die Mitarbeitenden selbst erst allmählich im Laufe der Zeit. Wie Daten gesammelt werden, welches die richtigen Daten sind und wie aus diesen Daten Erkenntnisse gewonnen werden können, denen vertraut werden kann, zeigen wir nun anhand einer protokollierten Sitzung, einem „Meeting“ in der Sprache des Unternehmens Earlybird. Das Meeting wird geleitet von Simon, Professor für Informatik an einer Fachhochschule und Senior Datenanalyst bei Earlybird. Anwesend sind ferner ein Junior Datenanalyst, der mit Simon die Daten bearbeitet hat, der strategische sowie der operative Geschäftsführer, der Leiter der Abteilung für digitale Weiterentwicklung, die Leiterin des Kundenmanagements und ein Marketing-Mitarbeiter. Thematisch ist das Meeting in drei Teile gegliedert: Im ersten Teil präsentiert Simon eine deskriptive Auswertung der vorliegenden Daten zur letzten Preisverlosung. Daran anknüpfend plädiert er im zweiten Teil für die Etablierung eines „Data Quality Reporting“ für die „Memberdatenbank“. Schließlich stellt Simon dar, welche Art der Datenanalyse möglich wäre mit solchen „schönen Daten“, wie sie die letzte Preisverlosung produziert hat. Der Leiter der Abteilung für digitale Weiterentwicklung eröffnet das Meeting: Er hätte die Daten, die bei der letzten Preisverlosung angefallen sind, an Simon gesendet, damit er sich damit „austoben“ könne. Er erklärt weiter, das heutige Meeting sei einberufen worden, um den Mitarbeitenden und dem operativen Geschäftsführer zu demonstrieren, was mit Daten eigentlich alles möglich sei, wenn man sie „in diese Richtung“ erhebt. Im Zentrum des Meetings steht Simons Präsentation eines Entwurfes für ein periodisches Data Quality Reporting, das den Inhalt einzelner „Datentöpfe“ einem Rating unterzieht und strategische Entscheide bezüglich des Weitersammelns ermöglichen soll, zum Beispiel welche Maßnahmen getroffen werden müssen, um die Datenqualität zu verbessern,

122 | M ÜTZEL, SANER & U NTERNÄHRER

oder ob gewisse Datentöpfe gar nicht mehr erhoben werden sollen. Simon stellt fest, dass „Datenauswertungen nur dann sinnvoll sind, wenn die Datenqualität gut genug ist“. Erst dann kann den Resultaten einer Auswertung auch vertraut werden. Daten in diese Richtung erheben Der Fokus des Meetings ist: in welche Richtung sollen oder müssen Daten erhoben werden, damit möglich wird, was mit Daten alles möglich ist. Was ist es, was möglich ist? Und was heißt, Daten in diese Richtung zu erheben? Eine Entscheidung, die das Unternehmen Earlybird bereits getroffen hat, ist, zunächst keine weiteren Ressourcen in die Erhebung von „expliziten“ Daten zu Präferenzen und Interessen zu stecken. Solche expliziten Daten, die über die grundlegenden Informationen wie Name, postalische Adresse und Geburtsdatum der Memberdatenbank hinausgehen, sind für Earlybird potentiell teure Daten: So müssen mit verschiedenen „Kommunikationsmaßnahmen“ die Member aufgefordert werden, zum Beispiel in ihrem Profil auf der Webseite ihre Interessen mit einem Klick anzugeben. Als beispielhafter Fall für solche teuren, expliziten Daten wird eine Marketingaktion eines Schweizer Einzelhändlers angeführt. Da dessen Kundenbindungsprogramm Kundengeburtstage feiert, wurde ein Brief verschickt, in dem die Kunden gebeten wurden, ihr Geburtsdatum zu bestätigen oder zu korrigieren, damit sie zum richtigen Zeitpunkt ein Geschenk erhalten würden. Um individuelles „Profiling“ zu betreiben bzw. „Zielgruppen“ identifizieren zu können, so Simon, sei das Geburtsdatum für den Einzelhändler wichtig. Der mit Kosten verbundene Aufwand die Datenbank von messy data zu befreien, erschien dem Einzelhändler offenbar gerechtfertigt. Simon bezeichnet dieses Vorgehen als „teure Variante des Data Cleaning“. Er betont auch, dass diese Form der Datenerhebung gerechtfertigt sein kann, sofern die strategische Bedeutsamkeit vorab geklärt und der Mehrwert der Erhebung ersichtlich ist. Um nun für Earlybird zu eruieren, in welchen Fällen den gesammelten Daten der Member-Datenbank zu trauen ist, schlägt Simon ein Data Quality Reporting vor, das die Datenqualität einzelner Datentöpfe mit 1 bis 5 Sternen bewertet. Für einige der Datentöpfe (z. B. Attribute wie Geschlecht oder Ausbildungsstatus) haben er und sein Team exemplarische Einschätzungen vorgenommen. Beispielsweise ist das Feld „Anrede“ ein Datentopf mit 5-Sternen. Das Feld kann drei Werte beinhalten: 0, 1 oder 2. Der Defaultwert ist 0, 1 steht für männlich und 2 für weiblich. Die Existenz eines Defaultwertes, der nicht gleichzeitig einer gültigen Kategorie entspricht, wird von Simon als besonders wichtig hervorgehoben. Wird das nicht so gemacht, komme es zu mehrdeutigen Angaben, wie im

S CHÖNE D ATEN!

| 123

Falle der Präferenzangaben: Member können, sofern sie auf der Webseite eingeloggt sind, mit Klicks Präferenzen für Freizeit-, Unterhaltungs- oder Konsumangebote markieren. Die Datenbank erfasst einen Klick als eine 1, während jedes leere Kästchen entweder als fehlende Präferenz oder als simples Nichtausfüllen verstanden werden kann. Beide Aussagen werden gleichermaßen mit einer 0 in der Datenbank registriert. Hier zeigt sich auch das Problem der notwendigen Bewirtschaftung expliziter Daten: Nur knapp 8 Prozent der aktiven Member haben bisher Präferenzangaben gemacht. Dieser Datentopf erhält in der Konsequenz einen Stern und die Empfehlung, die „[s]trategische Relevanz [zu] klären“.10 Simon präsentiert in dem Meeting eine erste deskriptive Auswertung einiger Daten, wie „Alter“ und „Wohnort“, die im Rahmen der letzten Preisverlosung erhoben wurden. Hierbei weist Simon auf eine Merkwürdigkeit hin: Das Durchschnittsalter der Member im Datensatz liegt bei zirka 30 Jahren, was viel zu hoch sei, da eine Mitgliedschaft nur bis maximal 30 Jahre möglich ist: „smells fishy“, lautet die Beurteilung. Es erfolgt eine Überprüfung. Die Vermutung ist, dass es an einer Verunreinigung der Daten liegt. Nach einer genaueren Betrachtung der Daten der Member, die an der Verlosung teilgenommen haben, äußern die Anwesenden die Vermutung, dass es sich zumindest bei einigen um ältere Bankmitarbeitende handeln könnte, die mit ihren Testkonten teilgenommen haben. Dies ist problematisch, da – wie oben gesehen – Testuser in der Memberdatenbank nicht als solche vermerkt sind. Simon nutzt diesen Befund erneut, um die Wichtigkeit des Data Quality Reporting zu betonen: „Den Auswertungen ist nur zu vertrauen, wenn auch den Daten zu trauen ist“. Eine Auswertung, die auf einem Datentopf mit 5-Stern-Auzeichnung beruht, ist vertrauenswürdig. Beruht sie auf einem Datentopf mit 3 oder weniger Sternen, muss die Auswertung als spekulativ betrachtet werden, so Simon. Bevor Auswertungen sinnvoll sind, erklärt Simon, muss sichergestellt werden, dass die Datenqualität genügend gut ist bzw. besser werden kann. Die Voraussetzungen für eine hohe Datenqualität sind – so wird im Unternehmen diskutiert – eine adäquate Konfiguration bzw. Standardisierung der informationstechnischen Infrastruktur; die Umstellung weg von expliziten Daten hin zu weniger eingabeintensiven Daten, wie das Setzen von Herzchen, das Kommentieren von Angeboten, und auch getrackten Nutzungsdaten, sowie ein grundlegendes Verständnis für die Erhebung und Auswertung von Memberdaten bei allen Mitarbeitenden. Es geht also um die Konfiguration von Technologien, Prozessen und Ausführenden.

10 Wie im schriftlichen Bericht vermerkt, der später verschickt wurde.

124 | M ÜTZEL, SANER & U NTERNÄHRER

Wird beispielsweise eine Verlosung durchgeführt, muss die Eingabemaske so eingestellt sein, dass die Teilnehmenden ihr Geburtsdatum nur auf eine Weise eingeben können, d.h. vollständig und im gewünschten Format (z. B. TT/MM/YYYY).11 Zudem soll sichergestellt werden, dass eine Teilnahme nur dann möglich ist, wenn das Feld auch tatsächlich ausgefüllt wurde.12 Simon bemerkt auch, dass sich eine Verbesserung der Datenqualität von selbst einstellen kann, wenn Daten vermehrt auf automatisierte und standardisierte Weise gesammelt werden. Die Besonderheit von Earlybird liegt darin, dass die Member ab einem gewissen Alter (je nach Bank zwischen 26 und 30 Jahren) den Anspruch auf Mitgliedschaft und damit auf Angebote verlieren. Die alten Member werden zwar nicht aus der Datenbank entfernt, doch wenn die Analyse auf die aktiven Member eingeschränkt wird, so werde im Laufe der Zeit die Datenverschmutzung von selbst zurückgehen. Alte Daten werden somit abgestoßen und nur noch die frischen Daten berücksichtigt.13 Diese Hoffnung auf Verbesserung der Datenqualität könnte man auch in Bezug auf die Umstellung von expliziten auf weniger eingabeintensive Daten haben, da vor allem die getrackten Nutzungsdaten vermeintlich verschmutzungsresistent sind, so Simon. Doch gegen diese Ansicht führt Simon zwei Aspekte an: Einerseits finden sich auch bei den weniger eingabeintensiven Daten Anomalien. Ein Member hat beispielsweise jedes einzelne Angebot mit einem Herzchen markiert. Simon vermutet zwar, dass das ein „Testuser“ sei, doch das müsste in der Member-Datenbank in einem eigenen Feld („Flag“) festgehalten werden. Da einige solcher Testuser existieren, sei es möglich, dass diese, sofern sie nicht herausgenommen werden, die ganze Analyse „zerschießen“ könnten – beispielsweise wenn Mittelwerte der Herzchen errechnet werden. Andererseits zieht Simon die hypothetische Möglichkeit in Betracht, dass datengenerierende Systeme oder Teile davon aufgrund eines Programmierfehlers ausfallen oder nur un-

11 Vgl. dazu die Abschnitte zu messy data, wie mit Hilfe von Interface Design versucht wird, data entry errors zu minimieren. 12 In der beobachtenden Diskussion gilt das als relevant, weil Namen und Geburtsdaten für die Identifikation über verschiedene Datentöpfe relevant sind. Bei der vorliegenden Preisverlosung war es nicht zwingend notwendig, das Feld „Geburtstag“ auszufüllen: Dementsprechend haben viele gar nichts angegeben oder nur unvollständige Angaben gemacht (z. B. nur das Jahr oder nur Tag und Monat). 13 Die Frage nach aktuellen und veralteten Daten stellt sich auf andere Weise auch bei der Entwicklung eines hauseigenen Recommendersystems: Wie lange bleiben einmal ausgedrückte Präferenzen aktuell bzw. welcher „discounting factor“ erscheint angebracht?

S CHÖNE D ATEN!

| 125

regelmäßig Daten erfassen. Ein periodisch durchgeführtes Data Quality Reporting würde sowohl eine Verbesserung als auch einen Teil- oder Totalausfall registrieren. Da Earlybird ein Anbieter von Kundenbindungsangeboten für Dritte ist, stellt sich die Frage, wie die Daten von den Banken – den eigentlichen Kundinnen – zu Earlybird „wandern“: Simon mutmaßt, dass jemand auf Seite jeder Bank diese Daten wahrscheinlich exportiert und eine andere Person bei Earlybird diese wieder importiert – ein Prozess der fehleranfällig sei, wenn er nicht standardisiert verläuft. Mit manchen Banken wurde eine automatisierte Datenschnittstelle zu Earlybird eingerichtet, andere geben die Daten aber noch von Hand ein und reichen sie in Form von elektronischen Spreadsheets weiter. Neben der Automatisierung der Datensammlung durch getrackte Nutzungsdaten und weniger eingabeintensive Daten strebt Earlybird auch die Automatisierung des Reportings an. Der Hauptaufwand bestehe vor allem in der Erstellung des ersten Reportings, da damit gemäß Simon eine aufwendige Nachverfolgung bei allen beteiligten Datenerhebungs- und Datenweiterverarbeitungsquellen verbunden ist. Beispielsweise sei für einige wenige Datentöpfe unklar, was die numerischen Werte bedeuten: Dieses Wissen ist nicht in der Datenbank selbst abgespeichert, sondern liegt bei denjenigen, die die Datenbank programmiert haben, die die Daten eingetragen habe oder die mit ihr arbeiten. Sind solche Unklarheiten einmal geklärt, könne das Reporting automatisiert und periodisch ausgegeben werden, so Simon, um Verschlechterungen oder Verbesserungen der Datenqualität zu registrieren. Schöne Daten! In der deskriptiven Analyse der Daten, die im Rahmen der letzten Preisverlosung erhoben wurden, zeigt sich für den Datenanalysten eine weitere Besonderheit: Während die Felder „Alter“ und „Wohnort“ schmutzige Daten enthalten, die auch durch die technische Infrastruktur produziert worden sind, sind die drei Freitextfelder von den allermeisten Teilnehmenden der Verlosung mit Informationen zu Präferenzen ausgefüllt worden. Simon spricht nun von „schönen Daten“. Er verweist auf viele weitere Analysemöglichkeiten, die sich dadurch eröffnen würden. Mit Hilfe von textanalytischen Verfahren können nun potentiell für jeden einzelnen Member „Milieuzuordnungen“ erstellt werden. Nicht thematisiert wird jedoch der typischerweise hohe Aufwand solche Daten zu bereinigen, die durch Eingabefehler oder unterschiedliche Sprachen etc. verschmutzt sind. Die Freitextdaten erscheinen dem Unternehmen besonders vielversprechend. Die unterschiedlichen AkteurInnen des Unternehmens bewerten das Potential

126 | M ÜTZEL, SANER & U NTERNÄHRER

dieser großen Datenmengen nach unterschiedlichen Bewertungslogiken. In seiner Rolle als Datenexperte sieht Simon darin vor allem die Möglichkeit einer fachlich herausfordernden Aufgabe, bessere Aussagen über die Member durch Analyse von Freitextdaten zu erlangen als bislang über explizit abgefragte Präferenzen, die nur spärlich beantwortet wurden. Der Leiter der Digitalabteilung äußert die Hoffnung, dass sich dank dieses Beispiels bei Earlybird die Einsicht durchsetzt, verstärkt Preisverlosungen zur Datenerhebung zu nutzen. Aus der Perspektive der Marketingabteilung lässt sich an den zuverlässig und ausführlich ausgefüllten Freitextfeldern insbesondere der Erfolg ihrer Marketingkampagne ablesen. Die so gewonnenen „tiefen Daten“ versprechen wertvolle Erkenntnisse für weitere zielgerichtete Angebote. Die Bezeichnung dieser Daten als schöne Daten ist erklärungsbedürftig. Seltsamerweise unterlaufen gerade die hier als besonders schön bezeichneten Daten die zentralen Unterscheidungen zur Klassifikation von Daten, wie Earlybird sie bislang vorgenommen hat. Gerade die Freitextantworten fallen nicht automatisch an, in der Weise wie beispielsweise die App Verhaltensspuren aufzeichnet, sondern sie erfordern spezifische „Kommunikationsmaßnahmen“: „Die Member müssen explizit motiviert werden, etwas von sich preiszugeben“. Diese explizit erhobenen Daten können jedoch auf implizite Zugehörigkeiten hinweisen. Nicht der manifeste Inhalt der Freitextantworten interessiert, sondern die latente und kalkulierbare Milieuzugehörigkeit, auf die die Texte hinweisen.

F AZIT In contrast to the current hopes about big data as a source of economic gain and business opportunities, this approach also invites us to problematize the idea of data as having intrinsic value, and instead turn to the social, organizational and political construction and production of data as valuable objects (FLYVERBOM/MADSEN 2015: 141).

Wie dieser Beitrag zeigt, existieren Daten niemals in Rohform, sondern sind als Produkt zahlreicher Entscheidungen immer konstruiert (Gitelman 2013). In diesem Beitrag haben wir diese Konstruktion empirisch betrachtet. Wir haben insbesondere unterschiedliche Bewertungslogiken in Datenverarbeitungsprozessen aufgezeigt. Sollen Rohdaten das neue Öl sein, so müssen wir uns fragen, welche

S CHÖNE D ATEN!

| 127

Veredelungsprozesse und welche Tests sie durchlaufen müssen, damit sie zu vertrauenswürdigen und schönen Daten werden bzw. als solche erkannt werden können. Am Beispiel des Unternehmens Earlybird versuchten wir zu zeigen, wie die Unterscheidung messy/tidy in einem Unternehmen von weiteren Unterscheidungen angereichert wird: Daten können explizit abgefragt werden oder durch den Nutzungsverlauf gewonnen werden, sie können frisch sein, aber auch verfaulen; es gibt vertrauenswürdige Daten, aber auch solche, mit denen nur spekulative Auswertungen möglich sind. All diesen Unterscheidungen liegen Entscheidungsprozesse zugrunde. Die als schön bewerteten Daten liegen gewissermaßen quer zu diesen Unterscheidungen, denn sie müssen explizit erhoben werden, sie liefern als Textdaten reichhaltige Informationen und wirken im Gegensatz zu fehlenden numerischen Werten besonders vertrauenswürdig. Und: Die Schönheit von Daten liegt in ihrer Potentialität. Schöne Daten bzw. das Potential von schönen Daten erlauben es, die spezifischen Ansprüche, Hoffnungen und Unsicherheiten verschiedener AkteurInnen momentan zu absorbieren. Schöne Daten sind verheißungsvoll. Im Falle des untersuchten Unternehmens versprechen schöne Daten eine erfolgreiche Suche nach noch unbekannten Fakten und Erkenntnissen. Sie erzeugen ebenso die Erwartungen neue Geschäftsfelder oder Geschäftsmodelle zu entdecken. Schöne Daten versprechen Erfolgsaussichten gerade dann, wenn unklar ist, nach was überhaupt gesucht wird. Das Potential liegt sowohl in der Antizipation der Bedeutung, die sich in den Daten auffinden lässt, als auch in der Verheißung unternehmerischer Innovation, die sich im Prozess der Umstellung von „traditionellen“ zu „datengetriebenen“ Unternehmen einstellen soll.14 Die Datenbearbeitung muss als Teil der Suche nach Ergebnissen begriffen werden, bei denen vorher noch nicht klar war, was gefunden werden könnte; wenn es jedoch gefunden ist, wird schnell erkannt, dass es das war, was gesucht wurde.15 Dieser Aspekt von data mining trifft so das eingangs erwähnte grundlegende Prinzip der Suche nach Neuem, wie es Stark benennt (2009). In diesem Suchprozess gibt es viele Situationen, in denen Unsicherheit und Unklarheit darüber besteht, was involvierte AkteurInnen als wertvoll erachten. Unterschiedli-

14 „But data is not always beautiful. It must be crafted and mined to make it valuable and beautiful“ (Halpern 2015: 5, unsere Hervorhebung). 15 Siehe zur Begrifflichkeit von Fakten und Daten und zu deren Bedeutung im naturwissenschaftlichen Forschungsprozess auch Rheinberger (2007: 123): Datengetriebene Forschung sucht nicht nach den richtigen Daten, um bekannte „Fakten darzustellen und abzusichern“, sondern vielmehr um Unbekanntes und neue Fakten zu entdecken.

128 | M ÜTZEL, SANER & U NTERNÄHRER

che Interpretationen, Wertigkeiten und Bewertungslogiken treffen hier aufeinander, wie es anhand der schönen Daten exemplarisch aufgezeigt werden konnte. Ob und wie es aus diesen unterschiedlichen Bewertungslogiken von DatenanalystInnen, Marketingfachleuten, Mitgliedern des strategischen und operativen Managements u. a. zu unternehmerischen Innovationen kommt, wird zu zeigen sein. „[H]opes about big data as a source of economic gain and business opportunities“ sind dabei nicht bloß als Rhetoriken abzutun, sondern haben in ihrer Rolle für offene Suchprozesse nach Neuheit, Innovation oder Erkenntnis reale Auswirkungen. Schöne Daten sind nicht an sich schön, sondern weil ihnen von verschiedensten Akteuren das Potential zugemessen und die Erwartung zugetragen wird, in der Suche nach Neuem von zentraler Bedeutung zu sein. Diese Untersuchung zum Feld von Data Science und zu einem datengetriebenen Unternehmen konnte nur erste Einblicke liefern. Weitergehende empirische Forschungen zu den Prozessen der Datenbearbeitung müssten sich insbesondere über die Klassifikation von Daten hinaus auch mit der Klassifikation mit Daten bzw. mit deren beider Verwobenheit beschäftigen. Hierbei sollte einerseits besonderes Augenmerk auf die Verwobenheit von Bewertungs- und Klassifikationsprozessen gelegt werden (z. B. Meier/Peetz/Waibel 2017; Fourcade/ Healy 2017). Andererseits muss auch die Verwobenheit von Infrastruktur, Daten, Berechnungen, Software, Datenbanken, Eingabemasken näher betrachtet werden (z. B. Seaver 2013; Gillespie 2014; Pöchhacker et al. 2017), um Aussagen über sozial, politisch und ökonomisch weitereichende Kategorisierungs- und Klassifikationsprozesse zu liefern.

L ITERATUR boyd, danah/Crawford, Kate (2012): Critical Questions for Big Data: Provocations for a Cultural, Technological, and Scholarly Phenomenon. In: Information, Communication & Society, Vol. 15, No. 5, S. 662-679. Brandt, Philipp (2016): The Emergence of the Data Science Profession (PhD dissertation), New York. Burtch, Linda (2014): The Must-Have Skills You Need to Become a Data Scientist. Burtch Works Executive Recruiting. Online unter: http://www. burtchworks.com/2014/11/17/must-have-skills-to-become-a-data-scientist/ (aufgerufen am 14.07.2017). Conway, Drew (2010): The Data Science Venn Diagram. Online unter: http://drewconway.com/zia/2013/3/26/the-data-science-venn-diagram (aufgerufen am 14.07.2017).

S CHÖNE D ATEN!

| 129

CrowdFlower (2015): 2015 Data Scientist Report. Online unter: http://vistit. crowdflower.com/rs/416-ZBE-142/images/Crowdflower_Data_Scientist_Sur vey2015.pdf (aufgerufen am 14.07.2017). DataCamp (2017): All Data Science Courses. Topic: Importing & Cleaning Data. Online unter: https://www.datacamp.com/courses/topic:importing_ and _cleaning_data (aufgerufen am 14.07.2017). Davenport, Thomas H./Patil, DJ (2012): Data Scientist: The Sexiest Job of the 21st Century. In: Harvard Business Review, October 2012, S. 70-76. DiMaggio, Paul (2015): Adapting Computational Text Analysis to Social Science (and Vice Versa). In: Big Data & Society, Vol. 2, No. 2. Duttweiler, Stefanie/Gugutzer, Robert/Passoth, Jan-Hendrik/Strübing, Jörg (Hrsg.) (2016): Leben nach Zahlen. Self-Tracking als Optimierungsprojekt?, Bielefeld. Flyverbom, Mikkel/Madsen, Anders Koed (2015): Sorting Data Out. Unpacking Big Data Value Chains and Algorithmic Knowledge Production. In: Süssenguth, Florian (Hrsg.): Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung, Bielefeld, S. 123-144. Fourcade, Marion/Healy, Kieran (2017): Seeing Like a Market. In: SocioEconomic Review, Vol. 15, No. 1, S. 9-29. Gillespie, Tarleton (2014): The Relevance of Algorithms. In: Gillespie, Tarleton/ Boczkowski, Pablo J./Foot, Kirsten (Hrsg.): Media Technologies, Cambridge, S. 167-193. Gitelman, Lisa (2013): Raw Data is an Oxymoron, Cambridge. Grolemund, Garrett/Wickham, Hadley (2017): R for Data Science, Sebastopol. Grus, Joel (2015): Data Science from Scratch. First Principles with Python, Sebastopol. Halpern, Orit (2015): Beautiful Data. A History of Vision and Reason since 1945, Durham. Han, Jiawei/Kamber, Micheline/Pei, Jian (2012): Data Mining. Concepts and Techniques, Waltham. Hellerstein, Joseph M. (2008): Quantitative Data Cleaning for Large Databases. In: United Nations Economic Commission for Europe, Vol. 42. Online unter: http://db.cs.berkeley.edu/jmh/papers/cleaning-unece.pdf (aufgerufen am 14.07.2017). John Hopkins University (2017): Getting and Cleaning Data. In: Coursera. Online unter: https://www.coursera.org/learn/data-cleaning (aufgerufen am 14.07.2017). Jungherr, Andreas (2015): Analyzing Political Communication with Digital Trace Data, Heidelberg.

130 | M ÜTZEL, SANER & U NTERNÄHRER

Jurafsky, Dan/Martin, James (2009): Speech and Natural Language Processing: An Introduction to Natural Language Processing, Computational Linguistics, and Speech Recognition, Upper Saddle River. King, Gary (2016): Preface: Big Data Is Not About The Data! In: Alvarez, Michael (Hrsg.): Computational Social Science: Discovery and Prediction, Cambridge, S. vii-x. Kitchin, Rob (2017): Thinking Critically About and Researching Algorithms. In: Information, Communication & Society, Vol. 20, No. 1, S. 14-29. Lazer, David/Radford, Jason (2017): Data Ex Machina: Introduction to Big Data. In: Annual Review of Sociology, Vol. 43, S. 19-39. Lohr, Steve (2014): For Big-Data Scientists, ‘Janitor Work‘ Is Key Hurdle to Insights. In: The New York Times, August 17, 2014. Mämecke, Thorben/Passoth, Jan-Hendrik/Wehner, Josef (Hrsg.) (2018): Bedeutende Daten. Modelle, Verfahren und Praxis der Vermessung und Verdatung im Netz, Bielefeld. Manyika, James/Chui, Michael/Brown, Brad/Bughin, Jacques/Dobbs, Richard/ Roxburgh, Charles/Hung Byers, Angela (2011): Big Data: The next Frontier for Innovation, Competition, and Productivity, Seoul/San Francisco/London/ Washington. Mayer-Schönberger, Viktor/Cukier, Kenneth Neil (2013): Big Data: A Revolution That Will Transform How We Live, Work and Think, London. Mayo, Matt (2017): 7 Steps to Mastering Data Preparation with Python. Online unter: http://www.kdnuggets.com/2017/06/7-steps-mastering-data-preparation-python.html (aufgerufen am 14.07.2017). McAfee, Andrew/Brynjolfsson, Erik (2012): Big Data: The Management Revolution. In: Harvard Business Review, Vol. 90, S. 61-67. Meier, Frank/Peetz, Thorsten/Waibel, Désirée (2017): Bewertungskonstellationen. Theoretische Überlegungen zur Soziologie der Bewertung. In: Berliner Journal für Soziologie, Jg. 26, H. 3-4, S. 307-328. MongoDB (2017): Data Wrangling with MongoDB. Data Manipulation and Retrieval. In: Udacity. Online unter: https://www.udacity.com/course/datawrangling-with-mongodb--ud032 (aufgerufen am 14.07.2017). Munzert, Simon/Rubba, Christian/Meißner, Peter/Nyhuis, Dominic (2015): Automated Data Collection with R. A Practical Guide to Web Scraping and Text Mining, Chichester. Mützel, Sophie (2015): Facing Big Data: Making Sociology Relevant. In: Big Data & Society, Vol. 2, No. 2. O’Neil, Cathy/Schutt, Rachel (2013): Doing Data Science: Straight Talk from the Frontline, Sebastopol.

S CHÖNE D ATEN!

| 131

Otto, Isabell/Schneider, Irmela (Hrsg.) (2007): Formationen der Mediennutzung II. Strategien der Verdatung, Bielefeld. Patil, DJ/Mason, Hilary (2015): Data Driven. Creating a Data Culture, Sebastopol. Pöchhacker, Nikolaus/Burkhardt, Marcus/Geipel, Andrea/Passoth, Jan-Hendrik (2017): Interventionen in die Produktion algorithmischer Öffentlichkeiten: Recommender Systeme als Herausforderung für öffentlich-rechtliche Sendeanstalten. In: kommunikation@gesellschaft, Jg. 18. Online unter: http://nbn-resolving.de/urn:nbn:de:0168-ssoar-51500-9 (aufgerufen am 14.07.2017). Provost, Foster/Fawcett, Tom (2013): Data Science for Business. What You Need to Know About Data Mining and Data-Analytic Thinking, Sebastopol. Rheinberger, Hans-Jörg (2007): Wie werden aus Spuren Daten, und wie verhalten sich Daten zu Fakten? In: Nach Feierabend: Zürcher Jahrbuch für Wissensgeschichte, Jg. 3, S. 117-125. Ruppert, Evelyn/Law, John/Savage, Mike (2013): Reassembling Social Science Methods: The Challenge of Digital Devices. In: Theory, Culture & Society, Vol. 30, No. 4, S. 22-46. Savage, Mike (2013): The ‘Social Life of Methods‘: A Critical Introduction. In: Theory, Culture & Society, Vol. 30, No. 4, S. 3-21. Seaver, Nick (2013): Knowing Algorithms. In: Media in Transition, Vol. 8, S. 112. Stark, David (2009): The Sense of Dissonance: Accounts of Worth in Economic Life, Princeton. Tanweer, Anissa/Fiore-Gartland, Brittany/Aragon, Cecilia (2016): Impediment to Insight to Innovation: Understanding Data Assemblages Through the Breakdown-Repair Process. In: Information, Communication & Society, Vol. 19, No. 6, S. 736-752 Varian, Hal (2009): Hal Varian on How the Web Challenges Managers. In: McKinsey Quarterly, Vol. 1, No. 2.2. Online unter: http://www.mckinsey.com/industries/high-tech/our-insights/hal-varian-on-how-the-web-cha llenges-managers (aufgerufen am 14.07.2017). Walker, Michael A. (2015): The Professionalisation of Data Science. In: International Journal of Data Science, Vol. 1, No. 1, S. 7-16. Warden, Pete (2011): Why the Term „Data Science“ is Flawed but Useful. Counterpoints to Four Common Data Science Criticisms. In: Radar O’Reilly. Online unter: http://radar.oreilly.com/2011/05/data-science-terminology.html (aufgerufen am14.07.2017).

132 | M ÜTZEL, SANER & U NTERNÄHRER

Wickham, Hadley (2014): Tidy Data. In: Journal of Statistical Software, Vol. 59, No. 10, S. 1-23. Wilson, Courtney (2017): The Ugly Truth about Data Science. Online unter: https://blog.cloudfactory.com/ugly-truth-about-data-science (aufgerufen am 14.07.2017).

Die (implizite) Pädagogik von Self-Tracking Handlungspraxis und Vermittlungsweisen der EntwicklerInnen im Spannungsfeld von Entrepreneurship, Technik und Design D ENISE K LINGE

1. S ELF -T RACKING

UND

S ELBSTEXPERTISIERUNG

Anhand des Phänomens Self-Tracking – vorliegend verstanden als digitales Sammeln und Auswerten alltäglicher Körper- und Umweltdaten mittels SelfTracking-Geräten und -Programmen und das Handeln mit diesen digitalisierten Informationen (Swan 2013) – lässt sich eine neue gesellschaftliche Dimension der Selbstexpertisierung beobachten. Zum einen wird Wissen über sonst ‚unsichtbare‘ Aspekte des Selbst erhoben und für Reflexionsprozesse verfügbar gemacht, um so ‚fundierte‘ Aussagen über die eigene Gesundheit, Leistung, Schlafqualität etc. zu ermöglichen. Beispielsweise werden Schritte mittels einer Smartphone-App täglich gezählt, die Pulsfrequenz beim Ausdauersport über einen längeren Zeitraum algorithmisiert, oder die Schwangerschaft dokumentiert und mit einer Community abgeglichen. Zum anderen lassen sich neue Formen des Umgangs mit wissenschaftlichen und spezialisierten Wissen jenseits der Vermittlung durch institutionalisierte Wissensexperten/-innen beschreiben. Auswertungen der gewonnenen Daten über das Selbst werden beispielsweise nicht durch Ärzte/-innen, Psychologen/-innen, Fitnesstrainer/-innen, Sprachlehrer/-innen usw. vermittelt, sondern machen den Nutzer bzw. die Nutzerin durch digitalisierte Rückkopplungsschleifen selbst zum Experten/zur Expertin. Diese Rückkopplungsschleifen bestehen darin, dass Daten von Hardware (wie Armbänder mit Sensoren oder Smartphones) erhoben werden, dass ihnen von Programmen (Software) Bedeutung zugewiesen wird und Nutzer/-innen mit diesen technologischen Bedeutungszuweisungen umgehen (Swan 2012: 219). Die Selbstexpertisierung hin zu einem „qualified self“

134 | KLINGE

besteht darin, durch Datensammlung und Bedeutungszuweisung Feedbackschleifen zu erzeugen, aus denen Verhaltensänderungen hervorgehen (Swan 2013: 93). Dieser Beitrag verfolgt die These, dass solche Rückkopplungsschleifen nicht nur Daten in digitalisierter Form wiederspiegeln, sondern einer eigenen Pädagogik unterliegen bzw. pädagogisch vermittelt werden. Es wird somit angenommen, dass Self-Tracking-Geräte und -Programme in ihrer Expertisierungsfunktion erzieherisch tätig sind, in dem Sinne, dass erzieherisches Handeln dabei u. a. „Wertevorstellungen, Ziele, Techniken, handelnde Personen“ einschließt (Böhm 2000: 404). So werden für den Umgang mit der Technologie bestimmte Lerninhalte und/oder Verhaltensänderungen der Nutzer/-innen fokussiert, die dadurch auch zwangsweise bestimmte Werte transportieren. Die zentrale Frage dieses Beitrags ist, wie und welche Werte und Inhalte für die Selbstexpertisierung in den Programmen von Seiten der Entwickler/-innen implementiert werden. Auf Basis welchen (impliziten) Wissens werden SelfTracking-Technologien und deren pädagogische Vermittlungsweisen entwickelt? Um diese Frage zu beantworten, wurden mit verschiedenen Entwickler/-innen von Self-Tracking-Programmen narrative Interviews geführt und deren Wissensbestände mittels der dokumentarischen Methode rekonstruiert. Mit der Frage nach dem impliziten Wissen von Entwickler/-innen wird (neben der erziehungswissenschaftlichen) auch eine praxeologisch-wissenssoziologische Perspektive (Bohnsack 2008) auf Self-Tracking eingenommen. Es wird davon ausgegangen, dass während der Entwicklungsprozesse Wissen der Entwickler/-innen einfließt, welches für sie selbstverständlich und handlungsleitend ist, aber nicht ohne weiteres theoretisierbar, also atheoretisch (Mannheim 1980) bzw. implizit (Polanyi 1985) verfügbar ist. Handeln – im vorliegenden Fall das Konzeptionieren, Gestalten oder Programmieren von Self-TrackingTechnologien – ist somit von inkorporierten (habituellen) Wissensbeständen geprägt, welche so Eingang in die Geräte oder Programme finden. Dabei ist dieses implizite Wissen nicht individuell, sondern durch soziale Struktur entstanden und geteilt (Bourdieu 1993). Erziehungswissenschaftliche Betrachtungen von Self-Tracking aber auch die Fokussierung der Entwickler/-innen hinter den Technologien wurden bisher eher selten angestellt. Das Phänomen des Self-Trackings wird bislang in zumeist zeitund gesellschaftsdiagnostischen Zugängen und aus Benutzer/-innen-Perspektive reflektiert und beforscht: So beschreiben Zillien, Fröhlich und Dötsch (2015) die numerische Selbstdokumentation als eine „Verdinglichung des Körpers“; Lupton (2014b: 8) fasst dieses Phänomen hingegen im Sinne einer Selbstvergewisserung als „practices of selfhood“; Selke (2014: 194) sieht das digitale Selbst als „Sinnbild immer neuer Möglichkeiten der mediatisierten Selbstarchivierung“ in Leis-

D IE ( IMPLIZITE) P ÄDAGOGIK VON S ELF -T RACKING | 135

tungsgesellschaften; und Belliger und Krieger (2015: 402) sehen die Selbstquantifizierung als „neue Form der Selbstwahrnehmung und Vergesellschaftung“ in einer Mixed-Reality. Selbstaufmerksamkeit wird als gesellschaftliche Norm diagnostiziert und Self-Tracking damit in Zusammenhang gebracht, dass dadurch neue Ansprüche und Möglichkeiten von Steuer- und Kontrollierbarkeit des Selbst entstehen (Selke 2014: 188ff.). So sieht Lupton (2014a: 615) beispielsweise den Trend einer Responsibilisierung von Gesundheit durch Self-TrackingApps, den sie als „healthism“ bezeichnet. Duttweiler und Passoth (2016: 13) betonen u. a. die Visualisierungspraktiken von Daten und Werte beim SelfTracking, die einer „doppelten Plausibilisierungsstrategie“ folgen: die Art der Darstellung verweist auf Wissenschaftlichkeit und gibt den Anschein unmittelbar Wirklichkeit abzubilden. Die erhöhte plausibilisierte Sichtbarmachung des Körpers impliziert gleichzeitig mehr Verantwortung für ihn zu haben. Um diese Responsibilisierung, Selbstvergewisserung oder Steuerbarkeit des Selbst zu erreichen, so lässt sich weiter schlussfolgern, müssen diese normativen Positionen durch die Self-Tracking-Technologie vermittelt werden, indem den erhobenen Daten Bedeutung zugewiesen und dadurch implizit oder auch explizit Handlungsvorschläge gemacht werden. Für die Konstruktion solcher Bedeutungszuweisungen wird vorliegend davon ausgegangen, dass das implizite Wissen der entwickelnden Akteure/-innen und der Entwicklungsprozess an sich eine wesentliche Rolle spielen. So könnten für die Entwicklung der Self-TrackingTechnologie Aushandlungs- und Austauschprozesse u. a. zwischen technischen und inhaltlichen Entwickler/-innen und Designer/-innen angenommen werden. Dabei machen beispielsweise Informatiker/-innen und Ingenieure/-innen Software und Hardware, wie Tracking-Armbänder oder Schrittzählprogramme, technisch möglich und müssen inhaltlich-konzeptionelle Aspekte, wie bestimmte Gesundheitsvorstellungen, technisch relativieren. Designer/-innen gestalten in diesem Prozess dann die inhaltlichen und technischen Aspekte zum einen bezüglich ästhetischer Belange und zum anderen hinsichtlich einer gelingenden Mensch-Maschine-Interaktion. Wie solche Konstruktionsprozesse von Programmen – sowohl die Technisierung als auch das Design von Inhalt – theoretisiert werden können, wird im nachfolgenden Abschnitt (2) dargelegt. Anschließend werden Bezüge zu den softwarebasierten Vermittlungsweisen hergestellt (3), bevor die Ergebnisse der narrativen Interviews mit Entwickler/-innen vorgestellt werden (4.). Am Ende des Beitrags soll die Frage beantwortet werden, inwiefern sich das Pädagogische in der Konstruktion von Self-Tracking-Technologie finden lässt und welche Anschlüsse sich daran ergeben (5).

136 | KLINGE

2. T ECHNISIERUNG

UND D ESIGN ALS K ONSTRUKTIONS PROZESSE IN DER T ECHNOLOGIE -E NTWICKLUNG

Aus techniksoziologischer Perspektive lässt sich argumentieren, dass SelfTracking als eine Verschmelzung von Handeln und Technologie betrachtet werden kann (Latour 2007). Nutzer/-innen, Technik und Programme handeln somit als Hybridakteure gemeinsam. Dennoch sollen an dieser Stelle die TechnologieEntwicklung und deren Akteur/-innen separat in den Blick geraten und die Verwobenheit mit den Nutzer/-innen und deren Handlungspraxis ausgeklammert werden. Denn das Neuartige an diesen digitalen bzw. Umwelt und Körper digitalisierenden Medien – und relevant für erziehungswissenschaftliche Fragestellungen – ist gerade ihre Softwarebasiertheit, durch welche mediale Inhalte automatisch in und durch die (Software-)Technologie generiert werden (Zorn 2014: 95). Aus medienpädagogischer Sicht lässt sich argumentieren, dass in digitalen Medien zum einen durch deren Programmierbarkeit und Programmiertheit die eingegeben Zeichen transformiert vermittelt werden und zum anderen nicht mehr nur auf Virtuelles begrenzt sind, sondern auch das Alltägliche und ‚Reale‘ zu erfassen vermögen (Schelhowe 2016: 45f.). Handlungsformen des Self-Trackings sind durch Programme vermittelt, die Möglichkeiten des Umgangs mit ihnen zeigen und begrenzen, auch wenn dann in der Nutzung neue Praktiken entstehen können (Klinge und Krämer i.E.). In diesem Abschnitt werden daher genauer die (technisierenden und designenden) Konstruktionsweisen von (Software-) Programmen in den Blick genommen, um die Vermittlungsweisen des SelfTrackings zu theoretisieren. Um dennoch die techniksoziologischen Überlegungen bezüglich der Verstrickungen von verschiedenen Akteur/-innen und Handlungen innerhalb dieser thematischen Fokussierungen auf die Entwicklung einzuholen, wird im Weiteren der Technologie-Differenzierung in Abgrenzung zu Technik von Zorn (2014: 94f.) gefolgt, die Technologie definiert als „Methode, Konzept, Prozess hinter einem technischen Artefakt […] und das, was aus solchen technischen Prozessen entstehen kann“. Dementsprechend werden vorliegend die Entwicklungsprozesse technischer Artefakte als auch SoftwareProgramme als Technologie verstanden und auf die Software-Programme als ‚Oberfläche‘ der Vermittlung im Besonderen Bezug genommen. Bezüglich ihrer Handlungsvorgaben sind Programme erstens auf bestimmte Technisierungen, wie Datenverarbeitung, Algorithmisierung und Visualisierung angewiesen und zweitens mit Maßstäben, Werten oder Inhalten verknüpft. Knorr-Cetina (2002) hebt hervor, dass Programme durch wissensbezogene Lebenswelten von Expert/-innen mitkonstruiert werden. Wissenssoziologisch argumentiert sie, dass dabei „Praktiken, Mechanismen und Prinzipien […], [die] in

D IE ( IMPLIZITE) P ÄDAGOGIK VON S ELF -T RACKING | 137

einem Wissensgebiet bestimmen, wie wir wissen, was wir wissen“ (KnorrCetina 2002: 11), aktiv sind. Jene produktiven Expertensysteme werden von Knorr-Cetina als „Wissenskulturen“ untersucht, welche selbstreferenziell dominantes Wissen generieren und validieren (ebd.). Auf den Forschungsgegenstand Self-Tracking bezogen, sind Wissenskulturen des Designs unter anderem die leitende Kraft der Kreativökonomie, aus welcher innovative Technologien hervorgehen. Die Design-Praxis verfolgt dabei bestimmte Prinzipien, die – Knorr-Cetina folgend – den Gegenstand selbst mitkonstruieren. Dabei werden die Nutzer/-innen im Design als aktive Teilnehmer/ -innen interpretiert, deren Lebenswelt geformt werden soll, wozu die Methoden der Transformation und Rekombination genutzt werden (Stalder 2016: 63f.). Diese Prinzipien werden auch in der Methode des „Design-Thinkings“ der Entwicklungs-Branche im Modus einer Problem- und Lösungskonstruktion verfolgt, wobei ingenieurhaft multiple Perspektiven einbezogen und wissenschaftliches Wissen integriert wird (Weber 2014: 36). Expert/-innen für ein Problem sind hier die gedachten Nutzer/-innen. So wird im Design von Technologie auf schon vorhandene Nutzungsweisen rekurriert und beispielsweise für das Interface ein Desktop, auf dem man vermeintlich arbeiten, oder ein Scherensymbol, mit dem man schneiden kann, ersonnen. Auf der Oberfläche von Self-TrackingProgrammen verhält es sich ähnlich, wenn eine Stoppuhr zur Messung der gerannten Zeit oder ein Coach zum Zeigen einer Übung zur Verfügung stehen. Solche Interaktionskonstruktionen sind somit an analoge Handlungspraktiken der jeweiligen Bereiche, wie Schreibtischarbeit oder Sport angelehnt und werden digital ‚übersetzt‘. Solche Software betrachtet Schachtner (1993: 33) als „intermediären Erfahrungsraum“, in welchem Teile der Außenwelt in eine Computerlogik übersetzt werden müssen, die nur in einer Wenn-Dann-Struktur, also einer unmittelbaren Abfolge von Ursache und Bedingung, funktioniert. Degele (2000: 59) theoretisiert den Prozess der Software-Entwicklung als „Technisierung von Wissen“, in welcher die Elemente des Wissens aus ihrem Zusammenhang gelöst und durch Rekombination, Schematisierung und Algorithmisierung technisch relativiert werden, um Eindeutigkeit herzustellen. So entsteht ein „Hybrid“ aus Wissen und Technik, welcher (menschliche) Kognition mit technischen Operationen verschmelzen lässt (a. a. O.: 72). Computerlogische Algorithmen kategorisieren dabei die für die menschliche Wahrnehmung nicht bearbeitbaren Datenmengen, womit überhaupt erst Verstehen der und Handeln mit den Datenmengen möglich ist (Stalder 2016: 96). Zugleich schafft dieser Prozess eine Abhängigkeit der Nutzer/-innen von dieser ‚Übersetzungsleistung‘ des digitalisierenden Mediums.

138 | KLINGE

Diese Perspektiven zusammengefasst, spielt es demnach nicht nur eine Rolle, welches Wissen der jeweiligen Expert/-innen für die Technologie-Konstruktion handlungsleitend ist, sondern auch, dass sich Wissen und Inhalte in der Technisierung verändern, indem sie nur eindeutig, computerlogisch-relational und schematisierend kondensiert werden können. Es lässt sich annehmen, dass bei der Entwicklung von Self-Tracking-Programmen durch die unterschiedlichen Beteiligten bestimmte (notwendige) Logiken in die Programme Eingang finden: Software-Entwickler/-innen müssen Inhalte und Interaktionen technisch möglich machen, was das Wissen durch Algorithmisierung und Fragmentierung neu codiert. In der Designlogik wird mit der Technologie ein vermeintliches Problem innerhalb der Lebenswelt der Nutzer/-innen auf rationalistische Weise adressiert, wobei unterschiedliche Elemente des analogen Handelns nachgestellt und kombiniert werden.1 In Bezug auf die Entwicklung von Self-Tracking-Programmen stellt sich deshalb zum einen die Frage, wie innerhalb des Designs und der Technisierung auf die Lebensbereiche (wie Gesundheit, Ernährung, Sport usw.) Bezug genommen wird. Zum anderen müssen diese Bezugnahmen vermittelt und Handlungsaufforderungen, wie beispielsweise „Absolviere jeden Tag 10 Liegestütze!“ oder „Nimm 1200 Kalorien pro Tag weniger zu dir!“, gestellt werden. Im Folgenden sollen zwei Methoden der Vermittlung innerhalb von Technologie – das persuasive Design und die Quantifizierung – vorgestellt und deren pädagogische Anschlussmöglichkeiten diskutiert werden.

3. V ERMITTLUNGSWEISEN DER P ROGRAMME : P ERSUASIVES D ESIGN UND Q UANTIFIZIERUNG Innerhalb der Gestaltung von Technologie, die Einstellungs- und Verhaltensänderungen hervorrufen sollen, werden oftmals persuasive Mittel eingesetzt (Lindemann/Koelle/Kranz 2015). Lerntheoretisch werden hier zumeist behavioristische Modelle der Psychologie mit einfachen Ursache-Wirkungs-zusammenhängen vorausgesetzt, um das Verhalten auf ein wünschenswertes Ziel hin zu verändern (Fogg 2009). Dieses Lernmodell fließt durch verschiedene behavioristische Designelemente, wie unmittelbares Feedbackdesign, Belohnungssysteme oder Interventionstechniken in die Entwicklung von Technologien ein (Feyrer

1

Siehe für die Aushandlungsprozesse rund um die Konstruktion „schöner Daten“ in einem datenverarbeitenden Start-up auch den Beitrag von Mützel, Saner und Unternährer in diesem Band.

D IE ( IMPLIZITE) P ÄDAGOGIK VON S ELF -T RACKING | 139

2015). Ein Modell, das besonders häufig im Self-Tracking implementiert wird, ist das „Gaming“, welches zu einem wünschenswerten Bezugspunkt oder zu anderen Nutzer/-innen Relationen herstellt und bei Erreichen bestimmter Ziele, Belohnung in Form von Punkten, Sternen, Abzeichen, einer grünen Verlaufslinie oder anderem mehr visualisiert. Inhärent ist dieser Art des Designs ein rational handelndes Menschenbild, welches durch extrinsische Motivation zum gewünschten Handeln gebracht werden kann. Um überhaupt erst solche persuasiven Mittel umsetzen zu können, muss ein System der unmittelbaren Vergleichbarkeit hergestellt werden. Dies geschieht in Self-Tracking-Programmen meist über die Messbarmachung durch Quantifizierung. Im Anschluss an Schäffer (2015: 42) kann konstatiert werden, dass der Einsatz von „Quantifizierungstechnologien“, in verschiedenen gesellschaftlichen (vor allem pädagogischen) Bereichen der Herstellung von Vergleichbarkeit bestimmter Gruppen anhand bestimmter messbarer Standards dient. Dabei zeichnet sich die dort eingelagerte mathematische Kommunikation vermeintlich als ein von externen Referenzen freies Zeichensystem (Manhart 2008: 204) aus. Obwohl die Quantifizierung damit Objektivität anklingen lässt, ist die Vergleichbarkeit den „Objekten nicht inhärent, sondern das Resultat einer Kategorisierung, die sozial voraussetzungsvoll und deshalb potenziell kontrovers ist […]. [Q]uantitative Vergleiche [sind] das Produkt einer Vielzahl von Entscheidungen und Bearbeitungsschritten, von denen jeder einzelne mit erheblichen Standardisierungsleistungen verbunden ist“ (Heintz 2010: 169). Nach Manhart (2016) bedeutet das Messen, gerade im Feld des Pädagogischen, gleichzeitig eine Produktion und Veränderung des Gemessenen. So werden auch beim Self-Tracking neue Entitäten als messbares Konstrukt, wie Leistung, Schlafqualität oder Produktivität geschaffen. Diese Produktion von Wirklichkeiten durch das metaphorische Messen war primär eine symbolische Technik der Naturwissenschaften: „Selbstwahrnehmung und die Konstruktion von Identität gewinnen dabei eine Dimension, die vorher allein dem Außenblick der Wissenschaft bzw. der Medizin vorenthalten war“ (Belliger/Krieger 2015: 396). Dieses Schaffen messbarer Konstrukte durch Quantifizierung erscheint zum einen für die bereits diskutierte Technisierung von Wissen eine notwendige Bedingung zu sein, um eindeutige und eindeutig vermittelbare Inhalte herzustellen. Zum anderen schafft sie aber auch bestimmte Bedingungen der Umgangsweisen; u. a. dass die Handlungen mit der Technologie quantifizierbar sind. Im Anschluss an Jörissens und Marotzkis strukturaler Medienbildung konstatiert Zorn (2014: 92f.), dass digitale Medien in ihren programmierten und rechenprozessbasierten Eigenheiten als „Mittler zwischen Selbst und Welt“ Inhalte verändern und Interaktionsvorgaben machen.

140 | KLINGE

Bezüglich solcher Software als Mittler zwischen Selbst und Welt, die Welt nur quantifiziert übersetzen und wiedergeben kann und im Modus behavioristischer Lerntheorien vermittelt, stellt sich die Frage nach der Art der Pädagogik, die in dieser Form Ausdruck findet. Nach Böhm (1997: 192) schließt diese Frage drei Dimensionen ein: die „anthropologische“, danach was der Mensch ist, die „teleologische“, danach was der Mensch (werden) soll und die „methodische“, wie Erziehung dem Menschen dabei helfen kann. Nach der Theoretisierung der Konstruktion von und den Vermittlungsweisen in digitalisierender SelfTracking-Technologie, könnte hinsichtlich der anthropologischen und der teleologischen Dimensionen zugespitzt die Vermutung angestellt werden, dass der Mensch (zwangsweise) berechenbar und programmierbar ist und sich rationalistisch handelnd auf eine bestimmte Norm hin verbessern bzw. Erkenntnisse über die vermessenen Gegenstände erlangen soll. Die dritte Frage, wie Erziehung helfen kann, im Sinne dieses Menschenbilds jene Ziele zu erreichen, soll im Folgenden empirisch anhand der Rekonstruktion des impliziten Wissens der Entwickler/-innen beantwortet werden.

4. H ANDLUNGSPRAXIS UND O RIENTIERUNGEN DER E NTWICKELNDEN Die folgenden Ergebnisse stammen aus narrativen Interviews mit Entwickler/ -innen von Self-Tracking-Apps und wurden mit der dokumentarischen Methode (Bohnsack 2008) ausgewertet. Insgesamt wurden fünf in Europa tätige Entwickler/-innen mit verschiedenen beruflichen Hintergründen interviewt. Auch wenn sich alle Programme in verschiedenen Stadien der Entwicklung befanden (u. a. konzeptioniert aber nie auf den Markt gebracht, vor der Ausgründung stehend oder bereits wirtschaftlich sehr erfolgreich), wurden die Interviewten nach der Geschichte der Entwicklung gefragt. Mit dem Fokus auf der Geschichte und dem Wie der Entwicklung sollte der Frage nachgegangen werden, wie welche Maßstäbe, Werte und Vermittlungsweisen in die Programme gelangen und welches implizite Wissen respektive welche Orientierungen dabei eine Rolle spielen. Für die folgende Ergebnisdarstellung wurden Interviews mit Entwickler/ -innen aus unterschiedlichen Projekten gewählt, um zum einen darzustellen, welche verschiedenen impliziten Wissensbestände in solch eine Self-TrackingEntwicklung fließen, zum anderen aber auch, um trotz dieser Unterschiede auf Gemeinsamkeiten der Programm-Entwicklung zu verweisen.

D IE ( IMPLIZITE) P ÄDAGOGIK VON S ELF -T RACKING | 141

Lilie2 designte eine Stress-Tracking-App, die aufgrund finanzieller Hürden nie technisch entwickelt und auf den Markt gebracht wurde. Nelke ist einer der technischen Entwickler (aber nicht Gründer) einer sehr erfolgreichen südeuropäischen Fitness-App, die im Sinne des „Gamings“ Menschen und ihre tägliche Bewegung vergleicht. Das Interview wurde mit ihm auf Englisch geführt, wobei Nelke und Interviewerin nicht muttersprachlich sind. Auch Asters App ist finanziell sehr erfolgreich und bietet werdenden Eltern an, ihre Schwangerschaft digital zu verfolgen. Dabei ist Aster der konzeptionelle Entwickler des Programms und Gründer der Firma. Die Ergebnisse sind wie folgt aufgebaut: zuerst wird aufgezeigt, wie am Anfang der Entwicklung von Self-Tracking-Technologie verschiedene Bedingungen (wie die wirtschaftlichen Rentabilität) und (Gesundheits-)Orientierungen kumulieren und so die Basis des Programms bilden (4.1). Danach werden die Rekonstruktionen der Handlungspraxis der Entwickler/-innen bezüglich der pädagogischen Vermittlungsweisen der Programme (4.2) und der Sozialitäten in der Technologie (4.3) präsentiert. 4.1 Hybridisierung von zivilgesellschaftlichem Nutzen, marktwirtschaftlichen und technologischen Bedingungen und gesundheitsbezogenen Orientierungen Innerhalb der Interviews ließ sich in allen Erzählungen für den Anfang der Entwicklung eine Hybridisierung verschiedener vermeintlich gegensätzlicher Bedingungen, Werte und implizitem Wissen respektive Orientierungen rekonstruieren. In Asters Schwangerschafts-Tracking-App flossen beispielsweise immer wieder unternehmerische Orientierungen und marktwirtschaftliche Logiken ein, wie der nachfolgende Interviewausschnitt beispielhaft zeigt: [W]ir erzielen fast eine Million Visits bei uns in der Online Sprache eine Million Visits über unsere Applikationen auf dem Markt. und das hätten wir vorher nie gedacht also wir ham gemerkt dass da n riesen Markt is durch und gehen natürlich auch mit Monetarisierungs-Gedanken an die ganze Sache ran um damit Geld zu verdienen. und das funktioniert sehr gut. und wir tun damit auch noch was Gutes für Frauen und Väter (Aster: Z. 85-92).3

2

Die Entwickler/-innen und ihre Programme wurden mit Blumennamen anonymisiert.

3

Die Zitate wurden geglättet; das heißt, Pausen und Wortwiederholungen wurden teilweise gelöscht und durch Auslassungen Zitate gestrafft. Satzzeichen werden hier als Intonationsangabe verwendet. So wird beispielsweise ein Punkt bei einer stark sinkenden Betonung gesetzt. Dementsprechend wird nach einem Punkt nicht groß weiter

142 | KLINGE

Diesem Zitat vorangehend bezeichnet Aster es im unternehmerischen Sinne als „sehr wertvoll“ (Z. 80) auf bestimmte Lebensabschnitte, wie die der Schwangerschaft eine „App drauf zu denken“ (ebd.); also für den Umgang mit solch einer Lebenssituation ein digitalisierendes Programm zu entwickeln. Über den Erfolg der App ist das Team zuerst eher verwundert. Dieser Verwunderung über den marktwirtschaftlichen Erfolg wurde dann jedoch mit „MonetarisierungsGedanken“ begegnet und ein sozialer Effekt adressiert. Auch in der Firmengeschichte von Nelke zeigen sich ähnliche Verflechtungen verschiedener Logiken – wie des gesellschaftlichen Nutzens der App mit gleichzeitiger existenzieller Sicherung der Entwickler/-innen –, die letztendlich in die Entwicklung der App eingeflossen sind und für eine Verschiebung von Orientierungen gesorgt haben: [T]hey [die Gründer; Anm. DK] were very compromised with social causes; they were passionate about the sports and they were looking for the problem that to make: sports come in this kind of social causes; […] later on they realized that they were building was much more powerful than what they thought […] so they began to build the model we are now exploring (Nelke: Z. 9-22).

Hier wird deutlich, wie in der Gründungsphase die Werte der Unternehmer auf Marktmechanismen trafen. Diese Hybridisierung wird an späterer Stelle weiter ausgeführt und es zeigt sich, dass dadurch neue Firmenwerte entstanden sind: [I]t’s not only making couch potatoes out of the sofa but also to make a sustainable business […] the most important of them are; (.) the corporal wellness; I mean trying to make companies be aware about the importance and the impact on the performance and on benefits of having a healthier employees (Nelke: Z. 62-74).

Während der soziale Nutzen der App konzeptionell neben der eigenen Leidenschaft für Sport am Anfang der Gründung standen, führen marktwirtschaftliche Mechanismen zur Änderung des Konzepts und stellen die Wirtschaftlichkeit des Unternehmens in den Vordergrund, woraufhin sich der soziale Nutzen der App verschiebt. Am Anfang sollten NGOs unterstützt werden und in der jetzigen Konzeption bezieht sich die Gemeinnützigkeit eher auf die Erziehung gesunder Mitarbeiter/-innen und auf die Steigerung unternehmensbezogener Produktivität.

geschrieben. Dialektisches, Alltagssprache und Fehler aufgrund des nicht-muttersprachlichen Englischs werden im Wortlaut wiedergegeben und nicht korrigiert.

D IE ( IMPLIZITE) P ÄDAGOGIK VON S ELF -T RACKING | 143

Bei der Entwicklung von Lilie, welche im Stadium des Designs geblieben und nicht auf den Markt gelangt ist, lässt sich sehr gut erkennen, wie die eigene Gesundheitsorientierung, das Vorgehen des „Design-Thinkings“ und vorhandene technische Möglichkeiten zusammenfallen (und letzten Endes an den Bedingungen des Marktes scheitern): [A]lso bin von verschiedenen Punkten ausgegangen einmal hab ich geguckt welche neuen Technologien es gibt die man halt irgendwie einsetzen könnte […] und auf der andern Seite hab ich halt auch geguckt was wäre halt sinnvoll wo gibt’s halt irgendwie Probleme wo gibt’s Sachen die’s halt die’s geben müsste (Lilie: Z. 28-36) […] zum einen weil ich’s unwahrscheinlich spannend finde wie gute Daten-Visualisierung funktionieren kann und eben so wirklich dieser Hintergedanke wenn wir wirklich gut aufbereitete Informationen über unseren Körper haben dass wir ganz anders mit Gesundheit umgehen und wirklich Verantwortung halt auch für uns selber übernehmen ich glaube dann wenn man mehr Informationen über sich hätte ich glaube schon dass des dann das Leute auch ihr Verhalten ändern würden wenn ich so meine ganze Akte hätte die mein Arzt halt sonst nur sieht denk ich schon dass man irgendwie anders umgeht (Lilie: Z. 428440).

Zu Beginn der Ideengenerierung für eine App-Entwicklung gab es für Lilie zwei Ausgangspunkte: Zum einen orientierte sie sich an bereits vorhandenen innovativen Technologien, die für die eigene Entwicklung einsetzbar wären. Zum anderen suchte sie nach Lücken bezüglich technischer Innovationen auf dem vorhandenen Markt. Beide Zugänge zusammen beinhalten die Orientierung an Innovation und Problemlösung, welche eine typische Handlungspraxis im DesignThinking darstellt. Weiterhin lässt sich ihre Motivation auf Grundlage der Werkzeuge der eigenen Profession – wie hier die Daten-Visualisierung – in Kombination mit ihrer Gesundheitsorientierung rekonstruieren, innerhalb welcher die Mündigkeit und Verantwortung für die eigene Gesundheit im Vordergrund steht. Die pädagogische Haltung von Lilie impliziert, dass Verhaltensänderung über Herrschaft über die eigenen Gesundheitsdaten zu erreichen ist. Diese verschiedenen Orientierungen sind in das Design eines Programmes geflossen, welches die Herzratenvariabilität des Nutzers/der Nutzerin messen und mit sämtlichen gespeicherten Daten, wie beispielsweise Kalendereinträge, kombinieren und visualisieren sollte. Letzen Endes erschwerten Bedingungen des Marktes, wie die Entscheidung, ob ein Lifestyle-Produkt oder ein medizinisches Produkt entwickelt werden soll, mit welchem viele Richtlinien eingehalten werden müssen, als

144 | KLINGE

auch die Komplexität der designten Darstellung von Stress, weitere Schritte der Entwicklung. 4.2 Erziehungs- und Vermittlungsweisen: Reiz-Reaktionsketten, Informationsreduktion und -kontextualisierung Aster teilt mit seinem Team den Ansatz, dass sie „nicht belehrend sein“ (Z. 638) wollen. In dieser Haltung lässt sich eine Abgrenzung zum ins negativ verkehrte Stereotyp des Lehrens rekonstruieren, welches eigentlich als klassischpädagogische Tätigkeit beschrieben werden kann. Wie diese Haltung des NichtBelehrens praktisch in der App umgesetzt wird, berichtet Aster in dem nachfolgenden Abschnitt: [U]nser Konzept is dann natürlich das wir wissen welche Themen total gefragt sind weil wir anhand der Artikel die wir auf unserer Seite haben das natürlich analysieren im Hintergrund. ich kann dir sagen das das ähm bei uns der Top-Artikel […] und diesen Artikel lässt du natürlich in deine App mit einfließen und erklärst das nochmal kurz und knapp (Aster: Z. 645-654).

Die Beliebtheit von Informationsartikeln bezüglich verschiedener Themen innerhalb der Community wird analysiert, sodass diese die App den Nutzer/-innen in ihrer Schwangerschaftsphase entsprechend vorschlägt und Inhalte des Themas zusammenfasst und erklärt. Es wird also mittels Quantifizierung („im Hintergrund“, Z. 649) ermittelt, was die Masse liest und das als Maßstab genommen, um es wieder in das System als Empfehlung einzuspeisen. Nicht belehrend zu sein, bedeutet in der Vermittlung der App also zum einen den Nutzer/-innen den Konsens der Community zu spiegeln und zum anderen Informationen nicht anzureichern, sondern zu reduzieren. Das Schwangerschaft-Tracking-Programm von Aster soll durch Informationsreduktion aufgrund der Verschiedenheit des Erlebens von Schwangerschaft und durch eine bestimmte Sozialität der App als Freundin (was weiter unten noch genauer erläutert wird) vor Verunsicherungen schützen: [I]ch glaube wenn man sich in die Branche reinfühlt und auch reindenken kann mit gewisser Erfahrung isses im Sportbereich richtig zu schreien und bei uns zu helfen. also als Freundin da zu sein Sicherheit und Geborgenheit zu schenken. weil die sowieso lost sind und jeder erzählt dir was anderes (Aster: Z. 716-721).

D IE ( IMPLIZITE) P ÄDAGOGIK VON S ELF -T RACKING | 145

Diese Orientierung bezüglich der Art und Weise des Umgangs der App mit seinen Nutzer/-innen beruht laut Aster auf geteiltem Wissen der verschiedenen Branchen. Unterschiedliche lebensweltliche und biographische Situationen der Nutzer/-innen erfordern dabei jeweils unterschiedliche technisierte Gegenüber. Die App sollte in der Branche der Schwangerschafts-App einen zwischenmenschlichen Modus haben, weil die Schwangerschaft aufgrund der Informationsvielfalt als überfordernd von Aster interpretiert wird. Wie auch in späteren Zitaten deutlich wird, antizipiert Aster, dass die Nutzer/-innen aufgrund der Informationsflut und der Widersprüchlichkeit der Erfahrungen anderer – wie die Unterschiedlichkeit von Geburten – orientierungslos sind. Diese angsteinflößende Informationsflut möchte Aster mit der App „vermeiden“ (Z. 732). Das Programm soll entsprechend Informationsmanagement für die Nutzer/innen übernehmen und Ambiguitäten auflösen. In der Stress-App von Lilie stand die Informationskontextualisierung des Programmes und weniger die Informationsreduktion im Vordergrund. Das System sollte so Einflussfaktoren des Alltags bezüglich Stress sichtbar machen, die dem Nutzer/der Nutzerin sonst verborgen geblieben wären: [A]lso dass du wenn du dich viel bewegst dann wird die Kurve schlanker und wenn du relativ lange über ne bestimmte Zeit sitzt oder so dann wird´s an der Stelle halt dicker dass weil des halt ebent auch n ganz wichtiger Faktor is um Stress auf oder ab zu bauen […] da würden dann des wäre wie ne Kalenderansicht wo dann ebent deine ganzen Termine und so abgebildet sind also da würde halt nicht jetzt stehen du hattest da und dann den Termin mit dem und dem sondern einfach nur dass du halt zum Beispiel siehst oh du hast ganz viele dichte Termine und deswegen hattest du zum Beispiel Stress und dann konntest du auch nach unten flippen und da hat man dann die unterschiedlichen Transportmittel die du genommen hast gesehen und wenn du so zur Seite gekippt hast dann hat man auch nochmal zusätzliche Informationen gekriegt und so Art automatische Auswertung (Lilie: Z. 183-287).

Die Aufgabe des Programmes zur Stress-Visualisierung sollte es sein, Daten, die vom Smartphone gesammelt werden (wie Umweltfaktoren, Bewegungs- oder Kommunikationsdaten), mit der Herzratenvariabilität (gemessen über beispielsweise ein Fitness-Armband) zu kumulieren und zu visualisieren. Alle Faktoren scheinen potentiell stressauslösend zu sein und eine algorithmisierte Zusammenschau dieser scheinbar wahllosen Daten des Smartphones (Wetter, E-Mails, Anrufe, Bewegungsverhalten, Termine im Kalender) könnten größere Zusammenhänge sichtbar machen kann. Auch wenn über die Darstellung der Zusammenhänge der Daten nur Erkenntnisse für Stress-Reaktionen sichtbar und keine

146 | KLINGE

Handlungsvorschläge gemacht werden sollen, so wird doch die Visualisierung an sich normativ gestaltet. Die Verdickung der Kurve als Visualisierung von wenig Bewegung könnte man beispielsweise auch auf die ‚Verdickung‘ des Körpers übertragen. Das Erkennen von Zusammenhängen innerhalb der Informationsvisualisierung wird von Lilie als „Selbsterkenntnis“ (Z. 56) formuliert, wobei das Programm als „Hilfsmittel“ (Z. 57) dafür verstanden wird. Interessant dabei ist, dass diese Selbsterkenntnis als eine visuelle Interpretationsfähigkeit von Daten verstanden wird, die von einem System technisiert, kumuliert und nach bestimmten Maßstäben visualisiert wurden. Durch die Informationsvisualisierung gewinnt man in dieser Perspektive die Handlungsmacht Stressursachen zu bearbeiten („wenn du’s weißt dann kann man gezielt halt dran arbeiten“, Z. 235). Auch in der Orientierung bei der Programmentwicklung von Nelke zeigt sich, dass gezielt Information als „healthy advice“ aufbereitet werden und erzieherisch zum Bewusstsein verhelfen sollen. Für die Verbreitung von Informationen soll die Niedrigschwelligkeit der Plattform sorgen: [W]e are trying to grow to make more people conscious about it. once more people join the platform we are going to be able to reach more people to be conscious about that; so we have to make the platform available for everyone and easy to reach so they can be informed about it and we are using our social networks to communicate about healthy advice (Nelke, Z. 317-324).

In einer Wenn-Dann Logik können Menschen hier zu Bewusstsein geführt werden, wenn sie erstmal der Plattform als Kommunikationsform beigetreten sind. Wenn Erreichbarkeit erzielt werden konnte, wird das soziale Netzwerk genutzt, um über „healthy advices“ zu kommunizieren. Dabei werden die User als „them“ und „they“ adressiert und somit als die anderen markiert, die es zu unterweisen gilt. Vor diesem Hintergrund lässt sich eine Art Erziehungsauftrag hin zu einer normierten gesunden Lebensweise rekonstruieren, welche über digitalisierte Kommunikationsangebote des sozialen Netzwerks vermittelt werden. Nachfolgend merkt Nelke an, dass momentan kein machtvolleres Instrument („more powerful tools“, Z. 333) zur Verfügung steht, als diese Informationen im sozialen Netzwerk zur Verfügung zu stellen. Hier dokumentieren sich zum einen weiterhin eine instrumentalisierende Orientierung und zum anderen die Idee, dass es für Nelke wirkungsvollere Methoden als die Informationsweitergabe gibt. Einen Weg zur Motivation beschreibt er beispielsweise an späterer Stelle im Rahmen eines behavioristischen Lernmodells:

D IE ( IMPLIZITE) P ÄDAGOGIK VON S ELF -T RACKING | 147

[T]he key thing is to motivate people to be healthier and no couch potatoes these motivations so we believe that we reward their exercise with discounts or special prices or some products they can love; it’s a further step for making an habit in doing exercise; so we only try to make them love to make some sports every day, and we are start rewarding them with external motivation; a reward, and users are going to fell in love with sports because of the internal rewarding, they can feel directly; […] that are more important, to make the habit lasting in the long term […] the internal rewarding are going to come sure because, all the people enjoy making sports (Nelke: Z. 339-358).

Der Schlüssel zur Motivation besteht darin, sportliche Betätigung mit Vergünstigungen oder verlosten Produkten zu belohnen, die das Begehren der Nutzer/ -innen wecken, womit eine sportliche Gewohnheit generiert werden kann. Diese Logik folgt dem Modell von Belohnung und gewünschtem Verhalten: Damit der Nutzer/die Nutzerin merkt, wie gut man sich fühlen kann, muss erst einmal durch Belohnungen dorthin geführt werden. Dieses Modell der Verhaltensänderung ist in der Idee von Reiz-Reaktions-Ketten und der anthropologischen Annahme eines naturalistischen Menschenbilds angelegt. Gleich der rousseauschen Idee zur Natur des Kindes, liebt der Mensch von Natur aus Sport – man muss ihn nur dahin zurückführen. In diesem niedergelegten Schema wird durch die positive Verstärkung durch Belohnungen extrinsische Motivation erzeugt, welche dann zu intrinsischer Belohnung und damit zur dauerhaften Umprogrammierung oder zum Naturzustand des Verhaltens führt („habit“). Die Logiken der Vermittlung durch die Technologie („without a person inside there“, Z. 371) werden an spätere Stelle von Nelke aufgeführt. Selbstvermessung sei dabei der Schlüssel zur Verbesserung. So werden Tracking-Devices mit dem Programm verbunden und durch Analysen die Informationen in Kontext gesetzt, „so you know what you are doing“ (Z. 378). In dieser Orientierung erhält man entsprechend erst Aufschluss über sein Handeln mithilfe quantifizierter Sichtbarmachung der Handlung und durch die Kontextualisierung dieser getrackten Zahlen durch das Programm. Den Kontext, durch welchen die eigenen Tätigkeiten erhellt werden sollen, bildet die Rahmung von gesunder Aktivität als eine halbe Stunde bis eine Stunde Bewegung am Tag. Ob man dieses Ziel erreicht, wird in einer wöchentlichen, monatlichen und jährlichen Statistik angezeigt. Bezüglich der Aneignungs- und Vermittlungsweisen zeigt sich zusammenfassend ein rationalistisches Menschenbild, welches sich in der Vermittlung von Gesundheitswissen widerspiegelt. Vorschläge der Weltgesundheitsorganisation (WHO) dienen hier dazu, einen Rahmen binärer Ordnung eines gesunden und eines schädlichen Bewegungsverhaltens zu schaffen.

148 | KLINGE

4.3 Einschreibung von Sozialität: Wettbewerb, „sharing some moments“ und soziale Begleitung Eine weitere Funktion des Programmes von Nelke ist der Vergleich mit anderen Nutzer/-innen, aber auch der Vergleich im regionalen Umfeld und im eigenen organisatorischen Arbeitskontext. Die Normierung durch den Vergleich als auch der Vergleich als Norm erhält nun durch diese Funktion Einzug in sämtliche Lebensbereiche, welche den Sport nicht mehr nur als freizeitliche Betätigung rahmen. Aus diesem Vergleich sollen die Nutzer/-innen Schlüsse für die eigene Leistung ziehen: „so you can know more or less if you are doing great or not“ (Z. 378-379). Der menschliche Wunsch nach Vergleich wird wiederrum naturalisiert gerahmt: „everyone wants to compete, it’s in our nature“ (Z. 389-390). Neben dem Wettbewerb als eingeschriebene Sozialität des Programms, verweist Nelke oft auf den Moment des Teilens: „having some moments to share with with other people; with the with the friend, with the family“ (Z. 349-350), was ebenfalls als interne Belohnung angeführt wird. Dabei scheint das Teilen eine Doppeldeutigkeit zu haben: Zum einen kann es sich auf den Sport als gemeinsame Erfahrung beziehen, zum anderen kann es auf soziale Medien rekurrieren, in welchen es Praxis ist, die Daten zu teilen. In dieser Ausführung scheint es beide Bedeutungen zu beinhalten: die Erfahrung sportlicher Betätigung wird entleiblicht und im Medium des digitalen Teilens als gemeinsamer Moment erfahren. Auch bei Aster spielen die Community und das digitale Teilen von Informationen insofern eine Rolle, als dass dadurch auch Sozialität geschaffen wird. Im Unterschied zu Nelkes Sport-App soll in der Schwangerschafts-App aber keine Konkurrenzsituation erzeugt werden, sondern Beratung bereitgestellt werden: Also das Inhaltskonzept beruht einerseits aus unseren eigenen Erfahrungswerten von der Community wir wissen was wann wie gefragt wird. und wir wissen natürlich auch mittlerweile das die sich nicht belehren lassen wollen. sondern eigentlich das du nur nen sicherer Begleiter bist und als Freundin wahrgenommen wirst. so als anonyme Freundin die aber da ist. wenn du was hast. und mit dieser Ideologie gehen wir an jedes Produkt (Aster: Z. 666-673).

Das „Inhaltskonzept“ speist sich wiederum aus den Beliebtheitsberechnungen von Themen innerhalb der Community aber auch aus firmeninternen Erfahrungen, welches Gegenüber die Nutzer/-innen haben wollen. Dieses programmierte Gegenüber wird von Nelke als menschliche Bezugsperson umschrieben: Der hier eingeführte „Begleiter“ in der App erinnert an psychotherapeutische Beratungs-

D IE ( IMPLIZITE) P ÄDAGOGIK VON S ELF -T RACKING | 149

kontexte, während die „Freundin“ im Alltagssprachgebrauch noch mehr auf eine gleichgesinnte Vertraute verweist. Diese wird weiterhin konkretisiert als anonym, was hier als ‚unsichtbar‘, oder unverkörpert gelesen werden kann, die aber auf Wunsch Präsenz zeigen kann. Diese Technisierung einer Bezugsperson wird beispielsweise dadurch umgesetzt, indem die Nutzer/-innen namentlich angesprochen und geduzt werden, „um so zu wirken als ob wirklich jemand mit dir kommuniziert“ (Z. 1164-1165). Der Versuch der Umsetzung menschlichen Vertrauens in der App zeigt sich ebenso an anderer Stelle des Interviews, in welcher Aster das Gegenüber in einer Sport-App eher als „Kumpel“ imaginiert, während in der eigenen Schwangerschafts-App die „Freundin“ implementiert werden soll. Die sozialen Gegenüber werden also durchaus geschlechtlich gedacht, was eher dem Menschlichen als dem Technischen zugeschrieben werden könnte und somit auch eine implizite Orientierung des Entwicklers zu sein scheint bezüglich dessen, was das technische Gegenüber sein kann oder sein sollte.

5. D AS P ÄDAGOGISCHE

IN DEN

P ROGRAMMEN

Innerhalb der rekonstruierten Entwicklungsgeschichten lässt sich erkennen, dass unterschiedliche Logiken wie unternehmerische Marktorientierungen, technische Machbarkeiten, Gesundheitsorientierungen und teilweise der Anspruch des zivilgesellschaftlichen Nutzens der Self-Tracking-Technologie ins Verhältnis gesetzt werden müssen und damit auch die Inhalte in diesen Notwendigkeiten konstruiert werden. So verschiebt sich beispielsweise der Anspruch, dass das Programm zivilgesellschaftlichen Nutzen haben soll unter Bedingungen und Chancen des wirtschaftlichen Erfolgs. Für die Konstruktion der Technologien und der implementierten Vermittlungsweisen lässt sich damit schlussfolgern, dass neben den ‚eigentlichen‘ Inhalten der Programme (bzgl. gesunder Bewegung, Stresserkennung oder Schwangerschaftsphasen) immer schon marktwirtschaftliche Logiken, technische Machbarkeiten aber auch implizites Wissen der Entwickler/ -innen beispielsweise zu Gesundheit miteinander vermengt sind. Daneben spielt das implizite Konstruktionswissen der Designer/-innen, Programmierer/-innen und Unternehmer/-innen insofern eine Rolle, als dass dadurch das Wie der Technologie-Konstruktion angesprochen ist. So lässt sich bei Lilie beispielsweise erkennen, wie ihr professionsbezogenes Wissen als Designerin und ihre Faszination für die Möglichkeiten von Visualisierung auch eben jene in den Vordergrund der Technologie-Entwicklung stellen. Interessant dabei ist, dass alle Entwickler/ -innen Technologien konstruieren, die für bestimmte Bereiche (wie Gesundheit

150 | KLINGE

und Bewegung) expertisieren sollen, innerhalb derer sie selbst aber über keinen professionellen Hintergrund im engeren Sinne verfügen. Welche (von den Entwicklern/-innen imaginierten) Vermittlungsweisen konnten vor diesem Hintergrund der Verstrickung multipler Interessen, Bedingungen und impliziten Wissens rekonstruiert werden und inwiefern sind die Programme als ‚pädagogisch‘ anzusehen? Besonders deutlich lässt sich bei Nelke durch die Rekonstruktion der Vermittlung durch Reiz-Reaktionsketten hin zu einem wünschenswerten Bewegungsverhalten eine Erziehungsmethode bzw. -technik erkennen, welche an behavioristische Lerntheorien erinnert. Ähnliche Anlehnungen lassen sich auch in der Literatur zum persuasiven Design finden, wenn beispielsweise bestimmte Belohnungssysteme für Programme vorgeschlagen (aber bislang kaum kritisch diskutiert) werden. Es lässt sich annehmen, dass diese Art der Erziehungslogik gut mit einer rationalistisch-binärer Computerlogik zu vereinen ist, da sie Ursache-Wirkungsmodelle bereitstellt, welche eine technisierte Übersetzung benötigt und keinen Raum für Ambiguitäten lässt. Weitere rekonstruierte Vermittlungsweisen, welche sich ebenfalls in der Technisierung realisieren lassen und in allen Interviews eine Rolle gespielt haben, sind die Informationsreduktion und -kontextualisierung. So wurden bei Nelke Empfehlungen der Weltgesundheitsorganisation als rigide Maßstäbe abgeleitet, bei Lilie Stresskontexte durch eine Zusammenschau mit SmartphoneDaten visualisiert und bei Aster das unterschiedliche Schwangerschaftserleben auf bestimmte kuratierte Informationen reduziert. Allen Vermittlungsweisen ist gemein, dass zum einen Normierungen – in doppelter Hinsicht als normative und moralische Wertvorstellungen – nötig sind und zum anderen die analytischen Fähigkeiten von Computern, denen des Menschen vorgezogen werden. Die ‚richtige‘, handlungstaugliche Interpretation von Körperäußerungen wird nicht beispielsweise dem Körperwissen, der Erfahrung oder Intuition der Nutzer/ -innen, sondern technischen Sensoren sowie medizin- bzw. gesundheitswissenschaftlich informierten Algorithmen zugedacht. Ein weiterer Analysefokus für die Interpretation des Pädagogischen in den Self-Tracking-Programmen war die Rekonstruktion eines Gegenübers, welches sich in den Sozialitäten des Vergleichs und des Teilens oder der Beratung durch eine ‚unsichtbare‘ Freundin und der Referenz der Community abzeichnete. Beide Arten des Gegenübers stellen jeweils unterschiedliche Handlungsrahmen – kompetitiv oder umsorgend durch Informationen – für die Nutzer/-innen bereit. Eine Gemeinsamkeit, die sich jedoch in beiden rekonstruierten Gegenüber finden lässt, ist der Modus der Referentialiät, welcher auch schon von Stalder (2016) als ein Aspekt der „Kultur der Digitalität“ herausgestellt wurde.

D IE ( IMPLIZITE) P ÄDAGOGIK VON S ELF -T RACKING | 151

Die Ergebnisse zeigen zusammenfassend, dass die hier untersuchten SelfTracking-Programme auch auf ihre Funktion hin pädagogisch entwickelt wurden: Es gibt bestimmte Vermittlungsweisen, die eingeschrieben werden und auf Verhaltens- und/oder Einstellungsänderungen abzielen – sei es, eine bestimmte Bewegungs- und Gesundheitspraxis zu adaptieren, bewusster und informierter mit Stress umzugehen oder angstfreier der eigenen Schwangerschaft zu begegnen. Darüber hinaus werden aber auch Sozialitäten verschiedener Art im System implementiert, in welchen sich (pädagogische) Gegenüber interpretierten lassen könnten. In Anschluss an Zorn (2014) und ihre Anmerkungen zur transformatorischen Medienbildung stellt sich die Frage, wie solche teilweise rationalistischen Vermittlungsweisen, welche nur eindeutiges technisiertes Wissen durch Algorithmisierung, Datenhandhabung und -visualisierung transportieren, die Selbst- und Weltverhältnisse verändern. Oder wie Schelhowe (2016) bezüglich digitaler Medien und ihrer Wechselwirkung mit Kultur anmerkt: In den Digitale[n] Medien sind wesentliche Merkmale sowohl der postindustriellen Arbeitswelt als auch der Lebenswelt und der Kultur des 21. Jahrhunderts implementiert. Sie sind Ausdruck einer gigantischen Semiotisierung und Formalisierung materieller, sozialer, administrativer Prozesse und sie wirken wiederum in die Kultur hinein, indem sie über ihre interaktiven Potenziale menschliches Handeln evozieren, das sich einerseits in diese formalisierten und maschinisierten Prozesse einfügen muss, sie aber auch ergänzt und überschreitet. (Schelhowe 2016: 50)

Wenn Lern- und Bildungserfahrungen durch die Umwelt und das Selbst fragmentarisierende, digitalisierende Self-Tracking-Programme vermittelt werden, könnte geschlussfolgert werden, dass sich damit auch die ‚menschlichen‘ Konstruktionsprinzipien von Erfahrungen verändern.

L ITERATUR Belliger, Andréa/Krieger, David (2015): Die Selbstquantifizierung als Ritual virtualisierter Körperlichkeit. In: Gugutzer, Robert/Staack, Michael (Hrsg.): Körper und Ritual: Sozial- und kulturwissenschaftliche Zugänge und Analysen, Wiesbaden, S. 389-404. Böhm, Winfried (1997): Entwürfe zu einer Pädagogik der Person. Gesammelte Aufsätze, Bad Heilbrunn. Böhm, Winfried (2000): Wörterbuch der Pädagogik, Stuttgart.

152 | KLINGE

Bohnsack, Ralf (2008): Rekonstruktive Sozialforschung. Einführung in qualitative Methoden, Opladen. Bourdieu, Pierre (1993): Sozialer Sinn. Kritik der theoretischen Vernunft, Frankfurt am Main. Degele, Nina (2000): Informiertes Wissen. Eine Wissenssoziologie der computerisierten Gesellschaft, Frankfurt am Main/New York. Duttweiler, Stefanie/Passoth, Jan-Hendrik (2016): Self-Tracking als Optimierungsprojekt? In: Duttweiler, Stefanie/Gugutzer, Robert/Passoth, JanHendrik/Strübing, Jörg (Hrsg.): Leben nach Zahlen: Self-Tracking als Optimierungsprojekt?, Bielefeld, S. 9-42. Feyrer, Julia (2015): Verhaltensänderung mit persuasiven Smart Technologien. In: Lindemann, Patrick/Koelle, Marion/Kranz, Matthais (Hrsg.): Persuasive Technologies and Applications. Advances in Embedded Interaction Systems, Passau, S. 40-45. Fogg, BJ (2009): A behavior model for persuasive design. In: Samir Chatterjee/Parvati Dev (Hrsg.): 4th International Conference on Persuasive Technology. Online unter: http://bjfogg.com/fbm_files/page4_1.pdf (aufgerufen am 30.11.2017). Heintz, Bettina (2010): Numerische Differenz: Überlegungen zu einer Soziologie des (quantitativen) Vergleichs. In: Zeitschrift für Soziologie, Jg. 39, H. 3, S. 162-181. Klinge, Denise/Krämer, Franz (i.E.): Gesundheitspädagogische Ansprüche des Self-Trackings: Was schreiben EntwicklerInnen in Apps und Geräte ein und wie gehen NutzerInnen damit um? In: Brüninghaus, Anne/Heyen, Nils/Dickel, Sascha (Hrsg.): Personal Health Science: Persönliches Gesundheitswissen zwischen Selbstsorge und Bürgerforschung, Wiesbaden. Knorr-Cetina, Karin (2002): Wissenskulturen. Ein Vergleich naturwissenschaftlicher Wissensformen. Frankfurt am Main. Latour, Bruno (2007): Eine neue Soziologie für eine neue Gesellschaft. Einführung in die Akteur-Netzwerk-Theorie, Frankfurt am Main. Lindemann, Patrick/Koelle, Marion/Kranz, Matthias (Hrsg.) (2015): Persuasive Technologies and Applications. Advances in Embedded Interaction Systems (2), Passau. Lupton, Deborah (2014a): Apps as Artefacts: Towards a Critical Perspective on Mobile Health and Medical Apps. In: Societies, Vol. 4, No. 4, S. 606-622. Lupton, Deborah (2014b): You are your Data: Self-tracking Practices and Concepts of Data. Online unter: http://papers.ssrn.com/sol3/papers.cfm?abstract_ id=2534211 (aufgerufen am 30.11.2017).

D IE ( IMPLIZITE) P ÄDAGOGIK VON S ELF -T RACKING | 153

Manhart, Sebastian (2008): Vermessene Moderne. Zur Bedeutung von Maß, Zahl und Begriff für die Entstehung der modernen Kultur. In: Baecker, Dirk/Kettner, Matthias/Rustemeyer, Dirk (Hrsg.): Über Kultur. Theorie und Praxis der Kulturreflexion, Bielefeld, S. 191-218. Manhart, Sebastian (2016): Pädagogisches Messen: Messen als Organisationsform pädagogischer Praxis. In: Schröer, Andreas/Göhlich, Michael/Weber, Susanne Maria/Pätzold, Henning (Hrsg.): Organisation und Theorie. Beiträge der Kommission Organisationspädagogik, Wiesbaden, S. 53-61. Mannheim, Karl (1980): Strukturen des Denkens, Frankfurt am Main. Polanyi, Michael (1985): Implizites Wissen, Frankfurt am Main. Schachtner, Christel (1993): Geistmaschine. Faszination und Provokation am Computer, Frankfurt am Main. Schäffer, Burkhard (2015): Quantifizierung des Humanen. In: Pietraß, Manuela (Hrsg.): Krise und Chance. Humanwissenschaftliche Perspektiven, München, S. 42-47. Schelhowe, Heidi (2016): ‹Through the Interface›. Medienbildung in der digitalisierten Kultur. In: MedienPädagogik: Zeitschrift für Theorie und Praxis der Medienbildung, Jg. 25, S. 41-58. Selke, Stefan (2014): Lifelogging als soziales Medium? Selbstsorge, Selbstvermessung und Selbstthematisierung im Zeitalter der Digitalität. In: Jähnert, Jürgen/Förster, Christian (Hrsg.): Technologien für digitale Innovationen: Interdisziplinäre Beiträge zur Informationsverarbeitung, Wiesbaden, S. 173200. Stalder, Felix (2016): Kultur der Digitalität, Berlin. Swan, Melanie (2012): Sensor Mania! The Internet of Things, Wearable Computing, Objective Metrics, and the Quantified Self 2.0. In: Journal of Sensor and Actuator Networks, Vol. 1, No. 3, S. 217-253. Swan, Melanie (2013): The Quantified Self: Fundamental Disruption in Big Data Science and Biological Discovery. In: Big Data, Vol. 1, No. 2, S. 85-99. Weber, Susanne Maria (2014): Change by Design!? Wissenskulturen des „Design“ und organisationale Strategien der Gestaltung. In: Weber, Susanne Maria/Göhlich, Michael/Schröer, Andreas/ Schwarz, Jörg (Hrsg.): Organisation und das Neue. Beiträge der Kommission Organisationspädagogik, Wiesbaden, S. 27-48. Zillien, Nicole/Fröhlich, Gerrit/Dötsch, Mareike (2015): Zahlenkörper. In: Hahn, Kornelia /Stempfhuber, Martin (Hrsg.): Präsenzen 2.0, Wiesbaden, S. 77-94. Zorn, Isabel (2014): Selbst-, Welt- und Technologieverhältnisse im Umgang mit Digitalen Medien. In: Marotzki, Winfried /Meder, Norbert (Hrsg.): Perspektiven der Medienentwicklung, Wiesbaden, S. 91-120.

Wer Datengesellschaft sagt, muss auch Cloud-Computing sagen Die Cloud als zentrale Infrastruktur der datafizierten Gesellschaft M ICHAEL E GGERT & D ANIEL K ERPEN

E INLEITUNG Der zentrale Bezugspunkt jeder Analyse einer entstehenden Datengesellschaft ist die Diagnose, dass sich ein wachsender Anteil der gesellschaftlichen Reproduktion über datenzentrierte Prozesse vollzieht (siehe u. a. den Beitrag von Houben und Prietl in diesem Band). Es ist diese Einschätzung, die es somit überhaupt legitimiert, von einer neuen, distinkten Gesellschaftsformation zu sprechen. Das offensichtlich Neue an dieser Perspektive auf die gegenwärtige Gesellschaft besteht darin, dass in allen Bereichen des gesellschaftlichen Lebens eine zunehmende Bedeutung von Entscheidungen festzustellen ist, die auf der Produktion, Strukturierung, Distribution und Visualisierung (Flyverbom/Madsen 2015) von Daten unterschiedlichster Art beruht, die über eine Perspektive, wie sie beispielsweise im Rahmen von Überlegungen zur Informationsgesellschaft (Bell 1973; Castells 1996) formuliert wird, hinausgeht. Diese technische Prozessierung einer immer größer werdenden Menge von Daten ist höchst voraussetzungsvoll, was ihre soziotechnischen Bedingungen betrifft: Neben den Transportkapazitäten im Rahmen der Kommunikationsnetze und der für den Betrieb der verschiedenen Artefakte notwendigen Energie müssen auch immer umfangreichere Ressourcen für die Verarbeitung und die Speicherung von Daten vorgehalten, verteilt und zugänglich gemacht werden (Hintemann/Clausen 2014: 8ff.). Die Relevanz solcher technischer Grundlagen für die Entfaltung konkreter gesellschaftlicher Formationen zeigen in einem gro-

156 | EGGERT & KERPEN

ßen temporalen Rahmen bspw. Popitz (1995) oder Mumford (1934) auf. Hier wird nachvollzogen, wie die jeweilige gesellschaftliche Entwicklung auf spezifischen soziotechnischen Verhältnissen und mit ihnen einhergehenden „fundamentale[n] Technologien“ (Popitz 1995: 13) basiert. Zwar legen Popitz und Mumford jeweils Beobachtungszeiträume von mehreren tausend bzw. vielen hundert Jahren zugrunde, die soziotechnische Grundstruktur als Grundlage unterschiedlicher und unterscheidbarer Gesellschaftsformen tritt aber auch unter feiner aufgelösten Perspektiven deutlich zutage. Offensichtlich scheint es also keine Frage des temporalen Maßstabs zu sein, ob sich eine solche Perspektive der technologischen Fundierung sozialer Wandlungsprozesse rechtfertigen lässt oder nicht. Allerdings verlangt eine Verlagerung der Beobachtung auf feiner aufgelöste Zeiträume auch deren Zuspitzung auf sich schneller wandelnde technologische Phänomene und damit die jeweils prägenden Artefakte und deren netztechnische Strukturen. Es sind also die jeweils gegenwärtigen Infrastrukturen, die den Unterschied machen. Für eine entstehende Datengesellschaft kann also darauf geschlossen werden, dass auch ihre Entfaltung auf bestimmte infrastrukturelle Voraussetzungen angewiesen ist, die die bestimmenden sozialen Prozesse ermöglicht: So wie die Industriegesellschaft auf Infrastrukturen der Energieversorgung und der Güterverteilung elementar angewiesen war (Hughes 1983; Braun/Kaiser 1997) oder die Informationsgesellschaft erst durch Kommunikationsinfrastrukturen (mit) ermöglicht wurde (Bell 1973; Castells 1996; Bowker/Star 1999; Star 1999; Bowker u. a. 2010), so kann sich auch die Datengesellschaft nur unter den Bedingungen vorhandener Infrastrukturen entfalten, die die Erhebung, Speicherung und Verarbeitung – also das Handling insgesamt – großer Mengen von Daten erlauben. Neben den „klassischen Infrastrukturen“ wie z. B. Energieversorgungs-, Verkehrs- und Telekommunikationsnetzen, von denen sich die Gesellschaft längst abhängig gemacht hat (Häußling 2014: 98), bedingt die Diagnose einer sich entwickelnden Datengesellschaft also auch das Vorhandensein von Infrastrukturen der Datentechnologie in einem umfassenden Sinn. Diese wie auch immer gearteten Infrastrukturen des Datenhandlings bilden die soziotechnischen Grundlagen der Datengesellschaft und setzen mit ihrer konkreten Ausgestaltung den Rahmen für die Realisierung derselben. Damit wird deutlich, dass es für ein Verständnis dieser Gesellschaftsformation und ihrer zentralen Prozesse unabdingbar ist, deren infrastrukturelle Grundlagen zu reflektieren und mit ihren Konsequenzen in die Analyse zu integrieren. Oder anders gesagt: Wer die Datengesellschaft analysieren oder gar verstehen möchte, muss sich mit ihren zentralen Infrastrukturen auseinandersetzen.

W ER D ATENGESELLSCHAFT

SAGT , MUSS AUCH

C LOUD -C OMPUTING

SAGEN

| 157

Im Folgenden wird der Versuch unternommen, eine solche Auseinandersetzung auf Grundlage der Überlegungen zu großen technischen Systemen zu fundieren. Dazu werden wir der Frage nachgehen, was denn eigentlich die zentrale Infrastruktur sein könnte, auf deren Grundlage die Entfaltung einer datafizierten Gesellschaft erst erfolgen kann. Zunächst bestimmen wir dazu Merkmale solcher Infrastrukturen, um auf dieser Grundlage Cloud-Computing als die zentrale Infrastruktur der Datengesellschaft vorzuschlagen. Aufgrund einiger Merkmale des Cloud-Computing erscheint es jedoch diskutabel, ob dieses überhaupt als soziotechnisches System im Sinne der Perspektive großer technischer Systeme (GTS bzw. englisch LTS für „large technological systems“) betrachtet und damit als eine zentrale Infrastruktur verstanden werden kann. Daher werden wir anschließend argumentieren, dass, wie und weshalb Cloud-Computing trotz aller (scheinbaren) Irregularitäten als Infrastruktursystem gelten kann, um nachfolgend Besonderheiten herauszuarbeiten, die das Cloud-Computing gegenüber „traditionellen“ Infrastrukturen auszeichnen. Abschließend geben wir davon ausgehend einen Ausblick darauf, wie Winners (1980) Diktum der politics von Artefakten im Kontext des Cloud-Computing verstanden werden kann und welche Konsequenzen sich daraus für Überlegungen zur Gestaltung und Steuerung(sfähigkeit) des Infrastruktursystems Cloud-Computing ergeben.

(D ATEN -)I NFRASTRUKTUREN : G ROSSE TECHNISCHE S YSTEME , KLEINE T ECHNIK UND IHRE L EISTUNGEN Infrastruktur als großes technisches System Wie einleitend darauf hingewiesen, sind unserem Verständnis nach für voneinander unterscheidbare Gesellschaftsformationen distinkte Infrastrukturen konstitutiv. Zentrale Voraussetzung für die Entwicklung einer umfassenden Industriegesellschaft bestanden bspw. in der Bereitstellung von Energie für industrielle Prozesse sowie in der Möglichkeit, Rohstoffe, Zwischen- und Endprodukte zu transportieren und zu distribuieren. Eine wie auch immer geartete Informationsgesellschaft ist darauf angewiesen, dass Informationen vorgehalten und ausgetauscht werden können. Dabei wird relativ schnell deutlich, dass es sich bei den bestimmenden technologischen Grundlagen um immer komplexer werdende (sozio-)technische Netzwerke handelt, die zentrale Funktionen für das Funktionieren und die Reproduktion der jeweiligen Gesellschaftsformationen erfüllen und dabei auch immer auf vorhergehende zentrale Strukturen zurückgreifen. In diesem Sinne

158 | EGGERT & KERPEN

können diese grundlegenden soziotechnischen Strukturen als „objects that create the grounds on which other objects operate“ (Larkin 2013: 329) und damit als Infrastrukturen bestimmt werden, also als […] networks that facilitate the flow of goods, people, or ideas and allow for their exchange over space. As physical forms they shape the nature of a network, the speed and direction of its movement, its temporalities, and its vulnerability to breakdown. They comprise the architecture for circulation, literally providing the undergirding of modern societies, and they generate the ambient environment of everyday life (a. a. O.: 328).

Während die zentrale Anforderung der Informationsgesellschaft also darin besteht, Kommunikation zu ermöglichen, Informationen auszutauschen und Daten zu transportieren, verschiebt sich gegenwärtig das Gewicht der Datentechnologie weg vom reinen Transport von Daten und deren Speicherung hin zu umfassenden Prozessen der Datenbehandlung (Mayer-Schönberger/Cukier 2013: 95ff.). Ein entscheidendes Moment dieser Entwicklung besteht auch darin, dass inzwischen Daten in einem Umfang anfallen, der mit traditionellen Methoden der Datenverarbeitung nicht mehr bewältigt werden kann und gleichzeitig perspektivisch nahezu sämtliche Aktivitäten in allen gesellschaftlichen Sphären – seien es nun Ökonomie, Kultur oder auch der private Alltag – mehr oder weniger auf die Ergebnisse datenbehandelnder Prozesse angewiesen sind oder zumindest in irgendeiner Form darauf zurückgreifen (Bunz 2012; Galloway/Thacker 2007; Kurz/Rieger 2013; Lovink 2012; Mayer-Schönberger/Cukier 2013; Reichert 2014). Somit ergibt sich mit Blick auf die Datengesellschaft das Erfordernis einer neuen oder zumindest eigenen Form von Infrastruktur, die dieses Zurückgreifen auf Datenbestände und -verarbeitung umfassend ermöglicht. Die Auseinandersetzung mit den hierzu notwendigen technischen Ressourcen, ihrer materiellen Qualitäten und ihrer strukturellen Verfügbarkeit legen dabei ein Verständnis von Infrastruktur im Sinne großer technischer Systeme nahe. Dazu bietet sich aus unserer Sicht an, anhand der Diskussion um große technische Systeme und ihre Merkmale und Bestimmungsgrößen eine Heuristik aufzustellen,1 die an die Pro-

1

Der Begriff des großen technischen Systems „[…] besitzt heuristischen Wert, er schult in komplexen, über simple Kausalitäten hinausgelangendem Denken; er kann Entwicklungsstufen und Erfolg und Nichterfolg von Technikkomplexen erklären helfen; er lenkt die Aufmerksamkeit auf die Perspektiven, von denen die technische Entwicklung geleitet wurde, und er trägt zur wechselseitigen Bespiegelung von Geschichte und Gegenwart bei“ (Radkau 1994: 96).

W ER D ATENGESELLSCHAFT

SAGT , MUSS AUCH

C LOUD -C OMPUTING

SAGEN

| 159

zesse der Datengesellschaft angelegt werden kann. Eine solche Herangehensweise erscheint aus verschiedenen Gründen vorteilhaft: Zunächst liegt mit dem GTS-Konzept ein umfangreicher Ansatz vor (Hughes 1983, 1987; Mayntz 1993, 1997; Mayntz/Schneider 1995), der sowohl theoretisch als auch empirisch eine Vielzahl von Merkmalen solcher technischen Infrastrukturen identifiziert hat. Inhaltlich erlaubt es das Konzept darüber hinaus mit seiner Verankerung in der konstruktivistischen Technikforschung, die Infrastruktur(en) in ihrer konkreten Ausgestaltung als Ergebnisse sozialer Aushandlungsprozesse zu begreifen, denen die handlungsleitenden Orientierungen der beteiligten Akteure bzw. „Agenten“ eingeschrieben sind. Ein weiterer Vorzug der GTS-Perspektive liegt schließlich darin, dass sich der in diesem Kontext verwendete Begriff des technischen Systems nicht auf sachtechnische Artefakte beschränken muss, sondern auch Organisationen, wissenschaftliche Komponenten, legislative Artefakte, natürliche Ressourcen und schließlich auch beteiligte Akteure und Akteursgruppen als Systembestandteile begreifen kann und damit der Komplexität der entsprechenden Infrastruktursysteme eher gerecht wird, als dies unter stärker auf Sachtechnik reduzierenden Perspektiven möglich wäre. Zusammengefasst bietet das Konzept großer technischer Infrastruktursysteme einen theoretischen Rahmen, um nicht nur (1) besondere Entwicklungs- und Strukturmerkmale einzelner Infrastruktursysteme zu betrachten, sondern diese auch (2) miteinander zu vergleichen und damit (3) aufgrund der komplexen Wechselwirkungen zwischen technischen Innovationsprozessen mit sozialen Entwicklungsprozessen ihre Bedeutung für gesellschaftliche Entwicklungen zu analysieren (siehe auch Monstadt 2007). Form und Funktion großer technischer Infrastrukturen Für die nun konkrete Identifikation der zentralen Infrastruktur(en) der Datengesellschaft müssen der Heuristik mindestens zwei Dimensionen zugrunde gelegt werden: Auf der einen Seite muss die Frage geklärt werden, welche Merkmale ein soziotechnisches Netzwerk aufweisen muss, um sich als großtechnisches System zu qualifizieren. Die andere Seite ist diejenige der Leistungen, die das entsprechende GTS erbringen muss, um als die zentrale Infrastruktur der Datengesellschaft gelten zu können. Bezüglich der ersten Frage sind es nach Hughes (1983, 1987) insbesondere vier Dimensionen, in denen sich technische Infrastruktursysteme als „groß“ erweisen: (1) Hinsichtlich ihrer geographischen Ausdehnung sind die entsprechenden technischen Systeme als „groß“ im besten Sinne und umfassend (zumindest, was den jeweiligen Bezugsrahmen betrifft) einzustufen, was bis hin zu einer

160 | EGGERT & KERPEN

globalen Ausdehnung reichen kann. (2) Dazu erweisen sich technische Infrastruktursysteme in der zeitlichen Dimension als „große“ technische Systeme, wenn sie eine gewisse zeitliche Persistenz aufweisen und damit nicht nur Lösungs- und Bearbeitungsmöglichkeiten für konkrete, gegenwärtige Probleme bieten, sondern auch die Grundlage für weitere Entwicklungen stellen. (3) Des Weiteren erfordert die Einstufung eines soziotechnischen Netzwerks als „großes technisches System“ im Sinne der GTS-Forschung einen relativ hohen Grad der Komplexität der einbezogenen Technologien. (4) Und schließlich betont Hughes die Vernetztheit der Systembestandteile als ein entscheidendes Bestimmungsmaß für die „Größe“ eines technischen Systems. Die Betonung des Netzcharakters verdeutlicht dabei, dass der Ausdruck große technische Systeme für umfangreiche, miteinander verknüpfte Ensembles technischer Systeme Verwendung finden soll (Joerges/Braun 1994; Mayntz 1997). Darüber hinaus grenzt der Begriff den „interessierenden Techniktypus vor allem von lediglich locker verbundenen Agglomeraten oder bloß gedanklichen Aggregaten kleiner Technik“ (Joerges/Braun 1994: 21f.) ab, indem er sicherstellt, dass als Komponenten des fraglichen GTS nur Artefakte in Frage kommen, die innerhalb des Systems mit anderen Artefakten interagieren, „all of which contribute directly or through other components to the common system goals“ (Hughes 1987: 51). Hughes hatte solche großtechnischen Systeme „seamless webs“ genannt, was Joerges und Braun als „glückliche Metapher [bezeichnen; M.E./D.K.], denn sie evozierte nicht nur eine gewisse Grenzenlosigkeit der Systeme […]. Sie hat auch den Umstand verbildlicht, daß in diesen Geweben technische und andere soziale Fäden unentwirrbar miteinander verschlungen sind“ (Joerges/Braun 1994: 28). Insbesondere verweisen Joerges und Braun damit auch auf den Umstand, dass große technische Systeme nicht alleine technisch gedacht oder gar verstanden werden können. Vielmehr umfassen sie neben technischen Komponenten auch soziale Prozesse, kulturelle Artefakte etc., die in ihrem Zusammenspiel untereinander und mit den technischen Elementen das große technische System konstituieren und dessen Funktionieren ermöglichen. Bezüglich der zweiten Frage nach den Leistungen von GTS lässt sich festhalten, dass sie darauf ausgerichtet sind, jene privaten und öffentlichen Dienstleistungen bereitzustellen, die einerseits notwendige, jedoch nur schwer substituierbare Leistungen erbringen, indem sie zur Speicherung, Umwandlung und/oder dem Transport bestimmter Produkte ermöglichen: „Die zentrale Funktion großtechnischer Systeme besteht darin, spezifische Aktivitäten zu ermöglichen, etwa den Betrieb von Elektromotoren, das Kochen, das Waschen, die Beleuchtung oder die physische bzw. kommunikative Raumüberwindung“ (Mayntz 1997: 74; vgl. auch Mayntz 1988: 233). Etwas „lapidar“ formuliert: Große technische Sys-

W ER D ATENGESELLSCHAFT

SAGT , MUSS AUCH

C LOUD -C OMPUTING

SAGEN

| 161

teme gewährleisten die problemlose Nutzung einer großen Menge kleiner betriebener Technik (Joerges/Braun 1994: 21). Insofern erbringen großtechnische Infrastruktursysteme eine „Ermöglichungs- und Vorleistungsfunktion für bestimmte Zwecke, die zu grundsätzlichen menschlichen Bedürfnissen gehören oder sich – wie z. B. das Fliegen oder das Internet – zumindest zu wichtigen Bedürfnissen entwickelt haben“ (Monstadt/Naumann 2004: 10f.; Herv. im Orig.). Ermöglichungs- bzw. Vorleistungsfunktion verweist dabei auch auf einen temporalen, zukunftsgewandten Aspekt: Folgt man Weyer (1994), so ist bei der Untersuchung großer technischer Systeme deren zukunftsgewandtes Versprechen der Problemlösefähigkeit stärker in den Mittelpunkt zu rücken. Danach kann ein großes technisches System in Konkurrenz zu anderen Systemen nur bestehen, wenn über das originäre Problem hinaus, zu dessen Lösung es entwickelt wurde, es auch noch weitere, neue Probleme zu lösen verspricht.2 Die Betonung einer zusätzlichen zukünftigen Problemlösungsfähigkeit verweist neben ihren konkreten Konsequenzen für die Gestaltung großer technischer Systeme auch auf einen Aspekt, den die sozialkonstruktivistische Technikforschung als einen zentralen Punkt bestimmt: Wie alle technischen Artefakte und Artefaktbündel verfügen auch und insbesondere große technische Infrastruktursysteme nicht über einen rein instrumentellen Charakter, der ihnen ihrer konkreten Nutzung gegenüber eine neutrale Position zuweist. Stattdessen ist diesen Infrastrukturen auch immer eine Normen setzende bzw. durchsetzende Funktion eigen (Bowker/Star 1999: 381f.). Die konkrete technische Ausgestaltung von Technik legt beispielsweise bestimmte Nutzungsformen nahe oder verhindert andere; durch rechtliche Regelungen oder kulturelle Codes wird der Zugang und die Nutzung solcher Infrastrukturen geregelt und sanktioniert, indem beispielsweise unterschiedlichen Akteuren in unterschiedlichem Ausmaß Zugang gewährt oder verweigert wird. Während diese Voraussetzungen im Falle einzelner Artefakte oder auch begrenzter Systeme (sogenannte „kleine Technik“, Braun 1994) oftmals nur die konkreten NutzerInnen und deren direktes soziales Umfeld oder bestimmte Gruppen von Akteuren betreffen, haben diese Normen setzenden Eigenschaften großer technischer Infrastruktursysteme potentiell weitreichende gesellschaftliche Auswirkungen und gesellschaftsformative Konsequenzen, die sich auch in der Auseinandersetzung mit derartigen soziotechnischen Komplexen widerspiegeln müssen (Mayntz 1993). Insbesondere die hier gewählte Analyseperspektive auf die Datengesellschaft, die die technische Fundierung ihres

2

Joerges und Braun sprechen in diesem Zusammenhang auch von einer „Überzeugungsleistung“ von GTS, zukünftige Probleme lösen zu können (Joerges/Braun 1994: 17).

162 | EGGERT & KERPEN

Gegenstandes als Ausgangspunkt nimmt und argumentiert, dass für deren zentrale Operationen die Verfügbarkeit bestimmter Infrastrukturleistungen eine conditio sine qua non darstellt, ist also darauf angewiesen, diesen grundlegenden soziotechnischen Gefügen einen zentralen Stellenwert in der Analyse zuzubilligen.

D IE I NFRASTRUKTUR ( EN ) DER D ATENGESELLSCHAFT Nachdem im Vorangehenden bestimmt wurde, welche Merkmale ein soziotechnisches Gefüge aufweisen muss, um als großes technisches Infrastruktursystem gelten zu können, soll nun der Versuch unternommen werden, das bzw. die zentrale(n) Infrastruktursystem(e) der datafizierten Gesellschaft zu bestimmen. Am Ausgangspunkt dieser Suche steht zunächst die Frage, welches die prinzipiellen Prozesse sind, die es erlauben, von einer Datengesellschaft zu sprechen. Zunächst impliziert der Begriff, dass es sich dabei um eine Perspektive handelt, die davon ausgeht, dass „Daten“ – ganz allgemein gesprochen – einen wichtigen Beitrag für die gesellschaftliche Reproduktion leisten. Als definitorisches Merkmal hat jedoch eine solche Zentralität von „Daten“ nur wenig Relevanz, wenn man berücksichtigt, dass jede Form eines wie auch immer organisierten Gemeinwesens darauf basiert, gewisse Daten über dessen Mitglieder zu sammeln und auszuwerten. Beispiele hierfür lassen sich in der gesamten Geschichte der Menschheit wiederfinden (Mayer-Schönberger/Cukier 2013), angefangen etwa bei Steuerlisten, wie sie bereits in den antiken Hochkulturen erhoben wurden, bis hin zu relativ umfangreichen Datensammlungen, die es modernen Wohlfahrtsstaaten erlauben, BürgerInnen (etwa bezüglich ihrer Hilfsbedürftigkeit) zu klassifizieren und damit die Organisation und Verwaltung staatlicher Leistungen ermöglichen. Auch der umfassende Einsatz von Daten im Bereich der Ökonomie rechtfertigt für sich genommen nicht unbedingt die Rede von einer Datengesellschaft. Schließlich sind auch für die moderne Wissenschaft und Technologie „Daten“ in unterschiedlichen Ausprägungen und die Auseinandersetzung mit diesen schon immer die zentrale Grundlage. Entscheidend für die Bestimmung einer Datengesellschaft ist somit nicht ausschließlich die hohe Relevanz von Daten in unterschiedlichen gesellschaftlichen Teilbereichen oder Funktionssystemen, sondern die Feststellung, dass datenbasierte Prozesse zunehmend sämtliche gesellschaftlichen Sphären durchdringen und somit zum dominanten Modus gesellschaftlicher (Re-)Produktion werden. Dabei handelt es sich bei den genutzten Daten um digitale Daten, die zunehmend automatisiert erhoben und verarbeitet werden und in einem immer größeren Umfang (Stichwort Big Data) vorliegen.

W ER D ATENGESELLSCHAFT

SAGT , MUSS AUCH

C LOUD -C OMPUTING

SAGEN

| 163

Aus diesem Blickwinkel sind es also weniger die Daten selbst und ihr Vorhandensein, die die Datengesellschaft charakterisieren, sondern (1) deren Qualität als digitale Daten, die (2) ubiquitär produziert und algorithmengesteuert verarbeitet werden, worauf sich (3) immer weitere Bereiche von Entscheidungen nicht nur in Ökonomie, Wissenschaft und Politik stützen, sondern bspw. auch im Bereich des privaten Alltags. Um die sich daraus ergebenden Anforderungen an die zentrale(n) Infrastruktur(en) näher zu bestimmen, lohnt es sich, die bisher unter „datenbasierten Prozessen“ oder „Datenprozessen“ subsumierten Mechanismen näher zu beleuchten. In Anlehnung an Flyverbom/Madsen (2015) lässt sich Datenhandling genauer differenzieren in Prozesse der Produktion, Strukturierung, Distribution und Visualisierung von Daten, die sich damit als die zentralen Elemente datengetriebener Prozesse annehmen lassen. In diesem Verständnis umfasst Datenproduktion die Quellen und Formen von Daten (z. B. Konfigurations-, Nutzungs- und Metadaten) von (vernetzten) Geräten, Sensoren sowie der Nutzung digitaler Dienste. Weiterführend erlaubt dann die Strukturierung eine Aggregation, Modularisierung und Skalierung von Daten, die dann im Rahmen von Distributionsprozessen ausschlaggebend werden dafür, welche sozialen Akteure Zugriff auf sie haben und welche Akteure in welcher Form von ihnen betroffen sind. Die Darstellung/Visualisierung der Daten ist schließlich jener Bereich, in dem eine auf einen Zweck hin ausgerichtete Auswahl getroffen wird, d.h. also welche Quelldaten und strukturierten Daten in welcher Form präsentiert werden. Unterstellt man eine wie auch immer geartete Form der Entscheidung oder Steuerung als Anlass von Datenprozessen (bspw. „direkt“ durch ein technisches Artefakt oder auch „indirekt“ bspw. durch einen Akteur auf Basis visualisierter Daten), rücken für die Suche nach den infrastrukturellen Voraussetzungen insbesondere die Produktion, Strukturierung und Distribution von Daten gegenüber der Visualisierung in den Vordergrund.3 Für die Perspektive einer Datengesell-

3

Während Produktion, Strukturierung und Distribution für jegliche Datenprozesse konstitutiv und damit auf Infrastrukturebene angesiedelt sind, handelt es sich bei der Visualisierung eigentlich bereits um eine konkrete Nutzungsweise der fraglichen Infrastrukturen, nämlich eine „Übergabe“ von produzierten, strukturierten und distribuierten Daten an die physische Umwelt. Damit verweist die Visualisierung auf bestimmte Kopplungsinstanzen (Interfaces), die Teil der Infrastruktur sein können, dies aber nicht müssen. Außerdem kann eine solche Übergabe auch in anderer Form erfolgen als visuell, und schließlich können Datenprozesse auch ohne eine solche Übergabe Konsequenzen zeitigen und direkt aneinander anschließen. Zusammengenommen stellt sich die Visualisierung von Daten damit als nicht zwingend und für unser Anlie-

164 | EGGERT & KERPEN

schaft bedeutet dies, dass ihre Realisierung zentral von der Ermöglichung dieser drei Prozesse abhängt und damit die für diese Prozesse notwendigen Ressourcen in einer Art und Weise bereitgestellt werden können, die eine gewisse Ignoranz gegenüber den konkreten Inhalten der Prozesse aufweist, um eine unbekannte Anzahl spezifischer, heterogener Nutzungsweisen zu ermöglichen. Bei dieser Ermöglichung der Datenprozesse handelt es sich eben um eine solche oben angesprochene „Vorleistungsfunktion“, wie sie Monstadt/Naumann (2004: 10) großtechnischen Infrastrukturen zuschreiben. Um als zentrale Infrastruktur der datafizierten Gesellschaft gelten zu können, muss ein soziotechnisches Gefüge also diese Bereitstellung der Ressourcen für Produktion, Strukturierung und Distribution von Daten organisieren. Dabei darf nicht außer Acht gelassen werden, dass diese Prozesse weder empirisch noch analytisch immer strikt voneinander getrennt werden können, so dass ein „Umweg“ über die Bestimmung unterschiedlicher Infrastrukturen für die unterschiedlichen Prozesse ausgeschlossen scheint. Nicht gesagt ist damit allerdings, dass die zu bestimmende Infrastruktur nicht auch auf Leistungen anderer Infrastruktursysteme zurückgreift, wie dies ja bereits für die „traditionellen“ großen technischen Systeme der Fall ist. Im Gegenteil: Aufgrund der vielfältigen Anforderungen, die sich an die Dateninfrastruktur stellen und der Heterogenität der für Datenproduktion, -steuerung und -distribution relevanten Ressourcen kann vorausgesetzt werden, dass hier auf bereits bestehende Infrastruktursysteme und deren Leistungen zurückgegriffen werden muss. Deutlich wird an dieser Stelle auch, dass sich traditionelle großtechnische Infrastruktursysteme kaum als Kandidaten qualifizieren, sondern ein Konzept vonnöten ist, das nicht nur unterschiedliche Infrastruktursysteme kombiniert und deren Leistungen nutzt, sondern diese auch um originäre Elemente im Sinne einer Leistungssteigerung ergänzt und damit das Ablaufen von Datenprozessen ermöglicht. Naheliegend wäre es auf den ersten Blick, das Internet als dasjenige soziotechnische Netzwerk anzunehmen, das die datafizierte Gesellschaft ermöglicht. Immerhin verknüpft es Computer(netze) weltweit und ermöglicht den gegenseitigen Zugriff auf Ressourcen im Sinne bereitgestellter Daten. Dabei greift es auf die Leistungen der Energie- und Kommunikationsinfrastrukturen zurück und nutzt diese in spezifischer Weise. Eine Leistungssteigerung durch das Internet erfahren insbesondere die Kommunikationsinfrastrukturen, sowohl in qualitativer Hinsicht (nicht nur Sprache und Töne, sondern jede Art von Daten kann jetzt über das Kommunikationsnetz transportiert werden) als auch quantitativ (effizi-

gen – eine Bestimmung zentraler Infrastrukturen – als weniger relevant heraus, weswegen wir diese nicht weiter berücksichtigen.

W ER D ATENGESELLSCHAFT

SAGT , MUSS AUCH

C LOUD -C OMPUTING

SAGEN

| 165

entere Nutzung der Bandbreiten). Allerdings erschöpfen sich die Leistungen des Internet auch größtenteils in der gegenseitigen Bereitstellung von Daten und deren Transport. Für eine umfassende Ermöglichung von Datenprozessen sind darüber hinaus aber auch Ressourcen für die Produktion und die Strukturierung von Daten vonnöten, die sich so im Konzept des Internet nicht wiederfinden lassen.

C LOUD -C OMPUTING ALS ZENTRALE I NFRASTRUKTUR DER D ATENGESELLSCHAFT Um diese über den Transport hinausgehenden Ressourcen in ein Konzept einer zentralen Infrastruktur der Datengesellschaft integrieren zu können, schlagen wir an dieser Stelle vor, Cloud-Computing als diese zentrale Infrastruktur des Datenumgangs zu betrachten. Terminologisch folgen Diskussionen des Cloud-Computing zunächst meist weitgehend der Definition des US-amerikanischen National Institute of Standards and Technology (NIST) (Mell/Grance 2011; vgl. z. B. Backhaus/Thüring 2016)4: KundInnen können kurzfristig je nach Bedarf (d.h. skalierbar und annähernd latenzfrei) automatisiert (also ohne Interaktion mit menschlichen AnsprechpartnerInnen) bei den Anbietenden gewünschte Ressourcen (z. B. Speicher- oder anderweitige Netzwerk- und Serverleistung) aus einem solcherart „gebündelten“ Ressourcen-Pool anfordern. Dieser Zugriff erfolgt üblicherweise über internet-basierte Interfaces und ist in der Regel mit einer Vielzahl von Endgeräten möglich. Diese zwar technisch orientierte aber dennoch stark konzeptionell ausgerichtete Definition des Cloud-Computing weist bereits darauf hin, dass es sich beim Cloud-Computing nicht um eine konkrete Technologie handelt, sondern im Kern um eine neue Form der Nutzung von Ressourcen der Datenverarbeitung, die durch ein ganzes Bündel unterschiedlicher Technologien und Verfahren realisiert wird. IT-Infrastrukturen, -Plattformen und -Dienste werden bei dieser Nutzungsform nicht mehr von den Nutzerinnen und Nutzern selbst vorgehalten. Stattdessen werden diese als Dienstleistungen angeboten und von den Nutzenden situationsabhängig bezogen (Infrastructure, Platform und Software as a Service). Einerseits sind diese Angebote dynamisch und skalierbar; andererseits sind sie aufgrund der Verteiltheit und Heterogenität ihrer materiellen Basis räumlich

4

Vgl. zur Übersicht über theoretische und anwendungsbezogene Fragen des CloudComputings z. B. die Überblicksarbeiten von Li und anderen (2013), Schneider und Sunyaev (2016), Venters und Whitley (2012) oder Yang und Tate (2012).

166 | EGGERT & KERPEN

wie organisatorisch nicht mehr eindeutig zuordenbar (Eggert et al. 2014; Eggert/Kerpen 2015). Vor allem die dem Cloud-Konzept inhärente Dynamik und Skalierbarkeit bilden die Grundlage dafür, dass Cloud-Computing eine der einschneidendsten Veränderungen in der jüngeren Geschichte der IT darstellt. Denn realistischerweise können nur über derart elastische Verfahren die für die vielfältigen Nutzungsmöglichkeiten des zunehmend ubiquitären mobilen Internets erforderlichen Technologien bereitgestellt werden. Die Ubiquität resultiert in diesem Zusammenhang aus einer Komplementarität der großen Entwicklungslinien der IT der letzten Jahre, nämlich in Form der Nutzbarmachung zunehmend miniaturisierter, vernetzter und mobiler Computertechnologie. So ist der (globale) Markt für smart devices bereits von Smartphones und Tablets sowie zunehmend auch unterschiedlichen, anwendungsspezifischeren Wearables durchdrungen, die sowohl im persönlich-individuellen als auch organisationalen Umfeld auf Cloud-Strukturen zurückgreifen: Allein in Deutschland hat sich von 2011 bis 2015 das über Mobilfunknetze übertragene Datenvolumen von 100 auf 591 Millionen Gigabyte nahezu versechsfacht. Im Laufe des Jahres 2016 stieg das Volumen nach vorläufiger Prognose nochmals um knapp 50 Prozent auf 860 Millionen Gigabyte; und für 2017 wird ein Anwachsen des Datenvolumens auf knapp 1,2 Milliarden Gigabyte erwartet (Ametsreiter 2017). Gleichzeitig wird die in den Geräten verbaute Elektronik immer weiter miniaturisiert und damit im Weiser’schen Sinne (1991) zu tatsächlich ubiquitärer Computertechnologie (z. B. auch Pitt 2012). Wesentlicher Treiber hierbei ist die zunehmende Realisierung des Internet of Things, das „intelligente“ (körpernahe) Elektronik in Alltags- und Arbeitsplatzkontexten vernetzt und in dessen Mittelpunkt gegenwärtig das Smartphone als mobile Steuerungszentrale steht: So ist es für viele Nutzerinnen und Nutzer bereits alltäglich, ihr Smartphone mit anderen Alltagsgegenständen zu vernetzen (z. B. Infotainmentsystemen im Auto, Smartwatch/Fitnessarmband, Unterhaltungs-/Haustechnik). Insbesondere im Hinblick auf die grundlegende technische Funktionalität ist bei solchen mobilen Endgeräten und weiterer „smarter“ Umfeldtechnologie der zunehmende Einsatz von Cloud-Computing-Ressourcen angezeigt, um die (im Vergleich zu stationären Systemen) aus dieser Miniaturisierung resultierenden beschränkten Rechen-, Speicher- und Energieressourcen solcher Geräte auszugleichen (Dinh et al. 2013). Auch die unter dem Schlagwort Industrie 4.0 diskutierten Transformationen der industriellen Produktion (Bauernhansl/ten Hompel/Vogel-Heuser 2014; Brecher 2015) gründen zu weiten Teilen auf dem Einsatz von CloudTechnologien. Sowohl hier als auch in weiteren Bereichen (z. B. im Wissenschaftssystem) können die für Big-Data-Anwendungen benötigten Datenmengen

W ER D ATENGESELLSCHAFT

SAGT , MUSS AUCH

C LOUD -C OMPUTING

SAGEN

| 167

realistischerweise nur über Cloud-Nutzung erhoben, verwaltet und verarbeitet werden. Aus diesem (wenngleich groben) Blick auf die Perspektiven des CloudComputing – der sich beinahe wie ein Lastenheft für eine nachhaltige Dateninfrastruktur liest – wird letztlich deutlich, wie sich in den vergangenen Jahren das Cloud-Computing mit seiner Vision von praktisch unbeschränkten, variabel skalier- und bepreisbaren Speicher- und Verarbeitungsressourcen als grundlegendes Paradigma des Datenumgangs etablieren konnte. Auch erkennbar wird aus diesem Überblick, dass sich Cloud-Computing in besonderer Weise für die Betrachtung als infrastrukturelle Grundlage einer Datengesellschaft eignet. Seine offene konzeptionelle Bestimmung erlaubt es, die unterschiedlichen Anforderungen, die Datenproduktion, -strukturierung und -distribution an die Infrastruktur stellen, in einem umfassenden Bild zu integrieren. Die dafür nötigen materiellen und immateriellen Ressourcen lassen sich im Rahmen des Cloud-Computing in ihrer Heterogenität in einem umfassenden Netzwerk verbinden und zueinander in Beziehung setzen. Als übergreifende technologische Basis erlaubt die Cloud prinzipiell jeder und jedem, die durch sie bereitgestellten Ressourcen zu nutzen. Dabei ist sie grundsätzlich offen, was die konkrete Nutzung angeht, so dass sie nicht nur den Betrieb einer großen Anzahl cloud-gebundener Technologien und Artefakte ermöglicht, sondern diese kleine Technik auch beliebig ausgeprägt sein kann. Neben den funktionalen Anforderungen an Infrastruktursysteme, wie sie oben bestimmt wurden, erfüllt das Cloud-Computing auch die morphologischen Kriterien, um sich als großes technisches System qualifizieren: Das Netzwerk, das die Cloud formiert, hat im Kern keine geographischen Grenzen; die in der Cloud verbundenen Ressourcen können weltweit verteilt sein. Die Komplexität der im großen technischen System verbundenen Komponenten ist in mindestens doppelter Hinsicht als relativ hoch einzuschätzen: einerseits handelt es sich bei den technischen Bestandteilen und Ressourcen selbst um hoch komplexe Artefakte, andererseits bedingt die Heterogenität der Anforderungen und damit auch der Ressourcen eine hohe Komplexität des gesamten Systems, welches in sich wiederum stark vernetzt ist.

D IE C LOUD – E INE I NFRASTRUKTUR

EIGENER

ART

An einer solchen Bestimmung des Cloud-Computing als zentraler Infrastruktur der datafizierten Gesellschaft fällt auf, dass diese sich in einigen Aspekten von den „klassischen“ Infrastruktursystemen, wie dem der Energieversorgung oder auch von Kommunikationsinfrastrukturen, unterscheidet. So scheint die Cloud

168 | EGGERT & KERPEN

stärker auf die Nutzung bereits bestehender Infrastrukturen angewiesen zu sein und sich darüber hinaus auch nicht durch die Bereitstellung eines dezidierten Netzes mit eigener Artefaktqualität auszuzeichnen. Dennoch kann man CloudComputing – folgt man beispielsweise den Überlegungen Brauns (1994) zum Transplantationswesen und der Sondermüllentsorgung – als großes technisches System begreifen und in Folge seiner Ermöglichungsfunktion für die Nutzung unterschiedlicher kleiner Technik auch als Infrastruktur verstehen. Während Braun jedoch seine Fälle, die ausschließlich auf unterliegenden Infrastrukturen aufbauen, auf deren Leistungen zurückgreifen und diese um eigene Artefakte ergänzen, als „große technische Systeme zweiter Ordnung“ (a. a. O.: 447) charakterisiert und sie damit von den „GTS klassischer Prägung“ unterscheidet, liegt mit dem Cloud-Computing eine Form der Infrastruktur vor, die nicht nur auf die Leistungen grundlegender Infrastrukturen zurückgreift und damit weitere große wie kleine technische Systeme ermöglicht, sondern selbst erst die Funktion derselben Systeme ermöglicht – ähnlich, wie es Edwards (1998) für das Verhältnis von Computern und Energieversorgung festhält, die gegenseitig die Infrastruktur für das jeweils andere bilden. Cloud-Computing als Infrastruktur unterscheidet sich damit insofern von Brauns großen technischen Systemen zweiter Ordnung, als diese auf der Nutzungsoffenheit klassischer großtechnischer Infrastruktursysteme aufbauen und diese auf eine bestimmte Nutzung hin zuspitzen, während die Cloud selbst Ressourcen bereitstellt, die den Betrieb der ihr wiederum zugrundeliegenden Infrastrukturen erst ermöglichen. Somit wird deutlich, dass es sich beim Cloud-Computing stattdessen um eine großtechnische Infrastruktur eigener Art handelt, die über Bestimmungen wie diejenige von Larkin hinausgeht, die den „flow of goods, people and ideas“ (Larkin 2013: 328) ins Zentrum stellt und damit primär auf die distributive Leistung von Infrastruktursystemen abzielt. Zwar stellen die Verteilung und der Transport einer bestimmten Art von Ressourcen und Gütern (in diesem Fall Daten) auch beim Infrastruktursystem Cloud-Computing einen gewichtigen Teil der Leistungen der Infrastruktur dar; wie weiter oben bereits ausgeführt wurde, reicht eine solche zwar nutzungsoffene, dennoch im Kern monofunktionale Perspektive auf Infrastrukturen aber nicht aus, um den infrastrukturellen Anforderungen einer datafizierten Gesellschaft Rechnung zu tragen. Das Cloud-Computing hingegen zeichnet sich gegenüber einem solchen auf die Transport- und Distributionsleistungen konzentrierten Infrastrukturverständnis dadurch aus, dass es bereits im konzeptionellen Kern auf die Erfüllung multipler Anforderungen hin orientiert ist, womit es zu einer Erweiterung der Perspektive auf die Merkmale grundlegender Infrastrukturen herausfordert, die die Produktion und Bearbeitung (eines Teils der) der relevanten Ressourcen stärker in den Blick nimmt:

W ER D ATENGESELLSCHAFT

SAGT , MUSS AUCH

C LOUD -C OMPUTING

SAGEN

| 169

Beispielsweise gehört zum großtechnischen System der Verkehrsinfrastruktur ohne Zweifel auch das Tankstellennetz; inwiefern aber zum Beispiel Raffinerien dazugehören, kann in Frage gestellt werden, dienen sie doch eher dazu, das große technische System des Verkehrs mit demjenigen der Rohstoffgewinnung- und Verarbeitung zu verkoppeln. Im Unterschied dazu bilden etwa die Datencenter von Amazon keine eigene, von der Cloud abzutrennende Infrastruktur, sondern sind elementare Bestandteile derselben: Zwar werden auch hier – um im Bild zu bleiben – die „Rohstoffe“ für die Datenökonomie und die datafizierte Gesellschaft verarbeitet, so dass eine Dateninfrastruktur und die diese nutzende Gesellschaft ohne diese Komponenten nicht funktional vorstellbar wäre. Allerdings werden diese „Rohstoffe“ in und durch diese Infrastruktur nicht nur distribuiert, sondern auch überhaupt erst gewonnen, und auch ihre „Weiterverwendung“ erfolgt ebenfalls innerhalb dieser, während die Produkte einer Erdölraffinerie nicht nur dem Verkehrswesen zur Verfügung stehen, sondern auch beispielsweise die Grundlage für die chemische Industrie bilden. Genauso verhält es sich „auf der anderen Seite“, mit den an die Cloud „angeschlossenen“ Endgeräten und sonstige Artefakten, die einerseits die notwendigen Daten erheben, andererseits aber auch basierend auf den Ergebnissen cloudbasierter Datenprozesse wiederum Entscheidungen herbei- und Aktivitäten ausführen. Schließlich sei noch auf eine weitere Qualität des Cloud-Computing verwiesen, die dieses im Vergleich mit traditionellen Infrastrukturen bemerkenswert macht. Zwar ist es ein zentrales Merkmal großtechnischer Systeme, dass diese eine umfassende räumliche Ausdehnung besitzen und ein potentiell weltumspannendes Netz bilden, dennoch bestehen die bisherigen Infrastruktursysteme in der Regel aus ursprünglich begrenzten, regionalen oder nationalen Versorgungsnetzen, die erst im Verlauf ihrer Entwicklung über gemeinsame Standards und Schnittstellen miteinander verbunden wurden (Mayntz/Schneider 1995: 78), um eine überregionale Distribution der in Frage stehenden Ressourcen und Güter zu gewährleisten. Das Cloud-Computing hingegen, das zumindest für die Logistikfunktion auf Infrastruktursysteme zurückgreift, bei denen diese Vernetzung bereits geleistet wurde, ist schon vom konzeptionellen Kern her global orientiert und darauf ausgerichtet, weltweit verteilte Ressourcen in einem umfassenden System zu integrieren.

E MERGENTE P OLITICS

DES

CL OUD -C OMPUTINGS

Nachdem im Vorangegangenen das Cloud-Computing als zentrale Infrastruktur der datafizierten Gesellschaft identifiziert und als großes technisches System be-

170 | EGGERT & KERPEN

stimmt werden konnte, sei nun abschließend noch kurz auf eine zentrale Dimension der Diskussion um große technische Systeme hingewiesen, die den Blick auf deren konkrete Gestaltung und die sich aus dieser ergebenden gesellschaftlichen Konsequenzen lenkt. Spätestens seit Winners breit rezipierter Arbeit „Do Artifacts have Politics?“ (Winner 1980) hat sich in der Auseinandersetzung mit technischen Artefakten im Allgemeinen und Infrastruktursystemen im Besonderen die Einsicht durchgesetzt, dass diese nicht einer technischen Eigenlogik folgen, sondern in ihrer konkreten Ausgestaltung auf den Strategien zentraler Akteure und Akteursgruppen, die sie entwickeln, anbieten und betreiben und auf umfassenden Aushandlungsprozessen zwischen diesen beruhen (bspw. Bijker/ Hughes/Pinch 1987; Bijker/Law 1992). Während sich diese Feststellung für technische Artefakte insgesamt treffen lässt, gewinnt sie gerade im Kontext von Infrastruktursystemen eine besondere Relevanz, wenn man sich deren Bedeutung für die Realisierung jeweils aktueller Gesellschaftsformen ins Gedächtnis ruft. Im Falle traditioneller Infrastrukturen sind es hierbei insbesondere zwei zentrale Akteure bzw. Akteursgruppen, die ihre Perspektiven in die soziotechnischen Systeme einzuschreiben vermögen: Auf der einen Seite sind dies die „System-Builder“ (Hughes 1987), die mit der Entwicklung der technischen Innovation die Grundlagen für das sich entwickelnde Infrastruktursystem hervorbringen. Damit stellen sie die Weichen für die weitere Entwicklung in den frühen Phasen technischer Innovationen (bspw. Bijker 1997), die sich im weiteren Verlauf zu Infrastruktursystemen weiterentwickeln können, wenn entweder eine konkrete Form gegenüber Konkurrenzdesigns dominant wird oder ursprünglich voneinander unabhängige technische Ensembles zu umfassenden Netzen verbunden werden (Larkin 2013: 330). Dem bspw. von Mayntz und Schneider (1995: 78) identifizierten bis dahin überwiegend zutreffenden Muster der Ausbreitung und strukturellen Entwicklung von Infrastruktursystemen entsprechend, treten in der Folge staatliche Akteure bzw. nationalstaatlich gestützte Monopolstrukturen in den Vordergrund, die den weiteren Ausbau gestalten und dementsprechend – zumindest in einem gewissen Umfang – ihre jeweiligen Agenden in das soziotechnische Gefüge der entstehenden Infrastruktur zu implementieren in der Lage sind. Darüber hinaus unterliegen staatliche Akteure und staatlich sanktionierte Monopole anderen ökonomischen Rahmenbedingungen als privatwirtschaftliche Akteure auf „freien“ Märkten, was potentiell eine gewisse Entkopplung der Infrastrukturen zumindest von kurzfristigen ökonomischen Interessen erlaubt. Zwar ist auch hier bereits eine gewisse Anzahl individueller und korporativer Akteure am Ausbau und der Entwicklung von Infrastrukturen beteiligt, dennoch unterliegt der Prozess insgesamt noch einer gewissen Steuerbarkeit, die sich al-

W ER D ATENGESELLSCHAFT

SAGT , MUSS AUCH

C LOUD -C OMPUTING

SAGEN

| 171

lerdings spätestens dann aufzulösen beginnt, wenn nationalstaatliche Grenzen überschritten und die Infrastruktursysteme transnationalisiert werden (Bauer/Herder 2009: 622f.). Wie aus der obigen Darstellung des Cloud-Computing ersichtlich wird, entzieht sich dieses jedoch schon qua definitionem einer solchen Kontrollfähigkeit aufgrund der Verteiltheit und Heterogenität der für die Erfüllung der daran gestellten Herausforderungen notwendigen Ressourcen: Weder lässt sich für die Cloud ein zentrales Set von System-Buildern identifizieren, noch existieren geeignete Kontroll- oder Regulationsinstanzen, die den Ausbau des Cloud-Computing in seiner Gesamtheit zu überschauen und steuern in der Lage wären. Stattdessen sind wir hier anstelle einer zentralen Technologie mit einem in sich bereits hochgradig diversen Bündel von technischen, sozialen und kulturellen Elementen konfrontiert. Ergänzt wird diese technisch und auf Anforderungsebene gesteigerte Komplexität des Infrastruktursystems Cloud-Computing zudem durch die weltweit beobachtbare Tendenz einer Ablösung der oben erwähnten staatlich-monopolistischen Entwicklung von Infrastruktursystemen durch marktförmige Ansätze, in denen staatliche bzw. öffentliche Institutionen von einer aktiven Rolle als Betreiber und Eigner von Infrastruktureinrichtungen zurücktreten und sich primär auf regulatorische Aktivitäten beschränken (Bauer/Herder 2009: 602). Bezüglich des Cloud-Computing sind die Konsequenzen dieses Trends besonders frappierend: Im Gegensatz zu vorangehenden Infrastrukturen, die in Folge dieses staatlichen Rückzugs privatisiert und damit auch gezielt dereguliert werden, fällt die Entwicklung des Cloud-Computing zur zentralen Infrastruktur der Datengesellschaft bereits in diese Periode der Privatisierung und Deregulierung. In der Entwicklung des Cloud-Computing lässt sich damit (zumindest bislang) keine Phase der explizit staatlichen oder monopolistischen Konsolidierung beobachten. Stattdessen stellt sich die Cloud als Sonderfall dahingehend dar, dass sie durchgängig nach privatwirtschaftlichen Prinzipien bereitgestellt wird und damit auch immer stärker marktökonomischen Zwängen und den wirtschaftlichen Interessen der beteiligten Akteure unterlegen ist, als dies für Infrastrukturen gilt, die durch die öffentliche Hand bereitgestellt und betrieben werden. Genauso wie die Anforderungen an die Cloud und ihre technische Ausgestaltung ein größeres Maß an Komplexität aufweisen, gilt dies also auch für die (ökonomischen) Interessenlagen der involvierten Akteure und Akteursgruppen. Die durch diese höhere Komplexität des Cloud-Computing im Vergleich mit anderen Infrastrukturen bedingte extensivere Heterogenität der beteiligten Akteure und Akteursgruppen bringt es nicht nur mit sich, dass Weiterentwicklungen und der Ausbau des Cloud-Computing ein größeres Ausmaß von Aushandlungsprozessen unter den Beteiligten erfordern, sondern bedingt auch den Effekt, dass

172 | EGGERT & KERPEN

jeder der beteiligten Akteure nur einen vergleichsweise geringen Anteil der gesamten Infrastruktur verantwortet und in seiner konkreten Ausgestaltung tatsächlich beeinflussen kann. In der Konsequenz bedeutet dies, dass die zweifellos wirksamen politics des Cloud-Computing sich praktisch nicht mehr auf die planvolle Inskription von Interessen einzelner Akteure und Akteursgruppen zurückführen lassen, sondern sich als kontingente emergente Phänomene zeigen, die aus den teils konvergenten, teils divergenten in die unterschiedlichen Systembestandteile eingeschriebenen Interessen hervorgehen.

F AZIT : C LOUD -C OMPUTING ALS I NFRASTRUKTUR IM S PANNUNGSFELD VON O FFENHEIT UND G ESCHLOSSENHEIT , Z ENTRALITÄT UND V ERTEILTHEIT Ausgehend von der Diagnose, dass sich gesellschaftliche Reproduktion in fundamentaler Weise in Form datenzentrierter Prozesse vollzieht, hat sich der vorliegende Beitrag mit dem Vorhandensein von Infrastrukturen als Ermöglichungssystemen des Handlings datenbasierter Prozesse in der (entstehenden) Datengesellschaft auseinandergesetzt. In diesem Zusammenhang wurde insbesondere abgestellt auf die Qualität von Daten als digitale Daten, die ubiquitär produziert und algorithmengesteuert verarbeitet werden, auf die sich inzwischen in unterschiedlichen gesellschaftlichen Domänen weite Bereiche von Entscheidungen und hieraus resultierende Aktivitäten stützen. Dabei wurde diese Argumentationslinie zugespitzt auf den zentralen Punkt, dass Cloud-Computing als diese zentrale Infrastruktur des Datenumgangs angesehen werden kann und damit konstitutiv für diese spezifische Gesellschaftsformation ist. Cloud-Computing wird in diesem Sinn als technologisches Bündel von Vorleistungsfunktionen gefasst, welches die Nutzung der Ressourcen des Datenumgangs erst auf ein Niveau hebt, auf welchem die zunehmend vernetzten, miniaturisierten und mobilen IT-Infrastrukturen, -Plattformen und -Dienste ihre vollumfängliche Funktionalität zur Produktion, Strukturierung, Distribution und Visualisierung digitaler Daten entfalten können. Die dafür notwendigen Ressourcen werden trotz – oder gerade wegen – ihrer Heterogenität in einem umfassenden Netzwerk miteinander verbunden und zueinander in Beziehung gesetzt. Die nachfolgend nochmals knapp umrissenen exemplarischen Konsequenzen dieses Verständnisses von Cloud-Computing sind somit nicht erst dann interessant, wenn es um ein Verständnis der Infrastruktur als solche oder gar der darauf gründenden Gesellschaft im Ganzen geht, sondern werden immer schon dann relevant, sobald die Infrastruktur Cloud in ihren konkreten alltäglichen Verwen-

W ER D ATENGESELLSCHAFT

SAGT , MUSS AUCH

C LOUD -C OMPUTING

SAGEN

| 173

dungskontexten durch weitere Artefakte ergänzt und um neuartige Nutzungsweisen erweitert wird. So hat diese Verteiltheit und Heterogenität der für Cloud-Computing konstitutiven Komponenten und Ressourcen jene bereits im Beitrag angerissenen Auswirkungen, dass sich keine geeigneten Kontroll- oder Regulationsinstanzen identifizieren lassen, die den Ausbau des Cloud-Computings in seiner Gesamtheit zu überschauen und steuern in der Lage wären. Die daraus resultierende faktische Nicht-Steuerbarkeit dieser zentralen Infrastruktur der datafizierten Gesellschaft erfordert es, sich abschließend nochmals den Zusammenhang zwischen gesellschaftlichen Reproduktionsmechanismen und den sie ermöglichenden Infrastrukturen zu vergegenwärtigen: Wer die „Funktionsweise“ der Datengesellschaft verstehen will, muss die Funktionsweise der ihr zugrundeliegenden Cloud-Infrastruktur verstehen. Wie angedeutet, lässt sich die Cloud in ihren Entwicklungen und den Konsequenzen ihrer konkreten Ausgestaltung nur schwer mit vorangehenden Infrastruktursystemen vergleichen. Als grundsätzlich offene und verteilte Infrastruktur unterliegt das Cloud-Computing verschiedenen Dynamiken, die sich aus den unterschiedlichen in ihm inkorporierten Ressourcen ergeben. Die Inkorporation von zum Teil eher zentral strukturierten (bspw. Kommunikations- und Energieversorgungsstrukturen) und dezentral organisierten Ressourcen (wie Rechen- und Speicherkapazität) bedingt hierbei ein Wechselspiel von Offenheit und Geschlossenheit in Zusammenhang mit der jeweils grundlegenden Zentralisierung bzw. Verteiltheit. Dabei verweisen die eher zentralen Elemente auf die Erfüllung gegenwärtiger Anforderungen wie die der Distribution von für Datenprozesse notwendigen Ressourcen, während die Offenheit für unterschiedliche Nutzungsweisen – sowie gegenüber der für diese grundlegenden Organisationsformen – die Zukunftsfähigkeit der Cloud und damit ihre Ermöglichungsfunktion für künftige Herausforderungen garantiert. Für ein vertieftes Verständnis der (Prozesse der) Datengesellschaft ist es daher u.E. erforderlich, genau dieses Wechselspiel zukünftig noch stärker in den Blick zu nehmen und in seiner Dynamik zu untersuchen.

L ITERATUR Ametsreiter, Hannes (2017): Smartphone-Markt: Konjunktur und Trends, Berlin. Backhaus, Nils/Thüring, Manfred (2016): Vertrauen in Cloud Computing: Für und Wider aus Nutzersicht. Technical Report 02-2016, Berlin.

174 | EGGERT & KERPEN

Bauer, Johannes M./Herder, Paulien M. (2009): Designing Socio-Technical Systems. In: Gabbay, Dov M./Thagard, Paul/Woods, John (Hrsg.): Philosophy of Technology and Engineering Sciences, Amsterdam, S. 601-630. Bauernhansl, Thomas/ten Hompel, Michael/Vogel-Heuser, Birgit (Hrsg.) (2014): Industrie 4.0 in Produktion, Automatisierung und Logistik. Anwendung – Technologien – Migration, Wiesbaden. Bell, Daniel (1973): The Coming of Post-Industrial Society, New York. Bijker, Wiebe E. (1997): Of Bicycles, Bakelites, and Bulbs. Toward a Theory of Sociotechnical Change, Cambridge, MA. Bijker, Wiebe E./Hughes, Thomas P./Pinch, Trevor J. (Hrsg.) (1987): The Social construction of technological systems, Cambridge, MA/London. Bijker, Wiebe E./Law, John (Hrsg.) (1992): Shaping Technology/Building Society: Studies in Sociotechnical Change, Cambridge. Bowker, Geoffrey, C./Baker, Karen/Millerand, Florence/Ribes, David (2010): Toward Information Infrastructure Studies. Ways of Knowing in a Networked Environment. In: Hunsinger, Jeremy/Klastrup, Lisbeth/Allen, Matthew (Hrsg.): International Handbook of Internet Research, New York, S. 97-117. Bowker, Geoffrey C./Star, Susan Leigh (1999): Sorting Things Out. Classification and its Consequences, Cambridge. Braun, Hans-Joachim/Kaiser, Walter (1997): Energiewirtschaft – Automatisierung – Information, Berlin. Braun, Ingo (1994): Geflügelte Saurier. Zur intersystemischen Vernetzung großer technischer Systeme. In: Braun, Ingo/Joerges, Bernward (Hrsg.): Technik ohne Grenzen?, Frankfurt am Main, S. 446-500. Brecher, Christian (Hrsg.) (2015): Advances in Production Technology, Cham. Bunz, Mercedes (2012): Die stille Revolution. Wie Algorithmen Wissen, Arbeit, Öffentlichkeit und Politik verändern, ohne dabei viel Lärm zu machen, Berlin. Castells, Manuel (1996): The Rise of the Network Society. The Information Age: Economy, Society and Culture Vol. I, Oxford. Dinh, Hoang T./Lee, Chonho/Niyato, Dusit/Wang, Ping (2013): A Survey of Mobile Cloud Computing: Architecture, Applications, and Approaches. In: Wireless Communications and Mobile Computing, Vol. 13, S. 1587-1611. Edwards, Paul N. (1998): Y2K. Millennial Reflections on Computers as Infrastructure. In: History and Technology, Vol. 15, No. 1-2, S. 7-29. Eggert, Michael / Kerpen, Daniel (2015): Trust by design? Vertrauen als zentrale Ressource für die Cloud. In: Lessenich, Stephan (Hrsg.): Routinen der Krise – Krise der Routinen. Verhandlungen des 37. Kongresses der Deutschen Gesellschaft für Soziologie in Trier 2014, online verfügbar unter:

W ER D ATENGESELLSCHAFT

SAGT , MUSS AUCH

C LOUD -C OMPUTING

SAGEN

| 175

http://publikationen.soziologie.de/index.php/kongressband_2014/article/view /146. Eggert, Michael/Kerpen, Daniel/Rüssmann, Kirsten/Häußling, Roger (2014): SensorCloud: Sociological Contextualization of an Innovative Cloud Platform. In: Krcmar, Helmut/Reussner, Ralf/Rumpe, Bernhard (Hrsg.): Trusted Cloud-Computing, Cham, S. 295-313. Flyverbom, Mikkel/Madsen, Anders Koed (2015): Unpacking Big Data Value Chains and Algorithmic Knowledge Production. In: Süssenguth, Florian (Hrsg.): Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung, Bielefeld, S. 123-146. Galloway, Alexander R./Thacker, Eugene (2007): The Exploit. A Theory of Networks, Minnesota. Häußling, Roger (2014): Techniksoziologie, Baden-Baden. Hintemann, Ralph/Clausen, Jens (2014): Rechenzentren in Deutschland: Eine Studie zur Darstellung der wirtschaftlichen Bedeutung und der Wettbewerbssituation, Berlin. Hughes, Thomas P. (1983): Networks of Power: Electrification in Western Society, 1880–1930, Baltimore. Hughes, Thomas P. (1987): The Evolution of Large Technological Systems. In: Bijker, Wiebe E. /Hughes, Thomas P./Pinch, Trevor J. (Hrsg.): The Social Construction of Technological Systems, Cambridge, MA, S. 51-82. Joerges, Bernward/Braun, Ingo (1994): Große technische Systeme – erzählt, gedeutet, modelliert. In: Braun, Ingo/Joerges, Bernward (Hrsg.): Technik ohne Grenzen? Frankfurt am Main, S. 7-49. Kurz, Constanze/Rieger, Frank (2013): Arbeitsfrei. Eine Entdeckungsreise zu den Maschinen, die uns ersetzen, München. Larkin, Brian (2013): The Politics and Poetics of Infrastructure. In: Annual Review of Anthropology, Vol. 42, S. 327-343. Li, Zheng/Zhang, He/O’Brien, Liam/Cai, Rainbow/Flint, Shayne (2013): On Evaluating Commercial Cloud Services: A Systematic Review. In: Journal of Systems and Software, Vol. 86, No. 9, S. 2371-2393. Lovink, Geert (2012): Das halbwegs Soziale. Eine Kritik der Vernetzungskultur, Bielefeld. Mayer-Schönberger, Viktor/Cukier, Kenneth (2013): Big data. Die Revolution, die unser Leben verändern wird, München. Mayntz, Renate (1988): Zur Entwicklung technischer Infrastruktursysteme. In: Mayntz, Renate/Rosewitz, Bernd/Schimank, Uwe/Stichweh, Rudolf (Hrsg.): Differenzierung und Verselbständigung. Zur Entwicklung gesellschaftlicher Teilsysteme, Frankfurt am Main, S. 233-259.

176 | EGGERT & KERPEN

Mayntz, Renate (1993): Große Technische Systeme und ihre gesellschaftstheoretische Bedeutung. In: Kölner Zeitschrift für Soziologie und Sozialpsychologie, Jg. 45, H. 1, S. 97-108. Mayntz, Renate (1997): Soziale Dynamik und politische Steuerung: Theoretische und methodologische Überlegungen, Frankfurt am Main. Mayntz, Renate/Schneider, Volker (1995): Die Entwicklung technischer Infrastruktursysteme zwischen Steuerung und Selbstorganisation. In: Mayntz, Renate/Scharpf, Fritz W. (Hrsg.): Gesellschaftliche Selbstregelung und politische Steuerung, Frankfurt am Main, S. 73-100. Mell, Peter/Grance, Timothy (2011): The NIST Definition of Cloud Computing (Special Publication 800-145), Gaithersburg, MD. Monstadt, Jochen (2007): Großtechnische Systeme der Infrastrukturversorgung: Übergreifende Merkmale und räumlicher Wandel. In: Gust, Dieter (Hrsg.): Wandel der Stromversorgung und räumliche Politik. Forschungs- und Sitzungsberichte der Akademie für Raumforschung und Landesplanung, Hannover, S. 7-34. Monstadt, Jochen/Naumann, Matthias (2004): Neue Räume technischer Infrastruktursysteme: Forschungsstand und -perspektiven zu räumlichen Aspekten des Wandels der Strom- und Wasserversorgung in Deutschland. Veröffentlichung des Forschungsverbund netWORKS „Sozial-ökologische Regulation netzgebundener Infrastruktursysteme am Beispiel Wasser“, Heft 10, Berlin. Mumford, Lewis (1934): Technics and Civilization, New York. Pitt, Jeremy (Hrsg.) (2012): This Pervasive Day. The Potential and Perils of Pervasive Computing, London. Popitz, Heinrich (1995): Der Aufbruch zur Artifiziellen Gesellschaft. Zur Anthropologie der Technik, Tübingen. Radkau, Joachim (1994): Zum ewigen Wachstum verdammt? Jugend und Alter großer technischer Systeme. In: Braun, Ingo/Joerges, Bernward (Hrsg.): Technik ohne Grenzen? Frankfurt am Main, S. 50-106. Reichert, Ramón (2014): Einführung. In: Ders. (Hrsg.): Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie, Bielefeld, S. 9-31. Schneider, Stephan/Sunyaev, Ali (2016): Determinant Factors of Cloud-Sourcing Decisions: Reflecting on the IT Outsourcing Literature in the Era of Cloud Computing. In: Journal of Information Technology, Vol. 31, S. 1-31. Star, Susan Leigh (1999): The Ethnography of Infrastructure. In: American Behavioral Scientist, Vol. 43, No. 3, S. 377-391.

W ER D ATENGESELLSCHAFT

SAGT , MUSS AUCH

C LOUD -C OMPUTING

SAGEN

| 177

Venters, Will/Whitley, Edgar A. (2012): A Critical Review of Cloud Computing: Researching Desires and Realities. In: Journal of Information Technology, Vol. 27, No. 3, S. 179-197. Weiser, Marc (1991): The Computer for the 21st Century. In: Scientific American, Vol. 235, No. 3, S. 94-104. Weyer, Johannes (1994): Größendiskurse. Die strategische Inszenierung des Wachstums sozio-technischer Systeme. In: Braun, Ingo/Joerges, Bernward (Hrsg.): Technik ohne Grenzen, Frankfurt am Main, S. 347-385. Winner, Langdon (1980): Do Artifacts Have Politics? In: Daedalus, Vol. 109, No. 1, S. 121-136. Yang, Haibo/Tate, Mary (2012): A Descriptive Literature Review and Classification of Cloud Computing Research. In: Communications of the Association for Information Systems, Vol. 31, No. 1, S. 35-60.

Macht und Legitimität von Datenregimen

Do digital markers have politics? Die digitale Markierung von Identität und die Konstruktion von Marktordnung K AROLINE K RENN

1. E INLEITUNG Die Menschen in der Moderne konstruieren hochkomplizierte Techniken und Systeme, um die Zukunft zu berechnen und zu kontrollieren. Solche Bemühungen haben nicht immer (nur) die gewünschten Effekte. Der vorliegende Artikel diskutiert einen spezifischen Fall eines solchen technologiegestützten Umgangs mit der Zukunft. Ihm geht es konkret um die Identifikation von persönlichen Bonitätsprofilen von Verbraucher*innen durch die Auswertung digitaler Datenspuren durch die Datenindustrie. Er behandelt damit die Markierung von für ökonomische Transaktionen relevanten Marktkategorien mit Hilfe von digitalen Datenspuren. Durch Bonitätsbewertungen werden auf Kreditmärkten Personen danach klassifiziert, inwieweit sie kreditwürdig sind, und folglich deren Kreditkonditionen bestimmt. Digitale Daten sind so nah am sozialen Leben, wie keine Datensammlung zuvor. Vor den gegenwärtigen Digitalisierungs- und Datafizierungsschüben gab es vier Quellen für bonitätsrelevante persönliche Daten: Behördendaten, Daten von Kreditunternehmen, Kundendaten von Unternehmen und Daten aus dem Direktmarketing (Schneier 2015). Die digitale Datensammlung im Zeitalter von Big Data reichert die bestehenden Datenformate weiter an (Japec et al. 2015). Sie unterscheidet sich von der analogen hinsichtlich dreier Dimensionen: Quantität, Qualität und Temporalität. Internetbasierte Dienste sammeln Daten in einem zuvor nicht erreichten Ausmaß. Digitale Verbindungs-, Bewegungs- und Inhaltsdaten übertreffen bisherige qualitative Differenzierungen in ihrer Detailgenauigkeit. Sie geben Einblick in die private Lebensführung. Und schließlich ist

182 | K RENN

die Kontinuität der Datensammlung neu. Daten können für jeden Zeitpunkt abgerufen werden, beispielsweise können 24-Stunden-Bewegungsprofile ermittelt werden. Individuelles Verhalten kann dabei auch in Echtzeit verfolgt werden. Garantieren diese digitalen Datenspuren damit eine akkurate Identifizierung? Nachdem die Journalistin Sue Halpern damit begonnen hatte, die Informationen zu sichten, die Facebook über ihren Account sammelt, musste sie feststellen, dass diese – angefangen bei ihrem Geschlecht und Alter bis zu ihren sozialen, kulturellen, politischen und sexuellen Vorlieben – fast ausschließlich Fehlkategorisierungen darstellten (Halpern 2016: 36).1 Nun lässt sich über die Bedeutung einer Fehldeutung digitaler Datenspuren in Facebook diskutieren. Im Kontext von Marktkategorien, die für ökonomische Transaktionen relevant werden, sieht das jedoch schon ganz anders aus. Das Ziel des Beitrages ist Problematiken der Markierung von Identitäten im Kontext ökonomischer Settings aufzuzeigen und zu diskutieren. Digitale Identität kann als „jede mögliche Form von technisch abgebildeten Daten, die zu einer Person gehören“ definiert werden (Hansen/Meissner 2007). Die Debatte zur Identifizierung digitaler persönlicher Profile berührt ein breites Feld. Sie zeigt die Herausforderungen auf, die mit der Gestaltung von internetbasierten, digitalen Diensten einhergehen, insbesondere in Zusammenhang mit Fragen des Datenschutzes und des Rechtes auf Privatheit. Angefangen mit dem Themenkomplex der Überwachung und dem Spannungsfeld aus informationeller Selbstbestimmung und Sicherheit (Internetkriminalität, Terrorismus) geht es dabei um Machtasymmetrien aufgrund von Datenmonopolen und der Zurechenbarkeit von Klassifikationspraktiken; es geht aber auch um digitale Selbstvermessung, Selbstpräsentation und um Kompetenzen im Umgang mit digitalen Medien. In diesem Artikel möchte ich das Problem ökonomischer Diskriminierung herausgreifen, das sich um die Frage dreht, welche Benachteiligungen bestimmte digitale Identitäten in Hinblick auf ihre ökonomischen Teilhabechancen, beispielsweise mit Blick auf die Konditionen von Kreditverträgen oder mit Blick auf Preisangebote auf Märkten, erfahren. Insbesondere ist es mir ein Anliegen, die soziotechnische Konstruiertheit dieser Identitäten (und der Marktordnung, die sie befeuern) aufzuzeigen. In einer Reihe aktueller Veröffentlichungen werden digitale Identitätsprofile aus der Perspektive von Klassifikationspraktiken auf Märkten diskutiert (Poon 2007; Poon 2009; Fourcade/Healy 2013; Fourcade/Healy 2017b; Krenn 2017b;

1

Andere Quelle sprechen Facebookdaten eine relative hohe Vorhersagegenauigkeit zu (Christl/Spiekermann 2016). Der Fall von Sue Halpern mag daher vielleicht ein untypisches Beispiel sein, illustriert aber das Problem sehr anschaulich.

DO

DIGITAL MARKERS HAVE POLITICS ?

| 183

Rona-Tas 2017). Die Frage nach der Generierung von digitalen Identitätskategorien auf Märkten tangiert wesentliche Aspekte einer Marktordnung. Märkte sind dynamische Tausch- und Wettbewerbsgefüge (Aspers 2011). Identitätskategorien sind ein Teil eines Klassifikationssystems, welches das Markgeschehen strukturiert (Beckert/Aspers 2011; Beckert/Musselin 2013; Krenn 2017a). Markthandeln ist dabei stets Handeln unter Unsicherheit (Beckert 1996). Kategorisierungen wirken hierfür ordnend und klären Marktidentitäten, was sie daher unverzichtbar macht. Wie bei allen sozialen Konventionen können aber die Prozesse ihrer Hervorbringung kritisch hinterfragt werden. In Anlehnung an Winner (1980) möchte ich mit der Frage nach den „politics“ von Big Data (und ihrer soziotechnischen Arrangements) die Macht- und Verteilungsverhältnisse hinter den sich herauskristallisierenden sozialen Ordnungsgefügen betrachten und zur Debatte stellen. Die weiteren Abschnitte des Artikels gliedern sich in folgender Weise. Nach ein paar kurzen Ausführungen zur Rolle von persönlichen Daten in der Kreditvergabe gebe ich einen Einblick in Praktiken digitaler Datensammlung und -verwertung. Anschließend stelle ich Ergebnisse aus aktuellen US-amerikanischen Studien zur Bewertungen von Kreditwürdigkeit und den Verwendungskontexten von Bonitätsdaten vor. Im darauffolgenden Abschnitt arbeite ich die Merkmale digitaler Identitätsmarkierungen heraus. Der Artikel schließt mit einer Diskussion der Implikationen dieser Praktiken für eine Marktordnung und mit einigen resümierenden Überlegungen, die Ausblick auf weitere Forschungsperspektiven geben.

2. D IE P RAKTIKEN DIGITALER D ATENSAMMLUNG UND - VERWERTUNG Die Kreditvergabe ist eine klassische Entscheidung unter Unsicherheit, die dem Prinzip einer adversen Selektion folgt. Es werden diejenigen Antragsteller*innen ausgefiltert, die keinen Kredit oder einen Kredit zu schlechteren Konditionen erhalten. Schon seit dem Beginn des Kreditgeschäfts im 19. Jahrhundert spielt dabei die subjektive Einschätzung der potentiellen Kreditnehmer*innen (Aussehen, Habitus) durch die Bankangestellten eine wichtige Rolle. Die Einbeziehung personalisierter Daten ist dabei also nicht erst im Kontext von Big Data erfolgt. Es wurden immer Daten zur Beurteilung herangezogen. Waren dies am Beginn grobe Informationen zu Geschäftstätigkeit, wurde in den 1950er Jahren damit begonnen, mit Wahrscheinlichkeitsmodellen zur arbeiten, in denen Kreditausfallrisiken statistisch bestimmt wurden. In den USA wurden Credit Scores als statisti-

184 | K RENN

sches Instrument von den Gründern von Fair, Isaac Company (FICO, *1956) entwickelt. Darüber hinaus wurden damals nach wie vor Daten aus Zeitungsmeldungen zu Todesfällen, Eheschließungen oder zu Inhaftierung berücksichtigt (Furlatti 2002).2 Somit war bereits in den 1960er Jahren die Aggregierung persönlicher Daten in Konsumentenberichterstattung weit fortgeschritten. Credit Scores setzten sich als Standard aber erst mit dem Equal Credit Opportunity Act (1974) durch, der diskriminierende Praktiken zuungunsten bestimmter Gruppierungen verhindern sollte (Rona-Tas 2017). Im Jahr 1995 übernahmen die zwei großen staatlich geförderten Hypothekenbanken, Fannie Mae und Freddie Mac, den FICO-Score in das Hypothekengeschäft. Ab diesem Zeitpunkt fassen in den USA Konsumentenkreditregister individuelle Kreditbiografien in einen Wert zusammen. Aus dieser historischen Rückschau wird deutlich, dass Marktklassifikationen wie Bonitätsbewertungen immer schon in ein Arrangement aus technischen Möglichkeiten, wirtschaftlichen Interessen, rechtlichen Rahmenbedingungen und gesellschaftlichen Vorstellungen eingeflochten waren. In diesem Abschnitt soll in den Mittelpunkt gestellt werden, wie sich digitale Datenströme auf dieses Arrangement auswirken. Die automatisierte Auswertung von digital verfügbaren Daten über einzelne Personen ist mittlerweile in verschiedenen ökonomischen Settings gang und gäbe. Kritische Studien argumentieren, dass digitale Überwachung und Klassifikation mittlerweile ein panoptisches Ausmaß annehmen (Gandy Jr. 1993) und zu neuen „rationalen“ Diskriminierungen führen (Gandy Jr. 2009; Poon 2009; Fourcade/Healy 2013). Neue digitale Technologien haben einerseits Kommunikations- und Transaktionsmöglichkeiten vereinfacht, andererseits haben sie das Individuum transparenter gemacht. Um digital kommunizieren zu können, sei es über Emailsysteme, Messenger oder die Plattformen sozialer Medien, müssen Nutzer*innen digitale Identitäten (Accounts) erstellen. Das gleiche gilt für Onlinetransaktionen. Benutzernamen, Benutzerkonten, E-Mailadressen, TCP/IP-Protokolle generieren Onlineidentitäten, die um Name, Anschrift, Telefonnummern, Zahlungsdaten oder andere behördliche Identifikationsnummern erweitert werden.3 Häufig ist die Preisgabe dieser Informationen Teil eines Tauschs für angebotene Onlinedienste

2

Andere Quellen sagen aus, dass auch Informationen zur sexuellen Orientierung, zu außerehelichen Lebensgemeinschaften und zum Alkoholkonsum gesammelt und ausgewertet wurden (Smith 2004: 317; Hoofnagle 2013).

3

Fourcade und Healy betonen in diesem Zusammenhang, dass die Bereitstellung der informationstechnologischen Infrastruktur auf staatliche Unterstützung angewiesen war und ist (Fourcade/Healy 2017b).

DO

DIGITAL MARKERS HAVE POLITICS ?

| 185

und die Daten sind Beifang (Jentzsch 2014). Selbst dort wo keine Registrierung verlangt wird, erfordern Buchungen die Angabe von Basisinformationen. Es handelt sich hierbei um rechtliche Erfordernisse, die betrügerischen Aktivitäten vorbeugen bzw. deren Nachverfolgung ermöglichen sollen. Es geht aber auch um eine Substitution der Face-to-Face-basierten Vertrauensgrundlage für Transaktionen durch die Institutionalisierung onlinebasierter Reputationssysteme. Über diese digitalen Identitäten ist es für Infrastrukturunternehmen und Telekommunikationsdienstleister wie Gerätebetreiber, Internetplattformen und andere Unternehmen ohne Schwierigkeiten möglich, systematisch personenbezogene Daten4 zu erheben. Diese sogenannte Datenindustrie erhebt Angaben zu elektronischen Transaktionen (Kreditkarten, EC-Karten, Online-Käufen), zu Zahlungsrückständen und aus Kundenkarten, die vom Handel zur Verfügung gestellt werden, Vertragsdaten ebenso wie sensible, öffentliche Verwaltungsdaten zum Wählerregister, zu Geschäftsanmeldungen, Fahrzeugzulassungen, Sterbefällen, Gesundheitsdaten, Daten zu Lohnabrechnungen, Krediten, Daten zu Bürgschaften, die vom Bank- und Versicherungswesen weitergegeben werden, sowie freiwillig zur Verfügung gestellte Daten aus Einträgen in sozialen Medien und anderen Plattformen (Bria et al. 2015). Herauszustreichen ist, dass die Details zur Sammlung, Zusammenführung, Weitergabe und Auswertung von Daten für Nutzer*innen dabei meist intransparent bleiben. Die Daten werden in weiteren Schritten über die Identifizierung von Profilen systematisch verzahnt (Hansen/Meissner 2007). Neben den erwähnten Onlineidentitäten geschieht dies auch über das Nachverfolgen (Tracking) von digitalen Spuren der mobilen Endgeräte. Besonders häufig werden Bewegungsdaten sowie Adress- und Nutzungsdaten weitergegeben (Christl/Spiekermann 2016). Die Aktivitäten digitaler Profile enthalten reichhaltige Informationen über Interessen, Vorlieben und Einstellungen. Aus der Analyse dieser Datenpunkte werden neue – abgeleitete – Daten gewonnen. So werden beispielsweise mobile Nutzungsdaten oder Daten von Apps mit psychometrischen Tests, wie sie z. B. von Face-

4

Als personenbezogene Daten werden nach der Europäischen Datenschutzrichtlinie 95/46/EG vom 24. Oktober 1995 „alle Informationen über eine bestimmte oder bestimmbare natürliche Person (‚betroffene Person‘) [bezeichnet]; als bestimmbar wird eine Person angesehen, die direkt oder indirekt identifiziert werden kann, insbesondere durch Zuordnung zu einer Kenn-Nummer oder zu einem oder zu mehreren spezifischen Elementen, die Ausdruck ihrer physischen, physiologischen, psychischen, wirtschaftlichen, kulturellen oder sozialen Identität sind.“ Umstritten ist, ob IP-Adressen als personenbezogene Daten zu werten sind.

186 | K RENN

book eingesetzt werden, für Rückschlüsse auf Persönlichkeitsmerkmale verwendet. Als Folge der Monetarisierung dieser Daten ist ein neuer Industriezweig entstanden. Unternehmen, die Daten sammeln und verschmelzen, haben den Handel mit diesen Daten als lukratives Geschäftsfeld entdeckt. Von diesen Datenmaklern existieren weltweit mehr als 5000. In der Branche findet aber auch eine Konzentrationsbewegung statt. Beispielsweise verfügt Acxiom, der größte Vermittler von Daten, über durchschnittlich 1.500 Datenpunkte pro Person, die er von Facebook, Twitter, Google und anderen Quellen bezieht und zusammenbringt, zu 700 Millionen Konsumenten weltweit (Bria et al. 2015: 36f.; Christl/ Spiekermann 2016: 94ff.). In einigen Staaten (Beispiel China: Sozialkreditsystem) sind es die staatlichen Behörden selbst, die Daten verwerten. Die in der Datenindustrie aktiven Unternehmen können danach unterschieden werden, ob sie Daten sammeln, kaufen oder verkaufen. Um die Verwendung dieser Daten genauer in den Blick zu nehmen, möchte ich zunächst eine Übersicht über verschiedene Serviceleistungen solcher Unternehmen geben.5 Die folgende Typologie unterscheidet vier solcher Serviceleistungen:

5

Die Federal Trade Commission unterscheidet etwas gröber zwischen Marketing, Risikominimierung und Personenrecherche (FTC 2014).

DO

DIGITAL MARKERS HAVE POLITICS ?

| 187

Tabelle 1: Datenmakler nach angebotenem Service Serviceleistung

Beschreibung

Identität und Betrug

Zweck: Risikominimierung von Unternehmen, Bonitätsbe-

(inkl. Bonität)

richterstattung, Kreditscoring, Identitätsverifizierung Beispielunternehmen: Experian, ID Analytics, Equifax, TransUnion, Lenddo, Acxiom

Kundenbeziehungen

Zweck: Kundengewinnung und -bindung durch Bonusprogramme, spezialisierte Serviceangebote, offline-online Match Beispielunternehmen: Datalogix, Epsilon, Bluekai, Acxiom

Marketing

Zweck: Werbung, Marktexpansion und personalisierte Vermarkungsstrategien Beispielunternehmen: Criteo, Datalogix, Acxiom

Prädiktive Analysen

Zweck: Analysen von öffentlichen bzw. Verwaltungsdaten, Firmendaten und Nutzerdaten für langfristige Entwicklungsprognosen Beispielunternehmen: Corelogic, eBureau

Quelle: Eigene Darstellung in Anlehnung an Bria et al. (2015) und Christl und Spiekermann (2016)

Im Marketingbereich gehört der Zugriff auf persönliche Daten von Konsument*innen zur allgemeinen Strategie von Unternehmen. Preis- und Angebotsdifferenzierungen zählen zu den zentralen datengetriebenen Marketinginstrumenten.6 Bereits in der zweiten Hälfte des 20. Jahrhunderts war es verbreitet, Daten von Konsument*innen für kommerzielle Vermarktungsinteressen einzusetzen. Beispielsweise hatte die Einführung von Kundenkarten das Ziel, mehr Information über Kund*innen zu erhalten und ihre Loyalität mit Bonussystemen zu sichern. Gezielte Ansprachen wie speziell zugeschnittene Werbeaussendungen wurden dabei eingesetzt, um den Marktumsatz zu erhöhen.7 Die Marketingstrategien im Umgang mit Daten haben sich seither den neuen Möglichkeiten der Adressierung mit personalisierten Angeboten oder Konditionen (Microtargeting) angepasst. In der Identifizierung spezifischer Lebensumstände wie u. a. Schwangerschaft, Hochzeit, Scheidung oder Aufnahme eines Studiums, die ein

6

Untersuchungen schätzen, dass Unternehmen durch Preisdiskriminierungen ihren

7

Dies führte damals zu einer neuen Debatte zur Konsumentensouveränität, welche den

Gewinn um bis zu 12% erhöhen können (Shiller 2014). Kontrast einer kultur- und medienkritischen Perspektive (Galbraith 1969; Galbraith 1975) zur neoklassischen Sichtweise (Mises 2002 [1940]) deutlich machte.

188 | K RENN

neues Konsumverhalten auslösen können, wird die Chance auf die Platzierung neuer Produktgruppen gesehen. Solche Gouvernementalitätspraktiken setzen sich mitunter über die Interessen und Bedürfnisse von Konsument*innen hinweg oder stehen sogar in Widerspruch dazu (Foucault 1979; Beckett 2012). Prädiktive Analysen, obgleich die Bezeichnung mathematisch eigentlich nicht korrekt ist,8 zielen auf Trendprognosen ab. Für Unternehmen werden damit Entscheidungsgrundlagen für langfristige Strategieentwicklung und Investitionen geschaffen, Verwaltungsbehörden planen damit öffentliche Ausgaben. Bonitätsbewertungen sind eine von mehreren Serviceleistungen solcher Unternehmen, die sich auf die Überprüfung von digitalen Identitäten spezialisiert haben. Bei der Analyse von Daten zur Risikominimierung, wie im Fall von Kreditgeschäften, geht es vor allem um das Erkennen von Mustern und damit um ein Ermessen von Faktoren, welche eine Klassifizierung und Sortierung der untersuchten Personen nach Risikogruppen ermöglichen (Verweis auf andere Beiträge im Band). Für die Klassifikation spielt es keine Rolle, ob die Sammlung und die Auswertung der Daten dabei auf einem wissenschaftlich-theoretisch begründeten Fundament stehen oder für das jeweilige Setting von sachtheoretischer Relevanz sind. Zur Veranschaulichung der Haltung, die hinter den neuen Methoden der Datensammlung steckt, hier eine Aussage von Douglas Merrill, dem Gründer von ZestFinance, einer Plattform, die ähnliche Algorithmen wie Google verwendet, um Kreditentscheidungen zu berechnen: „We feel like all data is credit data, we just don’t know how to use it yet. Data matters. More data is always better“ (zitiert nach Christl/Spiekermann 2016: 28). Welchen Faktoren Relevanz zugemessen wird, ist abhängig vom Verwendungskontext. Staatliche Sicherheitsbehörden durchsuchen beispielsweise die Passenger Name Records der Datenbanken von Fluggesellschaften, um unerwünschte Reisende anhand solcher Faktoren identifizieren zu können und ihnen gegebenenfalls die Einreise zu verwehren (Ulbricht 2017).

8

Daten ermöglichen die partielle Erklärung vergangener Ereignisse, aufgrund der Komplexität der Welt ist allerdings keine Vorhersage in die Zukunft möglich (Gandy Jr. 2009; Nassehi 2017). Eine anschauliche Analogie ist das (waghalsig anmutende) Steuern eines Wagens mit verdeckter Windschutzscheibe über die Rückspiegel. Strukturelle und qualitative Diskontinuitäten können dabei nicht berücksichtigt werden. Beispielsweise rückt auch Poon in jüngeren Arbeiten vom Vorhersagekonzept ab und argumentiert für eine Neubewertung des Verhältnisses von Technologie und Finanzsystem als Produktionsautomatisierung (nach militärischem Vorbild) (Poon 2016).

DO

3. V ON DIGITALEN D ATEN

DIGITAL MARKERS HAVE POLITICS ?

ZUR DIGITALEN

| 189

B ONITÄT

Ich möchte nun auf einige Untersuchungen eingehen, die Bonitätsbewertungen im Kreditmarkt und deren Effekte auf die Partizipation in ökonomischen Tauschprozessen am Beispiel der USA betrachten. Die Folgen der Individualisierung solcher Risikowerte sind auch hier Preis- und Angebotsdiskriminierungen. Diese Studien argumentieren, dass digitale „Klassifikationssituationen“ (Fourcade/Healy 2013) für verschiedene Settings wie dem Kredit-, Wohnungsund Arbeitsmarkt sozial wirksame Grenzziehungen hervorbringen, welche die Lebenschancen bestimmter Gruppierungen beeinträchtigen. Fourcade and Healy (2013) untersuchen vorrangig die Transformation des US-amerikanischen Kreditmarktes seit den 1970ern. Die Ausdehnung des Kreditmarktes auf niedrigere Einkommensgruppen verlief parallel zu einer Ausdifferenzierung der Kreditkonditionen. Über die Vergabe von Credit Scores werden die Risikoprofile von Antragsteller*innen, welche die Wahrscheinlichkeit eines Kreditausfalls prognostizieren sollen, individualisiert. Die Höhe der Zinsen, die Rückzahlungsmodalitäten und Gebühren variieren je nach Profil. Fourcade und Healy erkennen in diesen Praktiken klassenähnliche Effekte in Bezug auf die ungleiche Verteilung von Lebenschancen. Durch die Sortierung in diese neuen Marktkategorien beeinflussen digitale Klassifikationspraktiken die Marktlage dabei ganz wesentlich. Contemporary market institutions [...] count, rank, measure, tag, and score on various metrics of varying degrees of sophistication, automation, and opacity. The data collected in these procedures becomes grist for analytical machines devoted to further refining the classification system itself, and the engine for allocating individuals to some tier or group on the basis of that classification (Fourcade/Healy 2013: 562).

Eine Folge von Klassifikationen digitaler Spuren besteht nun darin, dass soziodemographische Faktoren über die Hintertür wieder Eingang in die Bonitätsbewertung finden. Daten zu digitalem Verhalten dienen als Proxy oder Prädiktoren solcher Faktoren. Je nach algorithmischer Programmierung wird damit die USamerikanische Anti-Diskriminierungsgesetzgebung, welche eben jene Benachteiligung demographischer Gruppierungen auf Kreditmärkten verhindern sollte, unterminiert. Poon war eine der ersten, die für das US-amerikanische Hypothekengeschäft auf solche Praktiken der Diskriminierung hinwies (Poon 2007; Poon 2009). Die Bewertung der Kreditwürdigkeit tangiert aber nicht allein die Position auf dem Kreditmarkt. Die Übertragung von Daten aus einem Kontext in einen anderen ist eine gängige Praxis (Rona-Tas 2017). Rona-Tas übernimmt dafür

190 | K RENN

den in der Pharmazie gängigen Begriff Off-Label Use, der für den Einsatz von Medikamenten außerhalb ihres Zulassungsbereichs verwendet wird. Wie der Autor zeigt, sind in den USA Anfragen von Arbeitgeber*innen, Vermieter*innen und Versicherungsvertreter*innen nach der Kreditwürdigkeit sich bewerbender Arbeitnehmer*innen, Mieter*innen und Versicherungsnehmer*innen nichts Ungewöhnliches. Diese Vermengung der Position im Kreditmarkt mit dem Versicherungs-, Arbeits- und Wohnungsmarkt9 hat nun zwei unterschiedliche Folgen: Erstens werden schlechte Bewertungen in einem auf andere ökonomische Settings übertragen. Dies ist insbesondere deswegen problematisch, weil die digitale Datenaggregation fehleranfällig ist. Die Schwierigkeit besteht in der Zusammenführung verschiedener Datenspuren zu einem persönlichen Profil. Dies erfolgt häufig über die oben thematisierten Onlineidentifizierungen. Ein falsches Match ergibt sich, wenn Daten zu einer Person fälschlicherweise zwei fiktiven Personen zugeordnet werden oder wenn Daten verschiedener Personen zu einer aggregiert

9

Darüber hinaus operieren die anderen Märkte auch mit eigenen Methoden der Datenauswertung. Für den Bereich der Arbeitsvermittlung gibt es beispielsweise eine Reihe von Unternehmen, die Applicant Tracking Systems (ATS) verwenden, in denen nicht nur Lebensläufe, sondern auch kognitive und Persönlichkeitsmerkmale abgefragt werden, teilweise in Kombination mit dem Verhalten in den sozialen Medienplattformen (Rosenblat/Kneese/boyd 2014). Die Personalrekrutierung übernehmen auch Firmen wie HireIQ, die mit webbasierter Interviewtechnologie Stimm- und Sprechprofile erstellen, die Rückschluss auf die Persönlichkeit und zu erwartende Performanz der Bewerber ermöglichen sollen (Christl/Spiekermann 2016). Versicherungsunternehmen können auf eine lange Tradition der Verwendung aggregierter Daten für prädiktive Analysen zurückblicken. In den letzten Jahren werden insbesondere im Gesundheits- und Kfz-Versicherungsbereich neue Trackingsysteme wie Fitnessarmbänder erprobt, die eine Individualisierung der Tarife ermöglichen sollen. Noch ist die Teilnahme an solchen Modellen freiwillig, allerdings sind Kettenreaktionen im System zu erwarten. Ungeklärt ist auch, ob diese Daten an andere Behörden weitergegeben werden dürfen, z. B. im Fall von Verkehrsübertretungen wie überhöhter Geschwindigkeit. Der Einsatz dieser neuen Technologien hat das Ziel, die zu erwartenden Kosten möglichst genau vorherzusagen und Risikogruppen möglichst genau zu bestimmen. Christl und Spiekermann sind beispielsweise auf einen Bericht der Unternehmensberatungsfirma McKinsey gestoßen, wo diese offenlegt, dass der Grad sozialer Isolation in Zusammenhang mit den zu erwartbaren Krankenhauskosten eingepreist werden soll (2016: 36). Das dem Versicherungssystem immanente Solidarprinzip wird durch solche Tarifsysteme unterminiert. Die Grenzen eines solchen Systems zeigen sich bei der Versicherung von Todkranken.

DO

DIGITAL MARKERS HAVE POLITICS ?

| 191

werden, also durch Broken Records. Das kann beispielsweise bei verbreiteten Vor- und Nachnamenskombinationen vorkommen. Auch Fehler in der Schreibweise können sich auswirken. Durch die heterogene Herkunft der US-amerikanischen Bevölkerung passiert das recht oft (Rona-Tas 2017). Akos Rona-Tas selbst hat im Verlauf seiner Recherche neun verschiedene Schreibweisen seines Namens gefunden. Namensähnlichkeit ist aber keine notwendige Bedingung für Verwechslungen. Es gibt den anekdotischen Fall einer Judy Thomas, deren Daten regelmäßig mit einer Judith Upton vermengt wurden, was wohl darauf zurückführen war, dass deren Sozialversicherungsnummern sich nur in einer Ziffer unterschieden (Hoofnagle 2013). Wiederholte Untersuchungen der Federal Trade Commission (FTC 2004; FTC 2008; FTC 2012) zeigen, dass die Daten in etwa zwischen 20% und 30% grobe Zuordnungsfehler aufwiesen. Bei ca. 5% der Konsumentenberichte insgesamt führte das zu einer niedrigeren Bonitätsbewertung. Eine weitere Folge des Off-Label Use sind positive Feedbackeffekte (RonaTas 2017).10 Wenn mindere Bonitätsbewertungen dazu führen, dass die Betroffenen schlechter bezahlte Arbeitsstellen oder schlechtere Wohnungen zu höheren Mieten/Kautionen erhalten (oder auf diesen Märkten generell nicht reüssieren), verstärkt dies in der nächsten Runde auch die Bonitätsbewertung. Eine anfänglich schlechte Bonitätsbewertung wird dadurch weiter bekräftigt. Das gleiche gilt für hohe Bonitätsbewertungen. Diese Beobachtungen lassen die Schlussfolgerung zu, dass es schwierig ist aus diesen Bewertungsspiralen wieder auszubrechen.11 Zudem bleibt diese Entwicklung nicht bei der Zuweisung ungünstiger Marktpositionen stehen, sondern hat auch nachteilige Folgen für das Sozialprestige. Digitale Klassifikationen begründen Ungleichheitsregime (Mau 2017). Um die Überlegungen bislang zusammenzufassen: Die Möglichkeiten der neuen Informations- und Kommunikationstechnologien haben die Voraussetzungen für eine Daten getriebene Ökonomie geschaffen. Digitale Daten bilden dabei die Grundlage für digitale Identitäten. Darauf basierende digitale Bonitätsbewertungen haben massiven Einfluss auf die Lebenslage von Menschen. Durch ungleiche Optionen und Preise werden Individuen damit verschiedene Marktpositionen zugewiesen. Kritisch ist dabei v.a. die fehlende theoretische Instruktion

10 Unter positiven Feedbackeffekten sind hier selbsterfüllende Prophezeiungen (Merton 1948) bzw. performative Effekte (MacKenzie 2006) gemeint. 11 Diese Zusammenhänge illustrieren die Schuldenfalle für diejenigen, denen aufgrund schlechter Bonitätsbewertungen nur ungünstige Kreditkonditionen wie z. B. die in den USA verbreiteten payday loans zur Verfügung stehen.

192 | K RENN

der angewandten Klassifikationspraktiken zu sehen. Im nächsten Abschnitt wird diskutiert, warum eine digitale Identitätskonstruktion anfechtbar ist.

4. D IGITALE M ARKIERUNG VON I DENTITÄT UND NEUE U NGLEICHHEITEN Das Identitätsmanagement in der digitalen Gesellschaft hat eine Reihe neuer Akteure wie Datenmakler und andere Unternehmen, die digitale Identitäten vergeben, hervorgebracht. Der Staat hat damit in gewisser Weise sein Monopol auf die personale Identifikation eingebüßt. Dieser Abschnitt arbeitet die Eigenheiten digitaler Identitätsmarkierungen heraus, wie sie auch für Bonitätsbewertungen gelten. Es handelt sich um Verfahren, die über die Identifikation von personalen Merkmalen Identitäten zuweisen. Identifikationen sind Verknüpfungen zwischen Kategorien und Körpern (Hahn/Schorch 2007). Um den festlegenden Aspekt jener Verfahren zu betonen, bezeichne ich hier den Akt der Identifikation als Markierung von Identität. Die soziologische Kritik an diesen Verfahren besteht darin, dass sie sich bei genauerer Betrachtung als soziale Konstruktion entblößen. Klassifikationssysteme und die ihnen zugehörigen Kategorien beruhen auf sozialen Konventionen. In diesen Prozessen sind soziale Mechanismen wirksam, die den sozialen Ursprung solcher Unterscheidungen verschleiern. Das liegt daran, dass Grenzziehungen häufig als natürliche Unterschiede wahrgenommen werden (Lamont/ Molnar 2002; Pachucki/Pendergrass/Lamont 2007), dass die Idee der sozialen Vermessung den Einfluss der Messinstrumente auf das Ergebnis vernachlässigt (Desrosières/Thévenot 1979; Desrosières/Thévenot 2005 [1988]; Diaz-Bone/ Didier 2016), und dass mit der Deutungshoheit über soziale Kategorien Machtinteressen und Hierarchien aufrechterhalten werden (Bourdieu 1987). Diese Fehlschlüsse der Klassifikation (Krenn 2017a) lassen sich an zwei Beispielen veranschaulichen, an der Pathologisierung und Kriminalisierung von Homosexualität (Bowker/Star 2000) und an der Geschichte des IQ-Tests (Carson 2007). Die Abweichung von der heterosexuellen Norm wurde bis Anfang der 1990er im Diagnostic and Statistical Manual of Mental Disorders (DSM) der einflussreichen US-amerikanischen psychiatrischen Gesellschaft als Krankheit geführt, was erst durch den zivilgesellschaftlichen Druck der schwul-lesbischen Bewegung, also durch eine Verschiebung von Deutungshoheit, revidiert wurde (Kirk/Kutchins

DO

DIGITAL MARKERS HAVE POLITICS ?

| 193

1992).12 Auch im Beispiel des IQ-Tests spiegelt sich der Umstand wider, dass soziale Prozeduren des Kategorisierens häufig erst die Gruppierungen hervorbringen, die sie zu identifizieren trachten. Die vorgeblich exakte Vermessung von Begabung und Talent hatte in Frankreich und den USA massiven Einfluss auf die institutionelle Architektur des Bildungs- und Ausbildungssystems. Die damit verbundene ungleiche Verteilung von Lebenschancen wurde durch vorgeblich ungleiche Leistung legitimiert. Dass sich dahinter aber soziale Klassenunterschiede und solche ethnischer Herkunft versteckten, blieb verborgen (Carson 2007). Ich möchte in diesem Zusammenhang zwei methodische Grundprobleme anführen, welche die Eindeutigkeit von Klassifikationsverfahren belasten. Identifikation ist eine Entscheidung über die Zugehörigkeit zu einer Kategorie, in der verschiedene Faktoren unterschiedlicher Qualität in eine, häufig numerische Klasse zusammengeführt werden sollen. Ein verbreiteter Ansatz hierzu ist Quantifizierung (Diaz-Bone/Didier 2016). Ein generelles Problem quantifizierender Verfahren ist zum einen, dass sie, um Vergleichbarkeit herzustellen, qualitative Unterschiede zu quantifizieren trachten und damit zwangsläufig den Informationsgehalt reduzieren (Espeland/Stevens 1998). Zum anderen ist es eine Eigenheit von Identifikationsverfahren, dass sie Identität häufig nach einem EntwederOder-Prinzip zuweisen (Hahn/Schorch 2007). Dadurch, dass die kontinuierliche Verteilung von Merkmalen oft nicht berücksichtigt wird, wird Heterogenität innerhalb von Kategorien verdeckt und zwischen Kategorien herausgestellt (Zerubavel 1991; Zerubavel 1996). Mit Blick auf Bonitätsbewertungen lässt sich das an der Frage von Zahlungsrückständen veranschaulichen. Zahlungsrückstände können vielerlei Ursachen haben. Neben mangelnder Zahlungsmoral oder Zuverlässigkeit können Reklamationen am Produkt, z. B. Mietrückbehalte aufgrund von Lärmbelästigung, ein Grund sein. Diese qualitative Differenzierung bleibt im Credit Score allerdings unberücksichtigt. Die soziologische Kritik zielt dabei auf die vorgebliche Eindeutigkeit solcher Verfahren. Ausgehend davon, dass „each standard and each category valorizes some point of view and silences another“ (Bowker/Star 2000: 5), hat jede Klassifikation Alternativen. Die soziologische Kritik ist insofern von besonderer Bedeutung als Identifikationsverfahren Generatoren sozialer Exklusion sind. Bereits in analogen Umwelten sind damit diverse Zuschreibungen wie Schuld, Abweichung, Krankheit oder Fremdheit verbunden. Mit diesen substantiellen Zuschreibungen ist eine An- bzw. Aberkennung von Rechten, Pflichten und Lebenschancen verknüpft

12 Das Beispiel des DSM wirft hier die grundsätzliche Frage nach der Reliabilität (wissenschaftlicher) Kategorisierungen auf (Kirk/Kutchins 1994).

194 | K RENN

(Becker 2014 [1963]). Subjekt solcher Klassifikationen zu sein, hat objektive Konsequenzen für die Gruppe und den Einzelnen. Begrenzen diese Grenzziehungen den Zugang zu Ressource für eine Gruppe, handelt es sich um kollektive Exklusionen. Ein Beispiel aus den USA war die dort lange Zeit verbreitete Praktik des Redlining, womit das rote Einfärben von (meist ethnischen) Wohnvierteln gemeint war, das die Ansiedlung bestimmter Dienstleistungen in diesen Vierteln verhinderte (Freund 2010). Durch den Druck der Bürgerrechtsbewegung wurde diese offene Diskriminierung politisch nicht mehr tragbar und schließlich durch den Fair Housing Act von 1968 verboten. Es kann sich aber auch um individualisierte, damit subtilere Grenzziehungen handeln. Gegenwärtige – insbesondere digitale – Klassifikationssituationen entsprechen tendenziell Letzteren (Fourcade/Healy 2013). Mit Blick auf die Merkmale gesellschaftlicher Datafizierung lassen sich vier Entwicklungen in der Identitätsmarkierung beobachten (siehe Tabelle unten): Das Volumen an Daten und die Zahl hinzugezogener Datenquellen steigt. Die Auswertung der Daten wird sowohl in Hinblick auf ihre Quelle als auch ihre Modelle intransparenter, deren wissenschaftlich-theoretische Fundierung offen bleibt. Die gesammelten Informationen werden immer feinkörniger. Dies führt schließlich dazu, dass die Differenzierungsoptionen für die Zuweisung digitaler Identitäten zunehmen und vielfältige Rekombinationen beispielsweise von Online- und Offline-Daten gestatten. Hinzu kommt, dass solche Individualdaten mit weiteren Aggregatdaten wie beispielsweise demographischen Daten zur Wohngemeinde der Betroffenen gekoppelt werden können. Die beschriebenen Steigerungsfiguren haben eine katalysierende Wirkung. Digitale Identitätsmarkierung wird volatiler und für den Einzelnen unberechenbarer. Neben die Identitäten, für die man sich auszuweisen hat wie z. B. die Staatsbürgerschaft, treten neue nicht notwendig konsistente Markierungen, die ebenso großen Einfluss auf gesellschaftliche Teilhabechancen haben.

DO

DIGITAL MARKERS HAVE POLITICS ?

| 195

Tabelle 2: Steigerungsfiguren digitaler Identitätsmarkierung Analoge Welt

Digitale Welt

Datenquellen

Interaktion, Dokumente

Big Data

Datenauswertung

Einfache Modelle

Datenqualität

Grob

Volumensteigerung Komplexe Modelle

Intransparenzsteigerung Feinkörnig Granularisierungssteigerung Verwertung

Kontextbezogen

Losgelöst vom Kontext

Differenzierungssteigerung Quelle: Eigene Darstellung

Die Kritik an Klassifikationsverfahren lässt sich mit Blick auf digitale Daten nun in folgender Weise zuspitzen: Digitalisierung verschärft die Probleme durch die quantitative, qualitative und temporale Ausdehnung und Detailsteigerung digitaler Identifizierung. Methodisch kritisiert werden vor allem die zweifelhaften Annahmen, auf denen diese Identitätsmarkierungen beruhen. Beanstandet wird hierbei, dass in Folge des Quantifizierungstrends die Menge an Daten mehr zählt als dadurch verursachte Messfehler. Kausale Erklärungen von Zusammenhängen werden hinter Korrelationen zurückgestellt (Mayer-Schönberger/Cukier 2013). Hierbei spielen auch die Auswertungsinstrumente eine Rolle, die diese Granularisierung erst ermöglichen: Algorithmen reduzieren die riesigen Datenmengen auf Muster, sie entdecken aber keine „natürlichen“ Unterschiede. Diese automatisierten Entscheidungsverfahren identifizieren Identitäten auf Basis sozialer (aber nicht wissenschaftlicher fundierter) Hypothesen.13 Da weder der Ursprung der Daten noch die hinter der algorithmischen Verarbeitung steckenden Annahmen offen gelegt werden, verleihen diese neuen digital vorangetriebenen Klassifikationssituationen den ohnehin mächtigen Klassifikationsmechanismen zusätzliche Wirkkraft (Fourcade/Healy 2017a). Hinzu kommt, dass im Unterschied zu früheren Klassifikationsverfahren dabei die reale menschliche Interaktion als letzte Kontrollinstanz fehlt. Die Kontrolle automatisierter Entscheidungsverfahren wäre aber insbesondere dort erforderlich, wo ganz banale Fehler in der Da-

13 Präziser wäre es von methodischen Sortierregeln zu sprechen, für die Algorithmen mathematische Lösungen bei variablen Eingaben bereitstellen (Ziegenbalg/Ziegenbalg/ Ziegenbalg 2016). Die wissenschaftlich-theoretische Unterfütterung der Sortierregeln bleibt in den besprochenen Fällen offen.

196 | K RENN

tenzusammenführung zu eindeutigen Fehlklassifikationen führen. Das Beispiel der Broken Records wurde oben diskutiert (Rona-Tas 2017).14 Welchen Einfluss haben nun digitale Identitätsmarkierungen auf gesellschaftliche Teilhabechancen? Durch die digitale Identitätsmarkierung werden – wie im Falle der Konstruktion sozialer Möglichkeitsräume durch Preis- und Optionsdiskriminierungen – Positionen im sozialen Raum zugewiesen (Bourdieu 1985). Damit entstehen neue soziale Bindungen – beispielsweise durch digitale Reputationssysteme –und damit Hierarchien (Foucault 1979; Bourdieu 1987). Die allgemeine Differenzierungssteigerung führt dazu, dass auch die Zugangsbedingungen zu den Funktionssystemen immer feinspuriger werden. Die Beobachtung, dass sich mit zunehmender gesellschaftlicher Ausdifferenzierung die Prozesse personaler Identifikation verändern (Hahn/Schorch 2007), spitzt sich im Kontext digitaler Datenspuren also weiter zu. Das ist genau der Kern der Argumentation von Fourcade und Healy (2013). Die Autoren grenzen sich von Positionen ab, wonach Märkte nur bestehende Ungleichheiten, die aus dem historischen Erbe verschiedener Kapitalausstattungen stammen, reproduzieren. Ein Kennzeichen digitaler Marktoperationen ist eben, dass damit neue Quellen für soziale Hierarchien und neue Ungleichheitsregime (Mau 2017) entstehen. Diese gehen aus den dort eingesetzten Technologien und institutionalisierten Methoden der Klassifikation hervor.

5. D ISKUSSION Do digital markers have politics? Diese Frage ist zweifellos zu bejahen. Was lässt sich jedoch anhand dieser Betrachtungen über die Politics digitaler Markie-

14 Eine naheliegende Entgegnung auf die Problematik der Broken Records ist mehr Daten einzufordern. Anstatt Klassifikationen aufgrund fehlerhafter Daten einzuschränken, würde eine Erhebung von mehr Daten mit eindeutigen Identifikatoren eine exaktere Klassifikation ermöglichen. Was lässt sich auf diese Umkehrung der Argumentation erwidern? Sind mehr Daten die Lösung für Klassifikationsfehler? Diese Frage kann nur in Rückbezug auf gesellschaftliche Leitbilder beantwortet werden. Die Frage, wie viele Daten erhoben werden, wird dabei von den Fragen, mit welchem Ziel Daten erhoben werden und wer (zu welchem Preis) Zugang zu diesen Daten erhält, in den Hintergrund gerückt. Die Positionierung hierzu bewegt sich in einem Spannungsfeld zwischen dem als Menschenrecht verankerten Recht auf Privatsphäre, den Gemeinwohl förderlichen Potentialen von Daten, staatlichen Sicherheitsinteressen und den kommerziellen Interessen privater Unternehmen.

DO

DIGITAL MARKERS HAVE POLITICS ?

| 197

rungen sagen? Mit dem Aufkommen digitaler Informations- und Kommunikationstechnologien waren am Ende des 20. Jahrhunderts vorwiegend gesellschaftspolitische Hoffnungen auf zivilgesellschaftliche Partizipation verbunden. In der Auseinandersetzung um die Gestaltung digitaler Infrastruktur und Arrangements geht es schließlich um nichts Geringeres als um das Verhältnis von Individuum, Markt und Staat. Oder mit den Worten von Stalder (2016) darum, ob wir in einer postdemokratischen Welt der Überwachung und der Informationsmonopole oder in einer Kultur der Commons und der Partizipation leben werden. Für den Moment scheint es so, also ob sich diese Hoffnungen weitestgehend zerstreut haben. Die digitale Markierung von Identität ist eine Erscheinungsform der Ubiquität gesellschaftlicher Bewertungskonstellationen (Citron/Pasquale 2014). Die Art und Weise mit der verstreute Datenspuren zu einem persönlichen Datenprofil zusammengeführt werden, ist dabei ein Symptom dessen, was mit Blick auf die Undurchsichtigkeit der dahinterliegenden Herrschaftsinstrumente als „black box society“ beschrieben wurde (Pasquale 2015; O’Neil 2016). Welche Marktordnung deutet sich nun in den beschriebenen Arrangements aus technischen Möglichkeiten und wirtschaftlichen Partikularinteressen an? Es steht außer Frage, dass digitale Datenspuren wertvolle Ressourcen auf Märkten sind. Kredit-, Arbeits-, Wohnungs- und Versicherungsmärkte sind hier gleichermaßen involviert. Marktklassifikationen und digitale Profile lösen grundsätzliche Koordinations- und Handlungsprobleme auf diesen Märkten. Feststeht ebenso: Die Wettbewerbs- und Verteilungsverhältnisse in der digitalen Identitätsindustrie sind unausgewogen sowohl in Hinblick auf die zur Verfügung stehenden Informationen als auch in Hinblick auf die Gewinne. Die Vorteilsnahme aus den Daten ist asymmetrisch (Vieth/Wagner 2017). Nachteile entstehen den Verbraucher*innen nicht nur dadurch, dass sie an den Datengewinnen nicht beteiligt werden, sondern dass diese Marktklassifikationen Langzeitkosten haben. Einer Konzentration der Datenressourcen in Hand weniger einflussreicher Unternehmen steht eine Individualisierung des Wettbewerbs um Bonität (im weitesten Sinne) gegenüber, von denen alle mehr oder weniger betroffen sind. Daraus folgt, dass sich mit dieser Marktordnung neue gesellschaftliche Selektionsprozesse ankündigen, die sich an sehr spezifischen normativen Idealen digitaler Aktivität orientieren. Erwartbare gesellschaftliche Folgen sind Verhaltensanpassung, Selbstzensur, Konformismus und damit die Behinderung freier Meinungsäußerung sowie die Unterbindung von Freiheitsrechten und Kreativität. Ein Treiber dieser Entwicklung ist, dass Daten selbst zum Produkt und Teil der Wertschöpfungskette werden. Der Handel mit Daten ist ein profitables Geschäft. Aktuelle Erhebungen zu den Gewinnen, die von diversen Geschäftssegmenten im Marketingbereich aus individuellen Konsumentendaten geschöpft

198 | K RENN

werden, lassen Rückschlüsse auf den Wert dieser Daten zu (Deighton/Johnson 2013; 2015). Ein anderer Treiber ist die Geschwindigkeit, mit der Auswertungen durchgeführt werden können. Der Wert von Geschwindigkeit wird deutlich, wenn man sich z. B. die Marktentscheidungen im Hochfrequenzhandel anschaut. Was in die Wertschöpfungsrechnung nicht miteinbezogen ist, sind die offenen und versteckten Langzeitkosten für die Nutzer*innen und Verbraucher*innen. Christl und Spiekermann führen hierfür den Begriff des Customer Life-Time Risk ein (2016: 79f.).15 Die beobachtbare kulturelle Wende zur Datenanhäufung impliziert damit die Notwendigkeit einer offenen Diskussion darüber, wie die Gewinne und Kosten aus dem Handel mit Daten verteilt werden. Eine solche Diskussion über Eigentum an Daten, über deren Produktivität und den daraus erwirtschafteten Profit könnte die Aufgabe einer Politischen Ökonomie der digitalen Technologien sein (Wittel 2017). Einige Autoren sprechen diesbezüglich von einem neuen Informations- und Datenkapitalismus (Hofmann/Bergemann 2016; Hofmann 2017; Sevignani 2017).16 Ich habe diesen Aufsatz begonnen mit dem Hinweis auf nicht intendierte Nebeneffekte von technologischen Lösungen. Aus der Perspektive bürgerlicher demokratischer Ideale betrachtet, erscheint Digitalisierung entgegen den angekündigten Partizipationschancen sich zu einer Herausforderung für das Gemeinwohl zu entwickeln. Es wird offensichtlich, dass Datenschutz- und Privatheitsrechten handfeste kommerzielle Interessen entgegenstehen. Dieser Widerspruch ist in Identifikationsverfahren allgemein angelegt und könnte auch dahingehend gedeutet werden, dass die Idee offener Zugangschancen mehr Ausdruck der Ideologie einer bürgerlichen Gesellschaft als faktisches Leitprinzip ist (Luhmann 2000; Hahn/Schorch 2007). Wie dem auch sei, eine grundlegende Diskussion, die anzustoßen wäre, betrifft die Deutungshoheit über digitale Aktivität. Solange diese nicht gemeinwohlorientierten Kontrollinstanzen obliegt, bleibt die Markierung von Identität kommerziellen Interessen untergeordnet. In Zeiten, in denen gesellschaftliche Teilhabe immer stärker an digitale Identitätszuschreibungen gekoppelt wird, wird daher die Verantwortlichkeit für digitale Identitätsmarkierung wohl eine vergleichbare soziale Relevanz erhalten wie Fragen der Staatsbürgerschaft.

15 Diese Überlegungen basieren auf der Taxonomie von Privacy Harms von Solove (2006). Fundierte empirische Untersuchungen stehen dazu noch aus. 16 Für eine weiterführende Analyse der Auswirkungen von Digitalisierung auf Arbeit und Wirtschaft möchte ich auf Staab verweisen (Staab 2016), der jene unter dem Theorem des digitalen Kapitalismus diskutiert.

DO

DIGITAL MARKERS HAVE POLITICS ?

| 199

In der Digitalisierung liegen aber auch Chancen. Das anschauliche Beispiel des Mailänder Stadtviertelprojekts Milano4You (Sauer 2017a; Sauer 2017b) zeigt, dass die Analyse von digitalen Profilen auch dem Gemeinwohl dienen kann. In dem von der Firma R.E.D. verantworteten smarten Wohnprojekt werden Daten dazu verwendet, durch die Koordination der urbanen Infrastruktur Planung und Abläufe zu optimieren. Anstelle der Datenkonzerne profitieren die Bewohner*innen von einer transparenten und demokratischen Informationsproduktion. Die Analyse von Versorgungsdaten wie Wasser, Strom und Gas reduziert Betriebs- und Instandhaltungskosten. Bewohner*innen der Seniorenresidenz sind direkt mit dem Krankenhaus vernetzt, was die Lebensqualität steigert und die Gesundheitsausgaben senkt. Damit Daten also nicht nur der Datenindustrie und deren Geschäftspartnern Vorteile verschaffen, braucht es Lösungen, die im Spannungsfeld von individueller Privatheitskompetenz, technischen Möglichkeiten und politischer Steuerung liegen. Eine Chance scheinen mir hier Anonymisierungsstrategien wie das Konzept einer Differential Privacy zu bieten (Petrlic/Sorge 2017: 27ff.). Dabei werden digitale Daten in einer vertrauensvollen Datenbank erfasst. Für die Auswertung werden die Originaldaten verfremdet, so dass diese im Prinzip nur noch Rückschlüsse über das Aggregat und nicht mehr über das Individuum zulassen. Diesem Datensammlungsverfahren ist das Leitprinzip vorangestellt, dass die Privatsphäre (z. B. der Endgerätenutzer*innen) nicht kompromittiert wird und somit aus der Zurverfügungstellung von Daten kein Nachteil erwächst. Das Problem der digitalen Markierung von Identität ist damit allerdings noch nicht gelöst.17 In den beschriebenen Herausforderungen digitaler Datenspuren zeichnen sich bereits weitere Forschungsperspektiven ab. Insbesondere ist hierbei auch die Rolle rechtlicher Rahmenbedingungen weiter in den Blick zu nehmen. Inwieweit ist die am Beispiel der USA rekonstruierte Problematik auf Deutschland und Europa übertragbar? Welchen Schutz vor diesen kalkulativen Praktiken des Marktes bietet die europäische Datenschutzrechtsreform mit ihrer Fokussierung auf informierte Einwilligung und Zweckbindung der Daten? Wie gut sind die Datenschutzinstitutionen aufgestellt, welche die Einhaltung dieser Regulierungen überwachen sollen? Und welche neuen Institutionen und Instrumente braucht es in Zukunft, um die digitale Markierung von Identität vor wirtschaftlichen Partikularinteressen zu schützen?

17 Aktuell wird an Protoypen gearbeitet, welche die Integrität von digitalen Identitäten über Blockchain absichern und prüfen sollen (Welzel et al. 2017). Diese Forschung zielt vorwiegend in Richtung der Prävention von Identitätsdiebstahl.

200 | K RENN

L ITERATUR Aspers, Patrik (2011): Markets, Cambridge/Malden. Becker, Howard Saul (2014): Außenseiter. Zur Soziologie abweichenden Verhaltens, Wiesbaden. Beckert, Jens (1996): Was ist soziologisch an der Wirtschaftssoziologie? In: Zeitschrift für Soziologie, Jg. 125, H. 2, S. 125-146. Beckert, Jens/Aspers, Patrik (2011): The Worth of Goods. Valuation and Pricing in the Economy, New York. Beckert, Jens/Musselin, Christine (Hrsg.) (2013): Constructing Quality. The Classification of Goods in Markets, Oxford. Beckett, Antony (2012): Governing the consumer: technologies of consumption. In: Consumption, Markets & Culture, Vol. 15, No. 1, S. 1-18. Bourdieu, Pierre (1985): Sozialer Raum und ‚Klassen‘. Leçon sur la leçon, Frankfurt am Main. Bourdieu, Pierre (1987): Die feinen Unterschiede: Kritik der gesellschaftlichen Urteilskraft, Frankfurt am Main. Bowker, Geoffrey C./Star, Susan Leigh (2000): Sorting Things Out. Classification and Its Consequences, Cambridge. Bria, Francesca/Ruiz, Javier /Clavell, Gemma Galdon/Zavala, José Maria/ Fitchner, Laura /Halpin, Harry (2015): D3.3 Research on Identity Ecosystem. Decentralised Citizens Engagement Technologies. Online unter: http://www. nesta.org.uk/sites/default/files/research_on_digital_identity_ecosystems.pdf (aufgerufen am 3.7.2017). Carson, John (2007): The Measure of Merit. Talents, Intelligence, and Inequality in the French and American Republics, 1750-1940, Princeton. Christl, Wolfie/Spiekermann, Sarah (2016): Networks of Control. A Report on Corporate Surveillance, Digital Tracking, Big Data & Privacy, Wien. Citron, Danielle Keats/Pasquale, Frank A. (2014): The Scored Society: Due Process for Automated Predictions. In: Washington Law Review, Vol. 89, 2014, p. 1-; U of Maryland Legal Studies Research Paper No. 2014-8. Online unter: https://ssrn.com/abstract=2376209 (aufgerufen am 13.12.2017). Deighton, John/Johnson, Peter A. (2013): The Value of Data: Consequences for Insight, Innovation & Efficiency in the U.S. Economy. Online unter: file:///C:/Users/danie/Downloads/The-Value-of-Data-Consequences-for-InsightInnovation-and-Efficiency-in-the-US-Economy.pdf (aufgerufen am 13.12.2017). Deighton, John/Johnson, Peter A. (2015): The Value of Data 2015: Consequences for Insight, Innovation & Efficiency in the U.S. Economy. Online

DO

DIGITAL MARKERS HAVE POLITICS ?

| 201

unter: https://thedma.org/wp-content/uploads/Value-of-Data-Summary.pdf (aufgerufen am 13.12.2017). Desrosières, Alain/Thévenot, Laurent (1979): Les mots et les chiffres: les nomenclatures socioprofessionnelles. In: Economie et statistique, Vol. 110, S. 49-65. Desrosières, Alain/Thévenot, Laurent (2005): Les catégories socioprofessionnelles, Paris. Diaz-Bone, Rainer/Didier, Emmanuel (Hrsg.) (2016): Conventions and Quantification – Transdisciplinary Perspectives on Statistics and Classifications. Historical Social Research, Vol. 41, No. 2, S. 7-26. Espeland, Wendy N./Stevens, Mitchell L. (1998): Commensuration as a social process. In: Annual Review of Sociology, Vol. 24, S. 313-343. Foucault, Michel (1979): On governmentality. In: Ideology & Consciousness, Vol. 6, S. 5-21. Fourcade, Marion/Healy, Kieran (2013): Classification situations: Life-chances in the neoliberal era. In: Accounting Organizations and Society, Vol. 38, No. 8, S. 559-572. Fourcade, Marion/Healy, Kieran (2017a): Categories All the Way Down. In: Historical Social Research, Vol. 42, No. 1, S. 286-296. Fourcade, Marion/Healy, Kieran (2017b): Seeing like a Market. In: Socio-Economic Review, Vol. 15, No. 1, S. 9-29. Freund, David M. P. (2010): Colored property: State policy and white racial politics in suburban America, Chicago. FTC (2004): Report to Congress under Sections 318 and 319 of the Fair and Accurate Credit Transactions Act of 2003. Online unter: http://www.ftc.gov/reports/facta/041209factarpt.pdf (aufgerufen am 17.5.2017). FTC (2008): Report to Congress under Section 319 of the Fair and Accurate Credit Transactions Act of 2003. Online unter: https://www.ftc.gov/reports/section-319-fair-accurate-credit-transactions-act-2003-third-interimfederal-trade (aufgerufen am 18.5.2017). FTC (2012): Report to Congress Under Section 319 of the Fair and Accurate Credit Transactions Act of 2003. Online unter: https://www.ftc.gov/ sites/default/files/documents/reports/section-319-fair-and-accurate-credittransactions-act-2003-fifth-interim-federal-tradecom-mission/130211factareport.pdf (aufgerufen am 18.5.2017). FTC (2014): Data Brokers. A Call for Transparency and Accountability. Online verfügbar unter: https://www.ftc.gov/system/files/documents/reports/databrokers-call-transparency-accountability-report-federal-trade-commissionmay-2014/140527databrokerreport.pdf (aufgerufen am 13.12.2017).

202 | K RENN

Furlatti, Mark J. (2002): An Overview and History of Credit Reporting, SSRN. Galbraith, John Kenneth (1969): The new industrial state, Harmondsworth. Galbraith, John Kenneth (1975): Economics and the public purpose, Harmondsworth. Gandy Jr., Oscar H. (1993): The panoptic sort: A political economy of personal information. Critical studies in communication and in the cultural industries, Boulder. Gandy Jr., Oscar H. (2009): Coming to Terms With Chance. Engaging Rational Discrimination and Cumulative Disadvantage, London. Hansen, Marit/Meissner, Sebastian (2007): Verkettung digitaler Identitäten. Report von ULD und TU Dresden für das BMBF, Kiel. Online unter: https://www.datenschutzzentrum.de/uploads/projekte/verkettung/2007-uldtud-verkettung-digitaler-identitaeten-bmbf1.pdf (aufgerufen am 13.12.2017). Hahn, Alois/Schorch, Marén (2007): Tests und andere Identifikationsverfahren als Exklusionsfaktoren In: Gunsenheimer, Antje (Hg.): Grenzen, Differenzen, Übergänge: Spannungsfelder inter- und transkultureller Kommunikation, Bielefeld, S. 253-268. Halpern, Sue (2016): They Have, Right Now, Another You, The New York Review of Books, 22.12.2016. Online unter: http://www.nybooks.com/articles/2016/12/22/they-have-right-now-another-you/ (aufgerufen am 13.12.2017). Hofmann, Jeanette (2017): Demokratie im Datenkapitalismus. Das Verhältnis von Medien und Macht muss neu vermessen werden. In: WZB Mitteilungen 155, S. 14-17. Hofmann, Jeanette/Bergemann, Benjamin (2016): Die informierte Einwilligung. Ein Datenschutzphantom – Beitrag zum 20. Berliner Kolloquium der Daimler und Benz Stiftung „Der Datenmensch – Über Freiheit und Selbstbestimmung in der digitalen Welt“, 11. Mai 2016. In: Spektrum der Wissenschaft Kompakt, S. 50-59. Hoofnagle, Chris Jay (2013): How the Fair Credit Reporting Act Regulates Big Data. Future of Privacy Forum Workshop on Big Data and Privacy: Making Ends Meet, 2013. Japec, Lilli/Kreuter, Frauke/Berg, Marcus/Biemer, Paul/Decker, Paul/Lampe, Cliff/Lane, Julia/O’Neil, Cathy/Usher, Abe (2015): Big Data in Survey Research. AAPOR Task Force Report. In: Public Opinion Quaterly, Vol. 79, No. 4, S. 839-880. Jentzsch, Nicola (2014). Monetarisierung der Privatsphäre: welchen Preis haben persönliche Daten?, DIW Wochenbericht 34/2014, S. 793-798. Online unter:

DO

DIGITAL MARKERS HAVE POLITICS ?

| 203

https://www.diw.de/documents/publikationen/73/diw_01.c.479821.de/14-343.pdf (aufgerufen am 13.12.2017). Kirk, Stuart A./Kutchins, Herb (1992): The selling of DSM: The rhetoric of science in psychiatry, Hawthorne. Kirk, Stuart A./Kutchins, Herb (1994): The Myth of the Reliability of DSM. In: Journal of Mind and Behavior, Vol. 15, No. 1-2, S. 71-86. Krenn, Karoline (2017a): Markets and Classifications – Constructing Market Orders in the Digital Age. An Introduction. In: Historical Social Research Vol. 42, No. 1, S. 7-22. Krenn, Karoline (Hrsg.) (2017b): Markets and Classifications. Categorizations and Valuations as Social Processes Structuring Markets. Special Issue of Historical Social Research, Vol. 42, No. 1. Lamont, Michéle/Molnar, Virág (2002): The study of boundaries in the social science. In: Annual Review of Sociology, Vol. 28, S. 167-195. Luhmann, Niklas (2000): Die Religion der Gesellschaft, Frankfurt am Main. MacKenzie, Donald A. (2006): An Engine, not a Camera: How Financial Models Shape Markets, Cambridge/London. Mau, Steffen (2017): Das metrische Wir. Über die Quantifizierung des Sozialen, Berlin. Mayer-Schönberger, Viktor/Cukier, Kenneth (2013): Big Data. A Revolution That Will Transform How We Live, Work, and Think, Boston. Merton, Robert K. (1948): The self-fulfilling prophecy. In: The Antioch Review, Vol. 8, No. 2, S. 193-210. Mises, Ludwig von (2002): Nationalökonomie. Theorie des Handelns und des Wirtschaftens, Düsseldorf. Nassehi, Armin (2017): Die letzte Stunde der Wahrheit. Kritik der komplexitätsvergessenen Vernunft, Hamburg. O’Neil, Cathy (2016): Weapons of Math Destruction. How Big Data Increases Inequality and Threatens Democracy, London. Pachucki, Mark A./Pendergrass, Sabrina./Lamont, Michèle (2007): Boundary processes: Recent theoretical developments and new contributions. In: Poetics, Vol. 35, No. 6, S. 331-351. Pasquale, Frank (2015): The Black Box Society: The Secret Algorithms That Control Money and Information, Cambridge. Petrlic, Ronald/Sorge, Christoph (2017): Datenschutz: Einführung in technischen Datenschutz, Datenschutzrecht und angewandte Kryptographie, Wiesbaden. Poon, Martha (2007): Scorecards as devices for consumer credit: The case of Fair, Isaac & Company Incorporated. In: The Sociological Review, Vol. 55, No. 2, S. 284-306.

204 | K RENN

Poon, Martha (2009): From New Deal Institutions to Capital Markets: Commercial Consumer Risk Scores and the Making of Subprime Mortgage Finance. In: Accounting, Organizations and Society, Vol. 35, No. 5, S. 654674. Poon, Martha (2016): Corporate Capitalism and the Growing Power of Big Data: Review Essay. In: Science, Technology, & Human Values, Vol. 41, No. 6, S. 1088-1108. Rona-Tas, Akos (2017): The Off-Label Use of Consumer Credit Ratings. In: Historical Social Research, Vol. 42, No. 1, S. 52-76. Rosenblat, Alex/Kneese, Tamara/boyd, danah (2014): Networked Employment Discrimination. Online unter: https://papers.ssrn.com/sol3/papers.cfm?ab stract_id=2543507 (aufgerufen am 13.12.2017). Sauer, Ulrike (2017a): Klüger wohnen. In: Süddeutsche Zeitung, 26.7.2017, München. Sauer, Ulrike (2017b): Wir fangen bei null an. In: Süddeutsche Zeitung, 26.7.2017, München. Schneier, Bruce (2015): Data and Goliath. The Hidden Battles to Collect Your Data and Control Your World, New York/London. Sevignani, Sebastian (2017): Surveillance, Classification, and Social Inequality in Informational Capitalism: The Relevance of Exploitation in the Context of Markets in Information. In: Historical Social Research, Vol. 42, No. 1, S. 77102. Shiller, Benjamin R. (2014): First-Degree Price Discrimination Using Big Data. University, Brandeis. Online unter: http://www.benjaminshiller.com/images/First_Degree_PD_Using_Big_Data_Apr_8,_2014.pdf (aufgerufen am 13.12.2017). Smith, Robert Ellis (2004): Ben Franklin’s Web Site, Privacy and Curiosity from Plymouth Rock to the Internet. Solove, Daniel J. (2006): A taxonomy of privacy. In: Universaity of Pennsylvania Law Review, Vol. 154, No. 3, S. 477-560. Staab, Philipp (2016): Falsche Versprechen. Wachstum im digitalen Kapitalismus, Hamburg. Stalder, Felix (2016): Kultur der Digitalität, Berlin. Ulbricht, Lena (2017): Machtkämpfe um Big Data. Bürger und Verbraucher müssen geschützt werden. In: WZB Mitteilungen 155, S. 18-21. Vieth, Kilian/Wagner, Ben (2017): Teilhabe ausgerechnet. Wie algorithmische Prozesse Teilhabechancen beeinflussen können, Gütersloh. Welzel, Christian/ Eckert, Klaus-Peter/Kirstein, Fabian/Jacumeit, Volker (2017): Mythos Blockchain: Herausforderung für den öffentlichen Sektor, Berlin.

DO

DIGITAL MARKERS HAVE POLITICS ?

| 205

Online unter: http://www.oeffentliche-it.de/publikationen (aufgerufen am 13.12.2017). Winner, Langdon (1980): Do Artifacts Have Politics? In: Daedalus, Vol. 109, No. 1, S. 121-136. Wittel, Andreas (2017): Die Politische Ökonomie digitaler Technologien als neues Forschungsfeld. In: Koch, Gertraud (Hrsg.): Digitalisierung. Theorien und Konzepte für die empirische Kulturforschung, Konstanz/München, S. 335-362. Zerubavel, Eviatar (1991): The fine line. Making distinctions in everyday life, Chicago. Zerubavel, Eviatar (1996): Lumping and Splitting: Notes on Social Classification. In: Sociological Forum, Vol. 11, No. 3, S. 421-433. Ziegenbalg, Jochen /Ziegenbalg, Oliver /Ziegenbalg, Bernd (2016): Algorithmen von Hammurapi bis Gödel, Wiesbaden.

Neue Ausschließungsdynamiken durch Big Data-generierte Unsichtbarkeiten, Inkohärenzen und ungleiche Zeitlichkeiten R AINER D IAZ -B ONE

E INLEITUNG Die Analyse der Sozialstruktur und der sozialen Mechanismen ist zentraler Bestandteil der Sozialwissenschaften seit ihren Anfängen. Bekanntlich hat bereits Emile Durkheim in seiner Studie „Die elementaren Formen des religiösen Lebens“ (Durkheim 2007) auf die Homologie der Struktur der kulturellen Kategorien und der Struktur der Verwandtschaftsbeziehungen hingewiesen und die kognitive Funktion der kulturellen Kategorien herausgestellt auch für die Koordination und Bewertung in anderen Bereichen der sozialen Praxis. Diese Analyseperspektive ist dann insbesondere von den Neodurkheimianern Lévi-Strauss (1981) und Douglas (1991) fortgesetzt worden und bildet bis heute eine zentrale und nach wie vor aktuelle Grundlage des sozialwissenschaftlichen Strukturalismus etwa bei Foucault (1971) oder Bourdieu (1982). Interessanterweise ist die Perspektive auf die Bedeutung und die Tradition der Analyse sozialer Kategorien und Klassifikationen auch im soziologischen Pragmatismus von großer Bedeutung, nicht nur im symbolischen Interaktionismus, sondern auch in durch Pragmatismus und Strukturalismus auf den Weg gebrachten neueren Strömungen wie beispielsweise der pragmatischen Soziologie (Fradin et al. 1994), der kognitiven Soziologie (Clément/Kaufmann 2011) oder der Konventionentheorie (Batifoulier et al. 2016; Diaz-Bone 2017, 2018) sowie

208 | DIAZ -B ONE

der damit verbundenen Soziologie der Quantifizierung (Espeland/Stevens 2008; Didier/Droesbeke 2014; Diaz-Bone/Didier 2016; Bruno et al. 2016).1 Die sich seit Jahrzehnten etablierenden Prozesse der Digitalisierung, der Vernetzung und Auswertung digitalisierter Daten haben schrittweise dazu geführt, dass in Bereichen wie Ökonomie oder öffentlicher Verwaltung Computer und elektronische Medien die materielle Basis bilden für das hier prozessierte Wissen. Seit nun einigen Jahrzehnten werden Menschen und Ereignisse mit Hilfe von Algorithmen und großer Datenmengen evaluiert und klassifiziert (Fourcade/Healy 2013; Vieth/Wagner 2017). Digitale Informationen sind damit nicht länger nur in elektronischer Form gespeicherte Texte, Filme und Bilder. Die Informationsspeicherung und die darauf basierende Generierung von Bewertungen und Klassifikationen von Menschen und Ereignissen erfolgt nun selbst in dieser „elektronischen Sphäre“. Dies hat Folgen für zentrale soziologische Konzepte wie Sozialstruktur oder soziale Mechanismen, wenn diese zunehmend nicht mehr allein als humane Praktiken der Interpretation, der Lebensführung, der Koordination zu fassen sind, sondern wenn computerisierte Auswertungsprozesse von digitalen Massendaten fundamentale Auswirkungen auf Sozialstruktur und soziale Prozesse haben. Desrosières hat formuliert, dass Quantifizieren bedeutet, eine Konvention einzuführen und dann zu messen (Desrosières 2008a: 10). Mit dieser Verbindung von Konvention und Messung sieht die Konventionentheorie auch einen Nexus zwischen numerischen Repräsentationen einerseits und Normativitäten, die in die Konvention eingegangen sind, andererseits. Insbesondere die sogenannte Konventionentheorie wird hier als Ansatz herangezogen, um zu fokussieren, wie diese Verbindung problematisch, ausschließend, inkohärent und in anderer Weise auffällig wird, wenn man die Situation von Big-Data-Analysen sowie Situationen ihrer sozialen Verwendung und der sozialen Auswirkungen darauf bezieht.

1

Strukturalismus und Pragmatismus sind die beiden „Megaparadigmen“ in den Sozialwissenschaften, spätestens seit den 1960er Jahren. Die meisten modernen Soziologien können jeweils als Rejustierung des Verhältnisses dieser beiden Megaparadigmen gedeutet werden. Strukturalismus und Pragmatismus ermöglichen, die Analyse von Klassifikationen zu verknüpfen, nicht nur mit kollektiver Kognition und der Rekonstruktion von Sozialstruktur, sondern auch mit Praktiken der Wertigkeitszuschreibung, mittlerweile spricht man von „Valuation“ und der Quantifizierung. Wenn der Strukturalismus in der Analyse der Kategorisierungen – insbesondere als Praxis des kollektiven Unbewussten – dem Pragmatismus überlegen ist, so ist der Pragmatismus in der Einbeziehung der praktischen Normativitäten und der pluralistischen Konzipierung des Gemeinwohls überlegen.

N EUE A USSCHLIESSUNGSDYNAMIKEN

DURCH

B IG D ATA | 209

Die Anwendungsbezüge in diesem Beitrag werden Märkte und die amtliche Statistik sein. Es soll aufgezeigt werden, dass diese beiden Bereiche gegenläufigen Entwicklungen und unterschiedlichen Zeitlichkeiten unterliegen, die zu Widersprüchen führen. Denn die Frage ist, welche gesellschaftliche Repräsentation auf der Basis von umfangreichen Datenmengen maßgeblich und rechtfertigbar sein soll sowie welche Formen sozialer Repräsentation faktisch in vielen Datenanalysen zum Tragen kommen.

K ONVENTIONENTHEORIE Für die Analyse von Phänomenen, die mit Begriffen wie Digitalisierung oder Big Data angezeigt werden, stehen in der deutschsprachigen Soziologie kaum geeignete Theorieansätze zur Verfügung. (Es finden sich hier sicherlich Theorieansätze, die die institutionellen Kontexte der Digitalisierung und Quantifizierung analysieren, nicht aber hier entwickelte Ansätze, die en detail die Praktiken der Quantifizierung, die Grundlagen und institutionellen Wechselwirkungen der Digitalisierung und Quantifizierung konzeptionell und empirisch fassen.)2 Die international wohl einflussreichste Grundlage stellen die Arbeiten von Desrosières und dann die damit verbundene Economie des conventions (kurz EC) dar, die im deutschsprachigen Raum auch als Konventionentheorie bezeichnet wird.3 Diese hat seit den 1980er Jahren eine Repragmatisierung der französischen Sozialwis-

2

Herkömmliche deutschsprachige soziologische Theorien stellen hier kaum eine Grundlage dar, da sie zumeist keine Konzipierung für Kategorien oder Quantifizierungen zur Verfügung stellen oder Technologien, Objekte und insgesamt das Materielle nicht einbeziehen. Dann sind die immer noch weit verbreiteten, reinen Phänomenbeschreibungen genauso wenig geeignet für einen weiter reichenden soziologischen Zugang wie essayistische Theoriekommentierungen, die keinen methodologischen Zugang einbringen. Daher ziehen viele aktuelle soziologische Arbeiten zur Quantifizierung sowie zur soziologischen Analyse der Auswirkungen der neuen Technologien US-amerikanische Ansätze (wie den symbolischen Interaktionismus, siehe Blumer 2013) oder französische Ansätze (wie die Actor-Network-Theory oder die Konventionentheorie) heran.

3

Die Analyse der Kategorisierung und Quantifizierung ist ein Gründungsmoment der Konventionentheorie, an dem Desrosières maßgeblich beteiligt war. Er hat das Verhältnis der Konventionentheorie zur Soziologie der Quantifizierung dargelegt, siehe Desrosières (2011).

210 | DIAZ -B ONE

senschaften maßgeblich angeführt (Corcuff 2011), dies zusammen mit der Actor-Network-Theory (kurz ANT; siehe Latour 2007). Methodologischer Ansatzpunkt sind Situationen, in denen Akteure eine Koordination bewerkstelligen müssen, um ein gemeinsames Ziel zu erreichen, das selbst Elemente eines kollektives Gutes repräsentiert, so dass man die Koordination als auf die Erreichung eines Gemeinwohls ausgerichtet auffassen kann. Die Koordination erfolgt gestützt auf kollektiv anerkannte kognitive Formen und relevante Objekte, Instrumente und Dispositive. Zentral ist, dass Akteure als kompetent aufgefasst werden, Koordinationslogiken heranzuziehen, die in der Situation die Interpretation, Evaluation und Valuation von Sachverhalten ermöglichen.4 Eben diese Koordinationslogiken werden in der Konventionentheorie als Konventionen bezeichnet.5 Die Konventionentheorie geht dabei von einer koexistierenden Pluralität der Konventionen aus (Boltanski/Thévenot 2007; Storper/Salais 1997; Batifoulier et al. 2016).6 Akteure sind auch hierin kompetent, mit dieser Pluralität der Konventionen umzugehen, das heißt beurteilen zu können, welche Konstellationen an Konventionen angemessen sind und welche Konventionen nicht als angemessen zu erachten sind. Die Pluralität koexistierender Konventionen bringt somit auch Spannungen und die Möglichkeit der Kritik sowie das Erfordernis von Rechtfertigung und Kompromissen ein. In vielen Situationen, die nicht einfach Routine sind, haben Akteure daher auch die Aufgabe zu bewerkstelligen, „die Situation wieder in Ordnung zu bringen“, das heißt die Kohärenz zwischen angestrebtem Ziel der Koordination, den Objekten und kognitiven Formen sowie den Konventionen (wieder) einzurichten. Wichtige Konventionen sind die industrielle Konvention, die Marktkonvention, die handwerkliche (familienweltliche) Konvention oder die zivilbürgerliche Konvention. Die industrielle Konvention repräsentiert die langfristige wissenschaftliche Planung und Bewertung und das kognitive Format der numerischen Information als Koordinationslogik. Die Marktkonvention repräsentiert den kurzfristigen Tausch und die Ausstattung mit Kaufkraft sowie das kognitive

4

Konventionen machen die situative Zuschreibung von „Wert“, „Wertigkeit“ und „Größe“ möglich. In diesem Sinne erhält das Wort „qualifizieren“ („qualifier“) seine volle Bedeutung, wie es sie im Französischen aufweist.

5

Sie sind damit zu unterscheiden von einem Konzept von Konvention, das diese lediglich als Bräuche oder Sitten auffasst, wie dies etwa bei Max Weber der Fall ist (Weber 1980).

6

Konventionen bzw. die durch sie strukturierten Sphären werden in der Konventionentheorie auch als „Produktionswelten“ (Storper/Salais 1997), als „Welten“ oder als „Rechtfertigungsordnungen“ bezeichnet (Boltanski/Thévenot 2007).

N EUE A USSCHLIESSUNGSDYNAMIKEN

DURCH

B IG D ATA | 211

Format der Preise als Koordinationslogik. Die handwerkliche Konvention repräsentiert die individuelle Expertise und die Herstellung von Einzelstücken sowie das kognitive Format der (informellen) Narration als Koordinationslogik. Die zivilbürgerliche Konvention repräsentiert das Engagement für eine Allgemeinheit und die Durchsetzung von Rechten sowie das kognitive Format der (öffentlichen) Narration. Diese Konventionen werden auch als „Qualitätskonventionen“ bezeichnet, da sie in einem weit verstandenen Sinne „Qualitäten“ (Ontologien und deren Wertigkeiten) zu fundieren, also sozial zuzuschreiben ermöglichen.7 Diese Konventionen werden in der Konventionentheorie durch zugehörige Konventionen konzeptionell komplettiert, wie Arbeitskonventionen, Finanzkonventionen oder Staatskonventionen, die ebenfalls Grundlagen für die Koordination sind (mitsamt der Prozesse der Interpretation, Evaluation und Valuation).8 Es ist gerade das Konzept der die Koordination strukturierenden Konvention, das deutlich macht, dass die Konventionentheorie dennoch die strukturalistische Tradition in den Sozialwissenschaften fortsetzt, wenn auch (im Vergleich zu den Sozialtheorien von Foucault und Bourdieu) eine stärkere Gewichtung der pragmatischen Theorieelemente vorliegt. Aus Sicht der Konventionentheorie gelten die meisten Sachverhalte wie Institutionen oder Objekte als sinnhaft unvollständig, das heißt ihre situative Bedeutung, Relevanz und Handhabung beinhalten viele Freiheitsgrade und diese müssen unter Bezug auf Konventionen situativ erst interpretiert werden. Für die Prozesse der (gerade auch elektronischen) Quantifizierung bedeutet dies, dass Sensoren, Computer und das Internet zwar Massendaten generieren und prozessieren können (nachdem Konventionen eingebracht wurden für die Quantifizierung und Algorithmen für die Verrechnung von Daten), dass aber die numerischen Repräsentationen für eine situative Koordination ebenfalls so lange sinnhaft unvollständig sind, solange diese nicht situiert werden und in einer Situation auch mit Hilfe von Konventionen interpretativ vervollständigt werden können. Was „Indikatoren“, „Messwerte“, „Daten“ etc. sind, wie sie zu verstehen, zu handhaben, zu beurteilen sind, ergibt sich nicht aus Zahlenwerten allein, sondern aus der konventionenbasierten Interpretation von Zahlen in Situationen. Aus Sicht der Konventionentheorie kann nach der Fundierung von „Daten“ und „Messungen“ sowie ihren Wechselwirkungen in institutionellen Kontexten ge-

7

Siehe für umfangreichere Darstellungen Boltanski/Thévenot (2007) oder Diaz-Bone

8

Diese lassen sich zu den Qualitätskonventionen in Beziehung setzten, sie ermöglichen

(2018). so eine Ausweitung des konventionentheoretischen Anwendungsspektrums (siehe Diaz-Bone 2018).

212 | DIAZ -B ONE

fragt werden, insbesondere hinsichtlich der Sichtbarkeit der Fundierung durch Konventionen und der Kohärenz von Datenkonstruktion und Koordinationsformen. Und gerade das Phänomen Big Data erscheint für eine solche Perspektive geeignet.

B IG D ATA Das Schlagwort Big Data wird zumeist so eingeführt, dass die 3V-Definition verwendet wird, die Big Data charakterisiert durch „volume“, also Masse der Daten, „velocity“, also die Geschwindigkeit, mit der diese anfallen und ausgewertet werden sowie „variety“, nämlich die Unterschiedlichkeit der Daten und Datenformate (Japec et al. 2015; Lazer/Radford 2017). Diese Bestimmung ist nicht allzu präzise und gibt noch wenig Anschauung, was die Praxisformen oder die Big Data-Realitäten angeht. Wesentlich erscheinen eigentlich die Konsequenzen. Big Data basiert häufig auf Daten in Formen von technischen Messungen wie solchen durch Sensoren in Geräten des Alltags wie Mobiltelefonen, Autos, Kassen, Aufzügen etc., die häufig kontinuierlich anfallen. Daten sind dann auf verschiedenen Datenspeichern distribuiert, nicht in einer Datei an einem physischen Ort und es sind Daten, die nicht die bequeme Form einer rechteckigen IBM SPSS- oder Stata-Datei aufweisen, in die bei Surveys für jeden Fall in der Zeile und über alle Fälle in der Spalte je eine Variable vorliegt. Stattdessen sind die Daten vielfach „schwach strukturiert“ und auch unvollständig, wenn man sie fallweise vergleicht und selbst das Konzept des Falls ist nicht so einfach zu beantworten, wie dies bei einem Survey der Fall ist. Big Data erhält seine neue Qualität nun wesentlich durch Integration von Prozessen der kontinuierlichen Digitalisierung und Datafizierung sowie der Vernetzung von unterschiedlichen Datenbeständen und der vielfach automatisierten Suche nach Mustern in solchen Daten, die dann wie auch immer evaluiert und interpretiert werden müssen (Mayer-Schönberger/Cukier 2013; Kitchin 2014a, 2014b). Es ist evident, dass solche Daten insbesondere bei Unternehmen zusammenlaufen, das heißt sie sind für die Öffentlichkeit nicht zugänglich und damit für eine weitere Öffentlichkeit unsichtbar, das gilt auch für Big Data-Analysen und darauf fußende Entscheidungen. Zudem ist ein eigener Markt entstanden für das Handeln mit solchen Datensätzen. Hinzu kommt ein weiterer Markt, der darin besteht, Big Data-Analysen für andere durchzuführen oder kontinuierlich aufgrund von eigenen Datenbeständen Dienstleistungen zu erkennen und anzubieten, also in den Datenmengen nach nutzbaren, interpretierbaren und ökonomisch verwertbaren Strukturen und Mustern zu suchen und diese aufzubereiten und in

N EUE A USSCHLIESSUNGSDYNAMIKEN

DURCH

B IG D ATA | 213

Wissensprodukte und Dienstleistungen umzumünzen. Auch dieser Markt hat die Eigenheit, dass nicht nur die Datenbestände nicht allgemein zugänglich sind, sondern dass auch die „big data analytics“ (Tsai et al. 2015) wie Software, Algorithmen und andere Praktiken Unternehmenswissen bleiben sollen und die resultierenden Produkte eingekauft werden müssen. Das Internet bietet auf den ersten Blick eine Möglichkeit, durch das Web Mining und das Web Crawling, kostenlos auf umfangreiche Datenmengen zuzugreifen (Munzert et al. 2015). Man muss aber auch hier sehen, dass die Unternehmen, die Internetinhalte anbieten bzw. ihre ökonomischen Transaktionen darüber abwickeln, dafür eben eigene Software und Algorithmen einsetzen, die wiederum Nutzerprofile mit eigenen Scorings generieren und die nicht zugänglich oder sichtbar sind.

M ÄRKTE

UND

P RIVATISIERUNG

Bezieht man diese integrativen Eigenschaften von Big Data sowie die wesentlich privatwirtschaftliche Organisation von Big Data auf Märkte, ihr Funktionieren und die Frage nach Abschließung und Ausgrenzung, kann man argumentieren, dass Unternehmen, die systematisch Big Data-Analysen einsetzen, zwar innovativ sein können, was neue Produkte und Dienstleistungen angeht. Man muss aber sehen, dass marktsoziologisch eine Reihe von Problematiken anstehen: (1) Zunächst das Problem, dass Big Data – anders als die amtliche Statistik etwa – keine vollständige „Coverage“ aller Personen ermöglicht, selbst wenn die Datenmengen riesig sind.9 Nicht alle Personen nutzen das Telefon oder das Internet für ihre Teilnahme an der Ökonomie, nicht alle Daten aller Unternehmen lassen sich zusammenbringen, um eine in diesem Sinne vollständige Datenlage zu haben (Japec et al. 2015). Dieser Aspekt der Coverage hat noch eine andere Facette. Big Data-Analysen werden in Marktforschungen nicht nur für individualisierte Werbebanner auf Internetseiten genutzt, sondern auch dafür verwendet, zu ermitteln, wer aus Sicht von Unternehmen als Kunde welchen Status erhalten soll. Das kann sich in unterschiedlichen Chancen für die Kreditgewährung und in individualisierten Preisen für Versicherungstarife artikulieren oder das kann in unterschiedlichen Lieferbedingungen und Marktzugangschancen resul-

9

Coverage („Abdeckung“) bedeutet in der Survey-Methodologie die prinzipielle Zugriffsmöglichkeit auf Einheiten einer untersuchungsrelevanten Population für die Stichprobenkonstruktion (siehe zu der Diskussion verschiedener Fehlerquellen von Surveys im Kontext von Big Data auch die Beiträge in Biemer et al. 2017).

214 | DIAZ -B ONE

tieren. Es ließen sich viele weitere Beispiele anführen. Hier wird aber klar, dass solche Analysen dazu beitragen können, dass soziale Ungleichheit verstärkt wird. Diese Facette zählt sicher zu den am meisten beargwöhnten praktischen Auswirkungen von Big Data-Analysen in der Privatwirtschaft. Und die Frage ist, ob die hier induzierten Ungleichheiten deckungsgleich mit sichtbaren Distinktionslinien von Lebensstilgruppen sind. (2) Ein zweiter Aspekt tritt hinzu, der in der Heterogenität der Datenqualitäten liegt. Big Data greift eben zurück auf Datensätze, die durch verschiedene Technologien und Praktiken generiert sein können und die eine Reihe ganz verschiedener, vorlaufender und nachlaufender Klassifizierungs- und Quantifizierungspraktiken in inkohärenter Weise miteinander verknüpfen können (DiazBone 2016b). Die Inkohärenz stellt sich insbesondere dann ein, wenn einfach Zahlenwerte prozessiert werden, ohne dass die technologischen und konventionenbasierten Eigenheiten der je vorlaufenden Abläufe als (Kontext-)Information mitgeführt und so für die folgenden Abläufe repräsentiert werden. Damit liegt nicht nur eine sich einstellende (und schrittweise wachsende) sinnhafte Unvollständigkeit vor, sondern die Frage kommt auf, ob hier die Inkohärenz die Datenqualität eigentlich grundlegend unterminiert, so dass dann Auswertungen und Interpretationen selbst Artefakte generieren. (3) Big Data bestehen überwiegend aus Verhaltensdaten, nicht aus Erfassungen von Antworten oder anderen Interpretationen. Damit sind diese Daten in besonderer Weise sinnhaft unvollständig. Eben auch deswegen sind die „Data Scientists“ hier interessiert an der Exploration von Strukturen, darunter eben auch Scorings und Clusterungen, also Klassifikationen. Diese Klassifikationen sind aber selten solche, die bereits im sozialen Raum oder im Markt etabliert wären und die Data Scientists müssen neue und andere Konventionen für die Messung einbringen, z. B. welche Metriken und Algorithmen verwendet werden sollen für Clusterungen. Die in der Big Data-Literatur häufig angeführte Frage ist, ob in der Big Data-Praxis der substanzwissenschaftlichen Interpretation auch genügend Rechnung getragen wird, so dass man den Handlungssinn der Akteure erfasst und die explorierten Strukturen auch versteht (Kitchin 2014a). Die hier als noch wichtiger erachtete Frage ist aber die, ob die in der Big Data-Analyse erfolgte Einführung von Kategorien, Klassifikationen, Indikatoren und Scorings gerade deshalb problematisch ist, weil diese mit den kognitiven Marktkategorien nicht mehr konform sein können. Die Folge ist, dass diese damit sowohl für die Unternehmen als auch andere Marktakteure (wie Kunden) zu Inkohärenzen, Konfusionen und Spannungen führen können. Dies passiert dann, wenn geteilte kollektive kognitive Kategorien und Klassifikationen wesentlich sind für das Funktionieren des Marktes, für geteilte und angemessene Bewertun-

N EUE A USSCHLIESSUNGSDYNAMIKEN

DURCH

B IG D ATA | 215

gen von Produktqualitäten und für die Möglichkeit geteilter Erwartungen. Dies hat etwa Zuckerman (1999) in der Untersuchung von Analysten gezeigt, die nicht kohärente Branchenklassifikationen verwendet haben, mit der Folge, dass missklassifizierte Unternehmen nicht adäquat bewertet wurden.10 Akerlof (1970) hat die Gefahr kollabierender Märkte analysiert, die aufkommen kann, wenn die Informationsasymmetrie die Qualitätseinschätzung beeinträchtigt. Eine ähnliche Asymmetrisierung liegt vor, wenn Scorings und Klassifikationen einseitig zur Verfügung stehen und eingesetzt werden. Hier ist dann zunächst Unkenntnis und Unverständnis Quelle von Unsicherheit. In vielen Big Data-Analysen müssen „Data Scientists“ schlichtweg ad hoc Kategorien und damit Klassifizierungspraktiken mitentscheiden, indem sie Algorithmen, Grenzwerte und Ähnlichkeiten festlegen, die inkohärent sein können, zu Kategorien und Klassifizierungspraktiken, die in sozialen Situationen etabliert sein können (zum Beispiel, weil sie durch rechtliche Grundlagen vorgegeben werden, weil sie öffentlich etablierte Einteilungen von Lebensstilgruppierungen repräsentieren oder weil sie durch Berufsgruppen gehandhabt werden wie Ärzten oder der Polizei).11 In der Computerlinguistik ist das Problem identifiziert worden, dass Algorithmen soziale Stereotype und Vorurteile nicht nur mit den durch sie gewonnenen Kategorien für große Textkorpora einfach nur „abbilden“, sondern dass sie diese auch verstärken können, wenn daraus Handlungsempfehlungen oder gar automatisierte Entscheidungsprozeduren entwickelt werden (siehe Caliskan et al. 2017). Damit wird eine Forcierung von Inkohärenzen, Ungleichheiten und insgesamt von Ausschließungsmechanismen nicht nur für Märkte und Marktbeziehungen ermöglicht.12 (4) Mit dem gerade genannten Aspekt hängt ein weiterer zusammen. Aus konventionentheoretischer Sicht liegt ein Problem vor, wenn Big Data-Analysen letztlich sogar zur Etablierung von solchen Klassifikationen führen, die die kognitive und evaluative Infrastruktur von Märkten mit ausmachen. Dann stellen diese Unternehmen nicht mehr einfach nur Wissensprodukte zur Verfügung, sondern sie organisieren die kognitive Infrastruktur und damit eine grundlegende Struktur des Marktes selbst.13 Hier geht es nicht nur um die Vermachtung in

10 Siehe für einen Überblick über die Entstehung von Kategorien für Märkte Durand und Khaire (2017). 11 Siehe zur Charakterisierung der Tätigkeiten und Kompetenzen der so genannten „Data Scientists“ Cady (2017). 12 Siehe für diese Perspektive auch Wolfangel (2017). 13 Lounsbury und Rao haben die Bedeutung der kognitiven Kategorien als fundamentaler Struktur für Märkte herausgestellt: “Product categories […] are cognitive infra-

216 | DIAZ -B ONE

Form dieser Privatisierung, sondern darum, dass die zugrunde liegenden Konventionen für Kognition und Evaluation einmal der pragmatischen Pluralität von Koordinationslogiken in Märkten nicht Rechnung tragen und dass die in die Datenanalyse eingehenden Konventionen letztlich zu sinnlosen Rankings, Scorings und Klassifikationen für Marktakteure führen. Das bedeutet allerdings nicht, dass sie wirkungslos wären, auch solche Rankings, Scorings und Klassifikationen haben ihre Effekte in Abhängigkeit der Marktorganisationsmacht der jeweiligen Unternehmen. Begreift man Märkte als kollektive kognitive Dispositive, wie dies Callon und Muniesa (2005) mit der Formulierung von Märkten als „calculative devices“ oder Favereau (1989) mit dem Konzept der „kollektiven kognitiven Dispositive“ zu fassen versucht haben, dann ist ein aufkommendes Zentralproblem, dass Big Data-Analysen für die praktische Moralität und Normativität, die auch für Märkte fundierend sind, keine Wissensbasis generieren, wenn in der Datenkonstruktion und in der Dateninterpretation solche Konventionen nicht eingebracht werden, die relevant sind dafür, dass die numerischen Informationen anschließend die beiden Aspekte der „justice“ (Gerechtigkeit) und der „justesse“ (Richtigkeit) verhandelbar machen. Sen und im Anschluss an ihn Salais haben in diesem Sinne von einer informationellen Basis für kollektives Handeln gesprochen (Salais 2012). Um all dies auf die eingangs eingeführte strukturalistische und pragmatische Position zu beziehen, geht es um zwei Aspekte. (1) Einmal darum, dass Big Data-Analysen aufgrund der Privatisierung und Automatisierung die Gefahr einbringen, die Kohärenz kognitiver kollektiver Dispositive und damit die kognitive Infrastruktur von Märkten zu riskieren oder zumindest inkohärenter werden zu lassen. (2) Zum anderen darum, dass die Privatisierung der Analysen sowie die Verwendung von Algorithmen dafür den marktweiten Erwartungen verschiedener Akteure entgegen laufen können, dass die generierten Informationen durch eine öffentlich wahrgenommene konventionenbasierte Praxis formatiert und sich an den etablierten kognitiven Marktkategorien ausrichten. Entsteht hier eine Diskrepanz, dann können Erwartungen von Marktakteuren auf Angemessenheit

structures that underpin markets; when the core similarities of goods are obscured by too many functionally irrelevant differences, consumers and producers may not be able to make appropriate comparisons […]. Like other kinds of social categories, product categories consequently structure cognition and behavior by establishing boundaries around similar kinds of entities. […] Once categories are in place, the behavior of actors increasingly conforms to them because they become default mechanisms to make sense of the world.“ (Lounsbury/Rao 2004: 973f.)

N EUE A USSCHLIESSUNGSDYNAMIKEN

DURCH

B IG D ATA | 217

und Brauchbarkeit der Daten für eine ökonomische Handlungspraxis und als Grundlage für die ökonomische Koordination unterminiert werden. Diese hier angeführten Aspekte der drohenden Privatisierung und Inkohärenz sowie des möglichen Auseinanderlaufens von marktbeeinflussenden Big DataAnalysen einerseits und kollektiven kognitiven Dispositiven andererseits werden auch kritisch mit dem Neoliberalismus in Verbindung gebracht (Desrosières 2014; Davies 2014; Diaz-Bone 2016a). Damit tritt hervor, dass verschiedene Formen der Datengenerierung, Datenanalyse und Datendistribution sich in Bezug setzen lassen zu verschiedenen Situationen und Formen der politischen Ökonomie (in welche sie eingebettet sind), das heißt, dass man von einer „politischen Ökonomie der Quantifizierung“ sprechen kann (Diaz-Bone/Didier 2016).

D IE

POLITISCHE

Ö KONOMIE

DER

Q UANTIFIZIERUNG

Es ist Desrosières, der seit den 1970er Jahren die konzeptionelle Grundlage für eine solche politische Ökonomie der Quantifizierung entwickelt hat (Diaz-Bone 2018). Er hat in seinen Studien zur Geschichte der Statistik und zum sozialhistorischen Zusammenhang zwischen Staat, Ökonomie und Gesellschaft die grundlegenden Arbeiten für eine Soziologie der Quantifizierung vorgelegt, die die Verbindung von Datenproduktion und die gesellschaftliche Verwendung von Daten einerseits mit Formen der politischen Ökonomie andererseits konzeptionell fassen können (Desrosières 2005, 2008a, 2008b, 2014).14 Mit Desrosières (2008a, 2008b, 2014), und diese Arbeiten erweiternd, kann man verschiedene Situationen idealtypisch differenzieren, in denen Prozesse der Kategorisierung, Quantifizierung und damit auch Digitalisierung erfolgen. Die folgende Tabelle vergleicht diese systematisch daraufhin, wie diese Prozesse mit einer je eigenen „politischen Ökonomie“ verknüpft sind, die sich darin zeigt, wie diese Prozesse kontrolliert werden, wie sie für Öffentlichkeiten zugänglich und sichtbar sind, ob sie an einem Gemeinwohl ausgerichtet sind. Im Zentrum dieser verschiedenen Situationen steht grundlegend ein je anderes Verständnis von „Regierung durch Zahlen“15, also davon, wie numerische Repräsentation sozialer

14 Zusammen mit Thévenot hat Desrosières für die verschiedenen Etappen der Datenproduktion und Datenverwendung das Konzept der statistischen Kette verwendet (Desrosières/Thévenot 1979, 2002). Dieses Konzept bettet die Datenproduktion und Datenverwendung in soziale Kontexte ein, die die Datenformate und die mit den Daten erzielte soziale Repräsentation prägen. 15 So der Titel „Gouverner par les nombres“ (Desrosières 2008b).

218 | DIAZ -B ONE

Prozesse und Strukturen generiert und wie sie wirkmächtig von wem in diese eingebracht werden (für deren Reproduktion, Kontrolle und Integration). Aus Sicht der Konventionentheorie stellen auch die neuen Praktiken der Bewertung und Entscheidung auf der Grundlage von Big Data letztlich nichts anderes dar als die Fortführung der basalen sozialen Praktiken der Klassifikation und Quantifizierung, wenn auch mit anderen Mitteln und mit der Tendenz zur Marginalisierung des menschlichen Anteils, der Sichtbarkeit und der Kohärenz. In der Tabelle 1 sind zudem auch die in Situationen aktualisierten Denkformen über die Art und Weise, wie der Staat (als Instanz) in die Koordination involviert ist bzw. in diese interveniert. Da die Wirksamkeit des Staates angewiesen ist auf Konventionen, die die staatlichen Instanzen und Institutionen (sinnhaft und situativ) vervollständigen, haben Storper und Salais (1997) von Staatskonventionen gesprochen.

N EUE A USSCHLIESSUNGSDYNAMIKEN

DURCH

B IG D ATA | 219

Tabelle 1: Vier Situationen der Klassifikation und Quantifizierung Planwirt-

Deliberative,

Situation

Situation

schaftliche

öffentliche

des freien

des priva-

Situation

Situation

Marktes

ten Mono-

Beamtentum,

Soziale Be-

Börse

Internet-

staatliche

wegungen,

Verwaltung

NGOs

ja

nein

nein

Nein

ja

nein

nein

Ja

ja

ja

ja

Nein

ja

ja

ja

Nein

nein

ja

nein

Nein

nein

ja

nein

Ja

ja

nein

nein

Nein

externer Staat

situierter

abwesen-

abwesen-

Staat

der Staat

der Staat

pols

Beispiel Klassifikation bzw. Quantifizierung wird durch ein Monopol symbolischer Macht legitimiert? Machtmonopol für die Implementierung einer Klassifikation bzw. Quantifizierung vorhanden? Klassifikation bzw. Quantifizierung auf die Realisierung eines Gemeingutes ausgerichtet? Sind Konventionen der Klassifikation bzw. Quantifizierung sichtbar? Sind Konventionen verhandelbar? Akzeptanz für eine Pluralität (der Konstellation) von Klassifikationen bzw. Quantifizierungen? Ist Klassifizierung bzw. Quantifizierung auf Nationalstaat beschränkt? Staatskonvention

monopol

Quelle: Diaz-Bone (2016b: 64)

Liberale Staatsverständnisse betrachten den (schwachen) Staat als für die Situationen „abwesend“, während Situationen, in denen Akteure vom Staat weitgehende Vorgaben und Interventionen erwarten, durch die Staatskonventionen des „externen“ Staates geprägt sind. Koordinationen, in denen die Akteure wissen, dass der Staat zunächst nicht agiert, aber bei einem Koordinationsversagen

220 | DIAZ -B ONE

durchgreift, ziehen die Konvention des situierten Staates heran. Die Tabelle 1 zeigt die (aus konventionentheoretischer Sicht) problematische Situation des privaten Monopols, die sich mit der Dominanz einzelner Unternehmen ergeben kann, die insbesondere deshalb problematisch ist, wenn es sich um Unternehmen handelt, die Dienstleistungen im Bereich der Bewertung, Informationssuche sowie der Etablierung von Prinzipien der Klassifikation und Quantifizierung anbieten und die nach und nach (fast) die Position eines Monopols erreichen. (Beispiele sind Internetunternehmen wie Google oder Amazon.) Es scheint naheliegend zu sein, die industrielle Konvention mit der planwirtschaftlichen Situation, die zivilbürgerliche Konvention mit der deliberativen, öffentlichen Situation und die Marktkonvention mit der Situation des freien Marktes einfach und direkt in Verbindung bringen zu können. Tatsächlich ist diese Zuordnung aber nicht so einfach zu machen, denn zumeist sind es einflussreiche Kombinationen von Konventionen, die diese Situationen mitstrukturieren. Aus konventionentheoretischer Sicht sind Dynamiken interessant, die darin bestehen können, dass in einem sozialen Bereich oder gesellschaftsweit die vormals dominierenden Konventionen und Situationen für Klassifizierung und Quantifizierung durch andere Situationen verdrängt werden. Die amtliche Statistik hat sich über Jahrhunderte als die Instanz etabliert, die die gesellschaftliche Repräsentation sozialer Kategorien und die öffentlich anerkannten Quantifizierungen generieren konnte. Hier war lange die planwirtschaftliche Situation charakteristisch. Mit dem Aufkommen von überwiegend privatwirtschaftlich durchgeführten Big Data-Analysen16 entstehen neue Problemlagen und letztlich auch problematische Ausschließungsdynamiken.17

AMTLICHE S TATISTIK

UND

B IG D ATA

Die Soziologie der Quantifizierung und besonders die in der französischen Soziologie formulierten Perspektiven auf Big Data und sozial relevante Klassifikationspraktiken haben als Ausgangspunkt bzw. als Vergleich im Grunde immer wieder die amtliche Statistik herangezogen. Wie in kaum einem anderen Land ist

16 Die Position, dass es insbesondere Daten aus dem Privatsektor („private sector data“) sind, die Big Data-Analysen zu einer treibenden Kraft für die Ökonomie werden lassen, vertreten beispielsweise Einav und Levin (2014) oder Ezrachi und Stucke (2016). 17 Dass gerade auch die amtliche Statistik sozial-historische Ausschließungsdynamiken generiert hat, zeigen Salais et al. (1999) am Beispiel der Kategorie der Arbeitslosigkeit.

N EUE A USSCHLIESSUNGSDYNAMIKEN

DURCH

B IG D ATA | 221

die amtliche Statistik in Frankreich eine Zentralinstitution sowohl für die Repräsentation der sozialen Lebensstile als auch für die ökonomische Koordination und Planung. Aus konventionentheoretischer Sicht ist die Bedeutung der amtlichen Statistik darin zu sehen, dass diese eben solche sozialhistorisch institutionalisierten Klassifikationen verwenden muss, die in der Gesellschaft ebenfalls etabliert sind, die hier sichtbar sind, die hier als im Wortsinn legitim – also auch gesetzlich verankert – angesehen werden und dass sie alle Personen einbeziehen will und gesetzlich auch muss. Die Daten der amtlichen Statistik sind gedacht nicht nur für das Staatshandeln, sondern zunehmend auch für zivilgesellschaftliche Zwecke, als informationelle Basis für das, was in Frankreich als „action publique“ bezeichnet wird.18 Man muss klar sehen, dass die Ausbreitung von Möglichkeiten für privatwirtschaftliche Big Data-Analysen die amtliche Statistik unter Druck gebracht hat, so dass hier auch Kritiken zu Tage treten.19 Die Produktionswelt der amtlichen Statistik wird durch die Wissenschaft, nicht durch die Märkte geprägt. Sie steht in der Kritik nicht nur teuer, sondern vor allem langsam zu sein. Und tatsächlich zeigt sich, dass die gesamtgesellschaftliche Repräsentation, wie sie durch die amtliche Statistik erfolgt, auf einem ganz anderen Verständnis von Zeitlichkeit basiert. Anstatt eine sofortige in Sekundenbruchteilen erfolgende Analyse von Datenströmen anzustreben, was eine Praxis der Big Data-Analyse ist, werden in der amtlichen Statistik – wie in der Volkswirtschaftlichen Gesamtrechnung – in langen zeitlichen Abständen Berichte und Tabellen erstellt und die Daten werden erst mit einem Zeitverzug von weiteren Monaten, manchmal mehreren Jahren (wie bei der Volkszählung) publiziert. Akteure, die beispielsweise für die Regulierung und Aufsicht von Märkten verantwortlich sind, stützen sich häufig auf die Berichte der amtlichen Statistik, die mit dem Konzept der Zeitlichkeit einer Behörde getaktet ist. Einfache Marktteilnehmer beobachten den Markt anhand der Massenmedien und stehen hier im

18 In der Schweiz etwa ist daher auch die Rede von der öffentlichen Statistik, die in neutraler Weise auf akzeptierten Konventionen basierend Daten für die Öffentlichkeit generiert (Diaz-Bone 2010; Jost 2016). 19 Die liberale Kritik entzündet sich einmal an der vermeintlich geringen Effizienz der amtlichen Statistik, ein Beispiel aus der Schweiz ist die Kritik des liberalen Flügels der rechtspopulistischen Partei SVP an dem Bundesamt für Statistik (Tagesanzeiger 2015). Dann finden sich Kritiken, die die fehlende politische Unabhängigkeit der amtlichen Statistik zum Ausgangpunkt nehmen, wie die Kritik an der vermeintlich manipulierten Wirtschaftsstatistik in Argentinien, die der Economist mit Hilfe von Big Data-Analysen identifiziert haben will (The Economist 2012).

222 | DIAZ -B ONE

Wettbewerbsnachteil, wenn einige Unternehmen technisch hochgerüstete Echtzeitanalysen umfangreicher Datenströme und automatisierte Entscheidungen einsetzen. Das automatisierte Handeln auf der Basis von Algorithmen ist ein Beispiel dafür. Der Betrug im Hochgeschwindigkeitshandel, wie das Michael Lewis in dem Buch „flash boys“ beschrieben hat, ist ein weiteres Beispiel für die neue Auswirkung von ungleichen Zeitkonzepten und der überlegenen Geschwindigkeit, mit der Daten im Bereich Big Data anfallen und ausgewertet werden (Lewis 2014). Interessant ist, dass die zivilbürgerliche Kritik nicht nur auf privatwirtschaftliche Big Data-Analysen abzielt, hierbei insbesondere auf die Unsichtbarkeit der Big Data-Konventionen und die Frage nach der Gemeinwohlorientierung. Hier findet sich auch eine Kritik an der administrativen Statistik, die lange Zeit ihre Aufgabe als Datenproduzentin für die Staatsverwaltung, aber nicht als Instanz der Herstellung einer numerischen und vollständigen Repräsentation für die Öffentlichkeit durchgeführt hat. Zugänglichkeit der Daten sowohl, was zeitnahe Veröffentlichung als auch, was die Publikation der unterliegenden Konventionen (im Sinne von Desrosières) und die Zurverfügungstellung der Daten angeht, werden zunehmend erwartet und die amtliche Statistik kommt hier seit einigen Jahrzehnten in Bewegung. Ein Trend ist hierbei, dass auch die amtliche Statistik die lange unabhängig und verstreut geführten Datenerhebungsprozesse in staatlichen Einrichtungen wie Behörden nach und nach hinsichtlich der amtlichen Konventionen harmonisiert hat und nun ebenfalls in dieser Produktionswelt von Big Data-Analysen die Rede ist, da auch hier nun sehr umfangreiche und verstreute Daten aufwändig verrechnet werden (Struijs et al. 2014; Kleiner et al. 2015). Die zivilbürgerliche Perspektive wird hier durch die Open Data-Bewegung repräsentiert, die eben die vollständige Transparenz und Zugänglichkeit der amtlichen Daten für die Öffentlichkeit fordert (Kitchen 2014b). Bemerkenswerterweise ist die Öffentlichkeit immer noch viel skeptischer gegenüber der amtlichen Statistik, das Bild des Big Brother wird in vielen Teilen der Gesellschaft eher mit der amtlichen Statistik assoziiert als mit Big Data. Vermutlich, weil erstere sichtbarer ist und eng mit politischer Steuerung verbunden ist. Die zivilbürgerlichen Momente, die gegen die amtliche Statistik und auch gegen eine hier emergierende Big Data-Analyse in Frankreich entstehen, formieren sich als kritische Beobachter einer privatwirtschaftlichen Big Data-Analyse, die als Ausdruck neoliberaler Wissensproduktion und Steuerung kritisiert wird. In Frankreich ist hier die Wissenschaftsbewegung „Statactivism“ aktiv darin, diese Kritik anhand von empirischen Analysen solcher Entwicklungen zu formulieren (Bruno/Didier 2014). Desrosières (2015) hat diese Gegenreaktion gegen Quantifizierung als eine Form der „retrocation“ identifiziert, das heißt des Wi-

N EUE A USSCHLIESSUNGSDYNAMIKEN

DURCH

B IG D ATA | 223

derstandes gegen nicht legitime Formen der Quantifizierung. Bezieht man dies auf die beiden Positionen von Strukturalismus und Pragmatismus, so kann man sagen, dass zwar die amtliche Statistik die zivilbürgerliche Position stärker berücksichtigt, also die Konventionen der Quantifizierung öffentlich macht, dass sie aber Schwierigkeiten mit der Zeitlichkeit der Big Data-Analysen hat, die in der Ökonomie möglichst in Echtzeit und algorithmenbasiert erfolgen können sollen, weil sie faktisch zu langsam prozessiert. Das ist nicht nur ein Problem für praktische Koordination. Das Auseinanderdriften der Zeitlichkeit von privatwirtschaftlichen Big Data-Analysen und derjenigen der amtlichen Statistik führt auch zu strukturellen Verwerfungen, weil die Klassifikationssysteme der amtlichen Statistik Gefahr laufen, einfach nicht mehr aktuelle Repräsentation zu sein.

N EUE AUSSCHLIESSUNGSDYNAMIKEN Das Aufkommen von Big Data-Analysen hat seit einigen Jahren die Benachteiligung von Individuen durch die Klassifikationsleistungen und darauf gestützter Bewertung von Individuen aufgezeigt, etwa bei der Benachteiligung durch überhöhte Versicherungstarife oder den faktischen Ausschluss von Märkten, indem Produkte an bestimmte Kunden nicht (oder nur gegen Vorauszahlung) geliefert werden (siehe dazu Fourcade/Healy 2013; Vieth/Wagner 2017 sowie die Beiträge in Krenn 2017). Tatsächlich greifen die Ausschließungsdynamiken aber weiter aus, wenn sie insgesamt die Sichtbarkeit und Öffentlichkeit von marktrelevanten Bewertungen unterminieren, wie hier argumentiert worden ist. Damit wird das dem liberalen und das der neoklassischen Wirtschaftstheorie unterliegende Marktmodell die soziale und institutionelle Grundlage entzogen, denn hier wird unterstellt, dass auch auf Nachfrageseite die marktrelevanten Informationen zur Verfügung stehen und so in den Preisbildungsmechanismus einfließen können. Mit der Tendenz, dass große Unternehmen auch über große Datenmengen verfügen und diese mit Hilfe von Big Data-Analysen als neue ökonomische Ressource so verwerten können, dass ihre marktbeherrschende Stellung damit ausgebaut werden kann, entsteht eine weite Form der Ausschließung, nun auch auf Seiten der Produzierenden auf Märkten (Rinne/Zimmermann 2016: 8).20 Zudem zeigt der Trend, dass Unternehmen zunehmend selbst die Kategorisierungen für Märkte

20 Siehe auch die Studie von Autor et al. (2017) zu diesem Mechanismus der Selbstverstärkung von Monopolbildung durch den Einsatz neuer Informations- und Kommunikationstechnologien und die Nutzung der Internettechnologie.

224 | DIAZ -B ONE

generieren, so dass damit auch die kollektive kognitive Infrastruktur von Märkten unterminiert wird, indem sie aus dem öffentlich zugänglichen ökonomischen Wissen verlagert wird in nicht öffentlich sichtbares Unternehmenswissen sowie unternehmensinterne Praktiken der Klassifizierung und Quantifizierung. Damit induzieren Big Data-Analysen und Big Data-Technologien Ausschließungsmechanismen, die den Marktmechanismus selbst von mehreren Seiten her unterminieren.21 Die Kontrastierung der amtlichen (oder neuerdings öffentlichen) Statistik mit dem Phänomen Big Data lässt deutlich werden, dass auch nicht-marktliche Bereiche durch das Aufkommen privatwirtschaftlicher Big Data-Analysen in die Situation geraten können, dass die zivilbürgerliche Konvention sowie die Konvention des situierten und externen Staates zurückgedrängt werden können, mit der Folge, dass die öffentliche Kontrolle über gesellschaftsweite (numerische) Repräsentationen nicht nur nicht länger staatlichen Instanzen unterliegt, sondern dass gesellschaftliche Repräsentationen ihre Bedeutung als gesellschaftsweit rechtfertigbare und anerkannte Kategorien zu verlieren drohen. Die mit der Kritik des Neoliberalismus verbundene Diagnose der Privatisierung vormals öffentlich kontrollierter Sphären (was nicht gleichzusetzen ist mit deren Vermarktlichung), kann dann ausgeweitet werden als Kritik der Privatisierung des öffentlichen Wissens. Polanyi hat in seiner viel beachteten wirtschaftshistorischen Studie die fehlende Einbettung der Märkte in die Gesellschaft als Ursache für die Krisenhaftigkeit der modernen westlichen Ökonomie ausgemacht (Polanyi 1973). Konventionentheoretisch gesehen sind aber auch Märkte durch eine Pluralität von Konventionen (und nicht nur durch die Marktkonvention) geprägt, die als Koordinationslogiken hier Rechtfertigungszwänge und das Verfolgen eines Gemeingutes mobilisieren. Mit dem Aufkommen von Big Data sowie der wachsenden Bedeutung des Internet (mitsamt der neuen privatwirtschaftlichen Repräsentation von Gesellschaft, wie sie durch Social Media erfolgt) sowie mit den koexistierenden ungleichen Zeitlichkeiten der Repräsentationen der (langsam prozessierenden) öffentlichen Statistik einerseits und der schnellen (gar in Echtzeitzeit prozessierenden) Big Data-Ökonomie andererseits, kann man nun etwas pointiert argumentieren, dass eine Ausschließungsdynamik einsetzt, die die Ökonomie nicht nur aus dem Sozialen entbettet, sondern die die sozialen Repräsentationen insgesamt

21 Konventionentheoretisch gesehen ist also nicht die „Vermarktlichung“ der eigentliche und problematische Mechanismus, da Märkte prinzipiell für neu Eintretende als offene Sphären gedacht sind, was die Privatisierung zu verhindern versucht, um den Mechanismus des Wettbewerbs auf freien Märkten zu umgehen.

N EUE A USSCHLIESSUNGSDYNAMIKEN

DURCH

B IG D ATA | 225

auflöst, indem sie die fundierenden sozialen Konventionen durch privatwirtschaftliche Algorithmen ersetzt.

L ITERATUR Akerlof, George (1970): The market for „lemons“. Quality uncertainty and the market mechanism. In: Quarterly Journal of Economics, Vol. 84, No. 3, S. 488-500. Autor, David/Dorn, David/Katz, Lawrence F./Patterson, Christina/Van Reenen, John (2017): The fall of the labor share and the rise of superstar firms. NBER Working Paper No. 23396, Washington. Batifoulier, Philippe/Bessis, Franck/Ghirardello, Ariane/Larquier, Guillemette de/Remillon, Delphine (Hrsg.) (2016): Dictionnaire des conventions, Lille. Biemer, Paul P./de Leeuw, Edith/Eckman, Stephanie/Edwards, Brad/Kreuter, Frauke/Lyberg, Lars E. /Tucker, N. Clyde/West, Brady T. (Hrsg.) (2017): Total survey error in practice, New York. Blumer, Herbert (2013): Symbolischer Interaktionismus, Berlin. Boltanski, Luc/Thévenot, Laurent (2007): Über die Rechtfertigung, Hamburg. Bourdieu, Pierre (1982): Die feinen Unterschiede. Kritik der gesellschaftlichen Urteilskraft, Frankfurt am Main. Bruno, Isabel/Didier, Emmanuel (2014): Statactivisme. Comment lutter avec des nombres, Paris. Bruno, Isabel/Jany-Catrice, Florence/Touchelay, Béatrice (Hrsg.) (2016): The social sciences of quantification. From politics of large numbers to targetdriven policies, Cham. Cady, Field (2017): The data science handbook, New York. Caliskan, Aylin/Bryson, Joanna J./Narayanan, Arvind (2017): Semantics derived automatically from language corpora contain human-like biases. In: Science, Vol. 356, No. 6334, S. 183-186. Callon, Michel/Muniesa, Fabian (2005): Economic markets as calculative collective devices. In: Organization Studies, Vol. 26, No. 8, S. 1229-1250. Clément, Fabrice/Kaufmann, Laurence (Hrsg.) (2011): La sociologie cognitive, Paris. Corcuff, Philippe (2011): Les nouvelles sociologies. Entre le collectif et l’individuel, 3. Aufl., Paris. Davies, William (2014): The limits of neoliberalism. Authority, sovereignty, and the logic of competition, London. Desrosières, Alain (2005): Die Politik der großen Zahlen, Heidelberg.

226 | DIAZ -B ONE

Desrosières, Alain (2008a): Pour une sociologie historique de la quantification. L’argument statistique I, Paris. Desrosières, Alain (2008b): Gouverner par les nombres. L’argument statistique II, Paris. Desrosières, Alain (2011): The economics of convention and statistics: The paradox of origins. In: Historical Social Research, Vol. 36, No. 4, S. 64-81. Desrosières, Alain (2014): Prouver et gouverner. Une analyse politique des statistiques publiques, Paris. Desrosières, Alain (2015): Retroaction: How indicators feed back onto quantified actors. In: Richard Rottenburg/Merry, Sally E./Park, Sung-Joan/ Mugler, Johanna (Hrsg.): The world of indicators. The making of governmental knowledge through quantification, Cambridge, S. 329-353. Desrosières, Alain/Thévenot, Laurent (1979): Les mots et les chiffres: les nomenclatures socioprofessionnelles. In: Economie et statistique, Vol. 110, S. 49-65. Desrosières, Alain/Thévenot, Laurent (2002): Les catégories socioprofessionnelles, Paris. Diaz-Bone, Rainer (2010): Die öffentliche Statistik und die Sozialwissenschaften. In: Lustat (Hrsg.): Lustat Jahrbuch 2010, Luzern, S. 7-13. Diaz-Bone, Rainer (2016a): Convention theory and neoliberalism: Review Essay zu: William Davies (2014): The limits of neoliberalism. Authority, sovereignty, and the logic of competition. London: Sage. In: Journal of Cultural Economy, Vol. 9, No. 2, S. 214-220. Diaz-Bone, Rainer (2016b): Convention theory, classification and quantification. In: Historical Social Research, Vol. 41, No. 2, S. 48-71. Diaz-Bone, Rainer (2017): Classifications, quantifications and quality conventions in markets – Perspectives of the economics of convention. In: Historical Social Research, Vol. 42, No. 1, S. 238-262. Diaz-Bone, Rainer (2018): Die „Economie des conventions“. Grundlagen und Entwicklungen der neuen französischen Wirtschaftssoziologie. 2. Auflage, Wiesbaden. Diaz-Bone, Rainer/Didier, Emmanuel (2016): The sociology of quantification. Perspectives on an emerging field in the social sciences. In: Historical Social Research, Vol. 41, No. 2, S. 7-26. Diaz-Bone, Rainer/Didier, Emmanuel (Hrsg.) (2016): Conventions and quantification. Transdisciplinary perspectives on statistics and classifications. In: Historical Social Research, Vol. 41, No. 2. Didier, Emmanuel/Droesbeke, Jean-Jacques (Hrsg.) (2014): Hommage à Alain Desrosières (special issue). Statistique et société, Vol. 2, No. 3.

N EUE A USSCHLIESSUNGSDYNAMIKEN

DURCH

B IG D ATA | 227

Douglas, Mary (1991): Wie Institutionen denken, Frankfurt am Main. Durand, Rodolphe/Khaire, Mukti (2017): Where do market categories come from and how? Distinguishing category creation from category emergence. In: Journal of Management, Vol. 43, No. 1, S. 87-110. Durkheim, Emile (2007): Die elementaren Formen des religiösen Lebens, Frankfurt am Main. Einav, Liran/Levin, Jonathan (2014): Economics on the age of big data. In: Science, Vol. 346, No. 6210, S. 715-721. Espeland, Wendy/Mitchell L. Stevens (2008): A sociology of quantification. In: European Journal of Sociology, Vol. 49, No. 3, S. 401-436. Ezrachi, Ariel/Stucke, Maurice (2016): Virtual competition. The promise and perils of the algorithm-driven economy, Cambridge. Favereau, Olivier (1989): Marchés internes, marchés externes. In: Revue économique, Vol. 40, No. 2, S. 273-328. Foucault, Michel (1971): Die Ordnung der Dinge. Eine Archäologie der Humanwissenschaften, Frankfurt am Main. Fourcade, Marion/Healy, Kieran (2013): Classification situations. Life-chances in the neoliberal era. In: Accounting, Organizations, and Society, Vol. 38, No. 8, S. 559-72. Fradin, Bernard/Quéré, Louis/Widmer, Jean (Hrsg.) (1994): L’enquête sur les catégories, Paris. Japec, Lilli/Kreuter, Frauke/Berg, Marcus/Biemer, Paul/Decker, Paul/Lampe, Cliff/Lane, Julia/O’Neil, Cathy/Usher, Abe (2015): Big data in survey research. AAPOR task force report. In: Public Opinion Quarterly, Vol. 79, No. 4, S. 839-880. Jost, Hans Ulrich (2016): Von Zahlen, Macht und Politik. Geschichte der Schweizerischen Statistik, Zürich. Kitchin, Rob (2014a): Big Data, new epistemologies and paradigm shifts. In: Big Data and Society, Vol. 1, No. 1, S. 1-12. Kitchin, Rob (2014b): The data revolution. Big data, open data, data infrastructures and their consequences, Los Angeles. Kleiner, Brian/Stam, Alexandra/Pekari, Nicolas (2015): Big data for the social sciences. FORS Working Paper, Lausanne. Krenn, Karoline (Hrsg.) (2017): Markets and classifications. Categorizations and valuations as social processes structuring markets. Historical Social Research, Vol. 42, No. 1. Latour, Bruno (2007): Eine neue Soziologie für eine neue Gesellschaft, Berlin. Lazer, David/Radford, Jason (2017): Data ex Machina: Introduction to Big Data. In: Annual Review of Sociology, Vol. 43, S. 19-39.

228 | DIAZ -B ONE

Lévi-Strauss, Claude (1981): Die elementaren Strukturen der Verwandtschaft, Frankfurt am Main. Lewis, Michael (2014): Flash boys, Frankfurt am Main. Lounsbury, Michael/Rao, Hayagreeva (2004): Sources of durability and change in market classifications: A study of the reconstruction of product categories in the American mutual fund industry, 1944-1985. In: Social Forces, Vol. 82, No. 3, S. 969-999. Mayer-Schönberger, Viktor/Cukier, Kenneth (2013): Big Data. Die Revolution, die unser Leben verändern wird, München. Munzert, Simon/Rubba, Christian/Meißner, Peter/Nyhuis, Dominic (2015): Automated Data Collection with R: A Practical Guide to Web Scraping and Text Mining, New York. Polanyi, Karl (1973): The Great Transformation. Politische und ökonomische Ursprünge von Gesellschaften und Wirtschaftssystemen, Frankfurt am Main. Rinne, Ulf/Zimmermann, Klaus F. (2016): Die digitale Arbeitswelt von heute und morgen. In: Aus Politik und Zeitgeschichte, Jg. 66, H. 18/19, S. 3-9. Salais, Robert (2012): Quantification and the Economics of Convention. In: Historical Social Research, Vol. 37, No. 4, S. 55-63. Salais, Robert/Baverez, Nicolas/Reynaud, Bénédicte (1999): L’invention du chômage, Paris. Storper, Michael/Salais, Robert (1997): Worlds of production. The action frameworks of the economy, Cambridge. Struijs, Peter/Braaksma, Bartelt/Daas, Piet (2014): Official statistics and big data. In: Big Data and Society, Vol. 1, No. 1, S. 1-6. Tagesanzeiger (2015): SVP greift Bundesamt für Statistik an. In: Tagesanzeiger, 06.08.2015, Zürich. The Economist (2012): Don’t lie to me Argentina, Economist, 25.02.2012, London. Tsai, Chun Wei/Lai, Chin Feng/Chao, Han Chieh/Vasilakos, Athanasios V. (2015): Big data analytics: A survey. In: Journal of Big Data, Vol. 2, No. 21, S. 1-32. Vieth, Kilian/Wagner, Ben (2017): Teilhabe ausgerechnet. Wie algorithmische Prozesse Teilhabechancen beeinflussen können, Gütersloh. Weber, Max (1980): Wirtschaft und Gesellschaft, 5. Aufl., Tübingen. Wolfangel, Eva (2017): GOOGLE und die Frau am Herd. Digitale Übersetzungsprogramme stecken voller Tücken. Weshalb künstliche Intelligenz anfällig ist für Rassismus und Vorurteile. In: Die ZEIT, 13. Juli 2017, Hamburg.







N EUE A USSCHLIESSUNGSDYNAMIKEN

DURCH

B IG D ATA | 229

Zuckerman, Ezra (1999): The categorical imperative. Securities analysts and the illegitimacy discount. In: American Journal of Sociology, Vol. 104, No. 5, S. 1398-1438.

Organisationale Transformationen in der Datengesellschaft

Algorithmus = Logik + Kontrolle Algorithmisches Management und die Kontrolle der einfachen Arbeit H EINER H EILAND

Gegen Ende des Jahres 2016 verkündete der weltgrößte Fonds für Risikokapital, dass zukünftig das Gros der unternehmerischen Entscheidungen per Software und damit mittels Algorithmen organisiert werden sollten (Solon 2016). Solch eine Entwicklung stellt einen zentralen Schritt in Richtung einer von Daten bestimmten Gesellschaft dar. Denn mit Arbeit steht eines der zentralen Organisationsprinzipien kapitalistischer Gesellschaften im Fokus. Wird dieser Aspekt nun per Datafizierung des Sozialen automatisch organisiert und damit komplexe soziale Prozesse mittels Algorithmen gesteuert, so stellen sich bisher eher in der fernen Zukunft verortete Fragen bereits gegenwärtig. Doch auch wenn solche Praktiken im oberen Management bisher nur vereinzelt anzutreffen sind, werden bereits aktuell zahlreiche Arbeitsprozesse von Software vorstrukturiert und von Algorithmen gesteuert. Besonders ausgeprägt sind derlei Innovationen dabei weniger im Bereich der hochqualifizierten Arbeit, sondern im Sektor der einfachen Dienstleistungsarbeit. Da diese Art der Arbeit sich gegenwärtig noch weitgehend ihrer Automatisierung entzieht, doch angesichts zunehmend tertiär ausgerichteter westlicher Gesellschaften weiterhin an Relevanz gewinnt, ist damit ein breites Feld an Arbeitsprozessen von computergestützten Steuerungs- und Kontrolltechniken betroffen. Von besonderer Bedeutung werden solche neuartigen unternehmerischen Vorgehen im Bereich der noch jungen Plattformökonomien, die ohnehin auf technischen Innovationen basieren und diese zugleich umfassend in Formen algorithmischen Managements einzusetzen versuchen. Der folgende Beitrag widmet sich diesen neuen softwaregestützten Managementpraktiken. Da den hierbei fokussierten arbeitsvermittelnden Online-

234 | HEILAND

Plattformen ihre Organisationsweise und nicht ein ökonomischer Sektor gemein ist, ist die konkrete Ausgestaltung des algorithmischen Managements ebenso divers wie das Feld der existierenden Plattformen. Trotzdem sind bei all diesen Praktiken gemeinsame Aspekte identifizierbar. Dafür wird zuerst ein analytischer Rahmen vorgeschlagen, der es erlaubt, solch unternehmerische Innovationen als eine spezifische Lösung des Kontrollproblems von Arbeit angesichts der auf Plattformen nur noch selbstständig tätigen Beschäftigten zu verstehen. Dabei werden zu Beginn der Bereich der plattformvermittelten Dienstleistungen und seine spezifische Art der Kopplung verschiedener Elemente dargestellt und die spezifische Notwendigkeit der Kontrolle der Arbeit von Seiten der Plattformen herausgearbeitet (1). Im Anschluss wird der analytische Fokus auf die algorithmische Steuerung unternehmerischer Aspekte der Plattformen gelegt und dies beispielhaft belegt sowie eine Entwicklung hin zu einem digitalen Taylorismus konstatiert (2) Abschließend werden die dargelegten und analysierten Praktiken resümiert (3).

1. P LATTFORMKAPITALISMUS : M ARKTSTEUERUNG T RANSFORMATION DER K OPPLUNGEN

UND

Infolge der umfassenden Verbreitung internetfähiger, GPS- und App-gestützter Smartphones in der westlichen Welt entstanden Internet-Plattformen, die in unterschiedlichen Sektoren weit reichende Transformationen bewirken. So wie Amazon den Einzelhandel revolutioniert, wirken sich Facebook und Google nachhaltig auf Erzeugung, Verbreitung und Konsum von Medieninhalten und Informationen aus. Weitere Beispiele sind Legion, und so unterliegen komplexe und über mitunter Jahrhunderte etablierte ökonomische Strukturen und Arbeitsbeziehungen einem nachhaltigem Wandel. 1.1 Die Verschiebung der Marktgrenze durch Dienstleistungsplattformen Besonders aktuell und mit Auswirkungen in erster Linie auf Seiten der Produktion und weniger der Konsumtion sind dabei Plattformen, die flexible Arbeitskräfte und die von diesen angebotenen Dienstleistungen vermitteln. Am bekanntesten und oft den Diskurs bestimmend sind hierbei das Unternehmen Uber, das nach eigenen Angaben nicht Taxidienste vermittelt, sondern ein Softwareunternehmen darstellt, sowie Amazons Plattform für nicht automatisierbare Mikroauf-

A LGORITHMISCHES M ANAGEMENT

| 235

gaben Mechanical Turk.1 Infolge und neben diesen Plattformen sind in den letzten Jahren zahlreiche ähnliche Unternehmen entstanden, die von der Reinigungskraft bis zu Grafikdesigner_innen, von Hundesitter_innen bis Programmierer_innen fast das gesamte Feld der Dienstleistungen abdecken, so dass bereits vom „Plattformkapitalismus“ die Rede ist (Lobo 2014). Dabei sind Online-Plattformen kein neues Phänomen. Doch während die ersten ihrer Art allein einfachen Warenaustausch bearbeiten konnten (bspw. eBay), so ist es den jüngeren unter Rückgriff auf die genannten technischen Innovationen möglich, auch komplexe Arbeitsverhältnisse zu koordinieren. Die Plattformen selber treten dabei nur als Intermediäre auf, die in der Regel nicht aktiv an der Realisierung der vermittelten Arbeitskraft bzw. Dienstleistung beteiligt sind. So gibt es im Rahmen solcher Geschäftsmodelle drei zentrale Akteur_innen: 1) die Unternehmen, die mit ihren Plattformen den Rahmen der Interaktionen zwischen, 2) den Arbeiter_innen bzw. Anbietenden und, 3) den Kund_innen bzw. Nachfragenden der Dienstleistungen definieren. Seit jeher besteht das klassische unternehmerische Problem von Dienstleistungsmärkten und damit auch ein zentraler Kostenaspekt in der systemischen Notwendigkeit, ungenutzte Arbeitskraftreserven auf Abruf halten zu müssen (Berger/Offe 1990). Die neuartigen Plattformen stellen die Vollendung des „atmenden Unternehmens“ dar, in dem die kostenintensive aber wertschöpfende Arbeit als solche vollständig dem Markt unterstellt wird und sich flexibel der tatsächlichen Nachfrage anzupassen vermag. Die für Dienstleistungsunternehmen relevantesten Personal- und Transaktionskosten werden infolge einer verstetigten Fremdvergabe als Kostenpunkte eliminiert und über die Erhebung von Vermittlungsgebühren zur zentralen Einnahmequelle der Plattformunternehmen.2 Im Anschluss an Ulrich Brinkmann (2011) stellt solch ein Wandel der Organisationsstruktur eine neuartige und noch radikalere Form der Marktgrenzverschiebung in die Unternehmen hinein dar. Doch dies drückt sich nicht nur wie bisher

1

Beide stehen zugleich für die zwei zentralen Unterschiede im Feld der Plattformarbeit mit einerseits lokal gebundener und andererseits örtlich ungebundener Ausführung der Arbeit.

2

Es bleibt eine stark reduzierte Kernbelegschaft – die „aristocracy of the new labor force“ (Zysman/Kenney 2015: 24) –, die für Bereitstellung und Marketing der Plattform zuständig ist. Nur angesichts dieser neuartigen Unternehmensorganisation, die für die Erschließung eines neuen Marktes einzig eines Büros und einer Handvoll Angestellter bedarf, erklärt sich bspw. die exponentielle weltweite Expansion Ubers – und das mit insgesamt ca. 1.500 Festangestellten. Gleiches – wenn auch in geringerem Umfang – gilt für vergleichbare Plattformunternehmen.

236 | HEILAND

in der Form einer Anwendung von Marktprinzipien innerhalb des Unternehmens aus, sondern darüber hinaus wird den Ausführenden der Dienstleistungsarbeit die Organisationsmitgliedschaft aufgekündigt und durch das jederzeit kündbare Nutzungsrecht einer Handyapplikation ersetzt, die nur quantitativ zwischen den Akteur_innen vermittelt (bspw. Beförderungsanfragen, Dienstleistungsbewertungen, vorgegebene Preise u. a.). Dabei spiegelt sich die gewonnene Komplexitätsreduktion auf Seiten der Arbeitgeber_innen umgekehrt als Komplexitätssteigerung auf Seiten der neuen plattformvermittelten Arbeitnehmer_innen wider. Diese sind nicht mehr abhängige Beschäftigte, aber ebenso wenig Selbstständige, denen die freie Wahl ihrer Auftraggeber_innen obliegt. Stattdessen befinden sie sich im Grenzbereich zwischen selbstständiger und abhängiger Erwerbsarbeit und werden zu abhängigen Selbstunternehmer_innen, die ergebnisorientierte Arbeit auf werkvertragsähnlicher Basis ausführen. Mit ihrem Ausschluss aus dem Unternehmen verlieren die Arbeitenden zahlreiche Aspekte sozialer und rechtlicher Absicherung ihrer Arbeit sowie die Möglichkeit zur betrieblichen Mitbestimmung. In der Folge entstehen für die meist gering qualifizierten „Beschäftigten“ mit solcher „Arbeit in Häppchen für wenig Geld“ (Jaehrling et al. 2006) sowohl kurzfristige als auch, aufgrund unzureichender Integration in soziale Sicherungssysteme, langfristige Prekaritätsrisiken. Die neue plattformartige Unternehmensorganisation ist jedoch keine schlichte Ausgliederung der Arbeitenden, sondern stellt sich als spezifische und innovative Art der Kopplung zwischen den Plattformen und den Ausführenden der Dienstleistungen dar. 1.2 Das Transformationsproblem angesichts neuer Kopplungen Spätestens seit Karl Marx ist die Frage, wie Arbeitskraft in konkrete Arbeitsleistung transformiert wird, eine zentrale für jedes Unternehmen und dessen Umgang mit und der Organisierung von Beschäftigten. Dieses „Transformationsproblem“3 hat seinen Ursprung in der „eigentümlichen Natur dieser spezifischen Ware, der Arbeitskraft“ (Marx 1972 [1867]: 188), die nicht von den sie Besitzenden zu trennen ist, so dass „[w]er Arbeitsvermögen sagt, [...] nicht Arbeit“ sagt (a. a. O.: 187). Denn die „Veräußerung der Kraft und ihre wirkliche Äußerung, d.h. ihr Dasein als Gebrauchswert, fallen daher der Zeit nach auseinander“ (a. a. O.: 188).

3

Das hier relevante „Transformationsproblem“ ist dabei nicht zu verwechseln mit der ebenso von Marx unter gleichem Namen behandelten Frage, wie Werte in Preise umgewandelt werden.

A LGORITHMISCHES M ANAGEMENT

| 237

Ein Arbeitsvertrag löst das Problem für das Unternehmen nicht, da ein solcher üblicherweise nicht spezifiziert, wie im Konkreten die Arbeit auszuführen ist, und für die meisten Arbeitszusammenhänge ist eine solche detailgenaue Explikation der zu vollbringenden Arbeit im Vorhinein weder möglich noch zielführend. Ein Arbeitsvertrag ist damit notgedrungen ein unsicheres Versprechen, so dass für das Unternehmen die Notwendigkeit der Kontrolle der Realisierung des Arbeitsvermögens besteht (siehe bspw. Braverman 1977). Diese unternehmerische Problemstellung stellt sich dabei nicht allein in Folge der Verwendung Marx’scher Termini.4 In anderen Worten stammt das Transformationsproblem, Blau (1964) zufolge, vom sozialen Charakter des Austausches von Arbeitskraft gegen Geld. Im Gegensatz zu ökonomischem Austausch geht sozialer nicht mit der präzisen Definition der Äquivalente einher. Stattdessen bringen Transaktionen unweigerlich soziale Beziehungen mit sich und damit die Notwendigkeit stetig die kontingenten Aspekte auszuhandeln, wie bspw. die konkrete Menge an Arbeitsleistung oder individuelle Performance sowie die Bedingungen unter denen diese stattfinden. Im Rahmen der genannten Online-Plattformen stellt sich jedoch die Herausforderung Arbeitskraft in konkrete Arbeitsleistung transformieren zu müssen, nicht weiter. Denn mit der Verschiebung der Marktgrenze in das Unternehmen hinein, werden die einst Beschäftigten, die nun nur noch per Account auf der Plattform an das Unternehmen gebunden sind, als selbstständige Unternehmer_innen aufgefasst, die selbst für die Realisierung konkreter Arbeit zu sorgen haben. Mittels dieser Externalisierung des Transformationsproblems von Seiten des Unternehmens hin zu dessen Internalisierung durch die Arbeitenden werden auch die üblichen „Personaleinsatzrisiken wie z. B. Absentismus, Fluktuation und unzureichende Personalauswahl“ (Herrmann 1998: 53) der disziplinierenden Funktion des Marktes überlassen. Darüber hinaus wird infolge der marktgesteuerten Regulationsweise der

4

Ebenso ist die Frage auch in Begriffen der Principal-Agent-Theorie formulierbar, derzufolge die Arbeitenden versuchen, ihren Lohn mit minimalem Arbeitsaufwand zu realisieren, was von Seiten des Unternehmens als Prinzipal versucht wird zu unterbinden und im Gegensatz dazu gar die Menge konkreter Arbeit zu maximieren (Sydow 1992: 171). Auch in der Systemtheorie Niklas Luhmanns (2000) spielt diese Problematik eine Rolle in Form der Differenzierung zwischen der Motivation an einer Organisation zu partizipieren und der Mitgliedschaft in einer solchen, so dass die Beteiligten versuchen, den Anforderungen verschiedener Organisationen gerecht zu werden, dabei aber auch ihre Präferenzen zu berücksichtigen, so dass sie ihre begrenzten Zeitressourcen unterschiedlich einsetzen.

238 | HEILAND

Plattformen auch nur die tatsächlich geleistete Arbeit entlohnt und etwaige Warte- oder Transferzeiten werden zur unumgänglichen aber unentlohnten Vorarbeit. In Anschluss an die Arbeiten Weicks (Weick 1976; Orton/Weick 1990; Weick 2001) lässt sich der neue Mitgliedschaftsstatus der Arbeitenden als spezifische Form der Kopplung an die Plattformen verstehen. Weick unterscheidet die Verbindung und wechselseitige Einflussnahme verschiedener Systeme mittels der Differenzierung zwischen engen und losen Kopplungen. Erstere – gemäß Webers Idealtyp der Bürokratie – bezeichnen demzufolge klare, direkte und unmittelbare Zuständigkeiten und Verbindungen verschiedener Organisationseinheiten. So spiegelt ein Organigramm in der Regel solche stabilen Beziehungen wider, die gewissermaßen auch paradigmatisch für die „organisierte Moderne“ (Wagner 1993) oder auch die „Organisationsgesellschaft“ (Jäger/Schimank 2005) gelten, wie bereits von anderen treffend dargelegt wurde (Kirchner/Beyer 2016: 327). Doch explizites Ziel von Weicks Perspektive war es von Beginn an, die Gleichzeitigkeit sowohl fester als auch loser Kopplungen in und zwischen Organisationen denken zu können (Weick 1989). Mit letzteren sind dabei Verbindungen zwischen verschiedenen Systemen gekennzeichnet, „die durch wenige oder schwache gemeinsame Variablen gekennzeichnet sind“ (Weick 1985: 163). Damit sind eher plötzliche, unregelmäßige, weniger intensive und auf Umwegen erfolgende Relationen gemeint, die – so die These – selbst in stahlharten Bürokratien von zentraler Relevanz sind. Anders als mitunter argumentiert (Kirchner/Beyer 2016), handelt es sich bei der Verbindung zwischen Plattformen und Arbeitenden nicht allein um lose Kopplungen. Das Novum der Plattformen stellt auf der einen Seite die nur lose gekoppelte Marktsteuerung von zuvor komplexen sozialen Beziehungen dar, sowie auf der anderen Seite die spezifische Mischung von loser und enger Kopplung zwischen Plattform und Arbeitenden. So werden tatsächlich viele zuvor stärker sozial konnotierte Verbindungen nun durch in erster Linie marktgesteuerten ökonomischen Austausch geregelt. Wurde bspw. eine private Reinigungshilfe zuvor in der Regel unangemeldet beschäftigt und ging mit dieser sozialen Beziehung eine Vielzahl komplexer und aufgrund der Ungleichheit der beiden Seiten auch vermachteter Verbindungen einher, so bringt die mittels Plattformen vermittelte und damit stärker marktgesteuerte Organisationsform eine Formalisierung der Beziehung mit sich, die sich nicht allein auf die Bezahlung erstreckt.5

5

So werden bspw. auch die Bewertungen der Arbeitsleistung erfasst – meist mittels des üblichen Fünf-Sterne-Systems –, was für zukünftige Aufträge für die Arbeitenden von großer Relevanz ist und zugleich einer Rationalisierung in Form der Transformation von persönlicher hin zu formaler Herrschaft gleich kommt.

A LGORITHMISCHES M ANAGEMENT

| 239

Wie an anderer Stelle argumentiert (Heiland 2017), besteht für die Plattformen weiterhin die Notwendigkeit, auf den konkreten Arbeitsprozess Einfluss nehmen zu können und diesen nicht rein ergebnisorientiert ausführen zu lassen. Denn da sie nur als vermittelnde Instanz agieren, sind sie gezwungen, beide Seiten des Marktes zu koordinieren, um sowohl ein ausreichendes Angebot als auch eine hohe Nachfrage nach der jeweiligen Dienstleistung zu garantieren.6 In der Praxis schaffen sich Plattformen daher weit gehende Steuerungs- und Kontrollmöglichkeiten bezüglich des konkreten Arbeitsprozesses. Damit entsteht eine zwiegespaltene Kopplung zwischen Unternehmen und Arbeitenden. Auf der einen Seite können die Nutzer_innen ihre Aktivität auf der Plattform jederzeit und ohne Konsequenzen ruhen lassen, und zugleich sind ihre Transaktionen oft nach marktlichen Prinzipien organisiert, was beides eher für eine lose Kopplung spricht. Andererseits bestehen zugleich enge Kopplungen, die streng hierarchisch organisiert sind. So ist meist der gesamte Arbeitsprozess von intensiver Kontrolle und vorgeschriebenen Abläufen geprägt, die laufend, intensiv, unmittelbar und von zentraler Relevanz sind – also Weicks Kriterien für lose Kopplungen entgegengesetzt sind. Werden Arbeitende ausgelagert, doch von Seiten der Plattform besteht die Notwendigkeit den Arbeitsprozess zu kontrollieren und zu steuern, wird sich also trotz der teilweisen Unabhängigkeit der Arbeitenden enger Kopplungen und damit auch klassischer Kontrollmechanismen bedient. Nach Heimans und Timms (2014) ist hierbei zu unterscheiden zwischen einerseits der Art und Weise des Geschäftsmodells, das bei den hier betrachteten Plattformen ein neues – in dieser Form zuvor nicht existierendes – ist. Dieses stellt ein neuartiges Machtmodell dar, geht es doch einher mit der Aktivität auf nun zweiseitigen Märkten, die die zuvor genannten Herausforderungen mit sich bringen. Doch diesem Novum steht auf der anderen Seite ein Managementmodell gegenüber, das den Operationsstil bezeichnet und das sich im Falle dieser Plattformen, entgegen dem mitunter von diesen vorgebrachten Impetus der Shareconomy, an alten Machtwerten und den im Zuge dessen etablierten Kontrollmechanismen orientiert. Auf diesem Weg versuchen die Plattformen unter Ausnutzung der Kostenminimierung per nur noch lose gekoppelter und marktge-

6

Lohn dieser Herausforderung kann ein „Double Whammy“ (Shapiro/Varian 1998) sein, also das gleichzeitige Auftreten von sowohl Netzwerk- als auch Skaleneffekten, die ein exponentielles Wachstum ermöglichen und zugleich meist in „winner-takesall“-Situationen münden und damit monopolistische oder oligopolistische Marktstrukturen hervorbringen (mit Polypolen auf den Plattformen selber). Es ist laut einem früheren CEO von Google dieses „virus-ähnliche“ Potenzial, das Plattformen ihre Macht verleiht (zitiert in Wewer 2014: 214).

240 | HEILAND

steuerter Arbeiter_innen, die für sie vorteilhaften Aspekte fester Kopplungen, wie vor allem die direkte Kontrolle über den Arbeitsprozess, zu bewahren. Ergebnis ist eine spezifische Mischung verschiedener Arten der Kopplung zwischen Plattformen und Arbeiter_innen. Das neue Managementmodell bringt die besagten lose, per Markt organisierten Verbindungen zwischen Arbeitenden und Plattformen mit sich. Doch anders als demnach anzunehmen wäre bleiben Plattformunternehmen trotz alledem „islands of conscious power“ (Coase 1937), denn sie etablieren mittels altbekannter Machtwerte feste Kopplungen in Form von strikten Steuerungs- und Kontrollregimen. Diese treten dabei aber in neuem technischen und per Software vermittelten Gewand auf, was im Folgenden dargelegt wird.

2. ALGORITHMEN UND DIE AUTOMATISIERUNG DES UNTEREN M ANAGEMENTS Algorithmen sind in aller Munde, obwohl sie keineswegs eine neue Erscheinung sind. Ihre Funktionsweise ist nicht zwingend komplex und findet sich bereits seit langem in jedermanns Alltag (Seyfert/Roberge 2017). So ist ein Algorithmus im Grunde nur ein Berechnungsverfahren, mit dem Entscheidungen nach einer vorgegebenen Struktur automatisch getroffen werden können, nach dem Prinzip von „wenn A, dann B“-Sätzen. Demnach ist jede Ampel sowie auch jede Bauanleitung ein Algorithmus. In der Folge gestiegener Rechenkapazitäten ist in jüngerer Zeit die Leistungsfähigkeit der eingesetzten Algorithmen markant gestiegen, und mit der Allgegenwärtigkeit computergestützter mediatisierter Umgebungen auch ihre Relevanz. So sind Algorithmen innerhalb kurzer Zeit für die Koordination zahlreicher sozialer Aktivitäten verantwortlich geworden. Doch bevor der Fokus auf die Praktiken des algorithmischen Managements gelegt werden kann, gilt es zu spezifizieren was an dieser Stelle unter einem Algorithmus zu verstehen ist und wie ein solcher zu seiner Kontrollfunktion kommt. 2.1 Logik und Kontrolle des Algorithmus Eine hilfreiche Definition von Algorithmen stammt von Kowalski (1979), demzufolge deren zentralen Elemente Logik und Kontrolle sind. Mit der logischen Komponente ist das spezifische, in den Algorithmus einfließende Wissen – die Daten – gemeint, die in dem jeweiligen Entscheidungsbaum Anwendung finden. Der Kontroll-Aspekt betrifft das Vorgehen mit diesen Daten, so dass am Ende

A LGORITHMISCHES M ANAGEMENT

| 241

dieser endlichen und wohldefinierten Anweisung ein konkretes Output in Form einer Entscheidung steht. Mit dieser Definition kommen sowohl die Wissenskomponente als basale Voraussetzung als auch die oft allein fokussierte Kontrollebene in den Blick. Prämisse für die Anwendung von Algorithmen und damit auch der Automatisierung von Managemententscheidungen ist die Verdatung der relevanten Wissenselemente. Mit umfassender Informatisierung und Preprocessing (Beniger 2009), also der standardisierten Erfassung der sozialen Realität in von Computern verarbeitbaren Formen, geht die Möglichkeit einher, die auf diesem Weg gewonnenen Daten auch zielführend zu verarbeiten.7 So stellen bspw. die bereits zuvor angeführten Bewertungssysteme der Dienstleistungsplattformen eine verdatete Objektivierung dar, die als prozessierbare Infoeinheit die Weiterverarbeitung von zuvor informellen und im Sozialen verwobenen Aspekten erlaubt. Infolge von Verdatung und algorithmischer Entscheidungen entsteht eine spezifische Reproduktion der sozialen Verhältnisse. Mit der Logikkomponente der Algorithmen ist aber keineswegs der Bezug auf objektive Wissenselemente gemeint. Diese den Algorithmen zugrunde liegenden Daten sind nicht „roh“, sondern immer bereits menschlich kuratiert (Gitelman 2013).8 Mit der Verdatung werden komplexe soziale Beziehungen und Individuen dematerialisiert und als reduzierte Datenstruktur modelliert und damit in „numerische Repräsentationen“ transformiert (Manovich 2001).9 Dies geht entweder auf bereits vorhandene Daten zurück oder ist Ergebnis einer spezifischen Erhebung oder einer (mitunter unbewussten) Auswahl vonseiten derjenigen Instanz, die den Algorithmus programmiert – im hier fokussierten Fall die Plattform, die versucht den Arbeitspro-

7

Bereits die detailgenauen Arbeitszeitstudien Frederick W. Taylors können als eine frühe Form der Verdatung verstanden werden. In der Gegenwart müssen die Daten meist nicht erst erhoben werden, sondern werden direkt von den Betroffenen erzeugt. So wurden bei dem einleitend genannten Unternehmen bereits vor Ersetzung des Managements durch Software viele Bereiche in digital prozessierbarer Informationsform festgehalten. Die Angestellten bewerteten sich laufend gegenseitig mittels eines vorgegebenen Systems, dessen Ergebnisse in Form von spezifischen – „Baseball Cards“ genannten – Profilen die Arbeitenden vergleichbar macht (Solon 2016).

8

Demnach widmet sich eine kritische Perspektive auf Algorithmen, die allein handwerklich deren Art der Entscheidungsbäume moniert und diesbezüglich Transparenz fordert nur der Hälfte der Problematik.

9

Trotz alledem ist selbstredend jeglicher Digitalität ein beachtliches Ausmaß an Materialität inhärent – von Hardware, Glasfaserkabeln, Satelliten und seltenen Erden und viele mehr – ohne die erstere nicht existieren könnte.

242 | HEILAND

zess zu steuern. Infolge der Kontrollkomponente, die das konkrete Outcome bestimmt, geht aus der vom Algorithmus getroffenen Entscheidung eine Rematerialisierung hervor, die die „Materialität der Software“ darstellt (Fuller 2008). Zusammengefasst werden mittels Algorithmen also komplexe soziale Verhältnisse auf wenige Aspekte reduziert und mit Daten abgebildet. Auf Basis dieser Grundlage werden nach vorgegebenen Entscheidungsbäumen Bedingungen getroffen, die für das Handeln der Individuen von zentraler Relevanz sind. Obwohl Algorithmen und Software allgemein also für spezifische Zwecke produziert werden, erscheinen sie als objektive, da in der alltäglichen Praxis nicht direkt von Menschen abhängige Instanz und führen somit zu einem „neuen Empirismus“ (Kitchin 2014; siehe auch Heintz 2016; Rieder/Simon 2016). Demnach werden auf diesem Weg nicht nur soziale Verhältnisse reproduziert, sondern versucht, aktiv und zielgerichtet zu gestalten. Dabei führt die Unabhängigkeit von direkten menschlichen Entscheidungen nicht zu etwaiger Neutralität der Software, sondern stattdessen zur Invarianz und Unabweichbarkeit von den vorgegebenen Abläufen. Denn „code is law“, wie Lessig (1999) anmerkt. Dies hat zur Folge, dass tatsächliche Gesetze im Digitalen nur angewendet werden können sobald sie in die Programmierung Eingang gefunden haben. Im Gegensatz dazu kann aber die Programmierung von den Anwendenden eine quasi totale Konformität verlangen, wie sie reale Gesetze nicht zu erlangen vermögen.10 Sind soziale Verhältnisse also erst in Software gegossen, so sind sie nicht weiter verhandelbar und verfügen über einen besonderen Druck, ihren Vorgaben nachzukommen. Doch da das Digitale nicht mit der sozialen Realität identisch ist, heißt das nicht, dass die von Algorithmen vorgegebenen Entscheidungen auch Anwendung finden müssen. Aber besonders in Arbeitszusammenhängen, in denen die Unternehmen eine gewisse Verfügungsgewalt über die Arbeitenden haben – bzw. im Fall der Plattformen in der zuvor dargestellten spezifischen Kopplung und Marktsteuerung –, sind die Ausweichmöglichkeiten vor den durch die Software vorgegebenen strukturellen Rahmen limitiert. 2.2 Algorithmisches Management Jede Managementtätigkeit hat ihre natürlichen Grenzen. Mit zunehmender Größe und Ausdifferenzierung der Organisations- und Arbeitsprozesse steigt auch die Komplexität der zu treffenden Entscheidungen. Die Berücksichtigung entschei-

10 Selbst etablierten Gesetzen ist oft ein beachtliches und beabsichtigtes Maß an Ambiguität inne (Pritchard/Grundfest 2002).

A LGORITHMISCHES M ANAGEMENT

| 243

dungsrelevanter Informationen ist dabei potenziell unendlich, was einerseits mittels umfassender Komplexitätsreduktionen vonseiten des Managements (bspw. die Fokussierung auf einzelne Kennzahlen) sowie der Hierarchisierung und Differenzierung verschiedener Entscheidungsebenen bearbeitbar gehalten wird. So delegieren zum Beispiel die höheren Ebenen der Unternehmensführung die Organisation und Kontrolle der konkreten Arbeitsprozesse an das mittlere bzw. untere Management in Form von Abteilungsleitungen, Vorarbeiter_innen u. a. Entgegen des im Beitrag einleitend dargelegten Beispiels liegt das gegenwärtig größte Potenzial softwaregestützter, automatisierter Steuerung unternehmerischer Tätigkeiten auf dieser Ebene des unteren (und mitunter auch mittleren) Managements.11 Denn dessen Tätigkeiten sind in vielen Fällen eher administrativer Art mit begrenzten Entscheidungsbefugnissen über bspw. Schicht- bzw. Auftragszuweisung oder der Steuerung des Arbeitsprozesses. Solche oft routinierten Entscheidungen sind unter Bezugnahme auf rechnergestützte Systeme gut abbildbar. Darüber hinaus lassen sich auf diesem Weg weitaus mehr Variablen bei der Entscheidungsfindung und Steuerung berücksichtigen und – so die Hoffnung der Unternehmen – die Arbeitsprozesse effektiver und effizienter gestalten. Etwaige grundlegende Änderungen durch die höheren Managementebenen müssen in der Folge nicht auf bewährtem Weg kommuniziert werden, sondern werden in die Software programmiert. Solch algorithmisches Management bezeichnet die Ausübung unternehmerischer Tätigkeiten – im hier betrachteten Fall besonders der Organisierung, Steuerung und Kontrolle der Arbeitsprozesse – mittels der Anwendung technischer Innovationen auf Basis automatisierter algorithmischer Entscheidungsfindungen. Auf diesem Weg ist es für Unternehmen möglich, eine große Anzahl diverser Arbeitender zu organisieren sowie zahlreiche verschiedene Entscheidungen unmittelbar und automatisiert zu treffen (Lee et al. 2015).

11 Auf diesem Weg wird auch eine der wenigen klassischen Aufstiegsmöglichkeiten für gering qualifizierte Arbeitende, fernab der sozial geschlossenen und auf Zertifikaten basierenden Karrierepfaden, eliminiert. In der Folge kann innerhalb der Unternehmen oder gar gesamter ökonomischer Sektoren unter den dort Tätigen von einer Festschreibung der bestehenden Klassenverhältnisse und einer fortgeschrittenen Klassenspaltung ausgegangen werden. So ist anzunehmen, dass sich die These der „hourglass economy“ realisiert, derzufolge die Sozialstruktur weniger kontinuierlich aufgebaut ist, sondern sich in einen hoch qualifizierten und gut entlohnten oberen Part sowie einen weniger gut ausgebildeten und nur mit einfachen und gering vergüteten Beschäftigungen versehenen unteren Teil differenziert und dabei über nur wenige Arbeitsmöglichkeiten in der Mitte verfügt (Krause/Franz/Frantzscher 2017).

244 | HEILAND

Im Fall der dienstleistungsvermittelnden Plattformen erlaubt es diese noch recht junge Praktik, direkte Kontrolle über die selbstständigen Arbeiter_innen auszuüben. So vermag es ein Plattformunternehmen trotz der nur losen und per Markt organisierten Kopplung an die Arbeitenden, weiterhin Kontrolle über deren Art der Ausübung der jeweiligen Tätigkeit auszuüben. Damit verbindet diese Art der oben bereits dargelegten zwiegespaltenen Kopplung für das Unternehmen eine sowohl effiziente als auch effektive Lösung des Transformationsproblems. Die Plattformarbeiter_innen hingegen sind frei, ihre Arbeitskraft situativ anzubieten und doch in der Art und Weise der Ausübung ihrer Tätigkeit eng gebunden. Die praktische Anwendung algorithmischen Managements ist ebenso divers wie das Feld der es nutzenden Plattformen. Gemein sind allen dabei aber in der Regel drei Aspekte: eine allein durch die Software vermittelte Kommunikation (1), die Aufzeichnung der individuellen Performances (2) und Informationsasymmetrien (3). (1) Die Kommunikation zwischen Plattform und Arbeiter_innen ist dank der oben skizzierten Eigenheiten der digitalen Codierung unilateral und topdown. Die jeweilige App ist zentrales Vermittlungsglied zwischen der Plattform als Organisatorin und den Arbeitenden als tatsächlich Ausführenden der Dienstleistungen. Abgesehen von direkten Kontakten bei der Rekrutierung neuer Arbeiter_innen, besteht in der Regel kein persönlicher Kontakt zwischen letzteren und dem Management. Jegliche Kommunikation ist in die App verlagert und in den meisten Fällen automatisiert. Selbst Beschwerden werden meist auf diesem Weg organisiert, so dass oft Zurückhaltung betreffend die Nutzung dieses Wegs besteht. (2) Mittels der Aufzeichnung und Auswertung der durch die App erhobenen Daten, kann die jeweilige individuelle sowie auch die allgemeine Performance der Plattformarbeitenden zur Grundlage weiterer Entscheidungen des Algorithmus gemacht werden. Es wird dessen Logik-Komponente mit den zur Verfügung stehenden Informationen ausgebaut. Informationen können bspw. die tatsächliche Performance sein – von der Geschwindigkeit von Fahrradkurieren, getätigten Tastenanschlägen bis hin zu insgesamt absolvierten Aufträgen – oder extra zu diesem Zweck erhobene Daten wie z. B. die durch Kund_innen vollzogenen Bewertungen. Neben der Aufzeichnung wird hierbei mitunter auch direkt die Ausführung der Arbeit detailgenau kontrolliert, so dass bspw. Taxis oder Lieferdiensten die zu fahrende Route strikt vorgegeben ist oder in unregelmäßigen Abständen ein Screenshot der Bildschirmoberfläche von Crowdsourcer_innen gemacht und damit die tatsächliche Durchführung der Arbeit kontrolliert wird. Damit haben die Arbeitenden einen „invisible supervisor“ (Elli-

A LGORITHMISCHES M ANAGEMENT

| 245

ott/Long 2016: 138). Und in der Folge eines solchen digitalen Panoptikums ist davon auszugehen, dass die Arbeitenden einen hohen individualisierten Sinn für die Verantwortung der eigenen Beschäftigung und deren Fortführung entwickeln (Neff 2012: 28). (3) Die Plattformen produzieren gezielt Informationsasymmetrien (betreffend Uber bspw. Lee et al. 2015; Rosenblat/Stark 2015), die ihnen die Kontrolle über den Arbeitsprozess ermöglichen, trotz der nur marktvermittelten Bindung der Arbeiter_innen an das jeweilige Unternehmen. So ist den Betroffenen in der Regel nicht zur Gänze transparent, warum sie eine Arbeitsmöglichkeit zugewiesen bekommen haben oder nicht. Nur grobe Kriterien wie bspw. Status und Nähe zum Auftragsort sind bekannt, ohne dass deren konkrete Bedeutung oder etwaige weitere relevante Aspekte näher spezifiziert wären. Den Arbeitenden ist also weder das Kontrollelement des Algorithmus bekannt, also die Art und Weise nach welchen Vorgaben die Entscheidungen getroffen werden, noch der Logikaspekt, sprich die dieser Auftragszuweisung zugrunde liegenden Daten. Mitunter werden nicht einmal alle Details eines Auftrags mitgeteilt, sondern erst sukzessive kommuniziert, wie z. B. der Zielort. Dennoch ist Plattformarbeiter_innen nicht gänzlich ihre Handlungsfähigkeit genommen. Zum Beispiel wird aus London und New York berichtet, dass UberFahrer_innen sich koordiniert ausloggen, um auf diesem Weg ein geringeres Angebot zu suggerieren. Sobald der um ein Gleichgewicht zwischen Angebot und Nachfrage bemühte Algorithmus als Reaktion den Preis für eine Fahrt erhöht, loggen sich die Fahrer_innen wieder ein und nutzen die nun gestiegenen Verdienstmöglichkeiten (McCoogan 2017). Ebenso berichten Personen, die Essensbestellungen per Fahrrad ausliefern, davon, basierend auf ihren Erfahrungen mit dem angewandten Algorithmus, wie sie ihr Verhalten dessen Berechnungen anzupassen versuchten. Vereinzelt beobachteten Fahrer_innen, dass sie in Folge einer hohen Durchschnittsgeschwindigkeit eher weiter entfernt liegende Aufträge zugewiesen bekommen. Da somit schnelles Fahren nicht unbedingt der Absolvierung von mehr Aufträgen und damit mehr Umsatz entspricht, reagieren einige mit weniger erschöpfender, reduzierter Geschwindigkeit. Die Fahrer_innen leiten demnach aus ihren Erfahrungen ein Verständnis der Software ab und projizieren diese Ontologie auf ihre Realität und Handlungen. Ähnliches ist von Computerspieler_innen bekannt, die ein mentales Abbild des Computer-Modells entwickeln und diesem ihre Handlungen anpassen (McGowan/McCullaugh 1995: 71). Derlei widerständige Rückgewinnungen von Handlungsfähigkeit weisen zwar auf die Kreativität menschlichen Handelns hin, doch ändern sie wenig an der Tatsache, dass algorithmisches Management in Form der drei zuvor darge-

246 | HEILAND

legten Aspekte die Möglichkeiten der Arbeitenden eigenständig zu handeln markant begrenzt. Damit ist auch die Möglichkeit mikropolitischer Interventionen massiv eingeschränkt. Seit langem betont die Arbeitssoziologie und auch Weicks Konzept der losen Kopplungen die Relationalität von Macht und hebt damit neben den strukturellen Einschränkungen der Arbeitenden auch deren Machtressourcen und Widerstandsmöglichkeiten hervor (Crozier/Friedberg 1979; Burawoy 1979). Demnach ist zwischen der offiziellen und der praktischen Realität von Organisationen zu differenzieren (Weltz 2010). Doch wenn Macht in Unternehmen demzufolge in erster Linie auf Wissen, Informationen und der Verteilung von Ressourcen basiert (Ortmann 1995: 56), sind den Arbeitenden in Plattformökonomien zentrale Grundlagen ihrer Durchsetzungsmöglichkeit genommen. Weite Teile der zuvor nur ihnen eigenen Prozesskenntnisse wurden mittels der softwaregestützten Steuerung entweder entwertet oder in den Algorithmus transferiert. Die Möglichkeiten, von den per Code vorgegebenen Pfaden abzuweichen, sind zugleich minimiert. Und somit scheint sich die praktische Realität der Plattformunternehmen der offiziellen anzunähern und Hierarchien werden verfestigt und der Zugriff auf die Arbeit ausgeweitet, so dass gar von einem „digitalen Despotismus“ gesprochen werden kann (Pfeiffer 2017). Zugleich zeichnen sich mit solch algorithmischem Management die Konturen eines digitalen Taylorismus ab. So findet sich eine erhöhte Kontrolle, Intensivierung der menschlichen Arbeit und Abwertung spezifischen Arbeitswissens, nur dass alle diese Aspekte des ursprünglichen Taylorismus nun in digital vermittelter Form und damit in neuem und besonders potentem Gewand auftreten, so dass auch einfache Dienstleistungstätigkeiten nicht nur Gegenstand sozialer Rationalisierungsstrategien werden, sondern auch technischer (Brown/Lauder/Ashton 2011: 65ff.; Nachtwey/Staab 2016), und wie dargelegt weite Teile des unteren Managements durch effizientere und effektivere algorithmisch gesteuerte Software ersetzt werden.

3. S CHLUSSBEMERKUNG Henry Ford wird zugeschrieben, er habe sich über die Tatsache beschwert, dass jedes Mal, wenn er ein neues paar Hände in seiner Produktion benötigte, mit diesen ein neues Gehirn einhergehe. Wie gezeigt, ersetzen neuartige algorithmische Managementpraktiken nicht die menschliche Arbeit, doch vermögen sie es, Kopf und Hände stärker voneinander zu trennen und die Eigensinnigkeit des Ersten markant einzuschränken. Und, wie herausgearbeitet, verfügen Dienstleistungen vermittelnde Online-Plattformen mit ihrer ausgeprägten Marktsteuerung und der

A LGORITHMISCHES M ANAGEMENT

| 247

damit einhergehenden spezifischen Mischung aus engen und festen Kopplungen über eine neuartige Organisationsform. Die damit verbundenen Möglichkeiten sowie die Notwendigkeit, trotz alledem weiterhin den Arbeitsprozess detailliert zu kontrollieren, machen diese Unternehmen zur Avantgarde bezüglich der Anwendung und Entwicklung innovativer Managementkonzepte. Wie sich zeigt, werden dabei zentrale Aspekte des unteren Managements automatisiert und damit zugleich mittels der Verwendung von Algorithmen die Steuerung und Überwachung der Arbeit intensiviert. Die Plattformen nutzen dabei ihre Einflussmöglichkeiten auf sowohl die Logik- als auch die Kontrollkomponente des Algorithmus und weiten dessen Potenzial laufend aus. Algorithmisches Management erscheint damit als die Kehrseite der Digitalisierungsversprechen. Was sich als Demokratisierung und wachsende Gestaltungsspielräume in Form von Liquid Feedback und Social Collaboration Tools sowie vieler anderer Konzepte für Arbeitende ankündigte, stellt sich insbesondere im Bereich der einfachen Dienstleistungen als zunehmende Kontrolle und Steuerung, als Einschränkung der Handlungsfähigkeit und gar als Tendenz zu einem digitalen Taylorismus dar. Es zeigt sich erneut, dass das etwaige emanzipatorische Potenzial der zahlreichen neuen Techniken nicht automatisch eintritt – wie von einigen erwartet (Rifkin 2014; Mason 2015) –, sondern bezüglich seiner Realisierung eng an die jeweilige Position innerhalb der Klassenstruktur gebunden ist.12 Während bspw. am oberen Ende die neue Mobilität der Arbeit nicht nur als Entgrenzung empfunden wird, sondern ebenso flexible Spielräume zur Gestaltung der Lebenszeit öffnet, werden die gleichen Techniken am unteren Ende in erster Linie als geradezu panoptische und durch Algorithmen automatisierte Kontrolle erfahren. Selbst wenn von einzelnen Apologet_innen versucht wird, auch Bereiche des oberen Managements (siehe oben) oder gar Regierungstätigkeiten zu automatisieren (Morozov 2014; Gavet 2017) und innovative Organisationsparadigmen sich bezüglich ihres Aufbaus an Software orientieren (Robertson 2015), so ist eine umfassende Ersetzung des Managements unwahrscheinlich bzw. unmöglich. Doch mit dem zunehmenden Rückgriff auf algorithmisch gestützte Praktiken auf den unteren Ebenen geht sowohl eine Einschränkung von Arbeitskonflikten, als auch deren Verschiebung einher. Während auch in den neuen Platt-

12 Wobei nicht außer Acht gelassen werden sollte, dass hoch qualifizierte Kopfarbeit zwar über weitaus mehr Freiheitsgrade verfügt, doch auch bei dabei befreiende Möglichkeiten der neuen Techniken und Technologien nicht automatisch eintreten, sondern oft als Mittel der Einschränkungen Anwendung finden.

248 | HEILAND

formökonomien etablierte Protestformen Anwendung finden,13 so verlagern sich andere (mikro-)politische Auseinandersetzungen stärker auf die Ebene der Daten (Irani/Silberman 2013). Die trotz alledem beschränkten Widerstandsmöglichkeiten und -ressourcen der Arbeitenden in den neuen Plattformkontexten sind dabei einerseits auf die Neuartigkeit der Organisationsformen zurückzuführen, die Vereinzelung bewirken und meist die Organisationsmitgliedschaft der Beschäftigten aufkündigen. Hervorzuheben ist abschließend: In diesem Beitrag wurde das Konzept des algorithmischen Managements vorgestellt und analysiert. Es besteht indes in der sozialen Realität bei weitem keine einheitliche Anwendung identischer Konzepte. Vielmehr sind die Varianten solch softwaregestützter Unternehmensleitung ähnlich divers wie die Vielfalt der angewendeten Plattformlogiken. Es existieren ausgeprägte nationale Differenzen bezüglich Verbreitung und Ausprägung des Plattformkonzepts. Außerdem besteht ein zentraler Aspekt der Differenzierung in der räumlichen Gebundenheit von Produktion und Konsumtion der angebotenen Dienstleistungen. Während beiden Formen bezüglich basaler Spezifika der Plattformorganisationen einander ähneln, spielt es für Ausübung, Steuerung und Kontrolle der Arbeit eine zentrale Rolle, ob diese an einem spezifischen Ort und zu einer spezifischen Zeit auszuführen ist oder ob sie von überall auf der Welt und jederzeit realisiert werden kann. Somit erscheint es als sicher, dass algorithmisches Management ein zunehmender Trend ist, dessen allgemeine Aspekte sich – wie gezeigt – bereits abzeichnen, doch bezüglich der konkreten Ausprägungen besteht weiterhin ein großer Forschungsbedarf. Konkret betrifft dies das Phänomen in seiner Breite und Tiefe. So ist bisher relativ wenig bekannt über die Prozesse der Gestaltung der angewendeten Software und damit der Fragen durch welche Aspekte die Algorithmen bewusst oder unbewusst gestaltet werden und welche Feedbackschleifen in der Folge zu Abänderungen führen. In Erfahrung zu bringen und zu diskutieren ist dabei außerdem, in welchen organisationalen Situationen und Settings derlei Managementpraktiken zur Anwendung kommen und inwieweit diese tatsächlich sowohl Effektivität als auch Effizienz aus Perspektive der Unternehmen zu steigern vermögen. Und besonders gilt es in Zukunft, die konkreten Auswirkungen algorithmischen Managements in seiner Praxis näher zu betrachten. Dabei sind sowohl die Folgen für die Arbeitsprozesse und die etwaigen Auswirkungen der Software auf die Subjektivitäten der Arbeitenden, als auch eventuelle kreative und widerständige Praktiken von Interesse. So bleibt am Ende zu konstatieren,

13 Diesbezüglich sind bisher besonders die Essensliefer_innen per Fahrrad hervor getreten (siehe bspw. Animento/Di Cesare /Sica 2017).

A LGORITHMISCHES M ANAGEMENT

| 249

dass sowohl das Phänomen wie auch seine Erforschung noch am Beginn stehen, aber allem Anschein nach gekommen sind, um zu bleiben.

L ITERATUR Animento, Stefania/Di Cesare, Giorgio/Sica, Christian (2017): Total Eclipse of Work? Neue Protestformen in der gig economy am Beispiel des Foodora Streiks in Turin. In: Prokla, Jg. 187, H. 2, S. 271-290. Beniger, James R. (1986): The Control Revolution, Cambridge. Berger, Ulrike/Offe, Claus (1990): Das Rationalisierungsdilemma der Angestelltenarbeit. In: Offe, Claus (Hrsg.): Arbeitsgesellschaft. Strukturprobleme und Zukunftsperspektiven, Frankfurt am Main, S. 271-290. Blau, Peter M. (1964): Exchange and Power in Social Life, New York. Braverman, Harry (1974): Labor and Monoply Capital: The Degradation of Work in the Twentieth Century, New York. Brinkmann, Ulrich (2011): Die unsichtbare Faust des Marktes. Betriebliche Kontrolle und Koordination im Finanzmarktkapitalismus, Berlin. Brown, Philipp/Lauder, Hugh/Ashton, David (2011): The Global Auction: The Broken Promises of Education, Jobs and Incomes, New York. Burawoy, Michael (1979): Manufacturing Consent, Chicago/London. Coase, Ronald H. (1937): The nature of the firm. In: Economia Vol. 4, S. 386405. Crozier, Michel/ Friedberg, Erhard (1979): Macht und Organisation. Die Zwänge kollektiven Handelns, Königstein. Elliott, Christopher S./Long, Gary (2016): Manufacturing Rate Busters: Computer Control and Social Relations in the Labour Process. In: Work, Employment and Society, Vol. 30, No. 1, S. 135-151. Fuller, Matthew (2008): Software Studies: A Lexicon, Cambridge/London. Gavet, Maëlle (2017): Rage against the machines: is AI-powered government worth it? URL: https://www.weforum.org/agenda/2017/07/artificial-intelli gence-in-government/ (aufgerufen am 20.08.2017). Gitelman, Lisa (Hrsg.) (2013): Raw Data is an Oxymoron. Cambridge. London. Goffey, Andrew (2008): Algorithm. In: Fuller, Matthew (Hrsg.): Software Studies. A Lexicon. Cambridge/London, S. 15–20. Heiland, Heiner (2017): „Get your side hustle on“. Von der Herausforderung zweiseitiger Märkte für Dienstleistungsplattformen. Online unter: https:// www.ifs.tu-darmstadt.de/fileadmin/soziologie/Soziologie-Organisationssozio

250 | HEILAND

logie/PDFs/NFG/Heiland/Get_your_side_hustle_on_-Heiland.pdf (aufgerufen am 20.08.2017). Heimans, Jeremy/Timms, Henry (2014): Understanding ‚New Power‘. In Harvard Business Review. Online unter: https://hbr.org/2014/12/understandingnew-power (aufgerufen am 13.12.2017). Heintz, Bettina (2016): Welterzeugung durch Zahlen. Modelle politischer Differenzierung in internationalen Statistiken, 1948-2010. In: Soziale Systeme, Jg. 18, H.1-2, S. 7-39. Herrmann, Ralf (1998): Der Zusammenhang zwischen betrieblichen Partizipationsmustern und dem werkvertraglichen Fremdpersonaleinsatz als personalwirtschaftlichem Flexibilisierungsinstrument. In: Zeitschrift für Personalforschung, Jg. 12, H. 1, S. 50-66. Irani, Lilly C./Silberman, Six M. (2013): Turkopticon: Interrupting Worker Invisibility in Amazon Mechanical Turk. In: Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, S. 611-620. Jäger, Wieland/Schimank, Uwe (2005): Organisationsgesellschaft. Facetten und Perspektiven, Wiesbaden. Kirchner, Stefan/Beyer, Jürgen (2016) Die Plattformlogik als digitale Marktordnung. Wie die Digitalisierung Kopplungen von Unternehmen löst und Märkte transformiert. In: Zeitschrift für Soziologie, Jg. 45, H. 5, S. 324-339. Kitchin, Rob (2014): Big Data, new epistemologies and paradigmshifts. In: Big Data & Society, Vol. 1, No. 1. Kowalski, Robert (1979): Algorithm = logic + control. In: Communications of the ACM, Vol. 22 No. 7, S. 424-436. Krause, Peter/Franz, Christian/ Frantzscher, Marcel (2017): Einkommensschichten und Erwerbsformen seit 1995. In: DIW Wochenbericht 27, S. 551-563. Lee, Min K./Kusbit, Daniel/Metsky, Evan/Dabbish, Laura (2015): Working with Machines. In: Proceedings of the 33rd Annual ACM SIGCHI Conference, Seoul/New York, S. 1603-1612. Lessig, Larry (1999): Code and other laws of cyberspace, New York. Lobo, Sascha (2014): Die Mensch-Maschine: Auf dem Weg in die Dumpinghölle. Online unter: http://www.spiegel.de/netzwelt/netzpolitik/sascha-lobosharing-economy-wie-bei-uber-ist-plattform-kapitalismus-a-989584.html (aufgerufen am 20.8.2017). Luhmann, Niklas (2000): Organisation und Entscheidung, Opladen. Manovich, Lev (2001): The Language of New Media, Cambridge. Marx, Karl (1972): Das Kapital. Kritik der politischen Ökonomie. Erster Band. In: Marx-Engels-Werke (MEW), Bd. 23, Berlin. Mason, Paul (2015): PostCapitalism: A Guide to Our Future, London.

A LGORITHMISCHES M ANAGEMENT

| 251

McGoogan, Cara (2017): Uber drivers gang up to cause surge pricing, research says. Online unter: http://www.telegraph.co.uk/technology/2017/08/02/uberdrivers-gang-cause-surge-pricing-research-says/ (aufgerufen am 20.8.2017). McGowan, Chris/McCullaugh, Jim (1995): Entertainment in the Cyber Zone, New York. Morozov, Evgeny (2014): The rise of data and the death of politics. In: The Guardian. Online unter: https://www.theguardian.com/technology/2014/jul/20 /rise-of-data-death-of-politics-evgeny-morozov-algorithmic-regulation (aufgerufen am 20.8.2017). Nachtwey, Oliver/Staab, Philipp (2016): Die Avantgarde des digitalen Kapitalismus. In: Mittelweg 36, Jg. 24, H. 6, S. 59-84. Neff, Gina (2012): Venture Labor: Work and the Burden of Risk in Innovative Industries, Cambridge. Ortmann, Günther (1995): Formen der Produktion. Organisation und Rekursivität, Opladen. Orton, Douglas J./Weick, Karl E. (1990): Loosely Coupled Systems: A Reconceptualization. In: The Academy of Management Review, Vol. 15, No. 2, S. 203-223. Pfeiffer, Sabine (2017): Industrie 4.0 in the Making: Discourse Patterns and the Rise of Digital Despotism. In: Briken, Kendra/Chillas, Shiona/Krzywdzinski, Martin (Hrsg.): The New Digital Workplace. How New Technologies Revolutionise Work. London, S. 21-41. Pritchard, Adam C./Grundfest, Joesph A. (2002): Statutes with Multiple Personality Disorders: The Value of Ambiguity. Statutory Design and Interpretation. In: Stanford Law Review, Vol. 54, No. 4, S. 627-736. Rieder, Gernot/Simon Judith (2016): Datatrust: Or, the political quest for numerical evidence and the epistemologies of Big Data. In: Big Data & Society, Vol. 3, No. 1. Rifkin, Jeremy (2014): The Zero Marginal Cost Society: The internet of things, the collaborative commons, and the eclipse of capitalism, London. Robertson, Brian J. (2015): The Revolutionary Management System that Abolishes Hierarchy, New York. Rosenblat, Alex/Stark, Luke (2015): Uber’s Drivers: Information Asymmetries and Control in Dynamic Work. In: Data & Society Research Institute. Online unter: https://datasociety.net/output/ubers-drivers-information-asymmetriesand-control-in-dynamic-work/ (aufgerufen am 13.12.2017). Seyfert, Robert/Roberge, Jonathan (2017): Algorithmuskulturen. Über die rechnerische Konstruktion der Wirklichkeit, Bielefeld.

252 | HEILAND

Shapiro, Carl/Varian, Hal R. (1998): Information Rules: A Strategic Guide to the Network Economy, Cambridge. Solon, Olivia (2016): World’s largest hedge fund to replace managers with artificial intelligence. In: The Guardian, 22.12.2016, London. Online unter: https://www.theguardian.com/technology/2016/dec/22/bridgewater-associatesai-artificial-intelligence-management (aufgerufen am 20.08.2017). Sydow, Jörg (1992): Strategische Netzwerke. Evolution und Organisation, Wiesbaden. Wagner, Peter (1993): A Sociology of Modernity: Liberty and Discipline, London. Weick, Karl E. (1976): Educational Organizations as Loosely Coupled Systems. In: Administrative Science Quarterly, Vol. 21, No. 1, S. 1-19. Weick, Karl E. (1985): Der Prozeß des Organisierens, Frankfurt am Main. Weick, Karl E. (1989): Loose coupling: Beyond the metaphor. In: Citation Classic, Vol. 12, S. 14. Weick, Karl E. (2001): Sources of order in Underorganized Systems: Themes in Recend Organizational Theory. In: Ders. (Hrsg.): Making Sense of the organization, Malden, S. 32-57. Weltz, Friedrich (2010): Management by Potemkin und die doppelte Wirklichkeit der Unternehmen. In: Altmann, Norbert/Böhle, Fritz (Hrsg.): Nach dem „Kurzen Traum“. Neue Orientierungen in der Arbeitsforschung, Berlin, S. 81-95. Wewer, Göttrik (2014): Open Government, Staat und Demokratie. Aufsätze zu Transparenz, Partizipation und Kollaboration, Berlin. Zysman, John/Kenney, Martin (2015): Where Will Work Come from in the Era of the Cloud and Big Data? Or Sustainable Growth and Work in the Era of Cloud and Big Data: Will Escaping the Commodity Trap Be our Undoing? Berkeley Roundtable on the International Economy, Working Paper, Berkeley.

Datafizierung und Organisation JUDITH MUSTER & STEFANIE BÜCHNER

1. E INLEITUNG : Z UM V ERHÄLTNIS VON D IGITALISIERUNG UND D ATAFIZIERUNG In die Vielfältigkeit des Phänomens „Digitalisierung“ eine Ordnung zu bringen, fällt augenscheinlich nicht nur Organisationen, sondern auch den dazu forschenden Wissenschaftler*innen nicht leicht. Im Zuge dessen lässt sich in der sozialwissenschaftlichen Auseinandersetzung mit Digitalisierung die Tendenz beobachten, vermehrt den Diskurs selbst in Augenschein zu nehmen. So wird gezeigt, dass Digitalisierungssemantiken die Funktion haben, bestehende Erwartungsstrukturen sichtbar zu machen und auf nicht intendierte Effekte hin zu überprüfen, um so Strukturveränderungen vorzubereiten (Süssenguth 2015: 97). Deutlich wird darauf hingewiesen, dass es weniger neue technische Errungenschaften als vielmehr der Diskurs um Digitalisierung ist, der Handlungsdruck erzeugt (Pfeiffer 2015: 23). Dieser postuliert die Unausweichlichkeit des technischen Fortschritts, verweist auf die weitreichenden ökonomischen Chancen oder generalisiert erfolgreiche Einzelfälle zu Vorreitern und Vorboten der Digitalisierung (Hirsch-Kreinsen 2016). Während sich die soziologische Reflexion diese kritische Distanz erlauben kann, sehen Organisationen sich jedoch ganz konkret im Zugzwang der „digitalen Transformation“. Dies spiegelt sich auch in einschlägigen Berichten in Managementzeitschriften wider. Glaubt man den dort aufgeführten Diagnosen, geht es um nichts weniger als die Zukunftsfähigkeit von Unternehmen. So wird gemahnt, „Digitalisierung ist keine Option, sie ist eine Aufforderung zum Handeln“ (Lietzke 2017: 21). In der Folge, so hat es den Anschein, flaggen Organisationen auch solche technischen Entwicklungen als Maßnahmen der Digitalisierung aus, die bereits vor der Ausrufung einer Industrie 4.0 und der digitalen Transformation problemlos möglich waren und vielfach genutzt wurden, etwa

254 | M USTER & BÜCHNER

produktionsbegleitende IT-Infrastrukturen, die virtuelle Dokumentation von Maschinenteilen oder die Einführung elektronischer Personalakten (Goschy/Rohrbach 2017). Obwohl der prognostizierte ökonomische Erfolg bisher noch aussteht (Pfeiffer 2015), wird die Erfolgsgeschichte der Digitalisierung weitererzählt. Das Auseinanderdriften von Technologieversprechen und Wirklichkeit ist nicht neu: Schon Anfang der 1990er Jahre attestierten Wehrsig und Tacke (1992) für die Rationalisierungsversprechen im Rahmen von Computer Integrated Manufacturing (CIM) einen „Status des Surrealismus“ (a. a. O.: 220). Versucht man, den Digitalisierungsdiskurs zu differenzieren, so lassen sich drei zentrale Stränge ausmachen, die sich reziprok verstärken: Der erste Strang geht von einer organisationsübergreifenden Beobachtung aus, nämlich der zunehmenden Durchdringung von Lebensbereichen mit digitalen Technologien (Lupton 2015) und der damit einhergehenden Erweiterung von Handlungsmöglichkeiten. So formieren und koordinieren sich Protestbewegungen über soziale Netzwerke und neue, appbasierte Dienstleistungsformate wie der Taxikonkurrent Uber drängen auf den Markt. Diese gesellschaftlichen Veränderungen lassen Organisationen nicht unbeeindruckt. Zu beobachten ist zweitens, dass immer mehr Organisationen neue und mit dem Label „agil“ versehene Organisationsformen, das z. B. HolacracyModell (Robertson 2015), Projektmanagementansätze wie Scrum (Schwaber/Sutherland 2016) oder Prozesse des „Lean Start Up“ (Ries 2011) einführen. Auslöser ist die Hoffnung, den Herausforderungen der Digitalisierung so besser begegnen zu können. Hier haben wir es im Grunde mit klassischen Restrukturierungen zu tun, getragen von der Idee, dass digitale Technologien und die auf den Arbeitsmarkt strömenden Digital Natives andere, selbstorganisierte Formen der Zusammenarbeit erfordern, die einer modernen Organisation angemessen erscheinen (populär dazu Laloux 2014). Der dritte Strang stellt auf unterschiedliche organisationsinterne Prozesse des Digitalisierens ab. Dort stehen etwa Digitalisierungsbemühungen von Organisationen in Bezug auf die Produktion, das Management der Umweltbeziehungen oder die datengestützte Transparenz der gesamten Wertschöpfungskette im Fokus. Angesichts der neuen Qualität von Daten, insbesondere hinsichtlich ihres Umfangs, ihrer Aktualität bis hin zu Echtzeitdaten sowie ihrer Verwertbarkeit und Verfügbarkeit (Constantiou/Kallinikos 2015), verändert sich vor allem der Umgang mit Daten in Zusammenhang mit der Frage, wie in Organisationen Entscheidungen vorbereitet und getroffen werden. So wird beispielweise versucht, über Daten individuelle Kunden besser kennenzulernen und vorauszusagen, welche Produkte prospektiv nachgefragt werden könnten. Oder aber die Datennut-

D ATAFIZIERUNG

UND

O RGANISATION | 255

zung zielt darauf ab, die Produkte selbst zu verbessern, etwa indem digitale Technologien das Produkt überwachen und seinen Einsatz automatisiert protokollieren. Schließlich soll auch die Produktion des Produktes datenbasiert optimiert werden, z. B., indem Ausfallzeiten kalkulierbarer und besser prognostizierbar werden. Unser Beitrag nimmt besonders diesen dritten Strang in den Blick und eröffnet so eine Organisationsperspektive auf Datafizierung. Dies erscheint vor allem deshalb gewinnbringend, weil Datafizierung maßgeblich durch und in Organisationen vorangetrieben wird. Datafizierung zeigt sich hier als „Unterfall“ der Digitalisierung, nämlich in Initiativen der organisationsinternen Datengenerierung und -nutzung.1 Aus einer organisationssoziologischen Perspektive stellen auch diese Initiativen Restrukturierungsmaßnahmen dar, die in die Strukturen der Organisation eingreifen, etwa indem sie Kommunikationswege verändern oder neue Regeln einführen. Wie jede andere Restrukturierung hat auch die der „digitalen Transformation“ intendierte und nicht intendierte Folgen. Diese Effekte zu systematisieren ist ein Anliegen dieses Artikels. Im Folgenden zeigen wir an drei zentralen Anschlussstellen, wie organisationssoziologische Einsichten zur Datafizierungsforschung beitragen können und schließen mit einem Ausblick zum „Organisationsgehalt“ der Datafizierung.

2. D REI ANSCHLUSSSTELLEN DER O RGANISATIONS SOZIOLOGIE : F ORMALITÄT , I NFORMATION UND RATIONALES E NTSCHEIDEN Organisationen durchziehen nahezu alle Lebensbereiche der modernen Gesellschaft (Schimank 2005), sie sind zugleich Mitgestalter und „Betroffene“ der zunehmenden Durchdringung von Lebensbereichen mit Daten: Organisationen entwickeln digitale Infrastrukturen der Verdatung und sind gleichzeitig Produzenten und Abnehmer immer größerer Datenmengen. Zugleich beobachten Organisationen nicht nur den Diskurs um Digitalisierung, sondern ganz konkret, wie andere Organisationen digitalisieren – und geraten dadurch unter Zugzwang. Dieser Effekt der Angleichung ist nicht erst seit der Datafizierung zu beobach-

1

Das schließt andere Formen der Datafizierung nicht aus, z. B. die verstärkte Datengenerierung und -nutzung außerhalb von Organisationen. Der Zusammenhang beider Formen ist ein aussichtsreicher Kandidat für soziologische Forschung (siehe Abschnitt 6).

256 | M USTER & BÜCHNER

ten, sondern stellt einen klassischen Fall von Nachahmung oder, neoinstitutionalistisch gesprochen, von mimetischer Isomorphie dar (DiMaggio/Powell 1983). Die besondere Liaison von Organisation und Daten erhellt sich, wenn man die Eigenlogiken von Organisationen expliziert: Im Alltagsverständnis, und auch in der früheren Organisationsforschung, wird Organisation als Mittel zur Erreichung eines Zweckes angesehen (einführend dazu Kühl 2011). Nun beobachtet insbesondere die systemtheoretisch orientierte soziologische Theorie Organisationen aber als komplexe soziale Systeme, deren Zwecksetzung nur ein Strukturierungsmerkmal unter anderen ist. Wir möchten hier nur kurz drei Grundannahmen nennen, die Organisationen und ihre Komplexität ausmachen und die ins Kalkül gezogen werden sollten, will man das Phänomen Datafizierung aus einer organisationssoziologischen Perspektive diskutieren. Weil sich das zweckrationale Organisationsmodell in der Organisationssoziologie nicht hat durchsetzen können, entwickelten sich grundsätzliche Revisionen des Rationalitätsverständnisses (Luhmann 1991; Brunsson 1989; Tacke 1997; DiMaggio/Powell 1983; Brunsson 2006; Becker/Küpper/Ortmann 1988): Denn empirisch bekennen sich Organisationen oft zu einer Vielzahl unterschiedlicher und häufig widersprüchlicher Zwecke (Kühl 2011, 2015). Sie wollen gleichzeitig nachhaltig und ökonomisch wirtschaften oder kurzfristig liefern können, aber in hoher Qualität. Das Verhältnis von Organisationen zu ihren Zwecken ist grundsätzlich komplizierter, als ein einfaches Zweck-Mittel-Schema suggeriert (March/Simon 1957). Solche Zweckwidersprüche sind keine Pathologie der Organisation, sondern können nüchtern betrachtet durchaus wichtige Funktionen erfüllen. Sie sorgen beispielsweise für Legitimation gegenüber Umwelten oder für einen schonenden Umgang mit Ressourcen. Zum anderen bilden sich als Folge verschiedener Zwecke unvermeidbare lokale Rationalitäten (Cyert/March 1963) heraus. Gruppenintern formieren sich entlang dieser unterschiedlichen Logiken heterogene, manchmal auch widersprüchliche Überzeugungen und Denkstrukturen. Die einzelnen Gruppen können dadurch nur begrenzt die Vielschichtigkeit des „Gesamtprojekts Organisation“ im Blick behalten. Zugleich erscheinen ihnen die aus anderen, vergleichsweise unbekannten Kontexten stammenden Argumente häufig als irrelevant und nicht zur Sache gehörend. Auch die Ausbildung lokaler Rationalitäten ist keine Pathologie einer Organisation – im Gegenteil: Ohne sie wäre eine Organisation nicht in der Lage, komplexe Aufgaben zeitgleich zu bearbeiten. Schließlich ist die Organisationssoziologie zur Einsicht gekommen, dass sich Organisationen selbst an ihre eigenen Regeln nur bedingt halten (für einen guten Überblick siehe Groddeck/Wilz 2015). Mit der Entdeckung der Informalität im Zuge der Hawthorne-Studien (Mayo 1933) hat sich in der Organisationsfor-

D ATAFIZIERUNG

UND

O RGANISATION | 257

schung auch die Analyse informaler Beziehungen etabliert. Luhmann (1999: 33) stellte heraus, dass es sich bei diesen Regelabweichungen nicht um eine Art „Parallelwelt der Organisation“ handelt, sondern dass sich informale Strukturen komplementär zur Formalstruktur herausbilden und somit genuiner Bestandteil des Sozialsystems Organisation sind. Als solche erfüllen sie eine Funktion: Sie gleichen die Rigidität formaler Strukturen aus, springen in Regelungslücken, ermöglichen Kollegialität oder sichern die Zweckerreichung ab. Geschieht dies, einfach ausgedrückt, „im Sinne der Organisation“, spricht man hier von „brauchbarer Illegalität“ (a. a. O.: 304). Schon diese kurze Einführung in zentrale Einsichten der Organisationssoziologie zeigt, dass das Verhältnis von digitalen Technologien zu den Eigenlogiken des Organisierens kein triviales ist. Wenn man also beobachten will, wie in Organisationen auf Grundlage von Daten Entscheidungen getroffen werden, wie Organisationen sich durch Datafizierung verändern oder wie ihre Umweltwahrnehmung von Daten beeinflusst wird, gilt es, diese Spezifika von Organisationen als sozialen Systemen im Blick zu behalten. Ausgehend von einem systemtheoretisch geprägten Organisationsverständnis sehen wir insbesondere drei zentrale organisationssoziologische Anschlussstellen für die Datafizierungsforschung: das Verhältnis von Daten zur Formalität der Organisation (Abschnitt 3), der Blick auf Organisationen als informationsverarbeitende Systeme (Abschnitt 4) und die Möglichkeiten und Grenzen rationalen Entscheidens (Abschnitt 5).

3. D IE AUFRICHTUNG VON E RWARTUNGEN DURCH F ORMALISIERUNG UND IHRE F OLGEN Durch die neuen Qualitäten von Daten, insbesondere ihren Umfang, ihre Aktualität sowie ihre Verwertbarkeit und Verfügbarkeit (Constantiou/Kallinikos 2015), liegt es nahe anzunehmen, dass mit der Durchdringung digitaler Technologien auch die Wirkmächtigkeit von Daten selbst zunimmt. Dieser Trend geht in erheblichem Maße auf Organisationen zurück. Sie sind es, die in weiten Lebensbereichen die Nutzung, Erstellung und Bereitstellung von Daten erwartbar machen. Wir werden daher im Folgenden argumentieren, dass die Formalstruktur der Organisation und datenbasierte, digitale Techniken ineinandergreifen können. Aus dieser Perspektive sind Technologien weniger etwas, das zur Organisation hinzutritt, sondern sie werden als mit ihr verschränkt verstanden. Der dafür zentrale Mechanismus ist Formalität (Luhmann 1999; Tacke 2015). Organisationen

258 | M USTER & BÜCHNER

zeichnen sich dadurch aus, Erwartungen an Organisationsmitglieder zu formalisieren, also zur Mitgliedschaftsbedingung erklären zu können. Das unterscheidet sie prinzipiell von anderen Systemen wie Familien, Gruppen oder Protestbewegungen, in denen Erwartungen primär über sozialen Druck, Gewöhnung oder Tradition etabliert werden (Luhmann 1999: 34ff.; Kühl 2015: 70). Mitglied einer Organisation zu sein impliziert, dass formale Erwartungen, etwa in Hinblick auf Hierarchie, Berichtswege oder Aufgabenbeschreibungen, in ihrer Geltung anerkannt werden müssen. Formalstrukturen müssen dafür nicht schriftlich vorliegen, sondern können auch verbal oder technisch vermittelt werden. Gegenüber diesen Erwartungen besteht also „erkennbar Konsens […], daß die Nichtanerkennung […] mit der Fortsetzung der Mitgliedschaft unvereinbar ist“ (a. a. O.: 38). In Bezug auf Datafizierung stellt sich daher die Frage, wie sich die Generierung und Nutzung von Daten in Organisationen zur Formalität der Organisation verhält. Der Rekurs auf Formalität sensibilisiert dafür, dass Technologien nicht allein qua Existenz oder Praktikabilität zu ihrer Nutzung auffordern, sondern dass es zur Einführung neuer Technologien in Organisationen vor allem formaler Entscheidungen bedarf. Formalisierung ermöglicht es, digitalen Technologien Relevanz zu verleihen. Organisationen vermögen also nicht nur, formale Erwartungen in Technologien einzuschreiben, sondern sie auch sozial zu errichten.2 Dies geschieht beispielsweise, indem Organisationen formal festlegen, bestehende digitale Kommunikationsformen zu nutzen (z. B. Social Media), digitale Anwendungen selbst zu entwerfen (z. B., wenn Finanzorganisationen Trading-Algorithmen entwickeln), bestehende digitale Anwendungen anzuschaffen und ggf. zu customizen oder sich verpflichten, Daten für externe Nutzungen bereitzustellen (z. B. Open-Data-Portale von Behörden). Organisationen können damit über ihre Verfasstheit entscheiden – dies ist eine weitere relevante Differenz zu anderen sozialen Systemen. Sie können Regeln festlegen, die für alle Mitglieder verbindlich sind, sie können diese Regeln aber auch ändern. Auch mit der Einführung digitaler Technologien zur Datenproduktion und -verarbeitung entscheiden Organisationen über ihre eigenen Strukturen: Sie formulieren Regeln zum Umgang mit den Daten (z. B. durch Zugriffsrechte), beschreiben Prozesse (z. B. qua Prozessmodellierung) und legen Kommunikationswege (z. B. via Benutzerprofile) fest. Weil so Strukturen expliziert, formal hinterlegt oder neu geschaffen werden, stellt Datafizierung eine Restrukturierung der Organisation dar.

2

Agre (1994: 110) spricht in diesem Zusammenhang von imposition.

D ATAFIZIERUNG

UND

O RGANISATION | 259

Wie andere Restrukturierungen auch, setzt Datafizierung also zunächst an der Formalität der Organisation an: Soziologische Arbeiten zu Informatisierung und Digitalisierung sind sich weitgehend darin einig, dass digitale Technologien tendenziell zu stärkerer Formalisierung führen (Schulz-Schaeffer/Funken 2008). Sie teilen Arbeit in formalisierbare, logisch-mathematische Größen auf und sorgen dann für eine neue Zusammensetzung etwa von Produktionsprozessen (Kleemann/Matuscheck 2008: 45). Damit stehen digitale Technologien in Organisationen für eine rigorose und weitreichende Formalisierung in doppeltem Sinne: Prozesse werden nicht nur informationstheoretisch, sondern häufig auch organisationstheoretisch formalisiert (Mormann 2010: 69). So beschreiben Heidenreich, Kirch und Mattes (2008) digitale Technologien dann als formalisierend, wenn sie betriebliche Abläufe vorstrukturieren oder, wie Simon, Porto de Albuquerque und Rolf (2008) ausarbeiten, bestimmte Verhaltensweisen explizit vorgeben. Dieses Argument impliziert jedoch nicht, dass in die Organisation eingeführte digitale Technologien gewissermaßen automatisch formalisiert sind. Komplexe Programme wie SAP halten technisch eine Vielzahl von Anwendungen bereit, die in ihrer Gesamtheit nicht allein qua Einführung auch formal gelten. Digitale Technologien sind keine sparsamen Infrastrukturen, sondern ähneln mit ihren zahlreichen Funktionalitäten eher Komplettpaketen oder gekoppelten integrierten Sets (Büchner 2017). Ein weiterer Gedanke illustriert die Komplexität des Verhältnisses zwischen Daten und Formalstruktur der Organisation: Durch die formale Einführung digitaler Technologien der Datenerzeugung und Auswertung etabliert sich die Erwartung, Daten als Ressource in Entscheidungsprozessen auch tatsächlich zu nutzen. Dies ist, wie wir sehen werden, nicht selbstverständlich und gilt auch dann, wenn die Nutzung von Daten für bestimmte Aufgaben nicht formal vorgegeben wurde. Man denke als Beispiel etwa an die Entwicklung neuer Produkte in der Reifenindustrie: Werden dort über den „digitalen Reifen“ Daten zum Fahrverhalten, zur Straßenbeschaffenheit oder zur Pannenhäufigkeit gesammelt, kann die zuständige Forschungs- und Entwicklungsabteilung diese bei Neuentwicklungen schwerlich ignorieren. Dieser Umstand mag banal erscheinen, er wird allerdings erst durch Organisation ermöglicht. Diese schwer abzustellende „Grundrelevanz“ von Organisationsdaten hängt damit zusammen, dass Daten zum einen Selbstauskünfte der Organisation darstellen und dass ihre Nutzung zum anderen bereichsspezifisch direkt formalisiert sein kann. Vor diesem Hintergrund kann ihre Nichtnutzung und Nichtbeachtung retrospektiv als Fehler zugeschrieben werden. Indem Organisationen selbst zu Datenproduzenten werden, wird es begründungspflichtig, produzierte Daten zu ignorieren – Daten können kognitiv und normativ ausgedeutet, nicht aber übergangen werden. Dergestalt

260 | M USTER & BÜCHNER

erzeugte Daten verfügen, auch ohne dass ihre Beachtung formal vorgesehen ist, zumindest über einen Formalitätsindex – sie tragen die Erwartung der Berücksichtigung im Entscheidungsprozess in sich. Zu formalen Erwartungen bilden sich auf der Handlungsebene immer wieder informale Ausweichbewegungen oder Workarounds heraus. Auch im Fall der Datafizierung in Organisationen werden formale Erwartungen durch informale ergänzt (Schulz-Schaeffer/Funken 2008: 15). Beispielsweise können Daten vor ihrer Veröffentlichung gegengeprüft werden, um nicht versehentlich Kolleg*innen in eine ungünstige Situation zu bringen. Obwohl Datafizierung auf Entpersonalisierung abzielt, schließlich sollen Daten objektives, nicht personengebundenes Entscheiden ermöglichen, kann die Einführung digitaler Technologien so paradoxerweise zu einer stärkeren Relevanz von Personen führen. So wahrscheinlich die Entstehung informaler Erwartungen im Umgang mit Daten aus organisationssoziologischer Perspektive auch ist, muss man doch attestieren: Digitale Technologien erschweren zunehmend die Durchsetzung informaler Handlungsalternativen. Im Zusammenhang mit Datafizierung haben Informalitäten daher eine besondere Brisanz. Agre prägte in diesem Zusammenhang bereits 1994 den Begriff des capture models, das sich in digitalen Anwendungen zunehmend zeige: Ein Merkmal dieses Modells ist, dass die Regulierung und Überwachung von Verhalten nicht durch externe Technologien geschieht, sondern innerhalb derselben technischen Systeme stattfindet, die technisiertes Handeln vermitteln. Dies geschieht vor allem durch die automatisierte Erstellung von Metadaten und Tracking. In diesem Sinne erzeugt Datafizierung neue Sichtbarkeitsregime (Hempel/Krassmann/Bröckling 2011a),3 die informale Ausweichbewegungen mindestens riskant werden lassen. Informalität kann für die Selbstdarstellung einzelner Organisationsmitglieder, aber auch für die Schauseite der gesamten Organisation zum Problem werden. Aus Sicht formaler Erwartungen ist Informalität ein Fehler – je offensichtlicher, desto „fehlerhafter“ (Luhmann 1999: 114). Erhöht sich infolge digitaler Technologien die Sichtbarkeitswahrscheinlichkeit für Fehler, führt das unter Umständen nicht zu weniger, sondern zu mehr Fehlern. Zugleich steigt der Auf-

3

Wir wenden hier den Begriff der Sichtbarkeitsregime auf Organisationen an; auch hier bezeichnet er „[…] soziale und technische Arrangements, die Ordnung stiften oder stabilisieren, Gefährdungen abwehren und Abweichungen korrigieren sollen und selbst eine Ordnung des Beobachtens und Beobachtetwerdens, des Zeigens und des Verbergens etablieren“ (Hempel/Krassmann/Bröckling 2011b: 8).

D ATAFIZIERUNG

UND

O RGANISATION | 261

wand, Informalitäten zu schützen (Büchner 2017).4 Informale Ausweichbewegungen stellen dann keine punktuellen Oberflächenphänomene dar, sondern können sich als abweichende Praxis tief in die Organisation einschreiben.

4. O RGANISATIONEN

ALS INFORMATIONSVERARBEITENDE

S YSTEME

Daten werden nicht nur durch Technologien, sondern auch durch Organisationen als soziale Systeme verarbeitet (Luhmann 1992; Tacke/Borchers 1993; Mormann 2010). Insofern bietet sich der Bezug zu Organisationen als informationsverarbeitende Systeme als weitere Anschlussstelle für Forschungen zu Datafizierung an. Die zu einer Entscheidung benötigten Informationen müssen den Daten zunächst einmal entlockt werden. Daten selbst sind nur „mediatisierte Mitteilungen“ (Tacke/Borchers 1993: 136). Sie müssen sich in ihrem Informationsgehalt noch beweisen. Mitteilungen werden zu Informationen, wenn sie überraschen (Luhmann 2000: 143; Esposito 2014). Überraschung setzt aber bereits Erwartungen voraus, an denen sich die Daten brechen können und so zur Information werden. Diese Erwartungen sind systemintern produziert. Anders formuliert: Die Organisation legt vorab fest, ob5 und, wenn ja, wovon sie sich überraschen lassen will. Daraus folgt, dass Daten in einem sozialen Sinn nicht einfach aus der Umwelt der Organisation in die Organisation übertragen werden können, um dort einen wie auch immer gearteten inhärenten Informationsgehalt zu entfalten. Vor diesem Hintergrund sind Daten anfällig für Mehrdeutigkeit. Drei zentrale Quellen für Mehrdeutigkeit möchten wir hier skizzieren. Eine erste Quelle für die grundsätzliche Mehrdeutigkeit von Daten liegt in der organisationsinternen Differenzierung durch Hierarchien und Funktionsbereiche: In organisierten Systemen ist der Gehalt einer Information auch davon bestimmt, wofür sie genutzt werden wird (Luhmann 1992: 5). Diese Nutzung entscheidet sich nicht stets neu, vielmehr ist sie durch etablierte Arbeitsteilung (Cyert/March 1963) vorstrukturiert: Entlang dieser Arbeitsteilung bilden sich wie unvermeidlich lokale Rationalitäten aus (siehe auch Abschnitt 2). Diese Ra-

4

Instruktiv hierzu auch die Studie von Bernstein (2012) zum Transparenzparadox, die zeigt, wie der Aufwand solcher Verschleierungstaktiken in Produktivitätseinbußen resultieren kann.

5

Vgl. hierzu die Unterscheidung zwischen datenbasiertem Entscheiden in standardisierten und nicht standardisierten Situationen (Abschnitt 4).

262 | M USTER & BÜCHNER

tionalitäten machen aber kontextabhängige Deutungen wahrscheinlich (Wehrsig/Tacke 1992: 223). Lokale Rationalitäten und unterschiedliche Interessen von Steuerungsebenen und Untergebenen tragen hier konstitutiv zur Mehrdeutigkeit von Daten bei. Auch unabhängig von Hierarchien und Abteilungslogiken stehen Daten im Zentrum unterschiedlicher Interessen in Organisationen. Machtsensible, mikropolitische Perspektiven machen zweitens darauf aufmerksam, dass man es in Organisationen mit mehr oder minder strategisch agierenden Akteuren zu tun bekommt. Diese verhalten sich nicht per se im Interesse ihrer Funktionsbereiche und damit loyal zu „ihren“ Kolleg*innen, sondern entwickeln eigene Agenden. Wer den Zugang zu Daten hat oder die Entstehung von Daten regelt, kontrolliert damit relevante Ungewissheitszonen (Crozier/Friedberg 1979; daran anschließend Tacke/Borchers 1993: 132). Organisationsmitglieder wissen dies und reagieren auf den Versuch, Transparenz einzuführen, häufig mit Verschleierungstaktiken (Mormann 2016: 220f.). Auf dieses Wechselspiel aus Verschleierung und Transparenzforderung wiesen Tacke und Borchers (1993: 138) im Zuge der Diskussion um Informatisierung hin. Sie begreifen Informatisierung als einen voraussetzungsvollen Prozess, dem zunächst stets die Explizierung von Strukturen vorausgeht: „Informatisierung setzt also diejenige Transparenz über die Organisation schon voraus, die mit ihrer Hilfe erst erreicht werden soll.“ Während die ersten zwei Quellen der Mehrdeutigkeit aus der Eigenlogik der Organisation entspringen, liegt eine dritte Quelle für Mehrdeutigkeit in den Daten selbst: Daten liefern notwendigerweise nur einen Ausschnitt dessen, was als Wissen über die Welt zur Verfügung steht. In den meisten Fällen jedoch müssen Daten erst durch Kontextwissen, etwa über ihren Entstehungszusammenhang, angereichert werden; sie müssen in ein „kollektives Situationsverständnis“ (Tacke/Borchers 1993: 133) eingeordnet werden. In vielen Fällen ist der Entstehungszusammenhang für die Datennutzenden eine Blackbox (Kitchin 2017: 20), etwa weil Datenerzeugung, -auswertung und -darstellung durch komplexe Softwareprogramme geschehen oder in anderen Arbeitseinheiten produziert werden, die eine organisationsgerechte Einordnung des Entstehungszusammenhangs erschweren: „Es fehlen ‚reichhaltige Daten‘, obwohl ihm reichlich Daten zur Verfügung stehen“ (Tacke/Borchers 1993: 136). Information und Daten werden zudem sozial entkoppelt, weil der Empfänger für das Wissen darüber, wie die Daten zustande kommen, schlicht nicht zuständig ist. Das kann zwei Effekte haben: Erstens laufen Daten damit Gefahr, rücksichtslos eingesetzt zu werden (Wehrsig/Tacke 1992: 226). Sie transportieren mögliche Unsicherheiten ihrer Entstehung ja gerade nicht mit. Normalerweise wird diese Lücke über informale Kommunikation gefüllt. In Organisationen

D ATAFIZIERUNG

UND

O RGANISATION | 263

funktionieren Verkürzungen gemeinhin dann besonders gut, wenn man sich informal absichern und Wissen auf diese Weise teilen kann. Ist dies nicht möglich, etwa weil die datenerzeugenden Personen unbekannt sind oder die datenerzeugenden Systeme nicht nachvollzogen werden können, besteht zweitens die Gefahr, in manchen Fällen vielleicht auch die segensreiche Möglichkeit, dass den Daten generell misstraut wird. Daten allein führen also nicht automatisch zu mehr Informiertheit. Sie müssen als mediatisierte Mitteilung erst in eine Information, die einen Unterschied macht, transformiert werden. Welche Informationen in einer Organisation anschlussfähig sind, hängt von der spezifischen Organisation und ihrer Erwartungsstruktur ab. Über die Relevanz von Daten, so kann man schlussfolgern, entscheidet die Organisation selbst.6 Zwar treffen durch die stärkere interorganisationale Vernetzung kontinuierlich auch Umweltdaten als Sinnofferten ein und können durchaus eine Relevantmachung in der eigenen Organisation anregen oder unumgänglich erscheinen lassen. Weil Organisationen sich eine eigene Relevanzstruktur schaffen, nehmen sie damit jedoch auch das Risiko auf sich, relevante Daten nicht zu Informationen werden zu lassen: Dies kann Umweltsensibilität einschränken, etwa wenn der Technik, nicht aber den Kundensignalen Gehör verschafft wird.

5. R ATIONALES E NTSCHEIDEN IN O RGANISATIONEN – E NTSCHEIDUNGSPROGRAMME , E NTSCHEIDUNGSSITUATIONEN UND DIE H OFFNUNG EINER UNBOUNDED RATIONALITY Ein erheblicher Anteil digitaler Technologien stellt rationaleres Entscheiden in Aussicht. Die Optimierungsversprechen verschaffen sich vor allem dort Gehör, wo die Entscheidungsfindung in Organisationen im Zentrum steht. Nach wie vor richten sich an Organisationen deutlich höhere und enttäuschungsresistentere Rationalitätserwartungen als an andere soziale Systeme (Kette 2014). Am aktuellen Digitalisierungsdiskurs fällt auf, dass Rationalisierungsgewinne zwar in Aussicht gestellt werden, es aber kaum Belege für die Wirkungen der eingeführten Produkte und verabschiedeten Maßnahmen in der alltäglichen Organisationspraxis gibt (Pfeiffer 2015: 25; Hirsch-Kreinsen 2016: 21). Im Folgenden wollen

6

Wenn eine formale Relevanzentscheidung ausbleibt, können wie erwähnt informale Strukturen orientierend wirken: „So haben wir das eigentlich immer gehandhabt.“, „Wir lassen das jetzt mal außen vor.“

264 | M USTER & BÜCHNER

wir zeigen, wie das Forschungsprogramm der Datafizierung von den organisationssoziologischen Revisionen der Rationalität (Becker/Küpper/Ortmann 1988) profitieren kann. Das Versprechen eines Rationalisierungsgewinns durch Technologien kann auf eine lange Geschichte zurückblicken: Bereits die Informatisierungsdebatte der 1990er Jahre setzte sich kritisch mit der Behauptung auseinander, mehr und vernetztere Daten führten zu rationaleren Entscheidungen (Tacke/Borchers 1993; Tacke 1997). Zielobjekt ist dabei zum einen das marktseitige Außenverhältnis der Organisation. Es gilt, eine strategische Flexibilität zu erzeugen (ähnlich schon in Bezug auf Informatisierung Wehrsig/Tacke 1992: 220), um Daten zu Markt- und Kundenbedürfnissen schnell und gewinnbringend auszuwerten. Zum anderen geht es um jene Daten, die Aufschluss über interne organisationale Abläufe liefern. In diesem Zusammenhang hat u. a. die standardisierte Unternehmenssoftware SAP soziologische Aufmerksamkeit auf sich gezogen (Mormann 2016; Hohlmann 2007; Conrad 2017). Will man den Zusammenhang zwischen den Rationalitätsbehauptungen des „smarten“ Entscheidens durch digitale Technologien und der Diskussion der Rationalität von Organisationen ausleuchten, gilt es, zunächst das Verhältnis von Entscheidung und Organisation aufzuschlüsseln. Im dritten Abschnitt haben wir bereits auf die Bedeutung von Daten für Entscheidungen und Entscheidungsvorbereitung hingewiesen. Um die Relevanz von Daten für Entscheidungen genauer zu fassen, braucht es ein komplexeres Verständnis von Entscheidungen in Organisationen, das über die einfache Definition von Entscheidungen als einer Auswahl aus Alternativen hinausgeht. Kennzeichnend für die Operation der Entscheidung ist, dass sie einen Überschuss an Möglichkeiten produziert, an den notwendigerweise weitere Entscheidungen anschließen müssen. Die Besonderheit von Organisationen als sozialen Systemen besteht wie gezeigt gerade darin, über ihre Strukturen entscheiden zu können und diesen Entscheidungen qua Formalisierung Nachdruck zu verleihen. In Hinblick auf die Datafizierungsdebatte erscheinen hier zwei organisationssoziologische Unterscheidungen besonders fruchtbar: die von Luhmann (2000) eingeführte Unterscheidung zwischen Entscheidungsprämissen und (Einzel-) Entscheidungen sowie die Unterscheidung zwischen standardisierten und nicht standardisierten Entscheidungssituationen (March/Simon 1976: 150ff; daran anschließend Wehrsig/Tacke 1992). Entscheidungsprämissen betreffen die Planungsentscheidungen von Organisationen, also Entscheidungen, die den Möglichkeitsraum von Anschlussentscheidungen eröffnen und begrenzen. Zu diesen werden Programme, Kommunikationswege und Personal gezählt (Luhmann 2000: 225). Damit abstrahiert jede

D ATAFIZIERUNG

UND

O RGANISATION | 265

formale Entscheidungsprämisse notwendig von konkreten Situationen. Entscheidungsprogramme definieren die sachlichen Bedingungen dafür, ob eine getroffene Entscheidung programmkonform, also richtig oder falsch ist. Kommunikationswege legen fest, wo entschieden wird, und Personal ist eine Entscheidungsprämisse insofern, als davon auszugehen ist, dass unterschiedliches Personal zu unterschiedlichen Entscheidungen kommt und Erwartungen daran ausgerichtet werden können. So instruiert etwa das Qualifizierungsprofil von Organisationsmitgliedern die Ausgestaltung konkreter Programme; die Vorzeichnung konkreter Hierarchien (Kommunikationswege) strukturiert vor, welche der vorhandenen Mitglieder für die Übernahme eines Programms – etwa für die Entwicklung eines Fortbildungsangebots – infrage kommen. Von diesen drei Prämissen zu unterscheiden sind Einzelentscheidungen. Zwar wird auch an diese angeschlossen, sie entwickeln jedoch keinen Strukturwert für andere Entscheidungen in Organisationen. Zwischen Entscheidungsprämissen und Einzelentscheidungen zu unterscheiden, sensibilisiert in Bezug auf Datafizierung für die empirisch unterschiedliche Wirkmächtigkeit digitaler Technologien, denn ob formal eingeführte Technologien die von ihren Entscheider*innen gewünschte Wirkmächtigkeit erzielen, ist keineswegs ausgemacht. So kann Standardsoftware wie SAP (Mormann 2016) oder Fallsoftware in Human-Service-Organisationen (Büchner 2017) sich zu Entscheidungsprämissen entwickeln, indem etwa SAP-Kompetenzen über Personal „entscheiden“ oder bestimmte Hilfemaßnahmen nur bei der Erreichung von in Fallsoftware hinterlegten Schwellenwerten oder Zugangsschranken möglich sind. Umgekehrt ist aber ebenso der empirische Fall möglich, dass digitale Technologien entgegen den Ambitionen bei ihrer Einführung nur gering, selektiv oder punktuell Entscheidungen instruieren, also für andere Entscheidungen keinen Prämissencharakter entwickeln. Für eine zweite differenzierte Beobachtung datenbasierten Entscheidens in Organisationen lässt sich die Unterscheidung von datenbasiertem Entscheiden in standardisierten und nicht standardisierten Situationen heranziehen. Beide Situationstypen unterscheiden sich nach der jeweils notwendigen Konditionierung, also Vorstrukturierung, von Daten. Diese Vorstrukturierung kann in zweierlei Hinsicht stattfinden: informationstheoretisch und organisationstheoretisch.7 Um in

7

Wir orientieren uns hierbei am Konzept der doppelten Formalisierung von Mormann (2010). In Hinblick auf Datafizierung erscheint es passender, vom sparsameren und an dieser Stelle präziseren Begriff der Konditionierung von Daten zu sprechen, als eine informationstheoretische und eine organisationstheoretische Formalisierung zu unter-

266 | M USTER & BÜCHNER

standardisierten Situationen zu Entscheidungen führen zu können, müssen Daten doppelt konditioniert sein. Für Entscheiden in nicht standardisierten Situationen können Organisationen auch mit einfach konditionierten Daten operieren. Bevor wir beide Situationstypen vorstellen, werfen wir zunächst einen Blick auf den Begriff der Konditionierung. Konditionierung liegt dann vor, wenn Daten in der Form von Wenn-dannVerknüpfungen qualifiziert werden. Konditionalprogramme bezeichnen eine von zwei Formen, wie Organisationen Programme gestalten können. Organisationen programmieren Entscheidungen, weil sie nur so in der Lage sind, sich von einer unsicheren und ständig verändernden Umwelt relativ unabhängig zu machen. Die Funktion von Entscheidungsprogrammen ist es, Grenzen der Variation im Umgang mit bestimmten Informationen festzulegen. Im Unterschied zu Zweckprogrammen verbinden Konditionalprogramme einen definierten Auslöser (wenn) konstant mit einem bestimmten Output (dann) (March/Simon 1976; Luhmann 1999, 1971, 2000). Für ein Konditionalprogramm spielt es keine Rolle, wann es von einer bestimmten eingehenden Information ausgelöst wird. Das Besondere an Konditionalprogrammen ist dabei ihr spezifischer Umweltbezug: Sie sind zugleich von der Umwelt abhängig, denn sie laufen erst beim Eintreffen einer auslösenden Information aus der Umwelt an. Zugleich ermöglichen sie Umweltunabhängigkeit, denn nur, wenn eine bestimmte, vorher definierte Information aus der Umwelt eintrifft, wird eine entsprechende Kommunikation ausgelöst. Werden beispielsweise Daten zu einem neuen Auftrag in ein System eingetragen (wenn), gleicht das System diese automatisch mit den Lagerbeständen ab (dann). Sind die Lagerbestände zu niedrig, wird eine Bestellungsaufforderung an die entsprechende Einkaufsabteilung versandt. Insbesondere Konditionalprogramme sind damit Zielobjekte der Automatisierung von Entscheidungen. Organisationstheoretische Konditionierung stellt auf diesen Zusammenhang der formalen Wenn-dann-Verknüpfung ab. Werfen wir nun einen Blick auf die Verknüpfung von organisationstheoretischer Konditionierung und Daten. Einige Erfordernisse der Organisation werden zu „Dauerzwecken“, deren Erfüllung über Konditionalprogramme bzw. Routinen sichergestellt werden soll (Luhmann 1971: 114). Standardisierbare Situationen erlauben so Planung durch eine Vorausprogrammierung der Aufgabenerfüllung (Wehrsig/Tacke 1992: 224).8 Die organisationstheoretische Konditionie-

scheiden. In Hinblick auf den Gegenstand Unternehmenssoftware wie SAP halten wir die letztgenannte Unterscheidung jedoch für angemessener. 8

Für datengestütztes Entscheiden in standardisierbaren Situationen kann man bereits auf industrie- und organisationssoziologische Studien zu Automation oder Informati-

D ATAFIZIERUNG

UND

O RGANISATION | 267

rung von Daten meint, dass Daten organisationale Auslöseereignisse liefern. So müssen beispielsweise in High-Frequency-Trading-(HFT-)Programmen jene preisänderungsrelevanten Ereignisse vorab definiert werden, die dann automatisierte An- und Verkäufe veranlassen (Schwarting 2014: 13). Während HFT ohne Echtzeitdaten schlichtweg unmöglich wäre, wird beim Blick auf andere Technologien erkennbar, dass Echtzeitdaten zunächst einmal lediglich Routinen zeitlich näher an ihrem Auslöser platzieren. Bevor oder sobald ein Fehler (z. B. durch Verschleiß) vorliegt oder prognostizierbar wird, senden etwa Sensoren entsprechende Wartungsmeldungen und setzen Überprüfungsroutinen in Gang (Bauernhansl 2017: 35). In der Baubranche stellen Technologien des „Building Information Modeling“ sicher, dass Änderungen an Großprojekten simultan an alle Beteiligten weitergegeben werden und die Beteiligten auf eine gemeinsame aktuelle Planungsgrundlage zugreifen können (Ludewig/Rahm 2017: 69). Um in standardisierten Situationen zu Entscheidungen führen zu können, müssen die Daten in zweierlei Hinsicht konditioniert, also konditionalprogrammiert sein: Zum einen sind sie informationstheoretisch konditioniert, denn jede algorithmische Programmierung basiert auf Wenn-dann-Verknüpfungen, also Konditionalprogrammierungen (Kitchin 2017): Es ist vorgegeben, welche Daten in welcher Form erfasst (wenn) und miteinander verknüpft werden (dann). Obgleich dabei die mediatisierten, nicht die de facto stattfindenden Prozesse miteinander verknüpft werden, wird doch durch diese informationstheoretische Konditionierung der Daten die Kopplung organisationaler Prozesse verstärkt (Kirchner/Beyer 2016: 327). Zum anderen sind Daten für die Entscheidung in standardisierten Situationen auch organisationstheoretisch konditioniert, weil innerhalb der Organisation festgelegt ist, welche Daten als Auslöser einer Programmausführung fungieren. Die Organisation definiert bestimmte Informationen als Triggerpunkte, die dann eine Kette weiterer Entscheidungen in Gang setzen. Durch diese Form der Konditionalprogrammierung sind Organisationen darauf eingestellt, dass Informationen aus der Umwelt unregelmäßig und unkalkulierbar eintreffen, die Umwelt

sierung zurückgreifen (Malsch/Mill 1992). Diese Arbeiten gehen teilweise bis in die 1990er Jahre zurück und versuchen, die sich mit der Entwicklung der Informationstechniken abzeichnenden Automatisierungstendenzen in ganz neuen Bereichen einzuordnen. Mit Blick auf digitale Techniken muss man heute v. a. die schnellere Verfügbarkeit der Daten und größere Datenmengen als Unterschied zu früher Informatisierung ins Kalkül ziehen und neu bewerten. Ein Grundprinzip bleibt jedoch weiterhin bestehen: Automatisierung durch Informatisierung ist immer dann möglich, wenn es sich um Routineaufgaben handelt.

268 | M USTER & BÜCHNER

selbst muss weder initiativ noch dauerhaft nach anderen Auslöseaspekten „abgesucht“ werden. So sichert die Organisation „eine möglichst präzise Entscheidungsplanung im System gegen die Wechselfälle einer unkontrollierbaren, nach eigenen Gesetzen ablaufenden Umwelt“ ab (Luhmann 1971: 120). Vom datenbasierten Entscheiden in standardisierten Situationen ist das „entdeckende Entscheiden“, also das Entscheiden in nicht standardisierten Situationen, zu unterscheiden. Dieser Situationstyp wird adressiert, wenn im Zuge von Datafizierung neue Geschäftsmodelle konzipiert, strategische Entscheidungen getroffen und neuartige Produkte entwickelt werden sollen. Daten als Informationen sollen helfen, Unsicherheit zu reduzieren (Wehrsig/Tacke 1992: 224). Diese Daten liegen nur einfach konditioniert vor, sie sind lediglich informationstheoretisch konditioniert. Wie im Fall des Entscheidens in standardisierten Situationen ist auch hier qua Algorithmen vorab festgelegt, welche Daten wie generiert werden. Die Besonderheit datengestützten Entscheidens in nicht standardisierten Situationen ist, dass Daten in organisationstheoretischer Hinsicht kaum oder überhaupt nicht konditioniert sind: Ein Datum kann als Kennzahl und Indikator erhoben worden sein, wird jedoch in nicht standardisierten Situationen von dieser Einbindung kognitiv und normativ freigestellt, um so als potenzielle Spur (Krämer/Kogge/Grube 2007) fungieren zu können, es besteht also keine organisationstheoretische Wenn-dann-Verknüpfung. Erst eine solche Freistellung ermöglicht die „Entdeckungsleistung“, also das Instruktivmachen von Daten für neue Zusammenhänge. Die vorgeschlagene Lesart der sozialen „Aufladung von Daten“ beim datengestützten Entscheiden in nicht standardisierten Situationen unterscheidet sich stark von den soziale Konstruktionsprozesse ignorierenden Optimierungsvorstellungen datengestützten Entscheidens.9 Derartig objektivistische Zugänge abstrahieren häufig von sozialen Deutungen und Normierungen und rahmen Entdeckungsleistungen eher als richtiges oder falsches „Auslesen“ von Daten. So kritisieren auch Constantiou und Kallinikos (2015: 49) in Bezug auf die Nutzung von Big Data: „It is not evident how masses of haphazardly generated data that reflect trivial and passing concerns of large and diffuse user crowds can be made relevant for business purposes and, if so, by what processes of data reduction and aggregation.“ Welche Fragen an Daten gestellt werden, ist möglicherweise stärker das Ergebnis einer mikropolitischen Aushandlung als eine aus den Daten „er-

9

Bereits 1993 monierten Tacke und Borcherts ein „objektivistisches Konzept der Informatio“, ein „technizistisches Konzept der Informatisierung“ sowie „ein rationalistisches Konzept organisierter Entscheidungsprozesse“ (127f.).

D ATAFIZIERUNG

UND

O RGANISATION | 269

rechnete“ Antwort. Außer im Grenzfall automatisierten Entscheidens produzieren Daten allein eben keine Entscheidung. Mit datengestütztem Entscheiden in Organisationen verbindet sich vor allem die Hoffnung auf besseres, also rationaleres Entscheiden. Eingangs sind wir bereits auf den organisationssoziologischen Abschied vom Bild zweckrationaler Organisation und die sich anschließenden Revisionen der Rationalität zu sprechen gekommen. Demgegenüber steht jedoch das einfache und folgenreiche Faktum, dass gesellschaftlich ebenjene rationalistischen Verständnisse von Organisationen und Entscheidungsprozessen tief verankert sind. Im Zuge der Datafizierung ist anzunehmen, dass diese Vorstellungen wider besseres sozialwissenschaftliches Wissen verstetigt und gerade nicht relativiert werden. Um die mit Datafizierung verbundenen Rationalitätshoffnungen bzw. -versprechen in Bezug auf organisiertes Entscheiden zu beschreiben, ist ein Blick in die klassischen Arbeiten der verhaltenswissenschaftlichen Organisationstheorie aufschlussreich. Auch hier wurde auf die begrenzte Rationalität des Entscheidens in Organisationen hingewiesen. Anders als bei einer systemtheoretischen Perspektive wird dabei jedoch auf menschliche Entscheider mit ihrer bounded rationality (Simon 1957) abgestellt. Datenbasierte Entscheidungsunterstützungssysteme oder Entscheidungsassistenzsysteme setzen genau an dieser Stelle an: Sie versprechen, optimale Entscheidungen gleichsam auszurechnen. Die bounded rationality der menschlichen Entscheider*innen, die Entscheidungen wahrscheinlich macht, die „good enough“ sind, soll ausgeweitet bzw. überwunden werden. In diesem Sinne soll mindestens besseres, wenn nicht ideales Entscheiden an den Kernprozessen der Organisation platziert werden. Organisationstheoretisch gesprochen soll ein maximierender Entscheidungsmodus Entscheidungen ersetzen, die in Form des satisficing (March/Simon 1976: 132) den Alltag des Organisierens prägen und Entscheider*innen entscheidungsfähig halten. Mitunter selbstlernende Algorithmen verarbeiten dabei Datenmengen aus heterogenen Quellen in einer Geschwindigkeit, die die Begrenzungen menschlicher Entscheidungskapazitäten übersteigen. Welche Folgen geraten in den Blick, wenn man Organisationen als entscheidungsgenerierende Systeme und digitale Technologien mit ihrem Versprechen einer unbounded rationality aufeinander bezieht? Zum einen forcieren digitale Technologien datengestütztes Entscheiden. Damit leisten sie einer neuen Form der vermeintlich technischen und damit überlegenen Rationalität Vorschub, die verspricht, die engen Grenzen menschlichen Entscheidens zu überwinden. Im Unterschied zu jener Zeit der Informatisierungsdebatte haben sich hierfür bereits semantische Kürzel wie „smart“, „intelligent“ etc. etabliert, die offensiv Überlegenheit behaupten.

270 | M USTER & BÜCHNER

Insofern ist es wahrscheinlich, dass es Entscheider*innen zunehmend mit einem datengestützten Konkurrenzsystem des Entscheidens und der Entscheidungsvorbereitung zu tun bekommen. Zuspitzend kommt hinzu, dass sich die knappste Ressource organisationalen Entscheidens, nämlich Aufmerksamkeit (Simon 1973), nicht im selben Maße erweitern lässt. Bemerkenswert an diesen digitalen Entscheidungssystemen ist dabei, dass den Rationalitätsbegrenzungen des Entscheidens, wie sie z. B. in Vorurteilen und persönlichen Präferenzen ausgemacht werden, im gesellschaftlichen Diskurs bislang noch keine symmetrische Diskussion der informationstheoretischen Konditionierung gegenübersteht (Kitchin 2017). Diese müsste dann die Blackbox der algorithmenvermittelten Wenndann-Prozesse öffnen, also die informationstheoretische Konditionierung und ihre Vorannahmen, Verkürzungen, Ausblendungen und Reduktionismen transparent machen. Darüber hinaus sind durch die Zunahme datengestützten Entscheidens Auswirkungen auf die Strategieentwicklung in Organisationen wahrscheinlich: Nicht datafizierte Wissensbestände werden gleichsam disqualifiziert. Nicht der ‚Riecher‘ für den Kunden, sondern Daten müssen als Entscheidungsgrundlage genutzt werden – obwohl diese, wie Weick (1993) zeigt, erst retrospektiv dazu erklärt werden, in unserer Terminologie also retrospektiv organisationstheoretisch konditioniert werden. Zweifellos wird im Zuge der Datafizierung die Zurechnung von Entscheidungen in Organisationen leichter, da der Empfang von Daten zweifelsfrei nachweisbar ist. Damit sind in standardisierten Situationen Datenempfang und Entscheidungssituation, zumindest als retrospektive Zurechnung10, identisch. Mit der zunehmenden Verdichtung und Vernetzung von Entscheidungen ist zugleich mit einer Verdichtung potenzieller (also zurechenbarer) Entscheidungssituationen in Organisationen zu rechnen. Vor diesem Hintergrund ist davon auszugehen, dass infolge von Big Data nicht nur die Datennutzung in nicht standardisierten Situationen zunehmen wird, sondern vermehrt Situationen standardisiert werden, um vermeintliche Rationalisierungspotenziale zu heben: Wo die Möglichkeit der Datengenerierung die Wahrscheinlichkeit erhöht, sowohl informationstheoretisch wie organisationstheoretisch konditionierbare Daten zu generieren, werden diese mit hoher Wahrscheinlichkeit als Entscheidungsgrundlage herangezogen werden.

10 Im Zweifel kann dann die Entscheidung zur unterlassenen Entscheidung plausibel zugerechnet werden.

D ATAFIZIERUNG

UND

O RGANISATION | 271

6. AUSBLICK AUF EINE ORGANISATIONSSENSIBLE D ATAFIZIERUNGSFORSCHUNG Der vorliegende Beitrag hat organisationssoziologische Anschlussstellen an die Datafizierungsforschung expliziert und dadurch Effekte datengestützten Entscheidens in Organisationen systematisiert. Die Kooperation von Organisationssoziologie und Datafizierungsforschung steckt bislang noch in den Kinderschuhen. Entsprechend groß ist das Anregungspotenzial einzuschätzen, in beide Richtungen die Möglichkeiten und die Grenzen des Organisierbaren durch digitale Technologien und Daten zu theoretisieren. Drei Fragerichtungen erscheinen uns hierbei besonders aussichtsreich, die sich entlang der eingangs diskutierten Diskursstränge ordnen lassen: Die Auswirkungen von Datafizierung auf das „faktische Verhalten in Organisationen“ (Luhmann 1999: 268f.) ist derzeit empirisch noch unzureichend erforscht. Das Verhältnis von Formalität und Datafizierung fordert gerade angesichts der neuen Qualitäten der Digitalisierung zu einer vertieften empirischen Auseinandersetzung auf. Vorarbeiten zur Informatisierung haben grundlegende Einsichten geliefert, müssen jedoch aktualisiert und ausgebaut werden. Daten fordern etablierte Entscheidungsprozesse heraus und stellen sie infrage: Zum einen ist unklar, wie sie z. B. in Strategien eingebunden werden können. Echtzeitdaten ändern sich schneller, als Organisationen strategische Entscheidungen treffen (Constantiou/Kallinikos 2015). Zum anderen können Daten, liegen sie einmal vor, nicht einfach ignoriert werden: Sie nicht zu verwenden wird begründungspflichtig, ihnen zu widersprechen ebenfalls. Mindestens rhetorisch muss auf vorhandenes Datenmaterial Bezug genommen werden. Auch die (Neu-)Strukturierung formaler und informaler Erwartungen im Zuge verstärkter Datafizierung ist empirisch noch unzureichend beschrieben: Wie genau werden beide Erwartungsarten in virtuellen und/oder stark technisch überwachten Arbeitskontexten vermittelt? Welche mikropolitischen Spiele werden um Big Data gespielt? Wie werden beispielsweise Visualisierungen als Machtmittel eingesetzt, um bestimmte Dateninterpretationen nahezulegen (Schoeneberg/Pein 2014)? Ein zentrales Anliegen muss es vor diesem Hintergrund sein, den Formalitätsindex von Daten in Organisationen empirisch zu untersuchen: Welchen Unterschied macht Datafizierung in Organisation etwa für den Umgang mit Fehlern und Verantwortung oder für die Zuschreibung von Erfolg und Scheitern organisationaler Initiativen? Wer den „Organisationsgehalt“ bzw. die Organisationsdimension der Datafizierung erschließen möchte, kann von der organisationssoziologischen Theoriebildung und ihren empirischen Erkenntnissen profitieren.

272 | M USTER & BÜCHNER

Angesichts der Dynamik technischer Entwicklungen und der erheblichen „Digitalisierungsbereitschaft“ von Organisationen stellt sich die Frage, welches Verhältnis von Zweck- und Konditionalprogrammierung aufgrund der exzessiven informationstheoretischen Konditionierung die zukünftige organisationale Wirklichkeit prägen wird. Der zweite Diskursstrang betrifft die Beobachtung, dass immer mehr Organisationen neue Organisationsformen einführen, um damit für die mit Digitalisierung einhergehenden Herausforderungen gerüstet zu sein. Organisationen müssen mit dem Isomorphiedruck des Digitalisierungsdiskurses, dem Ausrufen von Vorreitern und Abgehängten, von richtigen Maßnahmen und Strategien der Digitalisierung umgehen (Büchner/Muster 2017). Während diese neuen Modelle in der Organisationspraxis viel Beachtung erfahren, bleibt die Rezeption in der Organisationsforschung nahezu aus. Das lässt sich erkennen an der fehlenden theoretisch informierten Antwort auf den tatsächlichen Zusammenhang von datengestütztem Entscheiden und Organisationsmodellen, die mehr Selbstorganisation versprechen. An Beispielen wie dem mobilen Hauskrankenpflegedienst Buurtzorg zeigt sich aber, welche tief greifenden Veränderungen datengestütztes Entscheiden auch in Organisationsmodellen haben kann. Buurtzorg automatisiert administrative Tätigkeiten über digitale Technologien, ersetzt so das sonst so übliche mittlere Management und überlässt das Kerngeschäft der Pflege selbstorganisierten Teams. Auf der anderen Seite treten insbesondere Konzepte des agilen Managements als Kompaktlösungen an, die, richtig eingeführt, friktionsloses Organisieren versprechen. Zwar legt die Organisationssoziologie gegenüber derartigen Heilsversprechen aus gutem Grunde Skepsis an den Tag und zeigt problematische Verkürzungen, Vereinfachungen oder Ausblendungen auf (Muster/Büchner i. E.). Die hier eingenommene Perspektive fokussiert auf die Eigenlogiken von Organisation. Aber auch die zunehmende Durchdringung von Lebensbereichen mit digitalen Technologien bedarf weiterer Forschung. Aus organisationssoziologischer Perspektive ist hier vor allem nach dem Verhältnis von Datafizierung in Organisationen und gesellschaftlichen Effekten zu fragen. Daten werden vor allem von Organisationen erzeugt, verteilt und verwaltet. Inwiefern steigt die Bedeutung von Organisationen, wenn auch alltagsweltliche Entscheidungen zunehmend datenbasiert getroffen werden? Muss man spätestens jetzt von einer „Organisationsgesellschaft“ sprechen, wie Schimank (2005) es nahelegt? Oder weichen Organisationsgrenzen etwa durch die Übernahme und das Angewiesensein auf komplexe, global entwickelte und genutzte Programmstrukturen eher auf?

D ATAFIZIERUNG

UND

O RGANISATION | 273

Für alle drei Fragerichtungen zeichnet sich auch der Bedarf einer theoretischen Erweiterung ab: Nimmt informationstheoretisch konditioniertes Entscheiden, z. B. durch selbstlernende Algorithmen, tatsächlich zu, muss die (organisations-)soziologische Beschreibung dies begrifflich fassen können. Der vorliegende Beitrag kann nur ein erster Schritt in diese Richtung sein.

L ITERATUR Agre, Philip E. (1994): Surveillance and capture. Two models of privacy. In: The Information Society, Vol. 10, No. 2, S. 101-127. Bauernhansl, Thomas (2017): Industrie 4.0. Im Spannungsfeld von Markt, Technik und Organisation. In: Zeitschrift für Organisationsentwicklung, H. 2, S. 32-41. Becker, Albrecht/Küpper, Willi/Ortmann, Günther (1988): Revisionen der Rationalität. In: Küpper, Willi/Ortmann, Günther (Hrsg.): Mikropolitik. Rationalität, Macht und Spiele in Organisationen, Wiesbaden, S. 89-114. Bernstein, Ethan S. (2012): The Transparancy Paradox: A Role for Privacy in Organizational Learning and Operational Control. In: Administrative Science Quarterly, Vol. 57, No. 2, S. 181-216. Brunsson, Nils (2006): Mechanisms of hope. Maintaining the dream of the rational organization, Copenhagen. Brunsson, Nils (1989): The Organization of Hypocrisy: Talk, Decision and Actions in Organizations, Hoboken. Büchner, Stefanie (2017): Fallsoftware als digitale Dokumentation. Zur Unterscheidung einer Arbeits- und Organisationsperspektive auf digitale Dokumentation. In: Neuhaus, Lukas/Käch, Oliver (Hrsg.): Bedingte Professionalität. Professionelles Handeln im Kontext von Institution und Organisation, Weinheim, S. 240-269. Büchner, Stefanie/Muster, Judith (2017): Digitalisierung! Jetzt! Eine Entgegnung. In: Zeitschrift für Organisationsentwicklung, H. 4, S. 70-72. Conrad, Lisa (2017): Organisation im soziotechnischen Gemenge. Mediale Umschichtungen durch die Einführung von SAP, Bielefeld. Constantiou, Joanna D./Kallinikos, Jannis (2015): New games, new rules: big data and the changing context of strategy. In: Journal of Information Technology, Vol. 30, No. 1, S. 44-57. Crozier, Michel/Friedberg, Eberhard (1979): Macht und Organisation. Die Zwänge des kollektiven Handelns, Königstein.

274 | M USTER & BÜCHNER

Cyert, Richard M./March, James G. (1992): A Behavioral Theory of the Firm, Cambridge. DiMaggio, Paul J./Powell, Walter W. (1983): The Iron Cage Revisited: Isomorphism and Collective Rationality in Organizational Fields. In: American Sociological Review, Vol. 48, No. 2, S. 147-160. Esposito, Elena (2014): Algorithmische Kontingenz. Der Umgang mit Unsicherheit im Web. In: Alberto Cevolini (Hrsg.): Die Ordnung des Kontingenten. Beiträge zur zahlenmäßigen Selbstbeschreibung der modernen Gesellschaft, Wiesbaden, S. 233-249. Goschy, Thomas/Rohrbach, Thomas (2017): Revolution jenseits der Werkhalle. Mit mentalem Wandel in die smarte Wertschöpfung. In: Zeitschrift für Organisationsentwicklung, H. 2, S. 4-9. Groddeck, Victoria von/Wilz, Sylvia Marlene (2015): Auf dem Papier und zwischen den Zeilen: Formalität und Informalität in Organisationen. In: Dies. (Hrsg.): Formalität und Informalität in Organisationen, Wiesbaden, S. 7-36. Heidenreich, Martin/Kirch, Brigitte/Mattes, Jannika (2008): Die organisatorische Einbettung von Informationstechnologien in einem globalen Entwicklungsprojekt. In: Funken, Christiane/Schulz-Schaeffer, Ingo (Hrsg.): Digitalisierung der Arbeitswelt. Zur Neuordnung formaler und informeller Prozesse in Unternehmen, Wiesbaden, S. 193- 220. Hempel, Leon/Krassmann, Susanne/Bröckling, Ulrich (Hrsg.) (2011a): Sichtbarkeitsregime. Leviathan, Sonderheft, 25, Wiesbaden. Hempel, Leon/Krassmann, Susanne/Bröckling, Ulrich (2011b): Sichtbarkeitsregime: Eine Einleitung. In: Dies. (Hrsg.): Sichtbarkeitsregime. Leviathan, Sonderheft, 25, Wiesbaden, S. 7-24. Hirsch-Kreinsen, Hartmut (2016): Industrie 4.0 als Technologieversprechen, Dortmund: Soziologisches Arbeitspapier 46/2016. Hohlmann, Brita (2007): Organisation SAP – Soziale Auswirkungen technischer Systeme, TU Darmstadt, Fachbereich Gesellschafts- und Geschichtswissenschaften. Kette, Sven (2014): Diskreditiertes Scheitern. Katastrophale Unfälle als Organisationsproblem. In: Bergmann, Jens/Hahn, Matthias/Langhof, Antonia/ Wagner, Gabriele (Hrsg.): Scheitern. Organisations- und wirtschaftssoziologische Analysen, Wiesbaden, S. 159-181. Kirchner, Stefan/Beyer, Jürgen (2016): Die Plattformlogik als digitale Marktordnung. In: Zeitschrift für Soziologie, Jg. 45, H. 5, S. 324-339. Kitchin, Rob (2017): Thinking critically about and researching algorithms. In: Information, Communication & Society, Vol. 20, No. 1, S. 14-29.

D ATAFIZIERUNG

UND

O RGANISATION | 275

Kleemann, Frank/Matuschek, Ingo (2008): Informalisierung als Komplement der Informatisierung von Arbeit. In: Funken, Christiane/Schulz-Schaeffer, Ingo (Hrsg.): Digitalisierung der Arbeitswelt. Zur Neuordnung formaler und informeller Prozesse in Unternehmen, Wiesbaden, S. 43-67. Krämer, Sybille/Kogge, Werner/Grube, Gernot (Hrsg.) (2007): Spur. Spurenlesen als Orientierungstechnik und Wissenskunst, Frankfurt am Main. Kühl, Stefan (2011): Organisationen. Eine ganz kurze Einführung, Wiesbaden. Kühl, Stefan (2015): Gruppen, Organisationen, Familien und Bewegungen. Zur Soziologie mitgliedschaftsbasierter Systeme zwischen Interaktion und Gesellschaft. In: Heintz, Bettina/Tyrell, Hartmann (Hrsg.): Interaktion – Organisation – Gesellschaft revisited. Anwendungen, Erweiterungen, Alternativen. Sonderband der Zeitschrift für Soziologie, Stuttgart, S. 65-85. Laloux, Frederic (2014): Reinventing Organizations. A Guide to Creating Organizations Inspired by the next Stage of Human Consciousness, Brüssel. Ludewig/Rahm (2017): Gemeinsam bauen. Building Information Modeling BIM verändert die Baubranche. In: Zeitschrift für Organisationsentwicklung, H. 2, S. 69-73. Lietzke, Ines (2017): Vom Kleinen ins Große. Wie ein Kompetenzteam bei Evonik die Digitalisierung treibt. In: Zeitschrift für Organisationsentwicklung, H. 2, S. 21-26. Luhmann, Niklas (1971): Lob der Routine. In: Ders. (Hrsg.): Politische Planung. Aufsätze zur Soziologie von Politik und Verwaltung, Opladen, S. 113-143. Luhmann, Niklas (1991): Zweckbegriff und Systemrationalität. Über die Funktion von Zwecken in sozialen Systemen, Frankfurt am Main. Luhmann, Niklas (1992): Entscheidungen in der „Informationsgesellschaft“. Unveröffentlichtes Manuskript. Luhmann, Niklas (1999): Funktionen und Folgen formaler Organisation, Berlin. Luhmann, Niklas (2000): Organisation und Entscheidung, Opladen. Lupton, Deborah (2015): Digital sociology, Abingdon. Malsch, Thomas/Mill, Ulrich (Hrsg.) (1992): ArBYTE. Modernisierung der Industriesoziologie?, Berlin. March, James G./Simon, Herbert (1957): Organizations, New York. March, James G./Simon, Herbert (1976): Organisation und Individuum. Wiesbaden. Mayo, Elton (1933): The Human Problems of an Industrial Civilization, New York. Mormann, Hannah (2010): Zur informationstheoretischen und organisationstheoretischen Formalisierung von Organisation. In: Passoth, Jan-Hendrik/Weh-

276 | M USTER & BÜCHNER

ner, Josef (Hrsg.): Quoten, Kurven und Profile. Zur Vermessung der Sozialen Welt, Wiesbaden, S. 69-86. Mormann, Hannah (2016): Das Projekt SAP. Zur Organisationssoziologie betriebswirtschaftlicher Standardsoftware, Bielefeld. Muster, Judith/Büchner, Stefanie (im Erscheinen): Die schwierige Liaison von Organisationssoziologie und Praxisbezug am Beispiel Beratung. In: Apelt, Maja et al. (Hrsg.): Handbuch der Organisationssoziologie, Wiesbaden. Pfeiffer, Sabine (2015): Warum reden wir eigentlich über Industrie 4.0? – Auf dem Weg zum digitalen Despotismus. In: Mittelweg 36, Jg. 14, H. 2, S. 1436. Ries, Eric (2011): The Lean Startup: How Today’s Entrepreneurs Use Continuous Innovation to Create Radically Successful Businesses, New York. Robertson, Brian J. (2015): Holacracy: The Revolutionary Management System that Abolishes Hierarchy, New York. Schimank, Uwe (2005): Organisationsgesellschaft. In: Jäger, Wieland/Schimank, Uwe (Hrsg.): Organisationsgesellschaft. Facetten und Perspektiven, Wiesbaden, S. 19-50. Schoeneberg, Klaus-Peter/Pein, Jennifer (2014): Entscheidungsfindung mit Big Data. Einsatz fortschrittlicher Visualisierungsmöglichkeiten zur Komplexitätsbeherrschung betriebswirtschaftlicher Sachverhalte im Unternehmen. In: Schoeneberg, Klaus-Peter (Hrsg.): Komplexitätsmanagement in Unternehmen. Herausforderungen im Umgang mit Dynamik, Unsicherheit und Komplexität meistern, Wiesbaden, S. 309-354. Schulz-Schaeffer, Ingo/Funken, Christiane (2008): Das Verhältnis von Formalisierung und Informalität betrieblicher Arbeits- und Kommunikationsprozesse und die Rolle der Informationstechnik. In: Funken, Christiane/SchulzSchaeffer, Ingo (Hrsg.): Digitalisierung der Arbeitswelt. Zur Neuordnung formaler und informeller Prozesse in Unternehmen, Wiesbaden, S. 11-39. Schwaber, Ken/Sutherland, Jeff (2016): The Scrum Guide: The Definitive Guide to Scrum: The Rules of the Game. Online unter: http://www.scrumguides.org/docs/scrumguide/v2016/2016-Scrum-Guide-US.pdf (aufgerufen am 20.08.2017). Schwarting, Rena (2014): High Frequency Trading aus organisationssoziologischer Perspektive. Eine Grenzstellen-Verortung. Working Paper Reihe „Organisationssoziologische Analysen“ der Universität Bielefeld. Online unter: http://www.uni-bielefeld.de/soz/ab3/PDF%20Working-PaperReihe%20OrgSoz/Working-Paper-Reihe-Organisationssoziologische-Analy sen-High-Frequency-Trading-(Rena-Schwarting).pdf (aufgerufen am 15.05. 2017).

D ATAFIZIERUNG

UND

O RGANISATION | 277

Simon, Edouard J./Porto de Albuquerque, João/Rolf, Arno (2008): Notwendige und vorläufige Formalisierungslücken in Organisationen. In: Funken, Christiane/Schulz-Schaeffer, Ingo (Hrsg.): Digitalisierung der Arbeitswelt. Zur Neuordnung formaler und informeller Prozesse in Unternehmen, Wiesbaden, S. 161-239. Simon, Herbert A. (1957): Administrative Behavior. A Study of DecisionMaking Process in Administrative Organizations, New York. Simon, Herbert A. (1973): Applying Information Technology to Organization Design. In: Public Administration Review, Vol. 33, No. 3, S. 268. Süssenguth, Florian (2015): Die Organisation der Gesellschaft der Daten. In: Ders. (Hrsg.): Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung, Bielefeld, S. 93-121. Tacke, Veronika (1997): Rationalitätsverlust im Organisationswandel. Von den Waschküchen der Farbenfabriken zur informatisierten Chemieindustrie, Frankfurt am Main. Tacke, Veronika (2015): Formalität und Informalität. Zu einer klassischen Unterscheidung der Organisationssoziologie. In: Groddeck, Victoria von/Wilz, Sylvia Marlene (Hrsg.): Formalität und Informalität in Organisationen, Wiesbaden, S. 37-92. Tacke, Veronika/Borchers, Uwe (1993): Organisation, Informatisierung und Risiko. In: Weißbach, Hans-Jürgen (Hrsg.): Risiken informatisierter Produktion. Theoretische und empirische Ansätze: Strategien der Risikobewältigung, Opladen, S. 125-151. Wehrsig, Christof/Tacke, Veronika (1992): Funktionen und Folgen informatisierter Organisationen. In: Malsch, Thomas/Mill, Ulrich (Hrsg.): ArBYTE. Modernisierung der Industriesoziologie?, Berlin, S. 219-239. Weick, Karl E. (1993): The collapse of sensemaking in organizations: The Mann Gulch disaster. In: Administrative Science Quarterly, Vol. 38, No. 4, S. 628652.

Epistemologische Herausforderungen

Governing by Data Zur historischen Medienkulturanalyse der Datengesellschaft R AMÓN R EICHERT

E INLEITUNG Google, Microsoft, Apple, Facebook – so gut wie jedes Unternehmen, das heute Software entwickelt und digitale Infrastrukturen wie etwa Rechenzentren und Serverfarmen aufbaut, erhofft sich von der Verarbeitung immer größerer und differenzierterer Datenmengen eine verbesserte Einsicht in die Wirklichkeit der sozialen Welt. Schlagworte wie Big Data und New Artificial Intelligence umschreiben nicht nur neue wissenschaftliche Datenpraktiken, sondern markieren auch tiefgreifende Transformationen der Gegenwartsgesellschaft und eine Medienkultur im digitalen Umbruch. Neurobiologische Diskurse prägen die Umgestaltung der Gegenwartsgesellschaft in multi-agentielle Anwendungen, die von ökonomischen Motiven der Optimierung, der Progression und der Effizienzsteigerung getrieben sind. In ihrem vielbeachteten Vortrag mit dem Titel Dark Days: AI and the Rise of Fascism aus dem Jahr 2017 warnt Kate Crawford (Microsoft Research) vor den Auswirkungen der gegenwärtigen Forschung zur Künstlichen Intelligenz. In ihrem Beitrag sondiert sie die Chancen und Risiken dieser neuen Wissenspraxis und fordert einen datenkritischen Umgang mit den neuen Formen datengetriebener Gouvernementalität: Just as we are reaching a crucial inflection point in the deployment of AI into everyday life, we are seeing the rise of white nationalism and right-wing authoritarianism in Europe, the US and beyond. How do we protect our communities – and particularly already vulnerable and marginalized groups – from the potential uses of these systems for surveillance, harassment, detainment or deportation? (Crawford 2017: 1)

282 | REICHERT

In jüngster Zeit erfahren Teilgebiete der Informatik wie etwa die Neuroinformatik und die Künstliche Intelligenz ein wiedererstarktes Interesse. Der anhaltende Aufschwung der life sciences, allen voran neurobiology und brain research, hat dazu geführt, dass die Neuroinformatik heute maßgeblich am Aufbau automatisierter Infrastrukturen (Stichwort: Internet of Things), intelligenter sensor networks (Stichwort: Sensor Information Technology, Robotics) und lernender environments (Stichwort: Deep Learning) beteiligt ist und damit einen großen Einfluss auf die digitale Gesellschaft, ihre Kultur und ihre soziale Praxis ausübt. Im engeren Sinn hat die Neuroinformatik eine große Bedeutung für die technische Informationsverarbeitung und die Künstliche Intelligenz und beeinflusst weite Bereiche der sensorischen und kognitiven Datenmodellierung und -verarbeitung u. a. in den Bereichen der Sensortechnik (Sehen), der Semantik und Linguistik (Sprache), der Robotik (Manipulation von Bewegung und Verhalten) und der Kognitionswissenschaften (Lernen). Die (selbst-)lernenden Algorithmen und die Vorhersagemodelle der neuronalen Informationsverarbeitung schaffen nicht nur epistemische Rahmenbedingungen für die Gestaltung multi-agentieller Umwelten für Kommunikation, Wissenstransfer und Bildung, sondern sie kreieren auch Wissens- und Machtformen maschinenbasierter Intelligenz, die zur Entstehung neuer Handlungsräume für politische und wirtschaftliche Prozesse und Entscheidungen führen. In Anlehnung an die obige zeitdiagnostische Einschätzung von Kate Crawford kann von der Annahme ausgegangen werden, dass die konzernorientierte Großdatenforschung in den Wissensfeldern der advanced technology, den humanities und den social sciences maßgeblich an der Herausbildung von kulturellen Praktiken und an der Neuordnung von Macht- und Produktionsverhältnissen beteiligt ist.1 Folglich kann diese als Möglichkeitsbedingung der Datenge-

1

In Anlehnung an Michel Foucaults Konzept der „Gouvernementalität“ (2000: 41ff.) nennen Hardt und Negri (2000) den verflüssigten Machttypus auch „governance without government“ und machen damit auf den strategischen Zusammenhang von Beschleunigungsbefähigung, Flexibilisierung und Selbsttechnologien aufmerksam. Diese Idee eines sich permanent in Bewegung befindlichen flows charakterisiert Zygmunt Bauman treffend als Diskursfigur der vorherrschenden „liquid modernity“ und beschreibt dieses veränderte Raum-Zeit-Regime als neuen sozialen Aggregatzustand: „Fluids, so to speak, neither fix space nor bind time. While solids have clear spatial dimensions but neutralize the impact, and thus downgrade the significance of time, fluids do not keep to any shape for long and are constantly ready (and prone) to change it; and so for them it is the flow of time that counts, more than the space they

G OVERNING

BY

D ATA | 283

sellschaft angesehen und untersucht werden. Vor diesem Hintergrund möchte ich (1) die wissenschaftsgeschichtliche, epistemologische und die medientheoretische Perspektive der Konstruktion von Daten schärfen, um (2) in einem weiteren Schritt ihre historische und performative Dimension thematisieren zu können, die eine richtungsweisende Grundlage zum Verständnis des systemhaften Zusammenhangs der Datengesellschaft liefern kann. Der vorliegende Text setzt sich mit medien- und kulturanalytischen Konzepten auseinander, die sich mit den Forschungen zu Big Data und künstlicher Intelligenz beschäftigen. In diesem Zusammenhang wird die Leitfrage aufgeworfen, ob und inwiefern die unterschiedlichen Ansätze in der Lage sind, eine machtund datenkritische Perspektive im Hinblick auf die Wissensproduktionsprozesse und ihre Entwicklungslinien und Umbrüche in der Datengesellschaft zu entwickeln. In diesem Kontext werden sowohl der soziale Realismus technikaffirmativer und anwendungsorientierter Ansätze als auch die epistemische Tragfähigkeit unterschiedlicher medienarchäologischer und mediengeschichtlicher Ansätze kritisch sondiert.

W ISSENSPRODUKTIONSPROZESSE IN DER D ATENGESELLSCHAFT In seinem geschichtsphilosophischen Werk Die Ordnung der Dinge bezeichnet Michel Foucault (1974) mit dem Begriff „Episteme“ die Ordnungen des Wissens, die in einer Epoche geltend gemacht werden. Innerhalb dieser Episteme formieren sich die historisch veränderbaren Möglichkeitsbedingungen des Wissbaren und Wahrnehmbaren, die mittels gesellschaftlicher Praktiken und Diskurse vermittelt werden. In der aktuellen Theoriebildung ist man sich darin einig, dass mit dem Aufkommen der naturwissenschaftlich dominierten Ära der „Big Science“ (Solla Price 1963) und ihrer quantifizierenden Großdatenforschung tiefgreifende Veränderungen der Kultur und der Gesellschaft hervorgebracht werden. Weniger Klarheit herrscht allerdings darüber, welche konkreten Technologien, Wissensformen und Datenpraktiken diesen Medienumbruch und die damit einhergehenden gesellschaftlichen Veränderungen bedingen. Die mit dem Schlagwort Big Data umschriebene digitale Großdatenforschung schafft epistemische Umbrüche in den Bereichen von Wissen, Gesellschaft, Wirtschaft und Kultur, die „Verwertungspotenziale eröffnet, die bei der Erfassung der Daten

happen to occupy: that space, after all, they fill but, for a moment‘“ (Bauman 2000: 2).

284 | REICHERT

noch nicht absehbar waren.“ (Gapski 2016: 104) Da es infolgedessen keine „belanglosen Daten“ (ebd.) mehr gibt, zählt eine datenkritische Reflexion sämtlicher Praktiken der Datengewinnung, -modellierung und -verwertung zu einer der Kernkompetenzen in der oft titulierten Datengesellschaft. Historische Kartographien dieser digitalen Regierungskunst haben herausgearbeitet, dass während der Aufbruchssituation der Big Science im Rahmen des Internationalen Geophysischen Jahres (1957-1958) Weltdatenzentren (World Data Centers) geschaffen wurden, die bis heute einen richtungsweisenden Stellenwert für die Erzeugung weltweiter Datennetzwerke und die Organisation großer Datenbanken einnehmen (Aronova/Baker/Oreskes 2010: 183ff.). Seit dem späten 20. Jahrhundert zählen die digitale Großdatenforschung und ihre großen Rechenzentren und Serverfarmen zu den zentralen Bausteinen der Herstellung, Verarbeitung und Verwaltung von informatischem Wissen (Reichert 2014: 7). Damit einhergehend rücken mediale Technologien der Datenerfassung und -verarbeitung und Medien, die ein Wissen in Möglichkeitsräumen entwerfen, ins Zentrum der Wissensproduktion und der sozialen Kontrolle. In diesem Sinne kann man sowohl von datenbasierten als auch von datengesteuerten Wissenschaften sprechen, da die Wissensproduktion von der Verfügbarkeit computertechnologischer Infrastrukturen und der Ausbildung von digitalen Anwendungen und Methoden abhängig geworden ist. Einflussreiche Theoretiker/Innen der digitalen Medien sind sich darin einig, dass sich mit dem Aufstieg und der breiten Durchsetzung der OnlineKommunikation und der mobilen Medien nicht nur die Alltagskommunikation verändert hat, sondern diese auch als ein Anzeichen gewertet werden kann, dass sich die Gesellschaft in einer grundlegenden Veränderung befindet (Manovich 2012: 198ff.; van Dijck 2013). In der Ära von Big Data hat sich nicht nur der Stellenwert des gesellschaftlichen, sondern auch jener des wissenschaftlichen Wissens radikal verändert. Soziale Medien, mobile Geräte und technische Assistenzsysteme fungieren heute als gigantische Datensammler und als relevante Datenquellen der digitalen Kommunikationsforschung: „Social media offers us the opportunity for the first time to both observe human behavior and interaction in real time and on a global scale.“ (Golder/Macy 2012: 7) Die großen Datenmengen werden in verschiedenartigen Wissensfeldern gesammelt: Biotechnologie, Genomforschung, Arbeits- und Finanzwissenschaften sowie Trendforschung berufen sich in ihren Forschungen auf die Ergebnisse der Informationsverarbeitung der Big Data und formulieren auf dieser Grundlage aussagekräftige Modelle über den gegenwärtigen Status und die künftige Entwicklung von sozialen Gruppen und Gesellschaften. Die digitale Massendatenforschung hat sich innerhalb der letzten Jahre erheblich ausdifferenziert und es sind zahlreiche Studien

G OVERNING

BY

D ATA | 285

veröffentlicht worden, die mit Hilfe maschinenbasierter Verfahren wie der Textanalyse (quantitative Linguistik), der Sentimentanalyse (Stimmungserkennung), der sozialen Netzwerkanalyse oder der Bildanalyse anderweitiger maschinenbasierter Verfahren computerbasierte Social Media-Analysen betreiben. Die sich neu formierende Disziplin der computational social science (Lazer et al. 2009: 721ff.; Conte et al. 2012: 325ff.) wertet die großen Datenmengen der Online-Nutzung im Backend-Bereich aus und hat sich als eine neue Leitwissenschaft bei der Erforschung der Sozialen Medien des Web 2.0 herausgebildet. Sie bietet eine gemeinsame Plattform für die Computerwissenschaften und die Sozialwissenschaften und verknüpft die unterschiedlichen Fachexpertisen zu Informatik, Gesellschaft und kulturellen Prozessen. Die Computerwissenschaft beschäftigt sich mit der rechnerbasierten Erschließung großer Datenbestände, die mit den herkömmlichen Methoden der statistischen Sozialwissenschaften nicht mehr zu bewältigen sind. Ihr Ziel ist es, die sozialen Verhaltensmuster der Online-Nutzung auf der Grundlage spezifischer Algorithmen und Verfahren des Data Mining herauszuarbeiten: „To date, research on human interactions has relied mainly on one-time, self-reported data on relationships“ (Lazer et al. 2009: 722). Um diese Frage nach den sozialen Verhaltensweisen gehaltvoll beantworten zu können, benötigt die Computerwissenschaft den methodologischen Input der Sozialwissenschaften, die mit ihrem Wissen über Theorien und Methoden des sozialen Handelns einen wertvollen Beitrag bei der Formulierung relevanter Fragestellungen leisten können. Die in den zeitgenössischen Debatten häufig anzutreffenden Figuren vom ‚Kontrollverlust durch Datenwachstum‘, von der ‚Automatisierung von Entscheidungsprozessen‘ oder von der ‚Intransparenz der Datenspeicherung‘ können als Hinweise dafür verstanden werden, dass der Zeitdiagnose ein zentraler Stellenwert in den Theorien der digitalen Medien eingeräumt wird. Wie verhält sich diese Datenproblematik angesichts der überwiegenden Digitalität der Daten? Die Digitalität der Daten führt zu einer weitreichenden Automatisierung der Datenerhebung und der Datenauswertung. Eine Vielzahl von neuen Einflüssen und Entscheidungen sind bei der Informatisierung und Digitalisierung von Daten beteiligt und haben in der Informatik die Frage aufgeworfen, wie diese Elemente, die ein Computer verarbeiten kann, beschrieben werden können. Die Kriterien Digitalität, Maschinenlesbarkeit und die automatische Verarbeitung von Daten in Form numerischer Kodierungen und informatischer Operationen können als der zentrale Eigenschaftsstatus von digitalen Datensätzen verstanden werden. (Voß 2013) Inwiefern verändert die Digitalität der Datensätze die Perspektive auf Daten, Informationen und Wissen, wenn Fragen etwa nach den Ähnlichkeiten oder den Mustern von Datensätzen in den Vordergrund rücken? Die Vorstel-

286 | REICHERT

lung von Daten als binären Nachrichten, die zur Kommunikation dienen, eröffnet für Jakob Voß (2013) die epistemische Perspektive, den Datenbegriff ohne Rekurs auf den Informationsbegriff denken zu können: „Während bei Daten als Fakten und Daten als Beobachtungen die Frage im Vordergrund steht, welche Informationen in den Daten ‚enthalten‘ sind, ist bei Daten als digitalen Dokumenten deutlich, dass je nach Rezeptionskontext ganz unterschiedliche Inhalte im Vordergrund stehen können“ (ebd.). Wenn der gleiche Datensatz in verschiedenen Kontexten in unterschiedlichen Repräsentationsformen auftreten kann und ungleichartige Informationen ‚enthalten‘ kann, dann steht die Vorstellung von Daten als Bits im Vordergrund und löst die Vorstellung vom Bezug der Daten zur Realität ab. Mit der umgangssprachlichen Phrase Big Data wurde der Wirklichkeitsverlust der Daten weiter verschärft (kritisch dazu Floridi 2012: 435ff.). An der Schnittstelle zwischen der computational social science (Lazer et al. 2009) und der cultural analytics (Manovich 2009: 199ff.) hat sich ein interdisziplinäres Theoriefeld herausgebildet, das die neuen Herausforderungen der digitalen Internetforschung reflektiert. Die Vertreter der sogenannten digital methods verfolgen den Anspruch, die Nutzungsforschung neu zu denken, indem sie die Nutzungspraktiken des Internets als kulturelle Veränderungen und als gesellschaftliche Sachverhalte interpretieren (Rogers 2011: 63). Sie vertreten die Ansicht, dass analoge Methoden, die zur Erforschung interpersonaler oder Massenkommunikation entwickelt wurden, nicht einfach auf digitale Kommunikationspraktiken übertragen werden können. Als „Digitale Methoden“ lassen sich Ansätze verstehen, die nicht schon bestehende Methoden für die Internetforschung adaptieren, sondern die genuinen Verfahrensweisen digitaler Medien aufgreifen. Es handelt sich folglich um Forschungsansätze, die sich große Mengen digitaler Kommunikationsdaten zunutze machen, um diese mit computergestützten Verfahren zu modellieren. Sowohl der Ansatz der computational social science als auch die Überlegungen der digital methods stehen für die fundamentale Annahme, dass man von den Daten ausgehend, die Social Media-Plattformen erzeugen, neue Einsichten in menschliches Verhalten bzw. soziale Sachverhalte jenseits dieser Plattformen bzw. ihrer Software erlangen kann. Zahlreiche Repräsentant/Innen der computerbasierten Sozial- und Kulturwissenschaften vertreten die Annahme, dass man Online-Daten als soziale Gegebenheiten interpretieren könne (Floridi 2012: 435ff.). Damit fixieren sie die Praktiken der Internet-Nutzung mit Hilfe eines positivistischen Datenbegriffs, der die Nutzungspraktiken als Ausdruck einer spezifizierbaren sozialen Handlung versteht. Der soziale Positivismus der computational social science von Social Media-Plattformen vernachlässigt allerdings die

G OVERNING

BY

D ATA | 287

sinnstiftende und handlungsanweisende Rolle der Medien bei der Hervorbringung sozialer Rollen und stereotyper Handlungsformen im Umgang mit dem Medium. In dieser Hinsicht kann der soziale Behaviorismus der OnlineForschung hinsichtlich seiner Objektivitätspostulate in Frage gestellt werden. Die Vision einer solchen nativ-digitalen Forschungsmethodik, ob in Gestalt einer computational social science (Lazer 2009: 721ff.) oder von cultural analytics (Manovich 2009: 199ff.) ist jedoch noch unvollständig und verlangt nach einer epistemischen Befragung der digitalen Methoden in der Internetforschung folgender Bereiche: (1) Digitale Methoden als geltungstheoretisches Projekt: Dieses steht für ein bestimmtes Verfahren, das soziale Geltung von Handlungsorientierungen beansprucht. Die Wirtschaftsinformatik, die Computerlinguistik und die empirische Kommunikationssoziologie bilden nicht nur ein Geflecht wissenschaftlicher Felder und Disziplinen, sondern entwickeln in ihren strategischen Verbundprojekten bestimmte Erwartungsansprüche, die soziale Welt erklärend zu erschließen und sind insofern intrinsisch verbunden mit epistemischen und politischen Fragen. Vor diesem Hintergrund setzt sich eine das Selbstverständnis der digitalen Methoden befragende Epistemologie mit der sozialen Wirkmächtigkeit der digitalen Datenwissenschaften auseinander. (2) Digitale Methoden als konstitutionstheoretisches Konstrukt: Der Gegenstandsbezug der Big Data-Forschung ist heterogen und setzt sich aus unterschiedlichen Methoden zusammen. Mit ihren Technologien der Schnittstellen, den Verfahren des Daten-Trackings, des Keyword-Trackings, der automatischen Netzwerkanalyse, der Sentiment- und Argumentanalysen oder dem maschinenbasierten Lernen ergeben sich daher kritische Perspektivierungen der Datenkonstrukte. Vor diesem Hintergrund versuchen die critical code studies, die medialen Techniken von informatischen Machtverhältnissen sichtbar zu machen und untersuchen die technisch-infrastrukturellen Regulative von Layermodellen, Netzwerkprotokollen, Zugangspunkten und Algorithmen. (3) Digitale Methoden können letztlich auch als eine gründungstheoretische Fiktion aufgefasst werden: Die einschlägige Forschungsliteratur hat sich eingehend mit der Reliabilität und der Validität der wissenschaftlichen Datenerhebung beschäftigt und ist zum Ergebnis gekommen, dass die Datenschnittstellen des Social Net (Twitter, Facebook, YouTube) mehr oder weniger als dispositive Anordnungen fungieren. Denn als Filterschnittstellen erzeugen die APIs (application programming interfaces) ökonomisch motivierte Exklusionseffekte für die Netzforschung, die von ihr aus eigener Kraft nicht kontrolliert werden können. Lazer und andere (2009: 722) fordern von künftigen computer scientists einen verantwortungsvollen Umgang mit zugänglichen Daten und sehen in einem

288 | REICHERT

fahrlässigen Umgang große Gefahren für die Zukunft der Disziplin selbst: „A single dramatic incident involving a breach of privacy could produce a set of statutes, rules, and prohibitions that could strangle the nascent field of computational social science in its crib. What is necessary, now, is to produce a selfregulatory regime of procedures, technologies, and rules that reduce this risk but preserve most of the research potential.“ Wenn es um die Erforschung sozialer Zusammenhänge mit Hilfe von computer science und Big Data geht, dann rückt der verantwortungsvolle Umgang mit Daten und die Beachtung datenschutzrechtlicher Vorgaben auch in die Theoriebildung ein. Insofern haben sich vor dem Hintergrund des digitalen Wandels von Wissen, Macht und Ökonomie die Erwartungen an die Theorien der digitalen Methoden des 21. Jahrhunderts maßgeblich verändert. In den Debatten werden zunehmend Forderungen laut, die darauf bestehen, die historisch, sozial und ethisch einflussreichen Aspekte der digitalen Datenpraktiken systematisch aufzuarbeiten – verknüpft mit dem Ziel, diese künftig in den digitalen Wissenschaftskulturen der Datenerzeugung und -analyse nachhaltig zu verankern. In diesem Zusammenhang kritisiert Lev Manovich die sozialen Auswirkungen gegenwärtiger Massendatenforschung, welche das Datenwissen einseitig kumuliert und verteilt und zu Machtasymmetrien zwischen Forscher/Innen innerhalb und außerhalb der sozialen Medien führen könnte: „Nur Social-MediaUnternehmen haben Zugang zu wirklich großen sozialen Daten – insbesondere zu Transaktionsdaten. Ein Anthropologe, der für Facebook arbeitet, oder ein Soziologe in den Diensten von Google wird Zugang zu solchen Daten haben, die übrige wissenschaftliche Community hingegen nicht“ (Manovich 2014: 70). Dieses ungleiche Verhältnis festigt die Stellung der sozialen Medien als computerbasierte Kontrollmedien, die sich Datenwissen entlang einer vertikalen und eindimensionalen Netzkommunikation aneignen: (1) Sie ermöglichen einen kontinuierlichen Fluss von Daten; (2) sie sammeln und ordnen diese Daten; und (3) sie etablieren geschlossene Wissens- und Kommunikationsräume für Expert/Innen und ihre Expertisen, welche die kollektiven Daten zu Informationen verdichten und interpretieren. In der jüngsten Gegenwart ist „Big Data“ zum populären Schlagwort aufgestiegen und wird oft als Sammelbegriff für digitale Technologien verwendet, die in technischer Hinsicht für eine neue Ära digitaler Kommunikation und Verarbeitung und in sozialer Hinsicht für einen gesellschaftlichen Umbruch verantwortlich gemacht werden. In Anlehnung an die von Manovich geäußerte Datenkritik haben danah boyd und Kate Crawford ihre Forschungen am technisch-infrastrukturellen Aufbau der Netzwerkkommunikation weitergeführt und auf die hierarchisch und pyramidal angeordnete Schichtung der Sozialen Medien bezogen: „The current ecosystem around Big Data creates a

G OVERNING

BY

D ATA | 289

new kind of digital divide: the Big Data rich and the Big Data poor.“ (boyd/Crawford 2012: 674) Neben ihrer luziden Analysen zur digitalen Ökonomie eröffnen sie aber auch für die künftige Datenkritik eine vielversprechende Perspektive, indem sie sich von einem zentralen Glaubensgrundsatz des Informationsmanagements distanzieren, der die Entwicklung der digitalen Gesellschaften der Spätmoderne von der zunehmenden Nutzung digitaler Medien und ihrer Großdaten abhängig sieht.

M EDIEN - UND K ULTURANALYSE DER D ATENGESELLSCHAFT Die Arbeiten zur historisch vergleichenden Medien- und Kulturanalyse der digitalen Datenverarbeitung unter Berücksichtigung der materiellen Kultur von Datenpraktiken vom 19. bis zum 21. Jahrhundert haben aufgezeigt (Gitelman/Pingree 2004), dass bereits im 19. Jahrhundert die mechanischen Datenpraktiken das taxonomische Erkenntnisinteresse der Forscher maßgeblich beeinflussten – lange bevor es computerbasierte Methoden der Datenerhebung gab. In seiner Medienarchäologie der Datenverarbeitung unterscheidet Kevin Driscoll drei historische Perioden: „The first period begins in the late-19th century with the development of mass-scale information processing projects and the electromechanical punched card systems that made them possible.“ (Driscoll 2012) Die datenverarbeitenden Lochkartenmaschinen wurden im Zeitraum von 1950-1970 durch programmierbare Computer ersetzt, die allerdings die logische Struktur der Datenorganisation weitgehend übernommen haben. Die zweite Periode der Datenverarbeitung „is marked by the rise of database populism and the increasing availability of microcomputers in the late-1970s. Implementations of the relational data model enabled the production of more accessible interfaces for nonspecialists and large institutional databases were increasingly accompanied by small personal databases built by individuals and stored on microcomputers.“ (ebd.) Paradigmatisch für die dritte Periode sind nach Driscoll „small personal databases receded from the desktop with the increasing sophistication of spreadsheet software and the diffusion of internet access. In the early 21th century, the demanding, task of tracking millions of users through highly-centralized communication systems such as Facebook brought about new approaches to database design that departed significantly from the previous four decades.“ (ebd.) Die von Driscoll herausgearbeitete Periodisierung der digitalen Datenpraktiken bildet einen vielversprechenden Ansatz, um die Geschichte der digitalen Informations-

290 | REICHERT

verarbeitung als eine Entwicklung ihrer Medienumbrüche – im Sinne eines „progressiven kulturellen Wandels“ (Rusch 2007: 83) – aufzeigen zu können. Weiterführende Untersuchungen haben die sozialen und politischen Bedingungen und Auswirkungen des Übergangs von der mechanischen Datenauszählung der ersten Volkszählungen um 1890 über die elektronischen Datenverarbeitungen der 1950er Jahre bis zum digitalen Social Monitoring der unmittelbaren Gegenwart untersucht (Bollier 2010: 3). 1937 veröffentlichte der britische Mathematiker und Logiker Alan Mathison Turing seine Arbeit On Computable Numbers with an Application to the Entscheidungsproblem, in der er ein mathematisches Maschinenmodell entwickelte, das bis heute für die Theoriegeschichte der modernen Informations- und Computertechnologie von größter Bedeutung ist (Turing 1937: 230ff.). Mit dem von Turing entwickelten Universal-Modell der Turingmaschine gilt er heute als einer der einflussreichsten Modelltheoretiker der frühen Computerentwicklung. Im Jahr 1946 entwickelte der Mathematiker John von Neumann die bis heute gültigen Funktionseinheiten des Computers: Steuerwerk, Rechenwerk, Speicher, Eingabewerk und Ausgabewerk. Weil der Computer als erweiterte Rechenmaschine alle Informationen in einen binären Code übersetzt und als Signale elektrisch überträgt, ist er als umfassendes Hypermedium in der Lage, nicht nur sprachliche Texte, sondern auch visuelle und auditive Texte in einem multimedialen Konvergenzraum zu speichern, zu bearbeiten und zu verteilen (Cioffi-Revilla 2010: 259ff.). Friedrich Kittler verortet demnach das maßgeblich Neue des Computers in seiner Eigenschaft, alle bisherigen Medien in sich zu vereinen – ein Charakteristikum, das in der rezenten Theorie der digitalen Medien mit den Begriffen der „Medienkonvergenz“ und des „Hypermediums“ umschrieben wird: „Wenn Filme und Musiken, Anrufe und Texte über Glasfaserkabel ins Haus kommen, fallen die getrennten Medien Fernsehen, Radio, Telefon und Briefpost zusammen, standardisiert nach Übertragungsfrequenz und Bitformat. [...] In der allgemeinen Digitalisierung von Nachrichten und Kanälen verschwinden die Unterschiede zwischen einzelnen Medien. Nur noch als Oberflächeneffekt, wie er unter dem schönen Namen Interface beim Konsumenten ankommt, gibt es Ton und Bild, Stimme und Text“ (Kittler 1986: 7). In seinem 1993 veröffentlichten Aufsatz Es gibt keine Software vertiefte Kittler seine provokante These, dass Software bloß eine Imagination sei, die den Blick auf das tatsächlich Bedeutende – die Hardware – verdecke. Stattdessen forderte er mit seiner an Foucault angelehnten Medienarchäologie die materiellen Bedingungen der unterschiedlichen Datenpraktiken stärker in den Blick zu nehmen: „Archäologien der Gegenwart müssen auch Datenspeicherung, -übertragung und -berechnung in technischen Medien zur Kenntnis nehmen“ (Kittler 1985: 501). Seine medienarchäologischen Analysen haben die Theorien

G OVERNING

BY

D ATA | 291

der digitalen Medien maßgeblich beeinflusst und konzentrieren sich auf die Untersuchung der „Netzwerke von Technik und Institutionen, die einer gegebenen Kultur die Adressierung, Speicherung und Verarbeitung von Daten erlauben“ (ebd.). Matthew Kirschenbaum ist ein Vertreter dieses medienmaterialistischen Ansatzes und beschäftigt sich mit den medienarchäologischen Aspekten der Computerkultur. Im Zentrum seiner im Jahr 2008 veröffentlichten Untersuchung Mechanisms: New Media and the Forensic Imagination steht das wichtigste Speichermediums der Gegenwart: das Festplattenlaufwerk. In seiner Auseinandersetzung mit den maßgeblichen Theorien der digitalen Medien kritisiert er, dass sie ihr Augenmerk auf den Bildschirm gelegt haben und andere Formen von Materialität ausgeblendet haben. In Anlehnung an Nick Monfort nennt er diese einseitige Ausrichtung „Screen Essentialism“ (Kirschenbaum 2008: 31) und bezichtigt die Media Studies, eine Art der De-Materialisierung des Forschungsgegenstandes betrieben zu haben, die das Wesentliche der Medien aus dem Blick verliert. Dabei ruft er in Erinnerung, dass sich die medienmaterialistische Theoriebildung nur mit bestimmten Formen der physikalischen Materialität digitaler Medien, den Mikroprozessoren und Schaltkreisen, beschäftigt habe. Er räumt ein, dass die medialen Grundfunktionen des Speicherns von der Medientheorie bisher vernachlässigt wurden. Mit dem Begriff der „forensic materiality“ bezeichnet Kirschenbaum den Umstand, dass der gesamte Prozess der Aufzeichnung, Verbreitung, Verarbeitung und Überlieferung von Daten von physikalischen Trägermedien, z. B. dem Festplattenlaufwerk, abhängt: „(…) computer forensics depends upon the behaviors and physical properties of various computational storage media.“ (a. a. O.: 45) Die Festplatte entzieht sich der Wahrnehmung der Nutzer/Innen und kann von ihnen nur als eine Black Box angesehen werden (a. a. O.: 86). Mit der „formal materiality“ bezeichnet er die symbolische Ebene von konzeptionellen und logischen Objekten des Mensch-Maschine-Interface: „Formal materiality thus follows as the name I give to the imposition of multiple relational computational states on a data set or digital object. Phenomenologically, the relationship between these states tends to manifest itself in terms of layers or other relative measures, though in fact each state is arbitrary and self-consistent/self-contained.“ (a. a. O.: 12) Mit der Perspektive der „formal materiality“ können zwar die Zwänge, welche die Anwendungen und das Betriebssystem mittels der Schaltflächen auf dem Bildschirm auf die Nutzer/Innen ausübt, thematisiert werden, aber die tieferen Schichten rechnerbasierter Medialität lassen sich nur mittels der „forensic materiality“ erschließen. Mit seiner kritischen Revision medienmateri-

292 | REICHERT

alistischer Positionen leistet Kirschenbaum einen wertvollen Beitrag zur Ausdifferenzierung medienarchäologischer Theoriebildung. Kittlers programmatische These „Es gibt keine Software“ (1993) wurde lange Zeit als Grundsatz der Medienwissenschaft gehandelt und möglicherweise hat die in seinem Aufsatz vertretene Gegenüberstellung von „Materialität“ versus „Immaterialität“ in der Nachfolge dazu beigetragen, dass dem Aspekt der Software in den Kultur- und Medienwissenschaften weniger Aufmerksamkeit geschenkt wurde. Zehn Jahre nach Kittlers richtungsweisendem Text formierten sich jedoch eine Reihe von Veröffentlichungen, die der einseitigen Vorstellung von der Immaterialität von Software widersprochen haben (exemplarisch dazu Fuller 2003). Entgegen der weitverbreiteten Meinung wurde der Software durchaus eine gewisse Materialität zugesprochen, die sich auf verschiedenen Ebenen manifestiert und wirksam wird (Chun 2008: 299ff.). Im Zentrum zahlreicher Studien stehen die konzeptuellen und technologischen Grundlagen des Computers und die besonderen Charakteristika von Algorithmen, Programmiersprachen und Interfaces (Galloway 2004; Berry 2011). Insofern stehen die software studies in der Tradition medienmaterialistischer wie auch medienarchäologischer und kulturgeschichtlicher Ansätze, indem sie Software als etwas begreifen, das eine eigene Geschichte hat und somit nicht nur durch Medientechnologie, sondern ebenso durch soziale, institutionelle und kulturelle Rahmenbedingungen bedingt ist. Die critical code studies und die software studies stehen heute für ein heterogenes Diskursfeld innerhalb der Theorien der digitalen Medien, das sich mit den Algorithmen, Graphen und Protokollen digitaler Umgebungen auseinandersetzt (MacKenzie 2006; Fuller 2008; Wardrip-Fruin 2011). In diesem Theoriestrang überlagern sich medienarchäologische und datenkritische Problemstellungen, die sich mit den sozialen Steuerungsprozessen und machtpolitischen Aspekten beschäftigen, die der Erzeugung von datengenerierter Forschung und materiellen Datenkulturen inhärent sind (Gillespie 2010: 347ff.). Sie gestehen der Vernetzungstechnologie selbst eine strukturbildende Macht zu und interpretieren die digitalen Informations- und Kommunikationstechnologien als eine rechnerund softwarebasierte Ermöglichungsmacht sozialer und kultureller Praktiken, die weite Bereiche der Alltagskommunikation dominieren. Eine Vielzahl von Forschungsrichtungen dient den software studies als theoretischer und methodischer Impulsgeber, da ihre Forschungsgegenstände in den unterschiedlichsten Anwendungsfeldern integriert sind. So fragen Industriedesigner/Innen, Anthropolog/Innen, Humanbiolog/Innen, Architekt/Innen, Soziolinguist/Innen, Informatiker/Innen und Vertreter/Innen der science and technology studies in gemeinsamen Projekten nach dem Stellenwert von kollektiven Schrift-, Sprach-, Bild- und Ge-

G OVERNING

BY

D ATA | 293

dächtnissystemen, die von rechnerbasierten Kodes, Standards, Protokollen, Programmen, Datenverarbeitungen und Datenbanken produziert, prozessiert und statistisch analysiert werden (Fuller 2008). Heute hat sich das Forschungsfeld der software studies ausdifferenziert und es werden die unterschiedlichsten Verflechtungen von Software, Kultur und Gesellschaft wissenschaftlich untersucht. Die von Alexander Galloway (2004) projektierte Medien- und Machttheorie der „protokolllogischen“ Kontrolltechniken verfolgt den Anspruch, einen spezifischen Machttypus der verteilten Kontrollgesellschaft zu beschreiben. Die Protokolle interpretiert er als Medien einer liberalen Regierungstechnologie, die hochgradige Spielräume an unregulierter Kommunikation und flexibilisierter Distribution von Inhalten für einen taktischen Mediengebrauch bereithält. Protokolle operieren unterhalb der sichtbaren Anwendungsschichten im Verborgenen und werden daher nicht als mediale Beschränkung von Informationsflüssen wahrgenommen, sondern als herrschafts- und machtneutrales Tool. In der Tradition medienmaterialistischer Ansätze und vor dem Theoriehintergrund der science studies fragt er nach dem Stellenwert von informatischen Konzepten und Benutzerschnittstellen bei der Herausbildung sozialer Formationen und interpretiert die algorithmischen Standards, Normen und Protokolle also in erster Linie als vermittelnde Instanz zwischen den kulturellen Praktiken und den technischen Infrastrukturen. Vor diesem Hintergrund untersucht er nicht nur die technischen Möglichkeiten der politischen Kontrolle durch Algorithmen und Protokolle, sondern thematisiert die politischen Handlungsmöglichkeiten von netzwerkbasierten Bewegungen. Mit den critical code studies ist in den letzten Jahren allerdings ein Forschungsdesiderat entstanden, welches den digitalen Vernetzungstechnologien selbst eine strukturbildende Macht zugesteht und eine produktive Schnittstelle für eine transdisziplinäre Datenkritik ausbilden könnte. Geht man von der Annahme aus, dass die kollektive Datenkommunikation in Rechnernetzen durch die Netzwerkinfrastruktur der Netzwerkprotokolle organisiert wird und in funktionale Internetschichten zergliedert ist, dann können die Netzwerkprotokolle als Kulturtechniken der sozialen Regulierung angesehen werden, mit denen kollektive Prozesse als technisch bedingte Effekte von Netzwerktechnologien angeschrieben werden können (Wagner 2006: 26f.). In diesem Sinne begreift Matteo Pasquinelli (2014) Software als einen historischen Wissensbestand, der seine eigene Geschichte aufweist und somit nicht nur technologischen Normen und Standards unterliegt, sondern ebenso durch soziale, institutionelle und kulturelle Rahmenbedingungen bedingt ist. In seinem Aufsatz Der italienische Operaismo und die Informationsmaschine verknüpft er den Maschinenbegriff von Gilles Deleuze und Felix Guattari mit der Algorith-

294 | REICHERT

mik des digitalen Codes, um beide Konzepte auf die Marx’sche Theorie der Maschinen zu beziehen. In diesem Sinn schlägt Pasquinelli vor, die Extraktion von Metadaten als einen wertschöpfenden Faktor zu deuten und Netzwerke als Maschinen zur Kontrolle, Akkumulation und Steigerung des Mehrwerts auszulegen: „Abschließend – als ein Set von vorläufigen Hypothesen innerhalb der entstehenden ‚Big Data‘-Gesellschaft – kann von den Metadaten gesagt werden, dass sie dazu genutzt werden: 1) um den Wert von sozialen Beziehungen zu messen; 2) das Design von Maschinen und maschineller Intelligenz zu verbessern; und 3) Massenverhalten zu überwachen und vorherzusagen.“ (Pasquinelli 2014: 328) In ihrem Essay Protokoll, Kontrolle und Netzwerke vertiefen Alexander Galloway und Eugene Thacker (2014) die Frage nach der Herausbildung systemhafter Daten als gesellschaftliche Institution und thematisieren dabei den Stellenwert von informatischen Konzepten und Benutzerschnittstellen bei der Schaffung sozialer Formationen und politischer Figuren des Wissens: „Das Set von Verfahren zur Überwachung, Regulierung und Modulierung von Netzwerken als lebendigen Netzwerken ist auf der grundlegendsten Ebene auf die Produktion von Leben in seinen biologischen, sozialen und politischen Kapazitäten ausgerichtet.“ (a. a. O.: 293) Sie interpretieren die algorithmischen Standards, Normen und Protokolle als vermittelnde Instanz zwischen den kulturellen Praktiken und den technischen Infrastrukturen. Sie verstehen Netzwerke nicht bloß als technische Systeme, sondern als sozial dynamische und lebendige Netzwerke, die sich in Echtzeit organisieren. Vor diesem Hintergrund untersuchen sie nicht nur die technischen Möglichkeiten der politischen Kontrolle durch Algorithmen und Protokolle, sondern befragen die politischen Handlungsmöglichkeiten von netzwerkbasierten Bewegungen.

F AZIT Die in den computational social sciences als auch in den digital humanities häufig geteilte Annahme, dass man von den Daten ausgehend, die Social MediaPlattformen erzeugen, neue Einsichten in menschliches Verhalten und soziale Sachverhalte erlangen kann, wurde in diesem Beitrag einer kritischen Revision unterzogen. Aber auch das Denken einer ‚alternativen‘ Datengesellschaft durch den Aufbau hierarchiefreier Netze vertritt die Annahme einer simplen Übertragbarkeit sozialer Strukturen auf die Technologien der digitalen Vernetzung und lässt dabei die handlungsstrategische Beschränkung des Sozialen durch die technischen Standards und Normvorgaben der Internetkommunikation mehr oder weniger außer Acht. Die im zweiten Teil des Textes untersuchten medienarchäo-

G OVERNING

BY

D ATA | 295

logischen und mediengeschichtlichen Perspektivierungen der Datenforschung machen die im Gebrauch ausgeblendete Medien ‚sicht- und sagbar‘, haben bisher aber noch keine theoretisch verbindliche Entwicklungslinie zu den Wissensformen und Datenpraktiken im Bereich Big Data und Künstliche Intelligenz ausgebildet, um ihren macht- und subjektformierenden Stellenwert gehaltvoll erklären zu können. Soziale Medien und Online-Plattformen haben sich innerhalb der letzten Jahre zu gewichtigen Quellensammlungen für die statistische Massenerhebung entwickelt und haben mit Hilfe datenbasierter digitaler Methoden neue Formen sozial-empirischen Wissens hervorgebracht. Ihre gigantischen Datenbanken dienen der systematischen Informationsgewinnung und werden für das Sammeln, Auswerten und Interpretieren von sozialstatistischen Daten und Informationen eingesetzt. In ihrer Funktion als Speicher-, Verarbeitungs- und Verbreitungsmedium von Massendaten haben soziale Netzwerke umfangreiche Datenaggregate hervorgebracht, die zur Prognose von gesellschaftlichen Entwicklungen herangezogen werden. Soziale Medien und Online-Plattformen haben der empirischen Sozialforschung neue Möglichkeiten der Quellenerschließung eröffnet. Ihr Zukunftswissen überlagert zwei Wissensfelder. Die empirische Sozialwissenschaft und die Medieninformatik sind für die Auswertung der medienvermittelten Kommunikation in interaktiven Netzmedien zuständig. Die Sozialforschung sieht in den Online-Kommunikationsmedien eine maßgebliche Kraft für die gesellschaftliche Entwicklung. Vor diesem Hintergrund erscheint es mir wichtig, eine gehaltvolle datenkritische Perspektive zu entwickeln, die nicht nur in der Schuld steht, die Fragestellungen der einzelnen Fachbereiche zu bedienen, sondern darüber hinausgehend eine breiter aufgestellte politische Theorie der Datengesellschaft zu entwickeln, die eine Vielzahl kritisch-reflektierender Perspektiven zu adressieren vermag.

L ITERATUR Aronova, Elena/Baker, Karen/Oreskes, Naomi (2010): Big Science and Big Data in Biology: From the International Geophysical Year through the International Biological Program to the Long-Term Ecological Research Program, 1957-present. In: Historical Studies in the Natural Sciences, Vol. 40, No. 2, S. 183-224. Bauman, Zygmunt (2000): Liquid modernity, Cambridge. Berry, David M. (2011): The Philosophy of Software: Code and Mediation in the Digital Age, Basingstoke.

296 | REICHERT

boyd, danah/Crawford, Kate (2011): Six Provocations for Big Data. In: A Decade in Internet Time: Symposium on the Dynamics of the Internet and Society, September 2011, Oxford. Online unter: http://papers.ssrn.com/ sol3/papers.cfm?abstract_id=1926431 (aufgerufen am 12.10.2017). Bollier, David (2010: The promise and peril of big data, Washington D.C. Online unter: http://www.aspeninstitute.org/sites/default/files/content/docs/ pubs/The_Promise_and_Peril_of_Big_Data.pdf (aufgerufen am 12.10.2017). Chun, Wendy H. (2008): On ‚Sourcery‘, or Code as Fetish. In: Configurations, Vol. 16, No. 3, S. 299-324. Cioffi-Revilla, Claudio (2010): Computational social science. In: Wiley Interdisciplinary Reviews: Computational Statistics, Vol. 2, No. 3, S. 259-271. Conte, Rosaria et al. (2012): Manifesto of computational social science. In: European Physical Journal: Special Topics, Vol. 214, No. 1, S. 325-346. Online unter: https://www.researchgate.net/publication/236007870_Manifesto_of_ computational_social_science (aufgerufen am 04.12.2017). Crawford, Kate (2017): AI and the Rise of Fascism. Online unter: http://schedule.sxsw.com/2017/events/PP93821 (aufgerufen am 04.12.2017). Driscoll, Kevin (2012): From punched cards to ‚Big Data‘: A social history of database populism. In: Communication +1, Vol. 1. Online unter: http:// scholarworks.umass.edu/cpo/vol1/iss1/4/ (aufgerufen am 12.10.2017). Floridi, Luciano (2012): Big Data and Their Epistemological Challange. In: Philosophy of Information, Vol. 25, S. 435-37. Foucault, Michel (1974): Die Ordnung der Dinge. Eine Archäologie der Humanwissenschaften, Frankfurt am Main. Foucault, Michel (2000): Die Gouvernementalität. In: Bröckling, Ulrich/Krasmann, Susanne/Lemke, Thomas (Hrsg.): Gouvernementalität der Gegenwart. Studien zur Ökonomisierung des Sozialen, Frankfurt am Main, S. 41-67. Fuller, Matthew (2003): Behind the Blip: Essays on the Culture of Software, London. Fuller, Matthew (2008): Software Studies: A Lexicon, Cambridge. Galloway, Alexander (2004): Protocol. How Control Exists after Decentralization, Cambridge. Galloway, Alexander/Thacker, Eugene (2014): Protokoll, Kontrolle und Netzwerke. In: Reichert, Ramón (Hrsg.): Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie, Bielefeld, S. 289-312. Gapski, Harald (2016): Big Data – neue Herausforderung für Informationskompetenz und Bildung. In: Sühl-Strohmenger, Wilfried (Hrsg.): Handbuch Informationskompetenz, Berlin, S. 94-104.

G OVERNING

BY

D ATA | 297

Gillespie, Tarleton (2012): The Relevence of Algorithms. In: Gillespie, Tarleton/Boczkowski, Pablo/Foot, Kirsten (Hrsg.): Media Technologies. Cambridge, MA, S. 167-194. Gitelman, Lisa/Pingree, Geoffrey B. (2004): New Media: 1740-1915, Cambridge, MA. Hardt, Michael/Negri, Antonio (2000): Empire, Cambridge, MA. Kittler, Friedrich (1985): Aufschreibesysteme 1800/1900, München. Kittler, Friedrich (1986): Grammophon. Film. Typewriter, Berlin. Kittler, Friedrich (1993): Es gibt keine Software. In: Kittler, Friedrich (Hrsg.): Draculas Vermächtnis. Technische Schriften, Leipzig, S. 225-242. Lazer, D./Pentland, A. S./Adamic, L./Aral, S./Barabasi, A. L./Brewer, D./ Chritakis, N./Contractor, N./Fowler, J./Gutmann, M./King, G./Macy, M./ Roy, D/ Jebara, T. (2009): Computational Social Science. In: Science, Vol. 323, No. 5915, S. 721-723. MacKenzie, Adrian (2006): Cutting Code: Software and Sociality, Oxford. Manovich, Lev (2009): How to Follow Global Digital Cultures: Cultural Analytics for Beginners. In: Becker, Konrad/Stalder, Felix (Hrsg.): Deep Search: The Politics of Search beyond Google. Edison, NJ, S. 198-212. Manovich, Lev (2012): Trending: The promises and the challenges of Big Social Data. In: Gold, Matthew K. (Hrsg.): Debates in the digital humanities. Minneapolis, MN, S. 460-475. Manovich, Lev (2014): Trending: Verheißungen und Herausforderungen der Big Social Data. In: Reichert, Ramón (Hrsg.): Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie, Bielefeld, S. 65-84. Pasquinelli, Matteo (2014): Der italienische Operaismo und die Informationsmaschine. In: Reichert, Ramón (Hrsg.): Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie, Bielefeld, S. 313-332. Reichert, Ramón (2014): Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie, Bielefeld. Rogers, Richard (2013): Digital Methods, Cambridge. Rusch, Gebhard (2011): Mediendynamik. Explorationen zur Theorie des Medienwandels. In: Navigationen, Jg. 1, H. 2007, S. 13-93. Schmidt, Siegfried J. (1994): Konstruktivismus in der Medienforschung: Konzepte, Kritiken, Konsequenzen. In: Merten, Klaus/ Schmidt, Siegfried J./Weischenberg, Siegfried (Hrsg.): Die Wirklichkeit der Medien, Opladen, S. 592-623. Solla Price, Derek de (1963): Little Science, Big Science, New York. van Dijck, José (2013): The Culture of Connectivity: A Critical History of Social Media, Oxford.

298 | REICHERT

Voß, Jakob (2013): Was sind eigentlich Daten? In: LIBREAS. Library Ideas, H. 23. Online unter: http://libreas.eu/ausgabe23/02voss/ (aufgerufen am 12.10.2017). Wardrip-Fruin, Noah (2011): Expressive Processing, London. Wagner, Kirsten (2006): Datenräume, Informationslandschaften, Wissensstädte. Zur Verräumlichung des Wissens und Denkens in der Computermoderne, Freiburg.

Die Soziologie in Zeiten von Big Data Angebote der Relationalen Soziologie M ARCO S CHMITT

F RAGEN AN DIE S OZIOLOGIE : G ESELLSCHAFTLICHE V ERÄNDERUNGSTENDENZEN UND DREI W IRKUNGSRICHTUNGEN FÜR DIE S OZIOLOGIE Die Digitalisierung wichtiger gesellschaftlicher Bereiche wie Wirtschaft, Wissenschaft und Politik, ihrer wichtigsten Organisationen und auch der eher lebensweltlichen Kommunikation haben eine Entwicklung angestoßen, mit der häufig weitreichende Veränderungen dieser Felder und der Gesellschaft insgesamt verbunden werden. Durch die Digitalisierung kommt es zu einer eher nebenläufigen Datafizierung aller im digitalen Raum aufscheinenden Ereignisse. Anders als in früheren Zeiten, als Datafizierung eine bewusste und häufig aufwendige Entscheidung zur Aufzeichnung und Quantifizierung von Ereignissen implizierte, ist die Verwandlung von Ereignissen in quantitativ zugängliche Daten nun der „Default“-Modus. Dies führt zu weitreichenden epistemologischen und methodologischen Fragen, die sich den Sozialwissenschaften unter dem Stichwort „Big Data“ stellen. Die Soziologie ist von diesen Veränderungen gleich in mehrfacher Hinsicht betroffen: Erstens untersucht sie als Wissenschaft gesellschaftliche Veränderungen. Sie muss sich also die Frage stellen, welche gesellschaftlichen Bereiche in welcher Weise durch diese Datafizierung verändert werden und was diese Entwicklungen für funktionale Teilbereiche, organisierte Sozialzusammenhänge und individuelle Personen bedeuten. Über diese wissenschaftlich-sachorientierte Ebene hinaus, werfen diese Entwicklungen jedoch nicht nur analytische Fragen auf, sondern betreffen zweitens auch die Art und Weise, wie man sozialwissen-

300 | S CHMITT

schaftlich arbeitet. Die Datafizierung kann aus Sicht der Sozialwissenschaften dabei in drei jeweils berechtigten Weisen interpretiert werden: 1. Als eine gleich mehrseitige Bedrohung der klassischen Sozialwissenschaf-

ten, die sowohl Zugangsweise, Methodik und Erklärungsmodelle in Frage stellt und darüber hinaus auch noch die wesentliche Expertise eher im Bereich der Informatik lokalisiert. 2. Als Möglichkeit und Notwendigkeit von Kritik, da es sich um weitreichende gesellschaftliche Veränderungen handelt, die weite Bereiche gesellschaftlichen Lebens betreffen bzw. in diese eindringen, in diesen neue Ungleichheiten erzeugen und alte verstärken sowie gesellschaftliche Transformationen auf der Basis technischer oder kommerzieller Erwägungen anstoßen. 3. Als eine große Chance für die Sozialwissenschaften, nicht nur große Datenmengen über eine Vielzahl von sozialen und vor allem kommunikativen Vorgängen zu erhalten, sondern auch Echtzeit- und Verlaufsdaten, die sonst nur bei teilnehmender Beobachtung anfallen. Gleichzeitig ergibt sich für die Sozialwissenschaften die Chance mit ihren Konzepten Einfluss auf die Gestaltung neuer Technologien zu nehmen wie nie zuvor. Diese möglichen Pfade der Interpretation des Verhältnisses zwischen den Entwicklungen, die mit dem Begriff „Big Data“ verbunden werden und der Zukunft der Sozialwissenschaften sollen im nächsten Abschnitt jeweils ausführlich diskutiert werden. Im Anschluss soll dann die Relationale Soziologie und insbesondere Konzepte eines ihrer herausragenden Vertreter, Harrison White, als eine mögliche theoretische und methodische Antworten auf die dargelegten Herausforderungen diskutiert werden. Whites Entwurf wirkt gerade in dieser Hinsicht sehr passend, weil er seine Konzepte nicht primär aufgrund begrifflicher Abgrenzungen entwickelt, sondern explizit in Auseinandersetzung mit Daten (Schmitt/Fuhse 2015: 3ff.). Abschließend wird es darum gehen, warum gerade die Relationale Soziologie in ihren unterschiedlichen Ausprägungen Big Data eher als Chance begreifen kann. Bedrohung Wenn man der Frage nachgeht, warum die Entwicklungen, die unter dem Schlagwort „Big Data“ subsumiert werden, eine Bedrohung für die klassische Sozialwissenschaft werden können, muss man sich einigen manchmal auch unverbundenen Diskussionssträngen nähern, die hier als Erklärungsproblematik,

R ELATIONALE S OZIOLOGIE UND B IG D ATA

| 301

Methodenproblematik und Kompetenzproblematik genauer erläutert werden sollen. Bei der Erklärungsproblematik geht es darum, dass die Umstellung auf Verfahren, die sich große Datenmengen zunutze machen, dazu führen kann, dass das grundlegende kausale Erklärungsmodell der Sozialwissenschaften in Frage gestellt wird. Nun ist dieses Modell sicher auch innerhalb der Soziologie umstritten, weil es etwa nach Ansicht der Systemtheorie in unzulässiger Weise vereinfacht und unentwirrbare Multikausalität ignoriert (Luhmann 1997: 449f.) oder weil die Prämissen auf denen es beruht angezweifelt werden. Dennoch sucht die große Mehrheit sozialwissenschaftlicher Arbeiten nach Ursachen und Wirkungen in sozialen Phänomenen mit einem Erklärungsmodell, das sich auf die Identifikation von Ursachen (etwa Situationsdeutungen und Präferenzen) und Wirkungen (etwa Handlungswahlen und Situationsveränderungen) fokussiert. Genau dieses Erklärungsmodell wird aber von Vorgehensweisen, die auf Mustererkennung und Data Mining setzen in Frage gestellt. Big Data, so einige Autoren (Anderson 2008; Cukier/Mayer-Schönberger 2013), impliziere eine Umstellung von Kausalität auf Korrelation und ein Ablassen von der Suche nach Erklärungen für diese Muster. Stellt man die Forschung auf diese Arten von Untersuchungen um, werden die Erklärungsmodelle, mit denen sich ein großer Teil der sozialwissenschaftlichen Theorie und auch ihrer empirischen Forschung beschäftigt, obsolet. Die Bedrohung betrifft hier einen Kern der Sozialwissenschaften und impliziert eine Umstellung auf explorative Verfahren, die nicht im Rahmen einer Hypothesenbestätigung verfahren. Dies trifft die Sozialwissenschaft nur bedingt, da es schon jetzt eine Gruppe von Schulen innerhalb des Feldes gibt, die einfache Kausalerklärungen und die damit verbundenen Methoden ablehnen. Es könnte daher nur zu einer Art externen Schock kommen, der zu einer Umstrukturierung des Feldes führt. Gesucht wird dann weniger nach theoretischen Mechanismen, die eine Korrelation zweier Variablen in eine ‚vorher/nachher‘-Struktur überführen und sagen Variable 1 führe Variable 2 herbei, sondern nach Theorien, die Vorschläge unterbreiten nach welcher Art von Mustern wir suchen sollen (Cukier/Schönberger 2013). Diese epistemologische Bedrohung ist verbunden mit einer methodischen Bedrohung der Sozialwissenschaften. Abbott (2014) macht darauf aufmerksam, dass die Sozialwissenschaften sich seit ihrem Bestehen eher mit der Knappheit als mit dem Überfluss (auch dem Überfluss oder der Knappheit von Daten) beschäftig haben und sich dies auch auf ihre methodischen Überlegungen ausgewirkt hat. Wenn Daten als knapp angesehen werden müssen, ist es notwendig, die Methoden so zu entwickeln, dass sie fehlende Werte und fehlende Repräsentativität kompensieren können. Daher muss die Signifikanz von Zusammenzu-

302 | S CHMITT

hängen überprüft werden, um auszuschließen, dass ein Muster zufällig entstanden sein könnte. Die technische Methodenentwicklung innerhalb der Sozialwissenschaften hat sich intensiv mit diesen Problemen befassen müssen, um den Schwierigkeiten der Datengewinnung Rechnung zu tragen. Wenn die Ausführungen zu Big Data wahr werden und in der Tat gibt es im Bereich der OnlineKommunikation und verfügbarer digitaler Archive Entwicklungen, die diese Annahmen zu bestätigen scheinen, dann müssten die sozialwissenschaftlichen Methoden in eine andere Richtung weiterentwickelt werden. Es muss dann mehr darum gehen, gerade die Selektivität der Methoden zu schärfen, um mit einem Überfluss an Daten zurecht zu kommen, die nicht im Zuge einer klar konzipierten Forschungsfrage generiert wurden. Dieses Thema der Bedeutung von „verschmutzten“ Daten für die Entwicklung von Instrumenten, Techniken und Forschungsmethoden verlangt nach einer grundlegenden Umstellung innerhalb der Sozialwissenschaften (siehe auch den Beitrag von Mützel, Saner und Unternährer in diesem Band). Diese Bedrohungen betreffen nicht nur weite Bereiche der gegenwärtigen Sozialwissenschaften, sowohl der Theorie als auch der empirischen Forschung, sondern sie implizieren auch einen Bedeutungsverlust ihrer zentralen Expertise. Dieser Bedeutungsverlust wird noch verstärkt durch die zunehmende Relevanz von informatischen Kenntnissen, Programmierfähigkeiten und Simulationserfahrungen. Die notwendigen Fähigkeiten, um von dem neuen Datenangebot zu profitieren bzw. seine Folgewirkungen zu verstehen (Passoth/Wehner 2013), sind unter SozialwissenschaftlerInnen nicht besonders weit verbreitet, außer in einigen besonderen Bereichen wie Social Simulation, Netzwerkforschung oder Online-Forschung. Nicht nur werden diese Fähigkeiten heute kaum in das Curriculum der Sozialwissenschaften aufgenommen, sie kommen auch in der Forschung selbst noch zu wenig zum Ausdruck. Was all diese Bedrohungen vereint, ist die Möglichkeit eines zunehmenden Bedeutungsverlustes der Sozialwissenschaften, wie wir sie heute kennen, für die weitere gesellschaftliche Entwicklung. Wenn die Informatik oder die kommerziellen Forschungsabteilungen der großen Internetunternehmen über umfassendere Daten und bessere Instrumente verfügen, um mit ihren großen, sich schnell wandelnden Datenbergen fertig zu werden, könnten die Sozialwissenschaften schnell den Anschluss verlieren und mit ihrer berechtigten Kritik (siehe unten) und ihren durchaus passenden Theorien, Fragestellungen und Hintergrundwissen aus dem Blickfeld auch der (wissenschaftlichen) Öffentlichkeit verschwinden. Ein solcher Relevanzverlust ist sicher eine disziplinäre Bedrohung und zwingt die Sozialwissenschaften dazu, sich offen in die Diskussion um Big Data einzuschalten, um diesen Bedrohungen zu begegnen.

R ELATIONALE S OZIOLOGIE UND B IG D ATA

| 303

Kritik Diesen Bedrohungen können die Sozialwissenschaften auf zwei Weisen begegnen, die beide nötig und geboten erscheinen, die sie jedoch sehr unterschiedlich im Feld positionieren. Naheliegend für die Sozialwissenschaften ist die Position der Kritik (boyd/Crawford 2012), die einerseits auf die zumindest derzeit weit überzogenen Ansprüche (Anderson 2008) der Big Data-OptimistInnen hinweisen und andererseits auf die gefährlichen gesellschaftlichen Entwicklungen, die mit diesen Veränderungen verbunden sein können. Dieser Ansatz geht in der Folge von drei Perspektiven aus, von der aus diese Kritik formuliert werden kann: (1) Die erste Perspektive besetzt eine theoretisch-methodische Kritik, die im Wesentlichen bemängelt, dass Theorielosigkeit bei der Suche nach Mustern in Datenbergen einfach keine realistische, weil keine zielführende Position ist. Die These vom Ende der Theorie macht schon deshalb wenig Sinn, weil auch in die Auswahl von Such- und Mining-Algorithmen theoretische Annahmen eingehen und weil man auch den unterschiedlichen Ausrichtungen, die bei der Generierung der Daten eine Rolle spielen, theoretisch nachgehen muss, um mit den Ergebnissen argumentieren zu können. So enthalten alle Social-Media-Plattformen Hintergrundannahmen, die ihre Datenproduktion leiten und ebenso spielen jeweils spezifische Nutzer- und Provider-Interessen eine selektive Rolle. Jede dieser Plattformen ist ein ganzes eigenes Ökosystem, dessen Daten letztlich auch stark von dessen technischer und sozialer Struktur geprägt werden, die jeweils sehr spezifisch sein kann. Ähnliches gilt auch für Archive, und auch die großen Datenmengen in der Hochenergiephysik werden durch theoretisch geleitete Versuchsaufbauten produziert. Diese Kritik ist auch deshalb erforderlich, weil suggeriert wird, dass Fragen von Repräsentativität und Validität keine Rolle mehr spielen (Tufekci 2014), obwohl man sich dieser Fragen je nach zu gewinnender Aussagequalität sehr wohl bewusst sein muss. Dabei bleibt das Argument einer verstärkt explorativen Orientierung der Forschung erhalten. Man kann allerdings derart immense Datenräume nicht theorielos betreten. Es wird vielmehr darum gehen, sehr viel stärker reflektieren zu müssen, wie Daten generiert werden (und welchen Einfluss dies auf die Daten hat) und wie Algorithmen und lernende Maschinen hierin Muster erkennen (und welchen Einfluss dies auf die erkannten Muster hat). Ohne eine solche theoretische Führung der explorativen Unternehmungen im Big-Data-Raum, kann man nicht wissen, wohin diese überhaupt führen sollen. (2) Dieser theoretischen und auch methodischen Kritik stellt sich eine gesellschaftliche Kritik an die Seite, die auf die gefährlichen Implikationen dieser Entwicklungen hinweist. Diese gesellschaftlichen Umwälzungen betreffen vor

304 | S CHMITT

allem die Kontrolle über die Daten und was mit ihnen gemacht werden kann bzw. darf. Immer mehr Informationen über Einzelpersonen können angesammelt und kombiniert werden, so dass man am Ende nicht mehr überblicken kann, was durch diese Kombinationen an zusätzlichem Wissen über das betroffene Individuum geschaffen werden kann. Schon heute stößt hier das bürgerliche Prinzip der Privatheit an seine Grenzen und das Recht auf informationelle Selbstbestimmung, wie es in Deutschland gesetzlich verankert ist, lässt sich immer schwerer gewährleisten (Martini 2014). Daher ist die Produktion von wiederverwendbaren Daten der wichtigste Geschäftszweig großer Internetanbieter, die mehr und mehr nicht nur wissen, was Personen kaufen, sondern auch mit wem sie sprechen, nach welchen Begriffen sie suchen und mit wem sie sich über was unterhalten. Es ist hier längst nicht mehr der Staat, der für den Einzelnen das größte Bedrohungspotenzial aufweist (auch wenn seine Organe ebenfalls von diesen Sammlungen profitieren), sondern kommerzielle Verwertungsinteressen, die ihm die Kontrolle über seine Informationen aus der Hand nehmen. Diese Entwicklungen, wie etwa das Ende von Privatheit oder die sich verflüchtigende Kontrolle über die eigenen Informationen, zu verfolgen, sie zu kritisieren und nach Lösungsmöglichkeiten zu suchen, stellt sicher auch weiterhin eine zentrale Aufgabe der Sozialwissenschaften dar. (3) Diese gesellschaftliche Kritik, die sich auf die makroskopischen Veränderungen durch Big Data konzentriert, wird dabei um eine techniksoziologische Kritik ergänzt, die sich stärker auf die unterschiedlichen unbeabsichtigten Nebenfolgen der Datentechnologien konzentrieren. Dieser Blick stellt sich auf einzelne Fälle von Nebenfolgen scharf, die nicht im Sinne gesamtgesellschaftlicher Entwicklungen erwartbar wären, sondern die eventuell unerwartet in kleineren Bereichen erfolgen. Ein Beispiel für solche Nebenfolgen ist das sogenannte Gaming von Algorithmen durch versierte AkteurInnen in spezifischen Feldern, wie man es etwa im Bereich der Suchmaschinen erlebt hat, wo sich eine ganze Industrie gebildet hat, deren einzige Aufgabe es ist, den Algorithmus der Suchmaschine dahingehend auszutricksen, dass sie die Webseite für relevanter hält, als sie eigentlich sein sollte. Solche reflexiven Entwicklungen sind für die techniksoziologische Kritik bezeichnend, die nicht einfach den dystopischen und utopischen Erzählungen im Feld folgt, sondern sich auf die nicht erwarteten Phänomene an den Rändern konzentriert (z. B. Halavais 2013). Chance Schließlich können die Sozialwissenschaften Big Data aber auch als Chance begreifen, als Chance, wie Latour es formuliert, endlich in Massen an die Daten zu

R ELATIONALE S OZIOLOGIE UND B IG D ATA

| 305

kommen, die vorher nur in kleinen Beobachtungskonstellationen erhoben werden konnten (Venturini/Jensen/Latour 2015). Hier wird die neue Qualität der Daten hervorgehoben, die nun massenhaft zur Verfügung stehen: Verlaufs- und Transaktionsdaten. Die Sozialwissenschaften mussten sehr lang mit knappen und schwer zugänglichen Daten haushalten und haben sich darauf konzentriert Methoden und Instrumente zu entwickeln, um mit diesen Beschränkungen umzugehen (Abbott 2014). Wenn diese Beschränkung fällt, ergibt sich endlich die Möglichkeit für eine prozessuale Soziologie, die nicht zu willkürlichen Zeitpunkten einzelne Daten erhebt oder nachträglich Prozesse aus den Erzählungen der AkteurInnen rekonstruieren muss, sondern soziale Prozesse in ihrer Entwicklung beobachten und verfolgen kann. Damit kann auch die Beobachtung großformatiger Entwicklungen eine Dichte erlangen, wie sie sonst nur durch teilnehmende Beobachtung zu erreichen ist. Gleichzeitig sollte es besser gelingen, die situativen Beeinflussungen sozialer Prozesse besser zu durchdringen. Die Möglichkeit makroskopische soziale Prozesse in Echtzeit zu beobachten, sollten die Sozialwissenschaften als große Chance begreifen. Eine weitere Chance ergibt sich durch die Möglichkeit auf der Grundlage dieser großen Datenbestände Simulationen zu konstruieren, die eine experimentelle Soziologie ermöglichen, ohne ethisch zweifelhafte Eingriffe in tatsächlich ablaufende soziale Prozesse vorzunehmen (anders als dies derzeit im Rahmen von Experimenten der Forschungsabteilungen der großen Internetkonzerne mit echten menschlichen Nutzern erfolgt, siehe die Debatte um Kramer/ Guillory/Hancock 2014). Diese Experimente basieren viel mehr auf den Daten echter NutzerInnen, simulieren aber deren Verhalten in experimentellen Fortschreibungen. Eine solche experimentelle Soziologie bietet der Forschung eine ungeahndete Bandbreite in der Erprobung von sozialen Theorien und Mechanismen und deren Wirkungsbedingungen. Schließlich ist die Chance aber eine bezüglich des Einflusses auf die weitere Entwicklung der Datengesellschaft, welche die Sozialwissenschaften ergreifen müssen. Nicht nur weil sich sonst ihre durchaus berechtigte Kritik im Sand verläuft, sondern auch, weil schon jetzt sozialwissenschaftliche Theorien und Erkenntnisse in die Konstruktion von technischen Plattformen einfließen, denen aber eine direkte Beteiligung der Sozialwissenschaften versagt ist. Dies hat dann häufig die Konsequenz, dass Anwendungsbedingungen für diese Theorien nicht ausreichend reflektiert werden. So begrenzte der Vorläufer von Facebook, Friendster, die Freundschaftslisten, weil sich aus soziologischen und sozialpsychologischen Studien ergeben hatte, dass es eine absolute Grenze für die Summe an Freundschaftsbeziehungen gibt (Garcia/Mavrodiev/Schweitzer 2013). Dabei wurde jedoch vergessen, dass soziale Konzepte in neuen medialen Umgebungen

306 | S CHMITT

ihre Bedeutung, ihre Identität verändern können und man soziale Netzwerke gerade dafür nutzen kann, mit mehr Personen in einem loseren Kontakt zu bleiben als nach dem klassischen Konzept von Freundschaft. Da es hier vor allem um Daten aus Kommunikationsprozessen geht, können solche Beschränkungen auch in Algorithmen und Data-Mining-Ansätze eingehen bzw. es wäre möglich, deren Selektivität stärker sozialwissenschaftlich zu konturieren. Die Beteiligung an der Gestaltung der Datengesellschaft ist eine Chance für die Sozialwissenschaften, da es neue Kooperationsmöglichkeiten zwischen Sozial- und Naturwissenschaften möglich macht, die gesellschaftliche Relevanz der Sozialwissenschaften stärken kann und weil sie den Forschungsraum der sozialwissenschaftlichen Disziplinen in einer nie gekannten Weise erweitert. Es ist daher von zentraler Bedeutung für die Zukunft der Sozialwissenschaften, diese Chance zu ergreifen und sich in einer Weise neu auszurichten, die dies theoretisch wie methodisch möglich macht.

D ER R ELATIONALE ANSATZ UND SEINE M ÖGLICHKEITEN AUF DIE H ERAUSFORDERUNG DURCH B IG D ATA ZU REAGIEREN Wenn man Bedrohung, Kritik und Chance jeweils als Herausforderungen für die gegenwärtige Sozialwissenschaften begreift, muss man Antworten finden, um die Bedrohung zu minimieren, kritische Reflexion zu leisten und die eigene Relevanz zu erhalten oder sogar auszubauen. Die Relationale Soziologie beinhaltet eine Form der Antwort auf die oben geschilderten Herausforderungen, die einen Schwerpunkt auf die Chancen der Entwicklungen im Umfeld von „Big Data“ setzen kann. Dies bedeutet nicht die Bedrohung zu ignorieren, eventuell jedoch ihr offensiver begegnen zu können. Es bedeutet auch nicht, keine Kritik an den Entwicklungen zu üben, sondern bietet stattdessen einen sozialwissenschaftlichen und theoretisch begründeten Umgang mit den beobachtbaren gesellschaftlichen Problemen an. Die Konzentration auf „Big Data“ als Chance entspringt zumindest drei allgemeinen Ausgangspunkten der Relationalen Soziologie, residiert aber vor allem in den in ihr entwickelten theoretischen Konzepten, deren Anlage sie für explorative quantitative Analysen, große Datenmengen und transaktionelle Daten besonders geeignet erscheinen lassen: (1) Wenn man zunächst auf der allgemeinen, sozusagen der paradigmatischen Ebene argumentiert, wie sie von Emirbayer (1997) und im deutschen Sprachraum von Fuhse und Mützel (2010) eingeführt worden ist, dann erkennt man, dass eine relationale Perspektive gut zu den Anforderungen des Umgangs

R ELATIONALE S OZIOLOGIE UND B IG D ATA

| 307

mit großen nicht wohldefinierten Datenmengen und einer eher explorativen als überprüfenden Analyse passen müsste. Da ist zunächst die Differenz bezüglich der Ontologie des Sozialen. Hier geht es um die Abgrenzungen zu essentialistischen Ansätzen, die davon ausgehen, dass es Individuen, Gesellschaften oder Systeme mit bestimmten gegebenen Eigenschaften gibt. Stattdessen gehen relationale Ansätze davon aus, dass jegliche sozial bedeutsame Entitäten erst in relationalen Prozessen zu eben solchen werden (Emirbayer 1997). Eine solche Erzeugungsperspektive sozialer Entitäten passt gut zu einem explorativen, suchenden Vorgehen und setzt ein Verfügen über Prozessdaten geradezu voraus. (2) Man sieht dies auch sehr gut daran, dass sich die AutorInnen aus diesem Feld stark im Bereich der Big Data-Diskussionen engagieren. So gab es beispielsweise Sonderausgaben in den Zeitschriften Poetics (Volume 41, Issue 6) und Big Data & Society (Big Data & Society, Volume 2, Issue 2) mit einem deutlichen Schwerpunkt auf relationale Ansätze. Dabei spielt die Integration neuer computerbasierter Methoden eine große Rolle. Insbesondere die Methode des Topic Modelling (Mohr/Bogdanov 2013) erhält dabei besondere Aufmerksamkeit, vor allem um dann die Netzwerke institutioneller Rhetoriken nachzuzeichnen, die nun die Beziehungsnetze von Akteuren oder Ereignissen komplementieren und damit die Dualität von Kultur und Struktur in relationalen Verhältnissen abbilden. Vertreter des Ansatzes im weitesten Sinne scheinen sehr geneigt, die neuen Entwicklungen der Digitalisierung, computerbasierter Methoden und Big Data anzunehmen und als Chance zu begreifen. (3) Ein weiterer allgemeiner Punkt scheint im grundsätzlich anderen Verständnis von der Kombinierbarkeit quantitativer und qualitativer Ansätze zu liegen, der schon der Netzwerkanalyse zugrunde liegt (Belotti 2014) und mit der kulturellen Wende der Netzwerkforschung zur Relationalen Soziologie noch ausgebaut wird. Es gibt hier letztlich keinen unüberbrückbaren Unterschied in der Epistemologie oder den Prämissen der Forschung und daher können Instrumente und Konzepte beide Aspekte integrieren. Im Folgenden sollen nun einige spezifische Konzepte aus der von Harrison White entwickelten Theorie von Identität und Kontrolle (TIK) (White 1992, 2008; sowie für eine deutschsprachige Einführung Schmitt/Fuhse 2015) vorgestellt werden, die den Ansatz der Relationalen Soziologie ausgehend von der soziologischen Netzwerkanalyse theoretisch unterfüttert, um konzeptuelle Beispiele dafür zu entwickeln, warum die Relationale Soziologie die Datengesellschaft unter Forschungsgesichtspunkten vor allem als Chance begreift und kaum tiefergehende Bedrohungsgefühle entwickelt. Die Konzepte sind im Einzelnen Identität, Netzwerkdomäne, Switching, Stil und Kontrollregime. Sie sollen jeweils kurz vorgestellt und dann auf die BigData-Herausforderung bezogen werden.

308 | S CHMITT

Identität Die Frage nach den grundlegenden Untersuchungseinheiten sozialwissenschaftlicher Forschung und ihrem Zustandekommen stellt sich unter den Bedingungen großer, nicht primär für Forschungszwecke generierter Daten mit erhöhter Nachdrücklichkeit. So ist es zum Beispiel wichtig, nicht im Voraus, sondern unter Bezug auf bspw. Social Media-Daten zu entscheiden, ob es sich um Daten von NutzerInnen als reale Personen handelt oder von Bots. Das erste Konzept, das White einführt, um die relativ schwach theoretisierte Netzwerkforschung auf ein neues, stärker theoretisch fundiertes Gerüst zu stellen, ist sein weiter Begriff von Identität, der sich nicht sofort auf Personen als den Grundeinheiten des Sozialen fokussiert, sondern ein relativ flexibles Konzept für die Beschreibung von Netzwerkknoten aufbauen will, das einerseits ihre Positionsabhängigkeit festhalten will, diese aber andererseits um die Rolle von Erzählungen und dem dynamischen Wechsel von Positionen erweitern möchte. Dazu entwickelt er ein gestuftes Modell von Identitäten, das bei Positionen in bestimmbaren Netzwerken startet (einfachste Identitätsform), diese durch typisierte Erzählungen transportabel macht (erste Komlexitätssteigerung), Verteilungen von Positionen durch unterschiedliche Netzwerke folgt (zweite Komplexitätssteigerung), die ebenfalls in transportable Erzählungen verpackt werden können (dritte Komplexitätssteigerung) und schließlich in übergreifende Formen integriert werden können (letzte Komplexitätssteigerung, die zur vollen Identität von Personen führt, die für White (1992, 2008) nur in seinem Begriff des Stils abgebildet werden können). Identitäten sind für White unterschiedlich komplexe Zurechnungspunkte in sozialen Prozessen, die analytisch zu Knoten in Netzwerken werden können. Damit sind für ihn auch nicht nur Akteure unterschiedlicher Größenordnungen solche Knoten, sondern etwa auch Ereignisse und auch Konstellationen, die eine eigene soziale Identität gewinnen, ohne in einem strengen Sinne Akteure zu sein. Zu seinem Identitätsbegriff gehört als Gegenstück der Kontrollbegriff, der sich einerseits darauf bezieht, dass sich solche Identität mit ihrer Umgebung verstricken, um Positionen einzunehmen und zu erhalten, aber andererseits dann auch von diesen Verstrickungen gehalten und kontrolliert werden. Ohne Kontrolle keine Identitäten, aber auch ohne Identitäten keine Kontrolle. Dieser Identitätsbegriff soll für den von White vorgelegten Theorieentwurf verschiedenen Funktionen erfüllen: Erstens verlässt er den Pfad der Netzwerkforschung verschiedene Entitäten als Knoten in sozialen Netzwerken einfach vorauszusetzen, zweitens erweitert er die Möglichkeiten flexibel mit dem Konzept des Knotens und damit auch des Netzwerks umzugehen, drittens wird

R ELATIONALE S OZIOLOGIE UND B IG D ATA

| 309

der Knoten relational, also tatsächlich als Knoten im Sinne der Graphentheorie, als Kreuzung von Kanten, interpretiert und konzipiert und viertens wird auch die Seite der Bedeutung, des Sinns hinter diesen Knoten im Sinne der transportablen Erzählungen über die Knoten und ihre Verbindungen miteinbezogen. Diese Leistungen markieren eine deutliche Veränderung gegenüber der klassischen Sozialen Netzwerkforschung (SNA) und sind für die Etablierung einer Relationalen Soziologie durchaus wichtig. Ein solches Konzept des Knotens in Netzwerken bietet einen hervorragenden Ausgangspunkt, um die Entwicklungen im Bereich Big Data als Chance wahrzunehmen, weil es darauf aufmerksam macht, dass man es mit sehr unterschiedlichen Identitäten in den Daten zu tun bekommen kann. Außerdem kann dieser Identitätsbegriff auch als Reflexionsversicherung dienen, dass es sich jeweils um sehr spezifische Netzwerke handelt, in denen bestimmte Daten produziert werden und man die Interpretationen dann auch auf spezifische Identitätsfacetten beschränken muss. Schließlich kann man einen sehr viel stärker explorativen Fokus auf die Daten werfen, da man nicht davon ausgehen muss, dass man es mit klar definierten Individuen mit einer typischen Ausstattung zu tun hat. Das Identitätskonzept verkörpert damit sehr stark die grundlegende Ausrichtung eines relationalen Ansatzes, der die Theorie wie die empirische Forschung sehr offen für Data-Mining-Verfahren machen, die Big-Data-Ressourcen konstruktiv nutzen können, ohne in eine Theorielosigkeit des Suchens zu verfallen, da man trotzdem noch über eine flexible und auch interpretierbare Suchstrategie verfügt. Als Beispiel wie man in großen Datenbeständen mit dem sehr einfachen Identitätskonzept arbeiten könnte, eignen sich Methoden zur Identifikation von Trollen, also Nutzern deren Ziel es ist die Kommunikation zu stören. Man würde den eingespielten Pfad verlassen, hinter allen Beteiligten einer Diskussion auf einer Social Media-Plattform oder auf Blogs vollständige Individuen zu vermuten und die Konstellation von Beitragsschreibern stattdessen als Konstellation stark vereinfachter situativer Identitäten interpretieren, um so dann auf einer übergeordneten Ebene auch wieder die Identität unterschiedlicher solcher Konstellationen selbst zu untersuchen. Damit wäre es etwa möglich Untersuchungen anzuleiten, die Trolling und Trolle in solchen Diskussionen identifizieren können (Herring et al. 2002; Karppi 2013) und gleichzeitig auch die Kommunikationsräume sichtbar machen, in denen diese größeren disruptiven Einfluss ausüben.

310 | S CHMITT

Netdom Diese Identitäten können sich nun aber auf sehr unterschiedliche Arten sozialer Formationen beziehen. Neben dem Identitätsbegriff kommen hier auch Begriffe ins Spiel, die insbesondere auf Beziehungskonstellationen scharf stellen. Solche Konstellationen machen eine nicht unbedeutende Masse der neuen Datenlandschaft aus, die vornehmlich von sogenannten „sozialen Netzwerken“, also Vernetzungsplattformen produziert werden. Der Begriff der Netzwerkdomäne fokussiert auf den Aspekt der Konstellation. Er wird allerdings erst später entwickelt (Mische/White 1998; White 1995, 2008) und unternimmt den Versuch, dem Konzept der Identität ein gleichermaßen flexibles Konzept auf der Netzwerkebene zur Seite zu stellen. Klaffte in der ersten Auflage von Identity and Control (White 1992) zwischen den kleinen klar geordneten Disziplinen und den großformatigen sozialen Institutionen noch eine Lücke, die durch den Netzwerkbegriff kaum gefüllt wurde, so stellen die Netzwerkdomänen eine Rahmen dar, der ebenfalls unterschiedliche Größenordnungen, dynamische Gesichtspunkte und die Bedeutungsebene integrieren kann. Eine Netzwerkdomäne wird dabei als sozialer Prozess konzipiert, indem strukturierte Beziehungen und typisierte Bedeutungen und Zuweisungsregeln für Bedeutungen zusammen fallen und so einen sozialen Raum aufspannen, der dem Feldkonzept von Bourdieu (Bourdieu/Wacquant 1996) ähnelt, aber nicht alle Bedingungen replizieren muss. Nicht jede Netzwerkdomäne ist demnach als ein Wettbewerb um knappe Ressourcen (Kapitalien) organisiert, sondern kann sich auch um andere Domänenregeln herum aufbauen. So etwa in den von White und Mische vorgestellten „Publics“ (Mische/White 1998), die eher einen möglichst freien Themenwechsel ermöglichen sollen und daher möglichst frei von wettbewerblichen Strukturen bleiben. Auch die Klarheit der Ordnung solcher Netzwerkdomänen ist eher eine Stilfrage (s.u.), d.h. es kann sehr klar strukturierte Netzwerkdomänen geben und solche, die mit nur sehr wenig Strukturen und Bedeutungszuweisungen auskommen. Die Funktion des Konzepts ist jener des Identitätsbegriffs sehr ähnlich. Es liefert einen flexiblen, skalierbaren konzeptuellen Rahmen, der es dennoch schafft, die Verschränkung von Bedeutungs- und Struktureben hervorzuheben (wobei die analytische Trennung erhalten bleibt). Dabei wird jedoch nicht die Identität der Netzwerkdomäne hervorgehoben, denn dafür gibt es ja schon einen Begriff, sondern es geht um die prozessuale Form, in der sich sozialräumliche Differenzierungen entwickeln. Das Konzept der Netzwerkdomänen lässt sich benutzen, um soziale Differenzierung in transaktionalen Echtzeitdaten nachzuverfolgen, ohne mit sehr eng

R ELATIONALE S OZIOLOGIE UND B IG D ATA

| 311

formulierten Annahmen starten zu müssen. Dennoch ist das Konzept in der Lage einen Selektionsfilter zu bieten, der tatsächlich auf Differenzierung scharf zu stellen (Verdichtung der Beziehungsnetzwerke, bei gleichzeitiger Dominanz unterschiedlicher Bedeutungszuweisungen) in der Lage ist, ohne vorschnell auf den Differenzierungsprozess der Arbeitsteilung zurück zu kommen, wie es in vielen anderen soziologischen Theorien geschieht. Sucht man nach Beispielen für den Einsatz von Netzwerkdomänen kann man sich die Polarisierungstendenzen in Online-Platformen ansehen, die diese häufig als Echo-Kammern darstellen, die keine Öffentlichkeit mehr herstellen können (Colleoni/Rozza/Arvidsson 2014; Flaxman/Goel/Rao 2016). Hier besteht die Möglichkeit, diese Kammern einerseits als eigene Netzwerkdomänen zu konzipieren, aber gleichzeitig auch zu beobachten, ob Netzwerkdomänen entstehen, in denen es auch zum Austausch zwischen solchen sozialen Räumen kommt, ganz im Sinne von Misches (2008) Studie zu den parteiischen Öffentlichkeiten in den brasilianischen Studentenprotesten. Switching Eine besondere Herausforderung für die Sozialwissenschaften besteht darin, ihre grundlegenden Konzepte an die nun anfallenden Transaktionsdaten anzupassen. In diese Richtung geht der, ebenfalls nach der ersten Ausgabe von Identity & Control (White 1992) von White eingeführte, Begriff des „switchings“ (White 1995, 2008). Mit diesem Begriff versucht er, das dynamische Element innerhalb der Theorie von Identität und Kontrolle nochmal zu erhöhen und den ständigen Kontextwechsel in sozialen Prozessen zu berücksichtigen, die in der Kommunikation so schwerelos erfolgen können. Mit einem solchen Wechsel, bewegen sich Identitäten zwischen Netzwerkdomänen und verändern sowohl Identitätsfacetten wie auch Beziehungs- und Bedeutungsstrukturen. Sie schaffen dabei aber auch eine Verbindung zwischen diesen Domänen und Identitäten, da sie sich nicht nur zwischen diesen Netzwerkdomänen bewegen, sondern eben diese Wechsel in einer dauerhaften, einer komplexen Identität zusammen führen müssen. Man kann daher ebenso gut von „stitching“ sprechen (Schmitt/Fuhse 2015: 137); dadurch wandeln sich Bedeutungen und es werden neue Zwischenräume erzeugt, in denen neue Identitäten entstehen können. Da diese Wechsel sprachlich angezeigt werden können, ist die Einbindung der Sprache in soziologische Theorie daher für White von immenser Bedeutung und stellt letztlich ein Desideratum seiner Theoriearbeit dar. Mit dem Switching-Konzept wird es aber möglich, Kommunikation im Hinblick auf diese Veränderungen zu untersuchen und

312 | S CHMITT

der Veränderung von Beziehungs- und Bedeutungsstrukturen in ablaufenden sozialen Prozessen nachzuverfolgen. Im Hinblick auf die Big Data-Diskussion zeigt sich schnell, dass dieses Konzept der kommunikativen Kontextwechsel eine immense Produktivität entfalten kann. Echtzeitdaten erlauben es, diese Wechsel zu verfolgen und besser auf die jeweiligen Kontexte zu schließen. Dies schützt zugleich auch vor Überinterpretationen, da es ermöglicht, Daten auf die Kontexte zu beziehen, in denen sie entstanden sind und Wechsel dieser Kontexte zu erkennen und in die Analyse miteinzubeziehen. Der Begriff zeigt deutlich, dass relationale Theoriekonzepte in der Lage sind, einen bedeutenden Beitrag bei der Analyse massenhaft anfallender sozialer Echtzeitdaten zu entfalten, weil sie Konzepte liefern können, die auch mit Daten in diesen Umfängen arbeiten können und explorierte Strukturen interpretieren helfen. Das Switching-Konzept kann für eine ganze Reihe von Untersuchungen ein Instrument liefern, um in großen Datenmengen prozessuale Interpunktionen, also Situationswechsel zu beobachten. Dies gilt sowohl für großformatige Textanalysen, als auch für Diskussionen und Konversationen auf Social MediaPlattformen (Stempfhuber/Wagner 2018). Stil Die Verarbeitung von Big Data zwingt die Sozialwissenschaften, skalierbare Konzepte und darauf aufbauende Instrumente zu entwickeln, also Konzepte, die dabei helfen können, strukturelle Muster in unterschiedlichen Aggregationszuständen von Daten aufzuspüren. Wie wir schon gesehen haben, hat auch der relationale Ansatz von White eine Präferenz für flexible skalierungsfähige Konzepte. Dies wird noch deutlicher bei jenen Konzepten, die sich expliziter mit generalisierten Strukturkonzepten befassen. Bei den komplexen Identitätskonzepten waren wir schon auf den Stilbegriff gestoßen, der eben diese komplexe Verteilung von Kontextwechseln und Bedeutungsproduktionen abbilden soll. White (1992, 2008) bestimmt eine Reihe von Merkmalen, die für soziale Stile einschlägig sind. Erstens beziehen sich Stile auf selbstähnliche Verteilungsmuster in Beziehungsstrukturen, Ereignisketten oder Zuschreibungsformen, zweitens beziehen sie sich auf eine soziale Sensibilität spezifischer Beobachter, die diese Muster als Signale für Identitäten lesen können und schließlich kann dieses Muster in unterschiedlichen Größenordnungen beobachtet werden. Stile repräsentieren soziale Texturen, also soziales Geschehen in Echtzeit, das durch Beobachter verdichtet und interpretiert wird. Es handelt sich also einerseits um einen spezifisch explorativ einsetzbaren Begriff, der aber andererseits in der Lage ist, Bedeu-

R ELATIONALE S OZIOLOGIE UND B IG D ATA

| 313

tungskonstruktion und Strukturproduktion gemeinsam zu untersuchen. Das Verhältnis des Stilbegriffs zum Begriff der Identität ist kompliziert, denn einerseits ist ein Stil eine Textur, die eine komplexe Identität signalisiert, dann ist es aber auch diese komplexe Form von Identität selbst, da sie aus dieser Textur mit all ihren Widersprüchen aufgebaut ist. Dennoch fallen die beiden Konzepte nicht zusammen, denn Identität fokussiert auf die Einheitsbildung, während der Stilbegriff auf die Verteilung, die Textur scharf stellt. Auch das Verhältnis zum Institutionenbegriff, der stark dem des Neo-Institutionalismus ähnelt (DiMaggio/Powell 1991) ist sehr speziell, da White von einer Dualität von Institution und Stil ausgeht, in der Institutionen dominante wertbezogene Modelle und Rhetoriken des Sozialen darstellen, an denen sich Identitäten orientieren und dabei Texturen erzeugen, die diesen Modellen nicht eins zu eins entsprechen, sondern in dieser Textur selbst wieder auf andere durchaus widersprüchliche Identitäten hinweisen. Kommt es zu einem „interlock“, einer wechselseitigen Verstärkung von Modell und Textur, bilden sich sehr stabile soziale Einheiten und Strukturen (Mohr/White 2008). Der Stilbegriff scheint geeignet, die Chance, die sich mit der Verfügbarkeit von großen Echtzeitdatenquellen sozialer Prozesse eröffnen, in einer Weise zu ergreifen, die großes Potenzial für die Sozialwissenschaften aufweist. Explorative Datenanalyseverfahren stoßen auf die von White so benannten Texturen des Sozialen, ob diese aber auch als soziale Stile wahrgenommen werden, muss sich erst zeigen. Das Konzept des Stils macht hier darauf aufmerksam, dass soziale Texturen auf veränderte Modelle reagieren, so dass der Hinweis auf vorher nicht bekannte Muster auch reflexive Anpassungen veranlassen kann, die dann zu neuen Texturen werden und eventuell neue Stile hervorbringen. Insgesamt entspricht der von White vorgeschlagene Stilbegriff schon sehr weitgehend den Voraussetzungen, die bei der Analyse im Bereich von Big Data notwendig sind, kombiniert diese Erstellung von Profilen zusammenhängender Verteilungen jedoch mit der Kraft der verdichtenden Bedeutungszuschreibung von Beobachtern in sozialen Prozessen, die erst identifizierbares soziales Geschehen ausmachen. Wenn man sich schon aktuell ablaufende Big Data-Analysen anschaut, sieht man fast überall Hinweise auf einen impliziten Gebrauch stilähnlicher Konzepte. Die Analyse von in Profilen zusammengefassten Datenpaketen dominieren in Bereichen wie der Scientometrie (Thijs/Glänzel 2007) oder Online-Nutzeranalysen (Pennachiotti/Popescu 2011). Die Stil-Analyse kann dieses Vorgehen klären und transparenter machen, ohne zu vergessen, dass die folgenden Typisierungen erneut stilbildenden Einfluss gewinnen können.

314 | S CHMITT

Kontrollregime Schließlich geht es in Big Data-Analysen jedoch auch darum, Aussagen für die höchsten Aggregationsebenen des Sozialen aufzuspüren. Für die Sozialwissenschaften heißt dies, ihre besondere kritische Reflexionsaufgabe wahrzunehmen. Während es schon immer eine Schwierigkeit relationaler und auch schon klassisch netzwerkorientierter Soziologie war, die Makro-Ebene des Sozialen zu erreichen, trennt White dafür in der zweiten Auflage von Identity & Control (White 2008) den Institutionenbegriff (der wie schon erwähnt stark an den NeoInstitutionalismus erinnert) von seinem Konzept der Kontrollregime. Während Kontrolle aus dem Kontrollstreben von Identitäten, ihrer Suche nach Sicherheit, resultiert und Identitäten miteinander verstrickt, geht es in Kontrollregimen um „Kontrolle von Kontrolle“ (White 2008: 220). Die Kontrollversuche werden kanalisiert, indem ihnen bestimmte Wege und Formen im Zusammenhang mit dominanten Werten angeboten werden. Damit ähnelt der Begriff Webers (1980) Wertsphären, Luhmanns (1997) Funktionssystemen und Bourdieus (1987) Feldern. Es geht um eine relativ weitgehende Vorstrukturierung möglicher Relationen, die über die Implikationen des Konzepts der Netzwerkdomänen hinaus geht und vor allem in einer wirklich großflächigen Vorstrukturierung resultiert. White gibt als Beispiele Kastenwesen und Klientelismus an. Explizit beschreiben solche Kontrollregime eine wertbezogene Programmierung soziale Räume, die resultierende Netzwerke formt. Jedes Kontrollregime beschreibt somit ein Programm für die Vernetzung von Identitäten innerhalb einer Wertsphäre. Dies macht einerseits Netzwerkformen in bestimmten gesellschaftlichen Bereichen erwartbar und andererseits ermöglicht es die empirische Analyse von gesellschaftlichen Programmen für soziale Gebilde. Dass der Begriff der Kontrollregime so explizit auf den Begriff der Programmierung setzt, macht ihn empfänglich für die informatisch geprägte Ausrichtung der Forschung auf der Grundlage des Big Data-Paradigmas und den Ansätzen einer „Computational Social Science“ (Lazer et al. 2009; Gilbert 2010). Die Möglichkeit solche Programme einerseits in großen Datensätzen aufzuspüren und andererseits auch vorliegende Programmbeschreibungen zu nutzen, um sehen zu können, wie Netzwerke tatsächlich von ihnen organisiert und vorgeprägt werden können, lassen die Chance einer Verbindung von Big Data und Relationaler Soziologie deutlich hervortreten, um die Datengesellschaft nicht nur besser zu verstehen, sondern auch kritisch sozialwissenschaftlich zu beeinflussen. Diese Art von Forschung ist durchaus verbreitet in aktueller relationaler Forschung mit computerbasierten Methoden. Wenn man sich etwa die neueren Analysen von Mohr, Wagner-Pacifici und Breiger (2015) zu „computa-

R ELATIONALE S OZIOLOGIE UND B IG D ATA

| 315

tional hermeneutics“ ansieht, dann kann man leicht erkennen, dass große Textbestände, wie etwa alle US-National-Security-Strategy-Berichte daraufhin analysiert werden können, welche Programmierungen der US-amerikanischen Sicherheitspolitik darin zum Ausdruck kommen. Gleichzeitig geht es jedoch auch darum besser zu verstehen, inwieweit die Datengesellschaft dazu neigt, diese Programme in tatsächliche algorithmische Formen zu gießen und ihnen damit eine nochmals andere und vielleicht deutlich stärkere Wirkmächtigkeit zuerkennt.

W ARUM MAN MIT DER R ELATIONALEN S OZIOLOGIE B IG D ATA ALS C HANCE BEGREIFEN KANN ? Was diese Konzepte aus Whites Oeuvre zeigen, die zugegebenermaßen nicht die gesamte Bandbreite des aktuell als Relationale Soziologie bezeichneten Forschungsprogramms abdecken, ist, dass die Art und Weise in der relationale Konzepte und relationale Forschungsfragen konstruiert sind, die Entwicklungen, die zusammenfassend mit dem Begriffen Big Data und Datengesellschaft umschrieben werden können, als große Chance begreifen und auch nutzen können. Dies rührt erstens daher, dass diese Konzepte sich weniger an den traditionellen sozialwissenschaftlichen Methoden und deren inneren Abgrenzungskämpfen (quantitativ vs. qualitativ, positivistisch vs. interpretativ) orientieren, sondern diese zu transzendieren versuchen. Dies geschieht im Zuge der kulturellen Wende der Netzwerkforschung (Schmitt 2009; Fuhse/Mützel 2010) durch die explizite Verknüpfung der strukturellen und der kulturellen Ebene in der Form eines „interlock“-Verhältnisses, ohne dies in ein Henne-und-Ei-Problem zu verwandeln. Für die Big-Data-Debatte ist dabei besonders relevant, dass sich die computergestützten Methoden auf alle relevanten Bereiche sozialer Daten beziehen können und kreative Wege finden müssen, um nach aufeinander bezogenen Mustern zu suchen. Zweitens sind die meisten Konzepte flexibel einsetzbar und skalieren gut, d.h. sie sind in der Lage kleine wie große Datenumfänge gleichermaßen gut zu bewältigen. Dies gilt insbesondere für Whites Theorievorschlag, der die Skalierbarkeit von Konzepten wie Identität, Netdom, Stil und Kontrollregime betont. Man kann es aber auch in anderen populären relationalen Konzepten wie etwa dem Feldkonzept, vor allem in seiner aktuellen Weiterentwicklung durch Fligstein, McAdam und Martin (Martin 2011; Fligstein/McAdam 2012) wahrnehmen. Auch hier ist eines der Markenzeichen des Konzepts die Verschiebbarkeit seiner Anwendungszonen von höher aggregierten zu wenig aggregierten sozialen

316 | S CHMITT

Formationen. Der Umgang mit großen Datenmengen erfordert geradezu notwendigerweise Konzepte, die dieses Merkmal aufweisen. Drittens sind relationale Konzepte sehr gut in der Lage ein exploratives Vorgehen gegenüber einem überprüfenden Vorgehen zu unterstützen, da sie nicht davon ausgehen, dass sich Modelle des Sozialen eins zu eins in tatsächlichen sozialen Prozessen wiederfinden lassen und sich durch ihre dynamisch-reflexive Konstitution ohnehin ständig wandeln. Die Konzepte sind vielmehr darauf ausgerichtet, Strukturen aufzuspüren und in ihren Wechselwirkungen mit der sozialen Bedeutungskonstruktionen zu analysieren. Dies zeigt sich schon in den interessanten Untersuchungen, die momentan noch häufig im Bereich der Textanalyse (beispielhaft seien hier noch einmal Mohr/Wagner-Pacifi/Breiger 2015 erwähnt) erfolgen und Bedeutungsstrukturen mit anderen Strukturen zu verbinden suchen. Wenn wir erneut auf die drei Arten der Herausforderung der Sozialwissenschaften durch Big Data zurückkommen, dann fällt auf, dass es kaum eine Neigung innerhalb der Relationalen Soziologie gibt, hierin eine Bedrohung zu erkennen, da es ihr sowohl theoretisch als auch methodisch leicht fällt, sich anschluss- und mehrwertfähig aufzustellen. Innerhalb der sozialwissenschaftlichen Disziplinen erwarten diese Ansätze hierdurch eher einen Relevanzgewinn und eine Verbesserung der eigenen Position im Verhältnis zu den momentan stärker den Mainstream repräsentierenden Ansätzen. Daher ist auch verständlich, dass es hier kaum grundsätzliche Kritik an der Datengesellschaft gibt. Dennoch ermöglichen relationale Ansätze eine solche Kritik, da sie die Möglichkeit der Theorielosigkeit im Finden von Mustern grundsätzlich ebenfalls verneinen und das reflexive Moment der Schaffung von neuen sozialen Identitäten durch die Konzentration auf neuartige Muster betonen. Sie können sehen, dass sich solche Identitäten auch in neuen Kommunikationstechnologien als Muster durchsetzen können. Schließlich konnte gezeigt werden, dass die gesamte Anlage Relationaler Ansätze, wie auch einzelne ihrer Konzepte geeignet erscheinen, die Verwandlung in eine Datengesellschaft als Chance zu begreifen und Angebote machen können, die es den Sozialwissenschaften erlauben, konstruktiv mit den veränderten Forschungsbedingungen umzugehen und sie nachhaltig relevant zu halten. Gleichzeitig bieten diese Ansätze auch die Möglichkeit „Big Data“ als soziales Phänomen eines umfassenden gesellschaftlichen Wandels in den Blick zu nehmen, der in vielen Zonen zu unterschiedlichen Auswirkungen führt und bietet Konzepte an, dies in seinen mannigfaltigen Formen in den Blick zu nehmen.

R ELATIONALE S OZIOLOGIE UND B IG D ATA

| 317

L ITERATUR Abbott, Andrew (2014): The problem of excess. In: Sociological Theory, Vol. 32, No. 1, S. 1-26. Anderson, Chris (2008): The end of theory: The data deluge makes the scientific method obsolete. In: Wired magazine, Vol. 16, No. 7, S. 16-07. Bellotti, Elisa (2014): Qualitative networks: Mixed methods in sociological research, London. Bourdieu, Pierre (1987): Sozialer Sinn, Frankfurt am Main. Bourdieu, Pierre/Wacquant, Luïc (1996): Reflexive Anthropologie, Frankfurt am Main. boyd, danah/Crawford, Kate (2012): Critical Questions for Big Data. Provocations for a cultural, technological, and scholarly phenomenon. In: Information, Communication & Society, Vol. 15, No. 5, S. 662-679. Colleoni, Elanor/Rozza, Alessandro/Arvidsson, Adam (2014): Echo chamber or public sphere? Predicting political orientation and measuring political homophily in Twitter using big data. In: Journal of Communication, Vol. 64, No. 2, S. 317-332. DiMaggio, Paul J./Powell, Walter W. (Hrsg.) (1991): The new institutionalism in organizational analysis, Chicago. Emirbayer, Mustafa (1997): Manifesto for a relational sociology. In: American journal of sociology, Vol. 103, No. 2, S. 281-317. Flaxman, Seth/Goel, Sharad/Rao, Justin M. (2016): Filter bubbles, echo chambers, and online news consumption. In: Public Opinion Quarterly, Vol. 80, No. 1, S. 298-320. Fligstein, Neil/McAdam, Doug (2012): A theory of fields, Oxford. Fuhse, Jan/Mützel, Sophie (Hrsg.) (2010): Relationale Soziologie, Wiesbaden. Garcia, David/Mavrodiev, Pavlin/Schweitzer, Frank (2013): Social resilience in online communities: The autopsy of friendster. In: Proceedings of the first ACM conference on Online social networks, S. 39-50. DOI: 10.1145/ 2512938.2512946. Gilbert, Nigel (Hrsg.) (2010): Computational social science Vol. 21, Thousand Oaks. Halavais, Alexander (2013): Search engine society, Hoboken. Herring, Susan/Job-Sluder, Kirk/Scheckler, Rebecca/Barab, Sasha (2002): Searching for safety online: Managing “trolling“ in a feminist forum. In: The Information Society, Vol. 18, No. 5, S. 371-384.

318 | S CHMITT

Karppi, Tero (2013): “Change name to No One. Like people’s status“: Facebook Trolling and Managing Online Personas. In: The Fibreculture Journal, Vol. 22, S. 278-300. Kramer, Adam D./Guillory, Jamie E./Hancock, Jeffrey T. (2014): Experimental evidence of massive-scale emotional contagion through social networks. In: Proceedings of the National Academy of Sciences, Vol. 111, No. 24, S. 8788-8790. Lazer, D./Pentland, A. S./Adamic, L./Aral, S./Barabasi, A. L./Brewer, D./ Chritakis, N./Contractor, N./Fowler, J./Gutmann, M./King, G./Macy, M./ Roy, D/ Jebara, T. (2009): Computational Social Science. In: Science, Vol. 323, No. 5915, S. 721-723. Luhmann, Niklas (1997): Die Gesellschaft der Gesellschaft, Frankfurt am Main. Martin, John Levi (2011): The explanation of social action, Oxford. Martini, Mario (2014): Big Data als Herausforderung für den Persönlichkeitsschutz und das Datenschutzrecht. In: Deutsches Verwaltungsblatt, Jg. 129, S. 1481-1489. Mayer-Schönberger, Viktor/Cukier, Kenneth (2013): Big Data. Die Revolution, die unser Leben verändern wird, München. Mische, Ann (2008): Partisan publics: Communication and contention across Brazilian youth activist networks, Princeton. Mische, Ann/White, Harrison C. (1998): Between conversation and situation: Public switching dynamics across network domains. In: Social Research, Vol. 65, No. 3, S. 695-724. Mohr, John W./Bogdanov, Petko (2013): Introduction – Topic models: What they are and why they matter. In: Poetics, Vol. 41, No. 6, S.545-569. Mohr, John W./White, Harrison C. (2008): How to model an institution. In: Theory and Society, Vol. 37, No. 5, S. 485-512. Mohr, John W./Wagner-Pacifici, Robin/Breiger, Ronald L. (2015): Toward a computational hermeneutics. In: Big Data & Society, Vol. 2, No. 2, DOI: /10.1177/2053951715613809. Passoth, Jan-Hendrik/Wehner, Josef (Hrsg.) (2013): Quoten, Kurven und Profile – Zur Vermessung der Gesellschaft, Wiesbaden. Pennacchiotti, Marco/Popescu, Ana-Maria (2011): A Machine Learning Approach to Twitter User Classification. In: ICWSM, Vol. 11, No. 1, S. 281288. Schmitt, Marco (2009): Trennen und Verbinden. Soziologische Untersuchungen zur Theorie des Gedächtnisses, Wiesbaden. Schmitt, Marco/Fuhse, Jan (2015): Zur Aktualität von Harrison White: Einführung in sein Werk, Wiesbaden.

R ELATIONALE S OZIOLOGIE UND B IG D ATA

| 319

Stempfhuber, Martin & Wagner, Elke (2018): Switching Situations. Empirische Beobachtungen zum medialen switching im Web 2.0. In: Klemm, Matthias & Staples, Ronald (Hrsg.): Leib und Netz. Sozialität zwischen Verkörperung und Virtualität, Wiesbaden, S. 115-127. Thijs, Bart/Glänzel, Wolfgang (2007): A structural analysis of publication profiles for the classification of European research institutes. In: Scientometrics, Vol. 74, No. 2, S. 223-236. Tufekci, Zeynep (2014): Big Questions for Social Media Big Data: Representativeness, Validity and Other Methodological Pitfalls. In: Proceedings of the 8th International Conference on Weblogs and Social Media, ICWSM 2014, S. 505-514. Venturini, Tommaso/Jensen, Pablo/Latour, Bruno (2015): Fill in the gap. A new alliance for social and natural sciences. In: Journal of Artificial Societies and Social Simulation, Vol. 18, No. 2, S. 11. Weber, Max (1980): Wirtschaft und Gesellschaft, Tübingen. White, Harrison C. (1992): Identity and control: A structural theory of social action, Princeton. White, Harrison C. (1995): Network switchings and Bayesian forks: reconstructing the social and behavioral sciences. In: Social Research, Vol. 62, No. 4, S. 1035-1063. White, Harrison C. (2008): Identity and control: How social formations emerge, Princeton.

Datengesellschaft als Zeitdiagnose

Strukturdynamiken, Reproduktionsmechanismen und Subjektformen der Datengesellschaft1 D ANIEL H OUBEN & B IANCA P RIETL

1. E INLEITUNG In der Geschichte der Welt existiert keine Gesellschaft, die auch nur ansatzweise über eine solche Menge an vielfältigen und unmittelbaren Daten über sich selbst verfügt hätte wie die gegenwärtige. Diese neue Quantität und auch Qualität der verfügbaren Daten über zunehmend alles und alle gründet auf einer beispiellosen Intensität, mit der fortwährend Daten von Staaten, Organisationen, Netzwerken und Individuen generiert und genutzt werden. Dass überhaupt Daten produziert, bearbeitet und ausgewertet werden, ist für sich genommen dabei keinesfalls neu. Seit dem Beginn wirtschaftlichen Austauschs, der Etablierung von Organisationen als Form sozialer Koordinierung und nicht zuletzt dem Ausbau systematischer politischer Herrschaft operieren Gesellschaften mit Daten: Listen über Schuldner_innen, Bürger_innen oder Inventar – die Reihe könnte problemlos fortgesponnen werden (Foucault 1977; Brückner/Wolff 2015; siehe zur historischen Entwicklung des Umgangs mit Daten auch unsere diesbezüglichen Ausführungen in der Einleitung zu diesem Band). Seit wenigen Jahren wächst aber nicht nur die Menge, sondern auch die Breite und Varietät der verfügbaren Daten stetig, sodass sogar die schier endlos scheinenden Kapazitäten ihrer Speicherung langsam an ihre Grenzen geraten und die technologischen Möglichkeiten ihrer

1

Für konstruktives Feedback und wertvolle Hinweise danken wir herzlichst Armin Ziegler und Marco Schmitt.

324 | HOUBEN & P RIETL

automatischen bzw. algorithmischen Analyse sich vor immer neue Herausforderungen gestellt sehen (Kitchin 2014; Reichert 2014a; Süssenguth 2015). Diese Beobachtungen sind so offensichtlich wie weit verbreitet, aber reichen sie bereits aus, um eine Datengesellschaft zu postulieren, zumal soziologischen Gegenwartsdiagnosen nicht ganz unbegründet mit einer gewissen Skepsis begegnet wird? So kritisiert etwa Honneth (1994: 8) an Zeitdiagnosen deren „Überverallgemeinerung von gesellschaftlichen Entwicklungen“ und Schimank (2007a: 17) warnt vor einer daraus folgenden spekulativen Note. Und schließlich herrscht wahrlich kein Mangel an mehr und auch minder erfolgreichen Gegenwartsdiagnosen im soziologischen Theorieangebot (Lessenich 2015: 24). Warum wollen wir also unter dem Begriff Datengesellschaft dennoch einer gesellschaftsdiagnostischen Perspektive folgen? Zunächst betrachten wir die begriffliche wie gegenständliche Engführung, die Zeitdiagnosen eigen ist, als legitime, weil erkenntnisleitende analytische Zuspitzung auf eine konstitutive Komponente sozialen Wandels. Gegenwartsdiagnosen heben hierzu als namensgebendes Merkmal jene Aspekte hervor, die sie als jeweils zentral für die interessierenden Gesellschafts(trans)formationen unterstellen. Ein Startpunkt lässt sich dabei in der Regel ebenso wenig seriös identifizieren, wie ein dezidiertes Umschlagen von der einen in eine vermeintlich nächste Gesellschaftsform (Stehr 1994: 28f.). So begann die Wissensgesellschaft nicht einfach mit der Magna Charta oder endete mit dem Bologna-Prozess, noch startete die Datengesellschaft mit dem ersten Facebook-Account. Wir wollen mit unserer Rede von der Datengesellschaft entsprechend keine ontologischen Allaussagen formulieren, sondern mit Hilfe einer zeitdiagnostischen Perspektivierung erörtern, inwiefern die zunehmende Datafizierung des Sozialen konstitutiv für eine bestimmte Gesellschaftsformation und ihre Reproduktion (geworden) ist. In diesem Sinne stellen wir uns die Frage, wo und wie Datafizierung – verstanden als zumeist technisch vermittelte Überführung sozialer Prozesse und Praktiken in überwiegend digitale, verobjektivierende Daten(-sätze) und deren Nutzung – in der Gegenwartsgesellschaft zu einer zentralen sozialen Logik der Strukturierung und Reproduktion von Gesellschaft als auch der Subjektwerdung avanciert ist. Weiter dienen soziologische Gegenwartsdiagnosen dem grundlegenden Bedürfnis einer Gesellschaft nach Selbstvergewisserung. Dieses scheint umso virulenter, wenn tradierte Gewissheiten abnehmen und etablierte Grenzziehungen oder Identitäten erodieren. Dass das Phänomen Big Data seit nunmehr einigen Jahren im Zentrum öffentlicher Diskurse und auch des populär(wissenschaftlich)en Buchmarktes steht, zeugt von einem augenscheinlich lukrativen Bedürfnis gesellschaftlicher Selbstverständigung zu diesem Thema. Angesichts

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 325

der sich wechselseitig verstärkenden Tendenzen der Digitalisierung und Datafizierung ist die Soziologie gefordert, eine theoretische Referenz zu formulieren, die den damit einhergehenden gesellschaftlichen Wandlungsprozessen begrifflich wie analytisch Rechnung trägt. Indem sie ganz bestimmte soziale Logiken hervorheben, bergen Gegenwartsdiagnosen unseres Erachtens das Potential, bewusst zugespitzte Antworten auf die Frage zu liefern, welche sozialen Entwicklungen besonderer Beachtung bedürfen und welche Möglichkeiten ihrer Gestaltung sich daraus ergeben. Schließlich führt der Begriff Datengesellschaft für uns auch eine strategische Konnotation mit. In den vergangenen Jahren wurden unter dem Label Big Data zahllose wichtige und richtige Debatten geführt. Allerdings fallen hier gerade international vielfach beachtete Beiträge als schlicht affirmative, fast schon technikdeterministische Programmschriften auf, in denen man eine mythische Aufladung der neuen Großdatensätze beobachten kann. Die mit Big Data verbundene Hoffnung erscheint dort als modische Wiedergängerin einer Technikeuphorie, die auf einen allumfassenden wirtschaftlichen, wissenschaftlichen und politischen Fortschritt dank nun datengetriebener Rationalisierung setzt (exemplarisch: Anderson 2013; Mayer-Schöneberger/Cukier 2013). Das in stetig wachsenden Datenmassen angelegte Potential für Wissensgenerierung oder Regierungskunst strahlt zwar zweifelsohne verführerisch, darüber scheint allerdings mitunter vergessen zu werden, dass Daten niemals eine bloß objektive Repräsentation sozialer Wirklichkeit sind, sondern immer das Ergebnis eines komplexen Zusammenspiels von technischen Konventionen sowie praktischer Kategorisierungs- und Interpretationsarbeit, was Datenerhebung und -analyse notwendig zu einer sozialen – nicht selten auch politischen – Konstruktionsleistung macht (siehe hierfür auch unsere Ausführungen in der Einleitung dieses Bandes). Den Beiträgen, die Big Data als Wundermittel zur Lösung beinahe aller Menschheitsprobleme glorifizierten, kamen zahlreiche wissenschaftstheoretisch und methodologisch ausgewogen argumentierende Beiträge zwar rasch bei (exemplarisch: boyd/Crawford 2012; Gitelman 2013; deNooy 2015), der Trend scheint aber dennoch ungebrochen, dass unter dem Oberbegriff Big Data vornehmlich Fragen der wissenschaftlichen, politischen oder zivilen Nutzbarmachung von großen (fast ausschließlich digitalen) Datenmengen diskutiert werden (exemplarisch: Reichert 2014b; Lazer/Radford 2017). Dass solche Debatten unbedingt notwendig sind, soll hier keineswegs in Zweifel gezogen werden. Wir empfinden es dennoch als geboten, daneben auch für eine umfassendere soziologische Perspektive zu werben, die das Zusammenspiel von datengetriebenen (Re-)Strukturierungsdynamiken in unterschiedlichen Bereichen der Gegenwartsgesellschaft mit ihren Reproduktionsmechanismen und Subjektformen fokussiert und so die

326 | HOUBEN & P RIETL

Interdependenz von sozialem Wandel und Datafizierung ausdrücklich ins Zentrum rückt. Im Folgenden gilt es daher zunächst zu fragen, welche Strukturen und (Re-)Strukturierungsdynamiken Datafizierungsprozesse in unterschiedlichen gesellschaftlichen Bereichen hervorbringen. Hierzu setzen wir uns exemplarisch mit gesellschaftspolitisch bedeutsamen wie gesellschaftstheoretisch zentralen Entwicklungen auseinander: der datenbasierten Reorganisation von Arbeit (2.1), der rasant wachsenden Datenindustrie (2.2), der datengetriebenen Erkenntnisgewinnung in- und außerhalb der Wissenschaft (2.3), den politischen Kämpfen um und mit Daten (2.4), datenbasierter Kontrolle (2.5) und datenvermittelter sozialer Ungleichheit (2.6) sowie sich auf Daten begründenden Macht und Herrschaftsverhältnissen (2.7). Daran anschließend geht es, um die Frage, wie sich die Datengesellschaft und ihre Strukturmuster reproduzieren. Hier werden wir auf vier Reproduktionsmechanismen der Datengesellschaft eingehen, die uns als zentral erscheinen, weil sie querliegend in allen Bereichen der Gesellschaft beobachtbar und zugleich wechselseitig miteinander verflochten sind: Datafizierung befeuert und wird befeuert durch die Diffusion einer datengenerierenden soziotechnischen Infrastruktur (3.1), die Mediatisierung des Alltags (3.2), die Etablierung von ‚Vermesserungsregimen‘ (3.3) und die Kommodifizierung von Daten (3.4). Schließlich werden wir uns der Frage zuwenden, welche Subjektformen eine Datengesellschaft hervorbringt und wie diese verdateten und verdatenden Selbste konstituiert und reguliert werden (4). Bei dem Versuch einer Beantwortung dieser Fragen wird es weniger darum gehen, im strengen Sinne zu beweisen, als zu dokumentieren und plausibilisieren, wo datengetriebene gesellschaftliche (Re-)Strukturierungen, Reproduktionsmechanismen und Subjektformen zu zentralen Faktoren gesellschaftlichen Wandels avanciert sind und welche qualitativen Veränderungen hiermit einhergehen bzw. zukünftig verstärkt zu erwarten sind.

2. S TRUKTURIERUNGSDYNAMIKEN DER D ATENGESELLSCHAFT Selbstredend kann nachfolgend nicht exhaustiv allen gesellschaftlichen Strukturentwicklungen Rechnungen getragen werden; die exemplarische Auseinandersetzung mit ausgewählten, gleichwohl u.E. zentralen gesellschaftlichen Strukturbereichen verfolgt vielmehr den Anspruch, die gesellschaftsweite Durchdringung mit datenbasierten Prozessen und datenvermittelte Restrukturierungen des Sozialen exemplarisch aufzuzeigen.

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 327

2.1 Restrukturierungen von Arbeit und Organisation im digitalen Kapitalismus Wer regelmäßig die Börsennachrichten verfolgt, wird wahrgenommen haben, dass in den letzten Jahren vermehrt die Unternehmen des Silicon Valley unter Beobachtung standen als Kondensationspunkt einer aufstrebenden High TechIndustrie, in der Daten zu einem eigenen Produktionsfaktor avanciert sind. Ihre Marktführerschaft ist zweifellos beeindruckend und ihre Produkte und Dienstleistungen stehen im Zentrum nicht weniger Entwicklungen, welche die Struktur der zeitgenössischen Ökonomie nachhaltig prägen. Dennoch – oder gerade deswegen – werden wir unsere Darstellung zentraler Restrukturierungsdynamiken des gegenwärtigen Kapitalismus nicht auf das Silicon Valley fokussieren (siehe hierzu sehr instruktiv exemplarisch Dolata 2015). Stattdessen sind im Folgenden vornehmlich Veränderungen in den Funktionsweisen von Märkten, Arbeitsorganisation und Beschäftigungsverhältnissen angesprochen, die in so gut wie allen Arbeitsbereichen und quer zu etablierten Sektor- oder Branchengrenzen zu finden sind. Mit dem von einigen – nicht selten kritischen – Stimmen ausgerufenen digitalen oder auch informationellen Kapitalismus (u. a. Nachtwey/Staab 2015; Sevignani 2016) geht es um eine tiefgreifende Neuordnung kapitalistischen Wirtschaftens, die ohne eine umfassende Datafizierung von Arbeits- und Organisationsprozessen nicht denkbar wäre, dabei aber weit über die genuine Datenindustrie und High Tech-Unternehmen hinausreicht. Adressiert sind hier durch und mittels arbeits- und organisationsbezogenen Daten ermöglichte Veränderungen auch in Arbeitsbereichen, deren Kerngeschäft weder Daten noch digitale Technologien welcher Art auch immer sind. So führen Daten ein geradezu omnipräsentes Dasein in Organisationen (Vollmer 2004; Brückner/Wolff 2015; Kirchner 2017). In vielen Unternehmensbereichen arbeiten die Beschäftigten beinahe nur mehr mit digitalen Informationen, etwa in Form von Reisekostenabrechnungen, Personalakten oder komplexen Buchhaltungssystemen. Für geistige Tätigkeiten stellt der digitale Datenraum mittlerweile die Basisinfrastruktur und zugleich das Fundament der Reorganisation von Arbeit dar. So werden gerade organisationsinterne Dienstleistungen vermehrt nach dem Prinzip des Shared-Service-Centers standardisiert, in einem rigiden Protokoll vereinheitlicht und an einem Standort zusammengeführt, der von da an den gesamten Konzern beispielsweise mit informationstechnischem Support versorgt (Boes et al. 2016). Wenngleich sich der Umgang mit Zahlen in manchen Organisationsbereichen, wie dem Accounting, über viele Jahre hinweg ‚eingelebt‘ haben mag (Mennicken/Vollmer 2007; Vormbusch 2007, 2004), bedarf es in vielen anderen erst der systematischen Organisation

328 | HOUBEN & P RIETL

von Daten. Diese Datenarbeit stellt Organisationen, so darf angenommen werden, vor beträchtliche Herausforderungen und essentielle Fragen: Wie ist der Umgang mit Daten (effizient) zu gestalten und steuern? Wer hat Zugang zu und Gestaltungsmöglichkeit von welchen Daten? Welche Bedeutung hat ein Mehr an Daten für organisationale Entscheidungsprozesse und wie werden sich widersprechende Daten in Entscheidungen umgesetzt? Welche Bedeutung gewinnt Datenarbeit gegenüber anderen Faktoren in der Organisation? (siehe für erste Hinweise zu diesem noch weitestgehend unerforschten Problemkomplex den Beitrag von Muster und Büchner in diesem Band). Digitalisierung und Datafizierung verändert aber nicht nur Dienstleistungsund Wissensarbeit im tertiären Sektor. Ungeachtet aller Diagnosen zur Wissensund Dienstleistungsgesellschaft führt die Datafizierung der Wirtschaft auch im industriell-gewerblichen Sektor zu einschneidenden Veränderungen in der Arbeitsorganisation und Gestaltung der Ware Arbeitskraft. Diese Entwicklungen werden seit einigen Jahren unter dem Stichwort Industrie 4.0 diskutiert und politisch forciert2 (BMAS 2017). Gezielt wird dabei auf den Einsatz von vernetzten, teilweise ‚intelligenten‘, assistierenden oder auch selbstgesteuerten Arbeitsmittel in der industriellen Produktion (Kuhlmann/Schumann 2015: 123f.). In der langjährigen Tradition von Automatisierungsbestrebungen stehend, geht es technisch vor allem um die zunehmende digitale Integration aller Teile des Produktionsprozesses – einerseits durch die Integration komplexer Informationsbestände in „eine einheitliche, digitale Informationsform“ (Boes 1996: 110) und andererseits durch die innerbetriebliche wie globale Vernetzung von Informationssystemen und Produktionsmittel (Stichwort: Internet of Things). Die stark technikfokussierte Diskussion lässt Fragen nach Aneignungsweisen und nicht intendierten Nutzungsformen smarter Industrie- und Produktionstechnologien bislang jedoch ebenso unbeantwortet wie Neuauflagen der schon früh beschriebenen „ironies of automation“ (Brainbridge 1983). Während mit Blick auf diese Veränderungen in Industrie- und Dienstleistungsarbeit bislang wohl eher von inkrementellen Innovationen gesprochen werden sollte (Altepost et al. 2017), entfaltet der digitale Kapitalismus in seinem Kern eine disruptive Neuorganisation von Märkten, Produktionsverhältnissen

2

Einem Bericht des Bundesministeriums für Wirtschaft und Energie vom Juni 2017 zufolge, liegt der Digitalisierungsgrad der deutschen Wirtschaft bei 54 von möglichen 100 Indexpunkten. Die IKT-Branche ist dabei nach wie vor Vorreiter in Sachen Digitalisierung von Arbeit und Wirtschaft; während die größten Fortschritte im verarbeitenden Gewerbe geortet und als Erfolg gezielter Fördermaßnahmen gewertet werden (BMWi 2017: 7, 12).

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 329

und der Organisation von Arbeit insgesamt. Die Speerspitze dieser Entwicklung sind wohl auch hier die sog. Internet- und Datengiganten des Silicon Valley, denn „Uber, the world’s largest taxi company, owns no vehicles. Facebook, the world’s most popular media owner, creates no content. […] And Airbnb, the world’s largest accommodation provider, owns no real estate“ (Goodwin 2015). In der rasant wachsenden Plattformökonomie halten die Plattformbetreibenden keinen Besitz an den Produktionsmitteln. Ihr Geschäftsmodell basiert darauf, als Intermediäre auf diesen doppelten Märkten zwischen Angebot und Nachfrage zu vermitteln und hierfür eine Vermittlungsgebühr einzuheben – wohlgemerkt bei gleichzeitiger Überlassung des unternehmerischen, rechtlichen und sozialen Risikos ebenso wie der Kosten für Arbeitskraft und Produktionsmittel an die beiden anderen Parteien. Hierzu halten Plattformbetreibende als einzige Partei die totale Kontrolle über die technische Infrastruktur, das Vertragsmodell und alle Nutzungsdaten (Schmidt 2017). Letztere erlauben nicht zuletzt die algorithmisierte Koordination und Kontrolle von Arbeit. Hier werden Aufgaben wie Arbeitsorganisation und Personalentscheidungen, die früher beim mittleren Management angesiedelt werden, von datenverarbeitenden Algorithmen übernommen. Die Grundlage hierfür bilden Daten, die bspw. das Ergebnisse von Ratings sind, bei denen Auftraggebende Auftragnehmende punktuell und aktiv bewerten; aber auch Daten aus direkt in die Plattformarchitektur integrierten Trackingverfahren, bei denen es zur fortwährend und im Hintergrund ablaufenden Aufzeichnung von arbeitsbezogenen Daten, etwa Tastaturanschlägen je Minute oder randomisierten Screenshots des Arbeitsbildschirms, kommt. Aus derartigen und unzähligen weiteren Datenpunkten werden Fehlerquoten und Effizienzindizes berechnet und algorithmisch ausgewertet, die letztlich auch zum Ausschluss eines Auftragnehmenden von der Plattform führen können (Schmidt 2017: 11f; siehe zum algorithmischen Management in der Plattformökonomie auch den Beitrag von Heiland in diesem Band). Eine derartige datenbasierte Organisation und Kontrolle von plattformbasierter Arbeit etabliert völlig neue Organisationsmodelle, in denen etwa eine Crowdwork-Plattform mit nur 1.000 Festangestellten an die 900.000 IT-Entwickler_innen mit keineswegs nur Einfach- und Einmalaufgaben betrauen kann. In diesem Fall wird die Arbeitsvergabe nach einem Wettbewerbsmodell organisiert, das verharmlosend als Gamification tituliert wird und das Prinzip Konkurrenz radikalisiert: Getreu dem Motto ‚the winner takes it all‘ wird jede neue Aufgabe stets an jene Person vergeben, deren UserProfil zum betreffenden Zeitpunkt den höchsten Punktestand ausweist (Boes et al. 2016: 38). In einer radikalen Weiterentwicklung von Outsourcing- und Leiharbeitsmodellen offerieren Plattformen Auftraggebenden somit einen potentiell globalen

330 | HOUBEN & P RIETL

Markt für Arbeitskräfte ‚on demand‘. Umgekehrt werden Cloud-, Crowd- oder Gigworker zur „digitalen Kontingenzarbeitskraft“ (Nachtwey/Staab 2015: 13). Mit der Verbreitung von Plattformen zur Vermittlung bezahlter Arbeit deuten sich also noch kaum absehbare Veränderungen an, wenn etwa Berufe im herkömmlichen Sinne von einer Neben- und Aneinanderreihung von Einzelaufgaben und Tätigkeiten, nämlich ‚tasks‘, abgelöst werden. Gegenüber einer solchen Entwicklung greifen aktuell geführte Diskussionen um Arbeitsplatzeffekte von Digitalisierungsschüben schon alleine deshalb zu kurz, weil sie mit Modellen von Arbeit und Beruflichkeit operieren, die am betrachteten Phänomen vorbeizielen.3 Wie in den obigen Ausführungen zur plattformbasierten Arbeitsorganisation bereits angedeutet, kennzeichnet Arbeit in der Datengesellschaft eine spezifische Dynamik von Herrschaft und Kontrolle, die aufs Engste damit verbunden ist, dass Arbeit zunehmend die althergebrachten physischen, räumlichen und zeitlichen Grenzen der Organisation transzendiert und entweder im Kontext digitaler (Daten-)Räume geleistet oder immer öfter zumindest minutiös dort nachvollzogen werden kann (Sewell/Taskin 2015; Garrett/Spreitzer/Bacevice 2017). Wo sich etablierte Präsenz- und Sichtbarkeitsstrukturen verändern, geht es nicht länger um direkte Kontrolle per Kamera oder ähnliches, sondern um indirekte und kontinuierliche Aufzeichnung – und nicht selten synchrone Auswertung – von Performanz- sowie ort-, zeit- und prozessbezogenen Metadaten mittels digitaler Produktionsmittel (Evans et al. 2017). So berechnen die ‚intelligenten‘ Handscanner in den riesigen Warenlagern von Amazon unter Rückgriff auf GPSDaten nicht nur den jeweils kürzesten Weg zur nächsten Packstation, ihre Vernetzung untereinander erlaubt es ihnen auch, diese Aufgabe der am nächsten stehenden, freien Person zu übertragen und dieser sogleich auch den optimalen Weg vorzugeben. Dies mag situativ die Arbeit der Mitarbeitenden erleichtern; die umfassende digitale Prozesskontrolle und -steuerung zeitigt aber auch Entfremdungseffekte: Durch steigenden Leistungsdruck als unmittelbare Folge der Kontrollmöglichkeiten von Seiten des Managements kommt es zur Intensivierung von Arbeit und gleichzeitigen (inhaltlichen) Abwertung der Arbeit aufgrund der Beschneidung von autonomer und erfahrungsbasierter Arbeitsausführung. Darüber hinaus zielt die detaillierte und nicht selten komparativ angelegte Auswertung der Arbeitsleistung auch auf Effekte der Selbstkontrolle, Motivation und Effizienzsteigerung des neoliberalen Subjekts des Arbeitskraftunternehmers

3

Antworten auf die Frage nach den Arbeitsplatzeffekten einer digitalen und damit letztlich datafizierten Wirtschaft sind vielstimmig und uneinheitlich (viel zitiert: Frey und Osborne 2013; sondierend: Dörre 2016).

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 331

(Voß/Pongratz 1998). Derartige Entwicklungen weisen auf eine Renaissance tayloristischer Formen der Arbeitsorganisation, etwa mit Hilfe eines „digitalen Fließbandes“, hin (Nachtwey/Staab 2015; Sewell/Taskin 2015; Butollo/Ehrlich/ Engel 2017). Dabei scheint auch Wissensarbeit, der oft attestiert wird, ihre höchste Produktivität unter nicht-hierarchischen Verhältnissen zu erreichen, von dieser Rückkehr der technischen Kontrolle in die Arbeitswelt keineswegs ausgenommen zu sein (Brinkmann/Dörre 2006). So zielt etwa das neueste Microsoft Office-Produkt MyAnalytics dezidiert auf die (bislang Selbst-)Steuerung von Wissensarbeitenden mit dem Ziel der Produktivitätssteigerung, wenn u. a. mit folgendem Slogan geworben wird: „Nutzen Sie das Potential von Daten, um Ihre Leistung zu steigern. Messen Sie zum Beispiel, ob Ihre E-Mails die gewünschte Wirkung erzielen und wie schnell Sie Ihren wichtigsten Kontakten antworten. Finden Sie auch heraus, wie viel Zeit Ihnen für Ihre Kernaufgaben bleibt, und nehmen Sie das Steuer selbst in die Hand“.4 Nimmt man die vorliegenden Befunde zusammen, scheint Arbeit in der Datengesellschaft durch ein „System der permanenten Bewährung“ (Boes/Bultemeier 2008) charakterisiert zu sein, in dem nicht nur Arbeitnehmer_innen in Logistikzentren oder solche, die auf digitale Assistenzsysteme zugreifen, sich in einem „Kontrollpanoptikum der Daten“ wiederfinden (Boes/Kämpf 2016: 27), sondern zunehmend auch Hochqualifizierte. Dieser Trend zu einer beinahe unendlichen Vorderbühne im Goffman’schen Sinne (1969) scheint sich dabei nicht trotz, sondern gerade wegen der zunehmenden zeitlichen und räumlichen Streuung und Distanzierung (Beyes/Stayaert 2012; Sewell/Taskin 2015) in der Arbeitskontrolle zu etablieren (Bauman/Lyon 2013), was wiederum besondere, nicht selten paradoxe Herausforderungen aufwirft: Zum einen geht es um kollaborative Formen der Management-Kontrolle, die über das direkte visuelle Sehen hinausgehen (Sewell 2012) und zum anderen erhalten nun Formen der Selbstdisziplinierung eine stärkere Bedeutung. Unter dem Eindruck beider Trends wird die algorithmische Organisation und datenbasierte Kontrolle von Arbeit zunehmend mobiler, flexibler, flächendeckender und damit letztlich grenzenloser (Bauman/Lyon 2013).

4

Siehe hierzu und weiter die Produktbeschreibung von Microsoft online unter: https://products.office.com/de-de/business/myanalytics-personal-analytics (aufgerufen am 22.02.2018).

332 | HOUBEN & P RIETL

2.2 Datenindustrie und Datenprofessionen Daten spielen in der Wirtschaft indes nicht nur eine Rolle, wenn es um die Gestaltung von Produktions- und Arbeitsabläufen geht, sondern auch als mittlerweile immer handfesteres ökonomisches Gut. Der Handel mit digitalen Daten floriert und hat mittlerweile eine expandierende Industrie hervorgebracht, die meist via Data Mining zusammengetragene Daten gemäß erwarteter Profite kauft oder verkauft. Der Datenhandel wird in der Regel von Unternehmen betrieben, deren Geschäftsmodell im Kern im Erfassen und Monetarisieren von Verbraucher_innendaten im großen Stil besteht5. Die globale Datenhändler-Branche umfasst schätzungsweise Tausende von Unternehmen verschiedener Größenordnungen, die Mott (2014) zufolge bereits zu Beginn dieses Jahrzehnts einen Jahresumsatz von mehreren hundert Milliarden US-Dollar erwirtschafteten. Die Bezugsquellen und Methoden der Datenhändler sind dabei ebenso vielfältig wie ihre Kund_innen. Datenhandelnde bieten Produkte und Dienstleistungen an, die integraler Bestandteil einer Reihe von Geschäftsaktivitäten anderer Organisationen oder auch Behörden sind, insbesondere Marketing, Risikoabwägung und Identitätsüberprüfung aber mittlerweile auch Strafverfolgung und Terrorismusabwehr (Crain 2018). Als einer der Marktführenden der Branche rühmt sich etwa Acxiom seit 2014 mehr als 3.000 Informationen für nahezu jede_n erwachsene_n Verbraucher_in in den Vereinigten Staaten aufzubewahren und wirbt für seine Dienste mit Daten über knapp 700 Millionen Verbraucher_innen weltweit (Acxiom 2014: 8). Dabei umfasst Acxioms Portfolio ökonomische, demographische, gesundheitliche, religiöse, sexuelle, verhaltens- und ereignisbasierte Daten, die routinemäßig über Datencrawler6 aggregiert werden. Diejenigen Daten, die Nutzer_innen nicht bewusst preisgeben, werden dabei in der Regel entweder durch den Kauf von Verbraucher_innendaten von anderen privaten Unternehmen und Regierungsbehörden gewonnen oder dem sog. Trawling öffentlicher Daten, wie z. B. Eigentumsaufzeichnungen, Wähler_innen- und Kfz-Registrierungen, Gerichtsakten und Volkszählungsdaten entnommen. Für die USA ist dabei vielfach dokumentiert, dass nicht nur Unternehmen7, sondern auch staatliche Behör-

5

Marktführenden Datenhändler wie Acxiom oder Experian stammen aus bereits länger etablierten Geschäftsfeldern wie dem Direkt-Marketing oder der Bonitätsprüfung, die gerade in Nordamerika lukrative Möglichkeiten vorfinden (Crain 2018).

6

Automatisierte Protokolle speichern Metadaten darüber, wer mit wem, von welchem

7

Walt Disney zum Beispiel verkauft Daten über das Alter sowie das Geschlecht der

Ort und für wie lange kommuniziert bzw. wer wann wo welche Internetseiten besucht. Kinder seiner Kund_innen an externe Vermarktungsagenturen (Beckett 2014).

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 333

den ihre Kund_innendaten als zusätzliche Einnahmequelle veräußern oder im Rahmen von Dienstleistungsverträgen austauschen. Viele Kund_innen der Datenhändler sind in einem anderen Geschäftszusammenhang Verkaufende. Indem sie Verbraucher_innendaten kontextübergreifend einkaufen, ‚umpacken‘ und wieder verkaufen, bilden große Datenhändler damit einen zentralen Umschlagplatz8 der Datenindustrie (Crain 2018). Parallel zur Etablierung dieser Datenindustrie haben sich verschiedene Berufsfelder des (professionellen) Umgangs mit Daten etabliert. Zunächst sind es wissenschaftliche und im zunehmenden Maße auch professionelle Konzepte, welche die Voraussetzungen für die Existenz von Daten schaffen, denn Daten entstehen nicht aus dem Nichts heraus, sondern basieren auf komplexen Erhebungs-, Verarbeitungs- und Auswertungsverfahren. Daher bedarf es der Konstruktion von Sensortechnologien und Messgeräten, Erhebungsmasken und Abfrageinstrumenten, die Daten produzieren, die innerhalb eines bestimmten konzeptionellen Rahmens nutzbar sind. Mit der forcierten Ausweitung der Bemühungen des Datensammelns und -produzierens zeichnen hierfür zunehmend sogenannte Data Professionals verantwortlich, deren Aufgabe im Kern darin besteht, eine Kohärenzbeziehung zwischen drei Komponenten herzustellen, wie dies schon Pickering (1989) für die Konstruktion von Messwerten in naturwissenschaftlichen Labors rekonstruiert hat: (1) den theoretischen Annahmen oder Datenkonzepten, (2) den messtechnischen Annahmen der technischen Infrastruktur sowie (3) deren tatsächliches Funktionieren im Rahmen von mitunter unintendierten Nutzungsformen (auch Shaw 2015; siehe für eine pionierhafte Ethnografie der Datenarbeit auch den Beitrag von Mützel, Saner und Unternährer in diesem Band). In vielen Fällen führt der Aufstieg neuer Berufe zu Irritationen etablierter professioneller Ordnungen. So weist Abbott (1988) darauf hin, dass die Beziehungen zwischen verschiedenen Professionen über die Zeit sorgfältig austariert werden und durch bestimmte Zuständigkeiten, Normen und institutionalisierte Praktiken gestützt werden. Um ihre Ziele zu erreichen oder gar zu expandieren, müssen sich neue Professionen folglich mit einer tradierten, differenzierten Beharrungsdynamik in ihren respektiven Feldern auseinandersetzen. Dort ist die Entwicklung neuer Berufe in der Regel mit Zuständigkeitskonflikten verbunden, aber auch mit der Entstehung von professionellen Symbiosen (Suddaby/Muzio

8

Wurden Metadaten anfangs noch als wertlose Nebenprodukte plattformvermittelter Dienste betrachtet, sind sie mittlerweile zu wertvollen ökonomischen Ressourcen geworden, die in eine Vielzahl lukrativer Produkte umgewandelt werden (van Dijk 2014: 199).

334 | HOUBEN & P RIETL

2015; Bucher et al. 2016). Letzteres ist gerade auch im Silicon Valley zu beobachten, wo Datenwissenschaftler_innen eng mit Ingenieur_innen kooperieren (Shaw 2015). Eine Pionierstudie zur Formierung von Data Sciences im USamerikanischen Kontext zeigt etwa, wie dieses neue Feld bezüglich des eigenen Gegenstandsbereiches hochgradig von Unsicherheiten durch verschwimmende Grenzen zwischen Laienbeteiligung und formalen Strukturen geprägt ist. Die Arbeit von Datenwissenschaftler_innen zeichnet sich entsprechend durch improvisierte Praktiken der Kombination von informellem Problem(lösungs)wissen und formalen Wissensbeständen aus (Brandt 2016). Im Schatten der an Produktion und Innovation orientierten Berufe haben sich auch weniger illustre Tätigkeiten etabliert, deren Aufgabe es ist, den Datenplattformen und digitalen Unternehmen in entscheidender, wenn auch unsichtbarer Weise zuzuarbeiten. Die Rede ist hier von Personen, die auf der ganzen Welt verteilt kleinteiligste Kategorisierungsaufgaben bewältigen, Daten bereinigen oder korrigieren und sich jenen interpretativen Ambivalenzen zuwenden, die Algorithmen (noch) nicht zu lösen vermögen. Im Falle der sogenannten Content Moderators offenbart die Aufgabe des interpretationsbedürftigen Intervenierens ihre besondere Qualität, denn sie kontrollieren und bereinigen Inhalte in sozialen Medien. Dabei arbeiten sie in der Regel abgeschirmt und dürfen ihre Arbeit nicht mit der Außenwelt besprechen9 (Riesewieck 2017). Zusammengenommen sind Daten also mittlerweile zu einem bedeutsamen Produktionsfaktor einer globalen, stetig expandierenden Datenindustrie erwachsen. In diesem Zusammenhang erhöht sich notwendigerweise die Nachfrage nach Spezialist_innen für Datenarbeit, deren zunehmende Professionalisierung ihrerseits die Logiken und Möglichkeiten der Datafizierung ausweiten. 2.3 Verschiebungen der Wissenschafts- und Wissensstrukturen Der rasante Aufstieg des Werts und der Verfügbarkeit von Daten dokumentiert sich auch in der Wissenschaft. So wurde 2013 an der Bauhaus-Universität Wei-

9

Eine ehemalige Content Moderatorin bei Facebook beschreibt ihre Eindrücke wie folgt: „Produziert haben wir nichts, aber wir haben mitgeholfen, ein hochprofitables Milliarden-Unternehmen am Laufen zu halten. Dabei ist der Job des Content Moderators alles andere als einfach: Man analysiert Inhalte und setzt sie in einen Kontext; man entscheidet nicht einfach nur, ob ein Posting gelöscht oder behalten wird, sondern bewegt sich in einem komplizierten System aus möglichen Aktionen und Konsequenzen. Der Job ist zu komplex für Algorithmen, doch die Moderatoren sollen trotzdem wie Computer arbeiten“ (Punsmann 2018).

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 335

mar die erste Professur für Big Data Analytics in Deutschland eingerichtet. Mit dieser beispielhaften, wenngleich keineswegs singulär gebliebenen, Institutionalisierung der Datenwissenschaften im akademischen Feld Deutschlands wird einer Entwicklung Rechnung getragen, die im einschlägigen wissenschaftlichen Diskurs als „computational turn in thought and research“ (boyd/Crawford 2012: 665), als „datengetriebene Erkenntnisgewinnung“ (Mayerl 2017: 2/9, H.i.O.) oder auch „datengesteuerte Wissenschaf[t]“ (Reichert 2014a: 11, H.i.O.) mal mehr, mal weniger kritisch diskutiert wird. Die zumeist in Assoziation mit dem Schlagwort Big Data verhandelte, (teil-)automatisierte, algorithmische Auswertung großer und mitunter höchst disparater Datensätze zur Erkenntnisgewinnung beschäftigt längst nicht mehr nur die weiter oben adressierten Pionier_innen der Data Mining Companies und ihre Data Professionals, sondern auch die Akteur_innen im rasch wachsenden Feld der Datenwissenschaften. So wurde als Teil der Digitalen Agenda der Bundesregierung auf der Messe für Informationstechnologie CeBIT 2014 in Hannover nicht nur die Gründung von zwei Big Data-Kompetenzzentren in Berlin und Dresden initiiert, eine Suche nach dem Begriff Data Science in der Studiengangsuchmaschine von ZEIT Campus zum Start des Wintersemesters 2017/18 ergibt beachtliche 179 Treffer, von denen zumindest die 18 prioritär gereihten schon im Titel den Gegenstand ‚Daten(wissenschaft)‘ zu ihrem Kern erklären. Aber nicht nur innerhalb des gemeinhin für informationstechnische Entwicklungen verantwortlich zeichnenden Faches der Informatik gewinnen Datenwissenschaften an Raum, sie werden auch zunehmend prominent innerhalb der kaum einmal als technisch wahrgenommenen Geistes-, Kultur- und Sozialwissenschaften (Lazer/Radford 2017 sowie überblicksartig und multiperspektivisch: Sonderheft Assumptions of Sociality: A Colloquium of Social and Cultural Scientists, in Big Data & Society 2015/2). Mithilfe maschinenbasierter Verfahren insbesondere der Text-, Sentiment-, Bild- oder sozialen Netzwerkanalyse werden in den letzten Jahren vor allem Social Media-Daten ausgewertet, um – im besten Falle auch prognostische – Erkenntnisse über soziokulturelle Phänomene wie Wahlentscheidungen, Finanztrends oder Protestbewegungen zu erlangen. An immerhin acht deutschen Universitäten und Hochschulen kann man entsprechend zum Wintersemester 2017/18 – immer noch laut der Studiengangsuchmaschine von ZEIT Campus – ein Bachelor- oder Master-Studium in Digital Humanities, Digital Philosophy oder Digitale Methoden der Geistes- und Sozialwissenschaften beginnen. Die mit dem Aufstieg der sog. Computational Social

336 | HOUBEN & P RIETL

Sciences10 verbundenen – mitunter befürchteten und bisweilen erhofften – Verschiebungen im Zusammenspiel von Wissen, Macht und Technik lassen sich exemplarisch mit Blick auf die teils hitzigen Debatten innerhalb der Soziologie rund um die Positionierung dieses Faches erahnen: Während einige, durchaus euphorische Stimmen die Potentiale etwa von Social Media-Daten für die soziologische Forschung trotz bekannter Datenfehler, -lücken und -stichprobenverzerrungen betonen und eine Neuausrichtung der Soziologie im Sinne einer Digital Sociology fordern, warnen andere beinahe schon vor einer datengetriebenen Re-Szientifizierung der Soziologie und einer Neubelebung ihrer positivistischen Strömungen (Orton-Johnson/Prior 2013; Lupton 2015; Mützel 2015; Diekmann 2016; Philipps 2017; siehe auch den Beitrag von Schmitt in diesem Band). In den letzten Jahren hat sich zudem ein internationales, höchst heterogenes Forschungsfeld an der Schnittstelle von Kultur-, Medien- und Informationswissenschaften konstituiert, das mit den Critical Data Studies (Iliadis/Russo 2016), Critical Algorithm Studies (Kitchin 2017) und Critical Code Studies (Marino 2006) diverse Forschungsstränge versammelt, die sich differenziert mit den soziotechnischen Bedingungen und Voraussetzungen sowie Effekten der Erhebung, Verarbeitung und Darstellung von Daten und der Gestaltung von Algorithmen und Software auseinandersetzen und damit innerhalb der Datenwissenschaften selbst ein Gegengewicht zu der naiv-positivistischen Objektivitäts- und Neutralitätsgläubigkeit mancher Big Data-Apologet_innen bilden. Die Etablierung der Datenwissenschaft und eines sie kritisch-reflexiv begleitenden Forschungsfeldes realisiert sich in den letzten Jahren nicht zuletzt in der Institutionalisierung von Publikationsorganen wie den international und interdisziplinär ausgerichteten Zeitschriften Big Data & Society (gegründet 2014) und Digital Culture & Society (gegründet 2015), sowie datenwissenschaftlichen Zeitschriften wie Big Data Research (gegründet 2014). Nicht unerwähnt bleiben soll die mit der Datafizierung auch in die Wissenschaft Einzug haltende algorithmische Leistungsbewertung. Neben dieser muten Entwicklungen wie die leistungsbezogene Mittelvergabe oder die Erstellung von Curricula maßgeblich Credit Points-Vorgaben, wie sie unter dem Stichwort „un-

10 Bezeichnet ist hier eine Forschungsströmung an der Schnittstelle von Computer-, Sozial- und Geisteswissenschaften, die sich primär darauf spezialisiert, Social MediaDaten auszuwerten, um Einsichten in die soziale Welt zu gewinnen. Die vereinheitlichende Titulierung soll hier nicht darüber hinwegsehen, dass sich wohl kaum alle hiermit Adressierten dieser Beschreibung oder dieser Bezeichnung selbst zuordnen würden.

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 337

ternehmerische Hochschule“ diskutiert werden (Maassen/Weingart 2006; Kühl 2012; Demirovic 2015), bereits antiquiert an. Altmetrics etwa will Forschenden wie Forschungsorganisationen die Frage beantworten, „Who’s talking about your research?“, indem unter Rekurs auf nutzer_innengenerierte Daten im Social Web neben der Resonanz in wissenschaftlichen auch jene in nicht wissenschaftlichen Quellen berechnet wird. Zugleich stellt diese Form der Bewertung des gesellschaftlichen Impacts von Forschung ein Vehikel für die Verdrängung etablierter Bewertungskriterien durch schlichte Popularität dar und bahnt damit einem Abstimmen über Forschung mit den sprichwörtlichen Füßen den Weg (Franzen 2015).11 Für die Datengesellschaft ist es aber gerade charakteristisch, dass die Wissenschaft nicht länger die einzig legitime Produzentin autorisierten Wissens ist.12 Schon mit den Entwicklungen im Kontext von Web 2.0 wurden die Grundlagen für eine gemeinschaftliche, partizipative und öffentliche Wissenserzeugung und -distribution jenseits der akademischen Institutionen gelegt, deren sichtbarster Ausdruck bis heute Wikipedia ist. Unter der Losung Open Science wird von unterschiedlichen Akteur_innen auch verstärkt eine Öffnung der wissenschaftlichen Wissensproduktion in sozialer, zeitlicher, räumlicher und sachlicher Hinsicht forciert, etwa durch Open Access Publikation oder in ambitionierten Citizen Science-Projekten mit ihrem Versuch der Enthierarchisierung von Expert_innen und Lai_innen (Franzen 2016). Am weitesten vorangeschritten ist die Restrukturierung etablierter Wissensstrukturen aber im Bereich von (Selbst-) Vermessungs-Apps. Mit der rasanten Verbreitung von diversen Apps für zunehmend alle Lebenssituationen und -bereiche sind es nun vermehrt die diese Apps betreibenden, datensammelnden und -auswertenden Algorithmen und damit wiederum die diese programmierenden Softwareentwickler_innen, die zu wissensproduzierenden Akteur_innen in der Datengesellschaft werden. Im Falle von Selbstvermessungs-Apps und der von ihnen angestrebten Selbstexpertisie-

11 Altmetrics scheint damit nur die aktuelle Speerspitze einer zunehmenden „Medialisierung“ von Wissenschaft zu sein, die von Wissenschaftler_innen vermehrt fordert, ihre Ergebnisse auch über die etablierten, kollegialen Fachorgane hinaus zu kommunizieren und sich derart an Relevanzkriterien der Massenmedien, wie Nachrichtenwert statt ‚Wahrheit‘, zu orientieren (Franzen/Rödder/Weingart 2012). 12 Hiermit ist vor allem ein epistemologischer Bruch gegenüber der wissenschaftlichtechnischen Moderne seit der europäischen Aufklärung adressiert; die zugespitzte Formulierung soll dabei aber nicht darüber hinwegtäuschen, dass es auch innerhalb dieser Epoche als auch in früheren Zeiten immer wieder andere ‚Wahrheitsproduzent_innen‘, etwa die Kirche, gab und gibt.

338 | HOUBEN & P RIETL

rung werden zudem vermehrt deren Nutzer_innen zu Wissensproduzent_innen ihrer selbst. Damit deuten sich erhebliche Verschiebungen in der vormals stabilen Wissensrelation zwischen (wissenschaftlichen) Expert_innen für einen Gegenstand, Softwareentwickler_innen bzw. Datenwissenschaftler_innen und Endnutzer_innen als vormalige Lai_innen an (siehe auch den Beitrag von Klinge in diesem Band). Verstärkt werden diese Tendenzen dadurch, dass Verfügbarkeit über und Zugang zu den großen Datensätzen heute primär in den Händen von großen Internet- und Datenkonzernen liegen, wohingegen Universitäten und Hochschulen zu nicht für alle leistbaren Preisen diese Datenkorpora erwerben können oder sich mit dem öffentlich und gratis zur Verfügung gestellten Datenausschnitt zufriedengeben müssen13. Prominentes Beispiel für diese Verschiebung in der epistemologischen Struktur der Datengesellschaft ist etwa die Zusammenarbeit von Google mit der US-amerikanischen Seuchenbehörde im Projekt Google Flu mit dem Ziel, auf Basis der Auswertung von Suchanfragen die Wahrscheinlichkeit von lokal auftretenden Influenzawellen vorherzusagen. Insgesamt formiert sich also in der Datengesellschaft ein äußerst heterogenes Feld der Wissensproduktion. Dieses weist eine rasch wachsende Palette an Forschungsströmungen auf, die in großen Teilen quer zu den etablierten disziplinären Segmentierungen des akademischen Feldes angesiedelt sind und weit über dessen Grenzen hinausreichen, sodass zum Teil gänzlich neue Wissensakteur_innen auf den Plan gerufen werden. 2.4 Daten und Politik Die Datengesellschaft dokumentiert sich auch darin, dass Daten und der Umgang mit ihnen zu einem genuinen Gegenstand politischer Regulierungsbemühungen und Debatten werden. Dabei hat sich zuletzt auch die Erkenntnis durchgesetzt, dass es bei Fragen der Netzpolitik, des Datenschutzes oder des digitalen Strukturwandels der Arbeitswelt um sehr grundsätzliche und nachhaltige Fragen geht (Bieber 2015), die an den Grundfesten der Demokratie, Meinungsfreiheit oder Gleichheit rühren und denen gegenüber ein politisches Nischendasein kaum mehr zu rechtfertigen wäre. Dass sich hier immer deutlicher ein zentrales Gestaltungsfeld der Politik mit spezifischer Expertise konturiert, dokumentiert sich beispielsweise daran, dass ab Mai 2018 in der Europäischen Union, gut neun Jahre nachdem die EU-Kommission das Thema angestoßen hatte, nun tatsäch-

13 Wie boyd und Crawford (2012: 674) zurecht anmerken, deutet sich hier eine Reproduktion hierarchischer Verhältnisse im akademischen Feld in der neuen Form von „data rich“ versus „data poor“-Universitäten an (siehe auch Manovich 2014).

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 339

lich eine Europäische Datenschutz-Grundverordnung (DSGVO) in Kraft tritt, die den Datenschutz in der EU harmonisieren soll. Gegenstand der neuen Regelungen sind vornehmlich der Umgang mit den meist kommerziell von Unternehmen in der EU generierten Daten einerseits und das Recht auf informationelle Selbstbestimmung der Bürger_innen andererseits. Zur entsprechenden Überführung in Landesrecht dieser Vorlage wurde in Deutschland bereits Ende April 2017 das Datenschutzanpassungs- und Umsetzungsgesetz (DSAnpUG-EU) beschlossen, das das noch aus den 1970er Jahren stammende Bundesdatenschutzgesetz ablöst. Für die großen Internetkonzerne soll mit der DSGVO das ‚RegimeShopping‘ beendet werden, das es den Unternehmen ermöglichte, sich innerhalb der EU in den Staaten offiziell niederzulassen, die für sie die günstigsten, in der Regel schwächsten, Vorgaben zum Datenschutz und zur staatlichen Kontrolle machen. Ein weiteres Beispiel bedeutsamer politischer Regulation in der Datengesellschaft ist die Frage der Netzneutralität, um die herum sich nicht erst seit ihrer faktischen Aufhebung in den Vereinigten Staaten eine Grundsatzdebatte entspinnt (Rudl 2017). Dürften Internet-Zugangsanbieter_innen neben den Routingdaten von IP-Datenpaketen ebenfalls die Inhalte kontrollieren und sie abhängig von voreingestellten Filterregeln differenziert behandeln, hätte dies weitreichende Konsequenzen für die zentrale Infrastruktur einer Datengesellschaft, gelten doch bislang in der EU und bis vor kurzem in den USA alle Datenpakete als gleichwertig, was die Neutralität des Internets und damit die Markteintrittsfähigkeit und Diskriminierungsfreiheit unabhängig von Absender_in, Empfänger_in, Protokoll oder Empfangsgerät garantieren sollte (Hauck/Martin-Jung 2017). Auch neben – oder mithin dezidiert gegen – die Institutionen parlamentarischer Demokratie werden Daten zu einem Gegenstand und Mittel politischer Aktivitäten. So beschreibt Karatzogianni (2015) digitalen Aktivismus sowohl als politische Partizipation als auch als Protest vermittels digitaler Netzwerke, der aktuell von Kritik an datengetriebener digitaler Überwachung dominiert werde. Innerhalb dieser globalen Perspektive lassen sich freilich viele verschiedene Betätigungsfelder des digitalen Aktivismus ausmachen, etwa der Hacktivismus oder die Open-Data-Bewegungen (Kaun/Uldam 2017). Als Hacktivismus wird gemeinhin die subversive Nutzung digitaler Infrastrukturen oder auch die zweckgerichtete Entwicklung von Technologien und Programmen zur Unterstützung weitreichender gesellschaftlicher Transformationsideale bzw. eigener politischer Programmatiken verstanden. Hacktivistische Kampagnen und Interventionen umfassen dabei kollektive Aktionen des datenorientierten zivilen Ungehorsams (Jordan/Taylor 2004), illegales Hacken von Unternehmens- und Regierungsdatenbanken (Olson 2012; Coleman 2014), Entwicklung von Open-Source-Software mit politischen Zielen und Verschlüsselungstechnologien zur Abwehr

340 | HOUBEN & P RIETL

staatlicher Überwachung (Chopra/Dexter 2008; Kelty 2008; Assange et al. 2012; Coleman 2013) oder das anonyme Offenlegen geheimer Verschlusssachen (Greenberg 2012). Hacking als politische Praxis steht dabei in aller Regel quer zu den etablierten Formen politischer Partizipation und kann sowohl durch ein Netzwerk von Aktivist_innen, wie Anonymous und WikiLeaks, als auch durch Einzelpersonen durchgeführt werden, die gemeinsamen Idealen folgen, ohne sich dabei einer übergeordneten Koordination oder Autorität unterstellt zu sehen (Deseriis 2017). Mithin gleichen Zielen folgend, doch in der Art des Aktivismus verschieden, zeigen sich Open Data-Bewegungen wie die Open Knowledge Foundation Germany, die auf die Innovations- und Handlungsfähigkeit einer datafizierten Öffentlichkeit setzen, indem sie Praktiken und Prinzipien der Open Source-Bewegung auf die Produktion und Nutzung von Daten übertragen (Baack 2015). Mit dem Ziel das Interpretationsmonopol von Regierungen und Datenkonzernen zu brechen, treten die Aktivist_innen dafür ein, ‚Rohdaten‘ öffentlich zugänglich zu machen und zu teilen. Hierzu setzen sie auf eine offene und flexible Form der politischen Partizipation und bemühen sich um die Etablierung von Intermediären, etwa in Form eines kritischen Journalismus14, der die sogenannten Rohdaten überhaupt der Öffentlichkeit zugänglich und verständlich machen soll. Eine an dieser Stelle ebenfalls erwähnenswerte Entwicklung in der Politik stellt die datengetriebene Entscheidungsfindung dar. Als bekanntestes Beispiel lassen sich hier wohl die in globaler Kooperation erstellten Szenarien zum Klimawandel nennen. Hier werden weltweit erhobene Ereignisdaten digital berechnet und in großen Netzwerken wissenschaftlich aufbereitet, um mittels probabilistischer Simulationen möglichst detaillierte Szenarien zur Entwicklung des Klimas der Erde zu gewinnen (Matzner 2015). Diese Szenarien sind Bezugspunkte sowohl uni- als auch multilateraler Klimapolitiken und entsprechender Abkommen; gleichzeitig bleibt die Notwendigkeit ihrer Interpretation ein Einfallstor für nicht nur akademische, sondern auch (welt-)politische Kontroversen.

14 Wenngleich nicht unbedingt als Teil der Open Data Bewegung, zeigen die jüngsten Veröffentlichungen zu den so betitelten Panama Papers, was kritischer Journalismus in Zeiten der Datengesellschaft leisten kann. Koordiniert durch das International Consortium for Investigative Journalists (ICIJ) haben ca. 4.000 Journalist_innen aus 80 Ländern 2,6 Terabyte oder 11,5 Millionen Dokumente ausgewertet und damit das laut Süddeutscher Zeitung bisher größte Daten-Leak für die Öffentlichkeit aufbereitet (siehe für diese und weitere Informationen die Süddeutsche Zeitung online unter: http://panamapapers.sueddeutsche.de/ (Zuletzt aufgerufen: 22.02.2018)).

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 341

Datenbasierte Verfahren erhalten zudem einen immer gewichtigeren Einfluss innerhalb der politischen Willensbildung. Wo soziale Medien, Webseiten und digitale Dienste auf der Basis von Nutzer_innendaten algorithmische Mustererkennungen vornehmen und entsprechend ihre Inhalte personalisiert selektieren, entstehen systematische Ausschlüsse von Inhalten, die den Präferenzen der potentiellen Wähler_innen nicht zusagen mögen (Wehner et al. 2017). Eine algorithmisch gestützte Suche nach Selbstähnlichkeit droht jedoch diskursive Echokammern oder Filterblasen hervorzubringen, die Pariser (2012) zufolge leicht in Meinungsisolationismus münden, wie sich etwa an Facebooks personalisiertem Newsstream nachweisen ließe, aber auch bei trotz gleicher Suchbegriffe unterschiedlicher Ergebnisanzeige auf Google. Wie stark diese Effekte tatsächlich sind, wird aktuell wissenschaftlich, zivilgesellschaftlich und politisch heftig debattiert. Dabei scheint nicht selten der Eindruck zu entstehen, dass politische Desinformationskampagnen und Techniken wie Bot-Swarming, bei denen gefälschte Online-Konten erstellt werden, um den Eindruck zu erwecken, dass viele Menschen eine politische Position vertreten, in den sozialen Netzwerken auf der Tagesordnung stünden (Brühl 2017). Doch auch analytische Datenforensik spielt offenkundig eine immer größere Rolle im Politikbetrieb. Bei Wahlkämpfen soll sie helfen, Inhalte passend zu den Wähler_innen zu platzieren und auch in der Entwicklung politischer Programmatik und Strategien fließen Erkenntnisse aus der Analyse von Nutzer_innendaten sozialer Medien ein. Berüchtigt ist in jüngerer Vergangenheit etwa die – nach dem werbewirksamen öffentlichen Aufruhr rasch wieder relativierte – Behauptung des Unternehmens Cambridge Analytica, dem Wahlkampf von Donald Trump über chirurgisches Microtargeting sozialer Medien entscheidend zum Sieg verholfen zu haben (Kolb 2016). Die Brisanz hinter solchen Entwicklungen liegt freilich darin, dass es sich im Falle der diskursiven politischen Willensbildung nicht einfach nur um klassische Werbung handelt, sondern letztlich um eine Beeinflussung von (teil-)öffentlichen Meinungen. Denn soziale Interaktionen und Unterhaltungen sind, wie schon Berger und Luckmann (1969: 157ff.) ausführen, die wirksamsten Versicherungen des eigenen Standpunkts in der Welt. Fasst man die Befunde zu Politik und Datafizierung zusammen, so wird deutlich, dass Datenregime und -praktiken nicht nur zu einem genuinen Gegenstand politischer Gestaltungsbemühungen werden. Daten besitzen darüber hinaus ebenfalls eine performative Kraft, die politisch wirkt. Durch die Monopolstellung bestimmter sozialer Medien wie Facebook können derartige Konzerne mittlerweile zentrale Bereiche des öffentlichen Diskurses strukturieren. Die gemeinsame Nutzung personenbezogener Daten, ihre divergierenden Interpretationen und gezielte datengetriebene politische Werbung oder Desinformation entpuppen

342 | HOUBEN & P RIETL

sich damit als Herausforderung für die Demokratie und führen im Verbund mit der digitalen Mediatisierung zu einem neuerlichen Strukturwandel der Öffentlichkeit (Habermas 1962). 2.5 Dataveillance oder der Weg ins Public-Private Panoptikum Die vielleicht stärkste öffentliche Aufmerksamkeit erfährt das Überwachungspotential digitaler Datensammlungen. Die seit Clark (1988) als Dataveillance verhandelte Form der Überwachung von Kund_innen bzw. Bürger_innen auf der Grundlage ihrer digitalen Datenspuren unterscheidet sich von der klassischen Überwachung (Surveillance) insofern, als sie eine kontinuierliche Sammlung von (Meta-)Daten für im Vorfeld nicht festgelegte Zwecke beschreibt, während bei der konventionellen Überwachung zumindest solche konkreten Zwecke vorausgesetzt werden. Dank Big Data kehrt sich also die traditionelle nachrichtendienstliche Logik, zuerst Personen von Interesse zu identifizieren, um sie dann (datenmäßig) zu überwachen in ihr Gegenteil um. Nun werden massenweise Daten aus unterschiedlichsten Quellen aggregiert, bevor überhaupt eine konkrete Anwendung oder ein spezifischer Verdacht festgelegt werden müssen. Stattdessen suchen Algorithmen in vergangenen Ereignissen nach Mustern, um auf deren Basis Vorhersagen abzuleiten, die im Idealfall ein Eingreifen erlauben, bevor als negativ erachtete Ereignisse und Prozesse überhaupt in Gang gesetzt werden. Diese neuen Formen der Überwachung hängen nicht nur notwendigerweise von jenen Klassifikationen und Kategorien ab, die von Data Professionals erstellt werden. Dataveillance geht auch deutlich über die Überprüfung einzelner Personen hinaus und wendet sich stattdessen potentiell der ganzen Gesellschaft zu (Andrejevic 2012: 86; van Dijk 2014). Diese neue Qualität der Überwachung basiert auf der teils heimlichen, teils offenen, teils koordinierten und teils zufälligen Komplizenschaft von staatlichen und privatwirtschaftlichen Akteur_innen bei der Sammlung und Auswertung von Daten über Bürger_innen und Kund_innen. Wie boyd und Crawford (2012: 14) schreiben: „There is a deep government and industrial drive toward gathering and extracting maximal value from data, be it information that will lead to more targeted advertising, product design, traffic planning, or criminal policing.“ In diesem Sinne polemisiert auch Garton-Ash (2013), dass Orwells Big Brother im 21. Jahrhundert in Form des Public-Private Partnership aufersteht. Als Beleg für seine Vermutung und gleichzeitig historisch bis dato größte Zäsur in dieser Frage muss wohl der 10. Juni 2013 gelten, als der ehemalige CIA-Analyst Snowden sich als derjenige Whistleblower outete, der zuvor über die Überwachungspraktiken der NSA Zeugnis abgelegt hatte. Unter dem Programmnamen PRISM

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 343

sammelt, speichert und analysiert der US-Geheimdienst demnach routinemäßig die Metadaten von drei Milliarden Telefonanrufen und Interaktionen via Google, Apple-Anwendungen oder Facebook (Lyon 2014; van Dijk 2014). Dabei ist PRISM freilich kein Einzelfall; Staaten, Hochschulen und Datenfirmen sind bei der Entwicklung von Data Mining- und letztlich Dataveillance-Projekten durch den Austausch von Personal, Projektmitteln sowie schließlich Wissen und Technologien kontinuierlich miteinander verbunden15. Diese Tripple-Helix16 der Dataveillance ist im Übrigen kein US-amerikanisches Alleinstellungsmerkmal. Auch in der deutschen Informatik werden durch den Staat in Auftrag gegebene Forschungsprojekte in der Nachrichten- und IT-Sicherheitstechnik in enger Kooperation von Universitäten und privaten Unternehmen durchgeführt, deren Inhalt und Forschungserkenntnisse der Verschwiegenheit unterliegen. Dass Garton-Ashs dystopische Referenz nicht von ungefähr kommt, dokumentiert sich ebenfalls in einem Vorhaben, das aktuell große mediale Aufmerksamkeit erfährt: Zu dem Zeitpunkt, zu dem dieser Text verfasst wird, testet die chinesische Regierung im Ort Rongcheng in der ostchinesischen Provinz Shandong ein datenbasiertes Social Credit System. Aktuell ist vorgesehen, dass ab dem Jahr 2020 Chinas Bürger_innen im ganzen Staatsgebiet mittels digitaler Datenspuren wie von einer Ratingagentur bewertet werden, die für diejenigen, die sich im staatsbürgerlichen Sinne vorbildlich verhalten – bspw. Blut spenden, Rechnungen pünktlich begleichen oder die richtigen Inhalte im Internet anklicken – die höchste Ratingstufe vergibt. Wer einen hohen Status halten kann, soll mit erleichterten Krediten, einer höherwertigen Krankenversicherung oder Vorteilen bei der Studienplatzvergabe seiner Kinder belohnt werden. Abweichungen vom gewünschten Verhalten hingegen – etwa das Überqueren roter Ampeln, das Ignorieren der vom eigenen Hund fabrizierten Haufen, den privaten Konsum von Pornografie oder die Lektüre für kritisch erachteter Inhalte – sollen ab einem be-

15 In einem Artikel für die New York Times offenbaren Risen und Wingfield (2013) die Verbindungen zwischen dem Silicon Valley und der NSA. Zum Beispiel habe Skype bereitwillig mit der CIA kooperiert, um Skype-Gespräche für die Strafverfolgungsbehörden nutzbar zu machen. Die Interessen von Behörden, Unternehmen und nicht zuletzt Wissenschaftler_innen konvergieren schließlich auf einer instrumentellen Ebene: Sowohl das Silicon Valley, als auch die Geheimdienste suchen nach Wegen, um große Datenbestände über Millionen von US-Amerikaner_innen zu sammeln und auszuwerten. 16 Etzkowitz und Leydesdorff (1995) bezeichnen ursprünglich die in der Wissenschaft immer bedeutsamer werdende Konfiguration aus Wissenschaft, Staat und Wirtschaft als Tripple-Helix.

344 | HOUBEN & P RIETL

stimmten (akkumulierten) Schwellenwert negativ sanktioniert werden. Im Extremfall sollen die Betroffenen öffentlich kenntlich gemacht werden und der Verlust ihrer Arbeitsplätze drohen. Die zu solcher Ordnungsbildung benötigten Daten sollen aus dem Onlineshopping, sozialen Medien, Internetsuchanfragen und dem digitalen Bezahlen über Kreditkarten oder Smartphone-Apps sowie Krankenakten oder Polizeiberichten kommen. Zusätzlich wird auch die Nutzung von Überwachungsdaten öffentlicher Plätze geprüft. Das sich aus den Daten ergebende Bild soll nicht nur staatlichen Behörden zugänglich gemacht werden; auch Arbeitgeber, Banken, Vermieter_innen, Onlinekonzerne oder Fluggesellschaften sollen zumindest um Einsicht in die kumulierte Bewertung anfragen können. Den Stand ihres jeweiligen Vertrauenswürdigkeitsratings sollen die Bürger_innen übrigens über eine Smartphone-App jederzeit einsehen können (Lee 2017). Zhang Zheng, Dekan der wirtschaftswissenschaftlichen Fakultät der renommierten Peking-Universität und einer der Architekten des Systems wird in der Süddeutschen Zeitung mit den Worten zitiert: „Erstmal geht es uns um die Frage: ‚Bist du ein vertrauenswürdiger Mensch?‘ […] Es geht um die Ordnung des Marktes. Und letztlich geht es um nichts weniger als um die Ordnung der Gesellschaft“ (Strittmatter 2017). Die Akzeptanz eines derartigen digitalen Public-Private Panoptikums wird aktuell über Sesame Credit ausgelotet, einem Dienst des chinesischen Internetgiganten Alibaba. Auch hier erfahren Kund_innen bereits ein freiwilliges, dafür jedoch ebenso umfassendes Bewertungssystem. Wer etwa Gesundheitsbewusstsein – operationalisiert über Onlineaktivität und Konsumverhalten – demonstriert, darf auf Vergünstigungen oder Rabattaktionen hoffen. Wie Sesame Credit den Ratingscore konkret berechnet, bleibt indes Betriebsgeheimnis (Lee 2017; Strittmatter 2017). Das Zusammenwirken öffentlicher und privater Organisationen erzeugt in der Datengesellschaft schließlich ein digitales Netzwerk, dem die Potenz innewohnt zu einer neuen Art des Panoptikums zu werden, in dem die Überwachung sich nicht mehr wie im Bentham’schen Gefängnis in einem zentralen Beobachtungsposten bündelt, sondern zentrumslos und damit potentiell allgegenwärtig ist (Han 2012). Das Kontroll- und Disziplinarpotential digitaler Medien und Datentechnologien liegt gerade im Unterschied zur vielfach heranzitierten Analogie des Panoptikums gerade in der Zerstreutheit und Vielzahl ihrer ‚public-private‘ Blickverhältnisse (Bublitz 2015: 18). 2.6 Soziale Ungleichheit in der Datengesellschaft Welche Quellen und Mechanismen sozialer Ungleichheit lassen sich identifizieren, die für die Datengesellschaft charakteristisch sind? In einer relationalen Per-

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 345

spektive entstehen soziale Ungleichheiten durch Verteilungsmodi, die Akteur_innen in dominanten Positionen angesichts wiederkehrender Distributionsprobleme zur Kontrolle symbolischer, positioneller oder materieller Ressourcen institutionalisieren (Emirbayer 1997: 292f.). Mit Tilly (1998) liegen diesen institutionalisierten Zuweisungen strategische Entscheidungen mit Rückgriff auf kategorische Zuschreibungen bestimmter Akteur_innengruppen zugrunde. Diese sollen, gleichsam Zügen in einem Spiel, bestimmten Gruppen den Zugang zu wertvollen Ressourcen sichern und den anderer Gruppen eindämmen. Dabei werden Regeln und Narrative etabliert, welche diese selektive Verteilung legitimieren und dabei regelmäßig und regelhaft Beziehungsmuster hervorbringen, welche die Stellung der regelsetzenden Gruppe sichern. Wann immer diese Regeln praktisch umgesetzt und die Narrative beziehungsbildend werden, reproduziert sich folglich deren zugrundeliegende Logik und es kristallisieren sich zunehmend strukturell wirksame soziale Vor- bzw. Nachteile für die betroffenen Gruppen heraus. Entscheidend für eine soziale Position und die damit verbundenen Privilegien sind in dieser Sichtweise also nicht manifeste Eigenschaften von Personen, sondern ihre auf Ressourcenzugang und Zuschreibungen basierenden Positionierungen. Ähnlich argumentieren auch Bowker und Star (1999), wenn sie die Bedeutung von Klassifikationen und Standards in der Gegenwart analysieren. Als Klassifikation wird hier die systematische Zusammenfassung von sozialen Entitäten in sinnstiftende Kategorien verstanden. Jede Kategorie valorisiert dabei notwendigerweise bestimmte Sichtweisen, Positionen, Beziehungen und Merkmale, wodurch andere marginalisiert werden. Die Grundlagen für die klassifikationsbedingten sozialen Ungleichheiten bilden demzufolge soziale Konstruktionsleistungen. In eine sehr ähnliche Kerbe schlagend etablierte Lyon (2003) das Konzept des Social Sorting, mit dem er die Kategorisierung von gruppen- oder personenbezogenen „Rohdaten“17 in verschiedene Segmente durch Datenarbeiter_innen erfasst. Das Ziel hinter dieser Sortierarbeit besteht zunächst darin, Gruppen nach bestimmten, situativ flexiblen Kriterien voneinander zu trennen; sie kann sich je nach Zielsetzung auf alle möglichen Aspekte stützen; Einkommen, Bildung, ethnische Zugehörigkeit, Geschlecht, Musikgeschmack, Beruf, sozialer Status, Schuldenstand, Nationalität, politischer Einfluss oder Wohnort sind immer noch nur einige wenige Möglichkeiten. Auf Basis dieser Sortierung erfolgt die weitere Behandlung einer derart entstandenen Gruppe und damit für die betroffenen Ak-

17 Der Begriff Rohdaten im Sinne Lyons meint solche Daten, die erst noch einem Social Sorting unterzogen werden müssen. Er transportiert indes keine naive, neopositivistische Haltung.

346 | HOUBEN & P RIETL

teur_innen mitunter die folgenreiche Zuweisung unterschiedlicher Lebenschancen. In der Logik kumulativer Vor- bzw. Nachteile können bestehende soziale Ungleichheiten nicht nur verstärkt werden (DiPrete/Eirich 2006), mitunter werden auch neue Gruppen als statistische Artefakte generiert, die dann ökonomische oder andere soziale Vor- bzw. Nachteile erfahren. Zur Illustrierung seien zwei experimentelle Untersuchungen herangezogen, die belegen, wie datenbasierte Suchalgorithmen und algorithmisierte Werbeschaltungen nach Geschlecht und Ethnizität diskriminieren: So zeigt Google Werbeschaltungen für gut bezahlte Jobs in Führungsposition signifikant öfter Nutzer_innen, deren Profil sie als Männer ausweist, denn solchen, deren Profil sie als Frauen ausweist (Datta/Tschantz/Datta 2015); ebenso führt eine GoogleSuche nach einer Person mit einem afroamerikanisch klingenden Vornamen mit 25% höherer Wahrscheinlichkeit zu einer Werbeeinschaltung, die eine mögliche Vorstrafe der gesuchten Person suggeriert, als wenn nach einem Namen gesucht wird, der keine afroamerikanische Herkunft anzeigt. Statt „Looking for Jil Bookman?“ findet man also eher „Ebony Bookman, arrested?“ (Sweeney 2013).18 Frei nach dem Diktum der Wissenschafts- und Technikforschung – „artifacts have politics“ (Winner 1999) – sind wohl auch digitale Datentechnologien als nicht frei von rassistischen wie sexistischen Vorurteilen anzusehen. Datenbasierte Diskriminierung mag bei Werbung noch vergleichsweise trivial erscheinen, anders liegt der Fall allerdings, wenn es um das Credit-Scoring der Schufa oder Einreisebeschränkungen geht. Am Beispiel des US-amerikanischen Kreditmarkts zeigen Fourcade und Healy (2013) wie Credit ScoringTechnologien die Kreditwürdigkeit von Bankkund_innen auch anhand nichtökonomischer Daten, wie Wohnort oder Art des Studienfachs, beurteilen. Dies führt zu einer weder für die Bankangestellten noch Kund_innen nachvollziehbaren Bonitätsbewertung bzw. Zinsfestsetzung und beeinflusst darüber die Lebenschancen letzterer maßgeblich. Entscheidend dabei ist, dass die Datenbewertung keiner intendiert diskriminierenden, sondern einer für den jeweiligen Bewertungskontext instrumentell-probabilistischen Logik der (algorithmischen) Datensortierung folgt. Wenn dabei aber in einem Kontext vorgenommene Klassifizie-

18 Während diese in der Informatik selbst generierten Studien zwar überzeugende Hinweise auf die diskriminierenden Ergebnisse von algorithmischer Datenverarbeitung liefern, verbleiben sie mit Blick auf die sozialen Prozesse der Inskription gesellschaftlicher Ungleichheitsverhältnisse in diese informationstechnischen Artefakte bei allgemeinen und oberflächlichen Vermutungen, etwa über stereotype Vorannahmen von etwa Programmierer_innen, die diese wiederum unreflektiert und unintendiert in die Programmeinstellungen einschrieben.

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 347

rungen auch für andere Bereiche positionsbestimmend werden, werden soziale Ungleichheiten in kaum mehr hinterfragbarer Weise affirmiert und verfestigt. Auch beim Predictive Policing geht es zunächst um die Nutzung datenanalytischer Werkzeuge zur Aufklärung bereits verübter Delikte, jedoch zum Zwecke der probabilistischen Prognose potentieller Straftaten. Mittels einer umfassenden Datenanalyse wird hier errechnet, wie hoch die Wahrscheinlichkeiten vermutlich bevorstehender Straftaten sind oder wie wahrscheinlich Straftäter_innen rückfällig werden (Perry et al. 2013: 1f.). In den USA gaben zu Beginn dieses Jahrzehnts bereits 70% der im Rahmen einer Studie befragten Polizeidienststellen an, auf predikative Modelle zurückzugreifen (Gluba 2014: 7). Auch in Deutschland ist seit 2014 ein, wenngleich beschränkter, Einsatz derartiger Datenanalysemethoden in der Kriminalitätsabwehr zu beobachten. Aktuell ist allerdings nicht erwiesen, ob Straftaten dank Predictive Policing tatsächlich verhindert werden. So wird neben den Kosten sowie der Sicherheit der dazu herangezogenen Daten vor allem kritisiert, dass die Logik des Predictive Policing zu einer Aushöhlung der Unschuldsvermutung führt und dass die den Bewertungen notwendigerweise zugrundeliegenden Klassifizierungen tendenziell Diskriminierungen befördern (Richter/Kind 2016), wie sie schon im Zentrum der Labeling Theorien standen (Becker 1963). Dass es sich hierbei um keine rein theoretisch begründete Sorge handelt, ist für die USA bereits dokumentiert, wie Angwin, Larson, Mattu und Kirchner (2016) von einem dort eingesetzten Programm zur Bewertung des Rückfallrisikos von Straffälligen berichten: „In forecasting who would re-offend, the algorithm made mistakes with black and white defendants at roughly the same rate but in very different ways. The formula was particularly likely to falsely flag black defendants as future criminals, wrongly labeling them this way at almost twice the rate as white defendants. White defendants were mislabeled as low risk more often than black defendants“. Vielsagend in diesem Fall ist weiter, dass Northpointe als die für das Bewertungsprogramm verantwortliche Firma ihre Algorithmen nicht offenlegt. Gesellschaftspolitisch bedeutsam ist, dass die bei sozialen Sortierprozessen in Anwendung gebrachten Klassifikationen nicht notwendigerweise auf gesellschaftlich etablierten oder politisch legitimierten Grenzziehungen und Bewertungen beruhen. Bei der gegebenen Undurchsichtigkeit der konkreten Sortierungsverfahren besteht die Gefahr einer Entkopplung gesellschaftlicher Prozesse der öffentlich zugänglichen Etablierung, politisch-diskursiven Rechtfertigung und nicht zuletzt gesellschaftlichen Repräsentation der zugrundeliegenden datengetriebenen Klassifikationen (siehe dazu auch den Beitrag von Diaz-Bone in diesem Band).

348 | HOUBEN & P RIETL

Im Licht derartiger Befunde ist davon auszugehen, dass es sich bei datengetriebenen Prozessen des Sortierens und Bewertens um einen für die Datengesellschaft charakteristischen Mechanismus der Erzeugung sozialer Ungleichheit handelt (siehe hierzu auch den Beitrag von Krenn in diesem Band).19 Ähnlich sehen auch Krenn (2017) und Mau (2017) in der Ausbreitung datenbasierter Vermessungs- und Vergleichspraktiken einen neuen Modus der Reproduktion sozialer Ungleichheit, in dem Bewertungen auf Basis von digital mediatisierten Quantifizierungen vermehrt zu Gatekeepern sozialer Vor- bzw. Nachteile werden. Die Datafizierung des Alltags und der Arbeitswelt schafft in dieser Hinsicht also immer auch Gelegenheiten, Bewertungs- und Vergleichslogiken in Lebensbereiche zu tragen, die zuvor von diesen unberührt waren. Je umfassender Daten verfügbar gemacht und je feingliedriger digitale Alltagsspuren miteinander in Beziehung gesetzt werden, desto mehr Möglichkeiten bieten sich, Wettbewerbslogiken wenigstens in Form von Quasi- oder Status-Märkten mit Lebenschancen zu verknüpfen (Mau 2017: 259ff.). 2.7 Machtrelationen der Datengesellschaft Die zuvor diskutierten Entwicklungen deuten bereits Machtasymmetrien an, deren Basis in der Verfügung über digitale Daten begründet ist. Begreift man Daten und an sie anschließende Möglichkeiten ihrer Verarbeitung und Nutzbarmachung als wertvolle Ressource, so begründet die Kontrolle großer, möglichst umfassender Datenmengen eine Machtposition. Die daraus resultierende Konfiguration scheint zunächst die aktuelle Erscheinungsform der von Coleman (1986) beschriebenen asymmetrischen Gesellschaft zu sein. Derzufolge habe spätestens das letzte Jahrhundert für Organisationen zu einem Machtgewinn geführt, während sich für Individuen daraus ein entsprechender Machtverlust ergeben habe. Organisationen überwältigen gewissermaßen ihre Schöpfer_innen, indem sie als korporative Akteure ihre Ressourcenvorteile gegenüber den individuellen Akteur_innen strategisch ausspielen (Schimank 2007b: 244). Dies scheint sich für die Internetkonzerne und Datenunternehmen zu bestätigen, be-

19 Bewusst ausgelassen werden hier ungleichheitsgenerierende bzw. -reproduzierende Effekte einer verschiedenartigen Nutzung des Internets, wie sie zunächst unter dem Stichwort ‚Digitale Divide‘ und jüngst im Rahmen des Konzepts Digitaler Ungleichheit (exemplarisch: Zillien 2009) verhandelt werden, da hier dezidiert auf die mehr oder weniger vorteilhafte Verwendung digitaler Informations- und Kommunikationstechnologien durch Endnutzer_innen fokussiert wird, ohne jedoch die möglichen datenbezogenen Logiken und Effekte dieser Nutzungsformen zu adressieren.

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 349

sitzen sie doch riesige Mengen digitaler Daten, designen zu deren Analyse Algorithmen und monopolisieren die mittels ihrer eigenen Technologien eingeführten neuen Formen sozialen Austauschs. Durch die Abstimmung und Vernetzung ihrer Angebote20 generieren sie zudem Systeme, die es ihnen ermöglichen, immer differenziertere Profile ihrer zahlreichen Nutzer_innen zu erstellen. Zudem besitzen sie aufgrund ihres wirtschaftlichen Erfolges schier unbegrenzte finanzielle Möglichkeiten, die sie wiederum für Produktentwicklung oder für das Aufkaufen potentiell konkurrierender Start-Ups einsetzen, um ihre Marktführerschaft weiter auszubauen (Lash 2007; Zwitter 2014; Dolata 2015; Iliadis/Russo 2016). So unmittelbar einleuchtend diese Diagnose auch sein mag, reduziert und reifiziert sie jedoch der Datengesellschaft eigentümliche Machtstrukturen auf einen dichotomen Gegensatz der großen Internetkonzerne gegen den Rest der Welt. Demgegenüber fordert Castells (1996: 469), gesellschaftlich bedeutsame Machtkonstellationen als Netzwerke zu begreifen. Er begründet dies mit der zentralen Stellung von Informationen als Machtmittel: „Die Macht der Ströme hat Vorrang vor den Strömen der Macht“. Wenn sich Machtbalancen anhand von Informationsflüssen austarieren, werden in Informationsnetzwerken vor allem Umschaltund Verbindungspositionen zu „privilegierten Instrumenten der Macht“, da dort die Bedingungen für die Kanalisierung der Informationsströme und letztlich für die „Führung und Irreführung der Gesellschaft“ am günstigsten seien (Castells 1996: 471). Die Fähigkeit, Informationsnetzwerke zu konstituieren und zu programmieren, ist in dieser Lesart ein wesentliches Mittel, um Herrschaft auszuüben. Macht wäre damit weniger ein Attribut eines singulären mächtigen Akteurs, sondern muss verstanden werden als komplexes Bündel koordinierter oder gemeinsamer Aktionen (Castells 2009). Machtgefüge als multipolar und damit prinzipiell kontingent zu verstehen, schlug auch schon Elias (1970: 76f.) vor. Er hob dabei besonders auf Abhängigkeitsdifferentiale ab, die überall dort entstehen, wo funktionale Interdependenzen zwischen verschiedenen Akteur_innen bzw. zwischen ihren Funktionsrollen und Positionen aufgebaut werden. Folgt man diesen Überlegungen, sind Machtbeziehungen überall dort zu erwarten, wo man es mit Arbeitsteilung, funktionalen Differenzierungen, kulturellen Heterogenitäten und strukturellen Positionen zu tun hat. In dieser Logik lassen sich für die Datengesellschaft wenigstens drei grobe idealtypische Machtpositionen postulieren, die in Relation zueinander je eigene Abhängigkeiten auszeichnen und darüber wiederum strategische Einflusspotenziale entstehen lassen:

20 Mit einer Anleihe an Coser (1974) könnte man hier gewissermaßen von greedy products sprechen.

350 | HOUBEN & P RIETL

(1) Positionen struktureller Macht, aus denen heraus Akteur_innen die soziotechnische Infrastruktur der Datensammlung und -analyse kontrollieren und als Machtmittel nutzen. Strukturelle Macht soll hier folglich als Chance verstanden werden, das Setting zu kontrollieren, innerhalb dessen Datenpraktiken möglich sind. Über soziotechnische (Infra-)Strukturen lassen sich die Aktionen Dritter zwar nicht unmittelbar determinieren, dennoch materialisieren sie immer auch Spielregeln im Interesse der strukturell mächtigen Akteur_innen (Strange 1988: 25). Wie Dolata (2015: 525) mit Blick auf Internetkonzerne so treffend schreibt, ist „[k]ein von ihnen entwickeltes Gerät, keine Software, kein App Store, keine Such-, Medien-, Konsum- oder Beziehungsplattform […] einfach ein technisches Angebot, das die Nutzer mit ihren Inhalten beliebig ausgestalten und umdefinieren können. In die ihnen zugrunde liegende Technik werden immer auch Regeln, Normen und Handlungsanleitungen eingebaut, die auf die Aktivitäten ihrer Nutzer wie soziale Institutionen wirken und die deren Handeln im Netz sowohl ermöglichen als auch mitstrukturieren.“ Eine starke strukturelle Machtposition ist etwa dann eingenommen, wenn die Formate bestimmter Unternehmen als Standard und primäre Bezugsquelle für Daten etabliert werden. Wenn Facebook, Apple, Microsoft oder Alibaba neben sich selbst und Datenhändlern auch staatliche Behörden und die Wissenschaft mit Daten – und nicht selten gleichzeitig Werkzeugen zu deren Erhebung und Analyse – beliefern (van Dijk 2014: 203), steigt der Austausch- und Gebrauchswert dieser Daten um ein Vielfaches (Mosco 2009: 143) und die strukturelle Machtposition der Datenunternehmen vergrößert sich mit diesem. (2) Positionen definitorischer Macht, aus denen heraus Akteur_innen Daten einen sozialen Sinn, eine Bedeutung und Bewertung geben. Indem Kategorien der Nutzung (re-)definiert, die eingehenden Daten bewertet und mit anderen Daten kombiniert werden, wird erst der explizite Nutzen von Daten gestiftet. Dabei geht es in der Ausübung von Definitionsmacht weniger um die repräsentative Abbildung sozialer Zusammenhänge, sondern um die instrumentelle Herstellung und damit verbundene Kontrolle von Beziehungen zwischen Datenpunkten (Vormbusch 2007: 54). Erst diese Kategorisierung und Klassifizierung ermöglicht es auch anderen Akteur_innen in neuen sozialen Kontexten und unter neuen Kriterien an Daten anzuschließen und sie in der Folge eigenständig zu prozessieren (Beer 2015). Zu bestimmen, was Daten in unterschiedlichen Zusammenhängen bedeuten, eröffnet Chancen gesellschaftlicher Kontrolle, unabhängig davon, ob Betroffenen dabei anwesend oder sich dem überhaupt bewusst wären (Bauman/Lyon 2013; Kitchin 2014; Hagendorff 2017). Die Macht, eine Benennung, Klassifikation oder Definition zu setzen, bedeutet auch darüber entscheiden zu können, welche Normen und Werte als legitim erachtet werden, wer sie

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 351

erfüllt, wem Teilhabe gewährt wird und welche Kriterien dazu als relevant erachtet werden. Wie bereits weiter oben dargelegt, haben Akteur_innen in Positionen definitorischer Macht die Chance, zentrale Bedingungen sozialer In- oder Exklusion nachhaltig zu beeinflussen. (3) Positionen kollektiver Macht schließlich besetzen jene Akteur_innen, die datengetriebene Dienstleistungen nutzen und deren Verhalten datafiziert wird. Üblicherweise sind es also die Nutzer_innen digitaler Dienste bzw. Kund_innen der Datenkonzerne oder Bürger_innen solcher Staaten, die Dokumentations-, Vermessungs- oder Überwachungstechnologien einsetzen. Um die strategischen Optionen innerhalb dieser Position zu umreißen, scheint uns ein Rückgriff auf das bereits von Hirschmann (1970) prominent untersuchte Verhältnis von Konsument_innen gegenüber Firmen instruktiv. Hier differenziert er drei basale Strategien, namentlich: Loyalität, Abwanderung und Widerspruch. Loyalität zeigt sich in unserem Fall als affirmative oder weitgehend indifferente, damit letztlich jedoch loyale Fortsetzung des Konsums einer bestimmten Dienstleistung bzw. hier auch als protestfreie Duldung der eigenen datenförmigen Erfassung (siehe dazu auch 3.2 und 3.3). Abwanderung hingegen realisiert sich bei Nutzer_innen datengetriebener Medien und Technologien entweder als Wechsel zu Konkurrenzanbietern oder als Verzicht auf den entsprechenden Dienst. Da der Konsum innerhalb der Datenökonomie die Produktion als wichtigstes Element der Wertschöpfung abgelöst hat, sind Boykotte oder (angedrohte) Abwanderungen theoretisch wirksame Machtmittel, die von Nutzer_innen als Drohpotential eingesetzt werden können (Zureik/Mowshowitz 2005) und selbst die Monopolstellungen der Internetgiganten zumindest im Grundsatz volatil machen (Dolata 2015). Wo allerdings die großen Datenkonzerne mit ihren Diensten faktische Monopolstellungen innehaben, sind Abwanderungen für die Nutzer_innen mitunter mit hohen persönlichen und sozialen Kosten verbunden. So käme etwa ein Verzicht auf den Messengerdienst Whatsapp für Eltern von Schulkindern mittlerweile nicht selten einem Selbstausschluss aus der Kommunikation und wechselseitigen Abstimmung mit anderen Eltern und Lehrer_innen rund um das Klassengeschehen des Kindes gleich. Demgegenüber adressiert schließlich Widerspruch zunächst jeden Versuch der Nutzer_innen, Unzufriedenheit oder auch Verbesserungsvorschläge zu artikulieren, um ungünstigen Zuständen nicht einfach nur auszuweichen, sondern diese bestenfalls zu korrigieren. Hirschmann (1970) zufolge wird Widerspruch im Gegensatz zur Abwanderung vor allem dann eingesetzt, wenn eine Loyalitätsbeziehung zwischen den Kund_innen und der Organisation besteht. Ob diese Loyalität auf individuell empfundener Abhängigkeit einer bestimmten Dienstleistung gegenüber basiert oder sich in Form von emphatischem Zuspruch für ein bestimmtes Produkt äußert, ist dabei zunächst unerheblich. Wi-

352 | HOUBEN & P RIETL

derspruch ist als Machtmittel freilich voraussetzungsvoll, schließlich bedarf er wenigstens organisierter, bestenfalls solidarisierter Kollektive, um sein strategisches Potential voll ausspielen zu können (siehe auch 2.4).

3. R EPRODUKTIONSMECHANISMEN DER D ATENGESELLSCHAFT Nach der Skizzierung dieser u.E. zentralen (Re-)Strukturierungsdynamiken der Datengesellschaft stellt sich nun die Frage nach den Mustern ihrer Reproduktion. Dazu werden wir uns im Folgenden auf vier Prozesse konzentrieren, die in allen Bereichen der Gesellschaft zu beobachten sind, die dort anzutreffenden Strukturierungen befördern und dabei aufs Engste miteinander verflochten sind. 3.1 Soziotechnische Infrastruktur der Datengesellschaft Dass die Datafizierung des Sozialen die gezeigten Ausmaße annimmt, ist unauflöslich mit der Diffusion (digitaler) Technologien des Datensammelns, -speicherns und -analysierens verknüpft. Für die Verbreitung mobiler Endgeräte, die nicht nur unser jedes Tun und Lassen, sondern auch diverse Umwelt-, Meta- und Transaktionsdaten beinahe unmerklich aufzeichnen und via Internetschnittstelle in ein World Wide Web einspeisen, steht das Smartphone mit seinen AppTechnologien geradezu paradigmatisch.21 Mittlerweile nimmt das Gros der Endnutzer_innen nicht nur hin, dass sich die Standortortung auch durch Deaktivierung der GPS-Funktion des Smartphones nicht einfach abstellen lässt, es hat sich auch daran gewöhnt, dass mit dem Update einer Messenger-App die Forderung einhergehen kann, Zugriff auf die Handy-Kamera zu bekommen. Für Web 2.0Technologien ist es ob ihrer dezidiert partizipativen Anlage konstitutiv, systematisch „nutzer_innengenerierte Inhalte“ zu sammeln – und zwar nicht nur in Form

21 Das Internet bildet zweifelsohne die zentrale, hochkomplexe und -vernetzte, technische Infrastruktur der Datengesellschaft, wenngleich diese im doppelten Sinne im Verborgenen liegt. Die materiell-physischen Elemente dieses Netzwerkes stehen – von Routern und Netzwerkanschlüssen abgesehen – entweder an entlegenen Orten, wie Datenserver, oder sind wie die Glasfaserkabel unter der Straße oder tief unter den Ozeanen vergraben. Wie die vielen ambitionierten und dennoch immer höchst inadäquaten Versuche, Online-Operationen oder Datenflüsse im Netz zu visualisieren, demonstrieren, sind weite Teile dessen, was im Internet passiert, zudem ob ihrer Immaterialität schlicht und ergreifend unsichtbar.

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 353

von Social Media-Beiträgen (O’Reilly 2005; Beer 2009), sondern auch mittels Cookies und anderen Web Monitoring-Technologien, die vordergründig als Kommunikationsmedium zwischen Kund_innen und Unternehmen in Erscheinung treten, aber letztlich als Datenkrake fungieren, die Daten über so gut wie all unsere Online-Aktivitäten sammelt (Engstler/Nohr/Bendler 2014). Zukünftig werden es wohl vor allem die vernetzten Objekte (Stichwort: Internet of Things) sein, die eine immer verzweigtere, technische Infrastruktur des Datensammelns komplementieren. In einer „era of ubiquitous technology“ (Gill 2013: 367) werden Alltagsgegenstände wie Uhren, Waschmaschinen oder Autos mittels intelligenter Sensortechnik und internetbasierter Vernetzung zu ‚smarten‘ Objekten, die uns – so die optimistische Vision – das Leben erleichtern, dafür aber fortwährend Daten sammeln und über das Internet weitergeben. Damit werden digitale Datenbanken als spezifische, technische Infrastruktur und universelle Metapher digitaler Informationssammlungen und -verwaltung insofern konstitutiv, als sie die technologische Basis für die digitale Datenverwaltung ebenso wie für heterogene Praktiken der digitalen Datensammlung und -verarbeitung bereitstellen (Manovich 2001: 194ff.; Nimis/Armbruster/Kammerer 2014; Burkhardt 2015: 17). Neben Datenbanken als Modi der Datenverwaltung, gilt es die Bedeutung von Datenspeichertechnologien nicht zu unterschätzen (zur Bedeutung des Festplattenlaufwerks siehe auch Kirschenbaum 2008). Jüngst wird Cloud Computing bzw. die Cloud als Metapher für einen scheinbar unendlichen, de-lokalen Datenspeicher als Zukunft der digitalen Datenspeicherung propagiert (Kohler/Specht 2014; siehe auch den Beitrag von Kerpen und Eggert in diesem Band). Kritische Stimmen betonen dementgegen ‚den Fußabdruck‘ der auch für Cloud-Speichertechnologien notwendigen Hard- und Softwareinfrastrukturen (Metahaven 2012; Niederer/Chabot 2015). Reicht die Verarbeitung großer Datenmengen mit dem Lochkartensystem bis ins späte 19. Jahrhundert zurück, zielen gegenwärtige Bemühungen auf deren zunehmende Automatisierung und setzen damit neue Impulse für die Bereiche Künstliche Intelligenz, Robotik und Neuroinformatik. Weniger futuristisch ausgerichtete Analysen richten den Fokus hingegen auf „Protokolle“ – etwa das https-Protokoll – als Systeme konventioneller Regeln und Standards, die die Beziehungen innerhalb von Netzwerken, hier die Kommunikation zwischen Computern, und damit die „mikrotechnische Ebene nichthumaner Maschinenpraktiken“ regeln (Galloway/Thaker 2014: 290). Mit unserer, obschon zeitdiagnostischen, Rede von der Datengesellschaft sollen also keineswegs die historischen Kontinuitäten soziotechnischer und kultureller Vorbedingungen unterschlagen werden, welche die aktuell zu beobachtende Datafizierung erst ermöglicht haben. Auch mögen sich die obigen Ausfüh-

354 | HOUBEN & P RIETL

rungen wie Zeugnisse einer unaufhaltsamen und eigenlogisch fortschreitenden (daten-)technischen Entwicklung lesen, weshalb hier betont sei, dass diese keineswegs in einem technikdeterministischen Sinne verstanden werden möchten. Vielmehr geht es darum, die komplexen soziotechnischen Komponenten des Sammelns, Speicherns und Verarbeitens von Daten als wesentlichen Reproduktionsmechanismus der Datengesellschaft zu würdigen, an denen, wie die nächsten Abschnitte erörtern, ihre Mitglieder an vorderster Stelle beteiligt sind. 3.2 Datafizierung durch die Mediatisierung des Alltags Datenpraktiken und digitale Dateninfrastruktur stehen in einem Verhältnis wechselseitiger Ermöglichung und Beschränkung zueinander. Letztere ist in ihrer Funktionsweise und ihrer Durchsetzungsfähigkeit abhängig von den alltäglichen praktischen Routinen, die sich ihrer wiederum bedienen. Zunächst neuartige Medien, Materialitäten und digitale Prozesse werden über die Zeit bekannter, ihre Ausführung routinierter und letztlich habitualisiert (Knoblauch 2003; Häußling 2014). So ist unser Alltag mittlerweile weitreichend mediatisiert: Große Teile unseres alltäglichen Tuns und auch unserer sozialen Interaktionen finden durch digitale Artefakte und Soziale Medien-Technologien vermittelt statt. Basierten soziale Interaktionen bis vor wenigen Jahrzehnten noch weitgehend auf unmittelbarer Anwesenheit, erleben wir dank Telekommunikation und digitaler Vernetzung die Gegenwart immer verteilter (Faßler 2001: 250; Hepp/Krotz 2014), aus körpergebundener Ko-Präsenz wird immer öfter mediatisierte KoReferenz (Houben 2018a). Die Mediatisierung sozialer Interaktionen führt nicht nur zu einer raumzeitlichen Entgrenzung des Sozialen; sie beflügelt offenbar auch unsere Bereitschaft, immer öfter und in immer mehr Kontexten Daten über uns selbst preiszugeben bzw. zu teilen. Bedenken zur Privatheit und Datensicherheit spielen bei diesem Datenvoluntarismus augenscheinlich eine überraschend untergeordnete Rolle. Wie Wagner und Stempfhuber konstatieren, haben selbst die Enthüllungen um PRISM oder Datenlecks bei Internetkonzernen „relativ wenig ‚Bewusstsein‘ für das Gefahrenpotenzial“ (Wagner/Stempfhuber 2015: 68) digitaler Medien geschaffen. Die Unbefangenheit mit der Persönliches und vermeintlich Privates preisgegeben werden, hängt gewiss auch damit zusammen, dass es digitalen Artefakten und Medien hervorragend gelingt, die ihnen zugrundeliegenden (Daten-)Technologien hinter den ihrerseits offerierten Funktionalitäten verschwinden zu lassen (Reichert 2014c; siehe zum Spannungsverhältnis von Datenschutzbedenken und aktivem Datenteilen auch den Beitrag von Leger, Panzitta und Tiede in diesem Band). Wo datenbasierte Technologien und (Arbeits-)

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 355

Routinen in habitualisierten Alltagspraktiken aufgehen, wo digitale Technologien hintergründig werden und dabei konstitutiv für den jeweils konkreten Vollzug einer Praktik bleiben, reproduziert sich die Datengesellschaft am persistentesten. Wenn wir zum Beispiel auf dem alltäglichen Weg zur Arbeit GPSDienste nutzen, Bahntickets über die Smartphone-App buchen und bezahlen, vor der Wahl der Ausstiegshaltestelle erst auf die Wetter-App und dann auf den Schrittzähler schauen, die Wartezeit bis dahin dank Flatrate bedenkenlos mit einem raschen Telefonat oder einer Textnachricht überbrücken und uns schließlich kurz vor dem Betreten des Arbeitsplatzes noch einmal der im Smartphone hinterlegten Aufgaben des Tages erinnern, dann internalisieren, legitimieren und distribuieren wir zugleich immer auch die Datafizierung des Alltags. Datenvoluntarismus ist damit gleichzeitig Treiber und Effekt der Datengesellschaft. Die Nutzung datengetriebener Medien und digitaler Artefakte wird somit für unsere soziale Integration bzw. Inklusion im zunehmenden Maße konstitutiv. Ein bewusster oder auch erzwungener Verzicht hat die wenigstens teilweise Exklusion aus verschiedenen sozialen Kreisen zur Folge und geht mit dem Verlust individueller Partizipationschancen einher. Wo sich soziale Teilhabe über digitale Medien vollzieht, können Akteur_innen jedoch kaum noch an der Gesellschaft partizipieren, ohne Datenspuren zu erzeugen. In dieser Perspektive wäre Datenvoluntarismus vornehmlich der Ausdruck einer zunehmenden Unmöglichkeit, soziale Vergemeinschaftungen ausschließlich analog zu realisieren und weniger eine Folge von Gleichgültigkeit oder Ignoranz. Im Umkehrschluss hängt der Erfolg sozialer Medien und Plattformdienste damit in großem Umfang davon ab, inwiefern es ihnen gelingt, für die Sozialintegration im Alltag konstitutiv zu werden. Ein Beispiel dazu liefert die Datafizierung zuvor nicht quantifizierter Bereiche wie Intimbeziehungen, die mittlerweile ebenfalls von Datenpraktiken durchdrungen werden (Orton-Johnson/Prior 2013). Dating-Webseiten oder Apps wie Tinder für die Suche nach romantischen oder sexuellen Partner_innen werden vorwiegend für mobile Endgeräte entwickelt und lassen sich immer unmittelbarer in den Alltag integrieren (Albury et al. 2017). Praktiken des Datafizierens der Lebenswelt und damit verbundenes Datenteilen müssen also immer auch unter Gesichtspunkten sozialer Integration verstanden werden. Datenspuren werden damit zu immer unvermeidlicheren wie auch akzeptierten Nebenprodukten sozialer Vergemein- und Vergesellschaftung. Diese vollzieht sich dabei, wie im folgenden Abschnitt deutlich wird, zunehmend vor dem zunächst unscheinbar wirkenden Spiegel datenbasierter Klassifikationsund Kategorisierungsregime.

356 | HOUBEN & P RIETL

3.3 Datengetriebene Vermesserungsregime Von den Tourismusbuchungsseiten TripAdvisor und Booking über die Datingplattform Tinder bis hin zur Webseite ratemyprofessor.com, auf der Studierende in einer Umkehrung der institutionalisierten Bewertungsordnung und außerhalb von formal organisierten Lehrevaluationen Noten für ihre Dozierenden vergeben können, haben in (nahezu) alle Gesellschafts- und Lebensbereiche Sternchen, Punkte oder ‚dis-/likes‘ Einzug gehalten und mit ihnen quantifizierte Bewertungen und Vergleiche. Innerhalb der in den letzten Jahren rasch an Prominenz gewonnenen Soziologie der Bewertung herrscht Einigkeit darüber, dass Praktiken und Prozesse des Wertens und Bewertens, Vermessens und Vergleichens konstitutiv für die zeitgenössische soziale Ordnung sind (siehe überblicksartig Lamont 2012; Krüger/Reinhart 2017). Mau (2017: 49ff.) will das (sich) Vergleichen sogar als anthropologische Konstante verstanden wissen und Vollmer (2004) hat schon lange vor der soziologischen Konjunktur von Quantifizierung und Datafizierung auf die wirklichkeitsstiftende Funktion von Zahlen in organisationalen Kontexten hingewiesen. Wie schon die Wahl der Eingangsbeispiele andeutet, bilden digitale Datentechnologien sowohl die zentrale soziotechnische Infrastruktur dieser Vergleichs- und Bewertungsprozesse als auch die wichtigsten Treiber dieser Entwicklung. Damit soll hier nicht in einem ahistorischen Gestus über die Vorläufer dieser Entwicklung hinweggegangen werden, allen voran der Etablierung des modernen, auf empirischen Messungen basierenden Wissenschaftsideals sowie der Doppelten Buchführung als Kennzeichen wie Voraussetzung moderner kapitalistisch-bürokratischer Organisationen. Vielmehr ist mit Vollmer (2004) davon auszugehen, dass sich der organisierte Umgang mit Zahlen über einen längeren Zeitverlauf „einleben“ musste, um sein heute beinahe unterhinterfragbares Ansehen als objektiv, transparent und effizient, da komplexitätsreduzierend, zu erlangen (siehe hierzu auch Heintz 2007). Dieser „eingelebte Umgang“ mit Daten als Ordnungsmedien gewinnt mit der Ausbreitung digitaler Datentechnologien jedoch an Tempo und Dynamik und erfährt bislang nur ansatzweise erforschte Verschiebungen (siehe zu diesem Desiderat Lamont 2012: 215; Jürgenmeyer/Krenn 2016: 186). Heintz (2016) beschreibt Vergleiche, als wenig beachtete, wenngleich den ungleich stärker diskutierten Prozessen des Wertens und Bewertens zugrundeliegende soziale Praxis in einem analytischen Dreischritt (eine vergleichbare Dreifachstruktur beschreibt Lamont (2012: 205) für (Be-)Wertungen): Im Zuge von Kategorisierungsprozessen müssten die zu vergleichenden Sachverhalte zuerst als vergleichbar eingestuft werden, bevor anhand von Vergleichskriterien gradu-

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 357

elle Differenzen zwischen ihnen ermittelt werden können, die schließlich ihre Relationierung erlauben (Heintz 2016: 307f.). Mit ihrem transsituativen Modell von Bewertungskonstellationen wollen Meier, Peetz und Waibel (2016: 315ff.) den Blick weiter für Bewertungsprozesse öffnen, die über einzelne Bewertungssituationen und -praktiken hinausreichen und durch eine triadische Struktur bestehend aus Bewertetem, Bewertendem und Publikum charakterisiert sind. Die zwischen diesen unterschiedlichen Positionen im Bewertungsgeschehen bestehenden Beziehungen können sich in Abhängigkeitsverhältnissen und Einflusspotenzialen realisieren. Mit der Etablierung und Einrichtung immer neuer Bewertungsplattformen im Internet können gegenwärtig alle zu Bewerteten werden – und dies vermehrt außerhalb klassisch institutionalisierter und formal organisierter Bewertungskontexte, wie beispielhaft an der Bewertung von Dozierenden sichtbar wird. Die mittels Internet weltweit und zu geringen Beschaffungskosten verfügbaren Informationen ermöglichen aber auch, dass jede und jeder zu Bewertenden werden kann, wodurch vermehrt auch sog. Lai_innen diese Position einnehmen können, was wiederum Fragen der Legitimation derartiger Bewertungen aufwirft. Durch algorithmische Verarbeitung der von ihnen gesammelten – und mitunter aktiv eingeforderten – Bewertung werden auch Internetplattformen selbst zu bewertenden Akteur_innen, die – zumindest bislang – ihre Berechnungsweisen nur selten transparent machen (Meier/Peetz/Waibel 2016: 320). Beobachtungssituationen in der Datengesellschaft sind folglich einerseits durch ihre Wechselseitigkeit und Reflexivität charakterisiert (siehe auch den Beitrag von Frisch und Stoltenberg in diesem Band) und andererseits generalisiert und anonym (Heintz 2016: 308). Wenn Bewertende und Publikum potentiell die gesamte Weltöffentlichkeit sein können, werden Bewertungszusammenhänge zunehmend räumlich und sozial entgrenzt (Meier/Peetz/Waibel 2016: 312) und sind in ihren (un-)intendierten Effekte aktuell noch weitgehend unabschätzbar. Dass Bewertungen – zumal öffentlich sichtbare – bei den Bewerteten (Anpassungs-)Reaktionen auslösen, wurde etwa am Beispiel der Einführung von Hochschulrankings mit Blick auf US-amerikanische Law Schools analysiert (Espeland/Sauder 2007; Sauder/Espeland 2009). Im Anschluss an Foucaults (1976) Überlegungen zum Zusammenhang von Überwachung, Normalisierung und (Selbst-)Disziplinierung wird dort gezeigt, wie Rankings und das Wissen des fortwährend Beobachtetwerdens zu einer Internalisierung der vormals externen Kriterien für eine ‚gute‘ Ausbildung werden, sodass kaum noch äußerlicher Zwang angewandt werden muss, da es zu schrittweisen Selbstanpassungen kommt.

358 | HOUBEN & P RIETL

In der Datengesellschaft verwandeln sich Akteur_innen in ständige Reviewer_innen ihrer selbst, in Recheninstanzen, die soziale Attribuierungen selbstständig gegenrechnen und mitunter zu manipulieren suchen, um ihre eigenen Chancen, ihre situative Autonomie, ihre Renditen und nicht zuletzt ihren sozialen Status zu beeinflussen. Diese „Statusarbeit“ (Mau 2017: 63ff.) geschieht zwar vermeintlich in ihrem Sinne, reproduziert aber die Logik der zur Beeinflussung genutzten Medien bzw. Dienste und basiert zwangsläufig auf den von ihnen bereitgestellten datengetriebenen und datengenerierenden Angeboten. Es handelt sich hierbei also um ein eigentümliches Zusammenfallen von digitalisierten Vermessungen und subjektiv intendierten Verbesserungen, das wir als Vermesserung bezeichnen wollen. Die in der Datengesellschaft prosperierenden Regime der Vermesserung werden dabei nicht selten spielerisch dargeboten. Indem Interfaces ludische Elemente betonen und die ihnen zugrundeliegenden Programme so gestaltet werden, dass sie Formen der Belohnung oder des positiven PeerFeedbacks in den Vordergrund stellen, appellieren sie ostentativ an die Selbstregulierungsimpulse ihrer Nutzer_innen; gleichzeitig verschleiern sie damit die für ihr Spiel, ihre Challenge, ihr Fortschrittstagebuch etc. konstitutive doppelte Vermessung dank derer nicht nur die Nutzer_innen mehr über sich, sondern auch die Anbieter_innen viel mehr über die Nutzer_innen erfahren (siehe allgemein zum Thema Gamification Fuchs et al. 2014). Die spielerische Bewertung des Alltags ist dabei unmittelbar verknüpft mit der Logik kapitalistischer Landnahme, wie der nachfolgende Absatz darlegt. 3.4 Datafizierung als Kommodifizierung – Zum Wert der Daten Eine Diskussion sich stetig beschleunigender und ausweitender Datafizierung muss die Frage stellen, warum Daten überhaupt einen Wert haben und warum überhaupt ein (ökonomisches) Interesse daran besteht, immer mehr Daten zu generieren, auszuwerten und zu nützen. Ganz allgemein scheint der Wert von Daten in ihrem Potential begründet, Informationen und Erkenntnisse zu gewinnen. Daten versprechen ein Heilmittel gegen das Problem der Unsicherheit, insofern sie Entscheidungsalternativen kalkulierbarer erscheinen lassen – etwa wenn wie erwähnt Kreditvergabeentscheidungen auf Basis von immer komplexeren Berechnungen der Kreditwürdigkeit basieren, die ihrerseits auf immer umfänglichere Datenanalysen rekurrieren (Fourcade/Healy 2013). Den Fluchtpunkt der Wertzuweisung von Daten bildet damit eine letztlich imaginierte, aber dennoch Gültigkeit beanspruchende Zukunftsorientierung, die etwa Beckert (2013) als eine zentrale Rationalität des Wirtschaftens identifiziert. Dieses informative Potential von Daten gründet dabei paradoxerweise auf der ihnen inhärenten Abstrahie-

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 359

rung sozialer Prozesse. Diese Abstraktionen werden qua bürokratischer, technischer oder schlicht mathematischer Kompatibilität nach Maßgabe einer im Vorfeld entschiedenen oder einer situativen Erkenntnisrationalität zusammengeführt – unabhängig davon, ob die ursprünglich zugrundeliegende, gelebte soziale Realität hier abgebildet wird oder nicht (Arvidsson 2016). Im Umgang mit Big Data werden Erkenntnisse über Zusammenhänge üblicherweise gewonnen, indem zunächst eine unüberschaubar große Menge digitaler Daten in einen synthetischvirtuellen Referenzraum übertragen wird. In diesem Referenzraum abstrakter Datenpunkte lassen sich nun Korrelationen erstellen und Zusammenhänge anhand unterschiedlichster Kriterien ableiten, ohne sich von der weiterhin tosenden Komplexität der Realität ernsthaft irritieren lassen zu müssen. In einem derart entkoppelten und notwendigerweise subjektbefreiten Referenzraum abstrakter Daten lassen sich nun Zusammenhänge berechnen, die als probabilistische Empfehlungen dann Entscheidungen über den jeweils interessierenden Erkenntniszusammenhang informieren, Risiken abschätzen oder Preise anhand eines in die Zukunft projizierten Pfades berechnen (Amoore 2011; Arvidsson 2016). Gemäß dieser Logik ist das offensichtliche Verkaufsargument von Datendienstleister_innen gegenüber klassischen Wirtschaftskund_innen die Platzierung von möglichst passender Werbung auf den Seiten der Nutzer_innen22. Die Passung wird aus den Interessen und Präferenzen abgeleitet, die sich den Datenspuren der Nutzer_innen entnehmen lassen und anschließend auf mögliche Werbeobjekte neu extrapoliert. So bedeutet also die Aufnahme in eine potentiell an Kochbüchern interessierte Werbegruppe nicht zwangsläufig, dass die adressierten Nutzer_innen überhaupt einmal aktiv Interesse am Kochen bekundet hätten. Allerdings lassen sich aus ihren entkoppelten Datenpunkten zumindest Korrelationen auslesen, die solchen statistisch hinreichend ähnlich sind, in denen Kochen oder Kochbücher im Mittelpunkt stehen. Die an Werbekunden ausgerichteten Datenanalysen beschreiben die Nutzer_innen folglich als Ansammlung von Datenpunkten, die sich in Bezug auf den Grad der situativ relevanten statistischen Ähnlichkeiten in einem bestimmten Abstand zueinander befinden (Arvidsson 2016). Daten setzen in der Gegenwartsgesellschaft eine spezifische Logik der Valorisierung und Kommodifizierung frei, die ihrerseits die Datafizierung des Sozia-

22 Letztlich eröffnet sich Facebook zusammen mit der Verbreitung einer schier unüberschaubaren Zahl von in verschiedenste Geräte eingelassenen Sensoren zur Datenerfassung das Potenzial, zu einem Dienstleister zu werden, der es seinen Kunden ermöglicht, ihre Entscheidungsgrundlagen bis in die kleinsten Details des Alltäglichen auszudehnen.

360 | HOUBEN & P RIETL

len befeuert: Daten lassen sich nun massenhaft generieren und in aggregierten Datenbanken werden beständig Verknüpfungen und neue Zusammenhänge hergestellt23. Durch algorithmische Vernetzung einer schier unendlichen Menge an Einzeldaten gewinnen sie eine „neue Dimension der Konnektivität“ (Baecker 2013: 156), die es ihrerseits erlaubt, sämtliche zugängliche Datenspuren in nie dagewesener Umfänglichkeit, Tiefe und Kontinuität zu verfolgen (Latour 2013: 120). In diesem Prinzip der Big Data erhält wiederum jedes Datum einen potentiellen Wert, selbst wenn ihm zum Zeitpunkt seiner Erhebung kein dezidierter Zweck24 zugewiesen werden kann. Denn die Daten inhärente Zukunftsorientierung sorgt im Konzert mit der technisch fast unlimitierten Speicher- bzw. Distributionsfähigkeit dafür, dass ein jedes Datums einmal in einem noch nicht näher spezifizierten Zusammenhang zu einer Informationsquelle werden könnte. Spätestens diese Verheißung eines universellen Gebrauchswerts der Daten begründet nun ihren ökonomischen Tauschwert und treibt die Kommodifizierung der Daten an, die wiederum die Entwicklung solcher Programme, Medien oder Geräte proliferiert, die Daten in neuen Zusammenhängen erschließen25. So kolonisieren immer mehr Technologien und digitale Medien unsere Arbeits- und Alltagswelt und entfalten letztlich eine Akkumulationslogik, die Zuboff (2015) als „Surveillance Capitalism“ bezeichnet. Dieser manifestiert sich in einem über die Kommodifizierung der Daten erst stimulierten Regime der Überwachung und liefert darüber Anreize zu einer exhaustiven Datafizierung (Karppi/Crawford 2015). Die Grenze zwischen Datafizierung und Kommodifizierung wird damit immer durchlässiger, denn die zunehmend beobachtbare ‚datafication of everything‘ geht dann in der gerne als ‚commodification of everything‘ bezeichneten Logik kapitalistischer Landnahme auf. Diese Amalgamierung von Datafizierung und Kommodifizierung begründet schließlich den in den vergangenen Jahren enorm gestiegenen Marktwert entsprechender Datenunternehmen, Plattformen und Dienste (Dolata 2015; Arvidsson 2016), die in Gestalt der Mediatisierung des Alltags verschiedene, der Quantifizierung vorher nicht zugängliche Einstellungen, Lebensstile und -formen datafizieren, sie darüber wirtschaftlichen Kalkülen zugänglich machen und uns letztlich dazu bringen, unseren Alltag unter

23 Der Unterschied zwischen Daten und Big Data liegt in eben genau dieser Massenaggregation. 24 Diese Nutzung der Daten für ein bestimmtes Ziel bilden auch die bestehenden Datenschutznormen in der sogenannten Zweckbindung ab. 25 Acxiom (2016) sucht beispielsweise routinemäßig auf Verdacht nach frischen Datenquellen, um mit den Worten des Unternehmens jeden zu erreichen, der in ihrem Sinne erreicht werden soll.

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 361

der Oberfläche von zweifellos interessanten, effizienten, spaßigen, bequemen, kurz: nützlichen digitalen Dienstleistungen immer umfänglicher und nachhaltiger zu kommodifizieren (Houben 2018).

4. S UBJEKTIVIERUNGSFORMEN DER D ATENGESELLSCHAFT Jede Gesellschaft strukturiert sich u. a. durch die ihr eigenen Subjekte. Als kulturelle Kategorien und Schemata der Selbst- und Fremdidentifikation oder auch (Ideal-)Typen der Subjektwerdung richten sie Anforderungen an die einzelnen Gesellschaftsmitglieder, deren Erfüllung sie zu jenen Menschen werden lässt, die die jeweilige soziale Ordnung voraussetzt. Durch Unterwerfung unter diese kulturelle Ordnung in Form von (Selbst-)Regulierungs-, Normalisierungs-, Thematisierungs-, kurz Subjektivierungspraktiken aller Art, befinden sich Individuen in einem fortwährenden Subjektivierungsprozess, um zu eben den geforderten und (an-)erkannten Subjekten ihrer Zeit zu werden (Moebius/Schroer 2010; Reckwitz 2012). Vor diesem Hintergrund gilt es abschließend zu fragen, welche Subjekte und Subjektivierungsformen die Datengesellschaft hervorbringt. In seiner Zeitdiagnose der Spätmoderne misst Reckwitz (2017) den vernetzten, digitalen Technologien des Internets eine bedeutende Rolle im Aufstieg der aktuellen Gesellschaftsformation zu. Diese Gesellschaft der Singularitäten produziere ein spezifisches Subjekt, das angesichts der Überproduktion an Kulturgütern wie Videos, Musik und Nachrichten inmitten eines ständigen Sichtbarkeits- und Aufmerksamkeitswettbewerbs stehe und dabei in zweifacher Weise als singulär hervorgebracht wird. Als Rezipient_innen und zugleich Produzent_innen der affizierenden Kulturprodukte der Spätmoderne sind die Einzelnen zum einen gefordert, sich im Modus „performative[r] Authentizität“ (Reckwitz 2017: 247) als einzigartig und singulär darzustellen; zum anderen werden sie mittels Datenanalyse singularisiert und als ebene einzigartige Schnittmenge unzähliger Datenpunkte algorithmisch hervorgebracht (Reckwitz 2017: 244ff.). Zu letzterem wurde in den vorangegangenen Textteilen schon viel gesagt; wie sieht aber die „Singularisierungsarbeit in eigener Sache“ aus, um mit Reckwitz (2017: 248) zu sprechen? Das „Profil-Subjekt“, das seine Einzigartigkeit durch „kompositorische Singularität“ (Reckwitz 2017: 249) kreiert, realisiert sich etwa in den unzähligen Aufforderungen zur Einrichtung eines digitalen Selbst. Hierzu zählen nicht nur die (freiwillige) Einrichtung und Pflege einer privaten Social Media-Seite oder Homepage, sondern auch die für zunehmend mehr Menschen im Rahmen ihrer Erwerbstätigkeit erforderliche Unterhaltung und vor allem re-

362 | HOUBEN & P RIETL

gelmäßige Aktualisierung eines den gegenwärtigen Kommunikations- und Informationsnormen genügenden Internetauftritts. Die Plattform XING zur Vernetzung von Arbeitskräften und Unternehmen zählt alleine in Deutschland über 10 Millionen Mitglieder und deren akademisches Pendant ResearchGate vernetzt weltweit mehr als 13 Millionen Forschende. Vor diesem Hintergrund kann die die Erstellung und Aufrechterhaltung eines solchen digitalen (Arbeits-)Selbst zu den neuen Anforderungen gezählt werden, die an Menschen in der Datengesellschaft herangetragen werden und im wahrsten Sinne des Wortes Arbeit erfordern, wenngleich sie kaum jemals als Teil dieser aufgefasst werden (Carstensen 2014).26 Dabei wird nicht nur die Zurschaustellung der eigenen Arbeitskraft, sondern auch die Suche nach (An-)Erkennung als „ganze Person“ gefordert. Dies erfolgt jedoch nicht länger in Form der Einwegkommunikation; vielmehr gehen mit den Technologien des Web 2.0 deutliche Anforderungen des SichVernetzens und der Netzpflege einher, denen man sich nur schwer entziehen oder verweigern kann (Carstensen 2014: 95f.; Schröter 2016: 204ff.). So wird die öffentliche Selbstdarstellung im Internet zur alltäglichen Arbeit, d.h. zum Aufwand, um zum Subjekt zu werden. Diese Arbeit an einem virtuellen Ich stellt damit eine zentrale Anforderung und Anrufung der Datengesellschaft an ihre Mitglieder dar. Unauflöslich mit dieser Subjektivierungsarbeit am digitalen Selbst verbunden ist die datenbezogene Selbstverständigung und datengetriebene Subjektwerdung, wie sie sich paradigmatisch in der Quantified Self-Bewegung27 und der von ihr ausgegebenen Losung „knowledge through numbers“ dokumentiert. Die hier im Zentrum stehende Selbstvermessung – auch bezeichnet als „SelfTracking“ (Duttweiler et al. 2016) oder „Leibschreiben“ (Vormbusch/Kappler 2018) – meint gemeinhin die mittels intelligenter Selbstvermessungstechnologien, wie Smart Watches, erfolgende Vermessung, Aufzeichnung und Auswertung eigener Verhaltensweise, körperlicher oder emotionaler Zustände sowie

26 Wie Voß und Pongratz (1998) mit der Figur des „Arbeitskraftunternehmers“ pointiert konstatierten, werden seit den 1990er Jahren verstärkt Anforderungen an (berufliche) Selbstvermarktung und -organisation sowie -kontrolle an Arbeitskräfte herangetragen, die Carstensen (2014: 85ff.) auch im Web 2.0 mit seinen nutzer_innengenerierten Inhalten angelegt sieht. 27 Der Begriff des quantifizierten Selbst geht auf die Wired-Journalist_innen Gary Wolf und Kevin Kelly zurück, die ihn 2007 erstmals in den Diskurs einbrachten, um zu beschreiben, welche Praktiken sie in ihrem Umfeld bei der Nutzung von Selbstvermessungstechnologien beobachteten. 2017 fand in Amsterdam bereits die sechste, jährliche Quantified Self-Konferenz mit gut 80 Beiträgen in zwei Tagen statt.

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 363

Leistungen über eine bestimmte Zeit. Durch die Integration dieser Selbstvermesserungstechnologien mit eigenen Apps ist für gewöhnlich bereits angelegt bzw. vorgesehen, dass die in digitale Daten übersetzten ‚Zustände‘ online vernetzt, geteilt und verglichen, aber eben auch gehackt und missbraucht werden können. Offensichtlichstes Ziel dieser Praktiken des Sammelns von Daten über sich selbst ist, „etwas sichtbar [zu] machen, was zuvor – auf diese Weise – nicht sichtbar war.“ (Duttweiler/Passoth 2016: 12) Dabei werden „Leiberfahrungen aus der Sphäre des Vorreflexiven [gelöst] und innerliche Erfahrungsbestände in eine formal repräsentierbare Form [gebracht]“ (Vormbusch/Kappler 2018: 226). Diese Selbstexpertisierung oder Selbstverwissenschaftlichung kann zu bedeutsamen Verschiebungen im Verhältnis von Individuum, Leib und Körper führen: Wenn der Körper derart zu einem Objekt reflexiver Beobachtung wird, treten Selbstvermessungspraktiken zwischen das Individuum und seinen Leib, wodurch es zu einer nicht unproblematischen Distanzierung von den eigenen Körperempfindungen als Effekt von deren Verobjektivierung kommen kann (Wiedemann 2016).28 Dabei beziehen sich Selbstvermessungspraktiken stets auf relevante andere, etwa die on- und offline-Gemeinschaft der Quantified Self-Bewegung, und sind insofern unauflöslich mit Normierungs- und Normalisierungsprozessen verbunden (Duttweiler/Passoth 2016: 17). Mit dieser Einpassung des Individuums in statistische Normalmaße schließt das verdatete und verdatende Selbst an ein zentrales Element moderner Subjektivierung an (Link 2006). Als datengetriebene Technologien des Selbst (Foucault 1986) können Selbstvermesserungspraktiken also sowohl Visualisierungs- und Objektivierungsvorhaben, Kontroll-, Normalisierungs- und Optimierungsprojekten, als auch Singularisierungsanforderungen dienen.29

28 Mit Vormbuschs (2007) Konzept der „numeracy“ sei hier daran erinnert, dass eine derartige Selbstverwissenschaftlichung neben einer zahlenbezogenen Lesekompetenz auch Konventionen voraussetzt, wie Vitaldaten in digitale Daten übersetzt und letztere wiederum interpretiert werden. Beides ist gegenwärtig (noch) Gegenstand von Aushandlungsprozessen. 29 Wenngleich die gegenwärtig diskutierte Form der mittels digitaler Technologien erfolgenden Selbstvermessung einige qualitative Verschiebungen aufweist – Selbstvermessung in Echtzeit und Potentiale für institutionalisierte Selbstvermessung(szwänge) via Krankenkassen oder Gesundheitsämter (Duttweiler/Passoth 2016: 18ff.) –, ist nicht zu vergessen, dass das Sammeln und Auswerten von Körperdaten eine lange Tradition – wenngleich vor allem der Medizin, Biologie und Sport(wissenschaft) vorbehalten – hat ebenso wie Selbstführungstechniken bis in die Antike zurückreichen (a. a. O.: 15ff.).

364 | HOUBEN & P RIETL

In diesem Sinne geht die datengetriebene Subjektwerdung Hand in Hand mit der Ausdehnung kalkulativer Praktiken auf die private Lebenswelt (Vormbusch/Kappler 2018: 213f.) und stellt wohl die zeitgenössische Sperrspitze der kapitalistischen Landnahme des Körpers (Lupton 2013; Stark 2016) in Form seiner Verdatung dar. Noch weiter auf die Spitze getrieben werden diese datenförmigen Selbstherstellungsprozesse im Kontext des sogenannten Lifeloggings (Selke 2016). Hierunter sind Praktiken der „digitale[n] Speicherung von Lebensdaten und Verhaltensspuren“ (Selke 2014: 174) gefasst, die weit über die köperund gesundheitsbezogenen Praktiken der Selbstvermessung hinausreichen. Mit dem Anspruch der lückenlosen Erfassung und vollumfänglichen Archivierung aller Spuren des eigenen Lebens sind auch Praktiken der An- und Abwesenheitsbestimmung auf Basis von Orts- und Geodaten im Sinne eines Human Tracking adressiert, Formen des Human Digital Memory als Erinnerungshilfen und Biografiegeneratoren wie die Facebook-Timeline, als auch Praktiken der „Sousveillance“ oder der Selbstverteidigung durch Daten, wenn etwa politische verfolgte Journalist_innen die eigenen Standortdaten online teilen, um sich vor Übergriffen zu schützen. Praktiken des Lifeloggings produzieren subjekttheoretisch gewandt verdatete und verdatende Selbste als Ergebnis immer umfassenderer Anforderungen an die mediatisierte Selbstarchivierung (Selke 2014: 194f.). Dabei werden Bekenntnis- und Geständnisrituale im Rahmen der öffentlichmedialen Selbstdarstellung zu einem Teil der performativen Subjektkonstituierung (Bublitz 2010). Die „mediale (An)Ordnungen des Sich-Zeigens und der sprachlichen Repräsentation [haben] produktive Machteffekte auf Formen der Subjektivierung und Selbstbildung“ (Bublitz 2015: 10; H.i.O.; hierzu auch Paulitz 2005) und stellen in diesem Sinne mehr als nur (einschränkende) Kontrollapparate dar. Zusammengenommen fordert die sich ausweitende Vermesserungs-, Singularisierungs- und „Bekenntniskultur“ (Bublitz 2015: 8) in der Gegenwartsgesellschaft eine fortwährende Selbstgestaltung und Selbstinszenierung des eigenen Lebens durch immer neue Praktiken der medialisierten Selbstverdatung und verwischt damit zunehmend die Grenzen zwischen Privatheit und Öffentlichkeit. Die globalen Medientechnologien bieten dem Individuum dabei gleichzeitig die Möglichkeit sich als ‚normales‘ Subjekt hervorzubringen, indem es sich „in einer Matrix oder Kurvenlandschaft von Normalität und (extremer) Abweichung“ (Bublitz 2015: 14) positioniert und sich damit in der sozialen Welt der Datengesellschaft verortet. Gesellschaftstheoretisch gewandt, ist deshalb davon auszugehen, dass die Datengesellschaft spezifische Subjekte produziert, denen gemeinsam ist, dass sich Individuen in mehr oder weniger intensiver Auseinandersetzung mit (selbstgenerierten) Daten über die eigene Person in einem ständigen

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 365

Spannungsverhältnis zwischen Datenschutz, Datenproduktion und -austausch hervorbringen müssen. Derart verdatete und verdatende Subjekte formen und organisieren ihre Datenspuren und werden gleichzeitig von ihnen geformt und inspiriert. Die Kanalisierung, Filterung, Interpretation, Sortierung und Bewertung von Daten mittels ganz unterschiedlicher Gerätschaften, Plattformen und Medien ist dabei nicht mehr nur Transaktion oder Interaktion, sondern ein rekursives Kreieren von Subjekten (siehe auch Ruppert/Isin/Bigo 2017).

5. AUSBLICK Die obigen Ausführungen haben eine Gesellschaft skizziert, die fortwährend Daten produziert und reflektiert, sich mittels dieser Daten in ihren zentralen Bereichen reproduziert, Lebenschancen auf Basis dieser Daten verteilt, sich zunehmend anhand von Daten beschreibt, das Thema Daten intensiv diskutiert und sich in eine (un-)bewusste Abhängigkeit gegenüber ihren eigenen Datenprozessen und -beständen begibt. Konkret haben wir für zentrale Bereiche des Sozialen andeuten können, wie datenbasierte Prozesse mittlerweile die klassisch konstitutiven Gesellschaftselemente wie Arbeit, Kapital oder Wissen zwar nicht verdrängen, aber die darauf basierenden, tradierten sozialen Strukturen grundieren, transzendieren, herausfordern und letztlich transformieren und somit selbst zu einem zentralen Strukturmoment der Gegenwartsgesellschaft avancieren. Gleichwohl wollen und können wir freilich nicht behaupten, dass ein Ende des in diesem Band beschriebenen sozialen Wandels absehbar oder auch nur seine Richtung seriös abschätzbar sei, schließlich befinden sich die soziotechnischen Entwicklungen im Konzert mit den gesellschaftlichen Restrukturierungsdynamiken, Reproduktionsmechanismen und Subjektivierungsformen noch mitten in einem fortschreitenden Werden. Dennoch hat die hier vorgeschlagene zeitdiagnostische Betrachtung einen analytischen Wert, erlaubt sie doch die unzähligen wie vielfältigen Befunde, die für gewöhnlich getrennt voneinander in den jeweiligen Bindestrichsoziologien diskutiert werden, unter einer gemeinsamen Perspektive zu integrieren. Sichtbar werden so die komplexen Verflechtungen und Interdependenzen der Datafizierung von Wirtschaft, Politik, Wissenschaft, aber auch von Arbeits- und Alltagskultur nebst ihren Subjektivierungsformen, die hier zwar argumentativ geschieden werden mussten, sich aber realiter nur interdependent entwickeln können. Zudem gelangen so auch Phänomene der Datafizierung jenseits von Big Data in den Blick, deren zugrundeliegenden Logiken mindestens gleichermaßen konstitutiv für die Gegenwartsgesellschaft scheinen, wie die ungleich mehr Aufmerksamkeit erfahrenden Großdatensätze.

366 | HOUBEN & P RIETL

Gleichwohl ist an dieser Stelle zu betonen, dass mit unserem Versuch einer Sammlung und Systematisierung von sozialwissenschaftlichen Befunden unter dem Begriff Datengesellschaft die Arbeit keineswegs als abgeschlossen gelten kann. Einige Fragen werden hier nicht abschließend und zufriedenstellend geklärt worden sein, andere wurden nicht einmal adressiert. Diese zwangsläufigen Auslassungen berücksichtigend scheint es uns geboten, einige Desiderata für zukünftige Forschungen vorzuschlagen: Allgemein ist es notwendig, die konkreten Effekte der adressierten sowie möglicher weiterer Restrukturierungsdynamiken umfänglich und detailliert zu untersuchen. Welche persistenten Strukturmuster der Datengesellschaft bilden sich also aus und welche Bedeutung besitzen diese mit Bezug auf die sozialstrukturelle Entwicklung der Gesellschaft? Gleichermaßen gilt es, die Reproduktionsmechanismen der Datengesellschaft theoretisch wie empirisch weiter zu konkretisieren. In welchen Bereichen der Datengesellschaft werden etwa die hier skizzierten Mechanismen sozialer Ungleichheit dominant, wo treten neue datengetriebene Logiken der Verteilung von Lebenschancen auf den Plan und wie kann diesen Entwicklungen politisch geantwortet werden? Ähnliches gilt für die Frage der Machtverhältnisse: Welche gesellschaftsstrukturellen Verschiebungen treten infolge neuer Machtbalancen auf und wie lassen sich ihre Herrschaftsmodi soziologisch konzipieren? Schließlich werden auf Sicht auch Fragen nach den Vollzügen und Folgen eines von Datenlogiken bestimmten (mediatisierten) Weltzugangs nichts an Relevanz einbüßen. Welche Praxisformen lassen sich also identifizieren und wie stehen diese mit den übergeordneten technologischen und gesellschaftlichen Transformationen im Zusammenhang? In diesem Text und ebenfalls im Großteil der einschlägigen Forschung dominieren Analysen zu den gesellschaftlichen Effekten einer zunehmenden Datafizierung des Sozialen. Ungleich weniger oft systematisch in den Blick genommen werden hingegen die sozialen (Konstruktions-)Bedingungen von Daten(technologien). Wie Daten also im Sinne einer Ko-Konstitution von Daten und Sozialem selbst als soziale Artefakte verstanden werden können, stellt ein sowohl theoretisch-analytisches wie empirisches Desiderat dar. Weiter gilt es in zukünftigen Arbeiten der Frage nachzugehen, in welchem Verhältnis die Datafizierung mit verwandten Gesellschaftsdiagnosen, wie jener der Singularisierung (Reckwitz 2017) oder der Informatisierung im Kontext der Wissensgesellschaft30

30 Das ohnehin schon strapazierte Format dieses Aufsatzes lässt es leider nicht zu, ausführliche Referenzen auf Bell und Drucker oder Willke und Stehr zu leisten. Dennoch weist Vieles, was wir hier über eine Datengesellschaft geschrieben haben, große Schnittmengen zu verschiedenen Varianten der Zeitdiagnosen zur Informations- und

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 367

(Stehr 1994; Castells 1996) steht. Aus einer soziologischen Perspektive gänzlich unbeleuchtet bleiben bislang auch Bemühungen zur Datafizierung des NichtFormalisierten oder Nicht-Explizierbaren, etwa von Kreativität oder Empathie, die anfänglich von Datafizierungsbemühungen noch weitestgehend ausgenommen blieben, mit der beschriebenen „datafication of everything“ aber mehr und mehr auf deren Radar gelangen. Versteht man die Datafizierung nicht nur als ein technisches, sondern auch als ein ökonomisches, politisches und soziokulturelles Projekt, verspricht schließlich eine Forschungsperspektive, die nach Formen und Bedingungen des Widerstands fragt, ein großes Potential. Gerade weil einige unserer Ausführungen etwas defätistisch angemutet haben mögen, sei hier zum Schluss betont, dass auch Praktiken des Widerstands gegen sowie emanzipatorische Potentiale von Datafizierungsprozessen stärker Eingang in die Forschung finden müssen. Schließlich ist erfahrungsgemäß davon auszugehen, dass sich sozialer Wandel aufgrund verschiedenster struktureller, habitueller, kultureller oder technologischer Beharrungskräfte keinesfalls widerstandsfrei vollzieht. Aktuell zeigt sich dies etwa an den politischen sowie öffentlichen Debatten um Datenschutz und das Recht auf Privatheit, wenngleich einige Autor_innen angesichts eines weit verbreiteten Datenvoluntarismus der allgemeinen Öffentlichkeit ein erstaunlich geringes Problembewusstsein attestieren – einen Befund den wir unter Verweis auf die große Bedeutung von sozialen Medien und Internettechnologien für die Sozialintegration zu verstehen gesucht haben. Widerstand lässt sich aber auch in (zivilgesellschaftlichen) Bewegungen und Initiativen erkennen, die sich um eine Demokratisierung von Deutungs- und Interpretationshoheit von Big Data bemühen oder auf rassistische Diskriminierungen etwa in Strafvollzugsalgorithmen hinweisen. Auch dezidiert kritische Beiträge von Forschenden zu datengetriebener Erkenntnisproduktion, datenbasierter Arbeitskontrolle oder sich Daten bedienender politischer Einflussnahme, können u.E. als Ausdruck gesellschaftlichen Widerstands gegenüber den aktuell beobachtbaren Datafizierungsprozessen gedeutet werden. Tatsächlich fehlen bislang aber Arbeiten, die konkrete Vollzüge derartigen Widerstands ins Zentrum der Forschung stellen. Zukünftig gilt es deshalb verstärkt danach zu fragen, welche Strategien und Möglichkeiten der

Wissensgesellschaft auf. Dennoch sehen wir, wie in den Ausführungen dieses Textes gezeigt, zum einen einige dezidiert neue Entwicklungen und zum anderen halten wir es für unangebracht, Daten konzeptionell unter Information oder Wissen zu subsummieren (siehe hierzu auch unsere Einleitung in diesem Band). Beide Aspekte wollen wir demzufolgle auch begrifflich repräsentiert wissen.

368 | HOUBEN & P RIETL

Subversion sich finden lassen oder welche Solidarisierungs- und Kollektivierungschancen sich in der Datengesellschaft bieten. Sollen die mit der Datafizierung propagierten Hoffnungen auf Emanzipation und Fortschritt also nicht durch eben jene Datafizierung selbst in ihr Gegenteil umschlagen (zu diesem Motiv klassisch: Horkheimer/Adorno 1969), bedarf es einer reflektierten Zivilgesellschaft und kundigen politischen Gestaltung. Unserer Auffassung nach liegt das Mandat der Soziologie darin, hierzu eine analytische Grundlage zu schaffen. Die hier skizzierten Transformationen werden zweifelsohne auch in Zukunft mehr als ausreichend Gelegenheiten bieten, diesem Mandat nachzukommen.

L ITERATUR Abbott, Andrew (1988): The system of professions: an essay on the division of expert labor, Chicago. Acxiom Corporation (2014): Annual report 2014, 28 May, Little Rock, Arkansas. Online unter: http://www.acxiom.com/about-acxiom/investor-information/ reports (aufgerufen am 25.01.2018). Acxiom Corporation (2016):About Acxiom. Online unter: http://www.acxiom. com/about-acxiom (aufgerufen am 25.01.2018). Albury, Kath/Burgess, Jean/ Light, Ben/Race, Kane/Wilken, Rowan (2017): Data cultures of mobile dating and hook-up apps: Emerging issues for critical social science research. In: Big Data & Society. DOI: doi.org/10.1177/2053951717720950. Altepost, Andrea/Löhrer, Mario/Saggiomo, Marco/Ziesen, Nenja/Houben, Daniel/Strüver, Niklas/Gloy, Yves-Simon (2017): Sociotechnical Systems in the Textile Industry. Assistance Systems for Industrial Textile Work Environment. In: i-com, Vol. 16, S. 153-164. Amoore, Louise (2011): Data Derivatives: On the Emergence of a Security Risk Calculus for Our Times. In: Theory, Culture and Society, Vol. 28, No. 6, S. 24-43. Anderson, Chris (2013): Das Ende der Theorie. Die Datenschwemme macht wissenschaftliche Methoden obsolet. In: Geiselberger, Heinrich/Moorstedt, Tobias (Hrsg.): Big Data. Das neue Versprechen der Allwissenheit, Berlin, S. 124-130. Andrejevic, Mark (2012): Exploitation in the data-mine. In: Fuchs, Christian/Boersma, Kees/Albrechtslund, Anders/Sandoval, Marisol (Hrsg.): Inter-

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 369

net and Surveillance: The Challenges of Web 2.0 and Social Media, New York, S. 71-88. Angwin, Julia/Larson, Jeff/Surya, Mattu/Kirchner, Lauren/Parris Jr., Terry (2016): Machine Bias. There’s software used across the country to predict future criminals. And it’s biased against blacks. In: ProPublica, 23.5.2016. Online unter: https://www.propublica.org/article/machine-bias-riskassessmentsin-criminal-sentencing (aufgerufen am 25.01.2018). Arvidsson, Adam (2016): Facebook and Finance: On the Social Logic of the Derivative. In: Theory, Culture & Society, Vol. 33, No. 6, S. 3-23. Assange, Julian/Appelbaum, Jacob/Muller-Maguhn, Andy (2012): Cypherpunks: Freedom and the Future of the Internet, New York. Baack, Stefan (2015): Datafication and empowerment: How the open data movement rearticulates notions of democracy, participation, and journalism. In: Big Data & Society. DOI: doi.org/10.1177/2053951715594634. Baecker, Dirk (2013): Metadaten. Eine Annäherung an Big Data. In: Geiselberger, Heinrich/Moorstedt, Tobias (Hrsg.): Big Data. Das neue Versprechen der Allwissenheit, Berlin, S. 156-186. Barlösius, Eva (2001): Die Macht der Repräsentationen. In: Dies./Müller, HansPeter/Sigmund, Steffen (Hrsg.): Gesellschaftsbilder im Umbruch. Soziologische Perspektiven in Deutschland, Opladen, S. 179-202. Bauman, Zygmunt/Lyon, David (2013): Liquid surveillance: a conversation, New York. Becker, Howard S. (1963): Outsiders: studies in the sociology of deviance, New York. Beckert, Jens (2013): Capitalism as a System of Expectations: Toward a Sociological Microfoundation of Political Economy. In: Politics & Society, Vol. 41, No. 3, S. 323-350. Beckett, Lois (2014): Everything we know about what data brokers know about you. In: ProPublica, 13 Juni 2014. Online unter: http://www.propublica.org/ article/everything-we-know-about-what-data-brokers-know-about-you (aufgerufen am 25.01.2018). Beer, David (2009): Power through the algorithm? Participatory web cultures and the technological unconscious. In: New Media & Society, Vol. 11, No. 6, S. 985-1002. Beer, David (2015): Productive measures: Culture and measurement in the context of everyday neoliberalism. In: Big Data & Society. DOI: doi.org/10.11 77/2053951715578951. Bell, Daniel (1973): The Coming of Post-Industrial Society, New York.

370 | HOUBEN & P RIETL

Berger, Peter L. /Luckmann, Thomas (1969): Die gesellschaftliche Konstruktion der Wirklichkeit, Frankfurt am Main. Beyes, Timon/Steyaert, Chris (2012): Spacing organization: non-representational theory and performing organizational space. In: Organization, Vol. 19, No. 1, S. 45-61. Bieber, Christoph (2015): Daten vs. Netz. Bausteine und Perspektiven eines unfertigen Politikfeldes. In: Süssenguth, Florian (Hrsg.): Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung, Bielefeld, S. 173-198. BMWi (Bundesministerium für Wirtschaft und Energie) (2017): MonitoringReport. Kompakt. Wirtschaft DIGITAL 2017. Online unter: https://www. bmwi.de/Redaktion/DE/Publikationen/Digitale-Welt/monitoring-report-wirt schaft-digital.pdf?__blob=publicationFile&v=8 (aufgerufen am 27.01.2018). Boes, Andreas (1996): Subjektbedarf und Formierungszwang. Überlegungen zum Emanzipationspotential der Arbeit in der „Informationsgesellschaft“. In: Bulmahn, Edelgard (Hrsg.): Informationsgesellschaft – Medien – Demokratie, Marburg, S. 109-124. Boes, Andreas/Bultenmeier, Anja (2008): Informatisierung – Unsicherheit – Kontrolle. Analysen zum neuen Kontrollmodus in historischer Perspektive. In: Dröge, Kai/Menz, Wolfgang (Hrsg.): Rückkehr der Leistungsfrage. Leistung in Arbeit, Unternehmen und Gesellschaft, Berlin, S. 59-90. Boes, Andreas/Kämpf, Tobias/Bultemeier, Gül, Katrin/Langes, Barbara/Lühr, Thomas/Marrs, Kira/Ziegler, Alexandra (2016a): Digitalisierung und „Wissensarbeit“: Der Informationsraum als Fundament der Arbeitswelt der Zukunft. In: Aus Politik und Zeitgeschichte, Jg. 66, H. 18-19, S. 32-38. Boes, Andreas/Kämpf, Thomas (2016): Arbeiten im globalen Informationsraum. In: Werkheft 01 „Digitalisierung der Arbeitswelt“ des Bundesministeriums für Arbeit und Soziales, Berlin, S. 22-28. Bowker, Geoffrey C./Star, Susan L. (1999): Sorting Things Out: Classification and Its Consequences, Boston. boyd, danah/Crawford, Kate (2012): Critical Questions for Big Data. Provocations for a cultural, technological, and scholarly phenomenon. In: Information, Communication & Society, Vol. 15, No. 5, S. 662-679. Brainbridge, Lisanne (1983): Ironies of Automation. In: Automatica, Vol. 19, No. 6, S. 775-779. Brandt, Philipp Soeren (2016): The emergence of the data science profession. Dissertationsschrift, eingereicht an der Columbia University, New York.

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 371

Brinkmann, Ulrich/Dörre, Klaus (2006): Wissensarbeit und Kontrolle im neuen Marktregime. In: Baukrowitz, Andrea/Berker, Thomas/Boes, Andreas/Pfeiffer, Sabine/Schmiede, Rudi/Will, Mascha (Hrsg.): Informatisierung der Arbeit – Gesellschaft im Umbruch, Berlin, S. 132-144. Brückner, Fabian/Wolff, Stephan (2015): Die Listen der Organisation – Und der Blick dazwischen. In: von Groddeck, Viktoria/Wilz, Marlene (Hrsg.): Formalität und Informalität in Organisationen, Wiesbaden, S. 341-370. Brühl, Jannis (2017): Können Parteien mit personalisierter Werbung die Wahl manipulieren? In: Süddeutsche Zeitung, 12. Juli 2017, München. Bublitz, Hannelore (2010): Im Beichtstuhl der Medien. Die Produktion des Selbst im öffentlichen Bekenntnis, Bielefeld. Bublitz, Hannelore (2014): Im Beichtstuhl der Medien – Konstitution des Subjekts im öffentlichen Bekenntnis. In: Paulitz, Tanja/Carstensen, Tanja (Hrsg.): Subjektivierung 2.0. Sonderheft der Österreichischen Zeitschrift für Soziologe, Wiesbaden, S. 7-21. Bucher, Silke V./Chreim, Samia/Langley, Ann/Reay, Trish (2016): Contestation about Collaboration: Discursive Boundary Work among Professions. In: Organization Studies, Vol. 37, No. 4, S. 497-522. Bundesministerium für Arbeit und Soziales (BMAS) (2017): Weißbuch Arbeiten 4.0, Berlin. Burkhardt, Marcus (2015): Digitale Datenbanken. Eine Medientheorie im Zeitalter von Big Data, Bielefeld. Butollo, Florian/Ehrlich, Martin/Engel, Thomas (2017): Amazonisierung der Industriearbeit? Industrie 4.0, Intralogistik und die Veränderung der Arbeitsverhältnisse in einem Montageunternehmen der Automobilindustrie. In: Arbeit, Jg. 26, H. 1. S. 33-59. Carstensen, Tanja (2014): Öffentliche Selbstdarstellung im Internet als Aufwand. Digitale Subjektwerdung am Beispiel von jungen Menschen in Internetberufen. In: Paulitz, Tanja/Carstensen, Tanja (Hrsg.): Subjektivierung 2.0. Sonderheft der Österreichischen Zeitschrift für Soziologe, Wiesbaden, S. 83100. Castells, Manuel (1996): The Network Society. The Information Age, Oxford. Castells, Manuel (2009): Communication Power, Oxford. Chopra, Samir/Dexter Scott D. (2008): Decoding Liberation: The Promise of Free and Open Source Software, London. Clark, Roger (1988): Information Technology and Dataveillance. In: Communications of the ACM, Vol. 31, No. 5, S. 498-512. Coleman Gabriella E. (2014): Hacker, Hoaxer, Whistleblower, Spy: The Many Faces of Anonymous, London.

372 | HOUBEN & P RIETL

Coleman, Gabriella E. (2013): Coding Freedom: The Ethics and Aesthetics of Hacking, Princeton. Coleman, James (1986): Die asymmetrische Gesellschaft, Weinheim. Coser, Lewis A. (1974): Greedy Institutions. Patterns of Undivided Commitment, New York. Crain, Matthew (2018): The limits of transparency: Data brokers and Commodification. In: New Media & Society, Vol. 20, No. 1, S. 88-104. Datenschutzanpassungs- und Umsetzungsgesetz (DSAnpUG-EU): Gesetz zur Anpassung des Datenschutzrechts an die Verordnung (EU) 2016/679 und zur Umsetzung der Richtlinie (EU) 2016/680 (Datenschutz-Anpassungs- und -Umsetzungsgesetz EU – DSAnpUG-EU). Bundesgesetzblatt Jahrgang 2017 Teil I Nr. 44, ausgegeben zu Bonn am 5. Juli 2017. Datta, Amit/Tschantz, Michael Carl/Datta, Anupam (2015): Automated Experiments on Ad Privacy Settings. A Tale of Opacity, Choice, and Discrimination. In: Proceedings on Privacy Enhancing Technologies, S. 92-112. Degli Esposti, Sara (2014): When big data meets dataveillance: The hidden side of analytics. In: Surveillance & Society, Vol. 12, No. 2, S. 209-225. Demirovic, Alex (2015): Wissenschaft oder Dummheit? Über die Zerstörung der Rationalität in den Bildungssystemen, Hamburg. deNooy, Wouter (2015): Structure from interaction events. In: Big Data & Society. DOI: doi.org/10.1177/2053951715603732. Deseriis, Marco (2017): Hacktivism: On the Use of Botnets in Cyberattacks. In: Theory, Culture & Society, Vol. 34, No. 4, S. 131-152. Diekmann, Andreas (2016): Die Gesellschaft der Daten. In: Süddeutsche Zeitung, 9.9.2016, München. DiPrete, Thomas A./Eirich, Gregory M. (2006): Cumulative Advantage as a Mechanism for Inequality: A Review of Theoretical and Empirical Developments. In: Annual Review of Sociology, Vol. 32, S. 271-297. Dolata, Ulrich (2015): Volatile Monopole. Konzentration, Konkurrenz und Innovationsstrategien der Internetkonzerne. In: Berliner Journal für Soziologie, Jg. 24, H. 4, S. 505-529. Dörre, Klaus (2016): Industrie 4.0 – Neue Prosperität oder Vertiefung gesellschaftlicher Spaltungen? Sechs Thesen zur Diskussion. Working Paper 02/2016 der DFG-KollegforscherInnengruppe Postwachstumsgesellschaften, Jena. Duttweiler, Stefanie/Gugutzer, Robert/Passoth, Jan-Hendrik/Strübing, Jörg (Hrsg.) (2016): Leben nach Zahlen. Self-Tracking als Optimierungsprojekt?, Bielefeld.

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 373

Duttweiler, Stefanie/Passoth, Jan-Hendrik (2016): Self-Tracking als Optimierungsprojekt? In: Duttweiler, Stefanie/Gugutzer, Robert/Passoth, Jan-Hendrik/Strübing, Jörg (Hrsg.): Leben nach Zahlen. Self-Tracking als Optimierungsprojekt?, Bielefeld, S. 9-42. Elias, Norbert (1970): Was ist Soziologie? Weinheim. Emirbayer, Mustafa (1997). Manifesto for a Relational Sociology. In: American Journal of Sociology, Vol. 103 No. 2, S. 281-317. Engstler, Martin/Nohr, Holger/Bendler, Franziska (2014): Webbasiertes Kundenmonitoring in der Kreativwirtschaft. In: Jähnert, Jürgen/Förster, Christian (Hrsg.): Technologien für digitale Innovationen. Interdisziplinäre Beiträge zur Informationsverarbeitung, Wiesbaden, S. 119-146. Espeland, Wendy Nelson/Sauder, Michael (2007): Rankings and Reactivity: How Public Measures Recreate Social Worlds. American Journal of Sociology, Vol. 113, No. 1, S. 1-40. Etzkowitz, Henry/Leydesdorff, Loet (1995): The triple helix – university – industry – government relations: a laboratory for knowledge-based economic development. In: EASST Review, Vol. 14, No. 1, S. 14-19. Europäische Datenschutz-Grundverordnung (DSGVO): Verordnung des Europäischen Parlaments und des Rates zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG. Online unter: http://eur-lex.europa. eu/legalcontent/DE/TXT/?uri=uriserv:OJ.L_.2016.119.01.0001.01.DEU&toc =OJ:L:2016 :11 9:TOC (aufgerufen am 25.01.2018). Evans, Michaela/Feuerstein, Patrick/Kädtler, Jürgen/Kämpf, Tobias (2017): Editorial. Bleibt alles anders: Das Subjekt und die Digitalisierung – Wie wird die Arbeitswelt digital? Wie digital ist die Arbeitswelt? In: Arbeit, Jg. 26, H. 1, S. 1-6. Faßler, Manfred (1997): Informations- und Mediengesellschaft. In: Kneer, Georg/Nassehi Armin/Schroer, Markus (Hrsg.): Soziologische Gesellschaftsbegriffe. Konzepte und moderne Zeitdiagnosen, München, S. 332360. Faßler, Manfred (2001): Netzwerke: Einführung in die Netzstrukturen, Netzkulturen und verteilte Gesellschaftlichkeit, München. Foucault, Michel (1976): Überwachen und Strafen. Die Geburt des Gefängnisses, Frankfurt am Main. Foucault, Michel (1977): Der Wille zum Wissen. Sexualität und Wahrheit 1, Frankfurt am Main. Foucault, Michel (1986): Die Sorge um Sich. Sexualität und Wahrheit 3, Frankfurt am Main.

374 | HOUBEN & P RIETL

Fourcade, Marion/Healy, Kieran (2013): Classification situations: Life-chances in the neoliberal era. In: Accounting, Organizations and Society, Vol. 38, S. 559-572. Franzen, Martina (2015): Der Impact Faktor war gestern. In: Soziale Welt, Jg. 66, H. 2, S. 225-242. Franzen, Martina (2016): Open Science als wissenschaftspolitische Problemlösungsformel? In: Simon, Dagmar/Knie, Andreas/Hornbostel, Stefan/Zimmermann, Karin (Hrsg.): Handbuch Wissenschaftspolitik, Wiesbaden, S. 279296. Franzen, Martina/Rödder, Simone/Weingart, Peter (2012): Wissenschaft und Massenmedien: Von Popularisierung zu Medialisierung. In: Maasen, Sabine/ Kaiser, Mario/Reinhart, Martin/Sutter, Barbara (Hrsg.): Handbuch Wissenschaftssoziologie, Wiesbaden, S. 355-364. Frey, Carl/Osborne, Michael. A. (2013): The Future of Employment: How Susceptible are Jobs to Computerization?, Oxford. Fuchs, Mathias/Fizek, Sonia/Ruffino, Paolo/Schrape, Niklas (2014) (Hrsg.): Rethinking Gamification, Lüneburg. Galloway, Alexander/Thaker, Eugene (2014): Protokoll, Kontrolle, Netzwerke. In: Reichert, Ramón (Hrsg.): Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie, Bielefeld, S. 289-311. Garrett, Lyndon E./Spreitzer, Gretchen M./Bacevice, Peter A. (2017): Coconstructing a Sense of Community at Work: The Emergence of Community in Coworking Spaces. In: Organization Studies, Vol. 38, No. 6, S. 821-842. Garton-Ash, Timothy (2013): If Big Brother came back, he’d be a public-private partnership. In: The Guardian, 27.6.2013. Gill, Karamjit S. (2013): The Internet of things! Then what? In: AI & Society, Vol. 28, No. 4, S. 367-371. Gitelman, Lisa (Hrsg.) (2013): Raw Data is an Oxymoron, Cambridge. Gluba, Alexander (2014): Predictive Policing – Eine Bestandsaufnahme. Historie, theoretische Grundlagen, Anwendungsgebiete und Wirkung, Hannover. Goffman, Erving (1969): Wir alle spielen Theater, München. Goodwin, Tom (2015): The Battle is for the Customer Interface. In: TechCrunch, 3. März 2015. Online unter: https://techcrunch.com/2015/03/03/inthe-age-of-disintermediation-the-battle-is-all-for-the-customer-interface/#.fhjkjp: 0sCd (aufgerufen am 22.11.2017). Greenberg Andy (2012): This Machine Kills Secrets: How WikiLeakers, Cypherpunks, and Hacktivists Aim to Free the World’s Information, New York. Habermas, Jürgen (1962): Strukturwandel der Öffentlichkeit, Frankfurt am Main.

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 375

Hagendorff, Thilo (2017): Das Ende der Informationskontrolle. Digitale Mediennutzung jenseits von Privatheit und Datenschutz, Bielefeld. Han, Byung-Chul (2012): Transparenzgesellschaft, Berlin. Hansen, Hans Krause (2015): Numerical operations, transparency illusions and the datafication of governance. In: European Journal of Social Theory, Vol. 18, No. 2, S. 203-220. Hauck, Mirjam/Martin-Jung, Helmut (2017): Auch in Deutschland ist die Netzneutralität durchlöchert. In: Süddeutsche Zeitung, 15.12.2017, München. Häußling, Roger (2014): Techniksoziologie, Konstanz. Heintz, Bettina (2007): Zahlen, Wissen, Objektivität. In: Mennicken, Andrea/ Vollmer, Hendrik (Hrsg.): Zahlenwerke. Kalkulation, Organisation und Gesellschaft, Wiesbaden, S. 65-85. Heintz, Bettina (2016). „Wir leben im Zeitalter der Vergleichung.“ Perspektiven einer Soziologie des Vergleichs. In: Zeitschrift für Soziologie, Jg. 45, H. 5, S. 305-323. Hepp, Andreas/Krotz, Friedrich (2014): Mediatized worlds: Understanding everyday mediatization. In: Dies. (Hrsg.): Mediatized worlds: Culture and society in a media age, London, S. 1-15. Hirschmann, Albert O. (1970): Exit, Voice and Loyalty. Responses to Decline in Firms, Organizations and States, Cambridge. Honneth, Axel (1994): Desintegration. Bruchstücke einer soziologischen Zeitdiagnose, Frankfurt am Main. Horkheimer, Max/Adorno, Theodor W. (1969): Dialektik der Aufklärung, Frankfurt am Main. Houben, Daniel (2018a): Von Ko-Präsenz zu Ko-Referenz – Das Erbe Erving Goffmans im Zeitalter digitalisierter Interaktion. In: Klemm, Mathias/Staples, Ronald (Hrsg.): Leib und Netz, Wiesbaden, S. 15-31. Houben, Daniel (2018b): Instrumentelle Vernunft in der Datengesellschaft – Zur Relevanz der Kritischen Theorie für das Verständnis der Datafizierung des Sozialen. In: Leineweber, Christian/de Witt, Claudia (Hrsg.): Digitale Transformation im Diskurs. Kritische Perspektiven auf Entwicklungen und Tendenzen im Zeitalter des Digitalen, Hagen, S. 197-220. Iliadis, Andrew/Russo, Federica (2016): Critical data studies: An introduction. In: Big Data & Society. DOI: doi.org/10.1177/2053951716674238. Jordan, Tim/Taylor Paul A. (2004): Hacktivism and Cyberwars: Rebels with a Cause? New York. Jürgenmeyer, Julian/Krenn, Karoline (2016): Classification Situations – A New Field of Research for Valuation Studies? In: Valuation Studies, Vol. 4, No. 2, S. 177-189.

376 | HOUBEN & P RIETL

Karatzogianni, Athina (2015): Firebrand Waves of Digital Activism 1994–2014: The Rise and Spread of Hacktivism and Cyberconflict, London. Karppi, Tero/Crawford, Kate (2015): Social media, financial algorithms and the hack crash. In: Theory, Culture & Society, Vol. 33, No. 1, S. 73-92. Kaun, Anne/Uldam, Julie (2017): Digital activism: After the hype. In: New Media & Society. Online first. DOI: doi.org/10.1177/1461444817731924. Kelty, Christopher M. (2008): Two Bits: The Cultural Significance of Free Software, Durham. Kirchner, Stefan (2017): Digitalisierung: Reorganisieren ohne Organisation? In: Maja Apelt, Maja/Bode, Ingo/von Groddeck, Victoria/Hasse, Raimund/Meyer, Uli/Wilkesmann, Maximilane/Windeler, Arnold (Hrsg.): Handbuch Organisationssoziologie, Wiesbaden (im Erscheinen). Kirschenbaum, Matthew (2008): Mechanisms: New Media and the Forensic Imagination, Cambridge. Kitchin, Rob (2014): The Data Revolution. Big Data, Open Data, Data Infrastructures and Their Consequences, London. Kitchin, Rob (2017): Thinking critically about and researching algorithms. In: Information, Communication & Society, Vol. 20, No. 1, S. 14-29. Kitchin, Rob/Lauriault, Tracey P. (2014): Towards critical data studies: Charting and unpacking data assemblages and their work. Pre-print version of chapter to be published in Eckert, J./Shears, A./Thatcher, J. (Hrsg.): Geoweb and Big Data, University of Nebraska. Knoblauch, Hubert, (2003): Habitus und Habitualisierung: Zur Komplementarität von Bourdieu mit dem Sozialkonstruktivismus. In: Rehbein, Boike/Saalmann, Gernot/Schwengel, Hermann (Hrsg.): Pierre Bourdieus Theorie des Sozialen: Probleme und Perspektiven, Konstanz, S. 187-201. Kohler, Jens/Specht, Thomas (2014): Ein Marktplatz für die Cloud: Vergleichbarkeit von Datenspeichern durch QoS-/SLA-Mapping. In: Jähnert, Jürgen/ Förster, Christian (Hrsg.): Technologien für digitale Innovationen, Wiesbaden, S. 43-62. Kolb, Matthias (2016): Nein, Big Data erklärt Donald Trumps Wahlsieg nicht. In: Süddeutsche Zeitung, 6. Dezember 2016, München. Krenn, Karoline (2017): Markets and Classifications – Constructing Market Orders in the Digital Age. An Introduction. In: Historical Social Research, Vol. 42, No. 1, S. 7-22. Krüger, Anne K./Reinhart, Martin (2017): Wert, Werte und (Be)Wertungen. Eine erste begriffs- und prozesstheoretische Sondierung der aktuellen Soziologie der Bewertung. In: Berliner Journal für Soziologie, Jg. 26, H. 3-4, S. 485500.

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 377

Kühl, Stefan (2012): Der Sudoko-Effekt. Hochschulen im Teufelskreis der Bürokratie. Eine Streitschrift, Bielefeld. Kuhlmann, Martin/Schumann, Michael (2015): Digitalisierung fordert Demokratisierung heraus. In: Hoffmann, Reiner/Bogedan, Claudia (Hrsg.): Arbeit der Zukunft, Frankfurt am Main, S. 122-140. Lamont, Michelle (2012): Toward a Comparative Sociology of Valuation and Evaluation. In: Annual Review of Sociology, Vol. 38, S. 201-221. Lash, Scott (2007): Power after hegemony: Cultural studies in mutation. In: Theory, Culture & Society, Vol. 24, No. 3, S. 55-78. Latour, Bruno (2013): Achtung: Ihre Phantasie hinterlässt Spuren! In: Geiselberger, Heinrich/Moorstedt, Tobias (Hrsg.): Big Data. Das neue Versprechen der Allwissenheit, Berlin, S. 119-123. Lazer, David/Radford, Jason (2017): Data ex Machina: Introduction to Big Data. In: Annual Review of Sociology, Vol. 43, S. 19-39. Lee, Felix (2017): Die AAA-Bürger. In: Die Zeit, 30.11.2017, Hamburg. Lessenich, Stefan (2015): Die Externalisierungsgesellschaft. Ein Internalisierungsversuch. In: Soziologie Jg. 44, H. 1, S. 22-33. Link, Jürgen (2006): Versuch über den Normalismus. Wie Normalität produziert wird, Göttingen. Lupton, Deborah (2013): Quantifying the body: monitoring and measuring health in the age of mHealth technologies. In: Critical Public Health, Vol. 23, No. 4, S. 393-403. Lupton, Deborah (2015): Digital Sociology, London. Lyon, David (2003): Surveillance as social sorting: computer codes and mobile bodies. In: Ders. (Hrsg.): Surveillance as Social Sorting. Privacy, risk, and digital discrimination, London, S. 13-30. Lyon, David (2014): Surveillance, Snowden, and Big Data: Capacities, consequences, critique. In: Big Data & Society. DOI: doi.org/10.1177/2053951714541861. Maassen, Sabine/Weingart, Peter (2006): Unternehmerische Universität und neue Wissenschaftskultur. In: die hochschule, H.1, S. 19-45. Manovich, Lev (2014): Trending. Verheißungen und Herausforderungen der Big Social Data. In: Reichert, Ramón (Hrsg.): Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie, Bielefeld, S. 65-83. Manovich, Lev (2001): The Language of New Media, Boston. Marino, Mark C. (2006): Critical Code Studies. In: electronic book review. Online unter: http://www.electronicbookreview.com/thread/electropoetics/codology (aufgerufen am 19.10.2017).

378 | HOUBEN & P RIETL

Matzner, Nils (2015): Engineering the Climate. Politik und Planung der Klimaintervention. In: Koch, Matthias/Köhler, Christian/Othmer, Julius/ Weich, Andreas (Hrsg.): Planlos! Zu den Grenzen von Planbarkeit, Paderborn, S. 165-179. Mau, Steffen (2017): Das metrische Wir. Über die Quantifizierung des Sozialen, Berlin. Mayerl, Jochen (2017): Bedeutet ‚Big Data‘ das Ende der sozialwissenschaftlichen Methodenforschung? In: Soziopolis, 12.03.2017. Online unter: www.soziopolis.de/beobachten/wissenschaft/artikel/bedeutet-big-data-dasende-der-sozialwissenschaftlichen-methodenforschung (aufgerufen am 27.06. 2017). Mayer-Schönberger, Viktor/Cukier, Kenneth (2013): Big Data. Die Revolution, die unser Leben verändern wird, München. Meier, Frank/Peetz, Thorsten/Waibel, Desiree (2016): Bewertungskonstellationen. Theoretische Überlegungen zur Soziologie der Bewertung. In: Berliner Journal für Soziologie, Jg. 26, H. 3-4, S. 307-328. Mennicken, Andrea/Vollmer, Hendrik (Hrsg.) (2007): Zahlenwerke. Kalkulation, Organisation und Gesellschaft, Wiesbaden. Metahaven (2012): Captives of the Cloud: Part II. In: e-flux Journal #38. Moebius, Stephan/Schroer, Markus (Hrsg.) (2010): Diven, Hacker, Spekulanten. Sozialfiguren der Gegenwart, Frankfurt am Main. Mosco, Vincent (2009): The Political Economy of Communication, Thousand Oaks. Mott Nathaniel (2014): The FTC condemns the data brokerage industry’s collection practices. Pando Daily, 27. Mai. Online unter: https://pando.com/ 2014/05/27/the-ftc-condemns-the-data-brokerage-indu-strys-collection-prac tices (aufgerufen am 25.01.2018). Mützel, Sophie (2015): Facing Big Data: Making sociology relevant. In: Big Data & Society. DOI: doi.org/10.1177/2053951715599179. Nachtwey, Oliver/Staab, Philipp (2015): Die Avantgarde des digitalen Kapitalismus. In: Mittelweg 36, H. 6, S. 1-21. Niederer, Sabine/Chabot, Raymond Taudin (2015): Deconstructing the cloud: Responses to Big Data phenomena from social sciences, humanities and the arts. In: Big Data & Society. DOI: doi.org/10.1177/2053951715594635. Nimis, Jens/Armbruster, Matthias/Kammerer, Martin (2014): Zukunftsfähiges Datenmanagement durch hybride Lösungen – Ein Entwurfsmusterkatalog zur Integration von SQL- und NoSQL-Datenbanken. In: Jähnert, Jürgen/Förster, Christian (Hrsg.): Technologien für digitale Innovationen. Interdisziplinäre Beiträge zur Informationsverarbeitung, Wiesbaden, S. 19-42.

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 379

O’Reilly, Tim (2005): What is Web 2.0? In: Donelan, Helen/Kear, Karen/Ramage, Magnus (Hrsg.): Online Communication and Collaboration. A Reader, London, S. 225-235. Olson, Parmy (2012): We Are Anonymous: Inside the Hacker World of LulzSec, Anonymous, and the Global Cyber Insurgency, New York. Orton-Johnson, Kate/Prior, Nick (2013): Digital Sociology – Critical Perspectives, London. Pariser, Eli (2012): Filter Bubble. Wie wir im Internet entmündigt werden, München. Paulitz, Tanja (2005): Netzsubjektivität/en. Konstruktionen von Vernetzung als Technologien des sozialen Selbst. Eine empirische Untersuchung in Modellprojekten der Informatik, Münster. Paulitz, Tanja/Carstensen, Tanja (Hrsg.) (2014): Subjektivierung 2.0. Machtverhältnisse digitaler Öffentlichkeiten. Sonderheft der Österreichischen Zeitschrift für Soziologie, Wiesbaden. Perry, Walter L./McInnis, Brian/Price, Carter C./Smith, Susan C./Hollywood, John S. (2013): Predictive Policing. The Role of Crime Forecasting in Law Enforcement Operations, Santa Monica. Philipps, Axel (2017): Brauchen wir eine Soziologie des Digitalen? In: Soziologie, Jg. 46, H. 4, S. 403-416. Pickering, Andrew (1989): Living in the Material World: On Realism and Experimental Practice. In: Gooding, David/Pinch, Trevor J./Schaffer, Simon (Hrsg.): The Uses of Experiment: Studies of Experimentation in the Natural Sciences, Cambridge, S. 275-297. Punsmann, Burcu Gültekin (2018): Drei Monate Hölle. In: Süddeutsche Zeitung Magazin, 5.1.2018, München. Reckwitz, Andreas (2012): Subjekt, Bielefeld. Reckwitz, Andreas (2017): Die Gesellschaft der Singularitäten: Zum Strukturwandel der Moderne, Berlin. Reichert, Ramón (2014a): Einführung. In: Ders. (Hrsg.): Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie, Bielefeld, S. 9-31. Reichert, Ramón (Hrsg.) (2014b): Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie, Bielefeld. Reichert, Ramón (2014c): Facebook und das Regime der Big Data. In: Paulitz, Tanja/Carstensen, Tanja (Hrsg.): Subjektivierung 2.0. Sonderheft der Österreichischen Zeitschrift für Soziologe, Wiesbaden, S. 163-179. Richter, Stephan/Kind, Sonja (2016): Predictive Policing, Karlsruhe. Riesewieck, Moritz (2017): Digitale Drecksarbeit. Wie uns Facebook & Co. von dem Bösen erlösen, München.

380 | HOUBEN & P RIETL

Risen, James/Wingfield, Nick (2013): Web’s reach binds N.S.A. and Silicon Valley leaders. In: The New York Times, 19 Juni 2013. Online unter: https://www.nytimes.com/2013/06/20/technology/silicon-valley-and-spyagency-bound-bystrengthening-web.html (aufgerufen am 25.01.2018). Rudl, Tomas (2017): Schwarzer Tag fürs Internet: USA demolieren Netzneutralität. Online unter: https://netzpolitik.org/2017/schwarzer-tag-fuers-internetusa-demolieren-netzneutralitaet/ (aufgerufen am 25.01.2018). Ruppert, Evelyn/Isin, Engin/Bigo, Didier (2017): Data politics. In: Big Data & Society. DOI: doi.org/10.1177/2053951717717749. Sauder, Michael/Espeland, Wendy Nelson (2009): The Discipline of Rankings: Tight Coupling and Organizational Change. In: American Sociological Review, Vol. 74, No. 1, S. 63-82. Schimank, Uwe (2007a): Soziologische Gegenwartsdiagnosen – Zur Einführung. In: Ders./Volkmann, Ute (Hrsg.): Soziologische Gegenwartsdiagnosen I. Eine Bestandsaufnahme, Wiesbaden, S. 9-22. Schimank, Uwe (2007b): Das „stahlharte Gehäuse der Hörigkeit“, revisited – James Colemans „asymmetrische Gesellschaft“. In: Ders./Volkmann, Ute (Hrsg.): Soziologische Gegenwartsdiagnosen I. Eine Bestandsaufnahme, Wiesbaden, S. 239-256. Schmidt, Florian A. (2017): Arbeitsmärkte in der Plattform-ökonomie – Zur Funktionsweise und den Herausforderungen von Crowdwork und Gigwork. Bonn: Friedrich-Ebert-Stiftung. Schröter, Welf (2016): Virtuelle Identitäten im ‚Worklogging‘. In: Selke, Stefan (Hrsg.): Lifelogging. Digitale Selbstvermessung und Lebensprotokollierung zwischen disruptiver Technologie und kulturellem Wandel, Wiesbaden, S. 193-214. Selke Stefan (Hrsg.) (2016): Lifelogging. Digitale Selbstvermessung und Lebensprotokollierung zwischen disruptiver Technologie und kulturellem Wandel, Wiesbaden. Selke, Stefan (2014): Lifelogging: Wie die digitale Selbstvermessung unsere Gesellschaft verändert, Berlin. Sevignani, Sebastian (2016): Privacy and Capitalism in the Age of Social Media, New York. Sewell, Graham (2012): Employees, organizations and surveillance. In: Ball, Kirstie/Haggerty, Kevin D./Lyon, David (Hrsg.): Routledge Handbook of Surveillance Studies, London, S. 303-312. Sewell, Graham/Taskin, Laurent (2015): Out of sight, out of mind in a new world of work? Autonomy, control, and spatiotemporal scaling in telework. In: Organization Studies, Vol. 36, No. 11, S. 1507-1529.

D ATENGESELLSCHAFT

ALS

ZEITDIAGNOSE

| 381

Shaw, Ryan (2015): Big Data and Reality. In: Big Data & Society. DOI: 10.1177/2053951715608877. Stark, Christopher (2016): Der neoliberale Zeitgeist als Nährboden für die digitale Selbstvermessung. In: Selke, Stefan (Hrsg.): Lifelogging. Digitale Selbstvermessung und Lebensprotokollierung zwischen disruptiver Technologie und kulturellem Wandel, Wiesbaden, S. 287-308. Stehr, Nico (1994): Arbeit, Eigentum und Wissen: Zur Theorie von Wissensgesellschaften, Frankfurt am Main. Strange, Susan (1988): States and Markets – An Introduction to International Political Economy. London. Strittmatter, Kai (2017): Schuld und Sühne. In: Süddeutsche Zeitung, 19.5.2017, München. Suddaby, Roy/Muzio, Daniel (2015): Theoretical Approaches to the Study of PSFS. In: Empson, Laura/Muzio, Daniel/Broschak Joseph/Hinings, Bob (Hrsg.): Oxford Handbook of Professional Services Firms, Oxford, S. 25-47. Süssenguth, Florian (Hrsg.) (2015): Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung, Bielefeld. Sweeney, Latanya (2013): Discrimination in Online Ad Delivery. In: acm queue 11/3. Online unter: https://queue.acm.org/detail.cfm?id=2460278 (aufgerufen am 27.01.2018). Tilly, Charles (1998): Durable Inequality, Berkeley. van Dijck, José (2014): Datafication, dataism and dataveillance: Big Data between scientific paradigm and ideology. In: Surveillance & Society, Vol. 12, No. 2, S. 197-208. Vollmer, Hendrik (2004): Folgen und Funktionen Organisierten Rechnens. In: Zeitschrift für Soziologie, Jg. 33, H. 6, S. 450-470. Vormbusch, Uwe (2004): Accounting. Die Macht der Zahlen im gegenwärtigen Kapitalismus. In: Berliner Journal für Soziologie Jg. 14, H. 1, S. 33-50. Vormbusch, Uwe (2007): Die Kalkulation der Gesellschaft. In: Mennicken, Andrea/Vollmer, Hendrik (Hrsg.): Zahlenwerk. Kalkulation, Organisation und Gesellschaft, Wiesbaden, S. 43-64. Vormbusch, Uwe/Kappler, Karolin (2018): Leibschreiben. Zur medialen Repräsentation des Körperleibes im Feld der Selbstvermessung. In: Mämecke, Thorben/Passoth, Jan-Hendrik/Wehner, Josef (Hrsg.): Bedeutende Daten. Modelle, Verfahren und Praxis der Vermessung und Verdatung im Netz, Wiesbaden, S. 207-232. Voß, Günther G./Pongratz, Hans J. (1998): Der Arbeitskraftunternehmer. Eine neue Grundform der Ware Arbeitskraft? In: Kölner Zeitschrift für Soziologie und Sozialpsychologie, Jg. 50, H. 1, S. 131-158.

382 | HOUBEN & P RIETL

Wagner, Elke/Stempfhuber, Martin (2015): Praktiken des Digitalen. Über die digitale Transformation soziologischer Unterscheidungen. In: Süssenguth, Florian (Hrsg.): Die Gesellschaft der Daten. Über die digitale Transformation sozialer Ordnung, Bielefeld, S. 67-92. Wehner, Josef/Passoth, Jan-Hendrik/Sutter, Tilmann (2017): Medien, Musik und Algorithmen – Zur Publikumsvermessung im Internet. In: Krotz, Friedrich/ Despotovic, Cathrin/Kruse, Merle-Marie (Hrsg.): Mediatisierung als Metaprozess, Wiesbaden, S. 233-256. Wiedemann, Lisa (2016): Datensätze der Selbstbeobachtung – Daten verkörpern und Leib vergessen!? In: Selke, Stefan (Hrsg.): Lifelogging. Digitale Selbstvermessung und Lebensprotokollierung zwischen disruptiver Technologie und kulturellem Wandel, Wiesbaden, S. 65-93. Winner, Langdon (1999): Do Artefacts Have Politics? In: MacKenzie, Donald/Wajcman, Judy (Hrsg.): The Social Shaping of Technology, Buckingham, S. 28-40. Zillien, Nicole (2009): Digitale Ungleichheit. Neue Technologien und alte Ungleichheiten in der Informations- und Wissensgesellschaft, Wiesbaden. Zuboff, Shoshana (2015): Big other: surveillance capitalism and the prospects of an information civilization. In: Journal of Information Technology, Vol. 30, S. 75-89. Zureik, Elia/Mowshowitz, Abbe (2005): Consumer power in the digital society. In: Communications of the ACM, Vol. 48, No. 10, S. 46-51. Zwitter, Andrej (2014): Big Data ethics. In: Big Data & Society. DOI: 10.1177/2053951714559253.

Autor_innen

Büchner, Stefanie, Dr., ist wissenschaftliche Mitarbeiterin an der Fakultät für Soziologie der Universität Bielefeld am Arbeitsbereich Organisationssoziologie. Ihre Arbeitsschwerpunkte liegen auf dem Verhältnis von Organisation und Digitalisierung sowie in der qualitativen Erforschung sozialer personenbezogener Organisationen. Im aktuellen Forschungsprojekt „Organizing ComplexITies“ untersucht sie den Wandel von Entscheidungsstrukturen durch integrierte Softwareanwendungen wie ERP-Systeme und Case-Management-Programme. 2017 erschien ihre Dissertation „Der organisierte Fall“ in der Reihe Organisationssoziologie im Verlag Springer VS. Diaz-Bone, Rainer, ist Professor für Soziologie mit dem Schwerpunkt qualitative und quantitative Methoden an der Universität Luzern (Schweiz). Seine Arbeitsschwerpunkte sind sozialwissenschaftliche Methodologien, Strukturalismus, Pragmatismus, neue französische Sozialwissenschaften, Wirtschaftssoziologie (insbesondere Economie des conventions). Eggert, Michael, ist seit 2012 wissenschaftlicher Mitarbeiter am Lehrstuhl für Technik- und Organisationssoziologie der RWTH Aachen. Seine inhaltlichen Schwerpunkte liegen auf Fragen der Mensch-Technik-Interaktion im Kontext von Ubiquitous Computing, Cloud-Computing und dem Internet der Dinge sowie damit verbundenen Problemen von Privatheit und Autonomie. Frisch, Thomas, Mag. phil., ist wissenschaftlicher Mitarbeiter am Institut für Soziologie der Universität Hamburg. Im Rahmen der inter-universitären und DFG-geförderten Forschergruppe „Mediale Teilhabe“ untersucht er die medialen Bewertungspraktiken im online-vermittelten Tourismus. In seinem Promotionsvorhaben beschäftigt er sich darüber hinaus mit Techniken und Praktiken digitaler Bewertungskulturen.

384 | DATENGESELLSCHAFT

Heiland, Heiner, M.A., ist Promotionsstipendiat der Hans-Böckler-Stiftung und Mitglied der Nachwuchsforschungsgruppe „Werkverträge“ und forscht am Lehrstuhl für Organisationssoziologie an der Technischen Universität Darmstadt zu plattformvermittelten Dienstleistungen. Houben, Daniel, forscht und lehrt an der RWTH Aachen; zuvor Studium in Münster und Aachen und danach u. a. Referatsleitung in der Studienförderung der Hans-Böckler-Stiftung in Düsseldorf. Seine Arbeitsschwerpunkte liegen in der Organisationssoziologie, Wissenschafts- und Hochschulforschung, der Theorie der Datengesellschaft sowie soziologischer Theorien. Jakob, Sebastian, M.A., forscht und lehrt als wissenschaftlicher Mitarbeiter am Lehrstuhl für Techniksoziologie mit dem Schwerpunkt Internet und Neue Medien an der Technischen Universität Chemnitz. Seit 2017 promoviert er am Leibniz Forschungszentrum Wissenschaft und Gesellschaft (LCSS) in Hannover. Seine Forschungsschwerpunkte sind die Wissenschafts-, Technik- und Internetsoziologie. Kerpen, Daniel, ist seit 2013 wissenschaftlicher Mitarbeiter am Lehrstuhl für Technik- und Organisationssoziologie der RWTH Aachen und arbeitet in interdisziplinären Projekten zu sicherer, nutzungsgerechter Mensch-Technik-Interaktion mobiler Endgeräte, Cloud-basierter Anwendungen und Cyber-Physischer Produktionssysteme. Klinge, Denise, Dr. phil., ist wissenschaftliche Mitarbeiterin an der Universität der Bundeswehr München. Ihre Forschungsschwerpunkte umfassen elterliche Schulentscheidungen (im Rahmen der Promotion), dokumentarische Methode und Praktiken der Technologie-Entwicklung. Der Beitrag zu diesem Band ist aus dem laufenden Habilitationsprojekt heraus entstanden, in welchem Konstruktions- und Vermittlungsweisen softwarebasierter Lehr-Lernsettings untersucht werden. Krenn, Karoline, ist wissenschaftliche Mitarbeiterin im Kompetenzzentrum Öffentliche IT des Fraunhofer-Instituts für offene Kommunikationssysteme FOKUS in Berlin. Zuvor war sie wissenschaftliche Mitarbeiterin an der Humboldt-Universität zu Berlin. Zu ihren Forschungsschwerpunkten gehören die Untersuchung von Intermediationsprozessen auf Märkten und soziale Netzwerke. Aktuell beschäftigt sie sich verstärkt mit digital-gesellschaftlichen Themen wie Selbstdatenschutz und digitaler Identität.

A UTOR _ INNEN

| 385

Leger, Matthias, M.A., ist wissenschaftlicher Mitarbeiter am Zentrum für interdisziplinäre Risiko- und Innovationsforschung (ZIRIUS) an der Universität Stuttgart und Doktorand in der Nachwuchsgruppe DynaMo. Zuvor studierte er Soziologie mit Schwerpunkt empirische Sozialforschung an der Eberhard-Karls Universität Tübingen sowie Soziologie und Geschichte an der GoetheUniversität Frankfurt am Main. Zu seinen Forschungsschwerpunkten zählen Mikrosoziologie, Wissenschafts- und Technikforschung, Praxistheorien sowie Methoden qualitativer Sozialforschung. Muster, Judith, ist wissenschaftliche Mitarbeiterin am Lehrstuhl für Organisations- und Verwaltungssoziologie der Universität Potsdam. Sie forscht zu Grenzen des Organisierbaren in Unternehmen, z. B. mit Blick auf datengestützte Entscheidungen, der Frage der Steuerung von und durch Führung oder den Effekten postbürokratischer Organisationseinheiten in Großorganisationen. Mützel, Sophie, Ph.D., ist Professorin für Soziologie, Schwerpunkt Medien und Netzwerke am Soziologischen Seminar der Universität Luzern. Ihre Arbeits- und Forschungsschwerpunkte umfassen Soziologie von Algorithmen und Big Data, Wirtschaftssoziologie, Kultursoziologie, Netzwerkanalyse sowie textanalytische Verfahren. Panzitta, Susanne, B.A., studierte Soziologie und Nordische Philologie an der FAU Erlangen und studiert zurzeit im Master „Soziologie mit Schwerpunkt empirische Sozialforschung“ an der Eberhard-Karls Universität Tübingen mit einem Schwerpunkt in qualitativer Forschung und Interaktionssoziologie. Momentan arbeitet sie an ihrer Masterarbeit zum Thema „Interaktion im Pen&Paper Rollenspiel“. Papsdorf, Christian, Dr. phil, ist Juniorprofessor für Techniksoziologie mit dem Schwerpunkt Internet und Neue Medien an der Technischen Universität Chemnitz. Seine Forschungsschwerpunkte umfassen Subjektorientierte Technikund Internetsoziologie, Mediennutzungsforschung, digitalisierte Arbeit sowie die Algorithmisierung gesellschaftlicher Kommunikation. Prietl, Bianca, ist promovierte Soziologin und wissenschaftliche Mitarbeiterin am Arbeitsbereich Kultur- und Wissenssoziologie der Technischen Universität Darmstadt. Ihre Arbeitsschwerpunkte liegen in der Geschlechterforschug, der Wissenschafts- und Technikforschung, der Arbeits- und Berufssoziologie, der

386 | DATENGESELLSCHAFT

qualitativen Sozialforschung sowie aktuell auf Phänomenen der Datafizierung und Digitalisierung. Reichert, Ramón, Dr. phil. habil., ist European Project Researcher an der University of Lancaster sowie Studienleiter und Koordinator der postgradualen Masterstudiengänge „Data Studies“ und „Cross Media“ an der Donau-Uni Krems. Er lehrt am Département des sciences de la communication et des medias an der Université de Fribourg, an der School of Humanities and Social Sciences der Universität St. Gallen und an der Academy of Art and Design am Institute of Experimental Design and Media Cultures in Basel. Er ist als Expert Evaluator im Bereich „Digitale Medienkultur“ im Auftrag der Europäischen Kommission, des Bundesministeriums für Bildung und Forschung und der Deutschen Forschungsgemeinschaft (DFG) tätig. Seit 2014 fungiert er als leitender Herausgeber der internationalen Fachzeitschrift „Digital Culture & Society“. Saner, Philippe, Studium der Soziologie, Politik- und Medienwissenschaften an den Universitäten Bern, Ljubljana und Luzern. Er ist seit 2017 wissenschaftlicher Mitarbeiter im Projekt „Facing Big Data: Methods and Skills Needed for a 21st Century Sociology“ und Doktorand am Soziologischen Seminar der Universität Luzern. Seine Arbeits- und Forschungsinteressen umfassen Wissenschaftsund Technikforschung, Bildungssoziologie, Kultursoziologie, Wirtschaftssoziologie, qualitative Methoden sowie textanalytische Verfahren. Schmitt, Marco, Dr., ist wissenschaftlicher Mitarbeiter mit dem Forschungsschwerpunkten in der Neueren Netzwerkforschung, Kommunikationsnetzwerken und Mehr-Ebenen-Netzwerken im Klimaschutz und im Bereich wissenschaftlicher Innovationen. Seine methodischen Kompetenzen liegen in der quantitativen und qualitativen Netzwerkanalyse, Online-Surveys, leitfadengestützten Experteninterviews, Sozialsimulation und Methoden der Technikbewertung, seine theoretischen Arbeiten befassen sich mit der Theorie sozialer Netzwerke und der Soziologie Harrison Whites. Schmitten, Jan-Peter, Diplomsoziologe, arbeitet als wissenschaftlicher Mitarbeiter an der Professur Innovationsforschung und Technologiemanagement am Institut für Wirtschaftswissenschaften der Technischen Universität Chemnitz. Seine Arbeitsschwerpunkte sind die Technik- und Internetsoziologie, die sozialwissenschaftliche Algorithmen- und Softwareforschung und Informatisierung.

A UTOR _ INNEN

| 387

Stoltenberg, Luise, M.A., ist wissenschaftliche Mitarbeiterin am Institut für Soziologie der Universität Hamburg. Im Rahmen der inter-universitären und DFGgeförderten Forschergruppe „Mediale Teilhabe“ erforscht sie den Einfluss digitaler Medien auf das Reisen und den Tourismus. Zusätzlich untersucht sie in ihrem Promotionsvorhaben den Reiz eines fremden Zuhauses als touristische Attraktion. Tiede, Maria, B.A., macht gegenwärtig ihren Master im Studiengang „Soziologie mit Schwerpunkt empirische Sozialforschung“ an der Eberhard-Karls Universität Tübingen. Davor studierte sie in Tübingen Soziologie und Politikwissenschaften. Ihre Interessensgebiete liegen in der Interaktionssoziologie und der Methodologie qualitativer Forschung sowie der Geschlechtersoziologie. Aktuell forscht sie für ihre Masterarbeit zu Geschlechterkonstruktionen in Familiengerichtsverfahren. Unternährer, Markus, Studium der Soziologie, Filmwissenschaft und Politikwissenschaft an den Universitäten Bern, Zürich und Luzern. Er ist seit 2015 wissenschaftlicher Assistent und Doktorand am Soziologischen Seminar der Universität Luzern. Seine Arbeits- und Forschungsinteressen liegen in der Soziologie von Big Data und Algorithmen, Wissenschafts- und Technikforschung, Selbstquantifizierung sowie den qualitativen Methoden.

Soziologie Sighard Neckel, Natalia Besedovsky, Moritz Boddenberg, Martina Hasenfratz, Sarah Miriam Pritz, Timo Wiegand

Die Gesellschaft der Nachhaltigkeit Umrisse eines Forschungsprogramms Januar 2018, 150 S., kart. 14,99 € (DE), 978-3-8376-4194-3 E-Book kostenlos erhältlich als Open-Access-Publikation PDF: ISBN 978-3-8394-4194-7 EPUB: ISBN 978-3-7328-4194-3

Sabine Hark, Paula-Irene Villa

Unterscheiden und herrschen Ein Essay zu den ambivalenten Verflechtungen von Rassismus, Sexismus und Feminismus in der Gegenwart 2017, 176 S., kart. 19,99 € (DE), 978-3-8376-3653-6 E-Book PDF: 17,99 € (DE), ISBN 978-3-8394-3653-0 EPUB: 17,99 € (DE), ISBN 978-3-7328-3653-6

Anna Henkel (Hg.)

10 Minuten Soziologie: Materialität Juni 2018, 122 S., kart. 15,99 € (DE), 978-3-8376-4073-1 E-Book: 13,99 € (DE), ISBN 978-3-8394-4073-5

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

Soziologie Robert Seyfert, Jonathan Roberge (Hg.)

Algorithmuskulturen Über die rechnerische Konstruktion der Wirklichkeit 2017, 242 S., kart., Abb. 29,99 € (DE), 978-3-8376-3800-4 E-Book kostenlos erhältlich als Open-Access-Publikation PDF: ISBN 978-3-8394-3800-8 EPUB: ISBN 978-3-7328-3800-4

Andreas Reckwitz

Kreativität und soziale Praxis Studien zur Sozial- und Gesellschaftstheorie 2016, 314 S., kart. 29,99 € (DE), 978-3-8376-3345-0 E-Book: 26,99 € (DE), ISBN 978-3-8394-3345-4

Ilker Ataç, Gerda Heck, Sabine Hess, Zeynep Kasli, Philipp Ratfisch, Cavidan Soykan, Bediz Yilmaz (eds.)

movements. Journal for Critical Migration and Border Regime Studies Vol. 3, Issue 2/2017: Turkey’s Changing Migration Regime and its Global and Regional Dynamics 2017, 230 p., pb. 24,99 € (DE), 978-3-8376-3719-9

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de