Privatheit in der digitalen Gesellschaft [1 ed.] 9783428553365, 9783428153367

Die Digitalisierung ist mit ihren Auswirkungen auf Mensch und Gesellschaft $adas$z privatheitsrelevante Thema der vergan

161 15 4MB

German Pages 342 Year 2018

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Privatheit in der digitalen Gesellschaft [1 ed.]
 9783428553365, 9783428153367

Citation preview

Internetrecht und Digitale Gesellschaft Band 10

Privatheit in der digitalen Gesellschaft Herausgegeben von Steffen Burk, Martin Hennig, Benjamin Heurich, Tatiana Klepikova, Miriam Piegsa, Manuela Sixt und Kai Erik Trost

Duncker & Humblot · Berlin

Privatheit in der digitalen Gesellschaft

Internetrecht und Digitale Gesellschaft Herausgegeben von

Dirk Heckmann

Band 10

Privatheit in der digitalen Gesellschaft

Herausgegeben von Steffen Burk, Martin Hennig, Benjamin Heurich, Tatiana Klepikova, Miriam Piegsa, Manuela Sixt und Kai Erik Trost

Duncker & Humblot · Berlin

Diese Publikation ist im Forschungskontext des DFG-Graduiertenkollegs 1681/2 „Privatheit und Digitalisierung“ entstanden. Die Finanzierung dieser Publikation erfolgt aus Mitteln der Deutschen Forschungsgemeinschaft.

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

Alle Rechte, auch die des auszugsweisen Nachdrucks, der fotomechanische Wiedergabe und der Übersetzung, für sämtliche Beiträge vorbehalten © 2018 Duncker & Humblot GmbH, Berlin Satz: L101 Mediengestaltung, Fürstenwalde Druck: CPI buchbücher.de GmbH, Birkach Printed in Germany ISSN 2363-5479 ISBN 978-3-428-15336-7 (Print) ISBN 978-3-428-55336-5 (E-Book) ISBN 978-3-428-85336-6 (Print & E-Book) Gedruckt auf alterungsbeständigem (säurefreiem) Papier entsprechend ISO 9706 Internet: http://www.duncker-humblot.de

Inhaltsverzeichnis Miriam Piegsa und Kai Erik Trost Privatheit in der digitalen Gesellschaft. Von Fragen der Subjektbildung und ethischen Grenzbereichen, Veränderungen sozialer Beziehungen und rechtlichem Regulierungsbedarf  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1. Privatheit und das digitalisierte Subjekt Armin Grunwald Abschied vom Individuum – werden wir zu Endgeräten eines global-digitalen Netzes?  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 Benjamin Heurich Privatheitsschutz als Gemeinwohl – Vertrauen und Sicherheit in digitalen Gemeinschaften  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 Tobias Matzner Der Wert informationeller Privatheit jenseits von Autonomie  . . . . . . . . . . . . 75 Volker Gerhardt Öffentlichkeit und Bewusstsein  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 2. Digitalität als ethisches Handlungsfeld Klaus Mainzer Digitale Würde? Sensoren, Roboter und Big Data zwischen Selbstorganisation und Selbstbestimmung  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 Christian Thies Verantwortung im digitalen Weltsystem. Grundsätzliche Überlegungen zu einem neuen Bereich angewandter Ethik  . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 Julia Maria Mönig Verhaltensbeeinflussung durch Werbung in der Massengesellschaft  . . . . . . . 153 3. Digitale Kulturen und Vergemeinschaftung – soziale Aspekte Kai Erik Trost Der private Freundschaftsraum im digitalisierten Umfeld. Eine empirischsemantische Analyse einer jugendlichen Freundesgruppe  . . . . . . . . . . . . . . . 175

6 Inhaltsverzeichnis Daniela Wawra Beziehungsgestaltung in der digitalen Gesellschaft: Privatheit und Intimität im Kommunikationskontext sozialer Medien  . . . . . . . . . . . . . . . . . . . . . . . . . 199 Alexander Krafka Das intime Bild. Rechtliche Grenzen von Privatheit in der digitalen Gesellschaft  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 Tatiana Klepikova Digital Russians’ Home and Agora: The Runet between the Private and the Public Spheres  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 4. Staatliche Regulationsmöglichkeiten in der Datengesellschaft Tobias O. Keber Stützen der Informationsgesellschaft – zur Rolle von Datenschutz und Datensicherheit im Mediensystem  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261 Manuela Sixt Scoring. Implikationen für Individuum und Gesellschaft  . . . . . . . . . . . . . . . . 289 Barbara Sandfuchs and Andreas Kapsner Privacy Nudges: Conceptual and Constitutional Problems  . . . . . . . . . . . . . . 319 Autoren- und Herausgeberverzeichnis  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339

Privatheit in der digitalen Gesellschaft Von Fragen der Subjektbildung und ethischen Grenzbereichen, Veränderungen sozialer Beziehungen und rechtlichem Regulierungsbedarf Miriam Piegsa und Kai Erik Trost 1. Digitalität im Spannungsfeld sozialen und kulturellen Wandels Mit einem holistischen Blick auf die Medienberichterstattung rund um das Thema Privatheit und die digitale Gesellschaft scheint Privatheit heute ein knappes, bedrohtes und umkämpftes Gut zu sein. Mit Begriffen wie Industrie 4.0, connected car, sharing economy oder cyber-physical systems ist die Liste an prominenten Schlagwörtern lang, die sich als neue Phänomene einer ubiquitären Digitalisierung formieren und für Privatheit implizit oder explizit einen Krisendiskurs formulieren. Dieser Gefährdungsdiskurs kann als eine Konstante der aktuellen Privatheitsforschung identifiziert werden. Wie bei vielen klassischen Werken der Privatheitsforschung steht er in direktem Zusammenhang mit technischen Neuerungen und medialen Innovationen innerhalb einer Kultur, die zu einer veränderten Wahrnehmung des Gefährdungsstatus des Privaten führen.1 So ist etwa der häusliche Privatbereich in zunehmendem Maße von der Digitalisierung betroffen. Die Vernetzung intelligenter Gegenstände (smart devices) wird unter der Bezeichnung ‚Internet der Dinge‘ (internet of things) zusammengefasst. Ab 2020 sind etwa intelligente Stromzähler (smart meter) in allen Haushalten Pflicht.2 In einem smart home lernen die Thermostate 1  Das bekannte Werk von Samuel D. Warren und Louis D. Brandeis ‚The Right to Privacy‘ (1890), in welchem die Autoren das right to be let alone formulieren, entstand etwa in Zusammenhang mit neuen Medientechnologien wie der Massenpresse und der Fotografie, während das viel zitierte Werk ‚Privacy and Freedom‘ (1967) des Juristen und Politologen Alan F. Westin im Kontext neuer Computertechnologien und der damit einhergehenden Techniken der Überwachung und Kontrolle entstand. Auch Jürgen Habermas’ ‚Strukturwandel der Öffentlichkeit‘ aus den 1960er Jahren muss als zentraler Beitrag zur Privatheitsforschung vor dem Hintergrund der Etablierung des Fernsehens als Massenmedium gelesen und interpretiert werden. 2  S. das Gesetz zur Digitalisierung der Energiewende: BT-Drs. 18 / 7555. Zur Kritik s.: Greis, Friedhelm (2016): SMART METER.

8

Miriam Piegsa und Kai Erik Trost

dann, wann sich Personen in der Wohnung aufhalten. Die Geräte passen dementsprechend die Wohntemperatur an, wodurch Heizkosten gespart und die Umweltbelastung reduziert werden kann. Gleichzeitig werden aber Daten erzeugt, die das Heizverhalten dokumentieren und in Kombination mit anderen Daten  – zum Beispiel der Quadratmeterzahl oder der Haushaltsgröße  – Auskunft über das private Leben und die Lebensgewohnheiten der Personen liefern. Würden diese Daten veröffentlicht oder unberechtigten Personen gegenüber zugänglich gemacht, so kann dies als Eingriff in die Privatheit des Subjekts verstanden werden. Rechtlich ginge damit ein Verstoß gegen den Zweckbindungsgrundsatz von erhobenen Daten einher. Jener regelt, dass Daten nur für denjenigen Zweck verarbeitet werden dürfen, für den sie erhoben wurden. Bereits dieses hier lediglich kurz skizzierte Beispiel verdeutlicht, dass Digitalität mit unterschiedlichen Implikationen für die Privatheit verbunden ist und sowohl wünschenswerte als auch problematische Effekte mit sich bringt, welche im Folgenden zueinander ins Verhältnis gesetzt werden sollen. Denn die Digitalisierung begründet neben den viel diskutierten Risiken auch Chancen für Privatheit. Neue Technologien ermöglichen neue Formen der Kommunikation und etablieren dabei beispielsweise virtuelle Privaträume oder abgeschlossene special interest groups. Auf diesem Wege wird die Herstellung auch subkultureller Formen von Privatheit erleichtert, da die klar gerahmten Schutzbereiche dazu dienen können, in der analogen Welt missbilligte Formen des Privaten zu pflegen. 1.1 Big Data und die Mythologisierung des Digitalen

Besonders populär im Digitalisierungsdiskurs zur Gefährdung des Privaten ist das Metaphänomen Big Data: Als Sammelbegriff wird Big Data für digitale Technologien verwendet, die durch das großangelegte Sammeln von Daten eine neue Ära digitaler Verarbeitung einleiten. Damit stellen sie in technischer Hinsicht eine Zäsur dar und initiieren auf sozialer und kultureller Ebene einen gesellschaftlichen Umbruch, der sich „as a change in paradigm, rather than solely a change in technology“3 formiert. Tatsächlich verdeutlicht das Phänomen Big Data treffend, wie komplex und facettenreich digitale Technologien daherkommen. Obwohl die Wissenschaft das Schlagwort bereitwillig aufgenommen hat, ist eine theoretische Reflektion darüber, wie die Vielfalt der Beschreibungsformeln von Big Data in der Gesellschaft zu deuten ist, weitgehend ausgeblieben.4 Wie Ramón 3  Lane 4  Vgl.

u. a. (2014): Privacy, Big Data and the Public Good, S. 1. Süssenguth (2015): In Gesellschaft der Daten, S. 8.



Privatheit in der digitalen Gesellschaft

9

Reichert anmerkt, kann aber allein die Popularität des Schlagwortes als Hinweis dafür verstanden werden, „dass digitale Technologien nicht nur als neutrale Übermittler und passive Objekte formieren, sondern in einer engen Verbindung mit Diskursen, Akteuren und Netzwerken stehen, die Gesellschaft und Subjekte verändern.“5 Danah Boyd und Kate Crawford definieren Big Data vor diesem Hintergrund als kulturelles, technologisches und wissenschaftliches Phänomen, das auf dem Zusammenspiel von Technik, Analyse und – nicht zuletzt auch – Mythologie beruht: (1)  Technology: maximizing computation power and algorithmic accuracy to gather, analyze, link, and compare large data sets. (2) Analysis: drawing on large data sets to identify patterns in order to make economic, social, technical, and legal claims. (3) Mythology: the widespread belief that large data sets offer a higher form of intelligence and knowledge that can generate insights that were previously impossible, with the aura of truth, objectivity, and accuracy.6

Insbesondere am dritten Punkt der Mythengenerierung stricken viele Big Data-Literaturen fleißig mit. Dass Big Data einen Wert für den privaten Sektor habe, wird in vielen Aufsätzen als ganz offensichtlich vorausgesetzt.7 Dass eine emphatisch ausgerufene Prognostizierbarkeit durch Big Data dabei einen Hype konstruiert, der die Geschäftsmodelle der Datenunternehmen in Bezug auf ihre technischen Möglichkeiten im öffentlichen Diskurs radikal aufwertet, wird außer Acht gelassen. Aufgrund der meist intransparenten Berechnungsalgorithmen der Unternehmen sind Aussagen über die Leistungsfähigkeit von Prognosetechnologien jedoch mit Vorsicht zu genießen. Meist verbleiben die Berichte über die bisherigen ‚Erfolge‘ von Big Data entweder äußerst allgemein oder sie werden als erwartbar in die Zukunft projiziert.8 Wenn insofern selbst IT-Papst August-Wilhelm Scheer konstatiert, man müsse „Schlagwörter sorgfältig auf ihren Gehalt abklopfen“,9 so sagt dies einiges darüber aus, wie weit suggerierte und tatsächliche Leistungen von Big Data mitunter auseinanderliegen können. Ein Großteil der Begeisterung rund um Big Data entstammt dem erleichterten Zugang zu massiven Datenmengen, denn historisch gesehen war das Sammeln von Daten stets zeitaufwendig und ressourcenintensiv. Konzerne wie Regierungen versprechen sich von Big Data daher neue Möglichkeiten 5  Reichert

(2014): Einführung, S. 9. (2012): Critical Questions for Big Data, S. 663. 7  S. zum Beispiel Lane u. a. (2014): Privacy, Big Data and the Public Good, S. 133: „We are all aware of their value to the private sector; indeed, the market advantage of many of large companies in the United States, such as Google, Facebook, and Yahoo, lies in their access to large datasets on individual behaviour, and their ability to turn data into privately held information.“ 8  Vgl. Reichert (2014), S. 9 f. 9  Scheer (2016): Thesen zur Digitalisierung, S. 50. 6  Boyd / Crawford

10

Miriam Piegsa und Kai Erik Trost

der gesellschaftlichen Steuerung: Von individualisierten Serviceangeboten bis hin zu einer effektiveren Stadtverwaltung. Insbesondere die Bereiche Gesundheit (Krebsforschung, Epidemien), Umwelt (Klimawandel), Öffentliche Sicherheit (Verkehrsplanung, Verbrechensbekämpfung) und Wirtschaft (Finanztrends, Wirtschaftskrisen) werden in diesem Zusammenhang häufig genannt.10 Strittiger wird es hinsichtlich der Bestimmung kollektiven Verhaltens in Bezug auf Aufstände und Protestbewegungen, der Thesenbildung zu Wahlentscheidungen, Meinungsbildern oder politischen Einstellungen. Colin Bennett stellte nach der US-amerikanischen Präsidentschaftswahl im November 2016 gar die Frage: „So maybe ‚Big Data‘ doesn’t work in elections?“.11 Befinden wir uns also in einem (auch massenmedial unterstützten) Rausch von Big Data, indem „jede Kritik an dieser positivistischen Perspektive – etwa, dass jedes Messresultat nicht nur das Gemessene, sondern auch den Messenden widerspiegelt  – […] mit dem Verweis auf die schiere Menge an Daten beiseitegewischt“12 wird? Big Data ist dabei weder heilsbringende Glaskugel noch monopolistisches Kontrollorakel: „Big Data triggers both utopian and dystopian rhetoric. […] As with all socio-technical phenomena, the currents of hope and fear often obscure the more nuanced and subtle shifts that are underway“.13 1.2 Digitalität und die Ära einer post-privacy?

Das Beispiel Big Data verdeutlicht insofern, wie sich in der öffentlichen Debatte und Wahrnehmung von Digitalisierung und Digitalität positivistische und kulturpessimistische Positionen gegenüberstehen.14 Digitalisierung ist dabei aus technischer Sicht zunächst eine neue Stufe der elektronischen Datenherstellung und -verarbeitung, wohingegen wir unter Digitalität deren kulturelle und soziale Niederschläge verstanden wissen wollen. Anders ge10  Argumente für den Wert der Daten im öffentlichen Sektor liefern Lane u. a. (2014): Privacy, Big Data and the Public Good. 11  Vgl. Bennett (2016): So maybe ‚Big Data‘ doesn’t work in elections? Obschon sowohl die demokratische wie auch die republikanische Kampagne Big Data-Praktiken intensiv in ihrem Wahlkampf einsetzten, lagen Prognosen und Ergebnis weit auseinander. 12  Stalder (2016): Kultur der Digitalität, S. 201. Ähnlich Boyd und Crawford: „All researchers are interpreters of data.“ Boyd / Crawford (2012): Critical Questions for Big Data, S. 667. 13  Boyd / Crawford (2012): Critical Questions for Big Data, S. 663 f. 14  Die negativen Auswirkungen betonen u. a. Manfred Spitzer (2015) in ‚Cyberkrank! Wie das digitale Leben unsere Gesundheit ruiniert‘ oder Yvonne Hofstetter (2016) in ‚Sie wissen alles. Wie Big Data in unser Leben eindringt und warum wir um unsere Freiheit kämpfen müssen‘. Im Bereich des Datenschutzes warnt u. a. Peter Schaar (2014) in ‚Überwachung total. Wie wir in Zukunft unsere Daten schützen‘.



Privatheit in der digitalen Gesellschaft

11

sagt, bezeichnet Digitalität damit „jenes Set von Relationen, das heute auf Basis der Infrastruktur digitaler Netzwerke in Produktion, Nutzung und Transformation materieller und immaterieller Güter sowie der Konstitution und Koordination persönlichen und kollektiven Handelns realisiert wird.“15 Hier formiert sich ein sozialer und kultureller Wandel, der die Lebenswelten der Subjekte auf nahezu allen Ebenen prägt und neue Handlungsroutinen, Kommunikationsformen, soziale Strukturen, Identitätsmodelle und Raumvorstellungen hervorruft. In kulturpessimistischen Positionen fertigen „Semantiken der Digitalisierung eine Erzählung der Auflösung bestehender Strukturen, des disruptiven Wandels und des Kontrollverlusts durch digitale Medien“16 und betonen damit in einem Gefährdungsdiskurs die negativen Auswirkungen auf die Kultur und das Denken und Handeln. War das Internet einst verbunden mit „Hoffnungen auf eine befreiende und emanzipatorische Kraft“, wird es gegenwärtig vermehrt als „größte Bedrohung für die Privatheit“ beschrieben.17 Dabei wird Digitalität aus der Perspektive zunehmender Fremdbestimmtheit, einer Erosion des Privaten oder einer De-Individuation des Subjekts kritisiert.18 Ausgehend davon, dass Privatheit ein von kulturellen und medialen Faktoren abhängiges Konstrukt darstellt und einem stetigen Wandel unterworfen ist, läutet das Digitale einigen Autoren zufolge sogar eine Phase der post-privacy ein.19 Diese geht in der Vorstellung weit über die informationellen Dimensionen von Privatheit und zum Beispiel den Schutz personenbezogener Daten hinaus. Gemeinsam haben diese Positionen letztlich, dass technische Institutionen als zentrale Akteure inszeniert werden, die eine eigentlich stabile gesellschaftliche Situation plötzlich umwälzen. Sowohl in den positivistischen als 15  Stalder

(2016): Kultur der Digitalität, S. 18. (2015): Die Organisation des digitalen Wandels, S. 115 f. 17  Matzner (2016): Personen verwalten oder Personen sein (müssen), S. 227. Etwa, wenn im privatheitssensiblen Raum des Kinderzimmers solche Verstöße vorkommen, trägt dies dazu bei, die Gefährdungsdebatte einseitig aufzuheizen. Hierzu zählen zum Beispiel Probleme mit vernetzten Spielzeugen. So ist die Puppe My Friend Cayla, welche mithilfe einer App ins Internet geht, um Kindern Fragen zu beantworten, nach Ansicht der Bundesnetzagentur eine ‚verbotene Sendeanlage‘, welche von den Eltern zerstört werden müsse. Vgl. Gierow (2017): Eltern müssen Puppen ihrer Kinder zerstören. Auch Mattel hat eine WLAN-Barbie im Sortiment, welche Gespräche aufzeichnet. Vgl. Bergert (2015): Datenschutz. WLAN-Barbie zeichnet Gespräche im Kinderzimmer auf. 18  Zum Gefährdungsdiskurs sowie zur Annahme eines Kontrollverlusts s. exemplarisch Pörksen / Detel (2012): Der entfesselte Skandal; auch Seemann (2015): Das neue Spiel. 19  Vgl. zum Beispiel Heller (2011): Post-Privacy; sowie Garfinkel (2000): Database Nation. 16  Süssenguth

12

Miriam Piegsa und Kai Erik Trost

auch in den kulturpessimistischen Perspektiven wird jedoch vergessen, die alltäglichen Lebenswelten der Subjekte mit ihren Nutzungsweisen und Aneignungspraktiken miteinzubeziehen und differenziert zu analysieren. Zudem „neigt die Soziologie der digitalen Medien dazu, die verschiedenen Semantiken der Digitalisierung zu naturalisieren (Hervorh. i. Orig.), anstatt sie als Semantiken ernst zu nehmen.“20 Unser Verständnis von Digitalität und der Veränderungen durch digitale Prozesse und Entwicklungen ist vor diesem Hintergrund sowohl in Abgrenzung zum technischen als auch zum sozialen Determinismus als soziotechnisch gekennzeichnet.21 In Anlehnung an Raymond Williams22 und Bruno Latour23 wird die Technologie und das technische Artefakt damit ganz allgemein so gedeutet, dass es nur zusammen mit dem menschlichen Subjekt Wirkkraft entfaltet und daher im Zusammenspiel Gesellschaft und Kultur beeinflusst. Digitale Technologien und digitale Medien werden damit weder als vom sozialen Wandel isolierte aber treibende Kräfte verstanden, noch sollen sie als marginalisierte Technologien, die nur als Nebenprodukt eines anderweitig determinierten sozialen und kulturellen Wandels in Erscheinung treten, aufgefasst werden. Technische und soziale Prozesse stehen vielmehr in einem engen, aufeinander bezogenen Konstitutionsverhältnis – sie beeinflussen sich und lassen sich nicht stringent voneinander unterscheiden. Gerade für Privatheit gilt dabei, wie Carsten Ochs und Martina Löw betonen, dass diese immer als Teil eines soziotechnischen Systems gesehen werden muss, da es andernfalls nicht verwunderlich wäre, wenn der Status des Privaten im zeitlichen Verlauf regelmäßig als gefährdet eingestuft würde.24 Dass in den vergangenen Jahren vermehrt Werke entstanden sind, die Privatheit situativ und kontextrelativ zu bestimmen versuchen,25 verweist ebenso wie die Breite an fachlichen Einzeldiskursen darauf, wie weitreichend und 20  Süssenguth (2015): Die Organisation des digitalen Wandels, S. 99. Süssenguth nennt ebenfalls u. a. das Label ‚Big data‘, das „als quasi-soziologische[r] Fachbegriff in die wissenschaftliche Diskussion übernommen“ würde, ohne allerdings „nach den Quellen [seiner] Plausibilität in den Entstehungs- und Verwendungskontexten zu fragen“. Ebd. 21  Vgl. hierzu zum Beispiel Ochs / Löw (2012): Un / Faire Informationspraktiken, S. 28. Gemeint ist „die unhintergehbare empirische Verwobenheit des Sozialen mit dem Technischen: Technische Strukturen werden sozial geformt, Sozialität wird gleichzeitig technisch erzeugt; Technik ist sozial, das Soziale ist technisch; empirisch sind das Soziale und das Technische letztlich nicht voneinander zu trennen“. Ebd. 22  Vgl. Williams (1990): Television, S. 13. 23  Vgl. Latour (2006): Über technische Vermittlung, S. 485. 24  Vgl. Ochs / Löw (2012): Un / Faire Informationspraktiken, S. 28. 25  Vgl. hierzu insbesondere Nissenbaum (2011): Privacy in Context.



Privatheit in der digitalen Gesellschaft

13

komplex die Veränderungen von Privatheit im Kontext der Digitalisierung angelegt sind. Um dem multidimensionalen Charakter dieses Zusammenhangs gerecht werden zu können, ist es unabdingbar, dass sich unterschiedliche wissenschaftliche Disziplinen an seiner Erforschung beteiligen. Aus diesem Grund arbeiten am DFG-Graduiertenkolleg ‚Privatheit und Digitalisierung‘ an der Universität Passau Forscherinnen und Forscher aus unterschiedlichen wissenschaftlichen Fachdisziplinen zusammen. Auch die Autorinnen und Autoren der Sammelbände des Kollegs behandeln in ihren Fachbeiträgen aktuelle Privatheitsdebatten aus philosophischer, medien- und kulturwissenschaftlicher sowie juristischer Perspektive, um das Konstrukt Privatheit ganzheitlich in den Blick nehmen zu können.26 Im vorliegenden Band steht die immer weiter voranschreitende Digitalisierung aller Lebensbereiche im Vordergrund. Mit den Themenbereichen ‚Privatheit und das digitalisierte Subjekt‘, ‚Digitalität als ethisches Handlungsfeld‘, ‚Digitalität und Vergemeinschaftung‘ sowie ‚staatliche Regulationsmöglichkeiten in der Datengesellschaft‘ bietet der Band einen diagnostischen Rahmen, um die aktuellen Entwicklungen über verschiedene gesellschaftliche Ebenen hinweg zu analysieren. 2. Privatheit und das digitalisierte Subjekt Mitarbeiter von Amazon kaufen in Seattle seit 2016 in einem AmazonSupermarkt mit ihrem Amazon-Profil und der Amazon Go-App ein, welche es ihnen ermöglicht, mit ihren Lebensmitteln ‚einfach rauszulaufen‘ (so der Name der Technik: Just Walk out Technology27). Das Beispiel steht der Warnung des Volkszählungsurteils vor Datenverknüpfungen zu vollständigen Persönlichkeitsbildern in integrierten Informationssystemen entgegen. Hier wird stattdessen versucht, mehrere Dienste auf ein Nutzungskonto zu vereinen und mit immer neuen Verfahren der Authentifizierung und Beobachtung Personen digital oder biometrisch zu identifizieren, markieren und verfolgen.28 Aber könnte man nicht sagen, wir haben es hier nur mit „subindividuellen Elementen“ zu tun, „jenen Fragmenten des erfassten Verhaltens, die sich für eine bestimmte Anfrage auswerten lassen, ohne dabei den Anspruch zu erheben, eine Person als Ganze zu repräsentieren“?29 Hieran anknüpfend, 26  So wurde im vorangegangenen Sammelband ‚Räume und Kulturen des Privaten‘ untersucht, wie räumliche Aspekte die Vorstellung von Privatheit beeinflussen und wie sowohl reale als auch digitale Räume des Privaten erschaffen werden. Vgl. Beyvers u. a. (2016): Räume und Kulturen des Privaten. 27  Vgl. Amazon Go (o. J.): Frequently Asked Questions. 28  Vgl. Dachwitz (2016): EuGH-Urteil zur Speicherung von IP-Adressen. 29  Stalder (2016): Kultur der Digitalität, S. 190.

14

Miriam Piegsa und Kai Erik Trost

fragen die Beiträge dieses Kapitels danach, in welchem Verhältnis die digitale Netzgesellschaft30 zu Kategorien der Individualität und Subjektivität steht. Für Innokentij Kreknin und Chantal Marquardt verortet sich die aktuelle wissenschaftliche Beschäftigung mit dem Subjekt in einem Spannungsfeld aus Selbst- und Fremdbestimmung: Es entsteht sowohl aus eigener Kraft als auch notwendigerweise durch seine Verortung im Gefüge sozialer und kultureller Muster und Vollzüge, in denen die Arten und Weisen seiner regelhaften  – und das heißt in erster Linie: gelingenden, funk­ tional anschlussfähigen – Genese und Form ausgehan­delt und definiert werden.31

Das Subjekt formt und wird geformt, ist kulturell und historisch dynamisch.32 Damit wird zum einen die aktive Gestalterrolle des Subjekts betont und zum anderen werden die Auseinandersetzungen mit seiner Umgebung, die Prozesse der Habitualisierung, Aneignung und Kultivation berücksichtigt. In diesem Zusammenhang bildet vor allem „die Interaktion mit technischmedialen Artefakten […] in immer stärkerem Ausmaß den Bedingungsrahmen für soziokulturelle Praktiken und Subjektbildung“.33 Diesem Verhältnis von Individuum und digitaler Vernetzung über Informations- und Kommunikationstechnik geht Armin Grunwald in einem technikphilosophischen Beitrag nach. Mithilfe eines Überblicks über die Erzählungen der Individualisierung, wobei er sowohl die „Hochglanzerzählung[en]“34 als auch deren „Kehrseite“35 betrachtet, fragt er nach den Zukünften des Individuums und betrachtet historische Stationen von Individualisierung und Kollektivierung zur Einordnung der Gegenwart, bevor er über das Verhältnis zwischen Individualität und Netz in der Tradition der Technikfolgenabschätzung reflektiert: „Damit hat sich die Zielsetzung von der Prognose von Technikfolgen, an welche die Gesellschaft sich anzupassen habe, zur Eröffnung und Reflexion von alternativen Technikzukünften verschoben, um Technik30  In der Netz(werk)gesellschaft organisieren sich soziale Strukturen innerhalb elektronisch verarbeiteter Informationsnetze. 31  Kreknin / Marquardt (2016): Einleitung, S. 2. 32  Vgl. Kreknin / Marquardt (2016): Einleitung, S. 2. 33  Carstensen u. a. (2013): Subjektkonstruktionen im Kontext Digitaler Medien, S. 14. Kreknin u. a. weisen zu Recht darauf hin, dass nicht alle digital arbeitenden Geräte Einfluss auf unsere Subjekthaftigkeit haben (bspw. der Taschenrechner). „Zudem überstehen manche Technologien – beispielsweise die Projektionsapparatur im Kino – den Transit von einer analogen zu einer digitalen Arbeitsweise durchaus so, dass wir als Nutznießer dieser Technik im Kinosaal sitzend, von der Neuerung kaum etwas mitbekommen.“ Kreknin / Marquardt (2016): Einleitung, S. 8. 34  S. 35. 35  Ebd.



Privatheit in der digitalen Gesellschaft

15

gestaltung (unter Einschluss der Nulloption, d. h. das betreffende Problem durch nichttechnische Maßnahmen zu lösen) zu ermöglichen bzw. zu unterstützen.“36 Hinsichtlich der von Grunwald untersuchten Narrative von der Individualisierung des Menschen konstatierten bereits Ian Kerr u. a., dass hierbei insbesondere das Denken liberal-politischer Traditionen zu reflektieren sei: Although lofty judicial conceptions of privacy such as ‚informational self-determination‘ set important normative standards, the traditional notion of a pure, disembodied, and atomistic self, capable of making perfectly rational and isolated choices in order to assert complete control over personal information, is not a particularly helpful fiction in a network society.37

Die Netzwerkgesellschaft ist dagegen weitgehend auf vermittelte Interaktionen ausgerichtet, auf soziale Personen, die mit anderen Menschen interagieren. In den Profilen sozialer Netzwerke etwa konstruieren sich nach Laurie McNeill die Mitglieder als „individuals in context: the ‚I’ becomes significant only through its network connections.“38 Der Beitrag von Benjamin Heurich rückt diesen zwischenmenschlichen und sozialen Kontext der digitalen Gesellschaft ins Blickfeld und stellt sich der Herausforderung der facettenreichen Zusammensetzung der digitalen (Daten-)Persönlichkeit. Er zeigt auf, „wie Internetnutzer der ständigen technologiegetriebenen Unsicherheit begegnen und wie sie über einen Balanceakt zwischen Vertrauensbildung und Risikobereitschaft zukunftsgerichtetes und eigenverantwortliches Handeln in privatheitssensiblen Bereichen einer globalen Gesellschaft ermöglichen.“39 Auf dem Vertrauen begründet er nun ein Gemeinwohl, welches auf die Vereinbarkeit von Kollektivbestrebungen und dem Wert von Privatheit verweist. Heurich betont damit die kollektive Dimension von Privatheit als ein soziokulturelles Phänomen. Der Grundgedanke von Privatheit als in Beziehungen Konstruiertes wird auch bei Valerie Steeves deutlich, die Privatheit als dynamischen Prozess begreift, der persönliche Grenzen in intersubjektiven Beziehungen verhandelt: „I am suggesting that by placing privacy in the social context of intersubjectivity, privacy can be more fully understood as a social construction 36  S. 36.

37  Kerr / Steeves / Lucock (2009): The Strange Return Of Gyges’ Ring, S. 28. Stalder etwas schwächer: „Die politische Funktion der Privatsphäre – die Sicherung einer gewissen Autonomie des Einzelnen gegenüber mächtigen Institutionen – beruht jedoch auf konzeptuellen Grundlagen, die […] dringend erneuert werden müssen.“ Stalder (2016): Kultur der Digitalität, S. 15. 38  McNeill (2012): There Is No ‚I‘ in Network, S. 72. 39  S. 49.

16

Miriam Piegsa und Kai Erik Trost

that we create as we negotiate our relationship with others on a daily basis.“40 Steeves verankert Privatheit damit in der sozialen Identitätserfahrung. Die sozialen Dimensionen von Privatheit wie von Subjektivität werden seit einiger Zeit intensiver diskutiert.41 Zum einen fordert die Rede vom digitalisierten Subjekt die Autonomie des Subjekts heraus, wie sie von liberalistischer Seite verteidigt wird. Zum anderen ist Privatheit damit nicht allein mit Denkmustern des liberalen Individualismus zu erfassen und im Zusammenhang mit anderen kollektiven Werten zu beleuchten. Dieser Aufgabe stellt sich der Beitrag von Tobias Matzner, welcher dem Wert des Privaten jenseits von Autonomie nachgeht. Ähnlich wie Steeves erkennt er die Funktion von Privatheit in der Trennung verschiedener Erscheinungsweisen des Selbst für unterschiedliche Kontexte und Zielgruppen: „Privatheit wird also auch hier relativ als Beziehung zwischen Kontexten verstanden – eine Beziehung, die in netzwerkförmigen Sozialbeziehungen ausgehandelt wird, statt individuell bestimmt.“42 Eine Verletzung von Privatheit findet dann statt, wenn getrennte Kontexte zusammenfallen (context collapse). Dass wir nun stets selbstreflektiert entscheiden könnten, welche Informationen aus dem einen Kontext in den anderen gelangen, stellt Matzner in Frage, da die erscheinende Person mit einer Vielzahl sozialer Erwartungen konfrontiert sei, zu denen sie sich verhalten müsse und bereits viele Normen verinnerlicht habe, so dass keineswegs von reflektierter Handlung gesprochen werden könne: „Privatheit ist aber auch eine inhärent affektive Frage. Wir haben das Bedürfnis nach Privatheit oft dann, wenn wir uns unwohl fühlen, beschämt, unsicher.“43 Grundlegende Zweifel an der Vorstellung vom identity management des Subjekts als eines Projektleiters seiner eigenen Persönlichkeit hegt auch Volker Gerhardts Beitrag. Für ihn stellen ‚Individualität‘, ‚Subjektivität‘ und die ‚Sphäre des Privaten‘ späte, hochentwickelte und hochsensible Formen der ‚Kultur‘ dar, die selbst als eine Form der ‚Natur‘ dem Selbstschutz eines produktiven Daseins dienen.44 Das Bewusstsein erfahre sich hingegen als öffentlich. Gerhardt akzentuiert damit die Vorrangigkeit einer Objektivität 40  Steeves

(2009): Reclaiming the Social Value of Privacy, S. 193. Steeves (2009): Reclaiming the Social Value of Privacy, S. 191–208. Ebenso Regan (2015): Privacy and the Common Good. Revisited, S. 50–70. Bereits Altmans Privatheitskonzept gründete nach Ochs und Löw „auf einer ‚Social-Systems‘Perspektive.“ Ochs / Löw (2012): Un / Faire Informationspraktiken, S. 22. 42  S. 78. 43  S. 81 f. Die sozialen Erwartungen tragen nach Matzner dazu bei, die Person zu erschaffen. Vgl. Matzner (2016): Personen verwalten oder Personen sein (müssen)?, S. 241. 44  Vgl. S. 110. 41  S. u. a.



Privatheit in der digitalen Gesellschaft

17

des Bewusstseins. Zu betonen sei die soziale Dimension des individuellen Bewusstseins, seine soziomorphe Struktur. Der Mensch sei von Anfang an objektiv auf die Welt eingestellt. Die Welt werde als ein Problem erfahren, das sich den Menschen gemeinsam stelle, weshalb das Bewusstsein mit Nietzsche zu begreifen sei als ein ‚Verbindungsnetz zwischen Mensch und Mensch‘. Subjektivität und Privatheit sind hier wiederum Formen, in denen die Individualität des menschlichen Daseins gesichert werde, ohne dass ein natürlicher Schutzraum für das Private bestehe. Auch existiere keine ursprüngliche Privatheit in der Weltöffentlichkeit des Netzes, sondern diese „muss vielmehr immer erst geschaffen und durch eigene Bemühungen gesichert werden“.45 3. Digitalität als ethisches Handlungsfeld Aus Sicht der normativen Ethik ist zu fragen, welche technischen, medialen und gesellschaftlichen Bedingungen die Prozesse der Aneignung konkreter Formen des Digitalen beeinflussen und daher gewissermaßen im Verdacht stehen, das Subjekt unterhalb bewusster Entscheidungen im Denken, Verhalten und Handeln zu beeinflussen. Sie könnten so zum Beispiel die Sozialisationsbedingungen von Kindern und Jugendlichen maßgeblich verändern.46 Digitale Umgebungen realisieren als soziotechnische Systeme Wissen auf der Grundlage der mit dem System konstitutiv verknüpften Technologien und strukturieren damit die Handlungsumgebung bereits wesentlich vor. So wird beispielsweise diskutiert, dass sich die Lebenswelt zunehmend algorithmisiere: „Quasi alle Handlungen können quantifiziert, datafiziert und auf Märkten monetarisiert werden“.47 In Folge der gegenseitigen Beeinflussung von sozialen und technischen Prozessen schreibt sich so der Algorithmus als technologische Ressource in das Denken und Handeln der Subjekte sowie in die Formulierung von deren Zielen ein.48 In Anlehnung an Bruno Latour leitet der Algorithmus zum Handeln an, indem die Technologie als Akteur einen unmittelbaren Aufforderungscharakter entfaltet.49 Die zunehmende ‚Vermessung des Menschen‘ mit Apps und Wearables ist nur ein Beispiel dafür, wie der Alltag und die Lebenswelt der Subjekte zunehmend durch algorithmische Logiken bestimmt werden. 45  S. 108.

46  Vgl. Brüggen / Wagner (2017): Medienaneignung und sozialraumbezogenes Medienhandeln von Jugendlichen. 47  Grimm / Keber / Zöllner (2015): Anonymität und Transparenz in der digitalen Gesellschaft, S. 9. 48  Vgl. Stalder (2016): Kultur der Digitalität, S. 167. 49  Vgl. Latour (2006): Über technische Vermittlung, S. 485.

18

Miriam Piegsa und Kai Erik Trost

Ein Algorithmus ist in seiner pragmatischen Funktionalität also keineswegs neutral, sondern kann aufgrund seines instrumentellen Charakters und aufgrund der mit der Technik verbundenen Mittelbarkeit durchaus formierend und transformierend wirken.50 Diese Entwicklungen beinhalten damit genuin moralische Fragen, da sie die Autonomie des Menschen als Grundbedingung des Daseins betreffen: Wird zum Beispiel durch die auf dem Smartphone installierte Selbstvermessungs-App das Individuum dahingehend angehalten, täglich mindestens 8.000 Schritte zurückzulegen, so stellt sich ungeachtet etwaiger gesundheitsförderlicher Wirkungen die Frage, inwieweit Entscheidungen in derlei soziotechnischen Konstellationen überhaupt noch frei getroffen und unabhängig vollzogen werden können. Vor diesem Hintergrund beschäftigt sich der Artikel von Klaus Mainzer mit dem Konzept einer Digitalen Würde im technischen und gesellschaftlichen Kontext von Big Data und dem Internet der Dinge. Beide Schlagworte stehen nicht nur für innovativ auf Daten und Datenaustausch spezialisierte Geschäftsfelder, aus denen ertragsstarke Geschäftsmodelle erwachsen können. Diesen Technologien ist in rechtsstaatlicher Hinsicht auch ein umfangreiches Potenzial der Überwachung und Kontrolle inhärent. Dabei fragt Mainzer, wie im Zeitalter von Robotik und dem Internet der Dinge Artikel 1 des Grundgesetzes als zentrale Grundlage unseres Rechtsverständnisses herausgefordert ist, wenn ‚Dienstleistungsroboter der nächsten Generation‘ im Haushalt, bei Sicherheitsaufgaben oder bei der Krankenpflege eingesetzt werden sollen. Die Probleme der digitalen Folgenabschätzung spiegeln die normativen Orientierungspunkte aus Sicht der angewandten Ethik wider, die laut Mainzer für die künstliche Intelligenz darin liegen müsse, „den Menschen als Selbstzweck zu achten und zum Maßstab der Technik zu machen“.51 Die von Klaus Mainzer angesprochenen technischen Entwicklungen verweisen in besonderem Maße auf das Problem, dass Fragen normativer Ethik nicht in Form technischer Regeln oder Prozesse gelöst werden können. Vielmehr stellt sich die Frage, welche normativen Handlungsprinzipien man den verschiedenen Akteuren aus Wirtschaft, Politik und Alltag an die Hand geben kann. In seinem Beitrag ‚Verantwortung im digitalen Wertesystem‘ widmet sich Christian Thies dieser grundsätzlich philosophischen Frage. Der Autor wendet sich dabei gegen die Entwicklung einer ‚neuen Ethik‘ und plädiert für die Konkretisierung bestehender normativer Prinzipien. Diese seien über die Zuweisung relevanter Verantwortlichkeiten umzusetzen. Da sich Digitalisierung auf alle Lebensbereiche erstreckt und zudem konstitutiv mit den Grundstrukturen des globalisierten Kapitalismus verbunden ist, komme nicht nur einzelnen Individuen und Sozialisationsagenturen, wie beispielsweise der 50  Vgl.

Ihde (1990): Technology and the Lifeworld.

51  S. 132.



Privatheit in der digitalen Gesellschaft

19

Familie, sondern auch ökonomischen Korporationen oder supranationalen politischen Gebilden eine Verantwortung zu, Privatheit in der für sie möglichen Art und Weise zu respektieren und zu schützen. Dass die in digitalisierten Medienumgebungen realisierten Praktiken der Nutzer spezifische Problemfelder mit sich bringen, die sich erst dann als solche manifestieren, wenn sie negative Folgen haben, könnte so zum Beispiel bereits von Seiten der Datenerhebenden vermieden werden. So erhob im Jahr 2006 eine Forschergruppe der Harvard University die Facebookprofile von 1.700 College-Studierenden, um diese mit deren Einverständnis und unter Zusicherung von Anonymität in Bezug auf ihre Interessen und Freundschaftsbeziehungen auszuwerten.52 Mit dem Einverständnis der Nutzer wurden die anonymisierten Daten dann an andere Forschungsgruppen weitergegeben, welche durch Zufall herausfanden, wie leicht sich diese Daten deanonymisieren und damit die Privatheit der Studierenden kompromittieren ließ.53 In der empirischen Forschung warf der Fall die Frage auf, wie mit sogenannten öffentlichen Daten von sozialen Netzwerkseiten forschungsethisch zu verfahren ist bzw. wann und unter welchen Voraussetzungen diese verwendet werden dürfen und welche Verantwortung sich hieraus für die Forschenden selbst ergibt – „Just because it is accessible does not make it ethical“.54 Dieses Beispiel verdeutlicht, dass Digitalität und Privatheit zunehmend mit erschwerten Grenzziehungen verbunden sind. Privatheit ist an bestimmte Kontexte gebunden, die von den Nutzern selbst definiert werden, wobei sich Privatheitsverstöße konkret als solche manifestieren, wenn Informationen über einen bestimmten Kontext hinaus publik gemacht werden.55 Die Verantwortung für die Vermeidung entsprechender Grenzüberschreitungen auf die Nutzer zu übertragen, kann dabei nicht als hinreichende Erwiderung geltend gemacht werden: Da sich digitale Medienangebote als komplexe soziotechnische Handlungsumgebungen manifestieren, setzen sie meist ein sehr konkretes Wissen um Nutzungen und Nutzungspotentiale von Daten sowie ein technisch elaboriertes Wissen bezüglich ihrer Funktionsweise voraus – doch selbst wenn dieses vorliegt, so impliziert dies mitnichten einen adäquaten Umgang mit der eigenen Privatheit. So adressiert das privacy paradox56 die Dissonanz von Denken und Handeln der Subjekte im Medienumfeld. In empirischer Hinsicht liegen mittlerweile eine Reihe von Studien vor, die Auskunft über das Privatheitsverständ52  Vgl.

Lewis u. a. (2008): Tastes, Ties, and Time. Boyd / Crawford: Critical Questions for Big Data, S. 672. 54  Boyd / Crawford: Critical Questions for Big Data, S. 671. 55  Vgl. Nissenbaum (2010): Privacy In Context. 56  Vgl. Barnes (2006): A Privacy Paradox. 53  Vgl.

20

Miriam Piegsa und Kai Erik Trost

nis und -verhalten der Nutzer im Kontext digitaler Medienumgebungen geben. Betont werden als moderierende Faktoren in Bezug auf das Selbstoffenbarungsverhalten und hinsichtlich der Preisgabe informationeller Privatheit neben dem Alter57 etwa die Relevanz sozialer und kultureller Milieus58 oder das Maß an Bildung und Medienkompetenz.59 Als Indikatoren weisen diese Faktoren in ihrem Zusammenhang einen privacy divide aus, der aufgrund der ungleichen Voraussetzungen und Nutzungsbedingungen einen Teil der Nutzer davon ausschließt, digitale Medienumgebungen souverän in Gebrauch zu nehmen und ihre Privatheit angemessen zu schützen.60 Als medienethisches Dilemma erweist sich hier die aus einem Wertekonflikt resultierende Güterabwägung der Anwender zwischen dem potenziellen Nutzen (soziales Kapital, Gemeinschaft, Anerkennung, Bestätigung) und dem Bedarf, Privatheit als abstrakten Wert zu schützen.61 Bei Jugendlichen ist etwa der „Wunsch nach positiven Rückmeldungen von ihren Online-Kontakten, die ihnen Anerkennung und Selbstbestätigung vermitteln, […] in vielen Fällen so stark, dass sie mögliche negative Folgen ihres Handelns, die sich auf Online-Privatheit auswirken könnten, ausblenden“.62 Digitale Angebote können dabei ein bestimmtes Handeln und Verhalten als geboten und vorteilhaft suggerieren, was bestimmte Praktiken erleichtert und andere erschwert. Was vordergründig als Zusatznutzen konnotiert, kann sich ebenso negativ auswirken. Beim Tragen von Wearables63 werden die Nutzerinnen und Nutzer mittels Spielmechaniken wie Ranglisten oder Abzeichen und kompetitiver Dynamiken dahingehend motiviert, derlei Geräte in ihr Alltagsleben zu integrieren, möglichst oft zu nutzen und damit die Privatheit des Körpers medial zu dokumentieren.64 Die Anbieter betonen dabei typischerweise, dass die Nutzung freiwillig erfolge, implementieren jedoch zugleich verschiedene Anreiz- und Belohnungssysteme, um den Nutzerinnen und Nutzern das Erfüllen bestimmter Fitnessziele mit Prämien oder Gutscheinen nahezulegen. Von Seiten des Forschungsfelds der Surveillance57  Vgl. Trepte / Masur (2017): Privacy Attitudes, Perceptions, and Behaviors of the German Population, S. 5. 58  Vgl. Taddicken (2014): The ‚Privacy Paradox‘ in the Social Web, S. 265. 59  Vgl. Wagner / Brüggen / Gebel (2010): Persönliche Informationen in aller Öffentlichkeit?, S. 66. 60  Zum privacy divide vgl. einführend Grimm / Neef: Privatsphäre 2.0?, S. 72–76. 61  Vgl. Grimm / Neef: Privatsphäre 2.0?, S. 67–72. 62  Einspänner-Pflock (2016): Privatheit im Netz, S. 272. 63  Gemeint sind hiermit technische Geräte oder Anwendungen auf Endgeräten wie Smartphones, die personenbezogen Standort- und Biodaten erfassen, diese aggregieren und auswerten. Fitness-Apps, Sport-Armbänder und Smartwatches zeichnen so zum Beispiel Schritte, Puls, Schlafgewohnheiten und andere Körperfunktionen auf. 64  Vgl. Reichert (2016): ‚Make it count!‘.



Privatheit in der digitalen Gesellschaft

21

Studies wird daher argumentiert, dass die Dialektik der freien Wahlentscheidung in einem digitalen Panoptikum eine selbstgewählte Überwachung mit sich brächte, die das Ideal des freien und selbstbestimmten Subjekts auf der Ebene der Handlungsfreiheit konterkarieren könnte.65 Problem- und risiko­ orientierte Ansätze wie privacy awareness66 oder privacy literacy67 versuchen hier, nicht allein die kognitiven Aspekte, sondern auch die emotionalen und volitiven Kompetenzen in ein privatheitssensibles (Medien-)Handeln zu integrieren. Das Ziel besteht darin, die Individuen bei der Bildung einer Privatheitskompetenz zu unterstützen. Dass eine solche Privatheitskompetenz gerade heute die Fähigkeit zur Reflexion von medial vermittelten Botschaften und deren Semantiken umfassen muss, zeigt der Beitrag von Julia Maria Mönig. Unter Rückgriff auf die Totalitarismuskritik von Hannah Arendt widmet sich die Autorin der Verhaltensbeeinflussung durch Werbung innerhalb unserer gegenwärtigen Massengesellschaft. Dabei nimmt sie insbesondere den Zusammenhang von personalisierter Werbung und Selbstbestimmung in einer zunehmend digitalisierten und vernetzten (Medien-)Landschaft in den Blick. Sie kommt zum Ergebnis, dass diese Form der Werbung eine über die rein ökonomische Wirkung hi­ nausgehende öffentliche und politische Meinungs- und Verhaltensbeeinflussung mit sich bringt und damit die Funktion von Privatheit, Selbstbestimmung und Autonomie zu gewährleisten, wesentlich herausfordert. 4. Digitale Kulturen und Vergemeinschaftung – soziale Aspekte Die Veränderung sozialer Beziehungen bildet im Kontext digitaler Medien­ umgebungen einen weiteren zentralen Diskurs der digitalen Gesellschaft. Versteht man Vergemeinschaftung mit Max Weber als subjektiv gefühlte Zusammengehörigkeit der Individuen,68 so scheint es zunächst anheimgestellt, ob soziale Beziehungen im Restaurant um die Ecke oder zunehmend mittels digitaler Medienangebote gepflegt werden, ob im direkten Face-toFace-Kontakt oder mittels WhatsApp kommuniziert wird. Der Rezipientenkreis scheint sich zudem nicht wesentlich zu unterscheiden: Im Kontext von Digitalität ist das Handeln typischerweise in sozialräumliche Bezüge eingebettet.69 Die handelnden Akteure rekonstruieren durch kontinuierliches Kom65  Vgl. u. a. Marx (2016): Windows into the Soul; sowie Staples (2014): Everyday Surveillance. 66  Vgl. Einspänner-Pflock (2016): Privatheit im Netz, S. 78–81. 67  Vgl. Grimm / Neef: Privatsphäre 2.0?, S. 75–76. 68  Vgl. Weber (1972): Wirtschaft und Gesellschaft, S. 21. 69  Vgl. Brüggen / Schemmerling (2014): Das Social Web und die Aneignung von Sozialräumen.

22

Miriam Piegsa und Kai Erik Trost

munizieren, Veröffentlichen und Teilen bestehende sozialräumliche Verbindungen in einer gemeinsamen Medienpraxis um Bestätigung oder Anerkennung zu erfahren. Diese privatheitsbezogenen Praktiken vollziehen sich in einem Umfeld „persönlicher Öffentlichkeit“, welches durch die handelnden Akteure selbst geschaffen wird.70 Auch die Medienprodukte, die in diesem Rahmen entstehen und inhaltlich privates vermitteln, sind für einen spezifischen Kontext produziert und aufbereitet und funktional an diesen gebunden. Allgemein ist der digitale Raum damit nicht als isoliert oder simuliert zu begreifen, sondern als eng mit anderen Sozialräumen verschränkter Handlungsraum, der funktional auf diese bezogen ist.71 Ausgehend von dieser Verschränkung bestehender Sozialräume und den Handlungsumgebungen des Digitalen beschäftigt sich Kai Erik Trost in seinem Artikel mit den Möglichkeiten Jugendlicher, im Rahmen ihrer medialen Handlungen semantisch auf ihre realweltliche Freundschaft zu verweisen. Empirisch untersucht er dabei die Freundschaftshandlungen einer Gruppe von befreundeten Jugendlichen im Sozialraum des Hip-Hop. Die medialen Bildinszenierungen der Jugendlichen versteht Trost als ästhetische Zeichen, mittels welcher ein Konsens darüber hergestellt wird, was innerhalb der Freundesgruppe von privater Bedeutung ist. Die Ergebnisse verweisen auf ein bewusstes Rollenspiel junger Menschen innerhalb von digitalen Medienumgebungen, die sich insofern durchaus der medialen Form ihrer Inszenierungen bewusst sind. Im Kontext dieses Artikels wird auch deutlich, dass „Kommunikation […] durch die digitalen Technologien neue Impulse und Formen erhalten [hat]“.72 Durch den bereits angesprochenen Aufforderungscharakter transportieren die digitalen Umgebungen und Anwendungen eine gewisse Semantik und fordern zur Auseinandersetzung und zum Handeln auf, weswegen sie eben keinen neutralen Raum bieten, in dem ein freies „Wechselspiel aus Erscheinungsweisen, Erwartungshaltungen und Medienbildern“73 stattfinden kann. Dem Motto von Facebook  – „Auf Facebook bleibst du mit Menschen in Verbindung und teilst Fotos, Videos und vieles mehr mit ihnen“74 – ist etwa eine „mediale Rhetorik des Unverzichtbaren“75 inhärent, die suggeriert, dass 70  Vgl. Schmidt (2014): Persönliche Öffentlichkeit und Privatsphäre im Social Web, S. 126–129. 71  Vgl. Brüggen / Wagner (2017): Medienaneignung und sozialraumbezogenes Medienhandeln von Jugendlichen, S. 211 ff. 72  Carstensen u. a. (2013): Subjektkonstruktionen im Kontext Digitaler Medien, S. 10. 73  Matzner (2016): Personen verwalten oder Personen sein (müssen)?, S. 238. 74  Vgl. Facebook.com (2017): Facebook – Anmelden oder Registrieren. 75  Adelmann (2011): Von der Freundschaft in Facebook, S. 128.



Privatheit in der digitalen Gesellschaft

23

Sozialbeziehungen Facebook oder anderer Medienangebote bedürfen, um den zwischenmenschlichen Kontakt aufrechterhalten zu können. Als allgemeine Entwicklung ist hier zu konstatieren, dass private Praktiken der autobiographischen Identitätsarbeit und der zwischenmenschlichen Interaktionen an nur schwer zu beeinflussende Institutionen übertragen werden, wobei die Praktiken dann nur im Rahmen des Umfelds, der Regeln und der Verhaltensweisen, die die Institutionen vorgeben, ausgeführt werden können.76 Um für Werbekunden interessant zu sein und die persönlichen Daten zudem als wirtschaftliche Ressource einzusetzen und in ökonomisches Kapital überführen zu können, stehen diesbezüglich primär „die kommer­ zialisierten Erscheinungsweisen des Mainstream“77 im Mittelpunkt. Insofern Subjekt- und Vergemeinschaftungsformen in dieser Weise an das Digitale gebunden sind, bilden sich Muster normierten Kommunikationsverhaltens heraus. Vor diesem Hintergrund ist zu fragen, wie sich diese Bedingungen auf die zentralen Kategorien des Zwischenmenschlichen wie Vertrauen, Intimität, Verbundenheit und Freundschaft auswirken. Diskutiert wird etwa, dass wir uns ausgehend von einer Angst vor Exklusion in eine phatic culture78 der Vernetzung anheimgeben, die aufgrund ihrer kurzlebigen Interaktion auf möglichst viele Verbindungen abzielt. Hieraus ergäbe sich ein qualitativer Wandel im Bedeutungsgehalt und Wertgefüge: Intime und durch Vertrauen bestimmte enge Sozialbeziehungen würden zu bloßen Verbindungen degradiert – zu einer quantitativen Ressource hoher Dichte aber geringer inhalt­ licher Tiefe. Dass insofern zum Beispiel Apps für Paare damit werben, mehr Intimität in Beziehungen herzustellen, scheint vor diesem Hintergrund geradezu paradox. Dieses Beispiel greift Daniela Wawra in ihrem Artikel auf. Sie fragt, welche Auswirkungen die besonderen Rahmenbedingungen der Kommunikation in sozialen Medien auf die Privatheit und Intimität von Beziehungen sowie auf die Selbstbestimmung der beteiligten Akteure haben. Im Zentrum ihrer Analyse stehen die technischen Bedingtheiten des Mediums, die situa­ tiven Ziele sowie die kommunikativen Möglichkeiten der Subjekte. Dabei kommt Wawra zum Ergebnis, dass für die Förderung emotionaler Kommunikation in der Partnerschaft und Freundschaft auf nicht-archivierbare Kommunikation sowie auf möglichst ‚reichhaltige‘ Medien vertraut werden sollte. Daniela Wawra verweist damit auf ein Problemfeld des Digitalen, das Alexander Krafka zum Ausgangspunkt für seinen rechtssoziologischen Bei76  Vgl.

McNeill (2012): There Is No ‚I‘ in Network. (2016): Personen verwalten oder Personen sein (müssen)?, S. 238 f. 78  Vgl. Miller (2008): New Media, Networking and Phatic Culture. 77  Matzner

24

Miriam Piegsa und Kai Erik Trost

trag zum intimen Bild in zwischenmenschlichen Beziehungen macht: Bilder können als Medienprodukte Intimes in Form von visuellen Zeichen vermitteln, womit ihnen das Potenzial inhärent ist, durch die Weitergabe und die Verletzung der kontextuellen Integrität als vergleichsweise schwerwiegender informationeller Privatheitsverstoß wahrgenommen zu werden. Damit ergeben sich mit den sozialen Praktiken der Nutzer sowohl ethische als auch juristische Fragen. In seinem Beitrag skizziert Krafka anhand eines prägnanten Rechtsfalles die Gefahren, die das Digitale mit seinen produktiven Dimen­ sionen und technischen Distributionsmöglichkeiten in Bezug auf das Herstellen, Besitzen und Veröffentlichen von privaten Dokumenten mit sich bringt. Er betont die Schwierigkeit, intime Gefühle wie das der individuellen Verletzbarkeit unter geltendem Recht zu subsumieren und gewinnt in rechtssoziologischer Hinsicht den Eindruck, „dass das Recht bislang noch keinen adäquaten Zugang zu zentralen Fragen der Privatheit und Intimität gefunden hat – und möglicherweise auch gar nicht finden kann.“79 Eine Schwierigkeit des Rechts im Umgang mit der Digitalisierung zeigt sich darin, dass diese global angelegt und nicht an bestimmte nationalstaatliche Grenzen gebunden ist. Das Recht muss mit den sich schnell vollziehenden digitalen Transformationen Schritt halten. Dass sich Privatheit als kulturelle Größe stark unterscheidet und aufgrund historischer, nationaler und staatlicher Gegebenheiten unterschiedlich semantisiert ist,80 erschwert zudem die effektive Regelung über Ländergrenzen und nationale Gesetze hinweg. Diese Kulturrelativität wird im Artikel von Tatiana Klepikova aufgegriffen. In ihrem Artikel zur Nutzung des RuNet durch die russische Bevölkerung beschäftigt sie sich mit den Privatheitspraktiken innerhalb des russischsprachigen Kulturraums. Diese finden im Kontext des RuNet in einem Spannungsverhältnis eines sowohl privaten Ortes als auch eines öffentlichrepressiven Raumes statt. Dabei leitet sie her, wie die russischen Nutzer die Technologie dazu einsetzen, einen Raum des Privaten zu konstruieren, in dem westlich-liberale Privatheitspraktiken teilweise übernommen und teilweise transformiert werden. Wenngleich sich laut der Autorin der wachsende Autoritarismus Russlands auf die Neutralität des RuNets auswirkt und eine zunehmende Politisierung zu konstatieren ist, so ist den dortigen sozialen Praktiken dennoch das Potenzial inhärent, autoritäre gesellschaftlichen Prozesse sowohl zu repräsentieren als auch zu bestreiten und in eine freiheitlichdemokratische Richtung zu wenden. 79  S. 234.

80  Vgl. hierzu grundlegend: Altman (1977): Privacy Regulation, S. 66–84. Vgl. ebenso die Beiträge im letzten Sammelband des Kollegs: Beyvers u. a. (2016): Räume und Kulturen des Privaten.



Privatheit in der digitalen Gesellschaft

25

5. Staatliche Regulationsmöglichkeiten in der Datengesellschaft Allerdings stellt sich die Frage nach staatlichen Regulationsmöglichkeiten des Internets natürlich auch in demokratischen Gesellschaften. Der Einzug künstlicher Intelligenzen in die ‚eigenen vier Wände‘ ist mit unterschiedlichsten juristischen Fragen verbunden. Wenn Alexa beispielsweise als Zeugin vorgeladen würde, so müsste ein Lautsprecher auf dem Zeugenstand ‚Platz nehmen‘. Alexa ist der Name einer künstlichen Intelligenz, welche über Amazons Lautsprecher Echo (oder die kleinere Variante Dot) aufgerufen wird. Mehrere Millionen dieser digitalen Assistentinnen wurden bereits verkauft.81 Die Nutzeranfragen werden an Amazon-Cloud-Dienste gesendet, ausgewertet und analysiert, um das System weiterzuentwickeln.82 Es steckt also noch in der Experimentierphase, steht jedoch bereits im Blick von Strafverfolgungsbehörden. Für Ermittlungen in einem Mordfall in Bentonville, im US-Bundesstaat Arkansas, verlangte die Polizei die Herausgabe der Daten und Audioaufzeichnungen des vernetzten Lautsprechers eines Tatverdächtigen.83 Das Beispiel zeigt die zunehmenden Möglichkeiten des Eindringens in privat konnotierte Bereiche, sowohl privater Dritter als auch des Staates. 1983 sprach das Bundesverfassungsgericht im Volkszählungsurteil von der Gefährdung der Privatsphäre durch automatisierte Datenverarbeitung, unbegrenzte Speicherung und jederzeitige Abrufbarkeit personenbezogener Daten.84 Im Allgemeinen sollen Datenschutzgesetze den Umgang mit personenbezogenen Daten innerhalb bestimmter Grenzen bzw. unter bestimmten Voraussetzungen regeln. Wie dies in der heutigen Informationsgesellschaft noch gewährleistet werden kann, hinterfragen die Beiträge dieses Kapitels. Tobias Keber geht in seinem Beitrag den Veränderungen im Mediensystem und den Auswirkungen auf Datenschutz und Datensicherheit nach. Wenn Formen wie Blogs und Kurznachrichtendienste ähnliche Funktionen wie die ‚klassische Presse‘ annehmen, dann ist das Verhältnis zwischen Datenschutz und Medien zu problematisieren. Dabei ist u. a. die Frage nach dem Schutzbereich des Medienprivilegs zu klären, d. h. „wie weit der Geltungsbereich des Medienprivilegs auszulegen ist“.85 Denn nach Keber wird das Spannungsfeld zwischen Rundfunk- und Pressefreiheit und dem Recht der Betrof81  Amazon

veröffentlicht keine detaillierteren Verkaufszahlen. Leuchte blinkt blau bei der Kommandoentgegennahme, wonach die Aufzeichnung beginnt. Aber da das Gerät auf ein Aktivierungswort programmiert ist, schaltet es sich auch schon mal fälschlicherweise ein. Siehe Sebayang (2017): TVSendung aktiviert Bestellvorgang mit Amazons Alexa. 83  Vgl. Jurran (2016): Ermittler wollen Aufzeichnungen von Amazon Echo. Amazon hat die Herausgabe der geforderten Daten bisher abgelehnt. 84  Vgl. Volkszählungsurteil des Bundesverfassungsgerichts, BverfGE 65, 1. 85  S. 269. 82  Eine

26

Miriam Piegsa und Kai Erik Trost

fenen auf informationelle Selbstbestimmung über das datenschutzrechtliche Medienprivileg gesteuert. Für das Mediensystem und die Informationsgesellschaft ist außerdem die Konzeption von Daten- und Informationseigentum zu klären. Welche Rolle kann etwa das Urheberrecht zur Beantwortung der Fragen, wem Daten gehören oder wer Daten nutzen darf, einnehmen? Gerade wenn eine Gewinnbeteiligung der Nutzer an der Verwertung ihrer Daten angedacht ist, stößt das Modell von Dateneigentum im Sinne von Daten als Entgelt in der Lebenswelt auf vielerlei praktische Probleme. Keber schlägt daher eine Einpassung in das gegenwärtige System von Ausschließlichkeitsrechten und die Verortung in einem Schichtenmodell vor. Neue Technologien stellen das Recht seit jeher vor neue Herausforderungen, aber um rechtlich mehr zu erreichen als „bloße Folgenbeseitigung […] technologischer Entwicklungen“,86 hat der Staat sich frühzeitig mit Regulationsmöglichkeiten innerhalb der Datengesellschaft auseinanderzusetzen. Vor allem die Risiken bei den vielfältigen Einsatzmöglichkeiten von Datenverarbeitungsmechanismen sind dabei zu antizipieren. Manuela Sixt diskutiert wirtschaftliche Ranking- und Scoring-Systeme (z. B. die Schufa) in ihrem Beitrag daher nicht nur als ein datenschutzrechtliches Problem, sondern auch im Zusammenhang mit möglichen Auswirkungen auf Privatheit und Gesellschaft. Sie geht u. a. der Frage nach, welches Diskriminierungspotenzial dem Scoring-System inhärent ist: „Dabei ist gerade die Kenntnis über die Gewichtung der einzelnen Merkmale notwendig, um zu erkennen, inwieweit eine Diskriminierung vorliegt.“87 Denn Scoring-Systeme könnten score-abhängig personalisierte Preise anbieten oder gar zu Verhaltensanpassungen führen, weshalb wiederum die Transparenz von Bewertungsmaßstäben und -mechanismen von enormer Bedeutung sei. Hieran wird ersichtlich, dass sich die Diskussion über den Schutz vor staatlicher Erhebung, Verarbeitung und Nutzung von Daten auf die privatwirtschaftlichen Akteure verschoben hat. Ein Verfahren, das sowohl auf staatlicher als auch auf privatwirtschaftlicher Ebene an Bedeutung gewinnt, ist das sogenannte Nudging (von engl. nudge = Stups, Schubs). Der Begriff beschreibt ein Konzept aus der Verhaltensökonomie zur Beeinflussung von menschlichem Verhalten und Entscheidungen. Barbara Sandfuchs und Andreas Kapsner hinterfragen in ihrem Beitrag kritisch, wie Nudging als Maßnahme zur Stärkung des Privatheitsschutzes eingesetzt werden könnte: „a very basic example would be the use of privacy-enhancing defaults.“88 Sie diskutieren die Möglichkeit von Entscheidungsarchitekturen, welche Entscheidungen vorbestimmen und besprechen die Auffassung von Nudging als libertärem Paternalismus, welchem der 86  Schaar

87  S. 297. 88  S. 320.

(2007): Das Ende der Privatsphäre, S. 220.



Privatheit in der digitalen Gesellschaft

27

Gedanke zugrunde liegt, dass sich Menschen vorhersehbar irrational verhalten und Nudges dieses Verhalten ausgleichen könnten.89 Des Weiteren untersucht der Beitrag, wie die Verhinderung von Online-Selbstoffenbarungen durch Nudging von rechtlicher Seite sowohl in Deutschland als auch in den USA zu rechtfertigen wäre. Dieser transatlantische Blick ist gerade aufgrund des unterschiedlichen Verständnisses von Datenschutz in Europa und den USA von hoher Relevanz. Damit wird versucht, den Schutz von Privatheit auf einer internationalen Ebene anzusiedeln und somit den Datenschutz nicht bloß als nationale Herausforderung anzugehen. Bibliografie Adelmann, Ralf: Von der Freundschaft in Facebook. Mediale Politiken sozialer Beziehungen in Social Network Sites. In: Leistert, Oliver/Röhle, Theo (Hg.): Generation Facebook. Über das Leben im Social Net. Bielefeld 2011, S. 127–144. Altman, Irwin: Privacy Regulation. Culturally Universal or Culturally Specific? In: Journal of Social Issues 33.3 (1977), S. 66–84. Amazon Go: Frequently Asked Questions. (o. J.). URL: https://www.amazon.com/ b?node=16008589011 (zuletzt eingesehen am 05.04.2017). Barnes Susan B.: A Privacy Paradox. Social Networking in the United States. In: First Monday 11.9 (2006). URL: http://firstmonday.org/article/view/1394/1312_2 (zuletzt eingesehen am 24.07.2017). Bennett, Colin: So maybe ‚Big Data‘ doesn’t work in elections? Maybe it’s time to stop using it? (2016). URL: http://www.colinbennett.ca/parties-and-privacy/somaybe-big-data-and-micro-targeting-doesnt-work-in-elections-maybe-its-time-tostop-using-it/ (zuletzt eingesehen am 05.04.2017). Bergert, Denise: Datenschutz. WLAN-Barbie zeichnet Gespräche im Kinderzimmer auf. In: heise online vom 17.03.2015. URL: https://www.heise.de/newsticker/ meldung/Datenschutz-WLAN-Barbie-zeichnet-Gespraeche-im-Kinderzimmerauf-2576510.html (zuletzt eingesehen am 05.04.2017). Beyvers, Eva u. a. (Hg.): Räume und Kulturen des Privaten. Wiesbaden 2017. Boyd, Danah/Crawford, Kate: Critical Questions for Big Data: Provocations for a Cultural, Technological, and Scholarly Phenomenon. In: Information, Communication & Society 15.5 (2012), S. 662–679. URL: http://www.tandfonline.com/doi/ full/10.1080/1369118X.2012.678878#.VNj5HvmG-Ck (zuletzt eingesehen am 05.04.2017). Brüggen, Niels/Schemmerling, Mareike: Das Social Web und die Aneignung von Sozialräumen. Forschungsperspektiven auf das sozialraumbezogene Medienhandeln von Jugendlichen in Sozialen Netzwerkdiensten (2014). URL: http://www. sozialraum.de/das-social-web-und-die-aneignung-von-sozialraeumen.php (zuletzt eingesehen am 05.04.2017). 89  Vgl.

Thaler / Sunstein (2010): Nudge, S. 14.

28

Miriam Piegsa und Kai Erik Trost

Brüggen, Niels/Wagner, Ulrike: Medienaneignung und sozialraumbezogenes Medienhandeln von Jugendlichen. In: Hoffmann, Dagmar/Krotz, Friedrich/Reißmann, Wolfgang (Hg.): Mediatisierung und Mediensozialisation. Wiesbaden 2017, S. 211–228. Carstensen, Tanja u. a.: Subjektkonstruktionen im Kontext Digitaler Medien. In: Dies. (Hg.): Digitale Subjekte. Praktiken der Subjektivierung im Medienumbruch der Gegenwart. Bielefeld 2013, S. 9–27. Dachwitz, Ingo: EuGH-Urteil zur Speicherung von IP-Adressen. Mehr Spielraum für Nutzer-Tracking. In: Netzpolitik.org vom 19.10.2016. URL: https://netzpolitik. org/2016/eugh-urteil-zur-speicherung-von-ip-adressen-mehr-spielraum-fuer-nut zer-tracking/ (zuletzt eingesehen am 05.04.2017). Einspänner-Pflock, Jessica: Privatheit im Netz. Konstruktions- und Gestaltungsstrategien von Online-Privatheit bei Jugendlichen. Wiesbaden 2016. Facebook.com: Facebook – Anmelden oder Registrieren. URL: https://de-de.facebook. com (zuletzt eingesehen am 20.07.2017). Garfinkel, Simson: Database Nation. The Death of Privacy in the 21st Century. Sebastopol 2000. Gierow, Hauke: Eltern müssen Puppen ihrer Kinder zerstören. In: Golem.de vom 17.02.2017. URL: https://www.golem.de/news/my-friend-cayla-eltern-muessenpuppen-ihrer-kinder-zerstoeren-1702-126236.html (zuletzt eingesehen am 05.04. 2017). Greis, Friedhelm: SMART METER. Bundestag verordnet allen Haushalten moderne Stromzähler. In: Golem.de vom 23.06.2016. URL: https://www.golem.de/news/ smart-meter-bundestag-verordnet-allen-haushalten-moderne-stromzaehler-1606121718.html (zuletzt eingesehen am 05.04.2017). Grimm, Petra/Keber, Tobias O./Zöllner, Oliver: Anonymität und Transparenz in der digitalen Gesellschaft. Einleitende Bemerkungen zur Digitalen Ethik. In: Dies. (Hg.): Anonymität und Transparenz in der digitalen Gesellschaft. Stuttgart 2015, S. 7–20. Grimm, Petra/Neef, Karla: Privatsphäre 2.0? Wandel des Privatheitsverständnisses und die Herausforderungen für Gesellschaft und Individuen. In: Grimm, Petra/ Zöllner, Oliver (Hg.): Schöne neue Kommunikationswelt oder Ende der Privatheit? Die Veröffentlichung des Privaten in Social Media und populären Medienformaten. Stuttgart 2012, S. 41–81. Habermas, Jürgen: Strukturwandel der Öffentlichkeit. Frankfurt/M. 1990. Heller, Christian: Post-Privacy. Prima leben ohne Privatsphäre. München 2011. Hofstetter, Yvonne: Sie wissen alles. Wie Big Data in unser Leben eindringt und warum wir um unsere Freiheit kämpfen müssen. München 2016. Ihde, Don: Technology and the Lifeworld. From Garden to Earth. Bloomington 1990. Jurran, Nico: Ermittler wollen Aufzeichnungen von Amazon Echo. Alexa als Zeugin einer Mordanklage? In: heise online vom 28.12.2016. URL: https://www.heise.de/ newsticker/meldung/Ermittler-wollen-Aufzeichnungen-von-Amazon-Echo-Alexaals-Zeugin-einer-Mordanklage-3582492.html (zuletzt eingesehen am 05.04.2017).



Privatheit in der digitalen Gesellschaft

29

Kerr, Ian/Steeves, Valerie/Lucock, Carole: The Strange Return Of Gyges’ Ring. An Introduction. In: Dies. (Hg.): Lessons from the Identity Trail. Anonymity, Privacy and Identity in a Networked Society. Oxford 2009, S. 23–31. Kreknin, Innokentij/Marquardt, Chantal: Einleitung. Subjekthaftigkeit, Digitalität, Fik­tion und Alltagswirklichkeit. In: Dies. (Hg.): Das digitalisierte Subjekt. Grenzbereiche zwischen Fiktion und Alltagswirklichkeit. Sonderausgabe 1 von Textpraxis. Digitales Journal für Philologie 2 (2016), S. 1–20. URL: http://www.unimuenster.de/textpraxis/innokentij-kreknin-chantal-marquardt-einleitung-das-digi talisierte-subjekt (zuletzt eingesehen am 19.07.2017). Lane, Julia u. a.: Privacy, Big Data, and the Public Good. Frameworks for Engagement. Cambridge 2014. Latour, Bruno: Über technische Vermittlung. Philosophie, Soziologie und Genealogie. In: Belliger, Andréa/Krieger, David J. (Hg.): ANThology. Ein einführendes Handbuch zur Akteur-Netzwerk-Theorie. Bielefeld 2006, S. 483–528. Lewis, Kevin u. a.: Tastes, Ties, and Time. A New Social Network Dataset Using Facebook.com. In: Social Networks 30 (2008), S. 330–342. Marx, Gary T.: Windows into the Soul. Surveillance and Society in an Age of High Technology. Chicago 2016. Matzner, Tobias: Personen verwalten oder Personen sein (müssen)? Normen der Privatheit (nicht nur) in der digitalen Kommunikation. In: Adam, Marie-Hélène/ Gellai, Szilvia/Knifka, Julia (Hg.): Technisierte Lebenswelt. Über den Prozess der Figuration von Mensch und Technik. Bielefeld 2016, S. 227–242. McNeill, Laurie: There Is No ‚I‘ in Network: Social Networking Sites and Posthuman Auto/Biography. In: Biography 35.1 (2012), S. 65–82. Miller, Vincent: New Media, Networking and Phatic Culture. In: Convergence: The International Journal of Research into New Media Technologies 14 (2008), S. 387–400. Nissenbaum, Helen: Privacy in Context. Technology, Policy, and the Integrity of Social Life. Palo Alto 2011. Ochs, Carsten/Löw, Martina: Un/Faire Informationspraktiken. Internet Privacy aus sozialwissenschaftlicher Perspektive. In: Buchmann, Johannes (Hg.): Internet Privacy. Eine multidisziplinare Bestandsaufnahme. Acatech Studie. Heidelberg 2012, S. 15–62. Pörksen, Bernhard/Detel, Hanne: Der entfesselte Skandal. Das Ende der Kontrolle im digitalen Zeitalter. Köln 2012. Regan, Priscilla M.: Privacy and the Common Good. Revisited. In: Rössler, Beate/ Mokrosinska, Dorota (Hg.): Social Dimensions of Privacy. Interdisciplinary Perspectives. Cambridge 2015, S. 50–70. Reichert, Ramón: ‚Make it count!‘ Biomedialität im Kontext von Self-Tracking und Social Media. In: Beyvers, Eva u. a. (Hg.): Räume und Kulturen des Privaten. Wiesbaden 2016, S. 165–187. – Einführung. In: Ders. (Hg.): Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie. Bielefeld 2014, S. 9–31.

30

Miriam Piegsa und Kai Erik Trost

Schaar, Peter: Überwachung total. Wie wir in Zukunft unsere Daten schützen. Berlin 2014. ‒ Das Ende der Privatsphäre. Der Weg in die Überwachungsgesellschaft. München 2007. Scheer, August-Wilhelm: Thesen zur Digitalisierung. In: Abolhassan, Ferri (Hg.): Was treibt die Digitalisierung? Warum an der Cloud kein Weg vorbeiführt. Wiesbaden 2016, S. 49–61. Schmidt, Jan-Hinrik: Persönliche Öffentlichkeit und Privatsphäre im Social Web. In: Halft, Stefan/Krah, Hans (Hg.): Privatheit. Strategien und Transformationen. Passau 2013, S. 121–137. Sebayang, Andreas: TV-Sendung aktiviert Bestellvorgang mit Amazons Alexa. In: Golem.de vom 08.01.2017. URL: https://www.golem.de/news/echo-in-san-diegotv-sendung-loest-amazon-alexa-bestellungen-aus-1701-125455.html (zuletzt eingesehen am 27.04.2017). Seemann, Michael: Das neue Spiel. Strategien für die Welt nach dem digitalen Kon­ trollverlust. Berlin 2015. Spitzer, Manfred: Cyberkrank! Wie das digitale Leben unsere Gesundheit ruiniert. München 2015. Stalder, Felix: Kultur der Digitalität. Berlin 2016. Staples, William G.: Everyday Surveillance. Vigilance and Visibility in Postmodern Life. Lanham 2014. Steeves, Valerie: Reclaiming the Social Value of Privacy. In: Kerr, Ian/Steeves, Valerie/Lucock, Carole (Hg.): Lessons from the Identity Trail. Anonymity, Privacy and Identity in a Networked Society. Oxford 2009, S. 191–208. Süssenguth, Florian: In Gesellschaft der Daten. Ein kurzer Problemaufriss. In: Ders. (Hg.): Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung. Bielefeld 2015, S. 7–14. ‒ Die Organisation des digitalen Wandels. Zur Funktion von Digitalisierungssemantiken in Wirtschaft, Medien und Politik. In: Ders. (Hg.): Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung. Bielefeld 2015, S. 93–121. Taddicken, Monika: The ‚Privacy Paradox‘ in the Social Web. The Impact of Privacy Concerns, Individual Characteristics, and the Perceived Social Relevance on Different Forms of Self-Disclosure. In: Journal of Computer-Mediated Communication 19.2 (2014), S. 248–273. Thaler, Richard H./Sunstein, Cass, R.: Nudge. Wie man kluge Entscheidungen anstößt. Berlin 2010. Trepte, Sabine/Masur, Philipp K.: Privacy Attitudes, Perceptions, and Behaviors of the German Population. Research Report. In: Friedewald, Michael u. a. (Hg.): Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt. Karlsruhe 2017. URL: https://www.forum-privatheit.de/forum-privatheit-de/texte/veroeffentlichungendes-forums/Trepte_Masur_2017_Research_Report_Hohenheim.pdf (Seite nicht mehr zugänglich).



Privatheit in der digitalen Gesellschaft

31

Wagner, Ulrike/Brüggen, Niels/Gebel, Christa: Persönliche Informationen in aller Öffentlichkeit? Jugendliche und ihre Perspektive auf Datenschutz und Persönlichkeitsrechte in Sozialen Netzwerkdiensten. Teilstudie im Projekt ‚Das Internet als Rezeptions- und Präsentationsplattform für Jugendliche‘ im Auftrag der Bayerischen Landeszentrale für neue Medien (BLM). JFF  – Institut für Medienpädagogik in Forschung und Praxis. München 2010. Warren, Samuel D./Brandeis, Louis D.: The Right to Privacy. In: Harvard Law Review 4.5 (1890), S. 109–220. Weber, Max: Wirtschaft und Gesellschaft. Grundriss der verstehenden Soziologie. Tübingen 1972. Westin, Alan F.: Privacy and Freedom. New York 1967. Williams, Raymond: Television. Technology and Cultural Form. London/New York 1990.

1. Privatheit und das digitalisierte Subjekt

Abschied vom Individuum – werden wir zu Endgeräten eines global-digitalen Netzes? Armin Grunwald 1. Einleitung und Fragestellung Die durch Digitalisierung ermöglichte globale Vernetzung ist eine der großen Erzählungen der Gegenwart, angetrieben vor allem durch die Entwicklungen der Informations- und Kommunikationstechnik und kulminierend in den globalen Diensten und Möglichkeiten des Internets. Die Erzählung von der Individualisierung des Menschen, seiner Befreiung aus kollektiven Zwängen auf der Basis zentraler Gedanken der europäischen Aufklärung und zunehmend realisiert in modernen, pluralistischen wie demokratischen Gesellschaften, ist weit darüber hinaus eines der für das Selbstverständnis der westlichen Moderne konstitutiven Narrative: die Bestimmung des guten Lebens und moralische Überzeugungen werden den Individuen anheimgestellt. Es ist ein positives und vom Fortschrittsoptimismus durchdrungenes Narrativ. Freilich, es nagt der Zweifel am Fortschrittsoptimismus, genährt durch prinzipielle Überlegungen wie zur Dialektik der Aufklärung,1 aber auch durch konkrete Erfahrungen mit der Ambivalenz des wissenschaftlich-technischen Fortschritts.2 Als Kehrseite der Hochglanzerzählung von der Individualisierung tauchen einerseits Sorgen einer Fragmentierung der Gesellschaft und der Isolierung der Individuen bis hin zur Monadisierung auf, andererseits entstehen Befürchtungen eines Rückschlags der Individualisierung in neue Formen der Vermassung und Kollektivierung bis hin zu einem möglichen Ende der Individualität. In diesem Spannungsfeld ist der vorliegende Aufsatz angesiedelt. Ich werde die großen Linien der genannten Erzählungen in aller Kürze nachzeichnen, um vor deren Hintergrund der aktuellen Frage nach Individualität und Individuum angesichts fortschreitender digitaler Vernetzung nachzuge1  Vgl. Adorno / Horkheimer (1947): Dialektik der Aufklärung. Danach ist die Aufklärung grundsätzlich dadurch bedroht, dass sie in ihr Gegenteil umschlagen kann. Motivation für die Autoren war vor allem die Barbarei des Dritten Reiches. 2  Vgl. Grunwald (2010): Technikfolgenabschätzung.

36

Armin Grunwald

hen. Ein anekdotischer Durchgang einiger historischer Stationen von Individualisierung und Kollektivierung ist zur Einordnung der Gegenwart vorangestellt (s. Kap. 2). Der Hauptteil des Aufsatzes ist dem Verhältnis von Individuum und digitaler Vernetzung über Informations- und Kommunikationstechnik, insbesondere über das Internet (s. Kap. 3), sowie der Reflexion dieser Entwicklungen gewidmet (s. Kap. 4). Abschließend werde ich einige Thesen zu den Zukünften des Individuums formulieren (s. Kap. 5). Dieser Aufsatz zielt auf eine Reflexion gegenwärtiger, durch die Informationstechnik, insbesondere das Internet bewirkte Veränderungen von Kulturund Gesellschaftsvollzügen sowie darin enthaltener Einschätzungen menschlicher Individualität. Es geht demgegenüber weniger um eine auf reicher empirischer Basis beruhende wissenschaftliche Untersuchung aktuell beobachtbarer gesellschaftlicher Veränderungen bzw. der Selbstwahrnehmung der Gesellschaft im Kontext des Internets. Beabsichtigt ist eine vorsichtig-abwägende Reflexion fortlaufender Verschiebungen in der Tradition der Technikfolgenabschätzung.3 Diese ist entstanden, um den Umgang mit dem wissenschaftlich-technischen Fortschritt sowie dessen Resultate und Folgen zu reflektieren. Das Wissen über diese Folgen und ihre Beurteilung soll der Gesellschaft und Politik Orientierung geben, z. B. für Entscheidungsprozesse über Forschungsförderung, Regulierung oder zur Verhinderung bzw. konstruktiven Bewältigung von Technikkonflikten. Hierbei hat sich in Abhebung von frühen prognoseoptimistischen Konzeptionen4 der Gedanke an eine prinzipiell offene Zukunft durchgesetzt. Damit hat sich die Zielsetzung von der Prognose von Technikfolgen, an welche die Gesellschaft sich anzupassen habe, zur Eröffnung und Reflexion von alternativen Technikzukünften verschoben, um Technikgestaltung (unter Einschluss der Nulloption, d. h. das betreffende Problem durch nichttechnische Maßnahmen zu lösen) zu ermöglichen bzw. zu unterstützen.5 Es dürfte nicht übertrieben sein, dass dies ein Unterschied ‚ums Ganze‘ ist. Entsprechend kann es in diesem Aufsatz nicht darum gehen, die im Titel formulierte Frage durch prognostische Aussagen zu beantworten. Stattdessen ist die Aufgabe, diese Frage zu entfalten und besser zu verstehen – sozusagen eine hermeneutische Aufgabe im ansonsten konsequentialistischen Zugriff der Technikfolgenabschätzung.6

3  Vgl.

Grunwald (2010): Technikfolgenabschätzung, Kap. 6.1.1. Bullinger (1991): Technikfolgenabschätzung – Wissenschaftlicher Anspruch und Wirklichkeit. 5  Vgl. Grunwald (2012): Technikzukünfte als Medium von Zukunftsdebatten und Technikgestaltung, S.  269 ff. 6  Vgl. Grunwald (in Vorbereitung): Von Technikfolgenprognosen zur hermeneutischen Perspektive. 4  Vgl.



Abschied vom Individuum

37

2. Individualisierung historisch betrachtet Verbreitet wird in Philosophie, Soziologie und Kulturwissenschaften die Geschichte der Moderne als fortschreitende Individualisierung erzählt.7 Oft wird in Entgegensetzung zu asiatischen Kulturen eine spezifisch europäische Wurzel der Individualisierung in der christlich-jüdischen Tradition sowie im Erbe der griechischen Philosophie gesehen. Insbesondere die Betonung des individuellen Seelenheils und der individuellen Verantwortung für die eigene Lebensführung im Christentum, in der Reformation durch die Einführung einer personalisierten Gottesbeziehung verstärkt, dürfte hier mit zu den Hintergründen zählen. Die europäische Aufklärung hat für die Individualisierung mit dem Cogito ergo sum von René Descartes, dem denkenden Ich von Immanuel Kant, das alle meine Vorstellungen begleiten können soll, der naturrechtlichen Postulierung der individuellen Menschrechte bei Jean-Jacques Rousseau und der transzendentalen Subjektphilosophie des Deutschen Idealismus einschlägige Grundlagen gelegt. Im gesellschaftlichen Bereich sind hier die Demokratisierung in der Folge der Französischen Revolution, die allmähliche Anerkennung von individuellen Menschenrechten im politischen Raum bis hin zur Menschenrechtsdeklaration der Vereinten Nationen (1948), das Aufkommen hochgradig arbeitsteiliger Formen des Wirtschaftens und die damit verbundene Individualisierung und Spezialisierung von Arbeit, die Individualisierung des Rechts und neue Lebensstile zu nennen. Üblicherweise wird ein entscheidender Schub der Individualisierung für die zweite Hälfte des 20. Jahrhunderts diagnostiziert.8 Neben den Individualisierungspotentialen durch zunehmenden Wohlstand (wie etwa die Ausprägung individueller Lebensstile und das Aufkommen der Urlaubs- und Freizeitkultur) sind es vor allem das Zerbrechen und die Auflösung traditioneller Bindungen aufgrund gesellschaftlicher Transformationen, die als Befreiung des Individuums von vormaligen Zwängen gedeutet werden. Selbstverwirklichung bis hin zum Hedonismus wird zum dominanten Paradigma in Lebensführung, Arbeitswelt und gesellschaftlicher Praxis, während kollektive Verpflichtungen und traditionelle Bindungen in Religion, Familie, Sexualität und die Zugehörigkeit zu Organisationen wie politischen Parteien und Gewerkschaften massiv an Bedeutung verlieren oder teils sogar als Ausprägungen unfreier Lebensführung diskreditiert werden. Die aktuelle Debatte um die ‚Industrie 4.0‘ führt die Auflösung kollektiver Lebensformen konsequent fort bis in das Feld der industriellen Produktion: Nach den Wünschen der Individuen sollen individualisierte Produkte hergestellt werden, keines soll mehr 7  Vgl. 8  Vgl.

Elias (2001): Die Gesellschaft der Individuen. Elias (2001): Die Gesellschaft der Individuen.

38

Armin Grunwald

dem anderen gleichen, so wie kein Individuum dem anderen gleicht. Die Industrie 4.0 verhält sich tendenziell gegenteilig zur Massenproduktion und Fließbandarbeit eines Henry Ford vor etwa 100 Jahren. Dem Lobgesang auf Individualisierung als Befreiung stehen jedoch Hinweise auf Ambivalenzen und Folgekosten entgegen. Auf der Kehrseite der Individualisierung sind Zumutungen und Verlusterfahrungen zu konstatieren.9 Freiheit zur Ausprägung eines individuellen Lebens ist nicht nur ein Recht, sondern bringt die Pflicht der Individuen mit sich, sich selbst zu erfinden, wenn traditionelle Vorbilder ihre Vorbildfunktion verloren haben. Individuen müssen einen Platz in der Gesellschaft, Kultur und Wirtschaft erobern und sind dabei einem stark zunehmenden und sich globalisierenden Wettbewerb ausgesetzt. Verbreitete Nostalgien über die vermeintlich gute alte Zeit, wie etwa die DDR-Nostalgie und die Sowjet-Nostalgie sogar hinsichtlich hochproblematischer Gesellschaften, dürften etwas von der subkutan gespürten Ambivalenz der Individualisierung und dem Unbehagen an ihren Ausprägungen in der neoliberalen Ideologie erzählen. Aber auch Gegenbewegungen im lokalen oder regionalen Rahmen wie neue Formen der Vergemeinschaftung bilden Inseln, die der Individualisierung die Gemeinschaft entgegensetzen. Die Urfeinde des Liberalismus, Karl Marx und Friedrich Engels, haben genau diese Entwicklung in prophetischen Worten bereits 1848 im Kommunistischen Manifest beschrieben: „Alles Ständische und Stehende verdampft, alles Heilige wird entweiht, und die Menschen sind endlich gezwungen, ihre Lebensstellung, ihre gegenseitigen Beziehungen mit nüchternen Augen anzusehen.“10 Darin ist in Worten des 19. Jahrhunderts die Ambivalenz der Individualisierung enthalten. Das Zitat lässt – neben vielem anderen, das hier nicht weiter verfolgt werden soll – erahnen, dass das Ergebnis des Blicks mit den ‚nüchternen Augen‘ auch sein kann, zu den Verlierern zu gehören. Immer wieder wird denn auch die Welle des Populismus in westlichen Ländern in Verbindung mit Modernisierungsverlierern gebracht. Ebenso häufen sich Klagen über die mangelnde Kohäsion moderner Gesellschaften angesichts Beobachtungen fortschreitender Fragmentierung und des Bedeutungsverlustes sozialer Bindungskräfte. Der ‚Arbeitskraftunternehmer‘, der seine eigene Arbeitskraft als Individuum unternehmerisch vermarkten muss,11 steht als arbeitsmarktpolitisch geprägter Begriff unfreiwillig für diese Ambivalenz. Während liberalistische Strömungen diese Entwicklungen begrüßen und in dieser Form der vollständigen Individualisierung in Verbindung mit – kritisch formuliert – sozialdarwinistischen Wettbewerbsvorstel9  Vgl.

Beck / Beck-Gernsheim (1994): Riskante Freiheiten. (1999): Das Kommunistische Manifest, S. 2. 11  Vgl. Voß / Pongratz (1998): Der Arbeitskraftunternehmer. 10  Marx / Engels



Abschied vom Individuum

39

lungen geradezu das Ziel menschlicher Entwicklung sehen, weisen z. B. kommunitaristische Positionen auf die Folgekosten und Zumutungen dieser Ausprägung der Individualisierung hin. Berühmt-berüchtigt wurde in diesem Zusammenhang das Wort von Papst Franziskus: „Diese Wirtschaft tötet“12 – nämlich diejenigen, die ihren Zumutungen nicht gewachsen sind. Der Individualisierung der letzten ca. 200 Jahre haben sich mehrfach kollektivierende Gegenbewegungen einer erschreckenden Dimension entgegen gestellt. Vor allem sind dies die totalitären Kollektivierungsprogramme der Diktatoren des 20. Jahrhunderts: Hitler, Stalin, Mao und Pol Pot. Kaum etwas ist ein stärkeres visuelles Symbol für eine Kollektivierung, in der das Individuum keinen Wert außerhalb des Kollektivs hat, als z. B. die Massenaufmärsche auf den Nürnberger Reichsparteitagen oder dem Roten Platz in Moskau. Es darf nun nicht übersehen werden, dass diese Regime keineswegs nur durch brutale Gewalt entstanden sind und durchgesetzt wurden. Kollektivierung im Rahmen eines ‚Volkskörpers‘ oder des ‚Proletariats‘ haben eine hohe Faszination auf Millionen Menschen ausgeübt und in einer ihnen unübersichtlich gewordenen Welt ideologisch reglementierte und gewalttätige Formen der Beheimatung ermöglicht. Diese Erfahrungen brutaler Ideologien und fortschreitender Gewaltausübung sind eine Warnung, wie brüchig das Eis der Zivilisation sein kann. Es gibt hingegen auch ganz andere Wege mit den Ambivalenzen der Individualisierung umzugehen. In der Individualisierung bilden sich z. B. neue Gemeinschaften, wodurch alternative Wohnformen entstehen. Auch die WG, ein Kind der 1968er Bewegung, ist eine Form der Vergemeinschaftung, allerdings anders als etwa eine traditionelle Großfamilie auf Zeit und basierend auf der Freiwilligkeit der Mitbewohner. Viele Menschen engagieren sich ehrenamtlich, obwohl sich diese Tätigkeit im globalen Wettbewerb kaum gewinnbringend einsetzen, aber andere Aspekte menschlicher Wertrealisierung erleben lässt. Genossenschaften erleben eine Renaissance, z. B. im Betrieb von Windparks oder Solaranlagen. Bürger und Bürgerinnen in Dörfern und Stadtvierteln nehmen gemeinsam die Gestaltung ihrer Umgebung in die Hand, statt dies der Stadtplanung zu überlassen. In Fablabs13 treffen sich im Schwerpunkt technikaffine Menschen, um gemeinsam neue Formen der Produktion auszuprobieren. Es scheint in der sich individualisierenden Gesellschaft Kompensationseffekte zu geben, welche die Ambivalenzen einer überbordenden Individualisierung wenigstens teilweise auffangen können. 12  Vgl. Papst Franziskus (2016): Apostolisches Schreiben EVANGELII GAUDIUM. 13  Wortkombination aus engl. Fab(rication) und Lab(oratory). Fablabs sind Orte gemeinschaftlicher Produktion von Gütern, häufig unter Nutzung von digitalen Technologien wie des 3D-Drucks.

40

Armin Grunwald

Sie funktionieren inmitten der Individualisierung, so dass Bindung und Freiheit immer wieder neu austariert werden können, aber auch müssen. Hier wäre natürlich ein Ansatzpunkt für gestaltende Politik, die sich nicht auf die traditionellen Gegenpole eines durch einen starken Staat behüteten und sozial betreuten Bürgers einerseits und eines in einem liberalistischen Sinne freien Bürgers in absoluter Selbstverantwortung andererseits beschränkt, sondern sich gerade für die Zwischenräume interessiert. Die digitalen Vernetzungsmöglichkeiten können sicher dazu beitragen, dieses Feld neu entstehender Gemeinschaften zu gestalten, das sich für die Zukunft der Individualität im digitalen Netz als besonders bedeutsam herausstellen könnte. 3. Das Individuum in der Digitalisierung Das Entstehen der heutigen Netzgesellschaft (um an den doch schon in die Jahre gekommenen Begriff von Manuel Castells zu erinnern)14 ist nicht denkbar ohne technische Entwicklungen wie die rasche Digitalisierung, das Zusammenwachsen vormals getrennter Medien, den schnellen Datentransport und neue technische Kommunikationsmöglichkeiten. Diese Netzgesellschaft hat aber auch kulturelle Seiten wie die ökonomische Globalisierung, die stark erhöhte Mobilität vieler Menschen, den gewaltig erleichterten Zugang zu einer Fülle von Informationen und den Abbau bestehender Grenzen zwischen Akteursgruppen, aber auch über räumliche Entfernungen hinweg. Insgesamt handelt es sich bei dem Internet nicht nur um ein technisches, sondern um ein sozio-technisches System, das auch in sich soziale Faktoren wie Machtverteilungen, Zugangsunterschiede und soziale Regeln des Ein- und Ausschlusses enthält.15 Die Rede von Entgrenzungen darf deshalb nicht darüber hinweg täuschen, dass in dieser Entwicklung simultan auch neue, jedoch oft nicht klar wahrnehmbare Grenzen entstehen. Dies wird auch im Kontext der Entwicklung von Individualität zu reflektieren sein (s. Kap. 4). Das Internet stellt neue Möglichkeiten der Information, Kommunikation und Partizipation bereit, das ist keine neue Erkenntnis. Während zu Beginn der Internetdebatte Euphorie über die neuen Möglichkeiten herrschte, ist heute vielfach Ernüchterung eingetreten.16 Die Technik Internet ermöglicht Datenübertragung, die – entfernungsunabhängig (und damit potentiell global für Fernkommunikation nutzbar) ist, – preisgünstig und leicht bedienbar ist, 14  Vgl.

Castells (2010): The Rise of the Network Society. Banse et al. (2006): Netzöffentlichkeit und digitale Demokratie, Kap. 2. 16  Vgl. Banse et al. (2006): Netzöffentlichkeit und digitale Demokratie. 15  Vgl.



Abschied vom Individuum

41

– schnell (praktisch ohne Zeitverlust) erfolgt und damit Onlinekommunikation und Interaktivität ermöglicht, – dezentral organisiert ist, – Möglichkeiten der Einspeisung von Informationen für jedermann bereitstellt und damit Zwei-Kanal-Kommunikation ermöglicht, – durch Suchmaschinen und vielfältige Dienste und Angebote Orientierung und Unterstützung ermöglicht, und – über Social Media ganz neue Vernetzungsmöglichkeiten schafft, die teils in wenigen Jahren hunderte von Millionen Menschen an sich binden (z. B. die Facebook-Community). Im Gegensatz zu den traditionellen Massenmedien (mit one-to-manyKommuni­kation) und der Individualkommunikation (z. B. beim Telefonieren) eröffnet die Kommunikation im Internet Interaktionsmöglichkeiten in der Weise, dass von jedermann, also auch von denen, die in der traditionellen massenmedialen Kommunikation immer nur Empfänger sind, Inhalte (Informationen) für einen potentiell globalen Adressatenkreis bereitgestellt werden können. Durch die technischen Möglichkeiten des Internets werden damit Nutzer (a) potentiell auch zu Sendern und haben (b) die Möglichkeit, direkt auf Informationen anderer Nutzer / Anbieter zuzugreifen. Netzkommunikation erleichtert eine Kontaktaufnahme, die bislang außerhalb der Reichweite der eigenen Kommunikationsmöglichkeiten lag.17 Die Kommunikationsmöglichkeiten im Internet zeigen eine große Vielfalt und Heterogenität der verfügbaren Dienste und Formate. Formaten, die eher der Informationsverteilung dienen wie Mailing-Lists, Newsgroups und Homepages, stehen Formate gegenüber, in denen Interaktivität und Kommunikation wesentliche Elemente sind wie z. B. Online-Foren oder Chats. Im Bereich Social Media entstehen innovative Formate der Vernetzung und Kommunikation, für die es vermutlich keine Vorbilder in früheren Massenmedien gibt. Damit eröffnen sich gewaltige Räume der weiteren Individualisierung. Individuen können globale Netzwerke schaffen, sie können mühelos Gleichgesinnte oder an gleichen Themen Interessierte finden, Informationen oder auch nur Befindlichkeiten austauschen, ihre Netzwerke für diese oder jene Themen sensibilisieren oder auch mobilisieren. Sie können auf ihre Interessen maßgeschneiderte Nachrichten abonnieren, individualisierte Werbung zulassen und Angebote bestellen, die nach ihren Belangen konfiguriert sind. Vernetzung über Selbsthilfegruppen holt Individuen mit seltenen Krankheiten oder nach schweren Erlebnissen in einem Maße aus der Isolierung und er17  Vgl.

Banse et al. (2006): Netzöffentlichkeit und digitale Demokratie.

42

Armin Grunwald

möglicht neue Gemeinschaft, die weit über die Möglichkeiten traditioneller, an räumliche Nähe gebundener Gruppen hinausgeht. Und das alles ist vom Smartphone oder Tablet im Wohnzimmer oder in der Straßenbahn nach den individuellen Wünschen und Befindlichkeiten konfigurierbar. So gesehen erreicht die Individualisierung eine neue Dimension. Freilich lauern auch hier Ambivalenzen. So erlaubt die Individualisierung auf der Seite des Marktes den Unternehmen und Anbietern neue Möglichkeiten. Detaillierte Kundenprofile, Rückschlüsse auf persönliche Präferenzen durch Big Data-Analysen, Data-Mining und Profiling machen individualisierte Angebote möglich, aber genauso individualisierte Werbung, vielleicht noch unterstützt durch Erkenntnisse der Hirnforschung. Wer beispielsweise einen Flug nach Pisa bucht, wird kurz darauf mit Werbung für Ferienwohnungen in der Toskana versorgt. Das ‚System‘ Internet hinter unserer Benutzeroberfläche kennt uns individuell immer besser, es liest uns unsere vermeintlichen Wünsche und Bedürfnisse nicht von den Augen, sondern aus unseren Profilen ab und versorgt uns zunehmend – jedenfalls nach Auskunft der entsprechenden Werbeträger – mit maßgeschneiderten Angeboten. Nun könnte man sagen, das ist doch ausgezeichnet. Statt dass ich mich in einer Buchhandlung mühsam durch die Regale oder Kataloge arbeiten muss, um das Passende zu finden, bietet mir ein Dienst im Internet die Bücher an, die Leute meines Profils üblicherweise gut finden und kaufen. Ist das nicht angenehm, ein schöner Service, der uns die Mühen der Recherche abnimmt? Manchmal ja, ohne Zweifel, und vielleicht sogar relativ oft. Wenn das (z. B. aufgrund menschlicher Bequemlichkeit) jedoch zur Regel wird, ist an Folgendes zu denken. Nehmen wir gedankenexperimentartig einmal an, ‚das Internet‘ (hier sei die metaphorische Rede erlaubt, das Internet zu personifizieren) wisse alles über uns als Individuen und könne, ohne uns in allzu grobe Schablonen stecken zu müssen, in der Tat individuelle Wünsche und Präferenzen erkennen und diese auf Produkte so beziehen, dass es die unseren Präferenzen am besten entsprechenden Angebote unterbreiten kann (wie dies weiter oben bereits als weitgehend realisierte Möglichkeit angenommen wurde). Was sich wie eine Vision des Schlaraffenlandes anhört, hat jedoch eine Kehrseite. Denn das Wissen des Internets über unsere Präferenzen beruht ausschließlich auf Daten aus der Vergangenheit, nämlich auf den vergangenen Konsumprozessen. Damit verharren wir, basierend auf diesen Daten, in der Vergangenheit. Wir haben nicht mehr die Chance, uns durch Angebote irritieren oder zumindest überraschen zu lassen, die eben nicht in unserem aus der Vergangenheit stammenden Profil enthalten sind. Solche Irritationen und Überraschungen kann man z. B. beim Stöbern in den Regalen und Auslagen einer Buchhandlung erleben. Dort stößt man gelegentlich auf etwas, das eine neue Facette, ein neues Interesse eröffnet, das aber vom



Abschied vom Individuum

43

Internetdienst gnadenlos aussortiert worden wäre, weil es eben nicht zu dem Profil der Vergangenheit passt. Wenn wir uns auf den Modus des VerwöhntWerdens durch Internetdienste verlassen, die Daten aus der Vergangenheit nutzen, um unsere Wünsche zu erfüllen, dann verbleiben wir in einer vergangenen Präferenzstruktur: keine Entwicklung mehr, nur noch Stagnation.18 Die Individualisierung von Nachrichten, der Ergebnisse von Suchmaschinen und anderen Angeboten kann noch weitergehende Restriktionen mit sich bringen. Die Situation der traditionellen Fernsehnachrichten, wo man trotz eines oft klar erkennbaren ‚Agenda-Settings‘ durch die Redaktion mit vielen durchaus unterschiedlichen Dingen konfrontiert wird, von denen manche interessieren, andere nicht, würde einer Situation weichen, in der nur noch vorkonfigurierte Nachrichten ankommen. Der Rest der Welt würde ausgeblendet. Dieses Phänomen der filter bubbles ist bereits seit einiger Zeit bekannt.19 Letztlich bedeutet es, dass man beim Blick ins Internet nichts Neues mehr über die Welt lernt, sondern nur noch sich selbst sieht wie in einem Spiegel: Nachrichten, die von der Software auf Basis eingegebener oder durch Profiling bestimmter Präferenzen als interessant klassifiziert werden und / oder die die eigene Meinung bestärken. Das jeweils andere, das möglicherweise Überraschende und vorgefasste Meinungen Irritierende, würde von der Software ausgeblendet. Der Effekt wäre, dass wir gerade nicht irritiert und von Neuem überrascht werden, das vielleicht gar die auf der Basis vergangener Daten erzeugte Normalität und Weltvorstellung in Frage stellen könnte. Abhängig von den Grundeinstellungen der jeweiligen Medien würden wir von allem ferngehalten, was vorgefasste Meinungen erschüttern oder jedenfalls herausfordern könnte. In einem derartigen System wären die Individuen so etwas wie Endgeräte eines globalen Systems. Zwar würden sie sich als Individuen frei in ihrer Entfaltung fühlen; in der Realität aber, also in einer Beobachtung von außen, wäre die wahrgenommene nur eine vorgegaukelte Individualität, basierend auf Datenmengen aus der Vergangenheit, die jede Neuorientierung, jedes Lernen von Neuem, jede Persönlichkeitsentwicklung verhindern würden. Das Leben in der Blase einer vorgegaukelten Individualität wäre kollektiv durch die Algorithmen geregelt – die Film-Trilogie Matrix (1999) lässt grüßen. In einer gewissen Weise könnte man sagen, dass dies der Gipfel der Individualisierung sei: vollkommen in seiner eigenen Welt zu leben und von der Welt draußen nur das mitzubekommen, was in diese individuelle Welt passt. Hier 18  Dies ist erkennbar zugespitzt. Zum Glück sind vergangene Präferenzen auch heute nicht die einzigen Kriterien für individualisierte Werbung. Auch sind Kunden keine völlig homogene Zielgruppe. Aber die Zuspitzung erlaubt es, das Risiko der Entwicklung besser auf den Punkt zu bringen. 19  Vgl. Pariser (2011): The Filter Bubble.

44

Armin Grunwald

wäre die Leibnizʼsche Monade zuhause, eingeschlossen in sich selbst  – genauer: in ihre eigene Vergangenheit. Dass dies ein extrem verkürztes Bild von Individualität wäre, zeigt der nächste Abschnitt. 4. Reflexion: Individualität und Netz Die oben erzählte Geschichte erzeugt interessanterweise Unbehagen, obwohl man doch annehmen kann, dass die vermeintlichen Individuen in ihren Blasen glücklich sind, dass es ihnen subjektiv an nichts fehlt und sie sich bei einer demoskopischen Befragung sehr positiv über ihr Leben äußern würden. Dieses Unbehagen kann seinen Ursprung nur in einer normativen Quelle haben, die ein Urteil darüber erlaubt, dass bloß simulierte Individualität, in der eine individuell und intelligent erscheinende, aber doch letztlich algorithmisch funktionierende Aktivität kein zufriedenstellender Zustand sein kann. In der Tat hat der Begriff der Individualität zwei Seiten, eine deskriptive und eine normative: – Deskriptiv stellt sich die Frage, wie differenziert und divers eine Gruppe von Menschen in Bezug auf Lebensstile, Verhaltensmuster, Werte, Weltanschauungen und vieles mehr ist. Diese Differenzierung könnte man analog zur biologischen Biodiversität als kulturelle Diversität20 bezeichnen. Sie lässt sich empirisch messen, durch Befragungen oder Beobachtungen, es lassen sich statistische Aussagen machen und man kann die zeitliche Dynamik dieser Diversität untersuchen und nach ihren Ursachen fragen. Hier wird also menschliches Handeln und Verhalten in einer Beobachterperspektive nach Maßstäben der Individualität gedeutet. In einer Welt simulierter Individualität auf Basis vergangener Daten wäre eine derart empirische Individualität vermutlich sehr hoch. – Vom Standpunkt des oben bloß beobachteten Individuums aus sieht dies jedoch anders aus. Wenn dieses wüsste, dass seine Individualität nur durch Algorithmen simuliert wäre, könnte oder müsste Protest die Folge sein. Hintergrund eines Protestes wäre ein normatives Menschenbild, in dem Individualität als Teil, vielleicht sogar als Bedingung eines guten Lebens oder einer normativen Bestimmung gesehen wird. Hier geht es nicht um die Beobachtung von Handeln und Verhalten, sondern um ihren Vollzug.21 Es ist die ‚Ich-Perspektive‘, in der Individualität vollzogen wird und vollzogen können werden muss, damit von ihr substantiell gehaltvoll gesprochen werden kann. Die Differenz zwischen Beobachter- und Teilnehmerbzw. zwischen Berichts- und Vollzugsperspektive markiert die zentrale 20  Vgl. 21  Vgl.

UNESCO (2001): Allgemeine Erklärung zur kulturellen Vielfalt. Janich (2001): Logische Propädeutik.



Abschied vom Individuum

45

Unterscheidung. Da eine Reduktion auf die Beobachter- oder Berichtsperspektive nicht ohne Verlust möglich ist, geht die beobachtete Individualität als Diversität der Lebensvollzüge nicht in der vom Individuum aus normativ erwarteten Individualität auf. Die normative Seite der Individualität im Rahmen einer Vollzugsperspektive erlaubt, eine bloß vorgegaukelte Individualität als simuliert und damit als defizitär zu erkennen, während es in der Beobachterperspektive keinen Unterschied macht, ob eine beobachtete Vielfalt der Lebensvollzüge Ausdruck individueller Entscheidungen über die Art der Lebensführung oder bloß eine Vortäuschung eines recht intelligenten aber letztlich doch algorithmisch funktionierenden Systems ist. Auch wenn jede Form der Individualität eine Zuschreibung inmitten sozialer Kontexte ist, ist die Erfahrung von Individualität doch damit verknüpft, dass sie sich auf eine Kohärenz zwischen Berichts- und Vollzugsperspektive stützen kann, so schwer diese auch nachweisbar sein mag. Für das Thema der Individualität im Internet bedeutet dies, dass gefragt werden muss, wie es um das Verhältnis der Ich-Perspektive in der digitalen Vernetzung zur Berichts- bzw. Beobachterperspektive bestellt ist. Immanuel Kant postuliert Das: Ich denke, muß alle meine Vorstellungen begleiten können; denn sonst würde etwas in mir vorgestellt werden, was gar nicht gedacht werden könnte, welches ebensoviel heißt, als die Vorstellung würde entweder unmöglich, oder wenigstens für mich nichts sein.22

Hieran anknüpfend ist zu fragen, auf welche Weise eine Ich-Wahrnehmung als individuelles Wesen im Netz mit den Wahrnehmungen anderer Personen (Beobachter) korreliert, um eine bloße Vortäuschung von Individualität zu vermeiden. Nun kann in diesem Aufsatz nicht die Fülle der wissenschaftlichen, vor allem soziologischen und philosophischen Literatur zur Individualität aufgearbeitet werden. Lehrreich für das Thema der Individualität im digitalen Netz ist die Definition von Georg Simmel, wonach Individualität durch die Kreuzung sozialer Kreise entsteht.23 Motiviert wurde diese Beschreibung durch die Frage, wie sich in den zu Simmels Zeiten rasch wachsenden Großstädten mit ihren Massenphänomenen dennoch offenkundig phänomenologisch Individualität herausbilden konnte. Die Kreuzung sozialer Kreise ist auch ein gutes Bild für Vernetzung im Internet. Dieses vergrößert die Kreuzungsmöglichkeiten mit den Kreisen anderer um ein Vielfaches und schafft dadurch Möglichkeiten weiterer Individualisierung. Auf dieser abstrakt-metaphorischen Ebene gibt es keinen Widerspruch zwischen vermeintlicher Vermas22  Kant 23  Vgl.

(1990): Kritik der reinen Vernunft, Kap. 37, § 16. Simmel (1890): Sociale Differenzierung.

46

Armin Grunwald

sung im Internet, etwa mit Millionen von Mitgliedern im gleichen sozialen Netzwerk, und einer weiteren Steigerung der Möglichkeiten zur Individualisierung. Allerdings, und hier kommt die normative Seite der Individualität ins Spiel, falls die Kreise und die durch Kreuzungen entstehenden Verknüpfungen immer schon vorgegeben wären, sie bloß auf Basis von Profildaten aus der Vergangenheit berechnet würden, dann käme es nicht zu neuen Kreuzungspunkten. Sondern, wenn die Kreise und Kreuzungen vorsortiert sind, könnte man immer nur solche Kreise kreuzen, deren Profile zu den schon vorhandenen Kreuzungspunkten passen. Anders ausgedrückt: man würde auch im digital-globalen Netz immer nur diejenigen treffen, die man sowieso immer schon trifft, oder diejenigen, die die bisherigen Kreuzungspunkte nur bestätigen würden. Dies wäre eine dystopische Zukunft, in der Individuen vollkommen von ihren Blasen umschlossen wären. Blasen gibt es zwar auch schon in traditionellen Gesellschaften, aber dort bewegen sich Menschen durchaus noch außerhalb des Netzes. Das Problem wäre, wenn dieses ‚Sichaußerhalb-Bewegen‘ aufhören würde. Das Beharren auf der Notwendigkeit der Vollzugsperspektive in einem substantiell gehaltvollen Begriff von Individualität würde jedoch erfordern, dass, in Abhängigkeit von individuellen Entscheidungen über Präferenzen, Werte etc., auch Überraschungen, Störungen, Irritationen, Widerfahrnisse ermöglicht werden. Denn nur diese können eine gehaltvolle weitere Individualisierung ermöglichen, weil nur sie qualitativ neue Kreuzungspunkte erlauben. Ob es angesichts von Überraschungen dann wirklich dazu kommt, hängt vom Einzelfall ab und dürfte real vielleicht gar nicht so oft passieren. Umgekehrt jedoch, wenn es keine Überraschungen gibt, ist die Bedingung der Möglichkeit des Entstehens neuer Kreuzungspunkte nicht erfüllt. Dann verbleibt das Individuum in einer Blase aus Daten der Vergangenheit. Das Fazit lautet also: Der Erhalt der Individualität im Netz sowie erst recht eine weitere Individualisierung bedürfen des Offenhaltens oder der Eröffnung von Räumen des Neuen und damit des Unbequemen – gegen alle Bequemlichkeit. 5. Zukünfte des Individuums Der Kern der Bedrohung von Individualität im Netz scheint damit die menschliche Bequemlichkeit zu sein. Sich mit Neuem auseinanderzusetzen, Überraschungen und Irritationen zuzulassen und sich mit Widerfahrnissen abzuplagen, erfordert Anstrengung. Demgegenüber verspricht das Internet das Ablesen der Wünsche von unseren Augen und die sofortige Erfüllung, etwa in den Utopien des ubiquitous computing nahe an den Erzählungen vom Schlaraffenland. Die Verlockungen steigen, sich in eine Blase zu begeben, in



Abschied vom Individuum

47

der man immer nur selbst bestätigt wird und sich nicht mehr an den Anderen reiben muss. Der berühmte Satz von Jean-Paul Sartre, die Anderen seien die Hölle, wird gegenstandslos, weil in diesem Gedankenexperiment die Anderen in ihrer Andersartigkeit mit ihren Zumutungen in meiner Welt nicht mehr vorkommen, sondern in einer eigenen Blase glücklich vor sich hin leben. Das Risiko besteht in einer einvernehmlichen Konformisierung der Individuen in einem System, in dem die Konformität so perfekt verborgen bleibt, dass sie gar als Gipfel der Individualisierung erscheint. Ob eine solche Erzählung in der Zukunft eintreten wird, kann heute niemand beurteilen. Was sie jedoch zeigt ist, dass Individualität keine Errungenschaft ist, auf der man sich ausruhen kann, und dass Individualisierung in einem vollen, die normative Dimension einschließenden Verständnis, kein von selbst weitergehender Trend ist. Stattdessen muss, wie bei kulturellen Errungenschaften üblich, auch Individualität stets neu erworben, angeeignet und weiterentwickelt werden. Ob wir zu Endgeräten eines global-digitalen Netzes werden, hängt letztlich von uns selbst ab. Entsprechende Risiken zu reflektieren und dafür zu sensibilisieren, ist eine Aufgabe der philosophischhermeneutischen Seite der Technikfolgenabschätzung.24 Bibliografie Adorno, Theodor W./Horkheimer, Max: Dialektik der Aufklärung. Amsterdam 1947. Banse, Gerhard u. a.: Netzöffentlichkeit und digitale Demokratie. Tendenzen politischer Kommunikation im Internet. Berlin 2006. Beck, Ulrich/Beck-Gernsheim, Elisabeth: Riskante Freiheiten  – Gesellschaftliche Individualisierungsprozesse in der Moderne. Frankfurt/M. 1994. Bullinger, Hans-Jörg: Technikfolgenabschätzung – Wissenschaftlicher Anspruch und Wirk­lichkeit. In: Kornwachs, Klaus (Hg.): Reichweite und Potential der Technikfolgenabschätzung. Stutt­gart 1991, S. 103–114. Castells, Manuel: The Rise of the Network Society. London 2010. Elias, Norbert: Die Gesellschaft der Individuen. Frankfurt/M. 2001. Grunwald, Armin: Von Technikfolgenprognosen zur hermeneutischen Perspektive. Metamorphosen der Technikfolgenabschätzung. In: Friedrich, Volker (Hg.): Festschrift zum 70. Geburtstag von Klaus Kornwachs (in Vorbereitung). ‒ Technikzukünfte als Medium von Zukunftsdebatten und Technikgestaltung. Karlsruhe 2012. ‒ Technikfolgenabschätzung. Eine Einführung. Berlin 2010. 24  Vgl. Grunwald (in Vorbereitung): Von Technikfolgenprognosen zur hermeneutischen Perspektive.

48

Armin Grunwald

Janich, Peter: Logische Propädeutik. Weilerswist 2001. Kant, Immanuel: Kritik der reinen Vernunft. Hamburg 1990. Marx, Karl/Engels, Friedrich: Das Kommunistische Manifest. Eine moderne Edition. Mit einer Einleitung von Eric Hobsbawm. Hamburg/Berlin 1999. Papst Franziskus: Apostolisches Schreiben EVANGELII GAUDIUM, Zweites Kapitel I. 53 (2016). URL: https://w2.vatican.va/content/francesco/de/apost_exhortations/ documents/papa-francesco_esortazione-ap_20131124_evangelii-gaudium.html (zu­ letzt eingesehen am 06.04.2017). Pariser, Eli: The Filter Bubble: What the Internet Is Hiding from You. New York 2011. Simmel, Georg: Über sociale Differenzierung. Leipzig 1890. URL: www.deutschestextarchiv.de/book/show/simmel_differenzierung_1890 (zuletzt eingesehen am 06.04.2017). UNESCO: Allgemeine Erklärung zur kulturellen Vielfalt (2002). URL: http://www. unesco.de/infothek/dokumente/unesco-erklaerungen/erklaerung-vielfalt.html (zuletzt eingesehen am 06.04.2017). Voß, G. Günter/Pongratz, Hans J.: Der Arbeitskraftunternehmer. Eine neue Grundform der Ware Arbeitskraft? In: Kölner Zeitschrift für Soziologie und Sozialpsychologie, H. 1 (1998), S. 131–158.

Privatheit als Gemeinwohl Vertrauen und Sicherheit in digitalen Gemeinschaften Benjamin Heurich 1. Einleitung Die Digitalisierung zeichnet sich durch abrupte und disruptive technologiegetriebene Veränderungen aus, die gesellschaftliche und kulturelle Bedingungen von Gemeinschaftlichkeit neu ordnen. Diese Neustrukturierung erzeugt Risiken und ruft in den Menschen ein entsprechend unbeständiges Ablehnungs- und Adaptionsverhalten in Bezug auf neue technologische Entwicklungen hervor. Innerhalb dieser Gesellschaftsdynamik ist es daher schwer, einen festen privatheitssensiblen Bereich zu identifizieren, den es vor dem Eingriff Dritter zu schützen gilt. Um jedoch einen Anhaltspunkt für das Verständnis sozialen Miteinanders in der Digitalität zu generieren, macht sich der vorliegende Artikel zur Aufgabe, die Regelhaftigkeit der angesprochenen Dynamik auf einer abstrakten Ebene herauszuarbeiten und darzulegen, wie sich Einheit und Sozialität mittels Vertrauen generieren lässt.1 Der Artikel widmet sich der Frage, wie Internetnutzerinnen und -nutzer der ständigen technologiegetriebenen Unsicherheit begegnen und wie sie über einen Balanceakt zwischen Vertrauensbildung und Risikobereitschaft zukunftsgerichtetes und eigenverantwortliches Handeln in privatheitssensiblen Bereichen einer globalen Gesellschaft ermöglichen. Die Aushandlung mündet in den Versuch, menschliches Vertrauen innerhalb digitaler Netzwerkstrukturen als konstitutiven Bestandteil zweckgebundenen Handelns in einer technologisierten Umwelt zu identifizieren, auf dem sich letztendlich ein gemeinschaftliches Wohl begründen lässt. Die für dieses Bestreben zielführendste Auslegung eines Gemeinwohls2 stammt aus der Managementtheorie 1  Vgl.

Luhmann (2014): Vertrauen, S. 22. sich in der Privatheitsliteratur noch kein einheitlich definierter Wert von Privatheit für eine globale Gesellschaft finden lässt, ist sicherlich der Aktualität, Brisanz und dem globalen Kontext des Diskurses geschuldet. In der englischsprachigen Literatur finden sich jedoch unter den Stichworten ‚public value‘ oder ‚common value‘ einige Ansätze, die sich aber vor allem mit dem Wert von Privatheit für kollektive demokratische Prozesse auseinandersetzen. S. u. a. Kasper (2007): Privacy as a 2  Dass

50

Benjamin Heurich

und entwirft, in Anlehnung an Immanuel Kant, einen Wert für eine Gemeinschaft am Leitbild einer ‚regulativen Idee‘. Indem informationelle Privatheit im Folgenden als Gemeinwohl verstanden wird, soll zum einen der operativen Geschlossenheit psychischer Bewusstseinssysteme der Menschen, also deren selbstreflexive Auseinandersetzung mit der Umwelt, Rechnung getragen werden und zum anderen das Streben der Mitglieder einer globalen Informationsgesellschaft nach kommunikativer Teilhabe in Selbstbestimmung und Eigenverantwortlichkeit erkennbar gemacht werden. Die auf das Individuum zugespitzte Perspektive trägt damit der aktuellen Tendenz im Privatheitsdiskurs Rechnung, die zum einen ein soziales Handeln der Individuen in Eigenverantwortung und Selbstbestimmung fordert, zum anderen aber den Wert informationeller Privatheit vor allem im zwischenmenschlichen und sozialen Kontext der digitalen Gesellschaft erkannt zu haben scheint.3 Um dieser Janusköpfigkeit begegnen zu können, bedient sich die vorliegende Arbeit dem systemtheoretischen Vertrauensbegriff. Niklas Luhmann erkennt die gleichwertige Zusammensetzung von Vertrauen auf einer psychologischen Bewusstseinsebene und einer sozialen Interaktionsebene.4 Nicht zuletzt aufgrund der durch die Digitalisierung geförderten Frequenz zwischenmenschlicher Kommunikation findet die soziologische Systemtheorie zusätzlich Anwendung.5 Für Luhmann produziert und reproduziert Kommunikation Gesellschaft als „historisch-konkret ablaufendes, also kontextabhängiges Geschehen“,6 welches sich von moralischen Implikationen löst.7 Hier knüpfen dann zentrale Aussagen des Konzepts der ‚kontextuellen Integrität‘ (contextual integrity) von Helen Nissenbaum an, mit welchem sie versucht, ein Rahmenwerk zur Einordnung vergangener, gegenwärtiger und zukünftiger Social Good; Regan (2015): Privacy and the Common Good; Hughes (2015): The Social Value of Privacy. 3  Mehrheitlich wird aktuell neben dem individuellen Schutz von Privatheit vor allem die Bedeutung von Privatheit für ein Kollektivbewusstsein betont. Erst im sozialen, intersubjektiven Kontext entwickelt sich hiernach ein gemeinsamer, öffentlicher oder auch kollektiver Wert von Privatheit. Umfassend dazu: Roessler / Mokrosinska (2015): Social Dimensions of Privacy. 4  Vgl. Luhmann (2014): Vertrauen, S. 11. 5  Neben der offensichtlich notwendigen Reduktion von Komplexität durch die Ausdifferenzierung sozialer Systeme in der heutigen Informationsgesellschaft, ist hier eine weitere Prämisse der Systemtheorie äußerst zielführend. Luhmann geht davon aus, dass die Reduktion der äußeren Komplexität der Welt auch „intersubjektiv übereinstimmend erfolgen [kann] und dann zu Erkenntnissen [führt], die sozial garantiert sind und deshalb als ‚wahr‘ erlebt werden.“ S. Luhmann (2014): Vertrauen, S. 49. 6  Luhmann (1997): Die Gesellschaft der Gesellschaft, S. 70. 7  Luhmann entfernt sich aufgrund der zu großen Relativierbarkeit moralischer Aspekte von derartigen Einordnungen. Vgl. Luhmann (1984): Soziale Systeme, S. 121– 122.



Privatheit als Gemeinwohl

51

Herausforderungen für den Schutz informationeller Privatheit zu entwerfen.8 Beide Ansätze sind daher dem Bestreben dieser Arbeit zuträglich, den technologiegetriebenen Modernisierungsprozessen im Zuge der Digitalisierung auf einer objektiv neutralen Ebene zu begegnen.9 Allem zugrunde liegen verschiedene soziologische Ansätze, die sich mit Modernisierungsprozessen in der Gesellschaft auseinandergesetzt haben und anhand derer die Digitalisierung ebenso als Prozess greifbar gemacht werden kann. Ausgangspunkt der folgenden Überlegungen ist das heuristische Konzept der reflexiven Moderne.10 Dieses beschreibt die Dynamik moderner Gesellschaften als Entbettung (disembedding) sozialer Systeme, also als ein Herauslösen sozialer Beziehungen aus lokalen Kontexten der Interaktion, und deren Restrukturierung (re-embedding) mittels sozialer Mechanismen über unbegrenzte RaumZeit-Zusammenhänge hinweg.11 Die Struktur der vorliegenden Arbeit kann in dieser skizzierten Abfolge dargestellt werden: Zunächst wird auf aktuelle privatheitssensible Problematiken und Herausforderungen im Zuge der Digitalisierung eingegangen, im weiteren Verlauf werden die notwendigen Komponenten für den Rückkopplungsprozess identifiziert und abschließend in den heutigen digitalen Gesellschaftskontext eingepasst. 2. Chaos, Risiko und Überkomplexität durch Modernisierung Die Welt ist nach Luhmann kein System, weil sie keine Grenzen hat und demnach auch keine Umwelt.12 Sie ist vollständig in ihrer internen Komplexität, in der sich alle Möglichkeiten des menschlichen Zusammenlebens 8  Vgl. Nissenbaum (2014): Privacy in Context, S. 16. Nissenbaum stellt zudem den Mehrwert einer Einordnung von Privatheit heraus, die sich von normativen Wertungen so gut es geht entfernen kann. Vgl. Nissenbaum (2014): Privacy in Context, S. 68–69. 9  Normative Tendenzen im folgenden Text sind zum einen dem systemtheoretischen Vokabular geschuldet oder rühren aus der Einfärbung des Privatheitsdiskurses, der als Teil der Digitalisierungsdebatte hauptsächlich „abwechselnd kulturpessimistisch rückwärtsgewandt oder technoromantisch verzückt geführt“ wird. Siehe dazu Urchs / Cole (2013): Digitale Aufklärung, S. 43. 10  Die beiden Hauptvertreter des heuristischen Konzepts der ‚Reflexiven Moderne‘, die Soziologen Anthony Giddens und Ulrich Beck, sehen aktuell eine ‚zweite Moderne‘ entstehen, in der sich eine Weltgesellschaft herausbildet, die sich an einem Fortschrittsgedanken orientiert, der sich zwischen der ersten, industriellen Moderne und den relativistischen Implikationen der Postmoderne verortet. Damit nimmt Wissen und Risikominimierung eine entscheidende Funktion in der gesellschaftlichen Dynamik ein. Siehe dazu Beck (1986): Risikogesellschaft. Auf dem Weg in eine andere Moderne; Giddens (1997): Die Konstitution der Gesellschaft: Grundzüge einer Theorie der Strukturierung. 11  Vgl. Giddens (1990): The Consequences of Modernity, S. 21. 12  Vgl. Luhmann (2014): Vertrauen, S. 11.

52

Benjamin Heurich

darstellen. Die Möglichkeiten für menschliches Erleben ergeben sich stets nur in der Welt und mit der in ihr enthaltenen unendlichen Komplexität.13 Aufgrund dieser immensen Komplexität gibt es stets mehr Möglichkeiten zu handeln, als der Mensch realisieren kann. Luhmann hält zudem den Prozess der Globalisierung bereits für abgeschlossen und spricht von einer Weltgesellschaft, die sich durch die Auflösung regionaler Grenzen und die fortschreitende Entwicklung neuer Kommunikationsformen in den letzten Jahrzehnten ausdifferenziert hat.14 Die angesprochene Überkomplexität wird durch die Weltgesellschaft und der von ihr verwendeten Technologie interdependent co-konstruiert.15 Folgt man diesem Kontingenzprinzip und setzt einen Status ständiger Beobachtbarkeit voraus, kann das Internet in seiner Netzwerkstruktur als eine Abbildung eben dieser Weltgesellschaft dargestellt werden, in der Kommunikation über alle regionalen Grenzen hinweg möglich ist und Realität immer schon medial konstruiert wird.16 Innerhalb dieser Struktur bildet sich eine soziale Ordnung, deren Bewahrung hauptsächlich von der Beständigkeit der Erwartungshaltungen aller beteiligten Akteure abhängt. Die chaotische, globale Vernetzung, gepaart mit disruptiven Technologien und der fortschreitenden Entwicklung künstlicher Intelligenz, ordnen die bisherigen sozialtheoretischen Strukturen, Routinen und Konventionen jedoch grundlegend neu und beeinflussen damit die Verlässlichkeit persönlicher Erwartungen an zukünftige Ereignisse. In Anlehnung an Anthony Giddens kann diese Entwicklung so beschrieben werden, dass dem Menschen durch die Digitalisierung und den ständigen Prozessen der Entbettung sozialer Systeme tradierte und vertraute Orientierungspunkte abhandengekommen sind, anhand derer sich bisher Gemeinschaftlichkeit herstellen ließ, um den angesprochenen Dynamiken als Kollektiv wirkungsvoll und reflektiert be-

13  Luhmann beschreibt diese Unendlichkeit damit, dass die erfahrbare Welt an sich kein System ist, weil sie keine Grenze ziehen kann. Dadurch ist sie Ordnung und Chaos zugleich, in welcher sich der Mensch zurechtfinden muss. Die Innenansicht der Welt zeigt sich „durch ihre raum-zeitlich sich entfaltende Komplexität, durch die unübersehbare Fülle ihrer Wirklichkeiten und ihrer Möglichkeiten, die eine sichere Einstellung des Einzelnen auf die Welt ausschließt.“ Luhmann (2014): Vertrauen, S. 11. 14  Vgl. Luhmann (1997): Die Gesellschaft der Gesellschaft, S. 59 u. S. 151 f. 15  Vgl. Regan (2015): Privacy and the Common Good, S. 51. 16  Die einleitenden Worte Luhmanns bei seinem Vortrag an der Akademie der Wissenschaften in Düsseldorf im Jahr 1994 haben sich mit fortschreitender Digitalisierung immer weiter bewahrheitet: „Was wir über unsere Gesellschaft, ja über die Welt, in der wir leben, wissen, wissen wir durch die Massenmedien“. Luhmann (1996): Die Realität der Massenmedien, S. 9. Im Zuge der Digitalisierung hat sich aus dem Verbund der Worte ‚digital‘ und ‚Realität‘ auch der Begriff ‚Digitalität‘ entwickelt.



Privatheit als Gemeinwohl

53

gegnen zu können.17 Für Giddens geht damit der Verlust einer Art Urvertrauen in eine ontologische Sicherheit18 einher, die sich grundsätzlich an der Kontinuität der Selbstidentität und der Konstanz der sie umgebenden Strukturen der sozialen Welt orientiert. Für das Individuum sind Modernisierungsdynamiken daher hauptsächlich von Chaos19 und Risiko20 geprägt; zwei Zustände, die durch Überkomplexität und die unüberschaubare und nicht nachvollziehbare Vernetzung kommunikativer Prozesse im Bewusstsein der Menschen erzeugt werden.21 Zum einen befindet sich der Mensch in einer Verfassung ständigen Misstrauens,22 weil durch die Orientierung an zukünftigen Risiken, also dem ständigen Bestreben zur Minimierung selbiger, „etwas Nichtexistentes, Konstruiertes, Fiktives [zur] Ursache gegenwärtigen Erlebens und Handelns“23 wird. Zum anderen treten die Mitglieder der digitalen Gesellschaft in eine nachhaltige interkulturelle Neuaushandlung sozialer Normen ein, die sich jedoch mit der ansteigenden Zahl an Kommunikationsteilnehmenden, die ihre eigenen Überzeugungen und Wahrheitswerte transportieren, als immer anspruchsvoller erweist. Da es sich somit bei dieser Aushandlung um die „kommunikative Verwendung propositionalen Wis­ sens“24 handelt, kann hier mit Bezug auf Jürgen Habermas auf den Begriff der kommunikativen Rationalität verwiesen werden. Diese ermögliche es den Kommunikationsteilnehmenden, so Habermas, ihre „subjektiven Auffassungen“ zum Wohl einer gemeinschaftlichen Zielorientierung zu überwinden und sich „gleichzeitig der Einheit einer objektiven Welt und der Intersubjek-

17  Vgl.

Giddens (1990): The Consequences of Modernity, S. 16–17. Giddens beschreibt ‚ontologische Sicherheit‘, neben dem Vertrauen in die eigene Identität, als zusätzliche Erwartung an die Konstanz der umliegenden Sozialwelt. Das Bewusstsein der gesellschaftlichen Akteure wird bei Modernisierungsprozessen vor immer neue Herausforderungen gestellt, da sich bei diesen nicht nur eine Desorientierung des Individuums vollzieht, sondern der Bezug zur Realität, zu Objekten und Personen zum Teil vollständig verloren geht. Vgl. Giddens (1991): Modernity and Self-Identity, S. 35–37. 19  Aus der Sicht der Kybernetik beschreibt Chaos die nicht-linearen Verbindungen zwischen Input und Output. In einer solchen Verbindung von allem mit allem kann kein Vertrauen existieren, weil es keine anderen Systeme als Umweltstruktur gibt und damit keine Kommunikation. Vgl. Luhmann (2014): Vertrauen, S. 58. 20  Risiko beschreibt eine ereignishafte Entscheidungsfindung, die nicht auf vollständige Informationen zurückgreifen kann und über kein Wissen bezüglich der Wirkweise und Reichweite der verwendeten Kommunikationsmechanismen verfügt. Dabei ist Risiko immer selbstbezogen und nicht mit Gefahr zu verwechseln, die sich stets in der Umwelt generiert. Vgl. Luhmann (1990): Soziologische Aufklärung 5, S. 134. 21  Vgl. Luhmann (2014): Vertrauen, S. 9. 22  Vgl. Luhmann (2014): Vertrauen, S. 32. 23  Beck (1986): Risikogesellschaft, S. 44. 24  Habermas (1981): Theorie des kommunikativen Handelns, S. 28. 18  Anthony

54

Benjamin Heurich

tivität ihres Lebenszusammenhangs [zu] vergewissern“.25 Nun lässt sich argumentieren, dass sich eine global vernetzte Gesellschaft mit fortschreitender Entbettung ihrer sozialen Systeme immer mehr von dieser phänomenologischen Konsensorientierung entfernt, da Einheitlichkeit in einer objektiven Welt für eine Kommunikationsgemeinschaft immer schwieriger herzustellen ist, auf der sich letztendlich kommunikative Praxis beziehen kann.26 Zu groß ist die Informationsfülle, zu facettenreich sind die Meinungen und kulturspezifischen Einflüsse und zu unverständlich sind die technologischen und mathematischen Kommunikationsstrukturen, die eine zwanglose und argumentationsgeleitete Teilhabe an gesellschaftlichen Prozessen überhaupt erst ermöglichen sollen. Informelle und pragmatische Gemeinschaften sowie die Zugehörigkeit zu Netzwerken werden daher immer wichtiger und notwendiger, um sich zur Minimierung von Risiken an einer sozialen Ordnung orientieren und damit der anwachsenden Umweltkomplexität und chaotischen Vernetzung begegnen zu können. In diesen Gemeinschaften werden die notwendigen Gültigkeitsbedingungen symbolischer Äußerungen geschaffen, die auf ein intersubjektiv geteiltes Hintergrundwissen verweisen und somit Interaktionssysteme entstehen lassen können.27 Um aber mit fortschreitenden Modernisierungsprozessen nicht nur Schritt halten, sondern auch technologischen und gesellschaftlichen Fortschritt gewährleisten zu können, ist es notwendig, robuste Wissensbestände und Erfahrungswerte zu schaffen, mit denen auch zukünftig auftretenden Risiken begegnet werden kann.28 Dazu ist es jedoch notwendig sich in der gegenwärtigen sozialen Ordnung zu verorten und sich mit Missständen in vertrauten Kontexten auseinanderzusetzen. Ulrich Beck spitzt diesen Prozess, der im Folgenden genauer analysiert werden soll, wie folgt zu: „Erlebte Risiken setzen einen normativen Horizont verlorener Sicherheit, gebrochenen Vertrauens voraus.“29 3. Vertrauen in die Zukunft Ein einheitliches und unumgängliches Festhalten an einer natürlichen oder sozialen Ordnung bildet die Basis vieler soziologischer Theorien, die sich in der Konsequenz mit dem Thema ‚Vertrauen in sozialen Beziehungen‘ auseinandergesetzt haben. Luhmann sieht Vertrauen als ein Mittel an, Handlungsund Entscheidungssituationen in ihrer Komplexität auf ein Maß zu reduzie25  Habermas

(1981): Theorie des kommunikativen Handelns, S. 28. Habermas (1981): Theorie des kommunikativen Handelns, S. 31–33. 27  Vgl. Habermas (1981): Theorie des kommunikativen Handelns, S. 32. 28  Vgl. Beck (1986): Risikogesellschaft, S. 31. 29  Beck (1986): Risikogesellschaft, S. 37. 26  Vgl.



Privatheit als Gemeinwohl

55

ren, in welchem das Individuum effektiv und zukunftsorientiert agieren kann.30 Vertrauen dient daher für Luhmann, in Anlehnung an Georg Simmel, als wichtigste Motivation bei der Initiierung sozialen Austauschs.31 Dieser Austausch findet nach Simmel selbstreferentiell, also zwischen „individuellen Seelen“32 statt. Somit erkennen Menschen nie das exakte und vollständige Abbild einer Persönlichkeit anderer Akteure.33 Im gleichen Zusammenhang hält auch Luhmann jegliche Sinnherstellung zwischen operativ geschlossenen psychischen Sinnsystemen für „anonym konstituiert“, da kein Beobachter Zugang zu den Bewusstseinsvorgängen der Menschen besitzt.34 In der Konsequenz lassen sich also auch Risiken niemals durch Vertrauen in eine Person vollständig eliminieren, weil man keine vollständigen Informationen über das zu erwartende Verhalten anderer Personen erlangen kann. Das Gegenüber ist immer nur ein anderes Ich, das dasselbe erlebt, sich jedoch von dem distanzieren kann, was man persönlich als wahr empfindet.35 Vertrauen bildet sich somit nicht zu einer Person, sondern nur zu einer Erwartungshaltung und dem Erlebbaren. Luhmann problematisiert Vertrauen in Bezug auf Zeitlichkeit noch weiter damit, dass die „Zukunft sehr viel mehr Möglichkeiten enthält, als in der Gegenwart realisiert und damit in die Vergangenheit überführt werden können“.36 Auf diese Weise hält die Zukunft viel mehr Risiken bereit als dem Individuum zu einem gegenwärtigen Zeitpunkt bewusst sein kann. Luhmann stimmt somit mit Beck überein, wenn er Risikominimierung und Komplexitätsreduktion für das konstitutive Element einer fortschrittsfördernden Dynamik moderner Gesellschaften hält.37 Mit diesem Fokus auf den Umgang mit zukünftigen Risiken wird deutlich, dass die Herstellung von Vertrauen vor allem ein komplexer psychologischer Prozess ist, den Menschen in Zeiten anstoßen, in denen die ontologische Sicherheit nicht mehr gewährleistet ist. Diese Übergangssituationen sind zu30  Vgl. Luhmann (2014): Vertrauen, S. 99 f. Neben dem Vertrauen sieht Luhmann ebenso den adäquaten Umgang mit Misstrauen als Möglichkeit, Systemhandlungen anzuregen. S. Luhmann (2014): Vertrauen, S. 135. 31  Vgl. Simmel (1908): Soziologie, S. 263. 32  Simmel (1908): Soziologie, S. 28. 33  In seinem Exkurs beantwortet er in Anlehnung an den kantischen Subjektbegriff die Frage: ‚Wie ist Gesellschaft möglich?‘. Vgl. Simmel (1908): Soziologie, S. 27–45. 34  Luhmann (2014): Vertrauen, S. 105. Hier wird zudem deutlich, dass Vertrauen und Misstrauen nicht als ‚universelle Einstellung‘ in einer Gesellschaft dienen können, sondern sich immer nur subjektiv herstellen lassen. Der Übergang von Misstrauen in Vertrauen beispielsweise obliegt einzig und allein dem Einzelmenschen. Vgl. Luhmann (2014): Vertrauen, S. 105–107. 35  Vgl. Luhmann (2014): Vertrauen, S. 22–23. 36  Luhmann (2014): Vertrauen, S. 22. 37  Vgl. Beck (1986): Risikogesellschaft, S. 29–31.

56

Benjamin Heurich

meist technologiegetrieben und dadurch geprägt, dass das Vertrauen, der Glaube an die Berechenbarkeit des Handelns und der sozialen Verhältnisse, nicht sicher vorgegeben ist und daher von den Akteuren aktiv hergestellt werden muss. Luhmann zieht in Bezug auf Vertrauen und Berechenbarkeit des Handelns eine Grenze und macht deutlich, dass es „Sicherheit in Bezug auf das Nichteintreten künftiger Nachteile gar nicht gibt“38 und hält den Sicherheitsbegriff soziologisch gesehen für eine „soziale Fiktion“.39 So könne man beispielsweise „einem Souverän […] nicht vertrauen“,40 da dieser in seiner Entscheidungsgewalt seine eigenen Normen entwirft; nur deren Einhaltung könne man von individueller Seite vertrauen, aber niemals vollständig sicher sein.41 Es lässt sich beispielsweise nicht grundsätzlich verhindern, dass ein Facebook-Post mit einem ausschweifenden Partyfoto Konsequenzen für das persönliche Arbeitsleben haben kann. Man kann nur darauf vertrauen, dass die oder der Vorgesetzte stets die Systemgrenzen des Unternehmens beachtet und der geteilten Information somit entsprechende Kontextrelevanz zuweist. Erfährt ein Gesellschaftsmitglied entgegen der Erwartungen arbeitsplatzrelevante Konsequenzen, hat dies unter Umständen eine Verhaltensänderung zur Folge. Diese wird zwar durch Misstrauen in eine zukünftig mögliche Gegenwart initiiert, ändert jedoch nichts an der gegenwärtigen Handlungskontingenz; es besteht stets nur die Möglichkeit der Mitteilung oder NichtMitteilung des Posts. An dieser Stelle handelt es sich daher nur um die gegenwärtige Beobachtbarkeit und nicht die moralische Einordnung der Frage, ob oder wie der oder die Vorgesetzte, als Bestandteil des Wirtschaftssystems, auf die geteilte Information zu reagieren habe. Dass aber in diesem Fall ein digitaler Kommunikationsakt die angesprochene Reaktion überhaupt nach sich ziehen könnte, ist ein Indiz für einen gesellschaftlichen Modernisierungsprozess, der mit dem Anstieg quantitativer sowie qualitativer Kommunikationsformen auch weitere Risiken mit sich gebracht hat. 4. Vertrautheit mit der Gegenwart Am vorangegangenen Beispiel wird deutlich, welche Grenzen der Vertrauensbildung gesetzt sind. In Abgrenzung zum Vertrauen spricht Luhmann daher von Vertrautheit, also von der Möglichkeit, überhaupt etwas relativ sicher erwarten zu können.42 So ist Vertrautheit keine Kategorie zur Einordnung einer Erwartungshaltung, sondern lediglich die Voraussetzung sowohl für 38  Luhmann

(1990): Soziologische Aufklärung 5, S. 134. (1990): Soziologische Aufklärung 5, S. 134. 40  Luhmann (2014): Vertrauen, S. 79. 41  Vgl. Luhmann (2014): Vertrauen, S. 78–80. 42  Vgl. Luhmann (2014): Vertrauen, S. 31. 39  Luhmann



Privatheit als Gemeinwohl

57

Vertrauen als auch für Misstrauen.43 Damit ist noch keine ordnende Vorleistung für gute oder schlechte Operationen eines Systems getroffen, sondern es besteht nur eine Einigung, auf welchem Weg diese qualitative Einordnung vorgenommen werden kann. Über die Vertrautheit mit gesellschaftlichen Prozessen werden günstige und gefährliche Lebenssituationen erkannt und in persönliche Entscheidungssituationen miteinbezogen.44 Im oben genannten Beispiel entstand über ein unerwartetes Ereignis Misstrauen gegenüber dem Verhalten eines oder einer Vorgesetzten. Hier wird deutlich, dass in vertrauten Situationen grundsätzlich Vergangenes über Gegenwärtiges herrscht.45 Luhmann macht in dieser Hinsicht deutlich, dass neben der Vertrautheit auch Vertrauen stark von den erfahrungsbasierten Wissensbeständen der Gesellschaftsmitglieder abhängt.46 Aber Vertrauen wird nicht erzeugt, weil man aus vergangenem Wissen auf zukünftige Ereignisse schließt, sondern es „überzieht die Informationen, die es aus der Vergangenheit besitzt und riskiert eine Bestimmung der Zukunft“.47 Es eignet sich jedoch nur diese Art Wissen für die Minimierung zukünftiger Risiken, dessen Anwendung und Wertigkeit in der Zukunft anhält. Sich aber gerade im Zuge der Digitalisierung auf Vergangenes zu verlassen, ist wenig zielführend, da weder die digitalisierte Struktur und Funktionsweise des Internets, noch die Kommunikationsteilnehmenden kulturell, gesellschaftlich oder intentional sicher in zukünftige Entscheidungssituationen einzuordnen sind. So musste das Ereignis einer arbeitsrelevanten Konsequenz eines Partyfotos zunächst erstmalig eintreten, bevor es von der betroffenen Person und im Anschluss von den Nutzerinnen und Nutzern sozialer Netzwerke generell als Risiko erkannt und in der Gesellschaft neu ausgehandelt werden konnte. Beck spricht bei diesem Vorgang auch von der Identifikation „sozial anerkannte[r] Risiken“.48 Bezogen auf die eingangs erwähnte Überkomplexität kann hier festgehalten werden, dass die Ereignisse (Post eines Partyfotos / Konsequenz am Arbeitsplatz) zwar durch die Ausdifferenzierung der Systeme voneinander getrennt sind, aber durch die Digitalisierung ein kausaler Zusammenhang dieser Ereignisse möglich gemacht wurde. Das fehlende Wissen um diese Art Zusammenhänge lädt die Dynamiken der reflexiven Moderne mit immer neuen Risiken auf. Als erste Feststellung mit Bezug zur Privatheit wird damit 43  Vgl.

Luhmann (2014): Vertrauen, S. 35. Luhmann (2014): Vertrauen, S. 31. 45  Vgl. Luhmann (2014): Vertrauen, S. 32. 46  Wie Simmel hält auch Luhmann Vertrauen für eine „Mischung aus Wissen und Nicht-Wissen“. S. Luhmann (2014): Vertrauen, S. 39. Auch Simmel beschreibt Vertrauen in Anlehnung an ‚einen Glauben an etwas‘ auch als „schwaches induktives Wissen“. S. Simmel (1907): Die Philosophie des Geldes, S. 165. 47  Vgl. Luhmann (2014): Vertrauen, S. 32. 48  Beck (1986): Risikogesellschaft, S. 31. 44  Vgl.

58

Benjamin Heurich

deutlich, dass die Vergangenheit die Gegenwart bei der Identifikation privatheitssensibler Bereiche auch ‚verharmlosen‘ kann.49 Die Menschheit verlässt sich grundsätzlich auf das Bewährte, weil „die Geschichte ihr wichtigstes Mittel der Reduktion von Komplexität“50 ist. Dies erklärt, dass die Rückgriffe vieler Menschen auf Erfahrungen und Wissensbestände im Zuge der Digitalisierung ins Leere gehen, weil die technologischen Errungenschaften und die ständige Beobachtbarkeit im Netz die Verbindung zu tradierten Werten und Normen auflösen und Grenzen verschwinden lassen. Durch eingebüßte Vertrautheit mit veränderten sozialen Bedingungen geht in der Gegenwart Bestandssicherheit verloren, die festlegt, wie sicher und nachhaltig die Menschen der modernen Schnelllebigkeit begegnen können.51 Damit der Mensch sich mit einer aktuellen Entscheidungssituation auseinandersetzen kann, muss er sich mit der gegenwärtigen Organisation (s)eines sozialen Systems, also dessen innerer Komplexität und der Anordnung der inneren Zweck-Mittel-Beziehungen vertraut machen.52 Das in vertrauten Bereichen hergestellte Vertrauen stellt dann keine interne Struktur zur Reduktion von Komplexität zur Verfügung, sondern bezeichnet eine erhöhte Wirksamkeit des Systems, indem es seine Grenzen ausdehnt.53 Durch Vertrauen werden von vornherein gewisse Interaktionen und Operationen als risikolos eingestuft und als eine bereits fest bestimmte Zukunft in das System integriert. Damit wird dem Bewusstsein ein Werkzeug an die Hand gegeben, mit dem die „technisch erzeugte Komplexität der Zukunft ertragen werden kann“54 und eine beständige Herstellung von Sicherheit ermöglicht, ohne auf die für ein soziales System überlebenswichtige Komponente zu verzichten: Kommunikation. 5. Kommunikation als Fundament sozialen Handelns Nun gäbe es bei dem skizzierten Beispiel zahlreiche Möglichkeiten, die Konsequenzen am Arbeitsplatz in der Zukunft zu umgehen. Ein Großteil der möglichen Alternativen hätte jedoch eine soziale Einschränkung zur Folge und wäre daher aus systemtheoretischer Sicht nicht erstrebenswert. Angefangen beim Unterlassen des Posts, über den Abbruch der Freundschaftsbeziehung, bis hin zur Anpassung der Privatheitseinstellungen im sozialen Netzwerk implizieren alle Möglichkeiten die objektive Verminderung zukünftiger 49  Vgl.

Luhmann (2014): Vertrauen, S. 32. (2014): Vertrauen, S. 32. 51  Vgl. Luhmann (2014): Vertrauen, S. 33–36. 52  Vgl. Luhmann (1991): Soziale Systeme, S. 33–36. 53  Vgl. Luhmann (2014): Vertrauen, S. 13–15. 54  Luhmann (2014): Vertrauen, S. 27. 50  Luhmann



Privatheit als Gemeinwohl

59

Kommunikationsprozesse. An diesem Beispiel wird deutlich, warum die Systemtheorie von einer moralischen Einordnung gesellschaftlicher Kommunikationsprozesse Abstand nimmt. Hier ein objektiv richtiges soziales Verhalten zu identifizieren, wäre unmöglich. Indem man die Entscheidung trifft, Risiken dadurch zu minimieren, dass man schlichtweg nicht kommuniziert, verhindert man Gemeinschaftlichkeit und die Möglichkeit zur intersubjektiven Vergewisserung der eigenen Lebenswelt.55 In allen Veränderungen, gesellschaftlichen Neuaushandlungen und entstandenen Unsicherheiten findet man stets eine Konstante: Die Suche nach Zweckgebundenheit und die damit einhergehende Ausrichtung des eigenen Lebens auf Gemeinschaftlichkeit. Sozialität wird dabei – in der Informationsgesellschaft mehr denn je – über Kommunikation etabliert.56 Individualismus, in all seinen Ausprägungen, kann sich in einer global vernetzten Welt niemals vollständig von kollektivistischen Tendenzen trennen. Erst mit der Anwesenheit zweier psychischer Systeme, also der Entstehung eines Interaktionssystems, kann der Grundstein von Vertrautheit gelegt werden, auf dem sich soziale Verhältnisse jedweder Art herausbilden können. Um nun herauszustellen, wie es den Gesellschaftsmitgliedern gelingt, Vertrauen in den Informationsfluss herzustellen, muss man sich nur vor Augen führen, dass sich nur deswegen bei den Menschen in Bezug auf gewisse Ereignisse im Prozess der Digitalisierung Misstrauen herausbildet, weil sich bereits eine Basis der Vertrautheit in bestehende Strukturen entwickelt hat, durch welches bisher konstant Risiken absorbiert wurden.57 AdBlock-Software, verschiedene Verschlüsselungen bei der Onlinekommunikation und vielfältigere Optionen bei Privatheitseinstellungen in sozialen Netzwerken zeigen schließlich, wie sich aufgebautes Misstrauen durch die reflexive Anwendung neuen Wissens um geänderte Kommunikationsstrukturen wieder in mehr Vertrauen umwandeln konnte. Die Herausforderung im Kontext etwa umfassender staatlicher und wirtschaftlicher Überwachungstendenzen liegt dann nur darin, den Erwartungshorizont an die Beobachtbarkeit von Kommunikationsakten wieder in einen kontrollierbaren, vertrauenswürdigen Rahmen zu integrieren. Das Ziel für das Individuum muss sein, über die möglichen Handlungs- und Entscheidungsspielräume Kommunikation konstant als 55  Vgl.

Habermas (1981): Theorie des kommunikativen Handelns, S. 27–31. einer ihrer Thesen zur digitalen Aufklärung fordern Ossi Urchs und Tim Cole die Rückbesinnung auf den Ursprung der Kommunikation, den interpersonalen Austausch. Ebenso wie Aristoteles’ ‚Zoon politikon‘ ließe sich der Mensch auch heute, innerhalb digitaler Kommunikationsstrukturen, nicht einzeln denken. Nicht zuletzt durch die verlorengegangene Orientierungshilfe und identitätsstiftende Funktion der ‚alten Massenmedien‘ könne der Mensch ohne Interaktion nicht existieren. Vgl. Urchs / Cole (2013): Digitale Aufklärung, S. 34–36. 57  Vgl. Luhmann (2014): Vertrauen, S. 31–32. 56  In

60

Benjamin Heurich

notwendigen Bestandteil zur Entwicklung von Selbstbewusstsein, Eigenverantwortlichkeit und Selbstvertrauen zu etablieren. Auf dieser festen Basis kann eine kontinuierliche Resonanz mit den fortlaufenden Modernisierungsprozessen hergestellt werden. 6. Abstrakte Systeme im Internet Gerade in der heutigen Zeit sind Modernisierungsprozesse nur noch schwer als abgegrenzte, zeitlich einzuordnende Entwicklungen zu erkennen. Die Digitalisierung löst soziale Systeme immer wieder aus ihren Kontexten und erweitert Raum und Zeit menschlicher Interaktionen. Dieser Prozess, den Giddens auch als ‚Entbettung‘ (disembedding) beschreibt, steht demnach sinnbildlich für die Dynamik einer modernen Gesellschaft an sich.58 Um dieser Dynamik zu begegnen, sei es notwendig, Vertrauen in sogenannte ‚abstrakte Systeme‘ (abstract systems) zu entwickeln.59 Er unterscheidet hier zwischen zwei Mechanismen, welche die angesprochene Abkopplung sozialer Systeme sowohl unterstellen als auch begünstigen:60 den ‚symbolischen Werten‘ (symbolic tokens) und den ‚Expertensystemen‘ (expert systems). Durch Vertrauen in beide Mechanismen lässt sich in einem Rückkopplungsprozess wieder Gemeinschaftlichkeit in robusten Kontexten herstellen.61 6.1 Sozialität in digitalen Expertensystemen

Unter Expertensystemen versteht Giddens Systeme, die durch technologische Errungenschaften oder professionelle Expertise große Teile einer materiellen und sozialen Umwelt organisieren.62 Wie breit dieser Begriff gefasst werden kann und welche bedeutsamen Bereiche der Lebenswelt heutzutage von Expertensystemen gestützt werden, macht Giddens selbst deutlich, indem er ein Auto oder ein Haus als Beispiel eines solchen Expertensystems nennt: Beiden Systemen, so Giddens, müsse man Vertrauen entgegenbringen, weil man sich kein umfassendes Wissen über die Zusammensetzung und Funktionsweise aller Bestandteile aneignen könne, dies aber auch nicht er58  Vgl.

Giddens (1990): The Consequences of Modernity, S. 20. Giddens (1991): Modernity and Self-Identity, S. 17–22. 60  „The dynamism of modernity derives from the separation of time and space and their recombination in forms which permit the precise time-space zoning of social life; the disembedding of social systems; and the reflexive ordering and reordering of social relations in the light of continual inputs of knowledge affecting the actions of individuals and groups.“ Giddens (1990): The Consequences of Modernity, S. 16–17. 61  Vgl. Giddens (1990): The Consequences of Modernity, S. 87–88. 62  Vgl. Giddens (1990): The Consequences of Modernity, S. 27. 59  Vgl.



Privatheit als Gemeinwohl

61

strebenswert fände.63 Auch wenn sich hier auf materieller Ebene Parallelen zur digitalen Infrastruktur herleiten lassen, soll im Kontext der bisherigen Ausführungen aber vor allem die Fähigkeit eines Expertensystems zur sozialen Neuordnung von Gemeinschaftlichkeit von speziellem Interesse sein. Social network services wie beispielsweise Facebook stellen solche Expertensysteme dar, denen weltweit Milliarden von Menschen bei der Herstellung von Sozialität Vertrauen entgegenbringen, ohne Wissen über die Wirkweise und den Aufbau der internen Struktur zu besitzen. Sie vertrauen beispielsweise darauf, dass die Eingabezeile am Ende einen Status für die Freunde sichtbar macht und dass die hochgeladenen Fotos auch so erscheinen, wie sie am eigenen Endgerät dargestellt werden. Alle Neuordnungen sozialer Verhältnisse, Normen und Werte aufzuzählen, die soziale Netzwerke in den letzten Jahren in der Weltgesellschaft nach sich gezogen haben, würde den Rahmen dieser Arbeit sprengen. Sinnstiftend ist jedoch der Fakt, dass diese Expertensysteme sowohl die Plattformen für Communities, Chats und Gruppen, als auch die notwendige Kommunikationsstruktur zur Anwendung von symbolischen Werten zur Verfügung stellen, die zur Herstellung von Gemeinschaftlichkeit von noch zentralerer Bedeutung sind. 6.2 Orientierung an symbolischen Werten

Symbolischen Werten wird stets ein fester Wert zugewiesen und sie unterstützen hauptsächlich den sozialen Austausch.64 Sie können sich über einen längeren Zeitraum erhalten und dienen einer Gemeinschaft somit, losgelöst von spezifischen Charaktereigenschaften der einzelnen Mitglieder, zu einem fortgeschrittenen Zeitpunkt und an einem anderen Ort als Fluchtpunkt für Entscheidungssituationen.65 Damit dies jedoch gelingen kann, muss sich Vertrauen in die Wirkweise und Wertigkeit der symbolischen Werte herausbilden. Ein in der Soziologie beliebtes Beispiel für einen solchen symbolischen Wert, der ebenfalls in einer technologischen Übergangssituation als Vertrauensbasis fungierte, ist das Geld. Simmel, auf den sich Giddens unter anderem bezieht, setzte sich bereits ausgiebig mit dem Vertrauenswert des Geldes auseinander. Nach ihm diene das Geld, in Anlehnung an den Glauben an etwas Übergeordnetes und Übernatürliches, der Herstellung von Vertrauen in den Umstand, dass man für die symbolischen Zeichen, für die man seine Produkte verkauft hat, auch über einen längeren Zeitraum den entsprechenden Gegenwert erhalten werde.66 Dass für Simmel „das Gefühl der persönli63  Vgl.

Giddens (1990): The Consequences of Modernity, S. 27–29. Giddens (1991): Modernity and Self-Identity, S. 18. 65  Vgl. Giddens (1990): The Consequences of Modernity, S. 22. 66  Vgl. Simmel (1907): Die Philosophie des Geldes, S. 165. 64  Vgl.

62

Benjamin Heurich

chen Sicherheit, das der Geldbesitz gewährt, […] wohl die konzentrierteste und zugespitzteste Form und Äußerung des Vertrauens auf eine staatlich-gesellschaftliche Organisation und Ordnung“67 ist, zeigt, für wie elementar er das Geld für das persönliche und institutionelle Handeln hielt. Auch für Luhmann ersetzt das Vertrauen in Geld „unzählige einzelne und schwierige Vertrauenserweise, die nötig wären, um den Lebensbedarf in einer kooperativen Gesellschaft sicherzustellen“.68 Dieses Vertrauen erlaube es den Menschen zudem, die Entscheidung über die tatsächliche Verwendung des Geldes zu vertagen und dem Bewusstsein die Komplexität der gegenwärtigen Entscheidungssituation in abstrakter Form zugänglich zu machen.69 Durch den Besitz von Geld entsteht eine Bestandssicherheit. So kann man auf bessere Entscheidungsmöglichkeiten hoffen und dennoch sicherstellen, in Hinblick auf eine Zukunft von hoher, unbestimmter Ereigniskomplexität zu leben.70 Erfahrung und Erwartung – Wissen und Glauben – rückt auf diese Weise näher zusammen. Die Herausbildung eines solchen „sozialen Mechanismus’“71 ist nun auch besonders in digitalen Gesellschaftsstrukturen von erhöhter Bedeutung, da es aufgrund der dortigen Informationsfülle und Kontingenz immer sinnvoller und wichtiger wird, Entscheidungen zu prüfen, gegebenenfalls zu vertagen oder rückwirkend zu legitimieren und somit mit einem Gefühl der Sicherheit in einer überkomplexen Umwelt zu leben. Zudem muss aufgrund der anonymen Kommunikation im Internet die Charaktereigenschaft der persönlichen Fremdheit eines Gegenübers bei der Entscheidungsfindung ausgeblendet werden. Um all dies zu ermöglichen, hat sich hier ein eigenständiges, umfassendes Symbolsystem herausgebildet: Bei jeglichen Formen des Zusammenschlusses werden Zustimmung und Ablehnung als erweiterte binäre Kodierungen in up- und down-votes, follower, likes, farbigen Balken, Sternebewertungen und Zählmechanismen jedweder Art, um nur einige zu nennen, kommuniziert. Die Akkumulation und symbolische Darstellung dieser Kommunikationen ermöglichen die notwendige Orientierung in den mannigfaltigen Entscheidungsprozessen. Hinzu kommen weitere soziale Feedbackmechanismen, die sich über Kommentarfunktionen erstrecken oder über retweet-Funktionen kreisende Netzwerkerregungen wie shitstorms aufbauen. Diese symbolischen Werte sind dem Prinzip digitaler Gemeinschaftlichkeit zuträglich, da sie zeit67  Simmel

(1907): Die Philosophie des Geldes, S. 165–166. (2014): Vertrauen, S. 26–27. 69  Vgl. Luhmann (2014): Vertrauen, S. 73. 70  Vgl. Luhmann (2014): Vertrauen, S. 27. 71  Luhmann (2014): Vertrauen, S. 26. 68  Luhmann



Privatheit als Gemeinwohl

63

lich überdauern und sowohl auf kurzfristiger als auch zukunftsgerichteter Kommunikation aufbauen. Somit lässt sich behaupten, dass sich die Internetnutzerinnen und Nutzer mit den verschiedenen Ausprägungen dieser digitalen symbolischen Werte vertraut gemacht haben und deren Wirkweise vertrauen. Auf diese Weise wird es möglich, Entscheidungen von Risiken zu befreien, Modernisierungsprozessen beständig zu begegnen und losgelöste Kontexte wieder in Gemeinschaftlichkeit zurückzuführen. Dieses Vertrauen bildet sich, angefangen bei der Informationsaggregation, wie beispielsweise in der Experten-Laien-Kommunikation in Foren und Wikis, über kommerziell motivierte Aktivitäten auf E-Commerce-Plattformen, bis hin zu hochgradig emotionalen und ideellen Entscheidungsprozessen wie der Partnerwahl durch Onlinedating. All diese Entwicklungen sind jeweils als Rückkopplung sozialer Systeme und deren Kodierungen (hier: Wahrheit, Geld, Liebe) zu verstehen, die sich im Zuge der Modernisierung von tradierten Werten und Normen losgelöst haben und sich in der Digitalität wieder neu formieren und etablieren mussten. Ein spezieller Aspekt der aktuellen Entwicklung des weltweiten Warenhandels lässt sich vor diesem Hintergrund beispielsweise wie folgt etwas ausführlicher darstellen: Die Globalisierung hatte eine zeitliche und lokale Entbettung der Warenangebote und Distributionswege zur Folge. Diese Auflösung konnte sich zunächst über den Versandhandel und dessen symbolische Werte (Kataloge, Zertifikate, Labels etc.) in die globalisierte Gesellschaft rückkoppeln. Mit der Digitalisierung durchlief diese Entwicklung weitere Transformationen. Mit dem fortschreitenden Wegfall räumlich gebundener Ladenlokale und dem damit einhergehenden Aufkommen von Webshops kann wohl der signifikanteste Entbettungsprozess beschrieben werden, der letztendlich zu der heutigen überkomplexen Angebotsfülle diverser Waren im Internet geführt hat. Diese Entwicklung benötigte neue Orientierungspunkte für die Nachfrageseite, um überhaupt Handlungsfähigkeit zu erzeugen. Ohne entsprechende Kommunikationswege innerhalb und zwischen den anwachsenden E-Commerce-Strukturen und die Möglichkeit, sich über Warenqualitäten, monetäre Gegenwerte und anderweitige convenience-Faktoren (Bezahlvorgänge, Kundenservice, Warenversand etc.) auszutauschen, würde mit fortschreitenden wirtschaftlichen Entwicklungen eine einseitige Machtverlagerung zugunsten der Angebotsseite entstehen. Die soziale Anerkennung neuer Risiken durch Modernisierungsprozesse hatte zur Folge, dass sich andere Teilsysteme der Gesellschaft mit diesen auseinandersetzen mussten; so folgten beispielsweise Weiterentwicklungen von Rechtsnormen im Kartellrecht oder dem Widerrufsrecht. Grundlage dieser Neuaushandlung war jedoch stets die Herstellung von objektiven Bezugspunkten, anhand derer sich eine kommunikative Praxis vollziehen konnte. Das Empfehlungs- und Bewertungssystem auf der E-Commerce-Plattform Amazon zeigt in seinen ver-

64

Benjamin Heurich

schiedenen Facetten, wie sich entbettete Strukturen wieder erfolgreich in eine Gemeinschaftlichkeit übertragen ließen, mit denen zielgerichtete Entscheidungen gefällt werden können. Sternebewertungen und anderweitige Feedbackmechanismen in vielen Bereichen der Plattform ermöglichen sowohl Orientierung als auch Absicherung beim Vollzug der Konsumentscheidungen und sind dem wirtschaftssystemimmanenten Regulativ der Wirksamkeit von Angebot und Nachfrage zuträglich.72 Die konsequente und umfassende Anwendung symbolischer Werte im Internet ermöglicht vor diesem Hintergrund ein funktionaleres Zusammenwirken aller gesellschaftlichen Teilsysteme, weil Informationen von allen Kommunikationsteilnehmenden Relevanz zugewiesen werden kann. Hinter dem Ausbau und Erhalt dieser Symbolsysteme steht das umfassende und konstante Bestreben der Menschen, gesellschaftlich gelingendes Leben in der Digitalität zu ermöglichen. 7. Gemeinwohl als regulative Idee Begreift man Kommunikation als konstitutive Konstante einer digital transformierten Gesellschaft, sind genau die kommunikativen Handlungen in der Digitalität, die auf Herausbildung von Vertrauen als Ordnungsprinzip ausgerichtet sind, stets auf ein größeres Wohl als das rein individuelle gerichtet. Indem Menschen vertrauen, ersetzen sie die Gegenwart durch eine mögliche Zukunft und machen damit anderen Menschen das Angebot, sich auf eine gemeinsame Zukunft zu einigen, um neuen Umweltrisiken gefestigter entgegenzutreten.73 In der Konsequenz der bis hierhin beschriebenen gesellschaftstheoretischen Einordnung wird den folgenden Ausführungen auch ein Privatheitskonzept zugrunde gelegt, das auf die selbstreflexive Konstruktion und Anwendung neuen Wissens und die Neu-Konstitution gesellschaftlicher Zusammenhänge und Kontexte zur Herstellung eines Wohls für eine Gemeinschaft bezogen werden kann. Durch kommunikative Aushandlungen erhalten Risiken soziale Anerkennung und können so in selbstreflexive Entscheidungssituationen miteinbezogen werden, in denen in der Konsequenz auch Eigenverantwortlichkeit eine maßgebliche Rolle spielt. Giddens schreibt diese notwendige Selbstreflexivität modernen Gesellschaften als Ganzes zu: 72  An dieser Stelle soll daran erinnert werden, dass es sich hier um keine normative oder moralische Einordnung handelt. Weder über die Wahrhaftigkeit noch die Richtigkeit der über die symbolischen Werte kommunizierten Aussagen kann eine Aussage gemacht werden. Es handelt sich hier lediglich um die Darstellung einer gelungenen gesellschaftlichen Rückkopplung der durch die Digitalisierung verlorengegangenen Bezugspunkte in einen gemeinschaftlich anerkannten Kontext. 73  Vgl. Luhmann (2014): Vertrauen, S. 33.



Privatheit als Gemeinwohl

65

Reflexive awareness in this sense is characteristic of all human action, and is the specific condition of [the] massively developed institutional reflexivity […] as an intrinsic component of modernity. All human beings continuously monitor the circumstances of their activities as a feature of doing what they do, and such monitoring always has discursive features. In other words, agents are normally able, if asked, to provide discursive interpretations of the nature of, and the reasons for, the behaviour in which they engage.74

Sinnstiftend sind dabei die von Giddens angesprochenen Herauslösungen sozialer Interaktionen aus einem gewohnten Kontext, die Modernisierungsdynamiken nach sich ziehen.75 Er spricht den Menschen die Fähigkeit zu, diese Kontextveränderungen in einer selbstreflexiven Auseinandersetzung mit dem eigenen sozialen Handeln zu erkennen und auch zu artikulieren. Dazu benötigen die Menschen jedoch einen festen Bewertungshorizont, der sowohl eine objektive Gültigkeit in der Gegenwart besitzt als auch der Einordnung künftiger Risiken dienlich sein kann. Um einen objektiv verhandelbaren Wert für eine digitale Gesellschaft zu konstituieren, erweist sich das Konzept der kontextuellen Integrität (contextual integrity) von Helen Nissenbaum als äußerst fruchtbar. Ihre Aushandlung folgt der zentralen Fragestellung, wie und wann technologiegetriebene Umwälzungsprozesse Protest, Zurückhaltung oder anderweitige Widerstände bei den Gesellschaftsmitgliedern nach sich ziehen.76 Indem Nissenbaum das Recht auf Privatheit als das Recht beschreibt, in einer Welt zu leben, in der die eigenen Erwartungen an den Informationsfluss erfüllt werden,77 macht sie die Zukunft speziell an dieser Stelle zum zentralen Bezugspunkt ihrer Argumentation und bemächtigt damit, ganz im Sinne Luhmanns, menschliches Vertrauen zur Herstellung kontextueller Integrität über die Reduktion von Komplexität.78 Dies bedeutet, dass ungestörter Informationsfluss dem Individuum über die selbstreflexive Auseinandersetzung mit den eigenen sozialen Handlungen die kontinuierliche Erzeugung von Vertrautheit mit den sich ständig wandelnden Kommunikationsstrukturen in der Digitalität ermöglicht. Damit entsteht eine besondere Art des Vertrauens in die Erwartungen an die Gegenwart als Gesamtheit der Ereignisse, die sich tatsächlich ereignen können.79 Vertrauen verhindert somit stets die Spaltung von Erfahrungen und 74  Giddens

(1991): Modernity and Self-Identity, S. 35. Giddens (1990): The Consequences of Modernity, S. 21. 76  Vgl. Nissenbaum (2010): Privacy in Context, S. 2. 77  „[Privacy] is a right to live in a world in which our expectations about the flow of personal information are, for the most part, met“. Nissenbaum (2010): Privacy in Context, S. 231. 78  Vgl. Luhmann (2014): Vertrauen, S. 9. 79  Vgl. Luhmann (2014): Vertrauen, S. 22. 75  Vgl.

66

Benjamin Heurich

Erwartungen, die Nissenbaum als schisms80 beschreibt. Wenn diese Spaltungen aus der Manipulation eines Informationsflusses entstehen, stellen sie eine Privatheitsverletzung dar.81 Um Privatheit vor diesem Hintergrund einem Gemeinwohl zuordnen zu können, ist es zielführend, Timo Meynhardt zu folgen, der ein Gemeinwohl einer Gesellschaft als ‚regulative Idee‘ im Sinne Kants beschreibt. Als solche entstehe Gemeinwohl als eine allgemeingültige Orientierung, die Handeln erst ermöglicht und Informationen sinnvoll zu ordnen vermag.82 Auf diese Weise gelinge ein spekulatives Herantasten an eine gemeinsame Zielvorstellung, wie es sich vor allem in unsicheren Zeiten als fruchtbar erweise.83 Auch aus systemtheoretischer Sicht werden Individuen in der Beobachtung der digitalen Umwelt selbstreferentiell aktiv und handeln in Bezug auf zukünftige Ereignisse stets so, als seien diese bereits „zukünftige Gegenwart“.84 Nur so kann sich „Sinn [als] eine allgemeine Form der selbstreferentiellen Einstellung auf Komplexität“85 entwickeln, an der sich soziale Wesen auf ein gemeinsames Wohl hin orientieren können. Um dies jedoch überhaupt möglich zu machen, muss der Mensch sich mit einer sozialen Grundstruktur vertraut machen, auf deren Basis sich nicht nur die eigenen Handlungsprozesse zukunftsorientiert konstruieren können, sondern sich auch die Beobachtungen systemfremder Prozesse subjektiv sinnvoll interpretieren und verstehen lassen.86 An derselben These orientiert sich schließlich die regulative Idee eines Gemeinwohls. Sowohl Vertrauen als auch Misstrauen stellen eine qualitative Einordnung eines sozialen Verhältnisses dar; wie beispielsweise auch Solidarität, aber auch Egoismus oder Neid.87 Diese Kategorisierungen können überhaupt nur dann vorgenommen werden, wenn die Kommunikationsstrukturen eine kontextoffene und ungestörte Aushandlung zulassen, in denen diese Verhältnisse umfassend und langfristig geklärt werden können. Indem sich die Gesellschaft beständig kommunikativ auf ein soziales Verhältnis jeglicher Art beziehen kann, wird ein gemeinsamer Nutzen generiert, der für die Öffentlichkeit klar erkennbar ist. Durch die Aufrechterhaltung störungsfreier Informationsflüsse entsteht ein gemeinsamer Horizont, an dem Risiken 80  Vgl.

Nissenbaum (2010): Privacy in Context, S. 231–232. Nissenbaum (2010): Privacy in Context, S. 231. 82  „The term ‚public value‘ is about valuing ‚the public‘, and more precisely: valuing relationships between a subject (individual, group) and an unknowable social entity“. Meynhardt (2009): Public Value Inside, S. 205. 83  Vgl. Meynhardt (2009): Public Value Inside, S. 204–205. 84  Luhmann (2014): Vertrauen, S. 23. 85  Luhmann (1991): Soziale Systeme, S. 107. 86  Vgl. Meynhardt (2009): Public Value Inside, S. 196. 87  Vgl. Meynhardt (2009): Public Value Inside, S. 206. 81  Vgl.



Privatheit als Gemeinwohl

67

erkannt und gemessen werden können. So lässt sich zusammenfassend festhalten, dass Privatheit als regulative Idee festlegt, wie beständig sich Vertrauen in der Gegenwart bilden lässt und wie genau und sorgfältig sich damit zukünftige, disruptive Technologien einordnen lassen.88 Vertrautheit ist aber vor allem deshalb für die Herstellung eines kollektiv akzeptierten und erstrebenswerten Wohls so wertvoll, weil sich auf ihr keine günstigen oder ungünstigen Erwartungen bilden,89 sondern nur eine Bedingung für sichere Erwartungen geschaffen wird und damit enttäuschungsfeste Grundstrukturen zur Herausbildung eines konsensfähigen Austauschs einer sich ständig modernisierenden Gemeinschaft entsteht. Diese Relevanzzuweisung und das Bestreben der Herstellung einer sozialen Ordnung sind jedoch einigen Gefahren unterworfen, auf die abschließend noch einmal beispielhaft eingegangen werden soll. 8. Fehlerhafte Informationen und notwendiges Misstrauen Der Zusammenhalt digitaler Gemeinschaften hängt stark von der verfügbaren Informationsfülle und der fortlaufenden Kommunikation ab. Je mehr persönliche und wahrheitsgetreue Informationen unter den Mitgliedern geteilt werden, desto aktiver ist die Kommunikation und damit die Erhaltung innerer Komplexität der einzelnen Interaktionssysteme – und damit auch die des sozialen Systems.90 Fake news und social bots91 sind in diesem Zusammenhang zwei beispielhafte Internetphänomene, welche die beiden genannten Attribute des Informationsflusses aufweichen und in den Menschen Misstrauen hervorrufen können. Beide Begriffe stehen für einen Manipulationsversuch Dritter durch den Missbrauch der chaotischen Vernetzung und immanenten Anonymität im Internet. Der Schaden für eine Informationsgesellschaft, deren Kommunikationsleistung dadurch immer an Wahrheits- und Realitätsbezug einbüßt, kann man gar nicht hoch genug einschätzen. Eine umfassende Darlegung aller Konsequenzen würde den Rahmen dieses Beitrags jedoch sprengen. Festzuhalten ist nur, dass das Internet durch seinen Aufbau zahlreiche Möglichkeiten 88  Vgl.

Nissenbaum (2010): Privacy in Context, S. 14. Luhmann (2014): Vertrauen, S. 31. 90  Durch innere Komplexität lernt das System mit der äußeren Komplexität besser zurechtzukommen und erhöht damit seine Überlebenschancen. Innerhalb des Systems entstehen so weitere Ausdifferenzierungen und neue Teilsysteme. S. Luhmann (1997): Die Gesellschaft der Gesellschaft, S. 78. 91  Von Menschen geschriebene Computerprogramme, die im Internet menschliches Verhalten imitieren und mit anderen Nutzerinnen und Nutzern interagieren. Mit zunehmender, den Programmen zur Verfügung stehender Datenmenge und der verbesserten Entwicklung von künstlicher Intelligenz wird diese Nachahmung sowohl auf quantitativer als auch qualitativer Ebene immer präziser und ‚realer‘. 89  Vgl.

68

Benjamin Heurich

bereithält, durch welche die digitalen Kontexte der Nutzerinnen und Nutzer auch fremdgesteuert verändert werden können. Ein zweiter nennenswerter Umstand findet sich bei der bestandsorientierten Herstellung von Vertrautheit im Internet. Aufgrund der heutigen, technologisch derart fortgeschrittenen Entwicklung und der vielfältigen – und zumeist auch erstmaligen – persönlichen Erfahrungen vieler Gesellschaftsmitglieder mit digitaler Kommunikation entsteht eine einseitige Abhängigkeit sozialer Systeme von bestimmten Teilsystemen – speziell dem Wirtschaftssystem. Das Internet ist zwar über die omnipräsenten Endgeräte stets in Reichweite und in seiner Bedienbarkeit einfach und intuitiv, jedoch ist das Hinterfragen der genauen Abläufe und der Funktionsweise jedes digitalen Handelns – man denke hier beispielsweise an die Nachvollziehbarkeit von Nutzungsbedingungen – zumeist müßig und ergebnislos. In der Regel bleibt daher nur die Adaption an die von Unternehmen zur Verfügung gestellten Technologien und Plattformen, um Kommunikation aufrechtzuerhalten. Um soziales Handeln zu ermöglichen, werden daher beispielsweise im Konsumbereich kognitive Dissonanzen entweder von Institutionsseite ausgeglichen, die aus der komplizierten Mathematik hinter den Anwendungen einfache Symbole und Eingabezeilen im Interface macht, oder einfach durch das menschliche Verdrängungsbedürfnis in Richtung Nutzungsgratifikation kompensiert. Wenn man schnell, einfach und ressourcenarm zu einer erwünschten Bedürfnisbefriedigung gelangen kann, stellt man den Weg dorthin im Nachhinein nur selten in Frage. An dieser Stelle verschwimmt die Grenze zwischen der von Giddens angesprochenen menschlichen Fähigkeit zur selbstreflexiven Erkenntnis und Eigenüberwachung und einer unterbewussten Vorregulierung von Entscheidungssituationen. Auf diese Weise wird Vertrautheit zu einem deutlichen Teil fremdgesteuert und technikdeterminiert durch Expertensysteme hergestellt. Trotz der genannten Herausforderungen lässt sich jedoch festhalten, dass die Menschen sich mit der Bedienbarkeit von Webseiten und Apps vertraut gemacht und über die Zeit Vertrauen in deren Wirkweise gesetzt haben. Anders kann aufgrund der überkomplexen Zusammensetzung digitaler Netzwerke und dem Informationsüberfluss eine Bedienbarkeit schlichtweg nicht hergestellt werden. Mit anhaltender Bestandssicherheit entsteht jedoch paradoxerweise auch immer mehr Misstrauen gegenüber den zahlreichen Kommunikationsprozessen, weil man sich mit den Abläufen besser auskennt und störende Elemente besser identifizieren kann. Netzkulturelle Begriffe wie spam-mail, fake-accounts oder internet-troll sind nur einige Beispiele dafür, mit denen eine digitale Gemeinschaft auf mangelhafte Internetkommunikation verweisen kann. Allein das Wissen um diese Phänomene nährt daher das Misstrauen der Internetnutzerinnen und Nutzer, aber gleichzeitig auch die interne Komplexität einzelner sozialer Systeme, da sich diese zur Vermei-



Privatheit als Gemeinwohl

69

dung dieser Risiken anpassen und Schutzmechanismen operationalisieren. Während sich Schutzmechanismen in der soziotechnischen Interaktion zumeist über Softwareapplikationen wie E-Mail-Filter oder captcha92 etablieren lassen, benötigt die zwischenmenschliche Interaktion weitaus flexiblere und universellere Referenzpunkte und Kontrollsysteme zur Konvertierung von Misstrauen in Vertrauen. Dass ein Vertrauen erschüttert wurde, heißt aber nicht, dass man die Vertrautheit mit einer einmal konstituierten Ordnung vollständig aufgibt. Damit gerät lediglich eine Prüfung der bereits vorgefundenen Strukturen in Gang, mit der man festzustellen versucht, ob sich Vertrauen auf diesen noch herleiten lässt. Risiken der Moderne erhalten ihre notwendige soziale Anerkennung und finden damit ihren Platz in gesellschaftlichen Debatten. Für Giddens sind eben genau diese Umwälzungen und das ständige Prüfen von Vertrauensverhältnissen ein integraler Bestandteil moderner Gesellschaften, die fundamentalistische Prinzipien hinter sich gelassen haben.93 9. Zusammenfassung Über die Etablierung symbolischer Werte hat die Weltgesellschaft in der Digitalität einen Rückkopplungsmechanismus konstruiert und erweitert, der eine selbstreflexive Anpassung an technologiegetriebene Modernisierungsprozesse ermöglicht. Dieser soziale Mechanismus lebt von der aktiven Kommunikation und ist in verschiedenen Kontexten und sozialen Systemen beobachtbar. Da Modernisierungsprozesse in immer kleiner werdenden Abständen konstruierte Kontexte wieder aus einer Ordnung entbetten, entspringt die Motivation der Menschen, sich interkulturell und überregional zusammenzufinden einem Gefühl ständiger Unsicherheit und Überkomplexität. Will man sich nicht dem Chaos und der unendlich großen Komplexität unterwerfen, hilft nur Vertrauen in gegenwärtige soziale Ordnungen, die dafür sorgen, dass Erwartungen nicht ständig enttäuscht werden können. In den letzten Jahren haben die Menschen daher digitale abstrakte Systeme für sich nutzbar gemacht, in denen neue Formen des Konsens und zielgerichteter Entscheidungsfindung ermöglicht werden. Digitale Expertensysteme, angefangen bei den kleinsten Foren, bis hin zu globalen Netzwerken wie Face92  Captcha (‚Completely Automated Public Turing test to tell Computers and Humans Apart‘) gehören zu den Challenge-Response-Tests, mit denen Authentifizierungsverfahren im Internet durchgeführt werden. Durch eine Aufgabe, die für Menschen sehr einfach und schnell, für Computeralgorithmen jedoch sehr schwierig zu lösen ist, wird geprüft, ob die erfolgte Eingabe persönlicher Daten nicht durch eine Maschine erfolgt ist. 93  Vgl. Giddens (1990): The Consequences of Modernity, S. 50.

70

Benjamin Heurich

book, ordnen Interaktionen neu und setzen das gesellschaftliche Handeln in veränderte Kontexte. Indem die Menschen der Wirkweise der eigenständig und persönlich angereicherten Zahlenangaben, Sternebewertungen und anderweitiger Symboliken vertrauen, zeigen sie, dass sie nicht grundsätzlich sozial überfordert sind und erhalten zudem über einen längeren Zeitraum hinweg eine reale Kontrolle über technisch erzeugte Wirklichkeiten. Zusätzlich werden die Gesellschaftsmitglieder, indem sie sich bei der Entscheidungsfindung auf die Wirkweise dieser kommunikativ hergestellten Rückkopplungsmechanismen berufen, selbst zur Basis der Erfahrungswerte und Wissensbestände, mit denen Risiken minimiert werden. Die umfassende Verwendung symbolischer Zeichen zur Reduktion von Komplexität verhindert demnach die durch die Digitalisierung geförderte Spaltung von Erfahrung und Erwartung und ermöglicht die Zusammenführung vieler möglicher Zukunftsszenarien auf einen gemeinsam erlebbaren Zukunftshorizont. So entstehen Kontexte, die zwar technologisch konstruiert, aber menschlich gesteuert werden. In der soziologischen Systemtheorie ist das Ganze nicht mehr als die Summe seiner Teile. Indem sich ein System in Bezug zu etwas setzt, wird es robuster und zielgerichteter im Umgang mit dem, was seine Existenz sichert. So verhält es sich auch mit den Menschen. Auf der Suche nach Zusammenhängen in ihrer gesellschaftlichen Umwelt, die Unsicherheiten und Risiken nach sich ziehen, kommen sie nicht zur Ruhe. Im Gegensatz zur gesamten Weltgesellschaft können sich psychische Systeme jedoch selbst in Reflexion setzen. So entsteht das ständige Bedürfnis, die gegenwärtig zur Verfügung stehenden Möglichkeiten zu verbessern und durch Interaktionen sogar noch zu erweitern. Damit steckt auch hinter jedem einzelnen like oder einem Kommentar eine selbstreflexive Leistung, die sich nur für den Kommunikator selbst in ihrer ganzen Stärke darstellen lässt. Auch der Wert, der sich für den Einzelnen in einem Gemeinwohl wie Privatheit darstellt, entspringt und mündet letztendlich immer in den individuellen Wünschen und Empfindungen. Das Gemeinwohl bildet sich dann nur über Bewusstseinsprozesse als öffentlich im Bereich des Praktischen ab. Eine solche Perspektivierung kann sowohl technikdeterministischen als auch kulturpessimistischen Tendenzen entgegengehalten werden, die den mündigen Menschen im Zuge der aktuellen Entwicklungen ins Abseits gestellt sehen. Weil die Masse an likes, Kommentaren, Sternebewertungen, Avataren, shares, Emojis und anderweitigen Zählmechanismen nur in der Öffentlichkeit existiert und dort an Wirkkraft gewinnt, gehen die Menschen durch die Teilnahme an den interdependenten Feedbackzirkeln notwendigerweise immer der Frage nach, was sie für eine Gemeinschaft tun können. Die symbolischen Werte haben in solch umfangreichem Maße Einzug in alle Teile des Internets erhalten, dass ungestörter, privater Informationsfluss, also die er-



Privatheit als Gemeinwohl

71

folgreiche Anwendung dieser Werte, mit gelingendem Leben in der Digitalität gleichgesetzt werden kann und daher ein digitales Gemeinwohl darstellt, auf das sich die digitale Gesellschaft geeinigt hat, um die durch die Digitalisierung entstandene Überkomplexität ertragbar zu machen und soziales Handeln gelingen zu lassen. In den symbolischen Werten können je nach Modifikation auf verschiedene Weise und in verschiedener Intensität affirmative oder ablehnende Haltungen zu allen erreichbaren digitalen Kommunikationen eingenommen werden. Der Erhalt dieser kommunikativ hergestellten Selbstbestimmtheit in einer technologisch fortgeschrittenen Weltgesellschaft kann als die regulative Idee verstanden werden, die Privatheit als ein Gemeinwohl transportiert. Über dieses Regulativ wird ein gesamtgesellschaftliches Ziel konstruiert, das notwendig ist, um zu handeln, aber nicht in die Realität überführbar ist. Privatheit ist als Regulativ im sozialen System aber deshalb für alle Bestandteile gleich erstrebens- und schützenswert, weil sie als Ideal eine generalisierte Erfahrung des Sozialen und der Werte und Normen, die in einer Gemeinschaft ‚funktionieren‘, konstituiert und über einen längeren Zeitraum für alle kommenden Folgegesellschaften transportiert. Es wäre vermessen, zu behaupten, dass sich die technologisch bedingte Komplexität in absehbarer Zeit auf eine für das Individuum vollständig erfahrbare Größe verringern ließe. Darum handelt es sich bei der Weiterentwicklung und kontinuierlichen Einbindung symbolischer Werte ebenfalls nur um einen andauernden Modernisierungsprozess, der von der kontinuierlichen Kommunikationsbereitschaft der Gesellschaftsmitglieder und der adäquaten Relevanzzuteilung der Teilsysteme abhängt. Aus der Wirkkraft der schädlichen Tendenzen, die unter anderem im vorherigen Kapitel beispielshaft dargestellt wurden, entwickelt sich ein gesamtgesellschaftlicher Arbeitsauftrag. Funktionsweisen von Expertensystemen können aufgrund der großen Geschwindigkeit von Modernisierungsprozessen durch einen Informationsvorsprung missbraucht werden. Indem Schwachstellen und Zusammenhänge frühzeitig identifiziert werden, finden Unwahrheiten und künstliche kommunikative Handlungen Eingang in die Diskurse und Konsensaushandlungen, die das Ergebnis dieser Prozesse verwässern und somit Misstrauen nach sich ziehen, das nur äußerst schwer wieder in Vertrauen verwandelt werden kann. Diese Phänomene können nicht alleine von den Gesellschaftsmitgliedern und deren Verwendung symbolischer Werte beseitigt werden, auch wenn letztere immens wichtig sind. Über Bewertungen und Kommentare ist die Gesellschaft zwar durchaus imstande, diese Missstände im Sinne unendlich vieler Einzelfälle zu identifizieren, aber die Wurzel dieser Übel kann nur systematisch und institutionell beseitigt werden. Wie mehrfach anhand der Erläuterung zeitlicher Abhängigkeiten gezeigt wurde, sind rechtliche, wirtschaftliche oder politische Eingriffe innerhalb fortlaufender Modernisierungsprozesse jedoch nur dann wirksam, wenn sie nicht nur als Konsequenz erfolgen, son-

72

Benjamin Heurich

dern zukunftsgerichtet Risiken minimieren können. Hier zeigt sich der gesamtgesellschaftliche Wert von Privatheit als Gemeinwohl. Die Teilsysteme der Gesellschaft müssen sich auf die ihnen zugeteilten Aufgaben bei der Risikominimierung in einer reflexiven Dynamik konzen­ trieren. Speziell im heutigen Privatheitsdiskurs wird zu sehr auf die Be­ obachterperspektive anderer Systeme Wert gelegt, wodurch autopoietische Adap­tionsprozesse und Wirkweisen psychischer Systeme immer weiter aus dem Blickfeld geraten und unterschätzt werden. Bemüht man sich um einen Perspektivwechsel, ist beispielsweise das Teilen eines persönlichen Fotos mit der Familie oder Freunden nicht nur ein reiner Kommunikationsakt, der auf Anerkennung abzielt, sondern er leistet vor allem auch einen erheblichen Beitrag dazu, Alltag und interpersonale Nähe über eine größere Distanz zu generieren. Der Wert, der sich hier für das Individuum hinter dem ungestörten Zustandekommen dieser Kommunikation verbirgt, ist von den statistischen Analysewerkzeugen des Politik- oder Wirtschaftssystems nicht vollständig zu erfassen. Der Drang zur umfassenden Datensammlung repräsentiert zwar allgemein das Bestreben, Risiken so gut es geht minimieren zu wollen, aber das genannte Beispiel sowie aktuelle weltpolitische Entwicklungen zeigen, dass der Einfluss und die Aussagekraft der Informationen und Statistiken, die die Funktionssysteme der Gesellschaft durch die Auswertung persönlicher Daten gewinnen können, ihre Grenzen haben und somit Erwartungen an die Zukunft nicht erfüllt werden. Indem die sozialen Systeme aber dafür sorgen, dass die symbolischen Werte in den systeminternen Interaktionen umfassend Verwendung finden und von schädlichen Einflüssen befreit werden, ermöglichen sie ein gesellschaftliches Leben, das sich wirklich zu beobachten lohnt. Damit werden die Systeme weniger damit beauftragt, die Gesellschaft durch Datenauswertung zu regulieren, sondern sich an der Aufrechterhaltung regulativer Ideen zu beteiligen, an denen sich die Menschen orientieren können. Vor diesem Hintergrund wird Privatheit zu einem schützenswerten Gemeinwohl, dessen Erhalt sich für die Erfüllung jeglicher Aufgabenbereiche der ausdifferenzierten Teilsysteme der Gesellschaft lohnt. Anders gesagt: Die Teilsysteme benötigen kein Vertrauen in ausgewertete personenbezogene Daten, sondern zunächst in die Gesellschaftsmitglieder selbst, und deren kontinuierliche, selbstreflexive Anwendung symbolischer Werte, mit denen sie ihr Leben in der Digitalität gelingen lassen.



Privatheit als Gemeinwohl

73

Bibliografie Beck, Ulrich: Risikogesellschaft. Auf dem Weg in eine andere Moderne. Frankfurt/M. 1986. Giddens, Anthony: Modernity and Self-Identity. Self and Society in the Late Modern Age. Cambridge 1991. ‒ The Consequences of Modernity. Cambridge 1991. Habermas, Jürgen: Theorie des kommunikativen Handelns. Bd. 1: Handlungsrationalität und gesellschaftliche Rationalisierung. Frankfurt/M. 1981. Hughes, Kristie: The Social Value of Privacy. The Value of Privacy to Society and Human Rights Discourse. In: Roessler, Beate/Mokrosinska, Dorota (Hg.): Social Dimensions of Privacy. Cambridge 2015, S. 225–243. Kasper, Debbie V.S.: Privacy as a Social Good. In: Social Thought & Research 28 (2007), S. 165–189. Luhmann, Niklas: Vertrauen. Konstanz/München 2014. ‒ Die Gesellschaft der Gesellschaft. Frankfurt/M. 1997. ‒ Soziologische Aufklärung 5. Konstruktivistische Perspektiven. Opladen 1990. ‒ Soziale Systeme. Grundriß einer Allgemeinen Theorie. Frankfurt/M. 1984. Meynhardt, Timo: Public Value Inside: What is Public Value Creation? In: Internatio­ nal Journal of Public Administration 32.3–4 (2009), S. 192–219. Nissenbaum, Helen: Privacy in Context. Technology, Policy, and the Integrity of Social Life. Stanford 2010. Regan, Priscilla M.: Privacy and the Common Good: Revisited. In: Roessler, Beate/ Mokrosinska, Dorota (Hg.): Social Dimensions of Privacy. Cambridge 2015, S. 50–70. Roessler, Beate/Mokrosinska, Dorota (Hg.): Social Dimensions of Privacy. ­Cambridge 2015. Simmel, Georg: Soziologie. Untersuchungen über die Formen der Vergesellschaftung. Leipzig 1908. ‒ Die Philosophie des Geldes. Leipzig 1907. Steeves, Valerie: Privacy, Sociality and the Failure of Regulation. In: Roessler, Beate/ Mokrosinska, Dorota (Hg.): Social Dimensions of Privacy. Cambridge 2015, S. 244–260. Taddicken, Monika: The ‚Privacy Paradox‘ in the Social Web. The Impact of Privacy Concerns, Individual Characteristics, and the Perceived Social Relevance on Different Forms of Self-Disclosure. In: Journal of Computer Mediated Communication 19 (2013), S. 248–273. Urchs, Ossi/Cole, Tim: Digitale Aufklärung. Warum uns das Internet klüger macht. München 2013.

Der Wert informationeller Privatheit jenseits von Autonomie Tobias Matzner 1. Relative Privatheit Seit einiger Zeit hat sich die Diskussion über den Wert des Privaten hin zum Sozialen verschoben. Im Gegensatz zum inhärenten Individualismus, der viele traditionelle Konzepte des Privaten prägt, ist die soziale Situation von Subjekten relevanter Teil der Theorie geworden. Prominente Beispiele sind Marwick und Boyds Konzept der networked privacy,1 Nissenbaums privacy as contextual integrity2 oder Rösslers und Mokrosinskas relational privacy.3 Zwar waren soziale Aspekte mehr oder weniger implizit von Beginn an Teil der Diskussionen um Privatheit, aber in diesen Ansätzen werden sie zu einem zentralen Element. Diese Verschiebung ist nicht zuletzt durch die Entwicklungen digitaler Technologie und sozialer Medien bedingt. Dennoch sollten diese nicht auf Theorien der Privatheit für die digitale Kommunikation reduziert werden. Sie stellen eine grundlegendere Veränderung der Art und Weise dar, wie Privatheit konzeptualisiert wird. Frühere Auffassungen von Privatheit beziehen sich auf bestimmte, je einem Individuum gehörende oder zugehörige Räume, Informationen oder Entscheidungen.4 In vielen Theorien kommt noch der Körper als inhärent privat hinzu. Privatheit ist hier eine Eigenschaft, die sich aus einer bestimmten, ausgezeichneten Beziehung eines Individuums zu dem jeweils Privaten ergibt. Ein Beispiel dafür ist die eigene Wohnung oder – wie der Name schon sagt – ‚personenbezogene Daten‘. Auch Entscheidungen, die ‚Privatsache‘ sind, werden ganz alleine der jeweils betroffenen Person zugesprochen, wie etwa die Religionsfreiheit. Im Gegensatz dazu stehen Auffassungen, welche die zentrale Funktion des Privaten darin sehen, bestimmte Kontexte, Ereignisse oder Situationen auseinanderzuhalten – ohne dass diese an sich besonders als privat ausgezeichnet wären. Diesen Aspekt bezeichne ich als relative Privatheit. Privatheit ist hier 1  Vgl.

Marwick / Boyd (2014): Networked Privacy. Nissenbaum (2010): Privacy in Context. 3  Vgl. Roessler / Mokrosinska (2013): Privacy and Social Interaction. 4  Diese Dreiteilung der Aspekte des Privaten übernehme ich von Rössler (2001): Der Wert des Privaten. 2  Vgl.

76

Tobias Matzner

eine Eigenschaft der Beziehung zwischen Kontexten, Ereignissen oder Situationen. Im Folgenden werde ich mich aus Platzgründen auf informationelle Privatheit beschränken. Aber auch die anderen Dimensionen beinhalten relative Aspekte. So gehört es zum Beispiel zur dezisionalen Privatheit, dass eine Entscheidung, die eine Person in einer bestimmten Situation getroffen hat, in vielen anderen keine Rolle zu spielen hat. Die erwähnten Theorien, die sich ebenfalls mit informationeller Privatheit befassen, beinhalten alle Elemente relativer Privatheit, ohne diese Unterscheidung explizit zu machen. Sie sehen relative Privatheit als wichtige Ergänzung bestehender Theorien. Das ist teilweise dem Phänomen geschuldet, dass viele Informationen, die im Kontext digitaler Kommunikation zum Privatheitsproblem wurden, nach traditionellen Auffassungen bereits ‚öffentlich‘ wären.5 Diesen zufolge ist beispielsweise eine Bar kein privater Raum. Dennoch sehen es Menschen als Verletzung ihrer Privatsphäre an, wenn Bilder aus der Bar in sozialen Netzen oder unter den Kolleg / innen am Arbeitsplatz auftauchen. In einem prominenten Fall erfuhr die Familie von der Homosexualität ihrer Tochter, weil deren queer choir an der Universität die Facebookseite falsch konfiguriert hatte.6 Wiederum sind weder die Universität noch der Chor private Orte. Dennoch kann es zu Privatheitsproblemen kommen, hier bezüglich der Sexualität, wenn digitale Medien die Öffentlichkeit dieser Orte ausdehnen. Solche Probleme können aus der Perspektive relativer Privatheit besser beschrieben werden. Das Problem besteht dann nicht darin, dass ein bestimmter, ausgezeichneter Bereich des individuellen Lebens – die Privatsphäre, private Informationen oder Entscheidungen – verletzt würden. Probleme entstehen, wenn Informationen von einem Kontext oder einer Situation in andere geraten. Die Literatur in den Sozialwissenschaften diskutiert das unter dem Stichwort context collapse.7 Doch sind solche zusammenfallenden Kontexte nicht nur ein Phänomen digitaler Kommunikation. Wir alle kennen den Moment, wenn wir plötzlich jemanden auf einer Party oder in der Öffentlichkeit wiedererkennen. In Filmen sind es oft Hochzeiten oder Beerdigungen, welche die konfligierenden Narrative der Charaktere plötzlich verbinden und unangenehme Beziehungen aus der Vergangenheit ans Licht bringen.8 Wenn Privatheit gegen solche Fälle zusammenfallender Kontexte schützen soll, dann muss 5  Vgl. Zimmer (2010): But the Data is Already Public; Nissenbaum (1998): Protecting Privacy in an Information Age. 6  Vgl. Singh (2014): Blogger Bobbie Duncan Recalls Getting Outed Accidentally on Facebook. 7  Vgl. Wesch (2009): Youtube and You; Marwick / Boyd (2014): Networked Privacy. 8  Vgl. Ellison / Marwick (2012): ‚There Isn’t Wifi in Heaven!‘.



Der Wert informationeller Privatheit jenseits von Autonomie

77

etwas, das in diesem Sinne privat ist, nicht aus einem bestimmten, ausgezeichneten Bereich des Lebens stammen: der individuellen Privatsphäre oder des Privatlebens. Es genügt, wenn ein Aspekt des Lebens aus einem anderen Kontext, relativ zum aktuellen Kontext, als schützenswert angesehen wird. Solche Vorstellungen von Privatheit als Trennung von Kontexten oder Aspekten des Lebens sind normalerweise verbunden mit der Forderung, dass jede / r selbst entscheiden können sollte, wem in welcher Situation welche Aspekte des Lebens offenbart werden.9 Diese Vorstellung von relativer Privatheit als Voraussetzung für Identitätsmanagement oder autonome Entscheidungen über Informationen wird in Abschnitt 2 dieses Textes diskutiert. Anschließend zeigt Abschnitt 3, dass diese Vorstellung für die Begründung des Wertes von Privatheit problematisch ist, insbesondere, weil sie auf Elemente der oft kritisierten Vorstellungen eines autonomen Individuums rekurriert. Der 4. Abschnitt entwirft ein alternatives Konzept des Subjekts des Privaten, welches auf Hannah Arendts Theorie der Persönlichkeit beruht (welche ihrer eigenen Theorie der Privatheit widerspricht). Damit wird der Zusammenhang zwischen Subjektivität und Privatheit verschoben: Privatheit ist nicht nur relevant für die Konstitution autonomer Subjektpositionen, sondern für eine grundlegendere Freiheit von Subjekten, auch wenn diese durch Heteronomie geprägt ist. Abschließend wird in Abschnitt 5 der Wert dieser Form von Privatheit begründet. 2. Relative Privatheit und Identitätsmanagement Relative Privatheit bringt eine gewisse Form der Kontextabhängigkeit mit sich. In jeder Situation sind andere Kontexte, Ereignisse, Situationen privat in Bezug auf die aktuelle. Damit ist die normative Kernfrage: Wer bestimmt über diese Relationen? Die meisten Theorien des Privaten vertreten, dass dies die betroffene Person selbst sein sollte. Die sozialwissenschaftlichen Studien zum context collapse bauen auf ­ offmans Theorie der Selbstpräsentation auf. Diese besagt, dass wir in unG terschiedlichen Kontexten verschiedene ‚Rollen‘ spielen, uns also jeweils anders präsentieren. Diese Selbstpräsentation geschieht teils intentional, teils habituell. Sie ist aber auch verbunden mit vielen sozialen Erwartungen bezüglich der angemessenen Ausübung einer bestimmten sozialen Rolle.10 Damit verabschieden sich diese Privatheitstheorien vom atomistischen Individuum des klassischen Liberalismus, der auf Hobbes, Locke und später Mill 9  Vgl. Marmor (2015): What Is the Right to Privacy?; Rachels (1975): Why Privacy Is Important. 10  Vgl. Goffman (1959): The Presentation of Self in Everyday Life.

78

Tobias Matzner

zurückgeht und noch Warren und Brandeis’ bekannte Definition von Privatheit als right to be let alone aus dem Jahr 1890 maßgeblich mitgeprägt hat.11 Stattdessen wird anerkannt, dass die Person, welche wir im Alltag sind, ein inszeniertes Wesen ist, wobei diese Inszenierung allerlei soziale Voraussetzungen hat: Identitätsmanagement muss gelernt werden, es nutzt Sprachen, Codes und materielle Elemente, welche die möglichen Rollen vorstrukturieren. Ferner muss Identitätsmanagement diversen Ansprüchen anderer gerecht werden. Gleichzeitig liegt die Aufgabe, unter diesen Bedingungen eine gelungene Selbstpräsentation zu erreichen, zumindest implizit beim Individuum. Es wird als Problem gesehen, wenn diese individuelle Kontrolle aufgrund zusammenfallender Kontexte nicht mehr möglich ist. Der Begriff des ‚Managements‘ illustriert das gut, welcher sich in Goffmans Text als impression management findet und immer noch häufig in der sozialwissenschaftlichen und teilweise auch informationstechnischen Forschung verwendet wird,12 mitunter in Abwandlungen wie identity management.13 Marwick und Boyd folgern aus ihrer Analyse des context collapse, dass solches individuelles Management nicht mehr möglich sei und fordern eine networked privacy: „If we understand privacy to be about the management of boundaries, networked privacy is the ongoing negotiation of contexts in a networked ecosystem in which contexts regularly blur and collapse.“14 Privatheit wird also auch hier relativ als Beziehung zwischen Kontexten verstanden – eine Beziehung, die in netzwerkförmigen Sozialbeziehungen ausgehandelt wird, statt individuell bestimmt. Allerdings führen die Autorinnen nicht aus, was diese Aushandlung normativ orientiert. Soll dieses Konzept des Privaten letztendlich doch wieder den Individuen und ihrer Selbstbestimmung zukommen oder verschiebt sich damit auch der normative Kern des Privaten? Letzteres ist die These, der ich in diesem Text nachgehe. Ähnlich wie die durch Goffman informierten Studien zeigen Rössler und Mokrosinska, dass Privatheit nötig ist, damit Individuen bestimmte soziale Rollen einnehmen können. Die Autorinnen argumentieren, dass individuelle Privatheit, das heißt die Kontrolle darüber, welche Information wann und wo verfügbar wird, essentiell sei, um eine Rolle einnehmen zu können und die sozialen Beziehungen einzugehen, welche dieser Rolle angemessen sind. Jedoch müsse zusätzlich zu dieser individuellen Privatheit die Privatheit der Beziehungen selbst geschützt werden. Dies wird anhand beruflicher Beziehungen wie die zwischen Psychotherapeut / in und Patient / in oder Arbeitgeber / in und Arbeitnehmer / in gezeigt, aber auch in Bezug auf Familie und 11  Vgl.

Glancy (1979): The Invention of the Right to Privacy. Stutzman / Hartzog (2012): Boundary Regulation in Social Media. 13  Vgl. Marwick (2013): Status Update. 14  Marwick / Boyd (2014): Networked Privacy, S. 1063. 12  Vgl.



Der Wert informationeller Privatheit jenseits von Autonomie

79

Freundeskreis oder die Beziehungen zwischen Fremden.15 Wenn die Privatheit der Beziehung verletzt werde, von innen oder von außen, so führe das zu „poor“ oder sogar „defective role performance“.16 Beispielsweise wird die Rolle ‚Psychotherapeut / in‘ dann beschädigt, wenn Informationen über Patient / innen nach außen dringen, auch wenn das durch Fremdverschulden geschieht. Diese Notwendigkeit, die Privatheit der Beziehung zu schützen, wird jedoch letztendlich auf die individuelle Möglichkeit, Rollen einzunehmen, zurückgeführt. Sie ist sozusagen eine Voraussetzung dafür, dass es bestimmte Formen von Beziehung geben kann, über die dann aber individuell und autonom entschieden werden soll. Aus dieser Perspektive besteht der Wert des Privaten darin, Autonomie in Form der Schaffung, Verwaltung und Kontrolle verschiedener Inszenierungen oder Auftritte zu ermöglichen, wie Rössler auch in ihrem umfassenden Entwurf zum Wert des Privaten argumentiert.17 Zusammenfassend sind Theorien wie die von Rössler und Mokrosinska oder die Untersuchungen zum Identitätsmanagement von der Annahme geprägt, dass autonome Subjekte nichts Gegebenes sind. Im Gegenteil ist Autonomie das Ergebnis bestimmter sozialer Konfigurationen und Bedingungen. Eine dieser Bedingungen ist Privatheit. Wer wir sind, wird durch soziale Rollen beeinflusst, durch die Beziehungen, in denen wir uns befinden, durch die Kontexte, durch die wir uns bewegen. Privatheit dient dann dazu, eine Distanz zu dieser sozialen Situiertheit zu ermöglichen. Dazu gehört auch, dass die verschiedenen Rollen, die wir einnehmen, relativ zueinander getrennt bleiben  – wie eben Tochter zu Hause und Mitglied im queer choir. Durch diese Distanz wird es möglich, die soziale Situation reflexiv zu evaluieren, bestimmte Rollen zu wählen und damit letztendlich das eigene Leben selbst zu gestalten.18 Relative Privatheit ist damit eine der sozialen Bedingungen von Autonomie, verstanden als die Entscheidung, welche Rollen wir spielen wollen, welche Beziehungen wir eingehen wollen, welche Informationen über uns welchem Gegenüber offenbar werden sollen. Marwick und Boyd zeigen, dass diese Bedingungen nur sozial und nicht individuell erreicht werden können. Das würden wohl auch Rössler und Mokrosinska zugestehen. Dennoch bleibt für letztere individuelle Autonomie, in einer sozial eingebetteten Form, der grundsätzliche Anker für den Wert des Privaten – auch für ihre relativen Ergänzungen.

15  Vgl.

Roessler / Mokrosinska (2013): Privacy and Social Interaction, S. 777–782. (2013): Privacy and Social Interaction, S. 781. 17  Vgl. Rössler (2001): Der Wert des Privaten, S. 209. 18  Vgl. Rössler (2001): Der Wert des Privaten, S. 209. 16  Roessler / Mokrosinska

80

Tobias Matzner

3. Identitätsmanagement und Autonomie als problematische Begründung von Privatheit Diese Verbindung des Wertes des Privaten mit Autonomie führt zu der Frage, wie Ansprüche auf Privatheit in Situationen begründet werden können, in denen Menschen nicht autonom sind. Eine Antwort wäre, dass Privatheit eine der Bedingungen ist, damit Menschen in solchen Situationen letztendlich Autonomie erreichen könnten. Das ist jedoch aus mehreren Gründen problematisch. Im Kontext digitaler Kommunikation und Datenverarbeitung ist niemand autonom in dem Sinn, dass die Systeme, ihre Funktion und ihre potentiellen Anwendungen und Auswirkungen rational komplett durchdrungen werden könnten.19 Selbst wenn es in diesem Bereich deutlich besseren Privatheitsschutz als aktuell gäbe, wäre dieser davon abhängig, anderen zu vertrauen: Programmierer / innen, Firmen, die Hardware und Infrastruktur bereitstellen, andere Nutzer / innen, Experten / innen, die Code und Funktion überprüften und viele mehr. Das heißt, dass Privatheit nicht nur soziale Bedingungen hat, sondern soziale Bedingungen, die Individuen je für sich nicht rational durchdringen können und somit auf Vertrauen angewiesen sind, was Autonomie im hier angeführten Sinn unterwandern würde.20 Grundlegender haben viele Menschen nicht die Möglichkeit, in dem hier diskutierten Sinn autonom über ihre Erscheinungen oder Selbstinszenierungen zu bestimmen: Schwerkranke, Menschen mit Behinderungen, Pflegebedürftige, um einige Beispiele zu nennen. Hierbei handelt es sich darüber hinaus um Personengruppen, die in besonderer Weise in den Fokus von Datensammlung und Überwachung geraten – durch Staaten, Hilfsorganisationen, Versicherungen, Angehörige etc. – und deshalb stark mit Privatheitsanforderungen konfrontiert sind. Auf theoretischer Ebene gibt es eine Vielzahl von Ansätzen, welche Subjektivität ganz grundsätzlich in einer stärker relationalen Weise auffassen. Insbesondere wurde in der Nachfolge der kritischen Theorie und Foucaults das autonome rationale Individuum als bestimmte Subjektform spätmoderner kapitalistischer Gesellschaften beschrieben. Feministische Kritikerinnen haben solche Theorien aufgegriffen, um zu zeigen, dass Autonomie nicht in 19  Vgl. Matzner (2014): Why Privacy Is not Enough Privacy in the Context of ‚Ubiquitous Computing‘ and ‚Big Data‘; Matzner u. a. (2016): Do-It-Yourself Data Protection – Empowerment or Burden? 20  Vgl. Rössler (2005): The Value of Privacy, S. 111. Es gibt durchaus Autoren / innen, die auch eine solche Abhängigkeit noch als Autonomie bezeichnen würden, wenn sie hinreichend reflektiert werden kann, was aber andere Probleme mit sich bringt. Siehe dazu Christman (2004): Relational Autonomy, Liberal Individualism, and the Social Constitution of Selves; Westlund (2009): Rethinking Relational Autonomy.



Der Wert informationeller Privatheit jenseits von Autonomie

81

Unabhängigkeit besteht, sondern darin, dass die sozialen Bedingungen von autonomen Subjektpositionen verdrängt oder unsichtbar werden. Dies wird auch dadurch möglich, dass viele dieser Bedingungen als Privatsache aus der öffentlichen Debatte verschwinden – wie zum Beispiel Fortpflanzung, Grundversorgung, oder Fürsorge.21 Es ist umstritten, ob eine Aufwertung dieser Elemente zu einer Rekonstruktion von Privatheit auf neuen Bedingungen führen sollte, wie es etwa Cohen vertritt22 oder ob das mit einer grundsätzlichen Einschränkung des Privaten einhergehen sollte.23 Während einige dieser Theorien der Intersubjektivität eine sozial situierte Form der Autonomie nicht ausschließen, handelt es sich aus dieser Perspektive eben nur um eine mögliche Form der Subjektivität neben anderen, stärker relationalen. Tatsächlich gibt es viele Menschen, die es genießen, Kontrolle abzugeben, im Licht einer (Teil-)Öffentlichkeit zu stehen, mit Offenheit und Risiko in die Welt zu gehen, in der gegenseitigen Abhängigkeit enger Beziehungen zu leben, sich selbst in den Ansichten und Verhaltensweisen anderer zu sehen. Dies wird mitunter als der grundlegende Reiz sozialer Netzwerke beschrieben.24 Parallele Auffassungen in der Theorie sehen solche verschiedenen Formen von Heteronomie als grundlegende Eigenschaft der Intersubjektivität und erstrecken sich von Autoren / innen wie Honneth25 oder Arendt und Cavarero26 bis hin zu extremen Formen, wie sie sich etwa in den Schriften von Bataille finden.27 Natürlich muss eine Theorie der Privatheit dafür sorgen, dass es Schutz in Situationen gibt, in denen solches Ausgesetztsein anderen gegenüber ins Negative umschlägt. Aber sie sollte auch nicht dazu führen, dass Menschen, welche die positiven Aspekte solcher intersubjektiver Konstellationen genießen, als naiv gelten, ihnen mangelhafte Selbstkontrolle attestiert wird, oder sie als Personen gesehen werden, denen Privatheit an sich nicht wichtig oder gar möglich ist. Dies ist insbesondere im Kontext informationeller Privatheit zu betonen, die oft im Rahmen einer rational-ökonomischen Kosten-Nutzen-Rechnung diskutiert wird: Welche Daten lohnt es sich für welche Dienstleistung preiszugeben? Privatheit ist aber auch eine inhärent affektive Frage. Wir haben das Bedürfnis nach Privatheit oft dann, wenn wir uns unwohl fühlen, be21  Vgl.

Pateman (1988): The Sexual Contract. Cohen (2012): Configuring the Networked Self. 23  Vgl. Allen (2003): Why Privacy Isn’t Everything. 24  Vgl. Cover (2012): Performing and Undoing Identity Online; McNeill (2012): There Is no ‚I‘ in Network. 25  Vgl. Honneth (2003): Kampf um Anerkennung. 26  Vgl. Arendt (2003): Vita activa oder Vom tätigen Leben, S. 232; Cavarero (2000): Relating Narratives. 27  Vgl. Bataille (1992): Death and Sensuality. 22  Vgl.

82

Tobias Matzner

schämt, unsicher. Unser Verhalten ist dann mitbestimmt von affektiven oder emotionalen Reaktionen, die zum Wunsch führen, dass Informationen über uns nicht weiterverbreitet werden, aber vielleicht auch in ausgelassenen Momenten, in denen wir viel von uns preisgeben. Die Idee der Kosten-Nutzen Abwägung ist mehr oder weniger implizit mit einer Idee der Rationalität verbunden, die von diesen affektiven Reaktionen oder Einstellungen sicher nicht erfüllt wird.28 In der Tat mögen solche Reaktionen nicht in unserem ‚objektiven‘ Interesse sein. Genau deshalb ist es eine wichtige Funktion von Privatheit, daraus eventuell erwachsende negative Konsequenzen einzudämmen, gerade in Situation, in denen wir nicht rational sind. Solche engen Vorstellungen ökonomischer Rationalität werden auch von oben zitierten Autorinnen stärker sozial verstandener Privatheitstheorien kritisiert. Allerdings wird durch solche affektiven Reaktionen auch die Möglichkeit der von ihnen geforderten kritischen Distanz und authentischen, selbstreflektierten Gründen fraglich. Zusammengefasst zeigt sich, dass viele Personen nicht immer autonom sind und zumindest einige das auch nicht immer bedürfen. Selbst wenn Autonomie ein wichtiges Ziel für bestimmte Bereiche unseres Lebens ist, sollte sie nicht der einzige Grund für Privatheit sein. Die meisten der vorgenannten Theorien des Privaten beantworten einige dieser Einwände – entweder implizit oder in direkter Auseinandersetzung.29 Diesen Theorien, welche die Rückführung des Wertes des Privaten auf Autonomie aktualisieren und sozial kontextualisieren, möchte ich hier einen ganz anderen Ansatz gegenüberstellen, den Wert des Privaten zu begründen. Dieser ergibt sich aus der oben diskutierten Relevanz relativer Privatheit. Diese wird jedoch nicht mehr als Ergänzung der Bedingungen von Autonomie gesehen. Relative Privatheit ist das zentrale Element von Privatheit, welche grundlegend die Freiheit schützt, sich zu verändern – auch wenn das nicht autonom geschieht oder auf autonome Subjektpositionen hinzielt. Damit wird die These aufgestellt, dass sich Privatheit von ihrer engen genealogischen Verbindung mit der Vorstellung autonomer Individuen trennen lässt. Relative Privatheit, so die im Folgenden verfolgte These, beschreibt eine soziale Funktion, die auch für stärker intersubjektive und heteronome Formen der Subjektivität wichtig ist. Bevor dies ausgeführt wird, sei noch kurz auf eine andere Familie von Begründungen des Wertes des Privaten eingegangen. Diese verortet den Wert des Privaten auf der gesellschaftlichen statt der individuellen Ebene. Rössler 28  Vgl.

Gatens (2004): Privacy and the Body. Rössler (2001): Der Wert des Privaten; Cohen (1992): Redescribing Privacy; Friedman (2003): Autonomy and Social Relationships. 29  Vgl.



Der Wert informationeller Privatheit jenseits von Autonomie

83

und Mokrosinska nutzen diese normative Quelle als Zusatz zum Wert des Privaten, den sie in individueller Autonomie verankern.30 Ein bekannter, umfassend sozialer Ansatz ist Helen Nissenbaums Konzept der Privatheit als contextual integrity.31 Ausgehend von Walzers Unterteilung der Gesellschaft in spheres of justice32 betrachtet sie verschiedene soziale Kontexte, beispielsweise den Bildungs- oder Gesundheitssektor. Jeder dieser Kontexte habe inhärente informationelle Normen, welche den „values, goals and ends of the context“33 zuträglich seien. Der Wert, diese Normen zu respektieren, liegt also im gesellschaftlichen Wert des jeweiligen Kontexts begründet, den sie unterstützen. Im Folgenden schlage ich einen in gewisser Weise ähnlichen Ansatz auf individueller Ebene vor. Dieser teilt die Einsicht, dass Subjektpositionen sozial etabliert sind mit den eingangs diskutierten Theorien. Doch statt den Wert des Privaten davon abzuleiten, autonome Subjektpositionen zu schaffen, zeige ich, dass Privatheit ausschließlich als relative Privatheit aufgefasst werden kann  – als Trennung der verschiedenen Momente, in denen Personen anderen erscheinen. Analog zu Nissenbaum müssen diese Momente aber nicht alle auf denselben Wert abzielen: Autonomie. Stattdessen schützt die Trennung von Erscheinungen viel grundlegender die Möglichkeit persönlicher Veränderung – auch wenn das nicht durch autonome Entscheidung geschieht, sondern in einer Vielzahl sozialer Konstellationen. 4. Die Wirklichkeit von Erscheinungen und ihre sozio-technischen Bedingungen Wie in den letzten Abschnitten diskutiert wurde, besteht unser soziales Leben darin, in unterschiedlichen Kontexten in unterschiedlicher Weise in Erscheinung zu treten. Privatheit setzt dann voraus, dass diese Kontexte sich gegenseitig nicht zu sehr beeinflussen. Diese von mir ‚relative Privatheit‘ genannte Auffassung wird im Folgenden nicht mehr als eine wichtige Ergänzung zu anderen Momenten der Privatheit gesehen, sondern als zentrales Element einer Privatheitstheorie beschrieben. Den Ausgangspunkt für diese Überlegungen stellt die oben kurz zusammengefasste Kritik an Autonomievorstellungen dar. Daraus folgt, dass die Person, die anderen erscheint, vom betreffenden Kontext und dem entsprechenden Publikum abhängig ist. Wer wir sind und wer wir sein (und werden) können, hängt von der Macht ab, die andere haben und von den Bedingungen, um in diesem Kontext überhaupt erst in Erscheinung zu treten – selbst 30  Vgl.

Roessler / Mokrosinska (2013): Privacy and Social Interaction, S. 785. Nissenbaum (2010): Privacy in Context. 32  Vgl. Walzer (1983): Spheres of Justice. 33  Nissenbaum (2010): Privacy in Context, S. 183. 31  Vgl.

84

Tobias Matzner

wenn das eine moralisch oder sozial deviante Erscheinungsweise ist. Unsere Erscheinung hängt somit ganz fundamental von anderen ab. Das ist eine der grundlegenden Einsichten, die Hannah Arendt zum Ausgangspunkt ihrer Überlegungen in Vita activa macht: Daß etwas erscheint und von anderen genau wie von uns selbst als solches wahrgenommen werden kann, bedeutet innerhalb der Menschenwelt, daß ihm Wirklichkeit zukommt. Verglichen mit der Realität, die sich im Gehört- und Gesehenwerden konstitutiert, führen selbst die stärksten Kräfte unseres Innenlebens […] ein ungewisses, schattenhaftes Dasein, es sei denn, sie werden verwandelt, gleichsam entprivatisiert und entindividualisiert, und so umgestaltet, daß sie eine für öffentliches Erscheinen geeignete Form finden.34

Vielen Auffassungen zufolge ist Privatheit die Bedingung dafür, dass eine Person mit sich selbst ausmachen kann, wer sie wirklich sein will, wie sie wirklich leben will. Hier dagegen erscheint die wirkliche Person gegenüber anderen.35 Die privaten ‚Kräfte unseres Innenlebens‘ müssen in eine für ‚öffentliches Erscheinen‘ geeignete Form finden, um zu solcher Wirklichkeit zu gelangen. Diese Transformationen sind von sozialen Normen geregelt, die bestimmen, welche dieser ‚Kräfte‘ als Faktoren, die unser Verhalten beeinflussen können, akzeptiert sind.36 34  Arendt

(2003): Vita activa oder Vom tätigen Leben, S. 63 f. muss angemerkt werden, dass Arendt oft als Verteidigerin einer engen und ziemlich altmodischen Auffassung von Privatheit zitiert wird. Diese stammt aus ihrer stark normativ aufgeladenen Trennung von gegebenen und gemachten Bedingungen menschlichen Lebens. (Siehe für eine kritische Diskussion dieses Moments der Arendt’schen Philosophie Matzner (2013): Vita variabilis, S. 91 ff.) Aus dieser Perspektive ist die Privatsphäre dann der Ort, wo den gegebenen Bedingungen des Lebens Rechnung getragen werden muss – eine naturalisierte Version von Privatheit. Das würde der hier vorgebrachten Ansicht sicher widersprechen. Jedoch zeigt Arendt auch, dass Privatheit einen Wert hat als Schutz vor dem ständigen Ausgesetztsein anderen gegenüber, als Schutz vor dem Gehört- und Gesehenwerden (Arendt [2003]: Vita activa, S. 71). Wenn anderen zu erscheinen die Wirklichkeit einer Person ausmacht, dann ist diese Wirklichkeit niemals stabil. Es besteht immer die Möglichkeit, dass die nächste Handlung verändert, wer wir für andere sind. Es besteht immer die Möglichkeit, dass neue Zuschauer / innen die Szene unseres Handelns betreten und damit eine neue Auffassung davon, wer wir sind, in die Welt tritt. Damit ist die Privatsphäre auch ein Ort, der vor dauernder Neubeurteilung schützt. Ich verbinde dieses Element von Arendts Denken mit ihrer intersubjektiven Auffassung von Persönlichkeit. Damit werden zwei Aspekte aus ihrem Buch Vita activa auf eine Weise zusammengeführt, die sich so bei Arendt selbst nicht finden – und die ihren eigenen Ausführungen zur Privatsphäre sicher widersprechen. Damit folge ich in gewisser Weise Benhabib’s Anregung ‚mit Arendt gegen Arendt‘ (Benhabib [2006]: Hannah Arendt. Die melancholische Denkerin der Moderne, S. IV) zu argumentieren und Konzepte, die sie für die politische Sphäre reserviert, zur Kritik von privaten und sozialen Verhältnissen zu nutzen. 36  Wichtige Diskurse in Psychologie, Pädagogik und Philosophie haben gezeigt, wie viel unseres Innenlebens in mehr oder weniger bewusster Form tatsächlich ‚von 35  Es



Der Wert informationeller Privatheit jenseits von Autonomie

85

Das heißt, dass die Art und Weise, wie andere uns wahrnehmen, nicht beliebig ist. Unser Erscheinen ist von Umständen beeinflusst, die weder sie noch wir bestimmen können. Es wird von Normen bestimmt, die in diesem Sinne nicht unsere sind. Diese Normen bestimmen, was es heißt ein Subjekt zu sein. Sie verändern sich, sind also kein statischer Hintergrund. Aber sie verändern sich auf einer anderen Zeitebene als das Leben der Individuen selbst.37 Erscheinungen verhalten sich zu diesen Normen. Selbst wenn sie diese herausfordern, kommt die Herausforderung durch die Gültigkeit der Norm zustande. Opposition ist auch eine Form der Beziehung, die mitunter die bestehenden Normen bestätigt, statt diese zu ändern. In digitalen Medien wird ein wichtiger Teil dieser Normen durch die Technologie importiert. Der formale Aufbau einer Webseite, die Zahl und Art von Bildern, Klarnamenpflicht, die Vereinigung verschiedener Profile auf eines, zum Beispiel Smartphone und soziales Netzwerk, der für Text zur Verfügung stehende Raum, die möglichen Zeichenkodierungen, Auswahlmöglichkeiten in Menüs und eine Unzahl anderer Aspekte bestimmen, wie unsere Erscheinungen hier Bedeutung erlangen. Folglich zeichnen sich viele Formen digitaler Kommunikation dadurch aus, dass eine zentrale Stelle existiert, die einen entscheidenden Anteil dieser technischen Aspekte oder Normen kontrollieren kann – allen voran Firmen wie Google, Apple oder Facebook. Das betrifft die technische Implementierung und das Layout, aber auch Verhaltensstandards oder moderierendes Personal. Diese Normen fallen da auf, wo sie es ermöglichen, Aspekte einer Erscheinung zu kontrollieren, die sonst nur schwer beeinflusst werden kann. Beispielsweise wird Menschen in direkter Interaktion, aber auch am Telefon, so gut wie sofort ein Geschlecht zugeschrieben. Manche Formen digitaler Kommunikation erlauben es, solche Zuschreibungen zu umgehen oder zumindest diejenigen Eigenschaften zu unterdrücken, die normalerweise in solchen Urteilen zum Tragen kommen. Aber das darf nicht darüber hinwegtäuschen, dass digitale Formen der Kommunikation dafür andere Aspekte schwer kontrollierbar machen. Beispielsweise finden sich viele Personen nicht in den relativ engen formalen Vorgaben wieder, welche die Profile vieler sozialer Netzwerkseiten verlangen. Solche Kritiken haben dazu geführt, dass Facebook die Zahl möglicher Geschlechter von zwei auf über fünfzig erhöht hat.38 Während das für manche Fälle eine Lösung ist, sind detailliertere Möglichkeiten einer digitalen Erscheinungsweise nicht immer der richtige Weg. Eine Erscheinung, die von der erscheinenden Person selbst als außen‘ kommt. Ich kann diese Gedanken hier nicht verfolgen, sie wären aber ein relevantes Komplement zu der hier mit Arendt entwickelten Perspektive. 37  Vgl. Butler (2007): Kritik der ethischen Gewalt, S. 200. 38  Vgl. Facebook Diversity (2014).

86

Tobias Matzner

angemessen wahrgenommen wird, muss nicht unbedingt mehr Aspekte ihrer Selbstwahrnehmung sichtbar machen. Viele anonyme Selbsthilfegruppen schirmen beispielsweise einen Großteil des Lebens ab, wodurch bestimmte andere Aspekte des Lebens erst frei ausgedrückt werden können, die sonst unterdrückt werden müssen, um einer Stigmatisierung zu entgehen. Die Möglichkeit, die eigene Erscheinung umfassend zu kontrollieren, führt also nicht notwendigerweise zur intentionalen Inszenierung, sondern kann auch ungehemmten Ausdruck ermöglichen. Andererseits macht das Maskieren bestimmter Informationen diese nicht unbedingt irrelevant. Beispielsweise zeigt Nakamura die „default whiteness“39 vieler Instanzen der Internetkommunikation auf. Das bedeutet, dass ohne Informationen über Hautfarbe und andere Merkmale diese nicht irrelevant werden – andere nehmen einfach an, dass ihr Gegenüber weiß sei, sofern keine widersprüchlichen Hinweise vorliegen. Folglich genügt es nicht, so viel Kontrolle wie möglich in die Hand der Individuen zu legen, wie die Idee des impression management impliziert. Zudem haben die technischen Eigenschaften digitaler Medien zwar einen wichtigen Einfluss, aber sie determinieren die Praktiken und Interaktionen mit ihnen nicht vollständig. Die Personen erscheinen in digitaler Kommunikation sozusagen vor dem Hintergrund dieser technischen Eigenschaften, aber auch vor dem Hintergrund der Sprache und Kultur der Nutzer / innen, Leser / innen, Zuhörer / innen, oder Zuschauer / innen. Normen sind sowohl durch Technologie bestimmt als auch durch das jeweilige Publikum oder Interaktionspartner / innen.40 Aber auch innerhalb dieser technisch und normativ strukturierten Kontexte können einzelne Individuen ganz unterschiedliche Perspektiven auf die Person entwickeln, die dort erscheint. Arendts Perspektive bleibt also innerhalb dieser sozio-technisch strukturierten Kontexte relevant. Damit wird die Abhängigkeit der Person sowohl vom Kontext ihres Erscheinens als auch von den anderen innerhalb dieses Kontexts deutlich. Personen erscheinen in komplexen Konfigurationen von technischen, materiellen und sozialen Bedingungen sowie der involvierten Personen. Diese Kontexte der Erscheinung sind somit keine holistischen, im Voraus bestehenden Sozialräume, die man betreten oder verlassen kann, ohne sie zu verändern.41 Sie sind normativ strukturierte Situationen, die bestimmen, wie man in einer bestimmten Situation erscheinen kann – oder auch nicht. Privatheit reguliert dann, welche anderen Erscheinungen einer Person auf den aktuellen 39  Nakamura (1999): Cybertypes. Race, Ethnicity, and Identity on the Internet, S. 107. 40  Das ist keine einfache Summe von Einflüssen, weil soziale Normen die Nutzung von Technologien beeinflussen und Technologien umgekehrt soziale Praktiken. 41  Das ist die von Nissenbaum implizierte Perspektive.



Der Wert informationeller Privatheit jenseits von Autonomie

87

Kontext bezogen werden können und damit die aktuelle Erscheinung strukturieren oder beeinflussen. Das bedeutet, dass Privatheit mehr betrifft als die Informationen, die wir über eine Person haben. Privatheitsnormen sind wichtige Faktoren, welche die Aushandlung von Kontinuität und Differenz von Persönlichkeit zwischen verschiedenen Kontexten betreffen. Sie bestimmen, welche anderen Erscheinungen einer Person als Erscheinung derselben Person in einem anderen Kontext gesehen werden und welche Erscheinungen von solch einem Einfluss ausgeschlossen sind. Das bedeutet, dass sich nicht eine Person durch verschiedene Kontexte bewegt. Eine Person wird beständig die Person, die auch anderswo erschienen ist. Privatheitsnormen bestimmen so ganz grundlegend die Aushandlung von Persönlichkeit. 5. Der Wert relativer Privatheit Die bisher entwickelte Perspektive zeigt, dass Privatheitsnormen moderieren, welche Erscheinungsweisen eine Rolle beim Kuratieren dieser Erscheinung und deren Wahrnehmung durch andere spielen können. Sie moderieren die Art und Weise, wie wir werden können, wer wir sind, indem sie verschiedene Erscheinungen in verschiedenen Situationen auseinanderhalten. Damit stellt sich die Frage, wie über diese Relationen zwischen Situationen zu befinden ist, wenn diese nicht alleine von individuellen Entscheidungen der Selbstpräsentation abhängen sollen. Wann sollte relative Privatheit, das heißt Trennung der Erscheinungen, bestehen und wann nicht? Befürworter / innen einer Transparenzgesellschaft,42 wozu auch die offiziellen Positionen verschiedener erfolgreicher Unternehmen des Silicon Valley gehören, vertreten einen möglichst umfassenden Informationsfluss. Sie sind der Meinung, eine transparente Welt sei fairer, weniger kriminell, schaffe mehr Reichtum und Fortschritt.43 Solche Ansichten ignorieren die Pluralität der Gesellschaft und der technischen und materiellen Bedingungen unserer Erscheinungen. Sie implizieren, dass Transparenz ein kohärentes, ‚wahres‘ Selbst enthüllen würde, das nicht mehr für illegitime Zwecke verstellt oder verborgen werden könne. Aus der hier entwickelten Sicht stellt sich solch ein Streben nach Transparenz als enormes Anwachsen der Perspektiven und Auffassungen, wer wir sind, dar – und der Konfrontation mit immer mehr daraus abgeleiteten Ansprüchen. Diese sind, wie oben gesagt, mit anderen sozialen und technischen Normen und Machtbeziehungen verbunden. Das bedeutet, dass solch eine ‚transparente‘ Gesellschaft für diejenigen mehr Probleme 42  Siehe z.  B. Heller (2011): Post-Privacy; oder deutlich kritischer Hagendorff (2017): Das Ende der Informationskontrolle. 43  Vgl. Johnson (2010): Privacy no Longer a Social Norm, says Facebook Founder; Schmidt / Cohen (2013): The New Digital Age.

88

Tobias Matzner

verursachen würde, die sich oft an den schwächeren Enden solcher Machtbeziehungen finden. Die umfassende Forderung nach Offenheit und Transparenz wäre somit eine Moral für Starke. Und tatsächlich stammen solche Vorschläge oft von erfolgreichen, weißen Geschäftsmännern. Dennoch ist dem die depolitisierende Wirkung von Privatheit entgegenzusetzen. Das heißt, auch aus emanzipatorischer Perspektive ist eine gewisse Offenheit oder Sichtbarkeit wichtig – wenngleich in weniger allgemeiner Form. Während beispielsweise die Privatheit des Sexuallebens solche Formen der Sexualität schützt, die nicht oder nicht vollständig akzeptiert sind, werden sie damit gleichzeitig unsichtbar. Damit werden die Chancen verringert, diskriminierende Einstellungen zu adressieren und andere Formen von Sexualität zu etablieren.44 In ähnlicher Weise wurde oben gezeigt, dass mehr Kontrolle über die eigene Erscheinung nicht nur die Chance bietet, etablierte Normen anzugreifen, sondern auch bestehende Ungleichheiten verfestigen kann. Wenn Ungleichheit nur damit begegnet werden kann, soziale Beziehungen einzuschränken und Privatheit auszudehnen, entsteht die Tendenz eines ‚Neo-Biedermeier‘, in dem alle nur nach dem eigenen Leben schauen. Das heißt, dass sich ein gewisser Grad an Sichtbarkeit und Transparenz auch mit der Analyse ungleicher Machtverhältnisse begründen lässt und nicht nur mit dem Ideal einer Transparenzgesellschaft. Dagegen ist eine zum Totalen neigende Transparenz schwer zu verteidigen. Das andere Extrem ist genauso wenig wünschenswert. Das würde bedeuten, dass alle Erscheinungen von Personen prima facie getrennt und unverbunden wären. In der Frühzeit des Internets tauchte das als Karikatur ‚postmoderner‘ Identitätsauffassungen auf, welche als ‚freies Spiel‘ der Selbstschöpfung durch die Literatur geisterte. Es wurde postuliert, dass die eigene Person im Internet völlig beliebig geschaffen werden könnte. Das war sicher eine naive Sicht.45 Dennoch ist die Vorstellung des autonomen Identitätsmanagements von der normativen Struktur her ähnlich: der freien Möglichkeit zu entscheiden, welches Leben man führen will und dies durch die entsprechende Wahl von Beziehungen und Selbstpräsentationen auszufüllen. Das setzt ebenfalls voraus, dass hinreichend viele – wenn auch sicher nicht alle – sozialen Personen prima facie getrennt sind und nur die erscheinende Person selbst entscheidet, diese in Verbindung zu bringen oder auch nicht. Da, wie oben gezeigt, auch diese Vorstellung von Autonomie problematisch ist, bleibt der Wert relativer Privatheit inhärent ambivalent. Privatheit ist notwendig, da vollständige Transparenz die Möglichkeit Persönlichkeit auszuhandeln zer44  Für eine ausführliche Diskussion dieser Problematik anhand homosexueller Beziehungen siehe Gross (2013): Contested Closets. 45  Vgl. Matzner (2016): Personen verwalten oder Personen sein (müssen)?



Der Wert informationeller Privatheit jenseits von Autonomie

89

stören würde und stattdessen durch eine Vielzahl von Fremdeinflüssen ersetzte. Aber auch das Gegenteil, die Erscheinungen so weit wie möglich zu trennen, ist kein wünschenswerter Zustand. Das bedeutet, dass das Ausmaß relativer Privatheit nur in Bezug zum Kontext, in dem eine Person erscheint, den anderen, denen sie erscheint oder erscheinen könnte, sowie den weiteren technischen und materiellen Bedingungen entschieden werden kann. Ein adäquates Maß an Privatheit kann somit nur unter Einbezug gesellschaftlicher und technischer Ebenen erreicht werden. Zum Teil wird Privatheit implizit in den Aushandlungen der Persönlichkeit mitverhandelt. Aber zum Teil wird Privatheit auch durch soziale und technische Bedingungen determiniert. Damit wird die Bestimmung eines adäquaten Ausmaßes an relativer Privatheit und dessen Umsetzung zu einer gesellschaftlichen und politischen Aufgabe.46 Für diese Abwägung ist es nötig zu sehen, dass der Wert des Privaten nicht nur durch Autonomie begründet werden kann. Denn damit wäre der Wert des Privaten sozusagen an einem Ende des gerade genannten Spektrums zwischen individueller Selbstpräsentation und einer Transparenzgesellschaft verortet. Deshalb zeige ich abschließend, dass der Wert des Privaten grundlegender damit begründet werden kann, die Freiheit zu schützen, bestimmte Personen sein oder werden zu können – was nicht unbedingt durch autonome Entscheidungen geschehen muss. Jede Erscheinung, die mit der aktuellen in Verbindung gebracht wird, strukturiert, informiert und limitiert die Weise, wie eine Person erscheint. Relative Privatheit schränkt die Erscheinungen aus anderen Kontexten, welche solch einen Einfluss haben können, ein. Der Wert solcher Einschränkungen lässt sich analog zu Arendts Diskussion des ‚Verzeihens‘ begründen. Denn relative Privatheit kann als soziale, pluralisierte Version dessen gesehen werden, was Arendt als ‚Verzeihen‘ zwischen zwei Menschen beschreibt. Arendt leitet die Notwendigkeit zu verzeihen direkt aus ihrer Auffassung von Persönlichkeit ab. Wenn, was wir sagen und tun – oder genauer, wie unser Sprechen und Tun anderen erscheint – bestimmt, wer wir sind. Wenn all diese Erscheinungen nur aufsummiert würden, verlören wir sofort jede Möglichkeit frei zu handeln: Könnten wir einander nicht vergeben, d. h. uns gegenseitig von den Folgen unserer Taten wieder entbinden, so beschränkte sich unsere Fähigkeit zu handeln gewissermaßen auf eine einzige Tat, deren Folgen uns bis an unser Lebensende im wahrsten Sinne des Wortes verfolgen würden.47

Arendt diskutiert die christlichen Ursprünge des Verzeihens als Tugend, aber wendet dies in eine politisch-säkulare Version, die ein Kernelement ih46  Diese Diagnose ergänzt sich mit dem oben zitierten Ergebnis von Marwick und Boyd. 47  Arendt (2003): Vita activa, S. 302.

90

Tobias Matzner

rer Auffassung der Person darstellt. Das Verzeihen einer Tat bedeutet, dass eine Person nicht länger die Person sein wird, die in der betreffenden Situation als Täter / in erschienen ist. Verzeihen bedeutet, dass man nicht länger die Person ist, die etwas Bestimmtes getan oder gesagt hat. ‚Verzeihen‘ kann dann als Überbegriff für eine ganze Reihe sozialer Praktiken gelesen werden, die alle dazu dienen, frühere Erscheinungen als irrelevant für die aktuelle Erscheinung einer Person zu bestimmen.48 (Bei Arendt wird dies ergänzt durch das ‚Versprechen‘, welches eine ähnliche Funktion für zukünftige Erscheinungen hat.) Bezüglich Verzeihen (und Versprechen) formuliert Arendt die Passage, die einer konkreten politischen Ethik in Vita activa am nächsten kommt: Wenn wir unter Moral mehr verstehen dürfen als die Gesamtsumme der ‚mores‘, der jeweils geltenden Sitten und Gebräuche, mitsamt der in ihnen enthaltenden Maßstäbe für jeweiliges Verhalten, die als solche sich natürlich historisch dauernd wandeln und von Land zu Land verschieben, so kann Moral sich jedenfalls im Feld des Politischen auf nichts anderes berufen, als die Fähigkeit zum Versprechen und den guten Willen, den Risiken und Gefahren, denen Menschen als handelnde Wesen unabdingbar ausgesetzt sind, mit der Bereitschaft zu begegnen, zu vergeben und sich vergeben zu lassen, zu versprechen und Versprechen zu halten.49

Es ist zu betonen, dass hier kein Imperativ zu ‚vergeben‘ formuliert ist, aber die Notwendigkeit einer Bereitschaft zu vergeben begründet wird. Arendt zeigt, dass keine sinnvolle, persönliche Interaktion möglich wäre ohne diese Bereitschaft, das heißt ohne die Möglichkeit, dass einige Ereignisse aus der Vergangenheit für die aktuelle Interaktion irrelevant werden. Aber sie sagt nicht, dass das immer geschehen sollte, oder wann. Verzeihen ist selbst eine Handlung, die in manchen Situationen angemessen erscheint und in anderen fragwürdig. Auf sozialer Ebene spielt Privatheit eine ähnliche Rolle. Ohne Privatheit, das heißt ohne die Möglichkeit, dass bestimmte Erscheinungen irrelevant für andere werden – wäre sinnvolle Interaktion ebenfalls unmöglich. Privatheit betrifft aber nicht nur Dinge, die andere schon wissen – wobei solche temporären Formen relativer Privatheit etwa als Recht auf Vergessen durchaus wichtig sind. Darüber hinaus ist Privatheit aber die sozial institutionalisierte Überzeugung, dass manche Dinge, welche andere potentiell zu den Erscheinungen zählen könnten, welche die Person bestimmen, besser unbekannt bleiben. Es wurde gezeigt, dass es schwierig ist, einen absoluten Wert bestimmter Erscheinungsweisen oder Situation festzulegen, in dem Sinn, dass diese immer und allen gegenüber privat sein sollten – oder nie. Genauso sieht Arendt 48  Vgl.

Matzner (2013): Vita variabilis, S. 171. (2003): Vita activa, S. 314.

49  Arendt



Der Wert informationeller Privatheit jenseits von Autonomie

91

keine absolute Pflicht zu verzeihen. Ohne die Möglichkeit und grundlegende Bereitschaft dazu ist aber keine sinnvolle persönliche Beziehung möglich. Ähnliches gilt wiederum für Privatheit. Die Bereitschaft, Privatheit zu gewähren, das heißt die Existenz sozialer Normen, welche diese Bereitschaft bestärken oder verlangen, transzendiert die Kontextabhängigkeit der Frage, wie privat eine bestimmte Erscheinung sein sollte. Diese Bereitschaft schützt dann immer noch individuelle Freiheit – eine Freiheit, die aber noch stärker sozial verstanden wird, als auch die sozial eingebettete Vorstellung von Autonomie, die oben diskutiert wurde. Es ist die Freiheit zu erscheinen und die eigene Person hier und jetzt auszuhandeln – anstatt durch allerhand Daten, Aufzeichnungen, Geschichten etc. aus anderen Kontexten übermäßig bestimmt zu werden. Diese Aushandlung muss jedoch nicht notwendigerweise in autonomen Subjektpositionen enden. Gerade weil wir uns zumeist in heteronom strukturierten Situationen befinden, ist es wichtig, dass die Personen, die dort erscheinen (müssen) nicht zu viele andere Erscheinungen bestimmen. Damit schützt Privatheit grundsätzlich die Freiheit zur Veränderung, die Freiheit eine andere Person werden zu können und damit auch die Pluralität menschlichen Lebens. Bibliografie Allen, Anita L.: Why Privacy Isn’t Everything. Feminist Reflections on Personal Accountability. Lanham 2003. Arendt, Hannah: Vita activa oder Vom tätigen Leben. München 2003. Bataille, Georges: Death and Sensuality. A Study of Eroticism and the Taboo. Salem, N.H. 1992. Benhabib, Seyla: Hannah Arendt. Die melancholische Denkerin der Moderne. Frankfurt/M. 2006. Butler, Judith: Kritik der ethischen Gewalt. Frankfurt/M. 2007. Cavarero, Adriana: Relating Narratives. Storytelling and Selfhood. London/New York 2000. Christman, John: Relational Autonomy, Liberal Individualism, and the Social Constitution of Selves. In: Philosophical Studies 117.1 (2004), S. 143–164. Cohen, Jean C.: Redescribing Privacy. Identity, Difference, and the Abortion Controversy. In: Columbia Journal of Gender and Law 3 (1992). Cohen, Julie E.: Configuring the Networked Self. Law, Code, and the Play of Everyday Practice. New Haven/London 2012. Cover, Rob: Performing and Undoing Identity Online. Social Networking, Identity Theories and the Incompatibility of Online Profiles and Friendship Regimes. In: Convergence. The International Journal of Research into New Media Technologies 18.2 (2012), S. 177–193.

92

Tobias Matzner

Ellison, Nicole B./Marwick, Alice: ‚There Isn’t Wifi in Heaven!‘. Negotiating Visibility on Facebook Memorial Pages. In: Journal of Broadcasting & Electronic Media 56 (2012), S. 378–400. Facebook Diversity (2014). URL: https://www.facebook.com/photo.php?fbid=5675879 73337709 (zuletzt eingesehen am 17.05.2017). Friedman, Marilyn: Autonomy and Social Relationships. Rethinking the Feminist Critique. In: Dies: Autonomy, Gender, Politics. Oxford. 2003, S. 81–97. Gatens, Moira: Privacy and the Body. The Publicity of Affect. In: Beate Roessler (Hg.): Privacies. Philosophical Evaluations. Stanford. 2004, S. 113–132. Glancy, Dorothy J.: The Invention of the Right to Privacy. In: Arizona Law Review 21.1 (1979), S. 1–39. Goffman, Erving: The Presentation of Self in Everyday Life. New York 1959. Gross, Larry P.: Contested Closets. The Politics and Ethics of Outing. Minneapolis 1993. Hagendorff, Thilo: Das Ende der Informationskontrolle. Digitale Mediennutzung jenseits von Privatheit und Datenschutz. Bielefeld 2017. Heller, Christian: Post-privacy. Prima leben ohne Privatsphäre. München 2011. Johnson, Bobbie: Privacy no Longer a Social Norm, says Facebook Founder. URL: http://www.theguardian.com/technology/2010/jan/11/facebook-privacy (zuletzt eingesehen am 01.03.2016). Marmor, Andrei: What Is the Right to Privacy? Philosophy & Public Affairs 43.1 (2015), S. 3–26. Marwick, Alice E.: Status Update. Celebrity, Publicity, and Branding in the Social Media Age. New Haven 2013. Marwick, Alice E./Boyd, Danah: Networked privacy. How Teenagers Negotiate Context in Social Media. In: New Media & Society 16.7 (2014), S. 1051–1067. Matzner, Tobias: Personen verwalten oder Personen sein (müssen)? Normen der Privatheit (nicht nur) in der digitalen Kommunikation. In: Adam, Marie-Hélène/ Gellai, Szilvia/Knifka, Julia (Hg.): Technisierte Lebenswelt. Über den Prozess der Figuration von Mensch und Technik. Bielefeld 2016, S. 227–242. ‒ Vita variabilis. Handelnde und ihre Welt nach Hannah Arendt und Ludwig Wittgenstein. Würzburg 2013. ‒ Why Privacy Is not Enough Privacy in the Context of ‚Ubiquitous Computing‘ and ‚Big Data‘. In: Journal of Information, Communication and Ethics in Society 12.2 (2014), S. 93–106. Matzner, Tobias u. a.: Do-It-Yourself Data Protection – Empowerment or Burden? In: Gutwirth, Serge/Leenes, Ronald/De Hert, Paul (Hg.): Data Protection on the Move. Dordrecht 2016, S. 277–305. McNeill, Laurie: There Is No ‚I‘ in Network. Social Networking Sites and Posthuman Auto/Biography. In: Biography 35.1 (2012), S. 65–82. Nakamura, Lisa: Cybertypes. Race, Ethnicity, and Identity on the Internet. New York 1999.



Der Wert informationeller Privatheit jenseits von Autonomie

93

Nissenbaum, Helen: Protecting Privacy in an Information Age. The Problem of Privacy in Public. In: Law and philosophy 17.5–6 (1998), S. 559–596. ‒ Privacy in Context. Technology, Policy, and the Integrity of Social Life. Stanford 2010. Pateman, Carole: The Sexual Contract. Stanford 1988. Rachels, James: Why Privacy Is Important. In: Philosophy & Public Affairs 4.4 (1975), S. 323–333. Rössler, Beate: Der Wert des Privaten. Frankfurt/M. 2001. ‒ The Value of Privacy. Cambridge 2005. Roessler, Beate/Mokrosinska, Dorota: Privacy and Social Interaction. In: Philosophy & Social Criticism 39.8 (2013), S. 771–791. Schmidt, Eric S./Cohen, Jared: The New Digital Age. Reshaping the Future of People, Nations and Business. New York 2013. Singh, Ishita: Blogger Bobbie Duncan Recalls Getting Outed Accidentally On Facebook (2014). URL: http://www.huffingtonpost.com/2014/01/08/outed-on-facebook _n_4563522.html (zuletzt eingesehen am 17.05.2017). Stutzman, Frederic/Hartzog, Woodrow: Boundary Regulation in Social Media. In: Proceedings of the ACM 2012 Conference on Computer Supported Cooperative Work. New York 2012. Walzer, Michael: Spheres of Justice. A Defense of Pluralism and Equality. New York 1983. Wesch, Michael: Youtube and You. Experiences of Self-Awareness in the Context Collapse of the Recording Webcam. In: Explorations in Media Ecology, 8.2 (2009), S. 19–34. Westlund, Andrea C.: Rethinking Relational Autonomy. In: Hypatia, 24.4 (2009), S. 26–49. Zimmer, Michael: But the Data is Already Public. On the Ethics of Research in Facebook. In: Ethics and Information Technology 12.4 (2010), S. 313–325.

Öffentlichkeit und Bewusstsein Volker Gerhardt 1. Öffentlichkeit als Form des Bewusstseins Kants Rede von der „Publizität“ als der „transzendentalen Formel“ von Recht und Politik1 reicht weit über Recht und Politik hinaus. Es ist zwar richtig, dass die auf die Zustimmung einer Menge von Menschen angewiesene Politik der allgemeinen Bekanntmachung und der Beurteilung derer bedarf, die ihr folgen können sollen. So argumentiert schon Platon, wenn er die Geltung der Gesetze auf den freiwilligen Konsens aller Bürger gründet.2 Aber so wie sich bereits bei Platon zeigt, dass die auf Wahrheit Anspruch erhebenden Leistungen des Erkennens und Begründens jedem möglichen anderen (sofern er des Denkens mächtig ist) Zustimmung abverlangen, so sind auch bei Kant sämtliche Leistungen der Vernunft in den Horizont des Öffentlichen gestellt. Die Wissenschaft ist als ganze auf „freie und öffentliche“ Prüfung angelegt,3 die Leistungen der Urteilskraft bestehen darin, „an der Stelle jedes anderen“ zu denken,4 und das Fortschreiten der menschlichen Geschichte ist, insbesondere wenn sie unter dem ausdrücklichen Anspruch der Aufklärung steht, an das den Mut eines jeden fordernde „öffentliche Räsonnement“ gebunden.5 Man kann jedoch noch weitergehen und die transzendentale Aktivität des Verstandes selbst als öffentliche Leistung ausweisen. Wenn Kant im Jahre 1794 einem seiner begabtesten Schüler, der sich schwer damit tut, die transzendentale Konstitution der Erfahrungswelt zu verstehen, zunächst erklärt, der Verstand begreife nur, was er selber ‚machen‘ könne, dürfte er die Schwierigkeiten eines angemessenen Verständnisses nur noch vergrößern. Dann sieht es nämlich so aus, als verfahre der Verstand eines jeden einzelnen Menschen nach Art eines göttlichen Demiurgen, der sich seine Welt allein aus selbstgemachten Begriffen fabriziert. Wir hätten es dann mit einem tech1  Kant:

Zum ewigen Frieden, S. 381. der ‚Ansprache an die Siedler‘ in den Nomoi 715e–734e. 3  Kant: Kritik der reinen Vernunft, S. 9. 4  Kant: Kritik der Urteilskraft, S. 293 f. 5  Kant: Was ist Aufklärung, S. 36 f. 2  In

96

Volker Gerhardt

nisch begründeten Idealismus zu tun, bei dem das größte Rätsel darin besteht, wie die selbst gemachten Dinge von den anderen, die sich ja auch jeweils ihre eigenen Dinge ‚machen‘, überhaupt als gemeinsame, geschweige als brauchbare Dinge erkannt werden können. Und wenn Kant (in naheliegender Auslegung dessen, was man von einem auf ‚Verstehen‘ angelegten ‚Verstand‘ ohnehin nur erwarten kann) erläutert, dieses ‚Machen‘ bestehe eigentlich nur darin, die Dinge verständlich, mit seinem Wort: „communicabel“ zu machen,6 kann man kaum vermeiden, dass einem ein Licht aufgeht: Man begreift augenblicklich, wieso der Autor der Kritik der reinen Vernunft jederzeit zwischen dem ‚Ich-denke‘ und dem ‚Wir-denken‘ hin- und herspringen kann.7 Denn in nichts anderem als in diesem Wechsel zwischen der Perspektive des Einzelnen und der Perspektive aller anderen besteht das auf Verständigung angelegte Denken. Dann ist das Denken die Mitteilung eines Sachverhalts in eben der Form, in der ihn jeder andere auch als diesen Sachverhalt verstehen kann. Im Gedanken wird nicht nur ein singuläres sinnliches Datum auf die Allgemeinheit der begrifflichen Ebene gehoben, sondern es wird eben damit der bloß individuellen Wahrnehmung enthoben und für jeden erkennbar gemacht. Die Allgemeinheit hat nicht nur die logische Bedeutung der Generalisierung, sondern zugleich die soziale der an alle gerichteten Kommunikation. So wird der Sachverhalt, so wird die Welt der Dinge und Ereignisse verständlich, also: ‚communicabel‘ gemacht. Wenn es aber so ist, dann unterstellt dieses alles Verstehen ausmachende Denken nicht mehr und nicht weniger als Öffentlichkeit, in der jeder sich an die Stelle eines jeden anderen versetzen kann und dabei bereits ein Minimum an Urteilskraft benötigt.8 Diese Öffentlichkeit kann nun aber nicht mit der rechtlich garantierten oder durch Zensur limitierten Sphäre politischer Meinungsfreiheit identisch sein. Es ist vielmehr eine Öffentlichkeit, die der Politik bereits zugrunde liegt und die allein deshalb durch Politik nicht eingeschränkt werden darf, weil anders das Politische jede Bedeutung verlöre. Man sieht also, dass mit Kants Rede von der Publizität als der ‚transzendentalen Formel‘ von Recht und Politik eine veritable Grundlegung beabsichtigt ist, durch die Politik erst möglich wird. 6  Kant:

Brief an Jacob Sigismund Beck vom 1. Juli 1794, S. 515. Gerhardt (2002): Immanuel Kant. Vernunft und Leben; Gerhardt (2001): Vorstellung als Form der sozialen Organisation des Leibes, S. 411–428. 8  Und schon eröffnet sich der Zugang zu einem anderen Problem der transzendentalen Verstandesleistungen, nämlich, wie der Schematismus der Urteilskraft in den konstitutiven Aufbau der Gegenwartswelt eingebunden ist. 7  Dazu:



Öffentlichkeit und Bewusstsein

97

2. Bewusstsein ist nicht privat Der philosophische Rang dieser Erkenntnis tritt zutage, wenn wir uns fragen, wie das Bewusstsein beschaffen sein muss, um die transzendentale Begründung des Politischen zu leisten. Und da zeigt sich, dass wir uns von der lieb gewonnenen Vorstellung eines gleichsam privaten Bewusstseins, das jeder für sich selbst hat, um erst im Sprechen und Handeln aus sich herauszutreten, verabschieden müssen. So wenig es eine ‚Privatsprache‘ gibt, so wenig gibt es ein ‚Privatbewusstsein‘. Die Welt ist nicht ‚im Kopf‘, und sie ist nur insofern im Bewusstsein eines Einzelnen, als Bewusstsein die gemeinsame Sphäre ist, in der sich verschiedene Individuen im und durch den Bezug auf die Welt verständigen können. Und es ist diese Verständigung, in der die Welt ihre kategoriale Verfassung erhält. Erst in der sachhaltigen Mitteilung wird sie zu dem, womit wir gemeinsam umgehen können. Obgleich die Fähigkeit, sich reflektierend allein auf sich beziehen zu können, unbestreitbar und unverzichtbar ist, so wenig ist dadurch der Schluss gerechtfertigt, Bewusstsein sei bloß ‚subjektiv‘. Das Bewusstsein kann nicht als das Kino angesehen werden, das nur Privatvorstellungen im Kopf eines jeden Einzelnen ermöglicht. Jeder Rückzug auf die persönlichen Eindrücke des eigenen Erlebens erfolgt immer schon aus der Perspektive eines Bewusstseins, das sich in seiner unter allen Bedingungen auf Mitteilung angelegten Elementarfunktion als ursprünglich objektiv und darin als öffentlich erfährt. Wenn es richtig ist, dass die grundlegende Leistung des Bewusstseins darin liegt, etwas ‚verständlich‘, etwas ‚communicabel‘ zu machen, dann haben wir die zunächst absurd erscheinende Konsequenz zu ziehen, dass die erste und daher prinzipiell nicht preiszugebende Instanz der Öffentlichkeit das menschliche Bewusstsein selbst ist. Das führt, kurz gesagt, zu folgenden Konsequenzen: – Der Verstand ist die Fähigkeit, im Ich das Wir und im Wir das Ich zu denken. Der Verstand erfasst die Gegenstände der Erfahrung so, wie sie auch jeder andere erfahren kann. Damit ist er das Organ für die Tatbestände der gemeinsamen Welt. Er ist ein soziales Vermögen, das es erlaubt, ein Etwas als das Gleiche für viele, ja für alle zu denken. – Die Vernunft vermag vom Einzelnen auf Einheiten und Ganzheiten zu schließen, in deren Namen sie dann schlussfolgernd spricht; sie ist das organisierende Prinzip, das, wie der organisierende Leib, aus allem Teile und aus jedem Teil ein Ganzes zu machen versteht. Mit dem ‚All‘, der ‚Welt‘, der ‚Gesellschaft‘ oder dem ‚Leben‘ verschafft sie – durch ihre geistige Organisation – dem in Gemeinschaft mit seinesgleichen lebenden Leib ein ganzheitliches Gegenüber, das die Kontur leibhaftiger Gegenstände hat, auch wenn es ‚nur‘ durch ‚Vernunftbegriffe‘ zu fassen ist.

98

Volker Gerhardt

– Im Geist versucht das alle und alles umschließende Bewusstsein sich selbst nach Art einer alles umfassenden Korporation zu denken. In ihm gewinnen die intellektuellen Leistungen einen institutionellen Charakter. Damit steht der Geist den Einheiten technischer, politischer oder kultureller Organisationen besonders nahe. – Schließlich ist die Öffentlichkeit nicht allein die unter den Bedingungen etablierter politischer Institutionen benötigte, vornehmlich medial erzeugte und selbst nach Art einer Institution zu sichernde Sphäre ausdrücklicher Verständigung über alles, was das gesamtgesellschaftlich relevante Geschehen einer Gemeinschaft von Menschen betrifft. Sie ist vielmehr auch die das menschliche Handeln und Denken als ganze ermöglichende Atmosphäre wechselseitiger Verständigung über alles, was im Kontext einer Kultur von sachlicher Bedeutung ist. Und wenn sie das ist, dann beginnt sie nicht erst im Außenraum des familiären Lebens, auch nicht erst dort, wo jemand etwas ausdrücklich vor anderen sagt oder meint, sondern sie reicht über ihre alle sachhaltigen Bedeutungen tragende Leistung bis in das Bewusstsein der Individuen hinein und fundiert bereits hier alles, was in der zwischenmenschlichen Verständigung Sinn und Bedeutung haben kann. 3. Vorrangige Probleme Die vier Punkte bieten nur einige Schlussfolgerungen aus der Gleichung zwischen Bewusstsein und Öffentlichkeit. Sie werden jedem bedenklich erscheinen, der bislang glaubte, er könne in seinem Bewusstsein prinzipiell etwas für sich behalten. Deshalb ist die Neigung, die Gleichstellung zwischen Bewusstsein und Öffentlichkeit für falsch zu halten, nur zu verständlich. Ich habe mich ja selbst lange genug davon abhalten lassen, sie weiter zu verfolgen. Doch es gibt Gründe, die für das Unwahrscheinliche sprechen: Der erste resultiert aus der Einsicht in die Vorrangigkeit der Objektivität des Bewusstseins und aus der Tatsache, dass wir im bewussten Zustand nicht in uns, sondern in einer von jedem anderen Bewusstsein nachvollziehbaren Weise außer uns sind. Im Bewusstsein befinden wir uns in einer allen bewussten Wesen gemeinsamen Welt. Der zweite Komplex von Gründen, der in der Ausarbeitung dieser Konzeption die größten Schwierigkeiten gemacht hat, ist auf die These von der Unverzichtbarkeit der Subjektivität zu bringen. Erst in der Subjektivität kann sich jeder selbst der Tatbestände des Bewusstseins versichern. Nur dadurch wird vermieden, dass ein individuelles Bewusstsein das bloße Echo des Bewusstseins aller ist. Die Subjektivität sichert das Selbstbewusstsein und damit zugleich die Individualität derer, die sich in sachhaltiger und damit Objektivität beanspruchenden Weise am Geschehen der Mitteilung beteiligen.



Öffentlichkeit und Bewusstsein

99

Der dritte Grund stützt sich auf die implizite soziale Dimension bereits des individuellen Bewusstseins. Nicht der Selbstbezug allein ist entscheidend, sondern die Tatsache, dass sich ein Ich im bewussten Status ursprünglich auf andere seiner selbst bezieht und dies nur unter der Bedingung eines stets erforderlichen Sachbezugs tun kann. Es ist somit die soziomorphe Struktur des Bewusstseins, die sich im Dreieck zwischen Ich und Du und dem gemeinten Sachverhalt ergibt. Sie stellt schon im Akt des Denkens Öffentlichkeit her. Ohne sie wären die Gedanken bedeutungslos. Wenn wir trotzdem denken könnten, würde das Gedachte sich auf nichts beziehen; und wenn wir trotzdem sprechen könnten, käme bestenfalls heraus, dass wir sprechen möchten, vielleicht auch Laute von uns geben, aber in der Sache nichts mitteilen könnten. Es ist somit das Bewusstsein, das eine Welt errichtet, zu der wir nicht nur gemeinsam gehören, sondern die auch, wie das bei Institutionen üblich ist, gemeinsame Verbindlichkeiten herstellt. Sie verpflichten uns sowohl gegenüber uns selbst wie auch gegenüber unseresgleichen wie auch gegenüber Dingen und Ereignissen. Dem öffentlichen Bewusstsein kann man übrigens die alles Wissen tragende Rolle zuerkennen, ohne in den Verdacht zu geraten zu müssen, ein epistemischer Idealist zu sein. Denn die Funktionen des öffentlichen Bewusstseins setzen die Tatsache unterschiedlicher Individuen in einer bestehenden Welt voraus, einer Welt, die sie gemeinsam vor Probleme stellt. Die durchaus transzendental zu nennende Leistung des Bewusstseins bezieht sich hier in geradezu offenkundiger Weise allein auf die Art der gemeinsamen Weltverarbeitung. Sie geschieht im Modus sozialer Mitteilung über die darin selbst zum Medium werdende Welt. Gegen diese Konzeption gibt es grundlegende Bedenken, die in den nun folgenden Abschnitten zu erörtern sind und, wie ich hoffe, nachhaltig abgeschwächt werden können. 4. Die Unverzichtbarkeit der Subjektivität Das erste und wichtigste Bedenken gegen die Verbindung von Bewusstsein und Öffentlichkeit stammt aus der Einsicht in die eminente Bedeutung der Subjektivität des Bewusstseins. Dass es sie gibt, ist so offenkundig, dass sie von keiner Theorie in Abrede gestellt werden kann.9 Die meisten der großen neuzeitlichen Philosophen, von Descartes über Hume und Kant bis hin zu 9  Obgleich ebendies in den philosophischen Theorien – und zwar seit der modernen Karriere des Begriffs in Skeptizismus und Idealismus – immer wieder geschieht. Dazu erhellend: Larmore (2012): Vernunft und Subjektivität.

100

Volker Gerhardt

Nietzsche, Husserl und Wittgenstein, sehen die Subjektivität als erste Tatsache des Bewusstseins an. Zwar hat es in der Folge des angestrengten linguistic turn vereinzelt Bemühungen gegeben, die Subjektivität zu einer Selbsttäuschung des Bewusstseins zu erklären, die in der szientifischen Aufklärung der Welt vernachlässigt werden kann. Doch so spektakulär die Versuche auch waren, so befremdlich und widersprüchlich sind sie geblieben.10 Es ist daher vor allem zu fragen, ob das in der Tat an das Ich des Selbst gebundene Bewusstsein notwendig und in allen Fällen subjektiv sein muss. Könnte es als rein subjektives Bewusstsein auch nur eine jener Leistungen erfüllen, die wir mit Aufmerksamkeit, Wahrnehmung, Erkenntnis, Denken oder Verstehen verbinden? Zwar ist es richtig, dass diese Leistungen in jedem Einzelfall an das Bewusstsein eines Individuums gebunden sind; aber das, was sie uns geben, hat seine Bedeutung offenbar nur dadurch, dass sie jeden Einzelnen auf etwas beziehen, was auch jedem anderen bewusst sein kann. Ist nicht die Qualifikation eines Bewusstseins als subjektiv nur solange und insoweit sinnvoll, als es objektives Bewusstsein gibt? 5. Anzeichen für die Objektivität des Bewusstseins Eine spekulative Erwägung kann uns der gestellten Frage und vielleicht auch einer Antwort näher bringen: Kann man sich vorstellen, dass menschliches Bewusstsein nur und somit in allen Fällen subjektives Bewusstsein ist? Kann es gar als subjektives Bewusstsein auf die Welt gekommen sein? Vermutlich werden wir nie wissen, welchen Auftritt das Bewusstsein in der Frühgeschichte der kulturellen Evolution des Menschen gehabt hat. Aber wir kennen die kulturkritische These, dass Subjektivität zu den Spätprodukten der menschheitlichen Entwicklung gehört.11 Für Arnold Gehlen ist sie gar das Anzeichen eines alles gefährdenden Verfalls.12 Was aber soll Bewusstsein vorher gewesen sein? Eine Antwort dürfte nicht leicht zu geben sein. Zwar wissen wir, dass Subjektivität sich nicht erst zur Zeit der Romantik verbreitet hat und auch nicht erst, wie noch Hegel vermutet, durch den christlichen Glauben in die 10  Eine Ausnahme stellt Donald Davidson dar, der das Verdienst hat, durch seine These von der ‚Triangulation‘ einen Vorschlag zur ursprünglich sozialen – und zugleich mundanen – Anlage des Bewusstseins gemacht zu haben. Vgl. Davidson (1993): Der Mythos des Subjektiven. – Erst im Anschluss an die Publikation meiner Überlegungen zur soziomorphen Struktur des Bewusstseins bin ich auf die Parallele zu Davidson aufmerksam gemacht worden. Vgl. Gerhardt (1999): Selbstbestimmung. Das Prinzip der Individualität. 11  Gehlen (1956): Urmensch und Spätkultur, S. 107. 12  Gehlen (1969): Moral und Hypermoral, S. 141.



Öffentlichkeit und Bewusstsein

101

Welt gekommen ist. Schon die Homerischen Epen zeugen von der Individualität und Subjektivität ihrer Helden, und auch die mindestens tausend Jahre ältere Literatur des Mittleren Reichs der Pharaonen in Ägypten weist bewegende Zeugnisse subjektiver Selbstbeziehung idiosynkratischer Individuen aus. Aber kann das alles gewesen sein? Und ist dem nicht schon etwas vorausgegangen? Hier können wir auf den breiten Sockel der technischen und künstlerischen Leistungen verweisen, die uns heute so gut wie gar nichts über die akuten Abweichungen der Individuen voneinander verraten. Aber es kann nicht in Zweifel stehen, dass die Verzierung der Werkzeuge, der Schmuck für Haar und Körper, die Höhlenmalerei, die Kraft und Fruchtbarkeit verheißenden Plastiken, vor allem aber die das kulturelle Dasein des Menschen bis heute tragenden Instrumente und Institutionen selbst ein die Individuen synchron und diachron verbindendes, nicht nur die Materialien und Gegenstände, sondern auch die Anlässe, Bedürfnisse und Zwecke sachgerecht, allgemein und darin objektiv erfassendes Bewusstsein erfordern. Bevor uns das ‚Faktum‘ der Wissenschaft auf die objektiven Bedingungen der Möglichkeit allgemeingültiger Urteile stößt, ist es die um einige Jahrhunderttausende ältere Technik, die uns auch nachträglich vor Augen führt, dass Bewusstsein nicht nur ein Selbst-, sondern ein alle Menschen einbeziehendes Weltverhältnis ist.13 Wie sollen der Umgang mit dem Feuer, der weit verbreitete Waffen- und Gerätegebrauch oder die keineswegs nur Entfremdung erzeugende Arbeitsteilung möglich sein, wenn wir nicht ein Bewusstsein unterstellen, in dem die Individuen im kollektiven Sachbezug allgemein und gleich und somit ursprünglich objektiv verbunden sind? Wenn wir nicht annehmen wollen, dass es die subjektive Selbstreflexion war, die bereits die Domestizierung des Feuers vor mehr als einer Million Jahren angeleitet hat, müssen wir ein Bewusstsein für möglich halten, in dem die Individuen simultan und ohne den Vorbehalt ihrer individuellen Differenz bei der Sache waren. Dazu aber verhilft nur das gesuchte objektive Bewusstsein. 6. Ontogenetische Gründe für den Vorrang der Objektivität Das objektive Bewusstsein brauchen wir nun keineswegs nur in der Frühgeschichte des Menschen zu vermuten. Wir kennen es aus der Ontogenese des individuellen Einzelbewusstseins: Mit seinen ersten Regungen, höchst13  Dazu: Lombart / Haidle (2012): Thinking a Bow-and-Arrow. Cognitive Implications of Middel Stone Age Bow and Stone-Tipped Arrow Technology.

102

Volker Gerhardt

wahrscheinlich schon vor seiner Geburt, spätestens aber unmittelbar danach, ist der Mensch mit allen Sinnen auf die Reize der umgebenden Welt gerichtet, für die er unter den Konditionen seiner gattungsspezifischen Organisation empfänglich ist. Ihnen öffnet er sich als dem Gegebenen, dem sich alle anderen ebenso öffnen können, um es ebenso aufzunehmen. Wenn dieses originäre Bewusstsein schon sprechen könnte, könnte es immerzu nur die Anwesenheit dessen bestätigen, wovon es ausgeht, dass es überhaupt gegeben ist und somit auch für jeden anderen da ist. Könnte es bereits reflektieren, könnte es gewiss zugestehen, dass ein Gesicht oder ein Spielzeug die Sinne eines Anderen zwar ein wenig anders reizt, aber dennoch als dasselbe bewusst werden kann. Das frühkindliche Bewusstsein ist auf seine Umgebung wie auf eine vor aller Augen und Ohren stehende Sache gerichtet, die es eben so aufnimmt, wie jedes andere Bewusstsein sie auch erfährt, obgleich die jeweiligen Sinne mitnichten in jedem Leib und in jeder Lage exakt dasselbe vermelden. Erst mit der Ausbildung der Fähigkeit zur Unterscheidung zwischen dem, was alle sagen, und dem, was eine oder einer selbst davon weiß oder hält, kommt es zum Zweifel an der durchgängigen Allgemeinheit eines Bewusstseinsinhalts. Sobald ein Kind in der Lage ist, nicht immer gleich alles auszuplaudern, sondern Fragwürdiges, Peinliches oder Überraschendes für sich zu behalten, erfährt es die Subjektivität des Bewusstseins von Sachverhalten. Die aber besteht in einem Vorbehalt gegen die von Anfang an und immer wieder neu gegebene objektive Sphäre des Bewussten, von der es feststellt, dass es sich zeitweilig und punktuell aus ihr zurückziehen kann. In der Regel ist der Vorbehalt sachlich und zeitlich begrenzt. Man kann unmöglich alles unter der Kondition eines grundsätzlichen Zweifels erleben. Vielmehr setzt die reservatio mentalis ein Bewusstsein voraus, in dem die Welt mit ihren Dingen und Ereignissen für jeden gegenwärtig ist, der sich ihr öffnet. Bewusstsein wird als das erlebt, was jede und jeder hat, sobald sie die Augen aufschlagen, ihren Ohren trauen und ihre Nase sie nicht trügt. Was demgegenüber im Zweifel, in der Unsicherheit oder in der absichtsvollen Abgrenzung als subjektiv erfahren wird, ist ein Produkt der Differenzierung der ursprünglich für selbstverständlich gehaltenen Objektivität des Bewusstseins, von der wir (und zwar nach den zur Geltung gebrachten subjektiven Vorbehalten) sagen können, dass sie nur dort als gewiss angenommen werden kann, wo sie in der Lage ist, den subjektiven Zweifel zu überwinden. Die Differenzierung aber besteht darin, dass die zunehmend erfahrene Differenz des Individuums zu seinesgleichen in ihm selbst vorweggenommen und erprobend zum Austrag gebracht wird. Subjektivität ist eine Folge der bewusst erlebten Individualität unter seinesgleichen, der man im eigenen Verhalten Rechnung zu tragen versucht. Folglich kann man sagen,



Öffentlichkeit und Bewusstsein

103

dass die selbstbewusst vertretene Objektivität nur in Verbindung mit der Subjektivität des Bewusstseins Gültigkeit erlangt. 7. Die Individualität des Bewusstseins Gesetzt, die skizzierten Überlegungen lassen sich erhärten, kann man ausschließen, dass Subjektivität die primäre Form des Bewusstseins ist. Zugleich kann man die von Modernitätskritikern gepflegte Vermutung abweisen, dass sie die Fähigkeit des Menschen zur objektiven Verständigung mit seinesgleichen gefährdet; man muss im Gegenteil darauf bestehen, dass sie eine Mitteilung überhaupt erst auf das Niveau des Individuellen, des historisch Konkreten und kulturell Signifikanten hebt. Erst die mit der Objektivität verknüpfte, die sie aushaltende, sie weiterführende, infrage stellende oder überspielende Subjektivität macht diese Phänomene ‚interessant‘; sie lässt allererst erleben, wie wenig selbst in einer Tatsachenfeststellung wirklich festgestellt sein muss. Unter den Konditionen der Subjektivität kann sich etwas Festgestelltes schnell wieder verflüssigen – wenngleich nicht wirklich alles. Denn etwas Festes in der gemeinsamen Welt benötigt auch ein ‚alles‘ in Zweifel ziehender Subjektivist. Man kann und man sollte also darauf verzichten, die Subjektivität zur Instanz eines generellen Einspruchs gegen die grundsätzliche Objektivität des Bewusstseins zu erheben. Denn Subjektivität setzt die Objektivität voraus und macht sie zu etwas, gegenüber dem sich jeder Einzelne auf seine Weise verhalten kann. Erst durch die Subjektivität wird die Objektivität des Bewusstseins zu einer menschlichen Leistung, mit der man frei und selbstbewusst umgehen kann. Das erlaubt zu sagen, dass die Subjektivität zwar in der Lage ist, die Objektivität eines allgemein für richtig angesehenen Sachverhalts zu schwächen; sie vermag sie aber auch zu stärken. In der Subjektivität wird das Einzelbewusstsein zur Instanz einer individuellen Prüfung, die zu einer nachdrücklichen Versicherung des Bewussten in der Lage ist, aber natürlich auch Zurückhaltung nahelegen kann. So bekräftigt die Subjektivität die Individualität des Bewusstseins, ohne es in seiner Leistung einer allgemeinen Öffnung des Einzelnen für sich und seine Welt in Frage zu stellen. Mit dieser Erwägung ist der Weg frei, das Bewusstsein als eine Lebensfunktion zu begreifen, durch die der sachhaltige Weltbezug des Menschen ursprünglich öffentlich wird. Es ist das Bewusstsein, das dem Menschen die Gewissheit vermittelt, in einer Welt zu leben, in der er sich gleichursprünglich mit Dingen und anderen Lebewesen befindet und in der er sich in exaktem Sach-, Raum und Zeitbezug auf genau dasselbe beziehen kann, was auch andere begreifen. Und es ist die durch Subjektivität allererst konturierte Ob-

104

Volker Gerhardt

jektivität des Bewusstseins, in der die sich darin aufeinander beziehenden Individuen auf eine Welt ausrichten, in der sie ihre durch Trieb und Instinkt vorgegebene Gemeinsamkeit in der Bewältigung einer als gleich begriffenen Umgebung ausdrücklich machen. Als Gemeinschaft befinden sie sich in Lagen, in denen sie in gleicher Weise reagieren können; man kann auch sagen, sie erfahren die Welt als Problem, das sich ihnen gemeinsam stellt und auf das sie durch sachbezogene Verständigung reagieren können. Und eben damit befinden sie sich in einem öffentlichen Raum. Also gilt: Im, mit und durch das Bewusstsein eröffnet sich der öffentliche Raum des Daseins. Das ist der Raum, den der Mensch zum Leben braucht. Deshalb kann man den vielen Formeln zur Selbstbeschreibung des Menschen eine weitere zufügen: Er ist homo publicus – und insofern er dies ist, kann er auch homo faber, homo politicus oder animal symbolicum genannt werden. 8. Bewusstsein als Organ der Mitteilung Wie haben wir das Bewusstsein zu verstehen, wenn es in seinem Ursprung gar nicht aus der Selbstreflexion des sich auf sich selbst beziehenden Subjekts hervorgeht, sondern in seinen spezifischen Akten stets schon als öffentlich gelten kann? Was ist, wenn es gar nicht primär als introvertiert, sondern im Gegenteil nur in den extrovertierten Funktionen der Mitteilung begriffen werden kann? Welche Folgen hat es für die Welt, wenn sie nicht primär als Gegenstand des Handelns, sondern als mitgeteilter Sachverhalt in ihre alles umfassende Stellung gelangt? Gesetzt, das Bewusstsein müsste als ein Organ der Mitteilung angesehen werden: Man könnte es noch nicht einmal zureichend als das jedem individuell zur Verfügung stehende (gleichsam private) Instrument der Kommunikation ansehen, weil es selbst nach Art einer sozialen Instanz begriffen werden muss. Es wäre kein subjektives Organ privater Erschließung der jeweils gegebenen Umwelt, auch kein nach Art sinnlicher Leistungen nach außen gerichtetes Werkzeug individueller Weltaufklärung. Seine Lebensleistung erbrächte das Bewusstsein dann vielmehr nach Art einer Institution, in der die zunehmend auch ihrer selbst bewussten Individuen in einer gemeinsamen, einer sie allesamt umfassenden Aufgabe verbunden sind. Nietzsche hat noch im Zarathustra das Bewusstsein als ein „Etwas am Leibe“14 bezeichnet, ehe er, viel zu spät, um seine verheerende Kritik an Wissen und Wahrheit zu korrigieren, auf die Einsicht kam, das Bewusstsein 14  Nietzsche (1999): Also sprach Zarathustra, S. 39 (‚Von den Verächtern des Leibes‘).



Öffentlichkeit und Bewusstsein

105

als „Verbindungsnetz zwischen Mensch und Mensch“15 zu identifizieren! Es ist somit kein bis ins erdachte Unendliche reichender ideeller Arm des Leibes, sondern eine Sphäre, in der die Welt selbst zu einem Gegenstand der Menschheit wird, die sich darin selbst zu erhalten und zu entfalten sucht. Dabei sind Subjektivität und Privatheit Formen, in denen sich die Individualität und mit ihr – ganz ähnlich wie in der Polarität der Geschlechter – die Produktivität des bewussten Daseins zu sichern sucht. 9. Die Weltöffentlichkeit des Bewusstseins Gesetzt, die Beschreibung der mundanen Leistung des soziomorphen Bewusstseins trifft zu, dann setzt die digitale Technik nur etwas fort, was der Funktion des Bewusstseins ohnehin entspricht. Wenn es richtig ist, das Bewusstsein als das Organ der Mitteilung zu begreifen, dienen die elektronischen Geräte primär der Verstärkung, Vervielfältigung und Sicherung seiner vermittelnden Aktivität. Daher darf man sich nicht wundern, dass alles, was das Bewusstsein nach seiner Art, nämlich bewusst, in Umlauf bringt, im Prinzip von jedermann, der auch Bewusstsein hat, verstanden werden kann. Denn als Organ der Mitteilung ist das Bewusstsein immer auch das Organ des Verstehens. Wenn das aber richtig ist, hat man der Tatsache ins Auge zu sehen, dass, je größer und weitläufiger der Umlauf des Mitgeteilten ist, auch die Zahl derer wächst, die an der Verständigung teilhaben. Tatsächlich vergrößern die elektronischen Verstärker des Bewusstseins nicht nur die Reichweite der Mitteilung, die Geschwindigkeit ihrer Übermittlung und den Umfang der Datenspeicherung, sondern auch die Menge derer, denen ein Verstehen und Verarbeiten der in Umlauf gebrachten Informationen möglich ist. Um diese Konsequenz nicht trivial erscheinen zu lassen, kann man den Hinweis anfügen, dass damit durchaus auch ein besseres qualitatives Verständnis möglich ist. Die digitalen Übersetzungsprogramme16 lassen jedenfalls vermuten, dass die Verständigung selbst erleichtert wird. Zugleich aber wächst mit der Masse der elektronischen Mitteilungen auch die Möglichkeit ihrer Abschöpfung. Wer mit vielen kommuniziert, kann im Prinzip von allen gehört und zunehmend auch verstanden werden. Also ver15  Nietzsche (1999): Fröhliche Wissenschaft, S. 591 (Aphorismus 354: Vom ‚Genius der Gattung‘). Dazu siehe: Gerhardt: Die Kunst der Wissenschaft in Nietzsches ‚Fröhlicher Wissenschaft‘, S. 172–175. 16  Wort in Schrift, Hand- in Druckschrift, Konvertibilität in verschiedene Schrifttypen, automatische Ver- und Entschlüsselung sowie Übersetzungen aus anderen und in andere Sprachen.

106

Volker Gerhardt

größert sich mit der Menge, der Dichte und dem Umfang der digitalen Kommunikation die Chance, nicht nur aktiv, sondern auch passiv an ihr teilzunehmen. Viele Mitteilungen sind ohnehin an ‚alle‘, also an eine nicht spezifizierte Öffentlichkeit gerichtet; andere wenden sich an eine mehr oder weniger große Zahl von Adressaten; manche chats und viele mails beziehen ihren Sinn daraus, nur für eine Person oder für wenige Freunde oder Geschäftspartner gedacht zu sein. Wer es nicht schon vorher wusste, dem muss es seit den Sabotageangriffen auf das iranische Atomprogramm und mit der Aufklärung des Attentats beim Boston-Marathon, spätestens aber mit den nicht abreißenden Abhöraffären seit 2013 deutlich sein: Die regionalen oder politischen, die institutionellen oder gar persönlichen Einhegungen des Netzverkehrs lassen sich weder technisch noch bewusstseinstheoretisch aufrechterhalten: Was ins Netz gestellt oder digital versandt wird, das kann im Prinzip von jedem mitverfolgt und verstanden werden. Und sollte eine Nachricht ‚verschlüsselt‘ sein, ist die Verschlüsselung nur als digitale Maßnahme möglich, zu der es selbst wiederum einen Zugang geben muss, der allgemeinen Bedingungen der Netzverträglichkeit genügen muss, wenn er technisch disponibel bleiben soll. Aus dem Schlüssel, den einer am Kettchen trägt, oder aus dem Code, den jemand nur für sich behält, wird ein password, der dem System (und somit auch wieder jedem, der damit umzugehen versteht) bekannt sein muss. Damit kann alles digital Erfasste im Prinzip von jedem anderen, der sich den Zugang zum System verschafft, mitgehört oder mitgelesen werden. Privatheit im Netz ist eine contradictio in se; wer sich der digitalen Medien bedient, handelt öffentlich. Es ist dies eine Öffentlichkeit, die grundsätzlich unabschließbar ist und somit auch ‚Weltöffentlichkeit‘ genannt werden kann. In ihr kommen die technische Leistung des world wide web und die strukturelle Verfassung des Bewusstseins zur Deckung. Damit sind wir, ganz nebenbei, auch beim Problem des Abhörens, das im politischen Raum derzeit weltweit für Empörung sorgt. Doch die Entrüstung kann, zumindest bei den Experten, nicht aufrichtig sein. Denn wer das global network nutzt und wirklich überrascht sein sollte, dass es in der globalen Kommunikation globale Möglichkeiten der globalen Teilnahme gibt, der weiß nicht, was er tut. Entgeht ihm denn, dass sein Netzbetreiber, sein Software-Assistent und das für seinen firewall zuständige operating system, sich jederzeit in sein Programm einschalten können? Kann er darüber hinwegsehen, dass neu eintreffende updates seine Arbeit unterbrechen, in Sekundenbruchteilen Millionen von Daten konfigurieren, neue Steuerungseinheiten installieren und alte löschen, um danach das eigene Gerät automatisch abzuschalten? Wird nicht jeder, der anschließend weiterarbeitet, vor allem dann,



Öffentlichkeit und Bewusstsein

107

wenn sich sein PC wie von Geisterhand wieder eingeschaltet hat, zum Komplizen des Einbruchs in seine Privatsphäre? Das Prinzipielle der neuen Lage ist so offensichtlich, dass es schon als antiquiert zu gelten hat, die Schuldigen nach den alten Modellen politischer Täterschaft zu suchen. Natürlich sind die politischen Geheimdienste, deren Geschäft die Grenzüberschreitung zwischen den Rechtssphären ist, darauf aus, mit allen Erfolg versprechenden Mitteln so viel wie möglich in Erfahrung zu bringen. Spionage ist so alt wie das Militär und sie wird, seit es Waren und Märkte gibt, auch im Frieden fortgesetzt. Sich über sie als Tatsache zu beschweren, ist so richtig wie die Klage über die Prostitution. Es ist auch nicht genug, allein mit politischen Mitteln für die Forderung einzutreten, alles technisch und rechtlich Mögliche zu tun, um die Privatsphäre zu schützen. Gewiss: Demonstrationen und politische Agitation sind wichtige Instrumentarien der politischen Bewusstseinsbildung, und wenn sich die Journalisten dieses Themas annehmen, kann man das nur begrüßen – so störend der Alarmismus auch ist, mit dem das zuweilen geschieht.17 Es ist ein Vorgang elementarer Aufklärung, um den es hier geht; er ist umso wichtiger, je weniger bereits Lösungen für den Schutz der bürgerlichen Freiheiten in Sicht gekommen sind. Und wenn man Maßnahmen bedenkt, sollte klar sein, dass sich die Erwartungen nicht nur auf das staatliche Handeln richten dürfen. Staatliche Instanzen lassen sich nur zu leicht von autoritativen Sicherheitsbedenken leiten. Gerade das zeigt sich am Beispiel der USA, und es wird durch die kleinlauten Proteste ihrer europäischen Partner nur noch bestätigt. Die mit der Geheimdiensttätigkeit verknüpften realen oder vermeintlichen Schutzinteressen werden keineswegs nur von Staaten mit autoritären Regimen zur Geltung gebracht: Der Staat, gleichwie er verfasst ist, sucht das Gemeinwesen vor vielen Gefahren zu sichern und er hat dabei zu allen Zeiten auf geheimdienstliche Informationen gesetzt. Unter Berufung auf das Notstandsargument wird er sich vermutlich unter allen Bedingungen die Option auf den Bruch der Privatsphäre vorbehalten. Deshalb muss man ihn unter Berufung auf die grundrechtlich bereits zugestandenen Prinzipien zwingen, für wirksamere Mittel zum Schutz der individuellen Rechte zu sorgen. Was kann den Staat zum Handeln zwingen? In einer rechtsstaatlichen Demokratie nur die drohende Abwahl des regierenden Personals – und im Üb17  Als der deutsche Nationale Ethikrat 2005 in seiner Stellungnahme Prädiktive Gesundheitsinformationen bei Einstellungsuntersuchungen im Detail die Gefahren aufwies, die mit dem Missbrauch der medizinischen Datensammlung zur Gesundheitsvorsorge bestehen, so dass von einer ernsten Bedrohung der Freiheit des Bürgers gesprochen werden muss, war das in den Feuilletons, die heute Furore machen, noch nicht einmal eine Meldung wert.

108

Volker Gerhardt

rigen eine Klage vor Gericht. Die Bürger müssen klagen, um mit Hilfe von Fachanwälten eine gerichtliche Korrektur der Gesetze und der herrschenden Praxis zu erwirken. Nur so kann man erreichen, dass der Staat auch in den von ihm in den Vordergrund gerückten Sicherheitsfragen mehr für den Bürger tut. Der Datenschutz hat längst den Rang eines Menschenrechts. Er folgt aus den elementaren Grundrechten des Einzelnen. Aber es reicht nicht aus, ihn nur prinzipiell zu gewähren; er bedarf der ständigen juridischen Kontrolle und der permanenten Nachbesserung durch möglichst der Entwicklung vorgreifende Gesetzgebung. Die Dynamik der Entwicklung der digitalen Techniken und die Folgen der Herrschaft der Algorithmen können derzeit durch keine Phantasie vorweggenommen werden. Aber sie erfordern ein unablässiges Nachsetzen im und mit dem Recht und – wo immer dies möglich ist – eine antizipative Ordnung im Umgang mit den kommenden Problemen. Dazu brauchen wir eine Politik, die sich als aktiv ‚ausübende Rechtslehre‘ versteht, die durch die unablässige Evolution von Natur und Kultur genötigt ist, sich in aller Freiheit als ‚Reform nach Prinzipien‘ zu verstehen. 10. Das Private als eine Kunstform des Lebens Die Entwicklung der digitalen Medien führt uns vor Augen, was die Bewusstseinstheorie schon immer hätte wissen müssen: Es gibt keinen natürlichen Schutzraum für das Private; er muss vielmehr immer erst geschaffen und durch eigene Bemühungen gesichert werden. Wer das Bewusstsein für eine Art Gespenst im eigenen Körper hält, der kann niemals sicher sein, ob er einen Zugang zur Außenwelt findet. Er kann erst recht nicht wissen, ob er jemals das sogenannte Fremdbewusstsein im Körper der anderen erreicht. Dafür aber kann er sich der Illusion hingeben, in seinem Schädel gehörten die Inhalte seines Bewusstseins nur ihm allein. So kann er den eigenen Leib für den von der Natur aus vorgegebenen Schutzraum des eigenen Bewusstseins halten, so dass es eigentlich nur noch von symbolischer Bedeutung ist, wenn er ein Haus darum baut, vielleicht auch noch eine Mauer um Hof und Garten dazu, um seine Privatsphäre abzugrenzen. Doch schon die Tatsache, dass man notfalls die Mitbewohner zur Verschwiegenheit verpflichten muss, um andere nicht wissen zu lassen, was man von den Verhältnissen draußen hält, wie man über das politische System, die Regierung oder den Diktator denkt, sollte Zweifel in die naive Annahme setzen, der Körper selbst sei der Beutel, in dem der Geist sein Eigenleben führen kann. Es ist vielmehr das Bewusstsein selbst, das aus eigenem Impuls ins Offene eines stets mit anderen gelebten Lebens drängt. Es ist das Bewusstsein des Individuums, das ursprünglich mit dem Bewusstsein anderer verwoben ist und damit in seinen eigenen Leistungen die Öffentlichkeit nicht



Öffentlichkeit und Bewusstsein

109

nur voraussetzt, sondern sie braucht und nutzt und immer auch herstellt, indem es  – allgemein begreifend und für jeden gültig schließend  – als Bewusstsein tätig ist. Dieser wahrhaft offenkundige Sachverhalt ist dem modernen Bewusstsein durch den angeblichen Primat der Subjektivität verstellt. Große Köpfe und Scharen kleiner Geister verbreiten wider besseres Wissen und gegen ihr fortgesetztes eigenes Tun die nur für Seminardebatten taugliche Ansicht eines in sich selbst befangenen Bewusstseins. Zur Illustration der Besonderheit des Geistes, der sich grundsätzlich von der (allererst durch ihn erkannten) Beschaffenheit bloßer Körper unterscheidet, kann es hilfreich sein, die Selbstgewissheit des Geistes zu exponieren und das ‚ich zweifle‘ (oder das ‚ich denke‘) als eine unbezweifelbare Einsicht vorzuführen. Aber daraus zu folgern, der Geist bestehe ausschließlich darin, nur auf sein jeweiliges Ich bezogen zu sein, beruht auf einer Irreführung durch das eigene Beispiel: Die Gewissheit des eigenen Ich zu haben, heißt noch nicht, darin gefangen zu sein. Auf diesen Fehlschluss ist das autistische Missverständnis der modernen Philosophie gegründet. In der Theorie wird aus der Stärke, sich auf ein eigenes Ich beziehen zu können, die soziale Schwäche, überhaupt in Kontakt mit anderem und anderen zu kommen. Subjektivität ist in der Tat eine Stärke eines Bewusstseins. Es lernt, sich aus der ursprünglich gegebenen Vielfalt äußerer Bezüge in sich selbst zurückzuziehen. Alles, was es aus dem faktisch vorgängigen Umgang mit anderen Menschen kennt, vermag es auch aus eigener Sicht und somit eigenständig und wahrhaft selbstbewusst zu bewerten. Ohne diese Fähigkeit des Rückzugs auf das jeweils eigene Ich wären die Ansprüche auf Allgemeinheit und Objektivität, auch auf Wahrheit und Wahrhaftigkeit ohne Wert. Doch eben diese für das Erleben der Liebe, für das Glück der ästhetischen Erfahrung oder den Trost des religiösen Glaubens konstitutive Kraft der Subjektivität, setzt die Einbindung in ein Bewusstsein ursprünglicher (und eben das heißt: geistiger) Verbindung mit seinesgleichen voraus. Unter den Bedingungen einer vor- und durchgängigen Verbindung mit seinesgleichen darf es als selbstverständlich gelten, dass jedes Individuum Wert auf seine Eigenständigkeit legt. Schon dem Kind liegt daran, seinen eigenen Willen zu haben; mit der Zeit lernt es, dass dazu ein eigenes Urteil gehört, das im Kontext der Urteile anderer Beachtung findet. Die alte Empfehlung der epimeleia h’autou, der ‚Sorge für sich selbst‘, schließt somit bis heute die Bemühung um die Sicherung des eigenen Urteils ein, das ohne Subjektivität seine Authentizität verliert, aber eben nicht allein auf Subjektivität gegründet ist. Die Sphäre der Urteilskraft eines jeden Einzelnen ist der Kern dessen, was unter politischen Bedingungen ‚privat‘ genannt wird. Wenn es im politischen

110

Volker Gerhardt

Diskurs primär um den Körper, die Wohnung oder das Eigentum zu gehen scheint, dann liegt das daran, dass sie als materialer Rückhalt für die Eigenständigkeit des Individuums gelten können. Sie allein fallen in den Bereich des mit einer Zwangsbefugnis durchsetzbaren Rechts. Daher ihre eminente soziale und politische Bedeutung. Doch die Basis der individuellen Eigenständigkeit ist das (alle Subjektivität ermöglichende) Leben des Einzelnen, das, wie es das Menschenrecht betont, seinen Wert in sich selber hat. Seine – historisch leider erst spät entdeckte – ‚Selbstevidenz‘ schließt nicht aus, dass es für den Wert des Einzelnen sogar gute gesellschaftliche Gründe gibt. Sie ergeben sich nicht nur da­ raus, dass eine Gesellschaft nur Wert für den Einzelnen haben kann, wenn sie Lebensbedingungen schafft, die dem Individuum die freie Entfaltung seiner Fähigkeiten ermöglichen; es genügt auch nicht, ihre elementare Funktion beim Aufbau und Erhalt einer notwendig arbeitsteilig organisierten menschlichen Gesellschaft auszuweisen. Der Einzelne ist vielmehr die basale Bedingung für das Selbstverständnis einer auf freie Entwicklung aller ihrer Kräfte angelegten Gesellschaft.18 So kann sie auch als Garant der Produktivität einer zukunftsoffenen politischen Organisation angesehen werden, die nur unter dieser Bedingung hoffen kann, auch die von ihr übernommenen sozialen Aufgaben bewältigen zu können. Individualität, Subjektivität und die Sphäre des Privaten sind späte, hochentwickelte und hochsensible Formen der Kultur, die selbst als eine Form der Natur dem Selbstschutz eines produktiven Daseins dient. Es hat keinen Sinn, von der Zukunft der Menschheit etwas zu erwarten, das für sie (nach unserem bisherigen Verständnis) Bedeutung haben kann, wenn wir nicht alles daransetzen, die Individualität, die Subjektivität und die Sphäre des Privaten zu erhalten und zu entfalten. Das von einer geistlosen Kulturkritik nur zu gerne als ‚spießig‘ und ‚bürgerlich‘ der Lächerlichkeit preisgegebene Private ist eine Kunstform des Lebens, die nicht nur gesichert werden muss, sondern auch aller Mühen ihrer verlässlichen und zugleich individuellen Gestaltung wert ist.

18  Wie insbesondere Wilhelm von Humboldt gesehen und im ausdrücklichen Anschluss an ihn John Stuart Mill ausgeführt hat. Aber auch der von Thukydides zitierte Perikles sowie sein jüngerer Zeitgenosse Sokrates haben davon gewusst. Das belegen die Hinweise auf die Rede des Perikles, die im I. Teil dieses Textes gegeben sind.



Öffentlichkeit und Bewusstsein

111

Bibliografie Davidson, Donald: Der Mythos des Subjektiven. Philosophische Essays. Stuttgart 1993. Gehlen, Arnold: Urmensch und Spätkultur. Frankfurt/M. 1956. ‒ Moral und Hypermoral. Eine pluralistische Ethik. Frankfurt/M. 1969. Gerhardt, Volker: Selbstbestimmung. Das Prinzip der Individualität. Stuttgart 1999. ‒ Immanuel Kant. Vernunft und Leben. Stuttgart 2002. ‒ Vorstellung als Form der sozialen Organisation des Leibes. In: Schumacher, Ralph in Verbindung mit Oliver R. Scholz (Hg.): Idealismus als Theorie der Repräsentation? Paderborn 2001, S. 411–428. ‒ Die Kunst der Wissenschaft in Nietzsches Fröhlicher Wissenschaft. In: Grätz, ­Katharina / Kaufmann, Sebastian (Hg.): Nietzsche zwischen Philosophie und Literatur. Heidelberg 2016, S. 153–177. Kant, Immanuel: Brief an Jacob Sigismund Beck von 1. Juli 1794 (AA 11). ‒ Kritik der reinen Vernunft (AA 4). ‒ Kritik der Urteilskraft (AA 5). ‒ Was ist Aufklärung (AA 8). ‒ Zum ewigen Frieden (AA 8). Larmore, Charles: Vernunft und Subjektivität. Berlin 2012. Lombart, Marlize / Haidle, Miriam Noel: Thinking a Bow-and-Arrow. Cognitive Implications of Middel Stone Age Bow and Stone-Tipped Arrow Technology. In: Cambridge Archaeological Journal 22.2 (2012), S. 237–264. URL: http://www. academia.edu/2469855/Thinking_a_bow-and-arrow_cognitive_implications_of_ Middle_Stone_Age_bow_and_stone-tipped_arrow_technology (zuletzt eingesehen am 05.06.2017). Nietzsche, Friedrich: Sämtliche Werke. Kritische Studienausgabe in 15. Bänden (KSA). Bd. 3: Morgenröte. Idyllen aus Messina. Fröhliche Wissenschaft. München 1999. ‒ Sämtliche Werke. Kritische Studienausgabe in 15. Bänden (KSA). Bd. 4: Also sprach Zarathustra. München 1999. Platon: Werke. Nomoi 715e–734e.

2. Digitalität als ethisches Handlungsfeld

Digitale Würde? Sensoren, Roboter und Big Data zwischen Selbstorganisation und Selbstbestimmung Klaus Mainzer 1. Von der Robotik zur digitalen Würde Gehirn- und Kognitionsforschung untersuchen komplexe neuronale Netzwerke und ihre mentalen Zustände. Robotik und KI-Forschung bauen die ersten ‚Maschinen‘ nach dem Design dieser Netzwerke. Die internationale Diskussion über ethische und rechtliche Fragen der Robotik (Roboethik und Robotikrecht) beginnt in Japan,1 Südkorea2 und den Vereinigten Staaten.3 Die japanische Robot Association sagt voraus, dass die Roboter der nächsten Generation bis zu 64.8 Milliarden USD für wirtschaftliche Aktivitäten bis 2025 erzeugen werden, wobei 43.2 Milliarden USD für Produktion und Löhne und 21.6 Milliarden USD für Anwendungen aufgewendet werden.4 Die Fukuoko World Robot Declaration vom Februar 2004 listete die japanischen Erwartungen für die Roboter der nächsten Generation auf, die mit Menschen koexistieren und sie physisch und psychisch unterstützen, um eine sichere und friedliche Gesellschaft zu schaffen. Allerdings sagt diese Studie kaum etwas über ethische und rechtliche Aspekte dieser Entwicklung. In einem Report für 2020–2025 aus dem Jahr 2009 formuliert das japanische Robot Policy Committee, das vom japanischen Ministerium für Wirtschaft, Handel und Industrie (METI) ins Leben gerufen wurde, zwei Kategorien für die Roboter der nächsten Generation:5 1  Vgl.

25‘.

2  Vgl.

Government of Japan (2007): Long-term Strategic Guidelines ‚Innovation

Shim (2007): Establishing a Korean Robot Ethics Charter. Wallach / Allen (2009): Moral Machines; Capurro / Nagenborg (2009) Ethics and Robotics. 4  Die Japan Robot Association (JARA) führt eine Statistik für Robotik, online abrufbar unter: http: /  / www.jara.jp / e / . 5  Vgl. Weng / Chen / Sun (2009): Toward the Human-Robot Co-existence Society, S. 267–282. 3  Vgl.

116

Klaus Mainzer

(1) Die Industrieroboter der nächsten Generation werden nicht nur unterschiedliche Aufgaben in wechselnden Umgebungen bearbeiten, sondern auch mit Menschen zusammenarbeiten können. (2) Die Dienstleistungsroboter der nächsten Generation werden im Haushalt, für Sicherheitsaufgaben, bei der Krankenpflege, für Lebenserhaltungs­ systeme und Unterhaltung eingesetzt werden. Insbesondere sagt der Report einen Einsatz für gefährliche Dienstleistungsaufgaben voraus, die zu schwer kalkulierbaren Handlungen und Situa­ tionen führen. Dabei unterscheidet METI Gefahrenstufen je nach Kontaktgraden mit dem Roboter: ‚Niedrig‘ ist der Gefahrengrad bei z. B. Reinigungsrobotern, ‚mittel‘ bei Pflegerobotern und ‚hoch‘ bei universal einsetzbaren humanoiden Robotern, die vielseitige Aufgaben übernehmen. Wie gut solche Gefahren vorausgesagt werden können, hängt davon ab, bis zu welchem Grad solche Maschinen als autonome Geräte programmiert werden können. Seit 2000 diskutieren japanische und südkoreanische Wissenschaftler und Wissenschaftsmanager das Konzept einer Mensch-RoboterGesellschaft, die nach ihrer Auffassung um 2030 entstehen wird. Wesentlichen Anschub erhält diese Entwicklung durch den Trend technisch und wirtschaftlich hochentwickelter Länder wie Japan zu einer immer älter werdenden Gesellschaft. In dem Zusammenhang werden erstmals gesellschaftliche Probleme der Robotik angesprochen, die im Unterschied zu technischen Problemen des Entwurfs und der Produktion von Robotern ihre Auswirkungen auf menschliches Verhalten, Ethik und Umwelt berücksichtigen. Es wird angenommen, dass bereits in den kommenden beiden Jahrzehnten Roboter sich komplexen und unstrukturierten Umgebungen anpassen können und Menschen bei der Erledigung von Alltagsaufgaben assistieren. Ihre Autonomie wirft eine Reihe von Sicherheitsfragen auf. Um den Alltag mit Robotern zu erproben, werden daher RoboCities (z. B. Straßenzüge in Osaka) mit Robotik-gestützten Infrastrukturen entwickelt.6 In den USA bauen NASA-Wissenschaftler teilweise autonome Roboter für die Erforschung der Tiefsee und der Oberfläche des Mars. Das US-Militär wendet 4 Milliarden USD für die Entwicklung von ‚ethischen‘ autonomen Robotersoldaten auf, die sich nach den Gesetzen der Kriegsführung verhalten.7 Man ahnt spätestens an diesem Beispiel, welche ethischen und rechtlichen Herausforderungen mit dieser Schlüsseltechnologie verbunden sind. Zudem wird eine Mensch-Roboter-Gesellschaft einen ökonomischen und ökologischen Preis haben. Gemeint ist der Energieverbrauch, den Roboter 6  Vgl.

Asada (2005): From Synergistic Intelligence to RoboCity CoRE, S. 942–

7  Vgl.

Etengoff (2008): US Military to Develop ‚Ethical‘ Robots.

945.



Digitale Würde?

117

benötigen, den sie mit anderen Ansprüchen der Gesellschaft teilen und mit Rücksicht auf die Umwelt sicherstellen müssen.8 In der Forschungs- und Entwicklungspolitik werden wie in anderen Schlüsseltechnologien der Kernenergie, Nanotechnologie oder Biotechnologie ethische Richtlinien notwendig, die über unterschiedliche gesellschaftliche Interessen und Standpunkte hinweg verbindlich sind. Das European Robotics Research Network (EURON) hat eine Roboethics Roadmap veröffentlicht.9 Im Unterschied zu den langfristigen Perspektiven und Voraussagen japanischer und südkoreanischer Untersuchungen beschränkt sich die europäische Stellungnahme auf eine kurzfristige Periode des kommenden Jahrzehnts. Im Zentrum stehen der Mensch und seine Sicherheitsbedürfnisse. Die drängenden Fragen, die sich mit zunehmender Autonomie kognitiver Robotik und künstlicher Intelligenz ergeben, bleiben ausgeblendet. Historisch wurden die ersten ethischen Normen für Roboter von dem Science-Fiction Autor Isaac Asimov in seinem Roman I, Robot formuliert:10 (1) Ein Roboter darf keinen Menschen verletzen oder durch Unterlassung erlauben, dass ein Mensch geschädigt wird. (2) Ein Roboter muss den Anweisungen eines Menschen folgen, außer wenn diese Anordnungen im Widerspruch zu Gebot 1 stehen. (3) Ein Roboter muss seine eigene Existenz soweit schützen, als dieser Schutz nicht im Widerspruch zu Gebot 1 oder 2 steht. Die ersten beiden Gebote bringen eine am Menschen orientierte Sicherheitsethik zum Ausdruck, die von niemandem ernsthaft bezweifelt werden kann. Das dritte Gebot liegt an der Grenze eines menschen- oder maschinenzentrierten Zugangs. Theoretisch wäre in einer evolutionären Robotik ein Entwicklungsstadium denkbar, in dem ähnliche Richtlinien greifen wie beim Tierrecht: Roboter sind dann nicht mehr nur Sachen, sondern wie Tiere schmerzempfinde Lebewesen, denen kein Leid zugefügt werden darf. Situationen im Labor, die mit Tierversuchen vergleichbar sind, wären dann zu regeln. Das klingt nach Science-Fiction, wäre aber in der ethischen Roadmap einer kognitiven und evolutionären Robotik zu bedenken. Als erste ethische Richtlinien einer staatlichen Instanz veröffentlichte die südkoreanische Regierung eine Robot Ethics Charter.11 Das Ministerium für 8  S. dazu

IPCC (2001): Third Assessment Report. EURON (2006): Roboethics Road Map; Nagenborg, u. a. (2008): Ethical Regulations on Robotics in Europe, S. 349–366. 10  Vgl. Asimov (1950): I, Robot. 11  Vgl. Enlightenment of an Anchorwoman (2012): South Korean Robot Ethics Charter 2012. 9  Vgl.

118

Klaus Mainzer

Kommerz, Industrie und Energie gibt dort konkret ethische Standards vor, die bei der Programmierung von Robotern zu beachten sind. Diese ethischen Programmierungsvorschriften sind die Antwort auf eine Ankündigung des Ministeriums für Information und Kommunikation, jeden südkoreanischen Haushalt bis 2020 mit einem Haushaltsroboter auszustatten.12 Im Zentrum dieser Richtlinien stehen Kontrolle und Abhängigkeit des Menschen im Umgang mit Robotern. Hinzu kommen rechtliche Fragen im Zusammenhang mit persönlichen Daten und der Verantwortung für Handlungen des Roboters. Grundlegende Fragen, die sich bei Roadmaps für Roboethik stellen, lauten: (1) Sind Asimovs drei Gesetze als Richtlinien für eine praktikable Roboethik brauchbar? (2) Sollte Roboethik eine Ethik für Roboter, Konstrukteure oder Nutzerinnen und Nutzer von Robotern sein? (3) Wie weit sollten wir bei der Implementierung (Programmierung) ethischer Normen in Roboter gehen? (4) Wie sind die widersprechenden Ziele einer Implementierung ethischer Normen und Entwicklung von Roboterautonomie aufeinander abzustimmen? (5) Sollten Roboter mit Emotionen ausgestattet werden? (6) Sollten Roboter über Persönlichkeit mit Selbstbewusstsein verfügen? Abgesehen von der technischen Möglichkeit wären in den Fällen 5 und 6 Robotern eigene Rechte nicht mehr abzusprechen. Zentral für die Zukunft wird die Lösung von Punkt 4 sein, um einen ethisch autonomen Roboter zu entwickeln. Um den ethisch-rechtlichen Rahmen einer Mensch-Roboter-Gesellschaft zu garantieren, müssten a) die ethische Kontrolle des Roboterverhaltens, b) das Mensch-Roboter-Interface, c) ein Verantwortungsratgeber (‚Gewissen‘) geregelt sein. Für Forderung a) müsste ein Roboter in der Lage sein, sich ständig ändernden Situationen autonom anzupassen und dabei ethische Richtlinien zu berücksichtigen. Für b) müsste die Kommunikation zwischen Mensch und Roboter soweit realisiert sein, dass Missverständnisse und Risiken minimiert werden. Nach Forderung c) sollte eine Kontrollinstanz des Roboters implementiert werden, die Abweichungen des Verhaltens von ethischen und rechtlichen Regeln erkennt und ethisch und rechtlich korrekte Alternativen aufzeigt. Voraussetzung sind Ontologien von ethischen und rechtlichen Richtlinien, mit denen der Roboter ausgestattet wird. 12  Vgl.

Lovgren (2006): A Robot in Every Home by 2020.



Digitale Würde?

119

Wenn Roboter wie im Fall von heutigen Industrierobotern als klassische Maschinen betrachtet werden, sind die bisherigen rechtlichen Regelungen ausreichend. Die Verantwortung für Schäden, die von solchen Robotern hervorgerufen werden, reicht vom menschlichen Nutzer der Roboterdienstleistung bis zum Konstrukteur einer fehlerhaften Maschine.13 Die alleinige Verantwortung des Nutzers könnte sich ändern, wenn die Autonomie des Roboters zunimmt. Bei kognitiven und relativ autonomen Robotern, die eventuell sogar mit Graden von Selbstwahrnehmung bis zu Selbstbewusstsein ausgestattet sind, wären rechtliche Regelungen wie bei Tieren und Kindern notwendig. Technisch könnte man wie bei Flugzeugen eine Box einbauen, in der alle Handlungen eines Roboters aufgezeichnet werden, um sie später nach einem Unfall oder einer Fehlhandlung zur Abklärung technischer, aber auch ethisch-rechtlicher Fragen rekonstruieren zu können. Jedes Abrücken von der alleinigen Verantwortung des Entwicklers, Konstrukteurs oder Nutzers eines Roboters würde allerdings ein schwerwiegender Bruch mit den bisherigen menschlichen Rechtssystemen darstellen. Verantwortung wird nämlich rechtlich und ethisch mit der menschlichen Person verbunden. Ein Kriterium für Verantwortlichkeit, das in juristischen Urteilen angewendet wird, lautet, dass sich ein Mensch seiner Handlung bewusst ist. Erste neurobiologische Erklärungen für Bewusstseinszustände liegen vor. Grundlage ist die Dynamik komplexer neuronaler Systeme wie das Gehirn. Es kann prinzipiell nicht ausgeschlossen werden, dass ihre Gesetze als Blaupausen verwendet werden, um entsprechende technische Systeme zu programmieren14 oder in einer künstlichen Evolution sich entwickeln zu lassen. Sie würden lernfähig sein und sich mit ihrer Umwelt auseinandersetzen können. Damit würden sie eine eigene Lebensgeschichte und Individualität erzeugen. Es wäre nicht die unsrige, aber eine andere Identität, die sich in einer von uns initiierten Evolution abzweigt und selbstorganisiert verselbständigt. Künstliche und natürliche Intelligenzen würden dann nebeneinander bestehen. Dieses Szenario projiziert unsere eigene biologische Herkunft in die Zukunft. Wie wir wissen, haben verschiedene Evolutionszweige der Hominiden nebeneinander existiert. Über die Gründe, warum sich der eine gegenüber dem anderen Zweig durchgesetzt hat und wo in der Evolution unsere menschliche Identität eigentlich beginnt, können wir nur mutmaßen. Im Unterschied zur damaligen Situation wissen wir oder sollten wir heute wissen, dass wir an Weggabelungen unserer Entwicklung stehen. Wir sind daher verantwortlich für unsere Zukunft und können uns nicht mit der Eigendynamik der Evolution herausreden. Es liegt also an uns zu entscheiden, was 13  Vgl. 14  Vgl.

telligenz.

Asaro (2007): Robots and Responsibility from a Legal Perspective. Arkin (2008): Governing Lethal Behavior; Mainzer (2016): Künstliche In-

120

Klaus Mainzer

wir sind, was wir bleiben sollen und was an Intelligenz wir neben uns brauchen und wollen. An welchen Maßstäben sollen wir uns dabei orientieren? 2. Würde als Grundrecht Rechtsstaatliche Verfassungen verweisen dazu heute auf das Grundrecht jedes einzelnen Menschen, auf die Unantastbarkeit und die Würde seiner Person.15 Woher stammt diese Vorstellung? Die Tradition des Naturrechts versuchte, Rechtsnormen aus Ordnungsprinzipien und Zwecken der Natur abzuleiten. Das Naturrecht war daher in der Rechtsgeschichte immer mit einer bestimmten Naturphilosophie verbunden, in der die natürlichen Ordnungsprinzipien begründet wurden.16 Nach unserem heutigen Wissen über die Evolution eignen sich ihre Gesetze für das menschliche Zusammenleben in hoch entwickelten Zivilisationen nur beschränkt. Unsere sozialen und moralischen Vorstellungen sind vielmehr das Ergebnis komplexer Lernprozesse, deren Ausgang offen ist. So war Verantwortungsbewusstsein im modernen Sinn keineswegs von Anfang an in der Geschichte auszumachen. Das Überlebensinteresse und damit verbundene Verantwortungsvorstellungen galten zunächst nur dem Familienverband und der Population. Die politische Ideengeschichte zeigt, wie lange es dauerte, bis wenigstens der Idee nach der Wert, die Freiheit und die Würde des Menschen unabhängig von den sozialen Vor- und Nachteilen seiner Geburt formuliert wurden. Noch im Alten Testament wird zur Tötung Andersdenkender aufgerufen, was nach unserer Rechtsauffassung Mord und Genozid bedeutet. In der Bergpredigt wird demgegenüber die Liebe zum Nächsten und die Feindesliebe in den Mittelpunkt gestellt. Sokrates begründet die Unsterblichkeit der Seele jedes einzelnen Menschen und betont damit in metaphysischen Worten einen Wert, der die physische Existenz jedes einzelnen überdauert. Bei Kant wird daraus der ‚Zweck an sich selbst‘ als Postulat der Vernunft, den jeder Mensch verkörpert.17 Die Freiheitsrechte des Einzelnen werden nur 15  Vgl. Häberle (1987): Die Menschenwürde als Grundlage der staatlichen Gemeinschaft, S. 815–861; Kleinheyer (1975): Grundrechte, Menschen- und Bürgerrechte, Volksrechte, S. 1047–1082; Maunz / Dürig / Herzog (1985): Kommentar zum Grundgesetz; Mangold / Klein / Stark (2010): Das Bonner Grundgesetz. Kommentar. 16  Vgl. Böckle / Böckenförde (1973): Naturrecht in der Kritik; Ilting (1975): Naturrecht, S. 245–313; Mayer-Maly / Simons (1983): Das Naturrecht heute und morgen. 17  Vgl. Kant (1968): Grundlegung zur Metaphysik der Sitten, S. 428–429: „Nun sage ich: der Mensch und überhaupt jedes vernünftige Wesen existiert als Zweck an sich selbst, nicht bloß als Mittel zum beliebigen Gebrauche für diesen oder jenen Willen, sondern muss in allen seinen sowohl auf sich selbst, als auch auf andere vernünftige Wesen gerichteten Handlungen jederzeit zugleich als Zweck betrachtet werden […]. Der Grund dieses Prinzips ist: die vernünftige Natur existiert als Zweck



Digitale Würde?

121

durch die Freiheitsrechte der anderen begrenzt. So werden die Grundrechte zunächst in der amerikanischen und französischen Verfassung begründet. In Anlehnung an einen berühmten Gedanken Hegels wurde die Weltgeschichte von nun an als fortschreitende Anerkennung der Freiheits- und Menschenrechte verstanden. Im 19. Jahrhundert beschränkt sich das juristische Denken zunehmend auf die positiven Gesetze, die im Gesetzgebungsverfahren der Nationalstaaten erlassen werden. In Anlehnung an das naturwissenschaftlich geprägte Bild der Natur in der Neuzeit wird der Staat in der Nachfolge von Thomas Hobbes als Maschine betrachtet, die Gesetze für das Zusammenleben der Menschen produziert.18 Menschen haben nach dieser Vorstellung diese Staatsmaschine selber konstruiert, um ihr Überleben zu sichern und zu stabilisieren. Mit Betonung der Freiheitsrechte des Einzelnen in den demokratischen Verfassungen geraten übernatürliche Wertvorstellungen zunehmend unter Verdacht, Herrschaftsinteressen der sie vertretenden Gruppen zu kaschieren. Grundlegend wird Max Webers Postulat der Wertfreiheit, nach dem alles Werten, namentlich das sittliche, als bloß subjektives Meinen verstanden wird.19 In Übereinstimmung mit Max Weber kommt es Hans Kelsen in seiner Reinen Rechtslehre nur noch auf eine wissenschaftliche Jurisprudenz und nicht auf eine Rechtsethik an. Danach kann zwischen den verschiedenen ethischen Normen keine objektiv begründete Wahl getroffen werden. So bleibt nur die relativierende Antwort übrig, dass jeder selbst die Wahl treffen müsse und „niemand anderer, nicht Gott, nicht die Natur und auch nicht die Vernunft als objektive Autorität sie abnehmen könne.“20 Methodisch ist bemerkenswert, dass diese Auffassung von Rechtsgesetzen in den Naturwissenschaften von einer Kritik an metaphysischen Deutungen der Naturgesetze begleitet wird. Wenn Kelsen feststellt, dass jeder beliebige Inhalt positives Recht sein könne, sofern er im staatlichen Gesetzgebungsverfahren korrekt zustande gekommen ist, so erinnert das an die Wissenschaftstheorie des Mathematikers David Hilbert und des Logikers Rudolf Carnap, wonach wir uns unter formalen Axiomen und Gesetzen mathematischer Theorien beliebiges an sich selbst. So stellt sich nothwendig der Mensch sein eignes Dasein vor; so fern ist es also ein subjectives Princip menschlicher Handlung […]. Der praktische Imperativ wird also folgender sein: Handle so, daß du die Menschheit sowohl in deiner Person, als in der Person eines jeden andern jederzeit zugleich als Zweck, niemals bloß als Mittel brauchst“. 18  Vgl. Hobbes (1968): Leviathan, or the Matter, Form and Power of a Commonwealth, Ecclesiastical and Civil. 19  Vgl. Weber (1960): Rechtssoziologie; Weber (1973): Gesammelte Aufsätze zur Wissenschaftslehre. 20  Kelsen (1960): Reine Rechtslehre, S. 442.

122

Klaus Mainzer

vorstellen können, sofern sie logisch konsistent und im Falle naturwissenschaftlicher Theorien durch Beobachtung, Experiment und Messung bestätigt seien.21 Analog zum Wandel des naturwissenschaftlichen Gesetzesbegriffs begründet Carl Schmitt den Rechtspositivismus mit einer fortschreitenden Neutralisierung, wonach neuzeitliche Gesellschaften zunehmend gegen Metaphysik, Religion und moralische Positionen indifferent werden, die sich in einer Vielheit weltanschaulicher Positionen und Menschenbilder selber relativieren.22 Als Konsequenz dieser Neutralisierungsthese folgt einmal die pluralistische Gesellschaft westlicher Demokratien. Andererseits liefert der Rechtspositivismus auch, wie bei Carl Schmitt, die Blankovollmacht für Diktaturen, die sich qua positiver Gesetzgebungsverfahren nur durch den Überlebenskampf mit und gegen andere Staaten selber legitimieren können. Im Nationalsozialismus verbündete sich der Rechtspositivismus mit Rassismus und Sozialdarwinismus. Die Ausrottung sogenannten ‚unwerten‘ Lebens wurde durch angebliche biologische Selektion gerechtfertigt und im Gesetzgebungsverfahren legitimiert. Diese Erfahrung hat die deutsche Rechtsgeschichte nachhaltig geprägt. Es verwundert daher nicht, dass mit Artikel 1 des Grundgesetzes der Bundesrepublik Deutschland ein überpositives Grundrecht an den Anfang gesetzt wurde: „Die Würde des Menschen ist unantastbar.“ Der Schock des Nationalsozialismus zeigte die Berechtigung der provozierenden Frage von Augustinus: „Staaten ohne Gerechtigkeit – was sind sie anders als große Räuberbanden?“23 Allerdings lässt Artikel 1 des Grundgesetzes bewusst offen, ob Menschenwürde als göttliches Recht der Natur oder in der Vernunftrechtstradition der Aufklärung verstanden wird, um einen Grundkonsens der verschiedenen gesellschaftlichen Gruppen in der Bundesrepublik zu ermöglichen.24 Die Geschichte der Grundrechte hängt offenbar eng mit dem Wandel des Menschen- und Weltbildes zusammen, das in der Neuzeit zunehmend durch Wissenschaft und Technik bestimmt wird. Nach der Hoffnung der Aufklärung sollte das Wachstum des Wissens automatisch zur Emanzipation der Menschheit im Sinne der Menschenrechte führen. Tatsächlich erweist sich der technisch-wissenschaftliche Fortschritt aber als ambivalent. Die modernen Zukunftstechnologien eröffnen sowohl neue Chancen der Lebensverbes21  Vgl.

auch Ott (1976): Der Rechtspositivismus. Schmitt (1934): Über die drei Arten des rechtswissenschaftlichen Denkens; Schmitt (1935): Was bedeutet der Streit um den Rechtsstaat?, S. 189; Schmitt (1940): Positionen und Begriffe. 23  Augustinus (1978): De civitate Dei, IV 4. 24  Dazu auch Höffe (1987): Politische Gerechtigkeit. Grundlegung einer kritischen Philosophie von Recht und Staat. 22  Vgl.



Digitale Würde?

123

serung, aber auch der Manipulation und irreversiblen Veränderung des Menschen mit nicht abschätzbaren Folgen. Der Schutz und die Achtung der Menschenwürde durch Staat und Gesetzgeber sind also herausgefordert. Die Entscheidungsgrundlage ist aber keineswegs eindeutig. Fest steht, dass wir nicht einfach in einem ‚Buch der Natur‘ nachschauen können, in dem die ‚natürliche‘ Ordnung für unser Zusammenleben vorgegeben ist und als ‚sittliche‘ Ordnung übernommen werden kann. Mit Recht kritisiert die moderne Rechtsphilosophie und Ethik diesen Schluss vom Sein auf das Sollen als naturalistischen Fehlschluss. Die Organisationsprinzipien unserer tierischen Vorfahren in der Evolution eignen sich kaum zur Regulierung unseres Zusammenlebens. Aber auch die Abgrenzung menschlicher und tierischer Natur ist keineswegs naturwissenschaftlich so eindeutig, wie sich das mancher Anhänger des Naturrechts wünschen mag. Wir beobachten in der Geschichte vielmehr einen Lernprozess der gesetzgebenden Gewalt, der aufgrund neuer Erfahrungen und Erkenntnisse ständiger Korrektur und Bewährung ausgesetzt ist. So war, wie oben erwähnt wurde, Kants Formel vom Menschen als ‚Zweck an sich selbst‘ zwar grundlegend, um die Freiheitsrechte des Einzelnen zu begründen und ihn gegenüber staatlicher Unterdrückung zu schützen. Der ‚Zweck an sich selbst‘ wird aber bei ihm auf die ‚vernünftige Natur‘ eingeschränkt. In heutiger Gesetzgebung wird der Geltungsanspruch auf das ‚menschliche Dasein‘ erweitert, um nach den Erfahrungen mit dem Nationalsozialismus auch geistig behinderte Menschen unter den Schutz des Grundgesetzes zu stellen. 3. Digitale Würde, Big Data und Internet der Dinge 3.1 Vom Internet der Dinge zu Big Data

Das Nervensystem der menschlichen Zivilisation ist mittlerweile das Internet. Durch verborgene RFID- und Sensortechnologie erschafft das Internet Dinge, die untereinander und mit Menschen kommunizieren können. Big Data bezieht sich auf den Umfang der Daten, die in solchen Netzen generiert und verarbeitet werden. Die wachsende Vielfalt und Komplexität der Dienste und Möglichkeiten im Netz führt zu einer Datenexplosion von Petabytes. Erst mit Sensoren (RFID), mobilen Netzen, Klickströmen, HD Videos, Audio, Bildern, SMS und MMS beginnt die Welt von Big Data im PetabyteBereich, d. h. 1015 Bits.25 In der digitalen Welt verdoppelt sich nach aktuellen Schätzungen das weltweite Datenmeer alle zwei Jahre. Unter dem Begriff ‚Big Data‘ fassen Ex25  Vgl. Mainzer

(2016): Die Berechnung der Welt, Kap. 12.

124

Klaus Mainzer

perten zwei Aspekte zusammen: zum einen die immer schneller wachsenden Datenberge, zum anderen IT-Lösungen und Management-Systeme, mit denen wissenschaftliche Institutionen und Unternehmen Daten auswerten, analysieren und daraus Erkenntnisse ableiten können. Mit Big Data-Technologie erhält das Management eine deutlich verbesserte Grundlage für zeitkritische Entscheidungen unter wachsender Komplexität.26 Big Data bezeichnet Datensets, deren Größe und Komplexität (PetabyteBereich) durch klassische Datenbanken und Algorithmen zum Erfassen, Verwalten und Verarbeiten von Daten zu überschaubaren Kosten und in absehbarer Zeit nicht möglich ist. Dabei sind drei Trends zu integrieren: – Massives Wachstum von Transaktionsdatenmengen (Big Transaction Data). – Explosionsartiger Anstieg von Interaktionsdaten (Big Interaction Data): z. B. soziale Medien, Sensortechnologie, GPS, Anrufprotokolle. – Neue hochskalierbare und verteilt arbeitende Software (Big Data Process­ ing): z. B. Hadoop (Java) und MapReduce (Google). Ein Beispiel ist der MapReduce-Algorithmus, der große Datenmengen in kleinere Teilpakete zerlegt und parallel nach Zusammenhängen und Korrelationen der Daten durchsucht.27 Hadoop ist ein in Java geschriebenes Framework für verteilt arbeitende Software, die auf den MapReduce-Algorithmus zurückgreift. Sie wird von z. B. Facebook, AOL, IBM und Yahoo benutzt. Die Kreditkartengesellschaft Visa reduzierte damit die Verarbeitungszeit für Auswertungen von 73 Milliarden Transaktionen von einem Monat auf ca. 13 Minuten.28 Was bedeutet Big Data in den sozialen Medien?29 Google bewältigt 24 Petabytes pro Tag, YouTube hat 800 Millionen monatliche Nutzer, Twitter registriert 400 Millionen Tweets pro Tag. Daten sind analog und digital. Sie betreffen Bücher, Bilder, E-Mails, Photographien, Fernsehen, Radio, aber auch Daten von Sensoren und Navigationssystemen. Sie sind strukturiert und unstrukturiert, häufig nicht exakt, aber in Massen vorhanden. Durch Anwendung schneller Algorithmen sollen sie in nützliche Information verwandelt werden. Gemeint sind die Entdeckung neuer Zusammenhänge, Korrelationen und die Ableitung von Zukunftsprognosen. Big Data-Algorithmen werten alle Daten eines Datensatzes aus, so groß, divers und unstrukturiert sie auch sein mögen. Neu an dieser Auswertung ist, 26  Vgl.

BITKOM (2012): Big Data im Praxiseinsatz; Mainzer (2016): Information. Dean / Ghemawat (2008): MapReduce, S. 107–113. 28  Vgl. Rosenbush (2011): Visa Says Big Data Identifies Billions of Dollars in Fraud. 29  Vgl. Mayer-Schönberger / Cukier (2013): Big Data. 27  Vgl.



Digitale Würde?

125

dass die Inhalte und Bedeutungen der Datensätze nicht bekannt sein müssen, um dennoch Informationen ableiten zu können. Das wird durch sogenannte Metadaten möglich.30 Gemeint ist damit zum Beispiel, dass wir die Inhalte eines Telefonats nicht kennen müssen, sondern dass das Bewegungsmuster seines Handys entscheidend ist. Die Daten einer E-Mail beziehen sich auf den Inhalt des Texts. Metadaten der E-Mail beziehen sich nicht auf den Inhalt der Daten, sondern Bedingungen, Kontexte und äußere Eigenschaften der Daten wie z. B. Sender, Empfänger und der Zeitpunkt der Sendung. Häufig lassen sich aber Voraussagen aus Metadaten nur ableiten, wenn Datenkorrelationen bekannt sind. Dazu gibt es aber heute Datenbanken und Hintergrundinformationen im Internet, mit denen die Bedeutungen erschlossen werden können. Im Prinzip funktioniert diese Erschließung von Bedeutungen wie bei einem semantic web. Hierbei handelt es sich um ein Computerprogramm, das die Bedeutung von Texten aus Datenkorrelationen erschließt. Spektakulär war die Entdeckung einer amerikanischen Bioinformatikerin, die alleine aufgrund von Metadaten den Namen eines anonymen Spenders menschlichen Erbguts ermittelte.31 Metadaten bezogen sich z. B. auf das Alter des Spenders und den Namen des amerikanischen Bundesstaates, in dem die Spende abgegeben wurde. Die Bioinformatikerin grenzte die Suche durch Kombination von Ort und Alter ein, setzte eine Online-Suchmaschine ein, in denen Familien zur Ahnenforschung den genetischen Code eingaben. Dabei ergaben sich Familienangehörigen der Gesuchten, deren Daten sie mit demographischen Tabellen kombinierte, um so schließlich fündig zu werden. Selbst in der Medizin führt die massenhafte Auswertung von Daten zu erstaunlich schnellen Voraussagen. So konnte der Ausbruch einer Grippeepidemie Wochen früher vorausgesagt werden, als üblicherweise mit Datenerhebungen und statistischen Auswertungen von Gesundheitsämtern möglich war.32 Man hatte einfach das Verhalten der Menschen aufgrund von Milliarden von Daten in z. B. sozialen Netzwerken ausgewertet und signifikante Korrelationen entdeckt, die auf den Ausbruch der Epidemie aufgrund von früheren Erfahrungswerten mit großer Wahrscheinlichkeit hinwiesen. 30  Hinter dem neuen Begriff der Metadaten steht historisch das ältere Prinzip der Verweisung und der formalen Vorgaben bei Büchern und Texten als jahrhundertelange bibliothekarische Praxis. Daraus entstehen im Zeitalter von Computer und Big Data ganz neue Möglichkeiten, die zunächst zu erfolgversprechenden Geschäftsmodellen führen. Vgl. auch Hambuch (2008): Erfolgsfaktor Metadatenmanagement. 31  Vgl. o.V. (2013): Anonyme DNA-Spender enttarnt. 32  Vgl. Ginsburg (2009): Detecting Influenza Epidemics Using Search Engine Query Data, S. 1012–1014; Dugas (2012): Google Flu Trends: Correlations with Emergency Department Influenza Rates and Crowding Metrics.

126

Klaus Mainzer 3.2 Big Data in Wirtschaft, Staat und Verwaltung

In der Wirtschaft lassen sich Datensätze als Produkte betrachten, die Teile von Wertschöpfungsketten werden. Daten werden nicht verbraucht wie Lebensmittel, sondern lassen sich wie Rohstoffe in unterschiedlicher Weise transformieren, kombinieren und recyceln, um damit immer wieder neue Geschäftsmodelle zu verbinden. So lässt sich z. B. ein Datensatz mit den Echtzeit-Lokalisationen von 100 Millionen Fahrzeugen in unterschiedlicher Weise lukrativ nutzen: Zusammen mit den Daten bestimmter Autotypen, die Autofirmen zur Verfügung stellen, Daten von Taxiunternehmen, Wetterdaten und historischen Erfahrungsmustern von Verkehrsflüssen lässt sich in einer Region ein optimales Flussmodell für den Verkehr berechnen.33 Dieselben Daten können aber auch verwertet werden, um aufgrund der zeitlichen Verkehrsbelastung Rückschlüsse auf die wirtschaftliche Lage und den Arbeitsmarkt zu ziehen. Man könnte die Daten aber auch mit automatischen ABSSignalen kombinieren, um die sichersten Straßen einer Region zu ermitteln. Wiederverwendung und Kombination von Datensätzen schafft Mehrwert und Gewinn. Da sind zunächst die Besitzer von Datensätzen, die Lizenzen für die Nutzung ihrer Daten erheben können. Andere verdienen Geld mit Daten, indem sie ihre Fähigkeiten und Kenntnisse als Analysten und Berater anbieten. Schließlich gibt es die Unternehmer, die neue Geschäftsideen für Daten erfinden und sie innovativ umsetzen. Als neuer Beruf entwickelt sich der Datenexperte, der das Wissen und Können von Statistiker/innen, Programmierer/innen, Designer/innen, Kommunikator/innen und Verkäufer/innen verbindet. Daten erzeugen also Innovationsketten und werden auf Märkten gehandelt. Big Data hängt eng mit sozialen Netzen im Alltag und Industrie 4.0 als Trend der Arbeitswelt zusammen.34 Big Data verwendet nicht nur strukturierte Geschäftsdaten eines Unternehmens, sondern auch unstrukturierte Daten aus sozialen Medien, Signale von Sensoren und Audio- und Videodaten. Industrie 4.0 spielt auf die vorausgehenden Phasen der Industrialisierung an. Industrie 1.0 war das Zeitalter der Dampfmaschine. Industrie 2.0 war Henry Fords Fließband. Das Fließband ist nichts anderes als eine Algorithmisierung des Arbeitsprozesses, der Schritt für Schritt nach einem festen Programm durch arbeitsteiligen Einsatz von Menschen ein Produkt realisiert. In Industrie 3.0 greifen Industrieroboter in den Produktionsprozess ein. Sie sind allerdings örtlich fixiert und arbeiten immer wieder dasselbe Programm für eine bestimmte Teilaufgabe ab. In Industrie 4.0 wird das Internet der Dinge (IoT = internet of 33  Vgl.

Valery (2010): Tech.View. dazu acatech (o. J.): Dossier Zukunft des Industriestandorts; Plattform Industrie 4.0 (o. J.): Startseite. 34  Vgl.



Digitale Würde?

127

things) in den Arbeitsprozess integriert. Werkstücke kommunizieren untereinander, mit Transporteinrichtungen und beteiligten Menschen, um den Arbeitsprozess flexibel zu organisieren. In der on demand-Produktion können so unterschiedliche Kundenwünsche berücksichtigt werden. Sie lösen viele parallele Produktionsprozesse im selben Betrieb aus. Die Firma Daimler-Benz produziert ihre S-Klasse bereits seit einigen Jahren parallel und on demand. Anstelle von Massenproduktion von der Stange wurde früher in tailored production der Maßanzug für wenige Wohlhabende hergestellt. Dank IoT mit automatisierter und paralleler Produktion wird nun tailored production zum allgemeinen Standard. Technik, Produktion und Markt verschmelzen zu einem soziotechnischen System, das sich selber flexibel organisiert und sich verändernden Bedingungen automatisch anpasst. Das ist die Vision eines cyberphysical system.35 Dazu müssen Maschinen- und Sensordaten mit Textdokumenten verbunden, erfasst transportiert, analysiert und kommuniziert werden. Die Bedeutung von Daten erschließt sich dem System aus Datenkorrelationen und Kontexten. Für die Semantik von Daten ist also kein ‚Bewusstsein‘ wie beim Menschen notwendig, wie in der geisteswissenschaftlichen Tradition immer angenommen wurde. Die dazu verwendete Big Data-Technologie zielt auf schnellere Geschäftsprozesse ab und damit auch, so die Hoffnung, auf schnellere und bessere Entscheidungen, da sie sich auf bessere Kundenprofile dank besserer kundenorientierter Datenlage beziehen können. Big Data verspricht nicht nur in der Wirtschaft lukrative Gewinne, sondern verschafft auch Vorteile in Staat und Verwaltung. Durch gezielte Auswertung von massenhaft vorliegenden strukturierten und unstrukturierten Verwaltungsdaten können administrative Entscheidungen vorbereitet und Orientierungen für Bürger erstellt werden. Beispiel ist Wirtschaftsförderung durch Prognosen für Konjunktur, Klimaveränderung, Demographie, Städtebau, Verkehrsplanung.36 Ebenso können Stimmungsbilder für Bürgerforen als Frühwarnsysteme für Infrastrukturmängel erstellt werden (z. B. Planungsfeststellungsverfahren für Großtechnologieprojekte). 3.3 Von Big Data zur totalen Überwachung?

Zu den spektakulärsten Anwendungen von Big Data gehören Polizeiarbeit und Kriminalistik.37 Um Einbrüche und andere Straftaten zu prognostizieren, 35  Vgl. Acatech (2011): Cyber-physical Systems; Mainzer (2010): Leben als Maschine?, Kap. 6. 36  Anwendungen gibt es auch in Versicherungen und Risikoabschätzungen: Vgl. Scism (2010): Insurers Test Data Profiles to Identify Risky Clients. 37  Vgl. auch die ältere Studie Zedner (2007): Pre-criming and Post-criminology?, S. 261–281.

128

Klaus Mainzer

werden Korrelationen in umfangreichen Datensätzen über Bewegungsverhalten in bestimmten Stadtregionen verbunden mit Verhaltensmustern an Werkund Feiertagen, Stadtevents wie z. B. Sport- und Konzertereignissen erstellt. Das schon seit längerem erprobte Profiling von Straftätern erhält mit Big Data eine neue Dimension. Nun werden nicht nur strukturierte Datensätze wie Dokumente, Briefe, Telefonate oder E-Mails als Informationen ausgewertet, sondern alle Bewegungsmuster, die über z. B. GPS, Apps, Mobiltelephone, Stimmanalyse, Fahrzeugsignale, öffentliche Kameraüberwachung gesammelt werden können.38 Entscheidend ist dabei, dass man weder die Inhalte und Bedeutungen noch die Absichten kennen muss, um das Verhalten eines Menschen zu prognostizieren. Die Debatte der Gehirnforschung und künstlichen Intelligenz, ob man eines Tages ‚Gedanken lesen‘ kann, ist also für die Praxis unerheblich. Es mag sein, dass man eines Tages dank machine learning in neuronalen Verschaltungsmustern des Gehirns auch ‚Gedanken lesen‘ kann. Um Menschen zu manipulieren und ihr Verhalten mit großer Wahrscheinlichkeit voraussagen zu können, reichen Big Data und Big DataAlgorithmen (wie vorher erläutert wurde), die heute bereits vorliegen. Big Data-Technologie kann allerdings auch von Firmen eingesetzt werden, um das Verhalten der Mitarbeiter zu erkunden. Für Aufregung sorgte ein Werbevideo des Rüstungskonzerns Raytheon im Frühjahr 2013. In dem Video wurde gezeigt, wie mit öffentlichen Daten in sozialen Netzwerken ein Angestellter aufgespürt und in seinem Verhalten präzise vorausgesagt werden konnte.39 Metadaten wie Breiten- und Längengrade des Entstehungsortes von Fotos in Facebook, aber auch Bewegungsmeldungen des Handys und andere Spuren im Netz ergaben ein Verhaltensprofil. Launig fügte der Firmenfahnder hinzu, wie, wo und wann man am zweckmäßigsten den Laptop des Mitarbeiters entwenden kann, wenn er sich an einem Montagabend in ein bestimmtes Fitnessstudio begibt. Ist das Verhalten von Menschen prognostizierbar? Hier soll Big Data helfen, terroristische Verhaltensmuster im Ansatz frühzeitig zu erkennen. Dazu dienen elektronische Spuren im Netz ebenso wie Beobachtungsdaten von Überwachungsdrohnen. Prognosen von Kriminalfällen und Terroraktionen galten vor Jahren noch als unvorstellbar. In dem Film Minority Report (2002) werden zwar bereits Big Data und Superrechner zur Datenermittlung in Washington D.C. im Jahre 2054 eingesetzt. Aber offenbar kann man dramaturgisch noch nicht auf mystische Orakel verzichten: Menschen mit hellseherischen Fähigkeiten (sogenannte ‚Precogs‘) werden durch Medikamente in einen Trancezustand versetzt, in dem sie Morde voraussehen. Der Film 38  Vgl.

Margolis (2010): When Smart Grids Grow Smart Enough to Solve Crimes. auch das Video, das Ryan Gallagher in seinem Artikel ‚Software That Tracks People on Social Media Created by Defense Firm‘ erläutert. 39  Vgl.



Digitale Würde?

129

endet mit der Erkenntnis, dass die Precogs zwar jeden Mord vorhersehen können, gleichzeitig aber auch Visionen von Situationen haben, in denen ein Mord zwar wahrscheinlich ist, aber nicht stattfindet.40 Das trifft auf Big Data auch zu und macht Exekutionen im angeblichen Präventivschlag höchst fragwürdig. Der entscheidende Unterschied zum Science-Fiction-Film ist aber, dass wir keine mystischen Precogs benötigen. Im (mathematischen) Sinn von Turing lassen sich potentielle Täter als Orakelmaschinen auffassen, deren Funktionsweise uns nicht bekannt ist. Der Clou an Big Data ist nämlich, dass wir Bedeutungen und Inhalte der einzelnen Daten nicht verstehen müssen. Die Metadaten, z. B. einer E-Mail mit Empfänger, Sender, Häufigkeit der Kontakte und eventuell Schlüsselbegriffe, reichen, um Korrelationen zu berechnen, Profile zu erstellen und Prognosen abzuleiten. Praktische Beispiele sind Kundenprofile und Prognosen über Markt- und Produktentwicklung. Man muss bei der Fülle der Daten, wie der Volksmund gelegentlich sagt, am Ende nur noch Eins und Eins zusammenzählen. Und das lässt sich mit Blick auf Bits sogar wörtlich nehmen.41 In der sozialen Welt geht es nicht nur um das Verstehen von Bedeutungen von Daten, sondern um ihre Bewertung. Soziale Systeme sind von Menschen für Menschen gemacht. Heute haben wir es mit komplexen soziotechnischen Systemen zu tun, die neben technischen Daten, soziale Bedeutungen und Werte generieren. Aus der Sicht technischen Wissens erscheinen sie gelegentlich als ‚unstrukturiertes Wissen‘. Metadaten über ihre Inputs und Outputs reichen aus, um sie dennoch im Ablauf kalkulierbar zu machen. Wohin führt diese Einstellung? Unter den Bedingungen von Big Data gehen moderne Konflikte nicht mehr um Geländegewinne wie in traditionellen Kriegen, sondern um Wissen und Innovationen. Spionage ist daher in Zukunft nicht nur Beiwerk und (geheimer) Dienst (Secret Service), sondern im Zentrum internationaler Konflikte um technisch-wissenschaftliche Innovationsstandorte. Anstelle von Gold, Baumwolle und Rohstoffe geht es nun um Daten im Netz, die Wissen und Innovation codieren.42 Big Data-Technologie vermag diese Daten flächendeckend abzusaugen. Die dabei verwendeten Algorithmen werden benutzt, um Konkurrenten auf den weltweiten Märkten auszuspähen. Unter dem Deckmantel der Terrorbekämpfung können so auch einmal eben die Daten von Wirtschaftsunternehmen und Universitäten abgefiltert werden. 40  Vgl. 41  Vgl.

Dick (2003): Minority Report. Mayer-Schönberger (2010): Beyond Privacy, Beyond Rights, S. 1854–

1885. 42  Vgl. auch Müller-Quade (2012): Mitten ins geheim; Baars / Kempe (2008): Management Support with Structured and Unstructured Data, S. 132–148.

130

Klaus Mainzer

Dann beginnt allerdings eine makabre ‚Dialektik der Aufklärung‘, an die man bei der Aufklärung von Spionage und Terrorismus zunächst nicht gedacht hatte. Technische Möglichkeiten schaffen neue Begierden. Das verständliche Sicherheitsbedürfnis nach einem furchtbaren Terrorangriff darf nicht zu einer schleichenden Veränderung politischer Einstellungen und Strukturen führen. Reduktion von Risiken darf nicht zur Reduktion von Freiheit werden. Um die Freiheit zu schützen, darf die Freiheit nicht aufgegeben werden. An dieser Stelle drängt sich eine denkwürdige Begebenheit mit dem Logiker Kurt Gödel auf, der die Unvollständigkeit von formalen Systemen in der Mathematik bewies. Bei der Vorbereitung seiner Einbürgerung als Staatsbürger der USA soll er sich an der Unvollständigkeit der Verfassung gestoßen haben, die trotz vieler Einzelbestimmungen zum Schutz der Demokratie die Errichtung einer Diktatur im Rahmen der Verfassung ermöglichen würde.43 Es ist nicht bekannt, wie im einzelnen Gödel diesen Widerspruch herleitete. Die Erfahrungen in Deutschland von 1933 mögen eine Rolle gespielt haben. Jedenfalls ließen sich sicher ähnliche Argumente auch für die Unvollständigkeit von demokratischen Verfassungen anderer Länder finden. Die Anlässe für diese Entwicklungen liegen auf der Hand: Berechtigte Furcht und das Bedürfnis nach Sicherheit kann sich paranoid verselbständigen, in das Gegenteil umschlagen und den autoritären Überwachungsstaat erzeugen, der sich wie eine Krake mit seinen Informationsnetzen über die Welt ausbreitet. Für diese Dialektik liefert Big Data die Voraussetzung. Die Glasfaserkabel und Internetknoten des World Wide Web sind die Krakenarme, die das Programm Upstream des britischen Dienstes GCHQ (Government Communications Headquarters) nutzt. Der amerikanische Partnerdienst NSA greift mit dem Programm Prism auf die Daten von Firmen wie Microsoft, Google, Facebook, Yahoo und Apple. Landesgrenzen werden bei dieser Ausspähung unterlaufen und Landesgesetze formal noch nicht einmal verletzt. Dabei geht es nicht mehr um eine einzelne Person oder Partei, die bewusst die Mechanismen der Demokratie zur Abschaffung der Demokratie benutzen. Die Übeltäter hatten in den einschlägigen historischen Beispielen des 20. Jahrhunderts noch eine menschliche Gestalt und konnten als Personen identifiziert werden. Totalitäre Regime des 21. Jahrhunderts werden sich systemisch, schleichend und unsichtbar durch Algorithmen und Big Data realisieren. Es ist eine sich abzeichnende Technokratie, die eine totale Überwachung im Rahmen von Demokratien möglich macht, weil Bürgerinnen und 43  Es gibt viele Schilderungen jener merkwürdigen Einbürgerung von Kurt Gödel in Begleitung von Oskar Morgenstern und Albert Einstein im Jahr 1947. Vgl. z. B. Goldstein (2006): Kurt Gödel.



Digitale Würde?

131

Bürger freiwillig bewusst oder unbewusst Milliarden von Signalen, Spuren und Nachrichten in den Netzen hinterlassen. Die Zettelkästen der Stasi wirken dagegen geradezu putzig. Vielen Nutzern scheint es zudem völlig egal, dass ihre Daten öffentlich sind. Einige Intellektuelle rufen zum Boykott der sozialen Medien auf. Angemessen und realistisch sind solche Einstellungen nicht, um den ‚Großen Bruder‘ aus Big Data auszutreiben. Am Ende könnte Art. 1 GG nicht durch Gewalt eingeschränkt werden, sondern weil Bürgerinnen und Bürger aus Bequemlichkeit oder Überforderung eine schleichende Veränderung geduldet haben. 4. Technikgestaltung und Governance Technisch-naturwissenschaftliches Wissen kann nicht die alleinige Grundlage unserer Gesetzgebung sein. Noch weniger können diese Entscheidungen den Experten, also Medizinern, Ingenieuren und Naturwissenschaftlern, überlassen bleiben, die als Einzelne wie jeder andere Bürger einer Gesellschaft unterschiedliche Interessen verfolgen. Jeder Mensch ist betroffen, wenn es um sein Leben geht. Daher bedarf es des gesellschaftlichen Dialogs, in dem alle Aspekte und Betroffenen berücksichtigt werden. Wenn wir mit Artikel 1 des Grundgesetzes den Menschen in den Mittelpunkt unserer Rechtsordnung stellen, so ist diese Wertzuschreibung nicht aus einer überlegenen Stellung in der Natur naturwissenschaftlich ableitbar. Wir selber schreiben uns diese Stellung zu und übernehmen damit auch die Verantwortung für das Leben und diese Erde, die aufgrund unseres Wissens und Könnens zunehmend von uns abhängig werden. Die theologische Tradition geht weiter, wenn sie diese Wertzuschreibung und damit verbundene Verantwortung für die Schöpfung aus einem göttlichen Gebot ableitet. Die Menschheit befindet sich jedenfalls in einem langen und schmerzhaften Lernprozess mit ständigen Rückfällen, in dem sie sich zu dieser Wertvorstellung durchringt. Lernprozess heißt, dass der Begriff der Menschenwürde durch neue Erfahrungen und Erkenntnisse konkretisiert und präzisiert werden muss. Die Kognitionsforschung zeigt, dass in unseren natürlichen Sprachen (im Unterschied zur Mathematik) einzelne Begriffe mit ihren Bedeutungen keine scharf abgegrenzten Einheiten sind. Bedeutungen werden in Ontologien, Anwendungsbeispielen und im Sprachgebrauch festgelegt. Bedeutungsränder sind daher unscharf (technisch: fuzzy) und durch neue Erweiterungen und Einschränkungen bewusst oder unbewusst in ständiger Veränderung. Daher bedarf es in der Rechtspraxis auch der Auslegung und Interpretation, die wiederum neue Rechtsverbindlichkeiten schafft. So entsteht ein komplexes Netz von Normen und Anwendungsfällen, in dem sich ein Grundrecht konkretisiert. Dieses se-

132

Klaus Mainzer

mantische Netz spiegelt unsere immer komplexer werdenden Gesellschaften mit allen ihren technischen, sozialen, politischen, ökonomischen und ökologischen Abhängigkeiten. Im Zeitalter der Globalisierung werden Terminologien und Ontologien von Grundwerten nicht nur in einzelnen Nationalstaaten festgelegt. Durch cyberphysical systems, Informations- und Kommunikationstechnologie wächst die Menschheit in einem neuen Superorganismus zusammen. Internet und Telematik liefern die ersten Fasern dieses globalen Nervensystems. Die Rede von der weltweiten Wertegemeinschaft macht aber nur Sinn, wenn diese Werte durch konkrete länder- und kulturübergreifende Rechtsvereinbarungen verbindlich werden. Rechtsvereinbarungen setzen im Unterschied zu ethischen Normen auch ihre Durchsetzbarkeit voraus.44 Sie benötigen ordnungspolitische Rahmenbedingungen (global governance), um Handlungsorientierung zu geben und Grundrechte zu garantieren.45 Im Zentrum der technischen, wirtschaftlichen und politischen Globalisierung sollen also Grund- und Menschenrechte stehen. Für Systembiologie, synthetische Biologie, Robotik und KI heißt das, den Menschen als Selbstzweck zu achten und zum Maßstab der Technik zu machen. KI-, Bio- und Kommunikationstechnologie sind als Dienstleistung am Menschen zu entwickeln, um in der Tradition der Medizin heilen und helfen zu können. Das ist eine andere Vision als der Science-Fiction-Traum, der sich technischer Eigendynamik mit steigender Rechenkapazität in der Hoffnung auf ewiges Glück, Gesundheit und Unsterblichkeit überlassen will. Andererseits sollten wir uns aber auch nicht der Eigendynamik und dem Zufallsspiel der Evolution überlassen und den Status quo unserer unzulänglichen Entwicklung akzeptieren. Zur Würde des Menschen gehört die Möglichkeit, in seine Zukunft einzugreifen und sie gestalten zu können. Bibliografie acatech (Hg.): Cyber-physical Systems. Innovationsmotor für Mobilität, Gesundheit, Energie und Produktion. Berlin 2011. ‒ Dossier Zukunft des Industriestandorts. (o. J.). URL: http://www.acatech.de/ industrie4.0 (zuletzt eingesehen am 20.07.2017). 44  Vgl. Druey (1995): Information als Gegenstand des Rechts; Hohloch (2001): Recht im Internet; Lessing (2001): Code und andere Gesetze des Cyberspace; Spindler (2001): Sicherheit im E-Commerce = Rechtssicherheit, S. 161–182. 45  Vgl. Steglitz (2002): Die Schatten der Globalisierung; Beck (2002): Das Schweigen der Wörter. Einen Überblick lieferte das Ladenburger Kolleg ‚Globalisierung verstehen und gestalten‘ der Gottlieb Daimler- und Karl Benz-Stiftung mit Steger (1999): Facetten der Globalisierung.



Digitale Würde?

133

Arkin, Roland C.: Governing Lethal Behavior. Embedding Ethics in a Hybrid Deliberative/Reactive Robot Architecture. In: Fong, Terry u. a. (Hg.): Proceedings of the 3rd ACM/IEEE Intern. Conference on Human Robot Interaction HRI. New York/ NY 2008, S. 121–128. Asada, Minoru: From Synergistic Intelligence to RoboCity CoRE. In: Journal of the Robotics Society of Japan 23.8 (2005), S. 942–945. Asaro, Peter M.: Robots and Responsibility from a Legal Perspective (2007). URL: http://www.peterasaro.org/writing/asaro %20legal %20perspective.pdf (zuletzt eingesehen am 21.07.2017). Asimov, Isaac: I, Robot. New York 1950. Augustinus, Aurelius: De civitate Dei. Zürich 1978. Baars, Henning/Kempe, Hans-George: Management Support with Structured and Unstructured Data – an Integrated Business Intelligence Framework. In: Information Systems Management 25 (2008), S. 132–148. Beck, Ulrich: Das Schweigen der Wörter – Über Terror und Krieg. Frankfurt/M. 2002. Bitkom (Hg.): Big Data im Praxiseinsatz – Szenarien, Beispiele, Effekte. Berlin 2012. Böckle, Franz/Böckenförde, Ernst-Wolfgang (Hg.): Naturrecht in der Kritik.  Mainz 1973. Capurro, Rafael/Nagenborg, Michael (Hg.): Ethics and Robotics. Heidelberg 2009. Dean, Jeffrey/Ghemawat, Sanjay: MapReduce: Simplified Data Processing on Large Clusters. In: Magazine Communications of the ACM  – 50 Anniversary 51.1 (2008), S. 107–113. Dick, Philip K.: Minority Report. Stories. München 2003. Druey, Jean N.: Information als Gegenstand des Rechts. Entwurf einer Grundlegung. Zürich 1995. Dugas, Andrea F. u. a.: Google Flu Trends. Correlations with Emergency Department Influenza Rates and Crowding Metrics (2012). URL: https://www.ncbi.nlm.nih. gov/pmc/articles/PMC3404718/ (zuletzt eingesehen am 21.07.2017). Enlightenment of an Anchorwoman: South Korean Robot Ethics Charter 2012 (2012). URL: https://akikok012um1.wordpress.com/south-korean-robot-ethics-charter2012/ (zuletzt eingesehen am 20.07.2017). Etengoff, Aharon: US Military to Develop ‚Ethical‘ Robots (2008). URL: http://www. itexaminer.com/us-military-to-develop-ethical-robots.aspx (Seite nicht mehr zugänglich). EURON: Roboethics Road Map (2006): URL: http://www.roboethics.org/atelier2006/ docs/ROBOETHICS %20ROADMAP %20Rel2.1.1.pdf (zuletzt eingesehen am 20.07.2017). Gallagher, Ryan: Software That Tracks People on Social Media Created by Defense Firm. In: The Guardian vom 10.02.2013. URL: https://www.theguardian.com/ world/2013/feb/10/software-tracks-social-media-defence (zuletzt eingesehen am 21.07.2017).

134

Klaus Mainzer

Ginsburg, Jeremy u. a.: Detecting Influenza Epidemics Using Search Engine Query Data. In: Nature 457 (2009), S. 1012–1014. Goldstein, Rebecca: Kurt Gödel. Jahrhundertmathematiker und großer Entdecker. München 2006. Government of Japan: Long-term Strategic Guidelines ‚Innovation 25‘ (2007). URL: http://japan.kantei.go.jp/innovation/innovation_final.pdf (zuletzt eingesehen am 20.07.2017). Häberle, Peter: Die Menschenwürde als Grundlage der staatlichen Gemeinschaft. In: Isensee, Josef/Kirchhof, Paul (Hg.): Handbuch des Staatsrechts der Bundesrepublik Deutschland. Bd. I. Heidelberg 1987, S. 815–861. Hambuch, Ulrich: Erfolgsfaktor Metadatenmanagement. Die Relevanz des Meta­ datenmanagements für die Datenqualität bei Business Intelligence. Saarbrücken 2008. Hobbes, Thomas: Leviathan, or the Matter, Form and Power of a Commonwealth, Ecclesiastical and Civil. Harmondsworth 1968. Höffe, Ottfried: Politische Gerechtigkeit. Grundlegung einer kritischen Philosophie von Recht und Staat. Frankfurt 1987. Hohloch, Gerhard (Hg.): Recht im Internet. Baden-Baden 2001. Ilting, Karl-Heinz: Naturrecht. In: Brunner, Otto/Conze, Werner/Koselleck, Reinhart (Hg.): Geschichtliche Grundbegriffe. Bd. IV. Stuttgart 1975, S. 245–313. IPCC: Assessment Reports (o. J.). URL: http://www.ipcc.ch/ipccreports/assessmentsreports.htm (zuletzt eingesehen am 20.07.2017). Kant, Immanuel: Grundlegung zur Metaphysik der Sitten. In: Kants Werke. Akademie-Textausgabe. Bd. IV. Berlin 1968, S. 385–464. Kelsen, Hans: Reine Rechtslehre. Wien 1960. Kemper, Hans-Georg: Management Support with Structured and Unstructured Data – an Integrated Business Intelligence Framework. In: Information Systems Management 25 (2008), S. 132–148. Kleinheyer, Gerd: Grundrechte, Menschen- und Bürgerrechte, Volksrechte. In: Brunner, Otto/Conze, Werner/Koselleck, Reinhart (Hg.): Geschichtliche Grundbegriffe. Bd. II. Stuttgart 1975, S. 1047–1082. Lessing, Lawrence: Code und andere Gesetze des Cyberspace. Berlin 2001. Lovgren, Stefan: A Robot in Every Home by 2020, South Korea Says. In: National Geographic News vom 06.09.2006. URL: http://news.nationalgeographic.com/ news/2006/09/060906-robots.html (zuletzt eingesehen am 21.07.2017). Mainzer, Klaus: Information. Algorithmen  – Wahrscheinlichkeit  – Komplexität  – Quantenwelt – Leben – Gehirn – Gesellschaft. Berlin 2016. ‒ Künstliche Intelligenz. Wann übernehmen die Maschinen? Berlin 2016. ‒ Die Berechnung der Welt. Von der Weltformel zu Big Data. München 2014. ‒ Leben als Maschine? Von der Systembiologie zur Robotik und Künstlichen Intelligenz. Paderborn 2010.



Digitale Würde?

135

Mangold, Hermann von/Klein, Friedrich/Starck, Christian: Das Bonner Grundgesetz. Kommentar Bd. 1. München 2010. Margolis, Joel M.: When Smart Grids Grow Smart Enough to Solve Crimes (2010). URL: https://energy.gov/sites/prod/files/gcprod/documents/Neustar_Comments_ DataExhibitA.pdf (zuletzt eingesehen am 21.07.2017). Maunz, Theodor/Dürig, Günter/Herzog, Roman: Kommentar zum Grundgesetz. München 1985. Mayer-Maly, Theo/Simons, P.M. (Hg.): Das Naturrecht heute und morgen. Berlin 1983. Mayer-Schönberger, Victor: Beyond Privacy, Beyond Rights: Towards a ‚Systems‘ Theory of Information Governance. In: California Law Review 98 (2010), S. 1854–1885. Mayer-Schönberger, Victor/Cukier, Kenneth: Big Data  – A Revolution That Will Transform How We Live, Work and Think. London 2013. Müller-Quade, Jörn: Mitten ins geheim. Wie die Kryptographie mit geheimen Daten umgeht, ohne Geheimnisse preiszugeben. Hamburg 2012. Nagenborg, Michael u. a.: Ethical Regulations on Robotics in Europe. In: AI & Society 22.3 (2008), S. 349–366. Nef, Tobias u. a.: Effects of Arm Training with the Robotic Device ARMin I in Chronic Stroke: Three Single Cases. In: Neurodegenerative Diseases 6.5–6 (2009), S. 240–251. o. V.: Anonyme DNA-Spender enttarnt. In: Laborwelt vom 22.01.2013. Ott, Walter: Der Rechtspositivismus. Kritische Würdigung auf der Grundlage eines juristischen Pragmatismus. Berlin 1976. Plattform Industrie 4.0: Startseite. (o.  J.). URL: http://www.plattform-i40.de/I40/ Navigation/DE/Home/home.html (zuletzt eingesehen am 20.07.2017). Rosenbush, Steve: Visa Says Big Data Identifies Billions of Dollars in Fraud. In: The Wall Street Journal vom 11.03.2011. Schmitt, Carl: Positionen und Begriffe. Hamburg 1940. ‒ Was bedeutet der Streit um den Rechtsstaat? In: ZStW 95 (1935), S. 189–201. ‒ Über die drei Arten des rechtswissenschaftlichen Denkens. Hamburg 1934. Scism, Leslie/Maremont, Mark: Insurers Test Data Profiles to Identify Risky Clients. In: Wall Street Journal vom 19.11.2010. Shim, Ha Bong: Establishing a Korean Robot Ethics Charter (2007). URL: http:// www.roboethics.org/icra2007/contributions/slides/Shim_icra %2007_ppt.pdf (zuletzt eingesehen am 21.07.2017). Spindler, Gerald: Sicherheit im E-Commerce = Rechtssicherheit. In: Müller, Günter/ Reichenbach, Martin (Hg.): Sicherheitskonzepte für das Internet. Berlin u. a. 2001, S. 161–182. Steger, Ulrich (Hg.): Facetten der Globalisierung. Ökonomische, soziale und politische Aspekte. Berlin u. a. 1999.

136

Klaus Mainzer

Steglitz, Joseph E.: Die Schatten der Globalisierung. Berlin 2002. Valery, Nick: Tech.View. Cars and Software Bugs. In: The Economist vom 16.05.2010. URL: https://www.economist.com/blogs/babbage/2010/05/techview_cars_and_ software_bugs (zuletzt eingesehen am 21.07.2017). Wallach, Wendel/Allen, Colin: Moral Machines. Teaching Robots Right from Wrong. Oxford 2009. Weber, Max: Rechtssoziologie. Neuwied 1960. ‒ Gesammelte Aufsätze zur Wissenschaftslehre. Tübingen 1973. Weng, Yueh-Hsuan/Chen, Chien-Hsun/Sun, Chuen-Tsai: Toward the Human-Robot Co-existence Society. On Safety Intelligence for Next Generation Robots. In: International Journal of Social Robotics 1 (2009), S. 267–282. Zedner, Lucia: Pre-criming and Post-criminology? In: Theoretical Criminology 11.2 (2007), S. 261–281.

Verantwortung im digitalen Weltsystem Grundsätzliche Überlegungen zu einem neuen Bereich angewandter Ethik Christian Thies Alle Welt redet von der Digitalisierung – und tatsächlich ist die ganze Welt davon betroffen. Die erhofften oder befürchteten disruptiven Innovationen werden sich in sämtlichen Lebensbereichen bemerkbar machen: in Wirtschaft, Politik, Verkehr, Kommunikation, Kultur, Erziehung und Medizin. Verändern wird sich auch unsere Privatsphäre; diese sei, so meinen viele, stark bedroht. Zu den diesbezüglichen Diskussionen möchte ich eine philosophische These beisteuern: Um auf die neuen Problemlagen angemessen zu reagieren, brauchen wir keine neue Ethik. Was mir vielmehr vonnöten zu sein scheint, ist die Konkretisierung bekannter normativer Prinzipien und die Zuweisung relevanter Verantwortlichkeiten. Das kann aber nur geschehen vor dem Hintergrund einer Zeitdiagnose, die uns die gegenwärtige Situation verständlich macht. Mit dem letztgenannten Punkt möchte ich beginnen. Ohne zu wissen, wo man steht, lässt sich nicht entscheiden, wie man zum gewünschten Ziel kommt. Erforderlich ist also eine empirisch informierte und theoretisch reflektierte, möglichst sogar geschichtsphilosophisch gestützte Zeitdiagnose, aus der sich allerdings keine normativ-praktischen Aussagen ableiten lassen. Aber meine These ist ja auch, dass gar keine neue Ethik entwickelt werden muss. Deshalb zeige ich im zweiten Abschnitt, dass in wichtigen Stellungnahmen der gegenwärtigen Debatte die bekannten und bewährten normativen Grundprinzipien auftauchen. Als neues Prinzip wird manchmal Verantwortung deklariert; tatsächlich eignet sich dieser Begriff aber besser als analytische Schlüsselkategorie, um komplexe Handlungssituationen zu erhellen. Deshalb wende ich mich im dritten Abschnitt fünf ausgewählten Verantwortungssubjekten zu, die aus meiner Sicht in besonderer Weise befähigt und verpflichtet sind, die Privatsphäre zu respektieren, zu schützen und weiterzuentwickeln – wenn sie sich an sinnvoll konkretisierten Prinzipien orientieren. Mein Ziel ist also kein Beitrag zur Allgemeinen, sondern zur Angewandten Ethik. Diese hat sich inzwischen in verschiedene Teildisziplinen ausdifferen-

138

Christian Thies

ziert: Medizinethik, Umweltethik, Tierethik, Wirtschaftsethik usw. Meine Überlegungen sind einer weiteren Subdisziplin der Angewandten Ethik zuzurechnen, die man Medien- oder Informationsethik, aber auch digitale Ethik nennen könnte – wobei natürlich nicht die Ethik digital ist, sondern deren Gegenstand. 1. Das digitale Weltsystem Was ist überhaupt ‚Digitalisierung‘? Gemeint ist damit ein Prozess, in dem analoge Entitäten in digitale transformiert werden. Wie der Vergleich der alten Vinyl-Schallplatte mit der CD zeigt, kann man Musik analog speichern, aber auch digital. Analoge Datenträger mögen manche Vorteile haben, digitale Speichermedien sind jedoch insgesamt erheblich leistungsfähiger, zumindest robuster und effizienter. In der Musik begann der Digitalisierungsprozess deshalb schon in den 1980er Jahren. Angeblich waren 1993, bezogen auf alle Datenbereiche, weltweit erst 3 % aller Informationen digital gespeichert, hingegen 2007 schon 94 %. Die 50 %-Grenze wurde wohl am Anfang des neuen Jahrhunderts überschritten.1 Noch wichtiger als die Speicherung von Daten ist deren Übermittlung, einseitig als Informationstransfer oder wechselseitig zu kommunikativen Zwecken. Die Telekommunikation war im Jahr 2000 schon fast vollständig digitalisiert. Für die Revolutionierung der entsprechenden Technologien steht vor allem das Internet. Als dessen Geburtsstunde kann der 12.  März 1989 gelten: An diesem Tag machte der britische Informatiker Tim Berners-Lee, der am CERN in Genf arbeitete, konkrete Vorschläge für ein grenzüberschreitendes elektronisches Netz, das Wissenschaftlern zum Datenaustausch dienen sollte. Heute kann potentiell jeder Mensch mit minimaler technischer Ausstattung und geringer Ausbildung am Internet teilhaben. Mit der Digitalisierung verbunden sind, technisch gesehen, die Prozesse der Miniaturisierung und Virtualisierung. Das beste Beispiel ist das 2007 auf den Markt gebrachte Smartphone. Es ist klein und erlaubt einen ortsunabhängigen Zugang zum inzwischen weltweiten Internet. Dadurch wird der Informationsaustausch in einer Weise beschleunigt, wie es noch vor wenigen Jahrzehnten unvorstellbar schien. Raum und Zeit, die beiden Formen, in denen sich unser Leben abspielt, werden gleichsam komprimiert. Die Digitalisierung ist das technische Rückgrat der Globalisierung. Als deren Beginn können wir symbolisch ebenfalls ein Ereignis aus dem Jahr 1989 nennen, nämlich den 9. November, also den Tag, an dem die Berliner Mauer fiel und sich infolgedessen der Kapitalismus über den gesamten Erd1  Vgl.

Hilbert / López (2011): The World’s Technological Capacity.



Verantwortung im digitalen Weltsystem

139

ball ausbreiten konnte. Der ökonomische Prozess der Globalisierung wurde dann seit den 1990er Jahren durch den technischen Prozess der Digitalisierung beschleunigt. Beide Phänomene sind heute so eng verbunden, dass sie sich nur noch analytisch unterscheiden lassen. Um die 1989 begonnene neue Epoche der Weltgeschichte zeitdiagnostisch, sozialtheoretisch und geschichtsphilosophisch auf den Begriff zu bringen, gibt es verschiedene Theorien, von denen manche sogar älteren Datums sind. Es handelt sich um Deutungsangebote, die für die gegenwärtige Situation mehr oder weniger erhellend sein können. Eine eindeutige Entscheidung zwischen den Ansätzen ist nicht möglich und auch nicht nötig. Der wichtigste soziologische Ansatz ist wohl die Theorie vom Informationszeitalter und der Netzwerkgesellschaft.2 Von ‚Gesellschaft‘, auch von ‚digitaler Gesellschaft‘, würde ich aber nicht sprechen wollen, weil der Begriff der Gesellschaft zu eng verkoppelt ist mit den nationalstaatlichen Gebilden des 19. und 20. Jahrhunderts. Gerade diese stehen aber im Globalisierungsprozess unter Druck. Eine europäische Gesellschaft, gar eine Weltgesellschaft ist hingegen noch nicht entstanden. Stattdessen leben wir, wie mir scheint, in einem digitalen Weltsystem, dessen ökonomische Basis ein globalisierter Kapitalismus ist.3 Wir können auch sagen: Das digitale Weltsystem bildet die technische Infrastruktur, ja das Betriebssystem des globalisierten Kapitalismus. Das kapitalistische Weltsystem bildete sich schon im 15. Jahrhundert he­ raus; einen enormen Schub bewirkte im letzten Drittel des 18. Jahrhunderts die industrielle Revolution. Seitdem gab es immer wieder solche Phasen beschleunigter Entwicklung. Bereits angesichts der Mikroelektronik der Transistoren und integrierten Schaltkreise sprach man 1978 von einer „dritten industriellen Revolution“.4 Manche bezeichnen die Digitalisierung als „vierte Revolution“.5 Diese Zählweise wurde durch das von der deutschen Bundesregierung geförderte Programm ‚Industrie 4.0‘ gewissermaßen amtlich gemacht. Empirisch besser bewährt ist aber die ‚Theorie der langen Wellen‘ (Kondratieff, Schumpeter u. a.), nach der wir uns inzwischen in der fünften Phase der industriellen Entwicklung befinden. Jedes Stadium beginnt mit einflussreichen Basisinnovationen, ist geprägt durch eine Schlüsseltechnologie und getragen von einem Industriezweig. Die erste lange Welle hatte im 2  Vgl. einführend: Castells (2001): Bausteine einer Theorie der Netzwerkgesellschaft; vgl. Steinbicker (2011): Zur Theorie der Informationsgesellschaft. 3  In Anlehnung an Immanuel Wallerstein, dessen Ansatz auch die Theorien der langen Wellen und der hegemonialen Zyklen enthält, auf die ich mich weiter unten beziehen werde, vgl. Wallerstein (2007): World-Systems Analysis. 4  Balkhausen (1978): Die dritte industrielle Revolution. 5  Floridi (2015): Die 4. Revolution.

140

Christian Thies

letzten Drittel des 18. Jahrhunderts ihren Ursprung in der Dampfmaschine und ihr Fundament in der Textilindustrie. Die zweite lange Welle begann in den 1830er Jahren; sie war bestimmt durch die Eisenbahn und die Stahlindustrie. Für die dritte lange Welle, die in den 1890er Jahren startete, stehen Elektrizität und chemische Industrie. Die vierte lange Welle wurde getragen von der Automobilindustrie; sie prägte die demokratischen Wohlstandsgesellschaften. Seit den 1970er Jahren befand sich diese Formation in einer Krise. In den 1990er Jahren begann dann mit der Digitalisierung die fünfte lange Welle, in der wir uns jetzt befinden; die Basisinnovation war, wie bereits erwähnt, das Internet. Mit der Theorie der langen Wellen ist kein technologischer Determinismus verbunden. Im Gegenteil, die technischen Entwicklungen bilden nicht die Basislogik des Systems und sie erzwingen auch keine bestimmten Anwendungen. Allerdings sind komplexe Technologien auch nicht wertneutral; mit ihnen kann man vieles machen, aber nicht alles. Das nennt man die ‚Affordanz‘ einer Technik, also ihren Angebotscharakter, der nicht jeder Nachfrage gleichermaßen offensteht. Auch sozial sind Technologien nicht neutral; ihre Durchsetzung führt immer zu Gewinnern und Verlierern. Einige Kennzeichen des digitalen Weltsystems treten deutlicher hervor, wenn man sie mit der vorangegangenen historisch-sozialen Formation vergleicht, nämlich den demokratischen Wohlstandsgesellschaften, die in der westlichen Welt von 1945 bis 1989 ihre Blütezeit hatten. Der führende Wirtschaftszweig war, wie bereits erwähnt, die Automobilindustrie. In der Bundesrepublik Deutschland dominierten VW und Daimler-Benz, in den USA waren es Konzerne wie Ford und General Motors mit Sitz in Detroit. Im digitalen Weltsystem wird die Informationstechnik zur zentralen Branche. Führend sind jetzt neue Konzerne, die ihren Sitz entweder in der Nähe von San Francisco (Apple, Facebook, Google, Oracle, Tesla u. a.) oder in Seattle (Microsoft, Amazon) haben, also an der US-Pazifikküste. Diese bildet das Zentrum des Weltsystems. Damit setzt sich übrigens, wie schon Hegel vermutete,6 die Westwanderung des Weltgeistes fort. Auf jeden Fall gab es noch niemals ein so großes ökonomisches System mit einem geographisch so kleinen Zentrum. Wie die alten multinationalen Konzerne haben die InternetGiganten wohl mehr Macht als fast alle Staaten der Erde. Facebook hat jetzt knapp 2 Milliarden Nutzer und übertrifft mit dieser Zahl das bevölkerungsreichste Land (China mit 1,3 Mrd.), aber noch nicht die größte Religion (das Christentum mit 2,3 Mrd. Menschen). Für die Arbeitsorganisation der demokratischen Wohlstandsgesellschaften steht bezeichnenderweise wieder der Name eines Automobilkonzerns: For6  Vgl. Hegel (1970): Vorlesungen über die Philosophie der Geschichte, S. 114 u. S.  133 ff.



Verantwortung im digitalen Weltsystem

141

dismus. In den USA setzte sich diese Wirtschaftsweise bereits in der Zwischenkriegszeit durch. Sie ist charakterisiert durch Massenproduktion, genormte Arbeitsabläufe (Fließband, Quantifizierung, Automatisierung) und korporatistische Strukturen. In der Niedergangsphase der vierten langen Welle galt ein anderes Produktionsmodell als Vorbild, wieder an einem Automobilkonzern orientiert, nämlich Toyota. In der fünften Welle wurde die industrielle Arbeit durch Dienstleistungstätigkeiten abgelöst. An die Stelle der Standardisierung ist eine zeitliche, räumliche und sachliche Flexibilisierung getreten. Die Arbeiterklasse ist in drei Schichten zerfallen: Die obere verrichtet hochbezahlte geistige Arbeit, die mittlere ist auf schlecht dotierte körperliche Tätigkeiten angewiesen, die untere prekär beschäftigt oder arbeitslos. Der sozialstaatlich gestützte Klassenkompromiss der demokratischen Wohlstandsgesellschaften löst sich auf. Noch extremer sind die weltweiten Verwerfungen. Niemals in der Weltgeschichte gab es so gewaltige Unterschiede zwischen Arm und Reich, niemals einzelne Menschen mit so viel persönlichem Besitz. Politisch ist das digitale Weltsystem charakterisiert durch den rasanten Bedeutungsverlust der Nationalstaaten. Dies galt schon für den Zeitraum von 1945 bis 1990, in dem die USA und die Sowjetunion in ihren jeweiligen Sphären als Hegemonialmächte agierten. Dennoch behielten die Nationalstaaten, allerdings nur in der westlichen Hemisphäre, eine gewisse Souveränität. So konnten sich unterschiedliche Typen des Kapitalismus entwickeln, etwa in der Bundesrepublik Deutschland die soziale Marktwirtschaft. Diese Autonomie besteht im globalisierten Kapitalismus nicht mehr. Produkte, Dienstleistungen und Kapital, erst recht Daten und virtuelle Strukturen lassen sich von politischen Grenzen kaum noch aufhalten. Wird die Demokratie dem digitalen Weltsystem standhalten? Auf der einen Seite gab es gerade in den ersten Jahren des digitalen Zeitalters viele optimistische Szenarien. Berühmt ist die im Februar 1996 veröffentlichte anarchistische Deklaration von John Perry Barlow,7 der als ehemaliger Songschreiber von Grateful Dead zugleich eines der Bindeglieder zwischen den Hippies der 1960er Jahre und den Nerds der 1990er Jahre ist. Vielleicht kann man im multimedialen Netz wichtige Informationen sehr viel besser und schneller bündeln als früher, so dass auch politische Entscheidungen rationaler werden.8 Einige schwärmen sogar von einer neuen „Schwarmdemokratie“.9 Auf der anderen Seite stehen die pessimistischen Szenarien. Bisweilen werden diese von denselben Personen vorgetragen, die früher so euphorisch 7  Vgl.

Barlow (2012): Unabhängigkeitserklärung des Cyberspace. Sunstein (2009): Infotopia. 9  U. a. Han (2013): Digitale Rationalität und das Ende des kommunikativen Handelns, S. 11. 8  Vgl.

142

Christian Thies

waren.10 Die soziale Ungleichheit wachse, die politischen Extreme würden gestärkt und die Gesprächskultur verfalle. Das Internet sei „ein Paradies für Verbraucher und eine Hölle für Bürger“.11 Manche sprechen bereits vom „Ende der Demokratie“.12 Wie politische Prozesse tatsächlich durch die Digitalisierung verändert werden, ist aber noch völlig unklar. Empirische Studien zur politischen Kommunikation in Deutschland sprechen gegen die Verfallstheorien.13 Sicher gibt es Veränderungen: Jüngere Menschen lesen fast keine Papierzeitungen mehr, informieren sich dafür aber über das Internet. Beleidigungen, die früher nur der Stammtisch hörte, erreichen heute die gesamte digitale Öffentlichkeit. Politiker können über Twitter die klassischen Medien umgehen. Schließlich noch einige Worte zur Situation der Individuen in der digitalen Welt.14 Hier zeigen sich ähnliche Ambivalenzen. Auf der einen Seite fördert die Digitalisierung eine positiv zu bewertende Individualisierung, weil nun jeder Einzelne leichter und nach eigener Entscheidung auf Daten zugreifen kann. Seit dem Wandel des Internets zum Web 2.0 sind zudem die Rollen des Konsumenten und des Produzenten nicht mehr strikt getrennt. Schon vor vielen Jahren wurde deshalb der Kunstausdruck ‚Prosumenten‘ eingeführt. Autoritären und hierarchischen Gemeinschaften kann man sich leichter entziehen. Die sozialen Medien ermöglichen neue Beziehungen und globale Netzwerke mit Gleichgesinnten.15 Auf der anderen Seite besteht die Gefahr, dass der Einzelne zum Spielball eines übermächtigen digitalen Weltsystems wird. Sind wir nicht alle schon ohnmächtige Objekte von politisch-militärischer Überwachung und kommerzieller Werbung? Die neuen virtuellen ‚Freundschaften‘ ersetzen die echten Freunde nicht.16 Darüber hinaus bilden sich im Internet individuelle Filterblasen, in denen nichts Unerwartetes mehr passiert.17 Schlimmer noch: Anonyme, konstruierte und multiple Identitäten könnten zum Zerfall der Persönlichkeit führen. Nicht zu bestreiten ist: Die Digitalisierung führt zu einem rasanten Wandel und verändert fast überall die Problemlagen. Was sollen wir tun?

10  Ein

gutes Beispiel ist Lanier (2010): Gadget. (2012): Rettet die Anonymität, S. 282. 12  Hofstetter (2016): Das Ende der Demokratie. 13  Vgl. Emmer / Vowe / Wolling (2011): Bürger online, vor allem S. 298–320. 14  Vgl. meine frühere Analyse in Thies (1997): Die Krise des Individuums. 15  Vgl. Miller (2012): Das wilde Netzwerk, S. 138 ff. u. S. 211 ff. 16  Vgl. Turkle (2012): Verloren unter 100 Freunden, vor allem S. 467–496. 17  Vgl. Pariser (2012): Wie wir im Internet entmündigt werden, S. 62 ff. 11  Morozov



Verantwortung im digitalen Weltsystem

143

2. Grundprinzipien einer digitalen Ethik Angesichts neuer Technologien und neuer Herausforderungen hört man öfter den Ruf nach einer neuen Ethik: Alle bisherigen Werte seien obsolet, kaum eine alte Norm gelte noch. Dagegen ist zweierlei zu sagen. Zum einen sind meistens die Erwartungen an die neuen Technologien, ob negativer oder positiver Art, zu hoch. Viele der kulturkritischen Befürchtungen, die sich auf das Internet richten, ähneln denen aus früheren langen Wellen, etwa schon gegenüber dem Fernsehen. Immer standen Heilsversprechen gegen Untergangsszenarien. Bewahrheitet haben sich meistens weder die einen noch die anderen. Zum anderen wird die Qualität unserer bisherigen normativen Prinzipien unterschätzt. Man denke nur an die Goldene Regel, „was du nicht willst, das man dir tu, das füg auch keinem anderen zu“, die seit vielen Jahrhunderten in allen Kulturkreisen eine gute Richtschnur für menschliches Handeln abgibt. Ebenso gilt Selbstbeherrschung überall als wichtige Tugend. Damit will ich nicht bestreiten, dass neue Probleme auch ein kreatives Nachdenken über Moral und Recht erfordern. Sinnvoll ist aber eher die Konkretisierung der weitgehend anerkannten normativen Prinzipien. Die Ethik braucht keine disruptiven Innovationen. Das möchte ich exemplarisch an zwei aktuellen Stellungnahmen zeigen. Das erste Beispiel sind die von Timothy Garton Ash für die „vernetzte Welt“ entwickelten zehn Prinzipien zur Kommunikationsfreiheit. Das erste lautet: „Wir  – alle Menschen  – müssen in der Lage und befähigt sein, frei unsere Meinung zu äußern und ohne Rücksicht auf Grenzen Informationen und Ideen zu suchen, zu empfangen und mitzuteilen.“18 Garton Ash möchte, wie das gesamte Buch deutlich macht, den politischen Liberalismus eines John Stuart Mill weiterentwickeln. Dem Grundprinzip der Freiheit gibt er tendenziell den Vorrang vor dem der Würde. Er befürchtet nämlich, dass zu viele Menschen sich unter Berufung auf ihre Würde ständig beleidigt fühlen; das würde die Redefreiheit zu stark begrenzen.19 Das zweite Beispiel ist die Charta digitaler Grundrechte, die Ende 2016 in Deutschland von einer Reihe prominenter Personen entwickelt und vorgeschlagen wurde.20 Sie orientiert sich an der Europäischen Menschenrechtskonvention und am Grundgesetz der Bundesrepublik Deutschland. Das normative Grundprinzip ist nicht die Freiheit, sondern die Menschenwürde. Der erste Artikel lautet: „Die Würde des Menschen ist auch im digitalen Zeitalter unantastbar. Sie muss Ziel und Zweck aller technischen Entwicklung sein und begrenzt deren Einsatz.“ Erst

18  Garton

Ash (2016): Redefreiheit, S. 181. Garton Ash (2016): Redefreiheit, S. 61, S. 321 f., S. 331 f., S. 465. 20  Vgl. Charta der Digitalen Grundrechte der Europäischen Union. 19  Vgl.

144

Christian Thies

Art. 2 nennt das Prinzip der Freiheit, Art. 3 die Gleichheit. Die philosophische Grundlage, so könnte man sagen, ist eher Kant als Mill. Aber wie dem auch sei, in beiden Fällen werden bekannte Werte konkretisiert. Die Diskussionen darüber, ob eher Freiheit oder Würde als Grundprinzip dienen solle und wie beide zu vereinbaren sind, gehören in die Allgemeine Ethik. Auch der Kategorische Imperativ, das utilitaristische Nutzenprinzip und Rawls’ Gerechtigkeitsgrundsätze eignen sich gewiss als normatives Fundament für Fragen einer digitalen Ethik. Als neues Prinzip wird oft ‚Verantwortung‘ ins Spiel gebracht. Das war schon die These von Hans Jonas, der jedoch das ‚Prinzip Verantwortung‘21 eher als Kontrapunkt zu einem geschichtsphilosophischen Prinzip wie Hoffnung sah. In den philosophischen Diskussionen der 1980er und 1990er Jahre wurde herausgearbeitet, dass Verantwortung kein material-normatives Prinzip so wie Autonomie, Menschenwürde oder Gerechtigkeit sein kann. Auch die Entgegensetzung von Verantwortungs- und Gesinnungsethik ist überholt. Vielmehr ist der Begriff der Verantwortung eine meta-ethische Kategorie zur Analyse komplexer Handlungssituationen.22 Andere Begriffe auf derselben Ebene sind Kategorien wie ‚Pflicht‘, ‚Tugend‘ oder ‚Wert‘. Welches Vokabular am besten ist, bleibt in der Allgemeinen Ethik umstritten. So plädieren beispielsweise die kantianischen Deontologen für den Begriff der Pflicht und die aristotelischen Ethiker für den Begriff der Tugend. Für Fragen der Angewandten Ethik scheint aber der Begriff der Verantwortung besonders gut geeignet zu sein. Im Folgenden beschränke ich mich auf einen Aspekt, auf die unterschiedlichen Verantwortungssubjekte. Im Allgemeinen plädiere ich für geteilte und gestufte Verantwortlichkeiten. Das bedeutet, dass es sehr viele und recht unterschiedliche Typen von Verantwortungssubjekten gibt. Die Kette reicht vom Einzelnen bis zu globalen Institutionen. Jeder von uns ist ein Element in allen (oder zumindest in mehreren) dieser Subjekte, nur auf unterschiedliche Art. Allerdings sind die Instanzen auf den höheren Stufen nicht einfach nur die Summe ihrer Mitglieder. Vielmehr kann man sie, wie die juristischen Personen in unserem Rechtssystem, als Subjekte eigener Art ansehen. Diesen Verantwortungssubjekten werden im Folgenden jeweils klassische Prinzipien zugeordnet, die für den Bereich digitalen Handelns bedeutsam sind.

21  Vgl.

Jonas (1979): Das Prinzip Verantwortung. Lenk / Maring (1995): Wer soll Verantwortung tragen?; vgl. auch Rehbein / Thies (2017): Art. ‚Ethik‘. 22  Vgl.



Verantwortung im digitalen Weltsystem

145

3. Fünf Verantwortungssubjekte und ihre normativen Orientierungspunkte Die ersten und wichtigsten Verantwortungssubjekte sind die einzelnen Individuen, also wir alle als Privatpersonen, Konsumenten und Staatsbürger. Von der ambivalenten Situation der Individuen im digitalen Weltsystem war oben schon die Rede. Was tun? Nicht schaden kann, so meine ich, eine Orientierung an altbekannten Tugenden.23 Besonders wichtig ist die Besonnenheit (griech. sophrosyne). Einige ältere Herren wie Hans Magnus Enzensberger mögen gegenüber den Verlockungen des digitalen Zeitalters die fast vollständige Askese empfehlen.24 Das ist unrealistisch und verkennt die positiven Möglichkeiten, die uns Smartphone und Internet eröffnen. Sehr wohl notwendig ist aber die Mäßigung (lat. temperantia) der Bedürfnisse, die sich heute so leicht in digitalen Welten befriedigen lassen. Für den gesamten Bereich der computervermittelten Kommunikation ist Selbstdisziplin erforderlich, vor allem der kontrollierte Umgang mit privaten Daten. Man muss nicht mit Google suchen, sondern kann, auch wenn es weniger effizient ist, Duckduckgo oder Ecosia verwenden. Generell gilt es, nicht zu viel und nicht zu wenig zu kommunizieren, also das rechte Maß zu finden – wie schon Aristoteles empfahl. Eine andere wichtige Tugend ist Tapferkeit. Früher richtete sich diese vor allem gegen Feinde. Mindestens genauso wichtig ist heute die Tapferkeit gegenüber den Freunden, was man als ‚Zivilcourage‘ bezeichnen kann. Im gegebenen Fall sind die Selbstverständlichkeiten der eigenen Gruppe zu kritisieren und die Anderen (also politische Gegner, feindliche Systeme und fremde Kulturen) zu loben. Zwar ist Nonkonformismus keine moralische Tugend, aber gewiss mutiger als Konformismus. Wenn wir an die immer neuen Medienkampagnen und digitalen Erregungswellen der letzten Jahre denken, so ist kaum etwas mehr vonnöten als der Mut, sich den jeweiligen Standards der politischen Korrektheit zu entziehen und mit möglichst guten Begründungen die eigenen abweichenden Auffassungen der Öffentlichkeit zu präsentieren. Was die Verantwortung des Einzelnen betrifft, sollte man sich vor zwei falschen Extremen hüten: Weder kann der Einzelne für alles verantwortlich sein – noch folgt daraus, dass man für gar nichts verantwortlich ist. Auf jeden Fall muss es Institutionen und Strukturen geben, die Verantwortung vernünftig organisieren – damit sind wir bei den höherstufigen Verantwortungssubjekten. 23  Vgl. 24  Vgl.

Thies (2016): Tugend. Enzensberger (2016): Elektronik als Massenbetrug.

146

Christian Thies

Das zweite Subjekt sind die Sozialisationsagenturen. Die wichtigste Sozialisationsagentur für jeden Menschen ist weiterhin die Familie. Eltern, die selbst in ihrem digitalen Verhalten die eben erwähnten Tugenden vermissen lassen, werden ihren Kindern kein Vorbild sein. Die zweitwichtigste Sozialisationsagentur ist die Schule. Beide Institutionen könnten ihre Aufgabe gar nicht mehr erfüllen, wenn das digitale Weltsystem durch sie hindurch direkt auf die heranwachsenden Individuen zugreifen würde. Deshalb brauchen sowohl Familie wie Schule eine gewisse Autonomie und interne Strukturen, die die Umsetzung normativer Prinzipien und pädagogischer Ziele erlauben. Was die Schulen betrifft, so wird schon seit vielen Jahren diskutiert, ob mehr oder weniger Digitalisierung besser sei. Auf der einen Seite stehen diejenigen, die meinen, dass wir digital viel flexibel, individueller, schneller und mehr lernen könnten. Auf der anderen Seite wird gewarnt, dass Digitalisierung nur dazu führe, dass wir einsamer, dümmer, oberflächlicher, dicker, aggressiver und unglücklicher werden. Zu dieser Debatte möchte ich nur einen Punkt beitragen: Der Prozess der Digitalisierung betrifft vor allem die Informations- und Kommunikationstechnologien. Alle Technologien sind Mittel zum Zweck. In einem durch Technik bestimmten Zeitalter besteht jedoch die Gefahr, dass die Mittel sich zu stark in den Vordergrund schieben. Deshalb muss in pädagogischen Prozessen klar sein, dass das Smartphone, der Computer und das Internet zwar effiziente Mittel sind, aber nicht selbst Ziel und Zweck. Das ist leichter gesagt als umgesetzt. Jeder kennt es, ziellos durch das Internet zu surfen. Wer keine Zwecke mehr kennt, für den gibt es ohnehin nur Mittel. Wer aber sich selbst sinnvolle Zwecke setzen kann, der wird auch besser mit technischen Universalmitteln umgehen können. Die Fähigkeit einer solchen Selbstgesetzgebung nennt man ‚Autonomie‘. Und um sich inhaltlich vernünftige Ziele zu geben, braucht man nichts anderes als Bildung. Denn Bildung hilft uns, das Wesentliche vom Unwesentlichen zu unterscheiden. Medienkompetenz, so wichtig sie auch sonst sein mag, bleibt dem untergeordnet. Weiterhin halte ich folgenden Satz für richtig: „Die Antwort auf unsere behauptete oder tatsächliche Orientierungslosigkeit ist Bildung – nicht Wissenschaft, nicht Information, nicht die Kommunikationsgesellschaft, nicht moralische Aufrüstung, nicht der Ordnungsstaat.“25 Auch in den Wissenschaften ist gegen Digitalisierung nichts einzuwenden, wenn sie nicht einfach flächendeckend eingesetzt wird – nur weil es möglich ist –, sondern wenn sie sinnvollen Forschungszielen dient. Das dritte wichtige Verantwortungssubjekt sind ökonomische Korporationen. Das ergibt sich aus meiner These im ersten Abschnitt, dass Digitalisie25  Hentig

(1996): Bildung, S. 15.



Verantwortung im digitalen Weltsystem

147

rung unlösbar verbunden ist mit den Grundstrukturen des globalisierten Kapitalismus. Das klassische Prinzip sind korporative Selbstverpflichtungen, wie wir sie seit dem Hippokratischen Eid von Ärzten kennen, seit 1945 aber auch von anderen Berufsgruppen, etwa von Ingenieuren und Journalisten. Ein herausragendes Beispiel ist der Deutsche Pressekodex. Auch die Internet-Giganten haben sich selbst Leitlinien gegeben, teilweise auf äußeren Druck. Bekannt sind die Richtlinien von YouTube zum Jugendschutz. Facebook-Chef Mark Zuckerberg hat am 16.2.2017 ein interessantes Manifest unter dem Titel ‚Building Global Community‘ publiziert.26 Google hat seinem Verhaltenskodex sogar das Motto ‚Don’t be evil‘ gegeben.27 Firmenkodizes müssten aber darüber hinausgehen. Zum einen sollten sie formulieren, dass sich die Verantwortung des Unternehmens nicht nur auf die beteiligten Shareholder richtet, sondern auf alle betroffenen Stakeholder. Zum anderen besteht eine Verantwortung nicht nur für die Verwendung von Profit und Vermögen, sondern bereits für deren Erwerb. Bemerkenswerterweise ist keiner der großen Internet-Giganten bisher Mitglied im ‚United Nations Global Compact‘. Dieser 1999 verkündete ‚Pakt‘ wurde von UN-Generalsekretär Kofi Annan in Zusammenarbeit mit der Internationalen Handelskammer (ICC) entwickelt. Beigetretene Wirtschaftsunternehmen (darunter auch der deutsche Software-Konzern SAP) verpflichten sich, die Menschenwürde zu respektieren und die Rechte der Arbeitnehmer zu achten sowie ökologische Risiken zu vermeiden und umweltfreundliche Technologien zu verwenden. Das wird in einem jährlichen Bericht öffentlich dargelegt; dort werden auch Beispiele vorbildlicher Praxis (best practice) dargestellt. Ergänzt wurde später die Selbstverpflichtung zur Korruptionsbekämpfung. Mein Vorschlag lautet, zwei neue Punkte aufzunehmen, die sich auf die Digitalisierung beziehen. Zum einen wäre eine Selbstverpflichtung zum Datenschutz zu nennen. Die Unternehmen müssten versichern, dass persönliche Daten der Beschäftigten, der Kunden, der Geschäftspartner und sonstiger Personen nicht ohne deren Einwilligung gesammelt, analysiert, weitergegeben oder zu sonstigen Zwecken verwendet werden. Solche Datenschutzerklärungen sind inzwischen üblich und ihr Stellenwert sollte im ‚Global Compact‘ anerkannt werden. Der zweite Punkt betrifft die Hardware-Ebene: So wie man Autos standardmäßig mit Sicherheitselementen ausstattet, sollten auch digitale Geräte technische Komponenten enthalten, die dem Schutz der Privatsphäre dienen (privacy by design, privacy by default, privacy enhan26  Vgl. 27  Vgl.

Zuckerberg (2017): Building Global Community. Google (2017): Google Code of Conduct.

148

Christian Thies

cing technologies). Denkbar wäre sogar ein eingebautes Verfallsdatum für gesammelte Daten.28 Zugegeben: Der ‚Global Compact‘ ist ein ‚Papiertiger‘. Niemand ist zur Teilnahme verpflichtet; die Berichte werden nicht überprüft; Sanktionsmöglichkeiten gibt es keine. Ja, es besteht sogar eine massive Missbrauchsmöglichkeit, nämlich die der ungerechtfertigten Selbstdarstellung als moralisches Unternehmen (bluewashing). Zumindest sollte man die jährlichen Berichte durch kompetente Fremdbeurteilungen ergänzen. Jedoch kann man sich generell nicht auf Selbstverpflichtungen verlassen. Ohne Politik und Recht geht es nicht – damit kommen wir zu den beiden letzten Punkten. Das vierte Verantwortungssubjekt ist die Öffentlichkeit. Demokratische Verfassungsstaaten sind unmöglich ohne eine lebendige Zivilgesellschaft und eine politische Öffentlichkeit, in der frei, fair und faktenorientiert diskutiert wird. In früheren Formationen spielten Vereine, Verbände und Parteien eine wichtige Rolle. Kann es im digitalen Weltsystem zu einer vergleichbaren kollektiven Selbstorganisation kommen? Ein erstes positives Beispiel sind verschiedene europäische Piratenparteien (Deutschland, Schweden, Tschechien), deren Zeit aber schon wieder vorbei ist. Etabliert haben sich aber wohl neue zivilgesellschaftliche Akteure wie z. B. das globale Netzwerk Avaaz. Bei Facebook gab es 2009 einen kollektiven Protest gegen ein neues Programm namens Beacon, das daraufhin zurückgezogen wurde.29 Dagegen war eine Kampagne zum Austritt aus Facebook, der ‚Quit Facebook Day‘ am 31.5.2010, ein Schlag ins Wasser.30 Dass aber eine nicht-kommerzielle und nicht-staatliche Initiative erfolgreich sein kann, belegt die Internet-Enzyklopädie Wikipedia, die übrigens ihren Hauptsitz in San Francisco hat, also ganz in der Nähe der kommerziellen InternetGiganten. Gegründet wurde Wikipedia von James Wales, der sich politisch zum extremen Libertarismus von Ayn Rand bekennt. Wie man dem entsprechenden Wikipedia-Artikel entnehmen kann, gibt es auch viel Kritik an Wikipedia.31 Dennoch ist mir kein besseres Beispiel für kollektive Selbstorganisation im digitalen Weltsystem bekannt. Das fünfte Verantwortungssubjekt sind, last but not least, supranationale politische Gebilde. Wenn Digitalisierung und Globalisierung miteinander verschränkt sind, muss die digitale Ethik eine globale Ethik sein. Man kann dabei an die seit der Aufklärung entwickelten universalistischen und kosmopolitischen Ansätze anknüpfen. Dennoch ist eine globale Ethik allein macht28  Vgl.

Mayer-Schönberger (2015): Delete, vor allem Kap. 5 und 6. Facebook stoppt Werbeprogramm ‚Beacon‘ (2009). 30  Vgl. Frickel (2010): Quit Facebook Day. 31  Vgl. Art. ‚Kritik an Wikipedia‘ (o. J.). 29  Vgl.



Verantwortung im digitalen Weltsystem

149

los, wie eine Fahrradbremse in einem Interkontinentalflugzeug.32 Die normativen Prinzipien der Ethik bedürfen einer Überführung ins Recht. Dieses war bisher an die Nationalstaaten gebunden. Heute sollte eine politisch-rechtliche Ordnung geschaffen werden, die dem digitalen Weltsystem angemessen ist. Auch hier muss man nicht von vorn anfangen. Schon lange gibt es juridische Bereiche wie das interkulturelle Privatrecht, das Verträge zwischen Fremden ermöglicht, und vor allem das internationale Völkerrecht, das die Beziehungen zwischen Staaten regeln soll. In der Allgemeinen Erklärung der Menschenrechte von 1948 ist im Artikel 12 (Freiheitssphäre des Einzelnen) von Privatheit die Rede. Im rechtlich verbindlichen Internationalen Pakt über bürgerliche und politische Rechte von 1966 widmet sich der Artikel 17 dem Schutz der Privatsphäre. Zudem verabschiedete die UN-Vollversammlung am 18.12.2013 eine Resolution mit dem Titel ‚Das Recht auf Privatheit im digitalen Zeitalter‘.33 Diese war als Reaktion auf die Snowden-Enthüllungen gemeinsam von Brasilien und Deutschland eingebracht worden. Gegen den Egoismus der Supermächte und die Macht der Internet-Giganten hilft aber letztlich nur eine föderale und subsidiäre Weltdemokratie, in der es ein Weltkartellamt und eine globale Finanzaufsicht geben müsste.34 Von einem solchen ‚Weltstaat‘ sind wir jedoch weit entfernt; vielleicht ist er erst in der sechsten oder siebten langen Welle möglich. Momentan stellt sich die Frage, ob nicht unsere fünfte Welle bereits ihren Höhepunkt überschritten hat. So wie die vierte Welle nach der Ölkrise 1973 abflaute, könnte die Finanzkrise 2007 / 08 die große Erschütterung sein, nach der es mit dem digitalen Weltsystem bergab geht. Ökonomen sprechen bereits von einer säkularen Stagnation: Wachstum schafft keine Arbeitsplätze mehr, Geld wirft keine Zinsen ab, Investitionen lohnen sich kaum noch. Deutlich sind auch die politischen Veränderungen: Nach dem Zusammenbruch des sowjet-russischen Imperiums 1989 / 91 schien die Welt für einen Augenblick unipolar zu sein; die USA waren die einzige Supermacht. Nach den gescheiterten US-Militärinterventionen in Afghanistan und Irak sowie dem rasanten Aufstieg Chinas ist aber klar, dass wir in einer multi-polaren Unordnung leben.35 Der US-Hegemonialzyklus gelangt an sein Ende; überall gewinnen die Partikularisten an Einfluss. Eine Rückkehr zu den alten Nationalstaaten wird es aber nicht geben. Stattdessen zeichnen sich unterschiedliche kontinentale Wege ab. Am deutlichsten zu erkennen sind das liberal-kapitalistische Modell in den USA und das autoritär-staatliche Modell in China. Auch die weltweite Digitalisierung ist davon betroffen; exemplarisch steht 32  Nach

dem berühmten Satz von Ulrich Beck (1988): Gegengifte, S. 194. UN (2014): Resolution der Generalversammlung. 34  Vgl. Höffe (1999): Demokratie im Zeitalter der Globalisierung, Kap. 15. 35  Vgl. Menzel (2016): Wohin treibt die Welt? 33  Vgl.

150

Christian Thies

dafür der Konflikt zwischen Google und China im Jahr 2010. Inzwischen bemüht sich China um ein eigenes digitales Imperium. Alibaba, Baidu, China Mobile, Tencent u. a. gehören schon zu den größten Unternehmen der Welt. Zwischen dem chinesischen und dem US-amerikanischen Weg würde ich ungern wählen wollen. Dass der chinesische Weg nicht in Frage kommt, ist klar. Aber auch zwischen Europa und Amerika gibt es große Unterschiede, nicht nur politisch und ökonomisch, sondern auch kulturell und moralisch. Hier wird beispielsweise der Schutz der Privatsphäre höher geschätzt, dort die Freiheit der Rede; hier nimmt man seit einigen Jahrzehnten mehr Rücksicht auf andere Nationen, dort nicht; hier wird oft zu viel auf den Staat übertragen, dort wird staatliche Regulierung manchmal leidenschaftlich abgelehnt. Auch in Fragen der Digitalisierung halte ich also einen gemeinsamen europäischen Weg für erforderlich. Benötigt wird zuallererst ein eigener europäischer Rechtsraum. Immerhin hat der Europäische Gerichtshof (EuGH) in Luxemburg (nicht zu verwechseln mit dem Europäischen Gerichtshof für Menschenrechte, EGMR, in Straßburg) bereits drei für unser Thema bemerkenswerte Urteile gefällt. Zunächst einmal wurden am 8.  Mai 2014 die in einigen EU-Mitgliedsstaaten geltenden Bestimmungen zur Vorratsdatenspeicherung für ungültig erklärt. Wenige Tage später, am 13.  Mai 2014, gab man der Beschwerde eines Spaniers statt, der bestimmte Links aus Google entfernt haben wollte. Suchmaschinen, so das Urteil, seien nicht nur Übermittler von Inhalten, sondern für diese mitverantwortlich. Es gebe ein Recht auf Vergessenwerden. Am 6. Oktober 2015 urteilte der EuGH, dass personenbezogene Daten nicht mehr routinemäßig in die USA transferiert werden dürfen, weil dort niedrigere Standards des Datenschutzes gelten. Die USA seien kein ‚sicherer Hafen‘ (safe harbor). Dieses Urteil richtete sich vor allem gegen Facebook. In allen drei Fällen ist die Umsetzung schwierig, denn die rechtliche Regelung des Internets ähnelt dem Versuch, einen Schatten festzuhalten. Zudem argumentieren die Staaten mit Sicherheitsinteressen angesichts des Terrorismus – und die Internet-Giganten sind nicht in Europa, sondern in den USA ansässig. Aber gerade deshalb sollte sich Europa neben China und den USA im digitalen Weltsystem als drittes Zentrum etablieren, mit eigenen Infrastrukturen, Kreditinstituten und Ausbildungsstätten. Am besten wäre ein europaweites öffentlich-rechtliches Netz wie in den Zeiten der demokratischen Wohlstandsgesellschaften, nur jetzt nicht national, sondern kontinental.36 In der Konzeption geteilter und gestufter Verantwortlichkeiten gibt es jedoch kein Allheilmittel: Selbst in einem europäischen Rechtsraum, sogar in einem Weltstaat wären die Individuen, die Sozialisationsagenturen, die öko36  Weitere

Ideen bei Hofstetter (2016): Das Ende der Demokratie, S. 405–450.



Verantwortung im digitalen Weltsystem

151

nomischen Korporationen, die politische Öffentlichkeit und die Nationalstaaten ihrer Verantwortung nicht enthoben. Bibliografie Balkhausen, Dieter: Die dritte industrielle Revolution. Wie die Mikroelektronik unser Leben verändert. Düsseldorf/Wien 1978. Barlow, John Perry: Unabhängigkeitserklärung des Cyberspace. In: Kemper, Peter u. a. (Hg.): Wirklichkeit 2.0. Medienkultur im digitalen Zeitalter. Stuttgart 2012, S. 254–257. Beck, Ulrich: Gegengifte. Die organisierte Unverantwortlichkeit. Frankfurt/M. 1988. Castells, Manuel: Bausteine einer Theorie der Netzwerkgesellschaft. In: Berliner Journal für Soziologie, Heft 4 (2001), S. 423–439. Charta der Digitalen Grundrechte der Europäischen Union (2016). URL: https:// digitalcharta.eu/ (zuletzt eingesehen am 31.3.2017). Emmer, Martin/Vowe, Gerhard/Wolling, Jens: Bürger online. Die Entwicklung der politischen Online-Kommunikation in Deutschland. Konstanz 2011. Enzensberger, Hans Magnus: Elektronik als Massenbetrug. Ein Wutausbruch. In: Der Spiegel, Heft 16 (16.4.2016), S. 114. Facebook stoppt Werbeprogramm ‚Beacon‘ (2009). In: Welt.de vom 21.09.2009. URL: https://www.welt.de/wirtschaft/webwelt/article4583533/Facebook-stopptWerbeprogramm-Beacon.html (zuletzt eingesehen am 21.07.2017). Floridi, Luciano: Die 4. Revolution. Wie die Infosphäre unser Leben verändert. Berlin 2015. Frickel, Claudia: Quit Facebook Day (2010). In: Focus Online vom 31.05.2010. URL: http://www.focus.de/digital/internet/quit-facebook-day-26000-wollen-face book-verlassen_aid_514128.html (zuletzt eingesehen am 21.07.2017). Garton Ash, Timothy: Redefreiheit. Prinzipien für eine vernetzte Welt. München 2016. Google: Google Code of Conduct (2017). URL: https://abc.xyz/investor/other/googlecode-of-conduct.html (zuletzt eingesehen am 21.07.2017). Han, Byung-Chul: Digitale Rationalität und das Ende des kommunikativen Handelns. Berlin 2013. Hegel, Georg Wilhelm Friedrich: Vorlesungen über die Philosophie der Geschichte. Frankfurt/M. 1970. Hentig, Hartmut von: Bildung. Ein Essay. München/Wien 1996. Hilbert, Martin/López, Priscila: The World’s Technological Capacity to Store, Communicate, and Compute Information. In: Science, Vol. 332 (2011), S. 60–65. Höffe, Otfried: Demokratie im Zeitalter der Globalisierung. München 1999. Hofstetter, Yvonne: Das Ende der Demokratie. Wie die künstliche Intelligenz die ­Politik übernimmt und uns entmündigt. München 2016.

152

Christian Thies

Jonas, Hans: Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation. Frankfurt/M. 1979. Kemper, Peter u. a. (Hg.): Wirklichkeit 2.0. Medienkultur im digitalen Zeitalter. Stuttgart 2012. Kritik an Wikipedia (o. J.). In: Wikipedia.de. URL: https://de.wikipedia.org/wiki/ Kritik_an_Wikipedia (zuletzt eingesehen am 21.07.2017). Lanier, Jaron: Gadget. Warum die Zukunft uns noch braucht. Berlin 2010. Lenk, Hans/Maring, Matthias: Wer soll Verantwortung tragen? Probleme der Verantwortungsverteilung in komplexen (soziotechnischen-sozioökonomischen) Systemen. In: Bayertz, Kurt (Hg.): Verantwortung. Prinzip oder Problem? Darmstadt 1995, S. 241–286. Mayer-Schönberger, Viktor: Delete. Die Tugend des Vergessens in digitalen Zeiten. Berlin 2015. Menzel, Ulrich: Wohin treibt die Welt? In: Aus Politik und Zeitgeschichte. 66 Jg., 43–45 (2016), S. 4–8. URL: http://www.bpb.de/apuz/235528/wohin-treibt-diewelt (zuletzt eingesehen am 21.07.2017). Morozov, Evgeny: Rettet die Anonymität! In: Kemper, Peter u. a. (Hg.): Wirklichkeit 2.0. Medienkultur im digitalen Zeitalter. Stuttgart 2012, S. 280–283. Pariser, Eli: Wie wir im Internet entmündigt werden. In: Kemper, Peter u. a. (Hg.): Wirklichkeit 2.0. Medienkultur im digitalen Zeitalter. Stuttgart 2012, S. 58–69. Rehbein, Malte/Thies, Christian: Art. ‚Ethik‘. In: Jannidis, Fotis / Kohle, Hubertus / Rehbein, Malte (Hg.): Digital Humanities. Eine Einführung. Stuttgart 2017, S. 353–357. Steinbicker, Jochen: Zur Theorie der Informationsgesellschaft. Ein Vergleich der Ansätze von Peter Drucker, Daniel Bell und Manuel Castells. Wiesbaden 2011. Sunstein, Cass R.: Infotopia. Wie viele Köpfe Wissen produzieren. Frankfurt/M. 2009. Thies, Christian: Die Krise des Individuums. Zur Kritik der Moderne bei Adorno und Gehlen. Reinbek 1997. ‒ Tugend. In: Communicatio socialis. Zeitschrift für Medienethik und Kommunikation in Kirche und Gesellschaft. 49. Jg., Heft 4 (2016), S. 417–421. Turkle, Sherry: Verloren unter 100 Freunden. Wie wir in der digitalen Welt seelisch verkümmern. München 2012. UN: Resolution der Generalversammlung, verabschiedet am 18. Dezember 2014 (2014). URL: http://www.un.org/depts/german/gv-69/band1/ar69166.pdf (zuletzt eingesehen am 21.07.2017). Wallerstein, Immanuel: World-Systems Analysis. Durham u. a. 2007. Zuckerberg, Marc: Building Global Community (2017). URL: https://www.facebook. com/notes/mark-zuckerberg/building-global-community/10154544292806634/ (zuletzt eingesehen am 21.07.2017).

Verhaltensbeeinflussung durch Werbung in der Massengesellschaft Julia Maria Mönig Hannah Arendt (1906–1975) ist üblicherweise keine Autorin, die im Zusammenhang mit Autonomie und Selbstbestimmung zitiert wird. Im Gegenteil ist sie gerade auch aus feministischer Sicht kritisiert worden, ihr Privatheitsbegriff eigne sich nicht als Grundlage, um Autonomie auszubilden.1 Dennoch enthält ihre Definition des Handelns als höchste politische Tätigkeit des tätigen Lebens mit Begriffen wie Spontaneität, Einzigartigkeit und Unvorhersehbarkeit Elemente, die an aktuelle Debatten um die Wahrung von Autonomie durch Privatheitsschutz erinnern. Von Aktualität ist Arendts vor dem Hintergrund ihrer Totalitarismuskritik entstandene Bestimmung dessen, was im Gegensatz zum Handeln bloßes Verhalten ausmacht. Dies zeigt sich beispielsweise anhand der heutigen Beeinflussung durch Online-Werbung. In diesem Beitrag werde ich Arendts Definition des Handelns derjenigen des Verhaltens gegenüberstellen und ihre damit verbundene Kritik an der Gesellschaft verdeutlichen. In einem nächsten Schritt werde ich vor dem Hintergrund der aktuellen Privatheitsdebatte die Begriffe Autonomie und Selbstbestimmung beleuchten. Mit Arendt werde ich im Anschluss diskutieren, warum aktuelle Werbepraktiken die Privatheit und Selbstbestimmung verletzen, und, da sie hiermit Einfluss auf menschliches Verhalten nehmen, in einer Demokratie fragwürdig sein können. 1. Verhalten und Handeln Arendts Kritik an einer Massen- und Konsumgesellschaft, bestehend aus Individuen, die sich bloß verhalten und nicht handeln,2 ist vor dem Hintergrund des Versuchs zu lesen, verstehen zu wollen, wie mit dem Holocaust passieren konnte, was nicht hätte geschehen dürfen.3 Außerdem suchte sie 1  Vgl. Honig (1995): Feminist Interpretations; Rössler (2001): Der Wert des Privaten; vgl. jedoch Benhabib (2006): Hannah Arendt. 2  Vgl. Arendt (2003): Vita activa. 3  Vgl. Arendt (2006): Elemente und Ursprünge, S. 947; vgl. auch Arendt (1996): Ich will verstehen, S. 61 u. a.

154

Julia Maria Mönig

nach einer Antwort auf die Frage, wie etwas Vergleichbares verhindert werden könne. Diese weltgeschichtlichen Ereignisse – und gleichzeitig biografischen Erlebnisse – prägten ihr politisches Werk und Wirken seit den 1940er Jahren.4 Hannah Arendts vielbeachtetem Ideal der antiken Polis als Raum zum politischen Handeln unter Freien und Gleichen5 geht eine Analyse dreier Tätigkeiten voraus. Arendt untersucht die Frage, was Menschen tun, wenn sie tätig sind.6 In ihrem Buch Vita activa grenzt sie das Handeln vom Arbeiten und Herstellen ab, und stellt ihm außerdem das Sich-Verhalten gegenüber. Die Eigenschaften des Handelns sind ihrer Meinung nach die folgenden: es beginnt spontan, es hat einen klaren Anfang, jedoch, aufgrund seines Prozess­ charakters, kein klares Ende.7 Handeln geschieht immer zwischen Menschen, da es an die Grundbedingung der Pluralität gebunden ist, die Tatsache, dass viele Menschen, die jeweils einzigartig sind, in der Welt leben.8 Da ein Mensch immer in eine bereits von Menschen gemachte Welt hineingeboren wird, und in ein, wie Arendt es nennt, Bezugsgewebe menschlicher Angelegenheiten gleichsam hineinhandelt, kann er sich der Resultate seines Handelns niemals gewiss sein.9 Das Handeln führt, im Gegensatz zum Herstellen, nie zu einem klaren Produkt, sein einziges Ergebnis sind erzählbare Geschichten, die Außenstehende berichten können. Im Handeln offenbart sich das ‚Wer einer ist‘, das dem oder der Handelnden nicht gänzlich zugänglich ist, und sich, so Arendt, vom ‚Was einer ist‘ unterscheidet. Handlungen müssen – in der Regel – durch Sprechen ergänzt werden, um ihren Sinn zu enthüllen.10 Die anthropologische Grundbedingung des Menschen, die alles Handeln und alles Tätigsein überhaupt erst ermöglicht, ist das GeborenWerden bzw. das Geboren-Sein, das Faktum der Natalität. Neben der Gebürtlichkeit sind, so Arendt, alle Grundtätigkeiten in der Mortalität verankert.11 Aufgrund seiner Unvorhersehbarkeit, der Unabsehbarkeit seiner Folgen, sei in der Menschheitsgeschichte, immer wieder versucht worden, das Handeln „durch Herstellen zu ersetzen und überflüssig zu machen“.12 Menschen, 4  Arendt floh als Jüdin 1933 aus Deutschland, nachdem sie bei der Recherche nach antisemitischen Publikationen verhaftet worden war. Für eine Kurzbiografie vgl. ­Mönig (2011): Hannah Arendt, s. ausführlich hierzu Young-Bruehl (2004): Hannah Arendt. 5  Vgl. Weißpflug / Förster (2011): The Human Condition. 6  Vgl. Arendt (2003): Vita activa, S. 14. 7  Vgl. Arendt (2003): Vita activa, S. 293 ff. 8  Vgl. Arendt (2003): Vita activa, S. 17. 9  Vgl. Arendt (2003): Vita activa, S. 222 ff. 10  Vgl. Arendt (2003): Vita activa, S. 218. 11  Vgl. Arendt (2003): Vita activa, S. 17. 12  Arendt (2003): Vita activa, S. 278.



Verhaltensbeeinflussung durch Werbung in der Massengesellschaft

155

Regierende, aber auch politische Theoretiker, wollten das eigene Handeln, aber vor allem das Handeln Anderer planbarer und vorhersehbarer machen. Da das Herstellen, laut Arendt, einen klaren Beginn und ein klares Ende hat, eindeutige Produkte erzeugt, und der Mensch den Prozess von Anfang bis Ende in der Hand hat, sei von der Tradition versucht worden, das Handeln abzuschaffen. Die Ungewissheit des ‚Wer einer ist‘, also des Jemand und Urhebers des Handelns, bedinge die „Ungewissheit aller Politik“.13 Da die Vagheit des Handelns mit der Tatsache zusammenhängt, dass es sich immer zwischen verschiedenen Menschen abspielt, sei „der Versuch der Pluralität Herr zu werden, gleichbedeutend mit dem Versuch, die Öffentlichkeit“, also den Raum für politisches Handeln, und Politik „überhaupt abzuschaffen“.14 Dies wird für Arendt am deutlichsten in den beiden von ihr untersuchten totalitären Systemen des 20. Jahrhunderts. Im Nationalsozialismus und im Stalinismus sei versucht worden, die menschliche Spontaneität, d. h. die Fähigkeit unvorhergesehene – politische – Taten zu begehen, zu beseitigen, und alle Menschen dazu zu bewegen, sich gemäß der jeweils geltenden Ideologie zu verhalten, sie „von innen her zu beherrschen und zu terrorisieren“.15 Unerwünschtes menschliches Handeln sollte eingeschränkt und unterbunden werden und durch systemkonforme Taten ersetzt werden. 2. Gesellschaft: Konformismus und Berechenbarkeit Neben ihrem Plädoyer für eine Öffentlichkeit als Ort des politischen Handelns und für eine geschützte Privatsphäre versteht Hannah Arendt in ihrer historischen Analyse des tätigen Lebens die Gesellschaft als dritte Sphäre menschlichen Handelns. Die drei Bereiche unterliegen, laut Arendt, drei Prinzipien: Das Prinzip der Gesellschaft sei Diskriminierung, während der private Bereich durch Ausschließlichkeit (exclusiveness) und der öffentliche Bereich durch Gleichheit gekennzeichnet seien.16 Da jedoch Arendt zufolge 13  Arendt

(2003): Vita activa, S. 223. (2003): Vita activa, S. 279. 15  Arendt (2006): Elemente und Ursprünge, S. 701. Hannah Arendt übt deshalb auch Kritik am Behaviorismus sowie an den Verhaltenswissenschaften. In einem ähnlichen Zusammenhang steht auch ihre Kritik an den modernen Naturwissenschaften, bei denen versucht würde, Prozesse aus dem Weltall anzustoßen, während die Wissenschaftler und Wissenschaftlerinnen ihre Sprache verloren hätten und nur noch in mathematischer Symbolsprache ausdrücken könnten, was sie tun. Vgl. Arendt (2003): Vita activa, S. 11. 16  Arendt argumentiert, dass es im Bereich des Sozialen, der Gesellschaft, in Ordnung sei, zu diskriminieren, was sie am Beispiel der Existenz jüdischer Ferienclubs verdeutlicht. Vgl. ihren umstrittenen Essay ‚Reflections on Little Rock‘. Diese seltsam anmutenden Ausführungen wurden als ‚blinder Fleck‘ Arendts interpretiert. S. Benhabib (2006): Hannah Arendt. Zur kritischen Auseinandersetzung mit diesem 14  Arendt

156

Julia Maria Mönig

in der Neuzeit die Gesellschaft an die Stelle der Öffentlichkeit getreten ist, müssten gesellschaftliche Veränderungen und Ereignisse auch Auswirkungen auf die Politik haben. In Schriften zu Problemen ihrer Zeit, z. B. Little Rock, scheint Arendt jedoch davon auszugehen, dass in demokratischen Systemen die drei Bereiche Öffentlichkeit, Gesellschaft und Privatsphäre parallel existieren. Die Gesellschaft entstand ihrer Meinung nach in der Neuzeit, als Angelegenheiten, die zuvor als privat betrachtet worden seien, an die Öffentlichkeit gelangten, was beispielsweise an dem Begriff ‚politische Ökonomie‘ deutlich würde, der eigentlich ein Oxymoron darstellen müsse, da politische Angelegenheiten nicht in den Haushalt, den oikos und Haushaltsangelegenheiten nicht an die Öffentlichkeit gehörten.17 Hierdurch seien im Öffentlichen Privatinteressen verhandelt worden, anstatt politische Fragen zu besprechen, die alle Menschen beträfen. Die Gesellschaft sei insofern bereits in ihrer Entstehung problematisch, wobei Arendt zusätzlich zu der ‚Geburt der Gesellschaft‘ in der Neuzeit, zwischen der modernen Gesellschaft im 19. Jahrhundert sowie der Massen- und Arbeitsgesellschaft des 20. Jahrhunderts unterscheidet. Im 19. Jahrhundert ersetzte, laut Arendt, die Klassenzughörigkeit die Familienmitgliedschaft, während die Gleichartigkeit der Bevölkerung zur Nationenbildung beitrug. Das Kollektiveigentum im Nationalstaat lieferte den Besitzlosen einen Ersatz für das verlorengegangene Privateigentum. Alle Tätigkeiten wurden wie das Arbeiten als Beitrag zum Lebenserhalt verstanden. Zu Beginn des folgenden Jahrhunderts verfiel, so Arendt, die Klassengesellschaft. Die Massen hätten kein gemeinsames Interesse mehr gehabt und seien gleichgültig gegenüber öffentlichen Angelegenheiten geworden.18 Arendt beschreibt hier den Zerfall des Öffentlichen und des Privaten. Die Auflösung der Trennung zwischen den beiden Bereichen ist ihrer Meinung nach mit ein Grund dafür, wie es zu den totalitären Staaten im 20. Jahrhundert kommen konnte. Ihre Ansicht, dass bestimmte Dinge und Tätigkeiten ‚natürlicherweise‘ in bestimmte Bereiche gehörten, ist Teil ihrer Sozialontologie, die jedoch bei genauerer Analyse keinen Bestand hat. Einen Grund hierfür liefert Arendt selber. Wenn sie den historischen Wandel beschreibt, drängt sich die Frage auf, warum dieser stattgefunden haben kann, wenn es ‚natürliche‘ Gründe für die Lokalisierung der Tätigkeiten gibt. Ihr Anliegen ist es, den politischen Raum zum Handeln zu bewahren, wobei ihre Vorstellung dessen, was rein politische Fragen sind, vage bleibt.

Essay, vgl. auch Mönig (2015): Hannah Arendts Begriff des Privaten; sowie Mönig (2012): Possibly Preventing Catastrophe; sowie die ausführliche Arendt-Biografie von Young-Bruehl (2004): Hannah Arendt. 17  Vgl. Arendt (2003): Vita activa, S. 38 ff. 18  Vgl. Meints (2011): Gesellschaft, S. 283; vgl. im Allg. Heuer u. a. (2011): Arendt-­ Handbuch.



Verhaltensbeeinflussung durch Werbung in der Massengesellschaft

157

In ihrer Totalitarismusanalyse befindet Arendt, dass die Ursprünge totaler Herrschaft „in dem Niedergang und Zerfall des Nationalstaates und dem anarchischen Aufstieg der modernen Massengesellschaft“ lägen.19 Die moderne Massengesellschaft, in der Menschen nur an Konsum orientiert seien, bestünde aus atomisierten Individuen, die nichts verbinde.20 Diese Individuen zeichneten, laut Arendt, wechselnde Stimmungen, eine radikale Subjektivität ihres Gefühlslebens und eine innere Konfliktsituation aus, „die alle aus der doppelten Unfähigkeit stamm[t]en, sich in der Gesellschaft zu Hause zu fühlen und außerhalb der Gesellschaft zu leben“,21 da deren Merkmale in das Öffentliche wie das Private eindrängen. Laut Arendt sei es beispielsweise für Jüdinnen und Juden durch die Wahl des Status als bewusster Paria im 19. Jahrhundert noch möglich gewesen, ein Leben abseits der Gesellschaft zu führen.22 Bezeichnend für alle Gesellschaften seien „ihre nivellierenden Züge […], das, was wir heute Konformismus nennen“.23 Mit dem Aufstieg der Gesellschaft sei der ‚Verfall der Familie‘ verbunden gewesen, was dazu führte, dass sich in der Gesellschaft alle wie Mitglieder einer Familie verhalten sollten. Arendt scheint dabei nicht an einer historischen Untersuchung von Familienmodellen vor der Neuzeit interessiert zu sein, sondern lediglich den Vergleich ziehen zu wollen, wie ein Familienoberhaupt das Interesse seiner Familie vor der von ihr auf die Neuzeit datierten Entstehung der Gesellschaft vertreten habe. Zwischen denjenigen, die zur Gesellschaft gehören, herrsche Gleichheit, allerdings keine politische Gleichheit, sondern eine Art, die eher an die Gleichheit „unter der despotischen Macht des Familienoberhaupts“ erinnere.24 Anstelle einer Herrschaft „durch Einen“ trat jedoch die „Stoßkraft des Interesses“. Im Konformismus würde, so Arendt, „völlige Einstimmigkeit in voller Freiwilligkeit erreicht“.25 In der Gesellschaft regiere „Niemand“, die „hypothetische Einheitlichkeit des ökonomischen Gesell­ schafts­inte­resses“.26 Anstelle des Handelns sei das Sich-Verhalten getreten, das von allen Mitgliedern der Gesellschaft erwartet würde, „und für welches 19  Arendt (2006): Elemente und Ursprünge, S. 16. Das Phänomen der Massen, der Massengesellschaft und der Vermassung wurde zum Ende des 19. und Anfang des 20. Jahrhunderts in verschiedenen Disziplinen und Diskursen, prominent dem soziologischen sowie dem literarischen, behandelt. Arendt interessiert hier hauptsächlich der direkte Zusammenhang zu den totalitären Regimen. 20  Vgl. Arendt (2006): Elemente und Ursprünge, S. 722 f. 21  Arendt (2003): Vita activa, S. 49. 22  Vgl. Arendt (1976): Die verborgene Tradition. 23  Arendt (2003): Vita activa, S. 50. 24  Arendt (2003): Vita activa, S. 50. 25  Arendt (2003): Vita activa, S. 51. Arendt selbst gesteht ein, dass diese ‚Freiwilligkeit‘ nur in einem letzten Stadium des Konformismus erreicht sei. Stattdessen spricht sie im Folgenden auch von hypothetischer Einstimmigkeit. 26  Arendt (2003): Vita activa, S. 51.

158

Julia Maria Mönig

sie zahllose Regeln vorschreibt, die alle darauf hinauslaufen, die Einzelnen gesellschaftlich zu normieren, sie gesellschaftsfähig zu machen und spontanes Handeln wie hervorragende Leistungen zu verhindern.“27 Die antike griechische Polis, die Arendt als den Ort betrachtet, an dem rein politisches Handeln möglich gewesen sei, habe sich hingegen durch einen Wettstreit der Gleichen ausgezeichnet, in dem gerade die Vortrefflichkeit, die genannten hervorragenden Leistungen, demonstriert worden seien.28 Auf dem beschriebenen Konformismus beruhe die „Nationalökonomie, deren wichtigstes wissenschaftliches Rüstzeug die Statistik“,29 die „mathematische Manipulation der Wirklichkeit“30 sei. Diese setze die „Berechenbarkeit menschlicher Angelegenheiten“31 voraus. Jene Berechenbarkeit lässt an heutige Diskussionen um Datenauswertung denken. Menschliches Verhalten wird, gerade in der ständig vernetzten Welt, dem Onlife, mehr und mehr quantifiziert, sei es durch die Auswertung der Statistik von Webseitenbesuchen oder etwa durch Fitness-Tracker, Geräte mit denen Vitalwerte – nicht nur – bei sportlicher Betätigung aufgezeichnet werden und je nach Hersteller von diesem z. B. in der Cloud gespeichert und ausgewertet werden, oder mit einer Online-Community zu Motivationszwecken geteilt werden können. In Kapitel 3 werde ich auf aktuelle Werbepraktiken eingehen, um vor dem Hintergrund von Arendts Warnung, dass in völlig konformen Gesellschaften schlimmstenfalls die menschliche Spontaneität eingeebnet werden kann, den Einfluss auf menschliche Selbstbestimmung zu analysieren. Als „die Gesellschaft ein einheitliches Sich-Verhalten durchgesetzt hatte“, konnten „alle Unstimmigkeiten als Abweichungen von einer in der Gesellschaft geltenden Norm und daher als asozial oder anomal verbucht werden“.32 Arendt formuliert dies in Bezug auf den Anspruch auf Wissenschaftlichkeit von Wirtschaftstheorien, erläutert es jedoch nicht weiter, sondern verwendet es für ihre Ausführungen über Statistik. Sie geht auch nicht auf die Problematik des Wortgebrauchs ‚asozial‘ im Nationalsozialismus ein. Auch heute werden Abweichungen vom gesellschaftlichen Durchschnitt unter anderem immer noch mit Argwohn betrachtet, es besteht Diskriminierung, wenn z. B. Lebenspartnerschaften rechtlich nicht völlig mit der heterosexuellen Ehe gleichgestellt sind. In Bezug auf Verhaltenstracking zu Strafverfolgungs- und Präventionszwecken macht sich u. U. verdächtig, wer keine sozialen Netzwerke, kein Handy oder keine Kreditkarte benutzt. Zudem ist es über das 27  Arendt

(2003): Vita activa, S. 51 f. Arendt (2003): Vita activa, S. 53. 29  Arendt (2003): Vita activa, S. 53. 30  Arendt (2003): Vita activa, S. 55. 31  Arendt (2003): Vita activa, S. 53. 32  Arendt (2003): Vita activa, S. 53. 28  Vgl.



Verhaltensbeeinflussung durch Werbung in der Massengesellschaft

159

Internet einfacher geworden, Gleichgesinnte zu finden. Firmen, die Daten auswerten sind dabei auch oder vielleicht gerade an abweichendem Verhalten interessiert, um z. B. herauszufinden, wie auch die betreffenden Personen als Kundinnen und Kunden gewonnen werden können. Arendt warnt vor der Nivellierung von Unterschieden: Nur wo die[…] gemeinsame Welt völlig zerstört und eine in sich völlig unzusammenhängende Gesellschaftsmasse entstanden ist, deren heterogene Gleichförmigkeit aus nicht nur isolierten, sondern auf sich selbst und nichts sonst zurückgeworfenen Individuen besteht, kann die totale Herrschaft ihre volle Macht ausüben, sich ungehindert durchsetzen.33

Gleichförmigkeit ist also in Arendts Modell nicht nur ein Merkmal der Gesellschaft, das politisches Handeln erschwert, sondern dieses verhindert und spielt somit totalitärer Herrschaft in die Hände. Arendt zufolge besteht noch ein anderes Problem. An die Stelle politischer Auseinandersetzung, „des agonalen Wettstreits in der Polis“, trete die Konzentration auf ‚rein‘ privat-persönliche Notwendigkeiten.34 Diese „bürgerlich-individualistischen Verhaltungsweisen [sic!]“ ermöglichten allerdings nur eine „politisch begrenzte Tyrannei“, sie machten totale Herrschaft aber geradezu unmöglich […] Die politisch apathischen Schichten einer Gesellschaft, in der die Bourgeoisie die herrschende Klasse ist, mögen politisch verantwortungslos sein, sie bleiben als Individuen intakte Personen, im Vollbesitz ihrer personalen Qualitäten, und sei es nur, weil sie ohne diese im Konkurrenzkampf kaum bestehen könnten.35

Die ‚personalen Qualitäten‘ sind das, was einen Menschen ausmacht, das von Arendt als ‚Wer einer ist‘ bezeichnete ‚Jemand‘, dasjenige, was im Totalitarismus zerstört werden sollte. Historisch sei in Konzentrationslagern versucht worden, Menschen zu ‚Reaktionsbündeln‘ zu machen. Es sei das ‚Experiment‘ unternommen worden, Menschen zu bloßen Objekten zu degradieren, zu lebenden Leichnamen zu präparieren. Die Nazis hätten zunächst die ‚juristische Person‘, dann die ‚moralische Person‘ und schließlich die Individualität zerstört. Ziel sei dabei die „Ertötung der Spontaneität“ 33  Arendt

(2006): Elemente und Ursprünge, S. 695. (2006): Elemente und Ursprünge, S. 673. 35  Arendt (2006): Elemente und Ursprünge, S. 674. Ein zentraler Unterschied zwischen Totalitarismus und Tyrannei ist für Arendt, dass in ersterem, neben der Zerstörung der öffentlichen Sphäre, auch versucht wurde, das „privat-gesellschaftliche Leben der ihr Unterworfenen“ völlig zu vereinnahmen. Vgl. Arendt (2006): Elemente und Ursprünge, S. 974 f.; vgl. auch Mönig (2017): Vom ‚oikos‘ zum Cyberspace. Der Ausdruck ‚im Vollbesitz ihrer personalen Qualitäten‘ mag im Deutschen pejorativ anklingen, ein Blick ins englischsprachige Original verrät jedoch, dass Arendt hier schreibt: „keep their personalities intact“, Arendt (1968): Totalitarianism, S. 11. Die Übertragung in ihre Erstsprache Deutsch fertigte Arendt selbst an. 34  Arendt

160

Julia Maria Mönig

gewesen, d. h. der „Fähigkeit des Menschen, von sich aus etwas Neues zu beginnen“.36 Menschen seien hierdurch auf Zwecke reduziert worden. Mit Arendts Kritik der Tradition geht ihre von Kant beeinflusste Kritik der Übertragung des Zweck-Mittel-Verhältnisses in den politischen Bereich einher.37 Auch das deutsche Bundesverfassungsgericht bezieht sich in seinem für dieses Thema relevanten Urteil, ebenso wie Hannah Arendt, sowohl auf die Totalitarismus­ erfahrung als auch auf das Kant’sche Diktum, dass der Mensch nie Mittel zum Zweck sein dürfe, sondern immer ‚Zweck an sich selbst‘ bleiben müsse.38 Im Folgenden werde ich die Charakteristika von Autonomie und Selbstbestimmung beschreiben, um zu verdeutlichen, wo neben diesem Umstand weitere Parallelen zwischen Arendts Ideen und Autonomie-Debatten des 20. und 21. Jahrhunderts liegen, auch wenn Arendt selbst andere Begriffe benutzt hat. 3. Autonomie und Selbstbestimmung Die Zusammenhänge zwischen Freiheit und Privatheit sowie Autonomie bzw. Selbstbestimmung und Privatheit werden in der Forschung vielfach diskutiert, sind häufig sogar Ausgangspunkt für die Beschäftigung mit dem jeweiligen Thema.39 Personale Autonomie kann in Abgrenzung zu moralischer Autonomie verstanden werden. Moralische Autonomie bezeichnet die „Fähigkeit von Personen, das objektive Moralgesetz bzw. allgemeine moralische Normen zu erkennen und anzuwenden.“40 Die „Idee der Selbstbestimmung stellt [dabei] den Kern der Autonomie dar“.41 Ein normatives Ziel des Schutzes von Privatheit ist der Schutz von Autonomie, auch im Sinne der Authentizität einer Person. Kulturelle Differenzen lassen sich, laut Beate Rössler, in der Kodierung des Privaten beobachten. Schematisch formuliert gehe es im US-Diskurs um das „Recht, alleine gelassen zu werden“,42 um „Privatheit im Sinne des Schutzes autonomer Handlungen und Entscheidungen“, während in Bezug auf die europäische bzw. bundesdeutsche Vorstellung „Privatheit im Sinne der Kontrolle über die Authen36  Arendt

(2006): Elemente und Ursprünge, S. 907, 929, 934 f. Arendt (2003): Vita activa, S. 185. 38  Vgl. Schreyer / Schwarzmeier (2005): Grundkurs Politikwissenschaft, S. 57 sowie BVerfGE 45, 187. 39  Vgl. z. B. Mill (1969): Über Freiheit; Westin (1967): Privacy; Rössler (2001): Der Wert des Privaten. Vgl. auch die Rechtsprechung des Bundesverfassungsgerichts, BVerfGE 65, 1. 40  Christman (2008): Autonomie, S. 97. 41  Christman (2008): Autonomie, S. 97. Vgl. auch Christman (2015): Autonomy. 42  Rössler (2001): Der Wert des Privaten, S. 34. 37  Vgl.



Verhaltensbeeinflussung durch Werbung in der Massengesellschaft

161

tizität von Selbstdarstellungen“ als schützenswert verstanden würde.43 Hieran würden, so Beate Rössler, verschiedene Seiten einer liberalen Konzeption des Privaten deutlich, die sich jedoch als „Aspekte ein und derselben Idee“ begreifen ließen.44 Arendt selbst untersucht nicht explizit Autonomie und Selbstbestimmung und betont auch nicht, dass Privatheitsschutz um des Schutzes der Selbstbestimmung willen geschehen soll. Sie untersucht allerdings die Geschichte des Willens […] nach der das Wollen das innere Vermögen ist, durch das die Menschen entscheiden, ‚wer‘ sie sein werden, […] der Wille, der mit Projekten und nicht mit Objekten zu tun hat, schafft in gewissem Sinne die Person, die gelobt und getadelt und jedenfalls nicht nur für ihre Handlungen verantwortlich gemacht werden kann, sondern für ihr ganzes ‚Sein‘, ihren Charakter.45

Die Beschäftigung mit dem „Vermögen des Willens“ bedeute, so Arendt, gleichzeitig die Beschäftigung mit dem Problem der Freiheit. Beide Probleme sind jedoch, laut Christman, nicht identisch mit Autonomie.46 Beate Rössler argumentiert, dass Arendts Privatheitsbegriff unzureichend sei und mit einem „verkürzten Begriff der Freiheit“ einhergehe.47 Freiheit bezieht sich für Arendt im Wesentlichen auf das Öffentliche. Ihre Forderung, warum das Private geschützt werden soll, beinhaltet die metaphorisch formulierte Annahme, dass es Dinge gäbe, die zerstört werden könnten, wenn sie an das helle Licht der Öffentlichkeit gelangten.48 Geschützt werden muss offensichtlich auch das Wesen des Menschen, das Jemand, das einerseits dieses Schutzes bedarf, weil es, u. a. durch totalitäre Systeme, zerstört werden kann, andererseits jedoch ihrer Ansicht nach ‚natürlicherweise‘ vorhanden ist. Diese „Einmaligkeit der menschlichen Person“ werde „zu gleichen Teilen von Natur, Willen und Schicksal gebildet“.49 Die Einmaligkeit ist also zum Teil angeboren, wie auch aus Arendts Definition der Natalität hervorgeht, der zufolge kein Mensch, der je geboren wurde, einem anderen Menschen gliche, der jemals auf der Welt gewesen sei.50 Sie bedarf des Schutzes des Privaten, 43  Rössler

(2001): Der Wert des Privaten, S. 36. (2001): Der Wert des Privaten, S. 36. 45  Arendt (2006): Leben des Geistes, S. 201. 46  Vgl. Christman (2015): Autonomy in Moral and Political Philosophy. 47  Rössler (2001): Der Wert des Privaten, S. 198. Für eine genauere Untersuchung des Arendtschen Privatheitsbegriff vgl. Mönig (2017): Vom ‚oikos‘ zum Cyberspace. Arendt thematisiert hauptsächlich die lokale Dimension des Privaten, aber, u. a. mit dem Recht der Eltern über die Erziehung ihrer Kinder zu bestimmen, auch einen Aspekt dezisionaler Privatheit. Autonomie findet sich zudem nicht als Stichwort im Arendt-Handbuch, vgl. Heuer u. a. (2011): Arendt-Handbuch. 48  Vgl. Arendt (2003): Vita activa, S. 77. 49  Arendt (2006): Elemente und Ursprünge, S. 934. 50  Vgl. Arendt (2003): Vita activa, S. 17. 44  Rössler

162

Julia Maria Mönig

jedoch auch der Öffentlichkeit, um sich vor anderen auszeichnen und zeigen zu können. Darüber, wie diese Einzigartigkeit außer durch die ‚Verborgenheit‘ des Privaten gefördert werden kann, äußert sich Arendt nicht. Im Gegenteil ist sie z. B. in Bezug auf Erziehung der Meinung, dass Eltern über ihre Kinder bestimmen können sollen, während die Schule nur einen minimalen Anspruch an politischer Erziehung leisten solle, da man Revolutionäre nicht erziehen könne, und der Versuch hierzu Indoktrination bedeute und in autoritären Systemen seit dem Altertum unternommen worden und undemokratisch sei.51 Arendt spricht allerdings nicht vom Privaten als geschütztem Raum des Ausprobierens, wie bspw. Rössler es betont. Dieses Ausprobieren könnte für Arendt scheinbar eher im Gesellschaftlichen stattfinden, wenn sie beispielsweise die Schule als ‚Zwischenreich‘ betrachtet, in dem Kinder und Jugendliche langsam auf die Welt vorbereitet werden. Die Einzigartigkeit kommt offensichtlich jedem Individuum qua Geburt zu, es muss sie dann (nur) ausleben können.52 Sie ist für Arendt die Voraussetzung für das spontane Handeln in der Öffentlichkeit, das politisch zu einer Revolution führen und völlig spontan auftreten könne, aber genau hier bleibt Arendts Argumentation vage. Obwohl Arendts Handlungsbegriff problematisch ist,53 erinnert die von ihr betonte Einzigartigkeit an Authentizität, die Spontaneität an Argumente, dass freiheitlich-demokratische Systeme ihren Mitgliedern nicht vorschreiben, was sie zu tun haben. Den Kern dessen, was die Persönlichkeit ausmache, bilde die menschliche Würde, die laut Arendt ebenso wie beispielsweise laut dem deutschen Grundgesetz geschützt werden muss. 4. Beeinflussung durch behavioral advertising Dass Werbung versucht, das Verhalten – potentieller – Käuferinnen und Käufer zu beeinflussen, ist nichts Neues und nicht spezifisch für den Beginn des 21. Jahrhunderts, war doch ihr Zweck seit jeher derjenige, auf – neue – Produkte aufmerksam zu machen, Menschen zu deren Kauf anzuregen, um am Ende den Umsatz eines Unternehmens zu steigern. So betonen Siegert und Brecheis aus publizistik- bzw. kommunikationswissenschaftlicher Sicht, dass trotz begrifflicher Unschärfe aufgrund der Vielzahl an beteiligten Diszi51  Vgl.

Arendt (1994): Erziehung, S. 258. Arendt (2003): Vita activa, S. 17. 53  Wie Ingo Elbe in Bezug auf Arendts Bewertung Adolf Eichmanns herausstellt, vermischt Arendt Täter und Opfer. Wenn diejenige, die handelt, aufgrund der Unvorhersehbarkeit, die die Folgen des Handelns im Bezugsgewebe menschlicher Handlungen haben, eine Tat eher ‚erleidet‘, gleichzeitig jedoch immer schuldig wird, stellt sich die Frage nach der Verantwortlichkeit für individuelles Handeln, vgl. Elbe (2015): „das Böse, das von Niemanden begangen wurde‘‘, S. 449 f. 52  Vgl.



Verhaltensbeeinflussung durch Werbung in der Massengesellschaft

163

plinen unstrittig sei, dass „der Werbung die absichtliche Beeinflussung inhärent“ sei.54 Werbung wolle „bei ihren Adressaten etwas bewirken“. Sie wolle „über Informationen den Wissensstand erhöhen, […] Meinungen und Einstellungen zu den beworbenen Objektiven positiv verändern und letztlich auch zu bestimmtem Verhalten führen“.55 Behrens definierte 1970, dass die Beeinflussung ‚absichtlich‘, jedoch ‚zwangsfrei‘ sei. Sie solle „die Menschen zur Erfüllung der Werbeziele veranlassen“. Im wirtschaftlichen Bereich ziele sie auf die „Verfügung über ökonomische Güter“, also die Art, wie und wofür Menschen ihr Geld ausgeben. Behrens unterscheidet Propaganda von Wirtschaftswerbung. Erstere sei Werbung für außerwirtschaftliche Zwecke, z. B. für „religiöse, politische, künstlerische oder kulturelle Ideen“.56 Die American Marketing Associaton betont, dass Werbung, neben ihrer Informationsfunktion, überzeugen solle. Sie definiert advertising als: The placement of announcements and persuasive messages in time or space purchased in any of the mass media by business firms, nonprofit organizations, government agencies, and individuals who seek to inform and / or persuade members of a particular target market or audience about their products, services, organizations, or ideas [Hervorh. d. Verf.].57

Auch Thomas Bohrmann betont, dass Werbung „persuasive Kommunikation [Hervorh. i. Orig.]“ sei, um ökonomische Ziele zu erreichen.58 Sie sei jedoch nicht per se manipulativ, wenn es auch manipulative Werbeformen gäbe: „Beeinflussen, überzeugen, überreden, sich um jemanden bemühen“ – dürfe nicht von „vorneherein als schlecht oder ethisch illegitim gelten.“59 Auch andere Formen der Kommunikation wie „Erziehung, Predigt, politische Reden“ etc. würden versuchen, andere zu beeinflussen. Bohrmann unterscheidet drei Formen manipulativer Werbung, subliminale, getarnte und verfälschende Werbung, denen das „Verschleierungsprinzip“ gemeinsam sei.60 Es werde nicht „offen kommuniziert“, weshalb sich „der Umworbene“ nicht 54  Siegert

& Brecheis (2005): Werbung, S. 8. & Brecheis (2005): Werbung, S. 22. 56  Behrens (1970): Begrifflich-systematische Grundlagen, S. 4. Behrens führt verschiedene Formen der Werbung auf. Unter den sieben ‚Einteilungskriterien‘ interessiert uns die dritte Kategorie der „[n]ach den Werbesubjekten zu unterscheidende[n] Werbeformen“. Bei der ‚Einzelumwerbung‘ erfasse die „werbliche Beeinflussung […] die Werbesubjekte als Individuen“. „Die Werbesubjekte seien die öffentlichen und privaten Haushalte“ (ebd. 5 ff.). Interessant ist hier die Verwendung des Begriffs ‚Werbesubjekt‘, handelt es sich doch vielmehr um Werbeobjekte, die umworben werden, auf die sich die Werbung richtet und auf die die Werbung abzielt. Grammatisch und auf den ersten Blick sind Werbesubjekte diejenigen, die Werbung betreiben. 57  American Marketing Associaton (o. J.): advertising. 58  Bohrmann (2010): Werbung, S. 293. 59  Bohrmann (2010): Werbung, S. 294. 60  Bohrmann (2010): Werbung, S. 294. 55  Siegert

164

Julia Maria Mönig

bewusst sei, dass er manipuliert werde; er glaube „in Freiheit zu handeln und Kaufentscheidungen zu treffen“.61 Je mehr Menschen sich an Werbung gewöhnen, desto ausgefallener muss sie werden.62 So beschreibt beispielsweise banner blindness die Tatsache, dass Userinnen und User online angezeigte Werbebanner ignorieren und nicht mehr wahrnehmen.63 Der Versuch, das Verhalten der Nutzerinnen und Nutzer zu beeinflussen, wird deshalb subtiler. So berichtet etwa Charles Duhigg, dass die Firma Target ihre Werbestrategie änderte, nachdem schwangere Frauen irritiert über zu direkte Werbung waren, die offensichtlich aus ihrem Kaufverhalten abgeleitet wurde. Daraufhin wurden Anzeigen für Dinge, von denen Target meinte, dass schwangere Frauen sie, wie eine Führungskraft äußerte, ‚niemals‘ kaufen würden, mit den Anzeigen für Babyprodukte vermischt, damit diese wie zufällig wirkten. Beispielsweise wurden Rasenmäher neben Windeln präsentiert, oder Weingläser neben Babykleidung.64 Insgesamt kann zwischen Werbeformen mit und ohne datenschutzrechtlicher Relevanz unterschieden werden. Für Plakatwerbung oder Anzeigen in Printmedien müssen keine persönlichen Daten erhoben werden. Personalisierte Werbung hingegen benötigt bereits in Form von persönlich adressierten Briefen oder E-Mails, Katalogzustellung oder Werbeanrufen, zumindest Namen und Adressen oder die Telefonnummern der umworbenen Personen.65 Für bestimmte Arten von Internetwerbung im 21. Jahrhundert werden persönliche Informationen von Nutzerinnen und Nutzern verwendet, die z. B. beim Surfen, Versenden von Nachrichten oder während Videotelefonaten anfallen. Die gleichen Daten werden unter Umständen auch z. B. für das Zustellen gezielter Printwerbung genutzt. Unternehmen sparen sich, so Zygmunt Bauman, den „teuersten Aspekt der früheren Marketingstrategie  – das ‚Erregen‘ von Aufmerksamkeit“,66 da sie die automatisch anfallenden Informationen auswerten, wessen sich der Nutzer oder die Nutzerin unter Umständen gar nicht bewusst ist. 61  Bohrmann

(2010): Werbung, S. 294. Jahr 2008 berichtete ‚Die Zeit‘ beispielsweise über U-Bahnhaltestellen, an denen Waschmittelwerbung mit dem entsprechenden Geruch verbunden wurde, vgl. Rauterberg (2008): Du kannst uns nicht entkommen. 63  Vgl. Haibel (2014): The Fantasy. Haibel bezeichnet diesen Mechanismus als ‚semiconscious‘, halb-bewusst. Wenn es sich um bewusstes Ignorieren handelt, kann hier ein Element der Selbstbestimmung ausgemacht werden, bei dem eine Person, sofern dies möglich ist, eine aktive Entscheidung getroffen hat, die angezeigte Werbung nicht mehr zu beachten. 64  Vgl. Duhigg (2012): How Companies Learn your Secrets. 65  Vgl. Fiedler (2012): Freiheit und Grenzen. 66  Bauman / Lyon (2013): Daten, S. 154 f. 62  Im



Verhaltensbeeinflussung durch Werbung in der Massengesellschaft

165

Die neue Form der Werbung trägt das Wort Verhalten im Namen, da dieses ausgewertet wird: behavioral advertising oder behavioral targeting. Daten der Onlineaktivitäten von Konsumentinnen und Konsumenten werden gesammelt und zurückverfolgt, um ihnen targeted oder tailored advertising präsentieren zu können.67 Dies wird als Vorteil angepriesen, da die Werbung auf die jeweilige Person zugeschnitten ist. Eine andere neue Art der OnlineWerbung, sponsored content oder auch native advertising genannt, benötigt nicht unbedingt Informationen über die Konsumentinnen und Konsumenten, ist jedoch subtil. Ein Artikel mit einem redaktionellen Inhalt wird dabei von einer Firma bezahlt, was jedoch teilweise nur sehr unauffällig oder gar nicht gekennzeichnet wird. Damit Internetnutzerinnen und -nutzer auch als dieselbe Person identifiziert werden können, wenn sie verschiedene Geräte verwenden, gibt es verschiedene cross-tracking-Techniken. Zum einen auf ‚freiwilliger‘ Basis, wenn eine Nutzerin beispielsweise mehrere Geräte derselben Firma verwendet, und sich auf allen mit demselben Account anmeldet. Außerdem gibt es jedoch z. B. das sogenannte ultrasound tracking, das seit 2014 von der Werbeindustrie eingesetzt wird, um Konsumentinnen und Konsumenten ohne ihr Wissen gezielt auf verschiedenen Wegen zu erreichen.68 Hierbei werden für das menschliche Ohr unhörbare Ultraschallgeräusche z. B. während einer Fernsehwerbung oder über Computerlautsprecher abgespielt, die eine App, über deren Vorhandensein die Nutzerin nicht unbedingt informiert ist, auf einem smart device aufnimmt. Während beispielsweise Telefon- und Internet­ anbieter wissen, welche Geräte sich über WLAN in ein Netz einwählen, ist diese neue Technologie eine direkte Möglichkeit für Marketing-Fachleute zu erfahren, welche Werbung von welchem Gerät aus angeschaut wird, und ob etwa aufgrund einer Fernsehwerbung eine Internetsuche initiiert wurde.69 Es gibt dabei keine opt-out-Möglichkeit. Der einzige technische Faktor, diesem Tracking über verschiedene Geräte hinweg zu entkommen, ist physische ­Distanz. Wie Hoofnagle u. a. bereits 2012 in Bezug auf Flash- und HTML5Cookies feststellten, wird Technologie verwendet, um User-Autonomie zu umgehen.70 Bei Werbung, die im Internet angezeigt wird, gibt es nicht nur das Problem, dass sie Daten sammelt und speichert, was als Austausch für den ‚kostenlosen‘ 67  Vgl. FTC (2009): Federal Trade Commission Staff Report, S. 2; The White House (2012): Consumer Data Privacy, S. 11. 68  Vgl. Mavroudis u. a. (2016): Ultrasound. 69  Vgl. Goddin (2015): Beware of ads. Die Technik kann auch dazu genutzt werden, Nutzerinnen und Nutzer des Tor-Browsers zu deanonymisieren, vgl. Mavroudis u. a. (2016): Ultrasound. 70  Vgl. Hoofnagle u. a. (2012): Behavioral Advertising.

166

Julia Maria Mönig

Zugang zu Informationen gesehen werden könnte, und Verhalten trackt, sondern sie kann auch ein Sicherheitsproblem darstellen, da Schadsoftware über sie verbreitet werden kann.71 Somit bestimmt eine Person nicht mehr selbst darüber, welche Software eigene Daten auf dem eigenen Gerät verarbeitet, sie übt also keine Kontrolle über das eigene Gerät aus. Hierdurch werden die informationelle, die dezisionale und lokale Privatheit der Person verletzt.72 Eine weitere Möglichkeit der Sammlung persönlicher Daten, in welche die Kundinnen und Kunden sogar explizit einwilligen, sind Treuekarten von Geschäften oder Unternehmen, wie z. B. Payback, die bei verschiedenen Anbietern gültig sind.73 Die Aussicht auf Rabatte bzw. das Erhalten von Vergünstigungen scheint es vielen Menschen wert zu sein, ihre Daten im Austausch dafür offenzulegen. Sie erhalten jedoch nicht nur Rabatte auf ihre Einkäufe oder vergünstigte Sonderangebote weiterer Artikel, sondern werden an das Geschäft gebunden. Treuekarten als Werbeinstrumente nehmen somit Einfluss auf die Wahl des Einkaufsortes. Dass vermeintlich gezielte Werbung auch diskriminierende Effekte haben kann, zeigt Latanya Sweeney am Beispiel der Suchmaschine Google. Wenn nach Personennamen gesucht wurde, die häufiger afro-amerikanische Menschen tragen, wurden Datenbanken als Werbung angezeigt, mithilfe derer man herausfinden kann, ob die jeweilige Person bereits in den USA verurteilt wurde. Bei der Suche nach Namen, die häufiger weiße Menschen tragen, lässt sich dieser Zusammenhang nicht beobachten.74 Oscar Gandy weist darüber hinaus darauf hin, dass nicht nur gezielte Werbung problematisch ist, sondern dass es sich um cumulative disadvantage handelt. Statistical discrimination würde eine Reihe von Gütern und Services betreffen, inklusive markets for finance and housing, as well as health care, education and social services. Its reach has also expanded rather dramatically into components of the criminal justice system in ways that threaten the delivery of other services through government bureaucracies […] statistical discrimination compounds the disadvantages that the structural constraints we readily associate with race, class, gender 71  Vgl.

Fukami (2013): Adblocking ist ein Sicherheitsthema. drei Dimensionen des Privaten werden in der Literatur neben weiteren verwendet, um die Breite des Begriffs zu fassen und einzugrenzen. Im deutschsprachigen Diskurs wird zumeist auf Beate Rösslers Definition der Dimensionen verwiesen. Vgl. hierzu Rössler (2001): Der Wert des Privaten, S. 25. 73  Derzeit gibt es laut eigenen Angaben 53 Payback-Partner. Der Einwilligung zur Verwendung der persönlichen und durch die Nutzung entstehenden Daten zu Werbeund Marktforschungszwecken kann widersprochen werden. Laut der selbst entwickelten ‚Philosophie zu Kundendaten‘ sowie den Datenschutzhinweisen erhält nur das jeweilig beteiligte Partnerunternehmen sowie die Firma Payback die anfallenden Daten. Vgl. Payback GmbH (o. J.): Hinweise zum Datenschutz; Geschäftsführung der Payback GmbH (o. J.): Die Philosophie von Payback im Umgang mit Kundendaten. 74  Vgl. Sweeney (2013): Discrimination in Online Ad Delivery. 72  Diese



Verhaltensbeeinflussung durch Werbung in der Massengesellschaft

167

and cultural identity influence the life chances that shape the opportunity sets that people encounter.75

Außerdem werden die gleichen Techniken nicht nur für Produktwerbung eingesetzt, was im Arendtschen Sinne dem Bereich der Gesellschaft zuzuordnen wäre, sondern auch für Wahlwerbung und haben somit auch direkte ­politische Konsequenzen. Aus den USA ist seit einiger Zeit die Strategie der voter surveillance76 bekannt, häufig wird George W. Bushs Kampagne zur Wiederwahl im Jahr 2004 als erster Einsatz genannt. In Kombination mit der filter bubble wird das Verhalten von Wählerinnen und Wählern ausgewertet. Ihnen werden ausschließlich Informationen über und Werbung für die jeweilige Kampagne derjenigen Partei angezeigt, der sie – vermeintlich – aufgrund ihrer Online-Recherchen, ihrer Facebook-Freunde und weiterer Datenspuren, die sie im Internet hinterlassen haben, bereits nahestehen. Es wird also direkt Einfluss auf die politische Meinungsbildung genommen, wobei zu beobachten ist, dass Meinungen sich in einem Klima, in dem sie bereits bestehen, verfestigen.77 Colin Bennett verweist jedoch darauf, dass in Europa voter surveillance in dem Maße, wie sie in den USA und anderen Ländern betrieben wird, als illegal erachtet würde, da das Datenschutzrecht das Speichern von Daten von Wählerinnen und Wählern nur zu Zwecken wie beispielsweise der Mitgliederverwaltung vorsehe, hier in Form der expliziten Mitgliedschaft in einer Partei. Es wird diskutiert, ob voter surveillance freiheitlich-demokratischen Prinzipien widerspricht.78 Dass ständige Überwachung einen chilling effect haben kann, ist nicht nur anhand verschiedener historischer Situationen 75  Gandy (2011): Consumer Protection, S. 175 f. Gandy führt dabei in seiner Kritik moderner Praktiken zwei von Arendt zur Beschreibung der Gesellschaft verwendete Begriffe zusammen: Statistik und Diskriminierung. 76  Colin Bennett betont, dass der Begriff ‚voter surveillance‘ ungenau sei, benennt jedoch vier Trends, die sie ausmachen: „the shift from stand-alone voter management databases to more integrated voter management platforms (popularly called ‚the campaign in a box‘); the shift from mass messaging to micro-targeting, including the integration of personal data from commercial data brokerage firms; the increasing and more unstructured capture of user-generated data from social media; and the development of mobile applications for political messaging and campaigning.“ Bennett (2015): Trends, S. 372. 77  Vgl. u. a. Voigtländer / Voth (2015): Nazi Indoctrination and Anti-Semitic-Beliefs in Germany. Konzepte, die diese Phänomene bezeichnen, sind der sog. ‚Bestätigungsfehler‘ (engl.: confirmation bias), vgl. Pariser (2012): Filter Bubble, S. 93; sowie der metaphorische Gebrauch des physikalischen Begriffs echo chamber in Bezug auf Medien und Nachrichten. 78  Vgl. Bennett (2015): Trends, S. 373, 382 f. Die Wahl Donald Trumps zum USPräsidenten im November 2016 habe, laut Bennett, Fragen über die Wirksamkeit dieser Form der Beeinflussung von Wählerinnen und Wählern aufgeworfen, da die Demokratische Partei offensichtlich die größere Big-Data-Kampagne eingesetzt habe, vgl. Bennett (2016): So maybe ‚Big Data‘ doesn’t work.

168

Julia Maria Mönig

nachzuweisen, sondern auch durch verschiedene Studien gezeigt worden.79 Andererseits ist jedoch auch ein sogenanntes privacy paradox zu beobachten, bei dem Internetnutzerinnen und -nutzer, obwohl sie über Wissen über Überwachungs- und Trackingpraktiken von Regierungen, Geheimdiensten und Unternehmen verfügen, ihr Online-Surf-Verhalten nicht ändern.80 Voigtländer und Voth konstatieren in ihrer Studie über die Auswirkung von Nazi-Propaganda, insbesondere in Schulen und der Hitlerjugend, auf Kinder und Jugendliche in den 1920er und 1930er Jahren, dass Versuche, die öffentliche Meinung, Gesinnungen und Überzeugungen zu beeinflussen von „advertising and schooling to ‚brainwashing‘ “81 reichen würden. Dabei sei jedoch deren Wirksamkeit hoch umstritten. In ihrer Totalitarismusanalyse fügt Hannah Arendt eine Fußnote über den Zusammenhang zwischen Terror und Propaganda an und stellt fest, dass oft übersehen werde, dass „nicht nur politische Propaganda, sondern bereits die moderne Massenreklame ein Element der Drohung in sich“ enthalte.82 Anders als Behrens sieht Arendt bei Werbung offensichtlich Zwangselemente. 5. Schluss Beizeiten wird das Argument vorgebracht, dass, wer die Beeinflussung durch Werbung überschätze, Selbstbestimmung leugnen würde. Beim Versuch, Menschen durch Werbung zu beeinflussen mag es ‚nur‘ um ökonomische Aspekte gehen, wie ich jedoch gezeigt habe, bleibt es vielfach nicht dabei, da gerade im Internet versucht wird, Beeinflussung, auch auf politische Informationen und Meinungen sowie Wahlentscheidungen auszuüben. Die ursprüngliche Bildung einer Meinung ist einerseits zwar offensichtlich schwierig zu beeinflussen, andererseits wirken Positionen, Argumente, Thesen oder polemische Äußerungen verstärkend auf schon bestehende Meinungen, was eben auch für Vorurteile, Stereotypen oder Verschwörungstheorien gilt. Menschliche Gewohnheiten werden durch technische Manipulationen noch verstärkt. Vor dem Hintergrund von Arendts Totalitarismusanalyse ist Vorsicht angeraten, sobald versucht wird, Menschen zu beeinflussen und v. a. ihr spontanes Handeln zu unterbinden und in Verhalten, z. B. reines Kaufverhalten, zu manipulieren. Zu Recht wird in der Forschung ge- und hinterfragt, wie mani­ 79  Vgl.

z. B. PEN (2015): Global Chilling; PEN (2013): Chilling Effects. z. B. Barnes (2006): A Privacy Paradox. 81  Voigtländer / Voth (2015): Nazi Indoctrination and Anti-Semitic-Beliefs in Germany, S. 1. 82  Arendt (2006): Elemente und Ursprünge, S. 726. 80  Vgl.



Verhaltensbeeinflussung durch Werbung in der Massengesellschaft

169

pulierbar Menschen wirklich sind. Andererseits werden in der Werbung Techniken eingesetzt, die gezielt auf eine Verhaltensänderung abzielen. Die Funktion von Privatheitsschutz ist es, wie in der interdisziplinären Privatheitsforschung, aber auch beispielsweise von Seiten des deutschen Bundesverfassungsgerichts argumentiert wird, Autonomie zu gewährleisten und Menschen zu ermöglichen, sich frei von Beobachtung und ungewollten Einflüssen selbst ausprobieren und entscheiden zu können. Danach benötigen Authentizität und Persönlichkeitsbildung Autonomie, die wiederum einen geschützten privaten Raum voraussetzt. Da eine Demokratie von der Mitwirkung selbstbestimmter Individuen lebt, sollten Beeinflussung und Konformismus sowie bloßes Konsumverhalten kritisch beäugt werden. Bibliografie American Marketing Associaton (o. J.): Advertising. URL: https://www.ama.org/ resources/Pages/Dictionary.aspx?dLetter=A#advertisement (zuletzt eingesehen am 27.10.2016). Arendt, Hannah: Elemente und Ursprünge totaler Herrschaft. München 2006. ‒ Vom Leben des Geistes. München 2006. ‒ Vita activa. München 2003. ‒ Reflections on Little Rock. In: Kohn, Jerome (Hg.): Responsibility and Judgment. New York 2003, S. 193–213. ‒ Fernsehgespräch mit Günter Gaus. In: Ludz, Ursula (Hg.): Ich will verstehen. Selbstauskünfte zu Leben und Werk. München 1996, S. 46–72. ‒ Die Krise in der Erziehung. In: Zwischen Vergangenheit und Zukunft. Übungen im politischen Denken I. München 1994, S. 255–276. ‒ Little Rock – Ketzerische Ansichten zur Negerfrage und Equality. In: Knott, Marie Luise (Hg.): Zur Zeit – Politische Essays. Berlin 1986, S. 95–117. ‒ Die verborgene Tradition. In: Arendt, Hannah: Die verborgene Tradition. Acht Essays. Frankfurt/M. 1976, S. 46–73. Barnes, Susan B.: A Privacy Paradox. Social networking in the United States. In: First Monday 11.9 (2006). URL: http://firstmonday.org/ojs/index.php/fm/article/ view/1394 (zuletzt eingesehen am 16.11.2015). Bauman, Zygmunt/Lyon, David: Daten, Drohnen, Disziplin. Ein Gespräch über flüchtige Überwachung. Berlin 2013. Behrens, Karl C.: Begrifflich-systematische Grundlagen der Werbung. In: Behrens, Karl C. (Hg.): Handbuch der Werbung. Wiesbaden 1970, S. 3–10. Benhabib, Seyla: Hannah Arendt. Die melancholische Denkerin der Moderne. Frankfurt/M. 2006. Bennett, Colin: So maybe ‚Big Data‘ doesn’t work in elections? Maybe it’s time to stop using it? (2016). URL: http://www.colinbennett.ca/parties-and-privacy/so-

170

Julia Maria Mönig

maybe-big-data-and-micro-targeting-doesnt-work-in-elections-maybe-its-time-tostop-using-it (zuletzt eingesehen am 09.01.2017). Bennett, Colin J.: Trends in Voter Surveillance in Western Societies. In: Surveillance & Society (2015). URL: http://ojs.library.queensu.ca/index.php/surveillance-andsociety/article/view/voter_surv/voters (zuletzt eingesehen am 19.10.2016). Bohrmann, Thomas: Werbung. In: Schicha, Christian (Hg.): Handbuch Medienethik. Wiesbaden 2010, S. 293–303. Christman, John: Autonomy in Moral and Political Philosophy. In: Zalta, Edward N. (Hg.): The Stanford Encyclopedia of Philosophy. Stanford 2015. URL: https:// plato.stanford.edu/archives/spr2015/entries/autonomy-moral (zuletzt eingesehen am 15.01.2017). ‒ Autonomie. In: Gosepath, Stefan/Hinsch, Wilfried/Rössler, Beate (Hg.): Handbuch der Politischen Philosophie und Sozialphilosophie. Berlin 2008, S. 96–102. Duhigg, Charles: How Companies Learn Your Secrets. In: The New York Times vom 16.02.2012. URL: http://www.nytimes.com/2012/02/19/magazine/shopping-habits. html?smid=pl-share (zuletzt eingesehen am 21.07.2017). Elbe, Ingo: ‚das Böse, das von Niemanden begangen wurde‘. Hannah Arendts Konzept der ‚Herrschaft des Niemand‘ (2015). URL: http://www.rote-ruhr-uni.com/ cms/IMG/pdf/Arendt.pdf (zuletzt eingesehen am 10.02.2017). Federal Trade Commission: Federal Trade Commission Staff Report. Self-Regulatory Principles For Online Behavioral Advertising. Tracking, Targeting, and Technology (2009). URL: https://www.ftc.gov/sites/default/files/documents/reports/federaltrade-commission-staff-report-self-regulatory-principles-online-behavioral-advert ising/p085400behavadreport.pdf (zuletzt eingesehen am 22.06.2015). Fiedler, Christoph: Freiheit und Grenzen der Datenverarbeitung am Beispiel adressierter Werbung. In: Schmidt, Jan-Hinrik/Weichert, Thilo (Hg.): Datenschutz. Bonn 2012, S. 165–171. Fukami: Adblocking ist ein Sicherheitsthema (2013). URL: http://blog.fukami.io/ archives/2013/05/14/adblocking-ist-ein-sicherheitsthema (zuletzt eingesehen am 21.07.2017). Gandy, Oscar H.: Consumer Protection in Cyberspace. In: tripleC 9.2 (2011). URL: http://www.triple-c.at/index.php/tripleC/article/view/267/241 (zuletzt eingesehen am 21.10.2016). Goddin, Dan: Beware of Ads That Use Inaudible Sound to Link Your Phone, TV, Tablet, and PC (2015). URL: http://arstechnica.com/tech-policy/2015/11/bewareof-ads-that-use-inaudible-sound-to-link-your-phone-tv-tablet-and-pc (zuletzt eingesehen am 09.01.2017). Haibel, Betsy: The Fantasy and Abuse of the Manipulable User  – When Mistreating Users Becomes Competitive Advantage. In: Model View Culture vom 28.04.2014. URL: https://modelviewculture.com/pieces/the-fantasy-and-abuse-of-the-manipul able-user (zuletzt eingesehen am 01.08.2017). Honig, Bonnie (Hg.): Feminist Interpretations of Hannah Arendt. University Park 1995.



Verhaltensbeeinflussung durch Werbung in der Massengesellschaft

171

Hoofnagle, Chris J. u. a.: Behavioral Advertising. The Offer You Cannot Refuse. In: Harvard Law And Policy Review 6.2 (2012), S. 273–296. URL: http://journals. law.harvard.edu/hlpr/files/2013/06/Behavioral-Advertising-Hoofnagle-et-al.pdf (zuletzt eingesehen am 07.04.2015). Mavroudis, Vasilios, u. a.: The Ultrasound Tracking Ecosystem (2016). URL: http:// ubeacsec.org/downloads/report.pdf (zuletzt eingesehen am 09.01.2017). Meints, Waltraud: Gesellschaft. In: Heuer, Wolfgang/Heiter, Bernd/Rosenmüller, Stefanie (Hg.): Arendt-Handbuch. Stuttgart 2011, S. 282–284. Mill, John S.: Über Freiheit. Frankfurt/M. u. a. 1969. Mönig, Julia M.: Vom ‚oikos‘ zum Cyberspace. Das Private in der politischen Philosophie Hannah Arendts. Bielefeld 2017. ‒ Hannah Arendts Begriff des Privaten. Mehr als eine rein lokale Dimension von Privatheit. In: Günther, Susanne u. a. (Hg.): Frauen – Gender – Wissenschaft. Beiträge von einem interdisziplinären Forschungssymposium. Passau 2015, S. 96– 107. ‒ Possibly Preventing Catastrophes. Hannah Arendt on Democracy, Education and Judging. In: Ethics and Education 7.3 (2012), S. 237–249. ‒ Hannah Arendt (1906–1975), (2011). URL: http://www.zukunft-braucht-erinne rung.de/hannah-arendt-1906-1975/ (zuletzt eingesehen am 18.01.2015). Pariser, Elli: Filter Bubble. München 2012. Payback GmbH: Hinweise zum Datenschutz (o. J.). URL: https://www.payback.de/pb/ datenschutz/id/12822 (zuletzt eingesehen am 31.05.2017). Payback GmbH (Geschäftsführung): Die Philosophie von Payback im Umgang mit Kundendaten (o.  J.). URL: https://www.payback.de/pb/res/pdf/id/294024/ver/8/ Philosophie_Kundendaten_PDF.pdf (zuletzt eingesehen am 31.05.2017). PEN American Center: Global Chilling. The Impact of Mass Surveillance on International Writers (2015). URL: http://www.pen.org/sites/default/files/globalchilling_ 2015.pdf (zuletzt eingesehen am 17.08.2016). ‒ Chilling Effects. NSA Surveillance Drives U.S. Writers to Self-Censor. (2013). URL: http://www.pen.org/sites/default/files/2014-08-01_Full %20Report_Chilling %20Effects %20w %20Color %20cover-UPDATED.pdf (zuletzt eingesehen am 26.09.2016). Rauterberg, Hanno: Du kannst uns nicht entkommen! In: Die Zeit vom 13.11.2008. URL: http://www.zeit.de/2008/47/Vermuellung/komplettansicht (zuletzt eingesehen am 21.07.2017). Rössler, Beate: Der Wert des Privaten. Frankfurt/M. 2001. Schreyer, Bernhard/Schwarzmeier, Manfred: Grundkurs Politikwissenschaft. Studium der politischen Systeme. Wiesbaden 2005. Siegert, Gabriele/Brecheis, Dieter: Werbung in der Medien- und Informationsgesellschaft. Wiesbaden 2005.

172

Julia Maria Mönig

Sweeney, Latanya: Discrimination in Online Ad Delivery (2013). URL: https://arxiv. org/ftp/arxiv/papers/1301/1301.6822.pdf (zuletzt eingesehen am 20.07.2017). Voigtländer, Nico/Voth, Hans-Joachim: Nazi Indoctrination and Anti-Semitic-Beliefs in Germany. In: Proceedings of the National Academy of Sciences of the United States of America (2015). URL: http://www.pnas.org/content/early/2015/06/09/ 1414822112.full.pdf (zuletzt eingesehen am 29.06.2015). Weißpflug, Maike/Förster, Jürgen: The Human Condition/Vita activa oder Vom tä­ tigen Leben. In: Heuer, Wolfgang/Heiter, Bernd/Rosenmüller, Stefanie (Hg.): ­Arendt-Handbuch. Stuttgart 2011, S. 61–68. Westin, Allen: Privacy and Freedom. New York 1967. The White House: Consumer Data Privacy in a Networked World. A Framework for Protecting Privacy and Promoting Innovation in the Global Digital Economy (2012) URL: http://repository.cmu.edu/cgi/viewcontent.cgi?article=1096&context =jpc (zuletzt eingesehen am 20.07.2017). Young-Bruehl, Elisabeth: Hannah Arendt. For Love of the World. New Haven 2004. Zerilli, Linda M. G.: Freiheit. In: Heuer, Wolfgang/Heiter, Bernd/Rosenmüller, Stefanie (Hg.): Arendt-Handbuch. Stuttgart 2011, S. 278–279.

3. Digitale Kulturen und Vergemeinschaftung – soziale Aspekte

Der private Freundschaftsraum im digitalisierten Umfeld Eine empirisch-semantische Analyse einer jugendlichen Freundesgruppe Kai Erik Trost 1. Digitale Medienumgebungen und die Artikulation von Semantik Die Frage, was die künstlerischen Elemente eines Poesiealbums, die Bil­ derwelten auf Instagram und die poetischen Verse aus Schillers Ballade Die Bürgschaft gemeinsam haben, könnte wie folgt beantwortet werden: Jede Generation einer Kultur und eines sozialen Milieus wählt epochenspezifisch bestimmte Medien aus, um das Paradigma Freundschaft zu verhandeln und zu prägen. Die Art und Weise, wie dies überhaupt geschehen kann, ist freilich an die Medialität gebunden, weshalb das Medium stets zu einer bestimmten Formbildung anregt.1 Berichterstattende Medien bearbeiten diese Themen nun, um sie als Vermittlungs- und Reflexionsinstanzen gesellschaftlich zu thematisieren. Sichtet und räsoniert man Duktus und Inhalt dieser Publikationen heute, so scheint das freundschaftsbezogene Handeln Jugendlicher in digitalen Medienumgebungen problematisch zu sein.2 Dies hat offensichtlich damit zu tun, dass die Sozialräume Jugendlicher zunehmend mediatisiert sind und Digitalität, die stets mit spezifischen Herrschafts- und Machtverhältnissen einhergeht, in die unmittelbaren lebensweltlichen Handlungskontexte der Subjekte eingelassen ist und damit einen prägenden Einfluss auf die Sozialisationsbedingungen derselben mit sich bringt.3 Lernen kann man aus diesen Artikeln folglich, welch großes Interesse an den sozialen und kulturellen Folgen von Prozessen der Digitalisierung besteht, insbesondere dann, wenn es um die junge Generation und deren mediale Praktiken geht. Die dort formulierten Befürchtun1  Vgl.

Luhmann (1996): Die Realität der Massenmedien, S. 122. zum Beispiel diese Artikel: Bähr (2015): Zu viel Internet, zu wenig Freunde; oder Laage (2013): Hunderte ‚Freunde‘ bei Facebook – und doch alleine. 3  Vgl. Brüggen / Wagner (2017): Mediatisierung und Mediensozialisation, S. 225. 2  Vgl.

176

Kai Erik Trost

gen stehen exemplarisch für die Frage, ob und inwieweit sich bestimmte gesellschaftliche Phänomene in digitalen Medienumgebungen in zeitlicher, räumlicher und sozialer Hinsicht transformieren. Dieser Artikel behandelt damit unterschiedliche Aspekte: Erstens geht es um die Semantik der Freundschaft Jugendlicher und zweitens um die Potenziale und Möglichkeiten mittels Medienangeboten ersteres zu artikulieren. Drittens wird darauf eingegangen, wie spezifische Medien die Freundschafts­ praktiken der handelnden Akteure formen. Anders gesagt wird also die Frage gestellt, auf welche Weise Jugendliche im Rahmen ihrer medialen Praktiken Freundschaft in ihrer subjektiven Bedeutung ausdifferenzieren, so im ­Medienhandeln Bezüge zu Sozialräumen herstellen und sich den digitalen Raum auf eine bestimmte Weise aneignen. Das bedeutet auch, dass es nicht um das gehen wird, was empirische Subjekte abstrakt mit Freundschaft als Ideal verbinden, sondern vielmehr um das, was sich alltagsweltlich aus subjektiver Sicht als Freundschaft manifestiert und zeichenhaft als solche artikuliert.4 Diese Aspekte werden in den Abschnitten drei und vier behandelt, während die Ergebnisse im fünften Abschnitt noch einmal spezifisch vor dem Hintergrund der Digitalität heutiger Medienumgebungen reflektiert werden. In diesem Kontext sei einleitend kurz auf das Verständnis von Medien und medialen Praktiken hingewiesen, das diesen Text kennzeichnen wird: Medien in diesem Sinne sind einerseits empirisch-materielle Objekte oder Zusammenhänge von Objekten, die faktisch Gegenstand unserer kulturellen Praktiken sind und in unseren Alltag integriert werden. Zum anderen sei das Medium in Anlehnung an Foucault als ‚Dispositiv‘ verstanden, das die Verzahnung von Technik, Nutzungs- und Rezeptionsbedingungen sowie die gesellschaftlichen Bedeutungen des Mediums in einen sozialen Zusammenhang bringt.5 Gegenstand des Artikels ist eine empirische Analyse einer im lokalen sozio-kulturellen Umfeld von Schule und Freizeit marginalisierten Gruppe männlicher Jugendlicher, die sich den Kulturraum des Hip-Hop zu eigen macht, um hierüber Gemeinschaft und Freundschaft zu verhandeln und medial zu artikulieren. Über verschiedene Grenzziehungen manifestiert sich Privatheit und konstituiert sich Freundschaft als ein semantischer Raum des 4  Eine konstitutive Schwäche zieht sich hier durch die Freundschaftsforschung, in welcher kaum hinsichtlich unterschiedlicher analytischer Ebenen differenziert wird. Gerade um einen empirischen Zugang zu gewährleisten, ist es erforderlich, zwischen dem sozio-kulturell bedingten Freundschaftskonzept, der individuellen Freundschaftssemantik, konkreten Freundschaftsbeziehungen und einem spezifischen Repertoire an Freundschaftspraktiken zu unterscheiden. 5  Vgl. Foucault (1978): Dispositive der Macht, S. 119–115.



Der private Freundschaftsraum im digitalisierten Umfeld

177

Privaten. Die Befunde beziehen sich auf eine empirische Erhebung des Autors aus dem Jahr 2015, in welcher die Lebenswelt von fünf 17- bis 18-jährigen männlichen Jugendlichen mittels mehrerer narrativer Interviews sowie in Form einer Gruppendiskussion erhoben wurde. Ferner wurden Auszüge der Netzwerkprofile der Jugendlichen auf Facebook und Instagram im Zuge einer teilnehmenden Beobachtung erhoben und analysiert, um dieses symbolische Material der Medien mit dem narrativen Material der Interviews in Verbindung zu bringen und so einen differenzierten Blick für das alltägliche (Medien-)Handeln und die Produktion von Bedeutungen gewinnen zu können. Da Digitalität bezüglich des Freundschaftshandelns Jugendlicher allgemein mit der Tendenz einhergeht, dass sich Freundschaft vermehrt in Form (audio-)visueller Medienpraktiken artikuliert,6 lag der besondere Fokus auf den visuellen Bildinszenierungen der Jugendlichen, die ebenfalls Teil der Gruppendiskussion waren. 2. Subjektive Weltsicht und semiotisch-narratologische Methodik Wie bereits einführend bemerkt, zielt die Forschungsperspektive dieses Artikels darauf ab, die Semantik der Freundschaft aus der subjektiven Sicht junger Menschen zu bestimmen. Hierfür ist deren Lebenswelt7 maßgeblich miteinzubeziehen. Dementsprechend wird der Beitrag Freundschaft als intuitiv, fraglos und selbstverständlich erlebtes Paradigma der Lebenswelt verstehen. Gefragt wird nach einem subjektiv sinnhaften Wirklichkeitsbereich der Alltagswelt, der im Sinne einer vorstrukturierten Wirklichkeitsordnung vorliegt, von den Jugendlichen begriffen und gedeutet wird und in dem Tatsachen stets schon als interpretierte Tatsachen gegeben erscheinen.8 6  Vgl.

300.

Autenrieth (2014): Die Bilderwelten der Social Network Sites, insb. S. 292–

7  Schütz’ Begriff der alltäglichen Lebenswelt als die „ausgezeichnete Wirklichkeit des Menschen“ wird im Folgenden synonym mit dem der Alltagswelt von Berger und Luckmann verwendet. Schütz / Luckmann (2003): Strukturen der Lebenswelt, S. 29. Vgl. Berger / Luckmann (2012): Die gesellschaftliche Konstruktion der Wirklichkeit. Für den Zweck dieses Artikels einen phänomenologischen Zugang zu gewährleisten und die Lebenswelt Jugendlicher einer semiotischen Analyse fruchtbar zu machen, sind die vorhandenen Differenzen beider theoretischer Kategorien m. E. unproblematisch. 8  Ich greife insofern wesentlich auf den Sozialkonstruktivismus von Peter Berger und Thomas Luckmann zurück: „Die phänomenologische Analyse der Alltagswelt beziehungsweise der subjektiven Erfahrung der Alltagswelt enthält sich jeder kausalen oder genetischen Hypothese und auch jeder Behauptung über den ontologischen Charakter der analysierten Phänomene“. Berger / Luckmann (2012): Die gesellschaftliche Konstruktion der Wirklichkeit, S. 23. Vgl. hierzu auch den subjektiv gemeinten Sinn als konstituierenden Faktor für gesellschaftliche Wirklichkeit bei Max Weber.

178

Kai Erik Trost

Durch diesen Zugang zur Wirklichkeit Jugendlicher wird es möglich, deren selektive Wahrnehmung, subjektive (Welt-)Sicht und Weltdeutung in den Mittelpunkt der Analyse zu stellen. Hiervon ausgehend kann das Denken, Handeln und Verhalten im Rahmen von Freundschaft nachvollzogen werden.9 Der gesellschaftliche ‚Wissensvorrat‘, der in die Alltagswelt integriert und nach Relevanzen gegliedert ist, wird dabei mit Michael Titzmann als ‚kulturelles Wissen‘ verstanden.10 Entscheidend ist damit, was die Jugendlichen für wahr halten bzw. was innerhalb ihrer Lebenswelt kulturell als wahr gelten kann, nicht was empirisch als tatsächlich belegbares Wissen bestimmbar ist.11 Dieser Perspektive entspricht das Verständnis der Interviewtexte als ein durch die Konstruktivität von Erinnern und Erzählen bedingtes subjektives und kreatives Erzeugnis. Dieses ist (a) von einer zeitlichen Perspektivierung des Geschehens und von der Verdopplung des Ichs12 gekennzeichnet, entsteht (b) im Kontext einer formalen Rahmung bezogen auf das empirische Setting (Interviewsituation), wobei es den (c) sozial-kommunikativen (Erzähl-)Bedingungen (Personen, Umgebung, Stimmungen usw.) angepasst ist und (d) ausgehend von einer thematischen Rahmung durch vorgegebene Paradigmen (Freundschaft, Medien, Privatheit usw.) hervorgebracht wird.13 Erfahrung als in selektiver Weise erfahrene und kognitiv aufbereitete Wirklichkeit fließt in die erzählte Geschichte ein und ermöglicht es, den Interviewtext als WeltentVgl. Weber (1980): Wirtschaft und Gesellschaft. Siehe auch das Lebenswelt-Konzept von Alfred Schütz. Vgl. Schütz / Luckmann (2003): Strukturen der Lebenswelt. 9  Dieser Bezug und Zugang zum alltagsweltlich handelnden Subjekt wird allgemein als zentral für die empirische Forschung im Kontext von Digitalität angenommen. Vgl. Brüggen / Wagner (2017): Medienaneignung und sozialraumbezogenes Medienhandeln von Jugendlichen, S. 225 f. 10  Zum kulturellen Wissen bei Titzmann, vgl. Titzmann (2013): Propositionale Analyse – kulturelles Wissen – Interpretation, S. 94–104. 11  Das kulturelle Wissen bei Titzmann lässt sich insofern schlüssig in diese Forschungsperspektive integrieren, da Wissen im wissenssoziologischen Sinne verstanden wird und es auf dieselbe epistemische Rechtfertigung rekurriert wie der Wissensvorrat bei Berger und Luckmann. Vgl. Berger / Luckmann (2012): Die gesellschaftliche Konstruktion der Wirklichkeit, S. 43–48. 12  Hierunter ist zu verstehen, dass die Erzählperson sowohl als erzähltes Ich als auch als erzählendes Ich auftritt. Das Wissen um den Verlauf des Geschehens bestimmt die Auswahl von Erzählinhalten und die Semantisierung der erzählten Welt. Es führt aber auch dazu, dass Erlebnisse und Erfahrungen in die Erzählung einfließen, die zum Zeitpunkt des Geschehenen noch nicht verfügbar waren. Einführend vgl. hierzu: Martínez / Scheffel (2012): Einführung in die Erzähltheorie, S. 123–126. 13  Zur Erkenntnisform sowie zu den Merkmalen des autobiografischen Erzählens im empirischen Interview-Setting vgl. exemplarisch Lucius-Hoene / Deppermann (2004): Rekonstruktion narrativer Identität, S. 20–45. Speziell zur Konstruktivität vgl. Tophinke (2002): Lebensgeschichte und Sprache, S. 2–10.



Der private Freundschaftsraum im digitalisierten Umfeld

179

wurf zu verstehen. Mit dem Bezug auf selbst erlebte, faktische Gegebenheiten von biografischer Bedeutung erhebt der Interviewtext im Modus der Rede referenziellen Wirklichkeitsanspruch, der trotz seines Konstruktcharakters nicht aufgehoben wird. Freundschaft wird dabei als ein semantischer Raum verstanden: Gemeint ist in Anlehnung an Jurij M. Lotman eine spezifische Kombination semantisch-ideologischer Merkmale, die den Raum der Freundschaft von anderen Räumen abgrenzt und unterscheidbar macht.14 Die von den Jugendlichen gemeinsam geteilten Semantiken installieren eine Grenze nach Außen und markieren den Raum mittels Zeichensystemen als einen privaten. Privatheit ist hier also ein konstruktives Phänomen, das durch die Subjekte selbst erzeugt wird.15 Der private Raum ist damit von nichtprivaten Räumen abgrenzbar.16 Freundschaft als subjektives Konzept von sozialen Beziehungen ist ebenso wie die Semantik von Freundschaft zunächst ideell und unkörperlich. Der Freundschaftsraum, um den es im Folgenden gehen wird, ist in diesem Sinne ein abstrakt-semantischer.17 Die Strukturierung dieses Raums wird dabei unter Bezug auf Karl N. Renner als Ordnung begriffen.18 Ordnungssätze 14  Vgl.

Lotman (1972): Die Struktur literarischer Texte, S. 311–313. dieser Form von Privatheit als kollektivem Phänomen, das jeder sozialen Beziehung und Gruppe inhärent ist, vgl. – grundlegend – Simmel (1992): Das Geheimnis und die geheime Gesellschaft, S. 406–421. In ähnliche Richtung argumentierend, jedoch auf die Übernahme einer privatheitsbezogenen Rolle bezogen: vgl. ­Goffman (1973): The Presentation of Self in Everyday Life, S. 77–105. Zur Privatheit als allgemein räumlichem Phänomen vgl. Krah (2012): Das Konzept ‚Privatheit‘ in den Medien, S. 132–134. 16  Es sei noch darauf hingewiesen, dass Privatheit in diesem Sinne nicht einseitig mit Phänomenen wie Nicht-Sichtbarkeit oder Nicht-Zugänglichkeit gleichgesetzt werden darf. Ebenfalls ist der angesprochene nichtprivate Raum nicht notwendigerweise öffentlich oder ein ‚Raum des Öffentlichen‘ – wie beispielsweise der durch das System der Massenmedien etablierte Zeichenraum. Auch ist Freundschaft nicht notwendigerweise deswegen privat, weil dort in informationeller Hinsicht über Themen gesprochen wird, die sozio-kulturell als privat, als intim oder als sehr persönlich konventionalisiert sind – und auch nicht, weil sie in lokaler Hinsicht an Orten praktiziert wird, die der häuslichen Privatheit zugeschrieben werden. Vgl. hierzu Rössler (2001): Der Wert des Privaten, S. 201–254 bzw. S. 255–304. Dies sind freilich (andere) legitime Privatheitszugänge – sie sind in dieser Arbeit aber nicht zentral. 17  Die soziologische Kategorie Raum wird allgemein als durch handelnde Subjekte sozial und kulturell konstruierte Größe verstanden. Vgl. grundlegend etwa Lefebvre (1991): The Production of Space. Wenn ich also in der Folge bei Freundschaft zum Beispiel von einem topografischen Raum spreche, so ist dies nicht im Sinne eines absolutistischen Raumverständnisses zu verstehen, das etwa davon ausginge, es gäbe einen (konstituierenden) physikalischen Raum abseits eines Raums der Semantik, des Sozialen usw. Vgl. hierzu auch Löw (2001): Raumsoziologie, S. 24–35. 18  Vgl. Renner (2004): Grenze und Ereignis, S. 5–7. 15  Zu

180

Kai Erik Trost

halten dabei Sachverhalte fest, die für einen semantischen Raum als wahr gelten.19 In diesem Sinne entwerfen die Jugendlichen im Rahmen ihrer narrativen Interviews sowie der Gruppendiskussionen in Form der natürlichen Sprache eine erzählte Welt20 mit bestimmten semantischen Räumen und Bedeutungszusammenhängen. Elemente dieser erzählten Welt werden mit Merkmalen versehen, die die Zugehörigkeit zu bestimmten semantischen Räumen festlegen. Es entstehen so abstrakte semantische Strukturen – zum Beispiel von Freundschaft, Familie, Partnerschaft usw. – die in ihren Elementen häufig in Opposition zueinander stehen. Die übergeordnete semantische Raumstruktur, die im Rahmen der Erzählinterviews sprachlich entwickelt wird, artikuliert so eine eigenständige Welt mit einer spezifischen Wirklichkeitsordnung. Hierzu gehören Routinen und Regeln, ein eigenes System von Werten und Normen sowie individuelle Unterscheidungen und Grenzziehungen, die – als Ordnungssätze – die erzählte Welt strukturieren. Ein erzähltheoretisches Ereignis liegt dann vor, wenn eine Größe in der Erzählung mit einem Ordnungssatz im Widerspruch steht. Diese Ordnungsverletzung kann verschiedene Änderungen bis hin zu einer Auflösung der Raumordnung nach sich ziehen.21 Zur besseren Nachvollziehbarkeit seien diese Sachverhalte kurz anhand eines Beispiels verdeutlicht: Zwei Personen, die sich freundschaftlich verbunden fühlen, könnten ihren Freundschaftsraum folgendermaßen entwerfen: – Ordnungssatz 1: Wir telefonieren jede Woche miteinander. – Ordnungssatz 2: Dabei tauschen wir uns über Neuigkeiten aus. – Ordnungssatz 3: Die konkreten Gesprächsinhalte behalten wir für uns. Durch diese Ordnung ist der Freundschaftsraum von anderen Räumen, zum Beispiel dem beruflichen Umfeld der Personen oder ihrer (Lebens-) Partnerschaft, getrennt. Es besteht eine semantische Grenze. Sind alle Ordnungssätze erfüllt, sei dies als konsistenter Freundschaftszustand verstanden. Bliebe nun der wöchentliche Anruf von einer Seite plötzlich aus, so würde sich die andere Person vermutlich einige Fragen stellen (siehe Ordnungssatz 1). Eine in diesem Fall denkbare Option wäre, dass ein Freundschaftsakteur die Inhalte der Gespräche einer dritten Person mitgeteilt haben könnte (siehe 19  Vgl.

Renner (2004): Grenze und Ereignis, S. 7. lehne ich mich damit am Begriff der ‚Diegese‘ an. Vgl. ­Martínez / Scheffel (2012): Einführung in die Erzähltheorie, S. 132–144. 21  Die folgenden Ausführungen orientieren sich prinzipiell an den weiterführenden Überlegungen zum Ereigniskonzept von Lotman durch Renner, wenngleich ich ebenfalls die Begrifflichkeiten der semantischen Räume von Lotman gebrauche. Vgl. zur Äquivalenz beider Ansätze sowie zur begrifflichen Synthese: Krah (2015): Einführung in die Literaturwissenschaft / Textanalyse, S. 192–194. 20  Erzähltheoretisch



Der private Freundschaftsraum im digitalisierten Umfeld

181

Ordnungssatz 3). Da in diesem Fall ein oder mehrere Ordnungssätze verletzt würden, läge ein Ereignis22 vor, das insofern zu einem inkonsistenten Freundschaftszustand führt. Der aufgrund der ungerechtfertigten Weitergabe vorliegende Privatheitsverstoß könnte dazu führen, dass sich die Freundschaftsakteure über den Status ihrer Freundschaft verständigen. Die Personen könnten den Sachverhalt in einem gemeinsamen Gespräch ansprechen, wobei verschiedene Folgen denkbar wären. Eine ehrlich gemeinte Entschuldigung könnte dazu führen, dass die ursprüngliche Ordnung wiederhergestellt wird. Ein Ausbleiben könnte hingegen bedeuten, dass die Beziehung in einen neuen Zustand überführt wird. In diesem könnte die Ordnung dahingehend verändert sein, dass zukünftig nur noch Ordnungssatz 1 und 2 Gültigkeit haben. Sofern die Entschuldigung nicht angenommen wird, könnte die Freundschaftsbeziehung natürlich auch ganz zerfallen, womit der semantische Raum zerstört würde.23 3. Der gemeinsam geteilte Privatraum und die Semantik von Freundschaft Die Elemente der erzählten Welt der Freundesgruppe seien zunächst in einer Exposition folgendermaßen zusammengefasst und wiedergegeben: Die fünf männlichen Jugendlichen im Alter zwischen 17 und 18 Jahren kommen aus verschiedenen kleineren Gemeinden im Baden-Württembergischen Enzkreis. Der 18-jährige Selim und der 17-jährige John kennen sich bereits seit früher Kindheit aus der Nachbarschaft und auch der 18-jährige Hamid ist lange mit ihnen befreundet – wie man zusammengekommen sei, wisse man nicht mehr.24 Den 17-jährigen Max und den 17-jährigen Robin habe man später in der Schule kennengelernt. Das heute bestehende Kollektiv aus fünf Personen führen die Jugendlichen selbst im Interview als engen Freundeskreis ein. Als Freunde weisen sie sich neben der gleichen lokalräum­ lichen Verortung vor allem dadurch aus, dass sie mit Rap die gleiche Musik 22  Wenn ich von einem ‚Ereignis‘ spreche, ist damit das Ereignis als Ordnungsverletzung im Sinne von Renner gemeint. Vgl. Renner (2004): Grenze und Ereignis, S. 7. Für Ereignisse, die nicht in diesem narratologischen, sondern in einem allgemeinen alltagssprachlichen Sinne verstanden werden sollen, werde ich den Begriff des Erlebnisses verwenden. 23  Zur Änderung der Raumordnung und zu den Ereignisfolgen vgl. Renner (2004): Grenze und Ereignis, S. 11–15. 24  Als Vorbemerkung sei erwähnt, dass nur auf die im empirischen Setting explizit als relevant gesetzten bzw. implizit als relevant markierten Erlebnisse eingegangen wird. Sofern also einzelne Erlebnisse durch Auslassung, durch die Zeitraffung von Erzählabschnitten oder durch andere Mittel des Erzählens als nicht relevant indiziert sind, bleiben diese außen vor.

182

Kai Erik Trost

hören und diese als kulturelle Lebens- und Ausdrucksform25 innerhalb ihrer Freundesgruppe diskursivieren. Mit der gemeinsamen Präferenz für diesen kulturellen Lebensstil geht eine Selbstverortung als marginalisierte Gruppe im Umfeld von Region, Schule und Freizeit einher. In Bezug auf die erzählte Welt werden der von ihnen bewohnten Region und dem Heimatort eine Reihe von Merkmalen zugeschrieben, welche die Zugehörigkeit der Akteure zu diesen festlegen: Mit ihrer Region, die sie einstimmig als ländlich einführen, würden sie sich durchaus identifizieren, können die Gründe hierfür aber nicht explizit machen. Problematisch wäre vielmehr das soziale Umfeld. So heißt es, es sei „einfach nichts los bei uns […] und es passiert auch nichts“ (John, 17). Mit der Topografie der regionalen Umgebung geht die Semantisierung des Raums mit einem geringen Erlebniswert einher. Die durch das minderjährige Alter der Jugendlichen bedingte fehlende räumliche Mobilität erschwert es, die topografisch situierten Grenzen des sozialen Umfelds zu überwinden. Hinsichtlich der Möglichkeiten der Freizeitgestaltung sowie bezüglich der Potenziale der Selbstentfaltung wird der topografische Raum vor diesem Hintergrund teilweise als defizitär semantisiert. Andere Peers wie etwa Jugendliche aus der Schule werden hinsichtlich Denken und Handeln als weitgehend uninteressant eingeführt: Der Kontakt zu vielen von ihnen wird ebenso wie die Möglichkeit einer Freundschaftsbeziehung abgelehnt; ihre semantischen Merkmale sind zum Beispiel: oberflächlich, langweilig, normal, naiv, ungebildet, dumm.26 Die räumlich-semantische Ordnung ist damit grundsätzlich wie folgt beschaffen: – Räumlich-topologische Paradigmen: Begrenzte Mobilität, Ordnung, Abgeschiedenheit. – Soziale Paradigmen: Einheitliches kulturelles Milieu, Oberflächlichkeit, Kongruenz von Lebensstilen, fehlende Empathie. – Implizite Aufladung: Geringe Potenziale des Selbstausdrucks und zur Individualität. 25  Für eine prägnante Einführung hierzu vgl. Ferchhoff (2011): Jugend und Jugendkulturen im 21. Jahrhundert, S. 233–239; für einen Forschungsüberblick zur Jugendkultur des Hip-Hop vgl. Bock / Meier / Süß (2007): HipHop meets Academia. Positionen und Perspektiven auf die Hip-Hop-Forschung. Die Jugendkultur des HipHop bestimmt seit nunmehr dreißig Jahren sowohl subkulturelle, alternative als auch kommerzielle Diskurse des Mainstreams, wobei sie mit ihren kulturellen Praktiken und Zeichensystemen „gesellschaftliche Wandlungsprozesse exemplifiziert und verdeutlicht, diese aber auch befördert und nachhaltig beeinflusst“ (S. 14 f.). 26  Die Begriffe wurden von den Jugendlichen im Rahmen verschiedener narrativer Mikrostrukturen selbst, d. h. ohne Eingriff durch die interviewende Person, genannt.



Der private Freundschaftsraum im digitalisierten Umfeld

183

Als marginalisierte Gruppe im lokalen soziokulturellen Umfeld von Schule und Freizeit machen sich die Jugendlichen den Kulturraum des Hip-Hop zu eigen, um hierüber Gemeinschaft und Freundschaft zu artikulieren. Bezogen auf die populäre Symbol- und Bedeutungswelt des Hip-Hop, wie sie beispielsweise sprach- und kleidungssemiotisch manifest ist, installieren die Jugendlichen eine Grenze, die den Freundschaftsraum als exklusiv markiert. Semantisch kann der gemeinsam geteilte Freundschaftsraum des Hip-Hop als privat definiert werden. Dies ist einerseits durch sich in den Texten wiederholende Markierungen des Privaten in Form von Pronomina wie ‚wir‘, ‚uns‘ bzw. ‚die‘ (bezogen auf die Außenwelt) indiziert, andererseits auch durch die verwendeten semantischen Paradigmen des Persönlichen oder des Schützenswerten im Rahmen der narrativen Strukturen textuell manifest. Die zentrale Semantik des Freundeskreises besteht in dem auf das kulturelle Phänomen des Hip-Hop bezogenen gemeinsam geteilten individuellen Status informierter Experten sowie in der kollektiven Inszenierung als Experten. Sie alle zeichnen sich dadurch aus, dass sie „Musik nicht einfach so hören, sondern uns mit den Hintergründen und Geschichten beschäftigen […], die Lyrics lesen und besprechen […], teils selbst Texte schreiben oder selbst auch rappen“ (John, 17). Die Aneignung des Status informierten Expertentums geht mit kulturellem Wissen bezüglich des Kulturraums Hip-Hop einher. Hierüber grenzen sich die Jugendlichen zunächst von uninformierten Personen und Personengruppen, aber auch von spezifischen sozialen Entitäten ab. Exemplarisch gezeigt werden kann dies anhand der Diskursivierung der Subgenres des Gangsta- und Porno-Raps.27 Die Musik dieser Richtung wird gehört, inhaltlich reflektiert und kritisch eingeordnet. Es besteht ein Konsens dahingehend, dass Texte und mediale Inszenierungen „teils grenzwertig“ (Selim, 18) bzw. „brutal“ (Hamid, 18) seien, was allerdings konstitutiv zu den dem Subgenre inhärenten ästhetischen Ausdrucksmitteln gehöre und, so heißt es, „akzeptiert“ (John, 17) werden müsse. Zu dem kulturellen Wissen der Jugendlichen gehört so beispielweise das Wissen um die symbolischen Herrschaftsverhältnisse, die im Rahmen der Rap-Texte verhandelt werden: Wir sehen das dann natürlich anders, was von den Medien immer negativ geschrieben wird, nur weil da jetzt – zum Beispiel – harte Begriffe verwendet werden oder Gewalt gezeigt wird. […] Es ist halt so, dass ohne Kenntnis vom Leben des Rap27  Texte und Inszenierungen dieser Subgenres des Hip-Hop sind medial häufig in der Kritik; sie sind affektiv stark aufgeladen, postulieren etwa Gewalt als Mittel zur Konfliktlösung, konnotieren männlichen Sexismus positiv und inszenieren hegemoniale Werte über inhaltliche Diffamierungen sozialer Randgruppen und kulturell abweichender Lebensstile. Vgl. einführend Seeliger / Knüttel (2010): „Ihr habt alle reiche Eltern, also sagt nicht, ‚Deutschland hat kein Ghetto!‘ “. Zur symbolischen Konstruktion von Anerkennung im Spannungsfeld zwischen Subkultur und Mehrheitsgesellschaft.

184

Kai Erik Trost

pers, Umfeld und Familie, Freundeskreis und so weiter, überhaupt nicht verstanden werden kann, was jetzt ’nen Video oder Text bedeutet. (Hamid, 18)

Die Jugendlichen setzen ihr kulturelles Expertenwissen dazu ein, vor der Folie medial vermittelter Bilder und Bedeutungen in einem privaten Diskurs einen Konsens darüber herzustellen, was bezogen auf den exklusiven Kommunikationsraum kulturell als wahr gilt. Dabei wissen sie, dass die Rapper mit Bezug zu ihrer häufig schwierigen Biografie einen milieubezogenen Selbstausdruck vornehmen und Images konstruieren. Diese sind häufig bewusst vulgär inszeniert, einerseits um ein bestimmtes Marktsegment zu bedienen, andererseits aber auch, um einen medialen Diskurs darüber herzustellen, was als soziale Ungleichheit gesellschaftlich zu problematisieren ist. Elemente von Kulturraum und Subkultur, in dem sich die Jugendlichen verorten, werden im privaten Raum zu einem verhandelbaren Paradigma aggregiert, um auf dieser Grundlage eine Abgrenzungssemantik gegenüber anderen Personen – gegenüber Erwachsenen, aber auch gegenüber anderen Peers, die sich nicht in gleichem Maße als Experten legitimieren können – installieren zu können. Allgemein übertragen die Jugendlichen die Symbol- und Bedeutungswelten des Kulturraums Hip-Hop als sozio-kulturelle Folie auf ihre Lebenswelt, grenzen sich hier aber auch bewusst ab: Spezifisch hegemoniale Inszenierungen, wie sie für viele Rapper gängig sind, werden so zum Beispiel als nicht authentisch bzw. als unglaubwürdig entworfen und bezogen auf die eigene Selbstinszenierung abgelehnt, da man selbst „ja die Realschule“ (Max, 17) besuche, „eigentlich auch gute Noten“ (John, 17) habe und insgesamt nicht aus „jetzt schwierigen Verhältnissen oder was“ (Selim, 18) komme. Die Symbol- und Bedeutungswelt des Hip-Hop muss insofern mit dem eigenen Bildungskapital28 sowie mit dem eigenen sozialen und kulturellen Milieu abgeglichen und arrangiert werden. Nicht jeder Sachverhalt lässt sich in die eigene Lebenswelt und in den Lebensstil integrieren. Die hervorgehobene Stellung der Jugendlichen als Experten geht hier bezogen auf die eigene Inszenierung im Alltag mit der Möglichkeit einher, ausgewählte Sachverhalte der Kultur abzulehnen: Also Kleidung ist jetzt bei uns eigentlich egal, ja, so ziemlich egal. […] Soll jeder machen wie er will. (Hamid, 18) Klar gibt’s Labels wo wir jetz’ niemals tragen würden, der Style so grundlegend muss schon passen. Aber gut, Do-Rags, Designergürtel und Goldkette: da kann man sich halt auch schnell lächerlich machen, wie’s viele ja auch tun. (Max, 17)

Durch das Arrangement der eigenen Kleidung und Korrekturen des Verhaltens bezogen auf die medialen Vorbilder versuchen die Jugendlichen bei28  Vgl. Bourdieu (1983): Ökonomisches Kapital, kulturelles Kapital, soziales Kapital, S. 187–191.



Der private Freundschaftsraum im digitalisierten Umfeld

185

spielsweise, ihre Wirkung dahingehend zu beeinflussen, dass sich ein bezüglich der eigenen Lebenswelt stimmiges Bild ergibt. Ihr Körper ist nicht nur Träger, sondern auch Produzent von Zeichen, welche durch die Beziehung zum Körper und gegenüber der sozialen und kulturellen Stellung im System der distinktiven Zeichen arrangiert werden müssen.29 Den Expertenstatus als freundschaftskonstituierendes Moment objektivieren die Freunde innerhalb der Gruppe als zentrales Element der Bindung an den privaten Freundschaftsraum. So wird Selim etwa als aktiver Rapper, der bereits einige Auftritte hinter sich hat, eingeführt, während sich John im Verfassen von Textprodukten als Experte legitimiert. Die Rolle von Robin und Max lässt sich wiederum anhand von umfangreichem kulturellem (Experten-)Wissen bezüglich einer Genealogie der Musikstile und Kunstformen objektivieren. Dies kann anhand der Raumbewegung des 17-jährigen Robin verdeutlicht werden: Naja, also gut, er [gemeint ist der 17-jährige Robin, K.E.T.] war jetzt natürlich auch noch recht jung – so vom Alter her – und wusste noch nichts oder noch net richtig Bescheid. Also über uns jetzt und halt auch, wie die meisten halt keine Ahnung ham, die nur die Feats30 von jemandem kennen, des hören was halt ’nen nicen Flow hat irgendwie […]. Aber gut, als ich dann des Mixtape mit ihm durch bin und so weiter war’s dann schon nice, weil er sich dann zum Beispiel übel eingelesen hat und sich auch wirklich damit beschäftigt hat […], und auch selber Sach’ geschrieben […] hat, was dann halt auch wirklich nich’ groß limitiert war. (Selim, 18)

Als notwendige Bedingung für die Nicht-Zugehörigkeit zum Freundschaftsraum wird hier das nicht vorhandene kulturelle (Experten-)Wissen genannt, zudem wird das geringe Alter als relevant gesetzt. Ersterer Punkt ist konstitutives Element der Raumbindung und damit für ein Aufgehen im Freundschaftsraum notwendig; letzterer Aspekt erschwert einen Grenzübertritt und ein potenzielles Aufgehen im Gegenraum zwar zusätzlich, kann jedoch überwunden werden. In seiner Funktion als Katalysatorfigur befähigt Selim die jüngere Person, einen vorläufigen Zugang zum Freundschaftsraum zu erhalten. Die gültige Ordnung wird durch erste gemeinsame Aktivitäten zunächst in einen inkonsistenten Zustand überführt. Durch die diskursive Praxis – im Beispiel explizit über die elaborierte Form der Auseinandersetzung mittels selbst verfasster Rap-Texte – wird die semantische Trennung von Raum und Akteur aufgelöst: das Bemühen, der Einsatz und das objektivierbare Resultat wird mit Anerkennung vergolten; die Merkmalsveränderungen von Robin (nicht-informiert vs. informiert; verstehen vs. nicht-verstehen) führen zu einem Aufgehen im Freundschaftsraum und damit zu einer Über29  Vgl.

Bourdieu (2014): Die feinen Unterschiede, S. 309 f. sind hierunter die bekanntesten Musikstücke eines Rappers zu

30  Genrespezifisch

verstehen.

186

Kai Erik Trost

führung des inkonsistenten Zustands der Anbahnung in einen konsistenten Freundschaftszustand. Die (An-)Ordnung des Freundschaftsraums hat nun Inklusionseffekte, wobei das Aufgehen von Robin im Freundschaftsraum mit dem Zugang zu sozialen Ressourcen einhergeht. Auch sind den Freundschaftsakteuren bestimmte Haltungen und Verhaltensweisen freigestellt, die ihnen im Zuge ihrer dezisionalen Privatheit als Frage individueller Lebensgestaltung31 bzw. nach Mill als positive Freiheit zur Entwicklung von Persönlichkeit oder Glück32 überlassen sind. So sind etwa bezogen auf den Kleidungsstil Formen, die nicht den Symbol- und Bedeutungswelten des Kulturraums Hip-Hop entsprechen, im Freundschaftsraum akzeptiert und als erlaubte Variante des Selbstausdrucks positiv belegt. Wie die raumsemantische Analyse zeigt, existiert bezogen auf den privaten Freundschaftsraum der Jugendlichen somit eine mehrfache Oppositionsbildung: Erstens können die als soziale und kulturelle Ressourcen zugänglichen Güter der Freiheit und Autonomie bezogen auf das Verhalten und Handeln innerhalb des Freundschaftsraums der Homogenität des sozialen Umfelds gegenübergestellt werden. Dieses ist implizit mit geringen Potenzialen des Selbstausdrucks und der Individualität aufgeladen. Es besteht hier eine Opposition gegenüber der sozialen Umgebung aus Eltern, Lehrern und allgemein erwachsenen Personen, aber auch gegenüber sozialen Institutionen wie dem Elternhaus, der Schule oder bestimmten Freizeiteinrichtungen. Zweitens besteht eine Opposition gegenüber anderen Peers und Gleichaltrigen, die anhand der semantischen Merkmale des regionalen Raums semantisiert sind. Schließlich besteht eine dritte Opposition bezogen auf an der Musik interessierte bzw. allgemein im kulturellen Raum des Hip-Hop verortete Personen. Hier grenzen sich die Jugendlichen angesichts ihres vorhandenen Wissens sowie ihres Status als informierte Experten ab. Die zentralen Semantisierungen der Raumordnung sind für die Jugendlichen: Toleranz, Freiheit, Kreativität, Eigeninitiative und Selbstverwirklichung. Diese Semantisierungen überwiegen in der erzählten Welt der Jugendlichen auch quantitativ und bestimmen die Ereignisse wesentlich. Ihren Freundschaftsraum entwerfen sie damit inhaltlich als einen Raum kollektiven Selbstausdrucks und individueller Selbstentfaltung.

31  Zu den Dimensionen von Handlungs- und Entscheidungsspielräumen dezisionaler Privatheit in diesem Sinne vgl. Rössler (2001): Der Wert des Privaten, S. 144 ff. 32  Vgl. Mill (2003): On Liberty and Other Writings.



Der private Freundschaftsraum im digitalisierten Umfeld

187

4. Mediale Bild-Inszenierungen auf Instagram und Facebook Nach ihren wichtigsten Medien im Freundeskreis gefragt, betonen die Jugendlichen die Relevanz von Facebook als instrumentelles Kommunikationsangebot sowie die Bedeutung der Fotoplattform Instagram für das Erstellen, Veröffentlichen und Teilen von Bild- und Videoerzeugnissen. Beide Medienangebote werden von dem Freundeskreis regelmäßig genutzt und vor allem mobil über das Smartphone in Gebrauch genommen. Das Smartphone als multifunktionelles Endgerät erweitert so den räumlichen sowie den kommunikativen Zugang und Aktionsradius der Jugendlichen.33 Im Umfeld einer „persönlichen Öffentlichkeit“ werden dort selbst erstellte Publika „aufgrund persönlicher Relevanz“34 ausgewählt, wobei der vorherrschende Kommunikationsmodus durch die Möglichkeit des Dialogs und Feedbacks in der Konversation geprägt ist.35 Informationell vermitteln diese Angebote dabei einerseits vormedial existierende Aspekte der Privatheit Jugendlicher in Form bildhafter Zeichen, während sie andererseits, aufgrund ihrer spezifischen Medialität, selbst am Konstitutionsprozess des Privaten beteiligt sind, indem die Nutzer / innen zum Beispiel privat konnotierte Handlungen medial inszenieren und Privatheit als kulturelle Größe verhandelbar machen.36 Das Medium Instagram zeichnet sich funktionell durch einige Besonderheiten aus: Es ist zunächst exklusiv für die Veröffentlichung von Fotoerzeugnissen konzipiert, die mit beschreibenden Hashtags versehen und anhand dieser internetweit aufgefunden werden können. Die Fotoprodukte sind im Vergleich zu konventionellen Bilderzeugnissen nicht auf die Tradierung des Vergangenen hin konzipiert, sondern folgen spezifisch medialen Inszenierungsparadigmen. Deren produktive, kreative und ästhetische Dimensionen sind zum einen in Form konventionalisierter (Bild-)Kodes innerhalb der kulturellen Wissensmengen der jugendlichen Sozialräume geregelt (zum Beispiel erwünschte Variationen des Fotografierens, prominente Formen des Posierens) bzw. zum anderen dem potenziellen, technischen Möglichkeitsraum des Mediums Instagram inhärent.37 33  Zum mobilen Mediengebrauch vgl. einführend Wimmer / Hartmann (2014): Medienkommunikation in Bewegung. 34  Schmidt (2014): Persönliche Öffentlichkeit und Privatsphäre im Social Web, S. 126. 35  Zum Begriff und Konzept ‚persönlicher Öffentlichkeit‘ vgl. Schmidt (2014): Persönliche Öffentlichkeit und Privatsphäre im Social Web, S. 126–129. 36  Vgl. zum allgemeinen Verhältnis von Medien und Privatheit Krah (2012): Das Konzept ‚Privatheit‘ in den Medien, insb. S. 136–142. 37  Zu berücksichtigen sind hier also die Mechanismen, welche die Bedingungen der Selbstdarstellung regulieren: Als Dispositiv gesehen strukturiert das Medium durch Interface und Kommunikationsrepertoire die Handlungen der Nutzer / innen

188

Kai Erik Trost

Ein gängiges Mittel der visuellen Inszenierung des Freundeskreises auf Instagram besteht im Erstellen und Teilen von Selbstportraits (‚Selfies‘) und collageartigen Gruppenbildern (‚Usies‘), welche typischerweise von einer kollektiven Anschlusskommunikation sowohl des Freundeskreises als auch von anderen Peers, die innerhalb des Sozialraums Hip-Hop verortet sind, begleitet wird. Allgemein bieten diese medialen Praktiken jungen Menschen die Möglichkeit einer symbolischen Auseinandersetzung mit der eigenen Identität und Körperlichkeit in Form einer medienbezogenen Inszenierung des Selbst.38 An dieser wird nicht selten kritisiert, dass sie ausgehend von einer idealisierten Selbstinszenierung zu einer übersteigerten Selbstwahrnehmung führe.39 Die Fotografien der Jugendlichen werden in physisch-topografischen Umgebungen, wie zum Beispiel an ausgewählten lokalen Orten und städtischen Plätzen, aber auch situationsabhängig, wie etwa beim abendlichen Zusammensein, erstellt. Die visuelle Inszenierung erfolgt dabei durchaus angelehnt an marktkompatible Folien des Rap in Form des heteronormativen männlichen Geschlechts als ein mit Stärke, Berechenbarkeit, Dominanz und Überlegenheit konnotierter Raum.40 Häufig zu finden sind dementsprechend physische Darstellungsmodi, die den Raum durch den eigenen Körper in wesentlich (vor). Vgl. Foucault (1978): Dispositive der Macht. So ist etwa der hier untersuchten Fotoplattform Instagram ein umfangreiches Potenzial der Bildbearbeitung technisch inhärent, weswegen es nicht verwundern darf, dass die dortigen Bildinszenierungen primär ästhetische Paradigmen betonen. Dieser Aspekt ist durchaus essenziell und in der Forschung insbesondere bezüglich der Identitätsarbeit mittels visueller Medien stets zu berücksichtigen, um nicht vorschnell in Richtung bestimmter ‚Selbstvermarktungs- oder Inszenierungsstrategien‘ junger Menschen zu tendieren. Bezogen auf die Privatheitsforschung ist in ähnlicher Weise zu berücksichtigen, dass die spezifische Medialität und ihre Bedingtheit(en) als konstitutives Element im jeweiligen medienbezogenen Privatheitsdiskurs verankert sein muss, wenn Aussagen in Bezug auf die durch das Medium transportierte Privatheit  – oder gar: über die Nutzer / innen und deren Verständnis von Privatheit – gewonnen werden sollen. 38  Vgl. Döring (2014): Mobilität und mobiler Mediengebrauch im Kontext der Entwicklungsbedingungen von Heranwachsenden, S. 7–9. 39  In diese Richtung argumentieren etwa Twenge / Campbell (2009): The Narcissism Epidemic. Living in the Age of Entitlement; oder Heinzlmaier (2013): Performer, Styler, Egoisten. Bei der Lektüre beider Werke drängt sich m. E. die Vermutung auf, dass sich hier vor allem Unverständnis gegenüber populären Jugendkulturen ausdrückt sowie eine allgemein ablehnende Haltung gegenüber den medialen Praktiken junger Menschen artikuliert. 40  Zum medialen Ausdrucksmittel der hegemonialen Männlichkeit als genretypischem Darstellungsmodus vgl. Seeliger / Knüttel (2010): „Ihr habt alle reiche Eltern, also sagt nicht, ‚Deutschland hat kein Ghetto!‘ “. Zur symbolischen Konstruktion von Anerkennung im Spannungsfeld zwischen Subkultur und Mehrheitsgesellschaft. Vgl. auch Herschelmann (2009): Jungen und deutscher (Gangsta)Rap – Sinnrealisation in (stereotypischen) Bedeutungen.



Der private Freundschaftsraum im digitalisierten Umfeld

189

Abbildung 1: Dominante Gesten und den Raum in Beschlag nehmendes Posen

Beschlag nehmen und ihn mittels Haltung und selbstsicher-ausgreifenden symbolischen Gesten okkupieren. Raumgreifende Gesten und Posen korrespondierend mit einem Blick in Richtung der Kamera inszenieren den Habitus der männlichen Jugendlichen als imposant, dominant und überlegen.41 Die ästhetischen Vorlagen bekannter Künstler und Rapper werden dabei visuell bewusst aufgegriffen und imitiert. Als Teil des kulturellen Repertoires verständlicher Bildzeichen ist das Posen zunächst als ein vorgegebenes Rollen- und Inszenierungsmuster zu deuten, das bezogen auf den Kulturraum Hip-Hop konventional geregelte visuelle Stereotypen konstruiert.42 Es ist darüber hinaus als Ausdruck eines schichtspezifischen Habitus zu sehen, der 41  Gemeint sind hier insbesondere kommunikative Bildzeichen und Darstellungsmodi wie ein direkter, fokussierter Blick, aufrechte, stabile Körperhaltung, aufrechte Kopfhaltung, Kamerafokussierung, angespannte Arme, vor dem Körper verschränkte Arme, weiträumige Posen, kulturelle (Macht-)Zeichen – wie der aufgerichtete Mittelfinger – u. v. m. Siehe zum physisch-körpersprachlichen Ausdruck von Geschlecht: Mühlen Achs (2003): Wer führt? Körpersprache und die Ordnung der Geschlechter, S. 123–139. 42  Vgl. Goffman (1981): Forms of Talk. Vgl. auch Pierre Bourdieus Ausführungen von einem „Zustand des Leibes“ als körperliches Produkt der durch die Sozialisation innerhalb eines bestimmten Kulturkreises und einer Klasse verorteten gesellschaftlichen Imperative. Vgl. Bourdieu (1997): Sozialer Sinn, S. 126 f.

190

Kai Erik Trost

Abbildung 2: Der männliche Habitus als genretypischer Darstellungsmodus

durch die körperlich-symbolische Inszenierung Sicherheit und Überlegenheit ausdrücken soll.43 Die Selbstdeklaration des Freundeskreises als informiertes und ausgezeichnetes Publikum ermöglicht es, sich gegenüber anderen Peers, die ebenfalls diese Musik hören, abzugrenzen: Ok, das Bild [= Bild auf dem Instagram-Profil von Max, K.E.T.] ist jetzt halt zum Beispiel auf ein Track von Kurdo oder auf das Video dazu von ABAS, wo das ’ne Szene ist, bezogen. […] Das ist aber nicht ernst, weil der Typ is’ eigentlich auch schwierig und ziemlich whack – hat zwar ’ne riesen Fanbase, aber was er macht, ist platt und halt ein Versuch, durch ’nen ziemlich abgenutzten Bushido-Stil noch mehr Platten rauszuhauen. […] Diese limitierten und untalentierten Kanack-Rapper sind einfach nur anstrengend. […] Ernst nehmen tut den sowieso keiner, der Ahnung hat. […] Auch die Ghetto-Szenen, das passt halt null. (Max, 17)

Max ist also klar, dass er mit seiner Selbstdarstellung einem medial vermittelten Bild entspricht bzw. zu entsprechen versucht. Als Experte verfügt 43  Vgl. Bourdieu (2014): Die feinen Unterschiede, S. 734–740. Bourdieu geht hier ausführlich auf mögliche physische Zeichen wie die Stellung der Schultern, das Abwenden oder Senken des Blickes oder das Neigen des Kopfes sowie auf performative Gesten der Selbstberührung, das Lachen oder Lächeln ein. Vgl. in ähnlicher Art: Goffman (1981): Forms of Talk, S. 120–125.



Der private Freundschaftsraum im digitalisierten Umfeld

191

Abbildung 3: Bildmotiv aus einem Song des Rappers King Orgasmus One44

er aber über ein erweitertes kulturelles Wissen: Er weiß, dass die Künstler (auch) als wirtschaftlich handelnde Akteure auftreten und bewusst bestimmte Bilder und Images als Vermarkungsstrategie instrumentalisieren. Er weiß ferner, dass es sich um genrespezifisch vorgegebene Rollenmuster handelt, die dem Sozialraum Hip-Hop inhärent sind. Diese entsprechen zwar „nicht der Wirklichkeit“ (Max, 17), müssen jedoch trotzdem in der medialen Inszenierung bedient werden. Max verfügt schließlich über spezifisches genealogisches Wissen bezüglich der Musik und der kulturellen Bedingungen ihrer Künstler, die es ihm erlaubt, die Inszenierungen von sowohl Künstlern als auch von anderen Peers anhand von Legitimitätsparadigmen wie authentisch / nicht-authentisch bzw. glaubwürdig / unglaubwürdig zu bestimmen. Das Bild von Max referenzialisiert implizit also den privaten Raum der Freunde: Innerhalb dieses Raumes wird sowohl durch das bewusste Bedienen und Imitieren medialer Vorlagen als auch durch die (zielgerichtete) Konstruktion milieu- und schichtspezifischer Stereotypen ein komplexes ästhetisches Zeichen entworfen, durch das sich die Jugendlichen distanzieren. So werden die geteilten Bilder im Rahmen von Bilduntertiteln und Hashtags bzw. im Rahmen der sich hieran anknüpfenden Anschlusskommunikation mit einem ironischen Bruch versehen, um sich damit von den vordergründig evozierten Werten hegemonialer Männlichkeit abzugrenzen. So wird etwa ein Screenshot aus einem Video des deutschen Porno-Rappers King 44  Hip-hoppen.net

(2013): King Orgasmus One – Analyse Remix 2012.

192

Kai Erik Trost

Orgasmus One, das eine stark sexualisierte Darstellung enthält, geteilt und mit dem Hashtag #FAKE versehen, um das Dargestellte von den eigentlichen Bedeutungsaspekten des Hip-Hop zu distanzieren. Es folgt ein offensichtlich alle Teilnehmer amüsierender Austausch, der darin mündet, dass das Dargestellte unter Rekurs auf ausgewählte Texte und Musikvideos des Rappers als „Fail“ gekennzeichnet und als „abgenutzt“ und „erfunden“ zurückgewiesen wird. Die geteilten Bilder enthalten als ästhetische Zeichen neben künstlerisch-kreativen Bestandteilen damit auch ein sozialkritisches Moment. Die innerhalb des Kulturraums Hip-Hop situierten semantisch-ideologischen Kategorien mit ihren stereotypischen Konstruktionen von Gender / Identität sowie Milieu / Klasse werden somit im Privatraum auf einer performativen Ebene des modus operandi in einer dialektischen Praxis als lächerlich inszeniert und in der Synthese als medial konstruierte Vorlagen kritisiert und schließlich distanziert. Die vordergründig Dominanz und Stärke suggerierenden Bildinszenierungen werden so unter Rekurs auf Expertenwissen und durch Abgleich mit der eigenen Lebenswelt diskursiviert und in einem intellektuellen Umgang konterkariert. Im Freundeskreis als „Schauplatz kommunikativer Rationalität“45 wird so über die Wahrheit von Auffassungen sowie über die Legitimität der Normen verhandelt: Was als nachvollziehbar-logisch und vernünftig bezüglich Hip-Hop oder Geschlecht gelten kann, ist die intersubjektive, von den Freunden in einem weitgehend herrschaftsfreien Diskurs verhandelte und anerkannte Wahrheit. Die Bilderzeugnisse, welche die Jugendlichen auf Instagram publizieren und teilen, sind daher privat, nicht aber, weil das Abgebildete dezisional oder informationell privat Konnotierendes enthält – was der Fall ist –, sondern weil es referenziell auf einen privaten Bedeutungsraum ihrer Lebenswelt bezogen ist. Die Bilder sind damit auch nicht visuell isoliert, sondern vielmehr kollektiviert als gemeinsamer Ausdruck intersubjektiv hergestellter Freundschaftssemantik zu verstehen. Durch die freundschaftsbezogene Kontextualisierung in Form gemeinsam geteilter Erlebnisse und Erfahrungen sowie hinsichtlich Expertenwissen und Wahrheit erhalten die Bilderzeugnisse eine semantische Rahmung, die nur über das im Freundschaftsraum situierte Wissen erschlossen werden kann.

45  Habermas

(1981): Theorie des kommunikativen Handelns, S. 114.



Der private Freundschaftsraum im digitalisierten Umfeld

193

5. Digitale Medienumgebungen, ästhetische Zeichen und bewusstes Rollenspiel Mit dieser Gegenüberstellung sei die bereits im Rahmen der ersten Zeilen des Artikels als konstitutive Grenze proklamierte Trennung der Semantik von Freundschaft einerseits und der Artikulation von Freundschaft im Rahmen medialer Praktiken andererseits aufgegriffen. Wie die empirische Analyse zeigen konnte, sind der freundschaftsbezogene Privatraum und die medialen Praktiken der Jugendlichen funktional aufeinander bezogen und dialektisch eng verbunden, wohl aber weisen sie gewisse Differenzen auf, können ambivalent konnotiert sein und sind daher analytisch voneinander zu trennen. Die (gemeinsame) Bedeutung von Freundschaft besteht für die Jugendlichen in dem, was an semantischen Merkmalen innerhalb des Freundschaftsraums kollektiv geteilt und über dynamische Grenzziehungen auf mehreren Ebenen als Distinktionsgewinn funktionalisiert wird, um den Raum über diese Abgrenzungssemantiken als einen privaten zu markieren. Gezeigt hat die exemplarische Analyse dieser Freundesgruppe, wie sich die Jugendlichen den Kulturraum des Hip-Hop aneignen und sich in ihrer Lebenswelt durch den gemeinsamen Status und die Inszenierung als Experten abgrenzen. Im Rahmen ihrer medialen Praktiken greifen die Jugendlichen auf kulturell normierte Vorstellungen und konventionalisierte Stereotypen des Kulturraums Hip-Hop zurück, die sie imitieren und als komplexes ästhetisches Zeichen inszenieren, um sich des Status ihrer Selbst und ihrer Gruppe zu versichern und diesen über den Aufbau semantischer Grenzen fortwährend zu legitimieren. Gesellschaftliche Kategorien wie Geschlecht, Milieu, Klasse oder Ethnie werden vordergründig durch stereotypische Körperinszenierungen bestätigt, zugleich jedoch im Rahmen des Freundschaftsraums distanziert und diskursiviert. Sie können in diesem Prozess sowohl bestätigt als auch gewendet werden. Privatheit manifestiert sich erst durch diese Grenzziehungen als solche und dient der sozialen Selbstverständigung darüber, was bezogen auf die Lebenswelt der Freunde als wahr, richtig und angemessen gilt. Diese ist freilich von derjenigen Privatheit abzugrenzen, die von außenstehenden Beobachtern als die den medialen Praktiken bzw. medialen Publika inhärente informationelle oder dezisionale Privatheit verstanden würde. Welche Schlussfolgerung kann nun bezüglich der Besonderheiten von Digitalität, unter welcher sich Freundschaft heute zunehmend konstituiert und artikuliert, gezogen werden? Angesichts der komplexen Bedeutungskonstituierung privater Freundschaftsräume verdeutlichen die medialen Praktiken der Jugendlichen einmal mehr, dass sie nicht als hinreichende Bedingungen dafür gelten können, Rückschlüsse in Bezug auf gesellschaftliche Paradigmen wie Freundschaft oder Privatheit und ihre außermediale Wirklichkeit ziehen zu können.

194

Kai Erik Trost

Methodisch46 dürfen aus Validitätsüberlegungen zunächst jene empirischen Befunde kritisch hinterfragt werden, die ausgehend von einem rezeptionsseitigen Feldzugang Rückschlüsse in Bezug auf die außermediale Wirklichkeit junger Menschen gewinnen (wollen). Wenn Studien angesichts der Bilderwelten Jugendlicher eine „Überbietungsrhetorik einer vorteilhaften Selbstdar­ stellung“47 konstatieren, so ist zu berücksichtigen, dass hier eine Aussage in Bezug auf medial Dargestelltes gemacht wird, dessen Semantik sich aber nicht nur aus diesem selbst erschließt. Bestimmte Bedeutungsaspekte können dadurch zustande kommen, dass stillschweigend auf ein anderes gesellschaftliches Zeichensystem Bezug genommen wird. Wie gezeigt wurde, versetzen digitale Medien wie Facebook und Instagram die Nutzer / innen allgemein in die Lage, im Rahmen visueller Bildinszenierungen zu handeln und dieses Handeln zugleich als ein ästhetisches Zeichen zu distanzieren. Handelt es sich um ein Zeichen in diesem Sinne, so folgt hieraus bezüglich der Rekonstruktion von Bedeutung, dass es eine Referenz auf etwas Bezeichnetes beinhaltet, das nur unter Kenntnis der Kodes des Zeichensystems für die jeweiligen Zeichenbenutzer rekonstruierbar ist. Zu berücksichtigen ist hier, dass Zeichensystem und Zeichenkode mit den technischen und rezeptiven Bedingungen und Möglichkeitsräumen des Mediums zusammenhängen. Ferner sind die medialen Praktiken als ambivalente Praktiken stets peergroupspezifisch auf eine bestimmte Weise semantisiert; Jugendliche imaginieren als Gegenüber eine spezifische Teilöffentlichkeit aus Peers und Freunden, in deren Kontext sich unter Rekurs auf das dortige kulturelle Wissen ein (er-)weiterter Bedeutungsraum aufspannt. Diese Teilöffentlichkeit weist sich dadurch aus, dass sie auf das gleiche System aus Zeichen und Bedeutungen zurückgreift. Dass Jugendliche keine „hegemonialen Attraktivitätsvorstellungen“48 überwänden, sondern einer stereotypischen Etablierung von Frauen- und Männerbildern Vorschub49 leisteten, ist in dieser Hinsicht allein auf der Grundlage konventioneller Semantisierungen von Zeichen nicht greifbar. Es lässt sich nur auf der Grundlage der empirischen Gestalt einer (medialen) Handlung 46  In methodologischer Hinsicht erwies sich die Triangulation aus einer offenen Gruppendiskussion und teilnehmender Beobachtung mit anschließenden narrativen Einzelinterviews als besonders fruchtbar: Der breite, experimentellartig angelegte Feldzugang verweist auf ein umfangreiches Repertoire empirischer Datenkorpora und ermöglicht damit einen besonders reichhaltigen Einblick in die subjektive Welt der Jugendlichen. 47  Muri (2010): ‚Wer bin ich?‘. Identitäten und Ressourcen, S. 91. 48  Wiedemann (2010): Selbstvermarktung im Netz. Eine Gouvernementalitätsanalyse der Social Networking Site ‚Facebook‘, S. 87. 49  Vgl. Schär (2013): Grenzenlose Möglichkeiten der Selbstdarstellung? Jugend­ liche Genderinszenierungen im Web 2.0. Die Rede ist von einer „Reifizierung stereotyper Geschlechterbilder“, „über die außerdem sexistischen Frauenbildern und gewaltverherrlichenden männlichen Darstellungen Vorschub geleistet wird“ (S. 110).



Der private Freundschaftsraum im digitalisierten Umfeld

195

nicht erkennen, was getan wird. Die Handlung ist in einem Kontext zu sehen, in diesem mit anderen Handlungen in Verbindung zu setzen und dabei mit der zeichenhaften Form, die sie realisiert, analytisch zu verknüpfen. Die Befunde der vorliegenden Untersuchung verweisen auf ein bewusstes Rollenspiel der Jugendlichen im Rahmen ihrer visuellen Inszenierungen. Die bildliche Entsprechung zu konventionellen Idealbildern der Hip-Hop-Kultur gehört dabei zu einer diskursiven Praxis, die in mehrerlei Hinsicht eine distinktive Funktion erfüllt. So gesehen geht mit diesem digitalen Raum eine theatralische Verwandlung einher, weshalb ein Unterschied bei der Frage gemacht werden muss, ob jemand etwas nur spielt oder nicht.50 Die Jugendlichen erfahren sich als handelnde Akteure in medialen (Bild-)Entwürfen, die sie selbst konstruieren und deren Wirkung als komplexes ästhetisches Zeichen steuern. So gesehen erweitert Digitalität den Wirklichkeitsbereich der Freundschaft Jugendlicher um einen Raum spezifischer Zeichenhandlungen als theatralisierter (Alltags-)Kontext menschlichen Handelns.51 Alltagskontexte bringen demgegenüber aber nicht jene mediatisierten Bedingungen mit sich, welche die Rekonstruktion von Bedeutung erschweren und dazu führen, dass jene Handlungen gewissermaßen nicht in gleichem Maße Gefühle und Assoziationen des Ausprobierens, des (Rollen-)Spielens oder des Inszenierens evozieren, weshalb sie vielleicht gerne unter einer weniger ‚künstlichen‘ sondern mehr unter einer ‚realen‘ Formzuschreibung interpretiert werden. Bibliografie Autenrieth, Ulla: Die Bilderwelten der Social Networking Sites. Bildzentrierte Darstellungsstrategien, Freundschaftskommunikation und Handlungsorientierungen von Jugendlichen auf Facebook und Co. Baden-Baden 2014. Bähr, Julia: Zu viel Internet, zu wenig Freunde. In: Faz.net vom 19.03.2015. URL: http://www.faz.net/aktuell/gesellschaft/menschen/studie-ueber-jugendliche-zuviel-internet-zu-wenig-freunde-13492763.html (zuletzt eingesehen am 22.05. 2017). Berger, Peter L./Luckmann, Thomas: Die gesellschaftliche Konstruktion der Wirklichkeit. Eine Theorie der Wissenssoziologie. Frankfurt/M. 2012. Bock, Karin/Meier, Stefan/Süß, Gunter: Hip-Hop meets Academia. Positionen und Perspektiven auf die Hip-Hop-Forschung. In: Bock, Karin/Meier, Stefan/Süß, Gunter (Hg.): HipHop meets Academia. Wetzlar 2007, S. 11–15. 50  Theatralität in diesem Sinne umfasst konstitutiv die Inszenierung sowie das Moment der Selbstreferenz der Wahrnehmungssituation. Diese Situation schafft einen Wirklichkeitsbereich, innerhalb dessen sich Subjekte situativ transformieren und diese Transformation selbst wahrnehmen. Vgl. Fischer-Lichte (2007): Theatralität und Inszenierung, insb. S. 9–15. 51  Vgl. Pranz (2009): Theatralität digitaler Medien, S. 251.

196

Kai Erik Trost

Bourdieu, Pierre: Die feinen Unterschiede. Kritik der gesellschaftlichen Urteilskraft. Frankfurt/M. 2014. ‒ Sozialer Sinn. Kritik an der gesellschaftlichen Urteilskraft. Frankfurt/M. 1997. ‒ Ökonomisches Kapital, kulturelles Kapital, soziales Kapital. In: Kreckel, Reinhard (Hrsg.): Soziale Ungleichheiten. Soziale Welt. Sonderband 2. Göttingen 1983, S. 183–199. Brüggen, Niels/Wagner, Ulrike: Medienaneignung und sozialraumbezogenes Medienhandeln von Jugendlichen. In: Hoffmann, Dagmar/Krotz, Friedrich/Reißmann, Wolfgang (Hg.): Mediatisierung und Mediensozialisation. Wiesbaden 2017, S. 211–228. Döring, Nicola: Mobilität und mobiler Mediengebrauch im Kontext der Entwicklungsbedingungen von Heranwachsenden. In: Wagner, Ulrike (Hg.): vernetzt-öffentlich-aktiv. Mobile Medien in der Lebenswelt von Jugendlichen. München 2014, S. 51–66. Ferchhoff, Wilfried: Jugend und Jugendkulturen im 21. Jahrhundert. Lebensformen und Lebensstile. Wiesbaden 2011. Fischer-Lichte, Erika: Theatralität und Inszenierung. In: Fischer-Lichte, Erik/Pflug, Isabell (Hg.): Inszenierung von Authentizität. Tübingen 2007, S. 9–28. Foucault, Michel: Dispositive der Macht. Über Sexualität, Wissen und Wahrheit. Berlin 1978. Goffman, Erving: The Presentation of Self in Everyday Life. Frankfurt/M. 1995. ‒ Forms of Talk. University of Pennsylvania Press 1981. Habermas, Jürgen: Theorie des kommunikativen Handelns. Frankfurt/M. 1981. Heinzlmaier, Bernhard: Performer, Styler, Egoisten. Über eine Jugend, der die Alten die Ideale abgewöhnt haben. Hamburg 2013. Herschelmann, Michael: Jungen und deutscher (Gangsta)Rap  – Sinnrealisation in (stereotypischen) Bedeutungen. In: Pech, Detlef (Hg.): Jungen und Jungenarbeit. Eine Bestandsaufnahme des Forschungs- und Diskussionsstandes. Baltmannsweiler 2009, S. 171–187. Hip-hoppen.net (2013): King Orgasmus One – Analyse Remix 2012. URL: www. hip-hoppen.net/video/7587/king-orgasmus-one-analyse-remix-2012/ (zuletzt eingesehen am 24.07.2017). Krah, Hans: Einführung in die Literaturwissenschaft/Textanalyse. Kiel 2015. ‒ Das Konzept ‚Privatheit‘ in den Medien. In: Grimm, Petra/Zöllner, Oliver (Hg.): Schöne neue Kommunikationswelt oder Ende der Privatheit. Die Veröffentlichung des Privaten in Social Media und populären Medienformaten. Stuttgart 2012, S. 127–158. Laage, Philipp: Hunderte ‚Freunde‘ bei Facebook – und doch alleine. In: Welt.de vom 04.12.2013. URL: https://www.welt.de/gesundheit/psychologie/article122536789/ Hunderte-Freunde-bei-Facebook-und-doch-alleine.html (zuletzt eingesehen am 22.05.2017).



Der private Freundschaftsraum im digitalisierten Umfeld

197

Lefebvre, Henri: Die Production of Space. New York 1991. Löw, Martina: Raumsoziologie. Frankfurt/M. 2015. Lotman, Jurij M.: Die Struktur literarischer Texte. München 1993. Lucius-Hoene, Gabriele/Deppermann, Arnulf: Rekonstruktion narrativer Identität. Ein Arbeitsbuch zur Analyse narrativer Interviews. Wiesbaden 2004. Luhmann, Niklas: Das System der Massenmedien. Opladen 1996. Martínez, Matías/Scheffel, Michael: Einführung in die Erzähltheorie. München 2012. Mill, John S.: On Liberty and Other Writings. Cambridge 2003. Mühlen Achs, Gitta: Wer führt? Körpersprache und die Ordnung der Geschlechter. München 2013. Muri, Gabriela: ‚Wer bin ich?‘. Identitäten und Ressourcen. In: Ritter, Christian/Muri, Gabriela/Rogger, Basil (Hg.): Magische Ambivalenz. Visualität und Identität im transkulturellen Raum. Berlin 2014, S. 78–96. Pranz, Sebastian: Theatralität digitaler Medien. Eine wissenssoziologische Betrachtung medialisierten Alltagshandelns. Wiesbaden 2009. Renner, Karl Nikolaus: Grenze und Ereignis. Weiterführende Überlegungen zum Ereigniskonzept von Jurij M. Lotman. In: Frank, Gustav/Lukas, Wolfgang (Hg.): Norm  – Grenze  – Abweichung. Kultursemiotische Studien zu Literatur, Medien und Wirtschaft. Festschrift für Michael Titzmann. Passau 2004. Online als Manuskript abrufbar unter URL: http://www.kultursemiotik.com/wp-content/uploads/ 2015/01/Renner_Grenze-und-Ereignis.pdf. (zuletzt eingesehen am 22.05. 2017). Rössler, Beate: Der Wert des Privaten. Frankfurt/M. 2001. Schär, Clarissa: Grenzenlose Möglichkeiten der Selbstdarstellung? Jugendliche Genderinszenierungen im Web 2.0. In: Bütow, Birgit/Kahl, Ramona/Stach, Anna (Hg.): Körper – Geschlecht – Affekt. Wiesbaden 2013, S. 99–114. Schmidt, Jan-Hinrik: Persönliche Öffentlichkeit und Privatsphäre im Social Web. In: Halft, Stefan/Krah, Hans (Hg.): Privatheit. Strategien und Transformationen. Passau 2013, S. 121–137. Schütz, Alfred/Luckmann, Thomas: Strukturen der Lebenswelt. Konstanz 2003. Seeliger, Martina/Knüttel, Katharina: „Ihr habt alle reiche Eltern, also sagt nicht, ‚Deutschland hat kein Ghetto!‘ “. Zur symbolischen Konstruktion von Anerkennung im Spannungsfeld zwischen Subkultur und Mehrheitsgesellschaft. In: Prokla, Jg. 40, Nr. 3, 2010, S. 395–410. Simmel, Georg: Das Geheimnis und die geheime Gesellschaft. In: Simmel, Georg (Hg.): Georg Simmel. Gesamtausgabe. Bd. 11: Soziologie: Untersuchungen über die Formen der Vergesellschaftung. Frankfurt/M. 1992, S. 383–455. Titzmann, Michael: Propositionale Analyse  – kulturelles Wissen  – Interpretation. In: Krah, Hans/Tizmann, Michael (Hg.): Medien und Kommunikation. Eine interdisziplinäre Einführung. Passau 2013, S. 87–141. Tophinke, Doris: Lebensgeschichte und Sprache. Zum Konzept der Sprachbiografie aus linguistischer Sicht. In: Bulletin Suisse de Linguistique Appliquée 76 (2002), S. 1–14.

198

Kai Erik Trost

Twenge, Jean/Campbell, Keith: The Narcissism Epidemic. Living in the Age of Entitlement. New York 2009. Weber, Max: Wirtschaft und Gesellschaft. Tübingen 1980. Wiedemann, Carolin: Selbstvermarktung im Netz. Eine Gouvernementalitätsanalyse der Social Networking Site ‚Facebook‘. Saarbrücken 2010. Wimmer, Jeffrey/Hartmann, Maren: Medienkommunikation in Bewegung. Mobilisierung – Mobile Medien – Kommunikative Mobilität. Wiesbaden 2014.

Beziehungsgestaltung in der digitalen Gesellschaft: Privatheit und Intimität im Kommunikationskontext sozialer Medien Daniela Wawra 1. Soziale Medien als beziehungsprägende Kommunikationskontexte In unseren digitalen Gesellschaften sind soziale Medien zunehmend zu prägenden Kommunikationskontexten für Beziehungen geworden. Selbst intime zwischenmenschliche Beziehungen wie Freundschaften und Paarbeziehungen finden immer häufiger auch in sozialen Medien statt  – von der Anbahnung über ihre Pflege und Gestaltung bis zur Beendigung. Das Heranwachsen Jugendlicher wird zunehmend von sozialen Medien mitgeprägt,1 so dass zu erwarten ist, dass sie in Zukunft eine noch größere Rolle in der Beziehungsgestaltung spielen werden. Nach einer Erhebung des Pew Research Centers zu Freundschaften im digitalen Zeitalter nutzen 76 % der befragten 1060 US-amerikanischen Teenager zwischen 13 und 17 Jahren soziale Medien.2 94 % davon halten über soziale Medien Kontakt zu ihren Freunden.3 57 % haben online schon einmal eine neue Freundschaft geschlossen, 64 % davon in sozialen Medien.4 Dabei stellt sich die Frage, welche Auswirkungen die besonderen Rahmenbedingungen der Kommunikation in sozialen Medien auf die Privatheit und Intimität von Beziehungen sowie auf die Selbstbestimmung der beteiligten Akteure haben. Dies soll in folgendem Beitrag untersucht werden anhand der Gestaltung von Freundschaften in sozialen Medien sowie am Beispiel spezieller Apps für Paare, die damit werben, die Intimität in Beziehungen zu fördern. Dabei ist auch zu diskutieren, wie Intimität, Privatheit und Selbstbestimmung zusammenhängen, wie soziale Medien in Freundschaften und Paarbeziehungen genutzt werden (sollen) und ob bzw. in welcher Form sie einen Kommunikationskontext darstellen, der Intimität 1  Vgl. z. B. Subrahmanyam / Šmahel (2011): Digital Youth, S. 31; Sherman / Michikyan / Greenfield (2013): The Effects of Text, Audio, Video. 2  Vgl. Lenhart u. a. (2015): Teens, Technology and Friendships, S. 53. 3  Vgl. Lenhart u. a. (2015): Teens, Technology and Friendships, S. 53. 4  Vgl. Lenhart u. a. (2015): Teens, Technology and Friendships, S. 2.

200

Daniela Wawra

fördern kann. Bisherige Forschungen kommen z. T. zu dem Ergebnis, dass digitale Kommunikation bestehende Beziehungen stärken kann.5 In anderen Arbeiten wird hingegen die Ansicht vertreten, dass digitale Kommunikation dazu führt, dass Intimität bedroht oder abgeschwächt wird bzw. gar nicht mehr entstehen kann.6 Die einfache Möglichkeit, jederzeit in Kontakt miteinander zu treten, würde fälschlicherweise für Intimität gehalten.7 Wie wirken sich also soziale Medien auf intimere zwischenmenschliche Beziehungen aus? Für eine Annäherung an diese Frage ist zunächst zu untersuchen, was unter Intimität zu verstehen ist und wie sie mit Privatheit zusammenhängt. 2. Zum Zusammenhang von Intimität und Privatheit Intimität und Privatheit sind relationale Konzepte, sie erfordern ein Gegenüber: Privates und Intimes ist in der Beziehung zu anderen zu definieren. Kommunikation nimmt hierbei eine zentrale Rolle ein, da es im Kern um die Gestaltung sozialer Interaktionen geht. ‚Zugang‘ und ‚Kontrolle‘ werden dabei als zentrale Parameter einer Privatheits- und Intimitätsdefinition angesehen:8 Privatheit / Intimität sind nur so lange gegeben, wie ein Individuum die Kontrolle über den Zugang von anderen zu dem behält, was es selbst als schützenswert erachtet bzw. nicht preisgeben möchte. Das Individuum hat dann die Entscheidungsmacht darüber, was es von dem, das subjektiv für mehr oder weniger intim bzw. privat gehalten wird, wem gegenüber unter Verschluss hält oder offenbart. Dabei kann das Intime genau wie das Private Körperliches, Räumliches und Mentales umfassen.9 Zum Beispiel gelten in manchen Kulturen die Haare einer Frau als etwas sehr Privates / Intimes, so dass der Kopf bedeckt und damit die Privat- / Intimsphäre geschützt wird. Für manchen ist es etwa sehr privat / intim, jemanden zu sich nach Hause einzuladen. Schließlich mögen manche Gedanken für den einen privat / intim sein, für den anderen hingegen etwas, was jeder wissen kann. Privatheit und Intimität sind also ähnlich strukturierte Konzepte. Doch wie hängen sie genauer zusammen bzw. wie unterscheiden sie sich? 5  Vgl. z. B. Valkenburg / Peter (2007): Preadolescents’ and Adolescents’ Online Communication; Valkenburg / Peter (2009): Social Consequences of the Internet for Adolescents; Sherman / Michikyan / Greenfield (2013): The Effects of Text, Audio, Video. 6  Vgl. z. B. Taddicken / Jers (2011): The Uses of Privacy Online, S. 152; Turkle (2011): Alone Together, S. 172; Turkle (2015): Reclaiming Conversation, S. 3–7. 7  Vgl. Turkle (2011): Alone Together, S. 16; Turkle (2015): Reclaiming Conversation, S. 3–7. 8  Vgl. Bok (1983): Secrets, S. 10f; Rössler (2001): Der Wert des Privaten, S. 21, S. 23; Wawra (2014): Privacy in Times of Digital Communication and Data Mining, S. 13. 9  Vgl. Rössler (2001): Der Wert des Privaten, S. 19; Wawra (2014): Privacy in Times of Digital Communication and Data Mining, S. 12 f., S. 18 f.



Beziehungsgestaltung in der digitalen Gesellschaft

201

Lateinisch intimus bedeutet ‚innere‘, ‚innerste‘ und Sexton / Sexton definieren davon ausgehend Intimität wie folgt: To be intimate with another is to have access to, and to comprehend, his / her inmost character. […] a common notion in the several languages is that intimacy means an awareness of the innermost reality of one person by another.10

Dabei soll eine weitere Unterscheidung zwischen Intimität und Intimem vorgeschlagen werden. Intimes wird als maximal Privates verstanden: Das, was auf einem gedachten Privatheitskontinuum11 als besonders privat angesehen und zu dem der Zugang daher besonders kontrolliert wird, ist der Abschnitt des Intimen. Das heißt, das Intime wird als Teil des Privaten, als eine besondere Ausprägung auf dem Privatheitskontinuum definiert. Wo das Intime beginnt, kann dabei individuell, kulturell und historisch variieren. Wenn Intimes kommuniziert wird, kann unter bestimmten Voraussetzungen Intimität entstehen. Sexton / Sexton stellen dazu fest: [Intimacy] is a privileged knowledge of what is disclosed in the privacy of an interpersonal relation, while ordinarily concealed from the public view. Intimacy is generated not by unilateral desire or compulsive togetherness but only by mutual consent.12

Privatheit wird hier und in anderen Arbeiten als notwendige Bedingung für Intimität gesehen.13 Dies schließt mit ein, dass Intimität Selektivität voraussetzt:14 Die Mitteilung von Intimem ist ein besonderer Vertrauensbeweis, was ausschließt, dass Intimität entstehen kann, wenn Intimes an eine breite Öffentlichkeit kommuniziert wird. 3. Zentrale Merkmale von Intimität Folgt man psychologischen Ansätzen, so ist zunächst auffällig, dass sie – in Einklang mit den Ausführungen im vorigen Abschnitt – Intimität als bilaterales Konzept charakterisieren, d. h. als Phänomen, das zwischen zwei Individuen entstehen kann.15 Zudem ist eine hierfür notwendige Voraussetzung, dass die Offenbarung von Intimem beiderseits als besonderes entgegengebrachtes Vertrauen anerkannt wird, d. h. diese Einschätzung muss bilateral sein. Intimität bildet somit den Kern von Freundschaften und Paarbeziehun10  Sexton / Sexton

(1982): Intimacy, S. 1. dazu auch Ford (2011): Reconceptualizing the Public / Private Distinction. 12  Sexton / Sexton (1982): Intimacy, S. 1 f. 13  Vgl. z. B. auch Inness (1992): Privacy, Intimacy and Isolation; DeCew (2015): The Feminist Critique of Privacy, S. 85. 14  Vgl. dazu auch Fried (1984): Privacy, S. 211; Miguel-Martos (2013): The Transformation of Intimacy and Privacy, S. 7 f. 15  Vgl. z. B. Zimbardo / Gerrig (2004): Psychologie, S. 484. 11  Vgl.

202

Daniela Wawra

gen.16 Luhmann charakterisiert Intimität, bzw. in seinen Worten ‚Intimbeziehungen‘, als ‚zwischenmenschliche[…] Interpenetration[en]‘. Darunter versteht er soziale Beziehungen […] in denen mehr individuelle, einzigartige Eigenschaften der Person oder schließlich prinzipiell alle Eigenschaften einer individuellen Person bedeutsam werden, [wobei] nie die Gesamtheit dessen, was konkret einen Einzelmenschen, seine Erinnerungen, seine Einstellungen ausmacht, für einen anderen zugänglich sein kann […]. Aber es gibt doch ein ‚mehr oder weniger‘ dessen, was man vom anderen wissen und beachten kann.17

Dies unterstreicht, dass Intimität ein graduelles Konzept ist und hebt hervor, dass selbst bei sehr ausgeprägter Intimität die Beteiligten nicht alles Private / Intime von sich offenbaren (können). Als zentrale Merkmale von Intimität werden häufig genannt Offenheit, Ehrlichkeit, Selbstoffenbarung,18 Aufmerksamkeit gegenüber der anderen Person und Unterstützung zentraler, definitorischer Merkmale ihres Selbst wie für sie wichtiger Ziele, Bedürfnisse, Dispositionen und Werte.19 Verletzlichkeit, Momente der Verbundenheit und Gegenseitigkeit, wechselseitiges Eingehen aufeinander und gegenseitige Besorgnis um das Wohlergehen wie auch die physische Berührung und Sexualität werden als weitere Bausteine der Intimität angeführt.20 Ein autonomes Selbst und authentisches Verhalten gelten als zentrale Voraussetzungen, damit Intimität überhaupt entstehen kann.21 Diesbezüglich stehen Heranwachsende vor den Entwicklungsaufgaben, zu lernen, wie Verbundenheit bzw. Intimität mit anderen hergestellt und erhalten werden kann. D. h. zentrale Aufgaben des Erwachsenwerdens sind die Ausbildung des Selbst bzw. der Selbstbestimmung und der Verbundenheit mit anderen sowie die Balance zwischen beiden Aspekten zu finden. Beliebte Kommunikationsthemen unter jugendlichen Peers sind entsprechend romantische Beziehungen, Sexualität, Aussehen und das Selbst.22 In diesem Zusammenhang ist eine immer wieder artikulierte Besorgnis, dass die Entwicklung von Intimität heutzutage beeinträchtigt wird durch die häufige bzw. z. T. vorwiegende Interaktion Jugendlicher miteinander durch soziale Medien.23 Ist diese Sorge begründet? 16  Vgl.

z. B. Zimbardo / Gerrig (2004): Psychologie, S. 484. (1982): Liebe als Passion, S. 14. 18  Vgl. z. B. Lerner (1989): The Dance of Intimacy, S. 3; Subrahmanyam / Šmahel (2011): Digital Youth, S. 31. 19  Vgl. Reis u. a. (2004): Perceived Partner Responsiveness, S. 203. 20  Vgl. z. B. Aron / Mashek (2004): Conclusion, S. 418. 21  Vgl. z. B. Lerner (1989): The Dance of Intimacy, S. 3; Subrahmanyam / Šmahel (2011): Digital Youth, S. 31. 22  Vgl. Subrahmanyam / Šmahel (2011): Digital Youth, S. 31 f. 23  Vgl. Small / Vorgan (2008): iBrain; Turkle (2011): Alone Together; Sherman / Michikyan / Greenfield (2013): The Effects of Text, Audio, Video. 17  Luhmann



Beziehungsgestaltung in der digitalen Gesellschaft

203

4. Möglichkeiten und Grenzen der Intimitätsgenerierung in sozialen Medien 4.1 Freundschaften in sozialen Medien

83 % der in der Pew-Studie befragten Teenager, die soziale Medien nutzen, sagen, dass sie sich über das Leben ihrer Freunde so besser informiert fühlen.24 70 % geben an, dass sie besser über die Gefühle ihrer Freunde Bescheid wissen bzw. mit diesen verbunden sind. 68 % der Jugendlichen haben schon einmal Unterstützung in schwierigen Zeiten über soziale Medien erhalten.25 40 % verspürten den Druck, nur einzustellen, was sie in einem guten Licht erscheinen lässt und 39 % meinten, posten zu müssen, was voraussichtlich beliebt ist und viele positive Kommentare bekommen würde.26 Wenn Jugendliche aus Gründen der Konformität allerdings zentrale Aspekte ihres Selbst  – das ihre Werte, Einstellungen und Meinungen zu für sie Wesentlichem einschließt – verborgen halten bzw. diese sogar negieren oder sich derer schämen, ist die Entwicklung eines autonomen Selbst bzw. ihre Selbstbestimmung gefährdet und damit auch die Entstehung von Intimität (s. o.). Gerade die Bewertungskultur in sozialen Medien ist diesbezüglich kontraproduktiv.27 Durch soziale Medien steigt zwar die Quantität des Kontakts mit Freunden: Die Jugendlichen, die soziale Medien nutzen, sind häufiger in Kontakt mit ihren Freunden als Jugendliche, die keine sozialen Mediennutzer sind (63 %:47 % täglich, 44 %:30 % täglich mehrfach).28 Doch die gestiegene Häufigkeit des Kontakts ist schon aufgrund der oft eingeschränkten Autonomie und Authentizität von Nutzern nicht gleichzusetzen mit einem intimeren Austausch. Nach der Pew-Studie sind 77 % der Jugendlichen der Ansicht, dass man in sozialen Medien weniger authentisch ist als in der Offlinewelt.29 Zudem wird in der psychologischen Forschung hinsichtlich sozialer Intimität betont: „Am wichtigsten ist nicht die Quantität der sozialen Interaktion, sondern die Qualität“.30 Darüber hinaus ist die folgende Aussage einer Jugendlichen in der qualitativen Erhebung der Pew-Studie aufschlussreich. Sie sagt, dass sie mit ihren besten Freunden bevorzugt telefoniert: 24  Vgl.

Lenhart u. a. (2015): Teens, Technology and Friendships, S. 6. Lenhart u. a. (2015): Teens, Technology and Friendships, S. 6, S. 55 f. 26  Vgl. Lenhart u. a. (2015): Teens, Technology and Friendships, S. 7. 27  Vgl. dazu auch Wawra (2014): Privacy in Times of Digital Communication and Data Mining, S. 33 f. 28  Vgl. Lenhart u. a. (2015): Teens, Technology and Friendships, S. 35. 29  Vgl. Lenhart u. a. (2015): Teens, Technology and Friendships, S. 59. 30  Zimbardo / Gerrig (2004): Psychologie, S. 486 f. 25  Vgl.

204

Daniela Wawra

If it’s your best friend. You’d be on the phone with them. It’s because you have a lot to talk about. But like if it’s just a regular friend, or you guys just associate from time to time, you typically text them because you don’t really have anything to talk about.31

Auch eine andere Jugendliche sagt: „Calls are usually for just more important things“.32 Dies deutet darauf hin, dass manche Kommunikationskontexte besser geeignet sind, um Intimität zu fördern als andere. Hinzu kommt, dass 72 % der weiblichen und 64 % der männlichen Teenager angeben,33 dass es gerade in sozialen Medien häufig zu Konflikten kommt.34 So stellt eine Jugendliche fest: Things blow up a lot more on social media because a lot of things people say, they wouldn’t say to, like, your face in person. Things they kind of hide behind their screen or their phone.35

Zudem können durch die Archivierung von Textnachrichten frühere Konflikte leicht wieder an die Oberfläche kommen: Sometimes it’s just old drama that just comes back up. And some people might scroll down there. Like look at their past and be like, six months ago … oh yeah. Don’t you remember that day when you had this such and such? […] And then the other person that was involved would be like, oh yeah, so you had so much to say. […] So now it’s a fight because [of] something that happened six months ago.36

Als Grund für einen Streit, der in sozialen Medien entstand, gibt eine Jugendliche an: It was a little misunderstanding on the way I typed something on Facebook. I’m like a really sarcastic person and … I don’t know. It was just the way I worded something … they took it seriously. We got into a really big fight over that.37

31  Lenhart

u. a. (2015): Teens, Technology and Friendships, S. 40. u. a. (2015): Teens, Technology and Friendships, S. 40. 33  Vgl. Lenhart u. a. (2015): Teens, Technology and Friendships, S. 64. 34  Soziale Medien bergen zudem besondere Gefahren des Kontrollverlusts über die Privatheit / Intimität eines Individuums, auf die hier nur kurz verwiesen werden kann. Sexting z. B. ist ein viel diskutiertes Phänomen, das zum cyberbullying, d. h. zur Online-Belästigung, werden kann, wenn die Mitteilungen sexuellen Inhalts vom Empfänger nicht gewünscht sind. Außerdem liegt hier und auch beim sogenannten revenge porn generell eine Intimitätsverletzung vor, wenn sexuelle Texte oder freizügige Bilder / Videos von einem konsensuell privaten / intimen Kontext in einen nicht-konsensuellen Kontext verschoben werden. Vgl. dazu z. B. Hasinoff (2015): Sexting Panic, S. 1; Franks (2015): Drafting an Effective ‚Revenge Porn‘ Law, S. 2. 35  Lenhart u. a. (2015): Teens, Technology and Friendships, S. 64. 36  Lenhart u. a. (2015): Teens, Technology and Friendships, S. 64. 37  Lenhart u. a. (2015): Teens, Technology and Friendships, S. 66. 32  Lenhart



Beziehungsgestaltung in der digitalen Gesellschaft

205

Eine andere Interviewte führt aus: I feel like there’s more closure when you do something – when you, like, finish a fight – in person rather than online because then you know for a fact, like, what this person is saying to you is true and nobody else is a part of it. But when it’s online and you resolve something, you don’t know if it’s really resolved or if someone else was like typing for them or something like that. So it’s just really confusing sometimes.38

Diese Aussagen indizieren zum einen, dass die Schriftform der Onlinekommunikation zu Ambiguitäten führen kann, die ohne mündliche Kommunikation nur schwer aufgelöst werden können. Zum anderen scheint die schriftliche Onlinekommunikation grundsätzlich weniger gut geeignet, um Konflikte zu lösen. Auch birgt die Archivierung der Textnachrichten ein Konfliktpotential, das bei mündlicher Kommunikation nicht besteht. Das für rein textbasierte soziale Medien spezifische Konfliktpotential ist den Besonderheiten des Kommunikationskontexts geschuldet: Sie unterscheidet sich von der Kommunikation von Angesicht zu Angesicht vor allem durch die Entkörperlichung der Kommunikationsteilnehmer (disembodied users).39 Das bedeutet, dass die nonverbale Kommunikation für die Interpretation von Nachrichten fehlt. Emotionen können z. B. mittels Emoticons weniger nuanciert transportiert werden, als bei der face-to-face-Interaktion, die durch non- und paraverbale Kommunikationssignale unterstützt wird.40 Dies deutet insgesamt darauf hin, dass manche Art der digitalen Kommunikation, insbesondere ausschließlich schriftliche, weniger gut geeignet ist, um Intimität herzustellen. Gibt es hierzu empirische Evidenz? 4.2 Welchen Einfluss hat die Wahl des Kommunikationskontexts auf Intimität?

Sherman / Michikyan / Greenfield untersuchten die Kommunikation von 58 jungen Frauen, jeweils engen Freundespaaren, im Video-Chat, Audio-Chat (Telefonieren), beim instant messaging und von Angesicht zu Angesicht, mit Hilfe von Selbstberichten sowie ‚affiliation cues‘, d. h. nonverbalem Verhalten, das typischerweise auftritt, wenn man eine persönliche Beziehung zu an-

38  Lenhart

u. a. (2015): Teens, Technology and Friendships, S. 66 f. Subrahmanyam / Šmahel (2011): Digital Youth, S. 13. 40  In Anlehnung an Subrahmanyam / Šmahel (2011): Digital Youth, S. 13–17. Die Autoren (S. 13–19) führen als Charakteristika digitaler Kommunikationskontexte disembodied users, anonymity, self-disclosure und disinhibition sowie use of emoticons auf gleicher Ebene an. Die nach disembodied users genannten Merkmale folgen jedoch alle aus der entkörperlichten Kommunikationssituation. 39  Vgl.

206

Daniela Wawra

deren aufbaut bzw. pflegt.41 Die Studie kommt zu dem Ergebnis, dass die Probanden in allen vier Kommunikationskontexten angaben, sich verbunden zu fühlen. Die größte Nähe entstand bei der face-to-face-Interaktion, gefolgt vom Video-Chat, Audio-Chat und dem instant messaging. Dies deutet darauf hin, dass mit der Anzahl der Kommunikationskanäle bzw. -modi die Verbundenheit steigt: Die Interaktion von Angesicht zu Angesicht bietet nonverbale und mündliche sowie potentiell auch haptische Kommunikation (zudem eventuell olfaktorische Signale), gleichzeitig ist keine technische Vermittlungsinstanz zwischengeschaltet; der Video-Chat offeriert technikbasierte, medial vermittelte nonverbale und mündliche Kommunikation, der Audio-Chat hat nur den auditiven Modus, während das instant messaging ausschließlich schriftliche Kommunikation erlaubt. Dies ist in Einklang mit der media richness-Theorie,42 die dieselbe Hierarchie von reicheren zu weniger reichen Medien43 vorhersagen würde wie in der Konsequenz, dass die Kommunikation von Angesicht zu Angesicht am besten geeignet ist, um Intimität zu fördern, da sie auf die meisten Kommunikationskanäle zurückgreifen kann. Zwar werden beim instant messaging durchaus z. B. Emoticons oder Großbuchstaben verwendet, um Emotionen besser ausdrücken und dadurch etwa mehr Verbundenheit herstellen zu können. Jedoch wird so nicht das Ausmaß an Nähe erreicht wie in den anderen Kommunikationskontexten. Hinzu kommt beim instant messaging, dass es – als einziger der untersuchten Kommunikationskontexte – eine zeitlich verzögerte, d. h. asynchrone Kommunikation herstellt. Somit kann zwar auch ohne visuellen und auditiven Kontakt und mittels asynchroner Kommunikation emotionale Verbundenheit hergestellt und für die Beziehungsbildung genutzt werden. Allerdings gibt es Grenzen hinsichtlich des erreichbaren Grads an Intimität durch eine ausschließlich schriftbasierte Kommunikation. Gegenwärtig ist die digitale Kommunikation von Jugendlichen wie Erwachsenen noch überwiegend auf das Schriftliche beschränkt. Je mehr sich digitale Kommunikationskontexte jedoch in Zukunft in ihrer Reichhaltigkeit und Synchronität an die Kommunikation von Angesicht zu Angesicht annähern können, desto besser kann Intimität potentiell mit ihnen gefördert werden. Gegenwärtig ist bereits zu beobachten, dass der Video-Chat populärer wird.44 41  Vgl. Sherman / Michikyan / Greenfield (2013): The Effects of Text, Audio, Video. Die Ausführungen dieses Abschnitts basieren sämtlich auf dieser Studie. 42  Vgl. Daft / Lengel (1986): Organizational Information Requirements, Media Richness and Structural Design. 43  Das Gespräch von Angesicht zu Angesicht ist der Medienreichhaltigkeitstheorie zufolge das ‚reichste Medium‘. Während es sich beim Video Chat, Audio Chat und instant messaging um technikbasierte Medien handelt, kann auch Sprache als – nicht technikbasiertes  – Medium eingeordnet werden. Vgl. dazu Wawra (2010): Medienkulturen als Wirklichkeitskonstrukteure.



Beziehungsgestaltung in der digitalen Gesellschaft

207

Inzwischen gibt es nun sogar Apps, die sich darauf spezialisieren und zum Ziel gesetzt haben, die Intimität in Paarbeziehungen zu fördern. Sind die dort vorzufindenden Kommunikationskontexte potentiell besser dazu geeignet, Intimität herzustellen als andere soziale Medien? Im folgenden Abschnitt werden einschlägige Paar-Apps genauer analysiert. 4.3 Inhalte, Funktionen und Ziele von Paar-Apps

Couple- oder Paar-Apps kombinieren verschiedenste der im vorigen Abschnitt diskutierten Kommunikationskontexte (vgl. dazu detaillierter die folgenden Ausführungen), wobei die Implikationen für die Herstellung von Intimität dieselben sind: Je reichhaltiger und synchroner das verwendete Medium, desto besser ist es potentiell geeignet, um Intimität zu fördern. Durch ihre Fokussierung auf Paarbeziehungen bieten couple-Apps mehr Privatheit als soziale Medien, die nicht hierauf spezialisiert sind: Die Nutzung der Apps ist für zwei Personen angelegt, die im geschützten Raum miteinander kommunizieren sollen. Die Voraussetzung für die Förderung von Intimität ist damit grundsätzlich besser, denn im geschützten – privaten – Raum ist die Tendenz zur Authentizität und Selbstoffenbarung in der Kommunikation höher (s. Kap. 4.1). Welche Bestandteile und Funktionen sind für die Apps charakteristisch und welche Ziele werden damit verfolgt? Im Folgenden sind die Ergebnisse einer genaueren Analyse gebräuchlicher Paar-Apps zusammengefasst. 4.3.1 Planung, Erleichterung und Archivierung gemeinsamer Aktivitäten Paar-Apps sollen dabei helfen, das gemeinsame (Alltags-)Leben zu planen und zu erleichtern: Couple (früher Pair) z. B. wirbt mit „Plan Life Together – Find restaurants nearby, create to-do lists, use a shared calendar, and location features to make life easy“.45 Avocado bietet ebenfalls Unterstützung bei täglichen organisatorischen Herausforderungen: „Organize it all – Groceries? Gifts? Movies to see? Done“.46 Avocado beinhaltet zudem Textbausteine wie „I’m running late“ oder „Be home soon“, damit der Partner stets rasch informiert und die zeitliche Planung entsprechend angepasst werden kann. Couple regt dazu an, bei Alltagsentscheidungen wie dem Brillenkauf oder dem Einkauf von Lebensmitteln für den täglichen Bedarf den anderen hinzuzuziehen (indem man z. B. Fotos verschiedener Brillenmodelle an den Partner schickt und um seine Meinung bittet bzw. eine gemeinsame Einkaufsliste erstellt). 44  Vgl.

z. B. Lenhart u. a. (2012): Teens & Online Video. Homepage (o. J.). 46  Avocado: Homepage (o. J.). 45  Couple:

208

Daniela Wawra

Typisch für Paar-Apps sind auch Angebote für gemeinsame Aktivitäten: Neben Chatfunktionen sind dies etwa in die App integrierte Anwendungen wie gemeinsames Zeichnen (Couple). Ebenso wird vorgeschlagen, alltägliche gemeinsame Tätigkeiten (z. B. die Zubereitung des Abendessens) zu fotografieren oder zu filmen. Die Apps haben immer eine Archivierungsfunktion, mit der ein privates Erinnerungsarchiv angelegt werden kann. Couple z. B., „The App for Two“, stellt sich dar als „An Intimate Place For Two – Keep all your moments private & make your memories last forever“.47 Hier wird also explizit mit Intimität und Privatheitsschutz geworben sowie mit der Möglichkeit, Erinnerungen für immer konservieren zu können. 4.3.2 Förderung der emotionalen Kommunikation in der Partnerschaft Paar-Apps beinhalten in der Regel vorgefertigte Symbole bzw. kurze Mitteilungen zur schnellen Übermittlung der Gefühlslage an den Partner bzw. die Partnerin: So werden Kurzmitteilungen wie „I love you“, „X kissed you“ (Avocado), „Thinking of you“ (Couple) angeboten wie auch „Photocons“ (Couple), d. h. auf eigenen Fotos basierende Emoticons, die Paare austauschen können. Tokii48 konzentriert sich besonders auf die emotionale Kommunikation. Vorgefertigte Textbausteine wie „I feel  …“ und „You make me feel …“ sowie Gefühlssymbole, die z. B. „confused“, „content“, „deflated“, „depressed“ darstellen, sollen dazu ermuntern, dem Partner / der Partnerin regelmäßig die eigenen Gefühle mitzuteilen. Man kann zudem eine „Daily Mood“ angeben, auf die der Partner / die Partnerin reagieren soll.49 4.3.3 Herstellung mentaler und physischer Nähe Typisch für Paar-Apps ist auch, dass sie damit werben, dass Paare durchgängig in engem Kontakt bleiben können, auch wenn sie räumlich getrennt sind. Die Botschaft des Werbevideos der Plattform theicebreak z. B., die ohne Worte auskommt, ist: Bleiben Sie mit ihrem Partner während des Alltags regelmäßig in Verbindung, indem sie sich kurze Nachrichten schicken.50 Auch Couple wirbt in seinem Video mit einer ähnlichen Botschaft: „Stay Close When You’re Miles Apart  – Access your shared timeline anytime, anywhere, on web or mobile“.51 Im Werbefilm wird dazu angeregt, Videos 47  Couple:

Homepage (o. J.). unter: Tokii: Homepage (o. J.). 49  Vgl. Pan (2012): Get a Room. 50  Vgl. Theicebreak: Homepage (o. J.). 51  Video abrufbar unter: Couple: Homepage (o. J.). 48  Abrufbar



Beziehungsgestaltung in der digitalen Gesellschaft

209

von sich zu verschicken, damit der Partner an dem teilhaben kann, was man gerade macht. Auch kann man den Partner bei Alltagstätigkeiten (im Video z. B. beim Zähneputzen) direkt zuschalten. Schließlich wird thematisiert, dass man den Partner über die App in schwierigen Zeiten unterstützen kann, auch wenn man nicht vor Ort ist. Manche Paar-Apps versuchen sogar, physischen Kontakt zu simulieren: Beim „ThumbKiss“ (Couple) z. B. legen Paare ihren Daumen auf den Bildschirm und küssen sich damit ‚virtuell‘. Auch andere Anbieter haben Vergleichbares im Angebot: Bei Feel Me52 leuchtet das Smartphone auf und vibriert, wenn die Partner ihr Smartphone jeweils gleichzeitig an einer bestimmten Stelle berühren. 4.3.4 Bewertung und Optimierung der Paarbeziehung Die bisherigen Ausführungen zu Paar-Apps zeigen, dass diese darum bemüht sind, zentrale Merkmale von Intimität zu fördern wie z. B. die Selbstoffenbarung, wechselseitige Aufmerksamkeit und (Momente der) Verbundenheit, ja sie versuchen z. T. sogar, physischen Kontakt zu simulieren. Letztlich haben die Anwendungen das Ziel, durch mehr Kommunikation und Interaktion zwischen den Partnern mehr Intimität zu generieren. Dabei stellen die Anbieter in ihrer Zielgruppenkommunikation meist sehr deutlich heraus, dass ihre Apps der ‚Verbesserung‘ bzw. ‚Optimierung‘ von Partnerschaften dienen sollen. Auf der Plattform theicebreak z. B. heißt es: „Make the most of your relationship“. Eine (vermeintliche?) Nutzerin kommentiert auf der Startseite: „[…] helps keeping your love life fresh and fun!“ Das auf der Startseite eingestellte Video hat die durchgehende Kopfzeile: „Love better with theicebreak“.53 Im Rahmen der Anwendung werden Paare dazu aufgefordert, Fragen zu beantworten, die dazu dienen sollen, sich besser kennenzulernen. Man soll dabei die Zufriedenheit mit der Kommunikation, der Unterstützung des Partners / der Partnerin sowie insgesamt mit der Partnerschaft – im Idealfall sogar täglich – bewerten. Bei Tokii wird an die Nutzerinnen und Nutzer sogar direkt appelliert, an ihren Gefühlen zu ‚arbeiten‘. Als Hauptziel der App wird formuliert, dass sie bei der konstanten ‚Arbeit‘ an der Partnerschaft unterstützen möchte.54

52  Abrufbar

unter: Feel Me: Homepage (o. J.). Homepage (o. J.). 54  Vgl. Tokii: Homepage (o. J.); siehe auch Pan (2012): Get a Room. 53  Theicebreak:

210

Daniela Wawra 4.4 Sind Paar-Apps förderlich für eine Beziehung?

Paar-Apps legen also nahe, systematisch an der Qualität einer Partnerschaft zu ‚arbeiten‘ und diese zu ‚optimieren‘. Dies hat wenig mit der romantischen Vorstellung einer Paarbeziehung zu tun, sondern passt zum Zeitgeist der Selbstoptimierung,55 der offensichtlich auch auf Liebesbeziehungen übergegangen ist und sich hier widerspiegelt. Verbessern einschlägige Apps nun die Paarbeziehung, sind sie letztlich sogar förderlich für die Intimität (s. Kap. 3.)? Bei Pan heißt es: „To have a couples app that provides for real-time connection creates a presence to help save the couple from disconnection“.56 Pan spricht hier die ‚real-time connection‘ an, die hilfreich ist, um Verbundenheit, ein zentrales Merkmal von Intimität (s. Kap. 3.), herzustellen. Dies unterstreicht den Stellenwert synchroner Kommunikation bei der Förderung von Intimität (s. Kap. 4.2). Paar-Apps beinhalten meist solchermaßen einschlägige wie gleichzeitig reichhaltigere Medien (z. B. den Video-Chat), aber sie inkludieren auch weniger reichhaltige und asynchrone Medien (z. B. die vorgefertigten Kurzmitteilungen). Grundsätzlich sind alle diese Kommunikationsangebote potentiell dazu geeignet, Intimität zu fördern (s. Kap. 4.2): Nicht jede Alltagssituation erlaubt z. B. die Nutzung des Video-Chats, sodass eine Kurzmitteilung ein probates Mittel sein kann, um die Verbundenheit mit dem Partner / der Partnerin in Erinnerung zu rufen. Ob sich die Nutzung einer Paar-App de facto intimitätsfördernd in einer Beziehung auswirkt, hängt letztlich sehr von der individuellen Nutzung, Einstellung und Lebenssituation ab. Hierzu sind die Erkenntnisse des Projekts Media Love57 aufschlussreich. Es untersucht die Rolle von digitalen Medien in Paarbeziehungen. Sieht man sich die Aussagen der Probanden zu ihrer Mediennutzung in der Beziehung an, wird deutlich, dass es sehr konträre Einstellungen dazu gibt. Die einen schätzen es, über z. B. Texting oder Skype, mit dem Partner in Verbindung bleiben und an seinem Alltag teilhaben zu können, auch wenn sie räumlich getrennt sind, wie folgendes Beispiel zeigt: [We] Skype very often all day when we are both at home. We then usually go about our own business most of the time but feel that the other is there […] We both work […] but I have the iPad next to me and can glance at him every once in a while; or we leave it on when we go to sleep, and I might sleep already but he is still reading, or we have breaks together or in the end spend the evening together as if we had a proper date.58

55  Vgl.

Bröckling (2007): Das unternehmerische Selbst. (2012): Get a Room. 57  Vgl. Storey (2014): Being in Love with Media, S. 41–48. 58  Storey (2014): Being in Love with Media, S. 47. 56  Pan



Beziehungsgestaltung in der digitalen Gesellschaft

211

Die Interviewte merkt zudem an: I think that especially in times like these, when everyone is expected to be flexible and mobile in career terms, these media make a huge difference in how close you can feel to each other in spite of the distance, and it can enable at least a variety of everyday life together.59

Manche(r) fühlt sich also verbundener, wenn der Alltag – wenn auch ‚nur‘ über soziale Medien  – miteinander geteilt werden kann. Dies bestätigt noch einmal, dass soziale Medien grundsätzlich der „disconnection“60 entgegenwirken und Intimität fördern können. Andererseits gaben Teilnehmer am Media Love-Projekt (s. o.) auch an, dass sie sich belästigt und in ihrem Alltag gestört fühlen, wenn häufig Nachrichten des Partners eingehen. Ein Interviewter etwa sagte: „I wanted space and she wouldn’t give it to me, so I just left my phone at home every now and then.“61 Gerade Paar-Apps führen zu einer gesteigerten Vermischung von Berufs- und Privatleben. Während das Berufs- schon häufiger in das Privatleben hineinreicht, ist der umgekehrte Einflussbereich (noch) deutlich geringer. Die konsequente Anwendung einer Paar-App ändert dies jedoch: Man ist dann im Berufsleben immer wieder mit den Gedanken beim Partner. Dies deckt auch ein Ideal der Paarbeziehung unserer Zeit auf, das die Paar-Apps widerspiegeln: Man sollte möglichst viel Zeit miteinander verbringen, ja am besten symbiotisch miteinander leben als eine Einheit, indem man über Gefühle und den Alltag des Anderen konstant bis ins Detail informiert ist (und darüber ggfs. auch noch einmal nachlesen kann, damit einem sicher nichts entgeht). Dabei deutet sich die zugrundeliegende Annahme an, dass Intimität ‚optimiert‘ werden kann und das Maximum dann erreicht ist, wenn jeder stets alles über den anderen weiß und man möglichst alles gemeinsam macht, plant und entscheidet (vom Zähneputzen bis zum täglichen Einkauf). Nähe bzw. Intimität braucht aber auch Distanz bzw. autonome Persönlichkeiten (s. Kap. 3.), so dass die konsequente Anwendung einer Paar-App einer Beziehung schaden kann. Unser digitales Zeitalter ist noch sehr jung und die Paar-Apps spiegeln den einschneidenden technischen Umbruch in unseren Gesellschaften wider: Es wird versucht, durch die Generierung möglichst vieler Daten möglichst viel über eine Person zu lernen. Die Grundannahme dabei ist: Je mehr Daten über eine Person vorliegen, desto mehr Wissen generiert man über diese Person und desto besser kann man die Beziehung zu ihr gestalten. Technik und Design der Apps bieten dabei vorgefertigte Bausteine und Schablonen für die Paarbeziehung. Werden sie möglichst häufig genutzt und füllt man die An59  Storey

(2014): Being in Love with Media, S. 47. (2012): Get a Room. 61  Storey / McDonald (2014): Media Love, S. 227. 60  Pan

212

Daniela Wawra

wendungen wechselseitig mit möglichst vielen Daten, so die Annahme, liebt man ‚optimal‘ bzw. wird ‚maximale‘ Intimität hergestellt. Die Quantität der Daten generiert demnach Nähe bzw. Intimität und die vollständige Interpenetration (s. Kap. 3.) des Anderen. Die Qualität der Kommunikation und Interaktion tritt in den Hintergrund. Das Recht auf und die Notwendigkeit des gelegentlichen individuellen Rückzugs bzw. eines gewissen Grades an Privatheit, der auch dem Partner in einer intimen Beziehung gegenüber notwendig ist (s. Kap. 2.), wird eingeschränkt. Es besteht zudem die Gefahr, dass die Verweigerung oder seltene Verwendung einer Paar-App als Geringschätzung der Beziehung interpretiert wird. Denn dem Zeitgeist der Selbstoptimierung folgend müsste jede(r) in einer ernsthaften Beziehung daran interessiert sein, stetig und mit allen zur Verfügung stehenden Mitteln an dieser zu ‚arbeiten‘ und sie zu ‚optimieren‘. Eine etwas andere Perspektive eröffnet es, Paar-Apps als Antwort auf oder Mittel gegen die zunehmend festgestellte Störung von Beziehungen durch digitale Medien wie Smartphones zu interpretieren: Der Begriff ‚post-familial family‘ wurde geprägt für Familien, in denen jeder mehr mit seiner eigenen Smartphonewelt beschäftigt ist als miteinander.62 Paar-Apps könnten dem entgegenwirken, indem sie dazu anregen, dass Paare über ein digitales Medium zumindest miteinander interagieren statt aneinander vorbei. So heißt es im Bericht von Pan: ‚Too often, social media plays a role in exacerbating an already existing condition of disconnection‘, Dr. Karen Ruskin, a licensed marriage and family therapist, tells Mashable. ‚A couples app provides an opportunity to use technology to the couple’s advantage, rather than playing a role in the potential harm of the couple.‘63

5. Diskussion und Fazit Onlineumgebungen können als dynamische kulturelle Räume angesehen werden, in denen Normen erschaffen, geteilt, weitergegeben und verändert werden können.64 Digitale Plattformen und Anwendungen geben einen Rahmen für Interaktionen vor und beeinflussen diese dadurch. Nach Luhmann können Medien als „Kommunikationsanweisungen“ verstanden werden, denen „eine Verständigung über Möglichkeiten der Kommunikation“ zugrunde liegt, z. B. über Gefühle.65 Gesellschaften entwickeln bestimmte Regeln oder 62  Vgl. Wellman u. a. (2005): Connected Lives; Gardner / Davis (2013): The App Generation, S. 107. 63  Pan (2012): Get a Room. 64  Vgl. z. B. Subrahmanyam / Šmahel (2011): Digital Youth, S. 34. 65  Luhmann (1982): Liebe als Passion, S. 22 f.



Beziehungsgestaltung in der digitalen Gesellschaft

213

„Codes für Intimbeziehungen“,66 die besonders in den Paar-Apps sehr direkt zum Ausdruck kommen. Paar-Apps beinhalten Bausteine für die Intimitätsgenerierung und sehr schematisierte Angebote für eine scheinbar ‚gute‘ oder ‚optimierte‘ Intimität (s. Kap. 4.3). Aufgrund bedrohter bzw. eingeschränkter Privatheit und Autonomie (s. Kap. 4.1) ist Intimität als Grundlage von Paarbeziehungen wie auch Freundschaften durch soziale Medien gefährdet. In beiden Fällen wird jeweils die Gefahr deutlich, dass die Quantität von Kontakten und Informationen über den Partner oder Freunde überbewertet wird zu Lasten der Qualität der Interaktionen. Die den sozialen Medien inhärente Möglichkeit, ständig in Kontakt miteinander zu sein, wird fälschlicherweise bereits für Intimität gehalten. In unseren westlichen Gesellschaften wird heute zudem, auch bedingt durch die Möglichkeiten der digitalen Kommunikation, mehr Intimes öffentlich gemacht, d. h. an einen größeren Adressatenkreis gerichtet. Intimität entsteht dadurch jedoch nicht (s. Kap. 2.). Demnach führt die Kommunikation in sozialen Medien nicht zu einer neuen Art von Intimität und erfordert auch keinen neuen Intimitätsbegriff. Wird Privates und Intimes in Medien öffentlich gemacht, so stellt Burkart vielmehr eine Verschiebung von einer authentischen Selbstoffenbarung zur Selbstinszenierung fest.67 Die Authentizität geht verloren, es entsteht nur eine Illusion von Authentizität68 und damit eine Illusion von Intimität, da Intimität Authentizität voraussetzt. Auch Chambers führt als ein zentrales Charakteristikum von „mediated intimacies“ das „staging and management of identity in online contexts“69 an. Solche Beschreibungen der Veröffentlichung von Privatem / Intimem als Selbstdarstellung, -inszenierung und -management kommen in der einschlägigen Literatur immer wieder vor, wie auch, dass ein möglichst großes Onlinenetzwerk soziales Kapital bedeutet.70 Es ist bezeichnend, dass in wissenschaftlichen Abhandlungen zu privater und intimer digitaler Kommunikation auffällig häufig Vokabular aus dem Bereich der Wirtschaft verwendet wird. Du Gay charakterisiert Kommunikation in sozialen Netzwerken auch als „entrepreneurial individualism“.71 Individuen sind Unternehmer in eigener Sache, sie bauen ihre persönliche ‚Marke‘ auf und positionieren sie auf dem Markt. Denkt man dies weiter, wird mediatisierte ‚Intimität‘ reduziert zur Ware, die 66  Luhmann

(1982): Liebe als Passion, S. 42. Burkart (2010): When Privacy Goes Public, S. 23 f. 68  Vgl. Burkart (2010): When Privacy Goes Public, S. 34. 69  Chambers (2013): Social Media and Personal Relationships, S. 169. 70  Vgl. z. B. Chambers (2013): Social Media and Personal Relationships, S. 167; Lambert (2013): Intimacy and Friendship on Facebook, S. 67. 71  Du Gay (1996): Organising Identity, S. 157; Chambers (2013): Social Media and Personal Relationships, S. 169. 67  Vgl.

214

Daniela Wawra

nach vorgegebenen Schablonen konstruiert wird, aber inhaltsleer bleibt, da kein authentisches Selbst dahintersteht. Analog zur post-privacy-Bewegung, die das Ende der Privatheit im digitalen Zeitalter ausgerufen hat,72 wird entsprechend manchmal auch das Ende der Intimität durch soziale Medien proklamiert,73 man könnte auch sagen, das post-intimacy-Zeitalter wird eingeläutet. Historisch, kulturell74 und auch individuell variiert zwar, was als privat und intim angesehen wird. Doch der Kern von Privatheit wie Intimität ist konstant: Beides ist konstitutiv für unser Menschsein. Wir sind soziale Wesen, die intime Beziehungen eingehen. Privatheit, Authentizität und Selbstbestimmung sind dabei notwendige Bedingungen für Intimität. Um Intimität in sozialen Medien zu befördern, müssen diese daher so gestaltet sein, dass Privatheit gewährleistet und geschützt ist. Dann ist gleichzeitig auch die Selbstbestimmung weniger gefährdet sowie die Hemmschwelle gering, authentisch zu sein. Einen Beitrag zum Privatheitsschutz kann eine technische Option leisten, die es erlaubt, festzulegen, dass Inhalte nicht weitergeleitet oder archiviert werden können bzw. sich selbst löschen, nachdem sie rezipiert wurden. Denn wenn Kommunikation intimen Inhalts gespeichert wird, ist potentiell die Gefahr gegeben, dass ein Eingriff in die Selbstbestimmung erfolgt, dann nämlich, wenn Inhalte über einen konsensuellen Kontext hinaus zugänglich gemacht werden.75 Snapchat z. B. bietet bereits eine automatische Löschfunktion an und wirbt damit, dass die „Konversation mit Freunden“ im Vordergrund steht und nicht die „lückenlose Aufzeichnung von Inhalten“. Weiter heißt es: Snappen und Chatten mit Snapchat ist so ähnlich wie Telefonieren oder mit jemandem zu sprechen, der dir gegenüber sitzt: Du kannst dich spontan ausdrücken und den Moment erleben  – ohne dabei automatisch ein Archiv anzulegen mit allem, was du jemals gesagt hast.76

Die Interaktion über Snapchat soll also dem reichhaltigsten Medium, der face-to-face-Kommunikation, nahekommen. Mit dieser Zielrichtung liegt der Anbieter richtig: Um optimale Rahmenbedingungen für Intimität zu schaffen, sollten soziale Medien zusammengefasst auf die Nutzeroption nicht-archivierbarer Kommunikation und auf möglichst ‚reichhaltige‘ Medien setzen, die eine möglichst synchrone Kommunikation erlauben und bei der die technische mediale Vermittlung weitgehend ausgeblendet werden kann. 72  Vgl. dazu z. B. Wawra (2014): Privacy in Times of Digital Communication and Data Mining, S. 17 f. 73  Vgl. Turkle (2011): Alone Together. 74  Vgl. z. B. Blatterer u. a. (2010): Introduction, S. 1. 75  Vgl. dazu Fußnote 34. 76  Snap Inc.: Datenschutzcenter (o. J.).



Beziehungsgestaltung in der digitalen Gesellschaft

215

Bibliografie Aron, Arthur/Mashek, Debra: Conclusion. In: Aron, Arthur/Mashek, Debra (Hg.): Handbook of Closeness and Intimacy. London 2004, S. 415–428. Avocado: Homepage (o.  J.). URL: https://avocado.io/ (zuletzt eingesehen am 20.07.2017). Blatterer, Harry u. a.: Introduction. In: Blatterer, Harry u. a. (Hg.): Modern Privacy: Shifting Boundaries, New Forms. New York 2010, S. 1–6. Bok, Sissela: Secrets. On the Ethics of Concealment and Revelation. New York 1983. Bröckling, Ulrich: Das unternehmerische Selbst: Soziologie einer Subjektivierungsform. Frankfurt/M. 2007. Burkart, Günter: When Privacy Goes Public: New Media and the Transformation of the Culture of Confession. In: Blatterer, Harry u. a. (Hg.): Modern Privacy: Shifting Boundaries, New Forms. New York 2010, S. 23–38. Chambers, Deborah: Social Media and Personal Relationships. Online Intimacies and Networked Friendship. London 2013. Couple: Homepage (o. J.). URL: https://couple.me/ (zuletzt eingesehen am 20.07. 2017). Daft, Richard/Lengel, Robert: Organizational Information Requirements, Media Richness and Structural Design. In: Management Science 32 (1986), S. 554–571. DeCew, Judith: The Feminist Critique of Privacy. Past Arguments and New Social Understandings. In: Rössler, Beate/Mokrosinska, Dorota (Hg.): Social Dimensions of Privacy. Cambridge 2015, S. 85–103. Du Gay, Paul: Organising Identity. In: Hall, Stuart/Du Gay, Paul (Hg.): Questions of Cultural Identity. London 1996, S. 151–169. Feel Me: Homepage (o. J.). URL: https://www.cs.uic.edu/~mtriveri/Marco_Triverio/ Feel_me_app.html (zuletzt eingesehen am 20.07.2017). Ford, Sarah: Reconceptualizing the Public/Private Distinction in the Age of Information Technology. In: Information, Communication & Society 14.4 (2011), S. 550– 567. URL: http://www.tandfonline.com/doi/abs/10.1080/1369118X.2011.562220 (zuletzt eingesehen am 20.07.2017). Franks, Mary Anne: Drafting an Effective ‚Revenge Porn‘ Law. A Guide for Legislators (2015). URL: http://www.endrevengeporn.org/guide-to-legislation/ (zuletzt eingesehen am 20.07.2017). Fried, Charles: Privacy. A Moral Analysis. In: Ferdinand Schoeman (Hg.): Philosophical Dimensions of Privacy. An Anthology. Cambridge 1984, S. 203–223. Gardner, Howard/Davis, Katie: The App Generation. How Today’s Youth Navigate Identity, Intimacy, and Imagination in a Digital World. New Haven 2013. Hasinoff, Amy: Sexting Panic. Rethinking Criminalization, Privacy, and Consent. Urbana/Chicago 2015. Inness, Julie: Privacy, Intimacy and Isolation. Oxford 1992.

216

Daniela Wawra

Lambert, Alex: Intimacy and Friendship on Facebook. New York 2013. Lenhart, Amanda u. a.: Teens, Technology and Friendships. Video Games, Social Media and Mobile Phones Play an Integral Role in How Teens Meet and Interact with Friends. Pew Research Center (2015). URL: http://www.pewinternet.org/ files/2015/08/Teens-and-Friendships-FINAL2.pdf (zuletzt eingesehen am 20.07. 2017). ‒ Teens & Online Video. Pew Internet and American Life Project (2012). URL: http://pewinternet.org/Reports/2012/Teens-and-online-video.aspx (zuletzt eingesehen am 20.07.2017). Lerner, Harriet: The Dance of Intimacy. New York 1989. Luhmann, Niklas: Liebe als Passion. Zur Codierung von Intimität. Frankfurt/M. 1982. Miguel-Martos, Cristina: The Transformation of Intimacy and Privacy Through Social Networking Sites (2013). URL: http://media.leeds.ac.uk/files/2013/07/Miguel_ The-Transformation-of-Intimacy-and-Privacy-through-Social-Networking-Sites. pdf (zuletzt eingesehen am 15.03.2016). Pan, Joann: Get a Room. 9 Intimate Apps for Couples (2012). URL: http://mashable. com/2012/07/23/mobile-apps-for-couples/ (zuletzt eingesehen am 15.02.2016). Reis, Harry u. a.: Perceived Partner Responsiveness as an Organizing Construct in the Study of Intimacy and Closeness. In: Mashek, Debra/Aron, Arthur (Hg.): Handbook of Closeness and Intimacy. London 2004, S. 201–225. Rössler, Beate: Der Wert des Privaten. Frankfurt/M. 2001. Sexton, Richard/Sexton, Virginia: Intimacy. A Historical Perspective. In: Fisher, Martin/Stricker, George (Hg.): Intimacy. New York 1982, S. 1–20. Sherman, Lauren/Michikyan, Minas/Greenfield, Patricia: The Effects of Text, Audio, Video, and In-person Communication on Bonding Between Friends. In: Cyberpsychology: Journal of Psychosocial Research on Cyberspace 7.2, article 3 (2013). URL: http://www.cdmc.ucla.edu/PG_Media_biblio_files/Sherman %20et %20al. pdf (zuletzt eingesehen am 29.03.2016). Small, Gary/Vorgan, Gigi: iBrain. Surviving the Technological Alteration of the Modern Mind. New York 2008. Snap Inc.: Datenschutzcenter (o. J.). URL: https://www.snap.com/de-DE/privacy/ (zuletzt eingesehen am 20.07.2017). Storey, John: Being in Love with Media. In: Anglistik 25.2 (2014), S. 39–49. Storey, John/McDonald, Katy: Media Love. Intimacy in Mediatized World. In: Hepp, Andreas/Krotz, Friedrich (Hg.): Mediatized Worlds. Culture and Society in a Media Age. London 2014, S. 221–232. Subrahmanyam, Kaveri/Šmahel, David: Digital Youth. The Role of Media in Development. New York 2011. Taddicken, Monika/Jers, Cornelia: The Uses of Privacy Online. Trading a Loss of Privacy for Social Web Gratifications. In: Trepte, Sabine/Reinecke, Leonard (Hg.):



Beziehungsgestaltung in der digitalen Gesellschaft

217

Privacy Online. Perspectives on Privacy and Self-disclosure in the Social Web. New York 2011, S. 143–158. Theicebreak: Homepage (o. J.). URL: http://theicebreak.com/ (zuletzt eingesehen am 20.07.2017). Tokii: Homepage (o. J.). URL: http://tokii.com (bis 2014). Turkle, Sherry: Reclaiming Conversation. The Power of Talk in a Digital Age. New York 2015. ‒ Alone Together. Why We Expect More from Technology and Less from Each Other. New York 2011. Valkenburg, Patricia/Peter, Jochen: Social Consequences of the Internet for Adolescents. A Decade of Research. In: Current Directions in Psychological Science 18 (2009), S. 1–5. ‒ Preadolescents’ and Adolescents’ Online Communication and Their Closeness to Friends. In: Developmental Psychology 43 (2007), S. 267–277. Wawra, Daniela: Digital Communication and Privacy. Is Social Web Use Gendered? In: Arbeiten aus Anglistik und Amerikanistik (AAA) 40.1–2 (2015), S. 219–245. ‒ Privacy in Times of Digital Communication and Data Mining. In: Anglistik 25.2 (2014), S. 11–38. ‒ Medienkulturen als Wirklichkeitskonstrukteure. In: Wawra, Daniela (Hg.): Me­ dienkulturen. Frankfurt/M. 2010, S. 11–34. Wellman, Barry u. a.: Connected Lives. The Project. In: Purcell, Patrick (Hg.): Networked Neighbourhoods. The Connected Community in Context. Berlin 2005, S. 161–216. Zimbardo, Philip/Gerrig, Richard: Psychologie. München 2004.

Das intime Bild Rechtliche Grenzen von Privatheit in der digitalen Gesellschaft Alexander Krafka 1. Der Fall „Die Welt ist alles, was der Fall ist“1 – aus seinem philosophischen Kontext gerissen, gibt Wittgensteins Satz genau wieder, was Juristen den Zugang zur Realität eröffnet. Stets vermittelt das Recht seine Geltung erst in der Anwendung auf eine ganz konkrete Lebenssituation. Und exakt dies wird am Ende als ‚der Fall‘ bezeichnet. Ein eben solcher Fall soll helfen, verschiedene Fragen der speziellen Problematik digitaler Bilder aus intimen menschlichen Beziehungen zu behandeln: Eine Frau nimmt ihren früheren Geliebten auf Löschung von Fotos und Filmaufnahmen in Anspruch, die sie zeigen und sich auf elektronischen Speichermedien des Geliebten befinden. Die beiden hatten eine  – für die Frau außereheliche  – intime Liebesbeziehung. Der Geliebte ist von Beruf Fotograf und erstellte während dieser Zeit zahlreiche Bild- und Filmaufnahmen der Frau, auf denen diese unbekleidet und teilweise bekleidet sowie vor, während und nach dem Geschlechtsverkehr mit dem Geliebten zu sehen ist. Teilweise hat die Frau intime Fotos von sich selbst erstellt und dem Geliebten in digitalisierter Form überlassen. Ferner besitzt der Geliebte Aufnahmen der Frau, die sie bei alltäglichen Handlungen ohne intimen Bezug zeigen. Die Beziehung ist mittlerweile beendet, die beiden sind zerstritten.2

Diese keineswegs ungewöhnliche Situation, in der sich die beiden Beteiligten befinden, wirft eine Vielzahl von Fragen auf, die hier gar nicht versucht werden soll, umfassend zu erörtern – geschweige denn zu beantworten. Auch die juristische Behandlung des Falls steht keineswegs im Mittelpunkt der folgenden Ausführungen, auch wenn sie gelegentlich als Inspirationsquelle für weitergehende Überlegungen dienen wird.

1  Wittgenstein 2  Vgl.

(1995): Logisch-philosophische Abhandlung, S. 11. BGHZ 207, 163.

220

Alexander Krafka

2. Worum geht es? Aber zunächst einmal die scheinbar ganz einfache Frage, worum es überhaupt in dem geschilderten Fall geht. Vordergründig um eine alltägliche Situation  – lässt man außer Acht, dass der Geliebte Berufsfotograf war: eine Liebesbeziehung – biologische Erkenntnisse sagen, dass Verliebtheit aus hormonellen Gründen etwa sechs Monate lang anhält und dann von selbst endet3 – ist vorbei. Aus der Zeit der gemeinsamen Verliebtheit gibt es jede Menge private Fotos und Filme. Was soll damit passieren? ‚Behalten-dürfen‘ oder ‚Löschen-müssen‘? Der Hintergrund der Angelegenheit ist schon weit undeutlicher: Was hat es genau mit den Bildern auf sich? Wer hat sie unter welchen Umständen gemacht, was ist auf den Bildern zu sehen, und noch exakter: was sehen die beiden Betroffenen, wenn sie die Bilder betrachten und was sehen Dritte? Welche Gefühle ruft das Betrachten hervor: Freude, Trauer, Angst, Wut, Ekel? Und schließlich: welche Reaktionen können die Bilder zur Folge haben, vor allem, wenn Dritte – zum Beispiel Partner, Freunde, Kollegen oder Fremde – sie zu sehen bekommen? Noch dunkler wird es bei dem Versuch, den Untergrund der Szenerie zu beleuchten: Wie beschrieben geht es nicht nur um die Bilder selbst, sondern vermutlich weit mehr um deren mögliche Folgen. Damit allerdings ist für die Beteiligten ein weites soziales Feld eröffnet, in dem es um die Grenzen zwischen Persönlichkeit, Identität, Intimität, Vertrauen, aber auch um Herrschaft, Macht und Kontrolle geht. Der Fall gibt also eine Unmenge an Anregungen, um latente Vorannahmen von Privatheit, Intimität, Sexualität, Gefühlslagen sowie vom gesellschaftlichen und rechtlichen Rahmen all dieser persönlichen Lebensaspekte zu hinterfragen. 3. Wer macht das Bild? Die erste Frage, die sich aufdrängt, ist eher einfach und doch zugleich überaus mehrdeutig: wer macht das Bild? Gemeint sind damit zugleich der Entstehungszusammenhang und der Wahrnehmungsakt. Ersteres betrifft vor allem die Frage, wie die Bildaufnahme tatsächlich hergestellt wurde. Der beschriebene Sachverhalt erwähnt zwei Varianten: die meisten der Bilder wurden von dem Geliebten erstellt, manche allerdings von der Frau selbst und dem Mann als digitale Kopie zugesandt. Sieht man die Sache aus der Verhaltensperspektive der Abgebildeten, so wirkt das Geschehen also einer3  Bodin (o. J.): Der große Liebesirrtum: Die Autorin spricht von „wenigen Wochen, im Höchstfall 30 Monaten“  – allgemein kursiert allerdings die Zahl von sechs Monaten, ohne dass dazu weitere Belege angegeben werden.



Das intime Bild

221

seits als passives Dulden der Aufnahmeerstellung und andererseits als aktives Handeln. Für die gesellschaftliche wie auch die juristische Relevanz des Geschehens, scheint diese Differenzierung allerdings den entscheidenden Aspekt zu verfehlen. Eher geht es darum, ob der Betroffene mit der Erstellung des Bildes einverstanden ist. Gerade im Zeitalter digitaler Bildherstellungstechniken, die beliebige unkontrollierbare Vervielfältigungen zur Folge haben können, ist es bedeutungslos, wer letztendlich den Auslöser der Kamera für die Aufnahme betätigt. Dagegen stellt sich für das Einverständnis des Abgebildeten die – für den Fall in juristischer Hinsicht sogar letztlich maßgebliche – Frage, ob sich das im damaligen Zeitpunkt der Erstellung des Bildes erklärte vorbehaltlose Einverständnis später verändern, insbesondere widerrufen lässt. Zur näheren Erläuterung hilft ein einfaches Beispiel aus der Lebenswelt: eine attraktive Frau posiert für eine Fotoaufnahme. Sofort danach sieht sie das – aus ihrer Sicht wenig schmeichelhafte – Ergebnis und verlangt sofort: „Lösch das!“. Die rechtliche Lösung ist einfach: da es ein ‚Recht am eigenen Bild‘ gibt, ist es rechtswidrig, eine Aufnahme zu erstellen und zu behalten, ohne dass die Einwilligung des Abgebildeten vorliegt. In der juristischen Dogmatik stellt sich dann nur das Folgeproblem, ob diese Einwilligung später widerrufen werden kann oder ob sie möglicherweise von Anfang an unter der auflösenden Bedingung eines späteren Widerrufs steht.4 Das rechtliche Ergebnis ist jedenfalls klar: Die Aufnahme muss, wenn man das Einverständnis individuell willensbezogen beschreibt, zwingend gelöscht werden. An diese Feststellungen knüpfen allerdings weitere Fragen: wie wäre es, wenn der Abgebildete gar nicht wahrnimmt, dass Bilder erstellt werden? Was ist mit Fotos aus einer anderen Perspektive, die nur zufällig im Randbereich etwas zeigen, womit der Abgebildete nicht einverstanden ist? Was juristischdogmatisch klar lösbar scheint, erweist sich in der gesellschaftlichen Wirklichkeit angesichts der Vielgestaltigkeit der Lebenswelt kaum durchsetzbar. Die zweite Bedeutungsebene der Frage, der Wahrnehmungsakt, soll zunächst nur angedeutet werden. Die ästhetische Bildtheorie gibt jedenfalls den wichtigen Hinweis, dass letztendlich der Betrachter darüber entscheidet, was auf einem Bild zu sehen ist. In diesem Sinne mag zwar der Fotograf ein Foto ‚erstellen‘, zum ‚Bild‘ wird es allerdings erst durch die wertende Wahrnehmung des Betrachters. Treibt man dies einen Schritt weiter, so macht erst die Beschreibung des Betrachters gegenüber Dritten den Bildinhalt wirklich ‚sichtbar‘ im Sinne einer gesellschaftlichen Relevanz, indem er erzählbar, 4  Aus rechtlicher Sicht ist die Frage, für welche der beiden Begründungswege man sich entscheidet, allenfalls für den Lauf der Verjährungsfrist von Bedeutung. Vgl. Tölle (2016): Das Schicksal intimer Bild- und Filmaufnahmen, S. 363.

222

Alexander Krafka

beschreibbar, mitteilbar wird und damit zum Gegenstand von Kommunikation, dem – zumindest aus systemtheoretischer Sicht – eigentlichen sozialen Grundelement wird. Bevor allerdings der Bildinhalt näher analysiert werden kann, muss zunächst ein Blick auf den Hintergrund der Bilderstellung geworfen werden. 4. Welchen Kontext hat das Bild? Die Frage nach dem Kontext des Bildes betrifft das Setting seiner Erstellung. Jedes Bild entstammt stets einem wesentlich weiter reichenden Handlungsrahmen und kann nur ein Ausschnitt aus einem größeren und komplexeren Lebenszusammenhang sein. Das gilt ebenso für einen Film, der ein Vorher, ein Nachher und – angesichts der Kameraperspektive – auch ein Daneben kennt. Dabei spielt zudem eine Rolle wer, wann, warum, in welcher Funktion und letztlich vor allem zu welchem Zweck das Bild erstellt hat, also wie und warum es überhaupt zustande kam. Im beschriebenen Fall fällt die Antwort leicht: Die Aufnahmen erfolgten im privaten Bereich im Rahmen einer Liebesbeziehung, also nicht etwa im Zusammenhang mit der beruflichen Tätigkeit des Geliebten, nicht in der Öffentlichkeit und auch nicht zunächst ungezielt absichtslos. Dabei ist der Umstand der digitalisierten Bilderstellung mittels der stets präsenten und heutzutage allgemein verfügbaren Kamera des Smartphones bemerkenswert. Allein schon die Möglichkeit einer fast jederzeitigen Fotoerstellung hat zugleich eine ungeahnte Erweiterung möglicher Kontexte, wie auch deren beliebige Auflösung zur Folge. Indem das Bild in völlig unterschiedlichen, nicht vorhersehbaren und später kaum erkennbaren Lebensverhältnissen erstellt wird, hat es nur noch einen äußerst vagen sozialen Kontext. War in Zeiten der analogen Fotografie das Genre der Bilderstellung gesellschaftlich relativ klar umrissen – etwa bei der Erstellung von Urlaubsbildern und Festfotografien – ist die Bilderstellung insbesondere im Rahmen der Selbstporträtierung von jeglichem äußeren Ereignis weitgehend abgelöst. Umgekehrt entsteht der Bildkontext nicht selten erst durch die weitergehende digitale Publizierung in sozialen Netzwerken, samt textueller Bildbeschreibung des Bildautors und kann in diesem Sinne sich im Laufe der Zeit mehrfach ändern. Wird etwa ein gleich bleibendes Foto in sozialen Netzwerken zunächst versehen mit den Worten „Ich und meine geliebte Luisa auf dem Oktoberfest 2017“ gepostet, so ändert sich dieser intime in einen eher peripher privaten Kontext, wenn die Beschreibung – etwa nach der Trennung – nur noch „Ich mit einer Bekannten auf dem Oktoberfest“ lautet. Sie verwandelt sich schließlich in einen neutralen Kontext, wenn das Bild nur noch mit den Worten „Impressionen vom Oktoberfest“ bezeichnet ist. Der insoweit überaus



Das intime Bild

223

veränderliche Bildkontext ist also entscheidend für das vorerst unreflektiert vollzogene Empfinden einer Zuordnung des Bildes als privat oder intim. 5. Was ist auf dem Bild zu sehen? Kehrt man zunächst zum Vordergrund der Szenerie zurück, so stellt sich die detaillierter zu beantwortende Frage, was eigentlich auf den Bildern zu sehen ist. Der Eingangssachverhalt unseres Falles kann dazu ein wenig konkretisiert werden, denn letztendlich hatte der Bundesgerichtshof den Geliebten nur teilweise zur Löschung verurteilt, nämlich dazu, die in seinem Besitz befind­ lichen elektronischen Vervielfältigungsstücke von die Klägerin zeigenden Lichtbildern und / oder Filmaufnahmen zu löschen, auf denen die Klägerin – in unbekleidetem Zustand, – in teilweise unbekleidetem Zustand, soweit der Intimbereich der Kl. (Brust und / oder Geschlechtsteil) zu sehen ist, – lediglich ganz oder teilweise nur mit Unterwäsche bekleidet, – vor, während oder im Anschluss an den Geschlechtsverkehr abgebildet ist.5 Das Recht versucht, mit diesen Differenzierungen zugleich die Grenzen der Privatheit näher zu beschreiben. Vor der juristischen Behandlung bedarf es allerdings einer eingehenden Darstellung der Schwierigkeiten, die sich aus den zunächst einleuchtend wirkenden Abgrenzungskriterien ergeben: Der „unbekleidete Zustand“ eines Menschen erscheint auf den ersten Blick klar, wirft aber dennoch die Frage auf, was genau abgebildet ist. Hände sind zum Beispiel wetter- und jahreszeitabhängig meist unbekleidet, im westlichen Kulturkreis in der Regel auch der Kopf, zumindest aber das Gesicht. Welche Körperteile vor allem gemeint sind, erklärt daher die weitere Abgrenzung des „teilweise bekleideten Zustands, soweit der Intimbereich (Brust / Geschlecht) zu sehen ist“. In diesem Sinne ist nicht nur der Umfang der Bekleidung, sondern insbesondere der abgebildete Körperteil von Bedeutung. Aus juristischer Sicht fällt dabei der verständliche Wunsch nach objektiven Abgrenzungskriterien besonders auf, indem allein auf die Abbildung, nicht aber auf die Erkennbarkeit abgestellt wird. Allerdings können Bilder des Intimbereichs aufgrund von Schattierungen und Andeutungen das darauf Abgebildete künstlerisch so weitgehend verfremden, dass der Betrachter kaum auf die Idee käme, etwas Privates oder gar Intimes zu erblicken. Die Beschreibung „mit Unterwäsche bekleidet“ zu sein, lässt in der Fantasie ebenfalls viel Verschiedenes denkbar scheinen: Transparenz, die Abzeichnung von Körperkonturen, die Darstellung in 5  BGHZ

207, 163.

224

Alexander Krafka

erregtem oder entspanntem Zustand. Der Unterschied zu Bade- oder sonstiger Sportbekleidung scheint modebedingt gelegentlich eher marginal, wobei kulturbezogen Menschen sich in der Regel einem offenen Personenkreis zwar in Sportbekleidung, keineswegs aber nur in Unterwäsche bekleidet zeigen. Bereits eingangs war beschrieben, dass der Geliebte auch Fotos besitzt, auf welchen die Frau „in Alltagssituationen“ gezeigt wird. Was allerdings Alltag ist – und vor allem: wie man dabei abgebildet wird –, unterliegt jedoch nicht nur modischen, sondern vor allem kulturgeschichtlichen Veränderungen und ist individuell weitgehend unterschiedlich gestaltbar. Zudem sind Darstellungen „in bekleidetem Zustand“ – der sich tendenziell immer als „teilweise unbekleideter Zustand“ beschreiben lässt! – denkbar, die überaus erotisch aufgeladen sind  – weit mehr etwa als solche in Unterwäsche. Man denke etwa an Miniröcke, bauchfreie Tops, vormals an die Mode des ‚Cul de Paris‘, an Tournüren, Krinolinen, Reifröcke, Pettycoats, aber auch eng geschnittene Männerhosen, bei welchen sich die Körperkonturen so klar abzeichnen, dass auch der sexuelle Erregungszustand niemandem verborgen bleibt.6 Ein weiterer interessanter Punkt ist eine Bildbeschreibung unter dem Titel „während des Geschlechtsverkehrs“. Die Sexualität des Menschen hat eine weite Handlungsbreite und unterliegt in Ausführung und Darstellung einer Unmenge von kulturellen und historischen, letztlich auch mode- und in neoliberalen Zeiten möglicherweise auch marktbezogenen Veränderungen.7 Pornografie – denn darum geht es letztlich – berührt hierbei stets gesellschaftlich überaus schwierig zu handhabende Grenzbestimmungen, die vor allem infolge der technischen Revolutionierung von Darstellung und Verbreitung mittels digitaler Medien8 faktisch nicht mehr regulierbar sind. Dass sich das Recht dennoch als Steuerungsmittel versucht, wird aus einleuchtenden Gründen gelegentlich scharf kritisiert und mitunter sogar als „Schein-Kontrolle“9 disqualifiziert. Soweit es um Bilder „vor oder nach dem Geschlechtsverkehr“ geht, scheint zudem eine ergänzende Konkretisierung dringend geboten – erzeugt doch die zeitliche Zäsur des sexuellen Akts eine in beide Zeitrichtungen unendliche Dauer. Der Bundesgerichtshof versucht die daher notwendige Beschränkung mithilfe des Kriteriums des „objektiven Bezugs zum Ge­ schlechts­verkehr“,10 scheint aber mit dieser Differenzierung fast mehr zu verdecken als klarzustellen.11 6  S. Vinken

(2013): Angezogen, S. 17. die Andeutung der „histoire“ des „bordels“ von Houellebecq (2016): Soumission, S. 260. 8  Zur Internetpornografie s. Lewandowski (2012): Die Pornografie, S. 93 ff. 9  Fischer, StGB, § 184 Rn 25. 10  Textziffer 22 von BGH, Urt. v. 13.10.2015 – VI ZR 271 / 14 – BGHZ 207, 163, unter Billigung der Auffassung der Vorinstanz OLG Karlsruhe ZUM 2015, S. 60. 11  Dazu näher sogleich in Ziffer 6. 7  Vgl.



Das intime Bild

225

Darüber hinaus lässt sich erneut unterscheiden zwischen der Erstellung des Fotos und der Darstellung auf dem Bild, wie beschrieben also zwischen dem Kontext und seinem Inhalt. Während Ersteres die gerade beschriebenen kulturell-historischen Zuordnungsfragen betrifft, bereitet die Behandlung des Bildinhalts durchaus ernsthafte Schwierigkeiten. Wie wäre es etwa bei einem Bild, das im Zeitpunkt der Erfüllung größter sexueller Lust nur das Gesicht oder nur einen Teil des Gesichts, etwa die Augenpartie, zeigt? Würde ein Betrachter einen Unterschied bemerken, sähe man ein Bild desselben Körperteils in einer ganz anderen Situation, etwa bei Jubelbildern aus dem Bereich des Sports oder der Politik? Die wenig überzeugenden Differenzierungen, die das Urteil des Bundesgerichtshofs verwendet, legen möglicherweise eine andere Unterscheidung näher, die dem juristisch willkürlich gewählten, objektiv anmutenden Konzept unausgesprochen zugrunde liegt. 6. Worum geht es wirklich? – Eine erste Annäherung Die beschriebenen Differenzierungen setzen – wie erwähnt – voraus, dass der Geliebte solche Bilder nicht behalten darf, auf denen die Frau in Situa­ tionen oder auf eine Weise zu sehen ist, die einen „objektiven Bezug zum Geschlechtsverkehr erkennen lassen“. Die Konkretisierung dieser Begriffskombination ist für die Durchführung des Urteils im Rahmen der Zwangsvollstreckung entscheidend, zumal am Ende möglicherweise ein Gerichtsvollzieher die digitalen Daten löschen muss – und dabei einen gegebenenfalls verbliebenen Spielraum selbst auszufüllen hat. Der beschriebene objektive Bezug des Bildes lässt sich einleuchtend näher beschreiben anhand der aktuellen, bevorstehenden oder soeben erlebten sexuellen Erregung oder Befriedigung. Aus meiner Sicht ist dies eine zumindest plausible Beschreibung dessen, was der Bundesgerichtshof mit seinen im Abstrakten verbleibenden Worten meinen könnte. Als erste Annäherung an das wirklich zugrunde liegende Problem wirkt mir diese Umschreibung jedenfalls aus verschiedenen Gründen hilfreich. Zunächst ist eine Anknüpfung an den sexuellen Erregungszustand schon aus objektiven Gründen einleuchtend. Nimmt man ihn als Zustand des Kontrollverlusts wahr, lässt sich die weitreichende Frage stellen, was eigentlich der Grund dafür ist, eine bildliche Darstellung eben dieses vermuteten Kon­ trollverlusts kontrollieren zu wollen, indem dem Abgebildeten das Recht eingeräumt wird, über den Fortbestand der dies dokumentierenden Aufnahmen bestimmen zu können. Gleicht dies nicht letzten Endes einer Art Kon­ trollzwang, der folgender Maxime zu folgen scheint: Ich will darüber bestimmen, wie ich dargestellt werde, auch und vor allem in einem Zustand fehlender Selbstkontrolle?

226

Alexander Krafka

Allein schon die Frage erlaubt einen weiteren Blick auf die der ganzen Situation zugrunde liegenden Fragen. Es geht im Kern der Sache um die Möglichkeit einer selbst bestimmten, mithin freien Darstellung der eigenen Persönlichkeit. Damit ist endgültig ein elementarer Hauptbestandteil der personalen Identität betroffen, nämlich der einer autonomen sozialen Selbstinszenierung.12 Jeder – so die Idee – muss selbst entscheiden können, wie er die Bereiche, die wir als ‚intim‘ bezeichnen, in der gesellschaftlichen Öffentlichkeit dargestellt wissen möchte. Um die gesamte Dimension dieser Annäherung zu erfassen, fehlen allerdings zwei weitere Aspekte: was ist ‚intim‘? Und: wann ist die ‚gesellschaftliche Öffentlichkeit‘ betroffen? 7. Was haben Dritte mit den Bildern zu tun? Als erstes bedarf es einer Herstellung des Zusammenhangs der erstellten Bilder mit der Vorstellung von einer damit zumindest potenziell verbundenen gesellschaftlichen Öffentlichkeit. Das macht zugleich deutlich, was das eigentlich Gefährliche und Bedrohliche der Bilder ist. Sie sind in gewisser Weise beschreibbar als verkörperte Erinnerungen. „Bilder sagen mehr als Worte“ ist ein weit verbreitetes Sprichwort, das einen interkulturell adaptionsfähigen Gehalt zu haben scheint. Sie verraten einiges und vielleicht weit mehr, als man bereit oder in der Lage wäre zu sagen oder zu schreiben. Ähnlich wie Worte sind sie interpretierbar – ihr sozialer Sinn liegt im Auge des Betrachters. Daher sind sie zugleich als Zeugnisse des Abgebildeten für diesen unkontrollierbar, weil niemand genau weiß, wer, wann und in welchem Zusammenhang das Bild betrachten wird und daraus eine Meinung über den Abgebildeten gewinnt und diese Meinung weiteren Personen mitteilen kann. Es gibt also keine sichere Kontrolle über das Bild und seine soziale Realität. Dieses kann vielmehr einer unbestimmten Zahl von Personen beschrieben, gezeigt und verschafft werden. Dabei bewirkt die Herrschaft über das Bild zugleich Macht im Sinne der Verfügungsgewalt über die gesellschaftliche Identität des Abgebildeten. Insbesondere ist an die über das Internet und soziale Netzwerke bestehenden Möglichkeiten der Publizität zu denken. Schließlich ist denkbar, dass sich weitere Personen das Bild ungewollt und vielleicht sogar unbemerkt verschaffen. In besonderer Weise erzeugt die digitale Vervielfältigungstechnik eine fast unbeschränkte Öffentlichkeit und zugleich eine zeitlich weitgehend unendliche Speichermöglichkeit. All dies birgt Gefahren für den Abgebildeten, die es nahe legen, die Löschung der 12  Vgl. zum Aspekt der Privatheit als „Kontrolle über Informationen“, bei der sich der informationelle Schutz der Person zugleich als „Kontrolle über Selbstdarstellung“ realisiert: Rössler (2001): Der Wert des Privaten, S. 209.



Das intime Bild

227

Bilddaten auch dann vorzusehen, wenn sich der Bildbesitzer verpflichtet, sie Dritten nicht zugänglich zu machen oder an sie weiterzugeben. Der Bundesgerichtshof hat dies ebenso bewertet und ein entsprechendes prozessuales Anerkenntnis des Geliebten, aus dem sich eine solche Verpflichtung ergab, zur Erledigung des Rechtsstreits nicht genügen lassen. Aber welche Abbildungen sind es denn, die wir als ‚intim‘ beschreiben, so dass sie für die Darstellung der eigenen sozialen Identität als so gefährlich angesehen werden, dass im Zweifel ihre restlose Beseitigung durchgesetzt werden kann? 8. Was ist ‚privat‘? Was ist ‚intim‘? Das Vorhaben, Privatheit oder gar Intimität in seiner kulturellen Bedeutung zu definieren, kann an dieser Stelle nicht unternommen werden. Zur Differenzierung mag der Hinweis darauf genügen, dass ‚intim‘ (lat. intimus = am weitesten innen) laut Beate Rössler einen erotisch-sexuellen Gehalt hat, der ein besonderes Maß an „Nähe und Verletzlichkeit, die auch, aber nicht nur mit Entblößung des eigenen Körpers zu tun haben“13 mit sich bringt. Für die Ausführungen aus rechtssoziologischer Perspektive muss es genügen, sich die juristische Umschreibung näher anzusehen, die der Bundesgerichtshof in der Entscheidung des hier als Ausgangspunkt genommenen Falls verwendet: Der Schutz der Privat- und Intimsphäre umfasst Angelegenheiten, die wegen ihres Informationsinhalts typischerweise als ‚privat‘ eingestuft werden, insbesondere weil ihre öffentliche Erörterung oder Zurschaustellung als unschicklich gilt, das Bekanntwerden als peinlich empfunden wird oder nachteilige Reaktionen der Umwelt auslöst, wie es gerade auch im Bereich der Sexualität der Fall ist.14

Diese Beschreibung ist aus verschiedenen Gründen bemerkenswert und verdient im Folgenden eine nähere Analyse: Ihr Ausgangspunkt ist der Informationsgehalt von „Angelegenheiten“, so dass eine Privatsache nur dann vorliegen kann, wenn sie zumindest potenziell aus sozialer Sicht öffentlich ist – da ihr andernfalls kein Informationsgehalt zukommen kann. Die Folgebeschreibung, dass privat das sei, was „typischerweise als ‚privat‘ eingestuft“ werde, fällt entweder in die Kategorie einer klassischen Leerformel, wie sie Juristen dann verwenden, wenn sie die Unzulänglichkeiten des eigenen In­ strumentariums verschleiern möchten, oder sie verdeckt zumindest durch die Bezugnahme auf eine nicht näher erläuterte faktische Normalität („typischerweise“), dass in der Folge Kriterien aus der Wirklichkeit in normative umgewidmet werden sollen. Worum es sich vorliegend handelt, lässt sich erkennen, wenn die in der vom Bundesgerichtshof anschließend verwendeten drei Kriterien näher untersucht werden, die sich im Sinne der Aufgliederung le13  Rössler

(2001): Der Wert des Privaten, S. 17. 33 von BGHZ 207, 163.

14  Textziffer

228

Alexander Krafka

bensweltlicher Aspekte gemäß den Unterscheidungen von Jürgen Habermas als Teile der objektiven Welt („Kultur“), der subjektiv-expressiven Welt („Persönlichkeit“) und der sozialen Welt („Gesellschaft“) einordnen lassen.15 Was in der „öffentliche(n) Erörterung oder Zurschaustellung als unschicklich gilt“16 ist ein weitgehend ungenau gehaltener Verweis auf die herrschenden gesellschaftlichen Normen – und damit ein direkter Bezug auf die soziale Dimension der Lebenswelt, mithin der Bereich, aus dem sich die Mitglieder einer Gesellschaft legitime Ordnungen geben und sich damit wechselseitig Solidarität anbieten. Das Abstellen auf die „Schicklichkeit“ eines Verhaltens setzt entsprechende, faktisch im gesellschaftlichen Umgang bestehende Bewertungen der Sittlichkeit voraus und nimmt diese zum Maßstab der rechtlichen Einordnung als „private“ Angelegenheit. Solche Verkopplungen zwischen Rechts- und Sittenordnung sind durchaus gebräuchlich und existieren in der deutschen Rechtsordnung in einer Vielzahl von Bereichen. Allerdings gibt es hierfür stets eine entsprechende gesetzliche Grundlage,17 an der es bei der allein durch die Rechtsprechung hervorgebrachten Privatheitsdefinition allerdings fehlt. Zudem handelt es sich in der Rechtspraxis um Vorschriften, die mithilfe von einigermaßen fest umrissenen Fallgruppen festgelegt werden, die sich an der bestehenden Rechtspraxis – vor allem an den dazu ergangenen Gerichtsentscheidungen – orientieren. Der Verweis auf die Sittenordnung ist also im rechtlichen Diskurs keineswegs als Globalverweis auf tatsächlich gelebte Verhaltensnormen zu verstehen, die im Wege einer empirischen Studie zu ermitteln wären. Vielmehr handelt es sich um eine Art Leerformel, die der näheren Ausfüllung durch die – an sonstigen Wertungen der Rechtsordnung zu orientierenden – Meinungen der juristischen Community bedarf. Das zweite Element der Privatheitsbeschreibung des Bundesgerichtshofs sieht vor, dass es sich um eine Angelegenheit handelt, deren „Bekanntwerden als peinlich empfunden“ wird. Dabei handelt es sich offensichtlich um ein expressives Element der individuellen Persönlichkeit. Peinlichkeit ist ein Ausdruck der Scham, einer sehr elementaren, höchstpersönlichen Empfindung, die zwar in einem durchaus nahe liegenden Zusammenhang mit der Vorstellung von Privatheit steht.18 Gleichwohl überrascht es, dass die juristische Definition ein derart individuelles Ereignis mit einbezieht. Zum einen scheint schon fraglich, ob es gelingen kann, den Eindruck der Peinlichkeit in Bezug auf eine Einzelperson zu vereinheitlichen. Zum anderen wirkt es kaum 15  Vgl.

Habermas (1987): Theorie des kommunikativen Handelns, S. 209. 33 von BGHZ 207, 163. 17  Wie zum Beispiel im Zivilrecht § 138 Abs. 1 BGB, § 826 BGB, im Strafrecht § 228 StGB und im Verwaltungsrecht § 33a Abs. 2 Nr. 2 GewO. 18  Vgl. Schneider (1992): Shame, Exposure and Privacy. Vgl. auch Geuss (2013): Privatheit. Eine Genealogie. 16  Textziffer



Das intime Bild

229

vorstellbar, das Peinlichkeitsereignis überindividuell zu objektivieren. Ein gerichtspraktisch verwertbares, auch im Sinne einer Beweisaufnahme gut nachweisbares Kriterium liegt damit jedenfalls nicht vor. Das dritte und abschließende Element für eine Privatangelegenheit soll nach Auffassung des Bundesgerichtshofs sein, dass ihr Bekanntwerden oder die Zurschaustellung „nachteilige Reaktionen der Umwelt auslöst“. Von den beschriebenen drei Kriterien handelt es sich damit um ein dem objektiven Teil der Lebenswelt zuordenbares Ereignis, einem Bestandteil der Kultur, aus welcher die Kommunikationsteilnehmer mit verbindlichen Interpretationen versorgt werden. Über die etwas missglückte Wortwahl der Juristen – besser als die Bezeichnung der belebten oder unbelebten ‚Umwelt‘ wäre wohl der sozialwissenschaftlich weit passendere Begriff der menschlichen ‚Mitwelt‘ gewesen  – mag man großzügig hinwegsehen. Was gemeint ist, scheint wiederum nur auf den ersten Blick eindeutig und macht bei einer näheren Betrachtung einige Schwierigkeiten. Vor allem die Bewertung der Reaktionen als „nachteilig“ eröffnet erneut – wie auch bei den anderen beiden Elementen „unschicklich“ und „peinlich“ einen kaum einschränkbaren Spielraum an Ergebnissen. Die hier nur knapp angerissene Analyse der juristischen Privatheitsdefinition hat daher ein relativ eindeutiges Ergebnis: es handelt sich um eine von der Rechtsprechung beliebig einsetzbare Leerformel, die für sich keine willkürfreie Anwendung vorgibt. 9. Des Pudels Kern Die als erstes einsetzende Verwunderung, dass die beschriebenen Kriterien – also „unschicklich“, „peinlich“ und „nachteilige Reaktionen“ provozierend „gerade auch im Bereich der Sexualität der Fall ist“ weicht nach dieser knappen Analyse der Einsicht, dass angesichts der Aneinanderkettung mehrerer Leerformeln gar keine andere Lösung als eben eine schlicht und einfach begründungslose Dezision möglich war. Die Beschreibung und die Subsumtion der Sexualität mag zwar antiquiert scheinen und eher dem Sittenbild der 1950er Jahre zugehörig, wird aber durch eine Weiterung durch den Bundesgerichtshof noch verschärft. So heißt es gerade in Bezug auf die Sexualität als Bestandteil der Privat- und Intimsphäre: „Fehlte es hier am Schutz vor der Kenntniserlangung anderer, wäre die sexuelle Entfaltung erheblich beeinträchtigt“.19 Der Gedankengang dieser überaus kurzen, fast kurzschlüssig wirkenden Feststellung ist durchaus nachvollziehbar: Wer fürchten muss, dass als un19  Textziffer

33 von BGHZ 207, 163.

230

Alexander Krafka

schicklich geltende Angelegenheiten, die nachteilige Reaktionen der Mitmenschen provozieren und dem Betroffenen zudem peinlich sind, öffentlich werden, wird möglicherweise davon Abstand nehmen, die entsprechenden Handlungen überhaupt zu vollziehen. Der Schutz vor Kenntniserlangung soll dem Einzelnen die Sicherheit geben, das Bekanntwerden derartiger Angelegenheiten kontrollieren zu können, um damit seine Handlungsmöglichkeiten ohne Angst vor negativen sozialen Konsequenzen autonom leben zu können. Der Ansatz des Bundesgerichtshofs lässt sich kurz umschreiben mit den Worten: Freiheit durch Sicherheit. Auch wenn dies wie ein aktueller politischer Wahlkampfslogan klingt, ist dies im Bereich des deutschen Bürgerlichen Rechts gelebte Praxis – was allerdings über die Funktionalität dieses Ansatzes ohne nähere empirische Überprüfung wenig besagt. Im Strudel juristischer Differenzierungen ist damit nun das Innerste des Privaten erreicht, nämlich das, was die deutsche Rechtsprechung als „Kernbereich der höchstpersönlichen, privaten Lebensgestaltung“ bezeichnet. Dieser Bereich ist wegen seiner besonderen Nähe zur Menschenwürde absolut geschützt. Diesem Kernbereich gehören grundsätzlich Ausdrucksformen der Sexualität an. Die Beurteilung, ob ein Sachverhalt diesem Kernbereich zuzuordnen ist, hängt davon ab, ob der Betroffene ihn geheim halten will, ob er nach seinem Inhalt höchstpersönlichen Charakters ist und in welcher Art und Intensität er aus sich heraus die Sphäre anderer oder die Belange der Gemeinschaft berührt.20

Und weiter für unseren konkreten Fall: Die Funktionsherrschaft [des Geliebten; Anm. d. Autors] über die intimen Aufnahmen gegen den Willen [der Frau; Anm. d. Autors] ist dem vorbeschriebenen Kernbereich zuzuordnen. Wer […] Bildaufnahmen oder Fotografien, die einen anderen darstellen, besitzt, erlangt allein durch diesen Besitz eine gewisse Herrschafts- und Manipulationsmacht über den Abgebildeten, selbst wenn eine Verbreitung oder Weitergabe an Dritte nicht beabsichtigt oder untersagt ist. Diese Macht ist umso größer, als Aufnahmen eine vollständige Entblößung des gänzlich Privaten, der grundsätzlich absolut geschützten Intimsphäre des Einzelnen, insbesondere im Zusammenhang mit gelebter Sexualität, zeigen. Diese Entblößung wird von dem Abgebildeten regelmäßig als peinlich und beschämend empfunden, wenn sich der Situationszusammenhang wie hier durch die Beendigung der Beziehung geändert hat. Die zur Anregung des gemeinsamen Sexuallebens erbrachte Entblößung wird als demütigend wahrgenommen, wenn das gemeinsame Erleben entfällt, sie aber dauerhaft sichtbar bleibt […].21

Die auch hier im ersten Zugriff nachvollziehbare Behandlung der Problematik wirft im Kern die Frage auf, ob sie nicht untergründig auf kulturell tief wurzelnden, möglicherweise sogar archaischen Vorstellungen beruht, die in 20  Textziffer 21  Textziffer

34 von BGHZ 207, 163. 35 von BGHZ 207, 163.



Das intime Bild

231

Bezug auf die Legitimität und vor allem hinsichtlich ihrer sozialen Funktionalität einer intensiven Analyse unterzogen werden müsste. Insoweit ist es allerdings kaum einer Anmerkung wert, dass der Situationszusammenhang eines Bildes sich im Laufe der Zeit durch an das Abgebildete herangetragene Interpretationen verändert.22 Dagegen erinnert die Idee, dass mit dem Besitz einer Bildaufnahme „eine gewisse Herrschafts- und Manipulationsmacht über den Abgebildeten“ verbunden ist, an animistische Konzepte, nach welchen mit einer Bildanfertigung zugleich etwa die Aneignung eines Seelenanteils des Abgebildeten verbunden sei. 10. Worum geht es wirklich? – Eine zweite Annäherung Nach all diesen Vorarbeiten lohnt nun der Versuch einer zweiten Annäherung an die eigentlichen Fragen, die der Fall mit sich bringt. Worum geht es den betroffenen Personen wirklich? Die abgebildete Frau hat möglicherweise die Vorstellung, die Bilder könnten öffentlich zur Schau gestellt werden. Das ist – wie beschrieben – eine angesichts der technischen Reproduzierbarkeit der Bilder nachvollziehbare Furcht – und war bei der Entscheidung des Bundesgerichtshofs, wie gerade gesehen, angesichts der damit verbundenen „Herrschafts- und Manipulationsmacht“ bei diesem Rechtsstreit wohl der entscheidende Gesichtspunkt. Sieht man jedoch über diese Gefahr der Einbeziehung Dritter hinaus, kommen weitere Interessen der Frau in den Blick: die Klägerin will, dass auch der Beklagte die Bilder nicht mehr sehen kann. Welches Interesse kann sie daran haben? Geht es um den Kontrollverlust über das eigene Bild, eben nicht nur technisch gesehen, sondern zugleich und vor allem in persönlicher Hinsicht? Geht es um die Präsentation der eigenen Identität? Ist es der Gedanke, nicht nur Objekt für die Vorstellungen des Betrachters sein zu wollen? Warum aber empfindet sich die Abgebildete als Objekt – mit ihr selbst passiert doch nichts, sondern allenfalls mit dem Betrachtenden bei der Verwendung des Bildes? Und schließlich: Welches Gefühl steckt hinter alledem, das wir versuchen könnten zu rationalisieren, also in den Rechtsdiskurs mit einzubringen? All diese Fragen sind hier nur aufzuwerfen, ohne sie näher behandeln zu können. Die Mutmaßung, dass es ein diffuses Konglomerat aus Angst, Wut und Ekel, insbesondere aufgrund der gefühlten Fremdbestimmung und des Ausgeliefertseins,23 sein mag, das die Frau dazu bewegt hat, den Rechtsweg 22  Ein schönes Beispiel aus der Romanliteratur ist in Musils ‚Der Mann ohne Eigenschaften‘ das laszive Gehabe von Ulrichs Geliebter Bonadea, welches sich sofort in peinliche Scham verwandelt, als sie erfährt, dass Ulrich die Beziehung beenden will Musil (2000): Der Mann ohne Eigenschaften, S. 127. 23  Lampmann (2016): Anmerkung BGH, S. 1097.

232

Alexander Krafka

bis zum Bundesgerichtshof zu beschreiten, muss an dieser Stelle genügen. In juristischer Hinsicht führte der eingeschlagene Weg zumindest teilweise an das erwünschte Ziel: die Alltagssituationen darstellenden Bilder durfte der Geliebte behalten, die intimen Bilder dagegen musste er löschen. Ein wesentlicher Punkt dabei ist, dass das Persönlichkeitsrecht der Frau, das sich im Schutz ihrer Privat- und Intimsphäre verwirklicht, so auswirkt, dass die Einwilligung zur Erstellung und zum Behalten der Bilder auf die Dauer der Beziehung zwischen den beiden Beteiligten begrenzt war.24 Auf der Seite des Geliebten steht neben seinem Eigentumsrecht in Bezug auf die Bilder auch seine Berufsfreiheit als Fotograf, vor allem aber die Kunstfreiheit und – auch wenn dies auf den ersten Blick überraschend wirkt – sein Persönlichkeitsrecht. Der Partner einer früheren Beziehung, der die Bilder behalten will, definiert möglicherweise zumindest zum Teil seine eigene Persönlichkeit auch anhand der möglicherweise sehr intensiven Erinnerungen und Gefühle anhand der Bilder seiner ehemaligen Geliebten. Dabei kann durchaus offen bleiben, ob es sich vorwiegend um Freude oder überwiegend Traurigkeit handelt, was die Person bei dem Betrachten der Bilder fühlt. Insgesamt wirkt die Situation wie ein gordischer Knoten, der nicht wirklich lösbar ist. Welches Gefühl, welches Interesse entscheiden soll, zumal auf beiden Seiten das Persönlichkeitsrecht eine maßgebliche Rolle spielt, legt die Entscheidung auf keine Weise von sich aus fest. Wie nach der Legende Alexander der Große, so löst hier der Bundesgerichtshof den Knoten auf überaus simple, möglicherweise aber doch auch simplifizierende Weise. Das Persönlichkeitsrecht des Geliebten wird jedenfalls kurzer Hand als irrelevant eingestuft, so dass sich jede Abwägung von selbst erledigt: Das ideelle Interesse des Bekl., die Bilder zur Pflege der Erinnerung an die gemeinsame Beziehung behalten zu dürfen, kann eine schutzwürdige Rechtsposition schon deshalb nicht begründen, weil ihm der Gewahrsam an den Bildern von vornherein nur für die Dauer der Beziehung gestattet war.25

Der Kampf der Gefühle (Ekel vor der eigenen Freizügigkeit, Wut auf den ehemaligen Liebhaber und Angst vor einer Verbreitung der Bilder gegen Freude oder Traurigkeit in der sentimentalen Erinnerung an die früher geliebte Frau) wird also im Handstreich durch einen relativ einfach zu durchschauenden Kunstgriff durch den Bundesgerichtshof entschieden. Dies geschieht durch eine juristische, letztlich normativ geprägte retrospektive Konstruktion26 die gerade auch dann gilt, wenn sich der Abgebildete über die weitergehenden Folgen der Abbildung gar keine Gedanken gemacht hat. 24  Textziffer 37 von BGHZ 207, 163; vgl. auch Lampmann (2016): Anmerkung BGH, S. 1097. 25  Textziffer 42 von BGHZ 207, 163. 26  Götting (2016): Anmerkung BGH, S. 912.



Das intime Bild

233

11. Der Fall gelöst – und viele Fragen offen? In juristischer Hinsicht ist der eingangs dargestellte Fall damit tatsächlich abschließend und endgültig gelöst. Dass der dorthin führende Weg eine Vielzahl von kaum tragfähigen juristischen Konstruktionen und einigermaßen offensichtliche Leerstellen aufweist, die sich auch bei gutem Willen nur als schlecht kaschierte Verschleierungen bezeichnen lassen, macht deutlich, dass die vorliegende Problematik durch das Rechtssystem möglicherweise schon aus funktionalen Gründen nicht angemessen bearbeitet werden kann. Dessen gesellschaftliche Aufgabe ist es – zumindest aus systemtheoretischer Sicht – die Verhaltenserwartungen der Beteiligten zu stabilisieren.27 Dies scheint allerdings durchaus gelungen: der Partner einer sexuellen Beziehung muss künftig nicht befürchten, dass ungewollt Bilder aus ‚guten Tagen‘ auch in ‚schlechten Zeiten‘ auftauchen, für die sich der oder die Abgebildete dann schämt. Dennoch bleibt der Eindruck, dass das Rechtssystem zur Lösung der hier vorliegenden Fragen im Grunde unzuständig ist. Gefühle sind ein durch das Rechtssystem kaum sinnvoll lösbares Thema, da die juristische Welt einer weitgehenden Eigenrationalität unterworfen ist, für die emotionale Aspekte ebenso wie die körperliche Dimension des Menschseins allenfalls als Rauschen, keinesfalls aber als verarbeitbare Information erscheinen. Die eigentlichen Fragen des dargestellten Falls bleiben daher fast naturgemäß unbeantwortet: wie lässt sich die offensichtliche Machtfrage, ob die Bilder aus der Beziehung zum eigenen Gebrauch behalten werden dürfen, beantworten? Dass die vorliegende Situation kein Einzelfall ist, sondern durchaus weite Kreise ziehen kann, zeigt die Rezeption der Entscheidung des Bundesgerichtshofs in der juristischen Fachliteratur. So wurde etwa die Zuordnung digitaler Bilddaten auch unter Ehegatten,28 vor allem aber nach Beendigung der Ehezeit thematisiert. Im Kern jedenfalls bleibt die Frage des Zugangs und der Kontrolle bezüglich der Selbstdarstellung als Grundbestandteil personaler Identität wichtiger Bilddarstellung letztendlich ein Thema von großer emotionaler Bedeutung, das im Rechtssystem keine passende Lösung finden kann. Das Fazit also lautet: das Rechtssystem ist mit seinem Instrumentarium zwar in der Lage, die an es herangetragene Streitigkeit zu entscheiden, aber eine tragfähige Lösung der fortbestehenden gesellschaftlichen Probleme ist ihm aus grundlegend funktionalen Gründen verwehrt. In diesem Sinne ist zwar der Fall entschieden – und dennoch sind die eigentlich bestehenden 27  Luhmann

(1997): Das Recht der Gesellschaft, S. 124 ff. (2016): Zugangs- und Vervielfältigungsrechte.

28  Danninger / Seitz

234

Alexander Krafka

emotionalen Fragen nicht einmal ansatzweise berührt. Damit bleibt als Ergebnis dieses in rechtssoziologischer Hinsicht bedeutsamen Falls und seiner Entscheidung durch den Bundesgerichtshof der Eindruck, dass das Recht bislang noch keinen adäquaten Zugang zu zentralen Fragen der Privatheit und Intimität gefunden hat – und möglicherweise auch gar nicht finden kann. Bibliografie Bodin, Claudia: Der große Liebesirrtum (o. J.). URL: http://people.physik.hu-berlin. de/~bastis/ignobilis/hirnforschung.htm (zuletzt eingesehen am 20.07.2017). Danninger, Nadja/Seitz, Alexander: Zugangs- und Vervielfältigungsrechte an digitalen Bildern der Ehezeit. In: NZFam 19 (2016), S. 868–868. Fischer, Thomas: Strafgesetzbuch mit Nebengesetzen. 63. Auflage. München 2016. Geuss, Raymond: Privatheit. Eine Genealogie. Berlin 2013. Götting, Horst-Peter: Anmerkung zu BGH, Urteil vom 13. Oktober 2015, VI ZR 271/14. In: JZ 18 (2016), S. 908–912. Habermas, Jürgen: Theorie des kommunikativen Handelns. Frankfurt/M. 1987. Houellebecq, Michel: Soumission. Stuttgart 2016. Lampmann, Arno: Anmerkung zu BGH, Urteil vom 13. Oktober 2015, VI ZR 271/14. In: NJW 15 (2016), S. 1097. Lewandowski, Sven: Die Pornografie der Gesellschaft. Bielefeld 2012. Luhmann, Niklas: Das Recht der Gesellschaft. Frankfurt/M. 1997. Musil, Robert: Der Mann ohne Eigenschaften. Reinbek 2000. Rössler, Beate: Der Wert des Privaten. Frankfurt/M. 2001. Schneider, Carl: Shame, Exposure and Privacy. New York 1992. Tölle, Antje: Das Schicksal intimer Bild- und Filmaufnahmen nach einem Beziehungsende – zugleich Anmerkung zu BGH, Urteil vom 13. Oktober 2015, VI ZR 271/14. In: ZUM 4 (2016), S. 363–365. Vinken, Barbara: Angezogen. Das Geheimnis der Mode. Stuttgart 2013. Wittgenstein, Ludwig: Logisch-philosophische Abhandlung. Tractatus logico-philosophicus. Frankfurt/M. 1995.

Digital Russians’ Home and Agora The Runet between the Private and the Public Spheres Tatiana Klepikova 1. Introduction1 Today, the internet, one of the most significant markers of the postdigital2 age, connects almost every second person on the planet, with over 3.6 billion people surfing through its pages from Japan to Alaska.3 However, it would be a mistake to think that globalization has made the internet the same on every computer around the world. While the content of many web pages may seem similar in different countries, in actuality each country’s unique infrastructural, political, and cultural differences have resulted in the development of various national segments of the internet, thereby offering a rich palette of nation-specific user experiences.4 In this article, I look at the Russian segment of the internet, more commonly known as the Runet5, to analyze some of its characteristic features. 1  I would like to thank Ellen Rutten and my co-editors of this volume, Miriam Piegsa and Benjamin Heurich, for their generous comments on the first draft of this article that helped me sharpen my arguments and stimulated further ideas. I also express gratitude to Sarah Lillibridge for her insightful suggestions on the improvement of the article’s language. 2  The term ‘postdigital’ rethinks the 21st century as a time, when digital technology stops being a novelty and is rather perceived as a common part of everyday life. See, e. g., Berry and Dieter (2015): Postdigital Aesthetics. The usage of the prefix ‘post-’ is thereby different here from the one in the term ‘post-privacy’, which refers to the epoch when technology made the protection of privacy almost impossible, therefore marking the era that allegedly goes forward ‘without privacy’. See, e. g. Gotlieb (1996): Privacy; Heller (2011): Post-privacy. 3  Internet Live Stats (2017): Internet Users. 4  Linor Goralik, one of the most prolific young writers on the Runet, spoke in 1999 about “ethnets” [etnety] pointing at the parallel processes of internationalization and ethnicization of the Internet. See Goralik (1999): Etnety. Adi Kuntsman also dwelled on the “persistence of the national symbolic in what many people see as the de-territorialized, and therefore essentially nationless and borderless, frontier of cyberspace”. See Kuntsman (2009): Figurations of Violence and Belonging, p. 17. 5  ‘Runet’ is an acronym, deriving from the collocation the ‘Russian Internet’. When I use the term ‘Runet’ in this article, I refer to the general understanding of the

236

Tatiana Klepikova

The Runet can be seen as the global internet’s younger brother: the domain .ru was first allocated on April 7, 1994 to a Russian military company,6 and the poor economic situation in Russia in the 1990s prevented the internet from spreading quickly. By 1999, only 1 % of the country’s population was connected to the global net.7 The year 2001 witnessed the first blog post in the Russian language, which also marked the beginning of the Russianspeaking communication on the web.8 Between the years 2000 and 2016, the number of Russian users of the internet grew from 1 % of the country’s population to 70 %,9 making the Runet roughly 16 years old today. Despite its relatively young age, the Runet has already attracted a significant interest among researchers who have been exploring its cultural, political and creative components.10 In many ways, the Runet’s development has repeated the trends of its global counterpart. When it comes to things like social networking, blogging, and vlogging, reading the news, streaming films and searching the web, an internet user’s experience in Los Angeles is not very different from that of his or her counterpart in Moscow.11 However, there are some variations in user experience, which I would like to elucidate in the present article. Without claiming that the practices examined in this article are Runet-specific, I do emphasize that they build the specifics of the Russian internet. My particular interest as a scholar of privacy lies in exploring the ways the private and the public spheres have developed online in a context that is different both culturally and politically from the traditionally addressed Western liberal democratic frameworks. I therefore address here the dual function of the Runet as a private and a public sphere, elucidating users’ practices and the Runet’s patterns of development that characterize each of them. Runet as, on the one hand, a complex of websites hosted at the domain .ru, and, on the other hand, as the Russian-speaking community on the web. 6  Idlis (2010): Runet. 7  Estimated by the United Nations Statistics Division (2017): UNdata. For comparison, in 1999, the Internet penetration was 35,8 % in the USA, and 20,8 % in Germany (ibid.). 8  Idlis (2010): Runet. 9  Internet Live Stats (2016): Russia Internet Users. 10  See, e. g. Brunmeier (2005): Das Internet in Russland; Gorny (2009): A Creative History of the Russian Internet; Gorham / Lunde / Paulsen (2014): Digital Russia; Nikiporets-Takigava / Payin (2016): Internet i ideologicheskie dvizheniia v Rossii. An important digital project dedicated to the study of the Runet is the online journal ‘Digital Icons’, whose issues have focused on various facets of the Runet since 2008. Accessible online under www.digitalicons.org. 11  For the worldwide emerging practices in cyberculture and social networking see, e. g., an edited volume by Riha / Maj (2010): Emerging Practices in Cyberculture and Social Networking.



Digital Russians’ Home and Agora

237

While academic studies of the traditional dimensions of the private / public dichotomy in the Russian context have witnessed a number of contributions over the past thirty years,12 research of their digital counterparts has remained painfully scarce. In 2007, Eugene Gorny framed the Russian internet in terms of another well-known public sphere, comparing it to the kitchen table-talk culture and to the samizdat13 experience of Late Socialism, which, as he claims, seem to have re-emerged in cyberspace.14 Henrike Schmidt, Katy Teubener and Natalja Konradova provided an insightful contribution on the public and private usages of the Russian internet in 2006 in their exploration of the Runet’s backgrounds, virtual communities, and internet aesthetics.15 These exciting endeavors, however, have not been continued on a systematic level over the past decade. Therefore, in this article, I would like to suggest a 2017 update on how the analog dimensions of the private and the public spheres have settled within Russian digital space. The Runet per se is neither a private nor a public space. It is the diverse activities of users that endow it with the characteristics of either the former or the latter at any given time. The same user can be surfing the net privately at one moment and publicly just a few minutes later. Therefore, the designation of a private or public sphere does not stem from the platform or the website the user is on, but from the way that he or she is using it. I begin by examining popular practices among digital Russians that represent the function of the Runet as a private sphere. Global trends of building communities on social networks and conducting private diaries in the form of blogs and vlogs are also present on the Runet, but their re-contextualization within Russian culture, in addition to their later arrival on the scene, has resulted in some difference from their Western counterparts. How does an impersonal public global web turn into the Runet? What makes Russian users feel comfortable online, as if they were in their ‘second home’? What are the patterns that characterize the ‘private side’ of the Runet?

12  Most significant contributions to the studies of the private and public dimensions in Russia include Shlapentokh (1989): Public and Private Life of the Soviet People; Boym (1994): Common Places; Utekhin (2004): Ocherki kommunal’nogo byta; Grigor’eva, Schahadat, and Smirnov (2005): Nähe Schaffen, Abstand halten; Siegelbaum (2006): Borders of Socialism; Ritter (2008): Alltag im Umbruch; Trudoliubov (2015): Liudi za zaborom. 13  Samizdat, literally translated from Russian as ‘self-publishing’, refers to a late socialist (1950s–1980s) practice of a manual reproduction of literary texts that could not be published officially due to their censored contents by printing them on a typewriter and distributing copies among friends to read. 14  Gorny (2007): The Russian Internet. 15  Schmidt / Teubener / Konradova (2006): Control + Shift.

238

Tatiana Klepikova

In the second part of the article, I turn to exploring the Runet’s simultaneous function of a public sphere, understanding the latter in Habermasian terms as a sphere where democratic processes take place via popular deliberation.16 This idea draws its origins from Ancient Greece, where Athenians used to gather in the city center, in the designated open space called ‘Agora’ to debate their problems, but it finds little application in the Russian context, where democracy is sometimes referred to as “guided” or “managed”.17 Sarah Oates further elucidates the digital dimensions of the problem when she emphasizes the importance of the media and of political systems in shaping national segments of the internet in her book Revolution Stalled: The Political Limits of the Internet in the Post-Soviet Sphere.18 I therefore ask: What are the opportunities that the Runet provides to its users in comparison to those offered in the offline public sphere? What are the dangers of raising one’s voice online? Looking at the recent developments on the Runet, I explore the patterns that guide and regulate the digital dialogue between Russian netizens and the State. The constant evolution of the internet makes it one of the most unpredictable phenomena of the contemporary world. Realizing the impossibility of envisioning the exact way the Runet may look like in five or ten years, I will attempt to outline the patterns and directions of its development in the nearest future in the conclusion to this article. What is the future of the Runet as a part of the global system, and how might the changing world affect its private and public functions? 2. ‘Digital Homes’: Building the Russian Private Sphere Online The privatization of the public sphere happens every day: people arrange themselves comfortably in street cafés, and they bring in plants and photos of their loved ones to their workspace. In sociologist Erving Goffman’s view, such behavior is often inspired by the individual’s innate impulse to approximate the inimical public sphere to the coziness, comfort and safety of the private one.19 This pattern finds no exception in the digital dimension, where the privatization of the internet starts with the personalization of a 16  Habermas

(1962): Strukturwandel der Öffentlichkeit. (2006): Svastika, krest, zvezda. 18  Oates (2013): Revolution Stalled. 19  According to his theory, this perception of the public sphere as inimical is primarily provoked by the inevitability of contact with multiple others, which one can escape in the private sphere. In public, one is obliged to restrain oneself to comply with the social norms, abstaining from various activities, which would have been possible within the private sphere. Goffman (1971): Relations in Public. 17  Ryklin



Digital Russians’ Home and Agora

239

user’s browser and the arrangement of settings on his or her most frequented websites in a desirable way (choosing color themes, customizing the menu, etc.). However, there is much more to the privatization of the internet than these minor adjustments. What interests me in the present article is not the individual privatization of the web, but a national one. In the case of the Runet, it is even a supranational one, for its users include not only Russian citizens, but also representatives of other nations, mostly from the post-Soviet space, who also speak Russian. Which patterns of user behavior and technological adjustments characterize the Runet? How do its users turn the global net into their private space, a ‘digital home’ for each and every Russian speaker simultaneously, where everyone feels comfortable and cozy? Henrike Schmidt and Katy Teubener were among the first to address a similar line of the Runet’s exploration in their article “Our RuNet”? Cultural Identity and Media Usage, in which they dwell on “patterns of appropriation” – a combination of technological and mental efforts to cope with the arrival of the novel concept ‘global web’ into the Russian context in the 1990s.20 While I find their view extremely helpful and partially integrate it into the present article, and provide an update on technological processes of the Runet, I shift the focus from Schmidt and Teubener’s examination of theories that either inscribe the internet into the Russian mentality or alienate it from the latter, towards the exploration of specific practices and lines of online behavior that characterize the Runet as a ‘digital home’. The first pattern to address is the ‘ethnicization’ of the Runet.21 In its early days, the Runet heavily relied on existing global infrastructure in order to develop. At first, most websites created by Russian-speaking users fell into two categories: they were either reviews of national and international news made in the Russian language22 or Russian users joined global websites (like LiveJournal), and built their own small communities there. As the computerization of Russia grew, the interest and need to develop websites that would offer Russian users similar services as global websites, increased. This need was heightened, among others, by the limited foreign language skills of the majority of Russian users, who often had difficulty mastering English interfaces. 20  Schmidt / Teubener (2006): “Our RuNet?”, pp. 15–16. They regard the adoption of the internet by the Russian society in terms of two parallel processes: technological adoption (introduction of the Cyrillic encoding that enables users to write texts in Russian) and the “inscription on a cultural-semantic and semiotic level” (ibid., p. 16). The latter is performed either in the Slavophile tradition (the internet with its communicative and collective message is perceived as a soulmate phenomenon of the Russian culture and mentality) or in the one of Westernizers (the internet is seen as a chance to overcome national constraints and join the global community). 21  Cf. supra note 4 on the rise of the ‘ethnets’. 22  Idlis (2010): Runet.

240

Tatiana Klepikova

Today, the possibilities of surfing the internet in Russian are vast. Russian search indexes have existed since 1997, the most popular of which is Yandex, which accounts for over 50 % of all searches made in Russia.23 The year 1998 brought the e-mail service Mail.ru, where today over 80 % Russians are regi­ stered and over 40 % use it actively. Soon, e-mail services by Yandex.ru and Rambler.ru followed, making them the second and third largest national email services respectively.24 Since 2006, Rutube offers access to a wide range of videos different from YouTube, particularly when it comes to newly aired episodes of TV shows and series. The Russian analogue of Facebook is the social network VKontakte, literally meaning ‘InContact’, or ‘in touch’ in Russian. Inspired by Facebook, Pavel Durov launched it in 2006.25 Initially started as a rival of another simultaneously launched social network, Odnoklas­ sniki [Classmates], VKontakte quite soon conquered the Runet’s terrain. ­Today, with more than 380 million registered users (65 % of whom live in Russia and 80 million of whom are active on a daily basis),26 it is not only the largest social network in the post-Soviet space, but also the most visited Runet website.27 For a long time, the pure advantage of VKontakte and Odnoklassniki over Facebook consisted in their Russian interface, which did not require any foreign language skills from their users (Facebook was not offered in Russian until 2008 and therefore lost the battle for the internal Russian market). A further step in the ethnicization of the Runet is its complete cyrillization, which Schmidt and Teubener anticipated as early as 2006.28 On May 12, 23  Data

provided by their own website. See Yandex (2017): Yandex–Mission. (n. d.): Reiting populiarnosti. 25  When VKontakte appeared in 2006, it highly resembled Facebook, although Durov claimed that many features, including the source code were different. However, the similarities of design and the aims of the website proclaimed on the front page are hard not to spot, which can be done with the help of the Wayback Machine created by Archive.org, which allows to see cashed versions of websites from more than 20 years ago. See Archive.org (n. d.): Internet Archive Wayback Machine. According to the database, VKontakte started in 2006 as a “closed reference book of students and former alumni of Russia’s universities”, turning a year and a half later into a “universal tool to look for one’s acquaintances”. Significant change of design followed in the early 2010s, diversifying VKontakte from Facebook both visually and internally, and might have been caused by the owners’ preparation for the internationalization of their network: first available only in Russian at www.vkontakte.ru, it is accessible today in 85 languages at the domain www.vk.com. 26  Data provided by their own website. See vk.com (2017): Auditoriia VKontakte. 27  Rating data taken from SimilarWeb (2016): Top Websites in Russian Federation. Odnoklassniki lost many of its users to VKontakte due to the introduction of the paid registration in the crisis year of 2008. The network lifted the payment in 2010, now counting about 50 million visits daily. Estimated by Liveinternet.ru (2017): Site Statistics ‘Odnoklassniki.ru’. 28  Schmidt / Teubener (2006): “Our RuNet?” 24  Konsalt-Tsentr



Digital Russians’ Home and Agora

241

2010, the first two websites were registered at the domain .рф29: президент. рф ([president.rf], the official website of the president) and правительство. рф ([pravitel’stvo.rf], the official website of the government).30 The launch of this domain name now allowed users to surf some websites on the Runet without switching to an English keyboard at all. If the introduction of Russian analogues of foreign websites put a user into a symbolic ‘digital home’, the complete cyrillization may be seen as an offer to put on tapochki – comfortable slippers that Russians traditionally wear at home instead of street shoes. As of January 1, 2017, over 800,000 websites were hosted at the .рф domain, and their number is constantly growing.31 Once ‘digital homes’ such as VKontakte, Odnoklassniki, etc. were created, they had to be furnished, Russian style. I will focus here on social networks rather than e-mail services or search engines, and will unravel the features that make these services so desirable for users to come back to and leave their offline homes for their digital ones. While Facebook’s main tools are chats and news feeds, VKontakte and Odnoklassniki offer their users a more versatile experience on top of the basic set of functions of their foreign counterpart. A long-lasting flexible interpretation of copyright laws by Russian internet users32 has led to the rise of large video and music platforms hosted within their favorite social networks. VKontakte is one of the largest resources of music and video uploaded by users themselves, which are available to all registered users free of charge. Odnoklassniki provides free access to streaming popular radio and TV channels. It is a close approximation to one’s home: you can ‘invite your friends over’ by sending them a message, chat with them, listen to your favorite music and watch a movie – all without leaving one platform. Taking into account the reluctance of one of the largest

29  .рф [.rf] is an abbreviation from the ‘Russian Federation’ in Russian. Two other domains attributed to the Russian Federation are .ru (short for ‘Russia’) and .su (short for ‘Soviet Union’). 30  RBK (2010): Etoi noch’iu. 31  Koordinatsionnyi tsentr natsional’nogo domena seti Internet (2017): Domeny Rossii. 32  Despite the fact that copyright laws are strongly embedded in the Russian Civil Code (art. 1255–1302), the protection of intellectual property remains one of challenges that the Runet raises. E. g., in April 2017, the Office of the United States Trade Representative published a yearly report on intellectual property rights in the world, where they indicated the inefficiency of the Russian state enforcement agencies in combatting crimes against copyright infringement. As the report claims, while authors are confronted with bureaucratic obstacles when filing a lawsuit to protect their intellectual rights, those who disseminate pirate content are never prosecuted, only the websites with pirate content are blocked by court decisions. See Office of the United States Trade Representative (2017): 2017 Special 301 Report.

242

Tatiana Klepikova

music platforms, Spotify, to expand to the Russian market,33 and the unsuccessful arrival of Netflix on the Russian market in January 2016,34 the chances that VKontakte and Odnoklassniki will remain the primary ‘digital homes’ of many Russians are high. How do Russians behave inside of these newly created ‘homes’? One of the patterns to mention here is the transfer of the real-life practices into virtual reality. The internet knocked on Russians’ doors when most of the world was already intensely communicating with one other, giving the Runet little time to catch up with the global experience. The lack of state-sponsored education in online literacy35 and Russia’s relative isolation from the global community at the time, often conditioned by users’ insufficient language skills, made catching up with international practices particularly complicated. In such conditions, users came to substitute online skills that they were mis­ sing with what they felt to be their proper offline equivalents. A vivid example would be the communication practices on VKontakte. Every VKontakte user has the possibility to trace the status of one’s instant messages, including the confirmation of reading. While the tacit ethical code of Facebook prescribes that one can take any time to reply, this is not always the case in VKontakte. Once a message is read but left unanswered, the recipient will often start to get follow-up messages, nudging him or her to engage in conversation immediately and hinting, either directly or indirectly, at either his or her having read the message or, at least, having been marked ‘online’.36 This behavior, which may seem unusual to many non-Runet users, is a typical example of the absence of the distinguishable line between online and offline communication rules: messaging becomes an equivalent to face-toface oral communication, where the reluctance of the interlocutor to answer within several seconds or minutes equals a reluctance to talk in general. Another pattern, which is to some extent a continuation of the one mentioned above, is a deeper level of intimacy between users on certain websites, 33  Baird

(2015): Spotify Abandons Russian Launch Plan. (2016): Netflix’s Desire for World Domination Reaches Russia. 35  Natal’ia Gendina, a Russian scholar of information culture, points out that current Russian education in information technologies at schools is directed at mastering basic computer skills rather than at teaching to cope with and seamlessly navigate in the complex digital world. See Gendina (2013): Informatsionnaia kul’tura i mediagramotnost’ v Rossii. 36  This feature of VKontakte came particularly handy during the Crimean conflict in 2014, allowing civilian sousveillers – a phenomenon, explored later in this article – to trace the movements of the Russian army by checking online activities of soldiers, whose whole platoons stopped appearing online for a long time on the same date. This and further examples of using social networks for sousveillance are discussed in Soldatov and Borogan (2015): The Red Web, pp. 307–310. 34  Hartog



Digital Russians’ Home and Agora

243

e. g. Russian LiveJournal. Similarly to how it developed in the United States in the 1980s, the Runet started in mid-1990s with a limited number of users who mostly lived in Moscow, Saint Petersburg, Israel and Estonia, and who, after posting reviews of the daily news on the web, gathered in each other’s flats to continue online discussions offline.37 In the early days of the Runet, one could literally ‘put a face’ on every digital user, which, as I believe, led to the development of a pattern of socialization, where a faster and easier transfer to a more personal level of communication has developed. This was later overtaken by users who did not necessarily know each other offline. In the last ten years, similarly to how it earlier happened in the United States, the situation on the Runet has changed: the massive arrival of new users resulted in a blurring of the feeling of an online home where everybody knows everybody. However, the pattern of behavior, where users easily confide details of their personal lives (sometimes quite intimate ones) to complete strangers who are their virtual friends, persevered on some websites, e. g. on the Russian LiveJournal, the cradle of the ‘communicative’ Runet. According to Austrian Runet researcher Gernot Howanitz, users on this platform are like neighbors in the kommunalka, a Soviet-born communal flat: they might barely know each other, but they can still ask for advice or help, share experiences, and survive a neighborly drama – all in comments to one blog post.38 The effect that arises from the four above-mentioned patterns that characterize the private side of the Runet is one of déjà vu – of something already seen or lived through. The Runet becomes a digital ‘cousin’ of the Russian offline private sphere endowed with the possibility of recreating one’s feeling of ‘home, sweet home’ with just one click. The nostalgia that the Runet evokes in some users and researchers is the cumulative effect of the four above-mentioned patterns, and is itself the fifth pattern that characterizes the ‘private side’ of the Runet. Polish researcher Bartosz Gołąbek compared the Russian speaking digital space to the former USSR because it erased the borders established between the CIS states in 1991, and thereby facilitated an interrupted dialogue between the nations across the former Union.39 The Runet therefore has become, for some, a renewed version of a larger home to many Soviet nations that was once lost and has now been restored online. VKontakte, for example, capitalized on such nostalgic inclinations towards Soviet times when it introduced the Sovietspeak among its languages in 2010. By switching to this language, the user can re-construct his VKontakte space in terms of the long-gone epoch: VKontakte becomes VSoiuze [In the Union], and sub-categories are also subsequently renamed  – ‘friends’ turn 37  Idlis

(2010): Runet. Howanitz (2014): Kommunalka 2.0. 39  Gołąbek (2014): Anatomia “Runetu”. 38  Gernot

244

Tatiana Klepikova

into ‘comrades’, ‘messages’ into ‘telegrams’, ‘music’ into ‘vinyl discs’, etc. The users thereby can be taken back virtually to the living rooms of their own homes, where tend use to watch popular Late Soviet comedies, repeatedly broadcast on TV on public holidays, together with their families. While the patterns mentioned above may be different from the practices that some Western users demonstrate online, there is one practice, in which their behavior is relatively similar. The last, but not least of the patterns that frame the private sphere on the Runet is the users’ negligence toward their own privacy online and toward their digital rights. Although Edward Snowden’s revelations increased public awareness of potential privacy violations, many users still remain oblivious to infringements of their personal privacy rights and do not consider themselves as targets for such violations, with privacy advocacy left to few devoted individuals.40 However, although the problems faced by Russian users on the web are similar to those of their global counterparts (e. g., multiple privacy violations by Google and Facebook), they tend to demonstrate even less concern about these violations. This attitude became particularly pronounced in July 2016, when the socalled ‘Iarovaia’s law’ was adopted in Russia. The law, named after the MP who drafted it, comprises a number of amendments to already existing Russian legislation and is directed at the improvement and expansion of antiterrorist measures. Amongst other things, it legalizes the collection and storage of any data originating from Russian users via the internet or mobile phone and mandates that the telecommunication providers store all metadata for 3 years, and the actual content of communications for 6 months, and that such information be available to the Russian security service at court order. Most of the protests against the law, raised by the Russian internet community shortly after the law draft surfaced in the parliament readings, were directed at the costs of its implementation for telecommunication companies, rather than at the violation of privacy that it would involve.41 On the one hand, a lesser emphasis on privacy in this case can be explained by Russians’ general belief in the fact that ‘the State knows everything about everyone anyway’, which stems from the Soviet times when mass surveillance of KGB and its forerunners was well-known. On the other hand, forwarding the mon40  One of the examples here is the lawsuit that an Austrian student Max Schrems filed against Facebook in 2011, in which he complained about insufficient protection of his user data by the company. Not only did the EU Court of Justice rule in his favor, but the ruling also led to the revision of the EU-US Safe Harbor Principles, that had regulated the transfer of customer data from the EU to the USA. See Court of Justice of the European Union (2015): Press Release No117 / 15. 41  One of such petitions was published at the Change.org website, which is an international platform for petitions. See Change.org (2016): Otmena ‘Paketa Iarovoi’. For full text of the law, see Prezident Rossii (2016): Federal’nyi zakon.



Digital Russians’ Home and Agora

245

etary argument can be a smart move to achieve more sympathy from the debating MPs than one would have got with the privacy argument. Taken all together, at first sight the Runet appears as a state-of-the-art home that, upon closer inspection, bears a thin post-Soviet coating on the interior, made up of old habits that take time to change. If one were to picture the Runet as a house, the choice between a detached Western-type building and a good old Soviet-style kommunalka would probably not even arise on the horizon: the spirit of the latter still strongly dominates the Runet. Despite the fact that the Runet enthusiasts of the earlier years gave way to new, younger tenants from the generation of digital natives, the latter do not rush to wipe out existing structures. They rather combine the new possibilities offered by the media space on everyday basis with the capitalization on the well-familiar patterns, inherited from their parents and predecessors. 3. The 21st Century Agora: The Runet as a Dislocated Public Sphere In 21st century Russia, where political institutes are fragile and authoritarianism is growing, many have welcomed the Runet and placed in it their hopes of the possibilities it could provide for the development of the Russian public sphere. Some have called it a “counter public sphere”42, a sphere of “active citizenship”43, “a school of citizenship for Russians” or “the cradle of civil society”44.45 Others, however, have remained skeptical about Russia’s possibility to develop a strong public sphere online without having a secure offline basis.46 In my opinion, the Runet does provide broader possibilities for deliberative democracy than the offline Russian public sphere does. I see it as a public sphere where a more qualitative debate takes place in comparison to 42  Schmidt

net.

and Teubener (2006): (Counter)Public Sphere(s) on the Russian Inter-

43  Misnikov (2012): How to Read and Treat Online Public Discussions among Ordinary Citizens Beyond Political Mobilisation. 44  Rogoża (2012): The Internet in Russia. 45  In the West, such hopes fueled the doctrines of cyber-utopianism and Internetcentrism, which place their emphasis on coping with authoritarian regimes via enhancing internet activism. Evgeny Morozov deconstructs them in his book ‘The Net Delusion’, pointing at the incommensurability of the hopes that are placed on the role of the Internet in authoritarian societies with the reality of more complex internal political and social structures that these societies demonstrate. See Morozov (2011): The Net Delusion. 46  See, e. g. Gorny (2007): The Russian Internet; Etling et al. (2010): Public Discourse in the Russian Blogosphere.

246

Tatiana Klepikova

the traditional counterpart. This quality arises, inter alia, from media pluralism that reigns online in comparison to the domination of state-owned media in the traditional Russian public sphere, that is to say, television and print media.47 Nevertheless, I regard the Runet as a dislocated public sphere, acknowledging the argument of the aforementioned Eugene Gorny, Bruce Etling and others that society should be able to construct a public sphere offline, one that would use the internet as an additional extension, but not as a primary dimension. Moreover, the recent advancement of the internet in Russia and its increased role in cultural, social and political life has led to the expansion of offline repressive practices towards the online content as well. In what follows, I will trace recent developments in the Russian dislocated public sphere, examining both grassroots and state initiatives that have shaped the Russian online agora, as we know it today. The Runet offers numerous possibilities to challenge the state-dominated offline mediascape. YouTube is home to a number of channels offering alternative interpretations of Russian political and social life. One of them is the project Citizen Poet [Grazhdanin poet], where the actor Mikhail Efremov performs political poems written by an ardent state critic Dmitrii Bykov.48 Another even more popular channel (with over 717.000 subscribers) is the channel of Semen Slepakov, a popular comedian from the Russian TV program Comedy Club. Among the videos posted online are some with the songs that openly criticize the current political situation in Russia: The Song of a Russian Official [Pesnia rossiiskogo chinovnika] exposes the corruption and apathy of Russian authorities and comments on their fear of Vladimir Putin; The Song about Oil [Pesnia pro neft’] dwells on the strong dependence of the Russian economy on oil prices and puts the blame for the budget deficit on the oil mafia allegedly stealing all of the profits; and Addressing the People [Obrashchenie k narodu] mimics the most famous meme of 2016  – “There’s no money, but just hang tight!” [Deneg net, no vy derzhites’!] – originating from the Russian Prime Minister Dmitrii Medvedev.49 Since March 2017, YouTube has also hosted the channel Naval’nyi LIVE, which broadcasts videos from the team of Alexei Naval’nyi, the Russian opposition politician who is currently struggling to get the ballot for the up47  Yochai Benkler regarded prosumerism, i. e. the possibility of any user to produce online content, as one of the main benefits of the networked public sphere, for the latter provides a more evenly distributed access to media power than the traditional public sphere does. See Benkler (2006): The Wealth of Networks. 48  The channel has over 74.000 subscribers and is available at GrazhdaninPoet (n. d.): GrazhdaninPoet – Youtube. 49  Slepakov (2013): Pesnia rossiiskogo chinovnika; Slepakov (2015): Pesnia pro neft’; Slepakov (2016): Obrashchenie k narodu.



Digital Russians’ Home and Agora

247

coming presidential election in 2018.50 His organization, the Fund on the Fight against Corruption [Fond Bor’by s korruptsiei, short: FBK],51 runs a number of projects that sponsor investigative journalism. The increasing participation of users in diverse sousveillance52 practices is one of the brightest characteristics of the ‘public side’ of the Runet. FBK itself conducts independent investigations that reveal numerous cases of corruption among highest Russian officials and publishes them online. One of the Fund’s subprojects, RusPit [RosIama], encourages users to post videos and photos from roads that need repairing, and transfers this information to the respective authorities responsible for the road maintenance.53 Another project, RusSaw [RosPil], deals with the illegitimate usage of state funds for personal aims.54 In addition to these FBK-run projects, another example of an independent public platform is RusPrisoner [RosUznik], which transfers users’ letters to Russian political prisoners of their choice.55 While these initiatives can be viewed as progressive, they remain too few in number to declare the Runet a space of freedom, particularly in Russia, where freedom is rarely understood in terms of freedom of speech, but rather as a chance “to do the thing that you like to do”, as recent polls reveal.56 Along the lines of the original idea of the agora comes the project Open Library [Otkrytaia biblioteka], which organizes and broadcasts polyphonic debates online, giving voice not to one, but to many speakers. This initiative, originally organized in Maiakovskii library in Saint Petersburg in 2012, began in the form of round tables, discussions and festivals. In 2014, an event called Dialogues [Dialogi] became the highlight of the project. It is structured as a discussion among several prominent personalities, who critically assess Russian cultural, social and political life from opposite points of view – all as “an attempt to bring together people of fundamentally different 50  Alexei Navalnyi used to write his blog in the Russian LiveJournal, but on the threshold of his presidential campaign moved to a personal website. See Navalny (n. d.): Alexei Naval’nyi; Alexei Naval’nyi (n. d.): Naval’nyi. For his YouTube channel, see Naval’nyi (n. d.): Naval’nyi LIVE – Youtube. 51  For their website, see FBK (n. d.): Glavnoe. 52  The term ‘sousveillance’ was introduced by Steve Mann to denote a surveillance of citizens over the state, in opposition to the state surveillance over the citizens. See Mann (2011): Sousveillance. 53  FBK (n. d.) RosIama. 54  FBK (n. d.): RosPil. 55  RosUznik (n. d.): Pishite pis’ma politicheskim zakliuchennym. 56  Russian research company Romir carried out a survey in May 2016, where it asked the respondents to define freedom. The most popular answer was “a chance to do what you love to do”, with every second respondent giving such an answer. “A chance to openly express one’s opinion” finished second with every 3rd respondent defining freedom in such a way. See Romir.ru (2016): Chuvstvo svobody.

248

Tatiana Klepikova

views into one building”, according to the organizers.57 Anyone can come and listen to the Dialogues for free. According to Radio Svoboda, the project was under pressure from authorities, who disliked its critical character, which finally led to its temporary closure in July 2016.58 The Dialogues had to relocate to Riga, where the Latvian National Library opened its doors for them just a month later. While in Russia, the Dialogues had been broadcast live by the Radio station Ekho Moskvy and the TV channel Dozhd’, two oppositional Russian media outlets. Once abroad, the Runet became their platform, and the Dialogues were broadcast online via YouTube from Riga on August 27, 2016. Since 2017, the Dialogues have been back to Russia, where they take place once a month in various locations in Saint Petersburg, broadcast online on YouTube. This vibrant online public life of the Russian netizens has not passed unnoticed by the state, although the latter entered the online public sphere much later. It was not until then-president Dmitrii Medvedev’s administration in 2008–2012 that the Russian state realized the political potential of the internet and actively commenced to extend its presence online.59 After his trip to Silicon Valley in 2010, Medvedev opened a personal as well as an official Twitter account,60 and started to continuously encourage state officials to engage in digital communication with the electorate. Today, not only are most state officials of different levels present online via their official social networks accounts, but the state has also launched a number of digital initiatives that make clear that an increase of its presence online is one of its top priorities. Medvedev’s trip inspired the creation of the Russian innovative research center in Skolkovo in 2010, which the state claims to be ‘the Russian Silicon Valley’. In 2015, the Institute of the Development of the Internet [Institut Razvitiia Interneta] was created, among whose main tasks is the creation of Russian software capable of substituting Windows. In July 2014, Dmitrii Marinichev was appointed as an internet-ombudsman specifi57  Otkrytaia

biblioteka (2017): Dialogi. Svoboda (2016): V Peterburge ‘Otkrytuiu biblioteku’ vynudili zakryt’ proekt ‘Dialogi’. 59  Although Medvedev’s administration was the one that actively pushed the development of the internet in Russia, first steps had already been made by the previous administration of Vladimir Putin. For example, shortly before leaving the office in 2008, he signed the ‘Strategy for the Development of an Information Society in the Russian Federation’ that set state priorities in the digitalization of the Russian society. See RG.ru (2008): Strategiia razvitiia. 60  Henrike Schmidt pointed out that each account was used differently: the official one informed followers about Medvedev’s activities as the president, and the personal one uncovered his private interests to the followers. See Schmidt (2012): The Triple P of RuNet Politics. Such media strategy might have been designed in order for the state message to reach a broader audience. 58  Radio



Digital Russians’ Home and Agora

249

cally charged to deal with violations of businessmen’ rights inflicted by the state regulation of the internet. In January 2016, German Klimenko was appointed as the advisor to the President on the matters of internet and thereby strengthened the presidential ‘internet-team’. An increasing number of bureaucratic procedures have also become available online, from applying for a passport to submitting a tax form.61 These changes can be seen as merely parts of a larger-scale transformation of the state net politics, which has led to what Ronald Deibert and Rafal Rohozinski define as the ‘third-generation control of the internet’. The researchers claim that a more sophisticated approach to controlling the internet consists in stimulating an influx of users instead of denying access to the internet, with a simultaneous increase in the usage of internet for propagating the state’s message.62 One direction that the state has taken in improving its online image is an increase in governance transparency. A popular initiative of the Russian state in this field is the Russian public initiative [Rossiiskaia obshchestvennaia initsiativa, short: ROI], which was launched in 2012 as a counterbalance to the internationally popular website www.change.org (yet another example of the ethnicization of the Runet). It complements the above-mentioned grassroots sousveillance initiatives by a state-sponsored channel for petitions, which anyone can start at www.roi.ru. After collecting 100.000 votes, the petition is directed to the authorities responsible for solving the problem outlined in the initiative. While this may sound good in practice, unfortunately, there are no statistics available on the outcome of the expert reviews of the initiatives (i. e., how many petitions have been submitted, reviewed, approved or declined).63 Fittingly, as Gregory Asmolov argues, the implementation of the information and communication technologies by the Russian state should rather be seen as virtual Potemkin villages than as a genuine attempt to solve the nation’s problems. He asserts that such initiatives are “not used to improve the state’s capacity to implement decisions and provide governance to its citizens, but rather to conceal the state’s inaction in response to emerging problems”.64 Asmolov’s point becomes particularly resonant when one considers the number of so-called ‘prohibitive laws’ [zapretitel’nye zakony] that the state 61  Most of these services are available via the state website Gosuslugi (n. d.): Portal gosudarstvennykh uslug Rossiiskoi Federatsii. 62  Deibert / Rohozinski (2010): Control and Subversion in Russian Cyberspace, pp. 27–28. 63  This intransparency of the supposed-to-be-transparent politics even provoked a petition on ROI to create a tool for statistical evaluation of the website performance, which, however, did not collect enough votes for the action to be taken. See ROI (2016): Razmestit’ na portale ROI schetchik. 64  Asmolov (2014): The Kremlin’s Cameras and Virtual Potemkin Villages, p. 31.

250

Tatiana Klepikova

has enacted in the past few years, most of which are characterized by broad definitions that are subject to interpretation.65 These laws address a wide range of domestic and international issues, and they have often been used to censor political activism and cultural expression.66 While at first they mostly affected practices in the offline world, they have recently been applied in the online world with increasing frequency. In February 2017, the international human rights group Agora published a report on internet freedom in Russia in 2016, providing it with the title A State of War.67 The report lists numerous cases of hacking the accounts of political opposition members, violent crimes, threats and criminal cases against Runet journalists and bloggers as well as ordinary citizens and expresses concerns about the enforced nationalization of Russian traditional and internet media and about the potential future isolation of the Runet.68 The near limitless possibilities for the government to monitor online content and the almost inevitable identification of individual Runet users by the police have resulted in a number of onlinesparkled civil and criminal cases that were built in Russia in the last five years.69 The most famous examples of the year 2016 include the case of Alexei Kungurov, who condemned the Russian military campaign in Syria in his blog post Whom Are Putin’s Falcons Bombing? [Kogo bombiat putinskie sokoly?], or the famous blogger Anton Nosik’s post in favor of the Russian military campaign in Syria Wipe Syria out from the Face of the World [Steret’ 65  Among these laws are, e. g., the 2012 law on the public gatherings [zakon o mitingakh] and the law that prohibits foreign citizens to adopt Russian children, labeled as Dima Iakovlev’s law [zakon Dimy Iakovleva]; the 2013 law on insulting the feelings of believers [zakon ob oskorblenii chuvstv veruiushchikh]; the 2013 law on the prohibition of LGBT propaganda among minors [zakon o zaprete propagandy gomoseksualizma]; and the 2014 law on bloggers [zakon o blogerakh]. 66  Just a few examples of their implementation include the famous case of Pussy Riot in 2012, iterative arrests of the oppositional artist Petr Pavlensky throughout the 2010s, the prohibition of the opera Tangeizer in Novosibirsk in 2015, the cancellation of a number of rock festivals in Moscow in summer 2016 and in February 2017, and the infamous investigation into Alexei Uchitel’s 2017 film Matilda, not to mention a persevering scrutiny of all forthcoming public gatherings organized by the political opposition since 2012. 67  Agora (2017): Rossiia. Svoboda interneta 2016. 68  In their annual report on the freedom of the net, Freedom House voiced similar concerns downgrading Russia’s rating in 2016 due to enforcing laws that “undermine the security of encrypted communications and increase authorities’ access to user data”, and due to a “dramatic hike in arrests of social media users” and “an unprecedented number of attacks registered against social media users.” See Freedomhouse. org (2017): Russia: Country Report 2016. 69  These possibilities have received further reinforcement with the newly passed Iarovaia’s law discussed in part 2 of this article.



Digital Russians’ Home and Agora

251

Siriiu s litsa zemli].70 Of particular resonance are the cases where individual users re-post other people’s stories and are convicted for dissemination. “Imprisoned for reposting” [posadili za repost] has become a frequent tag on the Russian news, with Google Search delivering 175,000 results on this search inquiry. Such is the story of Andrei Bubeev who reposted Boris Stomakhin’s article Crimea is Ukraine! [Krym–eto Ukraina!] and a picture of a toothpaste with the text Squeeze Russia out of You [Vydavi iz sebia Rossiu] and was sentenced to 2 years and three months of prison for extremism and appeals to the disruption of the territorial integrity of the Russian Federation.71 While these cases are clearly political, one should not make the mistaken assumption that freedom of speech on the Runet is limited only by certain filters (such as Crimea or Syria). A number of clearly apolitical online cases have also defined the Russian legal landscape in recent years. One of such cases is the story of the kindergarten teacher Evgeniia Chudnovets, who saw a video of a naked child beaten up by his teachers at a summer camp on her feed in VKontakte and reposted it. While Chudnovets, in her words, just wanted to attract more attention to this case of child abuse, the court convicted her of disseminating child pornography and sentenced her to 5 months in prison. Neither the fact that Chudnovets’ repost allowed the police to identify the adults that were beating a child on the video, nor her having a three-year old child, affected the court’s decision.72 Therefore, the Russian online public sphere, which was thriving in the early years of the Runet, seems to be slowly giving way to a state-run show. The Runet’s potential for giving a voice to those who would not otherwise have been heard on such a scale (like Naval’nyi, Chudnovets, Slepakov or Kungurov) is undeniable, but the price to pay for being active online is becoming increasingly high and is no longer limited to political activity. The norms of the state tolerance in the online public sphere are in flux, and it is hard to envision which new directions will open up tomorrow. 4. Conclusion Despite the fact that Russia joined the internet relatively late in the game, it has managed to develop a vibrant and distinctive national segment within 70  Agora (2017): Rossiia. Svoboda interneta 2016. Kungurov was sentenced to two and a half years of prison for a public justification of terrorism, whereby Nosik was sentenced only to a fine for inciting national hatred. 71  Turovskii (2016): Sud za chuzhie slova. 72  Further details can be found in Nikita Sologub’s article for Mediazona. See Sologub (2016): ‘Povernis’, na tebia smotrit vsia strana!’. In March 2017, Chudnovets was released with all charges against her dropped by the prosecution.

252

Tatiana Klepikova

the global network. In 2009, Karina Alexanyan compared the Russian webscape to a ride on a train, thereby emphasizing how fast the former changes.73 This volatility of the digital world puts researchers of 21st century technologies in the predicament of making predictions about things that may have already changed by the moment the prediction is made. Nevertheless, some trends of the Runet development in the nearest future can be distinguished. As a private sphere, the Runet displays a variety of trends that should not be overlooked in the shadow of their less inspiring online public compatriots that attract researchers’ attention more often in the current political context. Runet users increase their presence online, thereby gaining experience and educating themselves in digital etiquette where the Russian state education has failed to do so. Parallel to familiarizing themselves with international communication standards on global websites, they also privatize and adopt them to Runet-specific pages. With a number of Western companies such as Spotify still reluctant to enter the Russian market, users remain inventive in creating analogues or substitutes for the services they would like to have that their Western peers are enjoying. This has led to the rise of a parallel digital universe, which has been built following the Western example, but which is permeated with a national understanding of how things should work. Russian ‘digital homes’ arise on various platforms, such as Mail.ru, Yandex, VKontakte, Odnoklassniki, Rutube and others that compete to attract millions of Runet users every day by providing them with services that will make them repeatedly return to visit their pages. They provide them with the comfort of an analog home that they are leaving when they enter the online universe. As for the online public sphere, the trends that the Runet demonstrates are less encouraging. Instead of remaining a neutral zone of online public dialogue amongst citizens or between citizens and the state, the ‘public side’ of the Runet is progressively turning into a ‘digital home’ of the Russian state. Just as certain segments of the Runet have been privatized by users, the state has been increasingly privatizing the digital public sphere. It is now the state that feels comfortable here, establishes its own rules of the game and draws arbitrary borders of tolerance towards diverse user-created content on a daily basis. The list of potentially censurable topics is constantly growing, demonstrating an alarming trend of authoritarian grips that are tightening around the already minimal dislocated public sphere. Moreover, the Runet’s growing autonomy from the global brother is becoming more pronounced, an issue that is being forced by Kremlin politicians who focus on ensuring potential autonomization of the Runet in case 73  Alexanyan

(2009): Social Networking on Runet.



Digital Russians’ Home and Agora

253

relations with the West might worsen. The newly adopted 2017–2030 Strategy for the Development of an Information Society in the Russian Federation does not only foresee continued investment into positive innovations, such as the expansion of the range of public services available for citizens online, but it also outlines a number of disturbing aims, such as the complete liquidation of anonymity on the Runet.74 The latter will not only allow for successfully counteracting terrorism as the doctrine envisages, but it will also provide the state with the necessary means to eliminate its political opponents. All in one click. References Agora: Rossiia. Svoboda interneta 2016: na voennom polozhenii (2017). URL: https://meduza.io/static/0001/Agora_Report_2017_Internet.pdf (last accessed 20.07.2017). Alexanyan, Karina: Social Networking on Runet: The View from a Moving Train. In: Digital Icons: Studies in Russian, Eurasian and Central European New Media 1.2 (2009), pp. 1–12. Alexei Naval’nyi: Naval’nyi: Final’naia bitva mezhdu dobrom i neitralitetom (n. d.). URL: https://navalny.com/ (last accessed 25.02.2017). Archive.org: Internet Archive Wayback Machine (n. d.). URL: https://archive.org/ web/ (last accessed 19.12.2016). Asmolov, Gregory: The Kremlin’s Cameras and Virtual Potemkin Villages: ICT and the Construction of Statehood. In: Livingston, Steven/Walter-Drop, Gregor (ed.): Bits and Atoms: Information and Communication Technology in Areas of Limited Statehood. Oxford 2014, pp. 30–46. Baird, Dugald: Spotify Abandons Russian Launch Plan. In: The Guardian from 03.02.2015. URL: https://www.theguardian.com/media/2015/feb/03/spotify-aban dons-russian-launch-plan (last accessed 29.05.2017). Benkler, Yochai: The Wealth of Networks: How Social Production Transforms Markets and Freedom. New Haven, CT/London 2006. Berry, David M./Dieter, Michael: Postdigital Aesthetics: Art, Computation and Design. Basingstoke 2015. Boym, Svetlana: Common Places: Mythologies of Everyday Life in Russia. Cambridge, MA 1994. 74  State strategies in developing a more autonomous segment of the internet have been re-confirmed by the Executive Order ‘On the 2017–2030 Strategy for the Development of an Information Society in the Russian Federation’, signed by Vladimir Putin on May 10, 2017. Among its priorities, the strategy stresses fostering the implementation of Russian-made technologies in various digital fields (economy, politics, culture, etc.) and tightening of control over internet communications by the FSB, the Russian Federal Security Service. See Prezident Rossii (2017): Strategiia razvitiia.

254

Tatiana Klepikova

Brunmeier, Viktoria: Das Internet in Russland: Eine Untersuchung zum spannungs­ reichen Verhältnis von Politik und Runet. München 2005. Change.org: Otmena ‘Paketa Iarovoi’ (2016). URL: https://goo.gl/ShxlNJ (last accessed 09.07.2016). Court of Justice of the European Union: Press Release No117/15: Judgment in Case C-362/14 Maximillian Schrems v Data Protection Commissioner (06.10.2015). URL: https://curia.europa.eu/jcms/upload/docs/application/pdf/2015-10/cp150117 en.pdf (last accessed 05.04.2017). Deibert, Ronald / Rohozinski, Rafal: Control and Subversion in Russian Cyberspace. In: Deibert, Ronald et al. (ed.): Access Controlled: The Shaping of Power, Rights, and Rule in Cyberspace. Cambridge, MA 2010, pp. 15–34. Etling, Bruce, et  al.: Public Discourse in the Russian Blogosphere: Mapping RuNet Politics and Mobilization (2010). URL: http://nrs.harvard.edu/urn-3:HUL.Inst Repos:8789613 (last accessed 20.07.2017). FBK: Glavnoe (n. d.). URL: https://fbk.info/ (last accessed 20.07.2017). ‒ RosIama (n. d.). URL: https://rosyama.ru/ (last accessed 20.07.2017). ‒ RosPil (n. d.). URL: https://fbk.info/projects/ (last accessed 20.07.2017). Freedomhouse.org: Russia: Country Report 2016 (2017). URL: https://freedomhouse. org/report/freedom-net/2016/russia (last accessed 20.07.2017). Gendina, Natal’ia I.: Informatsionnaia kul’tura i mediagramotnost’ v Rossii. In: Znanie. Ponimanie. Umenie 4 (2013), pp. 77–83. Goffman, Erving: Relations in Public: Microstudies of the Public Order. London 1971. Gołąbek, Bartosz: Anatomia “Runetu”: Rosyjskojęzyczny internet jako extra territorium byłego ZSRR. Krosno 2014. Goralik, Linor: Etnety: novyi strannyi globus (1999). URL: http://old.russ.ru/net cult/19991129_goralik.html (last accessed 03.01.2017). Gorham, Michael/Lunde, Ingunn/Paulsen, Martin: Digital Russia: The Language, Culture and Politics of New Media Communication. London 2014. Gorny, Eugene: The Russian Internet: Between Kitchen-Table Talks and the Public Sphere (2007). URL: http://www.artmargins.com/index.php/archive/145-the-russ ian-internet-between-kitchen-table-talks-and-the-public-sphere (last accessed 13.11.2015). ‒ A Creative History of the Russian Internet: Studies in Internet Creativity. Saarbrücken 2009. Gosuslugi: Portal gosudarstvennykh uslug Rossiiskoi Federatsii (n. d.). URL: www. gosuslugi.ru (last accessed 07.04.2017). Gotlieb, Calvin C.: Privacy: A Concept Whose Time Has Come and Gone. In: Lyon, David/Zureik, Elia (ed.): Computers, Surveillance, and Privacy. Minneapolis, MN 1996, pp. 156–171. GrazhdaninPoet: GrazhdaninPoet–YouTube (n. d.). URL: https://www.youtube.com/ user/GrazhdaninPoet (last accessed February 25, 2017).



Digital Russians’ Home and Agora

255

Grigor’eva, Nadezhda/Schahadat, Schamma/Smirnov, Igor’ P.: Nähe Schaffen, Abstand halten: Zur Geschichte der Intimität in der russischen Kultur. Wien 2005. Habermas, Jürgen: Strukturwandel der Öffentlichkeit: Untersuchungen zu einer Kate­ gorie der bürgerlichen Gesellschaft. Frankfurt/M. 1962. Hartog, Eva: Netflix’s Desire for World Domination Reaches Russia. In: The Moscow Times from 14.01.2016. URL: https://themoscowtimes.com/articles/netflixsdesire-for-world-domination-reaches-russia-51448 (last accessed 03.01.2017). Heller, Christian: Post-privacy: Prima leben ohne Privatsphäre. München 2011. Howanitz, Gernot: Kommunalka 2.0. Zur Kontinuität sowjetischer Privatheitskonzeptionen im Runet. In: Garnett, Simon et  al. (ed.): Medien und Privatheit. Passau 2014, pp. 119–137. Idlis, Iuliia: Runet: Sotvorennye kumiry. Moskva 2010. Internet Live Stats: Russia Internet Users (2016). URL: http://www.internetlivestats. com/internet-users/russia/ (last accessed September 20, 2016). ‒ Internet Users (2017). URL: http://www.internetlivestats.com/internet-users/ (last accessed 01.01.2017). Konsalt-Tsentr: Reiting populiarnosti besplatnykh pochtovykh servisov sredi pol’ zovatelei Runeta (n. d.). URL: http://www.konsult-center.ru/news/659-rejting-popu lyarnosti-besplatnykh-pochtovykh-servisov-sredi-polzovatelej-runeta.html (last accessed 03.01.2017). Koordinatsionnyi tsentr natsional’nogo domena seti Internet: Domeny Rossii (2017). URL: http://statdom.ru/ (last accessed 03.01.2017). Kuntsman, Adi: Figurations of Violence and Belonging: Queerness, Migranthood and Nationalism in Cyberspace and Beyond. Bern/Oxford 2009. Liveinternet.ru: Site Statistics ‘Odnoklassniki.ru’ (2017). URL: https://www.live internet.ru/stat/odnoklassniki.ru/ (last accessed 02.01.2017). Mann, Steve: Sousveillance. In: Schulzrinne, Hennig/Dimitrova, Nevenka (ed.): Proceedings of the 12th Annual ACM International Conference. New York, NY 2011, pp. 620–627. Misnikov, Yuri: How to Read and Treat Online Public Discussions among Ordinary Citizens Beyond Political Mobilisation. Empirical Evidence from the Russianlanguage Online Forums. In: Digital Icons: Studies in Russian, Eurasian and Central European New Media 7 (2012), pp. 1–37. Morozov, Evgeny: The Net Delusion: The Dark Side of Internet Freedom. New York, NY 2011. Navalny: Alexei Naval’nyi: Final’naia bitva mezhdu dobrom i neitralitetom (n. d.). URL: http://navalny.livejournal.com/ (last accessed February 25, 2017). Naval’nyi: Naval’nyi LIVE – Youtube (n.  d.). URL: https://www.youtube.com/ channel/UCgxTPTFbIbCWfTR9I2-5SeQ/featured (last accessed 20.07.2017). Nikiporets-Takigava, Galina/Payin, Emil: Internet i ideologicheskie dvizheniia v Rossii. Moskva 2016.

256

Tatiana Klepikova

Oates, Sarah: Revolution Stalled: The Political Limits of the Internet in the Post-Soviet Sphere. Oxford/New York 2013. Office of the United States Trade Representative: 2017 Special 301 Report (2017). URL: https://ustr.gov/sites/default/files/301/2017 %20Special %20301 %20Report% 20FINAL.PDF (last accessed 20.07.2017). Otkrytaia biblioteka: Dialogi (2017). URL: http://open-lib.ru/ (last accessed 25.02. 2017). Prezident Rossii: Federal’nyi zakon ot 06.07.2016 g. № 374-FZ (2016). http:// kremlin.ru/acts/bank/41108 (last accessed 20.07.2017). ‒ Strategiia razvitiia informatsionnogo obshchestva v Rossiiskoi Fede­ratsii na 2017– 2030 gody (2017). URL:http://kremlin.ru/acts/bank/41919 (last accesssed 20.07.2017). Radio Svoboda: V Peterburge ‘Otkrytuiu biblioteku’ vynudili zakryt’ proekt ‘Dialogi’ (2016). URL: http://www.svoboda.org/a/27821511.html (last accessed 13.09.2016). RBK: Etoi noch’iu v Internete zapushchen pervyi kirillicheskii domen ‘.Rf’ (2010). URL: http://www.rbc.ru/society/13/05/2010/5703da1d9a79470ab5020922 (last accessed 02.01.2017). RG.ru: Strategiia razvitiia informatsionnogo obshchestva v Rossiiskoi Federatsii ot 7 fevralia 2008 g. N Pr-212 (16.02.2008). URL: https://rg.ru/2008/02/16/informaciastrategia-dok.html (last accessed 20.07.2017). Riha, Daniel/Maj, Anna: Emerging Practices in Cyberculture and Social Networking. Amsterdam 2010. Ritter, Martina: Alltag im Umbruch: Zur Dynamik von Öffentlichkeit und Privatheit im neuen Russland. Hamburg 2008. ROI: Razmestit’ na portale ROI schetchik zaregistrirovannykh pol’zovatelei, koli­ chestva posetitelei, progolosovavshikh, otklonennykh initsiativ, priniatykh k rassmotreniiu (28.04.2016). URL: https://www.roi.ru/19072 (last accessed 20.07.2017). Rogoża, Jadwiga: The Internet in Russia: The Cradle of Civil Society. In: OSW Commentary 72 (2012), pp. 1–9. URL: https://www.osw.waw.pl/en/publikacje/oswcommentary/2012-03-21/internet-russia-cradle-civil-society (last accessed 20.07. 2017). Romir.ru: Chuvstvo svobody (2016). URL: http://romir.ru/studies/804_1467666000/ (last accessed 09.07.2016). RosUznik: Pishite pis’ma politicheskim zakliuchennym (n.  d.). URL: http:// rosuznik.org/ (last accessed 20.07.2017). Ryklin, Mikhail: Svastika, krest, zvezda: Proizvedenie iskusstva v epokhu upravlia­ emoi demokratii. Moskva 2006. Schmidt, Henrike: The Triple P of RuNet Politics: Protest, Political Technology, Public Sphere. In: Euxeinos 4 (2012), pp. 5–24.



Digital Russians’ Home and Agora

257

Schmidt, Henrike/Teubener, Katy: (Counter)Public Sphere(s) on the Russian Internet. In: Schmidt, Henrike/Teubener, Katy/Konradova, Natal’ia (ed.): Control + Shift: Public and Private Usages of the Russian Internet. Norderstedt 2006, pp. 51–72. ‒ “Our RuNet?” Cultural Identity and Media Usage. In: Schmidt, Henrike/Teubener, Katy/Konradova, Natal’ia (ed.): Control + Shift: Public and Private Usages of the Russian Internet. Norderstedt 2006, pp. 14–20. Schmidt, Henrike/Teubener, Katy/Konradova, Natal’ia: Control + Shift: Public and Private Usages of the Russian Internet. Norderstedt 2006. Shlapentokh, Vladimir: Public and Private Life of the Soviet People: Changing Values in Post-Stalin Russia. New York, NY 1989. Siegelbaum, Lewis H.: Borders of Socialism: Private Spheres of Soviet Russia. Basing­stoke 2006. SimilarWeb: Top Websites in Russian Federation – SimilarWeb Website Ranking (2016). URL: https://www.similarweb.com/top-websites/russian-federation (last accessed 03.01.2017). Slepakov, Semen: Pesnia rossiiskogo chinovnika. (2013). URL: https://www.youtube. com/watch?v=GXz0iG82jOo (last accessed 13.09.2016). ‒ Pesnia pro neft’. (2015). URL: https://www.youtube.com/watch?v=T_U7HxOzh Ww (last accessed 13.09.2016). ‒ Obrashchenie k narodu (2016). URL: https://www.youtube.com/watch?v=Q8v2 WIvEJ3c (last accessed 13.09.2016). Soldatov, Andrei/Borogan, Irina: The Red Web: The Struggle Between Russia’s Digital Dictators and the New Online Revolutionaries. New York, NY 2015. Sologub, Nikita: ‘Povernis’, na tebia smotrit vsia strana!’ Kak trechsekundnyi rolik s golym mal’chikom obernulsia real’nym srokom dlia vozmushchennoi pol’ zovatel’nitsy ‘VKontakte’. In: Mediazona from 21.11.2016. URL: https://zona. media/article/2016/21/11/kataysk (last accessed 29.05.2017). Trudoliubov, Maksim: Liudi za zaborom: Chastnoe prostranstvo, vlast’ i sobstvennost’ v Rossii. Moksva 2015. Turovskii, Daniil: Sud za chuzhie slova: Zhitelia Tveri prigovorili k dvum godam kolonii za reposty. In: Meduza from 06.05.2016. URL: https://meduza.io/ feature/2016/05/06/sud-za-chuzhie-slova (last accessed 29.05.2017). United Nations Statistics Division: UNdata: Internet users (per 100 people) (2017). URL: http://data.un.org/Data.aspx?d=WDI&f=Indicator_Code %3AIT.NET.USER. P2 (last accessed 24.04.2017). Utekhin, Il’ia: Ocherki kommunal’nogo byta. Moskva 2004. vk.com: Auditoriia VKontakte (2017). URL: https://vk.com/page-47200925_44240810 (last accessed 02.01.2017). Yandex: Yandex  – Mission (2017). URL: https://yandex.com/company/general_info/ yandex_today/ (last accessed 03.01.2017).

4. Staatliche Regulationsmöglichkeiten in der Datengesellschaft

Stützen der Informationsgesellschaft – zur Rolle von Datenschutz und Datensicherheit im Mediensystem Tobias O. Keber 1. Von Ambrosius und dem Wert des Zufalls 1.1 Ambrosius

Der Wert des Privaten schlummert bisweilen im Verborgenen: Die Augustinerkirche in Mainz, die von 1768 bis 1771 von Augustinereremiten erbaut wurde, ist ein von Touristen im Schatten des Mainzer Doms zu Unrecht oftmals vernachlässigter Kirchenbau. Die Deckengemälde zeigen u. a. Szenen aus dem Leben des heiligen Augustinus. Wenige Meter nach dem Eingang auf der rechten Seite fällt ein Gemälde auf, das den heiligen Ambrosius1 mit einem Buch zeigt. Ein kunsthistorisch sachkundiger Hinweis darauf, dass dies ‚leises Lesen‘ abbilde, mag zunächst überraschen. Der Hintergrund der Geschichte kann eine wundervolle Erfahrung der Serendipität bescheren, also einer zufälligen Beobachtung von etwas ursprünglich nicht Gesuchtem, das sich als neue und überraschende Entdeckung erweist. In einer Bibliothek laut zu lesen, würde man heute als rücksichtslos und gegebenenfalls als Verstoß gegen die Hausordnung oder die Nutzungsbedingungen werten. In der Antike war das laute Lesen die Normalität, und zwar ganz unabhängig von der Textart.2 Lautes Lesen war Teil der antiken Lesekultur. Dies war der fortlaufenden Schrift ohne Wortzwischenräume und Satzzeichen geschuldet, aber auch ideologischen Motiven. Für den Kirchenlehrer Augustinus war der Umstand höchst bemerkenswert, dass sein Mentor entgegen damaliger Gepflogenheiten leise las, und er berichtete deshalb darüber in seinen autobiografischen Betrachtungen, den Confessiones.3 Dort heißt es: 1  Ambrosius v.  Mailand (339 bis 397 n. Chr.) war Kirchenlehrer der Spätantike, Bischof von Mailand und hatte Augustinus getauft. 2  Eingehend dazu: Busch (2002): Lautes und leises Lesen in der Antike. 3  Der Text der autobiografischen Betrachtungen des Augustinus (354 bis 430 n. Chr.), entstanden zwischen 397 und 401 n. Chr.

262

Tobias O. Keber

Die Augenblicke, in denen er allein war, nahm er entweder die notwendige Nahrung zu sich oder erholte sich durch Lesung. Wenn er aber las, dann glitten seine Augen über die Seiten, sein Herz suchte nach dem Verständnis, Stimme und Zunge aber ruhten. Oft wenn wir zugegen waren –­jeder durfte bei ihm eintreten, keiner wurde angemeldet –, sahen wir ihn schweigend lesen und nie anders. Wenn wir nun längere Zeit so schweigend dagesessen – denn wer hätte es gewagt, ihm in solcher Stunde der Sammlung lästig zu fallen? –, gingen wir wieder weg; vielleicht wollte er für die kurze Zeitspanne, welche er sich für seine geistige Erholung abgewinnen konnte, müde von der Unruhe fremder Angelegenheiten, sich nicht zu anderem abrufen lassen, vielleicht verhüten, dass er einem eifrigen und genauen Zuhörer weniger klare Stellen dieser Schrift gar erklären oder über schwierigere Fragen entscheiden musste; hätte er nämlich auch noch seine Ruhepausen dafür opfern wollen, dann wäre er überhaupt nicht zum Lesen gekommen. Aber auch die Rücksicht auf Erhaltung seiner Stimme, die ihm gar leicht heiser wurde, konnte für ihn ein mehr als gerechter Grund sein, stille zu lesen. Jedoch, in welcher Absicht er immer dies tun mochte, sicher war seine Absicht gut [Hervorh. d. Verf.].4 1.2 Kindle, Brecht und smarte Fernseher

Heute wird – jedenfalls im übertragbaren Sinne – zunehmend laut gelesen. Laut deshalb, weil andere wahrnehmen können, was gelesen wird. Es gibt einen Rückkanal vom Empfänger zurück zum Sender von Informationen. Freilich wurde dies im Rahmen der Nutzung des ‚Mediums‘5 Internet nach dem Aufschrei im Zusammenhang mit der Veröffentlichung von Browsernutzungsdaten, u. a. des Journalisten Dirk von Gehlen diskutiert.6 Andere können das Mediennutzungsverhalten mitlesen (bzw. mithören). Studien7 bele-

4  Augustinus

(o. J.): Bekenntnisse. Internet ist kein Medium, sondern nur Trägerstruktur. Soweit umgangssprachlich gleichwohl von dem Medium ‚Internet‘ gesprochen wird, liegt dies daran, dass landläufig das World Wide Web (WWW) und das Internet gleichgesetzt werden. Das WWW ist allerdings nur einer von verschiedenen Diensten, die auf der Infrastruktur des Internets aufsetzen. Neben dem WWW, das auf ein 1990 abgeschlossenes Forschungsprojekt bei der European Organization for Nuclear Research (CERN) zurückgeht, sind u. a. die Dienste E-Mail, der File Transfer Protocol-Service, das Instant Messaging oder die Internet-Telefonie bedeutsam. Die Dienste können verschmelzen, so etwa, wenn E-Mails über ein Webmail-System, also über den Webbrowser gelesen werden. Vgl. Keber, in: Dörr u. a. 6  Zur Debatte, die in sozialen Medien unter #nacktimnetz geführt wurde, vgl. Das Erste.de (2016): Video #nacktimnetz. Daten von Bürgern ausgespäht. 7  DIVSI (2017): 1 Jahr danach – Wie Deutsche den Snowden / NSA-Skandal wahrnehmen und welche Konsequenzen sie daraus ziehen. Im Ansatz vgl. auch Spieckermann / Grossklags (2005): E-Privacy in 2nd Generation E-Commerce. Privacy Preferences versus Actual Behavior, S. 38–47. 5  Das



Stützen der Informationsgesellschaft

263

gen, dass sich das Nutzerverhalten nach Bekanntwerden derartiger Nachrichten nur geringfügig ändert. Das ist Teil des privacy paradox.8 Auch mit dem E-Book-Reader wird laut gelesen.9 Dabei verrät der Nutzer dem Anbieter nicht nur, was gelesen wird, sondern auch, wie schnell und wann dies erfolgt. Dies geht aus den Nutzungsbedingungen hervor. So heißt es in Ziffer 3 der Nutzungsbedingungen für Amazon-Geräte:10 3. Allgemeines a. An Amazon bereitgestellte Informationen. Die Software liefert Amazon Informationen über die Nutzung Ihres Amazon-Gerätes und dessen Interaktion mit digitalen Inhalten und Services (z. B. zuletzt gelesene Seite, Archivierung von Inhalten, verfügbarer Speicherplatz, Aktivzeit, Protokolldateien, Netzwerkdiagnosen, Nutzung von Inhalten, Suchanfragen, Standorte, Sprachinformationen, Konnektivität und Signalstärke). Informationen, die Sie Amazon zur Verfügung stellen, werden möglicherweise in der Cloud verarbeitet, um unsere Dienstleistungen zu verbessern, und auf Servern außerhalb Ihres Wohnsitzlandes aufbewahrt. Wir behandeln alle Informationen, die wir erhalten, gemäß der Datenschutzerklärung von Amazon.de.

Freilich sind für das Verständnis des ‚Hausrechts‘ von Amazon mehrere Dokumente zusammenzulesen; die Nutzungsbedingungen für den KindleShop, die Allgemeine Geschäftsbedingungen, die Datenschutzerklärung sowie die Nutzungsbedingungen für Amazon-Geräte. Die von den Nutzerinnen und Nutzern anlässlich des lauten Lesens übermittelten Daten enthalten bisweilen höchst Sensibles: Die Auswertung von Büchersuche und -kauf erlaubt Rückschlüsse auf politische Einstellungen, religiöse Überzeugungen, sexuelle Vorlieben, Gesundheitsstatus etc. Und das alles selbstverständlich nur zur Optimierung des Nutzungserlebnisses. Die Süddeutsche Zeitung hat es schön formuliert: „Dein Buch liest Dich“.11 Seien wir nicht allzu kritisch und unterstellen wir für einen Moment, die Auswertung bezwecke tatsächlich (auch) die Verbesserung der Produkte. In der Tat hat es E-Book-Anbieter gegeben (z. B. Barnes & Noble), die regis­ triert haben, dass viele Nutzer Sachbücher nicht zu Ende lesen.12 Aus diesem Grund wurde dann eine neue Reihe eingeführt, die Sachthemen knapper behandelt.

8  Zum privacy paradox: Buchmann (2012): Internet Privacy, S. 175 ff. sowie Hoffmann u. a. (2016): Privacy cynicism. 9  Instruktiv zur Problematik, in Details jedoch nicht aktuell: Cohn / Higgins (2012): Who’s tracking your reading habits? 10  Amazon.de (2016): Nutzungsbedingungen für Amazon-Geräte. 11  Fritzsche (2013): Dein Buch liest dich. 12  Wolfangel (2014): Lesen unter Beobachtung.

264

Tobias O. Keber

Auch ein kleiner Verlag mit Sitz in Palo Alto, Coliloquy13 hat Lesenutzungsdaten analysiert. Wessen Zitate am häufigsten im Buch markiert wurden, ließ Rückschlüsse auf die durch die Leser/innen geschätzten Eigenschaften der Protagonisten zu. Diese Informationen gaben die Verleger an die angestellten Autor/innen weiter, die nunmehr nutzeroptimierte Geschichten ganz im Sinne der Leser verfassen konnten. Dieses Beispiel zeigt, was Datenschutz mit unserem Mediensystem zu tun hat: In der Vergangenheit waren Leser/innen ein Rätsel und vielleicht war das gut so. Die netzökonomische Maxime größtmöglicher Individualisierung der Angebote ist Antipol zur Serendipität. Das ist Nährboden für den Meinungsbildungsprozess, gefährliche Filterblasen und Echo-Kammern.14 Nun mögen einige Nutzerinnen und Nutzer sagen: „Ich bin nicht gefährdet. Meine Nachrichtenquelle ist nicht Facebook, sondern die Angebote des öffentlich-rechtlichen Rundfunks.“ Diese Angebote, so deren mögliche Überlegung, konsumieren sie ganz traditionell mittels ihres Fernsehapparats. Auch dieser verfügt heute typischerweise über einen Rückkanal. Der TV ist mit dem Internet verbunden und ist technisch nichts anderes als ein vernetzter Rechner; mit allen Konsequenzen für die datenschutzrechtlich problematische Auswertung des Mediennutzungsverhaltens. Die Hybridtechnik bedingt, dass der internettypische Rückkanal des broadband-Dienstes auf den originär nicht rückkanalfähigen broadcastDienst ‚durchschlagen‘ kann. Dies weisen Ghiglieri u. a. in ihrer Studie nach.15 Auch das Fernsehen erhält also in der digitalen Welt einen Rückkanal. Bertolt Brecht wäre begeistert gewesen, könnte man meinen. 1927 formuliert er in seiner ‚Radiotheorie‘:16 Der Rundfunk wäre der denkbar großartigste Kommunikationsapparat, wenn er es verstünde, nicht nur auszusenden, sondern auch zu empfangen, also den Zuhörer nicht nur hören, sondern auch sprechen zu machen und ihn nicht zu isolieren, sondern ihn in Beziehung zu setzen.

Dass der Rückkanal, der ein ‚Mitmachen‘ der User ermöglicht, zugleich geeignet ist, den Nutzern gleichsam in ihrer Wohnstube ‚über die Schulter zu schauen‘ und ‚mitzusehen‘, hat Brecht ganz sicher nicht geahnt. Wir sind also, jedenfalls was den Datenschutz betrifft, nicht gerade in einem kommunikationstheoretischen Idealzustand. Der Düsseldorfer Kreis veröffentlichte 13  Der

Dienst ist jedoch, soweit ersichtlich, (vorerst) gescheitert. (2017): Meinungsvielfalt im Internet. 15  S. die an der TU Darmstadt entstandene Studie: vgl. Ghiglieri u.  a. (2017): HbbTV – I know what you are watching; zur Problematik eingehend Keber (2013): Big Data im Hybrid-TV, S. 236. 16  Zur Radiotheorie vgl. Wimmer (2007): (Gegen-)Öffentlichkeit in der Mediengesellschaft, S. 168. 14  Paal / Hennemann



Stützen der Informationsgesellschaft

265

im Mai 2014 eine umfangreiche Orientierungshilfe zu den Datenschutzanforderungen an Smart-TV-Dienste, worin u. a. darauf hingewiesen wurde, dass auch bei diesen Diensten anonyme Nutzung möglich sein muss.17 Und wenn wir schon bei smarten Endgeräten sind, hier noch eine kleine Anekdote zum Thema Fernsehen und Datensicherheit: Sollten Sie über die Anschaffung eines smarten Lautsprechers (z. B. Amazon-Echo) nachdenken, über den Sie sprachgesteuert Bestellungen bei Amazon aufgeben können, sollten Sie nicht nur darauf achten, dass Sprachbefehle Ihrer Kinder nicht angenommen werden, die ihre Wünsche gegenüber dem Gerät kundtun („Alexa, bestell’ mir ein Puppenhaus“). Sie sollten auch darauf achten, dass der Fernseher in gehörigem Abstand zu Ihrer Amazon EchoEinheit positioniert wird. Anderenfalls könnte ein Fernsehbericht über durch Kinder ohne Erlaubnis der Eltern bestellte Puppenhäuser, in dem auch der Satz „Alexa, bestell’ mir ein Puppenhaus“ zu hören ist, die buchstäblich nur aufgrund von Maschinenkommunikation ausgelöste Bestellung eines Puppenhauses zur Konsequenz haben.18 1.3 Der Wert des Zufalls

Selbstverständlich können Nutzerinnen und Nutzer versuchen, diese Datenschutzprobleme technisch zu lösen. Es gibt anti tracking tools, mit denen dann in letzter Konsequenz auch die Integrität des Wohnzimmers gewährleistet werden kann. Das ist aber nicht alles. Es geht um ‚mehr‘. Im Mediensystem haben Datenschutz und Datensicherheit nicht nur eine individualrechtliche Komponente, sondern haben zugleich auch eine objektivrechtliche Dimension. Wenn die Erhebung und Verarbeitung des Mediennutzungsverhaltens unterbleibt, begünstigt dies Serendipität und kann der Entstehung personalisierter Filterblasen entgegenwirken. Personalisierte Filterblasen wirken der Segmentierung verschiedener gesellschaftlicher Gruppen entgegen. Der Zufall ist eine Chance und ein wichtiges Element im Prozess der freien Meinungsbildung. Das ist Prämisse, und ich darf aus dem Lüth-Urteil19 des Bundesverfassungsgerichts zitieren, welches die Meinungsfreiheit als unmittelbarsten Ausdruck der menschlichen Persönlichkeit in der Gesellschaft und für „eine freiheitlich-demokratische Staatsordnung […] schlechthin konstitu17  Der Beschluss des Düsseldorfer Kreises: BFDI (2014): Beschluss des Düsseldorfer Kreises vom Mai 2014. Smartes Fernsehen nur mit smartem Datenschutz. 18  Der Fall ist dargestellt u. a. in einem Artikel von K. Morley im Telegraph. Vgl. Morley (2017): Amazon Echo rogue payment warning after TV show causes ‚Alexa‘ to order doll houses. 19  BVerfGE 7, 198, Urt. V. 15.01.1958 – 1 BvR 400 / 51; NJW 1958, S. 257.

266

Tobias O. Keber

ierend“ ansieht. Sich mit zufällig Gefundenem auseinanderzusetzen, wirkt nicht nur horizonterweiternd, sondern steht für den verantwortungsbewussten Bürger/innen in einer Demokratie. Denn dazu gehört, sich nicht nur mit den Themen auseinanderzusetzen, die das eigene Interesse und Weltbild widerspiegeln.20 Ließe sich Verantwortung in diesem Sinne staatlich verordnen? Die Nutzerinnen und Nutzer haben für ihre Filterblase optiert, sie haben (mehr oder weniger ‚ausdrücklich‘) in Art und Umfang der sie betreffenden Datenverarbeitung und damit in den inhaltlichen Zuschnitt des Dienstes eingewilligt. Staatliche Maßnahmen gegen Filterblasen hätten (wenn man nicht die Ausgestaltungsdogmatik des BVerfG21 zur Rundfunkfreiheit bemüht) Eingriffsqualität in Kommunikations-, bzw. Wirtschaftsgrundrechte und wären daraufhin hinsichtlich der Verhältnismäßigkeit zu untersuchen. Verordnen lässt sich Verantwortung im oben aufgezeigten Sinne nicht. So schreibt etwa Ernst-Wolfgang Böckenförde: „Der freiheitliche säkularisierte Staat lebt von Voraussetzungen, die er selbst nicht garantieren kann.“22 In einem Interview23 hat er diesen Satz einmal wie folgt erläutert: Der Staat ist darauf angewiesen, dass die Bürger gewisse Grundeinstellungen, ein staatstragendes Ethos haben. Sonst hat es der Staat schwer, eine am Gemeinwohl orientierte Politik zu verwirklichen. Wenn alle seine Ziele mit Zwang durchgesetzt werden müssten, wäre der Staat bald kein freiheitlicher mehr. 2. Datenschutz aus der Sicht der Medien – Hindernis oder Stütze? Üblicherweise scheinen Mediensystem und Datenschutzrecht in einem Spannungsverhältnis zu stehen. Datenschutz verstanden als ‚informationelle Fremdbeschränkung‘,24 zielt darauf ab, bestimmte Informationen zu schützen und gerade nicht an die Öffentlichkeit dringen zu lassen. Letztgenanntes ist aber gerade das erklärte Ziel von Medienschaffenden. In diesem Spannungsfeld steht das datenschutzrechtliche Medienprivileg.

20  Exemplarisch

org.

siehe auf dem Blog von M. Meckel unter: http: /  / digitalserendipity.

21  Zum Erfordernis einer positiven Ordnung als Normziel des Art. 5 Abs. 1 GG bspw. BVerfGE 90, 60 (89). 22  Sog. ‚Böckenförde-Diktum‘: Böckenförde (1976): Staat, Gesellschaft, Freiheit, S. 60. 23  Vgl. Rath (2017): Freiheit ist ansteckend. 24  Vgl. Lewinski (2014): Die Matrix des Datenschutzes, S. 46; Lewinski (2016): Die Matrix des Datenschutzes als Kristallkugel, S. 75–78.



Stützen der Informationsgesellschaft

267

2.1 Das datenschutzrechtliche Medienprivileg

Der Datenschutz im Medienbereich muss das Spannungsverhältnis zwischen der in Art. 5 Abs. 1 S. 2 GG garantierten Rundfunk- und Pressefreiheit und dem Recht des Betroffenen aus Art. 2 Abs. 1 i. V. m. Abs. 1 GG auf informationelle Selbstbestimmung ausgleichen.25 Zu beachten ist also einerseits die außerordentlich wichtige Rolle des Rundfunks und der Presse für eine demokratische Gesellschaft, andererseits aber auch die möglichen Auswirkungen auf das Leben eines Betroffenen. Das deutsche Recht präzisiert dieses Verhältnis über das sogenannte Medienprivileg.26 Dieses kommt in Vorschriften zum Ausdruck, welche verhindern, dass die Betroffenen die Berichterstattung über die allgemeinen zivil- und strafrechtlichen Regelungen hinaus unterbinden können. Würde kein derartiges Medienprivileg existieren, könnten Betroffene aufgrund der allgemeinen Datenschutzregeln jederzeit ihre Ansprüche auf Auskunft, Berichtigung, Löschung oder Sperrung ihrer personenbezogenen Daten geltend machen und die Arbeit der Medien so massiv erschweren. Diesen Vorgaben trägt § 41 Abs. 1 BDSG Rechnung. Danach haben die Länder27 in ihrer Gesetzgebung (lediglich) vorzusehen, dass für die Erhebung, Verarbeitung und Nutzung personenbezogener Daten von Unternehmen und Hilfsunternehmen der Presse zu eigenen journalistisch-redaktionellen oder literarischen Zwecken den Regelungen der §§ 5 (Datengeheimnis), 9 (technische und organisatorische Maßnahmen) und 38a (Verhaltensregeln zur Förderung der Durchführung datenschutzrechtlicher Regelungen) BDSG sowie den Haftungsregelungen im Sinne des § 7 BDSG entsprechende Vorschriften existieren.28

25  Zum datenschutzrechtlichen Medienprivileg vgl. Keber, in: Schwartmann u. a., Kap. 20 Rn. 47. 26  Eingehend hierzu Simitis (1990): Datenschutz und Medienprivileg, S. 14 f.; zu den unionsrechtlichen Vorgaben vgl. Keber, in: Schwartmann u. a., Kap. 20 Rn. 8. 27  Eine diese Vorgaben umsetzende Regelung findet sich in § 12 Landesmediengesetz Rheinland-Pfalz. 28  Die Vorschrift geht auf die ehemalige Rahmengesetzgebungskompetenz nach Art. 75 GG zurück. Art. 75, aufgehoben durch Gesetz vom 28.08.2006, BGBl I 2006, S. 2034. Auch nach Fortfall der Rahmengesetzgebungskompetenz gilt § 41 Abs. 1 BDSG als Bundesrecht fort, vgl. Art. 125a Abs. 1 GG. Ergebnis dieser gesetzgeberischen Entscheidung ist, dass den Bundesländern aufgegeben wird, die Einhaltung datenschutzrechtlicher Mindeststandards zu gewährleisten, die Presse nach Maßgabe des § 41 Abs. 1 BDSG aber grundsätzlich aus dem Anwendungsbereich des BDSG ausgenommen ist. Dies bedeutet u. a., dass die Zulässigkeit der Datenverarbeitung nicht den strengen Vorgaben dort, wie z. B. dem Vorhandensein einer gesetzlichen Grundlage oder dem Bestehen einer Einwilligung, verpflichtet ist.

268

Tobias O. Keber

§ 41 Abs. 1 BDSG betrifft die Presse, nicht aber die Rundfunkanstalten der Bundesländer sowie private Rundfunkveranstalter, trifft also keine Aussagen zu deren ‚Medienprivileg‘. Die Nichterfassung der Landesrundfunkanstalten sowie der Veranstalter privaten Rundfunks in § 41 BDSG erklärt sich aus der fehlenden Gesetzgebungskompetenz des Bundes.29 Insoweit datenschutzrechtlich privilegierende Vorschriften enthalten der Rundfunkstaats­ vertrag,30 die Mehr-Länder-Staatsverträge31 sowie die Landes­daten­schutz-,32 Landesrundfunk-,33 und Landesmediengesetze.34 So kann ein von der Datenerhebung eines privaten Rundfunkveranstalters Betroffener nach § 47 RStV zwar Auskunft über die zu seiner Person gespeicherten Daten verlangen. Verarbeitet der Veranstalter die personenbezogenen Daten jedoch ausschließlich zu eigenen journalistisch-redaktionellen Zwecken, kann die Auskunft nach Abwägung der schutzwürdigen Interessen der Beteiligten verweigert werden, soweit durch die Mitteilung die journalistische Aufgabe des Veranstalters durch Ausforschung des Informationsbestandes beeinträchtigt würde oder aus den Daten Rückschlüsse auf Mitarbeiter und Informanten möglich wären, § 47 Abs. 2 RStV. Ähnliches gilt gem. § 57 RStV für Unternehmen und Hilfsunternehmen der Presse als Anbieter von Telemedien, die personenbezogene Daten ausschließlich zu eigenen journalistisch-redaktionellen oder literarischen Zwecken verarbeiten.35 Datenschutzrechtlich relevant ist ferner der Pressekodex des Deutschen Presserates,36 der eine freiwillige Selbstkontrolle der redaktionellen Datenverarbeitung etabliert. Danach entspricht es der journalistischen Sorgfalt, das Privatleben und die Intimsphäre (Ziff. 8 S. 1 Pressekodex) sowie das Recht auf informationelle Selbstbestimmung (Ziff. 8 S. 4 Pressekodex) zu achten. Soweit möglich, soll der Personenbezug bei Veröffentlichungen beseitigt werden (vgl. Richtlinien 8.1 – 8.7 zum Pressekodex). 29  Vgl. Hein (1991): Rundfunkspezifische Aspekte des neuen Bundesdatenschutzgesetzes, S. 2615. 30  Vgl. § 47 RStV für den privaten Rundfunk. 31  Vgl. §§ 42 NDR-StV, 40 MDR-StV, § 17 ZDF-StV. 32  Vgl. etwa § 37 LDSG Ba-Wü. 33  Vgl. etwa § 61 RundfG M-V. 34  Vgl. etwa § 12 LMG Rh-Pf.; Übersicht zur einfachgesetzlichen Ausgestaltung des Medienprivilegs bei Walz, in: Simitis, § 41 BDSG Rn 8 ff. 35  Zur Anwendbarkeit d. § 57 RStV auf Online-Archive: BGH, Urt. v. 09.02.2010 – VI ZR 244 / 08. 36  Der novellierte Pressekodex v. 13.09.2006, gültig seit dem 01.01.2007, enthält die publizistischen Grundsätze (Pressekodex) sowie Richtlinien für die publizistische Arbeit.



Stützen der Informationsgesellschaft

269

2.2 Journalistisch-redaktionelle Zwecke

Bei der Debatte um das Medienprivileg und die Verwendung personenbezogener Daten für journalistisch-redaktionelle Zwecke stellt sich die Frage, wie weit der Geltungsbereich des Medienprivilegs auszulegen ist. Relevant ist insoweit zunächst der ‚Sedlmayr-Fall‘ des BGH. Es ging um einen Blog, den man strukturell nahe bei der traditionellen Presse verorten würde, also gewissermaßen um ‚elektronische Presse‘. Zum Medien- bzw. Archivprivileg heißt es in der Sedlmayr-Entscheidung: Entgegen der Auffassung der Revisionserwiderung ist eine andere rechtliche Beurteilung auch nicht nach den Grundsätzen des Datenschutzrechts geboten. Dabei kann dahingestellt bleiben, ob der persönliche und sachliche Anwen­dungs­ bereich der Vorschriften des Bundesdatenschutzgesetzes überhaupt eröffnet ist, insbesondere ob es sich bei dem beanstandeten Bereithalten der den Namen des Klägers enthaltenden Meldung zum Abruf im Internet um ein ‚Verarbeiten‘ personenbezogener Daten im Sinne des § 3 Abs. 4 Satz 1 BDSG handelt. Denn das Bereithalten dieser Meldung unterfällt jedenfalls dem sogenannten Medienprivileg des § 57 Abs. 1 Satz 1 des Staatsvertrags für Rundfunk und Telemedien (RStV) mit der Folge, dass seine Zulässigkeit weder von einer Einwilligung des Betroffenen noch von einer ausdrücklichen gesetzlichen Ermächtigung im Sinne des § 4 BDSG abhängig ist.37

Vor diesem Hintergrund hatte der BGH auch wenig Grund, sich mit dem Tatbestandsmerkmal ‚journalistisch-redaktionell‘ des Medienprivilegs näher auseinanderzusetzen.38 Der EuGH hat das im Ansatz schon 2008 getan und Blogger zumindest nicht kategorisch ausgeschlossen. In Satakunnan Markkinapörssi Oy, Satamedia Oy39 heißt es: „Journalistische Tätigkeiten sind nicht Medienunternehmen vorbehalten und können mit der Absicht verbunden sein, Gewinn zu erzielen“.40 Interessant für den Anwendungsbereich des datenschutzrechtlichen Medienprivilegs sind dann auch die folgenden Entscheidungen: Die sich aus § 41 Abs. 1 BDSG ergebende datenschutzrechtliche Sonderstellung der Medien ist daran gebunden, dass die Erhebung, Verarbeitung und Nutzung personenbezogener Daten einer pressemäßigen Veröffentlichung dient. Maßgebend ist, dass die Daten ‚ausschließlich für eigene journalistisch-redaktionelle oder literarische Zwecke‘ bestimmt sind. Übertragen auf den Bereich der Telemedien kann mithin die reine Übermittlung von erhobenen Daten an Nutzer nicht unter den besonderen Schutz der Presse fallen, weil die bloße automatische Auflistung von 37  BGH,

Urt. v. 15.12.2009 – VI ZR 227 / 08. Blick auf die Ausgestaltung des Archivprivilegs und die Implikationen eines Rechts auf Vergessen(werden) mit Spannung zu erwarten bleibt das Verfahren 1 BvR 16 / 13 beim Bundesverfassungsgericht (‚Appolonia‘). 39  EuGH, Urt. v. 16.12.2008 – Rs C-73 / 07. 40  EuGH, Urt. v. 16.12.2008 – Rs C-73 / 07, Rn. 61. 38  Mit

270

Tobias O. Keber

redaktionellen Beiträgen noch nicht eine eigene journalistisch-redaktionelle Gestaltung darstellt […]. Erst wenn die meinungsbildende Wirkung für die Allgemeinheit prägender Bestandteil des Angebots und nicht nur schmückendes Beiwerk ist, kann von einer solchen Gestaltung gesprochen werden […].41

Das Bundesverwaltungsgericht entschied 201542 in einem Beschluss, dass der Begriff ‚Presse‘ weit auszulegen sei. Darunter fielen auch selbständige Journalisten, die nicht in redaktionelle Strukturen eingebunden sind, bei einer organisatorischen Selbständigkeit der jeweiligen Abteilung auch Kunden-, Werks-, Partei- und Vereinspublikationen. Es muss demnach eine „publizierende Abteilung als Unternehmen im Unternehmen“ vorliegen. Das Medienprivileg ist kein allgemeines Meinungsprivileg. § 41 BDSG und § 57 RStV finden deshalb auch nicht auf alle Meinungsäußerungen, Foren oder Bewertungsportale im Internet Anwendung. Insbesondere folgt aus dem Umstand, dass journalistische Tätigkeiten nicht Medienunternehmen vorbehalten sind, nicht, dass jegliche Verbreitung von Informationen, Meinungen oder Ideen in der Öffentlichkeit zu journalistischen Zwecken erfolgt.43 Existiert gemäß Bundesverwaltungsgericht also kein Medienprivileg für Online-Foren, da dort keine Journalisten arbeiten? Dass es hier nicht um eine rein akademische Frage geht, mag der Fall um den Blog Netzpolitik44 verdeutlichen. Natürlich ging es dort weniger um die Verarbeitung personenbezogener Daten (datenschutzrechtliches Medienprivileg) als vielmehr um die Offenbarung von behördlich als geheim eingestuften Informationen. Für die Frage des Schutzbereichs des Medienprivilegs ist dies aber ohne Belang. Das Kammergericht Berlin arbeitet in einem Beschluss vom 28.11.2016 taugliche Kriterien für das Vorliegen des Tatbestandsmerkmals ‚journalistisch-redaktio­ nell‘ heraus.45 Danach liegt dies vor, wenn neben dem Element der Aktualität (mit Bezug zu aktuellen Vorkommnissen und politischen Fragestellungen), ein ausreichendes Maß an Faktizität (Faktizitätsanspruch aus Sicht des Anbieters) sowie an Professionalisierung der Arbeitsweise und des Grades an organisierter Verfestigung besteht.46 Zusammenfassend lässt sich daher sagen, dass der genaue Anwendungsbereich des Medienprivilegs in der Rechtsprechung noch immer nicht abschlie41  BGH, Urt. v. 23.06.2009  – VI ZR 196 / 08, Spickmich. Ausgangsfrage des Urteils war, wie weit personenbezogene Angaben im Rahmen eines Lehrerbewertungsportals zulässig sind. 42  BVerwG, Urt. v. 29.10.2015, Az. 1 B 32.15. 43  BVerwG, Urt. v. 29.10.2015, Az. 1 B 32.15, Rn. 5. 44  Zur Netzpolitik-Affäre etwa Reinbold (2016): Letzte Ermittlungen im Fall Netzpolitik. 45  KG Berlin, Az.: 10 W 173 / 16. 46  KG Berlin, Az.: 10 W 173 / 16.



Stützen der Informationsgesellschaft

271

ßend geklärt ist, vor allem wenn es um nicht traditionelle, elektronische Medien geht. Dieser Umstand ist meines Erachtens auch geeignet, den Harmonisierungsanspruch des Europäischen Datenschutzrechts auf Grundlage der DSGVO empfindlich zu stören.47 Denn die nationale Rechtsprechung zum Anwendungsbereich des Medienprivilegs divergiert erheblich. 2.3 Anonymität und Pseudonymität als Stützen der Medienfreiheiten

Informationelle Selbstbestimmung und Datenschutz konfligieren nicht in jeder Hinsicht mit Medienfreiheiten. Sie bewirken zugleich Gegenteiliges und erscheinen als wichtige Stütze der individuellen Meinungsbildungs- und Meinungsäußerungsfreiheit. Das ist beispielsweise der Fall bei pseudonymen oder anonymen Veröffentlichungen. In seinen Jugendjahren schrieb Brecht unter dem Pseudonym Berthold Eugen u. a. das Stück Die Bibel, welches er in einer Schülerzeitung Die Ernte herausbrachte, in der er den größten Teil der Beiträge selbst verfasste.48 Das Pseudonym sollte hier wohl dazu dienen, den doch überschaubaren Kreis von Autoren für das junge Blatt zu kaschieren. Ob dies von Erfolg gekrönt war, könnte im Lichte der datenschutzrechtlichen Definition des Pseudonyms bezweifelt werden. Nach § 3 Abs. 6a BDSG ist Pseudonymisieren „das Ersetzen des Namens und anderer Identifikationsmerkmale durch ein Kennzeichen zu dem Zweck, die Bestimmung des Betroffenen auszuschließen oder wesentlich zu erschweren“. Ob es den Lesern seines Blattes wesentlich erschwert war, die Person hinter dem Pseudonym zu bestimmen, wenn diese 1898 als Eugen Berthold Friedrich Brecht geboren wurde? Es kann viele Gründe haben, warum Autoren Pseudonyme nutzen oder ihre Werke anonym veröffentlichen. Das kann vergleichsweise harmlos sein, etwa im Fall der schroffen, anonymen Rezensionen einiger Schriften von Sir Isaac Newton durch seinen wissenschaftlichen Widersacher Gottfried Wilhelm Leibniz. In anderen Fällen dient die anonyme Schrift zum Schutz vor drastischen Konsequenzen. 1609 veröffentlichte Hugo Grotius seine Schrift Mare Liberum anonym. Die Schrift untergrub die Weltordnung der katholischen Kirche und wurde von dieser indiziert. 47  Art. 85 Abs. 2 DSGVO erlaubt Ausnahmen oder Abweichungen von den Verordnungsbestimmungen unter der Voraussetzung einer Datenverarbeitung, die zu journalistischen, wissenschaftlichen, künstlerischen oder literarischen Zwecken erfolgt. Zu den journalistischen Zwecken zählt nach ErwGr 153 der DSGVO insbes. die Verarbeitung im audiovisuellen Bereich sowie in Nachrichten- und Pressearchiven. Weiterführend Pauly, in: Paal / Pauly, Art. 85 DSGVO Rn. 5–10. 48  Hillesheim / Wolf (1997): Bertholt Brechts ‚Die Ernte‘.

272

Tobias O. Keber

Die Bedeutung eines privaten (Rückzugs-)Bereichs für die Meinungsbildungs- und Meinungsäußerungsfreiheit unterstreicht auch der EuGH in seiner Entscheidung zur Vorratsdatenspeicherung.49 Übersehen wird oft, dass in dieser Entscheidung nicht nur der Schutz des Privatlebens und der Schutz personenbezogener Daten adressiert wird, sondern eben auch die Meinungsäußerungsfreiheit, Art. 11 EUGR-Charta. Der EuGH stellt klar: Die in Art. 3 der Richtlinie 2006 / 24 vorgesehene Pflicht der Anbieter öffentlich zugänglicher elektronischer Kommunikationsdienste oder der Betreiber eines öffentlichen Kommunikationsnetzes, die in Art. 5 der Richtlinie aufgezählten Daten auf Vorrat zu speichern, um sie gegebenenfalls den zuständigen nationalen Behörden zugänglich zu machen, wirft Fragen hinsichtlich des in Art. 7 der Charta verankerten Schutzes sowohl des Privatlebens als auch der Kommunikation, hinsichtlich des von Art. 8 der Charta erfassten Schutzes personenbezogener Daten und hinsichtlich der durch Art.  11 der Charta gewährleisteten Freiheit der Meinungsäußerung auf.50

Der mit massenhafter Überwachung verbundene chilling effect51 hat direkte Auswirkungen auf die in Artikel 11 der Charta garantierten Rechte: [Es ist] nicht ausgeschlossen, dass die Vorratsspeicherung der fraglichen Daten Auswirkungen auf die Nutzung der von dieser Richtlinie erfassten Kommunikations­ mittel durch die Teilnehmer oder registrierten Benutzer und infolge dessen auf deren Ausübung der durch Art. 11 der Charta gewährleisteten Freiheit der Mei­ nungs­äußerung hat.52

Nicht nur der EuGH, sondern auch und vor allem der EGMR führt in ständiger Rechtsprechung potential chilling effects als wichtiges Kriterium der Grundrechtsprüfung an.53 Verdichtet kann das Gesagte so verstanden werden, dass eine freie Meinungsäußerung ohne ein gesichertes Maß an Privatheit nicht möglich ist.

49  EuGH C-293 / 12 u. C-495 / 12 (Große Kammer) – Urt. v. 08.04.2014, Vorratsdatenspeicherung. 50  EuGH C-293 / 12 u. C-495 / 12, Rn. 148. 51  Der Begriff bezeichnet einschüchternde Effekte durch staatliche Maßnahmen, die nicht nur einzelne Personen betreffen, sondern sich auf große, undefinierbare Personengruppen auswirken. Zur Terminologie: Assion (2014): Überwachung und chilling effects, S. 31 ff.; zu chilling effects in der Rechtsprechung des EGMR: Keber, in: Dörr u. a., S. 104. 52  EuGH C-293 / 12 u. C-495 / 12, Rn. 151. 53  Vgl. HUDOC (2010): Hannes Tretter and Others against Austria. Vgl. ferner Wheelhouse (2015): The Legality of Mass Surveillance Operations; Gallagher (2016): Europe’s Top Human Right Courts Consider Legality of Surveillance.



Stützen der Informationsgesellschaft

273

3. Von Schichten und Rechten Oben haben wir gesehen, dass zentrale Begrifflichkeiten, also etwa die Terminologie ‚journalistisch-redaktionell‘ nach wie vor klärungsbedürftig sind. Betroffen war letztlich die Frage, was ein Medium im Sinne der Medienregulierung eigentlich ist. Auch weitere Begrifflichkeiten wie Daten oder Informationen bedürfen der Klärung: Daten erscheinen zunächst als etwas in einer bestimmten Form Gegebenes.54 Ohne den Begriff an dieser Stelle informationswissenschaftlich ‚aufzubohren‘, schauen Juristen natürlich sofort nach einer gesetzlich determinierten Vorgabe (Legaldefinition) und sie finden eine; die aber, und das stimmt dann gleich wieder betrüblich, ausweislich der Gesetzesbegründung55 gar keine Legaldefinition darstellt. In § 202 StGB (Ausspähen von Daten) heißt es in Absatz 2: „Daten im Sinne des Absatzes 1 sind nur solche, die elektronisch, magnetisch oder sonst nicht unmittelbar wahrnehmbar gespeichert sind oder übermittelt werden“. Die Kommentarliteratur führt dazu weiter aus: Unter Daten sind Informationen zu verstehen, die in einer für eine Datenverarbeitungsanlage erkennbaren Form codiert sind, unabhängig davon, ob und in welcher Form sie verarbeitet werden.56 So fallen nicht nur Computerdaten, sondern auch Daten, die beispielsweise auf Tonbändern, Magnetbändern, Disketten, Festplatten, Memory-Sticks, Chip- und Speicherkarten (z. B. auch in Handys, iPods, etc.), Kreditkarten, CDs oder DVDs festgehalten sind, unter § 202a StGB. Das sagt zumindest die Kommentarliteratur.57 Damit ist die Konzeption im deutschen Strafrecht zum Teil weiter als die europäischen und internationalen Vorgaben aus Art. 2 CCC (z. B. illegal access) oder auch Art. 2 des Rahmenbeschlusses über Angriffe auf Kommunikationssysteme, die sich auf Computerdaten beziehen.58 54  Zur

Etymologie: Furner (2016): ‚Data‘. S. 287 f. (Beschränkung) des Anwendungsbereichs (BT-Drs. 10 / 5058, S. 29), keine Legaldefinition. Dazu auch: Gercke, in: Spindler u. a., § 202a StGB Rn. 2. 56  Vgl. dazu Peschel / Rockstroh (2014): Big Data in der Industrie, S. 573; MeyerSpasche u. a. (2013): Strafrechtlicher Schutz für Lizenzschlüssel, S. 133; Rübenstahl / Debus (2012): Strafbarkeit verdachtsabhängiger E-Mail und EDV-Kontrollen bei Internal Investigations?, S. 130; Popp (2011): Informationstechnologie und Strafrecht, S. 386; Seidl / Fuchs (2011): Zur Strafbarkeit des sogenannten ‚Skimmings‘, S. 267; Eisele (2011): Payment Card Crime, S. 132; Grützmacher (2016): Dateneigentum – ein Flickenteppich, S. 74; Goeckenjan (2009): Auswirkungen des 41. Strafrechtsänderungsgesetzes auf die Strafbarkeit des ‚Phishing‘, S. 49; Schultz (2006): Neue Strafbarkeiten und Probleme, S. 779. 57  Weidemann, in: von Heintschel-Heinegg, § 202a StGB Rn. 3–6.1. 58  „Article 1 (b) – Computer data 25. The definition of computer data builds upon the ISO-definition of data. This definition contains the terms ‚suitable for 55  ‚Konkretisierung‘

274

Tobias O. Keber

Nicht unmittelbar wahrnehmbar sind Daten, wenn sie erst nach einer Transformation mittels technischer Hilfsmittel sinnlich wahrgenommen werden können.59 Demzufolge ist Information kommunizierbares Wissen. Ein Text enthält demnach keine Information, wenn kein Empfänger existiert (Mensch), welcher die Daten mit einem bestimmten Vorwissen interpretiert.60 Hier lässt sich eine Parallele zur physischen und logischen Struktur des Internets,61 die sich in Schichten abbilden lässt, ziehen: Die physische Ebene betrifft Einzelrechner und seine Verbindungen zur Peripherie sowie zu anderen Rechnern (z. B. local area network, metropolitan area network oder wide area network). Zu unterscheiden sind Hochleistungsverbindungen zwischen Subnetzen (z.  B. Glasfaser) und Verbindungen der Einzelrechner über Schmalband- und Breitbandverbindungen. Ausgangspunkt der logischen Struktur sind Protokolle, d. h. Kommunikationsregeln. Protokolle arbeiten auf verschiedenen Ebenen. Die Einteilung dieser Ebenen erfolgt nach dem open systems interconnections modell (OSI) der International Standards Organisation (ISO) oder nach dem Modell des Department of Defense (DoD). Gleich einem Schichtenmodell, wie es der logischen Struktur des Internets zu Grunde liegt, lassen sich auch für unseren Untersuchungsgegenstand physical layer (Datenträger), code layer (Daten) und content layer (Information) unterscheiden.62 Dieses Schichtenmodell kann für die Definition und den Inhalt weiterer systematisch relevanter Begriffe fruchtbar gemacht werden. Fast schon eine datenschutzrechtliche Binsenweisheit ist, dass im BDSG und in den Landesdatenschutzgesetzen (und künftig auch in der DSGVO) nicht (personenbezogene) Daten, sondern Menschen geschützt werden, indem die verfassungsrechtlichen Vorgaben zum Schutz der Persönlichkeit und der informationellen Selbstbestimmung einfachgesetzlich konkretisiert werden.63 processing‘. This means that data is put in such a form that it can be directly processed by the computer system. In order to make clear that data in this Convention has to be understood as data in electronic or other directly processable form, the notion ‚computer data‘ is introduced. Computer data that is automatically processed may be the target of one of the criminal offences defined in this Convention as well as the object of the application of one of the investigative measures defined by this Convention.“ Explanatory Report ETS 185, S. 8. 59  Weidemann, in: von Heintschel-Heinegg, § 202a StGB Rn. 3–6.1. 60  Capurro (1978): Information, S. 293: „A text ‚contains‘ no information without a ‚receiving structure‘ “; Capurro (1986): Hermeneutik der Fachinformation, S. 52–55. 61  Keber, in: Dörr u. a., S. 494 ff. 62  Lessig (2002): The Future of Ideas, S. 240 f. 63  Dazu: Simitis, in: Simitis, § 1 BDSG Rn. 23–28; Faber (2003): Verrechtlichung – ja, aber immer noch kein ‚Grundrecht‘!, S. 278.



Stützen der Informationsgesellschaft

275

Flankierend erfolgt der Schutz des höchstpersönlichen Lebensbereichs sowie von Privatgeheimnissen über die strafrechtlichen Vorschriften §§ 201, 201a, 202, 203, 204 StGB, welche die Preisgabe sensibler Informationen betreffen und auch in Daten vorliegen können.64 In Daten vorliegen können darüber hinaus Geschäfts- und Dienstgeheimnisse, wobei ihre Preisgabe über § 17 UWG und die §§ 203, 353b StGB sanktioniert wird. Die genannten Vorgaben lassen sich dahingehend kategorisieren, dass ihnen ein inhaltsbezogenes Schutzkonzept für Daten bzw. Informationen zu Grunde liegt.65 In diesem Zusammenhang ließe sich dann durchaus von einem bezugsabhängigen ‚Informationsbeherrschungsrecht‘66 sprechen, das nicht nur Personen, sondern auch staatlichen sowie privaten Institutionen zugewiesen sein kann. Im Strafrecht existieren daneben Tatbestände, denen ein eher formales Schutzkonzept zu Grunde liegt und bei denen es dann tatsächlich auch um den Schutz von Daten, namentlich um ihre Verfügbarkeit und Integrität geht. Hierbei geht es um §§ 202a, 202b und 202c StGB, welche die unzulässige Verschaffung von besonders gesicherten oder in Übermittlung befindlichen Daten erfassen, sowie die §§ 303a, 303b StGB, welche die Veränderung und Beseitigung von Daten betreffen. Diese Tatbestände orientieren sich am strafrechtlichen Schutz von Sachen. So ist dann beispielsweise die Datenveränderung (§ 303a StGB) der Sachbeschädigung (§ 303 StGB) nachgebildet. In §§ 202a ff. und 303a ff. StGB geht es also nicht um die Information als solche – wo auch immer sie gespeichert ist – sondern darum, dass bestimmte physikalisch vorliegende Informationen, die bestimmten Personen zugeordnet werden, unbefugt aus Hardware oder Übermittlungsvorgängen extrahiert oder darin verändert werden.67 Es geht um die (formelle) Verfügungsbefugnis über die Daten, nicht dagegen über die Information. Die Frage, wem die aus diesem Normenkreis zustehenden Rechtspositionen originär zugewiesen sind, ist ungleich schwieriger zu beantworten als bei den bezugsabhängigen Informationsbeherrschungsrechten.68 Einigkeit besteht weitgehend darin, dass weder das Eigentum am Datenträger noch die Tatsache, dass die Daten einen Täter selbst betreffen, von entscheidender Bedeu-

64  Dazu:

Singelnstein (2016): Ausufernd und fehlplatziert, S. 434. (2016): Ausufernd und fehlplatziert, S. 432 f. 66  Vgl. dazu: Amelung (1990): Informationsbeherrschungsrechte im Strafprozess, S. 36. 67  Vgl. Singelnstein (2016): Ausufernd und fehlplatziert, S. 531. 68  Vgl. Singelnstein (2016): Ausufernd und fehlplatziert, S. 434. 65  Singelnstein

276

Tobias O. Keber

tung sind.69 Der BGH hat in seiner Entscheidung zu den Altkanzler KohlTonband-Memoiren70 gerade unterstrichen, dass Daten- und Trägermedien­ eigentum streng zu unterscheiden sind und dass der Regelfall das Auseinanderfallen beider Positionen ist.71 Folglich ist zwischen der Verfügungsberechtigung über das Speichermedium und der Verfügungsberechtigung über die darauf gespeicherten Daten zu unterscheiden. Eine weitere Ebene ist die der Information, die rechtlich ebenso verselbstständigt ist. Zur Bestimmung der (straf-)rechtlichen Verfügungsbefugnis über Daten stellt die herrschende Ansicht in Literatur und Rechtsprechung auf den sogenannten Skripturakt72 ab, wonach demjenigen die Datenverfügungsbefugnis zusteht, der die Speicherung der Daten unmittelbar selbst bewirkt hat.73 So steht beispielsweise die Verfügungsbefugnis an den Rohmessdaten nicht dem Hersteller der Geschwindigkeitsmessanlage, sondern der Polizeibehörde zu, die diese Daten erzeugt und abgespeichert hat.74 Geht es bei dem soeben dargestellten Normenkreis vornehmlich um Verbote sowie die Abwehr unzulässiger Lese- und Schreibvorgänge (oder in datenschutzrechtlicher Terminologie: das Erheben und Beschaffen auf der einen und das Verarbeiten und Nutzen auf der anderen Seite) in Bezug auf Daten und Informationen stellt sich die Frage, wie weit der Datenschutz im weiteren Sinne75 durch das Bestehen positiver Verwertungs- und Nutzungsrechte eine weitere Wirkdimension erhält und sich zu einem ‚echten‘ Daten­ eigentum verdichtet. 4. Eigentum an Daten und Information? 4.1 Die Diskussion um das Dateneigentum

Soeben wurde das gegenwärtige System des Schutzes von Daten und Informationen dargestellt. Die Begründung darüber hinausgehender, möglichst ausschließlicher Rechte an Daten als zentralem Produktionsmittel (‚Roh­ 69  Weidemann,

in: von Heintschel-Heinegg, § 202a StGB Rn. 7–10.3, m. w. N. Urt. v. 10.7.2015 – V ZR 206 / 14. Vgl. dazu die Urteilsbesprechung von Wüsthof: Wüsthof (2016): Anmerkung zu BGH, Urteil vom 10. Juli 2015 – V ZR 206 / 14, S. 51–53. 71  Zum Problem fehlender ‚personeller Konvergenz‘ vgl. Berberich / Golla (2016): Zur Konstruktion eines ‚Dateneigentums‘, S. 165 ff. (S. 170, Fn 46). 72  Welp (1988): Datenveränderungen (§ 303a StGB), S. 447; zum Ganzen auch: Grützmacher (2016): Dateneigentum – ein Flickenteppich, S. 490. 73  Zu § 303a StGB: OLG Nürnberg, Beschl. v. 23.01.2013, Az.: 1 Ws 445 / 12. 74  Vgl. OLG Naumburg, Urt. v. 27.08.2014, Az. 6 U 3 / 14. 75  Vgl. hierzu Lewinski (2014): Die Matrix des Datenschutzes, S. 6 f. 70  BGH,



Stützen der Informationsgesellschaft

277

stoff‘)76 der Datenwirtschaft, wird in Literatur und Praxis schon länger diskutiert.77 In letzter Zeit finden sich Beiträge dazu vor allem im Kontext der Datenverarbeitung im Rahmen der Industrie 4.0, dem IoT sowie autonomen Fahrzeugen.78 Geführt wird die Debatte in der Regel unter dem Schlagwort ‚Dateneigentum‘,79 wobei je nach systematischem Ausgangspunkt auch von Datenverwertungsrecht, Datenherrschaft, Datenhoheit oder Datensouveränität die Rede ist.80 Ob die Begründung eines Dateneigentums ökonomisch sinnvoll wäre, ist dabei ebenso umstritten wie es unterschiedliche Vorschläge gibt, wo und wie ein solches Recht normsystematisch zu verorten wäre. Zentrale Schaltstelle innerhalb dieser Debatte ist zunächst die Frage, ob die Konzeption weitergehender Datenrechte auch personenbezogene Daten erfassen kann.81 Die meisten Autoren lehnen dies allerdings ab, um allzu große Brüche im System zu vermeiden. Im Lichte des Volkszählungsurteils 76  Der Metapher bedient sich u. a. Bundeskanzlerin Merkel regelmäßig, beispielsweise beim Tag der Deutschen Industrie am 6. Oktober 2016 in Berlin. Vgl. Bundesregierung.de (2016): Rede von Bundeskanzlerin Merkel beim Tag der Deutschen Industrie am 6. Oktober 2016 in Berlin. Das Bild der Daten als das Öl der Informationsgesellschaft ist zugleich richtig und falsch: Es ist falsch, weil Daten fortlaufend generiert werden und die Ressource damit theoretisch unerschöpflich ist; aber auch richtig, weil Daten wie Öl beherrschbar und abgrenzbar (z. B. durch Verschlüsselung) sind. 77  Vgl. bspw. Hoeren (2013): Dateneigentum, S. 487. 78  Vgl. etwa Ernsthaler (2016): Industrie 4.0 und die Berechtigung an Daten, S. 3473 ff.; Wiebe (2016): Protection of industrial data, S. 877 ff.; Zech (2015): Industrie 4.0, Rechtsrahmen für eine Datenwirtschaft im digitalen Binnenmarkt, S. 1151 ff.; Hornung / Goeble (2015): ‚Data Ownership‘ im vernetzten Automobil, S. 265 ff.; Wiebe / Schur (2017): Ein Recht an industriellen Daten im verfassungsrechtlichen Spannungsverhältnis zwischen Eigentumsschutz, Wettbewerbs- und Informationsfreiheit, S.  461 ff. 79  Vgl. etwa Grützmacher (2016): Dateneigentum – ein Flickenteppich, S. 485 ff.; DAV (2016): Stellungnahme zur Frage des ‚Eigentums‘ an Daten und Informationen, Stellungnahme 75 / 2016 v.  November 2016; Berberich / Golla (2016): Zur Konstruktion eines ‚Dateneigentums‘, S. 165 ff. 80  Vgl. bspw. Krüger (2016): Datensouveränität und Digitalisierung, S. 190  ff.; Schwartmann / Hentsch (2016): Parallelen aus dem Urheberrecht für ein neues Datenverwertungsrecht, S. 117 ff. Zu den Begriffen auch Veil (2011): Was ist eigentlich Datenpolitik?, S. 282. 81  Damit wäre an dieser Stelle der Sache nach ein weiteres begriffliches Minenfeld zu betreten, nämlich das der ‚personenbezogenen Daten‘. Angesichts der vielen Möglichkeiten, die data mining oder big data-Anwendungen heute bieten, ist die Bestimmbarkeit einer Person über verknüpfte Informationen und Zusatzwissen vergleichsweise einfach; der Anwendungsbereich des Datenschutzrechts ist dann vor diesem Hintergrund weit. Zur Diskussion, die sich üblicherweise am Personenbezug von dynamischen IP-Adressen entflammt vgl. Brink / Eckhardt (2015): Wann ist ein Datum ein personenbezogenes Datum, S. 205 ff.; zuletzt EuGH, C-582 / 14 v. 19.10.2016, Rn. 46.

278

Tobias O. Keber

problematisch erscheint der Ansatz, Dateneigentum über das Recht auf informationelle Selbstbestimmung zu begründen.82 Die informationelle Selbstbestimmung ist als Abwehrrecht des Einzelnen gegen mögliche Grundrechtsrisiken durch zügellose Datenverarbeitung konzipiert und kann nicht als Instrument zur Schaffung einer positiven Dateneigentumsordnung dienen. So könnte das Recht auf informationelle Selbstbestimmung Dateneigentum nicht begründen, sondern nur begrenzen.83 Begründen lässt sich Dateneigentum gegebenenfalls mit einer erbrachten Eigenleistung, soweit man diese – wie Locke84 – konstituierend für die Güterzuweisung hält. Im Urheberrecht besteht die Eigenleistung beispielsweise in einem schöpferischen Akt oder in wesentlichen Investitionen (z. B. in Datenbanken). Fraglich ist dann nur, wer diese Eigenleistung in Ansehung der Produktion von Daten erbringt. Ist es der Datenerzeuger? Ist es derjenige, der zentrale Dienste, also die wesentliche Dateninfrastruktur, zur Verfügung stellt? Ist es derjenige, der die Informationen speichert? Gilt eine einheitliche Betrachtungsweise oder variiert der Kriterienkatalog bereichsspezifisch (wearable oder connected car)? Ein auf nicht personenbezogene Daten beschränktes Dateneigentum klingt auch in dem am 10.01.2017 im Zusammenhang mit der e-Privacy-Verordnung veröffentlichten Paket der EU-Kommission an. Dort ist unter „Building a European Data Economy“ von einem „right to use & authorise the use of non-personal data“ die Rede. Zugewiesen sein soll dieses Recht dem data producer bzw. dem device owner.85 Für ein Dateneigentum spricht weiter, dass mit der Etablierung ausschließlicher Rechte ein Anreiz geschaffen wer82  Im Urteil unterstrich das BVerfG, dass informationelle Selbstbestimmung nicht schrankenlos gewährleistet sei. Es heißt dort: „Der Einzelne hat nicht ein Recht im Sinne einer absoluten, uneinschränkbaren Herrschaft über ‚seine‘ Daten; er ist vielmehr eine sich innerhalb der sozialen Gemeinschaft entfaltende, auf Kommunikation angewiesene Persönlichkeit. Information, auch soweit sie personenbezogen ist, stellt ein Abbild sozialer Realität dar, das nicht ausschließlich dem Betroffenen allein zugeordnet werden kann. Das Grundgesetz hat, wie in der Rechtsprechung des Bundesverfassungsgerichts mehrfach hervorgehoben ist, die Spannung Individuum vs. Gemeinschaft im Sinne der Gemeinschaftsbezogenheit und Gemeinschaftsgebundenheit der Person entschieden […]. Grundsätzlich muss daher der Einzelne Einschränkungen seines Rechts auf informationelle Selbstbestimmung im überwiegenden Allgemeininteresse hinnehmen.“ BVerfGE 65, 1 (43); Urt. v. 15.12.1983 – 1 BvR 209, 269, 362, 420, 440, 484 / 83; NJW 1984, S. 419 f. 83  Dazu: Specht, in: Specht / Lauber-Rönsberg: Medienrecht im Medienumbruch, S. 130; Specht / Rohmer (2016): Zur Rolle des informaionellen Selbstbestimmungsrechts, S. 132. 84  Vgl. Locke (1977): Zwei Abhandlungen über die Regierung. 85  Informationen zum Reformprozess können abgerufen werden unter: Europäische Kommission (2017): Building a European data economy.



Stützen der Informationsgesellschaft

279

den könnte, Daten zu produzieren.86 Wenn der Berechtigte ‚seine‘ Daten (leichter) monetarisieren könnte, stellt er sie eher zur Verfügung, so die Überlegung. Klare Regelungen führen zu mehr Rechtssicherheit, was sich nicht nur zu Gunsten des individuell Berechtigten auswirkt, sondern auch die (bis dato bisweilen in ‚Wild-West-Manier‘ agierenden) Datenmärkte ordnen könnte.87 Wenn Daten nicht frei verfügbar wären, sondern entgeltlich erworben werden müssten, könnte dies dazu führen, dass die datenverarbeitende Institution ihre Investition wohl überlegt und nur die für deren Zwecke unbedingt erforderliche Datenmenge erwerben würde. Die damit einhergehende ökonomisch motivierte Datensparsamkeit dient letztlich der informationellen Selbstbestimmung der Dateneigentümer, so jedenfalls die Idee.88 Die Argumente der Befürworter halten die Gegner des Dateneigentums für nicht stichhaltig: Die Schaffung zusätzlicher Anreize sei, anders als im Urheberrecht, wo sich künstlerisches Schaffen auch im gesamtgesellschaftlichen und kulturellen Interesse lohnen soll, in Hinblick auf das Generieren von Daten nicht erforderlich. Diese würden mit stetiger Zunahme der Internetnutzung und dem weit verbreitenden Einsatz ‚smarter‘ Gerätschaften ohnehin in großer Menge produziert.89 Mehr Rechtssicherheit vermittle die Etablierung eines Dateneigentums nicht, denn der Schutzgegenstand könne nicht hinreichend definiert werden. Damit versage das Konzept auch und vor allem, wenn es um die Frage der originären Zuweisung von Rechtspositionen geht. Schließlich bestünden Unklarheiten zum Verhältnis des Dateneigentums zu anderen Rechten, namentlich zur informationellen Selbstbestimmung und zu (anderen) Rechten des Geistigen Eigentums.90 Und nun zu dem aus der Perspektive dieses Beitrags (Mediensystem) zentralen Gegenargument der das Dateneigentum ablehnenden Stimmen: Daten­ eigentum begründe letztlich die Gefahr einer Monopolisierung von Information. 4.2 Informationseigentum?

Eine solche Monopolisierung von Information kann ihren Ursprung darin haben, dass die rechtliche Konzeption des Dateneigentums dem angesprochenen Schichtenmodell nicht hinreichend Rechnung trägt und zwischen 86  Nachweis zum Meinungsstand und Argumentation bei Wiebe (2016): Protection of Industrial Data, S. 881 f. 87  Wiebe (2016): Protection of Industrial Data, S. 881. 88  Wiebe (2016): Protection of Industrial Data, S. 881. 89  So im Ergebnis bspw. Drexl u. a. (2016): Ausschließlichkeits- und Zugangsrechte an Daten, S. 915; Kerber (2016): Governance of Data, S. 761. 90  Zur Argumentation insoweit Zech (2015): ‚Industrie 4.0‘, S. 1159.

280

Tobias O. Keber

Rechten am Datenträger, an Daten und an der Information nur unzureichend differenziert wird.91 Auch muss der jeweilige Schutzzweck der Norm ins Auge gefasst werden. Einigermaßen schief erscheint vor diesem Hintergrund eine Entscheidung des Oberlandesgerichts Köln,92 wonach militärische Lageberichte urheberrechtlich geschützt sind und ihre Veröffentlichung im Netz urheberrechtliche Unterlassungsansprüche auslöst. In der Sache geht es um Vertraulichkeit von Information und deren Schutz, begründet werden die Ansprüche jedoch urheberpersönlichkeitsrechtlich (Veröffentlichungsrecht des Beamten) und mit Verwertungsrechten am Werk bzw. der in diesem zum Ausdruck kommenden Information.93 Im Schichtenmodell schräg liegt auch der neu eingeführte Straftatbestand der Datenhehlerei.94 Konzeptionell wurde die Vorschrift95 innerhalb ihrer bewegten Entwurfsgeschichte96 mehrfach grundlegend modifiziert; Ge91  Wie oben dargelegt, gelingt die Unterscheidung derzeit noch recht gut hinsichtlich der Schichten Datenträger (physis) und darauf gespeicherter Information (logos). Ausschließliche Rechte des Urhebers tangieren z. B. auch nicht die Zerstörung des Werks durch den Rechteinhaber. 92  OLG Köln, Urt. v. 12.06.2015, Az.: 6 U 5 / 15. 93  Vgl. dazu den Vorlagebeschluss des BGH vom 1.  Juni 2017  – I ZR 139 / 15  – Afghanistan Papiere. 94  Mit dem am 10.12.2015 verkündeten „Gesetz zur Einführung einer Speicherpflicht und Höchstspeicherfrist für Verkehrsdaten“ ging eine von der Öffentlichkeit wenig wahrgenommene Änderung des Strafgesetzbuches einher, namentlich die Einführung des Straftatbestands der Datenhehlerei, § 202d StGB (BGBl I 2015, S. 2218 [2227]). § 202d (Datenhehlerei) bestimmt: „(1) Wer Daten (§ 202a Absatz 2), die nicht allgemein zugänglich sind und die ein anderer durch eine rechtswidrige Tat erlangt hat, sich oder einem anderen verschafft, einem anderen überlässt, verbreitet oder sonst zugänglich macht, um sich oder einen Dritten zu bereichern oder einen anderen zu schädigen, wird mit Freiheitsstrafe bis zu drei Jahren oder mit Geldstrafe bestraft. (2) Die Strafe darf nicht schwerer sein als die für die Vortat angedrohte Strafe. (3) Absatz 1 gilt nicht für Handlungen, die ausschließlich der Erfüllung rechtmäßiger dienstlicher oder beruflicher Pflichten dienen. Dazu gehören insbesondere 1. solche Handlungen von Amtsträgern oder deren Beauftragten, mit denen Daten ausschließlich der Verwertung in einem Besteuerungsverfahren, einem Strafverfahren oder einem Ordnungswidrigkeitenverfahren zugeführt werden sollen, sowie 2. solche beruflichen Handlungen der in § 53 Absatz 1 Satz 1 Nummer 5 der Strafprozessordnung genannten Personen, mit denen Daten entgegengenommen, ausgewertet oder veröffentlicht werden“. 95  Zum Gesetz: Roßnagel (2016): Die neue Vorratsdatenspeicherung. Der nächste Schritt im Ringen um Sicherheit und Grundgesetz, S. 537; Golla (2016): Papiertiger gegen Datenkraken. Zum Schutz der informationellen Selbstbestimmung durch das Strafrecht, S. 198; Singelnstein (2016): Ausufernd und fehlplatziert. Der Tatbestand der Datenhehlerei (§ 202 d StGB) im System des strafrechtlichen Daten- und Informationsschutzes, S. 432 f.; Stuckenberg (2016): Der missratene Tatbestand der neuen Datenhehlerei, S.  526 f. 96  Dazu: Stuckenberg (2016): Der missratene Tatbestand der neuen Datenhehlerei, S. 527; Zur Genese der Vorschrift vgl. Franck (2015): Datenhehlerei nach künftigen



Stützen der Informationsgesellschaft

281

schütztes Rechtsgut der finalen Konzeption ist ausweislich der Gesetzesbegründung das ‚formelle Datengeheimnis‘,97 weshalb der Tatbestand normsystematisch bei den Tatbeständen der §§ 202a, 202b und 202c StGB sowie der §§ 303a, 303b StGB verortet ist. In der Sache regeln wollte der Gesetzgeber allerdings ein inhaltsbezogenes Informationsbeherrschungsrecht, denn bei der Datenhehlerei geht es doch um das inhaltsbezogene Interesse des Betroffenen, dass Dritte nicht Kenntnis vom Inhalt der Daten (d. h. Informationen) erlangen.98 Die Datenhehlerei wirft zudem die für das Mediensystem der Bundesrepublik Deutschland höchst relevante Frage auf, wie weit der Tatbestand die Tätigkeit der Medien erschwert, da die Presse innerhalb einer ‚Aura des vielleicht Strafbaren‘99 handelt. 4.3 Ausschließlichkeitsrechte an Daten und Informationen am Praxisfall

Im Rahmen des 33. Chaos Communication Congress hielt der Data Scientist David Kriesel100 einen Vortrag mit dem Titel ‚SpiegelMining  – Reverse Engineering von Spiegel-Online‘.101 Kriesel hatte seit Mitte 2014 fast § 202d StGB, S. 181; Dix u. a. (2015): Schnellschuss gegen die Grundrechte. Plädoyer für eine ausführliche öffentliche Debatte in Sachen Vorratsdatenspeicherung, S. 304 f.; Selz (2015): Gesetzesentwurf zur Strafbarkeit der sogenannten Datenhehlerei, S. 933. 97  BT-Drs. 18 / 5088, S. 26. 98  Zur Kritik am Tatbestand vgl. Keber, in: Schwartmann u. a., Kap. 23, Abschnitt 2.4. 99  Vgl. hierzu etwa Markhardt (2017): Pressemitteilung zur Verfassungsbeschwerde der GFF gegen den Anti-Whistleblower-Paragraphen zur ‚Datenhehlerei‘; vgl. auch Weidemann, in: von Heintschel-Heinegg, § 202d StGB Rn. 17–21, zur Ausschlussklausel: Der Tatbestandsausschluss gilt nach Nr. 1 für Amtsträger (§ 11 Abs. 1 Nr. 2 StGB – § 11 StGB Rn. 11) und auch für aufgrund eines privatrechtlichen Auftrages im konkreten Einzelfall von einem Amtsträger beauftragte behördenexterne Personen, die Amtsträgern Daten verschaffen, die diesen der Erfüllung ihrer dienstlichen Pflichten dienen (BR-Drs. 249 / 15, S. 52). Dies gilt für die Heranziehung von Beauftragten für die Erfüllung beruflicher Pflichten entsprechend. Nr. 2 ist nach der Gesetzesbegründung (BR-Drs. 249 / 15, S. 53) an § 353b Abs. 3a StGB angelehnt, sodass auf die hierzu entwickelten Auslegungsgrundsätze verwiesen werden kann (§ 353b StGB Rn. 6). Zu den in § 53 Abs. 1 S 1 Nr. 5 StPO genannten Personen gehört, wer bei der Vorbereitung, Herstellung oder Verbreitung von Druckwerken, Rundfunksendungen, Filmberichten oder der Unterrichtung oder Meinungsbildung dienenden Informationsund Kommunikationsdiensten berufsmäßig mitwirkt oder mitgewirkt hat. 100  Bekanntheit erlangte der Informatiker durch seinen Vortrag zum ‚Xerox Scanner-Bug‘. Vgl. dazu die Dokumentation auf Kriesels Blog: vgl. Kriesel (2017): Spiegelmining. 101  Vgl. Kriesel (2017): Spiegelmining.

282

Tobias O. Keber

100.000 (richtigerweise wohl bis zu 700.000) html-Seiten auf Spiegel-Online ‚gevorratsdatenspeichert‘ und einer Big Data-Analyse zugeführt. Deren Ergebnisse waren bemerkenswert. Er konnte Aussagen dazu treffen, wer wann welche Artikel schreibt (d. h. wann steht der Verfasser auf, z. B. später bei Ressort Kultur), wie lang die Artikel sind, wie die Teams zugeschnitten sind und welche Artikel wann und wie geändert wurden. Kriesel stellte in seinem Vortrag fest, dass seine Big Data-Analyse von demjenigen, „der die Information öffentlich zugänglich gemacht hat“ nicht verhindert werden könne. Dem wäre so, wenn das Urheberrecht nicht einer Analyse der zugrundeliegenden Rohdaten entgegenstünde. Das führt zur Frage der rechtlichen Zulässigkeit des Text-Data-Mining (TDM). Unter TDM versteht man102 die Suche nach neuen Zusammenhängen in bestehenden Texten durch den Einsatz von Analysewerkzeugen, die durch Algorithmen gesteuert werden. Urheberrechtliche Relevanz erhält der Vorgang möglicherweise dadurch, dass es sich um einen zustimmungspflichtigen Verwertungsvorgang handelt, weil er über den vom Rechteinhaber gestatteten reinen Lesezugriff (durch Menschen) hinausgeht.103 Die Diskussion wird im Rahmen der Debatte um eine Reform des europäischen Urheberrechts ebenso geführt wie auf nationaler Ebene, wo im gegenwärtig diskutierten „Gesetz zur Angleichung des Urheberrechts an die aktuellen Erfordernisse der Wissensgesellschaft“ (UrhWissG) in § 60d UrhWiss­ G-E104 eine Vorschrift zur Zulässigkeit von Text und Data Mining zu Gunsten der wissenschaftlichen Forschung vorgesehen ist. Ob Kriesels Text- und Datenauswertung der Inhalte auf Spiegel-Online nach (noch) geltendem Recht zulässig war, ist eine offene Rechtsfrage und keineswegs so klar, wie es in seiner Einschätzung oben anklingt. Illustrativ ist der Fall allemal, weil die Begründung von Ausschließlichkeitsrechten an Daten und Information beim TDM mit den Konzepten des free flow of information105 und free flow of data106 in Einklang zu bringen ist.

102  Synonym gesprochen wird zum Teil auch von textual data mining oder text knowledge engineering. Zu den Begrifflichkeiten vgl. Drees (2016): Text und Data Mining, S. 50 ff. 103  Zu den Rechtsfragen vgl. Spindler (2016): Text und Datamining – urheber- und datenschutzrechtliche Fragen, S. 1112 ff. 104  Vgl. v. a. zur Begründung der Vorschrift BT-Drs. 18 / 12329, S. 40 ff. 105  Zum free flow of information vgl. Fink u. a. (2008): Europäisches und internationales Medienrecht, S. 214. 106  Informationen zur free flow of data sind unter https: /  / ec.europa.eu / digitalsingle-market / en / building-european-data-economy zu finden.



Stützen der Informationsgesellschaft

283

5. Zusammenfassung und abschließende Thesen Die großflächige Erhebung und Analyse des individuellen Mediennutzungsverhaltens ist nicht nur datenschutzrechtlich problematisch, sondern begünstigt meinungsbildungsrelevante Echo-Kammern (sog. filter bubbles), die zu einer Segmentierung der (digitalen) Gesellschaft führen können. Das Spannungsfeld zwischen informationeller Selbstbestimmung und den Medienfreiheiten wird über das datenschutzrechtliche Medienprivileg gesteuert. Sein Anwendungsbereich, namentlich in Ansehung neuer medialer Erscheinungsformen, ist in der Rechtsprechung (national sowie unionsweit) noch immer nicht abschließend geklärt, was der mit der DSGVO beabsichtigten Vollharmonisierung potentiell entgegenläuft. Das Bestehen eines persönlichen (d. h. mentalen) Rückzugsbereichs ist wichtige Stütze der individuellen Meinungsbildungs- und Meinungsäußerungsfreiheit. Insoweit sind auch pseudonyme und anonyme Veröffentlichungen bedeutsam. Das Institut des Dateneigentums müsste in das gegenwärtige System von Ausschließlichkeit vermittelnden positiven Nutzungsrechten eingepasst werden. Zielführend ist die Verortung im Schichtenmodell. Die Koordinaten hierfür sind neben den einschlägigen Normen (z. B. § 903 BGB, § 87a UrhG, § 17 UWG) der Schutzzweck (Vertraulichkeit und Integrität) sowie die Frage, ob es ‚nur‘ um Verfügungs- oder auch um Verwertungsbefugnisse geht. Offen bleibt dabei die Frage, wie sich ein (wie auch immer konzipiertes) ‚Dateneigentum‘ auf die Medien- und Informationsfreiheit und damit auf das gesamte Mediensystem auswirkt. Bibliografie Amazon.de: Nutzungsbedingungen für Amazon-Geräte (2016). URL: www.amazon. de/gp/help/customer/display.html?nodeId=202002080 (zuletzt eingesehen am 17.07.2017). Amelung, Knut: Informationsbeherrschungsrechte im Strafprozeß. Dogmatische Grundlagen individualrechtlicher Beweisverbote. Berlin 1990. Assion, Simon: Überwachung und Chilling Effects. In: Telemedicus e. V. (Hg.): Überwachung und Recht. Tagungsband zur Telemedicus Sommerkonferenz. Berlin 2014, S. 31–82. Augustinus: Bekenntnisse (o. J.). URL: https://www.unifr.ch/bkv/kapitel68-2.htm (zuletzt eingesehen am 20.07.2017). Berberich, Matthias/Golla, Sebastian: Zur Konstruktion eines ‚Dateneigentums‘  – Herleitung, Schutzrichtung, Abgrenzung. In: PinG Privacy In Germany 5 (2016), S. 165–176. BFDI: Beschluss des Düsseldorfer Kreises vom Mai 2014. Smartes Fernsehen nur mit smartem Datenschutz (2014). URL: https://bfdi.bund.de/SharedDocs/Publikatio

284

Tobias O. Keber

nen/Entschliessungssammlung/DuesseldorferKreis/Beschluss_SmartTV.html (zuletzt eingesehen am 13.07.2017). Böckenförde, Ernst-Wolfgang: Staat, Gesellschaft, Freiheit. Studien zur Staatstheorie und zum Verfassungsrecht. Frankfurt/M. 1976. Brink, Stefan/Eckhardt, Jens: Wann ist ein Datum ein personenbezogenes Datum? Anwendungsbereich des Datenschutzrechts. In: ZD 5 (2015), S. 205–212. Buchmann, Johannes: Internet Privacy. Eine multidisziplinäre Bestandsaufnahme. Heidelberg 2012. Bundesregierung.de: Rede von Bundeskanzlerin Merkel beim Tag der Deutschen Industrie am 6. Oktober 2016 in Berlin (2016). URL: https://www.bundesregierung. de/Content/DE/Rede/2016/10/2016-10-06-rede-merkel-tag-der-deutschen-indus trie.html (zuletzt eingesehen am 13.07.2017). Busch, Stefan: Lautes und leises Lesen in der Antike (o. J.). Rheinisches Museum für Philologie. URL: http://www.rhm.uni-koeln.de/145/Busch.pdf (zuletzt eingesehen am 13.07.2017). Capurro, Rafael: Hermeneutik der Fachinformation. Freiburg 1986. ‒ Information. Ein Beitrag zur etymologischen und ideengeschichtlichen Begründung des Informationsbegriffs. München 1978. Cohn, Cindy/Higgins, Parker: Who’s tracking your reading habits? An E-Book Buyer’s Guide to Privacy 2012 Edition (2012). URL: www.eff.org/deeplinks/ 2012/11/e-reader-privacy-chart-2012-update (zuletzt eingesehen am 13.07.2017). DasErste.de: Video #nacktimnetz: Daten von Bürgern ausgespäht. In: ARD mittagsmagazin vom 03.11.2016. URL: www.daserste.de/information/politik-weltgesche hen/mittagsmagazin/videos/nacktimnetz-daten-von-buergern-ausgespaeht-102. html (zuletzt eingesehen am 13.07.2017). Deutscher Anwaltsverein: Stellungnahme zur Frage des ‚Eigentums‘ an Daten und Informationen (2016). URL: https://anwaltverein.de/de/newsroom/sn-75-16-fragedes-eigentums-an-daten-und-informationen (zuletzt eingesehen am 13.07.2017). DIVSI: 1 Jahr danach – Wie Deutsche den Snowden/NSA-Skandal wahrnehmen und welche Konsequenzen sie daraus ziehen (2015). URL: https://www.divsi.de/1jahr-danach-wie-deutsche-den-snowdennsa-skandal-wahrnehmen/ (zuletzt eingesehen am 13.07.2017). Dix, Alexander u. a.: Schnellschuss gegen die Grundrechte. Plädoyer für eine ausführliche öffentliche Debatte in Sachen Vorratsdatenspeicherung. In: ZD 7 (2015), S. 300–305. Drees, Bastian: Text und Data Mining. Herausforderungen und Möglichkeiten für Bibliotheken. In: Perspektive Bibliothek 5.1 (2016), S. 49–73. Drexl, Josef u. a.: Ausschließlichkeits- und Zugangsrechte an Daten. In: GRUR 10 (2016), S. 914–918. Dörr, Dieter / Kreile, Johannes / Cole, Marc D.: Handbuch Medienrecht. Recht der elektronischen Massenmedien. 2. Auflage, Frankfurt am Main 2010 (zitiert als Bearbeiter, in: Dörr u. a.).



Stützen der Informationsgesellschaft

285

Eisele, Jörg: Payment Card Crime. Skimming. In: CR 2 (2011), S. 131–136. Ernsthaler, Jürgen: Industrie 4.0 und die Berechtigung an Daten. In: NJW 48 (2016), S. 3473–3478. Europäische Kommission: Building a European Data Economy (2017). URL: https:// ec.europa.eu/digital-single-market/en/policies/building-european-data-economy (zuletzt eingesehen am 13.07.2017). ‒ Free Flow of Data Initiative (2017). URL: https://ec.europa.eu/digital-singlemarket/en/policies/building-european-data-economy (zuletzt eingesehen am 13.07.2017). Faber, Michael: Verrechtlichung – ja, aber immer noch kein ‚Grundrecht‘! – Zwanzig Jahre informationelles Selbstbestimmungsrecht. In: RDV (2003), S. 278–285. Fink, Udo u. a.: Europäisches und internationales Medienrecht. Heidelberg 2008. Franck, Lorenz: Datenhehlerei nach künftigen § 202d StGB. In: RDV 4 (2015), S. 180–183. Fritzsche, Lara: Dein Buch liest dich. In: SZ-Magazin 31 (2013). URL: http://szmagazin.sueddeutsche.de/texte/anzeigen/40237/Dein-Buch-liest-dich (zuletzt eingesehen am 13.07.2017). Furner, Jonathan: ‚Data‘. The data. In: Bilby, Mathew/Kelly, Jared: Information Cultures in the Digital Age. Festschrift für Rafael Capurro. Heidelberg 2016, S. 287– 306. Gallagher, Ryan: Europe’s Top Human Rights Court will Consider Legality of Surveillance Exposed by Edward Snowden. In: The Intercept vom 30.09.2016. URL: https://theintercept.com/2016/09/30/echr-nsa-gchq-snowden-surveillance-privacy/ (zuletzt eingesehen am 13.07.2017). Ghiglieri, Marco/Oswald, Florian/Tews, Erik: HbbTV – I know what you are watching (2013). URL: http://www.sit.informatik.tu-darmstadt.de/fileadmin/user_up load/Group_SIT/Publications/05_Ghiglieri_Oswald_Tews_HbbTV-I_Know_ What_Your_Are_Watching.pdf (zuletzt eingesehen am 13.07.2017). Goeckenjan, Ingke: Auswirkungen des 41. Strafrechtsänderungsgesetzes auf die Strafbarkeit des ‚Phishing‘. In: wistra 2 (2009), S. 47–55. Golla, Sebastian: Papiertiger gegen Datenkraken. Zum Schutz der informationellen Selbstbestimmung durch das Strafrecht. In: ZIS 3 (2016), S. 192–198. Grützmacher, Malte: Dateneigentum  – ein Flickenteppich. In: CR 8 (2016), S. 485– 495. Hagemeier, Stefanie: Das Google-WLAN-Scanning aus straf- und datenschutzrechtlicher Sicht. In: HRRS 2 (2011), S. 72–79. Hein, Gabriele: Rundfunkspezifische Aspekte des neuen Bundesdatenschutzgesetzes. In: NJW 41 (1991), S. 2614–2615. Heintschel-Heinegg, Bernd von: Beckscher Online Kommentar StGB. München 2017. ‒ Strafgesetzbuch: StGB. 2. Auflage München 2015 (zitiert als Bearbeiter, in: von Heintschel-Heinegg).

286

Tobias O. Keber

Hillesheim, Jürgen/Wolf, Uta: Bertholt Brechts ‚Die Ernte‘. Die Augsburger Schülerzeitschrift und ihr wichtigster Autor. Augsburg 1997. Hoeren, Thomas: Dateneigentum. Versuch einer Anwendung von § 303a StGB im Zivilrecht. In: MMR 8 (2013), S. 486–491. Hoffmann, Christian Pieter/Lutz, Christoph/Ranzini, Giulia: Privacy Cynicism. A New Approach to the Priacy Paradox. In: Cyberpsychology Journal of Psychosocial Research on Cyberspace 10.4 (2016). URL: https://cyberpsychology.eu/article/ view/6280/5888 (zuletzt eingesehen am 13.07.2017). Hornung, Gerrit/Goeble, Thilo: ‚Data Ownership‘ im vernetzten Automobil. In: CR 4 (2015), S. 265–273. HUDOC: Hannes Tretter and Others against Austria. Urteil vom 10. Januar 2010. URL: http://hudoc.echr.coe.int/eng?i=001-120352 (zuletzt eingesehen am 13.07. 2017). Keber, Tobias: Datenschutzrecht. In: Schwartmann, Rolf u. a.: Praxishandbuch Me­ dien-, IT- und Urheberrecht. Heidelberg u. a. 2014, S. 789–823. ‒ Big Data im Hybrid-TV  – Mit dem Zweifel sieht das Erste besser. In: RDV 5 (2013), S. 236–243. Kerber, Wolfgang: Governance of Data. Exclusive Property vs. Access. In: IIC 7 (2016), S. 759–762. Kriesel, David: Spiegelmining (o.  J.). URL: http://www.dkriesel.com/_media/ blog/2016/spiegelmining-33c3-davidkriesel.pdf (zuletzt eingesehen am 13.07. 2017). ‒ Xerox-Scankörper verändern geschriebene Zahlen (o. J.). URL: http://www. dkriesel.com/blog/2013/0802_xerox-workcentres_are_switching_written_num bers_when_scanning (zuletzt eingesehen am 13.07.2017). Krüger, Philipp: Datensouveränität und Digitalisierung. In: ZRP 7 (2016), S. 190–192. Lessig, Lawrence: The Future of Ideas. The Fate of the Commons in a Connected World. New York 2002. Lewinski, Kai von: Die Matrix des Datenschutzes als Kristallkugel. Vorhersage über die zukünftige Bedeutung der informationellen Selbstbestimmung. In: Stiftung Datenschutz (Hg.): Zukunft der informationellen Selbstbestimmung. Berlin 2016, S. 75–82. ‒ Die Matrix des Datenschutzes. Tübingen 2014. Locke, John: Zwei Abhandlungen über die Regierung. Frankfurt/M. 1977. Markhard, Nora: Pressemitteilung zur Verfassungsbeschwerde der GFF gegen den Anti-Whistleblower-Paragraphen zur ‚Datenhehlerei‘ (2017). URL: https:// freiheitsrechte.org/pressemitteilung-datenhehlerei/ (zuletzt eingesehen am 20.07. 2017). Markwald, Nicole: ‚Alexa, bestell mir eine Puppenstube‘. In: Deutschlandfunk online vom 10.01.2017. URL: http://www.deutschlandfunk.de/amazon-echo-alexa-be



Stützen der Informationsgesellschaft

287

stell-mir-eine-puppenstube.697.de.html?dram:article_id=375995 (zuletzt eingesehen am 13.07.2017). Meyer-Spasche, Georg / Schneider, Adrian / Störing, Marc: Strafrechtlicher Schutz für Lizenzschlüssel. In: CR 2 (2013), S. 131–136. Morley, Katie: Amazon Echo Rogue Payment Warning after TV Show Causes ‚Alexa‘ to Order Doll Houses. In: The Telegraph vom 08.01.2017. URL: http://www. telegraph.co.uk/news/2017/01/08/amazon-echo-rogue-payment-warning-tv-showcauses-alexa-order/ (zuletzt eingesehen am 13.07.2017). Paal, Boris/Hennemann, Moritz: Meinungsvielfalt im Internet. Regulierungsoptionen in Ansehung von Algorithmen, Fake News und Social Bots. In: ZRP (2017), S. 76–79. Peschel, Christopher/Rockstroh, Sebastian: Big Data in der Industrie. Chancen und Risiken neuer datenbasierter Dienste. In: MMR 17 (2014), S. 571–576. Popp, Andreas: Informationstechnologie und Strafrecht. In: JuS 5 (2011), S. 385–392. Rath, Christian: ‚Freiheit ist ansteckend‘. In: Taz online vom 23.09.2009. URL: http:// www.taz.de/!576006/ (zuletzt eingesehen am 13.07.2017). Reinbold, Fabian: Letzte Ermittlungen im Fall Netzpolitik.org eingestellt. In: Spiegel online vom 06.07.2016. URL: http://www.spiegel.de/netzwelt/netzpolitik/landes verrat-ermittlungen-gegen-netzpolitik-org-quelle-eingestellt-a-1101664.html (zuletzt eingesehen am 13.07.2017). Roßnagel, Alexander: Die neue Vorratsdatenspeicherung. Der nächste Schritt im Ringen um Sicherheit und Grundgesetz. In: NJW 8 (2016), S. 533–539. Rübenstahl, Markus/Debus, Stefanie: Strafbarkeit verdachtsabhängiger E-Mail und EDV-Kontrollen bei Internal Investigations? In: NZWisSt 1 (2012), S. 129–137. Schiwy, Peter / Schütz, Walter / Dörr, Dieter: Medienrecht. Köln 2010. Schultz, Alexander: Neue Strafbarkeiten und Probleme. In: DuD 12 (2006), S. 778– 784. Schwartmann, Rolf: Praxishandbuch Medien-, IT- und Urheberrecht. 3. Auflage Heidelberg 2014 (zitiert als Bearbeiter, in: Schwartmann). Schwartmann, Rolf/Hentsch, Christian-Henner: Parallelen aus dem Urheberrecht für ein neues Datenverwertungsrecht. In: PinG Privacy In Germany 4 (2016), S. 117– 126. Seidl, Alexander/Fuchs, Katharina: Zur Strafbarkeit des sogenannten ‚Skimmings‘. In: HRRS 6/7 (2011), S. 265–274. Selz, Ilan Leonard: Gesetzesentwurf zur Strafbarkeit der sogenannten Datenhehlerei. In: Taeger, Jürgen (Hg.): Internet der Dinge. Digitalisierung von Wirtschaft und Gesellschaft. Oldenburg 2015, S. 933–950. Simitis, Spiros: Bundesdatenschutzgesetz. 8. Auflage. Baden-Baden 2014 (zitiert als Bearbeiter, in: Simitis). ‒ Datenschutz und ‚Medienprivileg‘  – Bemerkungen zu den Grundbedingungen einer verfassungskonformen Kommunikationstruktur. In: AfP 1 (1990), S. 14–22.

288

Tobias O. Keber

Singelnstein, Tobias: Ausufernd und fehlplatziert. Der Tatbestand der Datenhehlerei (§ 202 d StGB) im System des strafrechtlichen Daten- und Informationsschutzes. In: ZIS 7 (2016), S. 431–439. Specht, Louisa / Lauber-Rönsberg, Anne / Becker, Maximilian: Medienrecht im Medien­ umbruch. 1. Assistententagung Grüner Bereich 2016. Baden-Baden 2016. Specht, Louisa/Rohmer, Rebecca: Zur Rolle des informationellen Selbstbestimmungsrechts bei der Ausgestaltung eines möglichen Ausschließlichkeitsrechts an Daten. In: PinG Privacy In Germany 4 (2016), S. 127–132. Spieckermann, Sarah/Grossklags, Jens: E-Privacy in 2nd Generation E-Commerce. Privacy Preferences versus Actual Behavior. In: CACM 48.3 (2005), S. 38–47. URL: https://ssrn.com/abstract=761107 (zuletzt eingesehen am 13.07.2017). Spindler, Gerald: Text und Datamining – urheber- und datenschutzrechtliche Fragen. In: GRUR 11 (2016), S. 1112–1120. Spindler, Gerald / Schuster, Fabian: Recht der elektronischen Medien. München 2015. Stuckenberg, Carl-Friedrich: Der missratene Tatbestand der neuen Datenhehlerei (§ 202d StGB). In: ZIS 8 (2016), S. 526–533. Veil, Winfried: Was ist eigentlich Datenpolitik? In: MMR 5 (2017), S. 281–282. Welp, Jürgen: Datenveränderungen (§ 303a StGB)  – Teil  1. In: IuR 11/12 (1988), S. 433–449. Wheelhouse, Andrew: The Legality of Mass Surveillance Operations. Oxford Human Rights Hub vom 07.02.2015. URL: http://ohrh.law.ox.ac.uk/the-legality-of-masssurveillance-operations (zuletzt eingesehen am 13.07.2017). Wiebe, Andreas: Protection of Industrial Data – A New Property Right for the Digital Economy? In: GRUR 12 (2016), S. 877–884. Wiebe, Andreas/Schur, Nico: Ein Recht an industriellen Daten im verfassungsrechtlichen Spannungsverhältnis zwischen Eigentumsschutz, Wettbewerbs- und Informationsfreiheit. In: ZUM 6 (2017), S. 461–473. Wimmer, Jeffrey: (Gegen-)Öffentlichkeit in der Mediengesellschaft. Analyse eines medialen Spannungsverhältnisses. Heidelberg 2007. Wolfangel, Eva: Lesen unter Beobachtung. In: Bild der Wissenschaft vom 16.09.2014. URL: http://www.wissenschaft.de/archiv/-/journal_content/56/12054/4061695/Le sen-unter-Beobachtung/ (zuletzt eingesehen am 13.07.2017). Wüsthof, Lucas: Anmerkung zu BGH, Urteil vom 10.  Juli 2015  – V ZR 206/14. In: ZUM 1 (2016), S. 51–53. Zech, Helmut: ‚Industrie 4.0‘ – Rechtsrahmen für eine Datenwirtschaft im digitalen Binnenmarkt. In: GRUR 12 (2015), S. 1151–1160.

Scoring Implikationen für Individuum und Gesellschaft Manuela Sixt 1. Weltweiter Bedeutungszuwachs des Scorings Eine staatliche Man-Ranking-Agentur, die jedem Bürger einen sogenannten Score verleiht, der je nach Einkaufsverhalten, Einkommen, Wohngegend, Geschlecht, Surfverhalten im Netz, Nutzung der sozialen Netzwerke, aber auch aufgrund abstrakter Daten wie Bekanntheit, Popularität oder Einfluss steigt oder sinkt, das klingt nach einer dystopischen Zukunftsvision. Doch was Mark Elsberg in seinem Buch Zero1 beschreibt, könnte in ähnlicher Form in China bald zur Realität werden. Die chinesische Regierung plant seit 2014 ein sogenanntes social credit system, in dem jeder Bürger aufgrund seines OnlineVerhaltens in einem Punktesystem bewertet werden soll. Bis 2020 soll so eine umfassende, öffentliche Datenbank erstellt werden.2 Chinesische Regierungsvertreter äußerten sich dahingehend, dass es das System den „Vertrauenswürdigen erlaubt unter dem Himmel zu wandeln, während es für die Diskreditierten schwer wird auch nur einen Schritt zu tun.“3 Personen, die vertrauenswürdig im Sinne des Systems sind, werden belohnt. Diejenigen, die dieses Vertrauen brechen, werden sanktioniert.4 Um zu beurteilen, ob jemand vertrauenswürdig ist, wird neben der Kreditwürdigkeit auch das soziale und wohl auch das politische Verhalten beurteilt werden. Offensichtlich bezweckt 1  Elsberg

(2016): Zero. Kleinz (2015): Der kontrollierte Boom; The Economist (2016): China Invents the Digital Totalitarian State. 3  Frei übersetzt nach dem Zitat aus The Economist (2016): China Invents the Digi­ tal Totalitarian State: „allow the trustworthy to roam everywhere under heaven while making it hard for the discredited to take a single step.“ 4  S. für eine englische Übersetzung des „planning outline“ der chinesischen Regierung: China Copyright and Media (2014): Planning Outline for the Construction of a Social Credit System (2014–2020). In Pilotprojekten wird bereits ein Scoresystem angewandt, in dem jeder Teilnehmer bei einem Wert von 1000 Punkten startet, bis zu einem „Musterbeispiel an Aufrichtigkeit“ auf 1050 Punkte aufsteigen kann, aber auch auf das Level des „Unehrlichen“ mit 599 oder weniger Punkten zurückfallen kann; s. hierzu Strittmatter (2017): Creating the Honest Man. 2  S. hierzu

290

Manuela Sixt

dieses System eine umfassende Kontrolle der privaten Lebensgestaltung der Bürger durch den allwissenden Staat.5 Von westlichen Medien wird die Implementierung des Systems dementsprechend kritisch gesehen.6 Ein großangelegtes Bewertungssystem besteht in China bereits seit Beginn des Jahres 2015 mit dem sogenannten sesame credit, das von seinen Nutzern einen persönlichen Bonitätsscore über die Kreditwürdigkeit errechnet. Betrieben wird es von acht chinesischen Großunternehmen, darunter Alibaba (chinesisches Pendant zu Amazon) und Tencent (Social-Media-PlattformBetreiber in China).7 Der Score entsteht bei sesame credit durch verschiedene Parameter, wie die finanzielle Situation des Nutzers, sein Einkaufsverhalten, die Analyse seiner Einkäufe oder sein Surfverhalten. Es fließen sogar OnlineBeziehungen zu Freunden und deren Bewertungen in die Berechnung mit ein.8 Als Belohnung für einen positiven Score winken nicht nur die Möglichkeit eines Kredits, sondern auch verbesserte Serviceleistungen, beispielsweise in Hotels, ein besseres Ranking auf chinesischen Dating-Websites und VisaErleichterungen.9 Die chinesische Regierung unterstützt das Projekt und sesame credit soll in Zukunft mit dem social credit system zusammengeführt werden.10 Zusammen mit dem Datenbestand, auf den die chinesische Regierung bislang schon Zugriff hat, wie etwa den hukou- und dang’an-Listen,11 kann der chinesische Staat über seine Bürger ein detailliertes und umfassendes Profil anfertigen.12 Besondere Beachtung verdient die Funktionsweise des sesame credit. Nutzer werden dazu angeregt, ihren Score auf sozialen Netzwerken zu teilen; der eigene Score und der von Freunden lässt sich mittels App abrufen und in einer Rankingliste miteinander vergleichen.13 Durch diese Art der gamification14 5  The

Economist (2016): China Invents the Digital Totalitarian State. zum Beispiel The Economist (2016): China Invents the Digital Totalitarian State; Ankenbrand (2017): Chinas Bonitätsregister. 7  Kastner (2016): Sesame Credit; Warislohner (2014): Dystopia. 8  S. Alibaba Group (2015): Ant Financial Unveils China’s First Credit-Scoring System Using Online Data. Mit Verweis darauf Warislohner (2014): Dystopia; Kastner (2016): Sesame Credit. 9  Warislohner (2014): Dystopia; Kastner (2016): Sesame Credit. 10  Kastner (2016): Sesame Credit. 11  Hukou ist das Haushaltsregister und zugleich Heimatnachweis in China, der Zugang zur Sozialversicherung verschafft; dang’an ist eine persönliche Akte, die Informationen über Alter, Geschlecht, Ausbildung, Familienangehörige etc. enthält; s. hierzu Hoffmann (2013): Praxis-Leitfaden, S. 74. 12  Hsu (2015): China’s New Social Credit System. 13  Kastner (2016): Sesame Credit. 14  Eingedeutscht Spielifikation; kann als „Anwendung spielebasierter Elemente außerhalb von Spielen in realen Lebenskontexten“ definiert werden. Merkmale, die 6  So



Scoring – Implikationen für Individuum und Gesellschaft

291

wird erreicht, dass die Nutzer ihr Verhalten so anpassen, dass ihr Score möglichst steigt und auf einem hohen Stand bleibt. Dieses Spielprinzip lässt sich auch auf das social credit system übertragen, mit der Folge, dass der Bürger spielerisch dazu gebracht werden kann, sich regime- und staatstreu zu verhalten und keine abweichende Meinung zu vertreten beziehungsweise kein abweichendes Verhalten zu zeigen. Dabei gibt der Nutzer Schritt für Schritt seine Privatheit immer weiter auf. Er füttert das System mit seinen Daten, er fällt Entscheidungen danach, wie sie seinen Score verändern und könnte letztendlich sogar (Online-)Beziehungen aufgeben, die seinen Score negativ beeinflussen. Mithin besteht die Gefahr, dass ihm die informationelle, dezisionale und lokale Privatheit entzogen werden.15 Sogenannte Scoring-Systeme sind nicht nur in China im Einsatz. Scoring im Allgemeinen meint lediglich „mathematisch-statistische Verfahren zur Berechnung der Wahrscheinlichkeit, mit der eine bestimmte Person ein bestimmtes Verhalten zeigen wird“.16 Bekanntestes Beispiel für einen ScoringSystem-Betreiber in Deutschland ist die Schufa (Schutzgemeinschaft für allgemeine Kreditsicherung). Für die Beurteilung der Kreditwürdigkeit können Kreditauskünfte bei sogenannten Auskunfteien, wie die Schufa eine ist, eingeholt werden. Die Überprüfung der Kreditwürdigkeit schützt das Interesse des Vertragspartners, keinen Vertrag mit Personen einzugehen, die finanziell nicht dazu in der Lage sein könnten, ihre Leistung zu erbringen. Es ist also aus betriebswirtschaftlicher Sicht sinnvoll, die Kreditwürdigkeit von potentiellen Kreditnehmern zu prognostizieren. Scoring bei Kreditgeschäften soll zudem den Kunden davor bewahren, dass er sich überschuldet.17 Die Einsatzmöglichkeiten von Scoring erschöpfen sich nicht in der Beurteilung der Kreditwürdigkeit. Die Bonität wird nicht nur bei der Kreditvergabe überprüft, sondern auch vor Abschluss eines Miet-, Mobilfunk- oder Autoleasingvertrages. Im Online-Versandhandel steigt ebenfalls die Bedeutung von Scoring-Diensten. Bei einem positiven Score ist beispielsweise die Option zur Auf-Rechnung-Zahlung verfügbar.18 Zukünftig könnten auch Scoring-Systeme selbstverständlich sein, die zu Score-abhängiger Preisbilauch auf das social credit system beziehungsweise auf das sesame credit system zutreffen sind sichtbarer Status, einsehbare Ranglisten, das Gefühl, Teil von etwas Größerem zu sein; zu der Definition und den Merkmalen Hill (2014): Neubestimmung der Privatheit, S. 263. 15  Zu den einzelnen Dimensionen s. Rössler (2001): Der Wert des Privaten, S. 25. 16  BT. Drs. 16 / 10529, S. 1; diese Definition bezeichnet Lewinski, in: Wolff / Brink, § 28b BDSG Rn. 1 als allgemein anschlussfähig. 17  Taeger (2016): Scoring nach DSGVO, S. 73. 18  S. hierzu ausführlich Moos / Rothkegel (2016): Nutzung von Scoring-Diensten, S. 561; zu den weiten Einsatzmöglichkeiten des Scorings s. Waidner (2015): Fraunhofer SIT, Big Data Studie, S. 31 f.

292

Manuela Sixt

dung führen.19 Großbritannien und die USA ließen bereits Auswertungen aus Big-Data-Analysen in das Regierungshandeln miteinfließen.20 Bei der Verbrechensbekämpfung gewinnt das predictive policing immer mehr an Bedeutung.21 Und in den USA existiert mit Klout sogar ein Scoring-System, das die Reputation eines Menschen in der digitalen Welt aufgrund der Anzahl von Facebook-Freunden, der Tweets und Facebook-Posts und des Einflusses der digitalen Freunde abbildet und bei Bewerbungsgesprächen zum Einsatz kommt.22 Es lässt sich also eine Ausweitung der Einsatzbereiche von Scoring-Systemen feststellen. Die Problematik beim Scoring liegt darin begründet, dass aufgrund der gewonnenen Informationen ein Profil über den Nutzer angelegt wird, auf dem die Entscheidungen des Bewertenden basieren.23 Auskunfteien und Unternehmen haben ein Interesse daran, auf möglichst viele Daten zugreifen zu können, um ihr Risiko bestmöglich abschätzen zu können. So sind auch die Bestrebungen der Auskunftei Schufa nicht überraschend gewesen, die zur Beurteilung der Kreditwürdigkeit auch auf die Daten aus sozialen Netzwerken zugreifen wollte, dies jedoch letztendlich aufgrund des öffentlichen Drucks unterließ.24 Das Beispiel zeigt, dass versucht wird, Daten aus verschiedensten Kontexten zusammenzufügen, um die Bewertung vorzunehmen. Je weiter aber das Scoring auf verschiedene Bereiche ausgedehnt wird und je umfassender die Datenbestände für die Bewertungen werden, desto detaillierter wird das Profil des Bewerteten und desto weitreichendere Konsequenzen können sich für den Einzelnen aus Scoringbewertungen ergeben. Letztendlich kann dies dazu führen, dass der Einzelne sein Verhalten anpasst, um keine negative Bewertung zu bekommen.25 Es zeichnen sich also auch in der 19  Hofmann / Hornung (2015): Rechtliche Herausforderungen, S. 200; Hornung (2014): Datenverarbeitung der Mächtigen bleibt intransparent. 20  Dies geschah mit Hilfe des Behavioural Insights Team (Großbritannien) und Social and Behavioural Sciences Team (USA); s. hierzu Kleinz (2015): Wenn Algorithmen entscheiden. 21  Erste Pilotprojekte sind in Deutschland bereits im Einsatz, s. Biermann (2015): Noch niemand hat bewiesen; diese sind jedoch zumeist auf Prognosen für Einbruchsdiebstähle beschränkt, während in den USA das predictive policing vollumfänglich zum Einsatz kommt; s. hierzu zum Beispiel Ferguson (2017): Predictive Policing, S. 1. 22  Alvares de Souza Soares (2012): Der gläserne Bewerber; s. auch Conrad / Hausen, in: Auer-Reinsdorff / Conrad, § 36, Rn. 198 ff. 23  Beim Scoring wird auf personenbezogene Daten zurückgegriffen. Zum Begriff der personenbezogenen Daten s. § 3 I BDSG: „Einzelangaben über persönliche oder sachliche Verhältnisse einer bestimmten oder bestimmbaren Person“ und s. ausführlich Kap. 3. 24  Hornung (2014): Datenverarbeitung der Mächtigen bleibt intransparent. 25  S. auch Simitis allgemein zur Verhaltensanpassung im digitalen Zeitalter: „Finally, personal information is increasingly used to enforce standards of behavior. Information processing is developing, therefore, into an essential element of long-term



Scoring – Implikationen für Individuum und Gesellschaft

293

westlichen Welt eine Ausdehnung der Scoringsysteme auf neue Bereiche und umfassendere Bewertungsmöglichkeiten aufgrund umfassenderer Datenbestände ab. Das Extrembeispiel der genannten chinesischen Systeme ist auf die westliche Welt aber nicht eins zu eins übertragbar. Diese Systeme sind in der Form nur geplant und realisierbar, weil im autoritären China die Unternehmen sich der Regierung beugen müssen und der totalitäre Staat die Regimetreue sichern muss, um existieren zu können. Dennoch ergeben sich in der westlichen Welt aus dem Scoring zahlreiche Risiken, die im Folgenden aufgezeigt werden sollen. 2. Risiken des Scorings 2.1 Geheime Algorithmen als Bewertungsmaßstab

Scoring beruht auf Algorithmen. Dabei wird der Scorewert folgendermaßen bestimmt: Zunächst werden Datenbestände analysiert,26 um Korrelationen festzustellen (also beispielsweise das gemeinsame Auftreten einer persönlichen Eigenschaft wie Alter, Einkommen oder Wohnort mit einem späteren Verhalten wie der Nichtzahlung einer Kreditrate). Aufbauend auf den Ergebnissen dieser Analyse wird ein Algorithmus gebildet und die relevanten Merkmale werden gewichtet.27 Dabei fließen die Erfahrungen mit Vergleichsgruppen ein.28 In die so entstehende Formel werden dann konkrete personenbezogene Daten eines Betroffenen eingesetzt, sodass ein auf diesen bezogener Scorewert bestimmt werden kann.29 Mit diesem wird die Wahrscheinlichkeit bezüglich eines bestimmten künftigen Verhaltens des Betroffenen ausgedrückt, die auf den statistischen Erfahrungswerten mit der Vergleichsgruppe beruht.30 Für den Betroffenen wäre es wichtig zu wissen, wie sein Scorewert zustande kommt, um Fehler korrigieren und Zusammenhänge erkennen zu können.31 Auskunfteien und Unternehmen halten sich jedoch möglichst bedeckt. Bis 2001 beeinflusste allein die Tatsache, dass jemand eine Eigenausstrategies of manipulation intended to mold and adjust individual conduct.“ Simitis (1987): Reviewing Privacy in an Information Society, S. 710. Zur Verhaltensanpassung aufgrund Überwachung siehe auch das Volkszählungsurteil des Bundesverfassungsgerichts, BVerfGE 65, 1. 26  Dies erfolgt überwiegend ebenfalls durch Algorithmen im Rahmen des data mining; s. Kap. 2.3. 27  Den Algorithmus, der auf Basis der Erkenntnisse der Datenbestandsanalyse gebildet wird, nennt man Scorecard; s. Lewinski, in: Wolff / Brink, § 28b BDSG Rn. 26. 28  Wuermeling (2002): Scoring von Kreditrisiken, S. 3509. 29  S. hierzu Reiter / Mehner (2016): Datenschutzrechtliche Grenzen, S. 461. 30  Taeger (2014): Rechtlicher Regelungsrahmen des Scorings, S. 6. 31  Hornung (2014): Datenverarbeitung der Mächtigen bleibt intransparent.

294

Manuela Sixt

kunft bei der Schufa einholte, seinen Scorewert negativ.32 Und bis heute ist ein Streitpunkt, in welchem Umfang Auskunfteien und Unternehmen Auskunft geben müssen. Der Bundesgerichtshof entschied 2014, dass die Schufa die abstrakte Methode der Scorewertberechnung nicht mitteilen müsse.33 Wohlgemerkt wollten die Kläger dabei nicht etwa den Sourcecode des Algorithmus in Erfahrung bringen, sondern nur die Gewichtung der Parameter sowie die Einordnung in die Vergleichsgruppen.34 Der Entscheidung des BGH lag der Sachverhalt zugrunde, dass eine Frau ein Auto kreditfinanziert kaufen wollte und durch eine Auskunft der Schufa, welche ihr fälschlicherweise einen negativen Scorewert zuordnete, daran gehindert wurde. Es war zu einer Namensverwechselung gekommen, sodass die Frau mit sehr guter Bonität dennoch eine Negativauskunft erhielt. Die Frau forderte die Schufa zur Stellungnahme auf und diese schickte ihr eine „Datenübersicht nach § 34 Bundesdatenschutzgesetz“ zu. Aus dieser Übersicht waren zwar die gespeicherten personenbezogenen Daten sowie die Scorewerte ersichtlich, allerdings blieb intransparent, wie die einzelnen Parameter zur Berechnung der Scores gewichtet wurden.35 Ebenso undurchsichtig war, wie die Schufa die Bonität der Frau bewertet hatte, nachdem sie eine Einschätzung mittels einer Vergleichsgruppe vornahm.36 Der Bundesgerichtshof führte aus, dass zu den durch das Geschäftsgeheimnis geschützten Inhalten der Scoreformel „die im ersten Schritt in die Scoreformel eingeflossenen allgemeinen Rechengrößen, wie etwa die herangezogenen statistischen Werte, die Gewichtung einzelner Berechnungselemente bei der Ermittlung des Wahrscheinlichkeitswerts und die Bildung etwaiger Vergleichsgruppen als Grundlage der Scorekarten“ zählen würden.37 Transparent ist eine Bewertung für den Betroffenen aber nur dann, wenn er weiß, welche konkreten Faktoren wie gewichtet werden und wie die Einordnung in die Vergleichsgruppen erfolgt.38 Bestimmten Daten wird nämlich ein gewisser Aussagege32  Hornung

(2014): Datenverarbeitung der Mächtigen bleibt intransparent. 200, 38; gegen diese Entscheidung ist eine Verfassungsbeschwerde, Aktenzeichen 1 BvR 756 / 14, anhängig. In der Literatur wurde dies von manchen insbesondere aufgrund des sonst bestehenden Manipulationsrisikos als richtig angesehen; s. Kamlah / Walter (2015): Scoring was ist zulässig, S. 163; kritisch zum Urteil u. a. Schade / Wolff (2014): Anmerkung, S. 311. 34  Weichert (2014): Scoring in Zeiten von Big Data, S. 169; für eine Auskunft über die Einordnung in eine Vergleichsgruppe und konkrete Angaben zur Scorewert-Bildung auch LG Berlin vom 01.11.2011 6 O 479 / 10 ­WM 2012, S. 1627. 35  BGHZ 200, 38; s. hierzu auch Weichert (2014): Scoring in Zeiten von Big Data, S. 168. 36  Weichert (2014): Scoring in Zeiten von Big Data, S. 168. 37  BGHZ 200, 38. 33  BGHZ



Scoring – Implikationen für Individuum und Gesellschaft

295

halt zugemessen, der nicht per se ersichtlich ist. Dies illustriert ein Beispiel aus Kenia und Tansania, wo die Startups Branch und InVenture die Kreditwürdigkeit mit einer App aufgrund von Daten aus mobilen Technologien wie dem Smartphone prognostizieren. Dabei wird für kreditwürdiger eingeschätzt, wer Telefongespräche in den Abendstunden führt, wessen Smartphone-Akku sich schnell entleert und wer seine Kontakte im Smartphone nicht mit Nachnamen benennt.39 An derartige, durch Big Data Analysen aufgefundene Korrelationen knüpft sodann die Bewertung des Einzelnen beim Scoring an. Diese Korrelationen sind aber nicht gleichbedeutend mit kausalen Zusammenhängen. Korrelationen können auch auf Zufällen oder unbekannten Ursachen beruhen.40 Doch das gemeinsame Auftreten von bestimmten Merkmalen genügt, um darauf aufbauend die Person zu bewerten, die sich gegen diese Bewertungsstruktur auch nicht zur Wehr setzten kann. Die Bonitätsrelevanz von Daten ist also nach aktuellem Auskunftsumfang nicht ersichtlich und es ist nicht möglich, hinter die komplexe Bewertungsarchitektur zu blicken. Bedauerlicherweise hat der BGH den Umfang des Auskunftsanspruches durch seine Entscheidung enorm verkürzt.41 Dabei hatte er schon zuvor die Bonitätsbeurteilung, die durch das Scoring gewonnen wurde, als Werturteil und damit als Wahrnehmung der Meinungsfreiheit nach Art. 5 I 1 HS 1 GG eingeordnet.42 Mit dieser Einordnung als Werturteil nach Art. 5 I 1 HS 1 GG geht aber eine Verkürzung der Schadens- und Unterlassungsansprüche des 38  Dix, in: Simitis, § 34 BDSG Rn. 33; Hornung (2014): Datenverarbeitung der Mächtigen bleibt intransparent. 39  Kühl (2015): Zeig uns dein Smartphone. 40  Hornung (2017): Datensparsamkeit, S. 65. Hinzukommt, dass die Frage der Datenqualität häufig außen vorgelassen wird, so Hoeren (2016): Thesen zum Verhältnis von Big Data und Datenqualität, S. 8; als Beispiel könnte hier die Grippeprognostizierung von Google genannt werden. S. zur Datenqualität auch die Forderung im Rahmen der Stellungnahme des Bundesrates zum DSAnpUG-EU, Drs. 110 / 17, S. 32. 41  Das Problem des Aufklärungsumfangs hatte sich bereits im Gesetzgebungsverfahren gezeigt, bei dem der Bundesrat für einen weiten Umfang eintrat (BT-Drs. 16 / 10529, S. 28 f.), während die Bundesregierung die Geheimhaltungsinteressen stärker gewichtete (BT-Drs. 16 / 10529, S. 17); s. hierzu Kirchberg (2014): Anmerkung, S. 751. Trotzdem wäre § 34 IV BDSG einer weiteren Auslegung zugänglich gewesen. Zum einen lässt der Gesetzeswortlaut eine solche Auslegung zu, zum anderen wurde in § 34 IV BDSG, anders als zum Beispiel in § 34 I 4 BDSG der Geschäftsgeheimnisschutz gerade nicht explizit genannt; s. hierzu auch Kirchberg (2014): Anmerkung, S.  751 f. 42  BGH, Urteil vom 22.2.2011 ­VI ZR 120 / 10 NJW 2011, 2204. Kritisch hierzu Weichert (2013): Die Meinungsfreiheit des Algorithmus, S. 149 f. Eine Meinung im Sinne des Grundgesetzes kann sowohl ein Werturteil als auch eine Tatsachenbehauptung sein, wenn sie Voraussetzung der Bildung von Meinungen ist und nicht unwahr

296

Manuela Sixt

Beurteilten einher, weil dieser gegen ein Werturteil, das auf zutreffenden Tatsachen beruht, keine Ansprüche geltend machen kann.43 Auch Korrekturansprüche sind nicht möglich.44 Zusammenfassend lässt sich damit feststellen, dass insoweit in der Rechtsprechung der Schutz der Geschäftsgeheimnisse nach Art. 14 GG und die Meinungsäußerung gemäß Art. 5 I 1 HS 1 GG stärker gewichtet werden als das Recht auf informationelle Selbstbestimmung des Betroffenen nach Art. 2 I GG.45 2.2 Diskriminierungspotential des Scorings

Beim Scoring werden verschiedene Merkmale einer Person verwendet, die einer Diskriminierung46 Vorschub leisten können. Die Bewertung erfolgt beispielsweise unter anderem anhand der Merkmale Alter, Wohnlage, Wohnort und Geschlecht. Aufgrund der davon ausgehenden Diskriminierungsgefahr wurde in der Politik (erfolglos) vorgeschlagen, die Beurteilung nur anhand von Merkmalen erfolgen zu lassen, die das Zahlungsverhalten und die Einkommens- und Vermögensverhältnisse betreffen.47 Kreditgeber könnten auch Interesse an Informationen über den Gesundheitszustand des Kreditnehmers haben. Denn ein Schwerkranker ist mit einem höheren Sterblichkeitsrisiko behaftet und damit steigt das Risiko, dass er seinen Kredit nicht zurückzahlen kann. Der Gesundheitszustand ist nach dem Datenschutzrecht jedoch ein sensibles Datum (besondere Arten personenbezogener Daten gemäß § 3  IX  BDSG).48 Das Datenschutzrecht erlaubt die Verarbeitung von sensiblen Daten nur unter bestimmten Voraussetzunist; s. hierzu Grabenwarter, in: Maunz / Dürig, Art. 5 G, Rn. 48 f. Eine Bonitätsbeurteilung stellt nach dem Urteil des BGH eine Bewertung von Tatsachen dar. 43  S. auch Reiter / Mehner (2016): Datenschutzrechtliche Grenzen, S. 457. 44  Kamlah / Walter (2015): Scoring was ist zulässig, S. 161. 45  Weichert (2014): Scoring Big Data, S. 169. Ist der Beurteilte ein Unternehmen, dann streitet auf seiner Seite ebenfalls das Recht am eingerichteten und ausgeübten Gewerbebetrieb, allerdings schützt dieses Recht nach dem BGH nicht vor zutreffenden Informationen am Markt; s. BGH, Urteil vom 22.02.2011 ­VI ZR 120 / 10 NJW 2011, 2204 (2206). 46  Diskriminierung stammt vom lateinischen Verb „discriminare“, das in etwa „trennen, absondern, abgrenzen, unterscheiden“ bedeutet. Bei Zugrundlegung dieser Bedeutung wäre das Scoring insgesamt eine typische Diskriminierung, also eine Unterscheidung. Im Laufe des 20. Jahrhunderts erhielt Diskriminierung jedoch eine negative Konnotation: „jemanden herabsetzen, benachteiligen, zurücksetzen“, vgl. Wikipedia. org (2017): Diskriminierung. Begriffsgeschichte. Im Folgenden soll Diskriminierung als Benachteiligung verstanden werden, die auf gesellschaftlich verpönten und zum Teil auch rechtlich (zum Beispiel nach dem AGG) unzulässigen Unterscheidungsmerkmalen beruht. 47  BT-Drs. 16 / 683, S. 2.



Scoring – Implikationen für Individuum und Gesellschaft

297

gen,49 sie sind also besonders geschützt. Dennoch sind sensible Daten beim Scoring grundsätzlich nutzbar.50 Auch die Gerichte hatten sich mit dem Diskriminierungsrisiko zu beschäftigen. So klagte vor dem OLG München eine Frau, die der Auffassung war, die weitaus bessere Beurteilung ihres Mannes sei auf pauschale Geschlechterdiskriminierung zurückzuführen.51 Die Schufa behauptete, dass gar keine Schlechterstellung der Frau erfolgt sei, sondern dass sich im konkreten Fall beim Vergleich des Scores der Frau mit dem ihres Ehemannes überhaupt kein Unterschied ergebe, beziehungsweise sogar eine Besserstellung der Frau erfolgt sei. Hierzu musste das OLG München allerdings anmerken, dass diese Behauptung weder für das Gericht noch für die Frau nachvollziehbar war, da nach dem BGH-Urteil die Mitteilung der Scoreformel als Geschäftsgeheimnis geschützt wurde. Selbst das Gericht sah, dass dieses Ergebnis „unbefriedigend“ erscheinen könne.52 Dabei ist gerade die Kenntnis über die Gewichtung der einzelnen Merkmale notwendig, um zu erkennen, inwieweit eine Diskriminierung vorliegt. Bestimmte Merkmale können zu einem negativen Score führen, selbst wenn zugleich positive Merkmale bei der Person bestehen, die aber geringer oder überhaupt nicht gewichtet werden.53 Wenn die Merkmale, die zu einem negativen Score führen, die Merkmale sind, die als diskriminierend gelten, kann so der Diskriminierung Vorschub geleistet werden. Thilo Weichert führt in Bezug auf das Diskriminierungspotential aus: „Die gescorten Personen laufen Gefahr, zum Opfer eines statistischen Vorurteiles zu werden.“54

48  Nach § 3 IX BDSG zählen zu diesen Daten Angaben über rassische oder ethnische Herkunft, politische Meinungen, religiöse oder philosophische Überzeugungen, die Gewerkschaftszugehörigkeit, die Gesundheit oder das Sexualleben. 49  S. § 13 II, § 28 VI–IX und § 29 V BDSG. 50  OLG München Urt. v. 12.03.2014 – 15 U 2395 / 13­ ZD 2014, S. 573; Lewinski, in: Wolff / Brink, § 28b  BDSG Rn. 38; Moos / Rothkegel (2016): Nutzung von Scoring-Diensten, S. 562; anders allerdings der Abschlussbericht des ULD, S. 36, das mangels Bonitätsrelevanz die Verarbeitung untersagen will. 51  OLG München Urt. v. 12.03.2014 – 15 U 2395 / 13 ­ZD 2014, S. 570. Das Allgemeine Gleichbehandlungsgesetz (AGG) war nach Feststellung des Gerichts mangels Schuldverhältnisses (§ 19 I AGG) mit der Schufa nicht anwendbar. Im Anwendungsbereich des AGG wäre eine Benachteiligung nach Merkmalen, die in § 1 AGG genannt sind (Rasse, ethnische Herkunft, das Geschlecht, die Religion, die Weltanschauung, die Behinderung, das Alter und die sexuelle Identität) unzulässig. 52  OLG München Urt. v. 12.03.2014 – 15 U 2395 / 13­ ZD 2014, S. 573. 53  So Weichert (2006): Verbraucher-Scoring, S. 400. 54  Weichert (2006): Verbraucher-Scoring, S. 400; hinweisend auf das Diskriminierungspotential des Scorings auch Bull (2011): Informationelle Selbstbestimmung, S. 107.

298

Manuela Sixt 2.3 Scoring und Big Data

Perspektivisch werden immer mehr Daten aus verschiedenen Bereichen in das Scoring einbezogen. Beim Scoring kann dann auf Daten zurückgegriffen werden, die aus allgemein zugänglichen Quellen stammen.55 Der Mikrokreditgeber Kreditech nutzt unter anderem Daten aus sozialen Netzwerken.56 Und auch die Schufa bezieht das sogenannte Geoscoring mit ein, also die Bewertung der Kreditwürdigkeit anhand der Adresse. Zahlen beispielsweise Nachbarn nicht und haben deshalb einen niedrigen Score, kann das die eigene Kreditwürdigkeit beeinflussen. Der Gesetzgeber hat diese Risiken erkannt, sodass Anschriftsdaten nicht als einziges Kriterium für die Berechnung des Wahrscheinlichkeitswerts genutzt werden dürfen.57 Die Gesetzesbegründung besagt, dass die Regelung nicht umgangen werden darf, indem andere Merkmale nur verschwindend gering gewertet werden.58 Big Data eröffnet neue Chancen für Scoringanbieter. Sie können, wenn sie Zugriff auf diverse Datenbestände haben, durch das sogenannte data mining ganz neue Korrelationen aufdecken.59 Bei der Analyse von Datenbeständen werden häufig anonymisierte Datenbestände auf ihre Gemeinsamkeiten hin untersucht, und es steht auch keine bestimmte Person im Zentrum der Untersuchung, sodass das Datenschutzrecht keine Anwendung findet.60 Wenn personenbezogene Daten ausgewertet und anonymisiert werden, ergibt sich aus diesen anonymisierten Daten keine Gefahr für die Person, von der die Daten 55  § 28b Nr. 2 i. V. m. §§ 28, 29 BDSG; „allgemein zugänglich“ meint Daten, die sich sowohl ihrer Zielsetzung als auch ihrer Publikationsform nach dazu eignen, einem individuell nicht bestimmbaren Personenkreis Informationen zu vermitteln; s. Simitis, in: Simitis, § 28 BDSG Rn. 151; s. auch Diercks (2016): Big Data Analysen, S. 31. Damit sind auch grundsätzlich Daten aus sozialen Netzwerken oder Google verwendbar. S. hierzu die kritische Anmerkung des Bundesrates in der Stellungnahme zum DSAnpUG-EU, Drs. 110 / 17, S. 32. 56  Seibel (2014): Schufa ein Schuljunge; Kreditech operiert mangels Banklizenz nicht in Deutschland; s. Kühl (2015): Zeig uns dein Smartphone. 57  § 28b Nr. 3 BDSG verbietet dies. Kritisch, dass diese Vorschrift nicht ausreichend Schutz bietet, der Bundesdatenschutzbeauftragte in seinem 23. Tätigkeitsbericht. Vgl. BfDI (2011): Tätigkeitsbericht zum Datenschutz für die Jahre 2009 und 2010, S. 115. 58  BT-Drs. 16 / 13219, S. 9. 59  Zum Begriff des data minings s. Waidner (2015), Fraunhofer SIT, Big Data Studie, S. 24; dabei werden explorative Datenanalysen beziehungsweise explorative Statistik eingesetzt, um neue Zusammenhänge zu entdecken; s. hierzu in Bezug auf die Datenschutzgrundverordnung Richter, in: Roßnagel, § 4 Rn. 100. 60  Lewinski, in: Wolff / Brink, § 28b BDSG Rn. 25. Es wird bezweifelt, dass es in einer Big Data-Umgebung überhaupt noch ein Datum ohne Personenbezug gibt, s. hierzu zum Beispiel Weichert (2013): Big Data und Datenschutz, S. 257; BoehmeNeßler (2016): Das Ende der Anonymität, S. 422.



Scoring – Implikationen für Individuum und Gesellschaft

299

ursprünglich stammen. Für die Personen, die durch die ausgewerteten Daten besser kategorisiert oder zu denen ein Profil erstellt werden kann, sind diese anonymisierten Daten jedoch riskant.61 Auch der Schutz sensibler Informationen, wie beispielsweise von Gesundheitsinformationen, kann in einer Big Data-Umgebung nicht mehr gewährleistet werden. So haben Forscher der University of Oxford bereits ein Computerprogramm entwickelt, das genetische Krankheiten anhand von digitalen Gesichtsfotos erkennen soll. Dafür wird auf eine Datenbank zugegriffen, in der Fotos von gesunden und kranken Menschen gespeichert sind und ein Algorithmus extrahiert die relevanten phänotypischen Informationen.62 Das Beispiel illustriert, dass jede Information über den ihr bisher eigentlich zugerechneten Informationswert hinaus das Potential hat, für das Scoring bedeutend zu sein. Für den Betroffenen ist die Bedeutung der einzelnen Information nicht erkennbar. Der Einzelne wird anhand von Informationen wie Alter, Geschlecht und Wohnort kategorisiert, ohne dass ihm damit individuell etwas vorgeworfen wird, was dazu führt, dass sich der Betroffene gegen diese Kategorisierung auch nicht zur Wehr setzen kann.63 Eine Möglichkeit, dies zu verhindern, wäre, das Scoring auf den jeweiligen Einsatzbereich zu beschränken, also beispielweise bei der Prognostizierung der Kreditwürdigkeit nur bonitätsrelevante Informationen zuzulassen.64 Doch hier liegt gerade die Schwierigkeit: In einer Big Data Umgebung kann jede Information als bonitätsrelevant angesehen werden, weil jede Information zu neuen Korrelationen beitragen kann und der Verfeinerung der Bewertung dient. Eine Beschränkung auf bonitätsrelevante Informationen würde also nur dann aus Sicht des Betroffenen etwas bewirken, wenn man diese eng auffasst und auf Informationen, die sich auf konkrete Kreditausfälle etc. beziehen, begrenzt.65 2.4 Keine Informationen = schlechter Scorewert?

Individuen oder Unternehmen, die sich der Risiken von Big Data und Scoring bewusst sind, könnten bemüht sein, möglichst wenig Daten zu produzieren und preiszugeben. Doch gerade dieser Ansatz zur Datensparsamkeit könnte im Rahmen des Scorings zu negativen Scores führen. So hatte das OLG Frankfurt sich mit einem Fall zu beschäftigen, in dem ein Unternehmen 61  S. Richter

(2016): Big Data, Statistik und DSGVO, S. 582. u. a. (2014): Diagnostically Relevant Facial Gestalt. 63  Hornung (2017): Datensparsamkeit, S. 65. 64  So der Gesetzesentwurf von Bündnis 90 / Die Grünen, Drucksache 18 / 4864. 65  S. hierzu Abschlussbericht des ULD, S. 132  f. unter Berufung auf den LDI NRW. 62  Ferry

300

Manuela Sixt

einen negativen Score erhielt, gerade weil über das Unternehmen kaum Informationen bekannt waren.66 Die beklagte Auskunftei argumentierte folgendermaßen: „Da es rein zahlenmäßig mehr Unternehmen mit einem positiven Zahlungsverhalten gibt als solche mit einem negativen, wird sich ein Unternehmen, über das keine Informationen vorliegen, eher im hinteren Feld wiederfinden.“ Das Gericht argumentierte dagegen und befand, dass das Gegenteil der Fall sein müsse und ein solches Unternehmen – wenn überhaupt – im statistischen Mittel einzuordnen sei, oder aber offengelegt werden müsse, dass man über das Unternehmen schlicht nichts wisse.67 Doch perspektivisch wird es gerade in Scoring-Systemen, die jedem Bürger einen Score zuordnen möchten, dazu kommen, dass Menschen, über die viele Informationen verfügbar sind, Vergünstigungen erhalten, was dazu führt, dass Personen, die möglichst wenig Informationen preisgeben, benachteiligt werden. Dies könnte wiederum dazu führen, dass diese sich zur Informationspreisgabe gezwungen sehen. 3. Aktuelle datenschutzrechtliche Voraussetzungen des Scorings nach dem BDSG Scoring wird in Deutschland aus juristischer Sicht primär unter dem Topos des Datenschutzrechtes diskutiert. Im Datenschutzrecht steht ein großer Wandel bevor. Nach jahrelangen Verhandlungen wird ab dem 25.05.2018 die EU-Datenschutzgrundverordnung (DSGVO) gelten.68 Verordnungen auf EUEbene gelten, anders als Richtlinien, in allen Mitgliedstaaten der Europäischen Union unmittelbar und vollharmonisierend.69 Die Mitgliedstaaten können also grundsätzlich nicht von den Vorgaben der DSGVO abweichen. Denn das Ziel der DSGVO ist es, das Datenschutzrecht in der Europäischen Union zu vereinheitlichen.70 Die DSGVO hat deshalb Anwendungsvorrang vor bestehenden nationalen Regelungen. Die momentan noch geltende Fassung des BDSG wird mit Wirkung zum 25.05.2018 aufgehoben. Der deutsche Gesetzgeber hat jüngst das DSAnpUG-EU beschlossen, mit dem auch das BDSG eine Neufassung erhält.71

66  OLG

Frankfurt a. M. Urt. v. 07.04.2015 U 82 / 14 24 ZD 2015, S. 335. Frankfurt a. M. Urt. v. 07.04.2015 U 82 / 14 24 ZD 2015, S. 336. 68  Art. 99 II DSGVO. In Kraft getreten ist die Verordnung bereits am 25.05.2016. 69  S. Art. 288 AEUV: „Die Verordnung hat allgemeine Geltung. Sie ist in allen Teilen verbindlich und gilt unmittelbar in jedem Mitgliedsstaat.“ Nach Kühling / Martini ist die DSGVO ein „atypischer Hybrid aus Verordnung und Richtlinie“ siehe Kühling / Martini (2016): Die DSGVO: Revolution oder Evolution, S. 449. 70  Roßnagel, in: Roßnagel, § 1 Rn. 4. 71  BT-Drcks. 18 / 11325. 67  OLG



Scoring – Implikationen für Individuum und Gesellschaft

301

Das Datenschutzrecht und damit auch das BDSG72 hat zur Aufgabe, den Einzelnen davor zu schützen, dass er durch den Umgang mit seinen personenbezogenen Daten in seinem Persönlichkeitsrecht beeinträchtigt wird.73 Anwendung findet das BDSG nur dann, wenn es sich bei den Daten des Einzelnen um personenbezogene Daten handelt (§ 1 II i. V. m. § 3 I BDSG). Beim Scoring kommt es zu einer Erhebung, Verarbeitung und Nutzung von personenbezogenen Daten. Zwar war einige Zeit umstritten, ob der Scorewert selbst ein personenbezogenes Datum sei. Abgelehnt wurde dies von einer Ansicht zum Teil  unter Verneinung des Merkmals ‚Einzelangabe‘ nach § 3  I  BDSG, zum Teil wurde es abgelehnt, weil sich der Wahrscheinlichkeitswert nur auf die Vergleichsgruppe beziehe und damit keine persönlichen oder sachlichen Verhältnisse einer Person im Sinne von § 3 I BDSG beschrieben würden.74 Zwar weisen die zur Berechnung des Scorewerts verwendeten Daten in der Regel keinen Personenbezug auf, sie sind anonymisiert. Doch die Zuordnung des statistisch ermittelten Scorewertes zu einer bestimmten Person, aufgrund dessen diese Person dann auch beurteilt wird, lässt einen Personenbezug entstehen.75 Mittlerweile ist von der herrschenden Meinung anerkannt, dass es sich auch bei dem Scorewert um ein personenbezogenes Datum handelt,76 sodass der Anwendungsbereich des BDSG auch hier eröffnet ist. Im Datenschutzrecht existiert das sogenannte Verbotsprinzip (§ 4 I BDSG), das besagt, dass eine Erhebung, Verarbeitung oder Nutzung von personenbezogenen Daten grundsätzlich verboten ist, es sei denn, es existiert ein Erlaubnistatbestand in einer Rechtsvorschrift oder aber der Betroffene hat eingewilligt. Somit bedarf auch das Scoring entweder eines Erlaubnistatbestandes, dessen Voraussetzungen erfüllt sein müssen oder der Einwilligung in die Erhebung, Verarbeitung oder Nutzung von Daten. Im Folgenden sollen zunächst die speziell für das Scoring im BDSG existierenden Normen aufgezeigt werden und es soll ausgeführt werden, wie die 72  Das BDSG basiert auf der ihm zugrundliegenden Datenschutzrichtlinie, Richtlinie 95 / 46 / EG (DSRL). Die Richtlinie schreibt Mindeststandards für das Datenschutzrecht vor, die von den einzelnen Mitgliedsstaaten der EU in nationales Recht umgesetzt werden müssen, s. Art. 288 AEUV. 73  § 1 I BDSG. 74  Wuermeling (2002): Scoring von Kreditrisiken, S. 3509; ebenfalls ablehnend Kamlah (1999): Das SCHUFA-Verfahren, S. 401. S. zum Streitstand zusammenfassend Beckhusen (2004): Datenumgang, S. 234 ff. 75  Ehmann, in: Simitis, § 28b BDSG Rn. 47; Beckhusen (2004): Datenumgang, S.  234 ff., 242. 76  S. Gola / Klug / Körffer, in: Gola / Schomerus, § 3  BDSG Rn. 3a; Dammann, in: Simitis, § 3  BDSG Rn. 12; 71; Giesswein (2012): Verfassungsmäßigkeit Scoring, S. 37; Helfrich (2010): Kreditscoring, S. 47; Beckhusen (2004): Datenumgang, S.  234 ff., 242.

302

Manuela Sixt

Datenerhebung, ‑verarbeitung und ‑nutzung beim Scoring über Erlaubnistatbestände zulässig sein können. 3.1 Scoring-Normen im BDSG

Mit der BDSG-Novelle 2009 wurden Spezialnormen für das Scoring eingeführt: § 28a und § 28b BDSG. § 28a BDSG beschäftigt sich mit der Datenübermittlung an Auskunfteien. In § 28a BDSG ist ein Erlaubnistatbestand i. S. v. § 4 I BDSG zu sehen.77 Danach dürfen personenbezogene Daten an eine Auskunftei grundsätzlich dann übermittelt werden, wenn eine geschuldete Leistung nicht erbracht wurde (sogenannte Negativmeldung). Jedoch darf beispielsweise eine nicht beglichene Rechnung nicht sofort dazu führen, dass die Daten des Betroffenen an die Auskunftei übermittelt werden. Die Kreditunwürdigkeit muss unstreitig belegt werden, was unter anderem durch ein rechtkräftiges Urteil (§ 28a  I  Nr. 1  BDSG) und zweimalige schriftliche Mahnung und Nichtbestreiten des Betroffenen (§ 28a I Nr. 4 BDSG) möglich ist. Da § 28a BDSG nur den Fall der Datenübermittlung an Auskunfteien erfasst, müssen mangels speziellem Erlaubnistatbestand für das Scoringberechnungsverfahren beispielsweise im Unternehmen allgemeine Erlaubnistatbestände herangezogen werden. Allgemeine Erlaubnistatbestände finden sich in § 28 (für eigene Geschäftszwecke) beziehungsweise § 29 BDSG (für den Zweck der Übermittlung an andere). Beim externen Scoring, also bei der Berechnung von Wahrscheinlichkeitswerten durch eine Auskunftei findet § 29 BDSG Anwendung, beim internen Scoring in einem Unternehmen § 28 BDSG. Eine Spezialnorm für die Erhebung und Verwendung von Scoringergebnissen ist § 28b BDSG.78 Die Norm stellt jedoch keinen eigenständigen Erlaubnistatbestand dar.79 Sie gibt nur Voraussetzungen vor, die beim Scoring beachtet werden müssen. Bezüglich des für die Scorewertberechnung eingesetzten Verfahrens führt § 28b Nr. 1 BDSG aus, dass „die zur Berechnung des Wahrscheinlichkeitswerts genutzten Daten unter Zugrundlegung eines wissenschaftlich anerkannten mathematisch-statistischen Verfahrens nachweisbar für die Berechnung der Wahrscheinlichkeit des bestimmten Verhaltens erheblich“ sein müssen. Schwierigkeiten kann die Überprüfung solcher Verfahren bereiten, wenn diese auf komplexen Algorithmen beruhen, die 77  Kamp,

in: Wolff / Brink, § 28a BDSG Rn. 2. existieren zudem speziellere Regelungen zum Scoring, die denen des BDSG vorgehen, im KWG und im Versicherungsrecht, vgl. Lewinski, in: Wolff / Brink, § 28b BDSG Rn. 13. 79  Lewinski, in: Wolff / Brink, § 28b BDSG Rn. 19; Ehmann, in: Simitis, § 28b BDSG Rn. 1. 78  Es



Scoring – Implikationen für Individuum und Gesellschaft

303

unter Umständen sogar selbst im Rahmen des maschinellen Lernens Zusammenhänge in Datenmengen finden und einbeziehen. Dann sind die Verfahren undurchsichtig und damit kaum überprüfbar.80 Dieser Problematik kann unter Umständen durch Zertifizierungsverfahren entgegengetreten werden. 3.2 Scoring und automatisierte Einzelentscheidungen

Entscheidungen, die rechtliche Folgen für den Betroffenen haben oder für ihn nachteilig sein können, dürfen nach § 6a BDSG nicht ausschließlich auf die automatisierte Verarbeitung personenbezogener Daten gestützt werden, die der Bewertung einzelner Persönlichkeitsmerkmale dienen. Um eine Bewertung von Persönlichkeitsmerkmalen kann es sich auch bei Scoring-Verfahren handeln.81 Für das Scoring ist die Norm relevant, wenn der Scorewert automatisch zur Ablehnung des Vertragsschlusses führen würde.82 Trifft jedoch ein Individuum am Ende die Entscheidung, liegt gerade keine ausschließliche automatische Entscheidung vor.83 Bonitätsauskünfte von Auskunfteien sind damit keine automatisierten Einzelentscheidungen i.  S.  v. § 6a BDSG, da die Auskunftei nur den Scorewert liefert, aufgrund dessen der Auskunftsempfänger eine Entscheidung fällt.84 Gleichwohl bleibt natürlich offen, inwiefern das Individuum wirklich eine eigene Beurteilung vornimmt, oder sich doch nur auf den Scorewert verlässt. Hier ist die allgemeine Problematik bedeutsam, dass auf die von Algorithmen produzierten Ergebnisse blind vertraut wird. Es muss eine inhaltliche Bewertung durch das Individuum erfolgen, das befugt und auch tatsächlich in der Lage ist, die Entscheidung zu überprüfen.85 Um einen möglichst weitgehenden Schutz der Grundrechte des von der Scoring-Maßnahme Betroffenen zu erreichen, ließe sich auch annehmen, dass das Verbot von § 6a BDSG bereits dann greift, wenn der Mensch bei der Entscheidung eine nur noch ganz untergeordnete Funktion erfüllt, weil seine Entscheidung ohnehin zu einem wesentlichen Teil auf dem automatisch ermittelten Scorewert beruht.86 Dies entspräche auch dem Sinn und Zweck der Norm, den Betroffenen vor den negativen Folgen automatisierter Entscheidungen zu schützen. Eben diese Folgen verwirklichen 80  Weichert (2014): Scoring Big Data, S. 170; Waidner (2015): Fraunhofer SIT, Big Data Studie, S. 23. 81  Gola / Klug / Körffer, in: Gola / Schomerus, § 6a BDSG Rn. 15 f. 82  Moos / Rothkegel (2016): Nutzung von Scoring-Diensten, S. 565. 83  BGHZ 200, 38; Helfrich (2010): Kreditscoring, S. 233; Beckhusen (2004): Datenumgang, S. 264; Giesswein (2012): Verfassungsmäßigkeit Scoring, S. 67; Kamlah (1999): Das SCHUFA-Verfahren, S. 403. 84  OLG Frankfurt a. M. Urt. v. 14.12.2015­ 1 U 128 / 15­ ZD 2016, S. 137. 85  Gola / Klug / Körffer, in: Gola / Schomerus, § 6a BDSG Rn. 6. 86  So Scholz, in: Simitis, § 6a BDSG Rn. 19.

304

Manuela Sixt

sich nämlich auch bereits dann, wenn das automatisierte Verfahren den überwiegenden Teil des Entscheidungsprozesses bildet. Eine derartige Auslegung kollidiert jedoch wohl mit dem Wortlaut der Norm, der ausdrücklich fordert, dass gerade nur solche Bewertungsvorgänge unter das Verbot fallen sollen, bei denen die Entscheidung ausschließlich auf einem automatisierten Verfahren beruht. 3.3 Auskunftsansprüche beim Scoring

Für das Scoring gelten, neben den übrigen allgemeinen Auskunftsansprüchen des § 34 BDSG, spezielle Auskunftsansprüche: § 34 II und IV BDSG.87 Nach § 34 II BDSG kann der Betroffene Auskunft verlangen über die gespeicherten Wahrscheinlichkeitswerte der letzten sechs Monate (Nr. 1), über die zur Berechnung des Scores genutzten Datenarten (Nr. 2) und über das Zustandekommen und die Bedeutung der Scorewerte einzelfallbezogen und nachvollziehbar in allgemein verständlicher Form (Nr. 3). § 34 IV 1 BDSG richtet sich an Stellen, die Wahrscheinlichkeitswerte geschäftsmäßig zum Zwecke der Übermittlung erheben, speichern oder verändern, also an Auskunfteien. Diese Stellen sind demnach verpflichtet, auf Verlangen Auskunft zu erteilen über die übermittelten Wahrscheinlichkeitswerte und die Adressen, an die diese in den letzten zwölf Monaten ab Auskunftsverlangen übermittelt wurden (Nr. 1), über die Wahrscheinlichkeitswerte zum Zeitpunkt des Auskunftsverlangens (Nr. 2), über die der Berechnung zugrundliegenden Datenarten (Nr. 3) sowie über das Zustandekommen und die Berechnung der Wahrscheinlichkeitswerte (Nr. 4). Dieser Auskunftsanspruch dient der Transparenz für den Betroffenen und soll ihm ermöglichen, die Datengrundlage nachzuvollziehen.88 Problematisch ist hierbei, ob gemäß § 34  IV  1 Nr. 3  BDSG tatsächlich nur über die Datenarten Auskunft gegeben werden muss oder ob auch die konkreten Daten genannt werden müssen. Datenarten meint, dass es möglich ist, Datenfelder89 zusammenzufassen, also beispielsweise unter Adressdaten die Straße, Hausnummer, Postleitzahl und Ort.90 Nicht eindeutig geklärt ist aber bislang, wie weit solche Datenfelder ausgedehnt werden dürfen, um für den Betroffenen noch erkennbar zu machen, welche Merkmale in die Berech87  Hierzu ausführlich zum Beispiel Heinemann / Wäßle (2010): Datenschutzrechtlicher Auskunftsanspruch. 88  Gola / Klug / Körffer, in: Gola / Schomerus, § 34 BDSG Rn. 12 f.; Dix, in: Simitis, § 34 BDSG Rn. 33; Reiter / Mehner (2016): Datenschutzrechtliche Grenzen, S. 460. 89  S. zum Begriff des Datenfeldes im informationstechnischen Sinn Mertens u. a., die Datenfeld als Datenelement definieren, dass aus einem oder mehreren Zeichen besteht, s. Mertens u. a. (2012): Grundzüge der Wirtschaftsinformatik, S. 38. 90  So die Gesetzesbegründung BT-Drcks. 16 / 10529, S. 17.



Scoring – Implikationen für Individuum und Gesellschaft

305

nung eingeflossen sind.91 Um Transparenz zu gewährleisten, genügt gerade nicht nur die Auskunft über die Datenarten genügen, wie es der Gesetzeswortlaut vorsieht. Es ist auch wichtig zu erfahren, welche konkreten Daten auf die Scorewertberechnung Einfluss genommen haben.92 Für diese Auslegung entgegen dem Wortlaut spricht auch die dem BDSG zugrundliegende EU-Datenschutzrichtlinie (DSRL).93 Dort ist in Art. 12 lit. a DSRL (Auskunftsanspruch) ebenfalls von Daten und nicht von Datenarten die Rede.94 Allerdings stellt sich hier das allgemeine Problem, wie weit man den Mitgliedsstaaten im Rahmen der Datenschutzrichtlinie einen Umsetzungsspielraum zugesteht.95 Der Auskunftsanspruch gemäß § 34  IV  1  Nr. 4  BDSG ist aufgrund der Rechtsprechung des BGH stark beschränkt, indem der BGH die Bildung von Vergleichsgruppen und die Scorewertberechnung als vom Geschäftsgeheimnis geschützte Interessen ansah.96 Mithin kann der Betroffene also die Datenarten erfragen, die zur Berechnung des Scores genutzt werden, aber er erhält keine Auskunft darüber, wie die Daten gewichtet werden und wie sich die Vergleichsgruppen zusammensetzen. Wie der Bundesdatenschutzbeauftragte treffend bemerkte, gibt es dann für die Betroffenen keine Möglichkeit nachzuvollziehen, wie es sein kann, dass bei korrekter Datenbasis dennoch ein für die Person ungünstiger Score entsteht.97 Dies hat zur Folge, dass der Auskunftsanspruch beim Scoring weitestgehend leer läuft und gerade nicht transparent wird, warum der Bewertete aufgrund der von ihm vorhandenen Daten den Scorewert erhält. Bei automatisierten Einzelentscheidungen könnte der Auskunftsanspruch allerdings weiter zu fassen sein. Nach Art. 12 lit. a DSRL ist eine Auskunft 91  So gefordert in der Gesetzesbegründung BT-Drcks. 16 / 10529, S. 17; s. auch Heinemann / Wäßle (2010): Datenschutzrechtlicher Auskunftsanspruch, S. 602. 92  BGHZ 200, 38; Reiter / Mehner (2016): Datenschutzrechtliche Grenzen, S. 460; Schmidt-Wudy, in: Wolff / Brink, § 34 BDSG Rn. 70; ablehnend aber zum Beispiel Heinemann / Wäßle (2010): Datenschutzrechtlicher Auskunftsanspruch, S. 602. 93  Die EU-Datenschutzrichtlinie liegt dem BDSG zugrunde, das eine deutsche Umsetzung der auf europäischer Ebene getroffenen Mindeststandards, wie sie in der Richtlinie festgelegt wurden, darstellt. 94  BGHZ 200, 38; s. auch Anmerkung zum Urteil von Schade / Wolff (2014): Anmerkung, S. 311. 95  Schade / Wolff (2014): Anmerkung, S. 311; zum Handlungsspielraum der Mitgliedsstaaten unter Geltung der Datenschutzrichtlinie s. auch EUGH Urt. v. 06.11.2003 Lindqvist / Schweden ­MMR 2004, S. 95 mit Anmerkung Roßnagel; EuGH Urt. v. 24.11.2011 – ASNEF / FECEMD ZD 2012, S. 33. 96  Kritisch hierzu Weichert (2014): Scoring Big Data, S. 169; s. auch Wagner / B ­ enner (2016): Filterung eingestellter Bewertungen, Anmerkung, S. 4. 97  BfDI (2011): Tätigkeitsbericht zum Datenschutz für die Jahre 2009 und 2010, S. 75.

306

Manuela Sixt

über den logischen Aufbau dann zwingend, wenn es sich um eine automatisierte Einzelentscheidung nach Art. 15 I DSRL handelt.98 Mit logischem Aufbau könnte dementsprechend auch eine Auskunft über das Zustandekommen des Scorewerts gemeint sein.99 4. Künftige datenschutzrechtliche Voraussetzungen des Scorings Die DSGVO stimmt zwar in ihren Grundsätzen mit unserem nationalen Datenschutzrecht überein. Sie bleibt jedoch in ihrer Regelungstiefe hinter dem BDSG zurück. Am Beispiel des Scorings zeigt sich dies deutlich: Während das BDSG spezifische Normen zum Scoring enthält, fehlen solche in der DSGVO. Aus diesem Grund wurde vor Erlass des BDSG n. F. diskutiert, ob und wie man die spezifischen Scoring-Vorschriften des aktuellen BDSGs beibehalten könnte. Bevor die vorgeschlagenen Möglichkeiten zur Beibehaltung diskutiert werden, soll auf die Voraussetzungen für das Scoring in der DSGVO eingegangen werden. 4.1 Interessenabwägung nach Art. 6 I lit. f DSGVO

Art. 6  I  DSGVO enthält abschließend normierte Erlaubnistatbestände für die Verarbeitung von personenbezogenen Daten. So sieht Art. 6 I lit. a ­DSGVO den Erlaubnistatbestand der Einwilligung vor. Nach Art. 6 I lit. f DSGVO ist eine Datenverarbeitung zulässig, wenn die Verarbeitung zur Wahrung der berechtigten Interessen des Verantwortlichen oder eines Dritten erforderlich ist, sofern nicht Interessen oder Grundrechte und Grundfreiheiten der betroffenen Person, die den Schutz personenbezogener Daten erfordern, überwiegen. Es ist also eine Interessenabwägung vorgesehen. In Art. 6 I lit. f DSGVO ist ein Erlaubnistatbestand zu sehen, nach dem sich die Zulässigkeit der Datenverarbeitung beim Scoring bemessen kann. Art. 6 I lit. f DSGVO stellt einen sehr breit gefassten Auffangtatbestand dar, der im Gegensatz steht zu den konkreten, auf eine spezifische Verarbeitungskonstellation bezogenen Interessenabwägungsklauseln des BDSG100, wie sie auch §§ 28a und 28b BDSG verkörpern. Dementsprechend wurde auch diskutiert, ob Art. 6 I lit. f zu vage sei.101 Aufgrund dieser weiten Spielräume, die der Erlaubnistatbestand eröffnet, könnten die derzeit in Deutschland bestehenden Grundsätze zum Scoring dort hineingelesen werden – auch eine 98  BGHZ

200, 38. (2016): Datenschutzrechtliche Grenzen, S. 460. 100  S. hierzu Buchner / Petri, in: Kühling / Buchner, Art. 6 Rn. 144. 101  S. zur Diskussion Buchner / Petri, in: Kühling / Buchner, Art. 6 Rn. 142. 99  Reiter / Mehner



Scoring – Implikationen für Individuum und Gesellschaft

307

strengere oder sehr viel laxere Handhabung wäre aber grundsätzlich für die Zukunft unter Art. 6 DSGVO denkbar. Hier zeigt sich jedoch zugleich die Problematik, dass eine breite Regelung anders als spezifische Regelungen ein gewisses Maß an Rechtsunsicherheit beinhaltet. Mit der BDSG-Novelle 2009 hatte der deutsche Gesetzgeber erkannt, dass den Gefahren des Scorings nur durch spezielle Regelungen Rechnung getragen werden kann. Diese errungenen Spezialregelungen gingen ohne Beibehaltung der nationalen Regelungen verloren. Aus Sicht der durch das Scoring beurteilten Personen ist eine Beibehaltung der spezifischen Regelungen der §§ 28a und 28b BDSG somit wünschenswert. Denn andernfalls gäbe es beispielsweise mit Wegfall des § 28a BDSG keine normierte Einschränkung mehr, dass bestrittene Forderungen nicht gemeldet werden dürfen.102 Und mit dem Wegfall von § 28b  BDSG würde eine Regelung entfallen, welche die ausschließliche Nutzung von Anschriftsdaten für das Scoring verbietet.103 4.2 Automatisierte Einzelentscheidungen im Einzelfall einschließlich Profiling nach Art. 22 DSGVO

Art. 22  I  DSGVO verbietet, betroffene Personen ausschließlich einer auf automatisierter Verarbeitung, einschließlich Profiling, beruhenden Entscheidung zu unterwerfen, die für die Person rechtliche Wirkung entfaltet oder diese in ähnlicher Weise erheblich beeinträchtigt.104 Art. 22 DSGVO betrifft 102  Reiter / Mehner (2016): Datenschutzrechtliche Grenzen, S. 462; Ehrig / Glatzner (2016): Kreditscoring nach der DSGVO, S. 212. Dies sieht nun § 31 II BDSG n. F. vor. 103  Reiter / Mehner (2016): Datenschutzrechtliche Grenzen, S. 463; Ehrig / Glatzner (2016): Kreditscoring nach der DSGVO, S. 212. Dies sieht nun § 31 I Nr. 3 BDSG n. F. vor. 104  In Art. 22 I DSGVO ist das Profiling als Beispiel für eine automatisierte Verarbeitung, auf der eine Entscheidung beruht, genannt. Art. 4 Nr. 4 DSGVO enthält eine Definition für Profiling: „jede Art der automatisierten Verarbeitung personenbezogener Daten, die darin besteht, dass diese personenbezogenen Daten verwendet werden, um bestimmte persönliche Aspekte, die sich auf eine natürliche Person beziehen, zu bewerten, insbesondere um Aspekte der Arbeitsleistung, wirtschaftliche Lage, Gesundheit, persönliche Vorlieben, Interessen, Zuverlässigkeit, Verhalten, Aufenthaltsort oder Ortswechsel dieser natürlichen Person zu analysieren oder vorherzusagen.“ Zwischen Profiling und automatisierter Entscheidungsfindung besteht jedoch der Unterschied, dass Profiling die Datenverarbeitung selbst meint, während die automatisierte Entscheidungsfindung die Verwendung der Ergebnisse einer Datenverarbeitung meint; s. hierzu Buchner, in: Kühling / Buchner, Art. 22 DSGVO Rn. 4. In Bezug auf die der Entscheidung vorangehenden Datenverarbeitung soll der „für die Verarbeitung Verantwortliche geeignete mathematische und statistische Verfahren für das Profiling verwenden“ (ErwG 71), wobei auch Fehlerfreiheit und Diskriminierungsfreiheit gewährleistet werden soll; s. auch Buchner, in: Kühling / Buchner, Art. 22 DSGVO Rn. 36.

308

Manuela Sixt

also die Entscheidung, die auf einer automatisierten Datenverarbeitung basiert und nicht die automatisierte Datenverarbeitung selbst.105 Scoring ist eine Form des Profilings.106 Erfolgt eine automatische Entscheidung im Anschluss an die automatische Verarbeitung im Rahmen des Scorings, sind die Vorgaben des Art. 22 DSGVO zu beachten.107 Art. 22 DSGVO entspricht weitestgehend § 6a BDSG,108 sodass auf die dort gemachten Ausführungen zum Vorliegen der Ausschließlichkeit Bezug genommen werden kann.109 Nach Art. 13 II lit. f und Art. 14 II lit. g DSGVO bestehen Informationspflichten. Hinsichtlich der Informationspflicht in Bezug auf die „involvierte Logik“ könnte angenommen werden, es müsse nun auch der Algorithmus offengelegt werden. Dies wird jedoch aufgrund des Geschäftsgeheimnisschutzes, der auch in Erwägungsgrund 63 explizit erwähnt wird, abgelehnt.110 Um einen weitreichenden Persönlichkeitsrechtsschutz beim intransparenten und mit dem Risiko der Diskriminierung behafteten Scoring zu verwirklichen, müsste jedoch der Geschäftsgeheimnisschutz zurückstehen. 4.3 Vorschläge zur Beibehaltung der Scoring-Regelungen des BDSG

Die DSGVO selbst sieht eine Möglichkeit vor, wie Regelungen beibehalten werden können. Sie enthält an einer Reihe von Stellen sogenannte Öffnungsklauseln, also die explizite Möglichkeit zum Erlass von mitgliedstaatlich spezifischen Regelungen durch den nationalen Gesetzgeber.111 Bei den Öffnungsklauseln wird zwischen allgemeinen und spezifischen Öffnungsklauseln unterschieden. Allgemeine Öffnungsklauseln, wie zum Beispiel Art. 23 DSGVO, sind nicht auf einen bestimmten Themenkomplex beschränkt; spezifische Öffnungsklauseln betreffen einen bestimmten Regelungsbereich.112 Öffnungsklauseln ermöglichen die Schaffung neuer Regelungen, gleichzeitig soll es über sie auch möglich sein, bestehende Regelun105  Buchner,

in: Kühling / Buchner, Art. 22 DSGVO Rn. 23. in: Kühling / Buchner, Art. 22 DSGVO Rn. 22. 107  Gola / Schulz, in: Gola, Art. 6 Rn. 127. 108  Moos / Rothkegel (2016): Nutzung von Scoring-Diensten, S. 567; Scholz, in: Simits, § 6a BDSG Rn. 8a. 109  Nicht durchgesetzt hatte sich der Vorschlag des EP, auch „vorrangig“ automatisierte Entscheidungen in den Anwendungsbereich des Art. 22 DSGVO aufzunehmen; s. Art. 20 V EP-E und Gola / Schulz, in: Gola, Art. 22 Rn 12. Es ist damit davon auszugehen, dass wie auch unter dem BDSG a. F. das Ausschließlichkeitskriterium wörtlich zu nehmen ist. 110  Buchner, in: Kühling / Buchner, Art. 22 DSGVO Rn. 35; Kugelmann (2016): Datenfinanzierte Internetangebote, S. 568. 111  Kühling / Martini (2016): Die DSGVO: Revolution oder Evolution, S. 449. 112  Kühling / Martini (2016): Die DSGVO: Revolution oder Evolution, S. 449. 106  Buchner,



Scoring – Implikationen für Individuum und Gesellschaft

309

gen beizubehalten. Letztendlich führen aber alle Abweichungen von der DSGVO dazu, dass das Ziel der Vollharmonisierung und Vereinheitlichung des europäischen Datenschutzrechts in immer weitere Ferne rückt.113 Im Folgenden soll vor diesem Hintergrund diskutiert werden, welche Wege zur Beibehaltung nationaler Regelungen vorgeschlagen wurden und ob die jüngst verabschiedete Regelung in § 31 BDSG n. F. diesen Möglichkeiten entspricht. Zum Teil wurde vorgeschlagen, § 28 b BDSG über die Öffnungsklausel des Art. 22  II  lit. b  DSGVO beizubehalten, die es den Mitgliedstaaten (und der Union) ermöglicht, eine Regelung im nationalen Recht (bzw. im Unionsrecht) zu schaffen, die eine automatisierte Entscheidung zulässt.114 Diese Öffnungsklausel umfasst jedoch nicht eine Regelung, die die Zulässigkeit des Scorings behandelt. Scoring betrifft nämlich die der Entscheidung im Sinne von Art. 22 DSGVO vorangestellte Datenverarbeitung.115 Nur wenn die Entscheidung auf dem Scorewert basiert und eine ausschließliche automatisierte Entscheidungsfindung stattfindet, ist Scoring von Art. 22 DSGVO erfasst.116 Ansonsten findet für das Scoring Art. 6 I DSGVO Anwendung.117 Zudem befassen sich Art. 22 DSGVO und § 6a BDSG mit automatisierten Entscheidungsverfahren aufgrund von Profilen, wohingegen § 28a und § 28b BDSG die Parameter bei der Scorewertberechnung und die Nutzung dieser Werte adressieren.118 Als eine weitere Möglichkeit zur Beibehaltung von Normen wird die Öffnung im Rahmen der inkompatiblen zweckändernden Verarbeitung gesehen. Diesen Weg hat der Gesetzgeber für die Schaffung des § 31 BDSG n. F. gewählt, um so den materiellen Schutzstandard der §§ 28a und b BDSG beizubehalten.119 Nach der bereichsunspezifischen Öffnungsklausel des Art. 6 IV DSGVO ist eine Weiterverarbeitung zu anderen Zwecken möglich, als zu denjenigen, zu denen die Daten erhoben wurden.120 Die Öffnungsklau113  Diese Entwicklung aufzeigend auch Moos / Rothkegel (2016): Nutzung von Scoring-Diensten, S. 567. 114  Taeger (2016): Scoring nach DSGVO, S. 74 f.; die Möglichkeit berücksichtigend Härting (2016): DSGVO, S. 149, Rn. 607, 641; für eine Anwendbarkeit des § 28b BDSG „im Kern“, Ehmann, in: Simitis, § 28b BDSG Rn 79. 115  Buchner / Petri, in: Kühling / Buchner, Art. 22 Rn. 38; Kühling u. a. (2016): Die DSGVO und das nationale Recht, S. 68, die von einer allenfalls impliziten Erfassung von § 28 b BDSG durch Art. 22 II lit. b DSGVO ausgehen. 116  Martini, in: Paal / Pauly, Art. 22 DSGVO Rn. 24. 117  Martini, in: Paal / Pauly, Art. 22 DSGVO Rn. 24. 118  Moos / Rothkegel (2016): Nutzung von Scoring-Diensten, S. 567. 119  BT-Drs. 18 / 11325, S. 101. Dem Gesetzesentwurf wurde vom Bundesrat unter Änderungen des § 31 zugestimmt, s. BR-Drs. 332 / 17. 120  Im BDSG gilt der Grundsatz der Zweckbindung, nach dem die Daten nur zu dem Zweck verarbeitet werden dürfen, zu dem sie erhoben wurden (§§ 14 I,

310

Manuela Sixt

sel des Art. 6 IV DSGVO ermöglicht also nationale Regelungen, aber nur, wenn diese „in einer demokratischen Gesellschaft eine notwendige und verhältnismäßige Maßnahme zum Schutz der in Art. 23  I  DSGVO genannten Ziele“ sind.121 Beispiele für Ziele aus Art. 23 I DSGVO sind das allgemeine öffentliche Interesse (lit. e) und der Schutz der betroffenen Person oder der Rechte und Freiheiten der anderen Personen (lit. i). Entscheidend für die Beibehaltung über Art. 6 IV i. V. m. Art. 23 I DSGVO ist, ob die Weiterverarbeitung mit dem ursprünglichen Zweck nicht vereinbar ist, es sich also mit anderen Worten um eine inkompatible Zweckänderung handelt und ob die nationalen Regelungen Maßnahmen zum Schutz der in Art. 23  I  DSGVO genannten Ziele darstellen.122 Eine Übermittlung an Auskunfteien nach § 28a BDSG könnte als solche inkompatible Zweckänderung aufgefasst werden und deshalb eine Beibehaltung von § 28a BDSG über Art. 6 IV i. V. m. Art. 23 I DSGVO möglich sein.123 Als Schutzziel im Sinne von Art. 23 I DSGVO wird dabei zum Teil das allgemeine öffentliche Interesse genannt,124 zum Teil auch der Schutz der betroffenen Person oder der Rechte und Freiheiten anderer Personen.125 Die Weiterverarbeitung durch Auskunfteien diene dem allgemeinen öffentlichen Interesse, nämlich dem Funktionieren der Wirtschaft und dem Schutz der Verbraucher vor Überschuldung.126 Tatsächlich sprechen gewichtige Gründe gegen eine Beibehaltung des gesamten § 28a BDSG über diese Öffnungsklausel. Über Art. 6 IV i. V. m. Art. 23 I DSGVO sind nur nationale Regelungen zur Zweckänderung vorgesehen, eine umfassende Regelung zum Scoring geht darüber aber weit hin-

28 BDSG). Die DSGVO kennt ebenfalls diesen Grundsatz, weicht ihn aber in Art. 6 IV DSGVO auf. 121  S. zu Regelungen zur Zweckänderung auch Hornung / Hofmann (2017): Auswirkungen der DSGVO, S. 13. 122  Als Beispiel für eine inkompatible zweckändernde Verarbeitung nennen Kühling u. a. ein Autohaus, das Daten über einen verdächtigen Barkauf eines Autos an das Bundeskriminalamt zur Strafverfolgung weitergibt, wobei der Autokäufer, der seine Daten beim Autokauf hergibt, nicht davon ausgehen wird, dass seine Daten zu Strafverfolgungszwecken weiterverarbeitet werden; Kühling u. a. (2016): Die DSGVO und das nationale Recht, S. 42, 65. 123  Referentenentwurf des Bundesministeriums des Inneren 23.11.2016, S. 93; Taeger (2016): Scoring nach DSGVO, S. 74. 124  Referentenentwurf des Bundesministeriums des Inneren 23.11.2016, S. 93; so auch schon der erste Referentenentwurf vom 05.08.2016 zu § 39. Gegen die Stützung auf Art. 6 IV DSGVO wandte sich das BMJV in seiner Stellungnahme zum Gesetzesentwurf, s. dort S. 30. 125  Taeger (2016): Scoring nach DSGVO, S. 74. 126  Referentenentwurf des Bundesministeriums des Inneren 23.11.2016, S. 93, unter Berufung auf die Rechtsprechung des BGH, NJW 2011, 2204 (2206).



Scoring – Implikationen für Individuum und Gesellschaft

311

aus.127 Zudem müssen auch die in Art. 23 I DSGVO genannten Schutzziele restriktiv aufgefasst werden. Letztendlich lassen sich beispielsweise viele datenschutzrechtliche Bestimmungen auf das Ziel des Schutzes der betroffenen Personen oder auf den Schutz von Rechten und Freiheiten anderer Personen zurückführen, sodass ein Dispens von der Grundverordnung durch ­eigene Regeln der Mitgliedsstaaten bei allen möglichen Vorschriften der ­DSGVO möglich wäre und damit massiv vom Grundsatz der Vollharmonisierung abgewichen werden könnte.128 Mithin erscheint das Vorgehen des Gesetzgebers in Bezug auf § 31 BDSG n. F. höchst zweifelhaft, obgleich die Beibehaltung rechtspolitisch wünschenswert erscheint. Es bleibt abzuwarten, ob die Regelung gegebenenfalls vor dem EuGH Bestand hat. Als eine weitere Beibehaltungsmöglichkeit wurde ferner eine Konkretisierung von Art. 6 I lit. f DSGVO genannt.129 Dafür spricht, dass Art. 6 I lit. f DSGVO sehr abstrakt gehalten und unbestimmt ist und eine Konkretisierung Klarheit schaffen könnte.130 Eine explizite Abweichungsmöglichkeit von den Vorschriften ist in Art. 6 II DSGVO zwar vorgesehen, allerdings nur für die Fälle des Art. 6  II  lit. c und e. Dies spricht dafür, dass den Mitgliedsstaaten gerade keine Möglichkeit zur Konkretisierung des Art. 6 I lit. f DSGVO (und der übrigen Nummern in Art. 6 I DSGVO) verbleibt.131 Die bewusste Entscheidung des europäischen Gesetzgebers für die verstärkte Anwendung eines allgemeinen Erlaubnistatbestandes der Interessenabwägung im Sinne des Art. 6 lit. f DSGVO anstelle von speziellen Regelungen muss akzeptiert werden.132 Wie letztendlich der abstrakte Art. 6 I lit. f DSGVO zu handhaben ist, ist durch den EuGH zu klären.133 In diesem Punkt zeigt sich die allgemeine Problematik, inwiefern es den Mitgliedsstaaten abseits der expliziten Öffnungsklauseln möglich ist, nationale Regelungen beizubehalten und zu schaffen.134 Zum Teil wird dabei an127  Hornung / Hofmann

(2017): Auswirkungen der DSGVO, S. 13. (2017): Auswirkungen der DSGVO, S. 13; Buchner / Petri, in: Kühling / Buchner, Art. 6 Rn 161, 166. 129  Roßnagel, in: Roßnagel, § 1, Rn. 38. 130  S. zu diesem Aspekt Kühling u.  a. (2016): Die DSGVO und das nationale Recht, S. 443. 131  Kühling u.  a. (2016): Die DSGVO und das nationale Recht, S. 443; Hornung / Hofmann (2017): Auswirkungen der DSGVO, S. 13; Roßnagel, Drs. 18(24)94, S. 14 f.; so aber Taeger (2016): Scoring nach DSGVO, S. 74. 132  Moos / Rothkegel (2016): Nutzung von Scoring-Diensten, S. 568; s. hierzu auch Schröder (2016): Datenschutzrecht Praxis, Kapitel 7 II 1. 133  Kühling u. a. (2016): Die DSGVO und das nationale Recht, S. 443. 134  Für eine breite Anwendbarkeit nationaler Regelungen neben der DSGVO streitet Roßnagel, der explizite und implizite Öffnungsklauseln anerkennt und Präzisierungsund Konkretisierungsmöglichkeiten annimmt. Roßnagel, in: Roßnagel, § 1 Rn. 13. 128  Hornung / Hofmann

312

Manuela Sixt

genommen, es gäbe neben den expliziten Öffnungsklauseln auch sogenannte implizite Öffnungsklauseln. Mit impliziten Öffnungsklauseln ist gemeint, dass die DSGVO keine abschließende Regelung in manchen Bereichen enthält und dass diese Regelungslücken durch nationale Regelungen gefüllt werden können, indem die nationalen Regelungen die bestehenden Generalklauseln konkretisieren.135 Jede Beibehaltung beziehungsweise Schaffung von nationalen Regelungen birgt jedoch die Gefahr, dass sich das Datenschutzrecht vom Ziel der Vollharmonisierung und Vereinheitlichung immer weiter entfernt. Deshalb wird ein eigener Regelungsspielraum der Mitgliedsstaaten abseits der expliziten Öffnungsklauseln grundsätzlich verneint.136 Nach der hier vertretenen Ansicht haben die Mitgliedstaaten keine Kompetenz über Öffnungsklauseln, Regelungen zum Scoring beizubehalten beziehungsweise zu schaffen. Das Vorgehen des Gesetzgebers erscheint vor diesem Hintergrund als rechtspolitisch zwar wünschenswerte, jedoch von der Verordnung nicht gedeckte Handlung. Außer Acht gelassen wird dabei, dass ein weiterer Weg, Scoring-Regelungen zu schaffen, offen gestanden hätte. So wird bezweifelt, dass es sich bei den Scoring-Regelungen im Kern überhaupt um Datenschutzregelungen handele, sie seien vielmehr als Regelungen zum Verbraucherschutz anzusehen und deshalb hier zu schaffen und zu verorten.137 4.4 Auskunftsrechte

Ein spezielles Auskunftsrecht für das Scoring ist in der DSGVO nicht enthalten. Es existiert ein Auskunftsrecht bei der automatisierten Entscheidungsfindung einschließlich dem Profiling nach Art. 15 lit. h DSGVO. Während Art. 34 II 1 und IV 1 BDSG von Wahrscheinlichkeitswerten sprechen, ist in Art. 15 I lit. h DSGVO von der involvierten Logik die Rede.138 Es wurde vorgeschlagen, die spezifischen Aufklärungsnormen zum Scoring als Präzisierung von Art. 15 lit. h DSGVO beizubehalten.139 Der Gesetzgeber hat sich im BDSG n. F. gegen eine Beibehaltung der Regelungen entschieden, gegen die im Übrigen auch abermals das Prinzip der Vollharmonisie135  Taeger (2016): Scoring nach DSGVO, S. 74 f.; Roßnagel, Drs. 18(24)94, S. 6; Moos / Rothkegel (2016): Nutzung von Scoring-Diensten, S. 567; zum Begriff der impliziten Öffnungsklausel, die häufig auch als fakultative Handlungsaufträge bezeichnet werden, s. Schmidt-Wudy, in: Wolff / Brink, Art. 15 DSGVO Rn. 9. 136  Kühling u. a. (2016): Die DSGVO und das nationale Recht, S. 443 f. 137  Ehrig / Glatzner (2016): Kreditscoring nach der DSGVO, S. 214; Härting (2015): Vier Thesen. 138  Roßnagel, Drs. 18(24)94, S. 6. 139  So Roßnagel, in: Roßnagel, § 1 Rn. 32; diese Möglichkeit nennend Taeger (2016): Scoring nach DSGVO, S. 75.



Scoring – Implikationen für Individuum und Gesellschaft

313

rung gesprochen hätte, das durch eine Präzisierung beeinträchtigt gewesen wäre.140 5. Schlussfolgerung Scoring beinhaltet zahlreiche Risiken für die Privatheit des Individuums, aber auch für die Gesellschaft im Ganzen. Auf diese Risiken sollte verstärkt aufmerksam gemacht werden, zumal sich weltweit die Tendenz abzeichnet, dass für das Scoring immer neue Einsatzmöglichkeiten geschaffen werden. Scoring könnte auch in Deutschland noch stärker zum Einsatz kommen, entsprechend einem allgemeinen Trend einer verstärkten Algorithmisierung der Lebenswelt. Deshalb gilt es internationale Entwicklungen im Bereich des Scorings, wie beispielsweise in China, genau zu beobachten, um Chancen und Risiken des Scorings früh zu erkennen und sie nutzen beziehungsweise ihnen begegnen zu können. Aus juristischer Sicht gilt es, den effektiven Schutz der Betroffenen zu gewährleisten. Bedauerlicherweise hat auch die DSGVO nicht zu einem verbesserten Schutz des Individuums vor den Risiken des Scorings beigetragen, vielmehr besteht Rechtsunsicherheit. Das rechtspolitisch begrüßenswerte Anliegen des Gesetzgebers, die konkreten Regeln des aktuellen BDSG beizubehalten, sieht sich dem Vorwurf ausgesetzt, nicht von den rechtlichen Ausgestaltungsspielräumen, die die DSGVO vorsieht, gedeckt zu sein. Es bleibt zu hoffen, dass die künftige EuGHRechtsprechung für Rechtssicherheit sorgt. Bibliografie Alibaba Group: Ant Financial Unveils China’s First Credit-Scoring System Using Online Data (o. J.). URL: www.alibabagroup.com/en/news/article?news=p150128 (zuletzt eingesehen am 26.07.2017). Alvares de Souza Soares, Philipp: Der gläserne Bewerber. In: Die Zeit vom 06.09.2012. URL: http://www.zeit.de/2012/37/C-Aufmacher-Klout-Score (zuletzt eingesehen am 20.07.2017). Ankenbrand, Hendrik: Chinas Bonitätsregister. Millionen Chinesen auf schwarzer Schuldnerliste dürfen nicht reisen. In: FAZ online vom 16.02.2017. URL: http:// www.faz.net/aktuell/wirtschaft/agenda/millionen-chinesen-auf-schwarzer-schuld nerliste-duerfen-nicht-reisen-14880386.html (zuletzt eingesehen am 20.07.2017). Auer-Reinsdorff, Astrid/Conrad, Isabell: Handbuch IT- und Datenschutzrecht. 2. Auflage. München 2016. Beckhusen, G. Michael: Der Datenumgang innerhalb des Kreditinformationssystems der Schufa. Baden-Baden 2004. 140  Hornung / Hofmann

(2017): Auswirkungen der DSGVO, Fn 118.

314

Manuela Sixt

BfDI: Tätigkeitsbericht zum Datenschutz für die Jahre 2009 und 2010. 23. Tätigkeitsbericht. Bonn 2011. URL: http://www.bfdi.bund.de/SharedDocs/Publikationen/ Taetigkeitsberichte/TB_BfDI/23TB_09_10.pdf?__blob=publicationFile&v=6 (zuletzt eingesehen am 26.07.2017). Biermann, Kai: Noch niemand hat bewiesen, dass Data Mining der Polizei hilft. In: Die Zeit online vom 29.03.2015. URL: http://www.zeit.de/digital/datenschutz/ 2015-03/predictive-policing-software-polizei-precobs (zuletzt eingesehen am 20.07.2017). Boehme-Neßler, Volker: Das Ende der Anonymität. Wie Big Data das Datenschutzrecht verändert. In: DuD 7 (2013), S. 416–423. Bull, Hans-Peter: Informationelle Selbstbestimmung ­ Vision oder Illusion? Datenschutz im Spannungsverhältnis von Freiheit und Sicherheit, 2. Auflage. Tübingen 2011. Bundesministerium für Justiz und Verbraucherschutz: Stellungnahme zum Gesetzesentwurf vom 05.08.2016. URL: https://cdn.netzpolitik.org/wp-upload/2016/09/ BMJV_Stellungnahme_DSAnpUG_EU.pdf (zuletzt eingesehen am 26.07.2017). China Copyright and Media: Planning Outline for the Construction of a Social Credit System (2014–2020). URL: https://chinacopyrightandmedia.wordpress.com/2014/ 06/14/planning-outline-for-the-construction-of-a-social-credit-system-2014-2020/ (zuletzt eingesehen am 26.07.2017). Diercks, Nina: Big Data­Analysen & Scoring in der (HR-)Praxis. In: PinG 1 (2016), S. 30–36. Ehrig, Lina/Glatzner, Florian: Kreditscoring nach der Datenschutz­-Grundverordnung: Sollen und können­die bisherigen Regelungen des BDSG erhalten bleiben? In: PinG 6 (2016), S. 211–214. Elsberg, Marc: Zero – Sie wissen, was du tust. München 2016. Ferguson, Andrew Guthrie: Policing Predictive Policing. In: Washington University Law Review 94 (2017), S. 1–70. Ferry, Quentin u. a.: Diagnostically Relevant Facial Gestalt Information from Ordinary Photos. In: elife vom 25.06.2014. URL: https://elifesciences.org/content/3/e02020 (zuletzt eingesehen am 20.07.2017). Giesswein, Claudia: Die Verfassungsmäßigkeit des Scoringverfahrens der Schufa. Hamburg 2012. Gola, Peter: Datenschutzgrundverordnung. München 2017. Gola, Peter/Schomerus, Rudolf: Bundesdatenschutzgesetz. 12. Auflage. München 2015 (zitiert als Bearbeiter, in: Gola/Schomerus). Hammersen, Jens C./Schade, Claudia: Auskunftsanspruch nach § 34  IV  1  Nr. 3 BDSG. In: DuD 6 (2014), S. 399–401. Härting, Nico: Vier Thesen zur neu entbrannten Scoring-Debatte. In: cr-online blog. URL: http://www.cr-online.de/blog/2015/05/20/vier-thesen-zur-neu-entbranntenscoring-debatte/ (zuletzt eingesehen am 20.07.2017).



Scoring – Implikationen für Individuum und Gesellschaft

315

‒ Datenschutz-Grundverordnung: Das neue Datenschutzrecht in der betrieblichen Praxis. Köln 2016. Heinemann, Oliver/Wäßle, Florian: Datenschutzrechtlicher Auskunftsanspruch bei Kreditscoring. Inhalt und Grenzen des Auskunftsanspruchs nach § 34 BDSG. In: MMR 9 (2010), S. 600–604. Helfrich, Marcus: Kreditscoring und Scorewertbildung der Schufa. Baden-Baden 2010. Hill, Hermann: Neubestimmung der Privatheit a­ uf dem Weg zu ‚Neuer Sozialität‘. In: Hill, Hermann/Schliesky, Utz: Die Neubestimmung der Privatheit. Baden-Baden 2014, S. 249–267. Hoeren, Thomas: Thesen zum Verhältnis von Big Data und Datenqualität. Erstes Raster zum Erstellen juristischer Standards. In: MMR 1 (2016), S. 8–11. Hoffmann, Richard: Praxis-Leitfaden ‚Business in China‘. Berlin 2013. Hofmann, Kai/Hornung, Gerrit: Rechtliche Herausforderungen des Internets der Dinge. In: Sprenger, Florian/Engemann, Christoph: Internet der Dinge: über smarte Objekte, intelligente Umgebungen und die technische Durchdringung der Welt. Bielefeld 2015, S. 18–203. Hornung, Gerrit: Datensparsamkeit. Zukunftsfähig statt überholt. In: Spektrum Physik Mathematik Technik Spezial 1 (2017), S. 62–67. ‒ Datenverarbeitung der Mächtigen bleibt intransparent. In: lto vom 29.01.2014. URL: http://www.lto.de/recht/hintergruende/h/bgh-urteil-vizr15613-schufa-scoringermittlung-kreditwuerdigkeit-algorithmus-geschaeftsgeheimnis-auskunft/ (zuletzt eingesehen am 20.07.2017). Hornung, Gerrit/Hofmann Kai: Die Auswirkungen der europäischen Datenschutzreform auf die Markt- und Meinungsforschung. In: ZD-Beilage 2017, S. 1–16. Hsu, Sara: China’s New Social Credit System. In: The Diplomat vom 10.05.2015. URL: http://thediplomat.com/2015/05/chinas-new-social-credit-system/ (zuletzt eingesehen am 20.07.2017). Kamlah, Wulf: Das SCHUFA-Verfahren und seine datenschutzrechtliche Zulässigkeit. In: MMR 7 (1999), S. 395–404. Kamlah, Wulf/Walter, Stefan: Scoring ­was ist zulässig und welche (Auskunfts-) Rechte haben die Betroffenen? In: PinG 4 (2015), S. 159–164. Kastner, Laura: ‚Sesame Credits‘. Macht China Überwachung zum Spiel? Politik-digital.de vom 26.01.2016. URL: http://politik-digital.de/news/sesame-credits-chi na-ueberwachung-148275/ (zuletzt eingesehen am 20.07.2017). Kipker, Dennis-Kenji/Dix, Alexander: Datenschutz-Grundverordnung – (wie) müssen das deutsche und das europäische Recht geändert werden? In: ZD-aktuell 2016, 04197. Kirchberg, Christian: Anmerkung zu BGH Urteil vom 28.01.2014  – VI ZR 156/13. In: NVwZ 11 (2014), S. 747–752.

316

Manuela Sixt

Kleinz, Torsten: 32C3. Wenn Algorithmen entscheiden und töten. In: heise online vom 31.12.2015. URL: https://www.heise.de/newsticker/meldung/32C3-WennAlgorithmen-entscheiden-und-toeten-3057086.html (zuletzt eingesehen am 20.07. 2017). ‒ Der kontrollierte Boom in China. In: heise online vom 06.05.2015. URL: https:// www.heise.de/newsticker/meldung/re-publica-15-Der-kontrollierte-Boom-in-Chi na-2635818.html (zuletzt eingesehen am 20.07.2017). Kugelmann, Dieter: Datenfinanzierte Internetangebote. Regelungs- und Schutzmechanismen der DSGVO. In: DuD 9 (2016), S. 566–570. Kühl, Eike: Zeig uns dein Smartphone und wir leihen dir Geld. In: Die Zeit vom 11.12.2015. URL: http://www.zeit.de/digital/internet/2015-12/kreditwuerdigkeitscoring-smartphone-big-data (zuletzt eingesehen am 20.07.2017). Kühling, Jürgen u. a.: Die Datenschutz-Grundverordnung und das nationale Recht. Erste Überlegungen zum innerstaatlichen Regelungsbedarf. URL: http://www. foev-speyer.de/files/de/downloads/Kuehling_Martini_et_al_Die_DSGVO_und_ das_nationale_Recht_2016.pdf (zuletzt eingesehen am 20.07.2017). Kühling, Jürgen/Buchner, Benedikt: Datenschutzgrundverordnung. München 2017. Kühling, Jürgen/Martini, Mario: Die Datenschutz-Grundverordnung. Revolution oder Evolution im europäischen und deutschen Datenschutzrecht? In: EuZW 12 (2016), S. 448–454. Maunz, Theodor/Dürig, Günter: Grundgesetz. 78. Lieferung. München 2016 (zitiert als Bearbeiter, in: Maunz/Dürig). Mertens, Peter u. a.: Grundzüge der Wirtschaftsinformatik. Berlin 2012. Moos, Flemming/Rothkegel, Tobias: Nutzung von Scoring-Diensten im Online-Versandhandel. Scoring-Verfahren im Spannungsfeld von BDSG, AGG und DS-GVO. In: ZD 12 (2016), S. 561–568. Referentenentwurf des Bundesministeriums des Inneren: Entwurf eines Gesetzes zur Anpassung des Datenschutzrechtes an die Verordnung (EU) 2016/679 und zur Umsetzung der Richtlinie (EU) 2016/680 vom 23.11.2016. URL: https://www. datenschutz-grundverordnung.eu/wp-content/uploads/2016/12/161123_BDSGneu-RefE_-2.-Ressortab-Verbaende-Laender.pdf (zuletzt eingesehen am 20.07. 2017). Reiter, Julius/Mehner, Olaf: Scoring-Verfahren. Datenschutzrechtliche Grenzen und praktische Schwierigkeiten. In: Taeger, Jürgen (Hg.): Tagungsband Herbstakademie 2016. Smart World S ­ mart Law? Weltweite Netze mit regionaler Regulierung. Edewecht 2016. Richter, Philipp: Big Data, Statistik und Datenschutz-Grundverordnung. In: DuD 9 (2016), S. 581–586. Rössler, Beate: Der Wert des Privaten. Berlin 2001. Roßnagel, Alexander: Europäische Datenschutz-Grundverordnung. Baden-Baden 2017 (zitiert als Bearbeiter, in: Roßnagel).



Scoring – Implikationen für Individuum und Gesellschaft

317

‒ Schriftliche Stellungnahme zum öffentlichen Fachgespräch zur DatenschutzGrundverordnung am 24. Februar 2016 im Ausschuss Digitale Agenda des Deutschen Bundestages, Ausschussdrucksache 18(24)94. URL: https://www.bundestag. de/blob/409512/4afc3a566097171a7902374da77cc7ad/a-drs-18-24-94-data.pdf (zuletzt eingesehen am 20.07.2017). Schade, Claudia/Wolff, Heinrich: Anmerkung zu BGH, Urteil vom 28.01.2014 VI ZR 156/13, ZD 6 (2014), S. 306–311. Schröder, Georg F.: Datenschutzrecht für die Praxis. 2. Auflage. München 2016. Seibel, Karsten: Gegen Kreditech ist die Schufa ein Schuljunge. In: Die Welt vom 17.01.2014. URL: https://www.welt.de/finanzen/verbraucher/article139671014/Ge gen-Kreditech-ist-die-Schufa-ein-Schuljunge.html (zuletzt eingesehen am 20.07. 2017). Simitis, Spiros: Bundesdatenschutzgesetz. 8. Auflage. Baden-Baden 2014 (zitiert als Bearbeiter, in: Simitis). ‒ Reviewing Privacy in an Information Society. In: University of Pennsylvania Law Review 135 (1987), S. 707–746. Strittmatter, Kai: Creating the Honest Man. In: Süddeutsche Zeitung international vom 02.06.2017. URL: http://international.sueddeutsche.de/post/161355280290/ creating-the-honest-man (zuletzt eingesehen am 20.07.2017). Taeger, Jürgen: Scoring in Deutschland nach der EU-Datenschutzgrundverordnung. In: ZRP 3 (2016), S. 72–75. ‒ Rechtlicher Regelungsrahmen des Scorings in Deutschland. In: K&R Beihefter 4 (2014) zu Heft 10, S. 4–17. The Economist: China Invents the Digital Totalitarian System. In: The Economist vom 17.12.2016. URL: http://www.economist.com/news/briefing/21711902-worry ing-implications-its-social-credit-project-china-invents-digital-totalitarian (zuletzt eingesehen am 20.07.2017). Türpe, Sven u. a.: Denkverbote für Star-Trek-Computer? Big Data, statistische Modelle und lernende Maschinen. In: DuD 1 (2014), S. 31–35. ULD: Unabhängiges Landeszentrum für Datenschutz in Schleswig-Holstein. Scoring nach der Datenschutz-Novelle 2009 und neue Entwicklungen. URL: https://www. bmjv.de/SharedDocs/Downloads/DE/PDF/Scoring-Studie.pdf?__blob=publication File&v=3 (zuletzt eingesehen am 20.07.2017). Wagner, Bernd/Benner, Anja: Filterung eingestellter Bewertungen durch Plattformbetreiber als Meinungsäußerung. In: juris PR-ITR 17/2016, Anmerkung 4. Waidner, Michael: Fraunhofer-Institut für sichere Informationstechnologie. Begleitpapier Bürgerdialog. Chancen durch Big Data und die Frage des Privatssphärenschutzes. Stuttgart 2015. URL: https://www.sit.fraunhofer.de/fileadmin/dokumen te/studien_und_technical_reports/Big-Data-Studie2015_FraunhoferSIT.pdf (zuletzt eingesehen am 20.07.2017). Warislohner, Fabian: Dystopia wird Wirklichkeit. Was ist dran an Chinas ‚Social Credit System‘: In: netzpolitik.org vom 09.10.2015. URL: https://netzpolitik.org/2015/

318

Manuela Sixt

dystopia-wird-wirklichkeit-was-ist-dran-an-chinas-social-credit-system/ eingesehen am 20.07.2017).

(zuletzt

Weichert, Thilo: Scoring in Zeiten von Big Data. In: ZRP 6 (2014), S. 168–171. ‒ Big Data und Datenschutz. Chancen und Risiken einer neuen Form der Datenanalyse. In: ZD 6 (2013), S. 251–259. ‒ Die Meinungsfreiheit des Algorithmus. In: Busch/Roggan (Hg.): Das Recht in guter Verfassung? Baden-Baden 2013, S. 147–159. ‒ Verbraucher-Scoring meets Datenschutz. In: DuD 7 (2006), S. 399–404. Wikipedia.org: Diskriminierung. Begriffsgeschichte (o. J.). URL: https://de.wikipedia. org/wiki/Diskriminierung#Begriffsgeschichte (zuletzt eingesehen am 26.07.2017). Wolff, Amadeus/Brink, Stefan: Beck’scher Online-Kommentar Datenschutzrecht (zitiert als Bearbeiter, in: Wolff/Brink). 18. Auflage. München 2016. Wuermeling, Ulrich: Scoring von Kreditrisiken. In: NJW 48 (2002), S. 3508–3510.

Privacy Nudges: Conceptual and Constitutional Problems Barbara Sandfuchs and Andreas Kapsner 1. Introduction Nudging, together with the underlying philosophy of libertarian paternalism, is a project proposed by legal scholar Cass Sunstein and behavioral economist Richard Thaler.1 Even though they acknowledge that the label libertarian paternalism sounds self-contradictory, they claim that there is room for policies that are paternalistic in the sense that they influence people in the name of their own good and, at the same time, libertarian in that they preserve freedom of choice.2 The attempt is to develop, on the basis of insights gained from psychology and behavioral economics, policies that steer people towards beneficial behavior without coercing them. Rather, the idea is to give them a nudge in the right direction, where a nudge is understood as a measure that preserves freedom of choice, does not involve monetary or other fines, and still shows considerable effects in changing behavior. The promise is a new approach to policy making that is cost effective, relatively non-intrusive and, above all, of great potential benefit to society. Nudges have been used to positively influence behavior on issues as diverse as the consumption of healthy foods, retirement savings, and urine spillage in public toilets. Typically, nudges are small, even tiny interventions, such as setting a default for a choice in a beneficial way. For example, vastly more people in Austria are organ donors than in Germany, simply because the default is set differently in the two countries. Austrians have to opt out of organ donation, Germans have to opt in. For a variety of psychological reasons, people tend to stick with the defaults that are chosen for them. Sunstein and Thaler hold that such empirical findings should be systematically exploited by governments to drive citizens to make better choices. There are, of course, obvious worries with any attempt of governments to use psychological methods to influence its citizens. Thaler and Sunstein try to defuse such worries, by for example insisting that all nudging must be done in the open, not in secret. Also, they stress that they want to bring 1  Thaler / Sunstein 2  Thaler / Sunstein

(2008): Nudge. (2008): Nudge, p. 4 ff.

320

Barbara Sandfuchs and Andreas Kapsner

people closer towards what these people themselves judge to be a better life, not what the bureaucrats think is best for them3 (this is a claim we will return to below). Nonetheless, their proposal has started an extremely lively and controversial debate. Apart from sparking a widespread and interdisciplinary academic exchange, these ideas have had major practical effects and are set to have many more. Libertarian paternalism has taken remarkably little time to go from a mere suggestion by a few academics to widespread political implementation. For example, Cass Sunstein has had the chance to put his ideas into practice after President Obama appointed him as the head of the U.S. Office of Information and Regulatory Affairs (OIRA) in 2009. OIRA is one of the most powerful government agencies in the US, able to review, reject and delay many proposed regulations. Sunstein’s time in office has firmly set libertarian paternalism on the agenda of the government of the US. Sunstein’s book Simpler (2014) is an autobiographical account of his time in office, and his new The Ethics of Influence (2016) contains a reprint of an executive order signed by President Obama, to the effect that all new policy proposals should be closely evaluated from the perspective of the behavioral sciences. Sunstein’s co-author, Richard Thaler, has in turn been recruited by the British government. He helped establish the so called ‘Behavioral Insights Team’ there,4 probably as of now the most open and explicit attempt to nudge citizens. While nudges have since been employed to lead people towards more “health, wealth and happiness”, as the subtitle of Thaler and Sunstein’s book had already announced, we will concentrate here on nudges that aim at getting people to guard their privacy more effectively. As it happens, privacy problems seem like perfect targets (though of course not the only such targets) for the libertarian paternalist’s arsenal. This is especially, though not exclusively, true for such problems in the digital realm. As Lauren Willis writes: “Consumer privacy on the internet appears poised to be the next arena [for libertarian paternalist interventions]”.5 The problem is that users disclose vast amounts of data about themselves. On the one hand, this may lead to numerous advantages, such as economic benefits or increased convenience. Nevertheless, such voluntary behavior can also cause great harm to the users. To address this problem, there is a wide variety of possible privacy nudges one might choose from: a very basic example would be the use of privacy-enhancing defaults. As we noted above, 3  Thaler / Sunstein

(2008): Nudge, p. 5; p. 239 ff.; p. 244 ff. Thaler (2015): Misbehaving. 5  Willis (2013): When Nudges Fail, p. 1159. 4  See



Privacy Nudges: Conceptual and Constitutional Problems

321

people are more likely to keep a status quo than to initiate changes. Taking this into consideration, the use of privacy by default could lead to a substantially lower degree of self-disclosure.6 Also, providing users with feedback before or after committing ‘mistakes’ in handling their private information can decrease the probability of such errors. A non-representative study initially surveyed that users often regret having made their Facebook posts available to an overly large audience. To prevent them from committing those mistakes, before being able to post or comment on Facebook, users were confronted with five pictures of other users who would be able to view the post.7 The pre-study further indicated that users frequently regret having posted excessively emotional posts or comments. To impede them from doing so, before being able to send an emotional post or comment the users were shown a note, for example “Other people might perceive your post as negative”.8 Both models induced users to not publish the post, change the audience, or modify their privacy settings. Additionally, a variety of other incentives can be used to trigger privacyenhancing behavior. People suffer from optimism-bias and thus systematically overrate the probability of the occurrence of positive events while underestimating the one of negative events. For example, in the context of social networks users know about privacy problems, but expect not to be affected by them.9 Moreover, if a harm is contextually less salient or abstract and hard to imagine people underestimate the probability of its occurrence.10 These predictable patterns can be used to alter behavior by drawing users’ attention to certain factors. Ryan Calo spells out some possible strategies to achieve this aim.11 Also, a mandatory waiting period (before a disclosure comes into effect) could limit disclosure. Based on pre-study findings that users frequently regret rushed Facebook posts, the above mentioned non-representative study tested a ten-second waiting period before a post or comment would be published.12 The feature, when given, allowed users to wait, edit the post, delete 6  For a much more skeptical view on the efficacy of privacy by default, see Willis (2014): Why Not Privacy by Default. 7  Wang et al. (2013): From Facebook Regrets to Facebook Privacy Nudges, p. 132. 8  Wang et al. (2013): From Facebook Regrets to Facebook Privacy Nudges, p. 1322. Nevertheless, follow-up interviews showed that participants disliked the emotional feedback tool, see ibid. at pp. 1327–1328. 9  Acquisti / Gross (2006): Imagined Communities, pp. 13–14. 10  Kahneman (2011): Thinking Fast and Slow. 11  Calo (2012): Against Notice Skepticism in Privacy (and Elsewhere). 12  Wang et al. (2013): From Facebook Regrets to Facebook Privacy Nudges, pp. 1321–1322.

322

Barbara Sandfuchs and Andreas Kapsner

the post or skip the waiting. Several users thus edited posts or refrained from publishing a post at all. Now, governments may well feel that by mandating such nudges they could protect their citizens from acts of self-disclosure which are not in the users’ best interest. They could balance the pros and cons of certain forms of self-disclosure, and by the use of nudges limit self-disclosures that result in more disadvantages than advantages for the users. But, can they legitimately do so? And if not, are they left with tied hands? Courts both in Germany and in the United States regularly reject limitations of the freedom of competent adult individuals, unless their behavior causes harms to others, or the society. The question will thus be: Are the harms inflicted by careless self-disclosure great enough to warrant government intervention? Regarding this question, we will compare the legal situation of the United States and Germany. We will find that it is not straightforwardly clear that privacy nudges are passing constitutional muster in either case. Before that, we point to a further problem that is more of a conceptual rather than a legal nature. Both strands of argument point in a rather pessimistic direction, but we aim to give some constructive suggestions in the last section. 2. Conceptual Problems of Privacy Nudges Privacy nudges are in a peculiar danger to turn into measures that are conceptually incongruous. The danger is that these measures invade the very privacy they are meant to foster. There are two reasons a ‘nudger’ might invade the privacy of the ‘nudgees’: Firstly, because it is easier to construct effective and personalized nudges if certain behavioral patterns are known. Secondly, because some people might consciously wish to disregard all possibilities of protecting their private spheres and make as much about themselves known to as many people as possible. It would go against the spirit of libertarian paternalism not to honor such wishes, therefore it is of great importance to know about the privacy preferences before applying any privacy nudges.13 13  You might think that the latter point is not of great importance if the measures in question are limited to nudges. It is, after all, supposed to be the nature of the nudge that it is easy to opt out of it, so whether it goes against someone’s personal preferences is relatively unimportant. However, Sunstein and Thaler go out of their way to emphasize that they want to go further in their protection of citizen’s preferences. Thaler writes: “[A] point that critics of our book seem incapable of getting: we have no interest in telling people what to do. We want to help them achieve their own goals. Readers who manage to reach the fifth page of ‘Nudge’ find that we define our



Privacy Nudges: Conceptual and Constitutional Problems

323

To illustrate these problems, it is instructive to revisit an exchange between the authors of this paper and Cass Sunstein. In his Reply to Critics,14 Sunstein takes up our discussion of a thought experiment that he conducted in an earlier paper.15 The experiment purports to show how a state might be able to engage in a pure “means paternalism”16, i. e. one in which it won’t override the concerns of any citizen, but instead helps him or her to achieve their own goals. The experiment consists in imagining a government that knows so much about its citizens that it can predict, in any situation, their true preferences. We were worried about this experiment, and in his reply Sunstein clarifies that he never meant to portray it as a “good idea”.17 We readily admit that we misread his passage and thought indeed that he was looking forward to such technological progress. Having read his reply, we are now not really certain what other dialectical role the thought experiment was supposed to play in the original paper. In any case, we would like to quickly summarize the case we made against the thought experiment in this section and then add some more concerns that we have, given his reply. It seems to us that the empty space the thought experiment leaves behind cannot be filled without running into the same sorts of problems, and that in the presence of such a hole, the case for libertarian paternalism is seriously weakened. Here is the passage we were commenting on: Consider a thought experiment or perhaps a little science fiction. We should be able to agree that the government would focus only on means, and would not be paternalistic, if it could have direct access to all of people’s internal concerns and provide them with accurate information about everything that concerns them. And perhaps in the fullness of time, government, or the private sector, will be able to do something like that.18

This quote occurs in the context of answering the complaint that government will unwittingly override the ends of minorities. We took Sunstein to imply that the problem would disappear if nudges could be tailored to the concerns of the individual, given sufficient information about those concerns. We wrote: objective as trying to ‘influence choices in a way that will make choosers better off, as judged by themselves.’ The italics are in the original but perhaps we should have used bold and large font, given the number of times we have been accused of thinking that we know what is best for everyone.” (Thaler [2015]: Misbehaving, p. 325). 14  Sunstein (2015): Nudges, Agency, and Abstraction. 15  Sunstein (2013): Behavioral Economics and Paternalism, p. 1857. 16  Sunstein (2013): Behavioral Economics and Paternalism, p. 1857. 17  Sunstein (2015): Nudges, Agency, and Abstraction, p. 526. 18  Sunstein (2013): Behavioral Economics and Paternalism, p. 1857.

324

Barbara Sandfuchs and Andreas Kapsner

We take that claim to be false, and rather obviously so for those who have privacy concerns on their minds. A government that keeps tabs on its citizens to such a degree is surely paternalistic, because it overrides important concerns of those whose preference it is not to be spied on. […] As long as in Sunstein’s fictional future there is at least one such person left (they certainly exist today), their concern for government not knowing certain things will be overridden, maybe for their own good, maybe not. In any case, we argue that this is surely a form of paternalism. More, going down Sunstein’s science fiction route would constitute a perfect example for ends paternalism, not a way to avoid it.19

But even though Sunstein has clarified that his science fiction proposal has not been meant as a good idea, and thus presumably not as an actual proposal at all, he has not yet suggested an alternative method of overcoming these problems. Though he writes that “Kapsner and Sandfuchs are certainly right to put the privacy problem on the table, even in apparently innocuous settings, and to suggest the importance of safeguards”,20 he has yet not addressed that problem in any satisfactory way. For example, his latest book21 again contains all the problematic elements, but not even a mention of the problem. The same goes for practically any other writer on nudging that we are aware of. Our point has been a general one, applying to nudges with varied aims. To know whether an anti-smoking nudge is appropriate, government must know whether the smoker in question really wants to smoke, irrespective of possible effects on health, or whether she would actually like to quit, but can’t summon the willpower to do so. Only the latter case will allow for the soft paternalism that Sunstein and Thaler have in mind. But the smoker might not want the government to know which category she falls into, and so the government simply can’t honor all her wishes and still attempt to nudge her. Even if the problem is pervasive, it becomes especially acute in the case of privacy nudges. For these, the government that tries to honor the citizens’ ends will have to establish whether the citizens are aware of potential consequences, have an adequate understanding of the probability of such adverse events, disclose information out of a need for narcissistic self-portrayal or rather because of peer pressure, and so on. Needless to say, to have such a detailed insight into what drives a person’s privacy behavior makes an intrusion into his private sphere inevitable.

19  Kapsner / Sandfuchs

(2015): Nudging as a Threat to Privacy, p. 10. (2015): Nudges, Agency, and Abstraction. 21  Sunstein (2016): The Ethics of Influence. 20  Sunstein



Privacy Nudges: Conceptual and Constitutional Problems

325

3. Constitutional Problems of Privacy Nudges We will leave the conceptual concerns above as open questions that any government that might consider using nudges to prevent competent adult users from certain acts of voluntary self-disclosure to safeguard users’ interests will have to solve. Even assuming that this is possible, however, it is questionable whether these measures will turn out constitutionally unproblematic, as these measures may infringe upon the rights of the citizens. We will illustrate this by giving a comparative analysis of German and US law on this point.22 3.1 Analysis of German Constitutional Law

3.1.1 The Need to Justify any Prevention of Online Self-Disclosure Even though self-disclosure can harm individuals, self-endangering behavior falls within the scope of the basic rights. Government measures to restrict such behavior therefore need to be justified. The need for justification is not limited to compelled protection which renders online self-disclosure impossible. It is recognized that constitutional rights may as well be infringed upon by government measures that cause an indirect obstruction [mittelbar faktische Beeinträchtigung].23 Thus, this paper argues that nudges call for justification whenever they significantly hinder online self-disclosure. While this is certainly the case e. g. for nudges that increase transactions costs, one might argue that privacy-enhancing defaults do not significantly hinder online self-disclosure and therefore do not need to be justified. The question whether a nudge constitutes an indirect factual disturbance and thus needs justification will have to be analyzed in every specific case. The basic right to informational self-determination [Recht auf informationelle Selbstbestimmung] is not explicitly mentioned in the Basic Law, but 22  For a fuller comparison see Sandfuchs (2015) Privatheit wider Willen? and Sandfuchs / Kapsner (2016): Coercing Online Privacy. These works also consider in detail so-called “implicit disclosures”: The use of almost any kind of online service is accompanied by the collection, storage and aggregation of vast amounts of data, for example about the users’ browsing and online shopping activities. These can be used to predict future activities and preferences. Even though implicit self-disclosure will usually not be intended by users, it is based on them actively using a website or service which processes data or allows third parties to do so. In contrast, in this piece we limit our attention to explicit disclosure, such as adding personal information to profiles in social networks, to blogs, or to personal websites. 23  BVerfGE 107, 279 (300–301).

326

Barbara Sandfuchs and Andreas Kapsner

has been developed by the Bundesverfassungsgericht in its famous census decision24 on the basis of Art. 2 para. 1 (personality right) in conjunction with Art. 1 para. 1 Basic Law (human dignity). The right to informational self-determination affords individuals the right to decide about the disclosure and processing of their personal data. Any government action which limits the users’ rights to decide themselves about the disclosure and processing of their personal data infringes upon this right. The right to informational selfdetermination can be constrained if outbalanced by a public interest, i. e. if there is a statute which aims at a legitimate purpose and does not disproportionally restrict the right in order to reach the purpose. 3.1.2 Are the Measures Justified? A government intervention limiting self-disclosure has to be justified by an outbalancing legitimate interest. One could argue that the protection of competent adult users against the harms caused by their own self-disclosure could itself serve as an outbalancing legitimate interest: In very few instances, protecting persons against harms caused by their own voluntary behavior has been regarded as such an outbalancing interest. The Bundesverfassungsgericht did so to justify in one case a statute outlawing living organ transplantations between strangers, arguing that organ donars might make decisions which are not in their best interest.25 This decision was however widely criticized by scholars as the decisions of grown up citizens should be respected.26 In the past, courts have in a few cases held that the government was allowed to protect citizens from harms caused by their own voluntary conduct. Above all, those cases involved the protection of the citizens’ human dignity. It was held to be endangered by a woman dancing in a peep show (as she might be regarded as an object),27 by a growth-restricted person who wanted to be tossed as part of a commercial dwarf tossing game,28 and by the use of lasertag games that simulate war-like scenarios as humans should not be treated as objects of a game.29 However, paternalistic protections of human dignity (and 24  BVerfGE

65, 1 (43). NJW 1999, 3399 (3400). 26  Gutmann (1999): Gesetzgeberischer Paternalismus ohne Grenzen?, pp. 3387– 3388. 27  BVerwGE 64, 274 (277–278) The decision has widely been rejected in scholarship, see e. g. Höfling (1983): Menschenwürde und gute Sitten, pp. 1582–1583. 28  See Verwaltungsgericht Neustadt [Administrative Court Neustadt], NVwZ 1993, 98 (99); but see Schwabe (1998): Der Schutz des Menschen vor sich selbst, p. 66, p. 70 (rejecting the decision). 29  BVerwGE 115, 189, upheld by Bundesverwaltungsgericht, GewArch 2007, 247 (247–248.); see also: European Court of Justice, EuZW 2004, 753 (753–754.). 25  BVerfG,



Privacy Nudges: Conceptual and Constitutional Problems

327

even more regarding other legal interests) have been widely criticized.30 In other decisions which include more recent cases, the Bundesverfassungsge­ richt held that basic rights are only meaningfully protected if they allow individuals to endanger themselves,31 to reject treatment of curable diseases,32 etc. Informational privacy is not necessarily protected by the users’ human dignity and thus the courts’ widely criticized rulings on government measures to protect human dignity may only in few instances (such as disclosing especially intimate personal data) indicate a possibility to protect users against themselves. But even in these cases such paternalistic interventions have, in accordance with the views of the overwhelming majority of scholars, to be rejected. A society such as the German one, which since 2002 even no longer prohibits prostitution a fortiori certainly does not acknowledge a government right to limit online self-disclosure of intimate data. Furthermore, the idea of protecting persons from their own voluntary actions contradicts their freedom to informational self-determination. Basic rights guarantee the freedom to define for oneself how to live, and which moral values to accept. In particular, the right to informational self-determination guarantees the freedom to disclose personal information.33 Protecting users from the harms caused by their own conduct cannot be regarded a legitimate purpose and therefore cannot outbalance the users’ right to informational self-determination. Hence, the question whether a measure to prevent self-disclosure is constitutional does not depend on how restrictive the measure is. Nudges in most cases are a less restrictive mean than compelled protection, but still lack a legitimate government interest if they only aim at protecting the users against harms caused by their own voluntary conduct, and thus they can’t be justified. 3.2 Analysis of US Constitutional Law

Preventing online self-disclosure could protect individuals from harming themselves. However, these measures may infringe upon the users’ rights. As pointed out above, users can voluntarily disclose their data online in explicit or implicit ways. Preventing users from disclosing certain data could violate their First Amendment rights and the Due Process Clauses. 30  Dietlein

(1992): Die Lehre von den grundrechtlichen Schutzpflichten, p. 223. NJW 1999, 3399 (3401). 32  BVerfGE 58, 208 (226). 33  BVerfG, MMR 2009, 93 (93). However, it should be noted that given the complexity of decisions to be made in the only realm users will often lack sufficient information and hence a given consent might not constitute a proper basis to process users’ personal information. 31  BVerfG,

328

Barbara Sandfuchs and Andreas Kapsner

3.2.1 First Amendment The First Amendment forbids federal and state34 governments from making any law that would abridge the freedom of speech. It protects both the act of speaking and the act of listening and affords individuals the right to publish content online.35 Nudges could lead to a significant decrease of disclosure. As the following exemplifications show, they nonetheless seem not to face First Amendment scrutiny, though one could argue that some of them force individuals to listen to ideological government speech, which would also be a First Amendment violation. In Texas Medical Providers Performing Abortion Services v. Lakey, the Fifth Circuit Court had to decide upon the constitutionality of a statute which forced women before undertaking an abortion to view their fetus in a sonogram, hear the heartbeat, listen to the explanation of the results and the procedure, and wait 24 hours afterwards until the abortion could take place. The Court refused the argument that such a law would infringe upon the First Amendment rights of the women.36 It reasoned: “If the sonogram changes a woman’s mind about whether to have an abortion […] that is a function of the combination of her new knowledge and her own ‘ideology’ […], not of any ‘ideology’ inherent in the information she has learned about the fetus.”37 Also, the D.C. Circuit Court’s decision on images on cigarette packages does not even discuss a possible violation of the smokers’ First Amendment rights.38 A few commentators suggest to afford First Amendment protection against measures which aim to alter belief or conduct in an emotional way, but only in the rare cases that the affected persons are granted no option to opt-out.39 Privacy nudges leave choices to opt-out and therefore do not face First Amendment scrutiny.

34  The Fourteenth Amendment incorporates the First Amendment and it is thus applicable also to state governments, see Gitlow v. People of State of New York, 268 U.p. 652, 666 (1925). 35  Reno v. American Civil Liberties Union, 521 U.p. 844, 853 (1997). 36  Texas Medical Providers Performing Abortion Services v. Lakey, 667 F.3d 570, 576 (5th Cir. 2012) (“such laws are part of the state’s reasonable regulation of medical practice and do not fall under the rubric of compelling ‘ideological’ speech that triggers First Amendment strict scrutiny”). 37  Texas Medical Providers Performing Abortion Services v. Lakey, at 577, footnote 4. 38  R.J. Reynolds Tobacco Co. v. Food and Drug Admin., 696 F.3d 1205 (D.C. Cir. 2012). 39  See Ferony (2013): Constitutional Law – From Goblins to Graveyards, pp. 225– 226.



Privacy Nudges: Conceptual and Constitutional Problems

329

3.2.2 Due Process of Law Due Process of Law is the principle that individuals may not be deprived of life, liberty, and property without appropriate legal procedures and safeguards. Government measures in the realm of privacy have to respect either the high standard of substantive due process of law (strict scrutiny) or only the lower standard of procedural due process of law (rational basis review, i. e. government measures can be justified if related to a legitimate government interest). Which standard is applicable depends on the respective kind of privacy limitation: Paradoxically, certain government measures to protect privacy can also infringe upon the users’ right to privacy. Courts have recognized a fundamental right to privacy, protected by the penumbras of specific guarantees in the Bill of Rights40 and mostly located in the Due Process Clause of the Fourteenth Amendment (substantive due process). Fundamental rights are those rights that are “implicit in the concept of ordered liberty”,41 and “deeply rooted in this Nation’s history and tradition”.42 Government action which restricts the right to privacy faces strict scrutiny. The right to privacy however mainly protects aspects of decisional privacy.43 Certain aspects of informational privacy have been held to be included in this protection. The U.S. Supreme Court recognized the “individual interest in avoiding disclosure of personal matters”44 and a legitimate expectation of privacy in the President’s personal communications.45 Also, a spousal notification requirement before an abortion was found to be likely to prevent a significant number of women from obtaining an abortion.46 Following the U.S. Supreme Court’s rulings the majority of Circuit Courts recognized a right to informational privacy.47

v. Connecticut, 381 U.p. 479, 484 (1965). v. State of Connecticut, 302 U.p. 319, 325 (1937). 42  Moore v. City of East Cleveland, Ohio, 431 U.p. 494, 503 (1977). 43  Whalen v. Roe, 429 U.p. 589, 599–600 (1977) (“independence in making certain kinds of important decisions”); Union Pacific Railway v. Botsford, 141 U.p. 250, 251 (1891); Griswold v. Connecticut, 381 U.p. 479 (1965); Eisenstadt v. Baird, 405 U.p. 438 (1972); Loving v. Virginia, 388 U.p. 1 (1967); Roe v. Wade, 410 U.p. 113 (1973); Planned Parenthood of Southeastern Pennsylvania v. Casey, 505 U.p. 833 (1992); Lawrence v. Texas, 539 U.p. 558 (2003). 44  Whalen v. Roe, 429 U.p. 589, 599 (1977); Paul v. Davis, 424 U.p. 693, 712–713 (1976) (discussing a right to informational privacy but rejecting it for the case at issue in which police had distributed leaflets with names and pictures of thieves and the words “Active Shoplifters”). 45  Nixon v. Administrator of General Services, 433 U.p. 425, 427 (1977). 46  Planned Parenthood of Southeastern Pennsylvania v. Casey, 505 U.p. 833, 893 (1992). 40  Griswold 41  Palko

330

Barbara Sandfuchs and Andreas Kapsner

However, the lines of the right to informational privacy remain blurry. The right to informational privacy so far appears to be limited to cases in which citizens wanted to be protected against too much government knowledge about private affairs. Government measures to limit disclosure by using nudges aim at preventing users from disclosing too much. Thus, they seem to be the opposite of what has been recognized so far. No right not to be nudged to less self-disclose has been held to be a fundamental right. Therefore, government acts that nudge towards less self-disclosure only have to respect procedural due process of law and hence must be justified only according to the rational basis review.48 3.2.3 Are the Measures Justified? To limit disclosure by the use of nudges, a legitimate government interest is necessary. Protecting users from voluntary self-disclosure which harms themselves thus would have to be such a legitimate interest. When interpreting the First Amendment, the U.S. Supreme Court states: “The First Amendment mandates that we presume that speakers, not the government, know best both what they want to say and how to say it. […] To this end, the government, even with the purest of motives, may not substitute its judgment as to how best to speak for that of speakers and listeners; free and robust debate cannot thrive if directed by the government.”49 Similar ideas can be found regarding the scope of the right to privacy: “As a nation […] historically and continuously, we are irrevocably committed to the principle that the individual must be given maximum latitude in determining his own personal destiny.”50 Both court decisions are characteristic of the great importance the US legal and societal system attaches to the citizens’ freedom of decision. US law 47  Barry v. City of New York, 712 F.2d 1554, 1559 (2d Cir. 1983); United States v. Westinghouse Electric Corp., 638 F.2d 570, 577–580 (3d Cir. 1980); Walls v. City of Petersburg, 895 F.2d 188, 192 (4th Cir. 1990); Plante v. Gonzalez, 575 F.2d 1119, 1132, 1134 (5th Cir. 1978); J.p. v. DeSanti, 653 F.2d 1080, 1090 (6th Cir. 1981) (restrictive); Bloch v. Ribar, 156 F.3d 673, 684 (6th Cir. 1998) (restrictive); Kimberlin v. United States Department of Justice, 788 F.2d 434 (7th Cir. 1986); In re Crawford, 194 F.3d 954, 959 (9th Cir. 1999). 48  U.p. v. Carolene Products Co., 304 U.p. 144, 152 (1938) (introducing the rational basis review). 49  Riley v. National Federation of the Blind of North Carolina, Inc., 487 U.p. 781, 791 (1988). 50  Rutherford v. United States, 438 F.Supp. 1287, 1300 (W.D. Okla. 1977) (deciding the question whether the use of the non admitted medicine Laetrile is protected by the right to privacy).



Privacy Nudges: Conceptual and Constitutional Problems

331

is shaped by the liberal idea of individual freedom, irrespective of how individuals exercise their freedom and with the consequence that individuals will have to bear the costs of their shortcomings as a price they have to pay for the freedom to commit their own mistakes. Protecting autonomous individuals against themselves would be the contrary of what the US legal system aims at and de lege lata cannot even constitute a legitimate government interest to stand rational basis review. Thus, at least under the current state of law, it seems hard to legally justify privacy nudges.51 4. An Alternative Approach to Justify Privacy Nudges As we’ve shown, under both legal systems preventing self-disclosure with the only goal of protecting competent adult users can be seen to violate their constitutional rights. Nevertheless, governments are not left with tied hands. We suggest not to focus on preventing self-disclosure solely for the individuals’ sake. A more promising route is to remember John Stuart Mill’s harm principle, according to which governments may only interfere with their citizens’ behavior when the welfare of others is at stake.52 Thus, attention should be directed towards the goal of preventing the harms self-disclosure can cause to third parties and society. Both German and US courts have taken a generous approach when justifying measures that protect such interests and, as a side-effect, protect competent adult individuals who voluntarily endanger themselves.53 The Bundesverfassungsgericht based the constitutionality of seatbelt laws on the goal of protecting third parties. In a car crash, passengers who wear seatbelts are more likely to be well and, thus, to be able to help others. Also, in a crash seatbelts avoid passengers to be catapulted against other passen51  Please note – as discussed in footnote 18 above – that this paper focusses on privacy nudges to prevent voluntary self-disclosure and hence does not concentrate on users’ actions which endanger their privacy without them being aware of such consequences. In the latter case, governments will above all be obliged to protect the users e. g. by informing them. 52  Mill (1869): On liberty. 53  Examples can be found in various areas of the law: The Bundesverfassungsge­ richt held that regulating the consumption of drugs is constitutional as it aims at forming a society free from social harms caused by handling drugs, especially because the development of adolescents’ personalities can be hindered by the consumption of narcotics, see BVerfGE 90, 145 (174). The U.S. Supreme Court held that the government can prohibit assisting suicides to promote a government interest in protecting the integrity of the medical profession and to prevent a future trend to euthanasia and further abuse, see Washington v. Glucksberg, 521 U.p. 702, 728 (1997).

332

Barbara Sandfuchs and Andreas Kapsner

gers in the car.54 Similarly, the Texas Court of Appeals upheld a seatbelt law as it “serves the public safety and welfare by enhancing a driver’s ability to maintain control of his vehicle, and by reducing injuries not only to himself, but also to others, all of which directly affects the state’s economic welfare.”55 A mandate to wear a helmet while riding a motorbike was held to be constitutional in both jurisdictions. The Bundesverfassungsgericht argues that accidents which cause severe head injuries harm the society as an emergency rescue service and doctors have to be involved, and further medical costs arise.56 The Texas Court of Criminal Appeals held a duty to wear helmets constitutional as it was “intended to promote the welfare and safety of the general public as well as the cyclist, and bears a reasonable relationship to highway safety generally.”57 When upholding the prohibition of a peep show, the Bundesverfassungsgericht reasoned that such a ban aims at protecting the individuals’ human dignity which is of importance not only for the individual herself, but also for society at large.58 Similarly, prostitution in the United States can be prohibited for the purpose of serving a “social interest in order and morality” (by contrast, prostitution is legal in Germany).59 The prohibition of smoking in restaurants in Germany was held to serve the outbalancing public interest of health protection even in tiny restaurants with no employees, in which only the owner and guests who choose to stay are affected.60 As these examples show, a broad interpretation of what can constitute a harm to third parties or society is licit. To justify government measures that prevent self-disclosure, it is advisable to investigate whether in the respective case there might be a government interest in such harms to others.61 54  BVerfG,

NJW 1987, 180 (180). v. State, 743 p.W.2d 747, 748 (Tex.App.–Houp. [1st Dist.] 1987). 56  BVerfGE 59, 275 (279). Justifying coerced protection with society’s interest in saving any kind of social welfare costs however seems to be a slippery slope, as it could allow government intervention with a majority of every day life decisions. 57  Ex parte Smith, 441 p.W.2d 544, 548 (Tex. Crim. App. 1969). 58  BVerwGE 64, 274 (280). 59  State v. Mueller, 66 Haw. 616, 671 p.2d 1351, 1359 (Hawaii 1983) (regarding the Hawaiian right to privacy). 60  BVerfGE 121, 317 (357–358). 61  In an interesting recent exchange (APA Newsletter, 13 Philosophy of Law: 2013, 14, pp. 14–19), Beate Rössler suggested that Anita Allen, one of the most outspoken supporters of coercing privacy, should likewise concentrate on the collateral damages on third parties and society, precisely to avoid charges of paternalism. Allen responded (id. at 19–27) that she felt that there are privacy harms to individuals that should not be tied up with harms to others. Their discussion is about moral, not legal justifications of legal measures. Taking Allen’s stance in the present, i. e. legal, set55  Richards



Privacy Nudges: Conceptual and Constitutional Problems

333

4.1 Harms to Third Parties

Self-disclosure can indeed threaten third parties, for example if the disclosed information allows to draw conclusions about them. An example for explicitly disclosed harmful information would be pictures which also show third parties or status updates that involve information about them. Also, implicit disclosure can harm third parties, as big data analysis allows predictions about health, financial situation, political views, etc. not only regarding the individuals, but also regarding their family members, partners, friends, neighbors, work colleagues, etc. Governments in fact do react to such harms, for example by imposing privacy tort laws or recognizing special professional duties of confidentiality and secrecy (and thereby coerce informational privacy). These disclosures still threaten individualistic privacy rights, even if the individuals harmed are different from those who disclose. Realizing that construing privacy as an essentially individualistic right diminishes its chances to prevail against competing large-scale societal values, legal scholars as well as philosophers, sociologist and other researchers have been putting ever more emphasis on privacy’s value for society in general.62 4.2 Harms to Society

In fact, the harms on personal development and creativity that were discussed earlier can be argued to collectively amount to a threat to society that is greater than the sum of its parts. A well-functioning society depends on its members’ abilities for self-governance. Only if the members can freely develop their personalities, they will be able to fully contribute to the success of society as a whole. A loss of individual informational privacy will therefore not only affect the individuals, but lead to “communities governed by apathy, impulse, or precautionary conformism”.63 The restrained creation of ideas will result in individuals not being able to contribute anything of interest to the society.64 Self-disclosure can harm society both by interfering with society’s progress and by constraining democracy. ting, would mean to put intellectual honesty over legal pragmatism (maybe quite in accord with Allen’s Kantian sympathies). 62  Regan (1995): Legislating Privacy, pp. 212–241; Rössler / Mokrosinska (2013): Privacy and Social Interaction, pp. 772–773. 63  Cohen (2000): Examined Lives, pp. 1426–1427. Please note the complexity of the discussed issue: While self-disclosure can endanger privacy, privacy nudges to limit self-disclosure may as well harm privacy. For further information, please see Kapsner / Sandfuchs (2015): Nudging as a Threat to Privacy. 64  Richards (2008): Intellectual Privacy, p. 405.

334

Barbara Sandfuchs and Andreas Kapsner

4.2.1 Harms to Society’s Progress Free development of personalities serves as the basis for cultural, scientific and economic progress of a society. Traditions have to be questioned, outdated customs to be abandoned, drawbacks to be identified, and improvements to be made. Scientific progress depends on the curiosity and courage of scientists, who are willing to take new paths. Innovations and new ideas contribute to a flourishing economy. However, they can be hindered by the described obstacles that a loss of informational privacy poses to the development of the individuals’ personalities. A biased access to information can limit the users from developing new ideas which do not fit their old pattern. Self-censorship regarding both the access to information and the thinking process itself can lead to societal stagnation. 4.2.2 Harms to Democracy A loss of informational privacy can harm the flourishing of democracy in three ways: a pre-selection of online sources by so called filter bubbles can create the impression, deficits of action would either not exist or would yet be solved by a sufficient number of other people. Thus, individuals might refrain from taking necessary actions. They might also miss problems, as people are likely to prefer pleasant over unpleasant information. Whereas a newspaper’s editor will include both kinds of information, personalized search might not. As Cohen notes, in a society which is modulated by big data analysis, the individual information environment may be adjusted to the individual comfort level. To motivate citizens to take action, a “certain amount of discomfort” is necessary.65 Furthermore, as the Bundesverfassungsgericht states, democracy depends on its members’ ability to develop their personalities in a free and self-determined way.66 A fruitful formation of the public opinion demands interested and active citizens, who reach their own conclusions and contribute to public discourse. Each democracy depends on its members’ autonomy, as only selfdetermined individuals can meaningfully contribute. In addition, even if citizens are able to freely develop ideas, a lack of informational privacy may impede them from announcing those ideas. Participation in democratic processes is not limited to voting, but also requires citizens to express their ideas in other forms, like joining demonstrations, working for political parties or interest groups, or speaking out in social 65  Cohen

(2013): What Privacy is For, p. 1918. 65, 1 (42–43).

66  BVerfGE



Privacy Nudges: Conceptual and Constitutional Problems

335

networks, blogs, etc. While doing so, some might want to reveal their identity while others might prefer not to. Any form of political speech is a very sensitive issue as citizens cannot know if it can harm them now or later in their private or business relationships. They can neither predict whether in the future they will develop different political ideas nor whether the political system as a whole may develop in an extremist direction so their past statements may harm them one day. Therefore, it is likely that users feel uncomfortable with the existence of records about their political speech and would prefer to act anonymously. The Bundesverfassungsgericht bases the development of the right to informational self-determination on the notion that citizens who are afraid that their participation in political processes may be registered and cause risks for them, might abstain from exercising their fundamental rights to associate and demonstrate.67 The U.S. Supreme Court acknowledges that “identification and fear of reprisal might deter perfectly peaceful discussions of public matters of importance.”68 Schwartz asks: “[W]ho will speak or listen when this behavior leaves finely-grained data trails in a fashion that is difficult to understand or anticipate?”.69 That democracy-threatening self-censorship actually happens was shown by a 2013 survey among 528 journalists in the United States. 28 percent admitted to have restricted their use of social networks due to the fear of surveillance, twelve percent considered to do so. 16 percent avoided talking about certain issues, eleven percent considered to do so.70 That this concerns journalists is of course especially problematic, as it feeds right into the point made at the beginning of this section, the insufficient and biased distribution of information to society at large. 4.2.3 Other Harms to Society Many other harms that a loss of privacy might engender have been identified and described. The philosopher Nagel speaks out for a society in which we do not “share our inner lives, bare our souls, give voice to all our opinions – in other words, become like one huge unhappy family”.71 He goes through a number of examples in which the only way in which conversations, debates and even disagreements can be had constructively is by withholding certain information. 67  BVerfGE

65, 1 (43). v. California, 362 U.p. 60, 65 (1960). 69  Schwartz (1999): Privacy and Democracy in Cyberspace, p. 1651. 70  FDR Group (2013): The Impact of US Government Surveillance on Writers. 71  Nagel (1998): Concealment and Exposure, p. 11. 68  Talley

336

Barbara Sandfuchs and Andreas Kapsner

Solove offers that privacy acts as a mitigating factor when social norms become overbearing. Even beneficial norms, he argues, should sometimes only be “imperfectly enforced”, and privacy guarantees little pockets of public un-attention to allow for this.72 Many researchers claim that social roles can only be successfully played if a certain degree of privacy exists. E.g., the proper relationship between a student and a teacher cannot be maintained if the teacher supplies too much personal information about him- or herself.73 To give one more example, and to pick up Nagel’s theme with a twist: society depends on most children getting a first sense of good citizenship from their families. However, “the family can do justice to its different functions only if it can comprehend itself as a protected private sphere.”74 The protection in question concerns decisional and local aspects, but also the informational ones we are concerned with here. An upbringing that is wholly carried out in public, documented by family members and others on Facebook, YouTube, the family blog, might well turn out to be highly problematic. Some lessons that have to be learned are hard enough, even without everyone watching. These diverse observations might well suffice to generally urge the inculcation of a more pronounced privacy ethics, and they might warrant relatively unproblematic government actions such as those discussed above. However, it seems that limiting acts of self-disclosure will be hard to justify with these arguments, at least as far as they are developed until now. Firstly, scholars need to get more concrete about the dangers of losses of privacy for society. The problem with many of these claims is that they are described in an unhelpfully abstract way, without examples that make the dangers palpable and reflect the complexities of managing privacy in our day and age. For example, the only illustrative case Solove goes into in great detail in regard to his point about overbearing social norms concerns Victorian blackmail laws.75 Secondly, one would need to show clearly how self-disclosure in particular gives rise to these dangers. It is surely true that “[i]t is hard to imagine how people could freely participate in public life without some degree of control over their reputation and private life.”76 But to turn such an observation into an argument for restricting self-disclosure, a government would have to show 72  Solove

(2009): Understanding Privacy, p. 94. (2013): Privacy and Social Interaction, p. 780. 74  Rössler / Mokrosinska (2013): Privacy and Social Interaction, p. 774. 75  Solove (2009): Understanding Privacy, p. 96. 76  Solove (2009): Understanding Privacy, p. 93. 73  Rössler / Mokrosinska



Privacy Nudges: Conceptual and Constitutional Problems

337

how unchecked self-disclosure alone might lead to such a total loss of control. However, it may well be possible to expand these arguments sufficiently to restrict self-disclosure, especially of the implicit sort. If such a case can be made successfully, and if the conceptual problems we highlighted above can be resolved somehow, then privacy nudges might indeed turn out to be a viable path to mitigate our privacy problems. Bibliography Acquisti, Alessandro/Gross, Ralph: Imagined Communities (2006). URL: http://www. heinz.cmu.edu/~acquisti/papers/acquisti-gross-facebook-privacy-PET-final.pdf (last accessed 20.07.2017). Calo, M.: Against Notice Skepticism in Privacy (and Elsewhere). In: Notre Dame Law Review 87 (2012), pp. 1027–1040. Cohen, Julie: What Privacy Is For. In: Harvard Law Review 126 (2013), pp. 1904– 1928. ‒ Examined Lives. In: Stanford Law Review 52 (2000), pp. 1373–1438. Dietlein, Johannes: Die Lehre von den grundrechtlichen Schutzpflichten. Berlin 1992. FDR Group: The Impact of US Government Surveillance on Writers (2013). URL: http://www.pen.org/sites/default/files/Chilling %20Effects_PEN %20American.pdf (last accessed 20.07.2017). Ferony, Peter: Constitutional Law – From Goblins to Graveyards: The Problem Of Paternalism in Compelled Perception. In: Western New England Law Review 35 (2013), pp. 205–248. Gutmann, Thomas: Gesetzgeberischer Paternalismus ohne Grenzen? Zum Beschluß des Bundesverfassungsgerichts zur Lebendspende von Organen. In: NJW 46 (1999), pp. 3387–3389. Höfling, Wolfram: Menschenwürde und gute Sitten. In: NJW  29 (1983), pp. 1582– 1585. Kahneman, Daniel: Thinking, Fast and Slow. New York, NY 2011. Kapsner, Andreas/Sandfuchs, Barbara: Nudging as a Threat to Privacy. In: Review of Philosophy and Psychology 6.3 (2015), pp. 455–468. Mill, John Stuart: On liberty. London 1869. Nagel, Thomas: Concealment and Exposure. In: Philosophy and Public Affairs 27.1 (1998), pp. 1–30. Porat, Ariel/Strahikevitz, Lior Jacob: Personalizing Default Rules and Disclosure with Big Data. In: The Storrs Lectures 122. Behavioral Economics and Paternalism. Yale L. J. 2013, pp. 1417–1428. Regan, Priscilla: Legislating Privacy. Chapel Hill, NC 1995.

338

Barbara Sandfuchs and Andreas Kapsner

Richards, Neil: Intellectual Privacy. In: Texas Law Review 87 (2008), pp. 387–447. Rössler, Beate/Mokrosinska, Dorota: Privacy and Social Interaction. In: Philosophy and Social Criticism 39 (2013), pp. 771–791. Sandfuchs, Barbara: Privatheit wider Willen? Tübingen 2016. Sandfuchs, Barbara/Kapsner, Andreas: Coercing Online Privacy. In: I/S: A Journal of Law and Policy for the Information Society (2016), pp. 185–230. Schwabe, Jürgen: Der Schutz des Menschen vor sich selbst. In: JZ 53 (1998), pp. 66– 75. Schwartz, Paul: Privacy and Democracy in Cyberspace. In: Vanderbilt Law Review 52 (1999), pp. 1609–1701. Solove, Daniel: Understanding Privacy. Cambridge, MA 2009. Sunstein, Cass: The Ethics of Influence. Cambridge, MA 2016. ‒ Nudges, Agency, and Abstraction: A Reply to Critics. In: Review of Philosophy and Psychology 6.3 (2015), pp. 511–529. ‒ Simpler: The Future of Government. New York, NY 2014. ‒ Behavioral Economics and Paternalism. In: Yale Law Journal 122 (2013), pp. 1826–1899. Thaler, Richard: Misbehaving: The Making of Behavioral Economics. New York, NY 2015. Thaler, Richard/Sunstein, Cass: Nudge. New Haven, CT 2008. Wang, Yang et al.: From Facebook Regrets to Facebook Privacy Nudges. In: Ohio State Journal 74 (2013), pp. 1307–1335. Willis, Lauren: Why Not Privacy by Default. In: Berkeley Technology Law Journal 29 (2014), pp. 61–134. ‒ When Nudges Fail: Slippery Defaults. In: The University of Chicago Law Review (2013), pp. 1155–1229.

Autoren- und Herausgeberverzeichnis Burk, Steffen, Wissenschaftlicher Mitarbeiter am DFG-Graduiertenkolleg ‚Privatheit und Digitalisierung‘ der Universität Passau im Fachbereich Deutsche Literaturwissenschaft. Lehrbeauftragter des Sprachenzentrums der Universität Passau. Aktuelle Publikationen: Privatheit und Öffentlichkeit in Thomas Manns ‚Buddenbrooks‘. In: Burk, Steffen / Klepikova, Tatiana / Piegsa, Miriam (Hg.): Privates Erzählen. Frankfurt / M. (im Erscheinen); Die Welt als Wille und Vorstellung. Richard Beer-Hofmanns ‚Der Tod Georgs‘. In: Bergengruen, Maximilian u. a. (Hg.): Hofmannsthal Jahrbuch 26. Freiburg (in Vorbereitung). Gerhardt, Volker, Prof. Dr., Seniorprofessor an der Humbold-Universität zu Berlin,  Mitglied der Grundwertekommission der SPD. Aktuelle Publikationen: Öffentlichkeit. Die politische Form des Bewusstseins. München 2012; Partizipation. Das Prinzip der Politik. München 2007; Die angeborene Würde des Menschen. Berlin 2004. Grunwald, Armin, Prof. Dr., Leiter des Instituts für Technikfolgenabschätzung und Systemanalyse (ITAS) und Professor für Philosophie und Ethik der Technik am Karlsruher Institut für Philosophie (KIT). Aktuelle Publikationen: Neue Utopien. Ist Technik die Zukunft des Menschen? In: Özmen, E. (Hg.): Über Menschliches. Anthropologie zwischen Natur und Utopie. Münster 2016, S. 67–85; The Hermeneutic Side of Responsible Research and Innovation. London 2016; Nachhaltigkeit verstehen. Arbeiten an der Bedeutung nachhaltiger Entwicklung. München 2016; Handbuch Technik­ethik. Stuttgart / Weimar 2013. Hennig, Martin, Dr., Postdoc am DFG-Graduiertenkolleg ‚Privatheit und Digitalisierung‘ der Universität Passau im Fachbereich Medienwissenschaften. Aktuelle Publikationen: mit Edeler, Lukas / Piegsa, Miriam: Culture of Surveillance. In: Arrigo, Bruce A. (Hg.): The SAGE Encyclopedia of Surveillance, Security, and Privacy. Thousand Oaks (im Erscheinen); Spielräume als Weltentwürfe. Kultursemiotik des Video­spiels. Marburg 2017; mit Beyvers, Eva u. a. (Hg.): Räume und Kulturen des Privaten. Wiesbaden 2016. Heurich, Benjamin, M. A., Wissenschaftlicher Mitarbeiter am DFG-Graduiertenkolleg ‚Privatheit und Digitalisierung‘ der Universität Passau im Fachbereich Bildungswissenschaften, Medien- und Sozialphilosophie. Wissenschaftlicher Mitarbeiter und Dozent am Lehrstuhl für Allgemeine Pädagogik an der Universität Passau. Kapsner, Andreas, Dr., Vertretungsprofessur für Wissenschaftstheorie an der ­ udwigs-Maximilians-Universität München. Aktuelle Publikationen: mit Sandfuchs, L Barbara: Reluctant Panopticians. Reply to Sunstein. In: Review of Philosophy and Psychology (2016), S. 1–7; mit Sandfuchs, Barbara: Nudging as a Threat to Privacy. In: Review of Philosophy and Psychology 6.3 (2015), S. 455–468; Logics and Falsifications. Trends in Logic Series. Heidelberg 2014.

340

Autoren- und Herausgeberverzeichnis

Keber, Tobias, Prof. Dr., Professor für Medienrecht und Medienpolitik in der digitalen Gesellschaft an der Hochschule der Medien (HdM) Stuttgart, Vorsitzender des Wissenschaftlichen Beirats der Gesellschaft für Datenschutz und Datensicherheit (GDD), Leiter des Instituts für Digitale Ethik (IDE) an der Hochschule der Medien. Aktuelle Publikationen: Bericht aus dem datenschutzrechtlichen Forschungslabor, RDV 2 / 2017, S. 68–72; Secrecy and Publicness in Digital Democracies. In: Bottis, Maria u. a. (Hg.): Broadening the Horizons of Information Law and Ethics, PROCEEDINGS 7th International Conference on Information Law and Ethics (ICIL) 2016, S. 99–119. Klepikova, Tatiana, M. A., Wissenschaftliche Mitarbeiterin am DFG-Graduiertenkolleg ‚Privatheit und Digitalisierung‘ der Universität Passau im Fachbereich Slavische Literaturen und Kulturen. Aktuelle Publikationen: mit Burk, Steffen / Piegsa, Miriam (Hg.): Privates Erzählen. Frankfurt / M. (im Erscheinen); Privacy As They Saw It: Private Spaces in the Soviet Union of the 1920–1930s in Foreign Travelogues. In: Zeitschrift für Slavische Philologie 71.2 (2015), S. 353–389. Krafka, Alexander, Dr., Honorarprofessor und Lehrbeauftragter an der Universität Passau für Vertragsgestaltung und Rechtssoziologie, Notar in Landsberg am Lech. Aktuelle Publikationen: mit Kühn, Ulrich: Registerrecht. 10. Auflage, München 2017; Die wirtschaftliche Neugründung von Kapitalgesellschaften. In: ZGR 4 (2003), S. 577–590; Der Umgang des Notars mit aktuellen Rechtsentwicklungen. In: DNotZ 9 (2002), S. 677–693. Mainzer, Klaus, Prof. em. Dr., Emeritus of Excellence, Graduate School of Computer Science an der Technischen Universität München. Aktuelle Publikationen: Künstliche Intelligenz. Wann übernehmen die Maschinen? Berlin 2016; Information: Algorithmus – Wahrscheinlichkeit –Komplexität – Quantenwelt – Leben – Gehirn – Gesellschaft. Berlin 2016; Die Berechnung der Welt. Von der Weltformel zu Big Data. München 2014. Matzner, Tobias, Dr., Vertretungsprofessor für Medienwissenschaft an der Universität Paderborn. Aktuelle Publikationen: La vie privée à l’ère numerique. Perspectives „arendtiennes“. In: Doueihi, Milad / Domenicucci, Jacopo (Hg.): La confiance à l’ère numérique. Boulogne-Billancourt 2017; Beyond data as representation: The performativity of Big Data in surveillance. In: Surveillance & Society 14.2 (2016), S. 197–210; mit Philipp K. Masur u. a.: Do-It-Yourself Privacy Protection. Empowerment or Burden? In: Gutwirth, Serge u. a. (Hg): Data Protection on the Move. Current Developments in ICT and Privacy / Data Protection. Dordrecht 2016, S. 277–305. Mönig, Julia Maria, Dr., Wissenschaftliche Mitarbeiterin im DFG-Projekt „Kooperative Fahrer-Fahrzeug-Interaktion“ an der Hochschule der Medien Stuttgart am Institut für Digitale Ethik und volunteer scientific collaborator an der Vrije Universiteit Brussel, Belgien. Aktuelle Publikationen: Vom ‚oikos‘ zum Cyberspace. Das Private in der politischen Philosophie Hannah Arendts. Bielefeld 2017; Hannah Arendts Begriff des Privaten. In: Günther, Susanne u. a. (Hg.): Frauen – Gender – Wissenschaft. Passau 2015, S. 96–107. Piegsa, Miriam, M. A., Wissenschaftliche Mitarbeiterin am DFG-Graduiertenkolleg ‚Privatheit und Digitalisierung‘ der Universität Passau im Fachbereich Medienwissenschaften, Lehrbeauftragte im Fachbereich Mediensemiotik an der Universität Pas-



Autoren- und Herausgeberverzeichnis

341

sau. Aktuelle Publikationen: mit Edeler, Lukas / Hennig, Martin: Culture of Surveillance. In: Arrigo, Bruce A. (Hg.): The SAGE Encyclopedia of Surveillance, Security, and Privacy. Thousand Oaks (im Erscheinen); mit Burk, Steffen / Klepikova, Tatiana (Hg.): Privates Erzählen. Frankfurt / M. (im Erscheinen). Sandfuchs, Barbara, Dr., Rechtsanwältin bei Weil, Gotshal & Manges LLP, Lehrbeauftragte an der Universität Leipzig. Aktuelle Publikationen: Privatheit wider Willen? Verhinderung informationeller Preisgabe im Internet nach deutschem und USamerikanischem Verfassungsrecht. Tübingen 2015; mit Kapsner, Andreas: Coercing Online Privacy. In: A Journal of Law and Policy for the Information Society 12.2 (2015), S. 185–230; Privacy Nudges. In: Akrivopoulou, Christina M. (Hg.): Protecting the Genetic Self from Biometric Threats. Autonomy, Identity, and Genetic Privacy. Hershey 2015, S. 256–264. Sixt, Manuela, Wissenschaftliche Mitarbeiterin am DFG-Graduiertenkolleg ‚Privatheit und Digitalisierung‘ der Universität Passau im Bereich Rechtswissenschaften. Aktuelle Publikationen: mit Piegsa, Miriam: Political Dissidents (examples of). In: Arrigo, Bruce A. (Hg.): The SAGE Encyclopedia of Surveillance, Security, and Privacy. Thousand Oaks (im Erscheinen); mit Hornung, Gerrit: Cyborgs im Gesundheitswesen – Die rechtlichen Herausforderungen der technischen Erhaltung und Optimierung körperlicher Funktionen („IT-Enhancement“), CR 12 (2015), S. 828–840. Thies, Christian, Prof. Dr., Lehrprofessur für Philosophie an der Universität Passau, Assoziiertes Mitglied des Kollegiums des DFG-Graduiertenkollegs ‚Privatheit und Digitalisierung‘. Aktuelle Publikationen: Alles Kultur? Eine kritische Bestandsaufnahme. Stuttgart 2016; Der Sinn der Sinnfrage. Metaphysische Reflexionen auf kantianischer Grundlage. Freiburg / München 2008; Einführung in die philosophische Anthropologie. Darmstadt 2004. Trost, Kai Erik, M. A., Wissenschaftlicher Mitarbeiter am DFG-Graduiertenkolleg ‚Privatheit und Digitalisierung‘ der Universität Passau. Aktuelle Publikationen: Freundschaft als privater Raum? Zu den Freundschaftsbeziehungen Jugendlicher und der Ideologie der Konnektivität einer (digitalisierten) Netzgesellschaft. In: Böhme, Gernot u. a.: Privatheit in Zeiten der Netzgesellschaft. Bielefeld 2017 (im Druck). Wawra, Daniela, Prof. Dr., Lehrstuhl für Englische Sprache und Kultur an der Universität Passau, Mitglied des Kollegiums des DFG-Graduiertenkollegs ‚Privatheit und Digitalisierung‘. Aktuelle Publikationen: Digital Communication and Privacy. Is Social Web Use Gendered? In: Arbeiten aus Anglistik und Amerikanistik (AAA) 40 /1–2 (2015), S. 219–245; Privacy in Times of Digital Communication and Data Mining. In: Anglistik 25 / 2 (2014), S. 11–38; Medienkulturen. Frankfurt / M. 2010.