Der Transparenz-Imperativ: Normen – Praktiken – Strukturen [1. Aufl. 2019] 978-3-658-22293-2, 978-3-658-22294-9

Die Forderung nach „mehr Transparenz“ ist allgegenwärtig. Der Transparenz-Imperativ beschränkt sich dabei nicht auf die

708 74 3MB

German Pages VIII, 351 [351] Year 2019

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Der Transparenz-Imperativ: Normen – Praktiken – Strukturen [1. Aufl. 2019]
 978-3-658-22293-2, 978-3-658-22294-9

Table of contents :
Front Matter ....Pages I-VIII
Transparency Imperatives: Results and Frontiers of Social Science Research (Vincent August, Fran Osrecki)....Pages 1-34
Front Matter ....Pages 35-35
The Morality of Transparency: Clarity versus Emptiness (Steven Sampson)....Pages 37-62
Wie wird „Entwicklung“ transparent gemacht? Kämpfe um globale Entwicklungsindikatoren (Bettina Mahlert)....Pages 63-93
Grenzen der Transparenz – Geheimhaltung in demokratischen Systemen (Dorothee Riese)....Pages 95-120
Front Matter ....Pages 121-121
Sunlight City: Exploring the Politics of Urban Transparency Activism (Maren Heibges)....Pages 123-139
Polizeiliche Transparenzpraktiken und die Flexibilität einer Norm im organisatorischen Alltag (Jens Bergmann)....Pages 141-169
Policing and Anticipatory Transparency: On Digital Transformations, Proactive Governance and Logics of Temporality (Mikkel Flyverbom, Hans Krause Hansen)....Pages 171-186
Making Quality Transparent: How Quantification is Implicated in Changing Norms for Governing Healthcare (Jacob Reilley)....Pages 187-218
Massenüberwachung als Politik: Transparenz, Privatheit und die Geburt der Kryptopolitik (Janosik Herder)....Pages 219-244
Front Matter ....Pages 245-245
Lob der Salami-Taktik: Der Transparenz-Imperativ als Kritik des strategischen Enthüllungsjournalismus (Marc Mölders)....Pages 247-269
Funktionen und Folgen von Transparenz: Zum Fall Open Science (Martina Franzen)....Pages 271-301
Transparency and Accountability in Monetary Policy Committees (Carlo Martini)....Pages 303-320
Transparenz oder Öffentlichkeit? Zur Funktionsbedingung parlamentarischer Deliberation (Andreas Schäfer)....Pages 321-351

Citation preview

Vincent August Fran Osrecki Hrsg.

Der TransparenzImperativ Normen – Praktiken – Strukturen

Der Transparenz-Imperativ

Vincent August · Fran Osrecki (Hrsg.)

Der TransparenzImperativ Normen – Praktiken – Strukturen

Hrsg. Vincent August Humboldt-Universität zu Berlin Berlin, Deutschland

Fran Osrecki Hochschule für Wirtschaft und Recht Berlin Berlin, Deutschland

ISBN 978-3-658-22293-2 ISBN 978-3-658-22294-9  (eBook) https://doi.org/10.1007/978-3-658-22294-9 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Springer VS © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Verantwortlich im Verlag: Cori Antonia Mackrodt Springer VS ist ein Imprint der eingetragenen Gesellschaft Springer Fachmedien Wiesbaden GmbH und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Abraham-Lincoln-Str. 46, 65189 Wiesbaden, Germany

Inhaltsverzeichnis

Transparency Imperatives: Results and Frontiers of Social Science Research. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Vincent August and Fran Osrecki Teil I  Normen The Morality of Transparency: Clarity versus Emptiness. . . . . . . . . . . . . 37 Steven Sampson Wie wird „Entwicklung“ transparent gemacht? Kämpfe um globale Entwicklungsindikatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 Bettina Mahlert Grenzen der Transparenz – Geheimhaltung in demokratischen Systemen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 Dorothee Riese Teil II  Praktiken Sunlight City: Exploring the Politics of Urban Transparency Activism. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 Maren Heibges Polizeiliche Transparenzpraktiken und die Flexibilität einer Norm im organisatorischen Alltag . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 Jens Bergmann

V

VI

Inhaltsverzeichnis

Policing and Anticipatory Transparency: On Digital Transformations, Proactive Governance and Logics of Temporality. . . . . . . . . . . . . . . . . . . . 171 Mikkel Flyverbom and Hans Krause Hansen Making Quality Transparent: How Quantification is Implicated in Changing Norms for Governing Healthcare . . . . . . . . . . . . . . . . . . . . . . 187 Jacob Reilley Massenüberwachung als Politik: Transparenz, Privatheit und die Geburt der Kryptopolitik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 Janosik Herder Teil III  Strukturen Lob der Salami-Taktik: Der Transparenz-Imperativ als Kritik des strategischen Enthüllungsjournalismus. . . . . . . . . . . . . . . . . . . . . . . . . . . . 247 Marc Mölders Funktionen und Folgen von Transparenz: Zum Fall Open Science. . . . . . 271 Martina Franzen Transparency and Accountability in Monetary Policy Committees. . . . . . 303 Carlo Martini Transparenz oder Öffentlichkeit? Zur Funktionsbedingung parlamentarischer Deliberation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321 Andreas Schäfer

Herausgeber- und Autor*innenverzeichnis

Über die Herausgeber Vincent August  (né Rzepka; M.A.) is postdoc research fellow in political theory at the Department of Social Sciences, Humboldt-Universität zu Berlin. He was a visiting researcher at the University of California, Berkeley, and the Berlin Social Science Center (WZB). His main research areas are social and political theory, the history of thought, and political sociology. Recent research projects investigated (a) the rise of network ideas from cybernetics to governance theory and practice, and (b) the current calls for transparency. In a second project, he has been examining the calls or transparency. Recent publications include papers on transparency and a paper on neoliberal, teleological, and technological critiques of the state („Von ›Unregierbarkeit‹ zu Governance: Neoliberale, teleologische und technologische Staatskritik“, in Die Grammatik der Demokratie, ed. by A. Cavuldak, Baden-Baden 2019). Fran Osrecki  (Prof. Dr.) is professor of sociology at the Berlin School for Economics and Law. He is a member and coordinator of the research network „The sociology of sociological knowledge“, a project funded by the German Research Foundation (Deutsche Forschungsgemeinschaft, DFG). Fran Osrecki’s research focuses on sociological theory, organizational sociology and sociology of science. He recently contributed the chapter „Stille Revolutionen: Über die Latenz sozialen Wandels in der soziologischen Zeitdiagnostik“ [Silent revolutions: The latency of social change in sociological epochalisms] to the book „Gegenwartsdiagnosen: Kulturelle Formen gesellschaftlicher Selbstproblematisierung der Moderne“ (ed. by Thomas Alkemeyer et al., Bielefeld: transcript Verlag 2019).

VII

VIII

Herausgeber- und Autor*innenverzeichnis

Autor*innenverzeichnis Vincent August (né Rzepka; M.A.), Humboldt-Universität zu Berlin, Berlin, Germany Jens Bergmann  (Dr.), Polizeiakademie Niedersachsen, Hannover, Deutschland Mikkel Flyverbom (Prof., PhD), Copenhagen Business School, Copenhagen, Denmark Martina Franzen  (Dr.), Deutschland

Kulturwissenschaftliches

Institut

Essen,

Essen,

Hans Krause Hansen  (Prof., PhD), Copenhagen Business School, Copenhagen, Denmark Maren Heibges  (née Klotz; Dr.), Technische Universität Berlin, Berlin, Germany Janosik Herder  (M.A.), Universität Osnabrück, Osnabrück, Deutschland Bettina Mahlert  (PD Dr.), Universität Innsbruck, Österreich Carlo Martini  (PhD), Università Vita-Salute San Raffaele, Milano, Italy Marc Mölders  (PD Dr.), Universität Bielefeld, Bielefeld, Deutschland Fran Osrecki  (Prof. Dr.), Hochschule für Wirtschaft und Recht Berlin, Berlin, Germany Jacob Reilley  (M.A.), Helmut-Schmidt-Universität, Hamburg, Germany Dorothee Riese  (M.A.), Universiteit Leiden, Leiden, The Netherlands Steven Sampson  (Prof., PhD), Lund University, Lund, Sweden Andreas Schäfer  (Dr.), Humboldt-Universität zu Berlin, Berlin, Deutschland

Transparency Imperatives: Results and Frontiers of Social Science Research Vincent August and Fran Osrecki

Abstract

In Western societies, transparency has become an imperative and almost unquestionable norm. In this opening chapter, we provide an overview of social scientific debates about transparency. First, we trace the idea of transparency historically in order to contextualize past and present transparency imperatives. We start with the utilitarian tradition initiated by Jeremy Bentham and argue that transparency employs a mechanism of surveillance, formalization, and standardization that is supposed to transform insecurities into security and efficiency. This modernist legacy reaches into contemporary visions of transparency, for instance in institutional economics, new public management, or in current debates on big data. In a second step, we discuss the unintended consequences of these recent transparency imperatives. Based on a literature review, we show that transparency often does not achieve its self-proclaimed goals, as its rationale and practices produce unintended structural effects, such as organizational inefficiency, massive bureaucratization, and even intransparency. Building on these results, we propose a comparative approach for future social scientific research on transparency, outlining new frontiers and topics.

V. August (*)  Humboldt-Universität zu Berlin, Berlin, Germany E-Mail: [email protected] F. Osrecki  Hochschule für Wirtschaft und Recht Berlin, Berlin, Germany E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 V. August und F. Osrecki (Hrsg.), Der Transparenz-Imperativ, https://doi.org/10.1007/978-3-658-22294-9_1

1

2

V. August and F. Osrecki

We will refer to the articles collected in this book throughout the chapter and close with some remarks on the general structure of this anthology that combines contributions from sociology, political science, and anthropology and highlights the variety and ubiquity of transparency imperatives.

1 The Rise of Transparency Imperatives In Western societies, transparency has become an imperative and an almost unquestionable norm. Its ubiquity is a remarkable phenomenon as most norms in modern, highly differentiated society are both contested and tied to certain social sub-fields. The semantics, rationales, and practices of transparency, however, can now be found in almost every part of society, ranging from politics and economics to science, sports, or journalism. Moreover, in all those fields, opposition to transparency is scarce. Transparency has become something of a social ‘mega-trend’. For an illustration, let us take an example from political sociology: It is very rare that non-governmental organizations, government agencies, and economic pressure groups share a common interest. But when the European Union negotiated the Transatlantic Trade and Investment Partnership, EU actors quickly accepted the demand for more transparency made by NGOs and economic pressure groups. The ‘EU transparency initiative’ set an extraordinary example as international trade agreements have usually been negotiated in the utmost secrecy, but it did not quiet the calls for more transparency (Abazi 2016; Gheyle and de Ville 2017). Transparency has become a universally acknowledged problem solver without stopping rule, and it has become directed at all different kinds of organizations, such as newspapers, hospitals, central banks, or universities (see Franzen; Mölders; Martini; Reilley in this volume). As the demands for transparency unfolded over the past 40 years, transparency research has taken off as well. However, while public calls for transparency has only gotten stronger, the academic discussion shifted. In an early stage of transparency research, there were basically two normative approaches. The proponents of transparency claimed that it fosters ‘good governance’, whereas other researchers, usually with a poststructuralist or critical theory background, hinted to a close link between surveillance and transparency to argue against the “tyranny of transparency” (Strathern 2000). As those approaches co-existed over years without generating new insights, more analytical approaches from the social sciences surfaced, which study historical and current cases to interrogate the empirical justifications, practices, and (un-intended) consequences of transparency.

Transparency Imperatives: Results and Frontiers of Social …

3

These new insights not only provide a basis to work towards a more general theory of transparency, they also proliferate a skeptical evaluation of what transparency actually achieves. In the following, we will provide an overview of those approaches and their results, discuss their relevance, and sketch out future frontiers for transparency research. In a first step, we unravel the circumstances that foster transparency imperatives by discussing the history of transparency ideals and practices.1 As we will show, transparency is a tool that implements distrust in order to create more certainty by installing practices of inspection. Those practices formalize and standardize behavior, aiming to effectively bind agents to given criteria and to generate reliable information that yield a neutral, rational judgment. However, social science research has demonstrated that transparency often fails to achieve such self-proclaimed goals. In a second step, we will review the strand of literature that nourishes doubts as to whether and when (if at all) transparency is a sensible strategy for organizations and whole social fields. While those doubts have their base in profound analytical case studies, only a comparative approach can extensively map transparency imperatives and their alternatives. This is why we conclude by arguing for two re-orientations in transparency research. First, transparency research should systematically compare how transparency rationales, practices, and effects play out on different social levels, i.e. in interactions, organizations, and social fields. Do transparency imperatives affect all levels in the same way? Do all social fields adapt to those imperatives? What are reasons for (intended or un-intended) resistance to those imperatives? However, a comparative approach does not fulfill its potential when it only compares transparency imperatives and forgets about functional equivalents to transparency. The second frontier of transparency research, therefore, lies in detecting and discussing alternatives to transparency.

1.1 The Utilitarian Tradition As transparency imperatives became ubiquitous, it also became difficult to distinguish ‘transparency’ from other forms of observation, publicity, or access. Social science as well as public actors often use transparency and publicity synonymously,

1The first two sub-sections build on arguments already presented in August 2018b, 2019a, but they extend the literature review and add some new aspects, especially regarding big data and organizational strategies for coping with transparency imperatives.

4

V. August and F. Osrecki

or argue that transparency is a universal or natural element of democratic societies (e.g. Ritzi 2017). In contrast to and even in explicit defiance of universalization and naturalization, a lot of transparency research has been directed towards historicizing and contextualizing transparency demands (Baume 2011; Berliner 2014; ­Erkkilä 2012; Hood 2006; Pozen 2018; Rzepka 2013; Schudson 2015).2 In sum, this research shows that transparency is a common framework used by a variety of actors since the beginning of modernity, but it also shows that the current wave of transparency imperatives took off in the 1970s. This development can be explained by a closer look at the utilitarian tradition of transparency and the circumstances of insecurity that foster transparency demands. While the rise of transparency imperatives since the 1970s was not a monolithic revolution, the arguments and practices employed by various actors have a very distinct predecessor in Jeremy Bentham’s utilitarianism. Bentham was the first to formulate the “Transparent-management principle” (1962e, p. 381), which he considered to be a solution for the massive insecurities of his time. Those insecurities were manifest in at least three ways (see extensively Rzepka 2013). First, the dominant Christian epistemology was distorted since the religious wars of the 16th and 17th century discredited the certainty of salvation and divine order. Second, social structure was re-arranged as the industrial revolution gave birth to pauperism and to the modern middle classes, who feared their descent into poverty. Finally, the political coordinates had to be re-cast after the French Revolution disqualified absolute monarchies as well as republicanism, leaving a huge question mark as to how “security against misrule” could be guaranteed, as Bentham liked to put it (1962b, p. 99).

2Transparency

research offers two main approaches to distinguish transparency from other social phenomena, nominal definitions and historico-critical reconstructions. Nominal definitions define transparency in advance in order to operationalize the concept and apply it to a given data set. Transparency research usually defines transparency as “access to information” and distinguishes it from “publicity”, which includes the understanding and discussion of information (e.g. Naurin 2006). Historico-critical approaches, on the other hand, draw on empirical material to reconstruct what transparency means ‘in the field’, including the actor’s rationales for transparency norms and practices as well as the circumstances of use, its tacit assumption, and unintended consequences (e.g. Alber 2018; August 2018b). While both approaches can contextualize transparency demands in their own ways, historico-critical approaches also criticize nominal approaches that construct a natural link between transparency and democracy. Yet, researchers may also apply the reconstructions of historico-critical approaches as a nominal heuristic to new material.

Transparency Imperatives: Results and Frontiers of Social …

5

In his attempt to cope with these challenges, Bentham turned to physics, where Isaac Newton’s research on optics and mechanics had established a new paradigm. Newton based his natural laws on empirical observation, supporting a scientific approach to the problem of uncertain knowledge known as empiricism. For his empirical insights, transparent lenses, liquids, and prisms played a crucial role as they provided the media to study the planetary movements as well as the laws of light. Newton’s laws, in turn, led his contemporaries to believe that the natural world could be deciphered and controlled mechanically. Bentham, too, chose to transfer this mechanistic view to the “moral branch” in order to regain social security (Bentham 1952–1954, pp. 100 f.). In a first step, Bentham stated a moral law. The “principle of utility” maintains that “Nature has placed mankind under the governance two sovereign masters, pain and pleasure” (1962a, p. 11). This meant that people would always try to maximize their pleasure, which—although a fundamental law of behavior—is also dangerous, because the self-interest of one would always endanger the security of everybody else. Bentham, therefore, proposed to align the self-interest with the universal interest of security by utilizing pleasure and pain as levers to steer the individual self-interest. In a second step, the (in-)famous Panopticon papers presented a universal method of steering that would implement Bentham’s moral mechanics. If people assume that they are being watched, Bentham argued, they would always adapt their behavior to the (assumed) expectations of their watchdogs, hoping to avoid pain and gain pleasures. While at first directed at the prisoners of the Panopticon, who had proven to be dangerous to society, Bentham also applied the “inspection principle” to the management of the prison, as management actors are in a position of power and positions of power always grant many opportunities for self-­ interested corruption. After Bentham transferred “transparency” from physics to architecture and from architecture to management, it is only in a third step that he applied it to politics (Bentham 1962b, 1999). Drafting a transparent democracy, Bentham derived several practices from the transparency metaphor, ranging from an institutional hierarchy via publication and monitoring systems to a transparent political discourse. He argued that “the transparency of the system” enables the sovereign ‘public opinion tribunal’ to distribute gratifications and sanctions as well as it feeds the ‘tribunal’ with purified information to improve decision-making (Bentham 1962b, pp. 62 f.). Only a transparent democracy would guarantee “security against misrule” and yield a neutral, rational judgement. As we will see, the promises and semantics of transparency prevailed since the first formulation by Bentham. However, in the 1970s and 1980s, a new wave

6

V. August and F. Osrecki

of transparency imperatives rose, again fostered by a range of crises and insecurities (for an extensive discussion of those, see August 2019b).3 For one, the economy of post-war Western societies experienced a substantial blowback. With rising unemployment rates, massive inflation, and a stagnant growth, the situation overthrew the dominant Keynesian theories and practices, opening the quest for a new economic order. Secondly, post-war states also had problems enforcing their monopoly on violence as terrorist groups, such as the Irish Republican Army, attacked elites and civilians alike. Finally, those crises fueled existing conflicts among social groups, including the classical cleavage of capital and labor as well as new conflict lines along the emancipation of women and people of color or the punitive handling of homosexuals. In their distinct combination, the crises of the 1970s disrupted the often state-centered patterns of post-war societies. One group commenting those crises sharply solicited transparency. Referring to themselves as neoliberals, they proposed an alternative governance principle in order to regain stability. Their liberal-economic argument built on the ideas developed in public choice theory. From their perspective, the demise of public goods obvious in the 1970s crises resulted from the false approach of post-war institutionalism. Rather than acknowledge that people in power act like utility maximizers, who must constantly be hold accountable, post-war institutionalism naively trusted in the responsibility of the elites, thus encouraging corruption and exploitation of public goods (e.g. Brittan 1975; Watrin 1979). To counter the demise of public goods, they proposed that transparency (or ‘monitoring’) would achieve two goals at the same time (e.g. Buchanan 1975): On the one hand, transparency would provide accountability, leading to the apt behavior of elites. On the other hand, it would provide the members of society with the information necessary to make reasonable choices and create more rational decisions. In short, they repeated the same arguments and semantics for transparency first launched by Bentham (Hood 2001; Hurtado 2008).

3Many

historians and social scientists recently argued that the 1970s brought significant changes in many areas of Western societies, ranging from industrial structure, management principles, welfare and party politics to cultural values and cleavages. The abundant literature includes very specific studies, for instance on youth unemployment or media representations, as well as very general thesis that diagnose a structural change of modernity. See, amongst others, Black et al. (2013); Boltanski and Chiapello (2005); Bösch (2019); Chabal (2015); Doering-Manteuffel and Raphael (2008); Leendertz and Meteling (2016); Reckwitz (2017); Wirsching (2011).

Transparency Imperatives: Results and Frontiers of Social …

7

Following this line of thought, the new public management movement started to promote and implement transparency practices in public administration (Erkkilä 2012; Hood 2001). Those practices include auditing, benchmarking, and monitoring, but they also extend to institutional arrangements and modes of communication. Just like Bentham, the International Monetary Fund, for instance, demanded “[c]lear assignments” and “[c]lear statements” as well as “[c]lear and simple statutes and implementations”, because only “transparency in the overall structure and functions” will deliver “stability, allocative efficiency, and fairness” (Kopits and Craig 1998, p. 5 f., 13 (emphasis removed)). Those promises and practices of transparency, however, can be applied to any kind of organization. Political and administrative institutions were only one specification of a more general approach advertised by new institutional economics and a number of related movements, which casted any institution in terms of a relationship between self-interested principals and agents (e.g. Becker 1978; Laffont and Martimort 2002; Moe 1984).4 As this rational-choice perspective on organizations spread, it helped disperse transparency imperatives into different fields of society. But Bentham’s original formulation allowed for an even wider dispersion of transparency imperatives. Firstly, to him, transparency was not an idea(l) restricted to the political system, but a universally applicable technique to steer human behavior.5 Secondly, this technique was founded upon a more general belief in the perfectibility of human beings and human societies through mechanistic steering. Looking into the history of transparency imperatives and practices demonstrates that those modernist and utilitarian ideas offered the opportunity to adopt and adapt them to different belief systems as well as different social fields.

4Although

this argument for transparency still prevails, some economists and rational choice researchers have meanwhile pointed to limits of transparency, arguing, for instance, for the necessity of (partly) secluding negotiations. See Naurin (2006), Prat (2005). 5The Panopticon papers presented a draft for a prison, but they explicitly entertained the idea that transparency is a suitable architectural and management principle for a wide range of organizations, such as schools and hospitals. However, Bentham also elaborated that for different purposes different degrees and arrangements of transparency would be in order. Another curiosity: At first, transparency did only apply to physical transparency, for instance the architecture of the building; it is only in a second step that Bentham transformed the material term into a management metaphor and melted it with a more general term of publicity. Publicity and transparency are, thus, two different things.

8

V. August and F. Osrecki

For example, at the beginning of the 20th century, there was a range of transparency imperatives inspired by socialist and social democratic worldviews. Among those were many architects of the Bauhaus, such as Walter Gropius. Following a utilitarian approach to social housing, factory buildings, and city planning, they praised glass for being a perfect and pure material that has the capacity to transform human beings and their society to the better (August 2018a; see ­Gropius 2005). Another example from that period are ‘progressive’ American politicians and jurists, such as Louis D. Brandeis, who is one of the favorite references of present-day transparency advocates (Pozen 2018). But in contrast to many of the current claims, Brandeis did not direct his transparency imperatives primarily at the state but at companies, especially banks, in order to enable state control. Nevertheless, he used the same semantics of hygiene and social control characteristic of the liberal tradition when he advertised publicity as “a remedy for social and industrial diseases”: “Sunlight is said to be the best of disinfectants; electric light the most efficient policemen” (Brandeis 1914, p. 92).

1.2 Transparency’s Modernist Strategy of Governance As the historical overview demonstrates, transparency is a polyvalent, adaptable nexus of norms and practices. It derives its versatility from the more general historical background, because its rationale is formed by typically modern challenges, principles, and hopes. To handle the massive amount of uncertainties in modern societies, transparency implements a mechanistic concept of causal steering. Its goal is to canalize potentially arbitrary behavior into morally approved procedures and transcend ‘sinister interests’ into a neutral, rational judgement. This modernist train of thought explains the broad-spectrum support of today’s transparency imperatives (August 2019a; Christensen and Cheney 2015). The history of transparency as well as other empirical investigations suggest that transparency is often evoked in situations of perceived insecurity (e.g. Alber 2018; Kühnert 2018; Stark 2018). In those situations, uncertainties are interpreted as threats and they are answered in form of distrust. Bentham, for instance, feared that anybody in power would use this power for “his own greatest happiness” (1962b, p. 44). Transparency, then, translates distrust into practices of inspection in order to regain security. The metaphor of transparency is very instructive for inventing new management practices without losing a common reference point. Yet, it is possible to distinguish four classes of transparency practices that reappear at different times and in different organizational settings:

Transparency Imperatives: Results and Frontiers of Social …

9

1. Transparent architecture. Being the ‘original’ approach from which transparency was transferred to other management practices, these practices unfold from Bentham’s drafts of prisons, ministerial offices, and plenary rooms via the already mentioned Bauhaus architecture up to contemporary buildings, such as the former German parliament in Bonn (Barnstone 2005). 2. Transparent organizational structure. Not only the material but also the organizational ‘architecture’ can be made transparent. As we have already seen, both Bentham and new institutional economics argued for an institutional hierarchy, reaching from the highest principal (often termed ‘the’ public) down to the lowest functionary (e.g. Moe 1984, pp. 765 f.). The ‘transparent’ hierarchical structure would give power to single agents while isolating them and making them susceptible to sanctions. 3. Transparency as publication is probably the most common class of practices, which encompasses auditing, monitoring, and benchmarking techniques. Transparency in this sense, first, demands organizations to record and publish information systematically, while also demanding other ‘external’ institutions to generate competing accounts, thereby guaranteeing apt behavior on both sides. Second, as Bentham (1962c, p. 130) put it, publicity in this sense “is of no avail without eyes to look at it”, meaning that it also demands vigilant watchdogs. Transparent publicity, thus, has three steps: documentation, publication, and distrustful reception. 4. Transparent speech acts. Transparent publicity, however, even goes farther as it regulates speech acts by distributing formal specifications as to how to behave, write, or talk.6 This kind of standardization of speech takes very different forms, ranging from forms (Stark 2018) via rules of procedures or standard operating procedures through to expectations to adapt any kind of speech to rules of ‘simplicity’, ‘completeness’, and ‘clearness’. The last class of practices illustrates a crucial point in the modernist governance approach of transparency: transparency practices formalize and standardize behavior so that the arbitrariness of possible actions is contained to previously

6One

of the most peculiar and revealing passages from Bentham’s writings is that he wanted every member of parliament to swear an oath on keeping his discourse “pure”: “my endeavours shall be constantly directed to the giving to them the greatest degree of transparency, and thence of simplicity, possible. […] to keep my own discourse, and, as far as depends upon myself, the discourse of others, as pure as may be from the taint of fallacy: of fallacy in every shape” (Bentham 1962b, p. 124).

10

V. August and F. Osrecki

a­ pproved, ‘safe’ behavior. If the actors follow these approved procedures, they will also yield ‘pure’, undistorted information, which, when aggregated, will automatically result in a rational, optimal decision. Transparency, thus, has a control and a content dimension, both attained by standardization, ranging from institutional hierarchies down to the formulation of speech acts that should result in pure information. In recent years, those modernist beliefs in governance by perfect information were fostered through ‘Big Data’ and, more generally, the internet. Adding another element to understanding the recent wave of transparency imperatives, the socio-technological developments supported the spread of behavioral control through external inspection in at least two ways. On the one hand, since the spread of ‘web 2.0’-approaches, it became much easier to set up so-called watchblogs or other online-media based accountability practices (Baumann 2014; Eberwein and Porlezza 2014). They focus on monitoring and blaming actors, ranging from monitoring blogs, such as VoteWatch and AbgeordnetenWatch, to whistleblowing platforms, such as WikiLeaks. While the approaches and targets of those blogs and fora differ widely, they also compete with the classical control practices such as the free press, which is sometimes actively criticized, especially by whistleblowing platforms (see Mölders in this volume). On the other hand, and probably even more powerful, Big-Data-technologies facilitate the belief in the perfectibility of governance by numbers (see Hansen and Flyverbom in this volume; Hansen 2015; Mau 2019). As they generate and analyze huge amounts of information, they provide the ideal environment for the idea that more information would result in a neutral and perfect judgement that is in the interest of all. Technology, for the first time, puts the utilitarian utopia within reach. Digitalization is, therefore, entwined with transparency: while programmer-activists may hold libertarian beliefs resonating with transparency that drive and frame software development (see Heibges in this volume), political activists draw on technology to advertise a “new age of transparency”, reproducing the presented rationale for transparency (e.g. MacKinnon 2012; Sifry 2011). However, one should be careful to assume that all ‘open government’ or ‘open innovation’ initiatives also subscribe to transparency. Although examining the rationalities of digitalization is an ongoing endeavor, research already demonstrates that ‘openness’ and ‘transparency’ are two different things, and that their relationship is ambiguous (Cucciniello et al. 2013; Meijer et al. 2012). Meijer et al. argue that openness entails at least two dimensions, vision (transparency) and voice (participation), which might help, complement, or even undermine each other. ‘Open’ or ‘openness’ inherits a much broader semantics than

Transparency Imperatives: Results and Frontiers of Social …

11

‘transparency’, making the terms applicable in quite different contexts. In consequence, normative approaches that are highly critical of transparency ideals may nevertheless argue for ‘openness’.7 As we have already seen, similar difficulties appear regarding the relationship of transparency and publicity (or ‘the public sphere’). Research on democratic negotiations has long been discussing the impact of publicity on political discourses (Gosseries 2017; Riese; Schäfer in this volume). Those contributions found that publicity, indeed, makes agents more susceptible to external influences. But on the one hand, they highlighted that publicity might strengthen very specific influences, such as organized lobbyism. On the other hand, research has questioned if publicity really leads to the desired rationalization of discourse, as it can also result in a more emotional discourse or block learning processes out of a desire to not look weak. Transparency imperatives, however, do not only demand that negotiations are public but also regulate how to behave in those negotiations in order to achieve rationalization. Elaborate proponents of transparency, thus, do not simply argue for publicity, but for a specific way of how to organize it. The modernist rationale and its practices behind this ‘transparency model of publicity’ have been laid out in this chapter. With those precautions, transparency explicitly aims for the impact of external influences. Its proponents use the attractive metaphor of transparency as it employs a rhetorical nimbus of neutrality. However, they ignore (or approve) that the arrangement of transparency favors specific actors. We will now turn to those unintended consequences and power effects of transparency.

2 Un-Intended Consequences and Power Effects of Transparency Transparency proponents can draw on a well-established rationale that provides a normative justification for transparency based on modernist, utilitarian motives. It derives a set of practices from applying the transparency metaphor to management.

7One example is Michel Foucault. While he argued against transparency, stressing its coercive dimension (Foucault 1975), he advocated open information and innovation, demanding to multiply the “channels of communication” (Foucault 1997, pp. 325 f.). The main difference is that transparency comes with a moral distinction of good and bad information that is rejected by Foucault, who praised unrestricted experimentation.

12

V. August and F. Osrecki

This rationale declares two main goals of transparency: first, that it will align the behavior of agents to the interests of a principal, generating security against misconduct; and second, that it will thereby automatically yield better governance in terms of efficiency and quality. In recent debates within and outside academia, other positive effects are attributed to transparency, especially the enhancement of trust and citizen participation. Empirical and theoretical research, however, has continuously raised doubts as to whether transparency achieves any of those goals. Here, it is argued that transparency practices miss their own goals due to the way they operate. In the following, we explore some of the main results presented in this line of research. We start with two normative conundrums (trust/distrust and privacy/surveillance) and move on to discussing the unintended outcomes in terms of efficiency, accountability, and participation, highlighting the power dimension of transparency ­practices.

2.1 Transparency’s Relation to Privacy and Trust: Normative Contradictions? Let us first turn to the normative discussion with which the dispute surrounding transparency started. With the spread of new public management, more and more critical accounts emerged that exposed transparency practices as surveillance (Strathern 2000). Although ‘the transparency of the system’ without doubt intrudes everyday life, in the liberal tradition there has always been a very clear distinction between areas of transparency and areas of privacy. Bentham, in particular, was very thoughtful to shield the individual citizen from the transparency of buildings and processes (Bentham 1962b, p. 325, 1999, p. 39). In the liberal tradition, transparency ends where the private interests of the bourgeois begin. If transparency is applied to the ‘wrong’ context, it transforms semantically into ‘surveillance’. This distinction is politically useful, but it also produces norm conflicts. It is politically useful in that it enables activists to discredit a ‘surveillance society’, while they demand more transparency at the same time (e.g. MacKinnon 2012). Here, the tilting semantics of transparency/surveillance helps to avoid cognitive and political dissonances. In concrete cases, however, those dissonances turn into arguments about the public or private character of information, and those situations have multiplied since information technology, information trading and the involvement of private actors in public decision making have expanded (for an

Transparency Imperatives: Results and Frontiers of Social …

13

unconventional genealogy see Herder in this volume).8 From this perspective, the transparency-surveillance debate resembles an internal conflict about which and how much information can be gathered, traded, or published without violating a normative frame of reference that is shared even by transparency advocates. While surveillance is a normative critique used by transparency adversaries, trust is a normative argument presented by its proponents. Whereas current transparency proponents often claim that transparency fosters trust, historical proponents as well as empirical research are critical of this assertion. Empirical research did not support the positive link between trust and transparency. Rather, it even ponders whether transparency might have a negative impact on trust levels (Cucciniello et al. 2013, 2017; de Fine Licht 2011; Koch-Grünberg 2018; ­Richter 2017; Tolbert and Mossberger 2006; Wewer 2017). Looking into historical accounts, these results are less surprising. Neoliberal accounts argued that trust in office holders is misplaced, and Bentham explicitly stated that publicity is “a system of distrust” (Bentham 1999, p. 37). The link between transparency and distrust makes sense, because you do not need to inspect someone if you trust him or her—there is a reason why it is called ‘blind trust’. Linking transparency to distrust, however, does not automatically disqualify it. As trust, not unlike transparency, receives almost universal support, the discussion about whether distrust is problematic for organizations or democracies has often been forgotten (Suntrup 2018). Defying a moralistic approach, the German sociologist Niklas Luhmann (2017) offered a useful account of trust and distrust, arguing that they are functional equivalents in their attempt to reduce complexity. The main problem of distrust is that it re-inforces itself. As the validity and reliability of any information can be questioned, there is no final assurance without trust.9 But without a stopping rule, distrusting becomes more and more time

8To

give one example, turn back to the TTIP negotiations mentioned at the beginning. In this case, the European Union was reluctant to publish documents that involve the private interests of United States citizens. This protection of private information, however, was at odds with the transparency demands of European NGOs. 9On the other hand, Luhmann also pointed to three main problems of trust. First, the consequences of misplaced trust can be enormous. However, they cannot be estimated in advance as trust is a powerful tool precisely because it chooses to act despite insufficient information. Second, the more complex a social system, the more trust is needed as it becomes impossible to control each and every action. At the same time, the more trust is given, the more often it will be disappointed (simply because complexity implies more opportunities for failure). Thirdly, trust is easier transformed into distrust than distrust is transformed into trust.

14

V. August and F. Osrecki

consuming and yields less and less trusted information. Excessive distrust, thus, destroys the grounds of action and paralyzes social systems, Luhmann argued. Many case studies support this theoretical reasoning. They have found both that transparency intensifies distrust and that transparency-related distrust, in turn, intensifies conflicts as ever more transparency can be demanded (Barry 2013; Gadinger and Yildiz 2016; Gheyle and de Ville 2017; Sampson 2010; Staffiere 2018).

2.2 Inefficiency, Bureaucratization, and Accountability Looking into the conceptual and empirical relationship of distrust and transparency highlights two dimensions in which transparency’s ‘working mechanism’ might undermine the declared goals of transparency: first, by reproducing distrust, transparency also reproduces insecurity, as there is no stopping rule for questioning the validity of information. And second, it suggests that transparency might paralyze an organization by re-enforcing distrust if there are no counterrationales that secure trust. In organizational research and in ethnographic studies, those performative contradictions of transparency have been scrutinized for a long time. Although they often did not take notice of each other, they yielded similar results. Meanwhile, a large body of literature analyzed accounting, monitoring, and auditing mechanisms spread by new public management, and revealed the unintended organizational side effects of transparency (e.g. Hansen et al. 2015; Power 2003; Rottenburg et al. 2015; Sampson 2010; Sampson; Bergmann in this volume). Those studies argue that transparency makes entrusted power, organizational structures, or decision-making observable for non-members by turning embedded, professional knowledge into de-contextualized data. Based on those data, quantitative indicators are used to compare, rank, and eventually to steer organizations without first-hand knowledge of their actual tasks. Those tactics present a paradigmatic example of how formal data and hierarchical rankings are combined to produce transparency that, in turn, aligns behavior to an externally given purpose. However, they also demonstrate two main immanent contradictions. Firstly, transparency practices foster bureaucratization, generating inefficiencies and informal deviant strategies; and secondly, they re-produce intransparency that must be compensated by actors opaque to external members. The empirical observation that transparency produces less efficiency, rather than more efficiency (as claimed by transparency proponents) rests on a very simple mechanism. As transparency practices produce formal information through

Transparency Imperatives: Results and Frontiers of Social …

15

the filling in of forms, listing of activities, accounting for costs, or through other forms of writing, archiving, and publishing reports, considerable resources of organizations and individuals flow into tasks that are not ‘intrinsic’ goals of the organization or the profession. In other words, transparency generates a great amount of bureaucratization sustained either by additional personnel or by diverting time and attention from the actual professional activity, creating a sense of senseless activities (Bannister and Connolly 2011; Farrell and Morris 2003; Hood and Dixon 2015; Stark 2018). While being praised for fostering less bureaucratic and more efficient governance, transparency is actually producing the opposite outcome—and it does so due to its own logic. Organizations confronted with such an intrusive mode of transparency, therefore, may develop strategies to reduce the costs of transparency practices. One main strategy is to shift important decision-making into less observable, informal areas—making the organization in fact less transparent for external observers (Anechiarico and Jacobs 1996; Osrecki 2015; Ringel 2019). In other cases, transparency demands are answered by various forms of window dressing. While organizations produce standardized reports for external use, the actual practices within the organizations diverge significantly from those reports. This phenomenon is often observed in organizations with highly professionalized staff who can circumvent transparency practices because auditing bodies have little insight into the daily routines of professionals’ interactions with clients (Courpasson et al. 2012; Evetts 2011; Levay and Waks 2009; McGivern and Ferlie 2007; Numerato et al. 2012). Both strategies—deviant informality and window dressing—illustrate a more fundamental contradiction in the way transparency operates: transparency produces intransparency. While proponents of transparency might argue that both strategies call for even more transparency, the intransparency resulting from transparency practices is actually endemic. As transparency produces more and more information, a single piece of information becomes a needle in the haystack. In other words, the surplus of information creates an information overload (Bannister and Connolly 2011; Edmunds and Morris 2000; Etzioni 2010). Thus, arguing for more transparency on the one hand ignores the fact that organizations act reasonably, for evading transparency mechanisms might be efficient. On the other hand, they do not see that the information overload also undermines the accountability function ascribed to transparency. As a major consequence of this self-defeating mechanism, transparency changes the power structures in modern society. The information overload calls for organizational actors who have the relevant resources to process, analyze, evaluate, and act upon the huge amount of information created by transparency

16

V. August and F. Osrecki

mechanisms. Those capacities especially lie with large companies, official auditing bodies, or professionalized non-governmental organizations. In many cases, proponents of transparency openly argue for such intermediaries to manage transparency (Bentham 1999, p. 35; Bowles et al. 2014).10 The intransparency produced by transparency practices thus results in a power shift towards intermediary organizations. Yet, those organizations are obviously not transparent for a wider audience, be it citizens or consumers. While this undermines the general promise of transparency fostering citizen participation, many scholars also argue that the shift favors already powerful actors and their special interests (Barry 2013; Coles 2007, pp. 191–233; D’Angelo and Ranalli 2019; Nicola 2015).11 The resulting power asymmetries would be less of an issue if transparency’s selling point were not neutrality. It promises to transform a world dominated by power asymmetries and special interests into a world dominated only by the rationality of a universal interest. This promise rests on the premise that transparency practices make visible ‘what is actually going on’ without any interfering bias. It does not so much ‘produce’ a perspective but “uncover[s] the true essence” of the observed interactions (Christensen and Cheney 2015, p. 77; see also Ananny and Crawford 2018, pp. 974 f.; Dymczyk and Schwalbe 2018, pp. 83–86). At the same time, however, transparency is also supposed to align the behavior of the observed with the general interest of the observers. It is, therefore, no surprise that most of the studies mentioned above show that transparency practices do not simply make organizations observable, but actively change them. Transparency is not a neutral, but a highly performative tool that transforms what is going on and who is participating in it (in this volume esp. Mahlert; Reilley; in the literature e.g. Espeland and Sauder 2007). In sum, our review of the literature reveals that transparency is a highly problematic tool as it often does not live up to its promises, let alone to the hopes many actors associate with it. Transparency is, under specific circumstances,

10Bentham’s

account is remarkable in this respect. While he saw that “as the mass increases, the transparency diminishes” Bentham (1962d, p. 28), he did not register a problem as he relied on two moments. On the one hand, he stressed the purifying power of transparency practices, on the other hand, he argued that transparency would enable the relevant actors, that is the educated middle classes that have access to the universal interest. 11Democratic theory, in particular, has argued that not only information overload but also standardizing the public discourse leads to exclusion of lower classes, marginalized actors (such as women), and deviant cultural practices of voicing opinions (Fraser 1990; Young 1990).

Transparency Imperatives: Results and Frontiers of Social …

17

able to enhance accountability and align the behavior of the watched to external standards. However, it often produces a massive amount of bureaucratization, it reduces efficiency, intensifies distrust, privileges resourceful actors, and thus undermines exactly those goals it promises to achieve. The main reason for this problem lies in the mechanism of transparency itself: as transparency produces more and more information, it necessarily re-produces intransparency. More transparency is likely to intensify the problems, rather than offer a viable solution. Transparency will only be useful if embedded in a setting that counteracts transparency’s problems. Moreover, while we have seen that individuals and organizations may react with different strategies, ranging from choosing to exit or comply to window dressing and deviant informalization, the conditions for choosing one of the strategies are still unclear. A comparative approach that explains differences and looks for alternatives could, therefore, be the future of transparency research.

3 Expanding Social Scientific Approaches to Transparency The previous sections demonstrate that the current social scientific debate over transparency is marked by a high degree of ambiguity. To sum up, we can distinguish at least three positions or modes of evaluating transparency: an affirmative, a dismissive and an asymmetrical mode. In the affirmative mode, transparency is understood as an instrumental value (Heald 2006) or a steering technique for achieving a wide array of desired goals, for instance stability, efficiency, accountability, and trust. This position has, following Bentham, its strongest support in public choice theory and institutional economics, from where it has spread into reform programs for all kinds of organizations. The dismissive perspective, on the other hand, questions the value of transparency. Here, one major concern was a strong connection between transparency and surveillance (Han 2012; Strathern 2000; Tsoukas 1997). For many critics, ‘transparency’ was little more than a sugarcoated term for what Foucault (1975) described as punitive practices in a disciplinary society, where both agents with entrusted power and the principal (‘the’ public) are watched and disciplined into standardized and standardizing patterns of behavior. More recently, this position grew in prominence because of new techniques of gathering and processing ‘big data’, for example in relation to medical and criminal records, voting behavior, or consumer data (Bishop 2009; Zuboff 2019).

18

V. August and F. Osrecki

Many researchers who do not disapprove of the concept tout court, adopted an asymmetrical perspective on transparency. From this perspective, techniques of transparency should be targeted at agents with entrusted power but not at the principal who entrusted them. In other words, those social scientists are adherents of what Hood (2007, p. 196) called a “populist-particularist” vision of transparency: highly appreciated when aimed at political, economic, professional, or administrative ‘elites’, but heavily criticized when framed as ‘surveillance’ of the general public. As we discussed above, this position, in the end, shares Bentham’s liberal approach that was asymmetrical as well, but avoids discussing the empirical validity and stability of the transparency/surveillance-distinction. In relation to these three positions, we saw two major trends in social scientific approaches to transparency in recent years. First, skeptical accounts (dismissive or asymmetrical) have gradually moved beyond concerns about surveillance. Rather, more general and comprehensive arguments were developed that stressed an immanent form of critique: practices of transparency might not only threaten privacy and facilitate surveillance, they also undermine their own, self-proclaimed goals. Second, this form of critique was not primarily deduced from general social scientific theories, but predominantly empirical, focusing on rationales, practices, and effects of transparency in concrete situations and organizations. In particular, this empirical strand of the debate focused on the unintended organizational side-effects of transparency we discussed above. Having laid out the major trends in the debate, we want to propose several topics and approaches that can be explored to expand social scientific perspectives on transparency. To explore these new frontiers, we suggest an (admittedly conventional) scheme of macro, meso, and micro levels. On a micro level, we locate norms, practices, and structures of transparency relating to face-to-face interactions as well as forms of self-justifications and -practices. The meso level relates to formal organizations and how they enact norms and practices of transparency. Finally, on a macro level, we discuss transparency with reference to the ‘largest building blocks’ of modern society: social fields or social macro-systems. It is important to note that most social phenomena play on all three levels simultaneously. So, for example, many face-to-face interactions happen within organizational or institutional contexts and many formal organizations have very close ties to specific social fields (e.g. universities to the scientific field or system). The scheme is, thus, a heuristic in which each category might offer an original perspective on a phenomenon.

Transparency Imperatives: Results and Frontiers of Social …

19

3.1 The Macro Level: Transparency as a Generalized Principle On a macro level, as we have noted above, transparency has largely been treated as a value in certain economic and political theories, especially in (neo-)liberal theories of (public) institutions that inspired programs of governance reform. However, there is little comparative research on how and why social fields (Bourdieu 1998) or function systems (Luhmann 1982) differ in their way of envisioning, promoting, and implementing transparency.12 Our discussion of the origins and organizational side-effects of transparency showed that rationales and practices of transparency can be applied not only to elected officials and political institutions, but also to entrusted power in the broader sense of the term, that is entrusted expertise as in the case of transparency measures targeted at professions. With professions becoming targets, modern society witnesses a generalization of the transparency principle that moved well beyond the political field or system and into medicine, education, mass media, social work, care etc. With its generalization, the transparency ideal in modern society became powerful even in fields where the concept of entrusted power (or expertise) cannot be applied neatly. For instance, this is the case in the system of modern science (see Franzen in this volume), where expertise is typically not judged by external actors who ‘entrust’ scientists, but by mechanisms of peer control. Hence, practices of transparency (e.g. university rankings or quantified measures of academic ‘excellence’) often diverge from well-established modes of accountability and justification and transform the quality standards in science. Many more examples of a creeping generalization of the transparency ideal can be found, for instance in media or sports (e.g. doping and embezzlement). One theoretical perspective that can guide a comparative macro approach would take the ubiquitous calls for transparency as evidence of a more general trend that simultaneously permeates different parts of society without being reducible to rationales of transparency in one social system or field only. As we have noted above, one aspect that seems to guide many, if not all, concepts of transparency is rendering social processes and structures observable for non-members, i.e.

12The

concepts of “social field” (Bourdieu) and “function system” (Luhmann), of course, differ to some extent. However, for the purpose of this article it suffices to say that they offer theoretical equivalents in addressing the largest ‘components’ of modern society. For a comparison of the concepts, see Nassehi and Nollmann (2004).

20

V. August and F. Osrecki

external observers of social fields or systems. From this angle, transparency is, to a large degree, a mechanism of social inclusion. Inclusion here means that most social macro-systems not only develop highly professionalized and autonomous personnel, but also some mechanism for including laypersons. This perspective was first formulated by Thomas Marshall (1964), taken up by Niklas Luhmann (1981, pp. 25–32) and further refined by Rudolf Stichweh (2003, 2009, 2016). In contrast to Max Weber or Pierre Bourdieu, laypersons here are not only passive bystanders in the process of rationalization, professionalization, and functional differentiation, but have an active role in it. The modern medical profession, for example, could develop only in combination with large hospitals for the general public where the class background of single patients did not interfere with the process of treatment and, thus, medical procedures could be applied in a universalist mode—treating sick persons not as persons, but as cases (Stichweh 2016, p. 19). Similar developments can be observed in many social macro-systems, where laypersons either play an active role in the operations of professional personnel (patients, students, members of religious communities), or where social systems or fields constantly monitor preferences and actions of distant laypersons (voters, consumers). In any case, the most important aspect of inclusion, as defined here, means that considerable resources of social systems flow into handling demands of non-members. From this perspective, transparency can be described as a mode of intensifying lay involvement in the duties carried out in professional roles. The perhaps most evident case in point is the formalization or standardization of conduct envisioned in many transparency imperatives. The guiding idea seems to be making decisions readable without much contextual knowledge of the field in question, thus enabling observation and control by either non-professionals and/ or actors professionalized in observing standardized data (e.g. auditors). With this theoretical background, it is possible to compare ideals and modes of transparency across different social macro-systems and to ask in what ways calls for transparency diverge or converge with already institutionalized channels for lay involvement. More generally, with a comparative macro-perspective the question arises if, why, and to what extent certain social systems or fields are more susceptible to rationales of transparency than others. Is the political system, with its institutionalized forms of lay control, the prime example or target of transparency? Is the generalization of transparency rationales thus an illegitimate (and possibly harmful) over-extension of transparency principles, or just a consequent application of the principle of lay inclusion? And if observability by non-members through standardization is illegitimate or harmful in some social

Transparency Imperatives: Results and Frontiers of Social …

21

fields or social systems, what alternative or functionally equivalent principles of observability, accountability or lay inclusion could apply in such areas? While those questions are open regarding Western societies, a global or cross-cultural comparative perspective on the attractiveness and implementation of transparency is also a derivative.13

3.2 The Meso Level: Limits of Organizational Transparency We already showed that one major focus of transparency measures are formal organizations. Now, the empirical literature in this field suggests that formal organizations are very inventive when it comes to evading observability by non-members. This is actually a very old topic in the sociology of organizations. From the 1940s onwards, many authors stressed that formal organizations build up informal structures that diverge from official organizational goals, hierarchies, and formal division of labor (Crozier 1964; Gouldner 1954; March and Simon 1958; Selznick 1948). In this context, it was also argued that informality not only factually exists, but is also functional in maintaining organizational flexibility in an unpredictable and highly complex environment. It keeps formal structures from petrifying into an over-bureaucratized and formally immobilized structure. Though the term ‘transparency’ was not prominent in this discourse, one central point was that such informal arrangements must be shielded from the public’s eye as they are often not only useful additions to the formal structures, but sometimes incompatible with formality. Most organizations trying to maintain formal coherence and public legitimacy, thus, have to hide informal structures from external observers; even within organizations, informality is tolerated rather than openly communicated or encouraged. Some authors explained this cautious handling by the fact that informality sometimes fosters organizational adaptability by significantly violating formal organizational procedures and/or legal prescriptions. In organizational sociology, this phenomenon is called “useful illegality” (Luhmann 1964, pp. 304–314) or “functional deviance” (Bensman and Gerver 1963). In this respect, transparency and informality are countervailing concepts, though large parts of the pro-transparency literature do not discuss the possibly

13A

few articles already address this perspective, e.g. Cucciniello et al. (2013).

22

V. August and F. Osrecki

harmful effects transparency can have on informal structures and the functions they serve for organizations. Both the recent empirical literature and the classic approaches in organizational sociology suggest, however, that there are limits to organizational transparency and that they are set by the crucial role played by necessarily intransparent informality in organizations. Focusing on limits of organizational transparency shifts the current debate from techniques of informally evading transparency toward methods of mediating transparency and informality in formal organizations. Again, classic approaches provide some promising conceptional clues. Many authors argued that informality in organizations itself relies on a communal or in-group form of transparency. Melville Dalton (1959), for example, described how informality in organizations is kept from turning into private rent-seeking and embezzlement by groups or cliques of co-workers who develop informal methods of mutual surveillance and control. Such mechanisms of informal mutual monitoring can develop on the basis of some sort of professional ésprit du corps or some shared concern for the well-being of the organization (Pinto et al. 2008). More often, however, they tend to be institutionalized for a largely self-interested reason: the fear that management would punish the excessive use of informality and, henceforth, tighten operational control. In any case, there seem to be many functional equivalents for observability by non-members—and informal peer control seems to be a very widespread one (Segal 2012). Further research in this field should ask not only how organizations circumvent transparency mechanisms, but how they institutionalize, manage, and legitimize alternative forms of observability. Here, a possible line of research could ask what type of organization uses what kind of organizational observability. Classic approaches would stress that tight networks of trust, a relatively stable workforce, and a shared work ethic are needed for informal monitoring to work effectively. New empirical approaches have shown, however, that even in organizational environments with permanently changing personnel, low levels of task identification and high levels of repetitiveness, informal mutual control can be institutionalized and even yields better production results than transparency (Bernstein 2012). In line with such questions, it is important to discuss if and to what extent organizations with strong ties to a specific social field or system can choose among different types of transparency—with some organizations, for different reasons, perhaps being forced to install certain modes of organizational transparency. The results in this area of research are still highly inconclusive and call for further investigation.

Transparency Imperatives: Results and Frontiers of Social …

23

3.3 The Micro Level: Transparent Interactions Current research about transparency leans heavily toward social fields or systems and formal organizations—the macro and meso levels in our heuristic. The micro level has not caught as much attention in recent social scientific discussions. Yet, this should be qualified as the micro-level involves two dimensions as it refers to face-to-face-interactions as well as to the relationship of the subject to itself. The latter dimension has attracted attention following the massive research strand that investigates subjectivity and governmentality. In consequence, the (re-)production of subjectivity in organizational settings is often part of the discussion on organizational transparency. Conformity, exclusion, and exhaustion are, in this line of research, consequences typically associated with transparency measures (see above). What is much scarcer, however, are two other research topics. On the one hand, research on ‘self-motivated’ attempts to create transparent subjectivities are less frequent, though topics such as the ‘quantified self’ and the self-representation in social media has yielded interesting insights (e.g. KochGrünberg 2018). On the other hand, investigations into the norms and practices of transparency in face-to-face-interactions are rare as well. This is somewhat remarkable as etymologically the transparency metaphor referred to interactions before it was applied to management and organizations. In English, the connotation of clarity has already been applied to persons in the late 16th century, for instance in Shakespeare’s dramatic works (Oxford English Dictionary Online 2019, Art. ‘transparent’). Shakespeare used a phrase that was also employed by Jean-Jacques Rousseau. After he had to flee France because of his conviction attained by the Catholic church, he defended himself in his autobiographic writings by referring to the transparency of his heart (Rousseau 1959, pp. 860, 897 f.).14 This personal and psychological connotation of transparency expresses the ‘honesty’ and immediate accessibility of someone’s ‘true’ beliefs and essence. Although this connotation, as we have seen, also underlies current transparency imperatives directed at organizations and social systems, the reference to

14Jean

Starobinsky (1997) famously followed this notion of transparency in Rousseau’s autobiographical writings. Yet, his interpretation is also misleading in that he used the uncovered notion of transparency from the later writings to interpret all of Rousseau’s earlier works. Rousseau’s social and political works, however, do not comply with an ideal of transparency. Rather, they explicitly denied it and defended the necessity of ceremony and orchestration (see Marks 2001; Rzepka 2013, pp. 38–46).

24

V. August and F. Osrecki

a ‘transparent individual’ is neither as common nor as uncontroversial. It is an unresolved and unresearched paradox that, as it seems, the older meaning became less popular, while the more contemporary reference to organizations and systems spread widely. In historical terms, one reason of this development may lie with the experiences of totalitarianism that infused Western societies with a horrific image of transparent individuals, one which is still present in many dystopian visions of a surveillance society. Perhaps it is a systematic effect of those experiences that norms, practices, and structures of (inter-)personal observability are usually not framed in terms of transparency. Instead, claims and limits of observability in face-to-face interactions are systematically negotiated by turning to concepts like ‘truthfulness’, ‘honesty’, and especially ‘authenticity’. Yet, these thoughts remain guesswork as there is little empirical research on how norms and practices of transparency, honesty, truthfulness, authenticity (a) converge or diverge in different settings of face-to-face interactions; (b) on how their relationships have developed over time; and (c) on how the internal relationship among the different refence points of ‘transparency’ (e.g. individual, organizational) have changed. A line of research projects dealing with these questions would, however, not lack starting points. Firstly, works of classical and interactionist sociology already looked into the observability of face-to-face interactions by outsiders. Georg Simmel (1992, pp. 63–159), for example, stressed how interactions become formalized, objectified, and de-personalized merely by the presence of third persons. Similar topics were prominently observed and discussed by Erving Goffman (1959, 1963). Secondly, there exists a broad range of research addressing the rationales and practices of authenticity, which discusses, for example, its normative implications as well as the historical development of the modern subject (e.g. Fischer-Lichte et al. 2007; Reckwitz 2006; Varga and Guignon 2017). Closely related to those attempts is, finally, research that investigates the history of intimacy (e.g. Illouz 2007; Luhmann 1998; Rice et al. 2016; Sennett 1992; Stempfhuber 2012). Those studies often include a gender perspective on the expectations and practices within intimate relationships, which could open a fruitful approach for transparency research in general. More profound research dealing with the mentioned questions would help grasp the diversity of transparency imperatives in modern societies. While transparency in organizations is strongly linked to rationalization, the notion of transparent hearts and feelings are more closely linked to emotions. The line that we saw in Rousseau’s works resonated with the bourgeois literature of sentimentalism and continues in the afore mentioned tradition of glass architecture. Transparency

Transparency Imperatives: Results and Frontiers of Social …

25

in this sense also addresses purity as the way to a final, perfect interpersonal harmony. But rather than praising modernism, those appropriations protest against the utilitarianism of modern societies. However, despite their anti-utilitarianism, those appropriations seem to share the utilitarian belief in purity as the way to perfectibility (August 2018a). A history of the ‘transparent heart’ might therefore yield new insights in two competing—or complementing—traditions of transparency imperatives.

4 About the Book As we have stressed throughout this opening chapter of the book, transparency imperatives occur in rather different settings. As a consequence, transparency research has been conducted in many subdisciplines of the social sciences. On the one hand, this presents an advantage as competing methodological and theoretical backgrounds address the recent rise of transparency imperatives. On the other hand, this disciplinary dispersion of transparency research has also made it more complicated to track consistent research results and single out new frontiers. In our introduction, we reviewed the literature in order to put forward some general theses on the norms, practices, and structural effects of transparency imperatives. Those theses not only attempt to theorize the many results of transparency research, they also aim to present a conversation among the disciplinary contributions collected in this volume. In other words, this volume tries to offer the best of both worlds: While the introduction provides a path through the jungle of transparency research, the articles from sociology, political science, economics, and anthropology that follow deliver the methodological, theoretical, and thematic diversity necessary to understand the current transparency imperatives. To follow this plan, we decided against a list of summaries in the introduction that would yield no systematic insight. Rather, each article begins with an abstract to present its specific perspective, while we referred to the articles where they contributed systematically to our review of transparency research. As we have stressed in the introduction, transparency is a flexible nexus of norms and practices that produces structural effects. Norms, in our understanding, entails the moral arguments for and against transparency as well as the modernist “moral background” (Abend 2014) that those transparency imperatives carry with them. While transparency slowly developed into a norm of itself, it is, as we have shown, actually a method of steering. The transparency metaphor helps to invent practices of inspection that serve external criteria of good and bad behavior, but

26

V. August and F. Osrecki

those practices have intended and unintended consequences that change the patterns of expectations and relations within and amongst organizations and systems. Following this simple idea, the volume groups the articles into three main parts, norms, practices, and structures. While most of the articles discuss at least two aspects, their research usually focuses on one of the aspects and draws on the others to discuss and explain the findings. The articles in the first part, thus, deliver normative as well as analytical perspectives on transparency ideals. Those articles (re-)present more general arguments about the desirability and measurement of transparency. Complementary to this, the second part gathers detailed case studies on the practices of transparency—and on the challenges of actually practicing transparency practices. The second part thus presents the richness of social scientific endeavors in the empirical wave of transparency research discussed above. The contributions come from diverse theoretical backgrounds, such as systems theory or Foucauldian genealogy, employ different methodological strategies, ranging from participant observations and interviews to document analysis, and discuss a variety of topics, for instance police work, digitalization, and health care. Following those close-ups, the final third part of the book zooms out. It features different articles that discuss the structural effects of transparency practices in different social fields, namely politics, economics, journalism, and science. Due to the diversity of the articles presented here, the volume depicts the creativity of transparency imperatives as they invade and change our life in a variety of social fields.

This volume has come a long way since the idea was born following an international workshop on transparency. In this process, we have had significant support. We would like to thank the Chairs of General Sociology at University of Osnabrück and of Political Theory at Humboldt-Universität zu Berlin. They provided financial and organizational resources for copy-editing as well as for a workshop at which the authors of the volume discussed and improved their papers. Moreover, we want to thank Jacob Reilley who has done fast and brilliant work copy-editing the English manuscripts. Hana Rydza has been a tremendous help in gathering huge amounts of literature and in organizing the workshop at Humboldt-Universität. Finally, Manuel Kautz, Anna Sandberger, and Julia Wild supported us greatly in proof-reading and preparing the papers for publication. To all of these helping hands, we would like to say thank you.

Transparency Imperatives: Results and Frontiers of Social …

27

References Abazi, V. (2016). How confidential negotiations of the TTIP affect public trust. European Journal of Risk Regulation, 7(2), 247–251. https://doi.org/10.1017/S1867299X00005626. Abend, G. (2014). The moral background. An inquiry into the history of business ethics. Princeton: Princeton University Press. Alber, N. (2018). Transparentes Hartz IV?! Die Leistungsmittel-Software ALLEGRO. Berliner Blätter, 21(76), 39–55. Ananny, M., & Crawford, K. (2018). Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability. New Media & Society, 20(3), 973–989. https://doi.org/10.1177/1461444816676645. Anechiarico, F., & Jacobs, J. B. (1996). The pursuit of absolute integrity: How corruption control makes government ineffective. Chicago: University of Chicago Press. August, V. (2018a). Ikonologie der Transparenz: Demokratie im Zeichen von Rationalität und Reinheit. Leviathan, 46(34), 115–147. https://doi.org/10.5771/9783845285405-114. August, V. (2018b). Theorie und Praxis der Transparenz. Eine Zwischenbilanz. Berliner Blätter, 21(76), 129–156. August, V. (2019a). Öffentlichkeit in der Transparenzgesellschaft. Merkmale, Ambivalenzen, Alternativen. In J. Knobloch (Ed.), Staat und Geheimnis. Der Kampf um die (Un)Sichtbarkeit der Macht (pp. 191–216). Baden-Baden: Nomos. https://doi. org/10.5771/9783845299952-191. August, V. (2019b). Von ›Unregierbarkeit‹ zu Governance: Neoliberale, teleologische und technologische Staatskritik. In A. Cavuldak (Ed.), Die Grammatik der Demokratie. Das Staatsverständnis von Peter Graf Kielmansegg (pp. 231–258). Baden-Baden: Nomos. https://doi.org/10.5771/9783845288499-287. Bannister, F., & Connolly, R. (2011). The trouble with transparency: A critical review of openness in e-government. Policy & Internet, 3(1), 158–187. https://doi. org/10.2202/1944-2866.1076. Barnstone, D. A. (2005). The transparent state. Architecture and politics in postwar Germany. London: Routledge. Barry, A. (2013). Material politics. Disputes along the pipeline. New York: Wiley-Blackwell. Baumann, M.-O. (2014). Die schöne Transparenz-Norm und das Biest des Politischen: Paradoxe Folgen einer neuen Ideologie der Öffentlichkeit. Leviathan, 42(3), 398–419. https://doi.org/10.5771/0340-0425-2014-3-398. Baume, S. (2011). La transparence dans la conduite des affaires publique. Origines et sens d’une exigence. Raison publique. https://www.raison-publique.fr/article459.html. Accessed 13 June 2019. Becker, G. S. (1978). The economic approach to human behavior. Chicago: University of Chicago Press. Bensman, J., & Gerver, I. (1963). Crime and punishment in the factory: The function of deviancy in maintaining the social system. American Sociological Review, 28(4), 588– 598. https://doi.org/10.2307/2090074.

28

V. August and F. Osrecki

Bentham, J. (1952–1954). The philosophy of economic science. In W. Stark (Ed.), Jeremy Bentham’s economic writings. Critical edition. Based on his printed works and unprinted Manuscripts (Vol. 1, pp. 79–120). London: George Allen & Unwin. Bentham, J. (1962a). An introduction to the principles of morals and legislation. In J. Bowring (Ed.), The works of Jeremy Bentham (Vol. 1, pp. 1–154). New York: Russel & Russel. Bentham, J. (1962b). Constitutional code. In J. Bowring (Ed.), The works of Jeremy Bentham (Vol. 9). New York: Russel & Russel. Bentham, J. (1962c). Panopticon; or, the Inspection-House. In J. Bowring (Ed.), The works of Jeremy Bentham (Vol. 4, pp. 37–137). New York: Russel & Russel. Bentham, J. (1962d). Rationale of judicial evidence; specially applied to english practice, vol. 2. In J. Bowring (Ed.), The works of Jeremy Bentham (Vol. 7). New York: Russel & Russel. Bentham, J. (1962e). Tracts on poor laws and pauper management. In J. Bowring (Ed.), The works of Jeremy Bentham (Vol. 8, pp. 359–439). New York: Russel & Russel. Bentham, J. (1999). An essay on political tactics, or inquiries concerning the discipline and mode of proceeding proper to be observed in political assemblies: Principally applied to the practice of the British parliament, and to the constitution and situation of the national assembly of France. In M. James, C. Blamires, & C. Pease-Watkin (Eds.), Political tactics (pp. 13–156). Oxford: Clarendon Press. Berliner, D. (2014). The political origins of transparency. The Journal of Politics, 76(2), 479–491. https://doi.org/10.1017/S0022381613001412. Bernstein, E. S. (2012). The transparency paradox: A role for privacy in organizational learning and operational control. Administrative Science Quarterly, 57(2), 181–216. https://doi.org/10.1177/0001839212453028. Bishop, B. (2009). The big sort: Why the clustering of like-minded American is tearing us apart. Boston: Mariner Books. Black, L., Pemberton, H., & Thane, P. (Eds.). (2013). Reassessing 1970s Britain. Manchester: Manchester University Press. Boltanski, L., & Chiapello, E. (2005). The new spirit of capitalism. London: Verso. Bösch, F. (2019). Zeitenwende 1979. Als die Welt von heute begann. Munich: Beck. Bourdieu, P. (1998). Practical reason. On the theory of action. Stanford: Stanford University Press. Bowles, N., Hamilton, J. T., & Levy, D. A. L. (2014). Introduction. In N. Bowles, J. T. Hamilton, & D. A. L. Levy (Eds.), Transparency in politics and the media: Accountability and open government (pp. xi–xxiii). London: I.B. Tauris. Brandeis, L. D. (1914). What publicity can do. Other people’s money and how the bankers use it (pp. 92–108). New York: Stokes Publishers. Brittan, S. (1975). The economic contradictions of democracy. British Journal of Political Science, 5(2), 129–159. https://doi.org/10.1017/S0007123400008115. Buchanan, J. M. (1975). The limits of liberty. Between anarchy and leviathan. Chicago: University of Chicago Press. Chabal, E. (Ed.). (2015). France since the 1970s. History, politics and memory in an age of uncertainty. London: Bloomsbury. Christensen, L. T., & Cheney, G. (2015). Peering into transparency: Challenging ideals, proxies, and organizational practices. Communication Theory, 25(1), 70–90. https://doi. org/10.1111/comt.12052.

Transparency Imperatives: Results and Frontiers of Social …

29

Coles, K. (2007). Democratic designs: International intervention and electoral practices in postwar Bosnia-Herzegovina. Ann Arbor: University of Michigan Press. Courpasson, D., Dany, F., & Clegg, S. (2012). Resisters at work: Generating productive resistance in the workplace. Organization Science, 23(3), 801–819. Crozier, M. (1964). The bureaucratic phenomenon. Chicago: University of Chicago Press. Cucciniello, M., Grimmelikhuijsen, S., & Porumbescu, G. (2013). The effect of transparency on trust in government: A cross-national comparative experiment. Public Administration Review, 73(4), 575–586. https://doi.org/10.1111/puar.12047. Cucciniello, M., Porumbescu, G. A., & Grimmelikhuijsen, S. (2017). 25 years of transparency research: Evidence and future directions. Public Administration Review, 77(1), 32–44. https://doi.org/10.1111/puar.12685. Dalton, M. (1959). Men who manage. New York: Wiley. D’Angelo, J., & Ranalli, B. (2019). The dark side of sunlight. How transparency helps lobbyists and hurts the public. Foreign Affairs, 98(3), 155–168. De Fine Licht, J. (2011). Do we really want to know? The potentially negative effect of transparency in decision making on perceived legitimacy. Scandinavian Political Studies, 34(3), 183–201. https://doi.org/10.1111/j.1467-9477.2011.00268.x. Doering-Manteuffel, A., & Raphael, L. (2008). Nach dem Boom. Perspektiven auf die Zeitgeschichte seit 1970. Göttingen: Vandenhoeck & Ruprecht. Dymczyk, A., & Schwalbe, A. (2018). Einsichtige Arbeitszeit. Transparenz in der elektronischen Personalzeiterfassung. Berliner Blätter, 21(76), 76–91. Eberwein, T., & Porlezza, C. (2014). The missing link: Online media accountability practices and their implications for European Media Policy. Journal of Information Policy, 4, 421–443. https://doi.org/10.5325/jinfopoli.4.2014.0421. Edmunds, A., & Morris, A. (2000). The problem of information overload in business organisations: A review of the literature. International Journal of Information Management, 20(1), 17–28. https://doi.org/10.1016/S0268-4012(99)00051-1. Erkkilä, T. (2012). Government transparency. Impacts and unintended consequences. Basingstoke: Palgrave Macmillan. Espeland, W., & Sauder, M. (2007). Rankings and reactivity: How public measures recreate social worlds. American Journal of Sociology, 113(1), 1–40. Etzioni, A. (2010). Is transparency the best disinfectant? Journal of Political Philosophy, 18(4), 389–404. https://doi.org/10.1111/j.1467-9760.2010.00366.x. Evetts, J. (2011). A new professionalism? Challenges and opportunities. Current Sociology, 59(4), 406–422. https://doi.org/10.1177/0011392111402585. Farrell, C., & Morris, J. (2003). The ‘neo-bureaucratic’ state: Professionals, managers and professional managers in schools, general practices and social work. Organization, 10(1), 129–156. https://doi.org/10.1177/1350508403010001380. Fischer-Lichte, E., Horn, C., Pflug, I., & Warstat, M. (Eds.). (2007). Inszenierung von Authentizität. Tübingen: Francke. Foucault, M. (1975). Discipline and punish. The birth of the prison. New York: Random House. Foucault, M. (1997). The masked philosopher. In P. Rabinow (Ed.), Ethics. Subjectivity and truth (pp. 321–328). New York: The New Press. Fraser, N. (1990). Rethinking the public sphere: A contribution to the critique of actually existing democracy. Social Text, 25(26), 56–80. https://doi.org/10.2307/466240.

30

V. August and F. Osrecki

Gadinger, F., & Yildiz, T. (2016). Transparenz/Intransparenz. Zur Ambivalenz einer neuen Leitunterscheidung demokratischen Regierens. Zeitschrift für Politikwissenschaft, 26(2), 199–209. Gheyle, N., & de Ville, F. (2017). How much is enough? Explaining the continuous transparency conflict in TTIP. Politics and Governance, 5(3), 16–28. https://doi. org/10.17645/pag.v5i3.1024. Goffman, E. (1959). The presentation of self in everyday life. New York: Doubleday. Goffman, E. (1963). Behavior in public places: Notes on the social organization of gatherings. New York: Free Press. Gosseries, A. (2017). Publicity. In E. N. Zalta (Ed.), The Stanford Encyclopedia of Philosophy. Stanford: The Metaphysics Research Lab. http://plato.stanford.edu/archives/ fall2010/entries/publicity/. Accessed 19 Jan 2019. Gouldner, A. W. (1954). Patterns of industrial bureaucracy. Glencoe: Free Press. Gropius, W. (2005). Glasbau. In D. Rübel (Ed.), Materialästhetik. Quellentexte zu Kunst, Design und Architektur (pp. 74–77). Berlin: Reimer. Han, B.-C. (2012). Transparenzgesellschaft. Berlin: Matthes & Seitz. Hansen, H. K. (2015). Numerical operations, transparency illusions and the datification of governance. European Journal of Social Theory, 18(2), 203–220. Hansen, H. K., Christensen, L. T., & Flyverbom, M. (2015). Introduction: Logics of transparency in late modernity Paradoxes, mediation and governance. European Journal of Social Theory, 18(2), 117–131. Heald, D. (2006). Transparency as an instrumental value. In C. Hood & D. Heald (Eds.), Transparency. The key to better governance? (pp. 59–73). Oxford: Oxford University Press. Hood, C. (2001). Public management, new. In N. J. Smelser (Ed.), International encyclopedia of the social & behavioral sciences (Vol. 12, pp. 12553–12556). Amsterdam: Elsevier. Hood, C. (2006). Transparency in historical perspective. In C. Hood & D. Heald (Eds.), Transparency. The key to better governance? (pp. 3–25). Oxford: Oxford University Press. Hood, C. (2007). What happens when transparency meets blame-avoidance? Public Management Review, 9(2), 191–210. Hood, C., & Dixon, R. (2015). A government that worked better and cost less? Evaluating three decades of reform and change in UK central government. Oxford: University of Oxford Press. Hurtado, J. (2008). Jeremy Bentham and Gary Becker: Utilitarianism and economic imperialism. Journal of the History of Economic Thought, 30(3), 335–357. https://doi. org/10.1017/S1053837208000321. Illouz, E. (2007). Cold Intimacies. The making of emotional capitalism. Cambridge: Polity Press. Koch-Grünberg, M. (2018). Seeing like a subject. Quantifizierende Methoden der Selbstbeobachtung und die Künste der Existenz. Berliner Blätter, 21(76), 110–128. Kopits, G., & Craig, J. D. (1998). Transparency in government operations. Washington: International Monetary Fund. Kühnert, N. (2018). Drug Checking in der akzeptierenden Drogenarbeit. Ein umstrittenes Verfahren zur Herstellung von Transparenz illegaler Substanzen und des Drogenmarktes. Berliner Blätter, 21(76), 92–109.

Transparency Imperatives: Results and Frontiers of Social …

31

Laffont, J.-J., & Martimort, D. (2002). The theory of incentives. The principal-agent model. Princeton: Princeton University Press. Leendertz, A., & Meteling, W. (Eds.). (2016). Die neue Wirklichkeit. Semantische Neuvermessungen und Politik seit den 1970er-Jahren. Frankfurt a. M.: Campus. Levay, C., & Waks, C. (2009). Professions and the pursuit of transparency in healthcare: Two cases of soft autonomy. Organization Studies, 30(5), 509–527. https://doi. org/10.1177/0170840609104396. Luhmann, N. (1964). Funktionen und Folgen formaler Organisation. Berlin: Duncker & Humblot. Luhmann, N. (1981). Politische Theorie im Wohlfahrtsstaat. Munich: Olzog. Luhmann, N. (1982). The differentiation of society. New York: Columbia University Press. Luhmann, N. (1998). Love as passion. The codification of intimacy. Stanford: Stanford University Press. Luhmann, N. (2017). Trust. In C. Morgner & M. King (Eds.), Trust and power (pp. 3–116). Cambridge: Polity. MacKinnon, R. (2012). Consent of the networked. The worldwide struggle for internet freedom. New York: Basic Books. March, J. G., & Simon, H. A. (1958). Organizations. New York: Wiley. Marks, J. (2001). Jean-Jacques Rousseau, Michael Sandel and the politics of transparency. Polity, 33(4), 619–642. http://www.jstor.org/stable/3235519. Accessed 13 June 2019. Marshall, T. H. (1964). Class, citizenship and social development. Garden City: Doubleday. Mau, S. (2019). The metric society. On the quantification of the social. Cambridge: Polity Press. McGivern, G., & Ferlie, E. (2007). Playing tick-box games: Interrelating defences in professional appraisal. Human Relations, 60(9), 1361–1385. https://doi. org/10.1177/0018726707082851. Meijer, A. J., Curtin, D., & Hillebrandt, M. (2012). Open government: Connecting vision and voice. International Review of Administrative Sciences, 78(1), 10–29. https://doi. org/10.1177/0020852311429533. Moe, T. M. (1984). The new economics of organization. American Journal of Political Science, 28(4), 739–777. https://doi.org/10.2307/2110997. Nassehi, A., & Nollmann, G. (Eds.). (2004). Bourdieu und Luhmann. Ein Theorienvergleich. Frankfurt a. M.: Suhrkamp. Naurin, D. (2006). Transparency, publicity, accountability—the missing links. Swiss Political Science Review, 12(3), 90–98. https://doi.org/10.1002/j.1662-6370.2006.tb00056.x. Nicola, F. G. (2015). The paradox of transparency: The politics of regulatory cooperation in the TTIP negotiation. Quaderni di SIDIBlog, 2, 356–362. http://www.sidiblog. org/2015/02/04/the-paradox-of-transparency-the-politics-of-regulatory-cooperation-inthe-ttip-negotiation/. Accessed 19 Jan 2019. Numerato, D., Salvatore, D., & Fattore, G. (2012). The impact of management on medical professionalism: A review. Sociology of Health & Illness, 34, 626–644. https://doi. org/10.1111/j.1467-9566.2011.01393.x. Osrecki, F. (2015). Fighting corruption with transparent organizations. Anti-corruption and functional deviance in organizational behavior. Ephemera, 15(2), 337–364. http://www. ephemerajournal.org/sites/default/files/pdfs/contribution/15-2osrecki_0.pdf. Accessed 6 May 2019.

32

V. August and F. Osrecki

Oxford English Dictionary Online. (2019). transparent. Oxford: Oxford University Press. https://www.oed.com/view/Entry/204969. Accessed 10 Oct 2019. Pinto, J., Leana, C. R., & Pil, F. K. (2008). Corrupt organizations or organizations of corrupt individuals? Two types of organization-level corruption. Academy of Management Review, 33(3), 685–709. http://amr.aom.org/content/33/3/685.short. Accessed 29 Aug 2016. Power, M. (2003). Auditing and the production of legitimacy. Accounting, Organizations and Society, 28(4), 379–394. http://www.sciencedirect.com/science/article/pii/ S0361368201000472. Accessed 10 May 2019. Pozen, D. E. (2018). Transparency’s ideological drift. The Yale Law Journal, 128(1), 100– 165. https://www.yalelawjournal.org/article/transparencys-ideological-drift. Accessed 15 Jan 2019. Prat, A. (2005). The wrong kind of transparency. The American Economic Review, 95(3), 862–877. Reckwitz, A. (2006). Das hybride Subjekt. Eine Theorie der Subjektkulturen von der bürgerlichen Moderne zur Postmoderne. Weilerswist: Velbrück Wissenschaft. Reckwitz, A. (2017). Die Gesellschaft der Singularitäten. Zum Strukturwandel der Moderne. Berlin: Suhrkamp. Rice, F. P., Stinnett, N., Stinnett, N. M., & DeGenova, M. K. (2016). Intimate relationships, marriages, and families. New York: Oxford University Press. Richter, P. (2017). Es werde Licht! Und es ward Licht?—Zur Wirkung von Transparenz auf die Legitimität öffentlicher Verwaltung. Politische Vierteljahresschrift, 58(2), 234–257. https://doi.org/10.5771/0032-3470-2017-2-234. Ringel, L. (2019). Transparenz in der Politik? Grenzen, Probleme und nicht intendierte Folgen. Kölner Zeitschrift für Soziologie und Sozialpsychologie, 57, 111–133. https://doi. org/10.1007/s11577-019-00591-0. Ritzi, C. (2017). Das Geheimnis und die Demokratie. (In-) Transparenz als politische Herausforderung im digitalen Zeitalter. In R. Voigt (Ed.), Staatsgeheimnisse. Staat—Souveränität—Nation (pp.  179–204). Wiesbaden: Springer VS. https://doi. org/10.1007/978-3-658-16235-1_9. Rottenburg, R., Merry, S. E., Park, S.-J., & Mugler, J. (Eds.). (2015). The world of indicators. The making of governmental knowledge through quantification. Cambridge: Cambridge University Press. Rousseau, J.-J. (1959). Rousseau juge de Jean Jacques Dialogues. In B. Gagnebin & M. Raymond (Eds.), Œuvre complètes (Vol. 1, pp. 657–976). Geneva: Edition Gallimard. Rzepka, V. (2013). Die Ordnung der Transparenz. Jeremy Bentham und die Genealogie einer demokratischen Norm. Berlin: Lit. Sampson, S. (2010). Diagnostics: Indicators and Transparency in the Anti-Corruption Industry. In S. A. Jansen, E. Schröter, & N. Stehr (Eds.), Transparenz. Multidisziplinäre Durchsichten durch Phänomene und Theorien des Undurchsichtigen (pp. 97–111). Wiesbaden: VS Verlag. Schudson, M. (2015). The rise of the right to know politics and the culture of transparency, 1945–1975. Cambridge: The Belknap Press of Harvard University Press. Segal, L. (2012). Instilling stewardship to address the integrity/efficiency dilemma. Administration & Society, 44(7), 825–852.

Transparency Imperatives: Results and Frontiers of Social …

33

Selznick, P. (1948). Foundations of the theory of organization. American Sociological Review, 13(1), 25–35. http://www.jstor.org/stable/2086752. Accessed 10 May 2019. Sennett, R. (1992). The fall of public man. New York: Norton. Sifry, M. L. (2011). WikiLeaks and the age of transparency. New Haven: Yale University Press. Simmel, G. (1992). Soziologie. Untersuchungen über die Formen der Vergesellschaftung. Frankfurt a. M.: Suhrkamp. Staffiere, L. (2018). Transparency international. Transparenz als Korruptionsbekämpfung. Berliner Blätter, 21(76), 21–38. Stark, F. (2018). Vom Basar zur Autolieferkette. Unsicherheit und ökonomisierte Verantwortung in den Informationsinfrastrukturen eines globalen Lieferantennetzes. Berliner Blätter, 21(76), 56–75. Starobinski, J. (1997). Jean-Jacques Rousseau. La transparence et l’obstacle. Paris: Gallimard. Stempfhuber, M. (2012). Paargeschichten. Zur performativen Herstellung von Intimität. Wiesbaden: VS Verlag. Stichweh, R. (2003). The multiple publics of science. Inclusion and popularization. Soziale Systeme, 9, 210–220. Stichweh, R. (2009). Leitgesichtspunkte einer Soziologie der Inklusion und Exklusion. In R. Stichweh & P. Windolf (Eds.), Inklusion und Exklusion: Analysen zur Sozialstruktur und sozialen Ungleichheit (pp. 29–42). Wiesbaden: VS Verlag. Stichweh, R. (2016). Inklusion und Exklusion. Studien zur Gesellschaftstheorie. Bielefeld: Transcript. Strathern, M. (2000). The Tyranny of transparency. British Educational Research Journal, 26(3), 309–321. https://doi.org/10.1080/713651562. Suntrup, J. C. (2018). Zwischen Herrschaftskontrolle und Verschwörungstheorie. Zur Ambivalenz von „Misstrauensdemokratien“. Politische Vierteljahresschrift, 59(2), 221– 243. https://doi.org/10.1007/s11615-018-0084-x. Tolbert, C. J., & Mossberger, K. (2006). The effects of E-Government on trust and confidence in government. Public Administration Review, 66(3), 354–369. https://doi. org/10.1111/j.1540-6210.2006.00594.x. Tsoukas, H. (1997). The tyranny of light: The temptations and the paradoxes of the information society. Futures, 29(9), 827–843. http://www.sciencedirect.com/science/article/ pii/S0016328797000359. Accessed 10 May 2019. Varga, S., & Guignon, C. (2017). Authenticity. In E. N. Zalta. (Ed.). The stanford encyclopedia of philosophy. Stanford: The Metaphysics Research Lab. https://plato.stanford. edu/archives/fall2017/entries/authenticity/. Accessed 4 June 2019. Watrin, C. (1979). Zur Überlastung des Staates mit wirtschaftspolitischen Aufgaben. In W. Hennis, P. Graf Kielmansegg, & U. Matz (Eds.), Regierbarkeit Studien zu ihrer Problematisierung (pp. 233–253). Stuttgart: Ernst Klett. Wewer, G. (2017). Transparenz als Grundlage für Vertrauen? Die Sichtweise der Regierungslehre. Kiel: Lorenz-von-Stein-Institut für Verwaltungswissenschaften. Wirsching, A. (2011). The 1970s and 1980s as a turning point in European history? Journal of Modern European History, 9(1), 8–9.

34

V. August and F. Osrecki

Young, I. M. (1990). Justice and the politics of difference. Princeton: Princeton University Press. Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. New York: PublicAffairs.

Vincent August (né Rzepka; M.A.) is postdoc research fellow in political theory at the Department of Social Sciences, Humboldt-Universität zu Berlin. He was a visiting researcher at the University of California, Berkeley, and the Berlin Social Science Center (WZB). His main research areas are social and political theory, the history of thought, and political sociology. Recent research projects investigated (a) the rise of network ideas from cybernetics to governance theory and practice, and (b) the current calls for transparency. In a second project, he has been examining the calls or transparency. Recent publications include papers on transparency and a paper on neoliberal, teleological, and technological critiques of the state (“Von ›Unregierbarkeit‹ zu Governance: Neoliberale, teleologische und technologische Staatskritik“, in Die Grammatik der Demokratie, ed. by A. Cavuldak, Baden-Baden 2019). Fran Osrecki (Prof. Dr.) is professor of sociology at the Berlin School for Economics and Law. He is a member and coordinator of the research network “The sociology of sociological knowledge”, a project funded by the German Research Foundation (Deutsche Forschungsgemeinschaft, DFG). Fran Osrecki’s research focuses on sociological theory, organizational sociology and sociology of science. He recently contributed the chapter “Stille Revolutionen: Über die Latenz sozialen Wandels in der soziologischen Zeitdiagnostik” [Silent revolutions: The latency of social change in sociological epochalisms] to the book “Gegenwartsdiagnosen: Kulturelle Formen gesellschaftlicher Selbstproblematisierung der Moderne” (ed. by Thomas Alkemeyer et al., Bielefeld: transcript Verlag 2019).

Teil I Normen

The Morality of Transparency: Clarity versus Emptiness Steven Sampson

Abstract

With transparency being either a state of clarity or the exposure of emptiness, this paper focuses on the practices of transparency, termed ‘transparenting’. Focus on transparenting practices can provide a better tool for understanding the ‘rise of transparency’, and its moral, practical and political aspects. Three types of transparenting are defined: the voluntary transparenting conducted by organizations, the “flashlight” transparenting of suspicious outsiders, and renegade transparenting by the whistleblower. Examples are given from the field of anti-corruption programs and business ethics and compliance. Through a focus on transparenting, we can better understand both the risks and dark sides of transparency.

1 Introduction: When Concepts Come Alive What happens when an unpretentious social practice becomes an all-embracing moral imperative? How does a vague concept that means so many things to so many people take on a life of its own? These questions apply especially to the term “transparency”. As many researchers have noted, transparency has become a policy buzzword: not only should states be transparent, but also institutions, markets, reasoning, yes, “the whole of society should be transparent” (Koivisto 2016, p. 1). I myself have experienced “the transparency turn” (Peters 2015, 2016) in

S. Sampson (*)  Lund University, Lund, Sweden E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 V. August und F. Osrecki (Hrsg.), Der Transparenz-Imperativ, https://doi.org/10.1007/978-3-658-22294-9_2

37

38

S. Sampson

three areas of my own research and consulting work: in the world of NGOs in post-socialist Eastern Europe (Sampson 1996, 2017) in observing the rise of the anticorruption industry, which included the NGO Transparency International (Sampson 2005, 2009, 2010a, 2010b, 2015a, 2015b, 2018), and in the emerging field of corporate ethics and compliance in the private sector (Sampson 2016). In all three of these social fields, “being transparent” is considered not only a policy necessity to satisfy stakeholders, donors or the curious public. It is a moral imperative. Transparency is something we should do because it is right. Opening ourselves to outside scrutiny may be risky, but it has become a prudent strategic practice because others may do it against our will. Increasingly, demands for transparency are now embedded in laws or regulations. Hence, legal stipulations, moral norms and strategic practices overlap. In the corporate compliance literature, firms are subject to financial and product regulations. But in this environment, transparency is not just legal compliance: “doing things right”. Transparency is also ethics: it is “the right thing to do”. It is this multifaceted aspect of transparency, as norms, structures and practice, which is the theme of this book. And in this paper, I will focus especially on practices. Much of the transparency literature has focused on the “rise of transparency” and the effects of these norms on practices and organizations. Here I will focus on the practice. Much like organizational life can be conceived in terms of the practice called “organizing” (Wright 1994), and the work of NGOs can be viewed as “NGO-ing” (Hilhorst 2003) I will focus on transparency as the work of “transparenting”. Like other complex social and political practices, transparenting brings together moral norms, strategic agendas, everyday routines and social technologies. Transparenting is something real people do. If we can flesh out these norms, agendas, routines, and technologies, we can better address the broader questions of why transparency has become hot, why transparency is viewed as the panacea to so many social and political problems, and how transparency has taken on a life of its own in so many organizational contexts. When something is everywhere, there is a danger that it becomes nowhere. This is the case with many moral projects, and transparency is one of these. Hence, we need to bring transparency down to earth. One way to do this is to focus on transparenting as practice. I will pursue this goal using examples from my own research on anti-corruption and corporate ethics and compliance. The two areas certainly overlap, but nevertheless have different trajectories as concerns transparenting. “Fighting corruption” deploys the common myth of transparency as an all-embracing solution to many problems for which everyone seems to be in agreement. If corruption is

The Morality of Transparency: Clarity versus Emptiness

39

hidden power, fighting corruption means exposing this power. Corporate ethics and compliance also utilizes transparenting, since voluntary disclosure of strategies, accounts and practices is a means by which private firms and public organizations can ward off the scrutiny of unwanted, unintended exposure into their illicit practices (either by aggressive hackers and journalists, or by the disgruntled whistleblower). The consequences of unbridled exposure are well known: Enron, Arthur Andersen, Siemens, Volkswagen, Panama Papers, MeToo, etc. As a result of this scrutiny, and the threat of “sunlight”, most firms and organizations have developed “ethics and compliance functions”, the goal of which is to ensure that laws are obeyed, codes of conduct followed, and to curate how others see them. A large part of these organizational programs consists of the performance of transparency, of making visible to fellow employees and to the outside world the operations, effectiveness and values of the firm or the public authority. In essence, these are programs to ensure that “things are what they seem”, what Flyverbom et al. (2016) have called “visibility management” (Flyverbom 2016). In this paper, I will use examples from the anticorruption industry and from organizational ethics and compliance to show how transparency takes on a life of its own, and how the moral and ethical practices of transparenting operate.

1.1 Two Definitional Frameworks In colloquial terms, transparency highlights the ability of the outsider to view the object or process being observed (Flyverbom and Albu 2017). Transparency is seeing, and seeing is knowing. Hence, if an organization or an organizational process is transparent, the outsider—be it the client, the donor, the public, the evaluator, or the social scientist—can decipher what is going on. In this understanding, transparency and opacity form a zero-sum game. More transparency reduces opacity. The ostensible gap between the organization’s surface appearance and its essence dissolves. Transparency in this sense is an “open window”. Organizations can open their windows voluntarily, revealing the propriety of their policies and practices. Outside suspicion about humanitarian NGOs, for example, has led them to routinely inform the public how much of their budget is used on administration, executive salaries and fundraising (i.e., non-humanitarian activities). As an alternative to the open window transparency, assertive outsiders can pursue a transparency agenda by forcing the window open and shining a light on concealed practices (Koivisto 2016). This can be called “flashlight” or “sunshine” transparency. The politics of transparency generally center on who should control the opening of the window and what should be exposed to public scrutiny; the

40

S. Sampson

issue might be framed as one of openness versus secrecy (company documents, confidential policy papers, NGO leader’s salaries or executive stock options), but it can also be surveillance versus privacy (Han 2015). If everyone knew everything, society would be impossible. In this understanding, power is the ability to disclose or conceal knowledge. At times, this knowledge may escape, and we suddenly encounter whistleblowers, who may be celebrated as heroes, arrested for espionage or forced into exile. Both the open window and flashlight metaphors sustain a “seeing is knowing” or clarity-based definition of transparency. However, there is another understanding of transparency: that of emptiness. In this understanding, a transparent person, organization or strategy, is simply devoid of any substantive content. It is simply a facade. Opening the window that is transparency, we find nothing there. What you see on the surface is truly what you get beneath. There is an element of disappointment in this definition of transparency as emptiness. One expects something deeper, but instead, we get only what we see. These two definitions, one of unmediated clarity, the other of utter emptiness, I will call Transparency 1 and Transparency 2. Both T1 and T2 depict relations between surface and depth, of appearance and substance. Both have moral valuations to them: they celebrate the imperative to go beneath the surface, to pursue depth, to reveal the true content; this practice is considered both necessary and desirable. We do not like mysteries. So we dig deeper into a phenomenon, a story, a case, a project, an organization. We do this to discover knowledge, and presumably to apply this knowledge to make our organizations more effective, or in a more sinister way, to eliminate the privacy of others.

1.2 Key Questions With these two kinds of transparency, that of clarity and that of emptiness, let me reiterate a few basic issues for understanding transparenting. First, why is transparency hot? Why this wave of transparent imperatives, guidelines, stipulations and, of course, academic conferences (including the annual Transparency Conference with about 150 papers)? Is the “transparency turn” in firms and organizations spurred on by a new moral mission or by a fear of embarrassing disclosures? Second, why is transparency not just hot, but also good? Why is there a moral value attached to discovering what is beneath the surface or revealing one’s inner workings? Can we imagine conjunctures when transparency will no more be hot, nor good?

The Morality of Transparency: Clarity versus Emptiness

41

Third, why has opacity become so bad? Since some level of concealment is a prerequisite for all social relations and professional activities, why is concealment, confidentiality, privacy, secrecy or impenetrability regarded with such disdain? If transparency is a synonym for lack of trust, to what degree is the transparency turn an ominous sign of social decay? Fourth, what is the relationship between intentional versus forced transparenting? In what way is transparency a disclosure project of the insider trying to curate what the outside world sees versus a project of the curious outsider trying to lift the veil of the object under scrutiny? It should be recalled that behind the forced transparency practice lie accusations of “lack of transparency” as a rhetorical weapon, with the connotation that the accused is either hiding something or morally corrupt. Finally, what is the relationship between transparency as an ideal end state, a project to be completed like democracy or modernity, versus transparenting as an everyday social practice of actors pursuing agendas, formulating strategies, implementing technologies and propagating a moral vision? How do actors reconcile transparency ideologies with transparenting practices?

1.3 Transparenting as Routine and Performance In discussing these questions, I use the term “transparenting” to denote this everyday practice of revealing, disclosing, curating, or actively searching out the inner workings of an organization. I will try to show here how an emphasis on transparenting, with its accompanying agendas, strategies, technologies and moral elements, can help us address the questions of how transparency has become an all-embracing ethos in the early twenty-first century. The broader issue is one of the embedding of practices and their relationship with a moral project. Invoking Bourdieu, we might say that we are thus witnessing the birth of a transparenting habitus. Understood as a practice, transparenting encompasses both definitions of transparency described above, i.e., the exhibiting of or search for clarity (T1) and the concealment or exposure of emptiness (T2). Hence, there will be situations where the pursuit of T1 ends up with T2, i.e., where the pursuit of the real essence (T1) ends up identifying a situation devoid of substance (T2). Transparenting may begin with the organization voluntary disclosing its mission, controlling what it wishes to disclose to relevant actors (now called “stakeholders”) or the public. Alternatively, it may take the form of the search by flashlight-shining others for the deeper essence of the organization, with the

42

S. Sampson

discovery that there is nothing there. The consequence of this search might lead to the moral imperative for organizations to further reveal the truth about themselves. Transparenting, therefore, may at times involve agendas and norms operating in tandem, and in other situations operating in opposition to each other. This is most obvious when the push for transparency by an authority or activist group leads to gross invasions of privacy. Transparenting practices are ostensibly intended to reduce opacity. The premise of transparenting is that when the stakeholders know more about processes that affect their lives, they will have more trust in their organizations, businesses and institutions. Enhanced trust should give better results, more impact, even higher profits. Transparency, it should be recalled, is quantitative in the sense that we can have more or less of it. Hence, more transparency should give us more honest politicians, more effective bureaucracies, more satisfied clients or customers, and more confident investors or donors. Conversely, where transparency is impeded, it is assumed that organizations will presumably function poorer, as well as running the risk of moral condemnation or being accused of concealment. Doing nothing to reveal your inner workings is equated with “preventing transparency”. The norm of transparenting entails the obligation to carry out certain practices that can stimulate and ensure visibility by others, regardless of its effect. As such, transparenting practices are becoming a more general “attitude” that openness and candor are good and concealment bad. These transparenting practices are undergirded by moral imperatives. For those attempting to “shine the flashlight” on hidden practices, it is a mission to reveal what is unknown, or possibly intentionally concealed. For those organizations or institutions that are encouraged to be more transparent, or which are threatened by imminent exposure, transparency is not an organizational choice or option. It is something they have to do. Transparenting practices, as I define them, can be of three types: the more voluntary “open window”, in which the organization (suitably nudged) attempts to disclose their inner workings with the intent of satisfying stakeholders; the more aggressive “flashlight” or “sunshine” type, where outsiders attempt to extract information from an organization; and the renegade transparenting of the disgruntled employee, that which we condemn as “leaks” or celebrate as “whistleblowing”. Voluntary transparenting takes place in an environment of regulating authorities, interest groups and a media public always ready to uncover or publicize novel information or scandal. As such, the regulating authority seeks to involve the organization in a kind of self-monitoring regime. These “compliance regimes”, whether they apply to firms, public authorities or departmental units, are requirements by which actors can demonstrate adherence to relevant standards, laws,

The Morality of Transparency: Clarity versus Emptiness

43

regulations, codes and norms. Typical compliance regimes operate between a higher authority (governmental or not) and an organization, or between the executive and a specific department (e.g. a sociology department inside a university); such regimes invariably involve transparenting practices: a unit allows the outside authority, senior management or the public to gaze into its inner workings; it opens its window and curates information (for example, its carbon footprint, or the proportion of students from ethnic minorities). If this compliance performance is viewed as inadequate by outsiders, perhaps due to lack of trust or prior scandal, the outside authority will act on its own initiative, exerting a degree of “flashlight”-style scrutiny to determine whether the code or regulation is being respected. Compliance and transparenting are thus intimately related. Both involve a degree of subordination (voluntary or not) and the threat of external control. They lie on a power continuum, ranging from blind trust at one end, to potential suspicion to formalized control, to outright coercion at the other. Compliance with an external regulation or inside a firm, i.e., with the firm’s own code of conduct, requires a performance of transparenting. The organization has to show they are not violating the regulation or code. They have to demonstrate that they are ethical. Compliance thus has a performative aspect, as does all kinds of voluntary transparenting. The organization under scrutiny must decide how to “lift the curtain” or open the window on their operations, when to do it and how best to present themselves to the authorities controlling them or to the stakeholders who follow them (the performance of Volkswagen, for example, where scandals seem to recur, is in fact a drama with many acts—suspicion, exposure, public apology, sacrifice of yet another management team, etc.). This performance of compliance involves an element of spectacle, or in any case “visibility management” (Flyverbom et al. 2016). As several researchers point out, this kind of practice involves manipulating the boundary between front stage and back stage, between what happens when the curtain is up and when it is down (Tsoukas 1997; Strathern 2000; Han 2015; Koivisto 2016). To continue with the drama metaphor, the organization must have a talented stage manager or lighting director to show its best light, while keeping other operations hidden from competitors. They must know when and how to lift the curtain so that disgruntled employees (leakers) or suspicious outsiders (holding their intrusive flashlights) do not disclose information in a chaotic or unauthorized manner. These stage managers within the firm or organization have different titles: corporate communications officer, the ethics and compliance function, the CSR unit and the various training specialists who ensure that everyone in the firm is “on board” with the firm’s mission, its code of conduct and externally imposed regulations on products and sales. Transparenting is therefore not just a “technology”; it is not just a set of routine practices, quarterly reports or

44

S. Sampson

technical operations. It is also a struggle over what gets shown to the outside and what remains hidden. It is a struggle over who decides how the performance should be run. Behind the technologies and techniques (the various indexes or statistical reporting protocols), lie competing agendas. In this sense, transparenting is political. It is the politics of revealing and concealing, of how to reveal, how to conceal and how to conceal while revealing; and the politics of compelling others to reveal or conceal. The research task, therefore, is to identify the various agendas at work, and how these relate to the regulatory frameworks, standards or internal codes to which the institutions must adhere. Analysis of transparenting is about how this compliance is performed. One of the most essential consequences of this performance exercise, as emphasized by anthropologists and philosophers (Strathern 2000; Tsoukas 1997; Koivisto 2016; Garsten and Lindh de Montoya 2008; Han 2015; Vattimo 2007; Comaroff and Comaroff 2003), is that the act of making something transparent always entails making something else invisible. Acts of disclosure are therefore also acts of concealment. Transparency and secrecy form a constellation (Birchall 2011). While assertive transparenting may be part of a “sunshine” policy conducted on the part of those with the “flashlights”, the flashlight transparenting does more than identify objects of interest; it also constitutes them; the periphery of the flashlight constructs the shadows. The search for truth is not simply a quest for more or hidden knowledge. It is also a contestation between power regimes. Marilyn Strathern (2000), for example, has shown how the effort to show “quality” in higher education has led to an obsession with rankings and statistical indexes of research quality. As a result, the more qualitative, social aspects of what constitutes a research community recede into the shadows. They are lost. In the same way, Tsoukas (1997) notes how issues of “crime” degenerate into discussion of “crime rates”; in another example, the quality of social care is equated with “number of home visits”, such that those persons with fewer home visits are assumed to be less cared for. In this sense, successful transparenting becomes a kind of surveillance known as “audit culture” (Power 1997; Strathern 2005). Accountability measurements and numerical indices become what Michael Power (1997) calls a “ritual of verification”. According to Power, the demand for accountability is an artefact of the declining trust institutions and expert systems. The unanimous call for “good governance” through transparenting is one indication that we are suspicious of our institutions. The tendency toward more and more extensive compliance regimes in conjunction with the move toward good governance creates contradictory outcomes. We seem to obtain more clarity in terms of Transparency 1, but we also end up with more façade-building, more emptiness, what I call Transparency 2. We get

The Morality of Transparency: Clarity versus Emptiness

45

what Tsoukas called “the tyranny of light” (1997). Within the “good governance” transparenting paradigm, and its accompanying chatter of openness and accountability, a lot of concealment is also taking place. It is a transparenting of display which in fact reveals very little. It is visibility without knowledge. The implications of such empty transparency for organizations has been described in detail by the Swedish organizational theorist Mats Alvesson in his The Triumph of Emptiness (2014). In academia, for example, we describe our “research quality” using a proxy: the number of articles published or the number of downloads. Reports and evaluations about “quality” and “excellence” are produced, but never read. We academics complain about this surveillance; it makes us uneasy, but as Strathern notes (2000), we assuage ourselves by operating under the fiction that this is not the way things “really” are. Transparenting becomes a daily routine, what Bourdieu might call a “habitus”. It is precisely these routines, the way in which the extraordinary becomes ordinary, that social scientists need to examine. Let me therefore focus on one specific kind of routine transparenting, that of anti-corruption compliance.

2 Compliance Regimes in the World of Anticorruption While there has always been corruption, even in ancient empires, and while there have always been complaints about corruption (Buchan and Hill 2014), the modern anti-corruption regime is a little more than two decades old. The beginnings of a global anticorruption regime date back to earlier debates in international economic circles about the role of bribes paid by international businesses to national and local officials in the Third World (Katzarova 2018; Eigen 2003). One school saw the firms as victims of unscrupulous officials, the other saw these firms as perpetrators acting with impunity. The controversy ended with a narrow definition of corruption that limited itself to the abuse of public authority for private gain, a definition that could cover both the petty corruption of everyday streetlevel officials (police, doctors, bureaucrats), and the grand corruption of government ministers who siphoned off millions in commissions from international investors, enriching themselves and inserting cash into their private foreign bank accounts (Katzarova 2019). Anticorruption was mainly an anti-bribery discourse. During the 1990s, the United States, which in 1977 had enacted The Foreign Corrupt Practices Act that prohibited bribery by US firms operating abroad, pushed back at other countries that allowed their firms to deduct bribes from their taxes. An anti-corruption movement led by the NGO Transparency International

46

S. Sampson

(founded 1994), sought to make decision-makers aware of the cost of corruption in development aid and international business. The resulting compliance regime in the area of anti-bribery now imposes a set of international conventions, national laws and industry-wide regulations on firms, the monitoring of which is carried out by organizations and NGOs. The most important of these regular instruments are the OECD Anti-Bribery Convention (1998), the Council of Europe Criminal Law Convention against Corruption (1999), UN Convention against Corruption (2005), the U.K. Bribery Act (2010), the Dodd-Frank Whistle blowing Protection Law (2009) and the recently enacted ISO Anti-bribery Management Standard (2016). Monitoring governmental and national adherence to these frameworks are advocacy NGOs and think tanks, statistical indices on corruption perception, various training courses, awareness-raising campaigns, private and public sector anti-corruption programs and follow-up conferences, and occasional academic critiques. The result of these efforts make for a veritable “anti-corruption industry” (2010) or in any case a “package” of practices (Sampson 2015b). Ideologically, we can speak of a set of ideals and goals which I have termed “anticorruptionism” (Sampson 2015b) with their associated anti-corruption “campaigns“ (Ivanov 2007). Anti-corruption involves moral advocacy, and transparenting is the means by which integrity and openness are investigated and ensured. In the anti-corruption industry, the most well-known non-governmental advocate for this transparency agenda is Transparency International (TI), an NGO formed in 1994 by an elite group of former lawyers, World Bank functionaries, diplomats and development experts. With a 10 million euro budget, funded largely by European governments, a staff of 80 in the Berlin secretariat and 90 affiliated associations, TI has played a major role in monitoring international anticorruption conventions and in organizing the bi-annual International Anti-Corruption Conference.1 The anti-corruption industry is more than a set of laws and ideals, however. It is a channel for resources: money, people, knowledge and symbols. These resources can cross borders, in so far as anti-corruption discourses and programs are exported. Anti-corruptionism can travel across sectors: anti-bribery in banking can move to anti-corruption in humanitarian aid; compliance in private sector manufacturing can move to compliance regimes in higher education. While anti-corruption regimes clearly can become globalized, local anticorruption movements and agendas can adapt anti-corruption rhetoric or organizational resources to their own ends. Romania, for example, has had a longstanding

1www.transparency.org. Accessed:

20 May 2019.

The Morality of Transparency: Clarity versus Emptiness

47

anti-corruption program dictated by the EU. But it also had a grassroots anticorruption movement which acted on its own. Anti-corruption movements in Bulgaria and India bear little resemblance to the work project-oriented NGOs like Transparency International. Since accusations of corruption can be deployed to repress political opponents or neutralize foreign NGOs, a campaign of anti-corruption can suddenly become something quite different from the anti-corruption initiatives promoted by OECD or by NGO projects. Anti-corruption, like other policy regimes, endeavors to ensure that the high standards, regulations, guidelines or laws are implemented and enforced properly. The major issue is to identify those instruments that can ensure that firms, organizations, departments or entire countries will in fact adhere to the standards or conventions which they have agreed. If not, the problem is one of identifying why certain actors systematically ignore or contravene these standards, what Osrecki calls “functional deviance” (Osrecki 2015). In global policy studies, there is much discussion about the “diffusion of global norms” or “the spread of standards” (Jörgens 2004; Martinsson 2011). This diffusion is not always simply an imposition by powerful actors; governments or organizations also enthusiastically accept the outside impulses or global discourses; they “get on board” (Larmour 2006; Tsing 2005). The ISO standard-setting process in Geneva, for example, is dedicated to this process of “getting people on board”. As a testament to the popularity of anticorruption, the establishment of the ISO anti-bribery management system standard (ISO 37001) was one of the fastest “on board” processes ever; all the players seemed ready, willing and able to agree on a set of anti-bribery standards. Countries or corporations may be encouraged to sign on to anti-bribery treaties and conventions for reasons of public image or propaganda. We have seen similar moves with other morally based polices in areas such as human rights, gender equality, child protection, and climate mediation policies. In doing so, however, they also sign on to a compliance regime that impels them to demonstrate their compliance, with the risk of being subjected to a more aggressive, “flashlight” type of transparenting. For those states or organizations that signed on only to improve their image, being subject to the more aggressive transparenting processes may be a rough initiation indeed. The EU Commission, for example, decide to drop the planned issuance of a second anti-corruption report, in which many member states were criticized (Nielsen 2017). In another example, Romania and Bulgaria, upon entering the EU, have had to demonstrate their resolve in fighting corruption, and since accession have been subordinated to a special EU monitoring system. Romania’s anti-corruption agency, with strong support from the EU, ended up prosecuting many Romanian politicians, and

48

S. Sampson

without EU support and a mass movement, Romania’s anti-corruption prosecution would have been dissolved (Mungiu-Pippidi 2018; Mendelski 2019; Associated Press 2019). The political aspects of transparenting are most visible when we examine those states that clearly reject such practices. Hence, the anti-corruption campaigns we observe in authoritarian or fragile states, such as those in China, Russia or Central Asia, hardly entail the kinds of soft power transparenting practices utilized by the global anti-corruption industry. Anti-corruption awareness raising is replaced by state surveillance, arbitrary raids, spectacular trials and harsh sentences imposed on low-ranking or politically disgraced officials. In the world of anti-corruption in more open, democratic and developing countries, we have witnessed not only a renewed effort to diffuse standards (partly by the diffusion of indices and rankings), as well as the emergence of more effective means of enforcing these, typically by conditionality of loans. From a governance standpoint, these are regimes of soft power compliance. Instead of coercion, there are policy guidelines and standards which gradually become routinized. These soft power compliance regimes, complete with their associated technologies and moral imperatives, backed by legal sanctions, have now taken over the anti-corruption industry. As the means of demonstrating adherence, transparenting practices are the instrument of these soft-power compliance regimes.

2.1 Transparenting Technologies Transparenting routines include a variety of technologies: these are the generation of statistics, indexes and rankings. Two examples of such technologies are the Corruption Perceptions Index and the World Bank’s State Capture Index. The Corruption Perceptions Index (CPI) was developed almost by accident by Transparency International in 1995 (Lambsdorf 2006). The CPI is an aggregate of other indices which partly relies on perception of foreign businesspeople and local experts. As an index of indices, it is a very abstract measure that compares the level of corruption from one country with another. As a ranking and with its point system, the CPI is often used as a proxy for describing corrupt behavior and the political culture of a given country. In this system of ranks and corruption risks, Australia, New Zealand and the Scandinavian countries invariably rank at the very top (least corrupt), while fragile, impoverished and/or war-town states lie at the very bottom. Despite many critiques of the CPI’s methodology and premises (DeMaria 2008; Galtung 2006; Knack 2006), it is still used as a standard rating

The Morality of Transparency: Clarity versus Emptiness

49

system for ranking countries‘ credit ratings or their acceptance into development programs. Another transparenting technology, much less known, is the World Bank’s State Capture Index, where “state capture” is understood to be the illicit influence over laws or policies, chiefly through bribery of lawmakers or judges (Hellman and Kaufman 2001; Hellman et al. 2003). Essentially, state capture is illegal lobbying. Instead of corrupting laws in their implementation (petty corruption), state capture operates in the very creation of the law or regulation itself. In its rankings of State Capture, the World Bank uses a “Control of Corruption” index that measures how susceptible public officials are to illicit influence at the law-making stage, where grand corruption can occur (World Bank 2019). Today, the transparenting technologies used by TI and the World Bank have spread to development aid organizations. The Swedish Sida and Danish Danida aid agencies both have their own anti-corruption budget lines and anti-corruption units (Sida 2015; Danida 2019). Here the transparenting project operates both in the aid organization’s work abroad and within its own organization. The EU carries out Euro -barometer surveys (European Commission 2019), and the Council of Europe monitors states’ anti-corruption measures through its GRECO monitoring program. Anti-corruption transparenting now operates in humanitarian disaster aid, defence contracting and extractive industries, each of which has their own watchdog groups attempting to shine “flashlights” on opaque or even secretive practices of governments, organizations and private firms. Finally, transparenting has entered the world of global business, in that businesses are more obliged to sign on to ethical principles such as the UN Global Compact (a set of ten ethical business principles, one of which, no. 10, is anti-corruption) and the Global Reporting Initiative2 for sustainability reporting (Arvidsson 2018). Aside from urging organisations and firms to develop their own voluntary transparenting practices, there are also more coercive measures. In Britain, the UK Bribery Act (2010) requires firms to have “adequate procedures” in place in order to avoid being penalized for corruption. These procedures involve codes of conduct and anti-corruption training. Firms must demontrate to the external authorities that these codes are operative and that the training has been carried out. Transparenting routines such as number of participants in training are used as well as measures of number of post-course testing and assessments. Accounting firms and NGOs such as Transparency International act as training specialists,

2https://www.globalreporting.org/Pages/default.aspx. Accessed:

20 May 2019.

50

S. Sampson

helping firms to carry out their own transparenting operations and to demonstrate compliance. Hence, Transparency International UK offers “Adequate Procedures Guidance” to firms (Transparency International 2010). TI-UKs “Adequate Procedures Checklist” has been downloaded over 33.000 times (Transparency ­International 2012). Other anti-corruption organizations and consultants now offer due diligence, risk management, third party risk, and anti-bribery training to governments, aid organizations and private firms working abroad. The size of this anti-corruption industry has been estimated to include several hundred million dollars and perhaps 3000 anticorruption professionals (Michael and Bowser 2010). Leading the pack are the major accounting firms such as PWC and KPMG. The biannual International Anti-Corruption Conference brings together 1500 anticorruption experts and organizations from the public, private and NGO sectors, as well as firms selling anticorruption expertise, training and software. Ethics and compliance firms market themselves as helping firms avoid corruption costs and reputation scandals so that firms do not become “another Enron” or “another Volkswagen”. With anticorruption now a budget line on almost all aid programs, aid recipients must also now give a detailed accounting of their expenses and their anti-bribery safeguards as a condition of most loans, grants and cooperation agreements. More anti-corruption vigilance entails more information, and this information is subjected to transparenting technologies. Donors require more information from NGOs, governments more information from firms, and international organizations want more information from governments. More information needs to be revealed, and an assertive outsider with a vigilant “flashlight” can now discover more of the firm’s internal operations. However, the problem is one of interpreting this decontextualized information (Bernstein 2017). Interpretation requires specialists, and invariably gives rise to contestation over the various agendas that are operating. In the meantime, transparenting tends to cause an inflation in the very nature of the object they are revealing. Hence, the concept of corruption itself has expanded. Once understood as the abuse of power by public authorities for private benefit, corruption is now associated as the abuse of entrusted power, inside a private firm, in a charity or NGO, in a school or public authority.3 Corruption is now simply abuse of any kind of power, authority or trust, and is routinely invoked in condemnations of fraud, embezzlement, nepotism, extortion of bribes,

3www.transparency.org. Accessed:

20 May 2019.

The Morality of Transparency: Clarity versus Emptiness

51

mismanagement, conflict of interest as well as forms of state capture, whereby private actors can influence the passing of laws, regulations or judicial decisions. The conceptual inflation of what constitutes corruption is typical for other moral domains. Similar inflation processes have taken place in what we formerly regarded as human rights, trafficking, or sexual violence (all of which can be defined in narrower or broader terms depending on the context; sexual “violence”, for example, now includes mental violence or digital harassment). This expansion or inflation of key moral domains means whole new sets of actors can now enter the arenas and pursue their agendas using transparenting technologies. But it also means that an organization’s “commitment to fight corruption” becomes more comprehensive and the requirements for transparency that much larger. Organizations or even individuals cannot be certain whether they are acting correctly or complying fully with regulations, standards or moral precepts. These frameworks become increasingly complex and because they are often imported from other domains in decontextualized fashion, there arise struggles over interpretation. Hence the need for expert knowledge to help organisations make the appropriate interpretations and to ensure that everyone understands what is required. The experts can design, implement and assess ever more intricate transparenting routines. More regulations also entail increased risk that certain questionable or illicit internal operations will be inadvertently revealed, uncovered by a curious investigator or journalist or leaked by a naïve employee or disgruntled whistleblower. Ultimately, the obligation for more transparency reinforces the increasing suspicion and distrust that outside stakeholders and the public have toward organisations. The distrust thrives on the paradoxical situation that the obligation to provide evidence that the organization is doing what it purports to be doing is never unequivocally fulfilled. There always seems to be a loose end, a missing statistic, yet another additional piece of the puzzle, yet another possible alternative interpretation by a specialist with an agenda. Transparency, as other authors have noted, intersects with conspiracy (West and Sanders 2003). As transparenting routines are both complicated and risky, the task of telling it like it is requires expert knowledge. In the area of anti-corruption and anti-bribery compliance, dozens of private firms and NGOs compete to help firms navigate the various anti-bribery and ethics laws, regulations, standards and codes and to train staff in how and why to respect their codes of conduct. Their task is to ensure that the firm can readily demonstrate to an external authority that they are respecting the law, making them less liable if one of their employees or sub-contractors is caught bribing a foreign official. Some firms and organizations can effectively outsource their compliance function to these firms or NGOs. They are not simply

52

S. Sampson

public relations firms, training units or NGOs. Rather, they manage the transparenting process so that organizations reveal their operations in such a way so as to preempt the kind of assertive transparenting that might come from the flashlight holder seeking hidden data or the whistleblower. For example, the firm Quality Compliance and Management advertises that “Our solutions are designed to simplify the process and reduce the time you spend filling out forms, reviewing documents and worrying about compliance.”4

2.2 Transparenting and Compliance Transparenting is carried out with a purpose. Organizations may see transparenting as a marketing strategy, seeking to ensure clients, customers and stakeholders that the organization is doing what it says it’s doing. Increasingly, however, transparenting is carried out as an obligation to a higher authority within a compliance regime imposed by some external authority or standard-setting group. These compliance regimes have emerged largely due to scandals and crises in large firms and organizations. In the United States, the Federal Sentencing Guidelines for Corporate Crime (Chap. 8) stipulate that firms punished for financial or corporate crime can be obliged to establish ethics and compliance programs (United States Sentencing Commission 2014). As a result, some of the firms that had once been subjected to the most severe penalties (the Siemens verdict reached 800 million dollars) have now developed the most developed compliance programs (Siemens has hundreds of ethics and compliance officers). How is compliance performed? In effect, companies and organizations comply to a set of standards: goals are agreed upon and set, relevant categories designated, measurements made using indices, and a group of relevant actors—private and public, activists and specialists—is brought “on board”, leading to the neologism “on boarding process”. Standards for fighting corruption, for example, require a definition of corruption that can be measured and a set of baseline standards for how practices such as bribery, nepotism, influence peddling, etc. can be identified and then measured; a typical measurement is a survey of foreign businessmen operating in Country X and how they experience the bureaucracy. Local business owners or import agents can report to researchers about how many bribes they gave. Another possibility is a proxy index: a proxy for “corruption risk”, for example, is the number of permits needed to start a business or import a product;

4https://qcmconsulting.com/. Accessed:

20 May 2019.

The Morality of Transparency: Clarity versus Emptiness

53

more permits are assumed to represent increasing risks of having to bribe. The point here is that the transparenting process required to demonstrate compliance with anti-corruption, while it may appear to be neutral and certainly desirable, is itself full of political agendas and alternative interpretations by various corporate actors, agencies, consulting firms and survey specialists. These various agendas rarely show themselves during the transparenting process; they may be simply concealed. How can firms and organizations be compelled to follow “adequate procedures”, or even their own codes of conduct? How do we know that they have “effective” or “robust” compliance programs, or what the U.S. Government stipulates as a “culture of compliance” (Richards 2003; Snyder 2014; Sampson 2016; United States Sentencing Commission 2014). Actually measuring whether a program is “effective” or “robust”, not to mention whether there is a “culture of compliance”, is subject to innumerable interpretations. What kind of transparenting process would show to others what the firm’s “culture” really is? We know that some performances are intended to reveal an inner state, i.e., to convince others that what they see is what they get; while other performances intend to conceal. To what extent can we be sure that a transparenting process will be revealing and not concealing? The problem of this kind of transparenting process is that ever more disclosure may generate ever more requests for additional data of the “could you do just one more thing…” variety. Instead of being content with the information or assuaging suspicion, there is a request for even more data. Transparenting generates ever more uncertainty, more distrust. It is at this point that transparenting takes on a life of its own. To demonstrate their commitment to compliance, firms and organisations now spend inordinate amounts of time and resources fulfilling ever greater administrative or public demands. Instead of pursuing the culture of compliance, pressures for accountability instead create an “audit culture” characterized by “rituals of verification” (Power 1997; Strathern 2005) The result is an empty organization, what I call Transparency 2, an emptiness that leads to workplace demoralization and employee cynicism. This is the oft-cited “bureaucratization” that employees in so many public sector agencies—teachers, social workers, doctors—are now complaining about, with the corruption and cynicism that follows. Surveillance, monitoring and transparenting begin to form a larger constellation intended to demonstrate adequate “performance”. In academia, to take a typical example, where we are supposed to show our research quality and impact, scientists routinely rewrite or co-author articles in order to increase the number of their publications; other techniques are used to increase article citations, which is a proxy for the “impact” of a work, ultimately measured by an “impact factor”. The publisher

54

S. Sampson

Wiley, for example, offers a “self-promotional author toolkit”, helping researchers increase their impact (Wiley 2019). In this sense, fulfilling compliance demands only intensifies transparenting demands and practices, with the risk that voluntary disclosure is insufficient. There is the threat of transparenting by flashlight or whistleblowing. In social science, practices that take on a life of their own become “institutions”. One sign of the institutionalization of transparenting is the rise of certification techniques to distinguish skilled transparenting experts. Two such certifying organizations are the Society of Corporate Compliance and Ethics (SCCE) and the Ethics and Compliance Initiative (ECI).5 Both these organizations bring together hundreds of ethics and compliance officers from private firms and public organizations. These organizations run training courses, certify members, and provide platforms for those seeking jobs and training in the compliance industry. The work of the ethics and compliance officer is increasingly specialized and sophisticated. They must coordinate all the various laws, regulations and codes to which a firm must comply. They must promote a culture of ethics and compliance among the firm’s employees, its board and its contracting partners. The ethics and compliance officer carries out transparenting both within the firm, telling the employees “who we are”, as well as externally, demonstrating to the public and relevant authorities that the firm or organization is complying with accepted standards, laws and conventions (and cleaning up after embarrassing scandals). Of course, the ethics and compliance officer is not the only firm staffer who does this kind of transparenting work. So does the CEO, the communications officer, and the CSR executive. However, the ethics and compliance officer is the only one responsible for ensuring some kind of harmony between the external regulations imposed on the organization and the internal codes and practices; their transparenting skills must perform to the outside, and they must do all they can to prevent more interventionist transparenting of the “flashlight” type, including whistleblowing.

2.3 Whistleblowing: Renegade Transparenting The transparenting described above has focused on the intentional project of an organization or the assertive project of the outsider seeking to discover ever more hidden information below the surface. Within this matrix lies another channel of

5https://www.ethics.org; https://www.corporatecompliance.org/. Both accessed: 20 May 2019.

The Morality of Transparency: Clarity versus Emptiness

55

transparenting: the whistleblower. The whistleblower is a disillusioned or disloyal employee who reveals organizational secrets to stakeholders, to the public or to the authorities. Some whistleblowers have been driven by higher principles of “the public’s right to know”, while others might be disgruntled workers seeking personal revenge on a workplace or boss. More recently, a new incentive has been added to the whistleblowing equation: reward money. The American whistleblower legislation under the Dodd-Frank Financial Reform Act now rewards whistleblowers with up to 30% of the amount of the firm’s penalty. Since 2010, the Office of the Whistleblower has paid out 254 million dollars in whistleblower “awards” (as they are called), some of them as high as 30 million dollars (U.S. Securities und Exchange Commission 2019). In 2018, the U.S. Securities and Exchange Commission (SEC), which investigates financial crimes such as insider trading or kickbacks, received 5200 such whistleblower complaints (U.S. Securities and Exchange Commission 2018, p. 6). This system could best be described as entrepreneurial transparenting. The U.S. whistleblower incentives have been perceived by firms as an obvious threat to their internal compliance monitoring systems. After all, why should an employee who sees corporate abuse report it to the company ethics officer and get a pat on the back, when the U.S. Office of the Whistleblower will award you millions. The Wall Street Journal warned of a veritable stampede to the SEC once the first multimillion dollar whistleblower payouts are made (Jones 2011). The internet newsletter Compliance Week, whose slogan is: “because bad things happen to good companies”,6 is also concerned about the consequences of the DoddFrank Act, while at the same time encouraging companies to hire compliance experts. The SEC has enacted measures to “incentivize whistleblowers to utilize their companies‘ internal compliance and reporting systems when appropriate,” (U.S. Securities und Exchange Commission 2019). Nevertheless, firms have wellgrounded fears that the whistleblower’s transparenting initiative will disclose organizational secrets to the public. The potential financial rewards of whistleblowing, combined with the requirements for disclosure in this new form of renegade/entrepreneurial transparenting, have led to the emergence of legal assistance firms intent on helping whistleblowers submit their information anonymously and receive their reward. One might term this “transparenting facilitation”. These firms take a percentage of the reward; transparenting has its price. One firm, the Foreign Bribery Reporting

6https://www.complianceweek.com/. Accessed:

20 May 2019.

56

S. Sampson

Center, advertises “If you know of any improper payments, offers, or gifts made by a company to obtain an advantage in a business overseas report it confidentially to our attorneys.”7

3 Conclusions: Intentional, Assertive and Entrepreneurial Transparenting In the world of anti-corruption and corporate ethics, the moral campaign against abuse of authority pursues a transparency agenda by means of transparenting. Transparenting practice involves not only appeals for more transparency, it is also a performative exercise directed at key stakeholders, the skeptical public and supervisory authorities. This voluntary transparenting performance, however, is always threatened by the assertive transparenting of those shining their flashlight through the open window, looking for secrets, or even worse, discovering that there is absolutely nothing there, the emptiness of Transparency 2. Finally, the transparenting landscape includes the renegade transparenting carried out by the whistleblower and their enablers, where the whistleblower is pursuing a moral project or the financial reward of disclosing illicit or corrupt practices in their own organization. A landscape metaphor means that our perceptions change depending on where we position ourselves: in the hills or valleys. The transparenting landscape is similarly complex. It contains moral entrepreneurs, government agencies, suspicious NGOs, and the intermediaries who attempt to curate the transparenting performance. Transparenting has become a new managerial skill set, where experts must decipher interpretations by skeptical outsiders and know the pressures exerted by regulators on firms and organizations. Transparenting specialists must understand the potential audience, assess the risks of opacity, and predict the impact of a transparenting on audiences in the hope that they can finally conclude that “now we know”, and that “there is nothing else left to discover”. In the future, we can predict new kinds of transparenting specialists within firms and public organizations It is not just a matter of “communication”. These skills involve understanding of what should be known about an organization, how it should be known, and the risks of disclosure. It is both disclosure and surveillance.

7http://report-bribery.com/. Accessed:

20 May 2019.

The Morality of Transparency: Clarity versus Emptiness

57

It would be incorrect to simply assume that transparenting has now “arrived” on the scene. It has its own dynamic, or life cycle. We observe more demands for ever more transparency, more appeals that transparenting is not just something that we have to do (compliance). Rather, transparenting becomes a moral imperative, something we ought to do. Transparenting’s moral imperative will lead to more complex systems of accountability, audit and more rituals of verification. The move towards transparenting is our best evidence that trust in organisations and authorities has begun to break down, to be replaced by a system of ever increasing soft controls known as audit, accountability, compliance, and what I call transparenting. That the rogue transparenting whistleblower can now report their own firms to the U.S. authorities and receive millions in reward only confirms this breakdown of organizational commitment and trust. If we are all monitored, if we are all having to report outward and upward, if we are all having to show that we are doing the right things, and if we all risk the disgruntled stakeholder with the transparency “flashlight”, or the angry whistleblower, it must only mean that there is a climate of distrust. With more transparency come more compliance performances and more distrust. Transparency is being replaced by what could best be called a climate of conspiracy, a continual search for more secrets, and more concealed operations. Transparenting activity, whether it derives from the moral mission to disclose, the demands of regulation, the fear of exposure, or the leak of the disgruntled whistleblower, has produced a flood of Transparency 1. With the flood of information, we presumably know more than we ever did about the inner workings of firms and organizations. Areas of operation where there was confidentiality, privacy or secrecy have vanished. Everything seems to be open to scrutiny. Yet there is a dark side to this. As several scholars have pointed out, more information is not necessarily better (Drucker and Gumpert 2007; Etzioni 2010; Flyverbom 2016; Bernstein 2017). In fact, too much information, or too much pressure to produce information, can lead to a transparency of emptiness, what I call Transparency 2. The practices of transparency, in so far as these practices lead actors to avoid or evade revealing the true nature of their organization, have led to more “emptiness” inside organizations. The mission of the organization’s actors is now taken up with reporting to outsiders and superiors, with justifying their very existence. The results are more tedious rituals of verification, more audit culture, increased uncertainty about whether the original mission is being accomplished, and the increased risk of further scrutiny by suspicious outsiders. To contest this scrutiny means risking being accused of being “against transparency”, of not having the proper “culture of compliance” or of having a deficient ethical mindset. Manifestations of this

58

S. Sampson

scrutiny are clear in the increasing anomie at so many workplaces: workers who feel bored, dissatisfied, stressed out or absolutely hostile about their jobs. This state of discomfort is not simply a manifestation of organizational control or surveillance. It is also due to the fact that the control takes place through transparenting processes, with transparenting specialists monitoring the work of front line employees. As transparenting increases, the core of the organization becomes less visible, or simply empty. More transparenting leads to more opacity, contributing to ever more mistrust, suspicion and more control measures. This is one dark side of transparenting. It begins with the search for clarity, but results in the triumph of emptiness. There is, finally, a second dark side of transparenting: surveillance. In authoritarian societies or institutional settings (totalitarian regimes, prisons, etc.), people have always been able to shield themselves from surveillance by creating a private sphere or by dissimulating to authorities: showing one thing while believing another. A fully totalitarian regime attempts to destroy the private sphere; it is transparenting as surveillance. With the triumph of emptiness and the threat of surveillance, we should be monitoring the evolution of the transparenting landscape.

References Alvesson, M. (2014). The triumph of emptiness: Consumption, higher education, and work organization. London: Oxford University Press. Arvidsson, S. (2018). Challenges in managing sustainable business reporting, taxation, ethics and governance. London: Palgrave Macmillan. Associated Press. (2019). EU slams Romanian govt for diluting anti-corruption fight. https://www.apnews.com/777cb6ece098441cb86d596bf63ccd4a. Accessed 20 Febr 2019. Bernstein, E. (2017). Making transparency transparent: The evolution of observation in management theory. Academy of Management Annals, 11(1), 217–266. Birchall, C. (2011). Introduction to ‘secrecy and transparency’: The politics of opacity and openness. Theory, Culture and Society, 28(7–8), 7–25. Buchan, B., & Hill, L. (2014). An intellectual history of political corruption. Basingstoke: Palgrave Macmillan. Comaroff, J., & Comaroff, J. (2003). Transparent fictions; or the conspiracies of a liberal imagination: An afterword. In H. G. West & T. Sanders (Eds.), Transparency and conspiracy: Ethnographies of suspicion in the new world order (S. 287–300). Durham: Duke University Press. Danida [Danish Ministry of Foreign Affairs]. (2019). Transparency/anti-corruption. http:// um.dk/en/danida-en/about-danida/danida-transparency/anti-corruption/. Accessed 10 Apr 2019.

The Morality of Transparency: Clarity versus Emptiness

59

DeMaria, W. (2008). Measurements and markets: Deconstructing the corruption perception index. International Journal of Public Sector Management, 21(7), 777–797. Drucker, S. J. K., & Gumpert, G. (2007). Through the looking glass: illusions of transparency and the cult of information. Journal of Management Development, 26(5), 493– 499. Eigen, P. (2003). Das Netz der Korruption. Frankfurt a. M.: Campus. Etzioni, A. (2010). Is transparency the best disinfectant? Journal of Political Philosophy, 18(4), 389–404. European Commission. (2019). Organised crime & human trafficking: Corruption. https:// ec.europa.eu/home-affairs/what-we-do/policies/organized-crime-and-human-trafficking/ corruption_en. Accessed 20 May 2019. Flyverbom, M. (2016). Disclosing and concealing: Internet governance, information control and the management of visibility. Internet Policy Review, 5(3), 1–11. Flyverbom, M., & Albu, O. B. (2017). Transparency. In C. R. Scott, L. Lewis, J. R. Barker, J. Keyton, T. Kuhn, & P. K. Turner (Eds.), The international encyclopedia of organizational communication (pp. 2427–2436). West Sussex: Wiley-Blackwell. Flyverbom, M., Leonardi, P. M., Stohl, C., & Stohl, M. (2016). The management of visibilities in the digital age. International Journal of Communication, 10, 98–109. Galtung, F. (2006). Measuring the immeasurable: Boundaries and functions of (macro) corruption indices. In C. Sampford, A. Shacklock, C. Connors, & F. Galtung (Eds.), Measuring corruption (pp. 101–130). Aldershot: Ashgate. Garsten, C., & Lindh de Montoya, M. (Eds.). (2008). Transparency in a new global order: Unveiling organizational visions. Cheltenham: Elgar. Han, B.-C. (2015). The transparency society. Stanford: Stanford University Press. Hellman, J, & Kaufmann, D. (2001). Confronting the challenge of state capture in transition economies. Finance and Development, 38(3). https://www.imf.org/external/pubs/ft/ fandd/2001/09/hellman.htm. Accessed 20 May 2019. Hellman, J., Jones, G., & Kaufmann, D. (2003). Seize the state, seize the day: State capture and influence in transition economies. Journal of Comparative Economics, 31(4), 751–773. Hilhorst, D. (2003). The real world of NGOs: Discourses, diversity, and development. London: Zed Books. Ivanov, K. S. (2007). The limits of a global campaign against corruption. In S. Bracking (Ed.), Corruption and development: The anti-corruption campaigns (pp. 28–45). Houndmills: Palgrave Macmillan. Jones, A. (2011). For whistleblower fans, a grim proposal. Wall Street Journal. https:// blogs.wsj.com/law/2011/05/05/for-whistleblower-fans-a-grimm-proposal/. Accessed 5 May 2011. Jörgens, H. (2004). Governance by diffusion: Implementing global norms through crossnational imitation and learning. In W. M. Lafferty (Ed.), Governance for sustainable development. The challenge of adapting form to function (pp. 246–283). Cheltenham: Elgar. Katzarova, E. (2018). From global problems to international norms: What does the social construction of a global corruption problem tell us about the emergence of an international anti-corruption norm. Crime Law and Social Change, 70(3), 299–313.

60

S. Sampson

Katzarova, E. (2019). The social construction of global corruption: From utopia to neoliberalism. Basingstoke: Palgrave Macmillan. Knack, S. F. (2006). Measuring corruption in Eastern Europe and Central Asia: A critique of the cross-country indicators. Policy Research Working Paper, 3968. https://openknowledge.worldbank.org/handle/10986/8377. Accessed 10 Apr 2019. Koivisto, I. (2016). The anatomy of transparency: The concept and its multifarious implications. European University Institute Working Paper, MWP. September 2016. Lambsdorf, J. G. (2006). Measuring corruption—The validity and precision of subjective indicators (CPI). In C. Sampford, A. Shacklock, C. Connors, & F. Galtung (Eds.), Measuring corruption (pp. 81–100). Aldershot: Ashgate. Larmour, P. (2006). Civilizing techniques: Transparency International and the spread of anti-corruption. In B. Bowden & L. Seabrooke (Eds.), Global standards of market civilization (pp. 95–106). London: Routledge. Martinsson, J. (2011). Global norms: Creation, diffusion, and limits. Washington: World Bank. https://openknowledge.worldbank.org/handle/10986/26891. Accessed 20 Apr 2019. Mendelski, M. (2019). 15 years of anti-corruption in Romania: Augmentation. Aberration and Acceleration. https://doi.org/10.13140/RG.2.2.17590.14405. Michael, B., & Bowser, D. (2010). The evolution of the anti-corruption industry in the third wave of anti-corruption work. In D. Schmidt-Pfister & S. Wolf (Eds.), International anti-corruption regimes in Europe—Between corruption, integration, and culture (pp. 159–179). Baden-Baden: Nomos. Mungiu-Pippidi, A. (2018). Explaining Eastern Europe: Romania’s Italian-Style anticorruption populism. Journal of Democracy, 29(3), 104–116. Nielsen, N. (2017). EU Commission drops anticorruption report. EU observer. https://euobserver.com/institutional/136775. Accessed 19 Apr 2019. Osrecki, F. (2015). Fighting corruption with transparent organizations: Anti-corruption and functional deviance in organizational behavior. Ephemera: Theory & Politics in Organization, 15(2), 337–364. Peters, A. (2015). The transparency turn of international law. The Chinese Journal of Global Governance, 1(1). https://cyberleninka.org/article/n/1326074.pdf. Accessed 8 Apr 2019. Peters, A. (2016). The transparency of global governanance. In F. Pazartzis, M. Gavouneli, A., Gourgourinis, & M. Papadaki. (Eds.), Reconceptualising the rule of law in global governance, resources, investment & trade. Oxford: Hart. https://ssrn.com/ abstract=2419019. Accessed 8 Apr 2019. Power, M. (1997). The audit society: Rituals of verification. Oxford: Oxford University Press. Richards, L. (23. April 2003). “The culture of compliance”. Spring Compliance Conference. Tucson: National Regulatory Services. Sampson, S. (1996). The social life of projects: Importing civil society to Albania. In E. Dunn & C. Hann (Eds.), Civil society: Challenging Western models (pp. 121–142). London: Routledge. Sampson, S. (2005). Integrity warriors: Global morality and the anti-corruption movement in the Balkans. In D. Haller & C. Shore (Eds.), Corruption: Anthropological perspectives (pp. 103–130). London: Pluto Press.

The Morality of Transparency: Clarity versus Emptiness

61

Sampson, S. (2009). Corruption and anti-corruption in Southeast Europe: Landscapes and sites. In L. de Sousa, P. Lamour, & B. Hindess (Eds.), Governments, NGOs and anticorruption: The new integrity warriors (pp. 168–185). Abingdon: Routledge. Sampson, S. (2010a). The anti-corruption industry: From movement to institution. Glob Crime, 11(2), 261–278. Sampson, S. (2010b). Diagnostics: Indicators and transparency in the anti-corruption industry. In S. A. Jansen, E. Schröter, & N. Stehr (Eds.), Transparenz: Multidisziplinäre Durchsichten durch Phänomene und Theorien des Undurchsichtigen (pp. 97–111). Wiesbaden: VS Verlag. Sampson, S. (2015a). The audit juggernaut. Social Anthropology, 23(1), 80–82. Sampson, S. (2015b). The anti-corruption package. Ephemera: Theory & Politics in Organization, 15(2), 115–123. Sampson, S. (2016). The ‘Right Way’: Moral capitalism and the emergence of the corporate ethics and compliance officer. Journal of Business Anthropology, 10(5), 65–86. Sampson, S. (2017). Engagements and entanglements in the anthropology of NGOs. In A. Lashaw, C. Vannier, & S. Sampson (Eds.), Cultures of doing good: Anthropologists and NGOs (pp. 1–19). Tuscaloosa: University of Alabama Press. Sampson, S. (2018). Anti-corruption: Who cares. In S. Arvidsson (Ed.), Challenges in managing sustainable business reporting, taxation, ethics and governance (pp. 277–294). London: Palgrave Macmillan. Sida [Swedish International Development Agency]. (2015). How we work. https://www. sida.se/English/how-we-work/approaches-and-methods/our-work-against-corruption/. Accessed 19 Apr 2019. Snyder, B. (9. September 2014). “Compliance is a Culture, Not Just a Policy”. International Chamber of Commerce/United States Council of International Business Joint Antitrust Compliance Workshop. New York: U.S. Department of Justice. Strathern, M. (2000). The tyranny of transparency. British Educational Research Journal, 26(3), 309–321. Strathern, M. (2005). Audit cultures: Anthropological studies in accountability, ethics, and the academy. London: Routledge. Transparency International. (2010). Adequate procedures—Guidance to the UK Bribery Act 2010. https://www.transparency.org.uk/publications/adequate-procedures-guidanceto-the-uk-bribery-act-2010/. Accessed 20 May 2019. Transparency International. (2012). Adequate procedures checklist. https://www.transparency.org.uk/publications/adequate-procedures-checklist-excel/. Accessed 20 May 2019. Tsing, A. (2005). Friction. An ethnography of global connections. Princeton: Princeton University Press. Tsoukas, H. (1997). The tyranny of light. The temptations and the paradoxes of the information society. Futures, 29(9), 827–843. United States Sentencing Commission. (2014). Guidelines. chapter 8. Sentencing of organizations. https://www.ussc.gov/guidelines/2018-guidelines-manual/2018-chapter-8. Accessed 20 May 2019. U.S. Securities and Exchange Commission. (2018). Whistleblower Program. 2018 Annual Report to Congress. https://www.sec.gov/files/sec-2018-annual-report-whistleblowerprogram.pdf. Accessed 10 October 2019.

62

S. Sampson

U.S. Securities and Exchange Commission. (2019). Office of the Whistleblower. https:// www.sec.gov/whistleblower. Accessed 20 May 2019. Vattimo, G. (2007). The transparent society. Cambridge: Polity. West, H. G., & Sanders, T. (2003). Transparency and conspiracy: Ethnographies of suspicion in the new world order. Durham: Duke University Press. Wiley. (2019). Promoting your research with impact—Understanding Journal Metrics and SEO. https://www.wiley.com/network/researchers/promoting-your-article/promotingyour-research-with-impact-understanding-journal-metrics-and-seo-2. Accessed 20 May 2019. World Bank. (2019). The Worldwide Governance Indicators (WGI). https://info.worldbank. org/governance/wgi/#home. Accessed 20 May 2019. Wright, S. (1994). Culture in anthropology and organizational studies. In S. Wright (Ed.), The anthropology of organizations (pp. 1–31). London: Routledge.

Steven Sampson (Prof., PhD) is Professor (emeritus) of Social Anthropology at Lund University, Sweden. He has done research on NGOs, corruption, and ethics and compliance in private firms. Sampson’s recent publications include the book chapters “All that is normal melts into air: rethinking neoliberal rules and deviance” (in Economy, Crime and Wrong in a Neoliberal Era, ed. by J. Carrier) and “Anti-corruption: Who Cares?” (in Challenges in Managing Sustainable Business, ed. by S. Arvidsson).

Wie wird „Entwicklung“ transparent gemacht? Kämpfe um globale Entwicklungsindikatoren Bettina Mahlert

Zusammenfassung

Der Beitrag rekonstruiert exemplarisch einige Etappen der Debatten um globale Entwicklungsindikatoren in einer an Bourdieu angelehnten differenzierungs- und klassentheoretischen Perspektive. Im Vordergrund steht dabei die Frage, welche der konkurrierenden Methoden der Transparentmachung von Entwicklung jeweils aus welchen Gründen erfolgreich waren. Im wissenschaftlichen Kontext wurde ein Überschuss an möglichen Techniken der Transparentmachung von Entwicklung produziert; entscheidend dafür, welche Methoden sich gegen andere durchsetzen konnten, waren jedoch nicht wissenschaftliche Rationalitätskriterien, sondern politische und klassenspezifische Einbindungen.

Abstract

By drawing on a Bourdieusian perspective, the paper discusses some major debates on global development indicators. I explore which of several competing methods, or practices, for making transparent development were successful, and for what reasons. In doing so, I highlight the role of three social contexts of the production of development indicators (science, politics and class), as well as normative references to transparency that have been called upon by competing actors. Economists produced a surplus of techniques for

B. Mahlert (*)  Universität Innsbruck, Innsbruck, Österreich E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 V. August und F. Osrecki (Hrsg.), Der Transparenz-Imperativ, https://doi.org/10.1007/978-3-658-22294-9_3

63

64

B. Mahlert

making transparent development. However, which techniques succeeded did not depend on scientific transparency criteria but followed from political preferences and class interests.

1 Einleitung Forderungen nach Transparenz durchdringen seit einigen Jahren tendenziell alle gesellschaftlichen Bereiche. Dabei sind die durch ein „Mehr“ an Transparenz zu lösenden Probleme zahlreich, und entsprechend unterscheidet sich auch das, was unter Transparenz im Einzelfall verstanden wird (Jansen et al. 2010). Zudem ist die Vorstellung von Problemlösung durch Transparenz nicht neu. Zwar ist der Begriff erst seit einigen Jahren en vogue; viele der heutigen Transparenznormen und -praktiken reichen in ihren historischen Wurzeln jedoch weit zurück (Rzepka 2013). Hood (2006, S. 5–10) unterscheidet drei grundlegende Stränge des Transparenzdenkens vor dem 20. Jahrhundert: die Vorstellung einer regelgeleiteten Verwaltung; die Idee, dass soziale Angelegenheiten generell in einem Stil der Offenheit und Aufrichtigkeit auszuhandeln sind; und die Forderung, dass die Gesellschaft mithilfe wissenschaftlicher, insbesondere quantitativer Methoden, erfassbar, „knowable“ gemacht werden soll. Dabei wurde die letztgenannte Transparenznorm schon früh in einen engen Zusammenhang mit politischen Steuerungsansprüchen gestellt: Bereits im 17. Jahrhundert sammelte William Petty ökonomische Daten mit dem Ziel, politischen Akteuren eine Kontrolle der Wirtschaft zu ermöglichen. Im 19. Jahrhundert wurde in Europa die Statistik in enger Verbindung mit der Herausbildung von Nationalstaaten und wachsenden Ansprüchen auf umfassende politische Gestaltung der Gesellschaft professionalisiert und formalisiert (Desrosières 2005). Es gibt also einen Zusammenhang zwischen nationalen Statistiken als Transparenzpraktiken und der Norm, dass politische Steuerung evidenzbasiert sein muss. Dieser Zusammenhang ist heute allerdings nicht nur in der nationalen Politik fest verankert, sondern auch auf globaler Ebene. Neuere Studien zeigen, wie im 20. Jahrhundert Bestrebungen, die soziale Wirklichkeit statistisch zu erfassen und anhand dieser Informationen politische Entscheidungen zu treffen, in internationalen Organisationen institutionalisiert wurden (z. B. Heintz 2013; Lepenies 2013, 2015; Speich Chassé 2013, 2016). Eine besondere Rolle spielten dabei die Vereinten Nationen (VN). Sie haben seit der Nachkriegszeit internationale Statistiken aufgebaut. Diese bezogen sich zunächst auf ökonomische Prozesse und wurden – allerdings erst deutlich später – auf zahlreiche andere Politikfelder ausgeweitet (Ward 2005). Bei einem

Wie wird „Entwicklung“ transparent gemacht? Kämpfe um globale …

65

großen Teil dieser statistischen Anstrengungen ging es um das politische Ziel der „Entwicklung“ der neu entstandenen Staaten im „globalen Süden“. Durch diesen Problemfokus wurden internationale Statistiken nachhaltig geprägt.1 In der Norm, durch statistisches Wissen effektives politisches Entscheiden zu ermöglichen, manifestieren sich die beiden westlich-modernen Grundwerte von Rationalität und Fortschritt. In der internationalen Entwicklungspolitik geht diese Norm eine besonders deutliche Verbindung mit einem weiteren Leitwert der westlichen Moderne ein, dem des Individualismus bzw. Humanismus.2 Zwar ist der Entwicklungsbegriff ein „contested concept“ und die konkreten von internationalen Organisationen, Staaten und Nichtregierungsorganisationen verfolgten Entwicklungsziele haben im Zeitverlauf stark variiert. Der durch Entwicklungspolitik ultimativ zu realisierende Fortschritt wird jedoch weithin darin gesehen, menschliche Lebensbedingungen zu verbessern – „well-being“ zu ermöglichen, wie immer dies genau bestimmt wird. Entwicklungsindikatoren haben die Funktion, diesen Leitwert in ein für politisches Entscheiden informatives Format zu übersetzen. Sie lassen sich also als Transparenzpraktiken deuten, in denen sich die für die Entwicklungspolitik zentrale Verbindung der drei modernen Leitwerte Rationalität, Fortschritt und Individualismus strukturell realisiert – und immer wieder virulent wird. Wie alle Prozesse der Respezifikation von Werten stellt sich auch die Herstellung und Verwendung von Entwicklungsindikatoren nicht als unproblematischer Übersetzungsvorgang dar. Vielmehr sind Entwicklungsindikatoren seit jeher kontrovers gewesen – nicht zuletzt, weil sie widersprüchlichen Anforderungen an Transparenz genügen müssen. Transparenz kann heißen, weltweite Entwicklungsunterschiede anhand eines einzigen Indikators zu messen; es kann aber auch bedeuten, die Besonderheiten unterschiedlicher Kontexte numerisch abzubilden. Wissenschaftliche Kriterien für Transparenz wie beispielsweise Gültigkeit und

1Die

Forschung zur Geschichte der VN konzentriert sich stark auf den Sicherheitsrat, während die VN selbst in ihrer eigenen Geschichtsschreibung vor allem die Entwicklungspolitik hervorheben (vgl. Speich 2009, S. 159). 2Offiziell zielt die Entwicklungspolitik nicht auf die Durchsetzung einer spezifisch individualistischen Form von Gesellschaftlichkeit, sondern auf die Ermöglichung menschlicher Lebensqualität. Im Ergebnis kommen dabei allerdings oft individualistische Politiken und Normen heraus. In Anlehnung an Parsonsʼ Perspektive wirft dies die Frage auf, ob der Individualismus der eigentliche Wert ist oder die dominante Respezifikation (vgl. Parsons 1991). Die world-polity Forschung deutet weltgesellschaftliche Prozesse und Strukturen als Institutionalisierung der modernen Grundwerte von Rationalität, Fortschritt und Individualismus (vgl. Meyer et al. 1997; vgl. Kron und Horácek 2009; Münch 1998).

66

B. Mahlert

Präzision sind oft nicht zu vereinbaren mit den an Einfachheit orientierten Transparenzbedarfen von Laien und können mit politischen Interessen kollidieren. Schließlich wirft die Suche nach geeigneten Messinstrumenten die grundlegende Frage auf, woran die Qualität menschlicher Lebensbedingungen festzumachen ist. Vor diesem Hintergrund werden im Folgenden einige Etappen der Debatten um Entwicklungsindikatoren als Kämpfe um Methoden der Transparentmachung von Entwicklung rekonstruiert. Welche unterschiedlichen Transparenzangebote hat es gegeben, mit welchen Argumenten haben sich welche Akteure für sie eingesetzt und warum hat sich welches Transparenzangebot durchgesetzt? Ich diskutiere diese Fragen in einer an Bourdieu angelehnten differenzierungstheoretischen Perspektive. Diese ist aus zwei Gründen einschlägig. Erstens greift sie die in diesem Sammelwerk zentrale Unterscheidung von Normen und Strukturen der Transparenz auf. Als strukturelle Aspekte werden die sozialen Kontexte in den Blick genommen, in denen Entwicklungsindikatoren hergestellt und debattiert werden (Wissenschaft, Politik, Klassenstruktur). Als ultimative normative Bezugspunkte fungieren in diesen Debatten, wie eben beschrieben, die westlich-modernen Leitwerte Rationalität, Fortschritt und Individualismus/ Humanismus. Zweitens ist Bourdieus Perspektive deswegen einschlägig, weil sie deutlich unterscheidet zwischen wissenschaftlicher Rationalität und der „Logik“ von Macht und Interessen. Dies eröffnet die Möglichkeit, der wissenschaftlichen Rationalität ein Eigengewicht einzuräumen, wenn erklärt werden soll, welche Methoden der Transparentmachung von Entwicklung sich durchgesetzt haben und welche nicht. Eine solche Perspektive kann die vorhandene Literatur sinnvoll ergänzen, da hier globale Indikatoren und Transparenztechniken vorwiegend als Instrumente des Regierens und der effektiven Machtausübung analysiert worden sind (Davis et al. 2012; Garsten und Lindh de Montoya 2008; Hood und Heald 2006; Merry 2011; Rottenburg et al. 2015). Der folgende Abschnitt rekapituliert zunächst zentrale Einsichten der Quantifikationsforschung in den Zusammenhang von „Zahlen“ und Transparenz/ Intransparenz. Auf dieser Grundlage wird weiterhin Bourdieus differenzierungstheoretische Perspektive genauer vorgestellt (2). Die darauffolgenden Abschnitte wenden sich drei Etappen in der Diskussion um Entwicklungsindikatoren zu. Dabei handelt es sich um die Debatten über das Pro-Kopf-Einkommen (BIP) und die ihm zugrunde liegende volkswirtschaftliche Gesamtrechnung in den späten 1940er Jahren (3); die Diskussionen um das Grundbedürfniskonzept und entsprechende Indikatoren in den 1970er und 1980er Jahren (4) sowie den vom United Nations Development Programme (UNDP) 1990 eingebrachten Human Development Index (HDI) einschließlich des Capability-Ansatzes als seiner konzeptionellen Grundlage (5–6).

Wie wird „Entwicklung“ transparent gemacht? Kämpfe um globale …

67

2 Zahlen als Praktiken der (In)Transparenz Einer zentralen These zufolge erzeugen Zahlen3 Transparenz lediglich als Fiktion oder Illusion (Hansen und Porter, 2012). Mit spezifischem Bezug auf politische Prozesse spricht Mayntz (2017) von einem Quantifizierungsdilemma: „Zählen und Messen“ verleihe Sicherheit und erleichtere damit das Entscheiden; die Sicherheit sei jedoch nur scheinbar. Zahlen, so eine weithin geteilte Annahme, umgibt eine Aura der Objektivität. Aufgrund dieser Aura können sie leichter als sprachliche Kommunikation soziale Akzeptanz herstellen und eignen sich daher als „technologies of persuasion“ (Porter 1995). Auf der Aura der Objektivität, nicht auf einer tatsächlich objektiven Darstellung der Realität beruht in dieser Sichtweise ihr Erfolg als Instrumente der Transparenz. Die Herstellung der Objektivitätsaura erzeugt jedoch notwendiger Weise Intransparenz. Hier gilt, was verschiedentlich als zentrales dynamisches Element der westlichen Moderne beschrieben wurde: Wissen und Nichtwissen werden aneinander gesteigert (Münch 1998, S. 21). Dabei bleibt das Nichtwissen so lange latent – und damit die Fiktion intakt –, als die Zahlen nicht infrage gestellt werden (Heintz 2008, S. 120 f.). Inwiefern handelt es sich jedoch um eine Fiktion? Worin besteht die von Statistiken hergestellte Intransparenz? Dieser Effekt wird zunächst einmal auf den hohen Abstraktionsgrad von Zahlen zurückgeführt. Statistiken erfassen nur ein Merkmal der von ihnen gemessenen Entitäten und abstrahieren von allen übrigen Eigenschaften. Die formalisierte Darstellung eines Merkmals durch eine Zahl ist selbst hoch abstrakt (Espeland und Stevens 2008). Als Maß für die Produktivität eines Landes repräsentiert das BIP in einer einzigen Zahl Myriaden von Prozessen der Herstellung, der Vermarktung und des Verkaufs von Gütern und Dienstleistungen und der Bereitstellung staatlicher Leistungen. Von der besonderen Eigenart dieser Prozesse, beispielsweise von den Arbeitsbedingungen derer, die

3Mit

„Zahlen“ sind hier quantifizierte Werte gemeint, die sich auf eine externe Realität beziehen, beispielsweise Statistiken, Indikatoren oder Indizes. Demgegenüber verweisen in der modernen Mathematik „Zahlen“ auf andere Zahlen; sie sind rein mathematikintern definierte Zeichen (Heintz 2010, S. 172 f.). Rottenburg et al. (2015, S. 2) sprechen von einem „Feld der numerischen Repräsentation“, das verschiedene elementare Formen des Zählens und Messens sowie zahlreiche zunehmend ausgefeilte Techniken der mathematischen Aggregation umfasse. Indikatoren und Indizes werden hier, dem Sprachgebrauch in der Entwicklungsforschung bzw. -politik folgend, verstanden als statistische Parameter, die ein theoretisches Konzept operationalisieren; zwischen beiden wird hier nicht systematisch unterschieden.

68

B. Mahlert

daran beteiligt sind, wird dabei zwangsläufig abstrahiert – wie auch von allem, was sonst noch in dem gegebenen Zeitraum auf dem Territorium des betreffenden Landes geschehen ist – von kriegerischen Auseinandersetzungen oder umgekehrt Versöhnungsprozessen bis hin zu wissenschaftlichen Entdeckungen. Wenn solche Indikatoren verwendet werden, um Einheiten miteinander zu vergleichen, tritt deren Besonderheit in den Hintergrund – dies ist aber gleichzeitig die Bedingung für die Übersichtlichkeit des Vergleichs.4 Ein internationaler Vergleich von Ländern anhand ihres Pro-Kopf-Einkommens kann auf einem Blatt Papier abgebildet werden. Dabei wird jedoch dem Betrachter die weltweite Diversität wirtschaftlicher Praktiken nicht aufgezeigt. Es besteht also ein gewisser trade-off zwischen zwei Aspekten von Transparenz: Übersichtlichkeit kann nur unter Einbußen an Sichtbarkeit hergestellt werden, jedenfalls wenn damit eine möglichst vollumfängliche „Einsichtnahme“ gemeint ist (Heßling 2006). Zwar ist es nicht der Sinn von Statistik, die soziale Realität vollumfänglich abzubilden. Jedoch werden Zahlen „in der Regel für die Sache selbst gehalten. ‚What is counted usually counts‘“ (Heintz 2010, S. 170; vgl. Miller 2001, S. 382; Mayntz 2017, S. 3). Dies kann dazu führen, dass Realitätsaspekte nicht wahrgenommen werden, obwohl sie im gerade gegebenen Kommunikationszusammenhang wichtig wären. Beispielsweise besteht in der globalen Entwicklungspolitik seit langem Konsens, dass Armutsbekämpfungsprogramme nur erfolgreich sein können, wenn sie auf den Fähigkeiten und Ressourcen ihrer Zielgruppen aufbauen. Ebenso verbreitet ist jedoch die Auffassung, dass diese Einsicht bis heute nicht effektiv umgesetzt wird. Zu diesen Schwierigkeiten könnten globale Armutsstatistiken beitragen. Sie messen ausschließlich Deprivationen und abstrahieren von allen weiteren Merkmalen der betreffenden Personen. Genau das, was erkannt werden müsste, um den statistisch erfassten Mangel zu mindern – vorhandene Fähigkeiten und Ressourcen der „Armen“ – bleibt also unsichtbar. Ihnen statistisch Sichtbarkeit zu verleihen, könnte eine Voraussetzung dafür sein, dass internationale Organisationen, NGOs und Geberländer sie systematisch einbeziehen, wenn sie Armutsbekämpfungsprogramme entwickeln (Mahlert i. E.). Die Tendenz, statistische Repräsentationen für die Sache selbst zu halten und sie damit zu reifizieren, kommt auch dadurch zustande, dass die in sie eingegangene Selektivität intransparent bleibt. Statistische Daten sind das Resultat mehrerer Entscheidungen, von denen jede voraussetzungsvoll und kontingent ist (Heintz 2010, S. 169 f.). Diese reichen von der Auswahl der zu messenden Einheiten anhand spezifischer Kategorien über die Selektion von Vergleichskriterien und Maßen

4Vgl.

zu Zahlen als Vergleichsoperationen Heintz (2010, 2013, 2016).

Wie wird „Entwicklung“ transparent gemacht? Kämpfe um globale …

69

bis zur Auswahl von Verfahren der Datenerhebung sowie ihrer mathematischen Verarbeitung. Aufgrund dieser Selektivität wohnt Statistiken eine spezifische Perspektivität inne, die jedoch in ihrer schlussendlichen Präsentation nicht mit dargestellt wird oder allenfalls im „Kleingedruckten“ technischer Anhänge. Erst die Ausblendung all dieser Selektionen erzeugt jedoch den Eindruck von Objektivität. Dabei zeigen zahlreiche Studien, dass der durch Ausblendung der statistischen Selektivität erzeugte Objektivitätscharakter mit der Zeit zunimmt. So bezogen sich Medienberichte über den Human Development Index in den ersten Jahren nach seiner Erstveröffentlichung noch auf den Index selbst und diskutierten seine Gültigkeit kritisch. Nach einigen Jahren wurde der HDI jedoch vorwiegend als objektive Darstellung des Entwicklungsstandes spezifischer Länder herangezogen (Davis et al. 2012, S. 97). Die zahlreichen, hier nur schlaglichtartig wiedergegebenen Einsichten in den untrennbaren Zusammenhang von Transparenz und Intransparenz, Wissen und Nichtwissen sollten jedoch nicht dazu verführen, jede durch Statistiken hergestellte Transparenz als gleichermaßen fiktiv zu begreifen. Die mit der Herstellung und Verwendung von Statistiken befassten Experten kennen die in der Quantifikationsforschung aufgezeigten Dilemmata üblicherweise und haben Meinungen über die Stärken und Schwächen unterschiedlicher Weisen des Umgangs damit (vgl. z. B. Mugler 2015). Keine Ökonomin würde negieren, dass die für die Herstellung eines Entwicklungsindikators notwendige Auswahl von Kategorien, Vergleichskriterien und Erhebungsverfahren auf kontingente Weise erfolgt, aber es werden Argumente für oder gegen unterschiedliche Parameter und damit Formen der Selektivität geltend gemacht. Diese Argumente beziehen sich auf unterschiedlichste professionelle Gütekriterien wie beispielsweise Gültigkeit, Zuverlässigkeit, Konsistenz, Nichtmanipulierbarkeit oder Nutzerfreundlichkeit (vgl. McGranahan 1972; Sumner 2006, S. 55). Bourdieu nimmt diese Gütekriterien – die professionellen Transparenznormen – soziologisch ernst. Er beschreibt wissenschaftliche Disziplinen bekanntlich als Felder, d. h. als Arenen, in denen Akteure nach bestimmten Regeln um Macht und Einfluss kämpfen (Bourdieu 1998). Diese Regeln – disziplinspezifische Normen – benennen Kriterien für die Wahrheitsfähigkeit von Argumenten, sodass nicht Beliebiges „ins Feld geführt“ werden kann. Wissenschaftler kämpfen um Einfluss und Reputation – aber erfolgreich können sie dabei nur sein, wenn sie wissenschaftlich überzeugen. Wissenschaftliche Regeln transformieren „soziale Interessen“ in Erkenntnisinteressen (Bourdieu 1991, S. 375). Für jede einzelne Wissenschaftlerin mag dies einschränkend wirken; für die Wissenschaft als Ganze werden wissenschaftliche Regeln jedoch zum Motor des Erkenntnisfortschritts. Der Zwang zum guten Argument steigert in Kombination

70

B. Mahlert

mit egoistischen Reputationsinteressen die Güte wissenschaftlicher Leistungen (vgl. Kieserling 2004). An dieser Stelle denkt Bourdieu nicht nur an wissenschaftliche Wahrheiten, sondern, durchaus aufklärerisch, an Vernunft in einem breiten Sinne. Wissenschaftler gelten ihm als Instanzen, die sich zugunsten der Umsetzung universeller Werte einsetzen können, einschließlich auch entwicklungspolitisch zentraler Leitwerte wie dem des Individualismus. Sie können wahrheitsfähige Argumente darüber machen, was geboten ist, wenn menschliche Lebensbedingungen in konkreten Kontexten verbessert werden sollen. Sie können Wissen darüber bereitstellen, wie Qualität menschlicher Lebensbedingungen möglichst adäquat zu messen und wie sie für entwicklungspolitisches Entscheiden transparent zu machen ist.5 All dies ist jedoch kein Automatismus, sondern hängt am Grad der Autonomie des betreffenden wissenschaftlichen Feldes. Eine schwache Ausdifferenzierung gegenüber anderen sozialen Kontexten kann die wissenschaftliche Rationalität beeinträchtigen (Bourdieu 1991). In Debatten über Entwicklungsindikatoren ist die Entwicklungsökonomie führend. Hier stellt sich zweifellos die Frage nach Autonomie im Verhältnis zur Politik, ist doch bereits die Problemstellung der Entwicklungsökonomie politisch abgeleitet. Internationale Organisationen und ihnen nahestehende Institute bilden den wichtigsten Produktionsort von Entwicklungsstatistiken. Das wissenschaftliche Personal relevanter VN-Unterorganisationen wie dem United Nations Statistical Office wird dabei von den Mitgliedsstaaten entsendet. Unter diesen Bedingungen liegt es nahe, dass politische Interessen anstelle wissenschaftlicher Rationalität (mit)bestimmen, welche „Evidenzbasis“ letztlich für entwicklungspolitisches Entscheiden bereitgestellt wird.6 Ob dies tatsächlich der Fall ist, ist jedoch empirisch festzustellen. Ähnlich kann wissenschaftliche Rationalität durch Interessen eingeschränkt werden, die Wissenschaftler ihrer Klassenzugehörigkeit verdanken. Klasseninteressen werden insbesondere dann zu (Mit-)Determinanten wissenschaftlicher

5Siehe

beispielsweise Bourdieus Ausführungen zu demokratischer Partizipation in den „Meditationen“ (Bourdieu 2001b, S. 84 ff.). 6So bilanziert der UN-Statistiker Ward mit Blick auf die Entscheidung, das United Nations Statistical Office politisch zu besetzen: „… it was left to the countries themselves to adopt what strategies and priorities they deemed most appropriate, i.e., to decide on „what“ to do, but left to the experts to advise on the best statistical methodology to use, i.e., „how“ to do it“ (Ward 2005, S. 187). Zu transnationalen (politischen) Feldern siehe Go und Krause (2016) und Schmidt-Wellenburg und Bernhard (2014) (insbesondere darin den Aufsatz von Vauchez zu transnationalen Feldern als schwachen Feldern). Speziell zur Entwicklungsökonomie siehe Fourcade (2006), sowie zu politischen Feldern Bourdieu (2001a).

Wie wird „Entwicklung“ transparent gemacht? Kämpfe um globale …

71

Darstellungen, wenn Forschungsthemen Werte wie Gleichheit oder Gerechtigkeit berühren. Kulturelle Eliten bekennen sich zu diesen Werten und nehmen sie gerne für sich in Anspruch. Sie haben jedoch kein Interesse daran, sich für ihre konsequente Realisierung einzusetzen, da dies ihre privilegierte Position gefährden könnte. Deshalb neigen sie – unbewusst – dazu, die betreffenden Werte auf subtilen Ebenen so zu interpretieren, dass dies ihre eigene Klassenposition und die damit gegebene Weltsicht bestätigt und unterstützt (Bourdieu 2001b). Beispielsweise – so werde ich weiter unten argumentieren – könnten Entwicklungsökonomen durch ihre Interessen als globale Eliten dazu verleitet werden, weltweite Ungleichheiten („Entwicklungsunterschiede“) auf ideologische Weise transparent machen: Sie könnten diese Ungleichheiten numerisch abbilden, aber dabei von ihren sozialen Ursachen abstrahieren. Dadurch würde vielleicht, so der wie immer unbewusst zugrunde liegende Gedanke, die Idee gar nicht erst aufkommen, diese Ursachen politisch zu adressieren. Fehlende Autonomie einer wissenschaftlichen Disziplin gegenüber der Klassenstruktur kann sich aber noch auf andere Weise manifestieren. Wissenschaftler könnten diese Klassenstruktur selbst dann bestätigen, wenn sie darin untergeordnete Positionen einnehmen, einfach weil sie in diese Klassenstruktur und die damit einhergehenden (symbolischen) Klassenkämpfe so tief verstrickt sind (vgl. Bourdieu 1987). Im hier gegebenen Falle kann dies bedeuten, dass Entwicklung ausschließlich an institutionalisierten Strukturdimensionen globaler Ungleichheit abgelesen wird (Bildung, Einkommen), während andere mögliche Dimensionen menschlicher Lebensqualität (soziale Zugehörigkeit, politische Freiheit, Dankbarkeit) nicht transparent gemacht werden. Zusammenfassend kann festgehalten werden, dass Bourdieu wissenschaftliche und politische Rationalität sowie die mit der Klassenzugehörigkeit verbundenen Interessen deutlich voneinander unterscheidet. Hinsichtlich der Debatten über Entwicklungsindikatoren eröffnet sich damit die Frage, welche dieser Rationalitäten hier jeweils leitend war.

3 Die Institutionalisierung des Pro-KopfEinkommens als globaler Entwicklungsindikator In der ersten Nachkriegsdekade etablierten die Vereinten Nationen eine Methode der Transparentmachung von Entwicklung, die bis heute weltweit dominiert: Sie bauten ein internationales statistisches System auf, das jedes Land anhand der volkswirtschaftlichen Gesamtrechnung vermisst („system of national accounts“). Dabei handelt es sich um ein komplexes Buchhaltungssystem, das die in einem

72

B. Mahlert

Land stattfindenden ökonomischen Aktivitäten während einer Zeitperiode erfassen soll. Den zentralen Parameter bildet dabei das Bruttoinlandsprodukt (BIP) bzw. das BIP-pro-Kopf-Einkommen oder die Wachstumsrate, eine Kennzahl für die Produktivität der nationalen Ökonomie.7 Das BIP avancierte schnell zum globalen Entwicklungsindikator. Drei Merkmale zeichnen diese Transparenztechnik aus: Es handelt sich um ein internationales statistisches System, d. h. Länder bilden die basalen Einheiten; der Entwicklungsstand aller Länder wird anhand eines einheitlichen Indikators gemessen und damit numerisch vergleichbar gemacht; ein ursprünglich für industrialisierte Ökonomien westlichen Typs entwickeltes statistisches System wird auf ganz andersartige Verhältnisse übertragen. In den späten 1940er Jahren war diese Lösung innerhalb der Ökonomie noch keineswegs etabliert. Die VN griffen im Wesentlichen auf die Einzelleistung des Ökonomen Colin Clark zurück, der kurz zuvor die weltweit erste Studie ökonomischer Entwicklung auf der Basis der volkswirtschaftlichen Gesamtrechnung vorgelegt hatte. Die meisten Ökonomen sahen die von Clark postulierte Transparenz als fiktiv an. Alternative Methoden wurden zeitgleich ausprobiert und diskutiert, konnten sich jedoch, wie unten erläutert wird, aus politischen Gründen nicht durchsetzen. Massive Zweifel richteten sich angesichts der Andersartigkeit ökonomischer Prozesse in Afrika und Asien auf die Gültigkeit der dort erhobenen Daten und auf die Angemessenheit basaler Kategorien, beispielsweise der des (privaten) Haushaltes.8 Auch wurde bestritten, dass die volkswirtschaftliche Gesamtrechnung die „richtigen“ Aspekte der Realität transparent machte. Man wisse bereits, dass es arme und reiche Länder gebe; die genauen Unterschiede in Termini des BIP seien nicht weiter informativ. Ein soziologisch interessantes Argument kam von Dudley Seers: Für die Transformation nicht-monetarisierter Wirtschaften sei die Veränderung von Institutionen der entscheidende Aspekt. Die volkswirtschaftliche Gesamtrechnung habe jedoch ein konstantes Institutionenset in ihren Kategorien inkorporiert und invisibilisiere daher die lokalen Dynamiken von Entwicklung. Nach Seers bildet eine Institutionenanalyse eine überlegene Alternative, um Entwicklung als Prozess transparent zu machen (Speich Chassé 2016, S. 16 f.). Ein anderer Vorschlag wurde prominent von Kuznets vertreten: Für jede

7Bis

in die 1990er Jahre wurde das Bruttosozialprodukt (BSP) verwendet; die methodischen Unterschiede zwischen diesen beiden Indikatoren sind hier jedoch nicht wichtig. 8Die folgenden Ausführungen basieren auf Speich (2009, 2011) und Speich Chassé (2016).

Wie wird „Entwicklung“ transparent gemacht? Kämpfe um globale …

73

raumzeitliche Einheit sollte man ein eigenes statistisches System entwickeln, da soziokulturelle Besonderheiten beachtet werden müssten (Speich Chassé 2016, S. 12 f.). Dabei experimentierten Ökonominnen bereits mit innovativen Methoden, um nicht-monetarisierte Prozesse zu messen; so wurde versucht, den Beitrag unbezahlter weiblicher Arbeit zum Nationaleinkommen anhand von Brautpreisen zu schätzen. Dass sich trotz dieser Vorbehalte und Alternativangebote das „system of national accounts“ durchsetzte, lag unter anderem daran, dass es den unter politischen Gesichtspunkten entscheidenden Realitätsaspekt transparent zu machen versprach: Die volkswirtschaftliche Gesamtrechnung identifiziert das BIP als eine Stellschraube, mit der der Gesamtzusammenhang einer nationalen Ökonomie politisch beherrscht werden kann. Das in die volkswirtschaftliche Gesamtrechnung eingelagerte Versprechen von politischer Machbarkeit hatte angesichts der damals von allen maßgeblichen Akteuren wahrgenommenen Dringlichkeit so genannter nachholender Entwicklung eine große Bedeutung (Lepenies 2015; Speich Chassé 2016). Für postkoloniale Eliten bot das Versprechen einer raschen Wohlstandssteigerung eine wichtige Legitimationsgrundlage. Im sich zunehmend verfestigenden Ost-West-Konflikt versuchten die Supermächte, die Bevölkerungen der „Dritten Welt“ durch wirtschaftlich-technische und politische Unterstützung auf ihre Seite zu ziehen. Insgesamt war vor dem Hintergrund der Verwerfungen der Weltwirtschaftskrise und des nachfolgenden Krieges die Sorge verbreitet, dass das globale Wohlstandsgefälle den Weltfrieden gefährden könnte. Wie unterschiedlich die Motive auch waren – alle beteiligten Akteure einte der Bedarf nach einer zuverlässigen Wissensgrundlage, auf deren Basis ein Prozess beschleunigter nachholender Entwicklung effektiv eingeleitet und gesteuert werden konnte. Dabei schien die Effektivität der volkswirtschaftlichen Gesamtrechnung durch vorherige Anwendungen bestätigt (Lepenies 2013, 2015). Zunächst hatten staatliche Institutionen in den USA das BIP im Rahmen ihrer Kriegsplanung verwendet, um die Produktion von Rüstungsgütern zu kontrollieren. Die gesamte Kriegsplanung der USA war auf Wachstum ausgerichtet und das BIP fungierte dabei als wichtige Messgröße, die zeigen konnte, dass die geplante Produktion von Rüstungsgütern realisiert wurde. Nach Kriegsende wurde fortgesetztes Wirtschaftswachstum aus anderen Gründen als wichtig erachtet: In den USA sollte es den heimkehrenden Soldaten eine Integration in die Wirtschaft ermöglichen. In Europa begann man im Rahmen des Wiederaufbaus Länder anhand ihres BIP zu vergleichen. Als die materiellen Lebensstandards hier in einer zuvor nie da gewesenen Geschwindigkeit stiegen, wurde dies als Beweis für die politische Effektivität der volkswirtschaftlichen Gesamtrechnung gelesen. Unter diesen

74

B. Mahlert

Umständen war es naheliegend, auf die Daten der oben erwähnten weltweiten Studie des Ökonomen Colin Clark zurückzugreifen, um einen Prozess „nachholender Entwicklung“ in den Ländern des „globalen Südens“ anzukurbeln. Die ökonomische Profession wurde bereits in den späten 1940er Jahren von diesen Entwicklungen überrollt. Als sich der Konsens über den fiktiven Charakter der vom „system of national accounts“ postulierten Transparenz herausschälte, war dieses bereits in der politischen Praxis etabliert. So argumentierte ein Teilnehmer 1947 auf der Jahreskonferenz der Econometric Society: „These figures have been produced and people use them. They will continue to be produced, and people will continue to use them. If we were starting afresh, I would have a great deal of sympathy with what has been said about not using a single figure, and not even producing one. But the way the thing stands now is that in every governmental problem where a multiplicity of regions or countries is involved, national income figures are used … And every international organization that has been formed has used national-income statistics in one way or another. Therefore, I think the statistician cannot bury his head in the sand in this matter. He should know the practical politicians will use his results and probably will misuse them. And therefore I do believe that it is imperative to make the best single figure that is possible and to use a few very simple rules for its application.“ (zitiert in Speich 2011, S. 18)

Im Ergebnis wurde dieser Marschroute in den nachfolgenden Jahren gefolgt. Damit avancierte aus politischen Gründen eine Minderheitenposition zur dominierenden Methode der Transparentmachung von Entwicklung. Welche Rolle spielte jedoch in diesem Zusammenhang die globale Klassenstruktur? Diesbezüglich ist es zunächst bemerkenswert, dass nachholende Entwicklung überhaupt zu einer globalen Norm geworden war, also auch die politisch und ökonomisch weit überlegenen Länder des globalen Nordens sich zumindest auf der Ebene von Lippenbekenntnissen für mehr globale Gleichheit einsetzten (vgl. Go 2008). Mit der Etablierung des „system of national accounts“ erfolgte die Respezifikation dieses normativen Bezugspunkts jedoch in einer „methodologisch nationalen“ Weise: Die basalen Einheiten dieses statistischen Systems bilden nationale Ökonomien; ein globaler Zusammenhang wird nicht abgebildet (vgl. Heintz 2013). Globale Verflechtungen und internationale Institutionen wie beispielsweise Welthandelsregime, die weithin als Reproduktionsmechanismen globaler Ungleichheiten gelten, bleiben unsichtbar. Dieses atomistische Design legt eine Zurechnung von „underdevelopment“ auf die betreffenden Länder selbst nahe. Insofern Entwicklungsdefizite nicht als kollektiv-globales Macht- und Verteilungsproblem sichtbar gemacht werden, sondern als Problem des betreffenden

Wie wird „Entwicklung“ transparent gemacht? Kämpfe um globale …

75

„Entwicklungslandes“, ist das „system of national accounts“ ideologisch: Es repräsentiert globale Ungleichheiten und legitimiert sie zugleich. In den nachfolgenden Debatten um Methoden der Transparentmachung von Entwicklung kamen die beiden oben genannten Alternativen von Seers und Kuznets nicht mehr als ernsthaft konkurrierende Angebote vor, wenn auch das von Kuznets angesprochene Problem der Kontextvariabilität immer wieder virulent wurde. Als Umgangsweise damit kam jedoch nicht der Verzicht auf internationale Standardisierung infrage. Wie ich nachfolgend zeigen will, bestand eine wiederholt angebotene Lösung darin, den weltweiten Vergleich auf die Messung von Grundbedürfnissen zu beschränken, denen am ehesten universelle Bedeutsamkeit zugeschrieben werden konnte.

4 Vom Pro-Kopf-Einkommen zu Grundbedürfnissen In der Nachkriegsperiode spielte eine Frage noch keine Rolle, die heute die Debatten um das Pro-Kopf-Einkommen prägt: ob dieser Indikator menschliche Lebensqualität – das eigentliche Ziel von Entwicklung – transparent machen kann. Die entscheidende Herausforderung, mit der sich die neu entstehende Disziplin der Entwicklungsökonomie in den ersten Jahren befasste, bestand in der Anwendung der volkswirtschaftlichen Gesamtrechnung auf die ganz anderen Verhältnisse in Afrika und Asien. Die Verbesserung der Lebensbedingungen wurde dabei als Nebenprodukt der Kontrolle des in der volkswirtschaftlichen Gesamtrechnung abgebildeten gesamtökonomischen Funktionszusammenhangs gesehen (Finnemore 1996, S. 101 f.). Das BIP konnte deshalb als Indikator für Wachstum und für die Verbesserung von Lebensbedingungen zugleich fungieren. Dies änderte sich jedoch ein Jahrzehnt später. Im Rahmen der von den VN ausgerufenen „Entwicklungsdekade“ wurden in den 1960er Jahren verschiedene Sozialdaten (Lebenserwartung, Schulbesuch, Zugang zu sanitärer Versorgung …) sowie Daten zu Beschäftigung und Einkommensverteilung gesammelt. Diese zeigten, dass in vielen Ländern trotz Wachstums breite Bevölkerungsgruppen in extremer Armut lebten und sich ihre Lebensbedingungen teilweise sogar verschlechtert hatten. Offenbar funktionierte der „trickle-down“-Effekt nicht, dem zufolge die sich im Zuge des Wachstums einstellenden Einkommenszuwächse auf alle Bevölkerungsgruppen verteilen würden. Die Gültigkeit der betreffenden Daten war allgemein anerkannt, und so schlugen die International Labour Organization (1976) und andere Institutionen quasi zeitgleich neue Entwicklungsstrategien vor, die jeweils die

76

B. Mahlert

Befriedigung von Grundbedürfnissen zum wichtigsten Ziel erklärten (vgl. Jolly et al. 2005, S. 68 ff.). Diese Idee wurde rasch von der Weltbank und zahlreichen Geberländern aufgenommen und so avancierte das Grundbedürfniskonzept in den späten 1970er Jahren zur neuen Leitidee der Entwicklungspolitik (vgl. Keeton 1984). Unter anderem an der Weltbank tätige Ökonomen forderten, dass sich diese Strategie auch auf der Ebene statistischer Messung niederschlagen müsse. In einer einflussreichen Publikation begründen sie diese Auffassung genauer (Streeten et al. 1981). Die dabei verwendeten Argumente beziehen sich auf zwei Aspekte. Zum einen machte das BIP nicht transparent, ob in einem Land Entwicklungsprozesse stattfanden, da es ja offenbar erhebliches ökonomisches Wachstum geben konnte ohne eine Verbesserung menschlicher Lebensbedingungen. Zum anderen, und auf einer pragmatischen Ebene, erzeugte die volkswirtschaftliche Gesamtrechnung Intransparenz, weil sie das „eigentliche“ Ziel von Entwicklung nicht vergegenwärtigte. Hier beobachten die Weltbankökonominnen den in der Quantifikationsforschung vielfach hervorgehobenen Reifikationseffekt nach dem Motto „what is counted usually counts“ (Miller 2001, S. 382). Entwicklungspolitische Akteure seien verwickelt worden in Auseinandersetzungen mit den „intricacies of means – production, productivity, savings ratios, export ratios, capital-output ratios, tax ratios, and so on … They came near to being guilty, to borrow a term from Marx, of ‚commodity fetishism‘“ (Streeten et al. 1981, S. 21). „Abstraktionen“ wie Geld, Einkommen oder Beschäftigung, so die Autoren und Autorinnen, erfüllten zwar eine wichtige Funktion für entwicklungspolitisches Entscheiden und sollten beibehalten werden. „[B]ut they are useless if they conceal the specific, concrete objectives that are sought“ (ebd., Hervorhebung BM). Das Grundbedürfniskonzept wird hier als eine Lösung gesehen, weil es den Fokus direkt auf grundlegende, konkrete und zugleich relativ konsensfähige Ziele von Entwicklung lenkt: „First, and most important, the basic needs concept is a reminder that the objective of the development effort is to provide all human beings with the opportunity for a full life. However a ‘full life’ is interpreted, the opportunity for achieving it presupposes meeting basic needs. Being clear about the end obviously does not mean neglecting the means: on the contrary, it means efforts are directed to choosing the right means for the ultimate ends that are desired“ (ebd.).

Die Statistik sollte zu dieser Fokussierung auf die Ziele beitragen, indem Grundbedürfnisbefriedigung mit Hilfe von Sozialindikatoren wie Lebenserwartung,

Wie wird „Entwicklung“ transparent gemacht? Kämpfe um globale …

77

Literalität, Kalorienversorgung oder Kindersterblichkeit möglichst direkt gemessen wurde (ebd., S. 93 ff.).9 Diese Indikatoren haben sich nicht als globale Maßeinheiten für Entwicklung durchsetzen können, weil die ihnen zugrunde liegende Grundbedürfnisidee selbst umstritten blieb (vgl. Afxentiou 1990). Dafür waren zum einen politische Gründe ausschlaggebend. Einige westliche Industriestaaten sahen in der Bereitstellung von Sozialleistungen für die Ärmsten eine Annäherung an sozialistische Staatsformen; für andere war das Grundbedürfniskonzept ein Ausweichmanöver des globalen Nordens, um Entwicklungsländern Industrialisierung und Modernisierung vorzuenthalten. Zum anderen war die Grundbedürfnisidee nicht in den vorherrschenden entwicklungsökonomischen Paradigmen verankert. Unter diesen Bedingungen verschwand das Konzept schnell in der Marginalität, als in den 1980er Jahren im Kontext der lateinamerikanischen Schuldenkrise der IWF und die Weltbank an Einfluss gewannen, da diese ja traditionell ökonomischen vor sozialen Zielstellungen den Vorrang einräumen (Jolly et al. 2005). Wie der nächste Abschnitt genauer darlegt, wurde die mit dem Grundbedürfniskonzept verbundene Transparenzstrategie in den folgenden Jahren jedoch durch Amartya Sen einflussreich untermauert. Dabei revidierte Sen das Rationalitätsverständnis, das der volkswirtschaftlichen Gesamtrechnung zugrunde gelegen hatte.

5 Von der Grundbedürfnisidee zum CapabilityAnsatz Die in den 1970er Jahren von prominenten Ökonomen wie Gunnar Myrdal und Dudley Seers vorgetragene Aufforderung, Armut und Grundbedürfnisse zu adressieren, bedeutete einen Angriff auf die neo-klassische Orthodoxie, da sie politische und ethische Fragen aufwarf (Finnemore 1996, S. 102 f.). Wie Reichtum innerhalb der Gesellschaft verteilt wurde, beurteilte man im Mainstream der Entwicklungsökonomie als politische Angelegenheit; Ökonomen waren ausschließlich dafür zuständig, „technisches“ Wissen bereitzustellen – also gewissermaßen

9Meine

Darstellung repräsentiert nicht einen etwaigen Konsens der damaligen „epistemic community“. Vielmehr beziehe ich mich hier spezifisch auf die genannte Publikation der Weltbank. Der Grund dafür ist die Kontinuität sowohl in intellektueller wie auch personeller Hinsicht zu dem Human Development-Ansatz, der nachfolgend diskutiert wird. Die Autorinnen des Weltbank-Bandes waren später maßgeblich oder beratend an der Entwicklung und Fortschreibung des Human Development-Ansatzes beteiligt.

78

B. Mahlert

für Transparenz auf der Grundlage harter Fakten zu sorgen. Dieses Verständnis von Rationalität als objektiv da wertfrei wurde in den Folgejahren immer stärker hinterfragt. Amartya Sen, dessen Capability-Ansatz die theoretische Grundlage des Human Development-Ansatzes des UNDP bildet, wurde zu einem prominenten Vertreter dieser Bewegung. Er drehte gewissermaßen den Spieß der Transparenznormen herum: Die Entwicklungsökonomie muss bewerten, das ist ein Teil ihrer Rationalität – nur so kann sie der Politik Transparenz zur Verfügung stellen (vgl. Putnam 2004). Ähnlich wie der oben erwähnte Weltbankbericht argumentierte Sen, dass die Ziele von Entwicklung direkt adressiert werden müssen. Dabei ging er jedoch weit über Grundbedürfnisse hinaus. „Well-being“, so Sen, könne sehr viele verschiedene Aspekte beinhalten, die die Modelle der neo-klassischen Entwicklungsökonomie allesamt nicht berücksichtigten. Das ihnen zugrunde liegende Konzept des Nutzens mit seiner Idee von „pleasure“ und „happiness“ präsentierte ein äußerst verengtes Verständnis davon, was ein „full life“ ausmacht (Sen 2000a, S. 3). Kreativität, „reasoning“, soziale Einbindung und soziale Wertschätzung oder politische Freiheiten seien für viele Menschen wertvoll und ließen sich nicht auf „pleasure“ reduzieren. Weiterhin sei problematisch, dass der individuelle Nutzen statistisch an der Verfügbarkeit von Gütern gemessen werde. Hier buchstabiert Sen die oben bereits erwähnte Kritik am „commodity-fetishism“ der Wohlfahrtsökonomie auf einer Mikroebene aus und formuliert zudem ein (ungleichheits)soziologisch zentrales Argument: Die von dem Zugang zu bestimmten ökonomischen Gütern eröffneten Lebenschancen variierten in Abhängigkeit von raumzeitlichen Kontextbedingungen sowie auch von individuellen Eigenschaften (Sen 1984, 2000b, S. 88; vgl. Weiß 2017). Wenn man unter diesen Umständen „well-being“ anhand der Einkommenshöhe misst, dann kann dieses nicht transparent sein. Die Konsequenz muss Sen zufolge darin liegen, „well-being“ in seinen vielen verschiedenen Aspekten möglichst direkt zu erfassen – gleichsam direkt am menschlichen Lebensprozess. Als Oberbegriff dafür führt er das Konzept menschlicher Funktionen („functionings“) ein, das Daseins- und Handlungsweisen bezeichnet („doings and beings“). Dabei ist Sen wichtig, dass Menschen die Freiheit haben, selbst zu wählen, ob und welche der von ihnen als wertvoll erachteten Funktionen sie realisieren. Zur Bezeichnung dieser Freiheit führt er den Begriff der „capabilities“, Verwirklichungschancen ein. Dies führt zu einem Konzept von Entwicklung als Erweiterung der Freiheit, wertvolle menschliche Daseins- und Handlungsweisen zu realisieren. Dabei geht Sen zwar davon aus, dass es elementare Funktionen gibt, auf denen alle anspruchsvolleren Verwirklichungschancen aufbauen; diesen müsse

Wie wird „Entwicklung“ transparent gemacht? Kämpfe um globale …

79

politische Priorität eingeräumt werden (Sen 2003). Darüber hinaus betont er jedoch die intersubjektive und interkulturelle Variabilität dessen, was als wertvolle Funktion gelten kann. Welche Freiheiten durch Entwicklungsprozesse in einem gegebenen raumzeitlichen Kontext herbeizuführen sind, muss seiner Ansicht nach durch öffentliche Diskussion und einen demokratischen Prozess „sozialer Evaluation“ hergestellt werden. Gesellschaften müssen also gleichsam für sich selbst Transparenz herstellen hinsichtlich des „well-being“, das sie realisieren wollen. Die Funktion des Capability-Ansatzes ist es, diesen Bewertungsprozess sowie auch die Identifikation der daraus folgenden politischen Maßnahmen methodologisch und konzeptionell zu unterstützen. Auf globaler Ebene kann die allgemeine Formel von Entwicklung als Erweiterung menschlicher Freiheiten deshalb nicht einheitlich respezifiziert werden. Im Hinblick auf globale Entwicklungsindikatoren bleibt damit die Option, die schon mit der Grundbedürfnisstrategie verbunden war: Der statistische Vergleich muss sich auf grundlegende Funktionen beschränken. Diese müssen möglichst direkt gemessen werden, da die Bedingungen ihrer Realisierung zwischen und innerhalb von Ländern variieren. In den frühen 1990er wurde der Capability-Ansatz als theoretische Grundlage für den neuen entwicklungspolitischen Ansatz des UNDP herangezogen. Bei dem Capability-Ansatz handelt es sich um eine allgemeine Theorie ökonomischer Wohlfahrt – ein relativ abstraktes konzeptionelles Gerüst, das in den Dienst verschiedenster Erkenntnisinteressen gestellt werden kann. Der „Human Development Approach“ übersetzt diese abstrakte Theorie in ein für entwicklungspolitisches Entscheiden informatives Format. Dies geschah und geschieht im Rahmen der (zumeist) jährlich erscheinenden globalen Human Development Reports (HDRs) sowie zahlreicher regionaler und nationaler HDRs. Im Laufe der Jahre hat sich dabei ein eigenes „policy paradigm“ herausgebildet und immer wieder auch verändert: ein umfassender Entwicklungsansatz, der neben dem Capability-Konzept als theoretischer Grundlage eine Agenda von politischen Prioritäten, Methoden für Politikanalyse und statistische Messverfahren enthält (vgl. Fukuda-Parr 2003). Jeder HDR enthält einen Textteil mit einem jährlich variierenden thematischen Schwerpunkt sowie einen statistischen Anhang. In diesem wird der Human Development Index (HDI) mit jährlich aktualisierten Daten präsentiert; daneben finden sich eine Reihe weiterer Indizes und statistische Daten unter anderem zu dem jeweiligen Themenschwerpunkt. Der Human Development Index soll den Entwicklungsstand von Ländern messen und versteht sich damit als Alternative zum BIP. Wie ich eben verdeutlicht habe, hat Sen sehr genaue Vorstellungen darüber, worauf zu achten ist, wenn Entwicklung

80

B. Mahlert

anhand statistischer Maße transparent gemacht werden soll. Der nächste Teil wird diskutieren, inwieweit sich diese Transparenzvorstellungen im Human Development Index umgesetzt finden.

6 Der Human Development Index und seine Modifikationen Der erste HDR (UNDP 1990) enthält neben einer Einführung in grundlegende Gedanken des Capability-Ansatzes unter anderem ein Kapitel zu „Human development strategies for the 1990s“. Hier wird, in Übereinstimmung mit Sens Vorlage, eine Anleitung gegeben, um Transparenz kontextspezifisch selbst herzustellen. Nationale Entscheidungsträger sollten zunächst einen ernsthaften Versuch unternehmen, umfassende „human balance sheets“ zu erstellen. Diese sollen das erste Kapitel in jedem nationalen Entwicklungsplan bilden, „relegating the usual national income accounts – GNP, exports and imports, saving and investment, and so on – to technical annexes“ (UNDP 1990, S. 70). Eine ausführliche Inventarisierung bestehender „human resources and skills“ sollte neben Gesundheit, Bildung, Ernährung und unterschiedlichen Typen von Ungleichheiten auch das kulturelle Ethos, „ideological aspirations and real motivations of the people“ einschließen. Auf dieser Grundlage sollen politische Prioritäten identifiziert werden, die dann gemäß den Präferenzen der Bürger in eine Rangordnung zu stellen sind. Diese Präferenzen, so der Report, „unavoidably will differ between countries“, und sie aufzugreifen erfordert demokratische Partizipation (ebd., S. 71). Leider sei das gegenwärtig verfügbare Wissen über die „production function“ für verschiedene Komponenten von menschlicher Entwicklung rudimentär. An dieser Stelle vor allem verortet der Report die Funktion von Ländervergleichen: Um ihre Wissenslücken zu schließen, sollten nationale Planerinnen „vorsichtig“ versuchen, von anderen Ländern zu lernen, „particularly those with similar resource endowments and incomes but above-average progress in human development“ (ebd., S. 71). Dieses wechselseitige Lernen unterstützt der Report, indem er unter der Überschrift „different strategies for different contexts“ mögliche politische Strategien für unterschiedliche Ländertypen anführt. Passend zu seiner Betonung nationaler Kontexte vertritt der Report die Auffassung, dass globale Entwicklungsindikatoren vorläufig auf die drei „essentiellen Elemente menschlichen Lebens“ beschränkt bleiben sollten, auf die drei „most critical … choices“. Bei diesen, so heißt es ohne weitere Begründung, handele es sich um ein langes Leben, Wissen und einen „ordentlichen“ („decent“) Lebensstandard (ebd., S. 1, 12). Die Umsetzung dieses Vorschlages bildet der Human

Wie wird „Entwicklung“ transparent gemacht? Kämpfe um globale …

81

Development Index. Dieser aggregiert drei Indizes (Life Expectancy Index; Education Index; Income Index), die jeweils eine der drei grundlegenden Freiheiten messen sollen. Im Folgenden werde ich zunächst die drei Teilindizes kritisch beleuchten und dabei auch einige hier wichtige Modifikationen einbeziehen, die in späteren Versionen des HDI durchgeführt wurden. In einem zweiten Schritt diskutiere ich dann die Tatsache, dass die Werte in den drei Dimensionen zu einem einheitlichen Index verrechnet und in der Form eines Rankings präsentiert werden. In der 1990 präsentierten Erstversion des HDI werden die drei Freiheiten folgendermaßen quantifiziert: Lebenserwartung steht für ein langes Leben; Literalität für den Zugang zu wertvollem Wissen, und der „decent living standard“ wird anhand des Einkommens gemessen. Dabei wurde die durchschnittliche Armutslinie der reicheren Länder als Zielwert zugrunde gelegt. Alle Einkommen jenseits dieser Armutslinie wurden nicht gezählt (UNDP 1990, S. 4). Dies sollte offenbar dazu dienen, möglichst präzise den Zugang zu einem „decent living standard“ zu messen. Die statistische Invisibilisierung aller höheren Einkommen macht diese Intention transparent im Sinne von verständlich. Wenn Deutschland, Ungarn und Peru in der ökonomischen Dimension gleich abschneiden, lautet die mitgeteilte Information ganz klar: In diesen drei Ländern haben die Menschen Zugang zu einem grundlegenden materiellen Lebensstandard. Ähnlich gibt es auch in der Wissensdimension eine gut erkennbare Engführung auf eine basale Fähigkeit, nämlich Literalität; darüber hinausgehende Bildungsniveaus werden ebenfalls statistisch invisibilisiert. Oberhalb der Literalitätsschwelle erscheinen alle Länder als gleich. Lediglich anhand der Lebenslänge werden Länder nach oben hin voll differenziert. Damit entsprechen die drei Teilindizes ihrer Logik nach einem Grundbedürfnisindex; nur ist eben in der Sprache des Capability-Ansatzes nicht von Bedürfnissen, sondern von choices bzw. Freiheiten die Rede. Neben der möglichst direkten Abbildung grundlegender Funktionen vermitteln diese Indikatoren auch in einer zweiten Hinsicht Transparenz: Sie markieren deutlich die nach Ansicht von Sen bestehende Kontingenz und Komplexität des Bewertens, statt sie durch Transparenzfiktionen zu invisibilisieren. Wenn lediglich das Vorhandensein von Grundgütern erfasst wird, kommuniziert dies die Weigerung, Länder anhand einfacher Maße hinsichtlich des von ihnen realisierten Gesamtumfangs menschlicher Entwicklung zu bewerten. Indem die Indikatoren unsichtbar lassen, wohin jenseits basaler Funktionen „die Reise gehen“ soll, wird angedeutet, dass jenseits grundlegender menschlicher Funktionen Entwicklungsziele in Abhängigkeit von spezifischen raumzeitlichen Gegebenheiten zu bestimmen sind. Ebenso wie durch die oben erwähnten Ausführungen zur Erstellung nationaler Entwicklungspläne im Textteil des HDR reflektieren

82

B. Mahlert

die drei Indikatoren damit Sens Auffassung, dass jedes Land die Aufgabe des Bewertens selbst durchführen muss. Von den drei Indikatoren, die zusammen den HDI ergeben, wurden in den Folgejahren die beiden Indikatoren für Wissen und für den „ordentlichen“ Lebensstandard wiederholt angepasst. Diese Modifikationen verändern die zugrunde liegende Logik. Sie verwandeln die Indikatoren von Maßen für die Realisierung basaler Funktionen der Tendenz nach in ein Abbild der internationalen Ungleichheit in den betreffenden Dimensionen. In der ökonomischen Dimension ging der 1991er HDI dazu über, Einkommen jenseits der Armutslinie abzubilden; allerdings nicht in voller Höhe. Nach der Logik des sinkenden Grenznutzens wird jeder zusätzliche Dollar geringer gewichtet. Damit soll der Tatsache Rechnung getragen werden, dass beispielsweise hundert zusätzliche Dollar monatlich Geringverdienerinnen mehr zusätzliche Freiheiten eröffnen als Millionären. Mit dieser Modifikation verändert sich das Ziel des Messens. Die Absicht besteht nun darin, die durch Einkommen eröffneten Vorteile zu messen. Das ist etwas anderes, als einen „ordentlichen“ Lebensstandard abzubilden. Hier geht es um eine spezifische menschliche Funktion; dort geht es um die Gesamtheit der Funktionen, die mittels des Zugangs zu einer bestimmten Ressource realisiert werden können. Dass es sich hier der Logik nach um ein neues Transparenzziel handelt, wird jedoch im Report nicht deutlich gemacht. Kurz und knapp heißt es lediglich: „The idea of diminishing returns to income is now better captured by giving a progressively lower weight to income beyond the poverty cut-off point, rather than the zero weight previously given. That zero weight was found to be too drastic an adjustment, particularly for higher income countries“ (UNDP 1991, S. 15, Hervorhebung BM). Indem der Report beansprucht, die Idee des abnehmenden Grenznutzens „nun besser abzubilden“, unterstellt er, diese Idee hätte dem Index schon ursprünglich zugrunde gelegen. In ähnlicher Weise wurde der Wissensindex verändert. Literalität im 1990er Report wurde im Folgejahr ergänzt durch durchschnittliche Dauer des Schulbesuchs (der Wissensindikator setzte sich dann aus zwei Maßzahlen zusammen). „This acknowledges the importance of high levels of skill formation and greatly helps in differentiating countries near the top of the ladder, particularly the industrial economies“ (UNDP 1991, S. 15, Hervorhebung BM). Seit 2010 wird Literalität nicht mehr einbezogen; stattdessen kombiniert der Wissensindex die durchschnittliche und erwartete Dauer des Schulbesuchs (UNDP 2010, S. 15). Damit ist die Wissensdimension des HDI nicht mehr darauf angelegt, den Zugang zu einer grundlegenden Form von Wissen abzubilden. Vielmehr wird ähnlich wie in der ökonomischen Dimension gemessen, in welcher „Menge“ eine bestimmte Ressource durchschnittlich zur Verfügung steht.

Wie wird „Entwicklung“ transparent gemacht? Kämpfe um globale …

83

Die mit diesen beiden Modifikationen kommunizierten Botschaften sind zwar an sich transparent im Sinne von verständlich: Je länger Menschen die Schule besuchen und je mehr Einkommen sie haben, desto zahlreicher die Verwirklichungschancen. Aus der Perspektive des Capability-Ansatzes verringern sie jedoch das vom HDI bereitgestellte Maß an Transparenz. Denn wie oben geschildert, bilden aus seiner Sicht weder Schulbesuch noch Einkommen Selbstzwecke. Vielmehr hängt ihr Wert an den Verwirklichungschancen, die sie eröffnen. Diese unterscheiden sich jedoch zwischen und innerhalb von Ländern erheblich. Die Variabilität der „Konvertierung“ von Bildung und anderen Gütern in Lebenschancen zu beachten, ist ja, wie oben erläutert, Sens Hauptanliegen in Sachen Transparenz. Im neuen HDI wird diese Variabilität invisibilisiert. Hinzu kommt: Nicht erst die hier beschriebenen Modifikationen, sondern bereits die Verrechnung der drei Dimensionen in einen einzigen Gesamtindex und schon gar die Präsentation in Form eines Rankings durchkreuzen die ursprüngliche Intention eines Grundbedürfnisindex. Bereits in der Erstversion des HDI wurde die Gleichheit vieler Länder hinsichtlich des Zugangs zu Literalität und einem basalen Einkommen unsichtbar gemacht: Literalität und Einkommen wurden mit den ungleichen Werten in Lebensjahren verrechnet und damit in ungleiche Gesamtwerte transformiert. Die Übersetzung dieser Gesamtwerte in ein Ranking produziert eine voll ausdifferenzierte Hierarchie, in der jede Position nur von einem Land besetzt wird. Damit wird der HDI seiner Struktur nach zu einem Index für ein „full human life“, oder „human flourishing“, was nicht dasselbe ist wie die Befriedigung von Grundbedürfnissen.10 Zudem ist der damit verbundene Anspruch auf Transparenz gemessen an Sens Vorgaben nicht haltbar. Durch die Aggregation der drei Indikatoren in einen einzigen Index wird nicht mehr nur gesagt: Je höher das Einkommen, die Bildung und die Lebensdauer, desto höher das erreichte Niveau an Entwicklung. Vielmehr wird gesagt: Insgesamt ist das Niveau menschlicher Entwicklung bei den Ländern, die oben im Index stehen, am höchsten. Die erfassten Werte werden also zu einem Gesamturteil über den Entwicklungsgrad aufgerundet. Um dieses Gesamturteil zu rechtfertigen, müsste aus Sicht des Capability-Ansatzes abgesichert sein, dass Länder mit den höchsten Bildungsgraden, Einkommen und Lebenserwartungen auch andere wichtige Funktionen in höherem Maße vermitteln können, wie beispielsweise soziale Anerkennung, Zugehörigkeit oder die Fähigkeit, dankbar zu sein (vgl. Wolff und de-Shalit 2007).

10Siehe

zu der in der Literatur weithin anerkannten Differenz zwischen Grundbedürfnisbefriedigung und „human flourishing“ Gasper (1996, S. 31 f.).

84

B. Mahlert

7 Erklärungen Warum wurde im HDI das von Sen vorgelegte Angebot nicht voll ausgeschöpft, obwohl die statistischen Mittel dafür verfügbar waren? Eine feldtheoretische Erklärung in Anlehnung an Bourdieu könnte lauten: Mit dem Human Development-Ansatz positioniert sich das UNDP im entwicklungspolitischen Feld. Der eigentliche Sinn des HDI ist es nicht, grundlegende menschliche Funktionen zu messen, sondern einer an sozialen und Gleichheitsaspekten orientierten Politik mehr Gewicht zu verleihen. Diese profiliert sich durch ihre Gegnerschaft zu liberalen, stark marktorientierten entwicklungspolitischen Programmatiken. So war es das erklärte Ziel der Ökonomen, die den HDI entwickelt haben, durch einen alternativen Fortschrittsindikator grundlegende Fokusse der politischen Orientierung zu verschieben. Prominent ist die Antwort des Initiators des HDI, Mahbub ul Haq, auf Amartya Sens Einwand, dass der Index zu viele wichtige Aspekte invisibilisiere: „We need a measure of the same level of vulgarity as GNP – only a number – but a measure which is not as blind to the social aspects of human life as is GNP“ (UNDP 1990, S. 23, Hervorhebung BM). Ohne die Komplexität des entwicklungspolitischen Feldes zu negieren, lässt sich in einer an Bourdieu angelehnten Perspektive die Hypothese formulieren, dass die Differenz von sozialpolitisch und marktliberal orientierten Programmatiken eine zentrale Strukturierungsachse dieses Feldes darstellt (vgl. Noël und ­Thérien 2009) – ein „Sicht- und Teilungsprinzip“, das grundlegend unterschiedliche Perspektiven auf Entwicklung etabliert und zugleich Gegnerschaften strukturiert (Bourdieu 1998; Gorski 2013, S. 25). Demgegenüber macht der Gegensatz von liberal-marktorientiert vs. grundlegende Funktionen in diesem Feld überhaupt keinen Sinn. Dies zeigt sich nicht zuletzt daran, dass in den 1970er Jahren die Weltbank mit einer „rechten“ Grundbedürfnisstrategie gegen die „linke“ Grundbedürfnisstrategie der ILO antrat. Demnach hat das UNDP kein feldspezifisches Interesse an der ursprünglichen Version des HDI. Sein Ziel besteht vielmehr darin, aus dem HDI symbolisches Kapital zu schlagen, indem es ihn als Alternative zu einem rein an ökonomischen Gesichtspunkten orientierten Maß präsentieren. Im Rahmen der im Feld institutionalisierten Unterscheidungspraktiken bedeutet dies: den HDI dadurch zu legitimieren, dass er die sozialen Aspekte von Entwicklung hervorhebt. Deutlich wird dies nicht nur in dem oben angeführten Zitat von Mahbub ul Haq. Es zeigt sich auch in der Art und Weise, wie der HDI in den Reports genutzt wird, um sozialpolitische Programmatiken zu unterstützen. Hier wird immer wieder anhand der HDI-Werte einzelner Länder darauf verwiesen, dass sich aus einem höheren Pro-Kopf-Einkommen nicht automatisch

Wie wird „Entwicklung“ transparent gemacht? Kämpfe um globale …

85

auch eine höhere Lebenserwartung und höhere Bildungsraten ergeben. Der HDI macht transparent, dass Länder mit weniger monetären Ressourcen durch eine kluge Sozialpolitik höhere Werte in den „sozialen“ Dimensionen erzielen können. Insofern sich das primäre strategische Interesse des UNDP auf diese Art von „Einsichten“ richtete, waren die Urheber des HDI schnell bereit, auf die nach der ersten Veröffentlichung auftretende Kritik zu reagieren und ihn entsprechend zu modifizieren. Dies führt uns zu einem zweiten Argument: Die spezifische Übersetzung des Capability-Ansatzes in den HDI lässt sich mit Bourdieu auch klassentheoretisch deuten. Insofern Einkommen und Bildung zunehmend global institutionalisierte Dimensionen sozialer Ungleichheit darstellen, lässt sich der HDI als grobes Abbild einer internationalen Klassenstruktur verstehen. Eine derartige Visualisierung von „menschlicher Entwicklung“ kommt den Interessen der Staaten an beiden Enden der Klassenstruktur stärker entgegen als ein Grundbedürfnisindex, weil er sie als in diese Struktur „verstrickte“ Akteure bestätigt. Vertreter „reicher“ Länder könnten sich von der ursprünglichen Version des HDI düpiert fühlen, weil ihre Errungenschaften nicht abgebildet werden. Arme Länder wollen Legitimation für ihre Aufstiegsambitionen. Wie oben erwähnt, wurde bereits gegen die Grundbedürfnisstrategie vorgebracht, dass sie den „Entwicklungsländern“ effektiv volle Gleichheit mit den Ländern des globalen Nordens verwehre (Gauhar 1982). In zynischer Anlehnung an Bourdieu könnte man sagen, dass der ursprüngliche HDI ein Spielverderber war. Der neue HDI demgegenüber bestätigt, dass der „Einsatz“ im Kampf um Aufstieg oder Platzerhalt es wert ist, eingesetzt zu werden. Noch allgemeiner gefasst, ist der neuere HDI plausibel, weil er die mit der Klassenstruktur gegebene „natürliche Weltsicht“ reproduziert. Auffällig ist, dass die Anpassung der Einkommensdimension nicht sachlich begründet wurde, sondern damit, dass sie mit hergebrachten Sichtweisen brach: Das „zero weight“ für Einkommen jenseits der Armutsgrenze reicherer Länder wurde in den Feedbacks zum ursprünglichen HDI, wie oben erwähnt, als „too drastic an adjustment“ gesehen. Dabei war die ursprüngliche Version mit ihrer Einkommensobergrenze entlang der Armutslinie einiger reicherer Länder immer noch relativ eng an institutionalisierte weltgesellschaftliche Strukturprinzipien angelehnt. Ganz andersartige Forderungen kamen offenbar nicht auf, beispielsweise, Dankbarkeit oder soziale Zugehörigkeit zu messen und dafür Bildung wegzulassen. Anderen historischen Gesellschaften mögen solche oder andere Möglichkeiten plausibel gewesen sein. In dieser klassentheoretischen Sichtweise haben nur solche Respezifikationen des individualistisch-humanistischen Grundwertes eine Chance, die mit der globalen Sozialstruktur übereinstimmen. Der HDI wurde in Richtung auf mehr welthistorische Plausibilität umgearbeitet; und

86

B. Mahlert

bereits die Aggregation der drei Dimensionen sowie das Format eines Rankings hatten diese Plausibilität auf ihrer Seite. Diese Plausibilität lässt sich auch aus differenzierungs- und kulturtheoretischen Perspektiven ableiten, die noch stärker als Bourdieu die Steigerungslogik der (westlichen) Moderne hervorheben. In einer systemtheoretischen Perspektive wäre hier auf die Steigerungslogik der Funktionssysteme zu verweisen: Funktionssysteme fordern eine Ausweitung der Inklusion, d. h. möglichst jeder und jede soll möglichst lange die Schule besuchen, möglichst umfassenden Zugang zu medizinischer Versorgung haben, möglichst unbegrenzt Zugang zu rechtlicher Beratung bekommen etc.11 Dieser Steigerungslogik wird gefolgt, wenn die Form eines Rankings gewählt wird, und wenn Literalität durch die durchschnittliche und erwartete Länge des Schulbesuchs ersetzt und Einkommen oberhalb der Armutslinie abgebildet werden (wenn auch mit abnehmendem Grenznutzen) (Mahlert i. E.). Der Neoinstitutionalismus (Meyer et al. 1997) und parsonianische Spielarten der Systemtheorie (Münch 1998) erklären dieselbe Steigerungslogik kulturell, mit dem Verweis auf den auf globaler Ebene institutionalisierten Leitwert des Fortschritts. Dabei ist darauf hinzuweisen, dass gemessen an aktuellen entwicklungspolitischen Problemwahrnehmungen der ursprüngliche HDI durchaus anspruchsvolle Ziele artikuliert. Dies gilt für das in den Programmatiken vieler internationaler Organisationen institutionalisierte Ziel der Auslöschung von Armut (Finnemore 1996). Nach Einschätzung von Experten ist das von den VN angestrebte Ziel, bis 2030 für einen universellen Zugang zu Nahrung zu sorgen, schon heute mit Sicherheit für Afrika nicht zu erreichen.12 Gemessen an solchen Einschätzungen setzt der ursprüngliche HDI mit seinem „ordentlichen Lebensstandard“ eine durchaus ehrgeizige Zielmarke. Auch die in der Entwicklungspolitik immer einflussreichere Wahrnehmung ökologischer Selbstgefährdungen erweckt den Eindruck, dass der ursprüngliche HDI ein anspruchsvolles Ziel kommuniziert. Im Lichte aktueller klimapolitischer Diskurse wäre es ein großer Erfolg, die Erfüllung von Grundbedürfnissen für die gesamte Menschheit

11Nationalstaaten sind als Vermittler dieser Inklusion institutionalisiert und unterliegen – als Wohlfahrtsstaaten – Luhmann zufolge einer Logik steigender Inklusionsansprüche, denen nur monetäre Grenzen gesetzt sind (vgl. Bommes 2001; Luhmann 1983; Stichweh 2005). 12So

Jeffrey Sachs auf der Arbeitstagung der Initiative „The World in 2050“, Laxenburg, Mai 2017 (http://www.iiasa.ac.at/web/home/research/twi/TWI2050.html); siehe auch https://sustainabledevelopment.un.org/sdg2.

Wie wird „Entwicklung“ transparent gemacht? Kämpfe um globale …

87

auf Dauer sicherzustellen. Insofern die Realisierung ökologischer „Nachhaltigkeit“ unangenehme Anpassungsleistungen erfordert, denen alle gerne ausweichen, könnte ein auf Grundbedürfnisse beschränkter Entwicklungsindex als dauerhafter Entwicklungskompass als höchst rational bewertet werden. Er vermittelt transparent, dass menschliche Lebensgrundlagen nicht selbstverständlich da sind, sondern man sich um ihre Erhaltung bemühen muss; und er vermittelt einen sich aktuell herausbildenden offiziellen Konsens, dem zufolge Grundbedürfnissen künftiger Generationen Vorrang vor den Luxuswünschen der heute Lebenden zu geben ist. Vorausgesetzt, dass diese Auffassungen im herrschenden Alltagsbewusstsein – der „natürlichen Weltsicht“ – nicht verankert sind, könnte ein Grundbedürfnisindex als globales Entwicklungsmaß diesbezüglich Transparenz fördern. Jedoch entspricht Grundbedürfnisbefriedigung als globale Zielmarke nicht den weltkulturellen Ansprüchen auf immer weiteren Fortschritt. Diesen Ansprüchen kommt der modifizierte HDI mit seiner Steigerungslogik stärker entgegen, selbst wenn er – in Abgrenzung zum BIP-Indikator – das Einkommen logarithmiert.

8 Schluss Debatten über Indikatoren für Entwicklung, Fortschritt oder Wohlfahrt werden heute (auch) in einer breiten Öffentlichkeit geführt. Dabei steht die Kritik am BIP und die Frage nach alternativen Indikatoren im Vordergrund. Während die angebotenen Alternativen zahlreich sind, fällt im Vergleich zu dem hier herangezogenen historischen Material auf, dass die meisten dieser Alternativen durchaus zentrale Merkmale mit dem BIP teilen. Bhutans „Gross Happiness Index“, der „Happy Planet Index“ und der HDI vermessen Fortschritt ebenso wie das BIP weltweit anhand einheitlicher statistischer Parameter; sie behandeln dabei Länder als basale Vergleichseinheiten; und sie identifizieren anhand der standardisierten Parameter eine weit ausspannende, zumeist nach oben offene Skala von erreichbaren und erreichten Entwicklungsniveaus. Demgegenüber haben Ökonomen insbesondere in den späten 1940er Jahren, also vor der Institutionalisierung des „system of national accounts“, ganz andersartige Methoden der Transparentmachung von Entwicklung vorgeschlagen, die auf diese Art von Vergleichen verzichten: Für raumzeitliche Einheiten sollen maßgeschneiderte Statistiken angefertigt werden; unter Verzicht auf Quantifizierung sollen institutionelle Wandlungsprozesse beschrieben werden, um so den Kern von Entwicklung sichtbar zu machen; der weltweite Vergleich soll auf Grundbedürfnisse beschränkt werden, weil allein diese universalisierungsfähig

88

B. Mahlert

sind und alle darüber hinausgehenden Möglichkeiten der Verbesserung menschlicher Lebensqualität kontextspezifisch bestimmt werden müssen. Wenn jedoch schon immer kontrovers war, wie Entwicklung transparent zu machen ist, wie kann dann der Erfolg oder Misserfolg einzelner konkurrierender Angebote – einzelner Methoden oder Praktiken der Transparenz – erklärt ­werden? Um dies zu untersuchen, habe ich exemplarisch einige Etappen der internationalen Debatten um Entwicklungsindikatoren rekonstruiert und dabei in einem an Bourdieu angelehnten Analyserahmen das Zusammenspiel von normativen und strukturellen Aspekten ausgelotet. Unter strukturellen Gesichtspunkten waren die Entstehungskontexte der betreffenden Indikatoren thematisch (Wissenschaft, Politik und globale Klassenstruktur). Aufgrund ihrer Einbindung in diese Kontexte haben Ökonomen Interessen, beispielsweise Interessen an wissenschaftlicher Reputation, an Macht und Privilegien. Diese Interessen können zu Präferenzen hinsichtlich spezifischer Methoden der Transparentmachung von Entwicklung führen. Gleichzeitig sind in die jeweiligen Kontexte normative Leitgesichtspunkte bezüglich des „Wie“ und „Was“ der herzustellenden Transparenz eingelassen, die gegenüber jenen Interessen einschränkend wirken können. Hier habe ich insbesondere die professionalisierten Standards der Wissenschaft betont. Damit wollte ich der wissenschaftlichen Rationalität bei der Herstellung und Auswahl von Entwicklungsindikatoren ein Eigengewicht im Vergleich zu Analysen einräumen, die politisch relevante Indikatoren vor allem unter dem Gesichtspunkt von Macht und Interessen betrachten. Im Ergebnis erwiesen sich jedoch der politische und der Klassenkontext als primär ausschlaggebend: Politisch bedingte Interessen an Machbarkeit von Entwicklung, vorstrukturierte Möglichkeiten, sich im entwicklungspolitischen Feld zu positionieren und Interessen an Erhalt oder Verbesserung der globalen Klassenposition waren maßgeblich dafür, welche statistischen Möglichkeiten sich letztendlich durchgesetzt haben. Dabei wirkte insbesondere der Kontext der globalen Klassenstruktur konservativ. Dem Anspruch nach geht es in der Entwicklungspolitik um sozialen Wandel, „change“, Veränderung. Indem der Human Development Index wie auch das BIP ihrer Logik nach die globale Klassenstruktur abbilden, bestätigen sie die mit dieser gegebene natürliche Weltsicht. Sich im Sinne dieser Indizes zu entwickeln, bedeutet für nach ihren Kriterien weniger entwickelte Länder, sich den entwickelten anzugleichen; für die bereits oben Stehenden bedeutet Entwicklung „more of the same“. Andere Entwicklungswege sind hier nicht vorgesehen. Angesichts verfügbarer alternativer Statistiken belegt der Erfolg des HDI die Grenzen des Ausmaßes, in dem die „internationale Gemeinschaft“ mit Hilfe von Statistik

Wie wird „Entwicklung“ transparent gemacht? Kämpfe um globale …

89

etwas Neues über sich erfahren wollte. Transparentmachung durch Statistik kann auch heißen, dass noch mal transparent gemacht wird, was vorher schon weitestgehend bekannt war. Im Hinblick auf Forschungsdesiderate wirft dieses Ergebnis ein interessantes Licht auf die globale Agenda der Sustainable Development Goals (SDGs), da diese einen dezidiert transformatorischen Anspruch artikuliert (UN 2015). Fördern die für die Agenda ausgewählten Indikatoren diesen transformatorischen Anspruch in höherem Maße als es der hier vorgelegten Analyse zufolge die dominierenden globalen Entwicklungsindikatoren (BIP, HDI) vermögen? Beispielsweise wurden in den letzten Jahren länderinterne und globale Ungleichheiten vermehrt problematisiert. Dabei sind neue Techniken der Disaggregation und Aggregation aufgekommen, die den methodologischen Nationalismus der internationalen Statistik tendenziell transzendieren (Freistein und Mahlert 2016). Auch betonen die SDGs kontextuelle Angemessenheit. Jeder Staat soll seine Schwerpunkte in der Umsetzung der Agenda bestimmen und eigene Zielmarken setzen. Wird dies darauf hinauslaufen, dass Staaten und andere Akteure die sich speziell ihnen stellenden „transformatorischen Herausforderungen“ annehmen; oder werden sie gerade umgekehrt das Angebot zur individuellen Aneignung der globalen Ziele nutzen, um den „easy way“ zu gehen? Und welche Rolle spielt dabei die Quantifizierung der SDGs? Für künftige Forschungen, die sich dieser Frage widmen, generiert die hier im historischen Rückblick aufgezeigte Diversität numerischer Transparenztechniken eine Anregung – nämlich auszuloten, welche radikal unterschiedlichen Methoden der Transparentmachung der SDGs möglich sind, und ob diese realisiert werden oder nicht.

Literatur Afxentiou, P. C. (1990). Basic needs. A survey of the literature. Canadian Journal of Development Studies, 11(2), 241–257. Bommes, M. (2001). Organisation, Inklusion und Verteilung. Soziale Ungleichheit in der funktional differenzierten Gesellschaft. In V. Tacke (Hrsg.), Organisation und gesellschaftliche Differenzierung (S. 236–258). Opladen: Westdeutscher Verlag. Bourdieu, P. (1987). Die feinen Unterschiede. Kritik der gesellschaftlichen Urteilskraft. Frankfurt a. M.: Suhrkamp. Bourdieu, P. (1991). On the possibility of a field of world sociology. In P. Bourdieu & J. S. Coleman (Hrsg.), Social theory for a changing society (S. 373–387). Boulder: Westview. Bourdieu, P. (1998). Vom Gebrauch der Wissenschaft. Konstanz: Universitätsverlag. Bourdieu, P. (2001a). Das politische Feld. Zur Kritik der politischen Vernunft. Konstanz: UVK.

90

B. Mahlert

Bourdieu, P. (2001b). Meditationen. Zur Kritik der scholastischen Vernunft. Frankfurt a. M.: Suhrkamp. Davis, K., Kingsbury, B., & Merry, S. E. (2012). Indicators as technology of global governance. Law and Society Review, 46(1), 71–104. Desrosières, A. (2005). Die Politik der großen Zahlen. Eine Geschichte der statistischen Denkweise. Berlin: Springer. Espeland, W., & Stevens, M. L. (2008). A sociology of quantification. European Journal of Sociology, 49(3), 401–436. Finnemore, M. (1996). National interests in international society. Ithaca: Cornell University Press. Fourcade, M. (2006). The construction of a global profession. The transnationalization of economics. American Journal of Sociology, 112(1), 145–194. Freistein, K., & Mahlert, B. (2016). The potential for tackling inequality in the Sustainable Development Goals. Third World Quarterly, 37(12), 2139–2155. Fukuda-Parr, S. (2003). The human development paradigm. Operationalizing Sen’s ideas on capabilities. Feminist Economics, 9(2–3), 301–317. Garsten, C., & Lindh de Montoya, M. (Hrsg.). (2008). Transparency in a new global order. Unveiling organizational visions. Cheltenham: Elgar. Gasper, D. (1996). Needs and basic needs. A clarification of foundational concepts for development ethics and policy. ISS Working Paper, 210. Gauhar, A. (1982). What is wrong with basic needs. Third World Quarterly, 4(3), XXi–XXiii. Go, J. (2008). Global fields and imperial forms. Field theory and the British and American empires. Sociological Theory, 26(3), 201–229. Go, J., & Krause, M. (Hrsg.). (2016). Fielding transnationalism. Hoboken: Wiley-Blackwell. Gorski, P. S. (2013). Bourdieu and historical analysis. Durham: Duke University Press. Hansen, H. K., & Porter, T. (2012). What do numbers do in transnational governance. International Political Sociology, 6(4), 409–426. Heintz, B. (2008). Governance by Numbers. Zum Zusammenhang von Quantifizierung und Globalisierung am Beispiel der Hochschulpolitik. In G. Schuppert & A. Voßkuhle (Hrsg.), Governance von und durch Wissen (S. 110–128). Baden-Baden: Nomos. Heintz, B. (2010). Numerische Differenz. Überlegungen zu einer Soziologie des (quantitativen) Vergleichs. Zeitschrift für Soziologie, 39(3), 162–181. Heintz, B. (2013). Welterzeugung durch Zahlen. Modelle politischer Differenzierung in internationalen Statistiken, 1948–2010. In C. Bohn, A. Schubbach, & L. Wansleben (Hrsg.), Welterzeugung durch Bilder. Sonderband Soziale Systeme (S. 7–39). Stuttgart: Lucius & Lucius. Heintz, B. (2016). Wir leben im Zeitalter der Vergleichung. Perspektiven einer Soziologie des Vergleichs. Zeitschrift für Soziologie, 45(5), 305–323. Heßling, A. (2006). Die globale Taxis der Rechnungslegung. Soziologische Studien zur Zahlenproduktion in der Wissensökonomie. Dissertationsschrift, Universität Bielefeld. Hood, C. (2006). Transparency in historical perspective. In C. Hood & D. Heald (Hrsg.), Transparency. The key to better governance (S. 3–24). Oxford: Oxford University Press. Hood, C., & Heald, D. (Hrsg.). (2006). Transparency. The key to better governance. Oxford: Oxford University Press.

Wie wird „Entwicklung“ transparent gemacht? Kämpfe um globale …

91

International Labour Organization. (1976). Employment, growth and basic needs. A oneworld problem. London: Prager Publishers. Jansen, S. A., Schröter, E., & Stehr, N. (Hrsg.). (2010). Transparenz. Multidisziplinäre Durchsichten durch Phänomene und Theorien des Undurchsichtigen. Wiesbaden: VS Verlag. Jolly, R., Emmerij, L., & Weiss, T. G. (2005). The power of UN ideas. Lessons from the first 60 years. New York: United Nations Intellectual History Project. Keeton, G. R. (1984). The basic needs approach. A missing ingredient in development theory? Development Southern Africa, 1(3–4), 276–293. Kieserling, A. (2004). Zwischen Wirtschaft und Kultur. Über Pierre Bourdieu (S. 128– 151)., Selbstbeschreibung und Fremdbeschreibung. Beiträge zur Soziologie soziologischen Wissens Frankfurt a. M.: Suhrkamp. Kron, T., & Horácek, M. (2009). Individualisierung. Bielefeld: Transcript. Lepenies, P. (2013). Die Macht der einen Zahl. Eine politische Geschichte des Bruttoinlandsprodukts. Frankfurt a. M.: Suhrkamp. Lepenies, P. (2015). Modeling, statistics and political circumstances. European Journal of Sociology, 56(3), 375–404. Luhmann, N. (1983). Anspruchsinflation im Krankheitssystem. Eine Stellungnahme aus gesellschaftstheoretischer Sicht. In P. Herder-Dorneich & A. Schuller (Hrsg.), Die Anspruchsspirale. Schicksal oder Systemdefekt (S. 28–49). Stuttgart: Kohlhammer. Mahlert, B. (i. E.). Richness, poverty and aid. A sociological perspective. In V. Beck, S. Gosepath, H. Hahn & R. Lepenies (Hrsg.), Multidimensional poverty. New York: Springer. Mayntz, R. (2017). Zählen. Messen. Entscheiden. Wissen im politischen Prozess., MPfG Discussion Paper Köln: Max-Planck-Institut für Gesellschaftsforschung. McGranahan, D. (1972). Development indicators and development models. The Journal of Development Studies, 8(3), 91–102. Merry, S. E. (2011). Measuring the world. Indicators, human rights, and global governance. Current Anthropology, 52(3), 83–95. Meyer, J. W., Boli, J., Thomas, G., & Ramirez, F. (1997). World society and the nationstate. American Journal of Sociology, 103(1), 144–181. Miller, P. (2001). Governing by numbers. Why calculative practices matter. Social Research, 68(2), 379–396. Münch, R. (1998). Globale Dynamik. Lokale Lebenswelten. Der schwierige Weg in die Weltgesellschaft. Frankfurt a. M.: Suhrkamp. Mugler, J. (2015). By their own account. (Quantitative) accountability, numerical reflexivity and the national prosecuting authority in South Africa. In R. Rottenburg, S. E. Merry, S.-J. Park, & J. Mugler (Hrsg.), The world of indicators. The making of governmental knowledge through quantification (S. 76–101). Cambridge: Cambridge University Press. Noël, A., & Thérien, J.-P. (2009). Left and right in global politics. Cambridge: Cambridge University Press (Erstveröffentlichung 2008). Parsons, T. (1991). A tentative outline of American values. In R. Robertson & B. S. Turner (Hrsg.), Talcott Parsons. Theorist of modernity (S. 37–65). London: Sage. Porter, T. W. (1995). Trust in numbers. The pursuit of objectivity in science and public life. Princeton: Princeton University Press.

92

B. Mahlert

Putnam, H. (2004). The collapse of the fact/value dichotomy and other essays. Cambridge: Harvard University Press (Erstveröffentlichung 2002). Rottenburg, R., Merry, S. E., Park, S.-J., & Mugler, J. (2015). The world of indicators. The making of governmental knowledge through quantification. Cambridge: Cambridge University Press. Rzepka, V. (2013). Die Ordnung der Transparenz. Jeremy Bentham und die Genealogie einer demokratischen Norm. Berlin: Lit. Schmidt-Wellenburg, C., & Bernhard, S. (2014). Politische Soziologie transnationaler Felder. Berliner Journal für Soziologie, 24(2), 141–167. Sen, A. (1984). Resources, values and development. Cambridge: Harvard University Press. Sen, A. (2000a). Capability and well-being. In S. Corbridge (Hrsg.), Development. Critical concepts (S. 3–28). London: Routledge (Erstveröffentlichung 1995). Sen, A. (2000b). Development as freedom. New York: Anchor Books (Erstveröffentlichung 1999). Sen, A. (2003). Development as capability expansion. In S. Fukuda-Parr & S. A. K. Khumar (Hrsg.), Readings in human development. Concepts, measures and policies for a development paradigm (S. 3–16). New York: Human Development Report Office. Speich, D. (2009). Der Blick von Lake Success. Das Entwicklungsdenken der frühen UNO als ‚lokales Wissen‘. In H. Büschel & D. Speich (Hrsg.), Entwicklungswelten: Globalgeschichte der Entwicklungszusammenarbeit (S. 143–174). Frankfurt a. M.: Campus. Speich, D. (2011). The use of global abstractions: National income accounting in the period of imperial decline. Journal of Global History, 6(1), 7–28. Speich Chassé, D. (2013). Die Erfindung des Bruttosozialprodukts. Globale Ungleichheit in der Wissensgeschichte der Ökonomie. Göttingen: Vandenhoeck & Ruprecht. Speich Chassé, D. (2016). The roots of the millenium development goals. A framework for studying the history of global statistics. Historical Social Research, 41(2), 218–237. Stichweh, R. (2005). Zur Theorie der politischen Inklusion, Inklusion und Exklusion. Studien zur Gesellschaftstheorie (S. 67–81). Bielefeld: Transcript. Streeten, P., Burki, S. J., ul Haq, M., Hicks, N., & Stewart, F. (Hrsg.). (1981). First things first. Meeting basic human needs in the developing countries. Oxford: Oxford University Press. Sumner, A. (2006). Economic well-being and non-economic well-being. In M. McGillivray (Hrsg.), Understanding human well-being (S. 54–73). Tokyo: United Nations University Press. United Nations. (2015). Transforming our world. The 2030 agenda for sustainable development. Resolution 70/1 adopted by the General Assembly (A/RES/70/1). New York: United Nations. United Nations Development Programme. (1990). Human development report 1990. Concept and measurement of human development. New York: UNDP. United Nations Development Programme. (1991). Human development report 1991. Financing human development. New York: UNDP. United Nations Development Programme. (2010). Human development report 2010. The real wealth of nations. Pathways to human development. New York: UNDP. Vauchez, A. (2014). Transnationale Expertenfelder als schwache Felder. Der Entwurf des ersten Weltgerichtshofs und die Entstehung eines internationalen Expertentums. Berliner Journal für Soziologie, 24(2), S. 201–226.

Wie wird „Entwicklung“ transparent gemacht? Kämpfe um globale …

93

Ward, M. (2005). Aspects of „Quantifying the world. UN ideas and statistics“. Forum for Development Studies, 32(1), 181–218. Weiß, A. (2017). Soziologie globaler Ungleichheiten. Frankfurt a. M.: Suhrkamp. Wolff, J., & de-Shalit, A. (2007). Disadvantage. Oxford: Oxford University Press.

Bettina Mahlert (PD Dr.)  arbeitet als wissenschaftliche Mitarbeiterin am Soziologischen Institut der Universität Innsbruck und war Fellow am Käte Hamburger Kolleg/Centre for Global Cooperation Research (Universität Duisburg-Essen). Ihre Forschungsschwerpunkte liegen im Bereich der soziologischen Theorie, der politischen Soziologie (insbes. Entwicklungspolitik) und der Soziologie (globaler) sozialer Ungleichheiten. Zu ihren aktuellen Publikationen gehört „Kosmopolitische Ungleichheitssoziologie“ (zus. mit Thomas Kron, erscheint in Soziologische Phantasie und kosmopolitisches Gemeinwesen, Sonderband Soziale Welt, hrsg. von O. Römer und M. Holzinger).

Grenzen der Transparenz – Geheimhaltung in demokratischen Systemen Dorothee Riese

Zusammenfassung

Der Beitrag untersucht das ambivalente Verhältnis von Geheimhaltung und Transparenz und diskutiert sowohl theoretische Konzepte als auch Ergebnisse der empirischen Forschung. Insbesondere stellt er heraus, wie gegenwärtige Betrachtungen Geheimhaltung trotz der bestehenden Spannungen mit demokratischen Grundsätzen legitimieren: über deren instrumentellen Wert sowie durch Verfahren. Zugleich zeigt der Beitrag, dass empirische Analysen Geheimhaltung meist als prekär und grenzüberschreitend wahrnehmen, was instrumentellen und verfahrensbasierten Legitimationsversuchen entgegenzustehen scheint. Der Beitrag plädiert schließlich dafür, zwischen analytischen Konzeptionen (Erklärungen) und Theorien der Akteure selbst (Rechtfertigungen) zu unterscheiden.

Abstract

The chapter discusses the relationship between secrecy and transparency both theoretically and regarding empirical findings in the literature. Contemporary theoretical approaches integrate both secrecy and transparency as legitimate parts of democracy, based on instrumental value and procedural legitimation. Still, empirical analyses emphasize crucial tensions: secrecy is examined as an exception and as transgressing existing (legal and normative) frameworks.

D. Riese (*)  Universiteit Leiden, Leiden, The Netherlands E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 V. August und F. Osrecki (Hrsg.), Der Transparenz-Imperativ, https://doi.org/10.1007/978-3-658-22294-9_4

95

96

D. Riese

This chapter argues to regard instrumental value of secrecy not as a given, but rather as an object of analysis itself. Analytical perspectives and actorsʼ theories and justifications need to be differentiated.

1 Einleitung „Weniges kennzeichnet eine Staatsform […] so sehr, wie ihr Verhältnis zu Geheimnissen.“ (Rösch 1999, S. 15). Dabei scheint das Verhältnis von Demokratien zu Geheimhaltung auf den ersten Blick eindeutig: Demokratie setzt Transparenz voraus, da beispielsweise Wahlen oder parlamentarische Entscheidungsprozesse Zugang zu Informationen voraussetzen. Entsprechend kommt der Transparenz exekutiver Tätigkeit eine zentrale Bedeutung in demokratietheoretischen Konzepten zu. Und entsprechend klar steht staatliche Geheimhaltung dem auf den ersten Blick entgegen, denn sie begrenzt den Zugang zu Wissen. Nichtsdestotrotz ist Geheimhaltung auch in demokratischen Rechtsstaaten allgegenwärtig (Thompson 1999, S. 181). Der Transparenz-Imperativ bleibt also unerfüllt. In der politikwissenschaftlichen1 Debatte finden sich zwei grundsätzliche Positionen: Einige Autoren argumentieren, dass Geheimhaltung durch ihre Zweckmäßigkeit sowie über den Umweg prozeduraler Legitimation mit demokratischen Normen in Einklang zu bringen wäre. Eine zweite Perspektive verhandelt Fragen der Geheimhaltung als Ausnahmezustand bzw. begreift sie als kontinuierliche Grenzüberschreitung und stellt damit eine Vereinbarkeit von Geheimhaltung und Demokratie letztlich in Frage. Dieses Kapitel beginnt mit einer Definition der Begriffe Transparenz und Geheimhaltung sowie deren konzeptionelle Bezüge aufeinander (Abschn. 2). Daran anschließend wendet es sich der Frage zu, wie Geheimhaltung und Transparenz in politischen Systemen aus politiktheoretischer Perspektive in Einklang gebracht werden (können). Das Kapitel diskutiert, dass Geheimhaltung entweder über einen ihr zugeschriebenen instrumentellen Wert oder aber prozedural legitimiert wird und wirft mögliche theoretische Einwände auf. Anhand empirischer Beispiele exemplifiziert der vierte Abschnitt, welche Rolle die theoretischen Überlegungen zur Legitimierbarkeit des Geheimnisses in der Empirie spielen. Dabei zeigt sich, dass Geheimhaltung in der Literatur wie in der (demokratischen) Öffentlichkeit häufig als Grenzüberschreitung oder Normverletzung

1Ähnlich

sind auch die staats- bzw. rechtswissenschaftliche, philosophische und sozialwissenschaftliche Debatten strukturiert.

Grenzen der Transparenz – Geheimhaltung in demokratischen …

97

betrachtet wird. Die Ergebnisse der Analyse stellen infrage, ob die von einigen Theoretikern angenommene Legitimation durch Zweckorientierung und rechtliche Festschreibung greifen kann. Dieser Beitrag argumentiert daran anknüpfend in Abschnitt fünf, dass hierin zwar eine Spannung liegt. Diese kann jedoch darauf zurückgeführt werden, dass die Zweckmäßigkeit des Geheimnisses zwar als Gegenstand der Analyse, aber nur begrenzt selbst als analytische Perspektive auf das Geheimnis tragfähig ist. Er arbeitet heraus, dass zwischen analytischen Theorien und Theorien der Akteure unterschieden werden muss. Dieses Argument ist instruktiv für die Analyse von Transparenznormen und -praktiken: Soziale (z. B. machtpolitische) Bedingungen, unter denen Geheimhaltung und Transparenz ausgehandelt werden, rücken systematisch in den Fokus und erlauben neue ­Einsichten in das Funktionieren demokratischer Öffentlichkeit.

2 Geheimhaltung und Transparenz Wovon ist eigentlich die Rede, wenn es um Geheimhaltung und Transparenz geht? Insbesondere der Begriff der Transparenz ist so schillernd, dass den nachfolgenden Erörterungen eine Arbeitsdefinition vorangestellt werden muss. In einem zweiten Schritt soll auch das Verhältnis zwischen beiden Begriffen diskutiert und geklärt werden, ob Transparenz und Geheimhaltung einander konzeptionell ausschließen. Bei Geheimhaltung handelt es sich um eine Form der Nichtmitteilung (Sievers 1974, S. 18). Dabei kann zwischen Geheimhaltung als Prozess des Verbergens sowie Geheimnissen als Ergebnis, als „verheimlichte[m] Inhalt“ (Schirrmeister 2004, S. 33), unterschieden werden (Bok 1989, S. 6; Costas und Grey 2014, S. 1426; Hahn 1997, S. 23). Darüber hinaus ist Geheimhaltung gekennzeichnet durch die Intention des Verbergens auf der einen Seite (Bok 1989, S. 5) und der Mitteilungserwartung auf der anderen (Sievers 1974, S. 18; Westerbarkey 1991, S. 23). Geheimhaltung konstituiert so eine soziale Beziehung zwischen Geheimnisträgern (Rösch 1999, S. 31) und den vom geheimen Wissen Ausgeschlossenen (Nedelmann 1995, S. 6). Insbesondere Georg Simmel hat die soziale Relevanz von Geheimnissen herausgestellt und das Geheimnis als „eine der größten Errungenschaften der Menschheit“ bezeichnet (Simmel 1923, S. 272). Aufbauend auf Simmel haben eine Reihe von AutorInnen die soziale Bedeutung von Geheimnissen diskutiert: Geheimnisse konstituieren Gruppen und soziale Differenzierung (Hahn 1997, S. 27 f.), ziehen Grenzen (Assmann und Assmann 1997, S. 7) und prägen Machtverhältnisse (bspw. Stiglitz 2002, S. 29; Sarcinelli 2009, S. 81; Bok 1989, S. 282).

98

D. Riese

Transparenz ist im Vergleich dazu schwerer zu fassen (bspw. Fidell 2009, S. 457), insbesondere, da Verständnisse aus unterschiedlichen Disziplinen sowie der öffentlichen bzw. politischen Debatte nicht unbedingt zusammenfallen. Eine erste knappe Definition findet sich bei Birchall, die Transparenz zunächst als nicht viel mehr als die „absence of concealment“ beschreibt (Birchall 2011, S. 8). Andere Definitionen gehen über diese negative Bestimmung hinaus und beziehen die aktive Offenlegung von Informationen mit ein (Rajão und Georgiadou 2014, S. 99). Empirische Analysen operationalisieren Transparenz in der Regel als Informationszugang (bspw. Finel und Lord 1999, S. 317; De Fine Licht und Naurin 2015, S. 133). Normative Ansätze hingegen stellen darüber hinaus die faktische Verstehbarkeit und Durchsichtigkeit (bspw. Fung 2013) und damit die tatsächliche Zugänglichkeit von Informationen in den Fokus. Dies ist nicht nur eine Frage gradueller Ansprüche an Transparenz, sondern zieht fundamental unterschiedliche Schlüsse nach sich: Ist Transparenz der Zugang zu Informationen, ist deren Bereitstellung, gegebenenfalls auch in originaler, unbearbeiteter Form zentral. Ist Transparenz dagegen auch als Zugänglichkeit definiert, geht es nicht (oder nicht nur) um den Zugang zu Informationen, sondern u. a. auch deren Auswahl, Aufbereitung sowie Kapazitäten aufseiten der Empfänger, die Informationen zu verarbeiten (bspw. Fung 2013). Während der eine Ansatz die Akteure betrachtet, die über Informationen verfügen und den Zugang regeln, nimmt der andere auch die EmpfängerInnen in den Blick, also diejenigen, die Zugang und Zugänglichkeit erwarten. Dies mündet letztlich in der Frage, ob Transparenz im Sinne von Durchsehbarkeit durch Außenstehende überhaupt möglich ist. Konzipiert man Transparenz als Verstehbarkeit und Durchsichtigkeit, ist damit die Annahme verbunden, dies wäre grundsätzlich möglich.2 Diese Annahme aber wird von verschiedenen AutorInnen kritisiert, da sie die Komplexität der Realität nicht anerkenne. Beispielsweise Cotterrell kritisiert die Idee einer „echten“ Transparenz als ideologisch. Die Suggestion eines „‚whole picture‘ or ‚whole story‘“ findet ihre Grenzen beispielsweise in unterschiedlichen Perspektiven und der permanenten Möglichkeit, noch mehr über einen Sachverhalt zu erfahren (Cotterrell 1999, S. 417). Zudem weise gerade moderne Staatlichkeit aufgrund ihrer Komplexität notwendigerweise einen gewissen Grad an „obscurity“ auf. Intransparenz ist in modernen Gesellschaften

2Implizit

findet sich dies bspw. in Balkins Diskussion „simulierter“ Transparenz (Balkin 1999), die von Cotterrell (1999) kritisch aufgegriffen wurde (siehe auch Bok 1989, S. 254). Auch Analysen zu WikiLeaks stellen deren Konzeption einer potenziell transparenten Welt in den Fokus (bspw. Marsh 2011, S. 533).

Grenzen der Transparenz – Geheimhaltung in demokratischen …

99

somit strukturell angelegt (Fenster 2010, S. 623) oder wird durch Transparenzpraktiken sogar noch verstärkt, da diese zusätzliche Komplexität produzieren (August 2018, S. 141). Offenbar teilen Transparenz und Geheimhaltung konzeptionell einige Gemeinsamkeiten: Beide sind akteursbezogen und betreffen den (intentionalen) Umgang mit Informationen. Für beide sind dieselben Akteursgruppen relevant: Jene mit Informationszugang und jene, die davon ausgeschlossen sind und entweder ausgeschlossen bleiben (Geheimnis) oder Zugang erhalten (Transparenz). Es geht also stets um eine Beziehung zwischen In- und Outsidern. Beide Begriffe eint darüber hinaus, dass sie letztlich Idealtypen sind, vollständige Informationskontrolle in die eine wie andere Richtung aber praktisch unmöglich ist (siehe Fenster 2015; Knobloch 2017, S. 205). Dennoch stehen beide Begriffe nicht in einem symmetrischen Verhältnis zueinander: So „hängt die Möglichkeit des Geheimhaltens mit einer Asymmetrie im Verhältnis von Reden und Schweigen zusammen. In bezug [sic!] auf jede bestimmte Information gilt: Wer schweigt, kann immer noch reden. Wer dagegen geredet hat, kann darüber nicht mehr schweigen.“ (Luhmann und Fuchs 1992, S. 105). Schließlich argumentiert dieser Beitrag, dass Geheimhaltung und Transparenz mehr als die Negation des jeweils anderen darstellen. Die Abwesenheit von Transparenz ist nicht notwendig mit Geheimhaltung gleichzusetzen. Ähnlich diskutiert beispielsweise Heald in einer systematischen Übersicht über Dimensionen und Aspekte von Transparenz eine Reihe von Antonymen, bspw. „opaqueness (opacity), obscurity, ambiguity, fudge, vagueness and imprecision“ oder auch „lack“ oder „absence of transparency“ (Heald 2003, S. 744). Geheimnis oder Geheimhaltung tauchen hier mit gutem Grund nicht als Gegenstück auf: Intransparenz ist nicht automatisch Geheimhaltung, sondern kann beispielsweise auch aus Komplexität entstehen und wird erst dann zu Geheimhaltung, wenn Intentionalität hinzukommt. Transparenz und Geheimhaltung sind also trotz aller konzeptionellen Spannungen und potenziellen Konflikte kein ideales Gegensatzpaar. Es existiert ein Raum zwischen Geheimhaltung und Transparenz; mehr von einem bedeutet nicht automatisch weniger vom anderen. So ist auch nicht alles, was nicht explizit geheim ist, automatisch transparent. Costas und Grey veranschaulichen dies am Beispiel der End User License Agreements (EULAs)3, die zwar nicht geheim

3Sogenannte

End User License Agreements beinhalten die allgemeinen Geschäftsbedingungen und vertragliche Verpflichtungen, die man bei der Installation von Software annimmt und in aller Regel entweder nicht liest, oder aber nur begrenzt zu verstehen in der Lage ist.

100

D. Riese

sind, zugleich aber dennoch opak und praktisch unzugänglich (Costas und Grey 2016, S. 53). Zudem kann derselbe Gegenstand sowohl auf unterschiedlichen Ebenen transparent und geheim zugleich sein oder aber für unterschiedliche Akteure transparent oder geheim erscheinen.

3 Geheimhaltung als normatives Problem – instrumentelle und prozedurale Legitimation von Geheimhaltung Auch wenn Transparenz nicht einfach das Gegenteil von Geheimhaltung ist, so steht Geheimhaltung doch in einem grundsätzlichen Spannungsverhältnis zu demokratisch begründeten Transparenzforderungen. Geheimhaltung wird denn auch als „‚pathology‘ of the political“ (Horn 2006, S. 39), antithetisch zu (Fenster 2015, S. 162) und „corrosive“ (Stiglitz 2009, S. 697) für die Demokratie beschrieben. Der Begriff der Transparenz hingegen ist aufgeladen mit einer Vielzahl anspruchsvoller Erwartungen, als Bestandteil von Demokratie oder Mittel für mehr Partizipation, accountability, Akzeptanz, Kontrolle oder good governance (bspw. Roberts 2006, S. 20; Bröhmer 2004, S. 373 etc.). Zugleich unterstreichen zahlreiche aktuelle Beispiele faktischer Geheimhaltung die Brisanz dieses Spannungsverhältnisses: Die in der breiten Öffentlichkeit diskutierten neueren Geheimdienstskandale um NSU, NSA/Five Eyes ebenso wie wissenschaftliche Betrachtungen der Klassifizierungspraxis von Staaten deuten auf die anhaltende, wenn nicht gar (zumindest quantitativ) steigende Bedeutung geheimer Dokumente hin. Verschiedene AutorInnen verweisen darauf, dass mit der Entstehung moderner Bürokratien (und der damit verbundenen personellen Expansion) auch eine Zunahme an Geheimhaltung einherging (bspw. Rourke 2009, S. 407; Roberts 2006, S. 11). Schon Max Weber sah eine „Tendenz zur Sekretierung“, die sich in Verwaltungen beobachten lasse – sei sie nun sachlich begründet oder als nicht immer „rein sachlich […] motivierbare […] Attitude“ (Weber 2010, S. 730 f.). Dass die Verwaltung „über die Jahrhunderte hinweg eine Insel der Intransparenz“ blieb (Wagner 2015, S. 134), wird unter anderem damit erklärt, dass diese noch „das einzige, im Absolutismus ausgebildete Machtmittel in der Hand des Fürsten gegen die Interessen der bürgerlichen Gesellschaft darstellte.“ (Habermas 1990, S. 155). Kurzum: Auf der einen Seite des Spannungsverhältnisses steht die Erwartung umfänglicher Transparenz, auf der anderen Seite bleibt diese durch weiterhin bestehende oder sogar ausgebaute Geheimhaltung unerfüllt. Zwei Ansätze existieren, um diese Spannung im Sinne demokratischer Legitimation und Kontrolle

Grenzen der Transparenz – Geheimhaltung in demokratischen …

101

von Geheimhaltung aufzulösen. Zum einen wird die Notwendigkeit von Geheimhaltung instrumentell begründet und gerechtfertigt, zum anderen wird ihre Vereinbarkeit mit einem demokratischen politischen System prozedural legitimiert.

3.1 Instrumentelle Legitimation von Geheimhaltung Im Sinne instrumenteller Legitimation wird Geheimhaltung in demokratischen Systemen häufig als notwendiges Übel konzipiert (Kitrosser 2005, S. 3; Shils 1956, S. 25; Horn 2006, S. 39), das für das Erreichen bestimmter Zwecke unumgänglich sei. So bleibt zwar unbestritten, dass Geheimhaltung der Transparenznorm und Erfordernissen demokratischer Verfahren (Meinungsbildung, Wahlen, parlamentarische Abstimmungen) zunächst widerspricht, dennoch wird darauf verwiesen, dass es Zwecke oder Notwendigkeiten gibt, die Geheimnisse ausnahmsweise und selbst (oder gerade) in einer Demokratie rechtfertigen: „Normativ tritt es [das Geheimnis] hinter die Öffentlichkeit zurück und wird im Ausnahmefall oder im Ausnahmezustand aktiviert. Dafür sind jedoch erhebliche Argumentationen notwendig, die immer nur eine raum-zeitlich streng limitierte Suspendierung der Öffentlichkeit zugunsten des Geheimnisses rechtfertigen. Die Ächtung des Geheimnisses als positives Prinzip, das nicht mehr ohne seinen Gegenbegriff relevant ist, bei gleichzeitig maximal pragmatisch-funktionaler, also keinesfalls systemisch zu verstehender Zulassung in der Politik kennzeichnet das Verhältnis von Demokratie und Geheimnis.“ (Knobloch 2017, S. 213)

Bezugspunkt für die Möglichkeit von Geheimnissen unter Beachtung der (demokratischen) Transparenznorm ist in aus dieser Perspektive also die Funktionalität (vgl. Friedrich 1973, S. 148; Fuchs 2006, S. 156) oder Notwendigkeit von Geheimhaltung (vgl. Rourke 2009, S. 417; Thompson 1999, S. 182). Implizit ist diesen Begrifflichkeiten eine gewisse Offenkundigkeit, dass sich der Geheimhaltungsbedarf von selbst aus einer Sache ergibt. Es kann Entscheidungen geben, deren Zweck hintertrieben würde, würde man sie direkt öffentlich machen (zum Beispiel bei Eingriffen in Finanzmärkte, siehe Stiglitz 2002, S. 36; Riese 2015 und unten). Geheimhaltung ist also instrumentell für das Erreichen bestimmter Ziele und wird strikt zweckorientiert legitimiert. Entsprechend finden sich in der Literatur immer wieder eine Reihe paradigmatischer instrumenteller Geheimhaltungsgründe. Die beiden wichtigsten Zwecke staatlicher Geheimhaltung betreffen die Staatssicherheit und die Wahrung der Privatsphäre (bspw. Jestaedt 2001; Düwel 1965; Müller 1991). Daneben werden als weitere Geheimhaltungsgründe die Gewaltenteilung

102

D. Riese

(vgl. Müller 1991, S. 78) bzw. das executive privilege (im deutschen Sprachgebrauch: Kernbereich exekutiver Eigenverantwortung) als Geheimhaltungszweck genannt. Einen vierten Bereich bildet der Verweis auf die Effektivität staatlichen Handelns (bspw. Sarcinelli 2009; Düwel 1965). Während Staatssicherheit und Privatsphäre jeweils weithin als legitime Gründe für Geheimhaltung anerkannt werden (wenngleich die praktischen Schlüsse variieren, was diese im Konkreten rechtfertigen)4, so sind Gewaltenteilung und Effektivität als Geheimhaltungsgründe umstrittener. Bezüglich der Gewaltenteilung lässt sich einerseits argumentieren, dass die Exekutive einen Anspruch auf Geheimhaltung haben müsse, um hinreichend von der sie kontrollierenden Legislative abgegrenzt zu sein und vor allem auch zunächst eigenständige Entscheidungen treffen zu können, die dann im Nachgang der Kontrolle unterworfen werden. Auf der anderen Seite argumentiert u. a. Sadofsky (1990, S. 89), dass Geheimhaltung Gewaltenteilung ebenso behindern kann, da sie die Kontrollmöglichkeiten qua Informationsbeschränkung verringert. Auch Wegener (2006, S. 472) verweist darauf, dass Gewaltenteilung im Sinne der „Entscheidungsmacht“ der Exekutive durch Informationszugang nicht infrage gestellt würde. Das executive privilege als Begründung für das Vorenthalten von Information im Sinne der Gewaltenteilung bleibt also in der wissenschaftlichen Debatte umstritten. Auch das Verhältnis von Geheimhaltung und Effektivität ist ambivalent: Einerseits geht es bei Effektivitätsüberlegungen um die Annahme, gute Entscheidungen auf Grundlage einer Deliberation oder auch ungestörter Verhandlungen und Kompromisse (bspw. Depenheuer 2002, S. 25; Pannes 2015, S. 410) nicht im Licht der Öffentlichkeit treffen zu können, da parteipolitische Konkurrenz oder Darstellungszwänge diese verhindern. Doch es lässt sich ebenso argumentieren, dass Deliberation unter Geheimhaltung Gefahr läuft, wichtige Argumente oder Expertise gar nicht wahrzunehmen, da der Kreis der Beteiligten zu klein ist und absichtlich klein gehalten wird (bspw. Samuel 1972, S. 8; Tefft 1979, S. 67). An den Ambivalenzen in der Begründung von Geheimhaltung durch die Argumente Effektivität oder Gewaltenteilung wird bereits deutlich, dass die mit der Annahme

4Die

Frage stellt sich, in welchem Ausmaß Staatssicherheit als Motiv Geheimhaltung rechtfertigt. Denn während Geheimhaltung einerseits z. B. Angreifbarkeiten verbergen helfen kann, kann Öffentlichkeit nützlich sein, Gefahren zu erkennen (Koch 2017, S. 127) oder mit ihnen so umzugehen, dass mehr Sicherheit produziert wird (Gowder 2009; Blanton 2009, S. 620).

Grenzen der Transparenz – Geheimhaltung in demokratischen …

103

einer so oder so begründeten Notwendigkeit anvisierte Selbstverständlichkeit von Geheimhaltungsbedürftigkeit eben doch begründungsbedürftig ist. In der Praxis unterliegt Geheimhaltungsbedürftigkeit denn auch stets einer Abwägung, da sie potenziell immer in Widerspruch zu Öffentlichkeitsgrundsätzen steht (bspw. Ritzi 2017, S. 192). „The differences arise, rather, in actual practice, and in deciding how much secrecy the arguments justify“. (Bok 1989, S.  176). Unterschiedliche, konfligierende Normen müssen gewichtet werden. Notwendigkeit muss per Entscheidung – und das heißt durch potenziell interessengeleitete Akteure – festgestellt werden. Da eine solche Entscheidung zudem immer auf einer Prognose basiert, auf einer Annahme möglicher negativer Folgen, die man durch Geheimhaltung zu verhindern sucht, ist sie letztlich nicht überprüfbar (so bspw. auch Gowder 2009, S. 684; Fenster 2012, S. 806). Einschätzungen können dabei auf zwei Ebenen divergieren: Auf der einen Seite können die Zwecke unterschiedlich gewichtet werden, bspw. in der Abwägung zwischen demokratischer Kontrolle und erwarteten Sicherheitsgewinnen. Dies ist einerseits eine Frage konfligierender Interessen, aber auch politisch-normativer Verortung (siehe Birchall 2011, S. 14). Auf der anderen Seite kann selbst bei gleicher normativer Gewichtung der Zwecke die konkrete Kalkulation von Kosten und Nutzen abweichen (siehe bspw. Sagar 2013, S. 100), da sie stets auf einer Prognose erwarteter Effekte beruht. Darüber hinaus ist aber auch kritischen Einschätzungen von Geheimhaltung, u. a. bezüglich einer übermäßigen Einstufung von Informationen oder Dokumenten als geheim (zu „overclassification“ bspw. Fuchs 2006, S. 133; Kitrosser 2005), oft ein instrumentelles Verständnis eingeschrieben. In diesem Fall lautet der Vorwurf, dass mehr als geheim eingestuft werde, als notwendig sei. Damit ist eine (implizite) Annahme über ein „richtiges“ Maß an Klassifizierung verbunden. Dies zeigt einerseits, wie stark die Annahme einer durch Notwendigkeit bestimmten Geheimhaltung die Diskussion durchdringt, andererseits aber auch, dass die Bewertungen von Notwendigkeit in der Praxis divergieren. Der angenommene instrumentelle Wert des Geheimnisses bietet einen Ausgangspunkt für die (utilitaristische5) Legitimation des Geheimnisses trotz der vorherrschenden Transparenznorm. Wie August (2018, S. 132) zeigt, sind Transparenztheorien (und -forderungen) häufig utilitaristisch geprägt. Transparenz

5Eine

ausführliche Kritik dieser utilitaristischen Perspektive findet sich bei Gowder (2009, passim).

104

D. Riese

wird eine gemeinwohlförderliche Funktion zugeschrieben, denn: Unter Transparenzbedingungen verhalten sich alle besser. „Transparenz misst nicht, was real passiert, sondern fokussiert auf das, was als moralökonomisch effizient befunden wird“ (ebd., S. 134). Eine utilitaristische Begründung von Transparenz eröffnet aber zugleich die Möglichkeit, auch Geheimhaltung zu begründen, nämlich dann, wenn der Nutzen von Geheimhaltung ihren Schaden bzw. den alternativen Nutzen von Transparenz überwiegt. Argumentationen, die auf die Notwendigkeit von Geheimhaltung für höhere Ziele abzielen, sind in diesem Sinne also ebenfalls utilitaristisch. Im Konkreten ist die begrifflich suggerierte Selbstverständlichkeit von Notwendigkeiten aber nicht gegeben und somit kontestabel. In all diesen Begründungen bleibt die Zuordnung bzw. Gewichtung der Argumente letztlich ambivalent, da unterschiedliche Interessen oder zumindest Perspektiven möglich sind. Wenn die „Grenzen dessen, was transparent gemacht werden soll, […] keine vorab definierten, sondern ein Produkt sozialer Aushandlungsprozesse“ sind (Stehr und Wallner 2010, S. 11), dann stellt sich die Frage, wie diese Aushandlung zustande kommt. Deshalb kann grundsätzlich nicht abstrakt bestimmt werden, wann Geheimhaltung legitim ist. Vielmehr handelt es sich dabei um eine (politische) Entscheidung.

3.2 Prozedurale Legitimation von Geheimhaltung Eine zweckorientierte Legitimation ergibt sich also nicht automatisch aus der Sache selbst, da Zweckmäßigkeit immer von Akteuren zugeschrieben und ausgehandelt wird. Damit ist Legitimation auf Verfahren angewiesen (siehe Luhmann 1978). Für das Begriffspaar Transparenz und Geheimhaltung ist dies in besonderem Maße von Bedeutung, wie Thompson postuliert: „Secrecy is justifiable only if it is actually justified in a process that itself is not secret. First-order secrecy (in a process or about a policy) requires second-order publicity (about the decision to make the process or policy secret)“ (Thompson 1999, S. 185). Ähnlich unterscheidet Pozen zwischen „shallow“ und „deep“ Geheimnissen (Pozen 2010)6 und Sievers zwischen einfachen und reflexiven Geheimnissen

6„There

are things we know we know, things we know we do not know, and things we do not know we do not know. And, in fact, the secrets in the latter category tend to be the most difficult ones for a free society. They are deep secrets.“ (Pozen 2010, S. 260).

Grenzen der Transparenz – Geheimhaltung in demokratischen …

105

(Sievers 1974, S. 31).7 Gemeinsam ist diesen Unterscheidungen, dass neben dem geheimen Inhalt selbst die Frage nach seiner Existenz im Raum steht. Während flache oder einfache Geheimnisse einen Gegenstand betreffen, ist bei tiefen oder reflexiven Geheimnissen also auch der Fakt geheim, dass es ein Geheimnis gibt. Prozedurale Legitimation wird diesen Konzepten nach dann hergestellt, wenn die Entscheidung darüber, ob bzw. was geheim zu halten ist, in einem öffentlichen, demokratischen Prozess getroffen wird. Diese Trennung ermöglicht eine Diskussion der Zwecke von Geheimhaltung, ohne konkrete Inhalte offenlegen zu müssen (vgl. Epps 2008, S. 1570). Das Anerkennen der Rechtfertigung der Geheimhaltung setzt voraus, dass die Existenz des Geheimnisses und die Begründung dafür bekannt sind. Geheimhaltung ist demnach prinzipiell in demokratischen Systemen legitimierbar, wenn über sie in einem transparenten Prozess entschieden wird. Insofern stellt sich die oben diskutierte Gegenüberstellung von demokratischer Norm (Transparenz) und Geheimhaltung als weniger problematisch dar. In bestimmten Fällen ist die Entscheidung zur Geheimhaltung durchaus Ausdruck demokratischer Selbstbestimmung (Schoenfeld 2010, S. 21). Dann geht es nicht mehr nur um die Anerkennung von Zweckmäßigkeit in der Sache, sondern auch um die moralische Qualität des Entscheidungsprozesses (Gutmann und Thompson 1996, S. 4). Geheimhaltung kann so durch einen öffentlichen Entscheidungsprozess über sie in die (zumindest normativ) vorherrschende Transparenznorm inkorporiert werden. „Decreasing a secretʼs depth will not necessarily lead to better outcomes, but it will systematically lead to different outcomes: outcomes that are deemed acceptable from a greater variety of perspectives, that have been more thoroughly reasoned and refined through a dialogic vetting process, that are better documented, that take longer to be finalized, and that are more likely to be publicized.“ (Pozen 2010, S. 275)

Nichtsdestotrotz löst auch prozedurale Legitimation die Spannungen, die durch Geheimhaltung entstehen, nicht vollständig auf. Es bleiben drei Einwände

7Hier

wird auch noch einmal deutlich, dass Transparenz und Geheimhaltung durchaus zugleich bestehen können. Im Falle flacher oder einfacher Geheimnisse ist deren Existenz bekannt, während ihre konkreten Inhalte intransparent bleiben. Pozen kritisiert dann auch andere Ansätze, die den Unterschied zwischen shallow und deep als Dichotomie konzipieren, und verweist darauf, dass es sich hierbei um ein Kontinuum handelt (Pozen 2010, S. 261 ff.). Die Tiefe eines Geheimnisses ergibt sich für ihn aus vier Faktoren: der Anzahl der Eingeweihten, die Art der Eingeweihten, wie viel diese wissen und wann (ebd., S. 267).

106

D. Riese

bestehen. Erstens können Konflikte zwischen utilitaristischen Überlegungen und prozeduraler Legitimation entstehen. So sind policies denkbar, deren Erfolg nicht nur von einfacher Geheimhaltung abhängt, sondern reflexive Geheimhaltung erfordert. In manchen Fällen kann schon die Bekanntheit der Tatsache, dass überhaupt entschieden wird, den Zweck torpedieren – erneut bietet sich das Beispiel von Eingriffen in den Finanzmarkt an (siehe unten). Zweitens stellt sich die Frage, in welchem Umfang eine effektive Begrenzung von Geheimhaltung durch demokratische Prozesse möglich ist. Diejenigen, die über Informationen verfügen, befinden sich stets in einer privilegierten Position, da sie potenziell auch die Existenz der Geheimnisse selbst geheim halten können. Das betrifft gerade illegitime Geheimnisse, deren „einfache Geheimhaltung eben nicht zu rechtfertigen und deshalb nicht durchzuhalten wäre“ (Schirrmeister 2004, S. 141 f.). Partikularinteressen, Fehler, Angst vor Kritik oder der Ausbau der eigenen Position können zu illegitimer Geheimhaltung motivieren (vgl. bspw. Stiglitz 2009, S. 702).8 Abweichungen können grundsätzlich nur schwer nachvollzogen werden (siehe Roberts 2006, S. 20 zu „hidden law“). Drittens stellt u. a. Gowder (2009) in seiner Kritik utilitaristischer Rechtfertigungen von Geheimhaltung infrage, ob überhaupt eine Zustimmung zu Geheimhaltung9 möglich ist, auch wenn die Existenz des Geheimnisses damit bekannt ist. Denn jede Geheimhaltung entzieht den BürgerInnen ihre Autonomie und Fähigkeit, über Geheimhaltung zu entscheiden, „because secrecy defeats the principles of rationality which must underlie any such legitimate process“ (Gowder 2009, S. 683; siehe auch Velten 1996). Zur Lösung des Kontrollproblems finden sich in der Literatur eine Reihe von Ansätzen, die meist aber eigene praktische Schwächen mit sich bringen. So werden unter anderem proxy monitoring (bspw. Epps 2008, S. 1574) durch Gerichte, Kommissionen oder Ombudspersonen vorgeschlagen, die allerdings durch Geheimhaltung entstehende agency-Probleme nur verlagern. Hier stellt sich

8Welche

Motivation dahinter steckt, ist oft nicht erfassbar. Denn gerade Geheimhaltung, die für sich genommen keine Legitimation beanspruchen kann, wird diskursiv zu legitimieren versucht: „Das beste Argument, eigenen Geheimbereichen gesellschaftliche Legitimität zu verschaffen, ist zweifellos die Behauptung, gemeinnützige Interessen oder gar den ‚öffentlichen Willen‘ zu vertreten (Hölscher 1979, S. 11 ff.). Wer Macht hat und behalten möchte, muss daher zwar egoistisch handeln, aber Altruismus bekunden“ (Westerbarkey 2003, S. 208). 9Er sagt dabei nicht, dass nicht auch der Bedarf bestehen kann, „to do what is necessary“ (Gowder 2009, S. 685), verneint aber die Möglichkeit, dies in irgendeiner Form zu legitimieren.

Grenzen der Transparenz – Geheimhaltung in demokratischen …

107

sogleich die Frage nach der Kontrolle der Kontrolleure sowie nach der Schlagkraft der Kontrolle, da bspw. für Gerichte (insb. für den Fall der USA) empirische Studien eine Tendenz zur deference, also zur unhinterfragten Bestätigung der Geheimhaltungsforderungen der Exekutive, identifizieren (Fenster 2006, S. 939; Fuchs 2006; Pozen 2005). Daneben werden Umgehungsstrategien, insbesondere leaking und whistleblowing als extralegale Mechanismen der Kontrolle diskutiert (Sagar 2011, 2013). Diese Art der Kontrolle ist jedoch unsystematisch und fallbezogen und überträgt die Aufgabe der Kontrolle an nicht dafür legitimierte Akteure, die wieder ganz eigene Motive haben können (Sagar 2011, 2013). Darüber hinaus zieht diese Art der Kontrolle möglicherweise als Gegenreaktion verschärfte Geheimhaltung seitens der zu Kontrollierenden nach sich (Roberts 2012, S. 128) und bleibt so über den Einzelfall hinaus wenig effektiv. Schließlich setzt jede Form der Kontrolle ein Mindestmaß an Vorkenntnis, an „prerequisite knowledge“ (Pozen 2010, S. 324) voraus. Kontrolleure müssen zumindest Anhaltspunkte haben, wonach sie fragen oder suchen müssen. Deep secrets entziehen sich einer solchen Kontrolle. Wie sich hier andeutet, kann Geheimhaltung auch ganz grundsätzlich als nicht mit den Mitteln des Rechts greifbar verstanden werden. Entsprechend konzipiert Horn das Geheimnis als moderne Variante des Ausnahmezustands: „[W]e might say that the state secret is the exception of the political in the modern age, the moment in which the transparent legal order, the commitment to representation and legality, willingly suspends itself in the name of the functioning of the state apparatus, thus creating space for something beyond the reach of its principles.“ (Horn 2011, S. 114)

Sie argumentiert hier in Anlehnung an Carl Schmitt das Geheimnis als die Ausnahme moderner Staaten, die einer eigenen, anderen Logik folge als das Recht (Horn 2011, S. 113): „This sphere, however, is to be considered not, like the classic ‚state of exception‘, as a temporary suspension of the entire legal order, but as a permanent possibility inherent in the state itself.“ (ebd., S. 114 f.). Das Geheimnis als Ausnahme ist somit (wie auch Carl Schmitts Ausnahmezustand) per se nicht in den normalen Rechtsrahmen zu integrieren, ohne diesen infrage zu stellen. Nichtsdestotrotz ist es, ebenfalls Schmitt folgend, zutiefst instrumentell (Horn selbst spricht von einer funktionalistischen Perspektive, Horn 2011, S. 115): Die Ausnahme dient der Erhaltung der Norm bzw. des Staates, hat also einen letztlich legitimen Zweck.

108

D. Riese

Die zwischen Normen der Transparenz (bspw. im Sinne demokratischer Verfahren) und der Geheimhaltung (bspw. zum Zweck der Staatssicherheit oder Gewaltenteilung) bestehende Spannung wird in der Literatur, aber auch in der Praxis also in einem doppelten, zum Teil widersprüchlichen Prozess aufgelöst. Zum einen objektivieren instrumentelle Argumente die Geheimhaltung und machen sie rechtlich beschreibbar. Daraus resultiert die Vorstellung, dass Geheimhaltung mit Transparenz grundsätzlich überhaupt zu vereinbaren ist. Zum anderen wird Geheimhaltung, aufgrund der dennoch bestehenden Abwägungsoffenheit, prozedural legitimiert. Die Frage nach dem Verhältnis zwischen Geheimhaltung und Transparenz bleibt stets auch eine empirische, da sie normativ nicht aufzulösen ist.

4 Zur Praxis der Geheimhaltung: Overclassification und Leaks Geheimhaltung als „difficult-access problem“ (Maravic 2012) stellt naturgemäß besondere Ansprüche an die empirische Forschung. Insbesondere deep secrets können insoweit betrachtet werden, wie sie bereits an Tiefe verloren haben, sodass ihre Existenz für ForscherInnen überhaupt bekannt ist. Einige AutorInnen identifizieren denn auch einen Mangel an empirischer Forschung zu Geheimnissen (bspw. Curtin 2013, S. 304; Knobloch 2017, S. 205). Es mag daher nicht verwundern, dass sich ein weitaus umfangreicherer Korpus an Literatur empirisch mit Transparenz befasst denn mit Geheimhaltung. Die frühere Forschung zu Transparenz war dabei stark durch die der Transparenz zugeschriebenen normativen Bedeutung für demokratische Verfahren motiviert. Entsprechend wurden bspw. in der good governance-Forschung Rahmenbedingungen für (erfolgreiche) Transparenzregimes diskutiert sowie Transparenznormen operationalisiert und gemessen, um die Qualität oder Reichweite existierender Regelungen bewerten zu können. Schließlich wurde so geprüft, ob (bzw. unter welchen Bedingungen) die vielfältigen angenommenen Effekte von Transparenz auch eintreten. Geheimhaltung wurde dabei aber allenfalls als punktuelle Ausnahme von Transparenz diskutiert. Konzeptionell stellt Geheimhaltung in der Literatur über Transparenz also oft nur die Ausnahme dar, eine Abweichung von der Norm. Die Norm wird für sich genommen analytisch nicht infrage gestellt, sondern nur punktuell nicht erfüllt. So sind manche empirischen Arbeiten über Transparenz denn auch angesichts bestehender Intransparenz oder Geheimhaltung von Ernüchterung darüber geprägt, dass Transparenz nicht oder noch nicht hinlänglich umgesetzt ist. Ver-

Grenzen der Transparenz – Geheimhaltung in demokratischen …

109

steht man Geheimhaltung nur als Ausnahme, als Abweichung, muss ihre Existenz immer problematisch sein. In ähnlichem Sinne konstatiert Horn für die politische Debatte, dass Geheimhaltung hauptsächlich in Form des Skandals diskutiert werde (Horn 2011, S. 104). Popitz verwies dazu in seinem Aufsatz „Über die Präventivwirkung des Nichtwissens“ darauf, dass „weniger der Normbruch als der Skandal“ selbst skandalös sei – denn „erst die öffentliche Affäre offenbart aber auch eindeutig, daß die Norm empfindlicher, verletzlicher ist, als ihre öffentliche Präsentation wahrhaben will“ (Popitz 1968, S. 14). In diesem Sinne befasst sich ein zweiter Teil der Literatur, der sich explizit mit Geheimhaltung auseinandersetzt, mit Grenzüberschreitungen und Regelverletzungen. Zwei unterschiedliche empirische Phänomene lassen sich in diese Logik der Ausnahme einordnen: overclassification, also die übermäßige Einstufung von Dokumenten oder Informationen als geheim auf der einen Seite und leaks bzw. whistleblowing auf der anderen Seite. Beide sind Aspekte des Konflikts um Geheimhaltung und deren Reichweite und Grenzen. Von vielen AutorInnen wird zudem ein expliziter Zusammenhang zwischen leaks und overclassification hergestellt. So spricht Sissela Bok beiden eine „symbiotische Beziehung“ (Bok 1989, S. 217, Übersetzung d. Autorin) zu: Je mehr (ungerechtfertigte) Geheimhaltung es gebe, desto mehr böten sich auch Gelegenheiten und Anreize für leaks (siehe auch McCurdy 2013, S. 135). Ebenso kann dieser Zusammenhang umgedreht betrachtet werden. Voigt beispielsweise argumentiert, die Sensationsgier der Medien würde erst zunehmende Geheimhaltung hervorrufen (Voigt 2017, S. 7). Beide Perspektiven nehmen einen Zusammenhang zwischen den Formen der Grenzüberschreitung an. Beide Einflussrichtungen können auch gleichzeitig oder im Wechsel wirken, versteht man den Prozess als iteratives Spiel, in dem AktivistInnen neue Instrumente für die Herstellung von Transparenz nutzen, Regierungen aber ihrerseits mit neuen Restriktionen reagieren (Roberts 2012, S. 128; vgl. auch Herder in diesem Band). Implizit ist hierin eine Gleichgewichtsannahme enthalten, dass sich übermäßige Geheimhaltung und übermäßige leaks gegenseitig bedingen. Zugleich zeigt sich daran aber auch, dass rechtliche frameworks destabilisiert werden können, indem eine Grenzüberschreitung weitere Grenzüberschreitungen als Reaktion hervorruft.

4.1 Overclassification als systematisches Problem Neben dem Verhältnis zwischen overclassification und leaks werden auch konkretere Gründe für den jeweiligen Prozess diskutiert. Overclassification wird unter anderem auf derivative Geheimhaltung zurückgeführt (bspw. Curtin 2013,

110

D. Riese

S. 314): Werden in einem Dokument Informationen aus einem früheren, klassifizierten Dokument verwendet, so wird in der Praxis meist auch das neue Dokument klassifiziert (Thompson 1999, S. 181) – ungeachtet der Frage, ob es sich bei der verwendeten Information tatsächlich um den zu schützenden Teil des Originaldokuments handelte. Die entstehende derivative Geheimhaltung (Curtin 2013, S. 314; siehe auch Kitrosser 2008; Friedrich 1973, S. 150) setzt sich also wie ein Schneeballsystem fort (vgl. Curtin 2011, S. 18) – ein Großteil klassifizierter Dokumente ist derivativ klassifiziert.10 Neben formellen wie informellen Regeln wie der „originator control“11 (vgl. Curtin 2013, S. 314), die beim Austausch von Informationen zwischen unterschiedlichen Akteuren den Informationsempfänger zur Einhaltung der originalen Klassifizierung verpflichten, werden auch andere Erklärungen diskutiert. Überklassifizierung ist zum Beispiel oft einfach das Ergebnis einer „lower risk strategy for public officials“ (ebd.), um potenziell schädliche Fehler bei der Einstufung zu vermeiden. „To insiders, the danger of ill-advised disclosure seems greater than that of ill-advised secrecy.“ (Bok 1989, S. 198) Ob dabei tatsächlich offene Abwägungsprozesse von Kosten und Nutzen ablaufen, ist unklar. Shapiro und Siegel zeigen anhand von Interviews, dass die Einstufenden sich zum Teil klar pro Offenlegung oder Geheimhaltung positionierten und nur ein Teil der Interviewten eine fallbezogene Entscheidung treffen würde (Shapiro und Siegel 2010, S. 96). Neben overclassification, also der missbräuchlichen oder zumindest übertriebenen Nutzung formaler Klassifizierungssysteme werden in der Literatur auch Beispiele angeführt, in denen sich Geheimhaltung außerhalb des formalen rechtlichen Rahmens abspielt. So diskutieren Shapiro und Siegel die Neuschöpfung von „Sensitive but Unclassified (SBU) information“ (2010, S. 68) in den USA. Auch Informalität (bspw. Pannes 2015) und Netzwerke (bspw. Knobloch 2011) als nicht-verrechtlichte Formen der Geheimhaltung werden in der Literatur untersucht. Diese Beispiele zeigen, dass sich Geheimhaltung, wie oben bereits angenommen, in der Praxis oft dem Zugriff formaler Regeln entzieht: einerseits,

10Ein Interviewpartner von Europol schätzt entsprechend, dass in seiner Behörde ca. 95 % der klassifizierten Dokumente derivativ klassifiziert seien (Abazi 2013, S. 10). 11Dies produziert potenzielle Probleme, die ebenfalls illustrieren, dass Notwendigkeit von Geheimhaltung eine Frage der Definition sein kann: „Da aber die Anschauungen über Geheimhaltung international verschieden sein können, ist der Fall denkbar, daß sich die Bundesregierung zur Nichtweitergabe von Informationen verpflichtet, die nach innerstaatlicher Auffassung nicht geheimhaltungswürdig sind.“ (Müller 1991, S. 91).

Grenzen der Transparenz – Geheimhaltung in demokratischen …

111

indem letztere über ihren eigentlichen Zweck hinaus angewandt werden, andererseits, indem informelle Praktiken der Geheimhaltung abseits formaler Regelungen entstehen.

4.2 Leaks als begrenzte Lösung Auch für leaks und whistleblowing werden Gründe angeführt, die über die einfache Annahme, hierdurch würde auf overclassification reagiert, hinausgehen. So spielen neben Public-Interest-Überlegungen (bspw. Bieber 2016 zu „Ethics of the Leak“) beispielsweise auch Akteursinteressen eine Rolle. Pozen (2013) verweist zudem darauf, dass leaks auch durch die Exekutive intendiert sein können, sog. „plants“. Sie ermöglichen die Umgehung der Bürokratie, lassen „Testballons“ zu und erhalten die „plausible deniability“ (Pozen 2013, S. 559). Auch Wise (1973, S. 159) erklärt am Beispiel der Legitimation des Verteidigungshaushaltes der USA mit Verweis auf geleakte Informationen über sowjetische Raketen, dass leaks durchaus im Interesse der Regierung sein können. Eine Reihe von AutorInnen befasst sich darüber hinaus in Fallstudien mit neueren Fällen von leaking und whistleblowing. Besonderes Interesse erfährt dabei die Plattform WikiLeaks. Beispielsweise wird diskutiert, inwiefern deren geheime Arbeitsweise eine Spannung zu eigenen Transparenzforderungen produziert (Kumar et al. 2015, S. 6) und ob sie in problematischem Maße Einzelnen eine Gatekeeperfunktion für die Produktion von Transparenz und damit Macht zuspricht (siehe Bieber 2016, S. 304). Auch die Transparenzkonzeption der Gruppe wird untersucht: Sie basiert demnach auf der (diskutablen) Annahme der Möglichkeit einer prinzipiellen Durchsichtigkeit politischer Prozesse und der Annahme, dass die Offenlegung von Informationen in gewissem Sinne automatisch zu moralischen oder demokratischen Reaktionen führt (Roberts 2012, S. 126),12 eine Annahme, die empirisch damit steht und fällt, ob die Bevölkerung auch entsprechendes Interesse und Aktivismus mitbringt: „The WikiLeaks program is politically naive. It is predicated on the assumption that the social order – the set of structures that channel and legitimize power – is both deceptive and brittle. Deceptive, in the sense that most people who observe the

12Diese Annahme der WikiLeaks-AktivistInnen lässt sich auch theoretisch weit zurückverfolgen: Wie August (2018) zeigt, zieht sich die Annahme, dass Transparenz zu besserem Verhalten führt, durch die Ideengeschichte des Begriffs.

112

D. Riese

social order are unaware of the ways in which power is actually used; and brittle, in the sense that it is at risk of collapse once people are shown the true nature of things“ (Roberts 2012, S. 129).

Daneben merkt Fenster an, dass WikiLeaks auch eine Gefahr für etablierte Transparenzmechanismen sein kann, da es diese umgeht und damit infrage stellt (Fenster 2012, S. 805). „From a legal perspective, there was an assumption that transparency would happen within the law, but, as Wikileaks has shown, this is no longer an assumption any government can make“ (Moore 2011, S. 506). Diese Debattenbeiträge zeigen, dass auch leaks die Annahme einer effektiven rechtlichen Kodifizierbarkeit von Geheimhaltung und Transparenz infrage stellen. Selbiges gilt für die Frage, ob leaks als Instrument der Aufdeckung illegitimer Geheimnisse auch eine formale Legitimation durch das Recht erfahren können (vgl. Sagar 2011, S. 217). Dies wird in der Regel verneint, da eine formale Legitimation des leaks die Logik des Rechts sprengen würde: Die Überschreitung der Regel kann nicht legalisiert, sondern allenfalls im Einzelfall nicht geahndet werden (vgl. ebd.).

4.3 Legitimation durch Verfahren als Akteursperspektive Zusammenfassend ist festzuhalten, dass empirische Arbeiten die Paradoxien und Spannungen, die im theoretischen Teil identifiziert wurden, deutlich erkennbar fortschreiben. Sowohl leaks als auch overclassification, zwei zentrale in der empirischen Forschung behandelte Phänomene, legen nahe, dass eine effektive rechtliche Abgrenzung von Transparenz- und Geheimhaltungssphären nicht möglich ist. Sie sind getragen von der Beobachtung, dass, anders als normativ konzipiert, Geheimhaltung empirisch nicht unbedingt (nur) funktional im Sinne kollektiver Zwecke ist. Wird damit jegliche Legitimation von Geheimhaltung unmöglich? Dies ist nicht notwendig der Fall: Wie am Beispiel der Aushandlung des Europäischen Stabilitätsmechanismus (ESM) an anderer Stelle gezeigt, waren Bundestagsabgeordnete durchaus bereit, auf Grundlage beispielsweise von Effektivitätsüberlegungen der Exekutive einfache Geheimhaltung zuzugestehen, während reflexive Geheimhaltung, so sie denn im Nachhinein bekannt wird, viel stärker kritisiert und infrage gestellt wurde (Riese 2015). Auch bei der Regelung der Kompetenzen und Kontrolle der Nachrichtendienste fokussiert die Debatte stark auf die Notwendigkeiten geheimer Arbeitsweise (bspw. konkret für Quellenschutz oder ganz allgemein für die Produktion

Grenzen der Transparenz – Geheimhaltung in demokratischen …

113

von Sicherheit). Die Perspektiven variieren hier vor allem zwischen Regierungsund Oppositionsparteien: Während erstere einen breiteren Geheimhaltungsbedarf konstatieren, stellen letztere diese Annahme infrage (Riese 2016). Deutlich wird hieran noch einmal, wie abwägungsoffen die Legitimation über einen Sachgrund bzw. einen Zweck ist. Die Beispiele zeigen aber zugleich, dass das Konzept der prozeduralen Legitimation mindestens aus Sicht der Akteure durchaus trägt. Geheimhaltung wird als legitimes Mittel akzeptiert, so sie in einem Prozess legitimiert (und rechtlich festgeschrieben) wurde, der als demokratisch wahrgenommenen wird und politischen Ansprüchen genügt.

5 Funktionalität als problematischer Ansatz Sowohl in der theoretischen Diskussion über Geheimhaltungsgründe als auch in der empirischen Beobachtung der Aushandlung von Geheimhaltungsregeln taucht immer wieder das Konzept der Notwendigkeit oder Funktionalität des Geheimnisses auf. Wird von Funktion gesprochen, so meinen viele Arbeiten damit eine instrumentelle Zweckorientierung: Der Schutz einer bestimmten Information ist notwendig, um einen Zweck zu erreichen, beispielsweise Sicherheit. Geheimhaltung ist in dieser Logik zur „protection of valuable information“ (Costas und Grey 2014, S. 1424) für policy goals oder das politische System als solches unumgehbar. Diese Perspektive, die Costas und Grey als „informational“ bezeichnen, ist blind für soziale und politische (Aushandlungs-)Prozesse. Simmels grundlegende Erkenntnisse zur sozialen Funktion von Geheimnissen, zu Prozessen der Zuweisung von Wert ungeachtet des inhärenten Werts einer Information (bzw. deren Träger) bleiben in dieser Sichtweise unberücksichtigt: „In other words, it is not that information does (or does not) have a value in an objective sense, then to be controlled politically, but that the ascription of value to certain information is itself a political matter. From this perspective, the issue is how insiders, in concealing, manipulating or distorting information, attempt to shape how outsiders construct, perceive and enact organizational reality.“ (Costas und Grey 2014, S. 1439)

Insofern sollte eine analytische Perspektive auf Geheimhaltung nicht (oder nicht ausschließlich) von deren politischer Zweckmäßigkeit her gedacht werden. Akteursperspektive und analytische Perspektive müssen unterschieden werden: Dann ist es kein Widerspruch, die Wirkmächtigkeit von „informationellen“ Argumenten im Diskurs der Akteure festzustellen und zugleich die sozialen

114

D. Riese

Funktionen des Geheimnisses (wie bspw. Selbstschutz oder Hierarchie) zu untersuchen. Geheimhaltung mag aus Perspektive der politischen Akteure durch ihren Zweck legitimierbar erscheinen und nichtsdestotrotz, aus analytischer Perspektive, soziale Funktionen erfüllen. Das erlaubt durchaus eine kritische Beurteilung. Beispielsweise untersucht Gibbs (2009) am Fall der Kongokrise, ob die im Diskurs angeführten instrumentellen Argumente tragen. Er kommt zu dem Schluss, dass zwar das instrumentelle Argument „external threat“, also der claim, Geheimhaltung zur Sicherung des Staates gegen äußere Feinde zu benötigen, zur öffentlichen Legitimation von Geheimhaltung herangezogen wurde. In der Sache sei es aber um die Abwehr von „internal threats“ und die Beeinflussung der inländischen öffentlichen Meinung gegangen.13 Dies ist ein gutes Beispiel, wie auf der einen Seite instrumentelle Argumente im politischen Diskurs gewürdigt, zugleich aber deren Rolle für die Erklärung von Geheimhaltung kritisch betrachtet werden können. Es geht also nicht darum, instrumentelle Argumente nicht zu untersuchen. Denn diese prägen die politische Debatte um Geheimhaltung und Transparenz empirisch in hohem Maße: Akteure greifen auf Argumente von Notwendigkeit und Zweckmäßigkeit der Geheimhaltung für die Erreichung im demokratischen Prozess definierter Ziele zurück. Solche Argumente sollten aber vor allem als Gegenstand der Analyse betrachtet werden, nicht als (alleinige) analytische Perspektive eingenommen werden. Schließlich erfolgt auch prozedurale Legitimation in aller Regel im Modus der Nützlichkeit. Wird Geheimhaltung in einem demokratischen Entscheidungsprozess für notwendig befunden, kann sie auch legitimiert werden. So lässt sich festhalten: Akteure, die Geheimhaltung prozedural legitimieren, greifen auf instrumentelle Argumente zurück, ob aus Überzeugung oder um die eigenen Interessen mehrheitsfähig zu machen und als Gemeinwohlinteresse darzustellen. Im Gegenzug dazu kritisieren Akteure, die Geheimhaltung infrage stellen, die Geheimhaltung als Machtinstrument, das der Sicherung der eigenen Position diene (Riese 2016).

13Ähnlich

unterscheidet Aftergood zwischen „genuine national security secrecy, political secrecy, and bureaucratic secrecy“ (Aftergood 2009, S. 297) und erläutert, dass auch die Zuordnung zu den Typen in gewissem Maße subjektiv und nicht trennscharf sei. Mit seiner Typologie ergibt sich aber wiederum das Problem, wie „genuine national security secrecy“ als analytische Kategorie definiert werden kann.

Grenzen der Transparenz – Geheimhaltung in demokratischen …

115

6 Schluss Geheimhaltung und Transparenz stehen in einem Spannungsverhältnis. Während sich Transparenz als konstitutives Element von Demokratie – ohne Information keine Willensbildung und freie Entscheidung – zu einer umfassenden Norm entwickelt hat, scheint Geheimhaltung prekär und begründungsbedürftig und unterläuft nicht zuletzt Transparenznormen. Theoretisch kann die Integration von Geheimhaltung in ein System, das normativ auf Transparenz basiert, einerseits über den instrumentellen Wert des Geheimnisses und andererseits über prozedurale Legitimation, also die Entscheidung über die Legitimität von Geheimnissen, erfolgen. Dieser Aufsatz argumentiert darüber hinaus gehend, dass der instrumentelle Wert des Geheimnisses sich weniger als analytische Kategorie denn als Gegenstand der Analyse eignet. Die Perspektive auf die Zweckmäßigkeit des Geheimnisses in diesem Sinne bietet so zwar die Möglichkeit des „assessment and critique of the forms and uses of state secrecy from a non-moralizing viewpoint“ (Horn 2011, S. 115). Doch darüber hinaus muss analytisch klar sein, dass die Annahme eines instrumentellen Werts selbst Gegenstand von Aushandlung und normativen Bewertungen der Akteure ist und deshalb nicht abstrakt bestimmbar ist.

Literatur Abazi, V. (2013). Unveiling the power over Europol’s secrets. Amsterdam Centre for European Law and Governance Working Paper Series, 2013–04. Aftergood, S. (2009). Government secrecy and knowledge production. A survey of some general issues. In S. Maret & J. Goldman (Hrsg.), Government secrecy. Classic and contemporary readings (S. 296–304). Westport: Libraries Unlimited. Assmann, A., & Assmann, J. (1997). Das Geheimnis und die Archäologie der literarischen Kommunikation. Einführende Bemerkungen. In A. Assmann & J. Assmann (Hrsg.), Schleier und Schwelle. Geheimnis und Öffentlichkeit (S. 7–16). München: Wilhelm Fink. August, V. (2018). Theorie und Praxis der Transparenz. Eine Zwischenbilanz. Berliner Blätter, 21(76), 129–156. Balkin, J. M. (1999). How mass media simulate political transparency. Cultural Values, 3(4), 393–413. Blanton, T. S. (2009). National security and open government in the United States. Beyond the balancing test. In S. Maret & J. Goldman (Hrsg.), Government secrecy. Classic and contemporary readings (S. 600–626). Westport: Libraries Unlimited (Erstveröffentlichung 2003).

116

D. Riese

Bieber, C. (2016). Towards an ethics of the leak. WikiLeaks as a programmed public sphere. In I. Baxmann, T. Beyes, & C. Pias (Hrsg.), Social media. New masses (S. 285– 306). Zürich: Diaphanes. Birchall, C. (2011). Introduction to ‚secrecy and transparency‘. The politics of opacity and openness. Theory, Culture & Society, 28(7–8), 7–25. Bröhmer, J. (2004). Transparenz als Verfassungsprinzip. Grundgesetz und Europäische Union. Tübingen: Mohr Siebeck. Bok, S. (1989). Secrets. On the ethics of concealment and revelation. New York: Vintage Books. Costas, J., & Grey, C. (2014). Bringing secrecy into the open. Towards a theorization of the social processes of organizational secrecy. Organization Studies, 35(10), 1423–1447. Costas, J., & Grey, C. (2016). Secrecy at work. The hidden architecture of organizational life. Stanford: Stanford Business Books. Cotterrell, R. (1999). Transparency, mass media, ideology and community. Cultural Values, 3(4), 414–426. Curtin, D. (2011). Top secret Europe. Inaugural lecture delivered upon appointment to the chair of professor of European law at the University of Amsterdam on 20 October 2011. Curtin, D. (2013). Secrecy regulation by the European Union inside out. In D. Cole, F. Fabbrini, & A. Vedaschi (Hrsg.), Secrecy, national security and the vindication of constitutional law (S. 302–321). Cheltenham: Elgar. De Fine Licht, J., & Naurin, D. (2015). Open decision-making procedures and public legitimacy. An inventory of causal mechanisms. In J. S. Elster (Hrsg.), Secrecy and publicity in votes and debates (S. 131–151). Cambridge: Cambridge University Press. Depenheuer, O. (2002). Selbstdarstellung der Politik. Studien zum Öffentlichkeitsanspruch der Demokratie. Paderborn: Ferdinand Schöningh. Düwel, P. (1965). Das Amtsgeheimnis. Berlin: Duncker & Humblot. Epps, D. (2008). Mechanisms of secrecy. Harvard Law Review, 121, 1556–1577. Fenster, M. (2006). The opacity of transparency. Iowa Law Review, 91, 885–949. Fenster, M. (2010). Seeing the state. Transparency as metaphor. Administrative Law Review, 62, 617–672. Fenster, M. (2012). Disclosure’s effects. WikiLeaks and transparency. Iowa Law Review, 97, 753–807. Fenster, M. (2015). Transparency in search of a theory. European Journal of Social Theory, 18(2), 150–167. Fidell, E. R. (2009). Transparency. Hastings Law Journal, 61, 457–472. Finel, B. I., & Lord, K. M. (1999). The surprising logic of transparency. International Studies Quarterly, 43(2), 315–339. Friedrich, C. J. (1973). Pathologie der Politik. Die Funktion der Mißstände: Gewalt, Verrat, Korruption, Geheimhaltung, Propaganda. Frankfurt a. M.: Herder & Herder. Fuchs, M. (2006). Judging secrets. The role courts should play in preventing unnecessary secrecy. Administrative Law Review, 58, 131–176. Fung, A. (2013). Infotopia. Unleashing the democratic power of transparency. Politics and Society, 41(2), 183–212. Gibbs, D. N. (2009). Secrecy and international relations. In S. Maret & J. Goldman (Hrsg.), Government secrecy. Classic and contemporary readings (S. 360–380). Westport: Libraries Unlimited (Erstveröffentlichung 1995).

Grenzen der Transparenz – Geheimhaltung in demokratischen …

117

Gowder, P. (2009). Secrecy as mystification of power. Meaning and ethics in the security state. In S. Maret & J. Goldman (Hrsg.), Government secrecy. Classic and contemporary readings (S. 674–694). Westport: Libraries Unlimited (Erstveröffentlichung 2006). Gutmann, A., & Thompson, D. (1996). Democracy and disagreement. Cambridge: Harvard University Press. Habermas, J. (1990). Strukturwandel der Öffentlichkeit. Untersuchungen zu einer Kategorie der bürgerlichen Gesellschaft. Frankfurt a. M.: Suhrkamp (Erstveröffentlichung 1962). Hahn, A. (1997). Soziologische Aspekte von Geheimnissen und ihren Äquivalenten. In A. Assmann & J. Assmann (Hrsg.), Schleier und Schwelle. Geheimnis und Öffentlichkeit (S. 23–40). München: Fink. Heald, D. (2003). Fiscal transparency: Concepts, measurement and UK Practice. Public Administration, 81(4), 723–759. Horn, E. (2006). Actors/Agents. Bertolt Brecht and the politics of secrecy. Grey Room, 24, 38–55. Horn, E. (2011). Logics of political secrecy. Theory, Culture & Society, 28(7–8), 103–122. Hölscher, L. (1979). Öffentlichkeit und Geheimnis. Eine begriffsgeschichtliche Untersuchung zur Entstehung der Öffentlichkeit in der frühen Neuzeit. Stuttgart: Klett-Cotta. Jestaedt, M. (2001). Zwischen Öffentlichkeit und Vertraulichkeit. Der Staat der offenen Gesellschaft. Was darf er verbergen. In O. Depenheuer (Hrsg.), Öffentlichkeit und Vertraulichkeit. Theorie und Praxis der politischen Kommunikation (S. 67–110). Wiesbaden: Westdeutscher Verlag. Kitrosser, H. (2005). Secrecy and separated powers. Executive privilege revisited. University of Minnesota Law School. Legal Studies Research Paper Series, 06–01. Kitrosser, H. (2008). Classified information leaks and free speech. University of Illinois Law Review, 60, 881–932. Knobloch, J. (2011). Politiknetzwerke und das Geheimnis. Die Legitimation der Nicht-Öffentlichkeit in der Demokratie. Zeitschrift für Politikwissenschaft, 21(1), 5–32. Knobloch, J. (2017). Demokratie und Geheimnis. In R. Voigt (Hrsg.), Staatsgeheimnisse. Arkanpolitik im Wandel der Zeiten (S. 205–224). Wiesbaden: Springer VS. Koch, B. (2017). Das monarchische arcana imperii Prinzip versus das demokratische Transparenzprinzip. Zum Verhältnis von Staat und bürgerlicher Freiheit nach Snowden. In R. Voigt (Hrsg.), Staatsgeheimnisse. Arkanpolitik im Wandel der Zeiten (S. 111–130). Wiesbaden: Springer VS. Kumar, M., Martin, G., & Scott Bray, R. (2015). Secrecy, law and society. In G. Martin, R. Scott Bray, & M. Kumar (Hrsg.), Secrecy, Law and Society (S. 1–19). Abingdon: Routledge. Luhmann, N., & Fuchs, P. (1992). Reden und Schweigen. Frankfurt a. M.: Suhrkamp (Erstveröffentlichung 1989). Luhmann, N. (1978). Legitimation durch Verfahren. Frankfurt a. M.: Suhrkamp (Erstveröffentlichung 1969). Maravic, P. V. (2012). Limits of knowing or the consequences of difficult-access problems for multi-method research and public policy. Policy Sciences, 45(2), 153–168. Marsh, K. (2011). The illusion of transparency. The Political Quarterly, 82(4), 531–535. McCurdy, P. (2013). From the pentagon papers to cablegate. How the network society has changed leaking. In B. Brevini, A. Hintz, & P. McCurdy (Hrsg.), Beyond WikiLeaks.

118

D. Riese

Implications for the future of communications, journalism and society (S. 123–145). Basingstoke: Palgrave Macmillan. Moore, M. (2011). The limits of transparency. The Political Quarterly, 82(4), 506–508. Müller, T. (1991). Exekutivischer Geheimnisschutz und parlamentarische Kontrolle. München: V. Florentz. Nedelmann, B. (1995). Geheimhaltung, Verheimlichung, Geheimnis – Einige soziologische Vorüberlegungen. In H. G. Kippenberg & G. G. Stroumsa (Hrsg.), Secrecy and concealment. Studies in the history of mediterranean and near eastern religions (S. 1–16). Leiden: Brill. Pannes, A.-T. (2015). Informalität. Theoretische und empirische Dimensionen informeller Entscheidungsprozesse in Regierungsformationen. Ein Analyseansatz. Wiesbaden: Springer VS. Popitz, H. (1968). Über die Präventivwirkung des Nichtwissens. Dunkelziffer, Norm und Strafe. Tübingen: Mohr. Pozen, D. E. (2005). The mosaic theory, national security, and the freedom of information act. Yale Law Journal, 115, 628–679. Pozen, D. E. (2010). Deep secrecy. Stanford Law Review, 62, 257–340. Pozen, D. E. (2013). The leaky leviathan. Why the government condemns and condones unlawful disclosures of information. Harvard Law Review, 127, 512–635. Rajão, R., & Georgiadou, Y. (2014). Blame games in the amazon. Environmental crises and the emergence of a transparency regime in Brazil. Global Environmental Politics, 14(4), 97–115. Riese, D. (2015). Das Geheimnis in Krisenzeiten. Geheimhaltungssphären bei der Umsetzung des Europäischen Stabilitätsmechanismus. In J. Preunkert & G. Vobruba (Hrsg.), Krise und Integration. Gesellschaftsbildung in der Eurokrise (S. 47–69). Wiesbaden: Springer VS. Riese, D. (2016). How can parliaments oversee executive secrecy. Workshop „Democratic Secrecy“, MANCEPT Workshops 2016, 07.–09. September 2016 in Manchester. Ritzi, C. (2017). Das Geheimnis und die Demokratie. (In-) Transparenz als politische Herausforderung im digitalen Zeitalter. In R. Voigt (Hrsg.), Staatsgeheimnisse. Arkanpolitik im Wandel der Zeiten (S. 179–204). Wiesbaden: Springer VS. Roberts, A. (2006). Blacked out. Government secrecy in the information age. Cambridge: Cambridge University Press. Roberts, A. (2012). WikiLeaks. The illusion of transparency. International Review of Administrative Sciences, 78(1), 116–133. Rourke, F. E. (2009). Secrecy in american bureaucracy. In S. Maret & J. Goldman (Hrsg.), Government secrecy. Classic and contemporary readings (S. 404–420). Westport: Libraries Unlimited (Erstveröffentlichung 1957). Rösch, U. (1999). Geheimhaltung in der rechtsstaatlichen Demokratie. Demokratietheoretische Überlegungen zum Informationsverhältnis zwischen Staat und Bürger sowie zwischen den Staatsgewalten. Baden-Baden: Nomos. Sadofsky, D. (1990). Knowledge as power. Political and legal control of information. New York: Praeger. Sagar, R. (2011). Das mißbrauchte Staatsgeheimnis. Wikileaks und die Demokratie. In H. Geiselberger (Hrsg.), WikiLeaks und die Folgen. Netz – Medien – Politik (S. 201–223). Berlin: Suhrkamp.

Grenzen der Transparenz – Geheimhaltung in demokratischen …

119

Sagar, R. (2013). Secrets and leaks. The dilemma of state secrecy. Princeton: Princeton University Press. Samuel, P. (1972). Government secrecy. The Australian Quarterly, 44(2), 5–8. Sarcinelli, U. (2009). Politische Kommunikation in Deutschland. Wiesbaden: VS Verlag. Schirrmeister, C. (2004). Geheimnisse. Über die Ambivalenz von Wissen und Nicht-Wissen. Wiesbaden: Deutscher Universitäts-Verlag. Schoenfeld, G. (2010). Necessary secrets. National security, the media, and the rule of law. New York: Norton. Shapiro, J. N., & Siegel, D. A. (2010). Is this paper dangerous. Balancing secrecy and openness in counterterrorism. Security Studies, 19(1), 66–98. Shils, E. (1956). The torment of secrecy. The background and consequences of American security policies. London: William Heinemann. Sievers, B. (1974). Geheimnis und Geheimhaltung in sozialen Systemen. Opladen: Westdeutscher Verlag. Simmel, G. (1923). Soziologie. Untersuchungen über die Formen der Vergesellschaftung. München: Duncker & Humblot. Stehr, N., & Wallner, C. (2010). Transparenz: Einleitung. In S. A. Jansen, E. Schröter, & N. Stehr (Hrsg.), Transparenz. Multidisziplinäre Durchsichten durch Phänomene und Theorien des Undurchsichtigen (S. 9–19). Wiesbaden: VS Verlag. Stiglitz, J. (2002). Transparency in government. In World Bank Institute (Hrsg.), The right to tell. The role of mass media in economic development (S. 27–44). Washington: The World Bank. Stiglitz, J. E. (2009). On liberty, the right to know, and public discourse. The role of transparency in public life. In S. Maret & J. Goldman (Hrsg.), Government secrecy. Classic and contemporary readings (S. 697–717). Westport: Libraries Unlimited (Erstveröffentlichung 1999). Tefft, S. K. (1979). The politics of secrecy. Society, 16(4), 60–67. Thompson, D. F. (1999). Democratic secrecy. Political Science Quarterly, 114(2), 181–193. Velten, P. (1996). Transparenz staatlichen Handelns und Demokratie. Zur Zulässigkeit verdeckter Polizeitätigkeit. Pfaffenweiler: Centaurus. Voigt, R. (2017). Arcana Imperii. Das Staatsgeheimnis als Instrument der Arkanpolitik. In R. Voigt (Hrsg.), Staatsgeheimnisse. Arkanpolitik im Wandel der Zeiten (S. 5–30). Wiesbaden: Springer VS. Wagner, E. (2015). Die Geschichte der Öffentlichkeit in Theorie und Praxis. In H. H. von Arnim (Hrsg.), Transparenz contra Geheimhaltung in Staat, Verwaltung und Wirtschaft. Beiträge auf der 16. Speyerer Demokratietagung vom 23. bis 24. Oktober 2014 an der Deutschen Universität für Verwaltungswissenschaften Speyer (S. 131–144). Berlin: Duncker & Humblot. Weber, M. (2010). Wirtschaft und Gesellschaft. Grundriss der verstehenden Soziologie. Frankfurt a. M: Zweitausendeins (Erstveröffentlichung 1921/1922). Wegener, B. W. (2006). Der geheime Staat. Arkantradition und Informationsfreiheitsrecht. Göttingen: Morango. Westerbarkey, J. (1991). Das Geheimnis. Zur funktionalen Ambivalenz von Kommunikationsstrukturen. Opladen: Westdeutscher Verlag.

120

D. Riese

Westerbarkey, J. (2003). Maskierung und Beeinflussung. Die gesellschaftlichen Eliten und die Verschleierung der Macht. In R. Hettlage (Hrsg.), Verleugnen, Vertuschen, Verdrehen. Leben in der Lügengesellschaft (S. 199–214). Konstanz: UVK. Wise, D. (1973). The politics of lying. Government deception, secrecy, and power. New York: Vintage Books.

Dorothee Riese (M.A.)  arbeitet seit 2018 im Projekt „Democratic Secrecy: A Philosophical Study of the Role of Secrecy in Democratic Governance“ (gefördert durch den European Research Council) an der Universität Leiden. 2015‒2018 war sie wissenschaftliche Mitarbeiterin von Prof. Dr. Astrid Lorenz an der Universität Leipzig und Studiengangkoordinatorin für den M.A. European Integration in East Central Europe. Sie promoviert über die Aushandlung von Geheimhaltungsregeln im deutschen Bundestag am Beispiel von Nachrichtendiensten und öffentlich-privaten Partnerschaften. Zu ihren Forschungsschwerpunkten gehören Geheimhaltung und Transparenz in demokratischer Politik und parlamentarische Kontrolle. Gemeinsam mit Astrid Lorenz gab Riese 2018 den Sammelband Brauchen wir Europa? Sachsen in der EU heraus.

Teil II Praktiken

Sunlight City: Exploring the Politics of Urban Transparency Activism Maren Heibges

Abstract

This chapter discusses urban transparency activism and the digital applications it produces. Based on exploratory ethnographic data, I ask how this local activism orders the social and ‘does politics’. I conclude that an aesthetic approach to local urban politics is enacted, where ‘making things visible’ becomes a political end as well as a ludic joy in itself. Secondly, I show how urban space is transformed into informational space. In doing ‘frontierwork’, activists annex urban space to a socio-technical form which is typical for so-called Cyberculture: a recursive community constantly concerned with the maintenance of its own grounds of association. Conventional notions of political protest, participation and political representation are not present in activist practices of mapping and programming. Instead, and thirdly, activism articulates a techno-centric image of social order. This imagery of the social is characterized by a paradoxical relationship to the state’s institutions and a transformation of urban participation into urban usability.

“With the exception of a beautiful gay male Swede, Anders, who had some journalism chops and wrote digests of the Sunlight Project’s leaks, the division of labor by gender was perfect. The boys went to a windowless and heavily secured building (…) and wrote code there, while the girls hung out (…) and did community development and PR and search-engine optimization, source verification and liaising, website and booking chores, research and social media and copywriting”.

M. Heibges (*)  Technische Universität Berlin, Berlin, Germany E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 V. August und F. Osrecki (Hrsg.), Der Transparenz-Imperativ, https://doi.org/10.1007/978-3-658-22294-9_5

123

124

M. Heibges

“…private electronic communication was impossible. The internal network was designed so that all chats and emails were viewable by anyone on the network, because everything was viewable to the tech boys and it wasn’t fair to give them an advantage. If a girl wanted to hook up with a boy (and it happened quite a bit, though the boys were physically a less prepossessing lot), she arranged it either openly on the network or in person. And so it was that Andreas pressed a handwritten note into Pips hand when she was leaving…” (Jonathan Franzen, “Purity”, pp. 234 and 283)

In Jonathan Franzen’s (2015) recent book “Purity”, we encounter several transparency activists, the most prominent of which is a German, Julian Assange-like figure with a sinister GDR past.1 The company motto of the fictitious transparency organization, the Sunlight Project, claims that “sunlight is the best disinfectant”. Yet, through the course of the book, it becomes clear that transparency activism here operates mostly as a deflection. It hides other, often ominous, actions and motives. The book also portrays transparency activists in an unflattering way. As apparent in the quoted passages above, they fail to resolve gender and class divides and discriminations. And they adhere instead to an ineffective technology-bound and formal—yet believed to be highly emancipatory—code of conduct at the workplace. Franzen’s portrayal of transparency activism is polemic and ruthless, yet diagnostic of pressing questions regarding contemporary technology and solidarity. The following chapter does not want to transfer Franzen’s (quite damning) literary appraisal of transparency into the realm of the academy. Nevertheless, it takes up his impetus to ask what transparency actually does to sociality on the ground. What kinds of politics can be found in transparency’s immediate digital products; what kinds of politics emerge in the situations where such products are produced? In order to answer these questions, this chapter refers to the field of German urban transparency activism. The chapter commences by discussing transparency through the lens of an anthropological interest in social order. I then describe my research in urban transparency activism, which has an expressed focus on the digital applications that are produced as part of this activism. On the basis of this exploratory ethnographic data, I argue that local activism and its apps ‘do’ politics in three

1I

am immensely grateful to the editors of this book and the participants of the accompanying workshop, particularly Vincent August, for their constructive advice on my arguments in this chapter. I would also like to thank the transparency activists who lend me their time and let me participate in their activities.

Sunlight City: Exploring the Politics …

125

particular ways. Firstly, they enact an aesthetic approach to local urban politics, where ‘making things visible’ becomes a political end as well as a ludic joy in itself. This is apparent, for instance, in the production of so-called Visualization Apps, which geographically map sets of open city data. Secondly, activism and its apps work on transforming urban space into informational space, as vague political goals of improvement and accessibility are based on the prerequisite of machine-readability. In doing this ‘frontier-work’, activists annex urban space to a socio-technical form, which is typical for so-called Cyberculture: a recursive community constantly concerned with the maintenance of its own grounds of association (Kelty 2008). Moreover, activists tap into the Smart City discourse (e.g. Vanolo 2014), which actually has shared origins with the transparency concept. Conventional notions of political protest, participation and political representation are not present in these communal practices of mapping and programming. Instead, and that is my third point, activism articulates a technocentric image of social order. This imagery of the social is characterized by a paradoxical relationship to the state’s institutions, and a transformation of urban participation into urban usability.

1 Beyond a Moralization of Transparency As an anthropologist indebted to relational approaches to social theory (e.g. Beck 2008), I am interested in processes of social and technological ordering, which are observable within concrete ethnographic situations and made durable through material–semiotic configurations. The starting point for such a view is not a straightforwardly normative stance, but an interest in practices and how they are made durable in a technological world (e.g. Knecht et al. 2011). With this book as one of the rarer exceptions, most of the academic literature on transparency takes a distinctly normative, one could actually say moralistic stance, toward transparency. Literature influenced by economic theories mostly conveys a highly affirmative appraisal of transparency. Here, transparency is positioned as “the vanguard of the open society” (Holzner and Holzner 2006), and as a warrantor of efficient and accountable globalized politics and capitalist markets (see August 2018 for further analysis of the foundational link of transparency to Rational Choice Theory). Popular political science literature with a strong link to transparency activism makes a similar endorsement. The “age of transparency” (Sifry 2011) is discussed as a gold standard by which we achieve a world which is more democratic and more just. In contrast, in the humanities, we find highly moralistic negative appraisals of transparency. These often make a link to

126

M. Heibges

Foucault’s P ­ anopticon, a connection which also resonates with Franzen’s quotes above.2 German philosopher Byung-Chul Han (2012), for instance, views the “transparency society” as a space of digital coercion into neoliberalism and disenchantment, and ultimately exhibitionism. Such linkages are commonly made throughout these literatures. This moralization of transparency, along with the obvious contemporary momentum of the discursive formation that has inspired this book, has sparked my interest into the politics and rationalities of transparency. What lies beyond the great promises or apocalyptic warnings against transparency as an organizing principle? How does transparency order the social? In the small body of empirical anthropological studies on transparency, most take a fairly critical, but not as decidedly moralistic tone (e.g. Ballestero 2012a; Coles 2007, pp. 191–234; Thomson 2012; Webb 2012; West and Sanders 2003). In this debate, two, somewhat contrastive points, are stressed: firstly, transparency practices are described as one concrete mechanism within which liberal Western norms spread around the world. These literatures argue that beyond the purported neutrality of transparency lie norms of Western privilege, visibility, and a formalized type of political participation which replaces more traditional and solidaric forms of political protest (Coles 2007, pp. 191–234; Webb 2012). Webb (2012), for example, describes how NGOs promoting a transparency model for political participation in India, encourage their clients to follow individual and highly formal forms of protest (through Freedom of Information requests), and discourage more collective or emotional political conduct. Secondly, this literature argues that these Western norms do not necessarily become translated into practices unambiguously. Following anthropology’s indebtedness to the inherent creativity of practice (e.g. Ortner 1984), and a renunciation of a trickle-down model of societal power relations (e.g. De Certeau 1988), anthropological research underlines people’s creative re-interpretation of transparency’s demands. For instance, Ballestero (2012b) describes the reflexive and constructive nature of indicator design in a Costa Rican NGO, which “shortcircuits” the governmental impulses that transparency might entail. These two points underline the importance of research into transparency practices. It speaks about the power of transparency to travel the world, but does so without falling into the fatalistic and moralistic trap of assuming that practice

2Ironically,

this volume’s editor, political theorist Vincent August, argues that Foucault’s initial account of the Panopticon’s and transparency’s inventor (well, in a sense) Jeremy Bentham was, in part, quite limited (Rzepka 2013).

Sunlight City: Exploring the Politics …

127

on the ground automatically follows. The two points also underline—just like the editors of this book have proposed—that it is worth looking more systematically into the complex relationship between the norms and forms of transparency (Rabinow 1995). This is an additional reason to be interested in the small-scale patterns of social order enacted through concrete transparency practices and made more durable through technological interfaces. They could be seen as the relational building blocks which take us from norm to form and back. In other words, if one is interested in what kinds of world transparency is building, concrete transparency practices might be one area to look. Following this impetus, this chapter analyzes transparency activism as one tangible activity which ascends from transparency’s contemporary rise to power. Transparency activism, in my working definition, denotes the (mostly digital) collection, processing and public provision of information about political and administrative matters. And it does so on the normative premise that such ‘freedom of information’ produces more accountability and more democracy. The activists usually have very high IT literacy and often work as programmers, statisticians or data analysts. Franzen’s fictitious Sunlight Project would be a typical organization to foster and host such activism. My thoughts for this chapter are based on explorative ethnographic data on transparency activism in a large German city. A few hours of structured observations at several programming spaces and meet-ups, formal, off-the-record, and informal qualitative interviews, and extensive document, webpage, and web-content analysis were used to understand local transparency activism. As part of this approach, I also took membership in the activists’ digital platforms and repositories. The materials collected during fieldwork have been analyzed in an open coding process and I have ordered observed practices according to potential patterns. To protect the privacy of my informants and the continuation of my local fieldwork, names and details have been changed and some information is left ­deliberately vague.

2 Transparency Activism: People, Interactions and Their Organizational Support The urban transparency activism I observed consisted mainly of programming activities. These were carried out at local meetings and/or privately by young, mostly male programmers and data analysts. Activists were usually volunteers who otherwise worked or free lanced in the IT sector. They viewed their activism

128

M. Heibges

as a chance to do “something good”. As one activist told me, he was “using [his] expert knowledge to give something back to society”. One obvious connection to transparency was that the activism was sponsored by two Anglophone non-profit organizations (NGOs), both of which feature transparency in their charters as a main goal. These NGOs also promoted related concepts, such as “freedom of information”, “open data”, and “participation”. Hence the programming labs, spaces and meet-ups I observed took place under the umbrella slogan of transparency and were aimed at making the city “better” through open data applications. These apps, described in more detail below, hoped to enhance transparency by making local urban politics and infrastructures more visible; they were intended, through their design, to enable citizen participation more directly and engender more accountability of local administrations. It was thus “the city”—not the state—which was called upon as a unit of political organization and solidarity in most of the activism I observed. Both sponsoring NGOs were characterized by a strong link, internationally and in their local structure, to what I would describe as Cyberculture (Turner 2006). Their activism and the projects they undertook were mainly web-based. Their leaders prominently appeared at the communities’ important gatherings, such as the Chaos Computer Congress. And their published statements and goals reflected the strong belief that digital technologies and information flows could change the world for the better. Turner has traced this political current back to the individualist, spiritual, and communal technology-enthusiastic counterculture of the North-American 1960s. Being highly suspicious of formal state-oriented politics, this New Age Liberalism, or “New Communalism” in Turner’s lingo, set itself apart from the New Left and its focus on institutions and representation. In a “mingling of systems theory and countercultural mysticism” (Turner 2005, p. 496), and in combination with a “technocratic orientation” and “collaborative, experimental sociability” (Turner 2006, p. 245), the San Francisco Bay Area New Age Liberalists became key influencers and the necessary work force of the emerging Silicon Valley. According to Turner, they are to blame for the coming of the post-industrial network-economy and the techno-libertarianism characteristic of 1990s Cyberculture in the USA. The sponsoring NGOs in my fieldwork, far from being a visibly radical fringe or cyberpunk chic, were ‘reputable’ organizations. Still, in their charters, one can find traces of a techno-liberal embrace of technologies, and a distrust in political institutions. One of the organizations took this impetus to extremes in its online agenda, arguing that politics of the future will take place in the realm of civic technology and enable direct citizen participation. According to their website, in this vision, the state and its administration becomes a “value-neutral aggregator,

Sunlight City: Exploring the Politics …

129

disseminator and processor of information”. Both organizations were financed through grants (both public and corporate) and to different extents donations. This chapter does not foreground these organizations’ activities. However, as will become clearer through the course of my argument, these NGOs provide the infrastructural link and conceptual framework for local practices to become political. Following their objectives, both organizations fostered local activities, which were supposed to enable the development of “useful applications around open information and digital participation”. One of the two organizations’ included this precise goal in its mission statement. This interest was operationalized in the assignment of project worker hours, which would be used to organize meetups, provide space, food and drink, document activities of the group on the web, network between local groups, administer data, and apply for further funding. In 1 year, Google gave a small grant, while some other funding was secured through a German federal agency. Specific themes of the activities were determined either through grant agendas or through community votes; some were based on past themes of the so-called “Smart City”, others centered around digital support for refugees, or on e-government and election data. The activists attending the meetings were a fluctuating group. As mentioned above, most worked in the IT and communication sector. When asked to characterize the attendees, one of the NGO employees said to me: “Well, these are basically people who want to do something good after work, something that is not for the boss, but for society”. In his definition, these were not crypto-anarchists, but family men and women. He explained that activists were a heterogeneous crowd. Some were actively interested in transparency politics, while others were more keen on discussing and trying out programming tasks together. To me, as an outsider, interactions among attendees always seemed to be first and foremost about technology. Culturally, they were clearly rooted in the international geek or nerd culture (e.g. Lane 2017), outfitted with Game of Thrones shirts, energy drinks, and functional wear. They were mostly male, white, and of German nationality— although quite a few expats from all over the world used such events to meet new people. The gatherings themselves sometimes had the character of a closed lab, where the activists already knew each other and came together to program and discuss. Other times, the meetings were open one-off events, promoted on platforms such as Meet-up (a form of social media website for scheduling and promoting real-life events). There was also a mix between the two. There were times when closed labs presented their work and their interests in a low-key fashion, but the events themselves were advertised via the supporting NGOs or other community networking sites.

130

M. Heibges

The working atmosphere at such events, particularly the smaller labs, was quiet and continuous. Most were only broken up for short introductory statements or demonstrations of specific applications. Attendees, including me, (who was writing fieldnotes instead of code), always sat with an open laptop. Interactions took place face-to-face, but also virtually. For instance, some used a collective programming platform and repository to share and discuss code. At the labs, there was little discussion in larger groups about what to do or ‘invent’. Rather, people brought pre-existing ideas, or used projects which were already online and adjusted them to local means. Sometimes, groups of two or three people sat together, whispering among themselves about how to solve a certain programming task or improve an app. All of the events were relatively open to outsiders and actually followed a certain outreach-ethos: newcomers were received in a friendly way. My research was welcome, and newbies asking for help with programming problems, even if those were simple, were well received. One activist also said to me that, in a way, their codex of openness obligated them to let anyone, including journalists or researchers, participate in their meetings. Nevertheless, these were not entirely open social spaces. Social interaction and conversations were very limited. I was frequently surprised about the lack, according to my standards of communication, of greetings or small talk among the activists. Technical jargon was used quite a lot and, even more frequently, in-jokes and uncommunicative seating arrangements produced an awkward atmosphere among those newly attending. I also witnessed a scene where a newcomer woman’s admission of shyness about coming to a specific event was met not with sympathy, but with a (male) lecture on the problematic for-profit nature of the website which convinced her to attend.

3 The Apps of Transparency Activism: Visualization and Datafication The activists’ meetings centered on the production and showcasing of transparency applications. Thus, they were about scaling down the ‘grander’ political ideas of “neighborhood improvement”, “openness”, and “urban participation”— apparent in the sponsoring NGOs discourse—to concrete sets of programming. Practically, the amount of programming hours, control of content, updating or support available for the applications—and also the level of deliberation going into them—was limited, especially when compared to commercial applications. Thus, the resulting apps were simple, at least to me as an ethnographer not

Sunlight City: Exploring the Politics …

131

used to viewing prototypes and non-commercial apps. Transparency apps could be found through the supporting NGO’s websites, and sometimes also through other links in the open data and cyberculture community. Most applications were hosted on the activists’ own servers. Apps dealt with heterogeneous issues, but most roughly belonged to either one of two emblematic groups: Visualizing Apps and Data Apps. Visualizing Apps visualized an open data set in a city map. Typical examples that I came across in my fieldwork included the following: there was an app to visualize commemorative plaques for victims of National Socialism; others visualized various construction projects in the city; there was an app which mapped the water quality of lakes in and around the city; one app visually represented the amount of money needed for urgent renovations of local school buildings (supported by data from an accidentally leaked city document); there were apps depicting farmers markets, and others for finding Christmas markets around the user; and there was an app for visualizing the city’s trees (generated from data provided by the parks and gardens departments of local administration). The underlying map data (not the individual open data sets) was usually taken from Open Street Map. The visualized data came from various other sources, but mostly local administration. Data Apps, on the other hand, processed and visualized data-sets in terms of their content and potential function. These were meant to convert and depict data sets so that they could be found more easily. Moreover, they were designed to be understandable for lay persons, and were intended to be accessed and connected to other applications. To give an example, one Data App showed available open data-sets within an urban overview map and provided links to applications using this data. A similar application represented open data sets available for the city as colorfully labelled hexagons. The hexagons were meant to be more appealing and understandable than the highly technical descriptions available through the existing local administration data portal. In other words, with the help of the hexagon’s graphics, the transparency activists hoped to promote the actual usage of open data. Another common aim of Data Apps was to enable the ‘connectivity’ of one data set to another through the creation of standard application programming interfaces, so called APIs. In lay terms, APIs define protocols for software units to communicate, enabling the interoperability of systems or system-components. Data Apps in this sense often served as intermediaries, not really enabling any particular political goal or moment of participation, but much more ‘rawly’ contributing to the harvesting and processing of urban open data.

132

M. Heibges

4 The Apps of Transparency Activism: Politics and Pastimes The link between applications and concepts of political transparency was not straightforwardly given. For example, applications such as the Christmas market app seemed to operate on an altogether different scale than the language of “improving the city” seemed to imply. In fact, most of the apps appeared rather unpolitical at first glance—especially when politics is understood as being first and foremost concerned with political representation, administration, collective action, or solidarity (more about this below). The apps themselves were not collectively discussed or rated on their usefulness within the programmatic space allocated by NGOs. On a few occasions, I noticed that one of the volunteers asked one of the NGO’s professionals about his or her legal opinion. At times, further support mechanisms provided through the NGOs were communicated back to the volunteer community by email, or through one of the professionals making a visit. Other than that, I never overheard the volunteers raising political issues or questions without being prompted by me. Questions of political representation or legitimization were never discussed or raised. I did ask about volunteers’ political aims, and what they were actually seeking to improve. In response, several volunteers brought up their shock about the non-existent use of IT technologies through the city’s administration, and how they believed that the many things currently annoying the city’s citizens, such as long waits at the citizen centers—the Bürgerämter—could and should be solved through technological means. Also stressed as one of the more practical goals of NGOs sponsoring transparency activism was improving the city’s administration, so that it becomes “more convenient”, “more geared towards the citizen’s needs”, “so that utopias are created through little things” and the “image” of the city becomes “more positive”. Political interests of the programming volunteers themselves seemed to be much more ‘data-driven’ than those of the NGO members. Transparency did not appear at the forefront of their rationalizations for activism. Instead, there was an interest in open data in terms of its technical availability and interoperability. Moreover, on an everyday level, performing certain programming tasks and coming together with peers seemed to be characterized through a ludic fascination with programming elegance, large data-sets and datafication. Some of the activists, for instance, spent considerable time on publicly available data of the Deutsche Bahn, and networking with other programmers interested in train and train station data. In one regular meeting, attendees referred to those working with Deutsche Bahn data as the “the railway corner”, a seemingly tightly knit

Sunlight City: Exploring the Politics …

133

group of three to four guys who mostly kept to themselves. One of them had won a Deutsche Bahn prize for programming a specific train data app, which instantly generated stylized transport maps. He was often sought out by new activists as a known expert on transportation data. When a large annual conference and festival on digital culture took place, even more train data enthusiasts showed up for a one-off meeting at one of the activist’s programming spaces. Transparency in such practices was only actualized through a loose thematic connection to open data. Impressive programming and the complexity of the train data was probably more or just as important to the activists as enabling transparency through open data. Overlooking such ludic elements at the start of my fieldwork, I often asked myself what the use or the appeal of a certain app might be. I saw other first-time visitors doing the same, only to realize that I had looked at them the wrong way. I was too focused on potential political goals. For instance, to its programmer, the app that visualized trees was about the interesting task of how to visualize so many data points in a dynamic map at once; it was probably also about an affective yearning for complete data-sets and datafication. He thoroughly enjoyed playing around with the tree statistics and repairing the data-set. He had also playfully nominated the most average tree in the city. And although he vaguely positioned a few helpful use-points of the apps (“for people with allergies”, “interesting for environmental activists”), it was clear from watching him playing around with data, and after a while also in how he talked about the app, “that it is also really about some nerdy and technical fun”. At the same time, incomplete data sets were irritating for activists on what seemed to be an affective level. This was often the case with data-sets available through the city’s data portal. The programmer of the tree app, for instance, would touch these ‘unchartered territories’ on his application interface and exclaim, “someone clearly did not do their job there”. Through this he implied that he saw data-collection and data-sharing as significant parts of the parks and gardens department’s tasks, something which is for most people, far from self-evident.

5 Discussion: Enacting the Sunlight City I have shared my impressions of the NGOs’ approach, the activists’ practices, and of the resulting transparency apps. In the lingo of the ethnographer, these impressions are far from ‘saturated’. The data collected is still exploratory and many connections and details must be explored further in order to make a generalizable argument. Nonetheless, for this book, I take the freedom to interpret what I

134

M. Heibges

have seen and to ask how this one version of concrete urban transparency activism does politics: How do the ideas, practices and technologies at play “practice reason” (Rabinow 1995)? Or, in other words, how do they organize the social? The transparency activism I witnessed did not entail activists laying open their entire personal communication, or using transparency as legitimation for dubious personal conduct, as Franzen had envisioned. The transposition from norm to form takes place through a broad theoretical umbrella and the practical support provided by two self-declared transparency promoting NGOs. Also, and again in contrast to Franzen’s Sunlight Project, the concrete transparency activism observed has a distinctly urban focus on making the city “better”. Promoting and hosting projects focused on the so-called Freedom of Information. NGO activities were grass-roots community oriented. All the while, they position the nexus of urban improvement through participation and through information in the shape of open data, and invite tech-savvy volunteers to regular meetings and one-off programming events. As such, the activism very much centers on visualization. It thereby enacts, and that is my first point in concluding this chapter, an aesthetic approach to modernist urban politics. Making urban concerns visible—from putting a renovation-price tag on a map of run-down school buildings to locating all city trees—is practically positioned as a political end in itself. While visibility is an important element of Western liberalism anyhow (e.g. Coles 2007), the visual formatting of activism has a legacy in the operationalization of an information and technologybased interpretation of politics. This is advocated through the supporting NGOs and is characteristic for transparency as an organizing principle in general (e.g. August 2018). In this sense, matters of concern can speak for themselves, without conventional political institutions and representation. And for them to be able to speak for themselves, they first and foremost have to be visible. This, of course, is a conceptualization which does not take into account that those matters might still be understood differently, or not at all, by different people, and that information might never be ‘neutral’. However, that is a more general discussion which will not be explored further here. In the concrete practices and resulting apps of transparency activism, the concept of improvement through the visibility of information often turns into the simpler, seemingly aesthetic movement of ‘making things visible’. This is because both practices and resulting apps are shaped not only by the political concepts discussed in the above paragraph, but also by the activists’ pure joy in communal programming and acquiring data. A form of all-encompassing urban acquisitiveness is most pointedly reflected in the tree app. Further, the vague legitimacy that visuality lends to this past-time is much embraced, but not—as

Sunlight City: Exploring the Politics …

135

probably typical for the heuristic and intertwined logics of everyday life—interrogated for overall consistency. The resulting contrast between the political claims that frame the apps and their (to the non-programmer) mundane functions (such as visualizing a city’s Christmas markets), gives them their slightly ‘crazy’ aura. In other words: there is a curious tension between norm and form to be observed for the urban transparency activism I witnessed, which mostly results out of the activists’ ludic relationship with data. The ‘data-drivenness’ of this activism (be it for ideologic, or ludic reasons— or a complex entanglement of both), impacts activists’ relationship to their supposed object of political attention and transformation—the city. Urban space, in the words of a young programmer attending the activist meetings, should become “machine-readable” in order to ultimately make the city “better” and “more accessible” for its inhabitants. Thus, the prerequisite of political improvement (more on the specific formatting of such an idea of improvement below) becomes datafication. This is a line of thought that is very much compatible with historical concepts of transparency. The standardization of information was already promoted in Jeremy Bentham’s ideas about a formalized politics of transparency (e.g. Rzepka 2013). Particularly through Data Apps, with their focus on promoting and linking different urban data-sets, activists were trying to connect urban and digital worlds. This means that transparency activism does politics in a second way, namely by transforming urban space into informational space. The city then becomes something like a frontier 2.0, not nature to be turned into culture, but instead a place where claiming land for mankind is enacted in a second loop. What has been turned into urban space, shall now be turned into datafied urban space. This practical and discursive bridge between urban and digital space annexes newly datafied urban space to create a specific manifestation of sociality, one which anthropologist Christopher Kelty (2005, 2008) calls a “recursive public”. In his analysis of the free software movement and what he calls “geek culture”, Kelty (2008, p. 7) describes recursive publics as “concerned with the ability to build, control, modify, and maintain the infrastructures that allows them to come into being in the first place and which, in turn, constitutes their everyday practical commitments and the identities of the participants”. While Kelty focuses on theories of the public sphere, I am more concerned with a recursive public as a particular sociality—a particular form of community and identity. This sociality is characterized by a focus on the maintenance and analysis of the grounds of its own association. A recursive public, or let’s say a recursive community, is thus co-constituted by its own materiality: by discursively focusing on this materiality, by infrastructurally ‘running’ on it, and by expressing verbally and non-verbally

136

M. Heibges

through these infrastructures. The free software/free internet movement, or more broadly Cyberculture in general, would be emblematic examples, with their large conventions, e.g. the Chaos Computer Congress and the Re:Publica in Germany. This community constitutes itself through a focus on the material, legal and social shape of the internet and its associated software; it came into being through these new infrastructures. Urban space, so far, has not played a role in the attention of such recursive communities to software protocols, licensing agreements and algorithms. When the city becomes “machine-readable”, this changes, as urban space can become incorporated in the recursive community of Cyberculture. Kelty takes a highly affirmative view of recursive publics and sees them as a seed for alternative social orders. Moreover, for him they are a prerequisite for “any public to become a sovereign entity in contemporary technical societies” (2005, p. 205). However, in terms of the micro-politics of urban transparency activism I rather suspect that the vision—and to a lesser extent practice—of datafied urban space implies something else. First and foremost, it suggests a highly technical focus on social organization, which passes from digital space into urban space (more below). This essentially modernist idea of urban improvement through technological advancement taps into the contemporary discourse around so-called Smart Cities. The somewhat vague label usually marks cities which are ‘enhanced’ through digital technologies, enabling a more efficient functioning of local infrastructure and administration (e.g. Batty et al. 2012). The Smart City concept has many affinities with the transparency concept: both are technology and information-driven, and both have an infrastructural and formal approach to social organization. Interestingly, the Smart City also seems to be the target of moralizing debates, not unlike the transparency approach. Smart city concepts are polarized between strong affirmation and fears of the city as a panopticon (e.g. Hollands 2008). This is not surprising, given that the varying uptakes of the Smart City label also usually embrace the principles of transparent governance, which are at the core of transparency as a political organizing principle (e.g. Rzepka 2016; Vanolo 2014, p. 887). Urban transparency activism and the Smart City have shared origins, so to speak. Concurringly, it might not be surprising that some of the ways transparency activism and the Smart City does (or does not do) politics overlap: questions of urban political participation and representation were not addressed or reflected within the aesthetic and data-driven formatting of urban transparency activism. This diagnosis has also been made for applications of the Smart City concept (e.g. Cardullo and Kitchin 2017). Altogether and thirdly, the observed urban transparency activism articulates a techno-centric image of urban social

Sunlight City: Exploring the Politics …

137

order and how to produce it. This imagery goes beyond conventional notions of political protest, participation and, most importantly, political representation. The question of who speaks for whom in the city—and on what legitimate grounds— is seemingly not included in activists’ practices. At least implicitly, technological ability legitimizes political actors, while structural questions of social inequality do not seem to come into play. Although the city’s administration was identified as a potential object of improvement, it was never addressed as the administrative arm of the city’s elected government. Influence on the administration was imagined to take place via the sheer persuasiveness of ‘good’ technical solutions. And in at least one case where a Visualization App was actually incorporated into the city’s data portal, it was also realized in this way. Urban transparency activism therefore encompasses both modernist rationalities (in its technocratic focus on progress—or more accurately “improvement”), and postmodern rationalities (in its antirepresentational impetus and focus on knowledge). And in these practices and rationalities, activism displays a paradoxical relationship to the state’s institutions: they do not seem to figure as part of this manifestation of politics and are not addressed as organs of representation, yet their data are heralded and their structures targeted for development. An “ethics of engineering” which Turner sees as typical for Cyberculture is invoked, an “ethics of: Does it work?” (Fingal et al. 2018, p. 7). Our world—in this case the city—should work well, and if it does work well, it is a good world. Political participation, in this vein, becomes urban usability. Turner (2006, p. 245) calls this formatting of politics “the antinomian, antiinstitutional impulses” of Cyberculture grown out of Californian liberalism, which he claims eventually ushers in the “flexible, consciousness-centered work practices of the postindustrial society”. However, none of the more extreme outgrowths of New Age Liberalism as described by Turner, from charismatically run communes to extreme techno-libertarianism, are necessarily apparent in the practices and apps discussed above. What does apply to the observed activism are the more general diagnoses of transparency’s politics: they are formalist in the sense they offer technical solutions, and they are individualist in the sense they do not focus on collective action or protest. The anthropological diagnosis that assumes a bricolage character of sociality also makes it unlikely that a concept such as transparency organizes the social all by itself. This is evident in the playful and affective data practices characterizing parts of urban transparency activism. The Sunlight City may be a technocratic and unwittingly gendered space, but it is also weirdly fun and well connected by train.

138

M. Heibges

References August, V. (2018). Theorie und Praxis der Transparenz: Eine Zwischenbilanz. Berliner Blätter, 21(76), 129–156. Ballestero, A. S. (2012a). Introduction. Transparency in triads. PoLAR: Political and Legal Anthropology Review, 35(2), 160–166. Ballestero, A. S. (2012b). Transparency short-circuited. Laughter and numbers in Costa Rican water politics. PoLAR: Political and Legal Anthropology Review, 35(2), 223–241. Batty, M., Axhausen, K., Fosca, G., Pozdnoukhov, A., Bazzani, A., Wachowicz, M., Ouzounis, G., & Portugali, Y. (2012). Smart cities of the future. The European Physical Journal Special Topics, 214(1), 481–518. Beck, S. (2008). Natur. Kultur. Überlegungen zu einer relationalen Anthropologie. Zeitschrift für Volkskunde, 104(2), 161–199. Cardullo, P., & Kitchin, R. (2017). Being a ‘citizen’ in the smart city: up and down the scaffold of smart citizen participation. The Programmable City Working Paper, 30, 1–24. Coles, K. (2007). Democratic designs. International intervention and electoral practices in postwar Bosnia-Herzegovina. Ann Arbor: University of Michigan Press. De Certeau, M. (1988). The practice of everyday life. Berkeley: University of California Press. Fingal, J., Hartsock, C., Tarnoff, B., & Moira, W. (2018). Don’t be evil. A conversation with Fred Turner on utopias, frontiers, and brogrammers. Logic. A Magazine about Technology, 3 Justice. Franzen, J. (2015). Purity. London: Fourth Estate. Han, B.-C. (2012). Transparenzgesellschaft. Berlin: Matthes & Seitz. Hollands, R. G. (2008). Will the real smart city please stand up. Intelligent, progressive or entrepreneurial. City, 12(3), 303–320. Holzner, B., & Holzner, L. (2006). Transparency in global change. The vanguard of the open society. Pittsburgh: University of Pittsburgh Press. Kelty, C. (2005). Geeks, social imaginaries, and recursive publics. Cultural Anthropology, 20(2), 185–214. Kelty, C. (2008). Two bits. The cultural significance of free software. Durham and London: Duke University Press. Knecht, M., Klotz, M., Polat, N., & Beck, S. (2011). Erweiterte Fallstudien zu Verwandtschaft und Reproduktionstechnologien. Potentiale einer Ethnographie von Normalisierungsprozessen. Zeitschrift für Volkskunde, 107(1), 21–48. Lane, K. E. (Hrsg.). (2017). Age of the geek. Depictions of nerds and geeks in popular media. London: Palgrave MacMillan. Ortner, S. B. (1984). Theory in anthropology since the sixties. Comparative Studies in Society and History, 26(1), 126–166. Rabinow, P. (1995). French modern. Norms and forms of the social environment. Chicago: University of Chicago Press. Rzepka, V. (2013). Die Ordnung der Transparenz. Jeremy Bentham und die Genealogie einer demokratischen Norm. Berlin: Lit.

Sunlight City: Exploring the Politics …

139

Rzepka, V. (2016). Transparency and the TTIP negotiations. A critique of the common sense. Global. https://www.sowi.hu-berlin.de/de/lehrbereiche/theorie-der-politik/mitarbeiter-innen/vincent-august/doc/2016-vincent-august-rzepka-transparency-and-the-ttipnegotiations-1.pdf. Accessed 23 June 2019. Sifry, M. L. (2011). Wikileaks and the age of transparency. New Haven: Yale University Press. Thomson, M. J. (2012). Black boxes of bureaucracy. Transparency and opacity in the resettlement process of Congolese refugees. PoLAR: Political and Legal Anthropology Review, 35(2), 186–205. Turner, F. (2005). Where the counterculture met the new economy. Technology and Culture, 46(3), 485–512. Turner, F. (2006). From counterculture to cyberculture. Stewart brand, the whole earth network, and the rise of digital utopianism. Chicago: Chicago University Press. Vanolo, A. (2014). Smartmentality. The smart city as disciplinary strategy. Urban Studies, 51(5), 883–898. Webb, M. (2012). Activating citizens, remaking brokerage. Transparency activism, ethical scenes, and the urban poor in Delhi. Political and Legal Anthropology Review, 35(2), 206–222. West, H. G., & Sanders, T. (2003). Transparency and conspiracy. Durham: Duke University Press.

Maren Heibges (née Klotz; Dr.)  is a Senior Fellow (Strategic Management and Research) of the Division of Ergonomics of Technical University Berlin. Her research group studies work systems from both theoretical and applied perspectives. She has previously worked as a lecturer and research fellow at the Department of European Ethnology at the Humboldt University Berlin. Heibges holds a joint PhD in Science and Technology Studies (STS) and European Ethnology from the University of Exeter in the UK and Humboldt University Berlin. Heibges’ main research fields are modes of solidarity and sociality in a world of advancing science and technology. She uses perspectives gleaned from anthropology, STS, Social Studies of Science and Medicine, and sociology. Heibges is the editor of Transparenz. Schlüsselbegriff einer politischen Anthropologie der Gegenwart [Transparency. Key concept of a political anthropology of the present] (special issue of Berliner Blätter, ­Panama Verlag, 2018).

Polizeiliche Transparenzpraktiken und die Flexibilität einer Norm im organisatorischen Alltag Jens Bergmann

Zusammenfassung

Der Beitrag thematisiert den Gebrauch der Transparenznorm in einer Organisation am Beispiel der Polizei. Da dieser Organisationstyp in widerspruchsvoller Hinsicht auf Tätigkeiten der Kontrolle und Sichtbarmachung verpflichtet ist sowie geprägt von einer vergleichsweise ausgeprägten internen Heterogenität, stellt sich die Frage, wie es die Organisation der Polizei schafft, die Transparenznorm in Strukturen organisatorischen Entscheidens dennoch zu integrieren, und zwar auch jenseits formalisierter Erwartungen. Ziel des Beitrages ist es, durch empirische Offenlegung von Prozessen der Planung, Konstruktion und Darstellung transparenzbezogener Ziele herauszufinden, wie die Polizei Transparenz organisiert und wie die Institution der Transparenz auf der Makroebene durch Praktiken auf der Mikroebene gestützt wird. Auf Basis der Interpretation empirischer Daten u. a. aus Interviews mit Polizeimitarbeitern sowie aus teilnehmender Beobachtung wird gezeigt, dass dies auch dadurch gelingt, dass man auf eine Pluralität heterogener Praktiken baut, zu denen die Herstellung von Intransparenz gehört.

Abstract

The subject of this contribution is the organizational use of the norm of transparency by example of the police. For this type of organization is characterized by contradictory and inconsistently designed activities of control or of

J. Bergmann (*)  Polizeiakademie Niedersachsen, Hannover E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 V. August und F. Osrecki (Hrsg.), Der Transparenz-Imperativ, https://doi.org/10.1007/978-3-658-22294-9_6

141

142

J. Bergmann

visualization as well as it shows a comparatively internal heterogeneity, the question arises, how the police manages it to integrate the norm of transparency into structures of organizational decision making – also beyond formalized expectations. The goal of this article is to find out how the police organizes transparency by processes of planning, constructing and presenting transparency-related goals and how the institution of transparency at the macro level is supported by practices of the micro level. Based on interpretations of empirical data it is shown, that this is achieved by means of using a heterogeneous set of practices, which, amongst others, implies the production of intransparency (opacity).

1 Einleitung1 Die Organisation der Polizei hat einen besonderen Bezug zu Transparenz. Auf Basis der ihr gesetzlich vorgegebenen Aufgaben der Ermittlung, der Strafverfolgung und der Gefahrenabwehr (Frevel und Groß 2013, S. 9) ist sie einerseits schwerpunktmäßig mit der Herstellung von Transparenz befasst: sie beobachtet, sie sammelt Daten, sie ermittelt, überwacht, kontrolliert und sie informiert. Hierbei hat sie Routinen entwickelt und ist, auch durch Nutzung soziotechnischer Wissenspraktiken (Social Media, digitale Informationssysteme, Datenbanken), eine Expertin in der Kreation bzw. Anwendung professionalisierter Transparenztechniken (Creemers 2016). Andererseits steht sie selbst als Adressatin von Transparenzerwartungen im Fokus der Öffentlichkeit (Stichworte: Polizeigewalt, Bodycams, Kennzeichnungspflicht für Polizeibeamte oder Transparenzgesetze; vgl. Klein 2015; Lehmann 2017; Spitzer 2016). Dies zwingt sie zu Sachverständigkeit in Sachen Abschottung, Verschweigen und Herstellung von Intransparenz (aus „ermittlungstaktischen Gründen“, heißt es oft, müssten Informationen vorenthalten werden oder es bilden sich „Mauern des Schweigens“ in Fällen polizeilicher Übergriffe) sowie zur Professionalisierung in Sachen Transparenzdarstellung. Während sie also darauf angewiesen ist, ihre Methoden oder Strategien geheim zu halten, ist die Polizei zugleich dazu aufgefordert, Rechenschaft abzulegen bzw. sich bürgernah zu geben, Einblicke in ihr Inneres zu gewähren.

1Ich

danke den Herausgebern für wertvolle Hinweise für die Überarbeitung einer ersten Version dieses Beitrags.

Polizeiliche Transparenzpraktiken und die Flexibilität einer …

143

Die  esonderheit des Verhältnisses der Polizeiorganisation zur Transparenz besteht offenkundig darin, dass sie in eine Konstellation verstrickt ist, die widersprüchliche Aspekte des transparenzbezogenen Erwartens und Bewertens miteinander kombiniert (Herstellung, Abschottung, Darstellung). Transparenz, ohnehin kein objektiv erreichbarer Zustand, sondern stets Beobachtungsprodukt, das relativ zu eingenommenen Perspektiven artikuliert wird – „Ansichtssache“ (Baecker 2010, S. 112) eben – kompliziert die Koordination und Integration von polizeilichen Entscheidungen, und das in einem Organisationstyp, der auch noch durch ein hohes Ausmaß an interner Heterogenität charakterisiert ist (Wilz 2012, S. 119 f.). Versteht man Transparenz als regelförmige Erwartungsstruktur, die auf der sozialen Makroebene institutionelle Wirkungskraft entfaltet (Senge 2006, S. 44; Scott 2008), weist diese daher mit Bezug zur Polizei einen vergleichsweise großen Abstand zu ihrer handlungsförmigen Aktualisierung auf. So eindeutig die Forderung nach Offenlegung oder Einsichtnahme im Allgemeinen auch klingt, so unklar bleibt, welche Maßnahme(n), welche Entscheidungen jeweils im Einzelfall, welche Ereignisse, Prozesse, Daten in welchen Ausschnitten nachvollziehbar (= transparent; Svetlova 2010, S. 84) gemacht werden sollen. Mit diesen transparenzbezogenen Herausforderungen – Konkretisierung, Spezifizierung der Transparenznorm sowie Selbstlegitimation durch Darstellung von Transparenz (bzw. Herstellung und Darstellung) – ist die Frage nach der Organisierbarkeit bzw. Organisationsfähigkeit der Transparenznorm angesprochen.2 Diese Frage soll im Mittelpunkt der folgenden Betrachtungen stehen. Wie also schafft es die Organisation der Polizei, die Transparenznorm in Strukturen organisatorischen Entscheidens zu integrieren? Sie versucht dies zunächst natürlich durch Einführung formalstruktureller Entscheidungsprämissen, bspw. durch Einrichtung von Kontrollen, Berichtswesen oder Stellen für Öffentlichkeitsarbeit. Anschlussfähige Aspekte der Transparenz erschließen sich jedoch auch auf der Mikro-Ebene der alltäglichen Ausgestaltung solcher Formalstrukturen. Denn Formalstrukturen müssen ausgedeutet und realisiert werden, die offiziellen Regeln können nicht für jeden Einzelfall Vorsorge treffen, sie sind lediglich „ergänzungsbedürftige Teilstruktur“ (Luhmann 1972, S. 221) der Organisation. Sie müssen jeweilig kontextualisiert werden bspw. durch Orientierungen an

2Damit

ist nicht nur die Frage gemeint, ob und inwiefern Organisationen wie die Polizei Transparenzerwartungen in Planungen, operative Strukturen oder in irgendeine Art des Berichtswesens umsetzen. Jenseits solcher formalstrukturellen Aspekte interessieren auch informelle Strukturen, die die Formalstruktur stützen (vgl. hierzu u. a. Stinchcombe 2001; Tacke 2015).

144

J. Bergmann

Ordnungsvorstellungen, die mit Alltagshandeln verknüpft sind, durch Vorstellungen darüber, was ein Publikum von einer angebrachten „(Theater)-Aufführung“ (Goffman 2008) erwartet oder durch situationsbezogenes Herstellen von Sichtbarkeiten im Rahmen des jeweiligen Handlungskontextes. Einige Möglichkeiten des Gebrauchs der Transparenz-Norm auf dieser Ebene werden im Folgenden exemplarisch am Beispiel der Polizei dargestellt, um den Zusammenhang zwischen Normen und Praktiken der Transparenz empirisch zu explorieren. Ziel des Beitrages ist es zu zeigen, inwieweit die Bedeutung der Norm der Transparenz bei der Polizei mit verschiedenen Handlungskontexten variiert. Hierdurch können Inkohärenzen in der praktischen Bedeutung der Transparenznorm abgebildet -, und es kann somit der These nachgegangen werden, dass die Ordnungskraft der Transparenz als Norm auf der Makroebene darauf angewiesen ist, dass sie gerade keinen bruchlosen Durchgriff auf die Mikroebene gewährleistet. Im Gegenteil: Organisationen leisten ihren Beitrag zur Aufrechterhaltung der Transparenznorm gerade dadurch, dass sie über Transparenz strategisch verfügen, indem sie sie im Sinne eines selektiven, unbeständigen „Skripts“ (Flyverbom 2015; Sahlin-undersson 1996) nutzen, um sich an Umwelterwartungen anzupassen. Und Organisationen leisten ihren Beitrag zur normativen Reproduktion von Transparenz nicht nur durch deren Herstellung und Darstellung, sondern auch durch das Verschweigen oder Ignorieren von Informationen (Bitekine und Haack 2015; Meijer 2013). Aus einer systemtheoretischen Perspektive sind solche Praktiken des Verschweigens als funktionale Abweichungen interpretierbar, das heißt als notwendige Umgehung von (formalisierten) Transparenzerwartungen. Denn würde eine Organisation jede ihre Aktionen mitteilen oder jeden Entscheidungsprozess dokumentieren, würde sie an einer nicht mehr zu bewältigenden Last an Informationen zerbrechen. An Forschungen zu funktionalen Abweichungen in organisationalem Verhalten (z. B. Bensman und Gerver 1963; Luhmann 1972; Bernstein 2012; Osrecki 2015) soll an dieser Stelle angeknüpft werden, um zu zeigen, dass eine nützliche Abweichung vom normativen Zwang zur Sichtbarkeit nicht einfach so und stillschweigend praktiziert werden kann. Denn eine Organisation kann es sich in Zeiten zunehmender Mächtigkeit des Transparenzimperativs nicht leisten, vollständig auf die Herstellung von Transparenz zu verzichten, bei Strafe des Legitimitätsverlustes. Sie muss also einen Weg finden, die Produktion, die Negation sowie die Zurschaustellung von Transparenz zu vereinbaren. Um diese Art des Zusammenhangs zwischen organisatorischer Herstellungsund Darstellungsarbeit an Transparenz auf der Mikroebene (dem Gebrauch der Norm) sowie dessen Legitimität auf der Makroebene zu illustrieren, wird im Folgenden auf Daten zurückgegriffen, die im Rahmen eines Forschungsprojekts

Polizeiliche Transparenzpraktiken und die Flexibilität einer …

145

zur Kommunikation bei Großveranstaltungen3 erhoben wurden (Teil 3). Vor der Datenanalyse erfolgt eine kurze Bestimmung von Varianten organisationaler Transparenzspezifizierung (Teil 2), der Beitrag endet mit einem Fazit (4).

2 Transparenzspezifizierung in Organisationen Bei Strafe von u. a. rechtlicher Sanktionierung, öffentlicher Ablehnung/Skandalisierung, oder des Entzugs von Kundschaft bzw. Ressourcen sind Organisationen dazu gezwungen, Handlungen an den Tag zu legen, die sich innerhalb eines Systems der Geltung von Normen als angemessen, wünschenswert oder geeignet erweisen (Suchman 1995, S. 577). Gerade im Rahmen der Transparenznorm sind Organisationen dazu genötigt, sich anzupassen, was bedeutet, dass sie sich offen, demokratisch oder kooperativ geben müssen, denn der Ruf nach Transparenz ist in der Öffentlichkeit seit längerem ungebrochen. Er wird mit Wünschen u. a. nach Aufklärung, Nachvollziehbarkeit von Entscheidungen, Partizipation und Fairness verbunden (Garsten und Lindh de Montoya 2008; Hood 2007) und er hat sich in den letzten Jahren offensichtlich verstärkt (Stehr und Wallner 2010; Hansen et al. 2015). In diesem Sinne verlangt die Norm der Transparenz, dass Entscheidungen nachvollziehbar getroffen werden (Svetlova 2010, S. 84), dass die Öffentlichkeit freien Zugang zu Informationen haben solle oder generell, dass Beobachtbarkeit, Kontrolle und Dokumentation von Vorgängen zu sichern seien. Über die generelle Gültigkeit dieser Norm als Form oder Blickrichtung herrscht scheinbar Konsens (Garsten und Lindh de Montoya 2008). Inhaltlich jedoch präsentiert sich die normative Erwartung der Transparenz uneindeutig. Zwar stellt sich eine Norm immer als relativ abstraktes Gebilde dar, als regelförmige Erwartung, die auf eine Vielzahl von Situationen anwendbar sein soll und die daher stets nach Konkretisierungsleistungen bzw. situativer Anpassung verlangt (Luhmann 1969; Popitz 1980). Doch im Fall der Transparenz-Norm ist diese Eigenschaft der Unbestimmtheit, Vagheit oder Diffusität besonders ausgeprägt: Transparenz ist als Begriff „volatile and imprecise“ (Williams 2005, S. 359), es gibt kaum

3Es

handelt sich um das BMBF-geförderte Projekt „Informations- und Kommunikationskonzepte für den Krisen- und Katastrophenfall (K3)“ bzw. um dessen Teilprojekt „SONAR“, das am Institut für Soziologie der Leibniz Universität Hannover zwischen Februar 2015 und Januar 2018 durchgeführt wurde. Ich danke allen beteiligten Polizeimitarbeitern, die sich als Interviewpartner zur Verfügung gestellt, bzw. die eine teilnehmende Beobachtung ermöglicht haben.

146

J. Bergmann

einen funktionalen Kontext, der nicht der Forderung nach Transparenz ausgesetzt ist und es kann nie genug Einblicke geben, um ausreichend informiert zu sein (Fenster 2015). Eine Sicherstellung von Beobachtbarkeit scheint stets daran zu scheitern, dass durch Herstellungsversuche von Transparenz erneut (ein Verdacht von) Intransparenz generiert wird (Jansen 2010, S. 26 f.; Bernstein 2012). Akteuren fällt es vor diesem Hintergrund schwer, die jeweilige Angemessenheit oder Richtigkeit transparenzbezogener Handlungspraxis zu bestimmen (bzw. die sozialintegrative Kraft der Transparenz als Norm handlungspraktisch zu realisieren), insbesondere im Kontext von Organisationen, die sich gerade durch ihre Multireferenzialität und interne Differenzierung auszeichnen, die also darauf angewiesen sind, sich in füreinander intransparente, abgetrennte Funktionsbereiche aufzuspalten (Jansen und Vogd 2013; Bora 2001). Organisationen, auch die Polizei, reagieren auf diese Problematik mit einer Fülle an Transferleistungen, mit Übersetzungs-, Darstellungs- und Bestimmungsformen der Transparenz. Sie tun das, was sie in dieser Hinsicht am besten können: sie versuchen zu organisieren und zu kontrollieren. Entlang der für sie zentralen Strukturparameter „talk“, „decision“ und „action“ bzw. entlang der Differenzierung zwischen Entscheidungsprämissen, Selbstdarstellung und operativer Entscheidungspraxis (vgl. hierzu Brunsson 2006; Kleidat 2011) lassen sich unter anderem folgende Varianten der organisatorischen Arbeit an Transparenz unterscheiden: • In Planungen („decisions“) legen Organisationen fest, welche Kriterien für künftige Entscheidungen relevant gemacht werden sollen bzw. was als richtig zu gelten hat (Kleidat 2011, S. 60 ff.; Luhmann 2011, S. 230 ff.). Auf Basis planerischer Transparenzmaßnahmen soll beobachtet, bewertet und verglichen werden, es entstehen programmförmige Entscheidungsprämissen. Solche Programmelemente gehen mit der Einrichtung entsprechender Instrumente/ Verfahren zur Darstellung, Überprüfung und Bewertung von Handlungen einher (Buchhaltungs- und Berechnungsvorgaben, Kennziffern, Controlling) sowie mit der Einrichtung interner Überwachungs- oder Auditstellen (u. a. Law und Mol 1998; Messner et al. 2007; Neyland 2007; Power 1997; Strathern 2002 und die Literatur zu Accountability Research). • Transparenzbezogene Maßnahmen, die den operativen Vollzug von Handlungen in Organisationen betreffen, lassen sich als Praktiken der aktiven Kontrolle, der Sichtbarmachung, Prüfung, Überwachung und Einflussnahme beschreiben. Sie zielen auf Optimierungen, sie sammeln, vergleichen, selegieren oder wollen motivieren. Aktivitäten werden dahin gehend überwacht, ob sie mit planerisch festgelegten Programmelementen (Zielen, Zwecken, Werten) übereinstimmen

Polizeiliche Transparenzpraktiken und die Flexibilität einer …

147

(Luhmann 1999, S. 326 ff.). Flankiert werden Kontrollpraktiken von Techniken der fortlaufenden und intensivierten Berichterstattung über Leistungen und Motivation der Mitarbeiter4 (Evaluierung und Selbstevaluierung, Empowerment; vgl. Bröckling 2007, S. 199 f.; Voswinkel 2005), von Befragungen, Überwachungen sowie Disziplinierungsmaßnahmen oder durch die Einbeziehung von Mitarbeitern auch unterer Hierarchieebenen in Entscheidungsprozesse. Mit Blick auf das Transparentmachen von Sachverhalten aus der Umwelt leisten sich Organisationen extra (Grenz)Stellen sowie spezielle Beobachtungs-, Kontakt- und Informationssysteme. Organisatorische Maßnahmen schließlich, die die Darstellung von Transparenz betreffen, dienen der Generierung, Weitergabe und Veränderung organisationsbezogener Informationen. Hierfür bedient man sich verschiedener Darstellungspraktiken („talk“). Sie zielen unter anderem darauf ab, Zuständigkeiten, Erreichbarkeiten kenntlicher zu machen, Prozesse der Entscheidungsfindung nachzuzeichnen, (Rechenschafts-)Pflichten herauszustellen oder Leistungen abzubilden (Dokumentations- und Berichtswesen). In Form von verschiedenen Berichts- und Textformaten sowie über neue Medien der Informationsübertragung kommunizieren Organisationen so nach innen und nach außen, wie und was sie warum an wen kommuniziert haben oder was geleistet worden ist bzw. wie sie sich selbst wahrnehmen und wahrgenommen werden wollen (de Fine Licht 2011; Laursen 2013; Roberts 2009). Die Polizei nutzt all diese Varianten der Transparenzspezifizierung, um den Transfer der Norm in ihren Organisationskontext zu fördern bzw. um den an sie herangetragenen Transparenzerwartungen entsprechen zu können. Solche Erwartungen betreffen vor allem drei Bereiche: Mit Blick auf das Verhalten ihrer Beamten in der Öffentlichkeit (u. a. bei Großveranstaltungen, Kundgebungen, Demonstrationen) wird deren Rechtskonformität, Kontrolle sowie Identifizierbarkeit gefordert, mit Bezug auf die Sicherheitsproduktion und im Umgang mit Bürgern erwartet man die Gewährung von Einblicken in Verfahrensweisen, die Risiken minimieren sollen, um Vertrauen gewinnen zu können, und intern geht es um das Transparentmachen von Entscheidungsprozessen und Leistungen, genauer: es geht um die Generierung von „Führungsinformationen“, um Qualitätsmanagement sowie um Beteiligungsmöglichkeiten an Entscheidungsprozessen

4Aus

Gründen der besseren Lesbarkeit wird auf die gleichzeitige Verwendung männlicher und weiblicher Sprachformen verzichtet. Sämtliche Personenbezeichnungen gelten gleichermaßen für beiderlei Geschlecht.

148

J. Bergmann

für Beamte unterer Hierarchieebenen genauso wie um die Nachvollziehbarkeit von Arbeitsleistungen (Pekar-Milicevic und Ritsert 2017). Mit Heald (2006) lässt sich zusammenfassend sagen, dass organisationale, formalisierte Vorkehrungen der Transparenz auch in der Polizei potenziell in drei Richtungen wirken: sie sorgen für die Konstruktion und Preisgabe von Informationen nach oben und nach unten innerhalb der Hierarchie (vertikal), nach außen und nach innen (horizontal), und sie machen Ereignisse ebenso wie Prozesse zu ihrem Gegenstand. Sie sollen Entscheidungen vorbereiten, abbilden und rechtfertigen, und sie können die Entscheidungen mit der Darstellungspraxis verbinden, aber auch entkoppeln. Mit dieser abstrakten Aufzählung ist noch kein empirischer Erkenntnisgewinn im Hinblick auf die oben aufgeworfene Frage nach der praktischen Organisierbarkeit der Transparenznorm in der Polizei verbunden. Denn Vorstellungen über die Bedeutung formalstruktureller Vorgaben in einer Organisation können genauso variieren wie deren handlungsleitende Prägekraft. Es sind jedoch Anknüpfungspunkte gegeben, um empirische Aspekte der alltäglichen Transparenzarbeit bei der Polizei einzufangen. Diese Anknüpfungspunkte sollen im Folgenden genutzt werden. Wie also gelingt es der Polizei als Organisation, sich als Koproduzentin der gesellschaftlichen Transparenznorm zu betätigen? Wie schafft sie es, diese Arbeit der Koproduktion gewährleisten zu können, obwohl sie sich auf Brüche, Inkonsistenzen und Übersetzungsanforderungen in Relationen zur abstrakten Norm einstellen muss? Wie gestaltet sich demnach praktische „Vollzugswirklichkeit“ (Garfinkel) der Transparenznorm, wie wird aus der Norm praktischer Sinn erzeugt und kontextualisiert?

3 Praktiken des Umgangs mit Transparenz Um diese Fragen explorativ beantworten zu können, wird auf Daten zurückgegriffen, die im Rahmen eines vom Bundesministerium für Bildung und Forschung geförderten Forschungsprojektes zur Analyse von Kommunikationsstrukturen von Behörden und Organisationen mit Sicherheitsaufgaben bei Großveranstaltungen erhoben wurden. Es handelt sich um Transkriptionen von 14 teilstrukturierten, problemzentrierten Interviews mit Beamten aus verschiedenen Polizeibehörden unterschiedlicher Aufgabenbereiche. In diesen Interviews wurden u. a. strategische und informationsbezogene Aspekte der Konstruktion und Bewältigung von besonderen polizeilichen Einsatzlagen thematisiert (vor allem Großveranstaltungen). Weiterhin fließen Auswertungen aus Protokollen von zwei eintägigen, teilnehmenden Beobachtungen in die Analyse ein, die im Verlauf zweier polizeilicher Einsätze im Rahmen innerstädtischer Großveranstaltungen

Polizeiliche Transparenzpraktiken und die Flexibilität einer …

149

gemacht werden konnten. Ergänzt wird dieses Material durch Dokumentenanalysen. Die Interpretation der Daten folgt Prinzipien einer rekonstruktiven Herangehensweise, d. h. die dokumentierten Äußerungen sowie die beobachteten Interaktionen werden im Hinblick auf ihre Verlaufslogik bzw. ihre impliziten Vollzugslogiken beobachtet (Bohnsack 2009). Wiederkehrende Problemaspekte, typische Handlungsabläufe und Irritationen werden dabei fokussiert, um Regeln der Ausführung einer spezifischen Transparenzpraktik identifizieren zu können (Breidenstein et al. 2013, S. 147). Mithilfe dieser methodischen Ausrichtung wird im Bereich der Organisationsforschung häufig und mit Erfolg versucht, Funktionen und Bedeutung organisatorischer Kommunikationspraktiken zu erschließen (u. a. Mensching 2008; Vogd 2011). Die im Folgenden dargestellten Analysen von Interview-Aussagen und Einsatz-Situationen fokussieren daher Kommunikationsmuster, in denen Transparenz lokal bzw. mit Bezug auf bestimmte Kontexte hergestellt wird, in denen sie ignoriert wird oder in denen von Transparenzregeln deutend Gebrauch gemacht wird. Es interessieren „Alltagstheorien“ im Sinne von praxistheoretischen Mustern, die den Handlungen oder Deutungen der beobachteten Polizeibeamten zugrunde liegen (Jacobsen 2001, S. 13). Zwar liefert dieses Verfahren keine verallgemeinerungsfähigen Erkenntnisse. Die individuellen Beschreibungen sind jedoch Indizien und erlauben Rückschlüsse darauf, wie „bestimmte Sachverhalte als Entscheidungsproblem bzw. Lösungsmöglichkeit“ von Beteiligten skizziert werden, das heißt, wie sich Organisationspraxis im Kontext von Transparenz tatsächlich vollzieht (von Groddeck et al. 2016, S. 165).

3.1 Transparenzplanung Die Polizei orientiert sich bei Vorbereitungs- und Planungsaktivitäten im Zusammenhang mit Großveranstaltungen am Ziel der Sicherheit, das heißt sie ist auf die Herstellung von Erwartbarkeiten bedacht sowie auf die Einschätzungen und Minimierung von Risiken (Weibler und Petersen 2017). Hierbei greift sie, ganz im Sinne einer bürokratischen Organisation, auf klassische Strategien zurück wie die Bestimmung von Zuständigkeitsregeln, das Prinzip der Schriftlichkeit oder das Bestätigen von Entscheidungen im Modus der Mitwisserschaft durch Einbeziehung weiterer hierarchischer Ebenen. Formalisierung im Sinne der ausdrücklichen Formulierung von Erwartungen dient in diesem Kontext dazu, sich gegenüber Eventualitäten abzusichern und Entscheidungen in kontrollierte, rechtssichere und für alle Beteiligten transparente Bahnen zu lenken (Stinchcombe 2001).

150

J. Bergmann

So gibt es im Rahmen polizeilicher Dienstvorschriften, Leitfäden und anderer Vorschriften (Erlasse, Verfügungen, behördliche Dienstanweisungen) detaillierte Vorgaben zum organisatorischen Aufbau, zu Zuständigkeiten, Meldepflichten und zu Abläufen auch bei besonderen und zeitlich begrenzten Anlässen (bspw. größere Gefahrenlagen, Schadensereignisse wie Katastrophen, Bedrohungslagen wie Geiselnahmen/Amok oder Versammlungslagen), das heißt im Zusammenhang mit Ereignissen, die die Leistungsfähigkeit der im alltäglichen Normalbetrieb genutzten Organisationsstruktur und Ressourcen überfordern würde (Zeitner 2015). Und im Hinblick auf Risikoeinschätzung von Einsatzlagen (Informationssammlung, Bewertung, Aufklärung) bedient sich die Polizei eines umfangreichen Sets an Stellen, standardisierten Prozessen und Techniken zur Informationsbeschaffung, Datenanalyse und -aufbereitung mit dem Ziel der Nutzung u. a. von Datenbanken, Lageberichten oder Karten als Entscheidungsgrundlagen (Heinrich 2009; Kleinschmidt und Rückheim 2009, S. 5 ff.). Diese beiden Komponenten – formalisierte Risikoeinschätzung sowie detaillierte Regelung des organisatorischen Aufbaus bzw. Ablaufs der Bewältigung von besonderen Einsatzlagen – sollen Transparenz planbar machen, das heißt sie auf die Koordination verschiedener Entscheidungsprämissen beziehen (Luhmann 2011, S. 231), bspw. wenn es um die Begründung von Personalbedarf geht. Hierdurch kann die Organisation ihre Entscheidungen so kommunizieren, als wären sie nicht riskant und als hätte man alle Vor- und Nachteile mit einkalkuliert. Die Polizei organisiert so zudem auf bestmögliche Art Zurechnungsmöglichkeiten von Verantwortung, d. h. sie sichert sich ab, indem sie mögliche anfallende Kosten für „Fehlentscheidungen“ personalisiert (Mensching 2013, S. 64 f.). So benennen bspw. Rahmenbefehle, die auf regelmäßig stattfindende Einsätze („Zeitlagen“ wie z. B. Fußballspiele) vorbereiten sollen, Zuständigkeiten von Personen, einsatztaktische Grundsätze, Personalverteilungen und Entscheidungsvorbehalte, das sind Einschränkungen von Entscheidungsbefugnissen für niedrigrangigere Beamte für bestimmte Maßnahmen (wie bspw. das Festhalten von Gruppen, die größer sind als zehn Personen) (Int. 105; Kleinschmidt und Rückheim 2009, S. 32 f.). Die Transparenz, also die potenzielle „wechselseitige Bobachtbarkeit von Entscheidungen“ (Mensching 2013, S. 65), erhöht sich dadurch, womit allerdings auch Folgeprobleme generiert werden. Die relativ hohe Anzahl an einzubeziehenden Stellen und einzukalkulierenden, risikorelevanten Gegebenheiten

5Die

in Klammern mit der Abkürzung „Int.“ versehenen Ziffern verweisen auf die Nummer des jeweils zur Analyse verwendeten Interviews.

Polizeiliche Transparenzpraktiken und die Flexibilität einer …

151

kompliziert das Entscheidungsverfahren und macht es den Planern tendenziell schwer, sich zu fokussieren.6 Beispielsweise berichtet ein Beamter, der für Aufklärungs- und Informationsbeschaffungsarbeit im Vorfeld von Großveranstaltungen zuständig ist, davon, wie schwierig es sei, eine nachvollziehbare, plausible Bewertung von Informationen zu leisten, da ein einheitliches Bewertungssystem für Informationsquellen – obwohl von einer spezialisierten Bundesbehörde vorgegeben – nicht von allen an Einsätzen beteiligten Behörden genutzt werde (Int. 11). Darüber hinaus kann durch die transparenzbedingte Vervielfachung der Zurechnungspunkte für Entscheidungen nicht genau vorhergesehen werden, was nachträglich ggf. als Entscheidung/Nichtentscheidung von relevanten Dritten beobachtet werden könnte. Transparenz im Sinne der Begründung und Abbildung der Entscheidungswege erhöht somit zwar die (scheinbare) Rationalität der planenden Risikokalkulation, sie steigert aber auch Komplexität/Inflexibilität des Verfahrens sowie Unsicherheiten im Hinblick auf nachträgliches Sensemaking. An Planungen beteiligte Akteure versuchen daher, ihre Aktivitäten durch Nutzung teilweise informalisierter Koordinationsmittel flexibel zu halten und sich so vorübergehend von Transparenzzwängen zu befreien, ohne sich jedoch vollständig von diesen abzulösen. Dies gelingt bspw. dadurch, dass man Zuständigkeiten an bestimmten Personen mit Erfahrungswissen bindet oder dadurch, dass man zu Planungszwecken gruppenförmige Interaktionsordnungen einrichtet (Besprechungen) und hier bspw. das Durchspielen von Szenarien nutzt, eine Technik des interaktionsgebundenen Absicherns von Entscheidungen. Hierbei werden situative Eventualitäten und das Wissen der beteiligten Personen für Planungen relevant. Besprechungen als besondere Kommunikationsform sind von Mündlichkeit dominiert und sie finden in einem exklusiven Rahmen statt (Jacobsen 2001, S. 88 ff.). Es gibt für den Ablauf solcher Treffen keine klaren, bis ins letzte vordefinierten Vorgaben und Entscheidungen werden der Besprechungsgruppe als Kollektiv zugeordnet, daher ist die Last der Begründungszwänge für den einzelnen Teilnehmer weniger ausgeprägt als im alltäglichen Dienstbetrieb und daher wird hier auch tendenziell stärker im Mediums des Vertrauens kommuniziert (als im Medium der Macht oder des Rechts – die getroffenen Entscheidungen sind in der Regel rechtlich nicht bindend). So hat sich im Rahmen der Vorbereitungen zu einer innerstädtischen Großveranstaltung der Veranstalter mit seinen Aktivitäten mehrfach nicht an die Vereinbarungen des

6Ein

Problem, das unter Zeitdruck Stress verursacht und zum „threat-rigidity“ Syndrom führen kann oder zum Phänomen der Testvermeidung (vgl. Staw et al. 1981; Weick 1985, S. 216 ff.).

152

J. Bergmann

offiziellen Sicherheitskonzepts gehalten, was jedoch ohne Konsequenzen blieb (Feldbeobachtung). Kontexte und zu besprechende Inhalte bleiben im Rahmen von Vorbesprechungen kontingent, richten sich häufig nach tagesaktuellen Ereignissen und sind damit für Nicht-Beteiligte zunächst intransparent. Beim Besprechen und Durchspielen von Szenarien (bspw. einem Unwetter, einer Massenpanik bei Feuer oder einem terroristischen Anschlag) entsteht also, partiell und anlassbezogen, eine graduelle Entkopplung vom transparenzbezogenen, formalen Regelwerk insofern Gestaltungsmöglichkeiten größer sind als im regulären Normalbetrieb. Man probiert, testet und übt Eventualitäten ein (vgl. WittManß 2016, S. 11). Auch weil es sich bei Vorbereitungen auf Großveranstaltungen nicht um Routinetätigkeiten handeln kann (zu komplex und einmalig sind die jeweiligen Anlässe), favorisiert man solche direkten Abstimmungstreffen; Flexibilitätserfordernisse sowie der unsicherheitsreduzierende „Gewissheitscharakter der Wahrnehmung“ (Heintz 2014, S. 238) bedingen eine „Unverzichtbarkeit von Anwesenheit“ (ebd.). Im Rahmen der Thematisierung solcher Vorbesprechungen und Szenarien, zu denen sich vor Großveranstaltungen in der Regel polizeiliche Teilnehmer aus verschiedenen Diensteinheiten sowie Vertreter von kooperierenden Behörden und Organisationen versammeln (Feuerwehr, Kommune, Rettungsdienste, Veranstalter), betonte man in den Interviews daher stets die besondere Bedeutung von „Einsatzerfahrung“ oder „Erfahrungswissen“ (Int. 3; Int. 12) der Beteiligten sowie die Notwendigkeit lokaler Netzwerkkontakte. Man müsse sich, so der Tenor der Interviewaussagen, zu planerischen Vorbereitungen von Einsätzen aufeinander verlassen können und es käme darauf an, dass lokal gewonnene Kenntnisse verfügbar seien. In dieser Weise äußert sich bspw. ein Leiter eines Stabes für Einsatzplanung, verantwortlich u. a. für Personaldisposition und Taktik bei Großveranstaltungen in einer Großstadt: „In vielen Sachen gibt es da(…) keine Lagedaten, die ich feststehend irgendwo drinhabe, wo ich praktisch runterscroll, sondern ganz viel hängt von der Erfahrung ab, und das ist das, was ich ganz am Anfang so sagte: es spielt sich unheimlich viel in der, im Wissen des Polizeiführers ab, der eben halt dafür verantwortlich dafür zeichnet [dass ein taktisches Konzept erstellt wird]“ (Int. 2).7

7Zitate

aus den Interviews werden im Folgenden mit Anführungszeichen versehen und kursiv gesetzt. In Klammern dahinter findet sich ein Verweis auf die jeweilige Interview-Nummer.

Polizeiliche Transparenzpraktiken und die Flexibilität einer …

153

Diese besondere Bedeutung personengebundenen Wissens für die Planung von Einsätzen, also die Bindung von Planungsentscheidungen an eher intransparente (nicht vollständig dokumentierbare oder verfahrensförmig gestaltbare) Bereiche der individuellen Disposition und Erfahrung, wird auch durch einen weitgehenden Verzicht auf schriftliche Fixierungen von Entschlüssen bei solchen Gegebenheiten dokumentiert (Notka 2004; Kleinschmidt und Rückheim 2009, S. 9 f.). Protokolle, so die Aussagen, werden zwar angefertigt, aber sie spielen in weiteren Entscheidungen eine eher untergeordnete Rolle. Mit Bezug auf Einsatzplanung meint ein Polizeibeamter dementsprechend: „Wir müssen uns zwingend mündlich austauschen, weil das auch Missverständnissen vorbeugt, beispielsweise, man kann sich nicht auf das geschriebene Wort verlassen“ (Int. 7). Ähnlich lauten auch Aussagen von weiteren befragten Einsatzplanern, die betonen, dass es bei der Organisation von Großeinsätzen von großer Bedeutung sei, sich persönlich zu kennen und einander zu vertrauen. Denn: „Räumliche Distanz erhöht das Risiko von Informationsverlusten. Je besser man unmittelbar kommunizieren kann (…), desto geschmeidiger läuft das“ (Int. 12). In diesem Zusammenhang beschwert sich ein Interviewpartner auch über mangelnde Raumkapazitäten für Durchführungen solcher Besprechungen, was eine zunehmende Bedeutung dieser Transparenzpraktik anzeigt. Deutlich wird somit, dass Besprechungen, Verhandlungsgremien und deren Aushandlungsprozesse der Konstruktion eines gemeinsam geteilten Erlebnishorizontes dienen, der so etwas wie „informelle Transparenz“ herstellt, also eine an Interaktion und Personen (und nicht an formale Entscheidungsprämissen) gebundene Sichtbarkeit der Vorbereitung und Absicherung von Entscheidungen, die dann später auf dieser Basis in einen formal-transparenten Rahmen überführt werden kann (das Sicherheitskonzept, der Einsatzbefehl). Besprechungen, die als (im Medium der mündlichen Kommunikation erfolgende) Ergänzung und Konkurrenz zu schriftlichen, formalisierten Planungen verstanden werden können, schaffen also eine Art von „Hinterbühnen“ (Goffman 2008; vgl. auch die Einteilung polizeilicher Arbeitsorte bei Jacobsen 2001, S. 17) der Organisation, die u. a. Bildungen lokaler Identitäten anstoßen und Vertrauensbeziehungen stiften. Sie helfen so dabei, Anweisungen und Informationen aufzubereiten bzw. zu vermitteln, sie schaffen aber auch eine Distanz zum organisationsöffentlichen, bürokratischen Alltagsgeschehen (ebd., S. 58, 66). Transparenznormen und deren formalisierte Umsetzung werden in dieser Art von Besprechungsrahmen aufgeschoben. Der Polizei scheint es so zu gelingen, den mit Transparenznormen einhergehenden Verpflichtungen durch Mobilisierung interaktionsbasierte Praktiken sowie durch Relevanzsetzung der Vorerfahrungen handelnder Personen als Entscheidungskriterium (Weibler und Petersen 2017, S. 384) erst einmal auszuweichen.

154

J. Bergmann

3.2 Aktive Kontrolle Neben Planungen von Transparenz hat es die Polizei (sowohl dauerhaft als auch bei der Abwicklung temporärer Einsatzlagen) mit der Erwartung zu tun, einerseits die Regelkonformität der Handlungen ihrer Beamten aktiv zu gewährleisten bzw. sichtbar zu machen. Andererseits hat sie die Aufgabe, auch Sichtbarkeiten in ihrer Umwelt herzustellen und bspw. Einsatzräume, Tatorte sowie verdächtige Personen zu kontrollieren. Sie fördert die Erfüllung solcher Erwartungen, indem sie unter anderem Vorgaben der externen strafrechtlichen Kontrolle (Staatsanwälte, Richter, Gesetze), der politischen Kontrolle (Innen- und Untersuchungsausschüsse) sowie der öffentlichen und administrativen internen Kontrolle (Medien, Vorgesetzte) in Dienst- und Verhaltensvorschriften übersetzt bzw. entsprechende Befehle gibt und Verhaltenskonformität anschließend durch Vorgesetzte (zumindest hypothetisch) überwachen lässt, und indem sie Aufklärung praktiziert, d. h. Informationen beschafft oder Daten analysiert. Solche Tätigkeiten werden durch ein umfassendes Berichts-, Melde- und Aktenwesen gestützt, bspw. durch Anweisungen, durch ein internes Beschwerdemanagement, durch Anwesenheitskontrollen, Disziplinarverfahren oder durch Vorgesetztenbeurteilungen. Sie werden aber auch durch räumliche Arrangements sowie durch Technik und Interaktionssettings ermöglicht, in denen man das visuell Sichtbare in Daten oder Bewertungen transformiert. Ein Beobachtungsbeispiel soll im Folgenden ein kurzes Schlaglicht auf diese Formen von Transparenzpraktiken werfen. Visuelle Sichtbarkeit im Lagezentrum Im Rahmen eines Polizei-Einsatzes anlässlich einer innerstädtischen Sportveranstaltung konnte teilnehmend beobachtet werden, wie die Herstellung von Sichtbarkeit der Handlungen des Personals, von polizeilichen Aktivitäten im Einsatzbereich sowie die Abbildung der hierarchischen und funktionalen Arbeitsteilung der mit der Aufgabe der „Lagebewältigung“ (Polizeijargon) befassten Organisationseinheiten erfolgte. Ein Auszug aus den Feldnotizen, die noch am selben Tag der Beobachtungen angefertigt wurden, soll dies illustrieren; geschildert wird hier der Besuch eines Lagezentrums, das ist der Raum, in dem sich während des laufenden Einsatzes die leitenden Beamten aufhalten und in dem die Kommunikation zusammenläuft: Im Einsatz-Lagezentrum befinden sich bei meinem Eintreten etwa 35 Personen. Der Einsatz läuft seit etwa viereinhalb Stunden, es ist gegen Mittag, die Veranstaltung hat noch nicht begonnen, es kam jedoch eine Stunde zuvor zu einer illegalen

Polizeiliche Transparenzpraktiken und die Flexibilität einer …

155

Stör-Aktion von Veranstaltungsbesuchern, von denen viele festgenommen worden sind. Der Raum wird auf der Stirnseite von einer großen Leinwand dominiert, auf die mit drei an der Decke befestigten Beamern Kamera-Liveaufnahmen nebeneinander projiziert werden. Die Aufnahmen zeigen u.a. Luftbilder des Polizeihubschraubers, der über dem Einsatzgebiet kreist sowie verschiedene Bilder von an Gebäuden befestigten Kameras, die im Stadtgebiet oder in sowie um das Stadion platziert sind. Man erkennt auf den Bildern Personen und Personengruppen, die unterwegs zum Stadion sind. Die im Raum anwesenden Personen nehmen während meines 30-minütigen Aufenthalts kaum Notiz von diesen Aufnahmen (sie telefonieren, sprechen über Funk oder sie schauen auf ihre Monitore, tippen auf die Tastatur; einige wenige Personen befinden sich kurz im leisen Zwiegespräch, diese treffen sich jedoch gehend im Raum, sie sitzen nicht). Der Raum ist insgesamt sehr ruhig, es herrscht kaum Betriebsamkeit, nur etwa fünf Personen verlassen ihn während meiner Anwesenheit oder kommen hinein. Im Raumzentrum stehen drei Tischreihen parallel nebeneinander; sie zerteilen den Raum der Länge nach. An den Längsseiten der Tischreihen befinden sich jeweils nebeneinander acht Sitzplätze/ Arbeitsplätze (Bürostühle auf Rollen). Die mittlere Tischreihe hat auf beiden Seiten solche Sitzplätze, die beiden äußeren nur auf einer Seite, sodass (längsseitig) insgesamt vier Stuhlreihen mit jeweils acht Arbeitsplätzen zur Verfügung stehen, von denen die beiden mittleren Reihen sich direkt gegenüber, auf beiden Seiten der mittleren Tischreihe, befinden. Die Arbeitsplätze sind überwiegend mit Computer-Monitoren und Telefonen ausgestattet, auf den meisten Plätzen befinden sich zudem Unterlagen. Auf der der Leinwand gegenüberliegenden Stirnseite befindet sich eine weitere Tischreihe mit acht Plätzen nebeneinander, welche die Tischkonstellation zu einem großen „U“ abschließt. Die Personen an diesem Stirnseiten-Tisch (bei meiner Anwesenheit vier) haben das Raumgeschehen vor sich und schauen auch direkt auf die Leinwand dahinter. Hinter diesem Stirn-Tisch wiederum wird der Raum durch ein großes Glasfenster abgeschlossen, hinter dem sich der Funkraum befindet und welcher einsehbar ist. Man kann den Funker und einen weiteren Mitarbeiter in diesem Raum beobachten. Zugänglich ist der Funk- Raum von zwei Seiten, einmal von außen über den Flur und einmal vom Inneren des Lagezentrums, nämlich von der mir gegenüberliegenden Seite des Raumes aus. Dort befindet sich, abgesetzt vom restlichen Tischarrangement und erhöht auf einem Podest, etwas versetzt hinter der Stirnseiten-Tischreihe in der hinteren Ecke, der Tisch der Einsatzleitung, der vom Polizeiführer und einer weiteren Person besetzt ist (es handelt sich um die zivile Verbindungsperson zum städtischen Bürgermeister, wie ich später erfahre).

Das Lagezentrum erweist sich als Anordnung von Sitzplätzen, die zunächst zwei Sichtachsen betont: die eine geht in Längsrichtung durch den Raum, von rechts nach links, und ist auf die große Leinwand ausgerichtet, wo fortlaufend bewegte Kamerabilder von Personen oder Personengruppen gezeigt werden, welche sich im Einsatzgebiet aufhalten. Entlang dieser Sichtachse kann zudem das Führungspersonal von seinem (erhöhten, abgesetzten) Standort aus die Aktivitäten des vor ihm im Raum befindlichen Personals beobachten (bei diesen handelt es sich u. a. um Einsatzabschnittsbetreuer der sieben Einsatzabschnitte, um

156

J. Bergmann

Verbindungspersonen zu weiteren am Einsatz beteiligten Organisationen und um Logistik-Verantwortliche). Die Mehrzahl der anwesenden Personen sitzt sich an den u-förmig arrangierten Tischen gegenüber, was die zweite Sichtachse betont, eine quer durch den Raum geführte Blickrichtung, die auf das sitzende Gegenüber gerichtet ist. Mit dieser Blickrichtung und dem symbolisch bedeutsamen Tisch-U wird der Kooperations- und Austauschcharakter der Tätigkeiten der Anwesenden angezeigt bzw. die mit der Transparenznorm einhergehende Verpflichtung auf Koordination. Mehrere Interviewpartner aus der Polizei bestätigen die besondere Bedeutung, die diese Sitzanordnung für sie besitzt. Das Raumarrangement unterstützt Sichtbarkeiten also in dreierlei Hinsicht: es dient erstens der symbolischen Sichtbarmachung der hierarchischen Rangordnung des Polizeipersonals, zweitens repräsentiert es deren funktionale Aufteilung. Die steuernden Führungspersonen sitzen abgesetzt und erhöht, sie „thronen“ über den anderen, die Einsatzabschnittsbetreuer und „Verbinder“ dagegen, die Informationen selektieren und weitergeben, sitzen in der Mitte am U-Tisch, der Funker als technischer Koordinator sitzt im Glaskasten. Das Arrangement ist drittens auf die Videoüberwachung des Einsatzraumes ausgerichtet (die Leinwand ist der Blickfang im Raum). Es fördert zuletzt und viertens auch die Selbstbeobachtung (Selbstkontrolle) des mittig sitzenden Einsatzpersonals. Mit Blick auf Nutzung bzw. aktionsförmige Ausgestaltung dieses Sichtbarkeitsarrangements konnte während der Dauer des Beobachtungsaufenthaltes festgestellt werden, dass Personen, die am mittleren U-Tisch-Arrangement saßen, überwiegend sitzen geblieben sind und kaum miteinander in Interaktion traten. Sie waren nahezu ausschließlich mit Tätigkeiten wie Funken, Telefonieren oder dem Dokumentieren von Vorgängen in das elektronische Protokollsystem beschäftigt. Dieses weitgehende wechselseitige Ignorieren der Tischnachbarn entspricht zwar in etwa dem jeweiligen Aufgabencharakter dieser Positionen (Selektion und Weitergabe von Informationen von außen nach innen und umgekehrt per Funk oder Telefon sowie Protokollierung von Entscheidungen), es widerspricht jedoch dem zu Dialog und Austausch auffordernden Charakter der u-förmig angeordneten Tische. Im Prinzip hätten diese Personen, so der Eindruck, besser und konzentrierter arbeiten können, wenn sie an voneinander separierten Einzeltischen gesessen hätten. Dass die außerhalb des U-Tisch-Rahmens positionierten Personen (das Leitungspersonal, technisches Personal oder Gegenstände bringende/holende Personen) dagegen eine deutlich höhere Interaktions- und Bewegungsaktivität an den Tag legten, entspricht eher deren Funktionen (­Steuerung, Unterstützung). Einen weiteren Widerspruch zwischen dem durch die Sitzanordnung eingerichteten Sichtbarkeitsarrangement und dem tatsächlich beobachteten Verhalten

Polizeiliche Transparenzpraktiken und die Flexibilität einer …

157

vermittelte aus Sicht des Beobachters die weitgehende Ignoranz der Anwesenden gegenüber den auf der großen Leinwand gezeigten Videobildern. Die Videoleinwand wurde kaum angeschaut oder sichtbar in Aktivitäten eingebaut (bspw. längeres Hinschauen oder darauf Zeigen). Blicke blieben fortlaufend hauptsächlich auf Computermonitore fixiert, auf denen Programm-Oberflächen des Einsatzdokumentationssystems zu erkennen waren. Visuelle Eindrücke vom Einsatzraum, so die Schlussfolgerung, spielen bei solchen Einsätzen operativ offenbar eine untergeordnete Rolle gegenüber mündlich oder schriftlich vermittelten Informationen. Auch die akustisch hervorstechende, da über Lausprecher durchgegebene Meldung (während der Anwesenheit des Beobachters wurden zwei für alle hörbare Meldungen durchgegeben) verursachte keine sichtbaren Veränderungen von Verhalten (es folgten keine für den Beobachter sichtbaren Griffe zu Telefonhörern, es begannen keine EDV-Aktivitäten oder Gespräche). Funktion der Lautsprecherdurchsage war es, dies wurde dem Beobachter vor Ort im Nachhinein bestätigt, die Aufmerksamkeit aller Anwesenden auf den gleichen Sachverhalt zu lenken, das heißt, den außerhalb des Lagezentrums in seiner Gesamtheit heterogenen und weitgehend intransparenten Aktionsraum auf wesentliche Kerninformationen zu reduzieren. Im Prinzip sei diese Information jedoch auch bereits für alle Beteiligten im parallel einsehbaren EDV-Protokollsystem sichtbar gewesen. Die Schlussfolgerung aus diesen Beobachtungen mit Blick auf polizeiliche, aktive Kontrollpraktiken im Setting eines Einsatzlagezentrums lautet, dass die Herstellung visueller Transparenz in Form des Sichtbarkeitsarrangements von Mitarbeitern im Raum und in Form der Live-Übertragung von Kamerabildern aus dem Einsatzgebiet auch andere Funktionen haben kann als die (potenziell transparenzfördernde) direkte Verhaltensbeeinflussung, die Abstimmung oder die Lagebewertung. Eine Vermutung lautet, dass Transparenzpraktiken in diesem speziellen Kontext dazu dienen, „Grenzobjekte“ herzustellen und „Grenzstellenarbeit“ zu ermöglichen. Grenzobjekte stören nicht die jeweilige, aus funktionaler Arbeitsteilung abgeleitete Konzentration auf verschiedene Dimensionen eines Ereignisses, aber sie sind den Anwesenden dennoch präsent, sie symbolisieren geteiltes Wissen, bieten Anlässe zum Austausch und ermöglichen so verlässliche Arbeitsbeziehungen der Beteiligten (Hörster et al. 2013). Grenzobjekte wie die Videoleinwand oder die Funkdurchsage halten also als Resultate transparenzbezogener, aktiver Kontrollpraktiken im Rahmen eines Einsatzlagezentrums die notwendige Trennung von Aufgaben und Routinen der an Kooperationen beteiligten Organisationen zugleich aufrecht (sie sorgen für Grenzen der Transparenz) und sie bieten zugleich die Möglichkeit, sie ereignisbezogen aufeinander abzustimmen (sie können Anlass werden für die Gewährung von Einblicken).

158

J. Bergmann

3.3 Darstellung von Transparenz Mit Blick auf ihre Selbstdarstellung als transparente Organisation gilt für die Polizei dasselbe Prinzip wie für jede andere Organisation: da ihr die Gesamtheit der eigenen Aktivitäten nicht in vollem Umfang bewusst sein kann bzw. da die verschiedenen an Einsichten interessierten Akteure heterogene Interessen verfolgen, muss auch die Polizei bei der Generierung und Weitergabe organisationsbezogener Informationen filtern und vereinfachen – sie muss also Intransparenz praktizieren, um transparent zu wirken. „Selbstbeschreibung bedeutet daher auch immer Selbstsimplifikation, beispielsweise durch Fokussierung bestimmter Sinngebungen, Verdrängungen in den Bereich des Latenten oder auch durch Unterspezifikation von Zielen“ (Kleidat 2011, S. 34). Sofern die selektiven Erfüllungen der Transparenznorm auf die Informationsbedürfnisse und Wertungskriterien der jeweiligen Beobachter abgestimmt sind, entsteht für die Beteiligten kein Problem. In dieser Hinsicht hat sich die Polizei professionalisiert und eigens für Selbstdarstellungen gedachte Stellen geschaffen (u. a. Pressestellen/Öffentlichkeitsarbeit) sowie spezifische Berichts- und Textformate entwickelt, die heterogenen Transparenzerwartungen entgegenkommen (vgl. Noethen 2003; zur Aktenpraxis der Polizei vgl. Mensching 2008; zur Abbildung von Steuerungsinformationen Renter 2017). Potenziell problematisch wird die reduzierte bzw. aufbereitete Darstellungsrealität („talk“) der Organisation jedoch dann, wenn Diskrepanzen auffallen und wenn sie zum öffentlichen Thema werden, bspw. Diskrepanzen zwischen unterschiedlichen Darstellungen desselben Sachverhaltes, zwischen Werten und Verhalten oder zwischen Formal- und Aktivitätsstruktur. Es treten dann Legitimitätsprobleme auf, das heißt, die in der Darstellung vermittelte Aktivität gilt nicht als richtig oder angebracht (Suchman 1995). Die Polizei muss sich, so ist zu vermuten, relativ häufig mit solchen Problemen auseinandersetzen, sie muss erklären und rechtfertigen (trotz Professionalisierung der Selbstdarstellung), was eine transparente Darstellung kompliziert. Dies lässt sich zum einen auf den spezifisch öffentlichen Charakter des polizeilichen Tuns zurückführen bzw. auf dessen Sichtbarkeit und ein vergleichsweise großes mediales Interesse an polizeilicher Aktivität (Bewältigung von Krisen, gewaltförmiges Handeln, vgl. Kersten 2009). Und zum anderen bedingt der ausgeprägte Grad an Formalisierung/Reglementierung des polizeilichen Handlungsraumes, dass Abweichungen zwischen Sollen und Sein wahrscheinlicher werden und häufiger auftreten. Verbunden mit der potenziell weitreichenden rechtlichen Relevanz von Abweichungen für einzelne Personen macht dies die Selbstdarstellung bzw. die Imagearbeit zu einem Sonderproblem und zur Daueraufgabe der Polizei (Hermanutz und Weigle 2017;

Polizeiliche Transparenzpraktiken und die Flexibilität einer …

159

Pudlat 2017). Mit Blick auf die praktische Umsetzung der Transparenznorm interessiert hier der Umgang mit diesem Thema. Vor dem Hintergrund der zunehmenden Nutzung von sozialen Medien und der damit automatisch gesteigerten Sichtbarkeit des polizeilichen Handelns für die Öffentlichkeit (Fehr 2014; Bayerl und Rüdiger 2017) soll also die Art Bewältigung dieser Daueraufgabe am Beispiel der Öffentlichkeitsarbeit nun abschließend kurz illustriert werden. Wie also geht die Polizei mit der Notwendigkeit um, auch in Krisen- oder Notfallsituationen ihre Tätigkeitsdarstellung zu filtern und die Wahrnehmung auf sich selbst zu steuern? Wie versucht sie, sich glaubwürdig zu machen und wie interpretiert sie die Norm der Transparenz in dieser Hinsicht? Mit Hilfe von Interviewaussagen sowie mit einem Twitter-Beispiel soll diese Frage nun kurz beantwortet werden. Grundsätzlich demonstrieren die interviewten Polizeibeamten (davon auch vier für Presse- und Öffentlichkeitsarbeit zuständig) eine positive Haltung gegenüber Transparenzerwartungen, die mit Social Media-Kommunikation einhergehen. Transparenz wird von ihnen weniger als schwer erfüllbare Norm oder als problematische Forderung verstanden, sondern als strategisches Werkzeug sowie als Image-Komponente. Transparenzherstellung über Soziale Medien sei „ganz wichtig“ meint z. B. ein Einsatzführer, denn dadurch könne man sich besser selbst erklären, nämlich transportieren „warum macht die Polizei bestimmte Sachen“ (Int 2). Über Social Media-Kanäle seien beispielsweise Anlässe für Polizeieinsätze oder Gründe für bestimmte taktische Maßnahmen bei Einsätzen, wie Wasserwerfergebrauch oder Straßensperrungen, effektiver kommunizierbar als früher. Solche Erklärungen könnten deeskalierend wirken (Int. 1, Int. 10). Transparenz wird insofern weniger als moralisch begründete Erwartung oder als Rechenschaftspflicht interpretiert, sondern als diskursives Angebot, das man aufgreifen und für sich nutzen kann. Sie gilt als dosierbares Kommunikationsmittel, sie soll einsatzbegleitend im Sinne der „taktischen Kommunikation“ (Kern 2017) verwendet werden: „Wir wollen eigentlich transparent sein“, formuliert ein Einsatzplaner, denn durch Transparenz könne die „Akzeptanz von Entscheidungen vermittelt werden“ (Int. 1; ähnlich lautend Int. 7, Int. 18). Auch in Fällen von falschen Anschuldigungen oder Gerüchten im Netz bspw. wegen Polizeigewalt, so berichtet ein weiterer Beamter, habe man mit Hilfe von „Transparenz“, in seinem Verständnis nämlich durch Verbreitung eigener Informationen, schon häufiger bei laufenden Einsätzen „gegensteuern“ (Int. 10) können, um „Rechtfertigungspositionen“ gar nicht erst aufkommen zu lassen. Insofern es das Hauptziel der Medienarbeit der Polizei ist, öffentliches Vertrauen zu gewinnen und das eigene Image zu verbessern, spielen die Sichtbarkeit und die Sichtbarmachung bei der Polizei prinzipiell also eine entscheidende Rolle (Bayerl und Rüdiger 2017,

160

J. Bergmann

S. 957). Das Bewusstsein darüber, dass man nicht alles mitteilen oder offenlegen kann, was entschieden wird, widerspricht dieser grundsätzlichen Auffassung nicht. Ein für Öffentlichkeitsarbeit zuständiger Mitarbeiter meint: „Transparenz ist eigentlich Quatsch für eine Behörde. Wir können ja gar nicht alles veröffentlichen oder bekannt geben, das geht ja schon mal nicht, aus internen Gründen, ne. Aber soweit es geht, wollen wir transparent sein. Das heißt, wenn jemand fragt, warum macht ihr das so und so, dann wollen wir das erklären. Außer, es sprechen taktische Belange dagegen, dann sagen wir, können wir leider keine Auskunft zu geben, ne“ (Int. 8).

Grenzen der Transparenz liegen da, „wo wir unsere Einsatzziele gefährden würden, wo wir bspw. verdeckt agieren. Also wir machen uns nicht komplett nackt“ (Int. 1), so formuliert es ein Vertreter des höheren Polizeidienstes. Man teile gerne alles mit, „wenn es harmlos ist“, ansonsten gilt: „Wenn ich Fragen nicht beantworten möchte, dann beantworte ich sie nicht“ (Int. 2), bzw. deutlicher: „Ich muss meine Einsätze nirgendwo erklären, ich muss sie nirgendwo rechtfertigen. Außer, wenn ich einen Fehler mache, vor Gericht. Das ist die einzige Instanz – oder vor meinem Chef – diese beiden Instanzen, mein Chef oder vor Gericht, sind die, wo ich mich rechtfertigen muss, wo ich mich erklären muss. Aber ansonsten muss ich nirgendwo was erklären“ (Int. 2). Dieses kaum weiter interpretationsbedürftige Zitat eines aktiven Einsatzführers bringt den praktischen Sinn der Transparenznorm mit Blick auf die Außendarstellung auf den Punkt. Es offenbart eine Praxis der Verwendung/Verwandlung der Norm als „rhetorische Strategie“ (Rzepka 2013) bzw. deren Transformation in einen „account“ (Elsbach 2003), der Zwänge zur Selektion von Informationen verdecken möchte und der kritischen Nachfragen gegenüber als Schutzmechanismus wirken soll. Transparenz findet so als „firewall“ (Suchman 1995, S. 597) Verwendung, als Schutzeinrichtung, die in Krisen normalisierend und vertrauensbildend wirken soll. Indem also die taktisch gesteuerte Offenlegung von Interna bzw. die selektive Informationspolitik der Polizei als Transparenz dargestellt wird, soll sie als rhetorische Figur vor weiteren Nachfragen oder vor Legitimitätsverlusten schützen. Dass ein solcher Schutz, wie angedeutet, nicht immer funktioniert, hat zwei Hauptgründe. Zum einen liegt das an den Beobachtungsmöglichkeiten des Publikums, welches das Verhalten von Polizeibeamten (vor allem während Versammlungen) in Echtzeit und aus verschiedenen Perspektiven per Handy dokumentieren und öffentliche machen kann. Mehrere Fälle sind bekannt, in denen polizeiliche Übergriffe auf Basis von Foto- oder Videobeweisen zur Identifizierung von Tätern und zu strafrechtlichen Konsequenzen führten. Die Adressaten der

Polizeiliche Transparenzpraktiken und die Flexibilität einer …

161

polizeilichen Selbstdarstellung, die an Öffentlichkeit beteiligten Bürger, unterminieren also häufig Versuche der taktischen Steuerung von Transparenz durch ihre eigenen Transparenzmaßnahmen. Sie machen die polizeiliche Berufung auf Bürgernähe, Dialogbereitschaft oder Offenheit unglaubwürdig, indem sie „Gegenöffentlichkeit“ herstellen. Die Problematik der Verwendung von Transparenz in dieser Weise liegt zum anderen darin, dass polizeiliche Selbstdarstellungsversuche aufgrund von Konventionen und Regulierungsdefiziten, die mit der Kommunikation im digitalen Raum einhergehen, in Konflikt mit rechtlichen Normen geraten können. So wird es möglich, dass Kommentare, die bspw. im Echtzeitmedium Twitter ohne Zeitverzögerung gepostet werden, dem vonseiten des Bundesverfassungsgerichts den Behörden auferlegten Gebot der Neutralität und Sachlichkeit widersprechen. Die Frankfurter Polizei etwa verletzte aus Sicht von Kritikern ihre Neutralitätspflicht, als sie im März 2015 anlässlich der Proteste gegen den Bau des EZB-Gebäudes ein Foto des Schwarzen Blocks mit den Worten „Bunter Protest?“ kommentierte. Und entgegen dem Gebot der Unschuldsvermutung wurde während der Blockupy-Proteste ein Tweet gepostet, der die Verantwortung für beobachtete Straftaten bestimmten Personengruppen nahelegte, ohne dass eine direkte Verbindung zu diesen nachweisbar war. In diesem Tweet wurde dazu aufgefordert, sich von Straftätern zu distanzieren und bei Ermittlungen zu helfen, direkt dahinter fügten die Polizisten die Hashtags von Anhängern der Proteste ein (siehe Abb. 1). Dies führte zu dem Vorwurf, die öffentliche Meinung durch

Abb. 1    Tweet der Frankfurter Polizei anlässlich der Blockupy-Proteste 2015. (Quelle: http://mobile.twitter.com/Polizei_Ffm/status/577979669737283.584?ref_ src= twsrc%5Etfw%7Ctwcamp%5Etweetembed&ref_url= https%3A%2F% 2Fd-2187150791560062.369.ampproject.net%2F1906282130.140%2Fframe.html abgerufen am 23.05.2017)

162

J. Bergmann

r­hetorisch zugespitzte Beiträge beeinflussen zu wollen sowie ohne gesicherte Tatsachenbasis eine Begehung von Straftaten durch Demonstranten suggerieren zu wollen (Gawlas et al. 2015, S. 364 ff.). Der Versuch einer Herstellung von Transparenz kehrte sich um in die Anschuldigung, es mit Tatsachen nicht so genau zu nehmen. Die Polizei reagiert auf solche Anschuldigungen in der Regel mit Accounts wie „Ausreden“, „Rechtfertigungen“, „Entschuldigungen“ oder „Leugnungen“ (Elsbach 2003, S. 307). So lautete die Reaktion des für die Kommunikation in sozialen Medien verantwortlichen Frankfurter Polizisten: „‚Wir haben die Kritik angenommen und uns damit auseinandergesetzt‘, sagt Dennis Seeger, verantwortlich für das Treiben der Frankfurter Polizei in den sozialen Medien. Man sei letztlich aber zu dem Schluss gekommen, dass es kein rechtliches Problem gegeben habe, sagt Seeger“ (Kasumov 2016).

Mit einer wertförmigen Interpretation von Transparenz, mit einer Gewährung von objektiven Einsichten in polizeiliche Aktionsräume oder mit einer Offenlegung von Interna hat all dies wenig zu tun, es geht hier offensichtlich eher um die Gewinnung von Meinungshoheit im neuen Kommunikationsmedium sowie um Imagearbeit. Die Hauptfunktion von Selbstdarstellungen der Polizei im Netz, so lässt sich daraus schließen, liegt eben nicht in einer Gewährung von Einblicken, sondern in der Identitätsbildung und Wiedererkennung (Luhmann 2011, S. 421 f.) der Organisation, auch wenn sie sich unter Berufung auf den Wert der Transparenz ereignet. Nils Brunsson (2006) nennt dies „decoupling“ von Talk und Action. Die Polizei wählt mit dem Aufbau solcher „entkoppelter“ Schauseiten, die auch den Kern ihrer Arbeit schützen soll, eine gängige organisatorische Selbstdarstellungsstrategie; sie bildet in diesem Punkt scheinbar keine Ausnahme gegenüber anderen Organisationen.

4 Fazit Die vorangegangenen Überlegungen nahmen ihren Ausgangspunkt in der Feststellung, dass die normative Konstruktion der Transparenz mit Bezug auf die Polizei einen vergleichsweise großen Abstand zu ihrer handlungspraktischen Aktualisierung bzw. kontextbezogenen Deutung auf der Mikroebene aufweisen müsste. Es wurde daher der Frage nachgegangen, wie sich die alltagspraktische Konkretisierung der Transparenznorm im Rahmen organisierten Polizeihandelns gestaltet, bzw. wie es die Organisation der Polizei schafft, die Transparenznorm

Polizeiliche Transparenzpraktiken und die Flexibilität einer …

163

in Strukturen organisatorischen Entscheidens zu integrieren, und zwar auch jenseits formalstruktureller Erwartungen. Auf Basis empirischen Datenmaterials konnten drei Varianten der Transparenzspezifizierung kenntlich gemacht werden, die den Transfer der Norm in den Organisationskontext gewährleisten und die es ermöglichen, aus ihr praktischen Sinn zu erzeugen. • Durch Nutzung intransparenter Koordinationsmittel entlasten polizeiliche Akteure ihre Planungsaktivitäten vorübergehend von Transparenzzwängen und damit verbundener Unsicherheit, ohne dass eine Erfüllung formalisierter Transparenzerwartungen aufgegeben werden muss. In Form der Einrichtung gruppenförmiger Interaktionsordnungen (Vorbesprechungen, lokale Planungsnetzwerke) und durch Bindung von Entscheidungskompetenz an Personen mit Erfahrungswissen praktiziert man partiell und anlassbezogen eine graduelle Entkopplung vom transparenzbezogenen, formalen Regelwerk, um dieses dann darauf aufbauend und situationsangepasst umso besser stützen zu können (mit Hilfe bspw. von Einsatzbefehlen oder Sicherheitskonzepten). • Transparenzherstellung durch Nutzung visueller Sichtbarkeiten bzw. durch Blick-Kontrolle konnte am Beispiel der Beschreibung eines Sichtbarkeitsarrangements von Mitarbeitern im Raum eines Einsatzlagezentrums und in Form des Umgangs mit Live- Kamerabildern aus dem Einsatzgebiet demonstriert werden. Diese Art der Transparenzproduktion gewährleistet Kontrolle und interorganisationale Koordination aber scheinbar nicht im Modus der direkten Verhaltensbeeinflussung oder in dem der interaktionsförmigen Abstimmung, sondern sie konstituiert Grenzobjekte und stützt Grenzstellenarbeit als Möglichkeitsbedingungen einer losen Kopplung heterogen strukturierter Ereignisse und Kontexte. • Im Rahmen von Selbstdarstellungen oder Erklärungen des eigenen Tuns im Medium von Twitter oder Facebook schließlich interpretiert die Polizei die Transparenznorm weniger als wertförmig verpflichtende Erwartungshaltung, sondern als diskursives Angebot, das man taktisch für sich nutzt. Transparenz gilt im Kontext der Öffentlichkeitsarbeit als dosierbares Kommunikationsmittel bzw. als rhetorische Strategie zur Arbeit am eigenen Image. Hierdurch soll sie vor weiteren Nachfragen oder vor Legitimitätsverlusten schützen. Mit diesen empirisch gestützten Schlaglichtern auf transparenzbezogene polizeiliche (Planungs-, Kontroll- und Darstellungs-)Aktivitäten verdeutlicht sich in der Summe zweierlei: Zum einen erfolgt eine Spezifizierung der Transparenznorm stets kontextbezogen, nach Maßgabe lokaler Ordnungen, Regeln, Räume oder Abteilungen. Transparenzbezogene Entscheidungen fallen situativ und beruhen

164

J. Bergmann

nicht auf einheitlichen Prinzipien oder einem homogenen Verständnis von Verfahrensformen für Transparenzherstellung. Sichtbarmachung ist daher zumeist auch eine Praxis des Perspektivenabgleichs, der Transformation eines interessierenden Datums in andere Kontexte oder des Ignorierens. Zum anderen beruhen Prozesse der Institutionalisierung bzw. Legitimierung von Transparenz als Norm auf der Makroebene nicht allein auf dem Glauben an deren Anerkennungswürdigkeit oder Rechtmäßigkeit auf der Mikroebene. Die Legitimität der Transparenz fußt vielmehr auch auf strategischer Nutzung rhetorischer Konstrukte, auf Abschottung, auf selektiver Informationsweitergabe, auf informellen Vertrauensbeziehungen oder, in einem Wort, auf Praktiken der Herstellung von Intransparenz. Durch diese Erkenntnis wird die einleitend erwähnte systemtheoretische Perspektive, wonach Intransparenz als Möglichkeitsbedingung für die Funktionsfähigkeit von Organisationsstrukturen gilt, bestätigt. Wie destruktiv sich demgegenüber ein extremes Transparent-machen von Polizeiarbeit auswirken kann, zeigt exemplarisch die Studie von Anechiarico und Jacobs (1996). Hier wird beschrieben, wie Antikorruptionsmaßnahmen in New York, die vonseiten der Dienstaufsichtsbehörde ab Mitte der 1980er Jahre initiiert worden waren, u. a. zu Misstrauen, zu interner Konkurrenz, zu organisatorischer Ineffizienz sowie zur Verlagerung der Kommunikation in noch geheimere Kanäle führten als zuvor (Mitarbeitern mieden sogar die Nutzung ihrer Diensttelefone; ebd., S. 89 f.). Die ungeplanten Effekte einer allgegenwärtigen Beobachtung sowie von neu eingeführten Kontrollen, Sanktionen, Dokumentationspflichten und Anreizen zu interner Spionagetätigkeit bestanden darin, dass betroffene Behördenmitarbeiter sich aus ihrer Verantwortung zurückzogen, dass sich Entscheidungsprozesse verzögerten und dass organisatorischer Ineffizienz gesteigert wurde, bis hin zu ihrer Flucht in die Privatwirtschaft (ebd., S. 174 ff.).

Literatur Anechiarico, F., & Jacobs, J. B. (1996). The pursuit of absolute integrity. How corruption control makes government ineffective. Chicago: University of Chicago Press. Baecker, D. (2010). Das quantum management. In S. A. Jansen, E. Schröter, & N. Stehr (Hrsg.), Transparenz. Multidisziplinäre Durchsichten durch Phänomene und Theorien des Undurchsichtigen (S. 112–130). Wiesbaden: VS Verlag. Bayerl, S., & Rüdiger, T.-G. (2017). Die polizeiliche Nutzung sozialer Medien in Deutschland. Die Polizei im digitalen Neuland. In J. Stierle, D. Wehe, & H. Siller (Hrsg.), Handbuch Polizeimanagement. Polizeipolitik – Polizeiwissenschaft – Polizeipraxis (S. 919–943). Wiesbaden: Springer Gabler.

Polizeiliche Transparenzpraktiken und die Flexibilität einer …

165

Bensman, J., & Gerver, I. (1963). Crime and punishment in the factory. The function deviancy in maintaining the social system. American Sociological Review, 28(4), 588–598. Bernstein, E. S. (2012). The transparency paradox. A role for privacy in organizational learning and operational control. Administrative Science Quarterly, 57(2), 181–216. Bitekine, A., & Haack, P. (2015). The ‚macro‘ and the ‚micro‘ of legitimacy. Toward a multilevel theory of the legitimacy process. Academy of Management Review, 40(1), 40–75. Bohnsack, R. (2009). Rekonstruktive Sozialforschung. Einführung in qualitative Methoden. Opladen: Budrich. Bora, A. (2001). Öffentliche Verwaltung zwischen Recht und Politik. Zur Multireferentialität der Programmierung organisatorischer Kommunikation. In V. Tacke (Hrsg.), Organisation und gesellschaftliche Differenzierung (S. 170–191). Wiesbaden: Westdeutscher Verlag. Breidenstein, G., Hirschauer, S., & Nieswand, B. (2013). Ethnografie. Die Praxis der Feldforschung. Konstanz: UVK. Bröckling, U. (2007). Das unternehmerische Selbst. Soziologie einer Subjektivierungsform. Frankfurt a. M.: Suhrkamp. Brunsson, N. (2006). The organization of hypocrisy. Talk, decisions and actions in organizations. Malmö: Copenhagen Business School Press (Erstveröffentlichung 1989). Creemers, N. (2016). Über Datenbanken und Datenanalysetools. Die polizeiliche Konstruktion von Wissen und Verdacht in soziotechnischen Netzwerken. In J. Grutzpalk (Hrsg.), Polizeiliches Wissen. Formen, Austausch, Hierarchien (S. 101–129). Frankfurt a. M.: Verlag für Polizeiwissenschaft. De Fine Licht, J. (2011). Do we really want to know? The potentially negative effect of transparency in decision making on perceived legitimacy. Scandinavian Political Studies, 34(3), 183–201. Elsbach, K. D. (2003). Organizational perception management. In R. Kramer & B. Staw (Hrsg.), Research in organizational behaviour (S. 297–332). Oxford: Elsevier. Fehr, A. (2014). Social Media, Apps und Co. Die Rolle der Polizei im Zeitalter des Web 2.0. Frankfurt a. M.: Verlag für Polizeiwissenschaft. Fenster, M. (2015). Transparency in search of a theory. European Journal of Social Theory, 18(2), 150–167. Flyverbom, M. (2015). Sunlight in cyberspace. On transparency as a form of ordering. European Journal of Social Theory, 18(2), 168–184. Frevel, B., & Groß, H. (2013). Konzepte polizeilichen Handelns. Zur Einführung. In B. Frevel & M. S. Groß (Hrsg.), Empirische Polizeiforschung XV. Konzepte polizeilichen Handelns (S. 7–12). Frankfurt a. M.: Verlag für Polizeiwissenschaft. Garsten, C., & Lindh de Montoya, M. (Hrsg.). (2008). Transparency in a new global order. Unveiling organizational visions. Cheltenham: Elgar. Gawlas, J., Pichl, M., & Röhner, C. (2015). Die Deutungsmacht der Polizei – Verfassungsrechtliche Probleme des Twitterns durch die Frankfurter Polizei. Zeitschrift für Landesund Kommunalrecht, 9(9), 363–369. Goffman, E. (2008). Wir alle spielen Theater. Die Selbstdarstellung im Alltag. München: Piper (Erstveröffentlichung 1959). Hansen, H. K., Christensen, L. T., & Flyverbom, M. (2015). Introduction. Logics of transparency in late modernity. Paradoxes, mediation and governance. European Journal of Social Theory, 18(2), 117–131.

166

J. Bergmann

Heinrich, S. (2009). Technik und Systeme der Inneren Sicherheit. In H.-J. Lange, P. Ohly, & J. Reichertz (Hrsg.), Auf der Suche nach neuer Sicherheit. Fakten, Theorien und Folgen (S. 203–220). Wiesbaden: VS Verlag. Hermanutz, M., & Weigle, L. (2017). Das Image der Polizei, die Dienstleistungsqualität und die Zufriedenheit der Bevölkerung – Zusammenhänge und Möglichkeiten zur Verbesserung. In J. Stierle, D. Wehe, & H. Siller (Hrsg.), Handbuch Polizeimanagement. Polizeipolitik – Polizeiwissenschaft – Polizeipraxis (S. 945–962). Wiesbaden: Springer Gabler. Heald, D. (2006). Varieties of transparency. In C. Hood & D. Heald (Hrsg.), Transparency. The key to better governance (S. 25–43). Oxford: Oxford University Press. Heintz, B. (2014). Die Unverzichtbarkeit von Anwesenheit. Zur weltgesellschaftlichen Bedeutung globaler Interaktionssysteme. In B. Heintz & H. Tyrell (Hrsg.), Interaktion – Organisation – Gesellschaft revisited. Anwendungen, Erweiterungen, Alternativen. Sonderband der Zeitschrift für Soziologie (S. 229–250). Stuttgart: Lucius & Lucius. Hörster, R., Köngeter, S., & Müller, B. (2013). Grenzobjekte und ihre Erfahrbarkeit in sozialen Welten. In R. Hörster, S. Köngeter, & B. Müller (Hrsg.), Grenzobjekte. Soziale Welten und ihre Übergänge (S. 11–36). Wiesbaden: Springer VS. Hood, C. (2007). What happens when transparency meets blame-avoidance. Public Management Review, 9(2), 191–210. Jacobsen, A. (2001). Die gesellschaftliche Wirklichkeit der Polizei. Eine empirische Untersuchung zur Rationalität polizeilichen Handelns. Dissertationsschrift, Universität Bielefeld. http://pub.uni-bielefeld.de/publication/2304180. Zugegriffen: 8. Mai 2017. Jansen, S. A. (2010). Undurchsichtige Transparenz. Ein Manifest der Latenz. Oder was wir aus Terrornetzwerken, von Geldautomatensprengungen und Bankenaufsicht lernen könnten. In S. A. Jansen, E. Schröter, & N. Stehr (Hrsg.), Transparenz. Multidisziplinäre Durchsichten durch Phänomene und Theorien des Undurchsichtigen (S. 23–40). Wiesbaden: VS Verlag. Jansen, T., & Vogd, W. (2013). Polykontexturale Verhältnisse. Disjunkte Rationalitäten am Beispiel von Organisationen. Zeitschrift für Theoretische Soziologie, 1(1), 82–97. Kasumov, A. (21. Juni 2016). Twittern in der Grauzone? Frankfurter Allgemeine Zeitung. http://www.faz.net/aktuell/politik/faz-net-thema-polizei-twittern-in-der-grauzone-14267595.html?printPagedArticle=true#pageIndex_2. Zugegriffen: 4. Aug. 2017. Kern, P. (2017). Polizei und taktische Kommunikation, Sicherheit. Interdisziplinäre Perspektiven. Wiesbaden: Springer. Kersten, J. (2009). Medien und Innere Sicherheit. In H.-J. Lange, P. Ohly, & J. Reichertz (Hrsg.), Auf der Suche nach neuer Sicherheit. Fakten, Theorien und Folgen (S. 293– 305). Wiesbaden: VS Verlag. Kleidat, C. P. (2011). Bedingungen der Akzeptanz von Reform. Wiesbaden: VS Verlag. Klein, S. (2015). Polizeigewalt. Rahmenbedingungen, Umgang und Transparenz. Frankfurt a. M.: Verlag für Polizeiwissenschaft. Kleinschmidt, H., & Rückheim, S. (2009). Der polizeiliche Planungs- und Entscheidungsprozess im Vergleich. In Dekan Fachbereich Polizei und Sicherheitsmanagement (Hrsg.), Beiträge aus dem Fachbereich Polizei und Sicherheitsmanagement, 01/2009. Berlin: Hochschule für Wirtschaft und Recht. Laursen, B. (2013). Transparency in the Council of the European Union. Why journalists don’t get the full picture. Journalism, 14(6), 771–789.

Polizeiliche Transparenzpraktiken und die Flexibilität einer …

167

Law, J., & Mol, A. (1998). On metrics and fluids. Notes on otherness. In R. Chia (Hrsg.), Organized worlds. Explorations in technology and organisations with Robert Cooper (S. 20–38). London: Routledge. Lehmann, L. (2017). Die Legitimation von Bodycams bei der Polizei. Das Beispiel Hamburg. In B. Frevel & M. Wendekamm (Hrsg.), Sicherheitsproduktion zwischen Staat, Markt und Zivilgesellschaft (S. 241–268). Wiesbaden: Springer VS. Luhmann, N. (1969). Normen in soziologischer Perspektive. Soziale Welt, 20(1), 28–48. Luhmann, N. (1972). Funktionen und Folgen formaler Organisation. Berlin: Duncker & Humblot (Erstveröffentlichung 1964). Luhmann, N. (1999). Zweckbegriff und Systemrationalität. Über die Funktion von Zwecken in sozialen Systemen. Frankfurt a. M.: Suhrkamp (Erstveröffentlichung 1968). Luhmann, N. (2011). Organisation und Entscheidung. Wiesbaden: VS Verlag (Erstveröffentlichung 2000). Meijer, A. (2013). Understanding the complex dynamics of transparency. Public Administration Review, 73(3), 429–439. Mensching, A. (2008). Gelebte Hierarchien. Mikropolitische Arrangements und organisationskulturelle Praktiken am Beispiel der Polizei. Wiesbaden: VS Verlag. Mensching, A. (2013). Das Konzept des Risikos als Grundlage polizeilichen Handelns und die Frage der Verantwortungszurechnung. Theoretische und empirische Anmerkungen. In B. Frevel & H. Groß (Hrsg.), Empirische Polizeiforschung XV. Konzepte polizeilichen Handelns (S. 61–71). Frankfurt a. M.: Verlag für Polizeiwissenschaft. Messner, M., Scheytt, T., & Becker, A. (2007). Messen und Managen: Controlling und die (Un-)Berechenbarkeit des Managements. In A. Mennicken & H. Vollmer (Hrsg.), Zahlenwerk. Kalkulation, Organisation und Gesellschaft (S. 87–104). Wiesbaden: VS Verlag. Neyland, D. (2007). Achieving transparency. The visible, invisible and divisible in academic accountability networks. Organization, 14(4), 499–516. Noethen, S. (2003). Presse- und Öffentlichkeitsarbeit der Polizei. In H.-J. Lange (Hrsg.), Die Polizei der Gesellschaft. Zur Soziologie der Inneren Sicherheit (S. 337–356). Wiesbaden: VS Verlag. Notka, H. (2004). Der Entschluss. Kernstück des Planungs- und Entscheidungsprozesses für den Einsatz. Deutsches Polizei Blatt, 22(1), 14–18. Osrecki, F. (2015). Fighting corruption with transparent organizations. Anti-corruption and functional deviance in organizational behaviour. Ephemera: Theory & Politics in Organization, 15(2), 337–367. Pekar-Milicevic, M., & Ritsert, R. (2017). Performance Management bei der Polizei. Konzept und Wirkung, dargestellt am Beispiel der Polizei in Baden-Württemberg. In J. Stierle, D. Wehe, & H. Siller (Hrsg.), Handbuch Polizeimanagement. Polizeipolitik – Polizeiwissenschaft – Polizeipraxis (S. 795–815). Wiesbaden: Springer Gabler. Power, M. (1997). From risk society to audit society. Soziale Systeme, 3(1), 3–21. Popitz, H. (1980). Die normative Konstruktion von Gesellschaft. Tübingen: Mohr Siebeck. Pudlat, A. (2017). Inszenierte Sicherheit. Polizeiliche Selbstverortung und Legitimation am Beispiel der Öffentlichkeitsarbeit. In B. Frevel & M. Wendekamm (Hrsg.), Sicherheitsproduktion zwischen Staat, Markt und Zivilgesellschaft (S. 73–96). Wiesbaden: Springer VS.

168

J. Bergmann

Renter, R. (2017). Von der Vision zur Konzeption. Strategische Steuerung der Polizei BW mithilfe des Führungsinformationssystems und der Balanced Scorecard. In J. Stierle, D. Wehe, & H. Siller (Hrsg.), Handbuch Polizeimanagement. Polizeipolitik – Polizeiwissenschaft – Polizeipraxis (S. 867–893). Wiesbaden: Springer Gabler. Roberts, J. (2009). No one is perfect. The limits of transparency and an ethic for ‚intelligent‘ accountability. Accounting, Organizations and Society, 34(8), 957–970. Rzepka, V. (2013). Die Ordnung der Transparenz. Jeremy Bentham und die Genealogie einer demokratischen Norm. Berlin: Lit. Sahlin-Andersson, K. (1996). Imitating by editing success. The construction of organizational fields. In B. Czarniawska-Joerges & G. Sevón (Hrsg.), Translating organizational change (S. 69–92). Berlin: De Gruyter. Scott, W. R. (2008). Institutions and organizations. Ideas and interests. Los Angeles: Sage. Senge, K. (2006). Zum Begriff der Institution im Neo-Institutionalismus. In K. Senge & K.-U. Hellmann (Hrsg.), Einführung in den Neo-Institutionalismus (S. 35–47). Wiesbaden: VS Verlag. Spitzer, C. (2016). Persönlichkeitsschutz von Amtsträgern. Zur Kennzeichnungspflicht von Polizeivollzugsbeamten. Stuttgart: Richard Boorberg. Staw, B., Sandelands, L., & Dutton, J. (1981). Threat rigidity effects in organizational behaviour. A multilevel analysis. Administrative Science Quarterly, 26(4), 501–524. Stehr, N., & Wallner, C. (2010). Transparenz. Einleitung. In S. A. Jansen, E. Schröter, & N. Stehr (Hrsg.), Transparenz. Multidisziplinäre Durchsichten durch Phänomene und Theorien des Undurchsichtigen (S. 1–19). Wiesbaden: VS Verlag. Stinchcombe, A. L. (2001). When formality works. Authority and abstraction in law and organizations. Chicago: University of Chicago Press. Strathern, M. (2002). Abstraction and decontextualization. An anthropological comment. In S. Woolgar (Hrsg.), Virtual society. Technology, cyberbole, reality (S. 302–313). Oxford: Oxford University Press. Suchman, M. C. (1995). Managing legitimacy. Strategic and institutional approaches. Academy of Management Review, 20(3), 571–610. Svetlova, E. (2010). „What you see is what you get; what you don’t see gets you“. Transparenz in den Zeiten der Finanzkrise. In S. A. Jansen, E. Schröter, & N. Stehr (Hrsg.), Transparenz. Multidisziplinäre Durchsichten durch Phänomene und Theorien des Undurchsichtigen (S. 82–96). Wiesbaden: VS Verlag. Tacke, V. (2015). Formalität und Informalität. Zu einer klassischen Unterscheidung der Organisationssoziologie. In V. Groddeck & S. M. Wilz (Hrsg.), Formalität und Informalität in Organisationen (S. 37–92). Wiesbaden: Springer VS. Vogd, W. (2011). Zur Soziologie der organisierten Krankenbehandlung. Weilerswist: Velbrück Wissenschaft. von Groddeck, V., Siri, V., & Mayr, K. (2016). Die Entscheidungsvergessenheit der Organisationsforschung. Plädoyer für eine operative Entscheidungsforschung. Soziale Systeme, 20(1), 167–192. Voswinkel, S. (2005). Die Organisation der Vermarktlichung von Organisationen. Das Beispiel erfolgsbezogenen Entgelts. In W. Jäger & U. Schimank (Hrsg.), Organisationsgesellschaft. Facetten und Perspektiven (S. 287–312). Wiesbaden: VS Verlag. Weibler, J., & Petersen, M. (2017). Management von Unsicherheit bei Entscheidungen im polizeilichen Kontext. In J. Stierle, D. Wehe, & H. Siller (Hrsg.), Handbuch

Polizeiliche Transparenzpraktiken und die Flexibilität einer …

169

­ olizeimanagement. Polizeipolitik – Polizeiwissenschaft – Polizeipraxis (S. 375–389). P Wiesbaden: Springer Gabler. Weick, K. E. (1985). Der Prozeß des Organisierens. Frankfurt a. M.: Suhrkamp. Williams, C. C. (2005). Trust diffusion. The effects of interpersonal trust on structure, function, and organizational transparency. Business & Society, 44(3), 357–368. Wilz, S. (2012). Die Polizei als Organisation. In M. Apelt & V. Tacke (Hrsg.), Handbuch Organisationstypen (S. 113–132). Wiesbaden: VS Verlag. Witt-Manß, S. (2016). Die Befehlsstelle. Aufgaben, Vorbereitung, Durchführung. Versammlungslage am 01. Mai 2016 in der Landeshauptstadt Schwerin aus Sicht der Führungsgruppe der PI Schwerin. Polizei Journal Mecklenburg-Vorpommern, 25(1), 10–13. Zeitner, J. (2015). Einsatzlehre. Grundlagen für Studium und Praxis. Hilden: Verlag Deutsche Polizeiliteratur.

Jens Bergmann  (Dr. habil.) arbeitete 2010‒2018 am Institut für Soziologie der Leibniz Universität Hannover im Bereich Arbeit und Organisation, wo er im Jahr 2017 habilitierte. Seit 2018 ist er an der Polizeiakademie Niedersachsen als Professor für Sozialwissenschaften/Führung beschäftigt. Zu seinen Forschungsschwerpunkten gehören Organisationssoziologie, Kriminologie und qualitative Methoden der Sozialforschung, aktuell fokussiert er auf Wirtschaftskriminalität, Strafrecht und organisatorische Strukturbedingungen erfolgreicher Polizeikommunikation. 2018 erschien von ihm „Ordnungsbildung durch selektive Blindheit: Institutionelle Arbeit an Transparenz in Organisationen“ in der Österreichischen Zeitschrift für Soziologie.

Policing and Anticipatory Transparency: On Digital Transformations, Proactive Governance and Logics of Temporality Mikkel Flyverbom and Hans Krause Hansen

Abstract

This chapter explores how transparency and surveillance practices intersect with the emergence of proactive forms of governance. Driven by digital transformations, we see the emergence of novel organizational practices— and scholarly discussions—of predictive policing that require our attention. What we suggest is that rather than a clear-cut shift from reactive to proactive forms of governance, digital transformations and data analytics create particular conditions for knowledge production, introduce new logics of temporality, and raise important questions about authority and legitimacy. The chapter contributes to discussions about transparency and governance by highlighting how processes of pluralization, privatization and technologization make up an amorphous assemblage of ideational, material, institutional, professional and ethical forces shape logics of temporality and organizing in police work. Recent social research has examined the complex nature of the attempts to observe and govern social phenomena through the disclosure of information. Many have speculated about the role of knowledge production in processes that aim to make the world more transparent. Transparency, it seems, has emerged as a key driver of accountability and governance (Fung et al. 2007). Rather than dismiss transparency as a noble, but overly romanticized aspiration, or reduce

M. Flyverbom (*) · H. K. Hansen  Copenhagen Business School, Copenhagen, Denmark E-Mail: [email protected] H. K. Hansen E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 V. August und F. Osrecki (Hrsg.), Der Transparenz-Imperativ, https://doi.org/10.1007/978-3-658-22294-9_7

171

172

M. Flyverbom and H. K. Hansen

surveillance to an all intrusive and negative form of social control, this research explores the use of devices and digital technologies that make actors, social relationships, and wider issues visible and subject to governance (Andrejevic 2014; Aradau and Blanke 2015; Flyverbom et al. 2016; Hansen and Flyverbom 2015; Birchall 2015; Amoore 2013; Amoore and Piotukh 2015). An important question in these writings revolves around how transparency and surveillance practices relate to conditions of indeterminacy, uncertainty, and human knowledge. Such conditions typically generate forms of anticipatory action (e.g., Anderson 2010), as epitomized by the growing emphasis on the ideal of proactiveness, as well as technologies of prediction and prevention, as the means to tame uncertainty and ensure long term stability (Hansen and Flyverbom 2015; Hansen 2015). Extending insights from these literatures and beyond, this chapter sets out to investigate the intersection of transparency and surveillance practices with the emergence of proactive forms of governance and digital transformations. It focuses specifically on the proliferation of digital technologies, datafication, and the rise of advanced data analytics. Our primary empirical attention is on what has been termed predictive policing. With it comes the idea that that police work is or should be capable of predicting and preventing crime before it happens (Hartmann 2018; Dencik et al. 2018; Brayne 2017). The manual police investigation, conducted at a crime scene by a police officer with a notepad, illustrates the reactive post-crime form of police intervention. The pro-active form of intervention pre-crime is exemplified by the digitally savvy investigator, who delivers predictions informed by machine-driven digital traces left by potentially suspicious individuals. At a first glance, the gross juxtaposition of post and pre-crime interventions may seem to represent the latter as functionally more efficient and ethically superior to the former: if we could just proactively make the threat of crime fully transparent and govern it before it actually materializes, we would all live in a much safer world. On closer inspection, and taken to its extreme, the ideal of proactiveness carries both utopian (a world free of crime) and totalitarian elements (Big Brother is watching you everywhere). It can also be said to downplay the structurally generated economic and social inequalities that underpin the (re)production of most types of crime in the first place (McCulloch and Wilson 2017). More generally, it is also possible to problematize the very distinction between reactive and proactive governance, between post and pre-crime. Broad distinctions tend to establish generalization a priori, which not only obscures our understanding of more subtle variations and contextual dynamics, but can also lead to sweeping statements about a general societal shift. While largely in agreement with this critique, we maintain that studying the intersection of proactiveness and prediction (understood here as an organizational

Policing and Anticipatory Transparency: On Digital …

173

rationality) with practices of transparency and surveillance is important, as it may reveal how these practices are linked to the conditions of knowledge production. Indeed, the surge of proactive modes of policing takes place in altered contexts of knowledge production. These altered conditions relate, first, to the growing impact of digital transformations on what police agencies count as sufficient and valid knowledge for making decisions and intervening. For example, the turn toward proactive modes of policing comes with an increasing use of less validated evidence, including speculative intelligence. This information is generated by digital systems and data analytics, whose authority and validity are questionable. Second, the basic human condition of indeterminacy and uncertainty is played out in novel contexts that shape contemporary knowledge production. Of course, what is believed to happen in the future has always enabled and constrained social action in the here-and-now. Religious beliefs in the soul’s destiny after death, or modernist ideas about societal progress and a better life, can shape individual and organizational activities in the present. Likewise, decisions to act on the threats and dangers to contemporary societies (such as terrorism post 9/11) are contingent on how the future is envisioned. Envisioning what might happen involves the use of a wide variety of tools, for example numerical calculations, scenario planning and simulations, all of which can help decision-making oriented towards the future (Anderson 2010). In other words, beliefs are not static and monolithic, but historical, dynamic and entwined with power relations, organizational rationalities, and the governmental tools available. Another form of indeterminacy and uncertainty stems from technologies and processes of mediation. Our approach highlights how transparency is produced through particular devices and mediations, and how these condition particular possibilities for seeing, knowing, and governing. This implies that all forms of knowledge production not only rely on particular beliefs—including epistemologies and ontologies—but also distinct ways of producing knowledge (Hansen and Flyverbom 2015). In recent work, we have termed the process whereby visions of the future are folded back into the present to shape decision-making as a mode of anticipatory transparency (Hansen and Flyverbom 2015; see also Rouvroy 2011). Like realtime and backwards-oriented forms of transparency, anticipatory transparency incorporates elements of the epistemic illusion that unmediated human access to the past and the present is somehow possible. But its logic of temporality stretches well beyond the real-time and backwards looking, suggesting that what is unknown to us—the future—can itself be made transparent (Hansen 2015). To contribute to critical studies of transparency, we unpack and conceptualize three facets of making things transparent: First, we show how transparency

174

M. Flyverbom and H. K. Hansen

is produced, and explore what it means to conceptualize transparency as a matter of knowledge production. Second, our chapter highlights the shape and ramifications of digital transformations and the rise of big data analytics in these areas. Third, we problematize the belief that there is a shift from reactive to proactive forms of policing, and articulate the workings of a more extensive set of temporal logics. In the following, we explore the nexus of knowledge production, digital transformations, and logics of temporality in contemporary policing. We focus specifically on the provision of security, which is based on digitized knowledge. We draw on two different examples, which have been chosen to explore variations and commonalities of distinct cases. First, we analyze the Danish Police Force and their attempt to prevent future terrorist attacks in Denmark. Second, we provide a snapshot of the business-driven Maritime Anti-Corruption Network and its proactive anti-corruption work in supply chains, including the prevention of bribery practices and facilitation payments in ports and customs in the global south. While different in scope (national and transnationally oriented respectively), in composition (reflecting the classical state driven type of public policing, and transnational private policing respectively), and in targets (prospective terrorists, and corrupt port and customs authorities), these examples both highlight a growing emphasis on proactive policing. They also are indicative of the dispersion of social control well beyond the classical authority of public police and its agencies to include private and civil society actors (Hansen and Uldam 2015; Hartmann 2018).

1 Policing and Datafication In its widest sense, the concept of policing refers to the power “to take coercive measures to ensure the safety and welfare of ‘the community’” (Sanders and Sheptycki 2017, p. 3). This broad conception not only encapsulates the dominant cultural imagery of police operating as ‘crime fighters’. It also encompasses the more radical Marxist perspective of the police as repressive agents of the capitalist state (with the powers of policing extending much beyond the suppression of routine street crime), as well as the Foucauldian conception of policing as a way of regulating, managing and maintaining populations (Sheptycki 1998). Classical policework is multifaceted, encompassing issuance of parking tickets, escorting of drunk people from public places, and managing public protest and dissent in the streets. In democratic societies, the capacity to use overt, nonnegotiable force is at the heart of this kind of policing. However, in practice, it relies on silent and skillful coercion, which is based on preventive work as well as

Policing and Anticipatory Transparency: On Digital …

175

various forms of persuasive communication. An often overlooked aspect of contemporary policing is its embeddedness in the architecture of streets and buildings. Examples of this include transparent constructions that enable surveillance and monitoring from the outside, inculcating self-regulation amongst the individuals and organizations under observation; other examples include defensive architecture, such as bum-proof anti-homelessness benches that force vulnerable people to find other places to sleep (Omidi 2014). In contrast to the military, which is set up to use force to conquer an enemy, democratic policing emphasizes minimal physical force in maintaining social order (Bowling et al. 2016, p. 131). Contemporary policing and security provision involves the dispersion of social control beyond classical police authority. This is reflected in processes of pluralization (diversification of agencies), privatization (policing carried out by corporations and civil society groups), and technologization (including not least digital transformations of hardware and software) (O’Reilly 2015; Sanders and Sheptycki 2017; Dencik et al. 2018). Policing tasks carried out by a state’s professionals (in an agency with a traditional policing mandate, such as ‘the police’) are increasingly complemented by professionals employed by private policing and consultancy firms (which provide special and targeted services, ‘contract security’ in terms of manpower, equipment, hardware and software, database facilities, and analytical frameworks), as well as security personnel hired by transnational corporations (whose main business can be unrelated to state aims, e.g. ‘in-house security’ of an extractive company). In other words, policing tasks can be undertaken by bodies which don’t have the full powers or status of state police. They can include tasks performed by corporations and citizens that act on their own, or in cooperation with the police (e.g., neighborhood watch schemes and other collective action initiatives). Policing is also performed by transnational agencies and organizations through international agreements and regimes, such as Interpol, Europol and the Egmont Group of Financial Intelligence Units. And as we shall see, policing is carried out by corporate collective action initiatives, which seek to address problems rising from their own business activities in different parts of the world. The technologization of contemporary policing is exemplified by digital transformations, embodied for example, in the extensive use CCTV cameras and listening devices. In contrast to the more traditional, analogue and paper-based police work, the collection and analysis of various sorts of data is increasingly gathered digitally and processed automatically under the operation of algorithms. Central in this development is datafication, which has been defined as the combination of massive amounts of digital data with increased possibilities for algorithmic sorting. Digital traces left by a growing number of internet-connected devices

176

M. Flyverbom and H. K. Hansen

and online activities constitute a new resource for governance. These possibilities for seeing, knowing, and governing action are accentuated by the development of advanced technological possibilities for the integration, cross-referencing, and pattern recognition afforded by algorithms as well as other technologies for sorting, organizing and visualizing data (Amoore and Piotukh 2015; Flyverbom and Madsen 2015; Hansen and Porter 2017). There is emergent empirical evidence of how digital transformations have amplified and transformed police work. For instance, both Brayne (2017) and Dencik et al. (2018) show how digital transformations, such as the rise of social media and big data analytics, have led to new ways of working and thinking. Based on a situated, in-depth study, Brayne (2017) demonstrates the emergence of several new dynamics in policing. These include a growing reliance on quantified risk scores, predictions based on big data, alert-based systems for constant large-scale surveillance, a more encompassing approach to data collection, and the merging of previously separated databases. We build on these empirical accounts by arguing that transformations in police work invite us to think differently about transparency. With respect to policing, several contrasting positions towards datafication can be identified. Some embrace datafication and its associated regime of analytics as keys to effective and technologically enhanced policing. Others take a skeptical position, which points to the problematic absence of and need for, adequate legal accountability, regulation, and transparency in the collection and use of data. However, this position, in line with the first, recognizes that datafication resembles a new variation on an old challenge to adapt policing to new technologies. The third position, which is more radical and critical, argues that new forms of policing based on datafication and big data, are deeply anchored in neoliberal rationalities and associated modes of “stochastic governance”, i.e. the governance of populations and territory through the mobilization of statistical representations and metadata (Sanders and Sheptycki 2017; see also Hansen 2015). Datafication is central to proactive forms of governance. It is through digitalization and data analytics that new forms and dynamics of governance emerge. However, proactive governance is not a direct outcome of technological developments. It is tied more fundamentally to anticipatory action, as well as historical and social developments. Anticipating and preempting future developments are basic human concerns, and organizations commonly engage in a more or less systematic scanning of their horizons in the attempt to manage uncertainties. Second, as already mentioned, it is important to think about proactive governance in relation to a variety of political rationalities and agendas, such as those tied to

Policing and Anticipatory Transparency: On Digital …

177

the growing focus on security and anti-terrorism efforts in the Western world post 9/11 (Amoore 2013). This perspective on the relationship between technological transformations, social forces and political developments invites us to reflect on the largely invisible operations through which digital traces are analyzed, sorted and visualized (Flyverbom and Madsen 2015). It also allows us to consider how multiple forces shape the temporality of datafied governance efforts. There is nothing that is given, built-in, or innocent when it comes data analysis. It is therefore important to explore and problematize how different forms of analytical operations and knowledge production processes play out in practice, including how they condition particular logics and temporalities of governance (Madsen et al. 2016). For example, the process of turning disparate signals into knowledge rarely relies on schematic step-by-step models, which treat information like a raw material, and consider data, information, knowledge and experience to be clearly separable. Particularly in the context of datafied forms of knowledge production, these processes deserve more scrutiny as we cannot simply assume that the production of knowledge works in the same manner in all settings, with all kinds of data, and in all epistemological regimes. For instance, observing and governing social phenomena through narratives, numbers, and digital traces produce very different results (Morozov 2013; Hansen and Flyverbom 2015; Flyverbom et al. 2017). Regardless, the above developments related to datafication also involve extensive reforms of organizational arrangements and police work. At present, such changes include a growing and extensive use of digital technologies, such as body cams to capture interactions between officers and the public, as well as the rollout of new systems for integrating and improving access to data. For our purposes here, the latter are most relevant, as they highlight how new forms of knowledge production become tied to particular temporal rationalities of governance. The example of the Danish Police Force illustrates these developments well. Following a terrorist attack at a cultural event in Copenhagen, the Danish police has launched an extensive reform program. Titled Pol-Intel, the initiative involves the purchase of an advanced data-crunching platform from the US intelligence company Palantir. Accompanying this purchase, the police organization itself is undergoing extensive restructuring. By implementing this technological platform, the Danish police becomes part of a broader, institutional transformation of policing, which is presently playing out in the US and Europe. This is just one example of how similarities and shared logics of police forces around the world are driven by technology (Brayne 2017). At the core of the Danish project is an ambition to develop what is termed “intelligence-led policing” (Folketinget 2017). The goal is to enable rapid,

178

M. Flyverbom and H. K. Hansen

a­ utomated data analysis across a range of data bases and sources of information. In the past, the Danish police maintained and had access to multiple, separate data bases with very different structures and types of content placed in different units. Thus, aggregating and combining findings across these databases involved time consuming and complicated manual work. With Pol-Intel, the ambition is to integrate these data bases, thus facilitating easy and rapid cross-referencing and analysis. There is even an idea to do this via smartphone applications, and other digital devices that individual police officers could carry on patrols. Another major project aims to integrate analyses of publicly available information, digital traces (such as social media posts, ‘likes’ and online relations), and other types of information (such as individual profiling, GPS mappings and cell-phone records), which can be purchased from data brokers, or requested from mobile and internet service providers. While police investigations have always involved cross-referencing multiple kinds of information, Pol-Intel offers much more user-friendly and immediate forms of data access and overview. When it comes to data protection regulations, the system still operates within existing legislation, but raises a number of questions about data ethics and surveillance. The more elaborate possibilities for data-driven police investigations, including the use of “open source intelligence”, is feeding into legal and ethical concerns about state surveillance. It untames possibilities for predictive policing and preemptive strikes, which undermine established rights and legal frameworks (Morozov 2013). The Maritime Anti-Corruption Network (MACN) illustrates the increasingly private and transnational character and use of datafied knowledge in policing. The MACN is an anti-corruption organization supported by the world’s major maritime businesses. It was formed in 2011 in light of growing legal enforcement of anti-corruption legislation. MACN operates in the context of ubiquitous bribe payments and speed-money, and the related threats and insecurity in ports and customs around the world, especially in the global south. Members of MACN include major vessel owners, ports, terminal operators, shipping agents, freight forwarders, and other logistics associations. The MACN has set up a joint digital information system, which allows its members to acquire and exchange information about corruption “hot spots”, such as ports and custom offices in countries like Argentina, Nigeria and Indonesia. Besides providing its members’ compliance units with access to continuously updated databases and on-site knowledge resources on how to avoid and prevent future incidents, the MACN also co-develops anti-corruption projects with other local stakeholders. These focus on training of local port and customs personnel, as well as changing local legal regulations through the introduction of e-governance systems aimed at leveraging

Policing and Anticipatory Transparency: On Digital …

179

transparency. In its work, the organization displays logics of anticipatory action cast in the language of “corruption risk”. The identification of corruption as “risk” becomes cause and justification for present action which can help prevent, mitigate, prepare for or preempt future corruption. The MACN therefore identifies, sorts, and manages “hot spots”, in addition to introducing reporting systems and promoting e-governance in the global south. As the reactive penal measures undertaken by states can address only a microscopic part of corrupt activities, MACN operates as a significant complementary technique to post-crime interventions on corruption. Moreover, MACN has the capacity to police at a distance through the networks it mobilizes with other actors. These include international organizations, NGOs, and national government agencies, and in the maritime case, customs and port authorities in “hot spots”, which are subject to projects addressing corruption risks (Hansen 2018). These two cases illustrate the amplification and transformation of police work through the use of big data analytics and insights generated by new sources of data. However, they also invite reflection on the mundane and intricate ways in which transparency is produced, and closer examination of how temporal logics emerge in attempts to make the world seeable, knowable, and governable.

2 Knowledge Production and Temporality in Policing To understand how digital transformations create new conditions and temporal orientations for policing, a deeper engagement with processes of knowledge production is important. It is through ‘small analytics’ that ‘big data’ becomes significant (Amoore and Piotukh 2015). It is through very specific and novel forms of data gathering, analysis, and visualization that digital transformations come to shape police work and governance more broadly. This is an argument about the need to analyze predictive policing with regard to knowledge production. It is also an argument about the value of closely analyzing how data is turned into actionable knowledge. Let us unpack both of these briefly. First, recent research from a variety of social science disciplines has identified if not a simple “shift” from reactive to proactive forms of policing, then a very clear move towards the institutional prioritization of the latter (Dencik et al. 2018; Brayne 2017). While this emphasis is certainly visible and on the minds of professionals, policy makers and the public (Brayne 2017; Hartmann 2018), it is also clear that public police work has always involved both reactive (backwards looking) and proactive investigation

180

M. Flyverbom and H. K. Hansen

to ­reconstruct crime and establish guilt. That being said, very little contemporary police work involves pre-emptive strikes, such as those depicted in the science fiction of Minority Report, where criminals are caught and prosecuted before they commit crimes. The Danish Police Force initiative is presently described as a response to the need for quick, pre-crime interventions. For instance, in the legal document paving the way for the initiative, it is stated that the “police will be able to identify relevant associations and patterns much faster than presently, and thereby target investigations and more efficiently prevent confrontations and attacks” (Folketinget 2017, p. 5, own translation). The ambition is therefore not to create a police force that is largely predictive. Rather, it seems the aim is to scan horizons, integrate data analysis, and offer what is referred to as ‘crime forecasts’. These resemble attempts to forecast weather more than Minority Report. This implies that insights from data-based, algorithmic forms of knowledge production are mainly used as ways to identify patterns and ‘open up’ cases; they are ways to bypass existing procedures for handling cases and processing them in courts. Also, the example of datafication of policing does not simply involve a technology-driven transformation from reactive to proactive approaches, but a more fundamental transformation of how information is understood and processed. Much the same can be said of the type of private policing carried out by MACN. The proactive and preventive engagement with crime emerges precisely because they are not state institutions, and hence not formally responsible for police investigation or criminal justice resulting in sentencing of guilt or punishment. In some issue areas, such as anti-corruption, private policing tends to compliment public policing: it supports the state’s role as a post-crime investigator with a corporate, pre-crime focus on anticipatory action. This is epitomized by risk management, and efforts to prevent crime through training and sharing digitally based knowledge (Hansen 2018). Second, the emergence of new technologies in police work contributes to its change in several ways. The rise of internet platforms, social media, and a wealth of digital traces produced by devices and people in online spaces, all constitute new resources for policing. These create novel conditions for the work that goes into building a criminal case, or preventing a crime. Technological developments are central to predictive policing, especially when it is defined as “the application of analytical techniques—particularly quantitative techniques—to identify likely targets for police intervention and prevent crime or solve past crimes by making statistical predictions” (Perry et al. 2013). As Joh (2014) observes with respect to the US, “perhaps the most visible use of big data by police departments thus far has been predictive policing: the application of computer modeling to historical crime data to predict future criminal activity.” This kind of policing “permits the

Policing and Anticipatory Transparency: On Digital …

181

police to harness thousands of data points to forecast crime where it is likely to happen. The most basic models can include factors as variable as payday schedules, seasonal variation, liquor store locations, and potential escape routes” (Joh 2014, p. 42). The datafication of communication on social media constitutes a novel source of information for carrying out policing. This is especially the case when it comes to the policing of dissent (Dencik et al. 2018), a task which does not need to be conducted solely by public policing units, but can involve corporations policing their critics (Hansen and Uldam 2015). We suggest that these developments culminate in fundamental, yet overlooked transformations in policing. To capture these, an analytical distinction between different modes of transparency production is useful. Whereas qualitative approaches rely on experiences and quantitative approaches rely on numbers, algorithms have their own distinctive features contributing to knowledge production. Algorithmic approaches to policing rely on a wide range of data sources, which stem from structured databases or more unstructured digital traces, and rely on automated forms of sorting and visualization (Hansen and Flyverbom 2015; Flyverbom and Madsen 2015). In the following, we use these distinctions to unpack developments in policing in more detail. We focus particularly on how intelligence and evidence intermingle, how objects and subjects of governance are made knowable and actionable in new ways, and how the profession of policing is transformed into an information/data management endeavor.

3 Predictive Policing, the Integration of Intelligence and Evidence, and Changes in Work Practice The distinction between intelligence and evidence harks back to the Cold War, and reflects the differential roles of intelligence agencies and policing units in their more traditional guises (Rathmell 2002). Governments are keen on collecting intelligence about future risks to national security. In contrast to intelligence, evidence is collected after a crime has been committed, and used to assess what has occurred in the past. Evidence can be subject to cross-examination and contestation, and can be used to prove guilt beyond reasonable doubt. Whereas an intelligence analyst would work against the clock to pre-empt a crisis, police will take their time to pursue leads and put together pieces of information that can stand to test in court (McCulloch and Wilson 2017). The key point here is that contemporary policing is become increasingly reliant on the modes, rationales, and techniques of the intelligence paradigm (Roach 2010). As a consequence, its working practices are taking on those of intelligence

182

M. Flyverbom and H. K. Hansen

units. The use of data mining and predictive analytics in pre-crime control not only accelerates this process, it also tends to promote forms of knowledge that present themselves as being beyond human comprehension. This is a kind of depoliticized and technocratized knowledge, which ultimately fuels speculations about a crime-free world. It has a “glow of hard scientific fact” that foreclose more complex questions surrounding social justice, violence, or power (McCulloch and Wilson 2017, p. 158). With the rise of pre-crime, the domains of intelligence and evidence have become increasingly entwined. This entanglement emerges in part because of the availability and use of new technology. However, it can also be traced to the growing operational interdependence and overlap between police and security agencies, the increase of resources aimed at gathering intelligence, as well as the expansion of transnational trade in intelligence. Furthermore, there is now greater reliance on intelligence collection and analysis, which targets individuals and communities seemingly posing nascent threats. Because there are no crime scenes in pre-crime, this opens up possibilities for serious coercive interventions based on intelligence alone (Dencik et al. 2018). When digital traces become a primary resource for policing, the issues and individuals that become targets are made knowable and governable in new ways. This implies that methods of compiling, analyzing and visualizing information— i.e. processes of knowledge production—also take on new shapes. Datafication implies a growing reliance on ‘digital doubles’—the sum of our digital traces—as representations of who people are and what they may be up to. If policing starts to target people based on their digital doubles, we need to ask questions about the accuracy, biases, and unintended consequences of employing such methods. Also, systems for managing and analyzing digital data are increasingly standardized. For instance, when the Danish Police acquires a platform from Palantir, it becomes integrated into a global network of police forces and security agencies, which rely on the same system and ways of reproducing data analyses. The point is not just that data is shared across these agencies, but rather that the systems themselves are the same. As a result, we may see the emergence of standardized ways for analyzing data in policing. The potential flaws or assumptions built into these systems may therefore be reproduced, rather than challenged, or even go unnoticed. What counts as crime or gets detected as an anomaly will be shaped by the set-up and design decisions built into such systems. We therefore need to ‘open up the black boxes’ (Latour 1988) of digital policing systems. A final issue we would like to address concerns the relationship between digital transformations and the possible reconfiguration of the police profession. The shift may not be a radical one, where handheld police work is replaced by high-speed data analytics. Still, this does not mean that police work will remain

Policing and Anticipatory Transparency: On Digital …

183

untouched. As work in this domain gets automated, many processes can be sped up and handled by IT systems rather than people. But automating work also creates the opportunity to informate (Zuboff 1988)—it creates new ways of articulating and reflecting on how work is carried out. In many cases, this is how professions are reconfigured in the wake of digital transformations. The introduction of new technologies can lead to ‘decomposition’, where complex work processes are dissembled into their individual components. Decomposition, like automation, may be primarily about simplifying and isolating tasks so they can be handled by machines or lower-level employees. But in the process, the very nature of work may also change. This is also what we see in the area of policing. As the resources for seeing, knowing and governing become datafied, and new analytical operations are introduced, police work and the professions involved change as well. As Danish Police undergoes reform, it expects a shift in its members’ core activities—away from recording ‘physical footprints’ to ‘tracing IP addresses’ and managing data in more extensive ways. This will require new skills and competencies, and may over time place more demand on the profession to incorporate data scientists and others with similar forms of expertise. As one officer centrally involved in these developments has put it, the Danish Police increasingly operates in ways that are ‘parallel to what we see in Silicon Valley’. Thus, the datafication of police work, as well as broader processes of what we have termed pluralization, privatization and technologization, may lead to rather extensive transformations of professional identities and practices in police work. These issues deserve more empirical scrutiny in future research.

4 Conclusions This chapter has investigated the emergence of proactive forms of governance and digital transformations in contemporary policing. The proliferation of digital technologies, datafication and the rise of advanced data analytics not only offer backwards looking modes of transparency (post-crime), but also something we termed anticipatory transparency (pre-crime). In particular, we explored questions about knowledge production and logics of temporality in contemporary policing. These are shaped by complex organizational dispersion of social control well beyond the classical authority of public police and its agencies, and the inclusion of private actors and bodies of knowledge and expertise new ways. Moreover, in focusing on the provision of security, which is based on digitized and datafied forms of knowledge, we set out to problematize the assumption that digital transformations facilitate a shift from reactive to proactive forms of policing.

184

M. Flyverbom and H. K. Hansen

The main argument is that while datafication may be foundational to emergent proactive forms of governance, they are not a direct outcome of technological transformations. Examining the cases of the Danish Police and the Maritime Anti-Corruption Network, we showed how the introduction of datafied, algorithmic approaches to intelligence gathering and knowledge production entails a much more amorphous assemblage of ideational, material, institutional, professional and ethical issues that come together to shape logics of temporality and organizing in policing. In addition to this, our investigation reveals the centrality of knowledge production and highlights the ways in which new resources and analytical operations lead to reconfigurations of governance and logics of temporality. Rather than a simple shift in logics of temporality, we suggest that digital transformations involve a subtler and more fundamental reconfiguration of the ways in which data is gathered, combined, analyzed and turned into actionable knowledge. Such insights contribute to conceptualizations of the complex work that goes into the production of transparency, and add to the growing number of reflexive and critical accounts of transparency.

References Amoore, L. (2013). The politics of possibility. Risk and security beyond probability. ­Durham: Duke University Press. Amoore, L., & Piotukh, V. (2015). Life beyond big data governing with little analytics. Economy and Society, 44(3), 341–366. Anderson, B. (2010). Preemption, precaution, preparedness. Anticipatory action and future geographies. Progress in Human Geography, 34(6), 777–798. Andrejevic, M. (2014). Surveillance in the big data era. In K. D. Pimple (Ed.), Emerging pervasive information and communication technologies (PICT). Ethical challenges, opportunities and safeguards (pp. 55–69). Dordrecht: Springer. Aradau, C., & Blanke, T. (2015). The (big) data-security assemblage. Knowledge and critique. Big Data & Society. https://doi.org/10.1177/2053951715609066. Birchall, C. (2015). ‘Data. gov-in-a-box’. Delimiting transparency. European Journal of Social Theory, 18(2), 185–202. Bowling, B., Iyer, S., Reiner, R., & Sheptycki, J. (2016). Policing. Past, present and future. In R. Matthews (Ed.), What is to be done about crime and punishment? Towards a ‘public criminology’ (pp. 123–158). London: Palgrave MacMillan. Brayne, S. (2017). Big data surveillance. The case of policing. American Sociological Review, 82(5), 977–1008. https://doi.org/10.1177/0003122417725865. Dencik, L., Hintz, A., & Carey, Z. (2018). Prediction, pre-emption and limits to dissent: social media and big data uses for policing protests in the United Kingdom. New Media & Society, 20(4), 1433–1450. https://doi.org/10.1177/1461444817697722.

Policing and Anticipatory Transparency: On Digital …

185

Flyverbom, M., & Madsen, A. K. (2015). Sorting data out. Unpacking big data value chains and algorithmic knowledge production. In F. Süssenguth (Ed.), Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung (pp. 123–144). Bielefeld: transcript. Flyverbom, M., Leonardi, P., Stohl, C., & Stohl, M. (2016). The management of visibilities in the digital age. Introduction. International Journal of Communication, 10, 98–109. Flyverbom, M., Madsen, A. K., & Rasche, A. (2017). Big data as governmentality in international development. Digital traces, algorithms, and altered visibilities. The Information Society, 33(1), 35–42. Folketinget. (2017). L 171 Forslag til lov om ændring af lov om politiets virksomhed og toldloven. https://www.ft.dk/samling/20161/lovforslag/l171/20161_l171_som_fremsat. htm. Accessed 23 May 2019. Fung, A., Graham, M., & Weil, D. (2007). Full disclosure. The perils and promise of transparency. Cambridge: Cambridge University Press. Hansen, H. K. (2015). Numerical operations, transparency illusions and the datafication of governance. European Journal of Social Theory, 18(2), 203–220. Hansen, H. K. (2018). Policing corruption post- and pre-crime. Collective action and private authority in the maritime industry. Indiana Journal of Global Legal Studies, 25(1), 131–156. Hansen, H. K., & Flyverbom, M. (2015). The politics of transparency and the calibration of knowledge in the digital age. Organization, 22(6), 872–889. Hansen, H. K., & Porter, T. (2017). What do big data do in global governance? Global Governance, 23(1), 31–42. Hansen, H. K., & Uldam, J. (2015). Corporate social responsibility, corporate surveillance and neutralizing corporate resistance. On the commodification of risk-based policing. In G. Barak (Ed.), The Routledge international handbook of the crimes of the powerful (pp. 186–196). New York: Routledge. Hartmann, M. R. K. (2018). Grey zone creativity. The case of proactive policing. In N. R. Fyfe, H. Gundhus, & K. V. Rønn (Eds.), Moral issues in intelligence-led policing (pp. 161–181). London: Routledge. Joh, E. E. (2014). Policing by numbers. Big data and the fourth amendment. Washington Law Review, 89(1), 35–68. Latour, B. (1988). Science in action. How to follow scientists and engineers through society. Cambridge: Harvard University Press. Madsen, A. K., Flyverbom, M., Hilbert, M., & Ruppert, E. (2016). Big Data: Issues for an international political sociology of data practices. International Political Sociology, 10(3), 275–296. McCulloch, J., & Wilson, D. (2017). Pre-emption, precaution and the future. London: Routledge. Morozov, E. (2013). To save everything, click here. New York: PublicAffairs. O’Reilly, C. (2015). The pluralization of high policing. Convergence and divergence at the public-private interface. Bristish Journal of Crimonology, 55(4), 688–710. Omidi, M. (2014). Anti-homeless spikes are just the latest in ‘defensive urban architecture’. The Guardian, 12 June 2014. https://www.theguardian.com/cities/2014/jun/12/antihomeless-spikes-latest-defensive-urban-architecture. Accessed 23 May 2019.

186

M. Flyverbom and H. K. Hansen

Perry, W. L., McInnis, B., Price, C. C., Smith, S. C., & Hollywood, J. S. (2013). Predictive policing. The role of crime forecasting in law enforcement operations. Santa Monica: RAND. https://www.rand.org/content/dam/rand/pubs/research_reports/RR200/RR233/ RAND_RR233.pdf. Accessed 23 May 2019. Rathmell, A. (2002). Towards postmodern intelligence. Intelligence and National Security, 17(3), 87–104. Roach, K. (2010). The roding distinction between intelligence and evidence in terroism investigations. In N. McGarrity, A. Lynch, & G. Williams (Eds.), Counter-terrorism and beyond (pp. 48–66). London: Routledge. Rouvroy, A. (2011). Technology, virtuality and utopia governmentality in an age of autonomic computing. In M. Hildebrandt & A. Rouvroy (Eds.), Law, Human Agency and Autonomic Computing (pp. 119–140). London: Routledge. Sanders, C. B., & Sheptycki, J. (2017). Policing, crime and ‘big data’. Towards a critique of the moral economy of stochastic governance. Crime, Law and Social Change, 68(1–2), 1–15. Sheptycki, J. (1998). Policing, postmodernism and transnationalization. British Journal of Criminology, 38(3), 485–503. Zuboff, S. (1988). In the age of the smart machine: the future of work and power. New York: Basic Books.

Mikkel Flyverbom (Prof., PhD)  is Professor of Communication and Digital Transformations and Director of the Digital Transformations Platform and the BSc program in Business Administration and Digital Management at Copenhagen Business School. His primary research areas include global internet governance, transparency, big data, and digital transformations. Currently, his research focuses on datafication and anticipatory governance as well as on digital technologies, transparency, and visibility management. He is the author of two monographs, The Power of Networks: Organizing the Global Politics of the Internet (Edward Elgar, 2011) and The Digital Prism: Transparency and Managed Visibilities in a Datafied World (Cambridge University Press, 2019), and articles in leading journals such as Organization Studies, Business & Society, Organization, and European Journal of Social Theory. Hans Krause Hansen (Prof., PhD) is Professor of Governance and Culture Studies at Copenhagen Business School. His current research interest revolves around the emergence of new modes of public and private governance, transnational governance and governance by numbers, corruption and corruption control, transparency and surveillance regimes. His publications include several anthologies, chapters, and journal articles in a wide range of outlets across several disciplines, including international political economy and political sociology, criminology, organization and communication studies. Recent publications include “Policing Corruption Post- and Pre-Crime: Collective Action and Private Authority in the Maritime Industry” (Indiana Journal of Global Legal Studies, 25/1, 2018) and “What Do Big Data Do in Global Governance?” (Global Governance—A Review of Multilateralism and International Organizations, 23/1, 2017).

Making Quality Transparent: How Quantification is Implicated in Changing Norms for Governing Healthcare Jacob Reilley Abstract

In recent years, the notion of transparency has gained increased importance as a way to govern the performance of public organizations. In order to achieve transparency in the healthcare sector, quantified descriptions of quality have become embedded in processes of evaluation and audit which are intended to make hospitals and other healthcare organizations knowable to a wider public. This chapter uses a case study of German hospitals to explore the origins of quantification practices which have enacted doctrines of transparency in the field of healthcare. More specifically, it focuses the role of “routine data” in making the quality of care transparent. It shows how routine data becomes a taken for granted way of accounting for quality, and in the process, how specific notions of medical care that were once rather opaque and unclear to outsiders have been made into objects of management and intervention. The paper contributes to a broader field of transparency research by asking how practices of quantification and the norms of transparency become aligned with

This paper was possible thanks to funding provided by the Deutsche Forschungsgemeinschaft (DFG) (Project No. 627097) under the Open Research Area Scheme (Project Title: QUAD—Quantification, Administrative Capacity and Democracy). In addition, many thanks are due to Vincent August, Christian Huber, Fran Osrecki, and Tobias Scheytt for their insightful comments on earlier drafts of the paper.

J. Reilley (*)  Helmut-Schmidt-Universität, Hamburg, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 V. August und F. Osrecki (Hrsg.), Der Transparenz-Imperativ, https://doi.org/10.1007/978-3-658-22294-9_8

187

188

J. Reilley

one another to form a legitimate form of healthcare governance. In analyzing the ambiguous relationship between co-evolving practices and norms, and the drivers behind their development, insights could be drawn which help us understand how seemingly indispensable principles of good governance and good organization are realized with unintended consequences.

1 Introduction Transparency has become a buzzword that is nearly synonymous with good governance and sound organization (Blomgren 2007). Within the past several decades, there has been a proliferation of transparency measures in the public sector, especially in healthcare. Many countries have introduced open reporting procedures, clinical audits, quality management systems, and pricing mechanisms, all of which aim to make the internal activities of hospitals and other healthcare organizations visible to external stakeholders. These kinds of systems are labelled as necessary by some, who argue that the more information a government has about its service providers, the better able it is to preserve trust, ensure accountability, and promote efficiency (Fox 2007; Heald 2006; Olsen 2013). From this perspective, there is an assumption that one can better control that which is expressed explicitly in numbers, and that a lack of quantified knowledge about the costs or quality of healthcare impedes the effective management of scarce and valuable resources (cf. Lapsley 1999, p. 203). In healthcare, the strengthening of transparency as a core principle can be traced back to the 1970s, when the notions of standardized quality assessment and external control were first seen as cures for what was considered to be a wasteful welfare state (August 2018, p. 136). As part of a movement toward a New Public Management (NPM), many governments began to experience acute fiscal strains, while at the same time feeling pressure to enact value-for-money approaches to governing costly healthcare systems (Abernethy et al. 2007; Hood 1991; Hood 1995; Hyndman and Lapsley 2016; Lapsley 1996b). Within this context, various reform initiatives and “transparency projects” (Blomgren and Sahlin 2007) sought to improve the organization of service delivery by making hospitals and markets for services more easily observable, coherent, and understandable (cf. Albu and Flyverbom 2016; Lapsley 1996a). A transparent public sector was envisioned as a place where the opaque internal operations of hospitals could be “opened up” and independently verified and checked in a cost effective manner (Power 1997). Today, transparency continues to be a central concept in cycles of reform and in hospital management discourses.

Making Quality Transparent: How Quantification is Implicated in …

189

In wave after wave of transparency reform, an underlying constant seems to be the idea that the efficiency, quality or value of public organizations can be captured in quantitative terms. Indeed, one of the most pervasive methods used today to enact transparency is quantification (Beer 2016; Mau 2017; Kurunmäki et al. 2016). Quantified descriptions of quality, financial performance, and impact constitute the elaborate accounts organizations are commonly forced to provide about their internal processes and activities. Quantification is often seen as essential to establishing the feedback loops which make governing through transparency possible. One example of this can be found in performance measurement, the rationale of which assumes that organizations can steer themselves toward pre-defined objectives that are matched to quantified indicators (Brignall and Modell 2000; Smith 1995). Yet, modernized approaches to governance which aim for transparency through processes of quantification confront a unique social context in healthcare, which make accounting for abstract concepts such as care quality rather problematic. First of all, despite an implicit trust in numbers as an objective way of governing public services (Porter 1995), processes of quantification are laden with political aspirations. They are seen by powerful actors, not just as a means to transparency for its own sake, but as a way to steer organizational activity “at a distance” (Miller and Power 2013; Robson 1992; Power 2007). Second, making quality transparent necessarily involves turning complex processes and outputs into numerical figures, which can then be observed, compared, evaluated and managed by outsiders. Thus, quality indicators, targets and statistical data do not uncover the true character of care quality or a hospital, but shape what gets accounted for, and subsequently, what kinds of control are possible (Miller 2001; Miller and Rose 2008). In order to explore the origins of quantification practices which have helped enact doctrines of transparency, this paper draws on a case study of the German hospital sector. More specifically, it focuses the role of “routine data” in making the quality of care transparent. As perhaps the single most important instrument in the governance of German healthcare, routine data has rendered the quality of treatment comparable and visible to expert regulators and the wider lay public. This paper shows how, over a period of several decades, routine data becomes a taken for granted way of accounting for quality. In the process, particular aspects of care, such as immediate and longitudinal outcomes of medical procedures, are spotlighted, while other legitimate means of assessing medical performance are ignored. As a result, specific notions of medical care that were once rather opaque and unclear to outsiders have been made into objects of management and ­intervention.

190

J. Reilley

With this case study, the paper provides a look at how practices for making quality transparent are entangled with an imperative to govern through transparency. In this sense, it does not take transparency for granted as a democratic good (Hood and Heald 2006), nor does it engage with any normative critique of the ways in which transparency is enacted (Han 2012; Strathern 2000). Much more, it asks how practices of quantification and notions of transparency become aligned with one another to form a routinized and legitimate system of quality governance. An analysis of the origins of quantified quality shows that it is not always clear whether practices of measurement place demands on organizations to be transparent, or if broader norms drive the demand for more (quantified) information about professional services. Yet, in analyzing the ambiguous relationship between co-evolving practices and norms, insights could be drawn which help us understand how seemingly indispensable principles of good governance and good organization are realized with unintended consequences (see also Heibges, this volume; Mölders, this volume). The structure of the paper is as follows. The next section (2) outlines the rising demand for quality transparency in healthcare. Next, drawing on literature in the social studies of accounting, quantification is examined as the underlying technology which makes the transparency imperative a practicable reality (3). The link between quantification as a practice and transparency as a wider societal norm is then further elaborated upon with an analysis of routine data in the German hospital sector starting in the early 1990s (4). After a brief introduction to the empirical case (5), the development of routine data is traced from its origins as an administrative tool to its eventual marriage with issues of quality (5.1). A second part of the analysis shows how methods for making quality transparent with the help of routine data have become embedded in a wider quality governance regime (5.2). The final section ends with a discussion (6).

2 Quality Transparency as a Programmatic Ideal Early attempts to make healthcare organizations more knowable were focused on revealing the “true” cost of service delivery (Kurunmäki and Miller 2008). Innovations in accounting, which made financial information about hospitals openly available and subject to (public) scrutiny, made it possible to manage hospitals in line with economic principles (Briers and Chua 2001; Kurunmäki 1999; Llewellyn and Northcott 2005; Llewellyn 2001; Vogd et al. 2018). This focus on making economic performance more explicit and understandable was soon ­broadened to include care quality—one aspect of service delivery which was seen

Making Quality Transparent: How Quantification is Implicated in …

191

as being neglected under conditions of increasing economization (Bevan 2008; Pflueger 2016). Quality control has since become a core part of enacting “good” public sector governance. Within this context, hospitals are now expected, and in many cases compelled, to deliver detailed accounts of hospital activity which focus on capturing and disclosing proxies for the quality of medical treatment. Quality indexes, league tables, and internal control systems are thought of as ways to help make good and bad care subject to monitoring and supervision, and thus guide regulatory attention and further reform (cf. Porter 2015). In many western European democracies, there has been an explosion in the number of systems and technologies aimed at making quality transparent and rendering it an object of management. For example, in the UK, league tables (Pollitt 2007), and later star ratings (Bevan and Hood 2004), introduced quantified descriptions of hospital quality. This was an attempt to make the quality of service comparable across hospital settings, which could then allow the government to intervene and correct underperformers when necessary (Griffiths et al. 2017). These and other “intelligent” performance indicators (Hood 2007) also claim to serve the public—by making quality information open and easily understandable (through simple rankings and ratings), the patient can supposedly make better decisions about which hospital to visit. This latter aspect could also be considered a form of indirect control; as patients are important economic resources for hospitals, steering them away from certain hospitals and toward others could potentially impact hospital profitability, and by consequence, behavior. Another prominent method for making quality transparent has been through clinical audits and systems of internal control (Power 1997). As Michael Power (2007) has shown, the combination of audits and internal control systems has become a common template for organizing a wide range of regulatory relationships. Hospitals have increasingly been subjected to account for their processes and outcomes in a routinized and quantified manner as part of total quality management systems (Pollitt 1996). Such systems are designed in a way that privileges supervisory styles of control (Bowerman et al. 2000), as well as outputbased information (often defined as numerical targets) (Bevan and Hood 2006). Internal control systems have gained prominence as a way of keeping track of what hospitals do and “produce” in terms of quality, and sharing quantified representations of quality with a wide range of stakeholders (e.g. patient organizations, regulators, insurance agencies). In this way, the “inner workings” of hospitals have been turned “inside out” and made visible to a wide range of authorities (Power 2007, p. 35).

192

J. Reilley

These are just a few examples of the ways in which governments attempt engage in a “transparency project” in the field of healthcare. Transparency in this sense operates as a legitimating force behind many systems which evaluate and control quality. It is a broad programmatic ideal, more than a precise prescription for action. As one possible mode of governance, it gives discursive weight to outsourcing monitoring duties to external entities or systems, treating with skepticism what was once exclusive trust in professions. The hospital, thought to be veiled in obscurity and an intractable site of governance (Glouberman and Mintzberg 2001; Wieczorek et al. 2015), is considered “knowable”—it can be opened up by being forced to deliver detailed accounts of its activity. The strengthening of quality transparency as a norm does not necessarily mean that professional modes of controlling quality have been, or are being, entirely replaced by audits or ranking systems. To the contrary, there is evidence that professionals still play a central role in setting standards for quality (Levay and Waks 2009). What the movement toward transparency does entail, however, is an attempt to reveal these internal processes to actors external to the profession; it is an attempt to make what was once only comprehensible to physicians and perhaps hospital administrators, accessible to government regulators and the lay public. The following section looks more closely at quantification as a practice which is inherently bound up with the idea of governing through transparency. As the examples above show, quantified descriptions of organizational activity and outcomes are central in many attempts to make hospitals more visible to governing principles (cf. Hansen 2015). A focus on quantification, therefore, seeks to address the fundamental practice underlying the slew of indexes, management systems, rankings, and ratings which propel the modern governance of public service and the “quest for transparency” (Blomgren and Sahlin 2007).

3 Quantification as a Technology for Making Quality Transparent In approaches to managing public services which emphasize openness, quantification has often been stressed as a way to demonstrate achievements and prevent blame avoidance (Hood 2006; Lapsley 1999). This is especially true in healthcare where, ever increasingly, performance measurement and accountancy, both of which are heavily reliant on quantification, have become indispensable as tools for eliciting elaborate descriptions of organizational activity for the purpose of steering (Modell 2004; Pollitt 2005). As supposedly objective representations of the world, statistics, benchmarks and indicators have become attractive tools for

Making Quality Transparent: How Quantification is Implicated in …

193

governments and other organizations interested in exercising power over their subjects (Fligstein 1998; Merry 2016). In many cases, accounting and measurement have become institutionalized and self-evident (Power 2015), further fueling the demand for more quantification and increased visibility (Miller 2001, p. 385; Power 2004, p. 778). When looking at how quantification is implicated in the governance of public service, it is not the numbers or the act of performance measurement themselves which are important as much as what various actors seek to “do” with numbers (cf. Espeland and Stevens 2008). The processes of calculation underlying performance measurement, audits, and many other “knowledge systems” (Merry and Coutin 2014), are always put to use toward specific ends in social and organizational contexts, i.e. for the purpose of creating efficiency, legitimating costs, or “rationally” allocating resources (Chapman et al. 2009; Burchell et al. 1980; Hopwood 1990). In this sense, quantifying is not merely a neutral or technical activity, but one which is actually laden with the political aspirations of those seeking to enact control (Miller and Rose 2008). Indeed, state intervention requires visible targets and manageable objects (Espeland and Lom 2015; Neyland and Coopmans 2014). Accountancy, performance measurement, and the practices of quantification with which they operate, are seen by many authorities as the tools for creating such visible and calculable objects (cf. Miller and Power 2013). In cases when quantitative management accounting tools, indicators, and targets enter the public realm, new modes of describing organizational activity emerge. Cost accounting systems allow governments to promote the image of an “average” hospital (Llewellyn and Northcott 2005), risk indexes and financial statements make financial failure predicable and pronounceable (Kurunmäki and Miller 2013), and targets set up numerical thresholds for what constitutes acceptable performance (Bevan and Hood 2004). Such descriptions also open up possibilities for (disciplinary) action (cf. Hacking 2002, p. 108), either through governmental intervention or through competition (Kornberger and Carter 2010; Sauder and Espeland 2009; Werron 2014). Moreover, these relations and descriptions of organizational performance, far from being natural, are the result of complex processes which reduce and simplify information so that it is easily comparable, i.e. in numerical form (Espeland and Stevens 1998; Heintz 2010); quantification involves translating uncertain or elusive qualities into common metrics that make certain aspects of organizational activity visible (and thus objects of attention), and others invisible (Bühler and Heintz 2017). Thus, instead of finding things out, or uncovering what is “really” there, practices of quantification establish standards and categories which come to be taken for granted parts of ordering social life (Pflueger 2015). They play a central role in constituting

194

J. Reilley

what gets accounted for, how relationships are set, and what gets managed in a wide range of domains. In sum, quantification is a technology of governance which is utilized for the purpose of enacting wider societal ideals, e.g. creating quality transparency in healthcare (cf. Miller 2001; Miller and Rose 1990; Rose and Miller 1992). But quantification can also shape those social and organizational contexts where it is put to use. As such, it opens up new possibilities for categorizing and thinking about what it measures, and thus, enables alternative possibilities for action to come into being. Before continuing on to this paper’s analysis, it is important to note that quantification and wider societal programs like transparency are not coupled in any deterministic way. Although there does seem to be an affinity between quantitative descriptions of organizations and the idea of transparency, the norms and programs of governance, and the practices and infrastructures needed to carry them out, co-develop, often times independently from each other (Palermo et al. 2017) and in a “garbage can” like manner (Cohen et al. 1972; Kingdon 2003). There is, therefore, an important “‘looseness of fit’ between the political economy of measurement systems in the form of policy demands for accuracy and control, and their instrumental features” (Power 2004, p. 769). Parallel to innovations in measurement, there are changing norms and emerging institutions, which can (but do not always) intersect to form a recognizable method for governing by numbers and making quality transparent (cf. Power 2015). With this consideration in mind, the following explores those instances when practices of quantification and norms of transparency do converge and become implicated with one another in a regime for quality assurance.

4 The German Hospital Sector and Routine Data As in many other countries, German healthcare has been increasingly influenced by transparency initiatives. Within this context, hospitals are subject to a number of provisions for reporting quality data. Reported information is used by governing stakeholders to develop and publish quality indicators, which can then be used to create benchmarks and comparisons of different hospitals and departments (Messer and Reilley 2015). Unlike in other countries where healthcare governance is grounded in executive power and methods of oversight (for example in the UK, see Pollitt 2005), German hospitals are steered by a heterogeneous group of stakeholders (including insurances, hospitals, and professional

Making Quality Transparent: How Quantification is Implicated in …

195

groups) which are legally required to negotiate with one another about standards and policies (for an overview, see Dent 2003; Dent et al. 2004). Such an arrangement therefore grants a multitude of actors an important role in quantifying (and managing) quality (Reilley and Scheytt 2017). For many of these actors, one of the most important elements of quality assurance is routine data: a collection of (i) treatment and diagnosis codes recorded by hospitals for billing purposes, (ii) demographic information about insured patients kept by insurance funds, and (iii) mortality and complication statistics reported in national statistical archives. Although these sources were developed independently of one another, and for purposes which had nothing to do with quality assurance, they are currently used by various institutions to construct assessments of treatment quality in hospitals. The following case analysis draws on several resources. First, the author conducted thirty-two interviews with representatives of health ministries, quality assurance agencies, hospital associations, and health insurances as well as head physicians and hospital managers. These conversations helped shed light on the specific uses of routine data on both regulatory and organizational levels and were key for understanding routine data’s role in quality assurance. Second, much of the case information stems from extensive document analysis. A number of position papers and grey literature were key to understanding how the sector was structured and finding out who played a significant role in measuring and evaluating quality with the help of routine data.

5 Making Quality Transparent—An Analysis of the German Hospital Sector The following sections analyze the emergence of routine data, first as a way to account for administrative activity and then later as a tool for quality assurance. The first section (5.1) describes how routine data was created for administrative purposes and then later linked to issues of quality. Here, one can see how quality transparency emerged out of the active effort of an insurance agency to turn already available data into statements about the quality of hospital care. The second (5.2) traces the trajectory of routine data after it became a recognized tool for making quality assessments, and provides examples of how it has become institutionalized as a way to evaluate, monitor and make public quantified information about treatment quality in hospitals.

196

J. Reilley

5.1 From Administrative Billing Data to Quality Comparisons The Emergence of Administrative Billing Data In 1989, the Healthcare Reform Act (Gesundheitsreformgesetz) made some significant changes to the legal rights and organizational faculties of health insurances. As part of a broader wave of cost containment policies (Gerlinger 2009), this law sought to help insurance funds reduce what was perceived to be excessive costs paid to providers. It redefined service provision as that “which is absolutely medically necessary”1 and assigned all statutory and private insurance funds with the responsibility to evaluate and account for the budgets of individual hospitals and the treatments provided, if necessary, on a case-by-case basis. There were several key developments which aided insurance funds in carrying out their new duties to perform efficiency audits. First, a new institution was established— the Medical Service of the Health Funds (Medizinischer Dienst der Krankenversicherungen—MDK), which could conduct random inspections of hospitals. This organization still operates to this day, and is often called to investigate cases of suspected malpractice or to follow up on patient complaints. Second, hospitals were now required to share with insurance funds information about their day-to-day activities, most commonly taking the form of casebased billing data related to diagnoses and treatments. This includes, for example, information about the initial admission of a patient—the day, time and reason for admission as well as the referral diagnosis (conducted by ambulant care center) or admission diagnosis completed by hospital staff. Hospitals also have to report the probable length of stay based on this diagnosis, and if the patient stayed longer, a medically justified reason for why this occurred. The hospital and its staff are identified for the purpose of sorting cases and information about treatments according to location and department. And finally, the date and the type of operation or procedure are reported, along with the reason for release or transfer as well as a statement about the patient’s condition, e.g. whether or not further care was recommended. With this law, we see some significant changes with regard to what information about hospital activity gets shared with outside observers. Until this point, case-based billing data was not delivered to insurances in a systematic, electronic

1Sozialgesetzbuch

(SGB): Fünftes Buch (V) – Gesetzliche Krankenversicherung – (Artikel 1 des Gesetzes v. 20. Dezember 1988, BGBl. I S. 2477), § 301 Krankenhäuser. https:// www.gesetze-im-internet.de/sgb_5/__301.html. Accessed on 31 July 2019.

Making Quality Transparent: How Quantification is Implicated in …

197

f­ ormat. Moreover, such billing data had contained cost and treatment information, but did not have to justify services provided. Now, for the first time, the requirement to justify that service delivery was “absolutely medically necessary” resulted in data being embedded with medical judgments about the diagnosis or treatment provided. Hospitals now had to deliver information to external actors which legitimated what they did internally; non-medical experts were going to be informed about the “appropriateness” of hospital activity from a medical point of view. In 2002, the Hospital Compensation Act (Krankenhausentgelt-Gesetz)2 was passed in an attempt to coordinate the delivery of case-based billing data with the planned implementation of a Diagnosis-Related-Group (DRG) reimbursement scheme. The sector’s transition to the DRG system would introduce a universal coding system for diagnoses and services rendered in all hospitals. The new law sought to facilitate hospitals in reporting clearly coded information in a timely manner. As such, a new federal institute for hospital reimbursement (InEK) was established, which would collect, analyze, and archive all case-based billing data. Hospitals would deliver their annual billing data to the InEK, coded according to DRG standards. In principle, this data was similar to that which had already been delivered to insurances since 1989. However, because it was coded according to the DRG system and every hospital had to deliver the same information each year to the InEK, it created a more comprehensive and comparable look at treatments provided and diagnoses (Grobe et al. 2014, p. 134). Moreover, the exact services rendered by a hospital could now by identified and compared with reported ­outcomes. With this 2002 law, hospital activity again became standardized and coded in a comparable way across diverse contexts. The case-based billing data which justified medically necessary treatments was now collected in a routinized manner. The delivery of information to external institutions was also centralized to some extent—in addition to all insurances receiving the new billing data, one institution—the InEK, was responsible for collecting and analyzing data within a singular national case classification system. Thus, within the span of about 12 years, treatments and diagnoses which previously needed no verification outside of the medical profession, were quantified, standardized, and sorted into a scheme that is easily consumable for non-medical professionals. At first glance, there may be no obvious connection between these new instances of transparency and the quality of medical treatment. Although q­ uality

2Gesetz

über die Entgelte für voll- und teilstationäre Krankenhausleistungen (Krankenhausentgeltgesetz – KHEntgG), § 21 Übermittlung und Nutzung von Daten. https://www. gesetze-im-internet.de/khentgg/__21.html. Accessed on 31 July 2019.

198

J. Reilley

management at this time was perceived as being somewhat fragmented (there were no overarching regulations mandating how quality assurance should be carried out at individual hospitals), there was no intention of facilitating sector wide quality assurance with the help of this data (IP 03). This changed, however, as one insurance fund spearheaded an initiative to use the now routinely produced data to measure and compare quality across hospitals.

Linking Routine Data to Issues of Quality Toward the end of the 1990s, one of Germany’s largest statutory insurance funds—the AOK (Allgemeine-Orts Krankenkasse), began experimenting with quality measurement. In 1998, together with several clinics and independent scientific institutes, the AOK started a project called “hospital quality model” with the goal of creating quality indicators which could be used to compare hospitals. According to those who were there at the time, this was a laborious process, which involved retrieving primary data on individual cases, i.e. retrieving data from the physicians and nurses providing care. Although some believed that it would possible to conduct a “proper analysis” with primary data sources and arrive at a comparison of hospital quality, most concurred that it was too timeconsuming and expensive. Eliciting data on treatment at this time produced a “mind-boggling amount of paper” (IP 07), which made the physicians and the nurses moan about the extra documentation required of them (IP 07). The approach to data collection changed as the project drew to a close around the year 2000 and project leaders began to search for an alternative source of data. According to one interviewee, “it was around 2000, when we [the AOK] started looking for what was already there, what kind of offering was there for secondary data” (IP 07). As this interviewee from the AOK told the story, the availability of data changed dramatically around 2002, concurrent with the reform discussed above: “…then, the data situation, for secondary data in hospitals, totally changed. In the year 2002–2003, you know, the point where the possibilities for documentation in hospitals drastically changed—well the ICD codes remained about the same, but the codes available to document procedures expanded from about 6,000 to about 23,000 codes. After that, there was simply more which was codeable and so (…) the scope of our dataset greatly increased” (IP 07).

The case-based billing data, having been circulated between hospitals and insurances for close to ten years, had now gained attention in the world of quality measurement. And it was in 2002 that the AOK founded its own scientific institute for quality assurance (WIdO), which managed a flagship project called

Making Quality Transparent: How Quantification is Implicated in …

199

“quality assurance with routine data” (QSR). The aim of WIdO, and the QSR project, was to develop a way to measure hospital quality and make it transparent (Heller et al. 2004). The basic assumption underlying this motive was that in order improve treatment quality, one needed to obtain and analyze information about the medium and long-term results of care provision (Heller et al. 2004, p. 273). The AOK perceived a problem with a quality assurance system that operated as a disorganized “closed shop”, which not only left patients in the dark, but also hurt hospitals, who would soon have to bargain with quality when negotiating contracts (Heller et al. 2004). Another rationale behind the QSR project was that making quality measurable also helps control it, and thus helps insurances battle any reductions in quality which could arise from an excessive focus on controlling costs. Fulfilling these goals was now thought to be possible with the advent of administrative billing data, as it could offer a comprehensive, casebased, output oriented, and cost-effective method for tracking and reporting hospital activities that are linked to quality. By drawing on a combination of billing data for diagnoses and treatments, as well as demographic information about the insured patients and various other already available statistics, such as mortality and complication rates, the QSR project set out to ask questions about the quality of specific medical treatments (Grobe et al. 2014, p. 128; see also Jeschke et al. 2013). With the administrative data available to them, WIdO could link a starting event (diagnosis) with subsequent mortality information as well as treatment episodes about all procedures performed (Busse et al. 2009, p. 301). This was not carried out for all medical procedures, but only those for which routine data could generate statistical significance. Thus, it was not possible to measure a given procedure’s success rate at all hospitals. Instead, WIdO offered analyses of what they called “tracer-diagnoses”, which were meant to serve as samples that could make a more generalized claim about the quality of a given procedure in specific regions, or at a national level (IP 07). With these developments, a specific notion of quality becomes more transparent. The aspects of medical performance which are arguably the easiest to account for, such as death or complication rates, move into the foreground. This marked the first time that outcomes were measured in a systematic way by either payers or providers (Porter and Guth 2012). Outcomes are linked to a diagnosis or treatment code in order to assess whether or not medical professionals had proceeded in a way which could be deemed appropriate by the AOK, i.e. if a death resulted from a misdiagnosis, or if complications arose because of mistakes made during treatment. This establishes a causal chain between reported “inputs” and reported “outputs”, while obscuring the complicated processes of medical treatment which happens “in-between” admission and release. Whether or not physicians followed

200

J. Reilley

clinical guideline procedures, the most prominent mode of judging medical performance in the German Medical Association (Kopp 2011), was not taken into consideration. Moreover, we see observed events reduced to those which could generate numerical significance. Hospitals which carried out a low number of operations, for example, would be excluded from quality assessments, as their mortality or complication rates would produce “skewed” results. Later on, in order to generate benchmarks against which under and over performing hospital departments could be identified and compared, members of the QSR project selected a handful of metrics according to which different levels of quality could be analyzed. These included the mortality rate, re-admission rate, and repeated operations (in hospital, as well as 30, 60 and 90 days after release). Accordingly, the concept of quality which was made visible was extended once again. The measurement of immediate outcomes has been prolonged to include longitudinal outcomes. These measures, in addition to negating clinical guidelines and other process-oriented indicators, could frame whether or not a patient was treated “well” based on whether or not he or she died, experience complications, or had to re-visit the hospital up to 90 days after the procedure was conducted. Such an approach blurs the boundaries of professional and organizational responsibility by assuming that what happens outside of the hospital can be linked back to specific treatment decisions. In doing so, it de-contextualizes quality, making it the product of hospital activity and something uninfluenced by external environmental factors. Literature reviews of medical-scientific studies and meetings with professional groups helped determine what would be an acceptable percentage of deaths, complications, or re-admissions for a given procedure. For example, in 2004, QSR set the maximum threshold for mortality rate after a colon carcinoma operation at 6 %. Hospitals in which more than 6 % of patients died after this procedure were marked as “conspicuous”. This shows how hospitals were not directly compared with one another, but to a desired outcome. Average national success (or failure) rates were used to benchmark under or regular performers. According to head physicians, doing so ignores complexities related to specific patient groups or organizational conditions, e.g. the risks they incur when treating, on average, older or sicker patients (IP 08). WIdO sought to make national comparisons more robust and “fair” by conducting risk adjustments (IP 06) through risk adjustment calculations—tools that take the demographic information of patients and their pre-existing conditions into account when analyzing the results of hospital treatments. This aimed to statistically control for variations in the health of the populations that hospitals serve. For example, in the case of morality indicators, information about patients

Making Quality Transparent: How Quantification is Implicated in …

201

are used to arrive at a standardized mortality ratio, which delineates an expected variation in the outcome based on the population being treated, i.e. their age, sex, and morbidity structure. Risk adjustments with standardized ratios could purportedly verify that a hospital department really was performing suspicious (or normal) levels of quality in comparison to other clinics or a national average. Risk adjustment calculations functioned to re-contextualize the notion of quality, bringing back into the evaluative spotlight intervening factors which the medical profession had long been aware of. This does not mean that risk adjustments simply mirrored what professionals had been paying attention to all along; rather, they changed how quality could be incorporated into organizational routines. Morbidity statistics and demographic information about patients were now indispensable sources of information for hospitals and head physicians. If they are going to contest or negotiate the meaning of quality assessments made by external actors, medical professionals and hospital managers are now required to draw on this quantitative information when making their arguments. Furthermore, intervening factors which were not captured in risk adjustments, such as sudden epidemics or unexpected and rare illnesses, are not part of the equation at all (Becker 2014). And so, in just a few short years, WIdO had successfully linked specific medical procedures, patient populations, and narrow perspectives on what constituted good treatment—such as outcomes—to routinized assessments of quality. The quality assessments derived from routine data were eventually put to use, not just as a means of representing performance, but also as a way of identifying areas where costs could be renegotiated. One interviewee explained that while a flatrate was paid to all hospitals, regardless of the quality of their treatment, those who had high complication rates would be allocated extra funds to deal with necessary follow-up procedures as well as the equipment and payroll costs associated with them. According to representatives at WIdO, such a system rewarded failure (IP 02). WIdO sought to use their own calculations of quality to re-negotiate (mid contract) what costs would be covered in full, and how much needed to be paid back to the insurance. For example, a sinking mortality rate could be used as leverage to negotiate a remittance of 600,000 Euros (IP 06). The focus here was on finding complications which were costly and dis-incentivizing them. Quantitative quality assessments had now been linked to financial modes of control. Several years into the QSR project, in the spring of 2008, the AOK also started to make quality information directly available to hospitals in “clinic reports” (Busse et al. 2009, p. 301; Heller and Günster 2008, p. 28). These reports contain risk adjusted comparisons of quality for specific medical procedures, organized

202

J. Reilley

according to different quality indicators such as mortality rates or readmission rates. These results are then aggregated so that entire hospitals are classified as being either above average, below average, or average compared to other hospitals. These reports were intended to provide hospitals with an empirical and scientifically valid assessment of their activity in terms of quality. Here, we see new ambitions for control being attached to quality. Quality assessments produced via routine data were seen as learning tools, which could be used by hospital managers and head physicians to identify, assess and eventually correct problems with quality. Hospitals are also expected to use clinic reports as a tool for competing with other hospitals on the basis of quality (Messer and Reilley 2015). This attempt to “feed-back” quantitative quality information to hospitals assumes that these hospitals have both the desire and capacity to consume numerical information and organize processes accordingly. This shift brings quality-based competition to the fore in a realm which has previously been dominated by a profession averse to competitive arrangements (Timmermans 2008).

Summary This section has shown how the interests of insurance funds in measuring and assessing the quality of hospitals has become aligned with the increased availability of administrative billing data. While much of the billing information recorded by hospitals was intended to serve administrators in accounting for costs or transferring to a new coding system, the AOK saw an opportunity for carrying out more comprehensive and cost-effective quality measurement. Through various processes of calculation, data which was once only linked to banal administrative tasks were now intricately coupled to issues of quality. As quality was described through the lens of routine data, emphasis was placed on immediate and longitudinal outcomes, and linking outcomes to their “inputs”—diagnoses and demographic data—while other legitimate notions of quality were ignored, e.g. process oriented indicators, clinical guidelines, structure-based quality (e.g. indicators related to staffing, equipment, building renovations) and patient feedback (e.g. surveys or reported complaints). Hospital performance was rendered comparable and verifiable across organizational contexts according to these very specific notions of care quality. Making quality transparent in this way thus shaped how it could be understood by outsiders, and what aspects of quality could be used renegotiate costs in favor of insurance funds or steer hospitals through clinical reports.

Making Quality Transparent: How Quantification is Implicated in …

203

5.2 Routine Data Travels to Other Organizational Contexts By the mid-2000s, only insurances and hospitals were allowed to use routine data for the purpose of quality measurement or quality assurance, leaving state regulators “out of the loop” when it came to a popular data source for quality assessments. It was also around this time when state regulators were tasked with facilitating more open and transparent processes of quality control. A new, more transparent approach to quality governance is perhaps most evident in the 2005 mandate for public reporting, which obligated all hospitals to publish quality reports on a biennial basis (Messer and Reilley 2015). Various agencies and hospital associations were now required to collect and analyze a common set of quality indicators and assist hospitals with publishing quality information. This 2005 public reporting initiative was initially decoupled from the attempts by insurances to measure quality with the help of routine data. The AOK’s methods for measuring and assessing quality outlined in Sect. 5.1 were indeed their own, and thus not (yet) part of any larger state-led effort to govern quality. This changed, however, in 2007 with the passing of the “Act for Strengthening Competition in Statutory Health Insurance”. In the interest of supporting a more open and transparent quality assurance system, and more robust public reporting, lawmakers stipulated that routine data be used for purposes of external quality assurance: “the AOK’s routine data, which consists of the diagnoses and procedures that hospitals deliver in accordance with the German constitution, […], will henceforth be a foundation of the external quality assurance system for hospitals”.3 By making routine data accessible to state regulators, the 2007 law sought to eliminate the information asymmetry between regulators and regulates, and provide a common language which could describe quality in an objective, comparable, and open manner. As a result, routine data became a newly available instrument in the quest for transparency at the regulatory level. The following provides several examples of routine data has become an integral part of how quality assurance regulators measure, evaluate and monitor quality as part of a wider transparency project.

3Wissenschaftliche

Dienste des deutschen Bundestages (2007).

204

J. Reilley

The National Institute for Quality Assurance and Transparency (IQTiG) Routine data has become especially relevant in recent years as part of the quality indicator system at the National Institute for Quality Assurance and Transparency in Healthcare (IQTiG). With the help of routine data, teams of mathematicians and medical professionals at IQTiG develop quality indicators which hospitals are required to publish. IQTiG uses these indicators to identify suspicious levels of quality, compare hospital outcomes, and if necessary, follow-up with individual clinics that report discrepancies. As an instrument of quantification, IQTiG’s indicators are a key part of a public reporting system and on-going discussions with hospitals about corrective measures to poor performance. These indicators, building off of routine data, prioritize similar aspects of quality as the assessments made by the AOK in previous years—reported outcomes and diagnosis codes hold prominent positions in determining the overall quality of care. Risk adjustment calculations are also deemed crucial in the context of external quality assurance, although not all indicators have gone through risk adjustment processes. Meanwhile clinical guidelines, patient surveys,4 hospitals’ internal management control systems, and structure or process-oriented indicators, are marginal or nonexistent in shaping the thresholds to which hospitals are held to account. According to representatives at IQTiG, there are several reasons why routine data is so crucial to indicator development and continuous monitoring. The first is linked to the institute’s task to measure quality as experienced by the patient. In 2015, the Federal Joint Committee (Germany’s highest decision-making authority in healthcare) mandated that quality assurance for hospitals needed to be more transparent by including outcomes in its assessments of care. Accordingly, there has been a clear focus on measuring the success or failure of treatment based on results. One representative claims that results-oriented management has been a long-time focus of state-led quality assurance, “for a long time now, we have said that result quality is the most important [aspect of quality] “(IP 04). As discussed in Sect. 5.1, the AOK had been working to turn routine data, which emphasized output measures such as mortality, complication, and re-admission rates, into claims about quality. Such methods had become widely accepted and rather

4IQTiG

has recently opened a department for measuring patient experience and developing indicators from patient surveys. As of 2019, however, these measures only apply to one medical procedure and thus constitute a small part of quality assurance compared those indicators developed out of routine data.

Making Quality Transparent: How Quantification is Implicated in …

205

taken-for-granted by this time, and were thus perceived to be highly compatible with IQTiG’s new responsibilities. Second, for IQTiG, one core part of indicator development is finding a reliable and rigorous method for measuring hospital activity. In this context, routine data is seen as one of the most robust and precise ways to measure what is going on inside of a hospital. This is because, according to some, it is resistant to manipulation: as the results reported are entered into a IT system on the hospital level and automatically forwarded to insurance agencies, they cannot be altered or hidden from view. In this sense, routine data is seen as a more “objective” form of information about hospital activity (IP 01), which fulfills the demand for producing evidence that can be verified. Because of its emphasis on measurable outcomes, and because it could be directly reported to regulators, routine data has been accepted as a more “true” representation of hospital quality. However, in practice, routine data left out some other aspects of quality measurement, which had been developed in years prior by the AOK. For example, longitudinal measurement—tracking mortality, complicated, re-admission rates 30, 60, 90 days after release -disappeared from quality indicators. According to IQTiG representatives, incorporating such facets of quality measurement into systematic indicator development is a goal for the future. Moreover, unlike the AOK, IQTiG does not systematically provide feedback to all hospitals through clinical reports. Instead, routine data indicators are used to identify only the worst performing hospitals—those in the fifth percentile with regard to reported outcomes—and follow up with them individually.

State Level Quality Assurance Agencies Routine data has also played a crucial role in facilitating cooperation between IQTiG and sixteen different state level quality assurance agencies. Each of Germany’s federal states has its own quality assurance agency, which acts as an intermediary between state level insurance groups, hospital owners, state hospital groups and IQTiG. These agencies help set quality standards alongside professionals and collect the data published in quality reports. In accordance with IQTiG’s practice of utilizing routine data for the purpose of making quality evaluations, state agencies have adopted routine data into their own processes. Likewise to those working at IQTiG, representatives at this level see routine data as a solution to an efficiency problem. Without routine data as a source of information about quality, state agencies would be overrun with administrative tasks which are necessary for collecting “primary data”, i.e. information reported directly by service providers (IP 05). As new requirements for quality assurance have been

206

J. Reilley

placed on state agencies and hospitals over the years, routine data has increasingly become an attractive solution to the high costs associated with collecting and analyzing detailed information about hospital quality (IP 05). All routine data is automatically entered into a centralized system, which makes it easier for state agencies to send information to and receive information from hospitals. According to one interviewee, this helps streamline the data collection process and reduces any wasteful documentation, “we can look, we document a lot, at what is in the routine data. You check to see what you can take out of the routine data in order to avoid double work” (IP 05). Much like at IQTiG, the benefit of routine data is also attributed to its precision and level of standardization—it helps give hospitals a chance in calculating quality figures in a way that is expected of them by institutions such as the MDK, which conducts surprise inspections to verify quality information. Those working at state quality assurance agencies claim that routine data is absolutely necessary if hospitals are ever to have a chance in accounting for quality in the precise and thorough manner which was now legally mandated (IP 05).

State Level Hospital Associations Another key part of the external quality assurance apparatus is the participation of regional hospital associations. These institutions assist hospitals with the collection and analysis of quality data, as well as the implementation of internal quality management systems. Aside from these tasks, hospital associations also develop their own methods for quality assurance and quality measurement. Here too, one can find quality indicators being developed with the help of routine data. Each state has a method by which they develop indicators out of routine data. For instance, one state hospital association maintains a quality assurance system called QR Check, “here we have our own procedure, QR-Check. This is focused on developing quality indicators out of routine data, mostly that which is collected under § 21 of the Hospital Compensation Act, and to analyze them in a way that we can derive statements about quality, or quality indicators” (IP 03). One member claimed that the goal is to create comparable picture of quality which is widely accessible, and in that way operates on many of the same basic principles as the QSR project run by WIdO (IP 03).

Summary This section has shown how routine data has become a part of a state-led quality assurance system which has been increasingly structured by programs of transparency. Since being tasked with running a public reporting system, regulators have been granted the ability to use routine data for the purpose of measuring and

Making Quality Transparent: How Quantification is Implicated in …

207

evaluating quality. As a result, many have constructed quality indicators with the help of routine data, much like the AOK had started to do years prior. While quality assessments still privilege immediate outcomes—based on mortality, complication, and re-admission ratios—the methods of control have changed. As it is employed by IQTiG, routine data quality assessments are not the means to financial control, nor do they serve as learning tools for individual hospitals. Instead, routine data indicators are now central parts of how state regulators facilitate public reporting measures, monitor hospital quality and initiate follow up discussions about quality with individual hospitals. Data was embedded in processes which made existing calculations of quality—the numerical depictions of medical outcomes—public, and therefore susceptible to monitoring and verification by independent and external actors. Furthermore, routine data was seen as compatible with public reporting procedures and a wider ideal of transparency in quality governance for many of the same reasons AOK created routine data quality assessments in the first place. For instance, routine data was seen to add value as an objective and standardized way to guide regulatory attention. This exemplifies the power of numerical standards to travel and diffuse across organizational fields (Brunsson et al. 2012, p. 617 ff.). Another advantage of using routine data to create a clearer view of quality was that it was cost effective. State regulators, much like the AOK, saw routine data as a solution to a problem of efficiently collecting and analyzing data which could turned into comparable and reliable quality assessments. However, we also see that quantification practices can emerge as a means to one end, but eventually become a tool for enacting some other program in another time and place. Although adopted for reasons of eliminating “double-work”, routine data at IQTiG soon served alternative approaches to calculation, monitoring and control as those developed at the AOK.

6 Discussion This paper set out to trace the origins of quantification practices which have enacted various aspirations for making quality transparent. In doing so, it has argued that while quantification is often employed as a means for making abstract concepts and complex organizations more “knowable”, processes of quantification are rather problematic for several reasons. First, quantification is laden with political quests—not only for transparency as an end in itself, but more commonly, for transparency as a means to steering organizational activity “at a distance” (Miller and Power 2013; Robson 1992; Power 2007). Second, and related

208

J. Reilley

to the first point, quantification attempts to depict abstract concepts (such as quality) or complex organizations (such as hospitals) in simple and comparable terms. This doesn’t reveal the essence of quality or the hospital, but actually changes what can be “seen” by those doing the measuring and what modes of intervention are possible as a result. Using the case analysis above, the following reflects on some of the particularities of how transparency can be enacted across time and space through practices of quantification. First, over time, instruments of quantification allow governing actors to demand new kinds of information about hospital performance and observe new fields of activity. Mortality, complication and re-admission rates as well as diagnosis codes present external stakeholders with information about the medical appropriateness of certain procedures; it allows them to assess and compare different types of medical intervention, and diverse hospitals, against a handful of like categories. Routine data also allows insurance funds to assess the cost effectiveness of medical outcomes; it paved the way for the establishment of a national classification system for healthcare products (DRG); and eventually, routine data served as the basis for developing indicators which could be used to follow up with under-performing hospitals. However, its use toward these ends shapes the very notion of quality which gets circulated among actors external to the medical profession. For example, in privileging immediate outcomes and diagnosis codes, routine data pushes one particular aspect of quality into the evaluative spotlight, namely the results of medical procedures. There were some variations to this, as insurance funds experimented with risk adjustment calculations and longitudinal measurement, but overall, quality as it was defined through routine data consists of approximations of the final “output” phase of medical treatment. Processoriented indicators, structural aspects of quality, clinical guidelines, and patient surveys, all of which are legitimate means of assessing quality within the realm of healthcare (Donabedian 1980, 1992; Kopp 2011), are not represented in routine data. Therefore, quantifying quality with routine data does not produce a neutral form of transparency, presenting performance “as it really is”, but focuses on what is effective in an economic sense (August 2018, p. 135). Indeed, routine data is comprised of measures which are relatively easy to obtain (e.g. mortality and complication ratios) and leaves out that which is not easily reducible to numbers, i.e. the local situational context of medical treatment in the hospital. Taking this into consideration, we see that transparency is a variable concept which changes its character depending on the methods in place to enact visibility. In this sense, the practices of quantification and its linkages to statements about

Making Quality Transparent: How Quantification is Implicated in …

209

quality do not necessarily succeed or fail in capturing the essence of an organization (Pollitt 2013); likewise, it is difficult to evaluate how or to what extent performance measures successfully enact political goals or if the “wrong” measures lead to adverse and unwanted behavior among those being observed (Bevan and Hood 2006). Much more, we need to pay attention to how ideas about what constitutes a successful hospital or medical procedure are shaped through processes of measurement; how practices of quantification make up the “ontic furniture” for governance (Miller 1994). Accordingly, we see how, as new insights delivered through processes of quantifying and standardizing information about care quality unfold, they can open up new doors for what is possible in terms of control (cf. Revellino and Mouritsen 2015). This brings us to our second point, namely that practices of quantification can be easily adopted into modes of control. Quality assurance agencies, hospital associations, and insurances utilize routine data to create instruments that can monitor hospitals for the purpose of steering. Examples include more direct modes of intervention, such as when hospitals are visited by regulators on the basis of the statistical discrepancies they deliver in quality reports. Or when insurances use routine data to contest whether unnecessary (and therefore costly) treatment was provided. Routine data is also implicated in more indirect forms of control: for instance, routine data opens up possibilities for hospitals to compete with one another based on quality metrics. Another example of the power of routine data as a means to control can be found in the political sphere, where it is used to legitimize unpopular decisions. For instance, by creating a “good quality indicator” out of routine data, one could be sure that a particular hospital is “bad”, and therefore have legitimate means of closing it down or implementing corrective measures (IP 03). Following these examples, one could argue that transparency through quantification facilitates a specific, managerialistic, form of control over hospital activity. In line with many of the doctrines of New Public Management, quality governance in German healthcare is often enacted through the language of economics—results are prioritized and repeated attempts are made to couple “outputs” to “inputs” (diagnoses) in an effort to foster “value-for-money” control (Pollitt 1990, p. 5). Embedded in this approach is an assumption that management, with simple and clear statements about hospital performance, will turn broad political aspirations in to measurable outputs and outcomes and therefore yield better (more efficient) governance (cf. August 2018, p. 137; Pollitt 2016, p. 431). Sophisticated technologies, such as routine data, are seen as the primary means to accomplishing this—by reducing the complexity of medical treatment, routine

210

J. Reilley

data makes quality more amendable to assessments made by non-medical professionals—not just managers, but also government administrators and the lay public (cf. Kurunmäki and Miller 2008). Third, it is important to note that the emergence of more managerialistic styles of control do not necessitate that the medical profession plays a passive role in the wider push for transparency. Physicians do not simply suffer the quantitative measures imposed on them (Espeland and Sauder 2016; Strathern 2000), nor is professional autonomy deconstructed through quantitative approaches to governance (Schimank 2005). To the contrary, the case of routine data shows how professionals play an active role in making quality assessments more visible. Nearly all of the institutions mentioned here—insurance funds, state hospital associations, and quality assurance agencies—employ head physicians and specialists in a variety of medical fields. Alongside teams of mathematicians and data scientists, medical professionals worked to create quality indicators out of routine data. Projects such as QSR did not attempt to alter professional standards or offer alternatives to established medical-scientific knowledge. Rather, they sought to make this expert knowledge visible to the public through processes of quantification. In this sense, making quality transparent involves an attempt to widen the frame in which numbers are consumed (Vollmer 2007). Doing so requires enlisting not only those who can verify the calculative precision of indicators, but also professional actors who can attest to their relevance for the field of medicine. Fourth, besides the medical profession, there are other sets of actors who play an important role in making quality transparent. The AOK was one of the first organizations to create quality assurance projects and begin calculating quality indicators in a systematic way. These efforts were largely decoupled from state programs which explicitly demanded quality transparency. In fact, nearly five years separated the beginning of AOK’s mission to measure quality (circa 2000) and the state’s articulation of its own quest for transparency (circa 2005); there was a fifteen-year gap between the first signs of the quality assurance with routine data project (QSR, circa 2000) and eventual adoption of these methods into the national quality assurance apparatus (circa 2015). The case of routine data and the AOK provides a contrast to studies of other national contexts, where scholars have explained how the transparency project is an explicit (state-led) program which is enacted from a powerful center (Beaussier et al. 2016; Bevan 2008; Blomgren and Sahlin 2007). As governments decide to open up hospitals in the interest of facilitating more accountable and cost-effective service provision, regulated organizations are confronted with new mandates for public reporting or other systems of control. While the German case

Making Quality Transparent: How Quantification is Implicated in …

211

certainly contains similar developments, it also highlights that transparency does not have to begin as an explicit government program. Rather, the case of the AOK shows that the origins of practices which enact norms of transparency can emerge from beyond the state, i.e. from corporatist institutions like insurance funds. Thus, transparency initiatives do not always become implemented in a strict, “top-down” manner, but can emerge with the help of professional associations or semi-autonomous, cooperative civil society organizations. This could be due, at least in part, to Germany’s unique institutional structure, which spreads responsibility and influence for evaluating and controlling quality across a wide range of actors. In any case, familiar ideas about modernized public management and managerial control (Hood 2012) have to be qualified in the German case. Within this context, there are multiple locales from which transparency can be constructed. Moreover, it may be possible to identify alternative norms of NPM in action—ones which are expert driven or activated through networks of self-ruling democratic organizations. In sum, the goals to create traceable quality and the technologies which make these goals realizable can align with each other in interesting and unexpected ways. Hidden behind a rather taken-for-granted regime of quality assurance are shifting and ambiguous relationships between co-evolving norms of transparency and practices of quantification. It is unclear to what extent norms for transparency, embedded in NPM, drive the demand for “useful” or “good” methods of measurement; likewise, it difficult to pinpoint the extent to which quantification places demands on regulated organizations or professions to be more transparent. For the German healthcare sector, what is clear is that transparency and quantification are now indispensable parts of “good” healthcare governance. Following Maria Blomgren (2007), this will in all likelihood not abate any time soon, as transparency measures fuel the drive for more transparency. Taking the role of quantification seriously as a technology which helps fulfill this demand means that we will likely observe a continued proliferation of governing by numbers as well. What remains to be seen is how exactly these developments play out— how political goals (transparency included) become operationalized through instruments of quantification, or how objects of governance (such as quality) are constructed through quantification instruments. While this paper has laid the groundwork for the discussion of these questions, it will be the task for future research to investigate how norms of transparency and practices of quantification become aligned to exercise new forms power, and what this may look like.

212

J. Reilley

Appendix Interviews cited (conducted between January 2017 and July 2017) IP 01: Professor of Health Economics, former representative at National Institute for Quality and Patient Safety IP 02: Representative, Scientific Institute for Quality Assurance at the AOK (WIdO) IP 03: Head of quality assurance department, State Hospital Association IP 04: Representative of the National Institute for Quality Assurance and Transparency (IQTiG) IP 05: Representative of a state level quality assurance agency IP 06: Professor of medicine and independent consultant for quality assurance IP 07: Representative of the Scientific Institute for Quality Assurance at the AOK (WIdO) IP 08: Head physician

Abbreviations for institutions and technical terminology AOK—Statutory Health Insurance Fund (Allgemeine Ortskrankenkasse) BQS—National Institute for Quality and Patient Safety (Bundesgeschäftsstelle für Qualität und Patientensicherheit) DRG—Diagnosis Related Group (system for classifying hospital cases) MDK—Medical Service of the Health Insurance Funds (Medizinischer Dienst der Krankenkassen) InEK—National Institute for the Hospital Renumeration System (Institut für das Entgeltsystem im Krankenhaus) IQTiG—National Institute for Quality Assurance and Transparency (Institut für Qualität und Transparenz im Gesundheitswesen) QSR—Quality assurance with routine data-WIdO research project (Qualitätssicherung mit Routinedaten) WIdO—Scientific Institute for Quality Assurance at the AOK (Wissenschaftliches Institut der AOK)

Making Quality Transparent: How Quantification is Implicated in …

213

References Abernethy, M. A., Chua, W. F., Grafton, J., & Mahama, H. (2007). Accounting and control in health care. Behavioural, organisational, sociological and critical perspectives. In C. Chapman, A. G. Hopwood, & M. D. Shields (Eds.), Handbooks of management accounting research (pp. 805–829). Oxford: Oxford University Press. Albu, O. B., & Flyverbom, M. (2016). Organizational transparency. Conceptualizations, conditions, and consequences. Business and Society. https://doi.org/10.1177/0007650316659851. August, V. (2018). Theorie und Praxis der Transparenz: Eine Zwischenbilanz. Berliner Blätter, 21(76), 129–156. Beaussier, A.-L., Demeritt, D., Griffiths, A., & Rothstein, H. (2016). Accounting for failure. Risk-based regulation and the problems of ensuring healthcare quality in the NHS. Health, Risk & Society, 18(3–4), 205–224. Becker, A. (2014). Grenzen der Objektivität—Qualität von Qualitätsvergleichen. Das Krankenhaus, 106(10), 924–933. Beer, D. (2016). Metric power. London: Palgrave MacMillan. Bevan, G. (2008). Changing paradigms of governance and regulation of quality of healthcare in england. Health, Risk & Society, 10(1), 85–101. Bevan, G., & Hood, C. (2004). Targets, inspections, and transparency. British Medical Journal, 328(13), 598. Bevan, G., & Hood, C. (2006). What’s measured is what matters. Targets and gaming in the English public health care system. Public Administration, 84(3), 517–538. Blomgren, M. (2007). The drive for transparency. Organizational field transformations in swedish healthcare. Public Administration, 85(1), 67–82. Blomgren, M., & Sahlin, K. (2007). Quest for transparency. Signs of a new institutional era in the health care field. In T. Christensen & P. Lægreid (Eds.), Transcending new public management. The transformation of public sector reform (pp. 155–177). Aldershot: Ashgate. Bowerman, M., Raby, H., & Humphrey, C. (2000). In search of the audit society. Some evidence from health care, police and schools. International Journal of Auditing, 4(1), 71–100. Briers, M., & Chua, W. F. (2001). The role of actor-networks and boundary objects in management accounting change. A field study of an implementation of activity-based costing. Accounting, Organizations and Society, 26(3), 237–269. Brignall, S., & Modell, S. (2000). An institutional perspective on performance measurement and management in the ‘new public sector’. Management Accounting Research, 11(3), 281–306. Brunsson, N., Rasche, A., & Seidl, D. (2012). The dynamics of standardization. Three perspectives on standards in organization studies. Organization Studies, 33(5–6), 613–632. Bühler, M., & Heintz, B. (2017). Seen but not noticed. The role of comparisons in economic sociology. Economic Sociology: The European Electronic Newsletter, 18(3), 9–18. Burchell, S., Clubb, C., Hopwood, A. G., & Hughes, J. (1980). The roles of accounting in organizations and society. Accounting, Organizations and Society, 5(1), 5–27. Busse, R., Nimptsch, U., & Mansky, T. (2009). Measuring, monitoring, and managing quality in Germany’s hospitals. Value in Health Care, 28(2), 294–304.

214

J. Reilley

Chapman, C. S., Cooper, D. J., & Miller, P. B. (Eds.). (2009). Accounting, organizations, and institutions. Oxford: Oxford University Press. Cohen, M. D., March, J. G., & Olsen, J. P. (1972). Garbage can model of organizational choice. Administrative Science Quarterly, 17(1), 1–25. Dent, M. (2003). Remodelling hospitals and health professions in Europe. Medicine, nursing and the state. Hampshire: Palgrave Macmillan. Dent, M., Howorth, C., Mueller, F., & Preuschoft, C. (2004). Architype transition in the german health service. The attempted modernization of hospitals in a North German state. Public Administration, 82(3), 727–742. Donabedian, A. (1980). Explorations in quality assessment and monitoring (vol. 1). Ann Arbor: Health Administration Press. Donabedian, A. (1992). Quality assurance in healthcare. Consumers’ role. Quality in Health Care, 1(4), 247–251. Espeland, W. N., & Lom, S. E. (2015). Noticing numbers. How quantification changes what we see and what we don’t. In M. Kornberger, L. Justesen, A. K. Madsen, & J. Mouritsen (Eds.), Making things valuable (pp. 1–17). Oxford: Oxford University Press. Espeland, W. N., & Sauder, M. (2016). Engines of anxiety. New York: Russel Sage Foundation. Espeland, W. N., & Stevens, M. L. (1998). Commensuration as a social process. Annual Review of Sociology, 24, 313–343. Espeland, W. N., & Stevens, M. L. (2008). A sociology of quantification. European Journal of Sociology, 49(3), 401–436. Fligstein, N. (1998). The politics of quantification. Accounting, Organizations and Society, 23(3), 325–331. Fox, J. (2007). The uncertain relationship between transparency and accountability. Development in Practice, 17(4–5), 663–671. Gerlinger, T. (2009). Der Wandel der Interessenvermittlung in der Gesundheitspolitik. In U. Willems, T. Winter, & B. Rehder (Eds.), Interessensvermittlung in Politikfeldern. Vergleichende Befunde Der Verbände- und Policyforschung (pp. 33–51). Wiesbaden: VS Verlag. Glouberman, S., & Mintzberg, H. (2001). Managing the care of health and the cure of disease. Part I: Differentiation. Health Care Management Review, 26(1), 56–69. Griffiths, A., Beaussier, A.-L., Demeritt, D., & Rothstein, H. (2017). Intelligent monitoring. Assessing the ability of the care quality commission’s statistical surveillance tool to predict quality and prioritise NHS Hospital inspections. The BMJ, 26(2), 120–130. Grobe, T. G., Nimptsch, U., & Friedrich, J. (2014). Krankenhausbehandlung. In E. Swart, P. Ihle, H. Gothe, & D. Matusiewicz (Eds.), Routinedaten im Gesundheitswesen. Handbuch Sekundärdatenanalyse. Grundlagen, Methoden und Perspektiven (pp. 121–145). Bern: Huber. Hacking, I. (2002). Historical ontology. Cambridge: Harvard University Press. Han, B.-C. (2012). Transparenzgesellschaft. Berlin: Matthes & Seitz. Hansen, H. K. (2015). Numerical operations, transparency illusions and the datafication of governance. European Journal of Social Theory, 18(2), 203–220. Heald, D. (2006). Transparency as an instrumental value. In C. Hood & D. Heald (Eds.), Transparency. The key to better governance (pp. 59–74). Oxford: Oxford University Press.

Making Quality Transparent: How Quantification is Implicated in …

215

Heintz, B. (2010). Numerische Differenz. Überlegungen zu einer Soziologie des (quantitativen) Vergleichs. Zeitschrift für Soziologie, 39(3), 162–181. Heller, G., & Günster, C. (2008). Mit Routinedaten Qualität in der Medizin sichern. Aktuelle Entwicklungen und weitere Perspektiven. Gesellschaft und Gesundheit Wissenschaft, 8(1), 26–34. Heller, G., Swart, E., & Manksy, T. (2004). Qualitätsanalysen mit Routinedaten. Ansatz und erste Analysen aus dem Gemeinschaftsprojekt ‚Qualitätssicherung mit Routinedaten‘ (QSR). In J. Klauber, B. P. Robra, & H. Schnellschmidt (Eds.), Krankenhausreport 2003 (pp. 271–288). Stuttgart: Schattauer. Hood, C. (1991). A public management for all seasons. Public Administration, 69(1), 3–19. Hood, C. (1995). The ‘new public management’ in the 1980s. Variations on a theme. Accounting, Organizations and Society, 20(2–3), 93–109. Hood, C. (2006). Gaming in targetworld. The targets approach to managing british public services. Public Administration Review, 66(4), 515–521. Hood, C. (2007). Public service management by numbers. Why does it vary. Where has it come from. What are the gaps and the puzzles. Public Money and Management, 27(2), 95–102. Hood, C. (2012). Public management by numbers as a performance-enhancing drug. Two hypotheses. Public Administration Review, 72(1), 85–92. Hood, C., & Heald, D. (Eds.). (2006). Transparency. The key to better governance. Oxford: Oxford University Press. Hopwood, A. G. (1990). Accouting and organisation change. Accounting, Auditing & Accountability Journal, 3(1), 7–16. Jeschke, E., Heyde, K., & Günster, C. (2013). Der Zusammenhang von Komplikationen im Krankenhaus und im Follow-up und Implikationen für die Qualitätsmessung bei Hüftgelenksendoprothesen. Eine Analyse von AOK-Routinedaten. Gesundheitswesen, 75(5), 288–295. Kingdon, J. W. (2003). Agendas, alternatives, and public policies. New York: AddisonWesley Publishing Company. Kopp, I. B. (2011). Von Leitlinien zur Qualitättssicherung. Bundesgesundheitsblatt, 54(2), 160–165. Kornberger, M., & Carter, C. (2010). Manufacturing competition. How accounting practices shape strategy making in cities. Accounting, Auditing & Accountability Journal, 23(3), 325–349. Kurunmäki, L. (1999). Professional vs. financial capital in the field of health care. Struggles for the redistribution of power and control. Accounting, Organizations and Society, 24(2), 95–124. Kurunmäki, L., & Miller, P. (2008). Counting the costs. The risks of regulating and accounting for health care provision. Health, Risk & Society, 10(1), 9–21. Kurunmäki, L., & Miller, P. (2013). Calculating failure. The making of a calculative infrastructure for forgiving and forecasting failure. Business History, 55(7), 1100–1118. Kurunmäki, L., Mennicken, A., & Miller, P. (2016). Quantifying, economising, and marketising. Democratising the social sphere. Sociologie Du Travail, 58(4), 390–402. Lapsley, I. (1996a). Health care reforms. Solutions or problems. Financial Accountability & Management, 12(2), 83–87.

216

J. Reilley

Lapsley, I. (1996b). Reflections on performance measurement in the public sector. In I. Lapsley & F. Mitchell (Eds.), Accounting and performance measurement. Issues in the private and public sectors (pp. 109–128). London: Paul Chapman Publishing Ltd. Lapsley, I. (1999). Accounting and the new public management Instruments of substantive efficiency or a rationalising modernity. Financial Accountability and Management, 15(3–4), 201–207. Lapsley, I. (2016). New public management. The story continues. Financial Accountability & Management, 32(4), 385–408. Levay, C., & Waks, C. (2009). Professions and the pursuit of transparency in healthcare. Two cases of soft autonomy. Organization Studies, 30(2), 509–527. Llewellyn, S. (2001). Two-way windows. Clinicians as medical managers. Organization Studies, 22(4), 593–623. Llewellyn, S., & Northcott, D. (2005). The average hospital. Accounting, Organizations and Society, 30(4), 555–583. Mau, S. (2017). Das metrische Wir. Über die Quantifizierung des Sozialen. Berlin: Suhrkamp. Merry, S. E. (2016). The seductions of quantification. Measuring human rights, gender violence, and sex trafficking. Chicago: The University of Chicago Press. Merry, S. E., & Coutin, S. B. (2014). Technologies of truth in the anthropology of conflict. American Ethnologist, 41(1), 1–16. Messer, M., & Reilley, J. T. (2015). Qualitätsberichte als Vermittlungsinstanz im Wettbewerb zwischen Krankenhäusern. Patienten als rationale Akteure. Berliner Journal für Soziologie, 25(1–2), 61–81. Miller, P. (1994). Accounting as social and institutional practice. An introduction. In A. G. Hopwood & P. Miller (Eds.), Accounting as social and institutional practice (pp. 1–39). Cambridge: Cambridge University Press. Miller, P. (2001). Governing by numbers. Why calculative practices matter. Social Research, 68(2), 379–396. Miller, P., & Power, M. (2013). Accounting, organizing, and economizing. Connecting accounting research and organization theory. The Academy of Management Annals, 7(1), 557–605. Miller, P., & Rose, N. (1990). Governing economic life. Economy and Society, 19(1), 1–31. Miller, P., & Rose, N. (2008). Governing the present Administering economic, social and personal life. Cambridge: Polity. Modell, S. (2004). Performance measurement myths in the public sector. A research note. Financial Accountability & Management, 20(1), 39–55. Neyland, D., & Coopmans, C. (2014). Visual accountability. Sociological Review, 62(4), 1–23. Olsen, J. P. (2013). The institutional basis of democratic accountability. West European Politics, 36(3), 447–473. Palermo, T., Power, M., & Ashby, S. (2017). Navigating institutional complexity. The production of risk culture in the financial sector. Journal of Management Studies, 54(2), 154–181. Pflueger, D. (2015). Accounting for quality. On the relationship between accounting and quality improvement in healthcare. BMC Health Services Research, 15(1), 178–191.

Making Quality Transparent: How Quantification is Implicated in …

217

Pflueger, D. (2016). Knowing patients. The customer survey and the changing margins of accounting in healthcare. Accounting, Organizations and Society, 53(17), 17–33. Pollitt, C. (1990). Managerialism and the public services. The anglo-american experience. Oxford: Blackwell. Pollitt, C. (1996). Business approaches to quality improvement. Why they are hard for the NHS to swallow. Quality in Health Care, 5(2), 104–110. Pollitt, C. (2005). Performance management in practice. A comparative study of executive agencies. Journal of Public Administration Research and Theory, 16(1), 25–44. Pollitt, C. (2007). Hospital performance indicators. How and why neighbours facing similar problems go different ways. Building explanations of hospital performance indicator systems in England and the Netherlands. In C. Pollitt, S. van Thiel, & V. Homburg (Eds.), New public management in Europe. Adaptation and alternatives (pp. 149–164). Hampshire: Palgrave Macmillan. Pollitt, C. (2013). The logics of performance management. Evaluation, 19(4), 346–363. Pollitt, C. (2016). Managerialism redux. Financial Accountability & Management, 32(4), 429–447. Porter, T. M. (1995). Trust in numbers. The pursuit of objectivity in science and public life. Princeton: Princeton University Press. Porter, T. M. (2015). The flight of the indicator. In R. Rottenburg, S. E. Merry, S.-J. Park, & J. Muggler (Eds.), The world of indicators. The making of governmental knowledge through quantification (pp. 34–55). Cambridge: Cambridge University Press. Porter, M. E., & Guth, C. (2012). Redefining german health care. Moving to a value-based system. Heidelberg: Springer. Power, M. (1997). The audit society. Rituals of verification. Oxford: Oxford University Press. Power, M. (2004). Counting, control and calculation. Reflections on measuring and management. Human Relations, 57(6), 765–783. Power, M. (2007). Organized uncertainty. Designing a world of risk management. Oxford: Oxford University Press. Power, M. (2015). How accounting begins. Object formation and the creation of infrastructure. Accounting, Organizations and Society, 47, 43–55. Reilley, J. T., & Scheytt, T. (2017). Governing through quantification. Developing a calculative infrastructure for controlling quality in german hospitals. Risk & Regulation, 33, 18–21. Revellino, S., & Mouritsen, J. (2015). Accounting as an engine. The performativity of calculative practices and the dynamics of innovation. Management Accounting Research, 28, 31–49. Robson, K. (1992). Accounting numbers as ‘inscription’. Action at a distance and the development of accounting. Accounting, Organizations and Society, 17(7), 685–708. Rose, N., & Miller, P. (1992). Political power beyond the state. Problematics of government. The British Journal of Sociology, 43(2), 173–205. Sauder, M., & Espeland, W. N. (2009). The discipline of rankings. Tight coupling and organizational change. American Sociological Review, 74(1), 63–82. Schimank, U. (2005). ‘New public management’ and the academic profession. Reflections on the German situation. Minerva, 43(4), 361–376.

218

J. Reilley

Smith, P. (1995). On the unintended consequences of publishing performance data in the public sector. International Journal of Public Administration, 18(2–3), 277–310. Strathern, M. (2000). The tyranny of transparency. British Educational Journal, 26(3), 309–321. Timmermans, S. (2008). Professionals and their work. Do market shelters protect professional interests. Work and Occupations, 35(2), 164–188. Vogd, W., Feißt, M., Molzberger, K., Ostermann, A., & Slotta, J. (2018). Entscheidungsfindung im Krankenhausmanagement. Zwischen gesellschaftlichem Anspruch, ökonomischen Kalkülen und professionellen Rationalitäten. Wiesbaden: Springer VS. Vollmer, H. (2007). How to do more with numbers. Elementary stakes, framing, keying, and the three-dimensional character of numerical signs. Accounting, Organizations and Society, 32(6), 577–600. Werron, T. (2014). On public forms of competition. Cultural Studies—Critical Methodologies, 14(1), 62–76. Wieczorek, C. C., Marent, B., Osrecki, F., Dorner, T. E., & Dür, W. (2015). Hospitals as professional organizations. Challenges for reorientation towards health promotion. Health Sociology Review, 24(2), 123–136. Wissenschaftliche Dienste des deutschen Bundestages. (2007). Qualitätssicherung und Transparenz im Rahmen der Gesundheitsreform unter besonderer Berücksichtigung des Datenschutzes.

Jacob Reilley  (M.A.) is a research associate and doctoral candidate at the department for management accounting and control at the Helmut Schmidt University in Hamburg. He is a team member of the international research project “QUAD: Quantification, Administrative Capacity and Democracy”. The project scrutinizes the relationships between quantification, administrative capacity, and democracy across three policy sectors (health/hospitals, higher education/universities, criminal justice/prisons). Reilley’s research focuses on public sector organizations, regulatory reform, and social studies of accounting, with a particular emphasis on healthcare. His latest publications include “A Calculative Infrastructure in the Making: The Emergence of a Multi-Layered Complex for Governing Healthcare” in Research in the Sociology of Organizations (with T. Scheytt).

Massenüberwachung als Politik: Transparenz, Privatheit und die Geburt der Kryptopolitik Janosik Herder

We don’t have any proof that these mass surveillance programs are stopping terrorist attacks. But if you can’t show us that cells have been uncovered thanks to these measures, and yet you say these are absolutely necessary, why is that? Edward Snowden (2017) Um unterhalb seiner offenkundigen Dysfunktionen das wirkliche Funktionieren des Gefängnisses zu verstehen, um unterhalb der oberflächlichen Misserfolge seinen grundlegenden Erfolg zu begreifen, muss man zweifellos bis zu den parapönalen Kontrollinstanzen zurückgehen, zwischen denen es … im 17. und insbesondere im l8. Jahrhundert auftrat Michel Foucault (2002, S. 578)

Zusammenfassung

Privatheit ist eines der zentralen Probleme der Gegenwart. Das liegt insbesondere an der mittlerweile bekannten Massenüberwachung durch Geheimdienste und der allgemeinen Verbreitung von Informationstechnik. Mein Beitrag argumentiert, dass sowohl die Forderung nach informationeller Privatheit als auch die Praxis der Massenüberwachung als Ausdruck einer

J. Herder (*)  Universität Osnabrück, Osnabrück, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 V. August und F. Osrecki (Hrsg.), Der Transparenz-Imperativ, https://doi.org/10.1007/978-3-658-22294-9_9

219

220

J. Herder

spezifischen politischen Rationalität gedeutet werden können, die ich Kryptopolitik nenne. Diese Rationalität zeigt sich historisch zum ersten Mal mit der Verbreitung des Telegrafen, dem umfassenden Einsatz von Kryptografie und der neuen strategischen Bedeutung von Nachrichten im amerikanischen Bürgerkrieg. Kryptopolitik nimmt zentrale Elemente des theoretischen Wettstreits auf, die die Kryptografie auszeichnen, und verwandelt sie in ein politisches Kräfteverhältnis. Sie erkennt in der Transparenz von Kommunikation ein neues Feld politischer Auseinandersetzung. Die Idee der Kryptopolitik erlaubt schließlich eine Neubewertung der Rolle von Kryptografie als Mittel des Widerstandes gegen die Massenüberwachung.

Abstract

Particularly with the mass surveillance of security agencies and the general development of information technology privacy has evolved into a key problem of our present. In my contribution, I will argue that privacy and mass surveillance both articulate a specific political rationality I call cryptopolitics. This rationality—enabled historically by the spread of the telegraph, the use of cryptography and the new strategic importance of messages—identifies the transparency of communication as a new field of political struggle. Cryptopolitics takes up central elements of the theoretical struggle of cryptography and turns them into a political power relation. Eventually, my account of cryptopolitics allows an evaluation of the role cryptogprahy plays in resisting mass surveillance.

1 Einleitung Seit nun mehr sechs Jahren haben wir dank Edward Snowden den Beweis, dass auch der moderne demokratische Staat nicht ohne das unermüdliche Interesse an der Transparenz seiner Bürgerinnen zu haben ist.1 Die Enthüllungen über die sogenannte Massenüberwachung durch westliche Geheimdienste haben die Diskussion über Transparenz – die geforderte von staatlichen Praktiken wie auch die faktische der Bürgerinnen – und die Sehnsucht nach Privatheit angefacht.

1Für

konstruktive Hinweise und Anmerkungen zu früheren Versionen dieses Textes danke ich den Herausgebern Vincent August und Fran Osrecki, sowie Martina Franzen, Maren Heibges, Jacob Reilley und Andreas Schäfer.

Massenüberwachung als Politik Transparenz, Privatheit …

221

Die Massenüberwachung steht dabei sinnbildlich für das doppelte Problem eines demokratischen Staates, der trotz seiner liberalen Ideologie, erstens weiterhin Geheimnisse und Geheimdienste hat und das Leben seiner Bürgerinnen zweitens bis ins kleinste Detail transparent machen will. Der demokratische Staat ist damit in einer äußerst paradoxen Situation, die sich entweder als politische Notwendigkeiten auffassen lässt, ohne die auch demokratische staatliche Herrschaft unmöglich ist, oder als Skandal, der endlich korrigiert werden muss. Im ersten Fall lautet das Argument: Ohne die Transparenz der Bürgerinnen sei Politik gar nicht möglich, weil sie dann ineffizient wäre oder die demokratische Ordnung und Sicherheit ohne sie in Gefahr stünde. Im zweiten Fall lautet das Argument: Gerade die Massenüberwachung erodiere die Grundlage des demokratischen Staates, weil sie die informationelle Privatheit von Einzelnen oder Gruppen zerstöre. Die klassischen Erzählungen über die Massenüberwachung lauten demnach: Die Massenüberwachung von Geheimdiensten ist entweder notwendig und daher gerechtfertigt. Oder aber sie ist ein Skandal, der die informationelle Privatheit der Bürgerinnen verletzt. Gegen die transparent-machende Macht des Staates müssen wir im letzteren Fall das Recht auf Privatheit behaupten und technische Widerstandspraktiken wie das Verschlüsseln der eigenen Kommunikation praktizieren. Ich möchte in diesem Beitrag eine fundamentalere Frage stellen, nämlich danach, was das eigentlich für eine politische Rationalität ist, die sich in der Massenüberwachung ausdrückt. Dabei geht es ebenso wenig darum, Massenüberwachung oder Geheimdienste als notwendig für die Funktion demokratischer Staaten aufzufassen, wie es darum geht eine Theorie von informationeller Privatheit zu entwickeln, die sich gegen diese Praxis wenden ließe. Es gilt vielmehr nachzuvollziehen, wie diese politische Praxis überhaupt möglich ist, was dieses politische Handeln gewissermaßen mit Sinn versorgt und intelligibel macht. Mein grundlegendes Argument lautet, dass sich in dem Ringen um Privatheit und der Praxis der Massenüberwachung eine spezifische politische Rationalität ausdrückt, die wir bislang noch nicht ausreichend verstanden haben. Ich möchte zeigen, dass diese Rationalität historisch gesehen über die Kryptografie Einzug in die Politik hält – ich bezeichne diese Rationalität deshalb in Anlehnung an Michel Foucaults Idee der Biopolitik als Kryptopolitik. Kryptopolitik bezeichnet ein kommunikatives Kräfteverhältnis, das im Verstecken und gewaltsamen Sichtbarmachen von Kommunikation besteht. In diesem Kräfteverhältnis geht es darum, wer darüber entscheidet, welche Kommunikation transparent und welche verborgen ist – Macht ist für die Kryptopolitik die Entscheidung über die Transparenz von Kommunikation. Diese Machtvorstellung liegt implizit am Grunde der Idee der informationellen Privatheit und der informationellen Selbstbestimmung:

222

J. Herder

das Bedürfnis die Souveränität über die Sichtbarkeit und Unsichtbarkeit von Information zu erlangen. Diese Forderung ist aber überhaupt erst möglich oder sinnvoll, wenn wir eine politische Rationalität voraussetzen, die es erlaubt, Politik als kommunikatives Kräfteverhältnis zu denken. Diese Idee entwickelt sich im modernen Sinne ungefähr in der Mitte des 19. Jahrhunderts – und es ist vielleicht erst vor dem Hintergrund der Zuspitzung der Auseinandersetzung der letzten Jahre und den sich vermehrenden Widerständen möglich, diese Entwicklung etwas klarer zu analysieren. Die Idee der Kryptopolitik ist ein Vorschlag, wie wir das wichtige und immer noch wenig untersuchte Verhältnis von Politik und Informationstechnik2 denken können. Ich werde zunächst knapp die Diskussion zum Begriff der informationellen Privatheit rekonstruieren und zeigen, dass es ein politisches Problem der Privatheit gibt, das sich nicht auf die rechtliche oder deliberative Dimension bezieht, sondern ein wirkliches Kräfteverhältnis artikuliert. Anschließend werde ich in einer genealogischen Untersuchung nachverfolgen, woher dieses Kräfteverhältnis stammt. Ich werde zeigen, wie unter anderem mit der Entwicklung von Kommunikations- und Informationstechnik eine neue Transparenzproblematik entstanden ist, das heißt auch eine neue Art und Weise, auf die die Sichtbarkeit und Unsichtbarkeit von Nachrichten politisch entscheidend wird. Die politische Bedeutung dieser informationstechnischen Transparenz zeigt sich zum ersten Mal in Gänze im amerikanischen Bürgerkrieg, in dem der elektromagnetische Telegraf und der Einsatz von Kryptografie eine Art informationelles Double des Bürgerkrieges auf der Ebene der Kommunikation produzieren. Dieses Verhältnis analysiere ich anschließend mit Michel Foucaults Begriff des Wahrheitsspiels und zeige, wie sich das Kräfteverhältnis der Kryptografie zunehmend in eine genuin politische Rationalität wandelt, die das Sichtbarmachen und Verstecken von Information zu einem essenziellen Element von Politik erhebt. Am Ende reflektiere ich die Bedeutung des von mir gemachten Arguments für die aktuelle Diskussion über Massenüberwachung und Privatheit insbesondere im Hinblick auf die Idee, Kryptografie sei das probateste Mittel des Widerstandes gegen die Massenüberwachung.

2Ich

werde in diesem Aufsatz von Informationstechnik sprechen und nicht von Informationstechnologie, da im deutschen Technik, wie häufig angemerkt, der passendere Begriff ist. Informationstechnik bezieht sich dabei nicht ausschließlich oder primär auf Informationsmaschinen, sondern im weitesten Sinne auf ‚Kulturtechniken‘, die mit Information zu tun haben. Auch meine ich, wenn ich von Informationstechnik spreche, kein strukturell bestimmendes Medium. Informationstechniken sind historische Gewordenheiten, die durch bestimmte Praktiken und Wissensverhältnissen ermöglicht werden.

Massenüberwachung als Politik Transparenz, Privatheit …

223

2 Das politische Problem der informationellen Privatheit Der Begriff der Privatheit bezieht sich gegenwärtig nicht primär auf die historisch und theoretisch wichtige Trennung von privat und öffentlich, der Raymond Geuss (2002) eine einsichtsreiche Genealogie gewidmet hat. Es geht in der aktuellen Diskussion vielmehr um die jüngere Idee der informationellen Privatheit (etwa: Shoeman 1992; Nissenbaum 2009; Schmale und Tinnefeld 2014; Diffie und Landau 2007; Hotter 2011; Lever 2006, 2012; Schaar 2007). Die informationelle Privatheit, die in Form des Rechts auf informationelle Selbstbestimmung etwa in Deutschland seit der Entscheidung des Bundesverfassungsgerichts 1983 zu den Grundrechten gehört, ist in den vergangenen Jahren in den Mittelpunkt auch der sozialwissenschaftlichen Diskussion gerückt. Der gegenwärtige Diskurs zur politischen Bedeutung des Begriffs der informationellen Privatheit lässt sich auf zwei Arten systematisieren: Einmal wird Privatheit als normativ-rechtliches Problem verstanden. Und ein anderes Mal als deliberativ-prozedurales Problem. Die erste Lesart macht aus dem Problem der Privatheit vor allem ein normatives Problem, das bedeutet, Privatheit wird zu einem Problem von richtig oder falsch bzw. wünschenswert oder nicht-wünschenswert. Das normativ-rechtliche Problem der Privatheit drückt sich dann zum Beispiel in der fehlenden Verrechtlichung bestimmter sozialer Normen aus. Die zweite Lesart macht aus Privatheit einen wichtigen Faktor für die demokratische Deliberation. Fehlende Privatheit wird hier zu etwas, das das Verfahren der Deliberation behindert oder verzerrt. Normativ-rechtlich gesehen ist Privatheit zunächst ein Problem des Verständnisses und der Umsetzung von Normen und ihrer Bedeutung. Klassischerweise ist die Idee der Privatheit ein individuelles Recht oder eine auf Individuen bezogene Norm, die sich relativ leicht aus der liberalen Theorie ableiten lässt, und die traditionell rechtlich geschützt wird (Briefgeheimnis, Schutz der eigenen Wohnung etc.). Diese noch von John Stuart Mill stammenden Vorstellung einer individuellen Privatsphäre wurde in den vergangenen Jahren um die Idee eines kollektiven Rechts auf Privatheit erweitert. Die Idee ist, Privatheit nicht nur als ein individuelles Freiheitsrecht, sondern auch als ein gesellschaftliches Gut anzusehen, das geschützt werden müsse (Seubert 2012, S. 104). Das Recht auf Privatheit ist also nicht nur aus Gründen der individuellen Freiheit zu schützen oder von dieser abzuleiten, sondern auch, weil es normative Relevanz für die Gesellschaft selbst hat. Die zentrale Forderung, die sich aus dieser Diskussion ableitet, ist die Verrechtlichung der grundlegenden, normativen Einsicht in den sozialen Wert der Privatheit (Rössler 2001).

224

J. Herder

Die zweite politische Lesart von Privatheit betrifft die deliberativ-prozedurale Dimension. Wenn Demokratie vor allem als freie und selbstbestimmte Kommunikationsgemeinschaft verstanden wird, dann ist Privatheit und insbesondere deren Achtung zentral, weil sie den Einzelnen kommunikative Freiheit zuerkennt. Die Bedeutung der Privatheit besteht für die zweite Lesart darin, dass sie „den Wert des Privaten demokratietheoretisch von der jeweils selbstbestimmten kommunikativen Enthüllung des Privaten als freiem Kommunikationsakt innerhalb einer freien Kommunikationsgemeinschaft her deutet“ (Becker und Seubert 2016, S. 76). Privatheit ist die normative aber auch faktische Voraussetzung für kommunikative Freiheit – denn ohne die Anerkennung von Privatheit verliert die Einzelne die Entscheidung darüber, freiwillig zu kommunizieren. Beate Rössler und Dorota Mokrosinska (2013, S. 785) spitzen diese Überlegung zu und argumentieren, Privatheit sei „necessary for social interactions themselves“ und damit relevant für die Integration der Gesellschaft selbst. Deliberativ-prozedural gesehen geht es also nicht allein um die normative Vorstellung von Privatheit und ihre Verrechtlichung, sondern auch um die Einsicht, dass fehlende Privatheit das demokratische Verfahren und den Zusammenhalt der Gesellschaft selbst gefährdet. Diese beiden politischen Lesarten führen in erster Linie zur Forderung nach der Anerkennung einer Norm der Privatheit. Gegen die Massenüberwachung ließe sich dann etwa ein individuelles oder kollektives Recht auf Privatheit stellen. Die zentrale Frage wäre in diesem Fall, ob die beiden Auslegungen von Privatheit überhaupt geeignet sind, diese Forderungen zu begründen. Titus Stahl weist zu Recht darauf hin, dass die Legitimität der Forderung nach Privatheit vor allem mit unserer Vorstellung von Macht zusammenhängt. Sehen wir Macht nur als direkte Beeinflussung des Handelns von Individuen, dann ist die Massenüberwachung nur sehr indirekt eine Form der Machtausübung und daher auch aus der Perspektive der liberalen Theorie wenig skandalös. Stahl (2016, S. 36) plädiert deshalb dafür, Macht als Entscheidung über autonome Kommunikationsräume zu verstehen, etwa von Gruppen, die entscheiden, wer an einer bestimmten Kommunikation beteiligt sein kann und wer nicht. Verlieren Einzelne oder Gruppen die Entscheidungsgewalt über ihre Kommunikationsräume, etwa weil sie permanent überwacht würden, würden sie in ihren individuellen oder kollektiven Rechten eingeschränkt. Die Massenüberwachung wäre so in jedem Fall kritikwürdig. Ich möchte dieses Verhältnis von Macht und Privatheit genauer analysieren. Der Begriff der Privatheit ist nicht gleichbedeutend mit individueller und kollektiver Autonomie und er ist ebenfalls nicht gleichbedeutend mit Diskretion. Der Begriff steht gewissermaßen zwischen den Konzepten der Autonomie und der Diskretion und funktioniert als Scharnier zwischen beiden Vorstellungen. Einerseits wollen wir mit dem Begriff der Privatheit betonen, dass es einen Bereich

Massenüberwachung als Politik Transparenz, Privatheit …

225

gibt, der potenziell unsichtbar oder verborgen ist. Andererseits entspringt erst aus dieser potenziellen Unsichtbarkeit eine individuelle oder kollektive Autonomie. Man könnte Privatheit als Konzept bezeichnen, bei dem es darum geht, über die Sichtbarkeit oder Unsichtbarkeit – also über die Transparenz – bestimmter Dinge individuell oder kollektiv zu entscheiden. Die interessante Frage hier ist Was ist das eigentlich für eine Form von Macht, die sich in der Massenüberwachung und der Forderung nach Privatheit ausdrückt? Können wir die Massenüberwachung und das Ringen um Privatheit selbst als spezifische Form der Macht oder eine spezifische politische Rationalität auffassen? Ich denke, wir haben bislang noch keine ausreichenden Mittel an der Hand, um die politische Rationalität zu verstehen, die sich in den Phänomenen ausdrückt – und daher auch noch keine wirkliche Möglichkeit der Kritik. Ich werde im Folgenden versuchen zu zeigen, dass die politische Dimension der Privatheit nicht auf der rechtlichen oder prozeduralen, sondern auf der Ebene der Geschichte der Kräfteverhältnisse gesucht werden muss, die Privatheit und Massenüberwachung als politischen Schauplatz konstituiert. Um diese Idee plausibel zu machen und am Ende wiederaufzunehmen, müssen wir zunächst auf die historische Genese dieses Kräfteverhältnisses eingehen.

3 Informationstechnik und Transparenz Die Idee eines Rechts auf informationelle Privatheit wurde wahrscheinlich zum ersten Mal von Samuel Warren und Louis Brandeis im Jahr 1890 formuliert. In einem Aufsatz bestimmen sie informationelle Privatheit im Anschluss an die Rechtsprechung des amerikanischen Verfassungsrichters Thomas Cooley als das Recht, alleine oder in Ruhe gelassen zu werden. Interessant ist an dem Aufsatz (Warren und Brandeis 1890, S. 195), dass beide dieses Recht vor allem mit neuen Erfindungen und neuen Geschäftspraktiken begründen: „Recent inventions and business methods call attention to the next step which must be taken for the protection of the person, and for securing to the individual what Judge Cooley calls the right ‚to be let alone‘.“

Insbesondere informationstechnische Erfindungen wie der Telegraf, die Fotografie oder Zeitungen machten für Warren und Brandeis die Entwicklung dieses neuen Rechts notwendig. Informationelle Privatheit ist von Anfang an ein Problem, das sich auf der Grundlage der Nutzung von bestimmten Informationstechniken stellt. Beim Zusammenhang von Privatheit und Informationstechnik geht es nicht

226

J. Herder

nur um aktuelle Beispiele wie die Massenüberwachung durch Geheimdienste, die ohne die Verallgemeinerung von Informationstechnik nicht denkbar ist. Es geht auch um grundlegende Informationstechniken wie die Post oder die Zeitung. Das gegenwärtige Problem der Privatheit ist demnach in erster Linie eines vor dem Hintergrund der Verbreitung von Informationstechnik. Wenn wir diese Tatsache ernst nehmen, heißt das, dass wir die politische Bedeutung von Privatheit nicht abgetrennt von der Geschichte der Informationstechnik als bloß normative oder rechtliche Angelegenheit behandeln sollten. Der Aufsatz von Warren und Brandeis zeigt, dass die Forderung eines Rechts auf informationelle Privatheit erst vor dem Hintergrund der Verallgemeinerung von Informationstechnik Sinn ergibt. Die Geschichte der Informationstechnik ist lang, auf den ersten Blick kompliziert und wenig eindeutig, sie beginnt mal mit den Signalfeuern der Antike (Aschoff 1984, 1987; Oberliesen 1987), mal mit der Aufklärung (Headrick 2000), mal mit dem elektromagnetischen Telegrafen in den USA (Standage 1999; John 2010), dem Transistor (Riordan und Hoddeson 1998) oder dem Internet (Dutton et al. 1999). Ungeachtet der Differenzen über den genauen Anfang geht es in allen Fällen um die Nutzung von Techniken zur Kommunikation. Diese Techniken, sowie das Wissen, welches an sie geknüpft ist, ermöglichen aber nicht nur Kommunikation – sie produzieren auch Transparenz. Die Mittel, die Möglichkeiten der Kommunikation schaffen, sind zunächst und sehr direkt auch Mittel, die bestimmte Dinge sichtbar machen. Das Signalfeuer, der Brief, das Telegramm, die modulierte Stimme des Telefons, die in Pakete zerlegte Datei – all das ist Kommunikation, aber im Akt des Kommunizierens wird all das auch potenziell transparent. Je verbreiteter diese Mittel der Kommunikation genutzt werden, desto mehr zeigt sich Transparenz als informationstechnisches Problem. Wir haben mittlerweile klarere Vorstellungen über die historische Dimension von Transparenz (Hood 2006; Rzepka 2013) und ihre Rolle in konkreten organisatorischen Praktiken (Strathern 2000; Osrecki 2015). Aber Transparenz hat auch eine zentrale politische Bedeutung, die mit der Geschichte der Informationstechnik verbunden ist. Sprechen wir über informationelle Privatheit, ist es wichtig, die damit zusammenhängende Transparenzproblematik vor dem Hintergrund der Geschichte der Informationstechnik zu verstehen. Der Telegraf zum Beispiel machte persönliche Nachrichten auf unmittelbare Weise sichtbar – die Nachrichten wurden auf ihrem Weg zur Empfängerin von dutzenden Augen gelesen, etwa den Mitarbeitern der Telegrafenbüros (Kahn 1996, S. 189). Die Einführung des von Samuel Morse entwickelten elektromagnetischen Telegrafen in den USA wurde deshalb passenderweise durch ein Buch seines Geschäftspartners Francis Smith begleitet. In diesem erfolgreichen Buch legte Smith einfache Verfahren zur Verschlüsselung persönlicher Nachrichten dar (Smith 1845). Dieser Zusammenhang war kein Zufall.

Massenüberwachung als Politik Transparenz, Privatheit …

227

Die Nachrichten, die der Telegraf – einer beliebten Metapher der Zeit nach – als Blitze durch die ganze Nation schickte (John 2010, S. 45), wurden nicht nur auf bisher ungeahnt rasche Weise übertragen. Sie wurden auch auf eine neue und radikale Weise transparent. Ein erstaunliches Beispiel für die politische Bedeutung der Transparenz von Informationstechnik finden wir in der amerikanischen Geschichte des 19. Jahrhunderts. Der vielleicht wichtigste informationstechnische Einschnitt im 19. Jahrhundert war die Einführung des elektromagnetischen Telegrafen. In den USA wurde der Telegraf nicht nur mit Euphorie, sondern auch mit einiger Skepsis begrüßt. Nicht nur Henry David Thoreau hegte eine – vielleicht wenig verwunderliche – Abneigung gegen den Telegrafen. Es ist auch belegt, dass der spätere Präsident Abraham Lincoln zunächst kein Freund der Technologie war (John 2010, S. 109). Thoreau, wie zunächst auch Lincoln, argumentierte, der Telegraf sei bloße Spielerei und lenke die Menschen von wichtigeren Fragen ab. „Wir beeilen uns stark“, so Thoreau, „einen magnetischen Telegrafen zwischen Maine und Texas zu konstruieren, aber Maine und Texas haben möglicherweise gar nichts Wichtiges miteinander zu besprechen“ (Thoreau 1979, S. 61). Der schnelle Austausch von Nachrichten zwischen weit entfernten Orten schien für beide zunächst keine wirkliche Relevanz zu besitzen. Nach Beginn des amerikanischen Bürgerkriegs im Jahr 1861 änderte sich die Einstellung Lincolns – der mittlerweile Präsident war – allerdings grundlegend. Erstens gelangte er zu der Einsicht, dass der Telegraf und die Kommunikation, die er ermöglichte, wesentliche Voraussetzungen waren, ein Land von der Größe der USA zu regieren. So erklärt Lincoln (1862) in seiner Rede vor dem amerikanischen Kongress im Dezember 1862: „That portion of the earth’s surface which is owned and inhabited by the people of the United States is well adapted to be the home of one national family, and it is not well adapted for two or more. Its vast extent and its variety of climate and productions are of advantage in this age for one people, whatever they might have been in former ages. Steam, telegraphs, and intelligence have brought these to be an advantageous combination for one united people“.

Wir sehen hier, wie die in der Geschichte der Demokratietheorie virulente Frage des Zusammenhangs von Regierungsform und Größe des Landes von Lincoln – ähnlich wie schon bei den Federalists (Hamilton et al. 2004, S. 14. Artikel) – durch Kommunikations- und Transportmittel gelöst wird. Durch Kommunikationsmittel wird die effektive Regierung eines großen Territoriums möglich. Der zunächst ungeliebte Telegraf wird für Lincoln über den Aspekt der Kommunikation zu einem nützlichen Mittel der Regierung.

228

J. Herder

Etwas schwieriger zu fassen, aber für Lincoln zentral, ist zweitens die politische Bedeutung der Transparenz von Kommunikation. Wenn wir auf die Rolle von Kommunikation und Aufklärung im amerikanischen Bürgerkrieg schauen, sehen wir, dass der Telegraf auch deshalb zu einem wichtigen politischen Mittel wurde, weil er im Bürgerkrieg für die Nordstaaten eine entscheidende Rolle spielte. Die militärische Praxis während des Bürgerkriegs offenbart, dass ein entscheidender politischer Aspekt des Telegrafen seine sichtbar-machende Kraft war. John Nicolay und John Hay, Lincolns Privatsekretäre während des Bürgerkriegs, berichten in ihrem zehnbändigen Werk Abraham Lincoln: A History rückblickend Folgendes über den Präsidenten und seine Beziehung zum Telegrafen: „He centered the telegraph in the War Department, where the publication of military news, which might prematurely reach the enemy, could be supervised, and, if necessary, delayed. […] [I]t was Lincoln’s practice to go as informally to Stanton’s office [his War Secretary] at the War Department, and in times of great suspense, during impending or actual battles, to spend hour after hour with his War Secretary, where he could read the telegrams as fast as they were received and handed in from the adjoining room“ (Nicolay und Hay 1890, Band V, S. 142–143). „[H]is thoughts by day and anxiety by night fed upon the intelligence which the telegraph brought from the Union camps on the Chickahominy and the James. It is safe to say that no general in the army studied his maps and scanned his telegrams with half the industry – and, it may be added, with half the intelligence – which Mr. Lincoln gave to his“ (Nicolay und Hay 1890, Band VI, S. 114).

Die Benutzung des Telegrafen im Bürgerkrieg, sowohl durch den von Präsident Lincoln angeführten Norden, als auch durch die konföderierten Südstaaten, zeigt, dass die Transparenz von Informationstechnik auf zwei Weisen politisch zentral wird. Die erste Weise hängt mit der einfachen Tatsache zusammen, dass an einem Ort Nachrichten von vielen Orten relativ zeitnah eingehen und ausgewertet werden. Der Telegraf macht auf diese Weise den Krieg für den Präsidenten im Kriegsministerium auf eine völlig andere Weise transparent, als er etwa für Napoleon transparent war, der eine Schlacht von einem naheliegenden Hügel verfolgte.3

3Daniel Bell schildert die Art Sichtbarkeit, die Napoleon vom Krieg hatte, in seiner Biographie eindrücklich: „He [Napoleon] had a nearly photographic memory and the ability to visualize the positions of thousands of men in scores of separate units, along with salient details about munitions and supplies. He could see in a moment how to maneuver everything for maximum effect“ (Bell 2015, S. 26). Und: „The night before [the battle], Napoleon rode up to the heights overlooking the field, lit brilliantly by moonlight, to observe the enemy ­positions“ (Bell 2015, S. 29).

Massenüberwachung als Politik Transparenz, Privatheit …

229

Die unermüdlich eintreffenden Nachrichten von den Kriegsschauplätzen an einem zentralen Ort machten das, was man gemeinhin als Krieg bezeichnete, auf eine völlig andere Weise sichtbar. Es ist eine durch Nachrichten und Informationen geschaffene Sichtbarkeit, eine andere Schlacht, die nicht mehr im eigentlichen Sinne erfahrbar ist, sondern über das Sammeln von Informationen eine neue, andere Art der Sichtbarkeit erlangt. In den Akten der Kommunikation von Nachrichten manifestierte sich so eine ganz bestimmte und neue Transparenz des Bürgerkriegs.4 Die informationstechnische Transparenz war aber noch auf eine zweite, sehr interessante Weise relevant für Lincoln. Denn nicht nur die eigene Nutzung des Telegrafen erzeugte eine bestimmte Sichtbarkeit des Krieges, die telegrafische Kommunikation der Südstaaten sollte sich für die von Lincoln angeführten Nordstaaten als noch viel nützlicher erweisen. Die durch die Informationstechnik erzeugte latente Transparenz schaffte auch die Möglichkeit, dass genau diese vom Feind ausgenutzt wird. Gerade im Krieg ist es entscheidend, dass die eigene Kommunikation für den Gegner nicht transparent ist. Es ist belegt, dass die Südstaaten ihre Nachrichten auf eine solch schlechte Weise verschlüsselten, dass es für die Mitarbeiter des Kriegsministeriums des Nordens kein Problem war, die Kommunikation des Feindes fast vollständig mitzulesen (Bates 1907). Hier sorgt die Informationstechnik auf eine noch radikalere und politisch absolut zentrale Weise für Transparenz, indem nämlich gegen den Willen des Gegners dessen Kommunikation transparent wird. Die erste, durch die Informationstechnik entstandene Sichtbarkeit des Kriegsgeschehens wird dann für den Feind zu einer neuen, unschätzbar wertvollen Einsicht in das Denken des Gegners selbst. Diese neue Sichtbarkeit war ohne Frage außerordentlich kritisch und wurde in besonderem Maße entscheidend für die Kriegshandlungen: „When a battle was in progress, the President would look over the shoulders of the young cipher operators as an especially important message was being deciphered“ (Kahn 1996, S. 216). Beim Abfangen von Nachrichten wird aus der Transparenz, die Informationstechnik schafft, eine entscheidende politische Tatsache. Nicht nur produziert der Telegraf also eine neue Sichtbarkeit des Krieges, die vorher undenkbar schien – er produziert einen neuen Krieg, der auf der Ebene der ­Kommunikation selbst ausgetragen wird.

4Siehe für die Unterscheidung der Schlachtformation der optisch-akustischen Präsenz und der Kriegführung auf telegrafischem Niveau vor allem Teil I und II in Kaufmann (1996). Ebenso wie für Paul Virilio das Kino entscheidend für die Sichtbarkeitsordnung des Zweiten Weltkriegs ist (Virilio 1988), ist der Telegraf entscheidend für die Sichtbarkeitsordnung des amerikanischen Bürgerkriegs.

230

J. Herder

4 Der Einbruch der Kryptografie in die Politik Wenn wir akzeptieren, dass Informationstechnik Transparenz produziert, dann formulieren wir ein Problem, das historisch schon länger eine Rolle unter dem Begriff der Kryptografie spielt. Das Hauptproblem der Kryptografie ist es, die Transparenz, die Informationstechnik im Akt der Kommunikation erzeugt, wieder einzufangen, um die Nachrichten, die einfach gelesen werden könnten, der Sichtbarkeit zu entziehen. Grundsätzlich gibt es zwei Möglichkeiten, die Transparenz einer Nachricht zu verhindern: Die erste, die Steganografie, versteckt die Nachricht selbst – man schreibt etwa einen Brief mit Zitronensäure und die Nachricht wird erst dann sichtbar, wenn der Brief erwärmt wird. Die andere Weise, die Kryptografie, versteckt nicht die Nachricht, sondern den Inhalt der Nachricht, indem sie ihn durch ein Verfahren unverständlich macht. Weil die Steganografie in vielen Fällen unpraktisch ist, setzt man im Grunde seit dem Telegrafen auf kryptografische Verfahren. Die simpelste Form der Kryptografie ist die Verschlüsselung mit einem einzigen Alphabet (monoalphabetische Substitution), zum Beispiel mit der Caesar-Verschlüsselung (Beutelspacher 2015, S. 5). Man nimmt eine beliebige Nachricht (HALLO) und verschiebt jeden Buchstaben um zwei Stellen im Alphabet (JCNNQ). Die Nachricht ist nun verschlüsselt und lässt sich wieder entschlüsseln, wenn die Empfängerin weiß, um wie viele Stellen das Alphabet verschoben wurde. Das Wissen, um wie viele Stellen verschoben wurde, kann man in diesem Fall als Schlüssel zur Nachricht bezeichnen. Denn er schließt die eigentliche Nachricht (HALLO) wieder auf. Ich kann die verschlüsselte Nachricht nun versenden und weiß, dass nur derjenige die Nachricht entschlüsseln kann, der weiß, wie die Nachricht verschlüsselt wurde. Fängt eine Dritte diese Nachricht ab, so kann sie mit ‚JCNNQ‘ natürlich nichts anfangen. Die Kunst eine verschlüsselte Nachricht zu entziffern, ohne den Schlüssel zur Nachricht zu kennen, bezeichnet man heute als Kryptanalyse.5 Für das Beispiel der Caesar-Verschlüsselung könnte ein Kryptanalyst zum Beispiel probehalber die einzelnen Buchstaben so lange um eine Stelle im Alphabet verschieben, bis er eine verständliche Nachricht erhält.

5Die

heute üblichen Begrifflichkeiten gehen größtenteils auf Arbeiten von William Friedman für das amerikanische Militär zurück (etwa Friedman 1924), in denen dieser die unklaren und mehrdeutigen Konzepte zunächst ordnete und Definitionen festlegte, die bis heute genutzt werden.

Massenüberwachung als Politik Transparenz, Privatheit …

231

Die Geschichte der Kryptografie zeigt, dass die Entwicklung von Informationstechnik eng verbunden ist mit der Entwicklung von Techniken des Versteckens und Unsichtbar-machens. Aus der Perspektive der kryptografischen Geschichtsschreibung ereignet sich immer dann etwas Neues, wenn eine hergebrachte Art und Weise des Verschlüsselns, die als sicher galt, gebrochen werden kann. Es bedarf dann der Entwicklung neuer Arten und Weisen des Verschlüsselns, die dann wiederum geknackt werden müssen usw. – die Geschichte der Kryptografie ist deshalb die Geschichte des Wettkampfes zwischen Systemen der Verschlüsselung und ihrer Zerstörung. So erklärt Simon Singh (2000, S. XIII).: „The history of codes and ciphers is the story of the centuries-old battle between codemakers and codebreakers, an intellectual arms race that has had a dramatic impact on the course of history“. Dieser Wettkampf, der historisch zweifellos rekonstruiert werden kann, spielte politisch zunächst keine entscheidende Rolle. Der von Singh behauptete ‚dramatische‘ Einfluss der Kryptografie auf den Lauf der Geschichte lässt sich in einigen Fällen vermuten, aber nicht immer belegen. Ein bezeichnendes Beispiel ist die lange als unzerstörbar geltende Vigenère-Chiffre, deren Erfindung im 16. Jahrhundert unter anderem Blais de Vigenère (genauer: Kahn 1980) zugeschrieben wird. Diese Art und Weise der Verschlüsselung war tatsächlich lange sicher, sie wurde dann vermutlich zunächst in den 1850er Jahren von Charles Babbage und schließlich 1863, inklusive Veröffentlichung, von Friedrich Kasiski geknackt (Kasiski 1863). Die Vigenère-Verschlüsselung galt allerdings in der Praxis weiterhin bis ins 20. Jahrhundert als sicher und unknackbar, obwohl sie ‚theoretisch‘ zerstört wurde. Kasiski, der preußische Offizier mit Hang zur Kryptografie, starb 1881, ohne den Ruhm für seine Einsicht ernten zu können, da sie größtenteils unbemerkt blieb (Kahn 1996, S. 207 f.). Für die Geschichte der Kryptografie selbst handelt es sich hier zwar um epochale Umwälzungen, aber die ‚Siege‘ der Kryptanalysten und die ‚Niederlagen‘ bestimmter Systeme besaßen zunächst wenig politische Relevanz. Der theoretisch-kryptografische Wettstreit und die Politik waren zunächst getrennte Bereiche. Kryptografie galt eher als Nebenbeschäftigung von Spezialisten, die nur in wenigen Fällen politisch bedeutsam war.6 Mit der ungeheuren Verbreitung des Telegrafen im amerikanischen Bürgerkrieg beginnt der theoretische Wettstreit zwischen kryptografischen Systemen und Kryptanalysten nach und nach Einzug in die Politik zu halten. Einerseits

6Wie

etwa im Fall der berühmten Babington-Verschwörung um die geplante Ermordung von Elisabeth I.

232

J. Herder

liegt dies zweifellos daran, dass der Telegraf als neue Informationstechnik die Kommunikationspunkte vervielfacht und die Möglichkeit des Abfangens von Nachrichten wesentlich vereinfacht hat – beides wird in den Weltkriegen durch die Erfindung der Radioübertragung exponentiell ansteigen (Kittler 2014, S. 240). Andererseits liegt dies auch daran, dass mit dem Telegrafen andere wichtige Entwicklungen einhergehen: Die generelle Wichtigkeit von Informationen und Nachrichten; die entstehende Überzeugung, Kommunikation sei entscheidend für den Ausgang des Krieges; die Entwicklung relativ einfacher und sicherer kryptografischer Verfahren und zweifellos auch die rasche Verbreitung des elektromagnetischen Telegrafen. Die Kryptografie spielt in diesem Komplex eine zentrale Rolle, denn nur sie kann die Transparenz, die Informationstechnik erzeugt, wieder zerstören. Die eigene telegrafische Kommunikation muss für den Feind unsichtbar werden. Und gleichzeitig muss alles darangesetzt werden, die feindliche Kommunikation sichtbar zu machen. Kryptografie und Kryptanalyse werden hier scheinbar auf eine bisher beispiellose Weise politisiert. Doch die Kryptografie ist im Grunde eine der Politik gegenüber indifferente Wissenschaft oder Kunstfertigkeit, die Transparenz vernichtet und Unsichtbarkeit erzeugt. Weil die Nachrichten unter bestimmten Bedingungen auch wieder sichtbar gemacht werden müssen, besteht die latente Möglichkeit die Nachrichten auch ohne Schlüssel sichtbar zu machen. Diese kleine Möglichkeit ist die Existenzbedingung der Kryptanalyse. Obwohl die Kryptografie und die Kryptanalyse historisch gesehen mit der Politik zusammenhängen, sind sie keine politischen Wissenschaften oder Kunstfertigkeiten. Sie bilden einen Wettstreit, der seine eigenen Siege und Niederlagen vorzuweisen hat. Mit der neuen Bedeutung im amerikanischen Bürgerkrieg wird die Kryptografie zwar wichtig für die Politik, aber es ist nicht die Kryptografie, die politisch wird. Es ist die Politik, die kryptografisch wird. Nicht die Kryptografie wird plötzlich zu einer politischen Auseinandersetzung – sie bleibt der Wettstreit zwischen Systemen zur Verschlüsselung und Möglichkeiten, diese zu zerstören. Es ist die Politik, die das kryptografische Spiel der Transparenz als neue politische Rationalität entdeckt.

5 Das kryptografische Wahrheitsspiel Wie können wir dieses neue Kräfteverhältnis auf der Ebene der Kommunikation verstehen? Was heißt es, zu behaupten, die Politik würde kryptografisch? Um zu analysieren, was passiert, wenn die Politik kryptografisch wird, müssen wir zunächst verstehen, was die Kryptografie überhaupt auszeichnet. Ich schlage vor, dafür das von Michel Foucault genutzte Konzept des Wahrheitsspiels zu nutzen.

Massenüberwachung als Politik Transparenz, Privatheit …

233

Das Konzept, das Foucault in den 1980er Jahren entwickelte, und welches er in etwas abgewandelter Form schon in der Vorlesung über die Regierung der Lebenden mit dem Begriff des Wahrheitsregimes (Foucault 2014) vorschlägt, hilft uns die Idee der Kryptopolitik nachzuvollziehen. Die Idee der Wahrheitsspiele steht im Rahmen der von Foucault verfolgten genealogischen Untersuchung von Subjektivierungsweisen und Regierungstechniken – sie spitzt diese aber auf eine sehr nützliche Weise zu. So sagt Foucault (2005b, S. 777 f.) rückblickend, ihn habe immer schon die Objektivierung und Subjektivierung von Subjekten interessiert: „Diese Objektivierung und diese Subjektivierung sind nicht unabhängig voneinander; aus ihrer wechselseitigen Entwicklung und ihrer reziproken Verbindung entsteht das, was man die ‚Wahrheitsspiele‘ nennen könnte: das heißt nicht die Entdeckung wahrer Sachverhalte, sondern die Regeln, nach denen mit Bezug auf bestimmte Dinge das, was ein Subjekt sagen kann, der Frage des Wahren und des Falschen untersteht. Alles in allem ist die kritische Geschichte des Denkens weder eine Geschichte der Erlangung noch eine Geschichte der Verdunkelung der Wahrheit; es ist die Geschichte des Auftauchens der Wahrheitsspiele“.

Bei der Idee des Wahrheitsspiels geht es also nicht um das, was schließlich als Ergebnis des Spiels als Wahrheit dasteht. Es geht sozusagen um die Bedingungen, die es einer Tatsache erlauben, als Wahrheit zu gelten. Diese Bedingungen werden von Foucault als Spiel bezeichnet, weil sie nicht in Form fester und unveränderlicher Strukturen existieren, sondern vielmehr bestimmte historische Vorgaben sind, die zu einer gegebenen Zeit einen Rahmen bilden, in dem ‚gespielt‘ werden kann. Bei den Wahrheitsspielen handelt es sich allerdings nicht um Schauspiel, es geht tatsächlich um die Herstellung von Wahrheit: „Das Wort ‚Spiel‘ kann Sie zu einem Irrtum führen. Wenn ich von ‚Spiel‘ spreche, dann spreche ich von einer Gesamtheit von Regeln zur Herstellung der Wahrheit. Dies bedeutet nicht Spiel im Sinne von Nachahmung oder Schauspiel; es besteht in einer Gesamtheit von Verfahren, die zu einem bestimmten Resultat führen, das nach Maßgaben seiner Prinzipien und Verfahrensregeln als gültig oder ungültig, als erfolgreich oder erfolglos betrachtet werden kann“ (Foucault 2005a, S. 897).

Ein Wahrheitsspiel wäre für Foucault etwa die Beichte, die aus einer Anzahl von Regeln und Verfahren besteht, die eine gültige Wahrheit über die Seele des Sünders produzieren. Foucault interessiert sich hier nicht für das Ergebnis, sondern für die historischen Praktiken und Wissensformen, die dieses Ergebnis ermöglichen und die nicht die Performanzen eines beliebigen Subjekts sind. Es handelt sich um die Verfahren, die eine Wahrheit als solche aussagbar machen, ohne die eine Wahrheit keine Gültigkeit besäße und nicht als Wahrheit geäußert werden könnte.

234

J. Herder

Kryptografie und Kryptanalyse, die von den Geschichtsschreibern als ­ ettkampf über die Jahrhunderte stilisiert wurden, lassen sich als ein solW ches Wahrheitsspiel auffassen. Dieses Wahrheitsspiel produziert auf zwei Arten wahre Sachverhalte, die für die Kryptopolitik unterschiedlich wichtig sind. Die eine Art von Wahrheitsspiel besteht in der Herstellung von Unsichtbarkeit und der Wiederherstellung von Sichtbarkeit durch die erfolgreiche Ver- und Entschlüsselung. Eine beliebige Nachricht wird verschlüsselt und damit unsichtbar oder unkenntlich. Sie wird dann übertragen und an anderer Stelle mit dem entsprechenden Schlüssel wieder sichtbar gemacht. Diese Art Wahrheitsspiel erlaubt die Wiederherstellung der wahren Nachricht aus einer falschen Nachricht durch ein bestimmtes Verfahren und das Wissen um einen bestimmten Schlüssel. Die wahre Nachricht ist die Nachricht, die mit dem passenden Schlüssel – und nur mit dem passenden Schlüssel – wiederhergestellt werden kann. In dem ersten Wahrheitsspiel geht es darum, erfolgreich das legitime Verfahren anzuwenden, das die wahre Nachricht aus einer falschen Nachricht wiederherstellt. Das Verfahren ist nur dann legitim, wenn es nicht kompromittiert ist, das heißt, wenn Sender und Empfänger tatsächlich frei über die Transparenz ihrer Kommunikation entscheiden. Die zweite Art von Wahrheitsspiel ist die gewaltsame Herstellung von Sichtbarkeit durch die Kryptanalyse. Die Kryptanalyse produziert nicht die gleiche Sichtbarkeit, wie die legitime Entschlüsselung. Hier wird der falschen Nachricht durch Gewalt die wahre Nachricht entlockt. Damit wird eine Sichtbarkeit erzeugt, die die erste Art des Wahrheitsspiels durchkreuzt und heimsucht. Das erste Wahrheitsspiel der Kryptografie läuft immer Gefahr durch das zweite Spiel betrogen zu werden. Das zweite Spiel versucht unablässig die legitimen Regeln der kryptografischen Wahrheitsproduktion auszuhebeln. Damit stellt die Kryptanalyse eine Transparenz zweiter Ordnung her. Diese Transparenz zweiter Ordnung unterscheidet sich von der legitimen Wiederherstellung von Sichtbarkeit dadurch, dass sie eine übergriffige Sichtbarkeit produziert. Die Kryptanalyse ist eben jene Kunst, die vom Gegner geschaffene Unsichtbarkeit ohne den passenden Schlüssel zu zerstören. Während die erste Form wahre Sachverhalte als Ergebnis legitimer Verfahren betrachtet, werden wahre Sachverhalte in der zweiten Form zum Ergebnis einer kommunikativen Grenzüberschreitung, die ein Geheimnis sichtbar macht. Wahre Sachverhalte sind für diese Art des Wahrheitsspiels nicht die Ergebnisse unkompromittierter kryptografischer Verfahren, sondern genau diejenigen Sachverhalte, die eigentlich geheim sein sollten und nur durch die ‚kryptanalytische Gewalt‘ sichtbar werden. Hier wird aus der Erzeugung von Sichtbarkeit mehr, als die bloße Wiederherstellung der wahren Nachricht. Die durch das zweite Spiel erzeugte Sichtbarkeit erhält ihre Bedeutung dadurch, dass

Massenüberwachung als Politik Transparenz, Privatheit …

235

sie das erste, legitime Wahrheitsspiel durchkreuzt und auf der Ebene der Kommunikation das Element der Kraft einführt. Die beiden Wahrheitsspiele der Kryptografie bilden ein kommunikatives Kräfteverhältnis, das über die Transparenz von Nachrichten funktioniert, und bei dem das zweite Spiel eine herausragende strategische Bedeutung hat.

6 Über Kryptopolitik Was ist der Zusammenhang von Kryptografie und Politik? Zunächst könnte man sagen, dass mit der Verbreitung des Telegrafen im amerikanischen Bürgerkrieg die Kryptografie explosionsartig an politischer Bedeutung gewinnt, bis hin zum maschinengestützten kryptografischen Wettstreit der Weltkriege (Deavours und Kruh 1985) und der Bedeutung der Public-Key Kryptografie (Diffie und Hellmann 1976; Hellman 1979) vor allem für die Informationsökonomie der Gegenwart. Ich denke allerdings, dass wir an dem Beispiel des amerikanischen Bürgerkriegs noch eine andere Art und Weise sehen, auf die Kryptografie relevant für die Politik wird. Und zwar indem Elemente des kryptografischen Wahrheitsspiels Einzug in die Politik halten: Mit dem Zusammenkommen von nachrichtlichen Strategien im Krieg, der Telegrafie, dem neuen Stellenwert von Nachrichten generell und der Bedeutung der Kryptografie beginnt sich eine neue politische Rationalität auszubilden. Was auf der Ebene der Kryptografie als theoretisches und praktisches Wettstreiten um der Kryptografie selbst willen funktioniert, löst sich der Form nach historisch zunehmend von der Praxis der Kryptografie und beginnt ungefähr ab der Mitte des 19. Jahrhunderts zu einer spezifischen politischen Rationalität zu werden. Das heißt nicht, dass die Politik vorher nicht auch von der Kryptografie Gebrauch machte oder Geheimhaltung und Unsichtbarkeit nicht Teil des politischen Geschehens war – gerade das zeigt ja die Geschichte der Kryptografie. Aber wir sehen hier, wie Kommunikation für die Politik generell einen zentralen Stellenwert einzunehmen beginnt, und zwar genau deshalb, weil sie sich selbst in eine Ebene der politischen Auseinandersetzung wandelt. Wir sehen die wachsende politische Bedeutung dessen, was wir als zweite Art des kryptografischen Wahrheitsspiels bezeichnet haben, und das auf die gewaltsame Schaffung von Transparenz und die Zerstörung von Geheimnissen zielt. Es ist diese im Bürgerkrieg aufscheinende neue politische Rationalität, die etwa Ende des 19. Jahrhunderts in der Gründung der ersten Geheimdienste in den USA gipfelt und die das Abfangen, Auswerten und Sichtbar-machen von Kommunikation als oberstes

236

J. Herder

politisches Ziel einsetzt. All dies ist Ausdruck einer neuen Rationalität, die sich während des Bürgerkriegs als neue Form der militärischen Wahrheitsproduktion gezeigt hatte, als Sichtbarkeit in die Sichtweise des Gegners selbst. Das Wahrheitsspiel, das auf der Ebene der Kryptografie zwar als solches aufgefasst werden kann, aber keine große politische Relevanz besitzt, beginnt sich von der Kryptografie zu lösen und Teil einer spezifischen politischen Rationalität zu werden.7 Kommunikation wird, wie Lincoln erkannt hat, nicht nur zur Bedingung für die effektive Regierung. Auch die mit dem Telegrafen zusammenhängende Transparenzproblematik gewinnt politisches Gewicht. Denn sie eröffnet eine neue Möglichkeit der politischen Auseinandersetzung, bei der es um das gewaltsame Sichtbarmachen von Geheimnissen geht. Für die Kryptografie gilt hier dasselbe, was Foucault (2005a, S. 896) über die Mathematik gesagt hat: „Das soll nun keineswegs besagen, dass die Mathematik lediglich ein Spiel der Macht ist, sondern dass das Machtspiel der Mathematik auf eine bestimmte Art und Weise, und ohne dass das ihre Gültigkeit in irgendeiner Weise berührt, mit den Institutionen der Macht verbunden ist“.

Wir können sehen, wie die Frage der Transparenz durch Informationstechnik politisch wird, in dem Moment, in dem sich das Kräfteverhältnis des bloß theoretisch-kryptografischen Wettstreits zu einem politischen wandelt, das auf der Ebene der Kommunikation selbst liegt. Man könnte all dies als eine Art Andeutung dessen sehen, was zu den Aufgaben der Geheimdienste wird, das systematische Abfangen und Sammeln der Kommunikation des Feindes – man kann es sogar als Schablone dessen lesen, was in der gegenwärtigen Massenüberwachung passiert. Denn der Kryptopolitik geht es offensichtlich darum, die Sachen transparent zu machen, die eigentlich nicht transparent sein dürfen. Die Logik der Kryptopolitik ist: Derjenige herrscht, der die Kommunikation von anderen beliebig sichtbar macht, die Sichtbarkeit von Kommunikation wird zum entscheidenden strategischen Aspekt. Gleichzeitig geht es darum, die eigene Kommunikation auf die beste mögliche Weise zu einem Geheimnis zu machen, zu verhindern, dass sie transparent wird. Kryptopolitik ist die Auseinandersetzung über die Transparenz von Kommunikation. Die Utopie der Kryptopolitik ist das Verbergen der eigenen und das beliebige

7Ebenso

deutet sich für Foucault die Biopolitik in der pastoralen Macht des Hirten an, löst sich von dieser nach und nach ab und wird zur charakteristischen Form der Machtausübung des modernen Staates (Foucault 2006; auch: Bröckling 2017, S. 15–45).

Massenüberwachung als Politik Transparenz, Privatheit …

237

­ ichtbar-machen der feindlichen Kommunikation. Die kryptopolitische RationaliS tät erkennt die politische Auseinandersetzung in der Auseinandersetzung über die Transparenz von Kommunikation. Geheimnisse und Staatlichkeit haben zweifellos eine längere und komplexere Geschichte, die nicht allein die Geschichte der Kryptografie ist (Lefebvre 2013). Entscheidend ist aber, dass das Geheimnis in der Gegenwart nicht verschwunden ist. Im Gegenteil: Alles dreht sich um die Sichtbarmachung und das Verbergen von Information, das Geheime nimmt den zentralen Platz in der politischen Auseinandersetzung ein. Es ist nicht so, dass das Geheime zum Skandal wird und nur noch in Form von Fiktionen aufscheint (Horn 2011, S. 118; Horn 2007). Die Produktion von Wahrheit durch gewaltsam erzeugte Sichtbarkeit wird selbst zu einer spezifischen politischen Rationalität. Wir haben es hier nicht mit einer Transparenzpolitik oder einem Panoptismus zu tun, der für Foucault die Disziplinargesellschaft auszeichnet und der für die surveillance studies die zentrale Metapher der Gegenwart ist (Lyon 2007) – es geht bei Kryptopolitik nicht primär um die disziplinierenden Effekte von Transparenz. Die Kryptopolitik ist ebenso wenig die Wiederbelebung der mittelalterlichen Arkanpolitik, in der der Souverän durch seine Geheimnisse herrscht (Voigt 2017; Ritzi 2017). Das kryptopolitische Heil liegt nicht entweder in den Effekten von Geheimnis oder Transparenz, sondern in der souveränen Entscheidung über die Verteilung von Transparenz. Wenn wir die politische Problematik von Transparenz und Geheimnis von der Geschichte der Kryptografie her angehen, dann ist offensichtlich, woher ihre spezifische Rationalität stammt – sie ist kryptografisch. Es geht darum, über die Verteilung von Sichtbarkeit zu entscheiden, willentlich Kommunikation transparent machen zu können und die eigene unsichtbar werden zu lassen. Es geht bei all dem um Kraft auf der Ebene der Kommunikation. Nicht das Panopticon oder das Arkanum des Souveräns sind das Urbild dieser politischen Rationalität, sondern das Chiffrierbüro, das Telegrafenamt im Kriegsministerium. Wir können die Bedeutung der Massenüberwachung und der informationellen Privatheit nur verstehen, wenn wir zwei Dinge unterlassen: Erstens, die Politik – verstanden als spezifische Regierungsweise und -praxis – als Gegenüber bestimmter informationstechnischer, sozialer und kultureller Entwicklungen intakt zu lassen. So als wäre etwa die Kryptografie als informationstechnische Entwicklung etwas, auf das die Politik in der Moderne vermehrt zurückgreift, das aber keinen Einfluss auf die Politik selbst hat. Im Gegenteil tragen all diese Entwicklungen dazu bei, zu bestimmen, was Politik eigentlich ist. Informationelle Privatheit hat dann eher eine anzeigende Funktion, die auf die Entstehung einer bestimmten politischen Rationalität hinweist. Zweitens sollten wir es unterlassen, Forderungen nach Privatheit und Praktiken wie die Kryptografie als etwas ganz

238

J. Herder

Anderes zu verstehen, etwas, das vollkommen konträr zur herrschenden politischen Rationalität steht. So als wären die spezifischen Formen des Widerstands nicht immer schon gegen eine ebenso spezifische Form der Machtausübung gerichtet. Es ist vielleicht fruchtbarer, das Verhältnis von Regierungs- und Widerstandspraktiken als Teil ein und desselben Kräfteverhältnisses zu denken.

7 Kryptografischer Widerstand? Diese Überlegung führt uns allerdings zu einer paradoxen Feststellung, die ich abschließend diskutieren möchte. Die politische Rationalität, die das Problem der informationellen Privatheit hervorbringt, basiert auf der Praxis, die gegenwärtig auch als zentraler Garant von informationeller Privatheit gilt: der Kryptografie. Wenn aber die Kryptografie selbst die Bedingung des Entstehens dieser politischen Rationalität ist, wie können wir dann den mittlerweile ubiquitär geforderten Einsatz von Kryptografie – Geert Lovink verkündete jüngst: „Die einzig verbliebene Option ist Kryptografie“ (Lovink 2017, S. 13) – wie können wir also diese einzig verbliebene Option zur Produktion von Privatheit verstehen? Isadora Hellegren hat vorgeschlagen, Kryptografie als begriffliches Zentrum zu betrachten, das die jüngere Auseinandersetzung um die Freiheit des Internets strukturiert. Sie zeigt hegemonietheoretisch, dass der Begriff crypto im Diskurs um die Freiheit des Internets einen zentralen Stellenwert einnimmt und dadurch die Auseinandersetzung mit einem negativen Freiheitsbegriff versieht (Hellegren 2017). Im Kampf um die Freiheit des Internets werden Freiheit und GeheimSein mehr oder weniger gleichgesetzt. Wenn der Einzelne in der Lage ist, durch Kryptografie etwas willentlich zu verheimlichen, dann gewinnt er dadurch unmittelbar Freiheit. Diese Annahme ist durch und durch kryptopolitisch, sie verortet den politischen Kampf auf der Ebene der Transparenz von Kommunikation. Und die Annahme zeigt auch, dass Kryptografie paradoxerweise als primäres Mittel des Widerstandes gegen die kryptopolitische Massenüberwachung gilt. Interessanterweise finden wir eine ähnliche Feststellung in den Arbeiten von Quinn DuPont (2014a; auch 2014b), der argumentiert, Kryptografie sei eine wichtige Bedingung der von Gilles Deleuze (1993) vertretenen These über die Kontrollgesellschaft. Deleuze hatte behauptet, dass unter anderem informationstechnische Systeme die neue politische Rationalität der Kontrolle ermöglichten. Am Ende seines kurzen ‚Postskriptums‘ fordert Deleuze dazu auf, angesichts dieser neuen Rationalität auch neue Waffen des Widerstands zu finden. DuPont argumentiert nun, dass eine der von Deleuze geforderten neuen Waffen die

Massenüberwachung als Politik Transparenz, Privatheit …

239

Kryptografie sei. Aber DuPont zeigt mit Bezug auf Friedrich Kittler paradoxerweise auch, dass es die Kryptografie selbst ist, die die Bedingung der Kontrollgesellschaft bildet. Ist also die Kryptografie, die ja selbst die Bedingung der politischen Rationalität ist, auch die wichtigste Widerstandspraxis gegen die Kryptopolitik? Es ist überraschend, dass nicht nur die Kryptografie, sondern auch die Praxis der Enthüllung, die seit Wikileaks und Edward Snowden mit dem Kampf für mehr Privatheit verknüpft wird, innerhalb des Spiels der Kryptopolitik verbleibt. Schaut man sich die Praxis des Leakings genauer an, entspricht sie sehr genau der kryptopolitischen Logik der gewaltsamen Sichtbarmachung. Obwohl diese Praxis sich bemüht, gegen die Macht anzugehen, verbleibt sie auf der Ebene des Wahrheitsspiels, das sie kritisiert. Die Kryptografie produziert, wie Hellegren zeigt, vermeintlich Freiheit durch Opazität. Mit ihr glauben wir der kryptopolitischen Massenüberwachung zu entkommen. Und die Enthüllung soll den Mächtigen die Macht entreißen, sie stellt gegen das undurchsichtige Treiben die vermeintliche Kraft der Transparenz. Doch gerade, weil die Kryptografie und das Leaking glauben von einer gänzlich anderen Art zu sein, kommen sie von dem Spiel, das sie kritisieren, nicht los. Wir können hier an Foucaults (2005a, S. 895) Warnung denken: „Der Herrschaft einer Wahrheit entkommt man also nicht, indem man ein Spiel spielt, das dem Spiel der Wahrheit vollständig fremd ist, sondern indem man das Wahrheitsspiel anders spielt, indem man ein anderes Spiel, eine andere Partie oder mit anderen Trümpfen spielt“.

Man könnte argumentieren, dass das Problem der Privatheit durch den allgemeinen Einsatz von Kryptografie, wie vor einiger Zeit vom Chaos Computer Club gefordert (2015), nicht gelöst, sondern vielmehr auf die Spitze getrieben wird. Das Problem der Privatheit, das Ausdruck der Kryptopolitik ist, lässt sich nicht dadurch lösen, dass man das Spiel mitspielt und dabei glaubt, etwas ganz anderes zu tun. Man könnte, um Foucaults Idee des Anders-spielens aufzunehmen, an Edgar Allen Poes (2011) berühmte Kurzgeschichte The Purloined Letter denken. Poe besaß bekanntermaßen eine Vorliebe für Kryptografie, die etwa in seiner Geschichte The Golden Bug Ausdruck fand – aber auch im Purloined Letter geht es um eine interessante Transparenzproblematik. Die Geschichte handelt von einem Brief, von dem bekannt ist, dass er im Besitz einer bestimmten Person sein muss. Diese Person sowie die Wohnung der Person werden mehrmals unter verschiedenen Vorwänden durchsucht, damit die Person keinen Verdacht schöpft.

240

J. Herder

Gerade die Wohnung wird nach allen Regeln der Kunst durchsucht – es werden Bretter vom Boden gelöst und sogar nach hohlen Stuhlbeinen wird gesucht, in denen der Brief versteckt sein könnte. Am Ende steht fest, dass der Brief nicht auffindbar ist; es steht aber auch fest, dass der Brief noch immer im Besitz der Person sein muss. Denn eine Veröffentlichung des Briefs hätte unmittelbare Konsequenzen. Ein Rätsel, das scheinbar nicht zu lösen ist. In der Geschichte kommt dann Auguste Dupin, Vorbild für Arthur Conan Doyles Sherlock Holmes, zu dem verwunderlichen Schluss: Der Brief wurde nicht gefunden, weil er nicht versteckt war. Er lag die ganze Zeit offen auf dem Tisch, wo ihn allerdings niemand suchte. Statt den Brief zu verstecken und zu wissen, dass er früher oder später gefunden wird, tat der Briefbesitzer das Einzige, was nicht zu erwarten war: Aus dem Brief gerade kein Geheimnis zu machen. Man könnte nun argumentieren, der Briefbesitzer hätte das Spiel, um das Sichtbar- und Unsichtbar-machen, einfach nicht mitgespielt, naheliegender ist es aber zu sagen, dass er das Spiel anders gespielt hat. Er hat die kryptopolitische Rationalität eben dadurch ausgehebelt, dass er aus seinem Brief kein Geheimnis gemacht hat, das man sichtbar machen könnte. Poes Briefbesitzer hat das Spiel der Transparenz auf eine andere Weise gespielt.

8 Schluss Zu Beginn hatte ich behauptet, dass die gegenwärtige Diskussion um die Frage der Privatheit nicht den politischen Kern des Problems trifft, weil es auf rechtliche, normative oder deliberativ-prozeduale Dimensionen reduziert wird. Welche Perspektive erlaubt also die hier rekonstruierte Idee einer mit dem amerikanischen Bürgerkrieg und dem Telegrafen aufkommenden kryptografischen Rationalität von Politik? Und was bedeutet die von mir vorgeschlagene Idee der Kryptopolitik für die gegenwärtige Massenüberwachung durch Geheimdienste? Wir müssen, wenn wir über Forderungen nach informationeller Privatheit sprechen, immer auch über die Entwicklung einer spezifischen politischen Rationalität sprechen, von umfassenderen politischen, kulturellen und technischen Entwicklungen, die nicht hinreichend in normativen Vorstellungen aufgehoben werden können. Mit diesem breiteren historischen Blick zeigt sich, dass das Politische der informationellen Privatheit gerade darin besteht, dass es Ausdruck eines sich entwickelnden Kräfteverhältnisses ist, des Kräfteverhältnisses der Kryptopolitik. Es ist der strategische Einsatz in einer konkreten Auseinandersetzung, die sich nicht vollständig in Begriffe des Rechts oder in ermöglichte Prozesse der Deliberation übersetzen lässt. Die Diskussionen über

Massenüberwachung als Politik Transparenz, Privatheit …

241

den gesellschaftlichen Wert des Privaten oder die freiwillige Beteiligung an der freien Kommunikationsgemeinschaft trüben den Blick dafür, was informationelle Privatheit vor allem artikuliert: Eine politische Auseinandersetzung, bei der es um die Transparenz von Kommunikation geht. Das Ringen der einen Seite darum, Geheimnisse zu haben – und das unnachgiebige Verlangen der anderen Seite danach, diese Geheimnisse aufzudecken. Es geht dabei nicht in erster Linie um die disziplinierenden Effekte der Sichtbarkeit oder die Geheimnisse des Souveräns, es geht tatsächlich um eine neue politische Rationalität. Genau das sollten wir zunächst anerkennen, wenn wir uns mit der Massenüberwachung durch Geheimdienste auseinandersetzen. Diese Praxis ist weder notwendig, noch ist sie ein Skandal, sie ist in erster Linie Ausdruck einer spezifischen politischen Rationalität, die wir analysieren und kritisieren können. Wir haben es hier mit einem größeren politischen ‚Programm‘ zu tun, das wir nicht einfach durch einzelne Praktiken wie die Kryptografie auflösen können. Wir sollten beginnen zu analysieren welche wirklichen Regierungsweisen und -effekte die Kryptopolitik birgt. Welches Wissen wird hier produziert und eingesetzt, wie wird es zu konkreten Regierungstechniken? Auf welche Weise hängt die kryptopolitische Rationalität mit der biopolitischen Rationalität zusammen? Mein Hinweis ist zunächst, dass diese merkwürdige Form der Auseinandersetzung, die wir in der informationellen Privatheit und der Massenüberwachung sehen können, erst dann einigermaßen plausibel erscheint, wenn wir ihre historischen Spuren verfolgen und sie als positive politische Rationalität analysieren, die Elemente des kryptografischen Wahrheitsspiels aufnimmt. Wenn wir diese Rationalität ablehnen wollen, dann müssen wir – wie der Briefbesitzer in Poes Geschichte – neue und vielleicht überraschende Arten und Weisen finden diese Machtverhältnisse zu durchkreuzen.

Literatur Aschoff, V. (1984). Geschichte der Nachrichtentechnik. Beiträge zur Geschichte der Nachrichtentechnik von ihren Anfängen bis zum Ende des 18. Jahrhunderts (Bd. 1). Berlin: Springer. Aschoff, V. (1987). Geschichte der Nachrichtentechnik. Nachrichtentechnische Entwicklungen in der ersten Hälfte des 19. Jahrhunderts (Bd. 2). Berlin: Springer. Bates, D. H. (1907). Lincoln in the telegraph office. New York: Century Co. Becker, C., & Seubert, S. (2016). Privatheit, kommunikative Freiheit und Demokratie. Datenschutz und Datensicherheit, 40(2), 73–78. Bell, D. A. (2015). Napoleon. A concise biography. Oxford: Oxford University Press. Beutelspacher, A. (2015). Kryptologie. Eine Einführung in die Wissenschaft vom Verschlüsseln, Verbergen und Verheimlichen. Wiesbaden: Springer Spektrum.

242

J. Herder

Bröckling, U. (2017). Gute Hirten führen sanft. Über Menschenregierungskünste. Berlin: Suhrkamp. Chaos Computer Club. (2015). CCC fordert Ausstieg aus unverschlüsselter Kommunikation. https://www.ccc.de/de/updates/2015/ccc-fordert-ausstieg-aus-unverschlusselter-kommunikation. Zugegriffen: 11. Aug. 2017. Deavours, C., & Kruh, L. (1985). Machine cryptography and modern cryptanalysis. ­Dedham: Artech House. Deleuze, G. (1993). Postskriptum über die Kontrollgesellschaft (S. 254–262). Unterhandlungen. 1972–1990 Frankfurt a. M.: Suhrkamp. Diffie, W., & Hellmann, M. (1976). New directions in cryptography. IEEE Transactions on Information Theory, 22(6), 644–654. Diffie, W., & Landau, S. (2007). Privacy on the line. The politics of wiretapping and encryption. Cambridge: MIT Press. DuPont, Q. (2014a). The politics of cryptography. Bitcoin and the ordering machines. The Journal of Peer Production, 4(1). http://peerproduction.net/editsuite/issues/ issue-4-value-and-currency/peer-reviewed-articles/the-politics-of-cryptography-bitcoin-and-the-ordering-machines/. Zugegriffen: 2. Okt. 2019. DuPont, Q. (2014b). Unlocking the digital crypt. Exploring a framework for cryptographic reading and writing. Scholarly and Research Communication, 5(2). http://src-online.ca/ index.php/src/article/view/157. Zugegriffen: 11. Aug. 2017. Dutton, W., Peltu, M., & Bruce, M. (1999). Society on the line. Information politics in the digital age. Oxford: Oxford University Press. Foucault, M. (2002). Die Strafgesellschaft. In D. Defert & F. Ewald (Hrsg.), Schriften in vier Bänden. Dits et Ecrits (Bd. II, S. 568–585). Frankfurt a. M.: Suhrkamp. Foucault, M. (2005a). Die Ethik der Sorge um sich als Praxis der Freiheit. In D. Defert & F. Ewald (Hrsg.), Schriften in vier Bänden. Dits et Ecrits (Bd. IV, S. 875–902). Frankfurt a. M.: Suhrkamp. Foucault, M. (2005b). Foucault. In D. Defert & F. Ewald (Hrsg.), Schriften in vier Bänden. Dits et Ecrits (Bd. IV, S. 776–782). Frankfurt a. M.: Suhrkamp. Foucault, M. (2006). Sicherheit, Territorium, Bevölkerung. Geschichte der Gouvernementalität I. Vorlesungen am Collège de France 1977–1978. Frankfurt a. M.: ­Suhrkamp. Foucault, M. (2014). Die Regierung der Lebenden. Vorlesungen am Collège de France 1979–1980. Berlin: Suhrkamp. Friedman, W. (1924). Elements of cryptanalysis. Washington: Government Printing Office. http://marshallfoundation.org/library/digital-archive/elements-cryptanalysis/. Zugegriffen: 11. Aug. 2017. Geuss, R. (2002). Privatheit. Eine Genealogie. Frankfurt a. M.: Suhrkamp. Hamilton, A., Madison, J., & Jay, J. (2004). Die Federalist-Artikel. Politische Theorie und Verfassungskommentar der amerikanischen Gründerväter. Paderborn: UTB (Erstveröffentlichung 1787/1788). Headrick, D. (2000). When information came of age. Technologies of knowledge in the age of reason and revolution. 1700–1850. Oxford: Oxford University Press. Hellegren, I. (2017). A history of crypto-discourse. Encryption as a site of struggles to define internet freedom. Internet Histories, 1(4), 285–311. Hellman, M. (1979). The mathematics of public-key cryptography. Scientific American, 241, 146–157.

Massenüberwachung als Politik Transparenz, Privatheit …

243

Hood, C. (2006). Transparency in historical perspective. In C. Hood & D. Heald (Hrsg.), Transparency. The key to better governance? (S. 3–23). Oxford: Oxford University Press. Horn, E. (2007). Der geheime Krieg. Verrat, Spionage und moderne Fiktion. Frankfurt a. M.: Fischer. Horn, E. (2011). Logics of political secrecy. Theory, Culture & Society, 28(7–8), 103–122. Hotter, M. (2011). Privatsphäre: Der Wandel eines liberalen Rechts im Zeitalter des Internets. Frankfurt a. M.: Campus. John, R. (2010). Network nation. Inventing American telecommunications. Boston: Harvard University Press. Kahn, D. (1980). On the origin of polyalphabetic substitution. Isis, 71(1), 122–127. Kahn, D. (1996). The codebreakers. The story of secret writing. New York: Scribner (­Erstveröffentlichung 1967). Kasiski, F. (1863). Die Geheimschriften und die Dechiffrir-Kunst. Berlin: E. S. Mittler und Sohn. Kaufmann, S. (1996). Kommunikationstechnik und Kriegführung 1815–1945. Stufen telemedialer Rüstung. München: Fink. Kittler, F. (2014). Die künstliche Intelligenz des Weltkriegs. Alan Turing. In H. U. ­Gumbrecht (Hrsg.), Die Wahrheit der technischen Welt. Essays zur Genealogie der Gegenwart (S. 232–253). Berlin: Suhrkamp. Lefebvre, S. (2013). A brief genealogy of state secrecy. Windsor Yearbook of Access to Justice, 31, 95–114. Lever, A. (2006). Privacy rights and democracy. A contradiction in terms? Contemporary Political Theory, 5(2), 142–162. Lever, A. (2012). On privacy. New York: Routledge. Lincoln, A. (1862). Second annual message. December 1. In G. Peters & J. ­Woolley (Hrsg.), The American presidency project. http://www.presidency.ucsb.edu/ ws/?pid=29503. Zugegriffen: 11. Aug. 2017. Lovink, G. (2017). Im Bann der Plattformen. Die nächste Runde der Netzkritik. Bielefeld: Transcript. Lyon, D. (2007). Surveillance studies. An overview. Cambridge: Wiley. Nicolay, J. G., & Hay, J. (1890). Abraham Lincoln. A history. New York: Century Co. Nissenbaum, H. (2009). Privacy in context. Technology, policy, and the integrity of social life. Stanford: Stanford University Press. Oberliesen, R. (1987). Information, Daten und Signale. Geschichte technischer Informationsverarbeitung. Reinbek bei Hamburg: Rowohlt. Osrecki, F. (2015). Fighting corruption with transparent organizations. Anti-corruption and functional deviance in organizational behavior. Ephemera: Theory & Politics in Organization, 15(2), 337–364. Poe, E. A. (2011). The purloined letter (S. 208–223)., Tales and poems of Edgar Allen Poe London: Penguin (Erstveröffentlichung 1844). Riordan, M., & Hoddeson, L. (1998). Crystal fire. The invention of the transistor and the birth of the information age. New York: Norton. Ritzi, C. (2017). Das Geheimnis und die Demokratie. In R. Voigt (Hrsg.), Staatsgeheimnisse. Arkanpolitik im Wandel der Zeiten (S. 179–204). Wiesbaden: Springer VS. Rössler, B. (2001). Der Wert des Privaten. Frankfurt a. M.: Suhrkamp.

244

J. Herder

Rössler, B., & Mokrosinska, D. (2013). Privacy and social interaction. Philosophy & Social Criticism, 39(8), 771–791. Rzepka, V. (2013). Die Ordnung der Transparenz. Jeremy Bentham und die Genealogie einer demokratischen Norm. Berlin: LIT. Schaar, P. (2007). Das Ende der Privatsphäre. Der Weg in die Überwachungsgesellschaft. München: C. Bertelsmann. Schmale, W., & Tinnefeld, M.-T. (2014). Privatheit im digitalen Zeitalter. Wien: Böhlau. Seubert, S. (2012). Der gesellschaftliche Wert des Privaten. Datenschutz und Datensicherheit, 36(2), 100–104. Shoeman, F. D. (1992). Privacy and social freedom. Cambridge: Cambridge University Press. Singh, S. (2000). The code book. Science of secrecy from ancient egypt to quantum cryptography. New York: Anchor. Smith, F. (1845). The secret corresponding vocabulary. Adapted for use to Morse’s electro-magnetic telegraph. Portland: Thurston, Ilsley & Co. Snowden, E. (2017). ‚There is still hope – Even for me‘. Interview with Edward Snowden. Spiegel Online, 12.09.2017. https://www.spiegel.de/international/europe/edward-snowden-interview-there-is-still-hope-a-1166752.html. Zugegriffen: 2. Okt. 2019. Stahl, T. (2016). Indiscriminate mass surveillance and the public sphere. Ethics and Information Technology, 18(1), 33–39. Standage, T. (1999). Das viktorianische Internet. Die erstaunliche Geschichte des Telegrafen und der Online-Pioniere des 19. Jahrhunderts. St. Gallen: Midas. Strathern, M. (2000). The tyranny of transparency. British Educational Research Journal, 26(3), 309–321. Thoreau, H. D. (1979). Walden oder Leben in den Wäldern. Zürich: Diogenes (Erstveröffentlichung 1854). Virilio, P. (1988). Krieg und Kino: Logistik der Wahrnehmung. München: Hanser. Voigt, R. (2017). Arcana Imperii. In R. Voigt (Hrsg.), Staatsgeheimnisse. Arkanpolitik im Wandel der Zeiten (S. 5–30). Wiesbaden: Springer VS. Warren, S., & Brandeis, L. (1890). The right to privacy. Harvard Law Review, 4(5), 193–220.

Janosik Herder (M.A.) ist wissenschaftlicher Mitarbeiter an der Universität Osnabrück im Arbeitsgebiet Politische Theorie. Seine Forschungsschwerpunkte sind neuere Politische Theorie, insbesondere Kritische Theorie und Poststrukturalismus, sowie Techniktheorie und Kybernetik. Sein Dissertationsprojekt befasst sich aus genealogischer Perspektive mit Kybernetik und Kryptografie und fragt nach dem Politischen des informationellen Denkens. 2018 erschienen von ihm unter anderem die Aufsätze „Information as Truth. Cybernetics and the Birth of the Informed Subject“ (in Behemoth) und „Soziale oder historische Bewegung? Zur Genealogie sozialer Bewegung bei Lorenz von Stein und Karl Marx“ (in Berliner Debatte Initial).

Teil III Strukturen

Lob der Salami-Taktik: Der TransparenzImperativ als Kritik des strategischen Enthüllungsjournalismus Marc Mölders

Zusammenfassung

Die Salami-Taktik genießt keinen guten Ruf. Wer die Wahrheit nur scheibchenweise preisgibt, macht sich verdächtig. Joseph Pulitzer konnte Ende des 19. Jahrhunderts noch davon ausgehen, dass es nichts Übles gibt, das einerseits nicht von Geheimhaltung lebe und dessen Aufdeckung andererseits dafür sorgen werde, dass die öffentliche Meinung es früher oder später hinwegfegte. Auf eine solche publizistische Wirkkraft kann der heutige Enthüllungsjournalismus nicht mehr zählen, auch weil schon Pulitzers Zeitgenossen zu einer Skandalübersättigung beigetragen haben, die noch im 21. Jahrhundert an den Bemühungen ablesbar ist, Empörung zu organisieren. Hierfür sind die Panama Papers ein eindrücklicher Fall. Um das Thema intransparenter Briefkastenfirmen nachhaltig in öffentlicher Erinnerung zu halten, entschließt sich das koordinierende ICIJ zu einer Publikationsstrategie; man wählt die Salami-Taktik. Diese Antwort auf das Problem der Skandalübersättigung wird allerdings von Transparenz-Organisationen wiederum skandalisiert: Es ginge nicht um eine Zeit-Taktik, sondern um die Durchsetzung von Privatinteressen.

Ich danke den Herausgebern des Bandes für Hinweise und Interesse. Gina Jacobs danke ich für Recherche und Transkription, Mirjam Dierkes für ihr kritisches Lektorat des Manuskripts.

M. Mölders (*)  Universität Bielefeld, Bielefeld, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 V. August und F. Osrecki (Hrsg.), Der Transparenz-Imperativ, https://doi.org/10.1007/978-3-658-22294-9_10

247

248

M. Mölders

Abstract

Salami-slicing is not considered an advisable option. Revealing the truth in a piecemeal way is suspicious. At the end of the 19th century, Joseph Pulitzer held that there is not a vice which does not live by secrecy. The press should get these things out in the open so that sooner or later public opinion will sweep them away. Recent investigative journalists cannot count on such impact not least because Pulitzer’s contemporaries began to saturate the public with scandals. This problem is rather aggravated than eased in the 21st century despite—some might say: because of—digitization. Indignation is not easy to arouse but hard organizational work as the case of the Panama Papers illustrates. To keep offshore companies a topic of constant public interest, the coordinating ICIJ opted for a publication strategy: salami-slicing. This response towards the problem of a public saturated by scandals gets itself scandalized by transparency organizations who deny that it is about temporal tactics but see private interests as driving forces.

We are a democracy, and there is only one way to get a democracy on its feet in the matter of its individual, its social, its municipal, its state, its national conduct, and that is by keeping the public informed about what is going on. There is not a crime, there is not a dodge, there is not a trick, there is not a swindle, there is not a vice which does not live by secrecy. Get these things out in the open, describe them, attack them, ridicule them in the press, and sooner or later public opinion will sweep them away. (Joseph Pulitzer; zit. n. Ireland 1914, S. 115)

1 Einleitung Die Salami-Taktik genießt keinen guten Ruf. Wer die Wahrheit nur scheibchenweise preisgibt, macht sich verdächtig. Transparenz ist zweifellos ein Kernziel des Investigativ-Journalismus. Es geht ihm um die Veröffentlichung ansonsten verborgen gebliebener Informationen, denen die Mitteilung entnommen werden soll, etwas sei gesellschaftlich nicht hinnehmbar (Mölders 2015). Gefragt nach dem Grund für den Diffusionserfolg von Transparenz, kommen neuere Studien zu dem Schluss, dass für alle hieran Beteiligten etwas Positives abzuleiten sei. Auch weil Intransparenz keine Lobby habe, so etwa Hoffjann und Arlt (2015, S. 104), könnten sich nach Lage der Dinge Transparenztreiber – die Autoren verweisen hierzu etwa auf Foodwatch, Transparency International und Lobby Control – über Spendenzuwächse, der Journalismus über publikationsfähige

Lob der Salami-Taktik: Der Transparenz-Imperativ …

249

Skandalgeschichten und immerhin heimlich sogar die angegriffenen Organisationen freuen, zumindest die Abteilungen für Öffentlichkeitsarbeit oder Reputation Management (Lloyd und Toogood 2015), deren Arbeitsplätze mit einer Bestandsgarantie aufgewertet werden. Gehört also der Enthüllungsjournalismus gemeinhin zu denjenigen, die Transparenz andernorts einfordern, wird es im Folgenden um eine entgegengesetzte Konstellation gehen: Den Vorwurf an Investigativ-Journalist_innen, sich einer Salami-Taktik zu bedienen, wenn Enthüllungen nicht vollständig veröffentlicht, sondern sukzessive aufbereitet werden. Mit dem „Lob der Salami-Taktik“ soll angezeigt sein, dass eine dem Transparenz-Imperativ folgende vollständige Veröffentlichung großer Leaks – im Gegensatz zu einer scheibchenweisen Publikationsstrategie – die Wirkungschancen von Enthüllungen systematisch verschlechtert. Ende des 19. Jahrhunderts konnte Joseph Pulitzer noch davon ausgehen, dass es nichts Übles gibt, das einerseits nicht von Geheimhaltung lebe und dessen Aufdeckung andererseits dafür sorgen werde, dass die öffentliche Meinung es früher oder später hinwegfegen täte. Sicher hat die technische Entwicklung von Verbreitungsmedien ihren Anteil daran, dass ob der Wirksamkeit veröffentlichter Enthüllungen Skepsis anzumelden ist. Jedoch muss die sukzessive Ausdehnung medialer Erreichbarkeit, von den ersten landesweit zu empfangenden Radiostationen bis ins Internet-Zeitalter, nicht allein die Erklärungslast für die schwindende Wirksamkeit publizierter Aufdeckungen tragen. Schon vor den 1920er-Jahren wird das Ende der muckraking period, des goldenen Zeitalters des Investigativ-Journalismus, diagnostiziert und nicht zuletzt damit begründet, das eigene Publikum mit Skandalen übersättigt zu haben. Ein Jahrhundert später stellt sich die Situation ambivalent dar. Einerseits war es technisch nie einfacher, für Transparenz zu sorgen. Doch allein die bloße Vielzahl neuer Publikationskanäle macht es kehrseitig noch unwahrscheinlicher, dass Aufdeckungen in einer Weise verarbeitet werden, die sie auch nur in die Nähe der Wirkungen aus der muckraking period bringen. Ebenfalls steht nicht zu erwarten, die Übersättigung des Publikums habe in der Zwischenzeit nachgelassen. Nachdem diese Entwicklung im nächsten Kapitel nachgezeichnet wird, beleuchtet das dritte knapp die Entwicklung des Konzepts der Vierten Gewalt sowie dessen Institutionalisierung. Der Schwerpunkt liegt dabei auf der Bedeutung, die das Recht auf Geheimhaltung für die journalistische Professionalisierung insbesondere im Deutschsprachigen annahm. Welche Lösungen der gegenwärtige Investigativ-Journalismus für die Probleme der Adressierbarkeit und der Skandalübersättigung gefunden hat, beleuchtet das vierte Kapitel am Beispiel der Panama Papers.

250

M. Mölders

Möglichkeiten weltweiter Vernetzung haben in jüngerer Zeit die Hoffnung befördert, ein neues goldenes Zeitalter der Vierten Gewalt habe just begonnen. Für ebendiese Entwicklung sind die Panama Papers bzw. ist das diese koordinierende International Consortium of Investigative Journalists (ICIJ) ein viel zitierter Fall. Einige Besonderheiten dieses Falls werden anschließend dargestellt, wobei weder die Größe des Leaks noch die konzertierte Aktion der weltweit gleichzeitigen Erstveröffentlichung im Mittelpunkt stehen. Stattdessen hebt dieser Abschnitt das planvolle Takten der Veröffentlichungen selbst hervor. So musste etwa ein für alle beteiligten Zeitzonen brauchbarer Moment gewählt werden. Dabei verständigte man sich darauf, es zu einem Aspekt der „Wirkungsstrategie“ zu machen, nicht den immensen Datensatz zur Verfügung zu stellen, sondern ihn für eine Berichterstattung einzusetzen, die es erlauben würde, das Thema so lange als öffentliches präsent zu halten, bis ein als ‚gewünscht‘ kommunizierbarer Wandel eintrete. Ein solcher Wandel zielt in aller Regel auf das seinem eigenen Zeitregime folgende Recht. Was so dargestellt als Einstellen auf die Temporalität des Rechts zu beschreiben ist, erscheint aus anderer Warte als zu kritisierende Salami-Taktik. Zu diesem Schluss kommen etwa Transparenz-Organisationen (Cryptome. org, Web We Want), die dem ICIJ vorhalten, dass wer nicht alles auf einmal transparent mache, lediglich eigene und also Privatinteressen verfolge. Diese Kritiklinie rekonstruiert das fünfte Kapitel. Auf die den Einsatz von Publizität als Korrekturmedium erschwerenden Entwicklungen reagieren publizierende Korrektive, wie hier eben das ICIJ, mit einem hohen Maß an planvoller Organisation, mit Publikationsstrategien. Wo aber ein in diesem Sinne strategisches Vorgehen zu beobachten ist, wird exakt dies als Vorenthaltung gegenüber der allgemeinen Öffentlichkeit gebrandmarkt. Die Forderung nach maximaler Transparenz konterkariert also die Wirkungschancen von Enthüllungen. Transparenz- und journalistische Korrektiv-Organisationen stehen sich in diesem Sinne unversöhnlich gegenüber. Was sie eint, ist der Glaube an die Korrektivkraft des Rechts. Man trennt sich allerdings wieder in den jeweiligen Überlegungen bezüglich des Weges, dieses Recht zu erreichen, wie das abschließende Fazit nach einer knappen Zusammenfassung erläutern wird.

2 „… and sooner or later public opinion will sweep them away“ Pulitzer sprach nicht von Transparenz. Und doch fällt es nicht schwer, eine Verbindungslinie zum Transparenz-Imperativ zu ziehen. Seine Botschaft hatte mit der Presse eine klare Adressatin. Gelingt es ihr, der Öffentlichkeit

Lob der Salami-Taktik: Der Transparenz-Imperativ …

251

ungerechtfertigterweise Vorenthaltenes ins Freie, nach draußen – out in the open – zu befördern, sei es nur eine Frage der Zeit, bis die öffentliche Meinung dieses Übel hinwegfege. Der für die moderne Transparenz-Semantik konstitutive Glaube an die Kraft der Publizität lässt sich hier einerseits umstandslos nachvollziehen. Andererseits vertrat Pulitzer diese Einschätzung unter entscheidend anderen Umständen als den heutigen. Die enthüllenden Veröffentlichungen der Pionier_innen des Investigativ-Journalismus waren für die Entscheidungsträger_innen dieser Zeit kaum zu ignorieren. Hierin lässt sich ein wesentlicher Unterschied zu gegenwärtigen Bedingungen erkennen. Dass sich diese Differenz nicht ausschließlich über technischen Wandel, insbesondere über die Expansion von Verbreitungsmedien, erklären lässt, ist Gegenstand dieses Abschnitts. Zu den bemerkenswertesten durch Investigativ-Journalist_innen angeregten Korrekturen gehört sicher der 17. Zusatz zur US-amerikanischen Verfassung („the Seventeenth Amendment to the US constitution“). Bis zu dieser wurden Senatoren ernannt, nun mussten sie sich wählen lassen. Diese Änderung aber musste vom Senat selbst beschlossen werden, kurzum: Senatoren mussten dafür stimmen, nicht länger ernannt, sondern frei gewählt zu werden. Alexander Dyck et al. (2013) haben nachgezeichnet, wie es zu dieser unwahrscheinlichen Konstellation kommen konnte. Der Cosmopolitan hatte intensiv über diese Reform berichtet. Die Autoren zeigen, dass Senatoren aus Bundesstaaten, in denen der Cosmopolitan weiter verbreitet war, mit einer signifikant höheren Wahrscheinlichkeit ihre Stimme im Zeitraum zwischen 1902 und 1911 von ‚Nein‘ zu ‚Ja‘ (zum Amendment) änderten. Den Senatoren war vollkommen klar, dass sie nicht gegen das öffentliche Interesse handeln konnten, ohne die politische Stabilität zu riskieren. Entscheidend ist jedoch, dass sie Auskunft über das öffentliche Interesse offenbar in diesem Magazin (oder in anderen Regionen vergleichbaren, wie McClure’s) zu finden suchten. Diese frühen Magazine waren, in einer gelungenen Wendung James Hamiltons (2016, S. 42), „tied to the political machine“, sie begründeten die muckraking period. Dyck et al. (2013) untersuchen diese Magazine aber nicht nur aus einem originär historischen Interesse, sondern vor allem aus methodologischen Gründen. Mit der wenig später folgenden Durchsetzung landesweiter Radio- und Fernsehstationen sei die Verbindung zwischen Berichterstattung und regulatorischen Auswirkungen (‚regulatory outcomes‘) – geschweige denn die Internet-Entwicklung einbeziehend – nicht mehr in überzeugender Weise überprüfbar. Weil also immer mehr Medien mit immer größerer Reichweite entstünden, würden jeweilige Einflussgrößen für die Forschung kaum noch isolierbar, was unmittelbar damit zusammenhänge, dass auch den Entscheider_innen ein Blick in ein bestimmtes Magazin nicht mehr ausreichen konnte, um sich über die öffentliche Meinung zu informieren.

252

M. Mölders

Diese technische Entwicklung erklärt einen großen Teil der Veränderungen für das Ausüben einer Funktion Vierter Gewalt. Dyck et al. (2013) machen allerdings einen zusätzlichen Erklärungsfaktor aus, warum die muckraking period nur von 1902 bis 1917 dauerte. Den Magazin-Redaktionen musste ihr Erfolg – gemessen sowohl an ökonomisch verwertbarer Auflagensteigerung als auch am Impact – auffallen. Sie reduzierten dabei, dies machen die Autoren als entscheidenden Punkt aus, ihren eigenen Nachrichtenwert; sie übersättigten die Öffentlichkeit mit Skandalen (ebd., S. 549). Wenn Entrüstung nicht mehr plausibilisiert werden kann, verlieren entsprechende Veröffentlichungen ihre orientierende Funktion (genauer: Leistung). Niklas Luhmann (2011, S. 20) hatte ebendies erwartet und konstatiert, dass etwa die Entlarvung des Machtgebrauchs in Bürokratien viel zu mühsam und fast vollständig sinnlos sei, da es niemanden interessiere. Formal gesprochen gibt es zwei Möglichkeiten, mit der erschwerten Lage für orientierende Publizität umzugehen. Zum einen kann die Erwartung selbst angepasst und also aufgegeben werden. Selbst gesellschaftliche Korrekturen anzustoßen wäre dann nicht mehr von Investigativ-Journalist_innen zu erwarten. Genau dies finden wir, wie das nächste Kapitel zeigen wird, auf der Ebene der Fremdbeschreibung. Die Formel „Kontrolle und Kritik“ bezeichnet dann das Aufgabenspektrum einer Vierten Gewalt; wie die aus Kontrolle und Kritik entstehenden Produkte andernorts verarbeitet werden, ist dann nicht mehr aufgerufen. Eine zweite Möglichkeit liegt darin, an der Erwartung festzuhalten, zu ihrer Erfüllung aber zu anderen Mitteln zu greifen. Ebendies findet sich im gegenwärtigen Diskurs über ein vermeintlich neues goldenes Zeitalter des Enthüllungsjournalismus, wofür der im übernächsten Kapitel einzuführende Fall der Panama Papers ein Paradebeispiel abgibt.

3 Die Vierte Gewalt und das Aufdecken im Geheimen Die Figur einer die Staatsgewalt(en) kontrollierend beobachtenden Vierten Gewalt wird gemeinhin auf Rousseau zurückgeführt (vgl. Bidlo 2012). Hugo de Burgh (2008) wählt einen anderen Zugang, wenn er den Englischen Bürgerkrieg (1642–1649) insofern als Weichen stellend benennt, als hier zum ersten Mal die Möglichkeit konkurrierender Ereignisbeobachtung dokumentiert ist. Hiermit kommt zudem das Konzept des Augenzeugen in die Welt, noch bevor die Aufklärung den Szientismus befördert. Doch damit eine Vierte Gewalt entstehen konnte, die über Kontrolle und Kritik hinaus Korrekturen anmahnt, waren weitere Entwicklungen notwendig. Vor Mitte des 19. Jahrhunderts sind vom politischen

Lob der Salami-Taktik: Der Transparenz-Imperativ …

253

Zentrum unabhängige Zeitungen faktisch unmöglich.1 Erst eine informationshungrige und an Einfluss gewinnende Bourgeoisie meldete einen Bedarf an Orten schriftlich verbreitbarer Debatten an und fand diese in der englischen Times. Für die Idee des Reporters als jemandem, der hinausgeht, um herauszufinden, was tatsächlich passiert, macht de Burgh (ebd., S. 40) erneut einen Krieg als initiierend aus. Als Times-Korrespondent berichtet William Howard Russell vom Krimkrieg (1853–1856) und deckt dabei auf, wie ineffizient die britische Marine im Vergleich zur französischen operiere. Die medizinische Versorgung sowie die Organisation von Nachschub würden es den Briten unmöglich machen, diesen Krieg zu gewinnen. Russels Berichterstattung wurde in der Folge zum ersten Beispiel von durch Enthüllungen initiiertem politischen Wandel: die Regierung kam zu Fall, das Amt des Kriegsministers wurde geschaffen, die medizinische Truppenversorgung als kriegsentscheidend erkannt (vgl. Requate 2003, S. 63). Demzufolge überrascht es nicht, dass auch Habermas (1962, S. 122 ff.) in seiner diesbezüglich klassischen Studie das Ideal einer bürgerlichen Öffentlichkeit am Modellfall der englischen Entwicklung untersucht. Im Deutschsprachigen wird das Konzept der Vierten Gewalt erst unmittelbar nach dem Zweiten Weltkrieg sichtbar. Es tritt auf im Rahmen der Forderung nach einem neuen Pressegesetz mit Verfassungsrang. Federführend ist dabei der österreichische Rechtsphilosoph René Marcic. Als Vertreter einer kritischen Naturrechtslehre kennzeichnet sein Schaffen die Vorstellung, dass sich der Gemeinwille von unten nach oben bilden solle. Die Grundlagen hierfür habe wiederum der Staat zu gewährleisten, indem dieser allen Bürger_innen Bildung durch möglichst neutrale Information zukommen lasse. Eine unabhängige Presse sollte nicht zuletzt zu diesem Zweck den Staat in die Pflicht nehmen. In seiner „Skizze einer Magna Charta der Presse“ erkennt Marcic (1955) drei staatspolitische Funktionen der Presse: Initiative, Kontrolle und Kritik. Der Verfassungsrang sei unabdingbar, da es sich bei diesen Funktionen um genuin öffentliche Aufgaben handele, „indem sie die Öffentlichkeit wahrheitsgemäß unterrichtet, politische Maßnahmen anregt (Initiative), sachlich Kritik übt und die Rechtmäßigkeit des Staatslebens (Gesetzgebung, Verwaltung, Rechtsprechung) überwacht (Kontrolle)“ (ebd., S. 195). Was im vorangegangenen Abschnitt als Impact der frühen muckraker bezeichnet wurde, findet hier eine Entsprechung in der Funktion der Initiative, verstanden als

1Zwar konstatiert Hannes Wimmer (2000, S. 477 ff.) schon für die 1640er Jahre den Zusammenbruch der Regierungskontrolle über die Druckerpressen, die Stamp Tax aber, die Stempelsteuer auf Zeitungspapier, wird erst 1855 abgeschafft.

254

M. Mölders

das Anregen politischer Maßnahmen durch wahrheitsgemäßes Unterrichten der Öffentlichkeit. Dabei ging es insbesondere um das Einhegen des Staatsapparats, was durch ein Argument begründet wird, in dem systemtheoretische Soziolog_ innen die Hypostasierung der Funktion des politischen Systems leicht entdecken können: „Die politischen Kräfte, die an der Macht sind, würden widernatürlich handeln, wenn sie nicht die Gelegenheit, die sich ihnen im Kampf gegeneinander und im gemeinsamen Kampf gegen außenstehende Faktoren bietet, reichlich nützten!“ (ebd.). Auffällig ist, bei aller Betonung der Einhegungserfordernis der „Ersten Drei Gewalten“, dass, zumindest für den deutschsprachigen Raum, die Vierte Gewalt von Beginn an als Kontrolleurin, Kritikerin und Initiatorin des gesamten Gesellschaftsbetriebs aufgefasst wird. Bei Marcic ist schon von politischer, wissenschaftlicher und Kunstkritik die Rede, Martin Löfflers (1960, S. 200) „Verfassungsauftrag der Publizistik“ betont das „Wächteramt gegenüber Staat und Wirtschaft“. Bemerkenswert ist ferner, dass Marcic (1957, S. 394) noch selbstverständlich davon ausgeht, dass mit Vierter Gewalt zunächst alles Außerparlamentarische gemeint ist: „Gewerkschaften, Interessenverbände, Kammern, Betriebsgemeinschaften, Leistungsgemeinschaften mit ständischen Merkmalen und der verschiedenen Genossenschaftsformen auf der einen Seite – und formloser außerparlamentarischer Aktionen, wie: Kundgebungen, Proteste, Märsche, Demonstrationen und außergewerkschaftliche Streiks, also Aktionen, hinter denen keine greifbaren Organisationen. sichtbar stehen.“

Zu einer solchen Gewalt solle, so Marcic (ebd., S. 395), auch die parteiunabhängige Presse gehören. Die gegenwärtige Tendenz, Medien und Vierte Gewalt synonym zu verwenden, hat ihren Ursprung also in der Forderung, Presse als dem Außerparlamentarischen ebenbürtig anzuerkennen. Der reklamierte Verfassungsrang hatte aber nicht nur staatstheoretische, sondern auch praktische Implikationen. Weil es der Publizistik um öffentliche Aufgaben zu tun sei, forderte Löffler (1960, S. 197), dass Publizist_innen dasselbe Recht zukomme wie „dem Geistlichen, dem Anwalt, dem Steuerberater, dem Arzt, dem Apotheker, der Hebamme und dem Parlamentarier […] das gleiche volle Recht auf Wahrung des Berufsgeheimnisses“. Wenn die Vierte Gewalt (auch) den Staat kontrollieren und kritisieren soll, dann darf der Kontrollierte und Kritisierte nicht einfordern preiszugeben, wie diese an wahrheitsgemäße Informationen gekommen ist. Schon bei Löffler, also drei bzw. fünf Jahre nach Marcics ersten Erörterungen, wird die Funktion der Initiative getilgt. Fortan ist diesbezüglich ausschließlich von

Lob der Salami-Taktik: Der Transparenz-Imperativ …

255

­ ontrolle und Kritik die Rede, auch noch in den gegenwärtig gültigen StandardK werken von Armin Scholl und Siegfried Weischenberg (1998) oder Ulrich ­Sarcinelli (1992).2 Im Urteil des Ersten Senats des Bundesverfassungsgerichts (BVerfG) vom 15. Januar 19583 wird die Pressefreiheit noch als vom Grundrecht auf freie Meinungsäußerung bereits abgedeckt betrachtet. Erst am 25. April 19724 urteilt das BVerfG dann, dass „die freie geistige Auseinandersetzung ein Lebenselement der freiheitlichen demokratischen Ordnung in der Bundesrepublik und für diese Ordnung schlechthin konstituierend [ist]. Sie beruht entscheidend auf der Meinungs-, Presse- und Informationsfreiheit, die als gleichwertige Garanten selbstständig nebeneinander stehen.“ Erst aus dieser Form der grundgesetzlich geschützten Pressefreiheit konnte dann abgeleitet werden, dass das Zeugnisverweigerungsrecht auch für Journalist_innen in Anschlag zu bringen sei; das „Gesetz vom 25.07.1975 über das Zeugnisverweigerungsrecht der Mitarbeiter von Presse und Rundfunk“ ist seit dem 1. August 1975 in Kraft5 (§ 53 Abs. 1 Nr. 5 der Strafprozessordnung) und betrifft: „Personen, die bei der Vorbereitung, Herstellung oder Verbreitung von Druckwerken, Rundfunksendungen, Filmberichten oder der Unterrichtung oder Meinungsbildung dienenden Informations- und Kommunikationsdiensten berufsmäßig mitwirken oder mitgewirkt haben.“ Seit 2002 (in Kraft) sind nun auch Mitarbeiter_innen nicht-periodisch erscheinender Medien eingeschlossen.6 Um ihrer Aufgabe gerecht werden zu können, ein tendenziell gesamtgesellschaftliches Wächteramt auszuüben, muss der Vierten Gewalt zugestanden werden, Geheimnisse für sich behalten zu dürfen. Als Abwehrrecht war dies „den 2Zu

vermuten steht, dass der Siegeszug des Begriffspaars von Kontrolle und Kritik durch die den „Fourth Estate“ begründende Formulierung des zeitweiligen Times-Redakteurs Henry Reeve (1855, S. 249 f.) begründet wurde „Journalism, therefore, is not the instrument by which various divisions of the ruling classes express themselves; it is rather the instrument by means of which the aggregate intelligence of the nation criticises and controls them. It is indeed the ‘Fourth Estate’ of the Realm.“ 3BVerfG, Beschluss des Ersten Senats vom 15. Januar 1958 – 1 BvR 400/51 – Rn. (1–75), http://www.bverfg.de/e/rs19580115_1bvr040051.html. Zugegriffen: 14. Juni 2019. 4Mit Löffler (1960) lässt sich hierin auch ein Wiederanschluss an das Reichspressegesetz „von 1874 mit dem Begriff der ‚formellen Pressefreiheit‘“ erkennen. Für das Urteil von 1972 siehe http://www.servat.unibe.ch/dfr/bv033052.html. Zugegriffen: 14. Juni 2019. 5 http://www.bgbl.de/xaver/bgbl/start.xav?startbk=Bundesanzeiger_BGBl&jumpTo= bgbl175s1973.pdf. Zugegriffen: 01.10.2019. 6http://initiative-tageszeitung.de/lexikon/zeugnisverweigerungsrecht/. Zugegriffen: 14. Juni 2019.

256

M. Mölders

Fangarmen des Riesenkraken Staat“ (Marcic 1955, S. 194) gegenüber konzipiert worden. Der weitere Verlauf des vorliegenden Beitrags wird zeigen, dass gegenwärtig auch anderweitige Zugriffsversuche zu beobachten sind, und zwar von der außerparlamentarischen Seite aus, die Marcic den Mächtigen noch entgegenstellen wollte. Eine so langwierige Auseinandersetzung um Grundrechtsschutz wäre wohl ohne nachhaltigen Effekt geblieben, wäre damit nicht gleichermaßen eine eigenständige Professionalisierung in Gang gesetzt worden. Am 12. Dezember 1973 werden die „Publizistischen Grundsätze“, besser bekannt als der „Pressekodex“, vom Deutschen Presserat (in Zusammenarbeit mit den Presseverbänden) beschlossen und dem damaligen Bundespräsidenten Gustav Heinemann überreicht.7 Schließlich oblag es durch das verfassungsrechtliche Urteil nun den Journalist_innen, eigene Regeln zu finden, die etwa das Geheimnistragen limitieren. Für das Interesse der hier verfolgten Argumentation besonders aufschlussreich ist etwa Ziffer 4.1 „Grundsätze der Recherchen“. Darin heißt es, dass sich Journalist_innen grundsätzlich zu erkennen geben. Verdeckte Recherche sei im Einzelfall gerechtfertigt, sofern damit Informationen von besonderem öffentlichen Interesse beschafft werden, die auf andere Weise nicht zugänglich wären. Diese Begründungsfigur findet sich auch an einigen weiteren Stellen, z. B. zum Aspekt der Vertraulichkeit. Über als geheim bezeichnete Vorgänge und Vorhaben, so der Kodex, dürfe nur berichtet werden, wenn nach sorgfältiger Abwägung feststellbar sei, das Informationsbedürfnis der Öffentlichkeit rangiere höher als die für die Geheimhaltung angeführten Gründe. Man mag Leitsätze wie „berechtigtes öffentliches Interesse“ oder „Informationsbedürfnis der Öffentlichkeit“ für vage halten. Sichergestellt ist damit allerdings, dass die Grundsätze in jedem strittigen Einzelfall operationalisiert werden, sodass jedes Mal unter bis dahin veränderten Bedingungen zu fragen ist, was „berechtigtes öffentliches Interesse“ bedeutet. Die Stoßrichtung des Kodex ist eindeutig: Recherche-Informationen werden geheim gehalten, wenn ebendies im öffentlichen Interesse liegt. Die in den letzten Jahren vielerorts gegründeten non profit-Organisationen des (investigativ-)journalistischen Bereichs sind in aller Regel ihre eigene formale Selbstverpflichtung eingegangen: die Initiative Transparente Zivilgesellschaft.8 Schon der dieser Selbstverpflichtung vorangestellte Grundsatz verdeutlicht die

7http://www.presserat.de/pressekodex/pressekodex/.

Zugegriffen: 14. Juni 2019.

8https://www.transparency.de/fileadmin/Redaktion/Mitmachen/ITZ/SVE_Initiative_Trans-

parente_Zivilgesellschaft_01.pdf. Zugegriffen: 01.10.2019.

Lob der Salami-Taktik: Der Transparenz-Imperativ …

257

entscheidende Richtungsänderung im Vergleich zum Pressekodex: „Wir verpflichten uns zur Transparenz! Wer für das Gemeinwohl tätig wird, sollte der Gemeinschaft sagen: Was die Organisation tut, woher die Mittel stammen, wie sie verwendet werden und wer die Entscheidungsträger sind.“ Die Umkehrung gegenüber dem Grundsatz im Pressekodex ist folglich: Es wird geheim gehalten, wenn es im Privatinteresse liegt, genauer: Geheimhaltung verweist in dieser Sichtweise stets auf dahinterstehende Privatinteressen. Transparenz wird kehrseitig zur Bedingung eines Handelns im öffentlichen Interesse. Nun mag man einwenden, dass es sich hierbei ohnehin um bloß formale Selbstverpflichtungen handelt, die mit performativen Aspekten journalistischer Praxis nicht zur Deckung kommen. Der im nächsten Abschnitt vorgestellte Fall der Panama Papers wird zeigen, dass im sukzessiven Offenlegen eine Taktik gesehen wird, die vermeintlich vergessene Initiativ-Funktion der Vierten Gewalt an gegenwärtige Bedingungen anzupassen. Genau dies wird allerdings aus Sicht des Transparenzanspruchs als Salami-Taktik kritisiert, wie das fünfte Kapitel rekonstruieren wird. Der Transparenz-Imperativ, wie er sich etwa in der Selbstverpflichtung der Initiative Transparente Zivilgesellschaft manifestiert, wird in dieser Kritik zur wesentlichen Argumentationsbasis.

4 Vierte Gewalt 2.0? Die Panama Papers Wenn also bloßes Veröffentlichen längst nicht mehr garantieren kann, Änderungsimpulse freizusetzen – mit Habermas (1962): demonstrative Publizität walten zu lassen –, an der Erwartung aber festgehalten werden soll, Vierte Gewalt erschöpfe sich nicht in Kontrolle und Kritik, sondern zeichne sich überdies dadurch aus, korrekturinitiativ9 zu werden, so sind Maßnahmen zu ergreifen, um Veröffentlichungen mit „Zumutungsgehalt“ anzureichern (Marcinkowski 1993). Über diese Maßnahmen, ebendies war die zuvor skizzierte verfassungsrechtliche Errungenschaft, darf geschwiegen werden, sie dürfen bis auf Weiteres explizit intransparent bleiben.

9Daniel Berliner (2016) untersucht die Rolle der INGO Article 19 in der Verbreitung von Freedom of Information (FOI) laws und zeigt, wie diese es anstellt, weit über Alarmierung hinaus bis in „the process of domestic legal design“ hineinzuwirken. Die Bedeutung von Informationsfreiheitsgesetzen für gegenwärtige Investigativbüros ist kaum zu überschätzen. Auf der Hand liegt die Bedeutung solcher Materialien als Quelle, darüber hinaus bietet die Rechtslage Journalist_innen die Möglichkeit, Fälle auszulösen, die ihnen günstige Spezifizierungen bedeuten können: http://meedia.de/2016/10/21/informationsfreiheitsgesetz-correctiv-journalisten-setzen-sich-gegen-bundesinnenministerium-durch/. Zugegriffen: 14. Juni 2019.

258

M. Mölders

Wie aufwendig solche Zumutungsgehaltsanreicherungsversuche sind, ist an den Panama Papers bestens abzulesen.10 Das International Consortium of Investigative Journalists (ICIJ) koordinierte das „Projekt Prometheus“, aus dem später, im Zuge einer organisationalen Entscheidung, das Label Panama Papers wurde. Das ICIJ ist einerseits eines jener non-profit Investigativ-Büros, wie sie in den letzten Jahren an zahlreichen Orten der Welt als Antwort auf die nicht zuletzt durch Digitalisierung erschwerte Lage klassischer Print-Investigativ-Ressorts ins Leben gerufen wurden (vgl. Houston 2010). Andererseits unterscheidet es sich erheblich von anderen Organisationen, insofern es seine Aufgabe vor allem in der projektbezogenen Koordinierung und Vernetzung anderer Journalist_innen versteht. Mitglied im ICIJ kann man nur auf Empfehlung und Einladung anderer Mitglieder werden. Hierunter finden sich dann auch viele for profit-Anbieter, was etwa auf die Süddeutsche Zeitung (SZ) zutrifft, Arbeitgeberin der Panama Papers-Initiatoren Bastian Obermayer und Frederik Obermaier. Die Aufarbeitung und Berichterstattung der Panama Papers betont zumeist drei Aspekte: Internationalität, Koordination und Umfang. Fast 400 Journalist_ innen aus knapp 80 Ländern durchforsten 11,5 Mio. Dokumente, die ein Datenvolumen von 2,6 Terabyte ergeben. Über diese großen Zahlen hinaus ist es die konzertierte Aktion, in der am 3. April 2016 um 20 Uhr mitteleuropäischer Zeit die Partner_innen aus 76 Ländern ihre Beiträge öffentlich machten; genauer gesagt endete zu diesem Zeitpunkt die vom ICIJ verhängte Sperrfrist. In der Tat ist diese Koordination bemerkenswert. Dass es angesichts so zahlreicher Beteiligter gelang, sich auf diesen Zeitpunkt zu einigen und früheren Publikationen Einhalt zu gebieten, ist nicht selbstverständlich. Die SZ-Journalisten beschreiben die Schwierigkeiten aufschlussreich: „Die meisten sind sich einig, dass wir einen Sonntagabend anpeilen wollen, um die ganze Woche das Thema setzen zu können, und dass Mitte März oder Anfang April ein guter Zeitpunkt wäre. […] Am 7. und 8. März erscheinen in Russland keine Zeitungen: Frauentag. Keine Option. Am 13. März sind in Deutschland drei Landtagswahlen […] am 3. April sind in Peru Präsidentschaftswahlen“ (Obermayer und Obermaier 2016, S. 177).

Das zugehörige Buch endet mit der konzertierten Erstveröffentlichung. Die benannte Initiativ-Arbeit beginnt allerdings erst im unmittelbaren Anschluss. Niemand vertraut mehr auf den „Pulitzer-Effekt“ bzw. auf demonstrative Publizität.

10Die

neueren Paradise Papers scheinen bis dato keine signifikant abweichenden Schlüsse zu erfordern.

Lob der Salami-Taktik: Der Transparenz-Imperativ …

259

Zu Strukturänderungen – insbesondere gesetzesförmigen – beizutragen, wird zu einer organisationalen Gestaltungsaufgabe. Ganz wesentlich dafür ist, Themen so lange in öffentlicher Erinnerung zu halten, bis man sich mit einer beobachtbaren Änderung einverstanden erklären kann. Ein Thema ausdauernd zu verfolgen, ist dabei sicher nicht neu. Die Geburtsstunde des modernen Investigativ-Journalismus sieht de Burgh (2008, S. 44 f.) in William T. Steads „The Maiden Tribute of Modern Babylon“ von (1885). Er begründet dies gerade damit, dass Stead das Thema des Mädchenhandels im Europa des ausgehenden 19. Jahrhunderts über ein Jahr verfolgte, immer wieder darüber schrieb und mit vermeintlich modernen Methoden wie cliff-hangers operierte. Steads sensationalistischer Stil war in diesem Sinne zwar Teil des Erfolgsrezepts, gleichwohl hält Wimmer (2000, S. 470) dazu fest: „Der vielbeklagte Sensationsjournalismus ist keine Degenerationserscheinung seit der 2. Hälfte des 19. Jahrhunderts, sondern steht schon am Beginn der modernen Publizistik.“ Auch für das ICIJ galt es, immer wieder neue Aspekte am selben Thema, den Geschäftsmodellen der panamaischen Kanzlei Mossack Fonseca, zu entdecken und aufzubereiten. Hierfür steht den Journalist_innen des 21. Jahrhunderts eine ungekannte Vielzahl allein an Verbreitungsmedien zur Verfügung. Für die Panama Papers reicht die Variabilität von klassischen Büchern und Zeitungen über Social Media bis zum Online-Spiel „Stairway to Tax Heaven“. Einerseits bedeuten viele Kanäle auch viele unterschiedliche Darstellungsmöglichkeiten zur Organisation von Persistenz. Jedoch geht es nicht darum, auf unterschiedlichen Kanälen Gleiches lediglich unterschiedlich formatiert zu verbreiten, sondern unterschiedliche Aspekte desselben Themas mitzuteilen.11 Das impliziert zwei Aufgaben: Einerseits Neues im gleichen Thema zu entdecken und andererseits dieses Neue als Neues im gleichen Rahmen zu präsentieren. Diese beiden Aufgaben übernahm das ICIJ. Um die immense Datenmenge überhaupt bearbeitbar zu machen, waren leistungsfähige Hard- und Softwarelösungen gefragt. Um relevante und publizitätsfähige Informationen buchstäblich finden zu können, mussten die 11,5 Mio. Dokumente mit Worterkennungs- und Schlagwortsystemen aufbereitet werden. So konnten etwa Fälle mit „Staatschefnähe“ herausgefiltert werden. Hier macht der als Digitalisierung bezeichnete Wandel den vielleicht größten Unterschied: Die Geschichten, so die Annahme, sind alle schon da, sie müssen nur in der Datenbank gefunden werden. Doch mit 11Auch

die Forderung nach cross media oder multi-channel Strategien hat historische Vorläufer. Schon mit Blick auf eine schmalere Medienpalette argumentierte der Politikwissenschaftler und ehemalige Kohl-Berater Wolfgang Bergsdorf (1980, S. 86), dass im politischen Raum wirkende Gruppierungen „sich auf die Gesamtheit der Massenkommunikationsmittel beziehen“ müssten.

260

M. Mölders

dieser technischen Lösung ergeben sich wieder neue, nicht-technische Probleme: Die Skandalisierbarkeit finanzieller Übervorteilung herrschender Eliten ist überschaubar, Überraschungen müssen gesucht werden. Empörung ist alles andere als leicht zu erregen. Nur einen Tag nach den Auftaktpublikationen stellt etwa Stefan Winterbauer (2016) das Korrekturpotenzial des Leaks infrage: „Aber ist das wirklich so eine Überraschung? […] Solche Vorwürfe gegen den russischen Präsidenten können richtig sein oder auch nicht, ein neues Licht auf ihn werfen sie nicht.“ Um die für sich genommen heterogenen Fälle erkennbar den Panama Papers zurechnen zu können, entwickelte das ICIJ eine einheitliche Präsentation, zunächst den Titel selbst, den zugehörigen Twitter-Hashtag, Websites, ein eigenes Logo und eine eigene Illustrationssprache. Wiedererkennbarkeit wird nur in langer Frist zu einem (organisationalen) Problem. Schon damit ist angezeigt, dass mit Ausdauer gerechnet wird. Einerseits liefert die Datenbank weiteres Publikationsmaterial. Darüber hinaus wird die Beobachtung der externen Weiterverarbeitung eigener Informationen zur Lösung des Persistenz-Problems. Man hält danach Ausschau, welche Resonanz die eigenen Veröffentlichungen anregen, um hieraus Anlass für weitere Berichterstattung zu generieren. Das bedeutet nicht zuletzt, dass sich die beteiligten Medienorganisationen in Form einer „Selbstsynchronisation“ entschleunigen, um außermediale Resonanz anzuregen (Mölders und Schrape 2017). Die ICIJ-Mitglieder stimmen (sich) über die Publikationsagenda ab, folgen nicht ihren „Tageszeitungsreflexen“ (Obermayer und Obermaier 2016, S. 40). Sie passen ihren Takt an den erwarteten Rhythmus anderer Sinnsysteme an; Taktgeber ist vor allem das Recht, worauf im weiteren Verlauf zurückzukommen sein wird. Hierfür ist die Weiterverarbeitung eines Vorschlags zu einem Transparenzregister des deutschen Finanzministers Wolfgang Schäuble ein besonders instruktives Beispiel. In einem solchen Register solle offengelegt werden, welche natürlichen oder juristischen Personen die wahren Eigentümer von Unternehmen und Stiftungen seien. In der SZ wird dieser Vorschlag als Geheimregister disqualifiziert. Es gelte demgemäß nämlich keine echte Transparenz, sondern ein stark eingeschränkter Zugang: Nur wer ein „berechtigtes Interesse“ vorweisen könne, habe eine Chance auf Einsicht. Personen sollten darin gar nicht erst auffindbar sein, eine Suchmaske sei nur für Firmennamen vorgesehen (Wormer 2017). Dies ist ein Beispiel für die mediale Kommentierung einer politischen Übersetzung. Ein Transparenzregister ist exakt das, was Obermayer und Obermaier in ihrem Buch fordern. Das Problem intransparenter Briefkastenfirmen als auch dessen Lösung wird im Recht lokalisiert: „Die gelebte Verantwortungslosigkeit in den Offshore-Zentren dieser Welt beruht auf Gesetzen, die man ändern kann“ (ebd., S. 311). Die eigene Taktung, wann was veröffentlicht wird, rechnet sowohl mit der Eigenzeit als auch der Differenzierung des Rechts in Nationalstaaten.

Lob der Salami-Taktik: Der Transparenz-Imperativ …

261

Gäbe es einen funktionierenden, weltweiten automatischen Informationsaustausch über Bankkonten, bräuchte es nur noch weltweit transparente Unternehmensregister „mit der Bedingung, dass Falschinformation strafrechtlich verfolgt und rigoros bestraft wird“ (ebd., S. 311). Wichtig aber sei es, dass ein solches Register auch offen sei „für Wissenschaftler, Nichtregierungsorganisationen – Experten eben, die Zeit und Muße haben“ (ebd., S. 316). Schließlich zeigt diese Sequenz auch, warum sich die an den Panama Papers Beteiligten darauf verständigt hatten, die Konsequenzen ihrer Enthüllungen je national zu kontrollieren und ggf. zu kritisieren; anders sei Initiative gar nicht zu ergreifen. Dies relativiert dann auch solche Aussagen: „Diese Sternstunde des investigativen Journalismus wird zu Recht weltweit gefeiert. Zum ersten Mal vernetzen sich Medien, um einem Phänomen auf die Spur zu kommen, das den alten, national agierenden Journalismus überforderte: den globalen Strömen des Kapitals. An diesem neuen Typ des transnationalen, machtkritischen Datenjournalismus könnten sich die national-autoritären Regime demnächst die Zähne ausbeißen. Vieles spricht dafür, dass die Zukunft des Journalismus als vierte Gewalt sich jenseits nationaler Grenzen abspielen wird.“ (Shaller 2016)

Die Zukunft der Vierten Gewalt, so wäre dagegen empirisch zu schließen, spielt sich vor allem unter Beachtung nationaler, zumindest sprachgemeinschaftlicher Grenzen ab. Diese Berücksichtigung wird über die Grenzen des Rechts begründet.12 Diese Fallskizze zeigt, zu welchen Lösungen Organisationen unter gegenwärtigen Bedingungen greifen, um den problematischen Veränderungen seit der muckraking period zu begegnen. Korrigierende Strukturveränderungen werden nur dann als realisierbar aufgefasst, wenn Ignorieren erschwert wird. Um nicht als „momentane Inkonsistenz“ rasch wieder vergessen werden zu können, ist kontinuierliches Stören zu organisieren. Technische und nicht-technische Lösungen sind im Vorangegangenen beschrieben worden: Immense Datenbanken, die durch Worterkennungssoftware nach nachrichtenwertrelevanten Schlagworten suchen lassen, wie auch das strenge Beobachten der Weiterverarbeitung des selbstgesetzten Themas andernorts.

12So

auch Scott Klein von ProPublica im Interview auf die Frage, ob sein Arbeitgeber eine Internationalisierung in Betracht ziehe, was finanziell ohne weiteres machbar wäre: „You know, (')as a US-based uh organizatio:n who:’s, you know– I think, we wanna keep our focus pretty sharp on the US and we sort of understa:nd open (')data in the US doc– uh (.) the freedom of information la:ws in = the United States, we kind = of know how the US works.“

262

M. Mölders

5 Der Transparenz-Imperativ als Kritik der Salami-Taktik Bis hierhin war Transparenz in so vielen Facetten thematisch, dass eine knappe Zusammenfassung angezeigt ist. Das Aufdecken von Verborgenem ist das Kerngeschäft des Investigativ-Journalismus. Dass er im Zuge eines solchen Enthüllens selbst Geheimnisse tragen darf, die nur in Ausnahmefällen preiszugeben sind, war Ergebnis einer langen Auseinandersetzung, die in Deutschland noch bis Mitte der 1970er zu führen war. Die im dritten Kapitel eingeführten Urteile zur Pressefreiheit (als nicht schon durch Meinungsfreiheit abgedecktes Grundrecht) und zu den Berufsgeheimnisträgern haben auch die journalistische Professionalisierung vorangetrieben. Dass bloßes Veröffentlichen nicht automatisch dazu führt, dass die öffentliche Meinung ein Übel früher oder später hinwegfegen wird, um Pulitzer zu paraphrasieren, ist in der investigativ-journalistischen Praxis längst angekommen. Um dennoch korrekturwirksam operieren zu können, haben sich die im ICIJ-Projekt Versammelten darauf verständigt, durch sukzessives und kontextsensitives Aufdecken das Thema der Steueroasen so zu gestalten, dass es kaum ignorierbar ist. Kontextsensitiv meint hier vor allem, die je nationalen Weiterführungen beobachtend, um aus diesen Beobachtungen Anlässe für weitere Berichterstattung abzuleiten. Das Nicht-Offenlegen des gesamten Datensatzes wird so zu einem Aspekt der Wirkungsstrategie. Nur persistentes Stören vermag die Wirkung zu erzielen, die zu Pulitzers Zeiten ein singulärer Scoop am richtigen Ort entfaltete. Ein in dieser Weise strategisch vorgehender Enthüllungsjournalismus riskiert, sich dem Vorwurf einer Salami-Taktik aussetzen zu müssen. In Reinform ließ sich dieser Gegensatz auf einem Panel der Re:Publica 2016 beobachten. Zum Thema „Panama Papers: Investigative Journalism, the ‚Lügenpresse‘ and the age of Big Leaks“ diskutierten Frederik Obermaier von der SZ und Renata Avila von Web We Want bzw. der World Wide Web Foundation.13 Solche Initiativen als Transparenz-Organisationen zu bezeichnen, liegt recht nahe. Ihnen geht es um das Offenlegen von allem, was andernorts geheim gehalten werden soll. Hierzu lässt sich auch Cryptome.org zählen, denen es gelungen ist, Glenn Greenwald und Laura Poitras von The Intercept dazu zu bringen, ganze Jahrgänge von Sid Today zu veröffentlichen, der Intrawebsite der NSA-Abhörabteilung Signal Intelligence (SIGINT).

13https://re-publica.com/16/session/panama-papers-investigative-journalism-lugenpresse-and-age-big-leaks. Zugegriffen: 14. Juni 2019.

Lob der Salami-Taktik: Der Transparenz-Imperativ …

263

Zuvor kennzeichnete die Salami-Taktik exakt das planvolle Vorgehen von The Intercept (Staun 2016). Schon hierdurch wird deutlich, dass der Transparenz-Imperativ strukturwirksame Folgen hat, hier: das Überdenken einer Publikationspraxis, die sich zuvor genau daran ausrichtete, durch sukzessives Offenlegen einen dauerhaften Störfaktor bilden zu können. Ebendies ersucht Avila in der Diskussion mit dem SZ-Journalisten zu erwirken. Sie erkennt in der Salami-Taktik des ICIJ gerade keinen Aspekt einer Wirkungsstrategie, sondern ausschließlich den Durchbruch privater Interessen: „Even more than ninety-nine percent of the information will never be published. […] It is a balance […] it is protecting the source, exclusivity of the news outlets, the economy of the news and the really flawed model of how journalism gets funded and at the same time the right to know of the people globally on a truth that only 400 journalists have access to and that they can decide with a bias and a specific agenda what to do with them.“

Obermaier rekurriert in seiner Replik nicht auf Wirkungstaktik, sondern auf Quellenschutz. Dem Whistleblower könnte nach dem Leben getrachtet werden, da nicht zu garantieren sei, dass nicht irgendwo in der immensen Datenmenge der entscheidende Hinweis zur Entschlüsselung dieser Person zu finden sei. Avila aber sieht nicht zuletzt technische Möglichkeiten, diesen Sicherheitsaspekt zu gewährleisten. Ihr Modell und das ihrer Organisation basiert auf der Annahme: Je mehr offengelegte Daten, desto größer ist der wirksame Druck. Das ist nicht weit vom Pulitzer-Ideal entfernt. Das Vorbild für just diese Praxis ist erkennbar WikiLeaks.14 Hier wird Speicherplatz auf verschlüsselten Servern sowie verschlüsseltes Aufspielen von Daten angeboten, es findet gerade keine redaktionelle

14Auch

die Sozialwissenschaften sprachen mitunter emphatisch hierüber: „WikiLeaks und vergleichbare Plattformen verstehen sich explizit als global agierende neue vierte Gewalt, die eine neue Form des Polizierens (…) auf globaler Ebene betreiben. Damit stehen Wikileaks und vergleichbare Netzaktivisten zweifellos in der Nähe des klassischen investigativen Journalismus und knüpfen an deren Verständnis als Vierte Gewalt nicht nur im Staate, sondern auf der gesamten Welt an“ (Reichertz et al. 2012, S. 199). Judith Beyrle (2016, S. 164) zeigt für den Fall der Botschaftsdepeschen, dass gerade nicht alles auf einmal online gestellt wurde, „sondern begleitend zur Print-Veröffentlichung […] nur wenige hundert Dokumente“. Die Idee von WikiLeaks treffe sich mit dem klassischen Ideal Vierter Gewalt „in der Hoffnung auf eine qualitative Änderung von Politik durch Öffentlichkeit. Die Öffentlichkeit der Dokumente würde nun die Arbeit der Einordnung und Einschätzung den Lesern überlassen“ (ebd., S. 206).

264

M. Mölders

Betreuung statt. Avila erinnert das Operieren des ICIJ allerdings an andere Zeiten: „I thought that we have left behind the debate of whether WikiLeaks is journalism or is not. I mean it is.“ Die Bearbeitung von Daten, insbesondere ihre zeitliche Gestaltung, kommt in diesem Modell nicht als Mehrwert vor. Daten müssen dann für sich sprechen. Journalistische Einordnung mag gemacht werden, diese darf aber nicht das schnellstmögliche Veröffentlichen sämtlicher Datengrundlagen blockieren. „A specific agenda what to do with them [the data; M. M.]“ ist exakt der Vorwurf, der Web We Want dem ICIJ macht. Dass ebendiese Agenda ein wesentlicher Aspekt der Wirkungsstrategie des ICIJ sein könnte, gerät dabei gar nicht erst in den Blick. Über diesen Aspekt unterschiedlicher Publikationsstrategien hinaus, lassen sich auch differente Wirkungskonditionen ableiten. Eine instruktive Differenz lässt sich auf der Achse „Selbst- und Fremdtransparenz“ ausmachen. Eine hohe Selbsttransparenz bedeutet in diesem Zusammenhang, das eigene Vorgehen (öffentlich) sichtbar werden zu lassen. Ein solcher Fall lässt sich gleich nach dem Start beim erst 2014 gegründeten Recherchebüro CORRECT!V finden. Bereits vor der Aufnahme des operativen Geschäfts erklärte der damalige Chef-Redakteur, David Schraven, zunächst die Institution der Sparkassen unter die Lupe nehmen zu wollen. Sogar die fokussierten Themen wurden transparent gemacht, so ist in der Frankfurter Allgemeinen Zeitung vom 1. Juli 2014 zu lesen, man wolle sich alle Sparkassen in Deutschland vornehmen und deren Daten zu Kontogebühren, Zinssätzen, Vorstandsgehältern, Aufsichtsratsbezügen, Beteiligungen, Rücklagen und versteckten Risiken aufbereiten. Mag dieser Schluss nicht in einem strengen Sinne empirisch belastbar sein, so ist doch die Annahme plausibel, dass man es spätestens mit dieser Ankündigung den Sparkassen ermöglichte, sich auf öffentliche Reputationsschäden vorzubereiten. Damit muss nicht einmal gesagt sein, dass das ursprüngliche Ziel – eine Steigerung der Gemeinwohlorientierung seitens der Sparkassen – verfehlt werden muss. Worauf es hier ankommt, lässt sich in dieser einfachen These zusammenfassen: Je transparenter das eigene Vorgehen (Selbsttransparenz), desto weniger wahrscheinlich verläuft die Fremdtransparenz in Richtung der Veränderung, die mit der Transparenzanregung verknüpft war (und umgekehrt). Für den Umkehrschluss lassen sich gleich mehrere von ProPublica initiierte Fälle heranziehen. Erfolgsgeschichten dieser Art sind etwa das Verbot der Fördermethode Fracking im Staat New York, das erfolgreiche Überzeugen des Pentagons, Maßnahmen gegen die Erkrankung „traumatic brain injury“ (TBI) in der Folge des Afghanistan-Kriegs zu ergreifen oder auch das Department of

Lob der Salami-Taktik: Der Transparenz-Imperativ …

265

Education (DoE) zu einer Änderung der Ausnahmeregelungen für Menschen mit Behinderung zur Rückzahlung von Bildungskrediten zu bewegen (Mölders 2017). Hierzu kamen ganz unterschiedliche Mittel und Wege zum Tragen, doch vor jeder Story stellt ProPublica eine sogenannte „Promotion Squad“ zusammen. Ein solches Team beinhaltet Expert_innen, die auf die Auffindbarkeit durch Suchmaschinen spezialisiert sind, ein „Social Editor“ entscheidet darüber, welche sozialen Netzwerke jeweils geeignet erscheinen und sucht dort ebenfalls nach einflussreichen Multiplikator_innen. Ein „Marketer“ kümmert sich um weitere Verbreitung über Telefonie oder E-Mails an andere Medienhäuser sowie eventuell interessierte Organisationen. Auch der „Story Editor“ nimmt teil, um eine aus seiner Sicht angemessene Bewerbung sicherzustellen. Schließlich evaluiert ein „Data Analyst“ den Impact der Verbreitungsmaßnahmen. Dass dieses „Erfolgsrezept“ überhaupt öffentlich bekannt wurde, ist dem nicht ironiefreien Umstand zu verdanken, dass es in einem geleakten, nicht zur Veröffentlichung vorgesehenen „Report on Innovation“ im Auftrag der New York Times detailliert beschrieben wurde (Tanzer 2014). Ebendies plausibilisiert den voran genannten Umkehrschluss, dass weniger Eigentransparenz mit einer erhöhten Fremdtransparenz im Sinne einer responsiven Strukturänderung einhergehen kann. Dies lässt sich als eine latente Funktion von Intransparenz beschreiben. Für die Diskussion des Panama Papers-Falls ist hier von besonderer Relevanz, dass frühzeitige und tendenziell allumfassende Transparenz eine Vorbereitungszeit für diejenigen erlaubt, die man zu überraschen sucht. Hierin lässt sich unschwer ein unintendierter Nebeneffekt des Transparenz-Imperativs erkennen. Über so etwas wie unintendierte Nebeneffekte scheinen gegenwärtige Vierte Gewalten durchaus aufgeklärt. So lässt sich wiederum im Fall von ProPublica ein Dokument namens „An Unintended Side Effect of Transparency“ finden, in dem eine Datenbank, die ärztliche Verschreibungspraxen offenlegen sollte, auch dazu genutzt wurde, nach Ärzt_innen suchen zu können, die eher als andere geneigt sind, Opioide zu verschreiben (Engelberg 2016).

6 Fazit: „Helfen kann nur das Recht, …“ Die Taktiken des gegenwärtigen Enthüllungsjournalismus und die von Transparenz-Organisationen scheinen sich unversöhnlich gegenüber zu stehen. Wo die einen im zeitlichen Aufschub von Offenlegungen ein wesentliches Mittel sehen, um unter gegenwärtigen Bedingungen überhaupt im öffentlichen Interesse über Publiziertes Handlungsdruck auf Entscheider_innen ausüben zu können, wird

266

M. Mölders

ebendiese Agenda als Privatinteresse von der anderen Seite abgelehnt. Ein sukzessives Veröffentlichen zum Zwecke der Aufrechterhaltung öffentlichen Drucks kommt hier nur als zu skandalisierende Salami-Taktik in den Blick: „full docs or it didn’t happen“.15 Dem vorliegenden Beitrag ging es darum, die Konsequenzen dieser konträren Haltungen auch und gerade ihre Weiterverarbeitung betreffend zu vergleichen. Dass es etwa der SZ im Zuge der Panama Papers auch um Marktanteile, Profilierung und Positionierung ging, muss damit keineswegs bestritten werden. Nicht zuletzt in rechtlicher Hinsicht ist das Konstrukt Rechercheverbund NDR, WDR und Süddeutsche Zeitung umstritten. So wurde im März 2015 Rechtsaufsichtsbeschwerde gegen ihn vom Verband Privater Rundfunk und Telemedien (VPRT) eingereicht (Hanfeld 2015). Der Verbund verzerre den Wettbewerb und lasse die von allen Beitragszahler_innen entrichtete Gebühr mit der SZ auch einem privaten Unternehmen zugutekommen. Enthüllungen des Machtgebrauchs in Bürokratien seien viel zu mühsam und fast vollständig sinnlos, so hatte der frühe Luhmann (2011) befunden, da sie niemanden interessierten. Daraus hätte geschlossen werden können, dass es erheblichen organisationalen Aufwand erfordert, mit Entlarvungen Beiträge zur Strukturauflösung und -rekonstruktion leisten zu können. Doch den späten Luhmann kennzeichnet diesbezüglich eher das Gegenteil. Gar unter Bezugnahme auf den Watergate-Fall formuliert er (1997, S. 404 f.), dass Empörung leicht zu erregen sei, woraus aber nicht folge, was praktisch wirksam zu tun sei. „Helfen kann nur das Recht, das Verstöße mit gravierenden Folgen sanktioniert (wenn es korruptionsfrei gehandhabt werden kann)“ (ebd., S. 405). Dass nur das Recht helfen kann, wird nun weder vom Investigativ-Journalismus noch von Transparenz-Organisationen bestritten. Man mag hierin gar eine Konvergenz entdecken: Auf unterschiedlichen Wegen wollen beide hier über weite Strecken getrennt behandelte Initiativen ins Recht. Sie eint die Auffassung, dass praktische Wirksamkeit nur vom Recht zu erwarten sei. Für das ICIJ wurde bereits (Kap. 4) skizziert, welche rechtliche Lösung hier gesehen wird. Gefordert wurde ein transparentes, ggf. strafrechtlich verwertbares Unternehmensregister. Hieran wurde allerdings geknüpft, dass ein solches Register offen sein müsse für Wissenschaft und NGOs. Somit treffen sich das ICIJ und Web We Want nicht nur – räumlich gesprochen – mit dem Recht am selben Ort.

15So

ein vom Moderator paraphrasierter Tweet von Renata Avila in besagtem Re:Publica Panel.

Lob der Salami-Taktik: Der Transparenz-Imperativ …

267

Denn Renata Avila fordert im Allgemeinen zwar die Veröffentlichung des gesamten Leaks im Namen der Öffentlichkeit. Im Besonderen aber wären die Dokumente hilfreich für „my community of lawyers and human rights lawyers, we are quite familiar with what kind of documents, which kind of information we could found in those papers, if we had access to the whole database.“ Ob nun das Recht im Medium der Publizität über den Gesetzgeber (im Beispielfall: das Finanzministerium) oder im Gerichtssaal (über Menschenrechtsanwält_innen) erreicht werden soll, am Ende benötigen beide hier verglichenen Korrekturvorstellungen Expertise. Eine Differenz findet sich ausgerechnet darin, wie unterschiedlich transparent der Status von Expert_innen ist.

Literatur Bergsdorf, W. (1980). Die vierte Gewalt. Einführung in die politische Massenkommunikation. Mainz: v. Hase & Koehler. Berliner, D. (2016). Transnational advocacy and domestic law: International NGOs and the design of freedom of information laws. The Review of International Organizations, 11(1), 121–144. Beyrle, J. (2016). Die Form der Nachricht. Zur massenmedialen Konstruktion von Wirklichkeit und Gegenwart. Weilerswist: Velbrück. Bidlo, O. (2012). Eine kurze Geschichte der Medien als Vierte Gewalt. In O. Bidlo, C. J. Englert, & J. Reichert (Hrsg.), Tat-Ort Medien. Die Medien als Akteure und unterhaltsame Aktivierer (S. 151–168). Wiesbaden: VS Verlag. De Burgh, H. (2008). The emergence of investigative journalism. In H. de Burgh (Hrsg.), Investigative journalism (S. 32–51). London: Routledge. Dyck, A., Moss, D., & Zingales, L. (2013). Media versus special interests. Journal of Law and Economics, 56(3), 521–553. Engelberg, S. (12. Mai 2016). An unintended side effect of transparency. ProPublica. https://www.propublica.org/article/an-unintended-side-effect-of-transparency. Zugegriffen: 14. Juni 2019. Habermas, J. (1962). Strukturwandel der Öffentlichkeit. Untersuchungen zu einer Kategorie der bürgerlichen Gesellschaft. Frankfurt a. M.: Suhrkamp. Hamilton, J. T. (2016). Democracy’s detectives. The economics of investigative journalism. Cambridge: Harvard University Press. Hanfeld, M. (14. März 2015). Drei in einem Boot. Frankfurter Allgemeine Zeitung. https://www.faz.net/aktuell/feuilleton/medien/kritik-an-ndr-wdr-und-sz-drei-in-einemboot-13482745.html. Zugegriffen: 14. Juni 2019. Hoffjann, O., & Arlt, H.-J. (2015). Die nächste Öffentlichkeit. Theorieentwurf und Szenarien. Wiesbaden: Springer VS. Houston, B. (2010). The future of investigative journalism. Dædalus, 139(2), 45–56. Ireland, A. (1914). Joseph Pulitzer. Reminiscences of a secretary. New York: Mitchell Kennerley.

268

M. Mölders

Lloyd, J., & Toogood, L. (2015). Journalism and PR. News media and public relations in the digital age. London: I.B.Tauris. Löffler, M. (1960). Der Verfassungsauftrag der Publizistik. Festschrift für Emil Dovifat. Publizistik, 5, 197–201. Luhmann, N. (1997). Die Gesellschaft der Gesellschaft. Frankfurt a. M.: Suhrkamp. Luhmann, N. (2011). Strukturauflösung durch Interaktion. Ein analytischer Bezugsrahmen. Soziale Systeme, 17(1), 3–30 (Erstveröffentlichung 1975). Marcic, R. (1955). Skizze einer Magna Charta der Presse. Einige Grundgedanken zum Entwurf eines neuen Pressegesetzes. Juristische Blätter, 77(8), 192–196. Marcic, R. (1957). Vom Gesetzesstaat zum Richterstaat. Recht als Maß der Macht. Gedanken über den demokratischen Rechts- und Sozialstaat. Wien: Springer. Marcinkowski, F. (1993). Publizistik als autopoietisches System. Politik und Massenmedien. Eine systemtheoretische Analyse. Opladen: Westdeutscher Verlag. Mölders, M. (2015). Der Wachhund und die Schlummertaste. Zur Rolle des Investigativ-Journalismus in Konstitutionalisierungsprozessen. Zeitschrift für Rechtssoziologie, 35(1), 49–67. Mölders, M. (2017). Shaping pressure. On the regulatory effects of publicity. In R. Paul, M. Mölders, A. Bora, M. Huber, & P. Münte (Hrsg.), Society, regulation and governance. New modes of shaping social change (S. 121–137). Cheltenham: Elgar. Mölders, M., & Schrape, J.-F. (2017). Neue Irritationspotentiale in der „digitalen Gesellschaft“. Synchronisation zwischen Medien, Politik und Recht. Zeitschrift für Rechtssoziologie, 37(2), 239–265. Obermayer, B., & Obermaier, F. (2016). Panama Papers. Die Geschichte einer weltweiten Enthüllung. Köln: Kiepenheuer & Witsch. Reeve, H. (1855). The newspaper press. Edinburgh Review, 102(208), 241–255. Reichertz, J., Bidlo, O., & Englert, C. J. (2012). Securitainment. Die Medien als eigenständige Akteure und unterhaltsame Aktivierer. In O. Bidlo (Hrsg.), Tat-Ort Medien. Die Medien als Akteure und unterhaltsame Aktivierer (S. 191–203). Wiesbaden: VS Verlag. Requate, J. (2003). Die Presse als ‚Fourth Estate‘. Entstehung und Entwicklung einer folgenreichen Konzeption in England im 19. Jahrhundert. In W. R. Langenbucher (Hrsg.), Die Kommunikationsfreiheit der Gesellschaft. Die demokratischen Funktionen eines Grundrechts (S. 58–71). Wiesbaden: Westdeutscher Verlag. Sarcinelli, U. (1992). Massenmedien und Politikvermittlung. Eine Problem- und Forschungsskizze. In G. W. Wittkämpfer (Hrsg.), Medien und Politik (S. 37–62). Darmstadt: Wissenschaftliche Buchgesellschaft. Scholl, A., & Weischenberg, S. (1998). Journalismus in der Gesellschaft. Theorie, Methodologie und Empirie. Opladen: Westdeutscher Verlag. Shaller, C. (14. April 2016). Wo wir scheitern. Die Zeit. https://www.zeit.de/2016/17/pressefreiheit-extra-3-jan-boehmermann-verfolgung-journalisten. Zugegriffen: 14. Juni 2019. Staun, H. (22. Mai 2016). It’s fun to stay at the NSA. Frankfurter Allgemeine Zeitung. https://www.faz.net/aktuell/feuilleton/debatten/ueberwachung/edward-snowden-dokumente-geben-einblicke-in-agentenalltag-14244478.html. Zugegriffen: 14. Juni 2019. Stead, W. T. (6. Juli 1885). The maiden tribute of modern Babylon. The Pall Mall Gazette. https://attackingthedevil.co.uk/pmg/tribute/mt1.php. Zugegriffen: 31. Mai 2018.

Lob der Salami-Taktik: Der Transparenz-Imperativ …

269

Tanzer, M. (15. Mai 2014). Exclusive: New York Times internal report painted dire digital picture. BuzzFeedNews. https://www.buzzfeednews.com/article/mylestanzer/exclusive-times-internal-report-painted-dire-digital-picture. Zugegriffen: 14. Juni 2019. Wimmer, H. (2000). Die Modernisierung politischer Systeme. Staat. Parteien. Öffentlichkeit. Wien: Böhlau. Winterbauer, S. (4. April 2016). Investigativjournalisten im Daten-Nirwana: Vom zweifelhaften Erkenntniswert der Panama Papers. Meedia. https://meedia.de/2016/04/04/ investigativ-%E2%80%8Bjournalisten-im-daten-nirvana-vom-zweifelhaften-erkenntniswert-der-panama-papers/. Zugegriffen: 14. Juni 2019. Wormer, V. (20. Februar 2017). Das Transparenzregister hat seinen Namen nicht verdient. Süddeutsche Zeitung. https://www.sueddeutsche.de/wirtschaft/briefkastenfirmen-dastransparenzregister-hat-seinen-namen-nicht-verdient-1.3387170. Zugegriffen: 14. Juni 2019.

Marc Mölders (PD Dr.)  ist seit 2014 Akademischer Rat (auf Zeit) im Bereich Technikfolgenabschätzung und Rechtssoziologie an der Bielefelder Fakultät für Soziologie. 2012‒2013 arbeitete er im Rahmen des BMBF-Spitzenclusters Intelligente Technische Systeme OstWestfalenLippe („it’s owl“) am Teilprojekt „Akzeptanz gewährleisten – Technik sozial- und humanverträglich gestalten“. Zu seinen aktuellen Forschungsschwerpunkten gehören Differenzierungstheorie, Medien- und Kommunikationswissenschaft, Rechts- und Techniksoziologie, Soziologie der Gesellschaftskorrektur sowie Soziologie der Vierten und Fünften Gewalt. 2018 erschien in der Zeitschrift für Theoretische Soziologie Mölders’ Aufsatz „Talking the Law into Co-Evolution. Übersetzungsanregungen in den Medien der Interaktion und der Publizität“.

Funktionen und Folgen von Transparenz: Zum Fall Open Science Martina Franzen

Zusammenfassung

Der Ruf nach mehr Transparenz ist gegenwärtig in kaum einem Bereich lauter als in der Wissenschaft. Die Forderung nach Transparenz ist in diesem Fall besonders überraschend, als dass Wissenschaft im Unterschied beispielsweise zur Politik durch ihr institutionalisiertes Veröffentlichungsgebot immer schon an der Norm der Transparenz orientiert war. Im Programm von Open Science geht es jedoch um mehr als um die freie Zirkulation von Wissen durch Open Access. Die analytische Betrachtung dreier Fälle von Open Science (Nano-Publikation, Open Data, Open Reviews) offenbart, dass Transparenzpraktiken wissenschaftliche Handlungsweisen derart sichtbar machen, dass sie durch Maschinen auslesbar werden. Die Transparenznorm befördert somit, so die These, die Automatisierung wissenschaftlichen Handelns. Diese mit der Transparenzwerdung einhergehenden Dynamiken sollen im vorliegenden Beitrag aus gesellschaftstheoretischer Warte näher bestimmt werden.

M. Franzen (*)  Kulturwissenschaftliches Institut Essen, Essen, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 V. August und F. Osrecki (Hrsg.), Der Transparenz-Imperativ, https://doi.org/10.1007/978-3-658-22294-9_11

271

272

M. Franzen

Abstract

There is hardly any area that calls for more transparency these days than science. The demand for transparency is particularly surprising in this case, as science, unlike politics, for example, has always been oriented towards the norm of transparency through its institutionalised requirement for publication. Open science, however, is about more than the free circulation of knowledge in the mode of open access. The analytical examination of three cases of open science (nano papers, open data, open reviews) reveals that transparency guidance make scientific practices externally visible by converting them into machine-actionable data. The thesis is that the transparency norm thus promotes the automation of scientific action; the consequences and theoretical implications of which need to be determined in more detail in the present contribution.

1 Einleitung „Open Science will eventually lead to better science, by making science more credible (addressing scientific integrity), reliable (better and more transparent verification of data), efficient (avoid duplication of resources) and more responsive to societal challenges.“ (European Commission 2016, S. 45)

Der ubiquitären Forderung nach mehr Transparenz steht eine semantische Vieldeutigkeit gegenüber. Implizit ist zumeist von Transparenz nach außen, also von öffentlicher Transparenz die Rede. Doch meint Transparenz im politischen, wissenschaftlichen oder rechtlichen Diskurs überhaupt das Gleiche? In einem System wie der Wissenschaft, die keine externalisierte Publikumsrolle kennt (Stichweh 1988; Dickel und Franzen 2015), ist die Forderung nach Transparenz besonders überraschend: Für wen genau soll Transparenz geschaffen werden und vor allem wozu? Transparenz ist der Leitbegriff einer good governance (Hood und Heald 2006). So wird Transparenz heute als neue Allzweckwaffe ins Feld geführt: „It […] represents an apparently simple solution to complex problems“ (Birchall 2014, S. 77). Da der Transparenzimperativ mit demokratietheoretischen Vorstellungen verknüpft ist, scheint die Politik zunächst der naheliegende Adressat für Transparenzforderungen zu sein. Doch blickt man auf das gegenwärtige politische Geschäft kann von Transparenz im Sinne von Open Government oder Liquid Democracy bislang kaum die Rede sein. Sehr viel weiter fortgeschritten scheint die Transparenzwerdung aber in einem anderen Gesellschaftsbereich, und zwar in der Wissenschaft. Open Science heißt die ihr eigene Transparenzformel. Der Ruf nach mehr Transparenz ist in diesem Fall insofern bemerkenswert, als

Funktionen und Folgen von Transparenz: Zum Fall Open Science

273

dass Wissenschaft schon immer transparent war, wenn ein zentraler Modus der Transparenz die Veröffentlichung ist. Das Veröffentlichungsgebot der Wissenschaft ist einerseits Voraussetzung für ihre Leistungserbringung, andererseits Instrument für die interne und externe Leistungsmessung. Dabei ist es die Politik, die die Transparenzwerdung der Wissenschaft maßgeblich vorantreibt.1 Open Science bedeutet wissenschaftspolitisch gesehen keine weitere Spielart von Wissenschaft, sondern ihre Zukunft (Franzen 2016a). Für die Transparenzforschung bildet Open Science somit einen instruktiven Fall, an dem sich der Begriff und die Bedeutung des Transparenzimperativs schärfen lässt. Dazu wird als erstes die wissenschaftspolitische Agenda von Open Science vorgestellt (Abschn. 2). Sodann wird eine soziologische Begriffsklärung vorgenommen, wie genau Transparenz auf der Makroebene gefasst werden kann, um von transparenten Systemen (Open Science) zu sprechen (Abschn. 3). Anhand von drei Fallstudien für jede Dimension des wissenschaftspolitischen Konzepts von Open Science (Open Scholarly Communication, Open Data, Open Access) wird das Transparenzgebot auf seine legitimatorische Funktion, den Adressaten und die Implikationen hin analysiert (Abschn. 4). Auf Basis der Ergebnisse wird die These formuliert, dass das Transparenzgebot die normative Grundlage für einen tiefgreifenden soziotechnischen Wandel darstellt, dessen Kennzeichen die Übersetzung wissenschaftlichen Handelns in maschinenlesbare Daten ist. Das Transparenzgebot scheint somit nicht Selbstzweck, sondern vielmehr Wegbereiter für die Automatisierung wissenschaftlichen Handelns. Aus dieser Perspektive deutet Open Science auf einen Strukturbruch hin, der einer gesellschaftstheoretischen Ausformulierung bedarf (Abschn. 5).

2 Die Open Science Agenda Die Rede von Open Science wird hierzulande noch allzu häufig mit der Art der Veröffentlichung gleichgesetzt, d. h., auf den Aspekt von Open Access im wissenschaftlichen Publikationssystem verkürzt. Mit der seit den 1980er Jahren laufenden Umstellung auf elektronisches Publizieren in der Wissenschaft sind die Möglichkeiten prinzipiell gestiegen, Ergebnisse öffentlich zugänglich zu machen. Hinter der Open-Access-Bewegung steht die Forderung, dass öffentlich geförderte Wissenschaft auch der Öffentlichkeit zur Verfügung stehen soll, und zwar kostenlos und

1Allen

voran die Europäische Kommission mit ihrer Open Science Agenda (EC 2014, 2016), die im Folgenden genauer erläutert wird.

274

M. Franzen

überall und jederzeit abrufbar. Open Access steht demnach in Opposition zur kommerziellen Verwertung wissenschaftlicher Kommunikation und zielt primär auf den Abbau von Bezahlschranken2 im Publikationswesen (Taubert und Weingart 2016). Die Forderung nach mehr Transparenz in der Wissenschaft im Modus von Open Science geht aber über die Frage des mehr oder minder öffentlichen Online-Zugriffs auf wissenschaftliche Veröffentlichungen hinaus. Das Transparenzgebot erstreckt sich nicht nur auf die Verbreitung von Wissen im Zuge der Publikation (Open Access), sondern auch auf den Herstellungsprozess von Wissen und die dahinterliegenden Daten (Open Research Data) sowie die Bewertung von Wissen (Open Peer Review im Kontext von Open Scholarly Communication). All diese soziotechnischen Entwicklungen werden zusammengenommen unter dem Schlagwort von Open Science verhandelt und wurden u. a. zur Governance-Leitlinie der Europäischen Forschungspolitik erklärt (EC 2016). Über den Fortschritt zu Open Science in der europäischen Forschungslandschaft gibt seit März 2017 der sogenannte Open-Science-Monitor Auskunft. Wie Abb. 1 zu entnehmen ist, wird im interaktiven Open-Science-Monitor der Europäischen Kommission3 das Paradigma von Open Science grob in die drei Bereiche Open research data, Open scholarly communication und Open access to publications unterteilt. Jedes Steuerelement lässt sich einzeln anklicken, um zu den jeweils dahinterliegenden Ergebnissen zu gelangen, die auf Basis indikatorenbasierter, quantitativer Auswertungen zum bereits erzielten Ausbau der Open Science Aktivitäten gestaffelt nach Ländern, erfasst wurden. Auch wenn die vorgenommenen Operationalisierungen und die verwendeten Datenquellen im Einzelnen diskutabel sind, offenbaren die vorliegenden Zahlenwerte, dass die avisierte Transformation der europäischen Wissenschaftslandschaft noch am Anfang steht. Selbst das seit zwei Dekaden verhandelte Open-Access-Gebot von Publikationen wurde bisher nur zu 11 % (2015) realisiert.4 An der Implementation von Open Science wird jedoch gearbeitet. Aktuell entwickelt ein internationales Expertenpanel im Rahmen der Open Science Policy Platform der Europäischen Kommission Empfehlungen für das nächste 2Die

dahinterliegende Idee der Allmende wird allerdings umgekehrt durch den Aufbau von Bezahlschranken auf Seite der Autoren der Zeitschriften (article processing fees) sukzessive unterhöhlt, sodass bereits vereinzelt von einem Scheitern der Open Access Bewegung die Rede ist (Herb 2017). 3Für die Gestaltung des Open-Science-Monitor wurde RAND Europe im Rahmen einer EU-Projektförderung beauftragt, die der Think Tank zusammen mit der Technologiefirma Digital Science umgesetzt hat. 4Anders als die Bezeichnung ‚Monitor‘ suggeriert, werden scheinbar gar keine Echtzeit-Daten verarbeitet und angezeigt. Die meisten Graphen pro Segment enden im Jahr 2015.

Funktionen und Folgen von Transparenz: Zum Fall Open Science

275

Abb. 1   Der EU Open-Science-Monitor 1. (Quelle: https://ec.europa.eu/research/openscience/index.cfm?pg=home§ion=monitor [Stand März 2018])

EU-Forschungsrahmenprogramm.5 Im sogenannten 3O’s Report „Open innovation, open science, open to the world“ ist die politische Vision bereits formuliert (EC 2016). So wird das primäre Ziel von Open Science darin verortet, Forschungsergebnisse schneller praktisch umzusetzen bzw. zu verwerten und damit die Innovationsfähigkeit Europas zu stärken. „Open Innovation must help to connect and exploit the results of Open Science and facilitate the faster translation of discoveries into societal 5https://ec.europa.eu/research/openscience/index.cfm?pg=open-science-policy-platform.

Zugegriffen: 25. Januar 2018.

276

M. Franzen

use and economic value.“ (EC 2016) Open Science wird dabei definiert als „a systemic change in the modus operandi of doing research and organising science“ (EC 2014, S. 1). Das wissenschaftspolitische Konzept von Open Science (zuvor noch als Science 2.0 bezeichnet, vgl. EC 2014) markiert demnach einen disruptiven Wandel der Wissenschaft, der mit der fortschreitenden Digitalisierung verknüpft wird. Für die nachfolgende Untersuchung zu den Kennzeichen und Implikationen eines radikalen Wandels hin zu Open Science ist es zunächst notwendig, ein analytisches Verständnis des dahinter liegenden Transparenzbegriffes zu gewinnen.

3 Zu einem makrotheoretischen Begriff von Transparenz Meijer (2013) rekonstruiert Transparenz innerhalb des politischen Diskurses als universelles Gut, einerseits als ein Mittel zum Zweck und andererseits als Zweck an sich. Transparenz gilt im letzteren Fall als ein Mechanismus, Institutionen gegenüber der öffentlichen Kontrolle (public scrutiny) zu öffnen (Birchall 2014). Zugleich wird Transparenz als Mittel symbolischer Politik genutzt, wenn es immer häufiger darum geht, zeigen zu wollen, „an institution or organisation is more ethical, more honest or more trustworthy“ (Worthy 2018, S. 24). Ungeachtet ihrer jeweiligen Funktion, lässt sich als das basale Element jeder Transparenzpolitik festhalten, „bisher gut versteckte Informationen sichtbar zu machen“ (August 2018). Dabei existieren, wie Alois Hahn einmal ausführte, grundsätzlich „zwei Formen, an Information zu gelangen: Wahrnehmung und Kommunikation“ (Hahn 1998, S. 24). Aus der systemtheoretischen Perspektive Luhmanns, an die Hahn hier anschließt, sind mit Wahrnehmung und Kommunikation allerdings unterschiedliche analytische Ebenen angesprochen: Kommunikation ist auf soziale Systeme, Wahrnehmung auf psychische Systeme ausgelegt6.

6Ohne

an dieser Stelle zu tief in die Systemtheorie einzudringen, sind zum Verständnis vielleicht folgende Erläuterungen nötig: Soziale Systeme unterteilt Luhmann in Funktionssysteme (wie Wissenschaft, Politik, Kunst), Organisationen und Interaktionen. Bekanntermaßen können seiner Theorie nach nur soziale Systeme kommunizieren oder anders ausgedrückt: „Der Mensch kann nicht kommunizieren; nur die Kommunikation kann kommunizieren.“ (Luhmann 1990, S. 31) Demnach besteht für ihn die Gesellschaft nicht aus Menschen oder Handlungen, sondern aus Kommunikation als Basalelement. Der handelnde Mensch gehört als Bewusstseinssystem zur Umwelt des Systems und agiert nicht im Medium der Kommunikation, sondern im Medium der Wahrnehmung. Bewusstseinssysteme und Funktionssysteme reproduzieren sich nach Maßgabe der eigenen Struktur. Sie operieren getrennt voneinander, sind aber strukturell gekoppelt.

Funktionen und Folgen von Transparenz: Zum Fall Open Science

277

Für unsere Frage nach dem Zweck der Herstellung von Transparenz in der Wissenschaft gewinnen wir mit dieser Differenz von Wahrnehmung (Bewusstsein) und Kommunikation (System) nun Folgendes: Auch wenn sich wissenschaftliche Befunde der konkreten Wahrnehmung des Rezipienten entziehen, ermöglicht deren Mitteilung durch den Autor wissenschaftliche Anschlussfähigkeit. Im Medium der wissenschaftlichen Publikation wird über Bewusstseinsleistungen berichtet, wodurch laufend neue kommunikative Anschlussmöglichkeiten im Wissenschaftssystem entstehen. Mit der Erfindung des wissenschaftlichen Zeitschriftenartikels begann die Ausdifferenzierung dessen, was wir heute Wissenschaft nennen. Der Rekurs auf die Publikation bedeutet allerdings, dass „[a]lle Verstehensgrundlagen, die für das Akzeptieren des und Weiterverwenden der Information notwendig sind, […] jetzt im Text selbst geschaffen werden [müssen]“ (Luhmann 1990, S. 603). Wissenschaft reproduziert sich demnach nicht über Personen, sondern über ein rekursives Netzwerk an Publikationen, die über Zitation miteinander verknüpft werden, und für die fortwährende Autopoiesis der Wissenschaft7 sorgen ­(Stichweh 1987). Publikationen können aber auch ungeachtet ihres Wahrheitswerts zirkulieren, sie bilden nur die Form für das mediale Substrat (Wahrheit). Erst über das intersubjektive Verstehen mitgeteilter Informationen realisiert sich das, was wissenschaftseigene Kommunikation heißt.8 Dabei lohnt es, in Erinnerung zu rufen, dass die Überprüfung wissenschaftlicher Wahrheitsbehauptungen vor der Einführung wissenschaftlicher Periodika noch ausschließlich interaktionsförmig organisiert war und primär auf Wahrnehmungsleistungen setzte. Die beiden Wissenschaftshistoriker Shapin und Schaffer (1985) haben dazu die Bedeutung der Zeugenschaft herausgearbeitet, der die Ergebnisse der experimentellen Wissenschaft zunächst face-to-face vorgeführt wurden. Über Augenzeugen (die sogenannten Gentlemen) wurden wissenschaftliche Entdeckungen validiert und darüber soziale Anerkennung generiert. Seit der Umstellung auf Publikationen muss die intersubjektive Verständlichkeit im Medium Text geschaffen werden, um eine virtuelle Zeugenschaft aus Gutachtern und Lesern schriftlich zu überzeugen. Selbstverständlich findet ein wissenschaftlicher Austausch immer auch über mündliche Interaktionen statt. Aber selbst auf wissenschaftlichen Konferenzen geht es nicht um eine öffentliche Vorführung der Herstellung von Wissen

7So

wird die Gründung wissenschaftlicher Zeitschriften im 17. Jahrhundert als Katalysator für die wissenschaftliche Expansion eingestuft (Merton und Zuckerman 1985). 8Kommunikation kommt Luhmanns Verständnis nach aus der Synthese dreier Selektionen, Information, Mitteilung und Verstehen zustande. Der Kommunikationsbegriff ist insofern rückwärts gebaut.

278

M. Franzen

unter Anwesenden, d. h. um den Nachweis, dass Wissenschaft funktioniert (analog zur Zeugenschaft), sondern um eine rhetorisch vermittelte Darstellung von Forschungsergebnissen. Wissenschaftliche Kommunikation bleibt mündlich wie schriftlich ein performativer Akt, inklusive der bekannten literarischen Strategien zur Überzeugung des Publikums über die Relevanz und Evidenz von Forschungsergebnissen (Latour und Woolgar 1979; Gilbert 1976; Knorr-Cetina 1984). Wenn die Publikation das basale Element der Wissenschaft darstellt (Stichweh 1987), „das operative Medium ihrer Autopoiesis“ (Luhmann 1990, S. 432), bekommt die mediengebundene Darstellungsseite von Wissen gegenüber der Herstellungsseite von Wissen in der Wissenschaft eine besondere Priorität eingeräumt (Esposito 2005). Oder anders ausgedrückt: „[T]he results of research only become completely scientific when they are published“ (Ziman 1969, S. 318). Da es bei Transparenz nicht einzig um den Regelbetrieb der Veröffentlichung, sondern auch um Enthüllung im Sinne von public scrutiny geht (Birchall 2014), stellt sich in unserem Fall der Wissenschaft zunächst die Frage, was genau verschleiert ist, das enthüllt werden soll. Einen nützlichen Hinweis dazu liefert der Literaturwissenschaftler Hörisch, indem er das Schiller-Gedicht „Das verschleierte Bild zu Sais“ (1795) in Erinnerung ruft. Der Kernsatz lautet hier: Wer den Schleier hebt, „der sieht die Wahrheit“ (Hervorhebung im Original). Hörisch verwendet das Gedicht als Beleg für sein Argument, dass das Geheimnis der visuellen Sphäre zuzurechnen sei, um demgegenüber das Rätsel als Sprachereignis zu fassen (Hörisch 1998, S. 162). Die Enthüllung eines Geheimnisses ist somit an die visuelle Wahrnehmung geknüpft, an das, was man mit eigenen Augen sehen kann. Die Rätsellösung ist dagegen eine kommunikative Leistung. Der etymologische Ursprung von Transparenz verstärkt den Eindruck, dass es bei der Forderung nach (öffentlicher) Transparenz der Sache nach um Wahrnehmung und nicht um Kommunikation geht. Als ein Begriff aus der Physik, genauer aus der Optik, bezeichnet Transparenz die Lichtdurchlässigkeit (als Kehrwert der Opazität) (Rzepka 2013, S. 33 ff., 73 ff.) Daraus leitet sich auch die metaphorische Verwendung von Transparenz ab.9 Nimmt man Schiller nun wörtlich, bedeutet Transparenz den Blick hinter den Schleier und damit einen unmittelbaren Zugang zur Wahrheit. Dies ist für unseren Fall besonders interessant, denn, wenn Wissenschaft die genuine Aufgabe hat, Wahrheiten zu generieren und diese an andere zu vermitteln, ist die Frage ob und wie ihr das genau eigentlich gelingt. Angesichts der ubiquitären Forderung nach

9So

erklärt Han (2012) die transparente Gesellschaft zur durchsichtigen Gesellschaft, in der weniger Systeme, sondern die Bürger einsehbar und umfassend kontrolliert werden.

Funktionen und Folgen von Transparenz: Zum Fall Open Science

279

Transparenz in der Wissenschaft scheint es eher so, als seien wissenschaftliche Befunde derart verschleiert, dass Einsichten von außen nicht mehr möglich sind. Mithilfe der Unterscheidung von Wahrnehmung und Kommunikation lässt sich zugleich ein Grund für den fehlenden öffentlichen Zugang zur wissenschaftlichen Wahrheit benennen: Die moderne Wissenschaft entzieht sich (zunehmend) der intersubjektiven Wahrnehmung. Wissenschaft ist vielmehr ein kommunikatives Unterfangen, an dem nur einige wenige teilnehmen, die eine gemeinsame Sprache sprechen und sich über Publikationen aufeinander beziehen (Stichweh 1987; Luhmann 1990). Wissenschaftskommunikationsaktivitäten, zunehmend professionalisiert in organisationalen Pressestellen, sind an die Stelle getreten, Forschungsergebnisse nach außen zu tragen und entsprechend zu popularisieren. Doch lässt sich mit kommunikativen Mitteln von gesteigerter Publizität und Popularisierung das mediale Substrat ‚Wahrheit‘ nicht direkt vermitteln. Wenn im Dogma von Open Science nun die Suggestion mitläuft, dass der die Wissenschaft umgebende Schleier gehoben werden kann, um jedermann unmittelbaren Zugang zur Wahrheit zu verschaffen, sind die Bedingungen der Möglichkeit von Systemtransparenz zu klären. Im folgenden Abschnitt werden wir uns exemplarisch drei Transparenzpraktiken genauer anschauen. Um das Ergebnis der folgenden Analyse gleich vorwegzunehmen: Trotz der Implementation vielfältiger Transparenzmaßnahmen, bleibt das Problem systemischer Intransparenz bestehen. Vielmehr setzen jene Maßnahmen am Symptom (u. a. Replikationsprobleme, fehlende Effizienz, Vertrauensverlust) und nicht an der Ursache (strukturelle Intransparenz) an. Wie zuvor theoretisch hergeleitet, ist Transparenz auf der Ebene der Funktionssysteme auf individuelle Wahrnehmung angewiesen und somit mittels Kommunikation, d. h. einer gesteigerten Informationspflicht nicht zu erreichen. Oder anders ausgedrückt: „Die Durchsichtigkeit macht auch nicht hellsichtig. Die Informationsmasse erzeugt keine Wahrheit.“ (Han 2012, S. 68, Hervorhebung im Original).

4 Dimensionen von Open Science: Drei Fallstudien Wie Vincent August (2018, S. 129) betont, zielt „Transparenz […] nicht bloß auf eine bessere Ausleuchtung der Objekte, sondern auf eine Veränderung der Körper selbst. Diese selbst sollen transparent werden.“ Dieser Spur folgend, soll die Transparenzwerdung der Wissenschaft nun entlang konkreter Beispiele in ihren Implikationen analysiert werden. Die Auswahl der Fälle orientiert sich am zuvor vorgestellten Schema des EU Open-Science-Monitors und umfasst die folgenden drei Entwicklungen: 1) Die Nano-Publikation als innovatives Publikationsformat

280

M. Franzen

im Modus von Open Access, 2) die Einführung der sogenannten FAIR-Prinzipien für die Veröffentlichung von Forschungsdaten und 3) die Online-Plattform Publons für Journal Reviews. Was diese drei Fälle eint, ist die Nutzbarmachung digitaler Medien um Open Scholarly Communication (Abschn. 1), Open Data (Abschn. 2) sowie Open Review (Abschn. 3) zu realisieren. Die leitende Frage der Analyse ist, wer Adressant und wer Adressat dieser Transparenzpraktiken ist.

4.1 Open Scholarly Communication: Die NanoPublikation Das vielleicht ungewöhnlichste Format, dass das digitalisierte Publikationswesen in den letzten Jahren hervorgebracht hat, ist die sogenannte Nano-Publikation als die kleinste Einheit publizierbarer Information. Nano-Publikationen „enthalten die Behauptung genau einer Tatsache“ (Heßbrüggen-Walter 2013, S. 149). Ihre primäre Funktion besteht darin, Ergebnisse schneller publizieren und vor allem rezipieren zu können. Dies trifft auf ein genuines Problem einer sich steigernden wissenschaftlichen Publizität; die menschlichen Aufnahmekapazitäten sind beschränkt und die Lesezeit muss auf das Wesentliche kalibriert werden (Franzen 2018). Zum Problem der limitierten Rezeptionskapazität wurden bereits in der Vergangenheit Lösungen erarbeitet, wie die technische Hierarchisierung von Informationen auf Basis ihrer Resonanz (bibliometrische Indikatoren).10 Auch die Erfindung des Abstracts oder die Gründung ganzer Abstract-Journale lässt sich als Reaktion auf das Problem der Rezeptionskapazität lesen (Weingart 2001, S. 102 ff.). Nicht zu vernachlässigen ist die fortschreitende Standardisierung wissenschaftlicher Artikel, die einerseits der Objektivierung des dargestellten Wissens dienen soll, andererseits das Leseverhalten konditioniert. Unterstützt wird dieser Prozess durch ein konventionalisiertes Aufbaumuster, die sogenannte IMRAD-Struktur. Diese sieht eine strikte Aufteilung des (natur-)wissenschaftlichen Inhalts in die Abschnitte Einleitung, Methoden, Ergebnisse und Diskussion (Introduction, Methods, Results And Discussion) vor.

10Hierzu

gehört auch die Erfindung des Journal Impact Factors, der ursprünglich auf eine Idee des Informationswissenschaftlers Garfield (1955) zurückgeht, um eine Serviceleistung gegenüber dem Leser (und der Bibliothek als Abnehmer) zu generieren, und erst in den letzten Dekaden einen Bedeutungswandel als Kriterium der Leistungsmessung von Autoren erfuhr (Franzen 2011, S. 95 ff.).

Funktionen und Folgen von Transparenz: Zum Fall Open Science

281

Was trotz fortgeschrittener Standardisierung auf der Ebene der Darstellung jedoch ausgeblendet wird, ist, dass der Wahrheitswert eines wissenschaftlichen Artikels intransparent bleibt. Bei wissenschaftlichen Publikationen handelt es sich stets um eine selektive Rekonstruktion des hergestellten Wissens zu kommunikativen Zwecken, dessen Darstellung aber über das hinausgehen kann, was für den Fall an Evidenz zur Verfügung steht. „The popular belief of this past century that scientific language is simply a transparent transmitter of natural fact is, of course, wrong“ (Bazerman 1988, S. 14). Bereits durch die Verwendung des Mediums Sprache (sowie des Weiteren Schrift, Buchdruck, elektronische Medien) ist keine Punkt-für-Punkt-Entsprechung zwischen der Herstellung von Wissen als Bewusstseinsleistung und der Darstellung von Wissen als Kommunikationsleistung zu erzielen (Franzen 2011, S. 56 ff.). Im Rahmen der Publikation wird vielmehr „an den dadurch definierten Stellen über Wahrnehmung berichtet“ (Luhmann 1990, S. 434 f.; Hervorhebung MF). Die Frage, ob der herrschende wissenschaftliche Schreibstil förderlich für die Beurteilung der vermeintlichen Fakten ist, ist allerdings berechtigt. In diesem Sinne plädierte der britische Nobelpreisträger Peter Brian Medawar in einem Rundfunkbeitrag in rhetorischer Manier „Is the scientific paper a fraud“ bereits 1963 für eine stärkere stilistische Anpassung des wissenschaftlichen Schreibens an das Popper’sche Wissenschaftstheoriemodell, um Falsifikationen voranzutreiben. Für die Wissenschaft besteht die besondere Krux also darin, dass „Wahrheit“ durch die medialen Bedingungen ihrer Publikation grundsätzlich verschleiert ist. Dass diese strukturelle Diskrepanz zwischen der Herstellung und Darstellung von Wissen/Wahrheit in der Wissenschaft zunehmend als Problem wahrgenommen wird, drückt sich in der Zunahme an Widerrufen wissenschaftlicher Artikel (retractions) in den letzten Dekaden aus (vgl. im Überblick Hesselmann et al. 2017). Transparenzforderungen aber, die wie weiter oben erläutert, lediglich das existierende wissenschaftliche Veröffentlichungsgebot im Sinne von Open Access verstärken, können nicht dazu beitragen, den Schleier der Wahrheit wie er Publikationen anhaftet, zu heben, sondern können allenfalls die Zugriffsmöglichkeit flexibilisieren. Die Art der Verbreitung von Wissen ändert nichts an der strukturell bedingten Kluft zwischen der methodisch kontrollierten Herstellung und medial geprägten Darstellung von Wissen im Rahmen der Publikation (Franzen 2011, S. 50 ff.). Erst vor diesem Hintergrund bekommt die Einführung des neuen Publikationsformats Nano-Publikation nun seine besondere Bedeutung. Von allen neuen Formaten, die die digitale Transformation des wissenschaftlichen Publikationssystems bislang hervorgebracht hat, ist sie eine der interessantesten soziotechnischen Entwicklungen, die selbst in den narrativen Geisteswissenschaften

282

M. Franzen

ihre Verbreitung bzw. ihre Anhänger findet (Heßbrüggen-Walter 2013). Die Nano-Publikation zielt gewissermaßen darauf ab, die Kluft zwischen der Herstellung und Darstellung von Wissen zu überwinden. Da sie genau eine wissenschaftliche Behauptung enthalten soll, lässt sich ihr Wissensgehalt sehr viel leichter herauslesen bzw. verifizieren oder falsifizieren als im herkömmlichen Artikel, der sich in der Regel in zahlreiche Schlussfolgerungen und Themen zerlegen lässt (Gilbert 1976). Die Nano-Publikation ist gewissermaßen eine schnörkellose Publikation, die eine effizientere Prüfbarkeit der Wahrheitsansprüche erlaubt. Sie soll somit das einlösen, woran schon der klassische standardisierte Zeitschriftenartikel gescheitert ist. In ihrem Grad an Transparenz lassen sich Nano-Publikationen somit von herkömmlichen wissenschaftlichen Zeitschriftenartikeln unterscheiden. Der eigentliche Mehrwert der Nano-Publikation aber wird darin gesehen, dass Wahrheitswerte maschinell leichter ausgelesen und prozessiert werden können und sollen. So schlägt Heßbrüggen-Walter (2013) vor, dieses Publikationsmodell auf die Geisteswissenschaften derart zu übertragen, dass über deduktiv oder induktiv erzeugte Ontologien „geisteswissenschaftliche Tatsachen“ publizier- und für Mensch und Maschine rezipierbar werden. Im Impetus einer „Rückkehr zur Tatsache“ ergeben sich laut Heßbrüggen-Walter (2013, S. 156) neue Potenziale für die (Geistes-)Wissenschaften mithilfe der Nano-Publikation, die er nicht als wissenschaftliche Endform, sondern als Hilfsmittel für die weitere Forschung betrachtet. Perspektivisch ginge es dann darum, mithilfe von Textmining ‚Fakten‘ aus Veröffentlichungen automatisiert auslesen zu lassen, um sie weiter zu prozessieren und in einen größeren wissenschaftlichen Rahmen zu stellen. Insofern kann die Nano-Publikation dazu dienen, das Publikationskorsett so weit zu öffnen, dass der wissenschaftliche Gehalt binär codierbar wird, um ihn maschinell weiter zu prozessieren.

4.2 Open Data: Die FAIR-Kriterien zur Transparenz von Forschungsdaten Als wichtiges Element einer effizienten Forschungsförderung wird neuerdings die digitale Veröffentlichung von Forschungsdaten (Open Research Data) eingestuft, um diese für Zweitverwertungen nutzbar zu machen. Open Data wird insbesondere auf der Ebene der EU-Kommission im Rahmen der Open Science Agenda vorangetrieben. In der EU-Leitstrategie (EC 2016), wie sie dem 3O’s Report (EC 2016) zu entnehmen ist, wird Open Science (analog zu Open

Funktionen und Folgen von Transparenz: Zum Fall Open Science

283

Innovation, Open to the World) mit den Möglichkeiten und Implikationen webbasierter Technologien verbunden, um Forschung replizierbar und Ergebnisse wiederverwertbar zu machen. So hebt der EU-Forschungskommissar Carlos Moedas im Geleitwort die besondere Rolle von Open Data für die Open-Science-Strategie hervor: „The Open Science goal is materialising in the development of a European Science Cloud and greater openness to scientific data generated by Horizon 2020 projects.“ (EC 2016, S. 7). Galt viele Jahre bei der Frage nach mehr Transparenz für die Wissenschaft die Open Access-Agenda als das Mittel der Wahl, ist die Transparenz der dahinterliegenden Daten (Open Data) als weitere Richtungsentscheidung der EU zu lesen, die sich in nationalen Kontexten mehr oder weniger bereits durchgesetzt hat. Der Aufbau (und die Finanzierung) einer zentralen Forschungsinfrastruktur wie der European Science Cloud wird dabei als zentraler Meilenstein angesehen. Mittels digitaler Infrastrukturen wird nicht nur das Teilen von Daten, sondern auch die Recherche von Daten unterstützt. War die Arbeit an und mit Forschungsdaten bislang den kooperierenden Wissenschaftlern vorbehalten, erlaubt das Internet nun sowohl die Ablage als auch den globalen Zugriff auf digitalisierte Forschungsdaten für einen größeren Nutzerkreis. Mit der Veröffentlichung der dahinter liegenden Daten wird das, was Armin Nassehi einmal als „die dunkle Seite der Publikation“ (Nassehi 2004, S. 107) bezeichnete, nun erhellt, sprich, der Herstellungsprozess von Wissen transparenter gemacht. Die Schaffung von Transparenz über die Einsichtnahme in die zugrundeliegenden Daten wird inzwischen einerseits zwecks Qualitätssicherung des pre-publication peer reviews von Journalen vorangetrieben, da sie selbst angesichts der Zunahme an Widerrufen publizierter Studien unter Legitimationsdruck geraten sind (Franzen 2016b). Andererseits werden verfügbare Forschungsdaten von anderen Wissenschaftlern zunehmend für eine Posthoc Evaluation verwendet, um bereits publizierten und zum Teil vielbeachteten Studien Fehler und Ungereimtheiten nachzuweisen (replication studies). In beiden Fällen spiegelt sich das zurzeit heiß diskutierte Problem fehlender Replizierbarkeit wissenschaftlicher Studien (Baker 2016; Atmanspacher und Maasen 2016). Die reine Replikation bereits veröffentlichter Studien bringt dem Wissenschaftler in der Regel jedoch keine Reputationsgewinne ein oder anders ausgedrückt: „A chef cannot make a reputation for himself by demonstrating bad recipes“ (Broad und Wade 1982). Mit dem wissenschaftspolitisch formulierten Ziel der Wiederverwertbarkeit von Forschungsdaten (re-usability) wird aber nicht nur die Validierung, sondern auch eine neue Innovationskraft verbunden, die u. a. durch die Rekombination verschiedener Datensätze erreicht werden soll. Dieser Anspruch

284

M. Franzen

Abb. 2   Die FAIR-Leitsätze im Wortlaut 1. (Übernommen von: Wilkinson et al. 2016, S. 4)

basiert mehr oder weniger explizit auf dem Versprechen von Big Data: Mehr Daten führen zu mehr Erkenntnissen.11 Wie genau Forschungsdaten für wissenschaftliche Zwecke nutzbar gemacht werden können, d. h., ein adäquater Veröffentlichungsmodus gefunden werden kann, hat ein transdisziplinäres Team aus Wissenschaft, Förderagenturen, Industrie und Wissenschaftsverlagen erörtert, was als FAIR-Prinzip von Open Data in einer vielbeachteten Empfehlung gemündet ist (Wilkinson et al. 2016). FAIR steht für Auffindbarkeit (Findability), Zugänglichkeit (Accessibility), Interoperabilität (Interoperability) und Wiederverwendbarkeit (Reusability). Zum FAIR-Prinzip gehört es, Forschungsobjekte mit den erforderlichen Metadaten zu versehen und entsprechend zu referenzieren (vgl. Abb. 2). Die Herstellung von Transparenz bildet die Richtschnur für Open Data: „All scholarly digital research objects […] benefit from application of these principles, since all components of the research process must be available to ensure transparency, reproducibility, and reusability.“ (Wilkinson et al. 2016, S. 1) Die vorgelegten FAIR-Prinzipien eines guten Datenmanagements wurden seitens der EU-Kommission zur Leitlinie für Horizon 2020 erklärt.

11Ob

diese simple Annahme überhaupt trägt, ist zweifelhaft (Boyd und Crawford 2013).

Funktionen und Folgen von Transparenz: Zum Fall Open Science

285

Diese Prinzipien richten sich an den Wissenschaftler als Datenproduzenten, der seine Daten gemäß den Regeln aufbereiten, veröffentlichen und über die Herstellung von Zitierfähigkeit seines Datensets entsprechend honoriert werden soll, um diese für die Wissenschaft nutzbar zu machen. Zu den möglichen Datennutzern werden hierbei aber nicht nur Menschen gezählt, sondern auch Maschinen (‚computational stakeholders‘), die als zunehmend bedeutsame Akteure eingestuft werden: „These ‚computational stakeholders‘ are increasingly relevant, and demand as much, or more, attention as their importance grows.“ (ebd., S. 2) Der FAIR-Ansatz beinhaltet somit ein Maßnahmenbündel zum Umgang mit digitalen Forschungsdaten, dessen Ziel mehr oder weniger explizit formuliert die teiloder vollautomatisierte Datenanalyse ist. „Distinct from peer initiatives that focus on the human scholar, the FAIR Principles put specific emphasis on enhancing the ability of machines to automatically find and use the data, in addition to supporting its reuse by individuals.“ (Wilkinson et al. 2016, S. 1).12 FAIR zielt somit darauf ab, Daten „machine-actionable“ (maschinentauglich) zu machen (Wilkinson et al. 2016). „Maschinentauglichkeit“ geht über die reine Maschinenlesbarkeit noch hinaus. Die Begriffsneuschöpfung Maschinentauglichkeit soll „ein Kontinuum möglicher Zustände anzeigen, in dem ein digitales Objekt einem autonom agierenden, rechnergestützten Datenexplorer immer detailliertere Informationen liefert.“ (Wilkinson et al. 2016, S. 3; übersetzt MF). Computern, verstanden als autonome Akteure, soll die eigenständige Arbeit mit Forschungsdaten ermöglicht werden, und zwar entlang folgender Arbeitsschritte: „a) identify the type of object (with respect to both structure and intent), b) determine if it is useful within the context of the agent’s current task by interrogating metadata and/ or data elements, c) determine if it is usable, with respect to license, consent, or other accessibility or use constraints, and d) take appropriate action, in much the same manner that a human would.“ (ebd., S. 3)

12Analog

hebt auch die Data Citation Synthesis Group (2014) in ihren Empfehlungen zur adäquaten Zitierung von Daten hervor: „Data citations should facilitate access to the data themselves and to such associated metadata, documentation, code, and other materials, as are necessary for both humans and machines to make informed use of the referenced data.“ (O.S., Hervorhebung MF).

286

M. Franzen

Ob es einer Maschine jemals gelingen wird, die Art und aufgabenspezifische Relevanz von Objekten zu eruieren, die Verwendbarkeit hinsichtlich der Zugangsoder Nutzungsbeschränkungen zu prüfen und entsprechende Maßnahmen zu ergreifen – „wie ein Mensch es tun würde“ (ebd.) –, ist an dieser Stelle weder prüfbar noch für unsere Diskussion um Transparenz relevant. Festzuhalten mit Blick auf die Praxis von Open Data ist vielmehr: Bei der Transparenz von Forschungsdaten geht es nicht allein um die Ermöglichung der Zweitverwertung durch andere Wissenschaftler, sondern um das Trainieren des Computers mittels Big Data hin zur automatisierten Datenanalyse im Sinne maschinellen Lernens.

4.3 Open Review: Die Online-Plattform Publons Eine alternative Option zur Transparenzmachung wissenschaftlicher Wahrheit über neuartige Publikationsformate oder die Veröffentlichung der dahinterliegenden Daten besteht darin, die sozialen Bewertungsprozesse zu öffnen. Zur Umsetzung einer transparenten Begutachtungspraxis im Sinne von Open Peer Review wurden inzwischen zahlreiche und z. T. weitreichende Vorschläge unterbreitet (Kriegeskorte 2012; Kriegeskorte et al. 2012). Aktuell wird mit unterschiedlichen Arten von Open Peer Review in verschiedenen Zeitschriften experimentiert (Ross-Hellauer 2017). Das Spektrum reicht von der Veröffentlichung von Gutachten, der Offenlegung der Identität der Gutachter hin zur Bewertung der einzelnen Gutachten (analog zum Amazon-System der Kundenrezensionen). Das EMBO-Journal der gleichnamigen Fachgesellschaft European Molecular Biology Organization ist einer der Vorreiter eines transparenten Peer Review Systems. Sein Chefredakteur, Bernd Pulverer, führte aus Gründen der Rechenschaftspflicht (accountability) bereits 2009 Open Peer Review für die Zeitschrift ein (Pulverer 2010). Seither werden begleitend zu den akzeptierten Beiträgen die entsprechenden Gutachten in anonymisierter Form auf der Webseite mitveröffentlicht, ergänzt um die Mitteilung der redaktionellen Begründung der Entscheidung. Damit werden ehemals vertraulich gehandelte Informationen des Peer Review Verfahrens, das die Norm des Organisierten Skeptizismus (Merton 1942) stützt, öffentlich zugänglich.13 Diese Form der öffentlichen Transparenz betrifft aber

13Die

Kehrseite dessen wurde auch bereits benannt: „What has become known as ‚scientific criticism‘ is an ongoing panoptic organization and surveillance of communication.“ (Hirschauer 2010, S. 96).

Funktionen und Folgen von Transparenz: Zum Fall Open Science

287

bislang nur einzelne Zeitschriften mit einer Open Review Policy (im Überblick Ross-Hellauer 2017). Eine weitere Form von Transparenz betrifft Einsichten in den Prozess und die Ergebnisse von Peer Review über den Einsatz sogenannter Editorial Management Systeme. Digitale Infrastrukturen wie ScholarOne oder Editorial Manager strukturieren nicht nur den Begutachtungsprozess wissenschaftlicher Zeitschriften, sie protokollieren automatisch sämtliche Aktivitäten elektronisch (Taubert 2012). Dies schafft gewissermaßen eine neuartige Transparenz von Peer Review, jedoch in diesem Falle nur für die jeweiligen Zeitschriften und die beteiligten (Groß-)Verlage wie Springer oder Elsevier, die Zugriff auf diese Daten besitzen. 2012 wurde unter dem Namen Publons nun eine Online-Plattform ins Leben gerufen, die die referee reports, d. h. Manuskriptgutachten aus allen möglichen Zeitschriften zentral sammelt und veröffentlicht. Es handelt sich dabei um echten user-generated content. Die Webseite ruft Wissenschaftler dazu auf, ihre verfassten Manuskriptgutachten hochzuladen und mit den entsprechenden Metadaten (Artikel, Journal, Datum) zu versehen. Folgendes Argument liefert die entsprechende Anreizstruktrur: „Publons helps you get the recognition you deserve for keeping watch over science.“14 Dabei können die Autoren individuell entscheiden, ob sie nur die Anzahl der reviews pro Zeitschrift, weitere Angaben zum Manuskript oder den Inhalt der Reviews hochladen, falls die Zeitschriftenrichtlinien dies erlauben. Die hierfür rechtlich erforderliche Überprüfung der jeweiligen journal policies übernimmt die Plattform. Die Review-Aktivitäten pro Autor werden von Publons mit verschiedenen Badges honoriert, die somit die individuellen Review-Aktivitäten transparent und Statusdifferenzen unter Gutachtern sichtbar machen. Im Jahr 2016 wurde ein weiterer Anreiz für die Preisgabe der Manuskriptgutachten geschaffen, die Ausschreibung der jährlichen Publons Peer-Review-Awards, die Sentinels of Science. Analog zur Krönung von „Amazon’s Top Kundenrezensenten“ ist allein die Aussicht, einen Top-Reviewer-Status zu erreichen für einige Forscher scheinbar Anreiz genug, um sowohl die Quantität als auch die Qualität ihrer Gutachten zu steigern15. Die in Aussicht gestellte

14Aber

auch die Großverlage bauen auf dieses Prinzip. So hat Elsevier bspw. die Reviewer Recognition Platform 2014 ins Leben gerufen. Laut Ravindran (2016) sind hier inzwischen 400.000 Profile angelegt. 15Doch wie wird man zum Preisträger? Den Sentinels of Science Award 2016 gewann bspw. ein Medizinphysiker aus Schweden, auch als „Peer-Review-Maschine“ betitelt (Oransky und Marcus 2016). Er schrieb in einem Jahr 661 (!) Gutachten.

288

M. Franzen

wissenschaftliche Anerkennung der Gutachteraktivität fungiert zugleich als Form des Nudging, um Verhalten zu optimieren, wie O-Töne der folgenden Art belegen: „Doing peer review helps me be a better scientist and writer, so the more I do it, the more I get better at doing research and paper writing myself.“ (Dr. Elisabeth Bik, Stanford University School of Medicine, zitiert in Ravindran 2016). Mit Stand vom Februar 2018 sind inzwischen laut der Webseite 290.000 Wissenschaftler registriert sowie 1,6 Mio. Reviews aus 25.000 Journals bereits hochgeladen worden. Die erzielte Anzahl der veröffentlichten Reviews, sprich die Menge an Daten, ist einerseits die Basis des Erfolgs für Publons im Sinne der Plattformökonomie, sie wird aber auch an anderer Stelle relevant: Von wissenschaftspolitischer Seite wird genau diese Form von Open Review gefördert. So bildet Publons eine der zentralen Quellen für die Erfassung des aktuellen Stands von Open Peer Review im Rahmen des oben benannten EU Open-Science-Monitors. In den Erläuterungen zum EU Open-Science-Monitor wird Publons als veritable Quelle wie folgt eingestuft: „Publons is a website which allows academics to record their peer reviews and provides a verified record of peer review activity.“ Es wird an gleicher Stelle davon ausgegangen, dass Publons schätzungsweise bislang ein Prozent an reviews enthält (EU Open-Science-Monitor mit Stand vom November 2016). Der Fall Publons ist jedoch nicht nur politisch, sondern auch in ökonomischer Hinsicht relevant. 2017 wurde Publons von der Firma Clarivate Analytics aufgekauft, zu welchem Preis ist unbekannt (Van Noorden 2017). Die entscheidende Frage jedoch ist, welcher Zweck von Clarivate Analytics, einem Unternehmen, dem seit Neuestem auch das Web of Science gehört, damit verbunden wird oder welches Geschäftsmodell diesem Kauf eigentlich vorangeht. Hierüber lassen sich nur Spekulationen anstellen. Wenn Daten tatsächlich die neue Währung im digitalen Zeitalter sind, liegt mit diesem Fundus an digitalen Manuskriptgutachten eine Datenquelle vor, die flächendeckend und fachübergreifend über die wissenschaftsinterne Qualitätsbewertung Auskunft gibt. Je mehr solcher Daten vorhanden sind, desto größer die Aussagekraft und desto mehr Auswertungsmöglichkeiten und Verwertungsmöglichkeiten bestehen. Die Firma Meta (seit 2017 im Besitz der Chan Zuckerberg Initiative) weist den Weg, welche Art der Produktentwicklung hier am wahrscheinlichsten ist. So machte Meta im Oktober 2017 in einer gemeinsamen Presseerklärung mit Aries Systems Corporation16, Eigentümer des Content Management Systems

16Abzurufen

unter: https://www.ariessys.com/views-press/press-releases/artificial-intelligence-integration-allows-publishers-first-look-meta-bibliometric-intelligence/. Zugegriffen: 25. Januar 2018.

Funktionen und Folgen von Transparenz: Zum Fall Open Science

289

Editorial Manager, auf ihr Produkt Bibliometric Intelligence aufmerksam, das Prognosemodelle für das wissenschaftliche Publikationswesen offeriert. Ihrer Werbeaussage zufolge, kann der Algorithmus mit höherer Zuverlässigkeit als ein herkömmliches redaktionelles Entscheidungsverfahren vorhersagen, ob ein eingereichtes Manuskript eher häufig oder weniger häufig zitiert werden wird: „Meta’s Bibliometric Intelligence pinpoints high impact manuscripts the moment they are submitted.“ (Meta 2016). Das Verkaufsargument für ein solches KI-Produkt beruht damit auf der eingeübten wenngleich ebenso umstrittenen evaluatorischen Praxis der Zitationszählung zur wissenschaftlichen Qualitätsmessung. Zur Identifikation relevanter wissenschaftlicher Befunde bzw. zur „Enthüllung der Wahrheit“, um bei der Metapher wissenschaftlicher Transparenz zu bleiben, wird ein Instrument wie Bibliometric Intelligence kaum etwas beitragen können. Vielmehr baut eine solche Produktentwicklung in erster Linie auf einer fremdreferenziellen Programmierung von Wissenschaft auf. So fungieren in der externalisierten Leistungsbewertung statistische Kennzahlen wie Zitationen als proxy für Qualität, um auf numerischer Basis wissenschaftliche Leistungsvergleiche durchzuführen und Leistungsunterschiede nach außen transparent zu machen. Was über Zitationen aber primär gemessen wird, ist Popularität (des Themas, des Autors, des Journals etc.), die mit wissenschaftlicher Relevanz nicht zwangsläufig zusammenfallen muss (Franzen 2012). Wissenschaftliche Erkenntnisbildung lässt sich dagegen nicht statistisch vermessen. Dennoch oder gerade deshalb kann ein Produkt wie Bibliometric Intelligence für Verlage relevant werden, wenn es darum geht, den ökonomischen Marktwert seiner Produkte über Reichweitenmaximierung zu erhöhen. Auf Basis der Reviews von wissenschaftlichen Manuskripten, wie Publons sie sammelt, lassen sich theoretisch über Text Mining qualitative Argumente und Begründungen der jeweiligen Bewertung auslesen und daraus bestimmte Strukturmuster identifizieren, die prognostische Aussagen über den (Zitations-)Erfolg von Artikeln ermöglichen. Je mehr Daten zur Verfügung stehen, desto präziser werden die Prognoseverfahren (predictive modelling) für Zitationswahrscheinlichkeiten. Interessanter noch ist die Frage, ob und inwieweit Open Reviews gar dazu taugen, das wissenschaftliche Begutachtungssystem zu modellieren und schließlich zu automatisieren. Hierzu existieren bereits erste Pilotstudien. Einer dieser Versuche kommt zu dem Ergebnis, dass automatisiert erzeugte Gutachten (fake reviews) von echten Gutachten nicht ohne Weiteres unterscheidbar sind (Bartoli et al. 2016). Um zu dieser Schlussfolgerung zu gelangen, entwickelte das Team auf Basis eines kleinen Datensets (48 Artikel, 168 Originalgutachten)

290

M. Franzen

ein generatives Modell für die automatisierte Produktion von textförmigen Gutachten17 (fake reviews). Im experimentellen Versuch wurden 16 Probanden sowohl reale als auch automatisiert erzeugte Manuskriptgutachten zu exemplarischen Artikeln vorgelegt. Im ersten Experiment zur intrinsischen Evaluation wurde gezeigt, dass in 30 % der Fälle fake reviews mit originären Gutachten verwechselt wurden; das zweite Experiment kam zu dem überraschenden Ergebnis, dass bei einem Vergleich von drei Gutachten pro Artikel in rund einem Viertel der Fälle die Testpersonen das Fake-Gutachten als das für ihre eigene wissenschaftliche Einschätzung einflussreichste betrachteten. Auch wenn es noch externer Validierungen solcher Experimente bedarf: Wie die Autoren selbst betonen, ist ein solches Testergebnis insofern erstaunlich, als dass das entwickelte Modell nur auf einem sehr kleinen Datensample beruht. Bei mehr Ausgangsmaterial, sprich mehr review-Daten, ist womöglich noch eine viel genauere Simulation der wissenschaftlichen Begutachtung zu erzielen. Das Verwertungspotenzial von review-Daten scheint zusammengenommen also riesig und erst am Anfang zu stehen. Vor diesem Hintergrund lässt sich konstatieren, dass die Erfüllung von Transparenz über den Mechanismus von Open Peer Review in digitalen Umgebungen dazu dienen kann, mithilfe von nutzergenierten Daten (Big Data) wissenschaftliches Bewertungshandeln zu simulieren und über maschinelles Lernen schließlich zu automatisieren18. Der Fall Open Review impliziert weiter, dass für den Wissenschaftler (in seiner Rolle als Leser) in der Sache kaum mehr Transparenz, sondern eher eine neue Unübersichtlichkeit entsteht, müsste er die begleitenden Reviews pro Beitrag zusätzlich zum Informationsoverload an Publikationen auch noch zusätzlich rezipieren. Bei Manuskriptgutachten handelt es sich um ein Format, das sich wissenschaftlich kaum zu rezipieren lohnt19, es sei denn zu pädagogischen Zwecken. Formal betrachtet, handelt es sich bei referee reports um eine stetig anwachsende Masse an Daten, die bislang vertraulich und unter institutionellem Verschluss gehalten wurden. Mit Blick auf die Praxis von Open Review ist festzuhalten, dass hiermit individuelle Qualitätszuschreibungen von Wissenschaftlichkeit zu

17Fachterminologisch spricht man in diesem Fall von Natural Language Generation, d. h. der automatischen Produktion natürlicher Sprache durch die Maschine. 18Eine sich daran anschließende empirisch sicher spannende Frage wäre dann, inwiefern automatisiert erzeugte Gutachten nicht auch zum wissenschaftlichen Lernen anregen können. 19Empirische Daten des EMBO Journals illustrieren, dass etwa ein Zehntel der online gestellten Reviews tatsächlich angeklickt (viewed) wird (Pulverer 2010, S. 30), was allerdings noch nicht gleichbedeutend damit ist, dass sie auch gelesen werden.

Funktionen und Folgen von Transparenz: Zum Fall Open Science

291

digitalen Daten werden, die in aggregierter Form und mit den richtigen Analysemethoden eventuell darüber Auskunft darüber geben können, wo die Grenzen der Wissenschaft verlaufen. Nicht die Publikation, sondern erst das nutzergenerierte Urteil im Rahmen der Begutachtung liefert das entscheidende Datum, um zu entscheiden, ob eine kommunizierte Wahrheitsofferte auf wissenschaftliche Evidenz zurückführbar ist oder eine bloße Behauptung darstellt. Human Computation bildet damit den entscheidenden Schritt zum maschinellen Lernen.

4.4 Legitimierung von Transparenz in der Wissenschaft Wie der Fall Wissenschaft eindrucksvoll belegt, werden Transparenzforderungen zur normativen Leitlinie, sobald Krisendiagnosen sich mehren. Das Transparenzgebot scheint damit in der Tat „an acceptable response to problems at moments of crisis or moral failure“ (Worthy 2018, S. 24; vgl. Birchall 2014). Transparenz meint in Bezug auf die Wissenschaft mehr als die reine Veröffentlichung gewonnener Erkenntnisse. Das Transparenzgebot ist vielmehr auf den Nachweis der Leistungserbringung der Wissenschaft, neues, gesichertes Wissen zu produzieren, gerichtet. Es bildet insofern eine Antwort auf schwindendes Systemvertrauen. Mit Open Science sollen Wahrheitsbehauptungen nicht lediglich im Einzelfall überprüft werden – hierfür stehen stattdessen Watch Blogs wie Retraction Watch –, sondern vielmehr Wissenschaft in ihrer Rolle als Garant der Wahrheit zur Rechenschaftspflicht gezwungen werden. Hierzu gehört die Publikation bislang vertraulich gehandelter Informationen. Die Transparenzforderungen an Wissenschaft und insbesondere wissenschaftliche Zeitschriften haben Ende der 1980er Jahre ihren Anfang genommen und seit Mitte der 2000er Jahre eine Intensivierung und Ausbreitung erfahren (Franzen 2011). Die Forderung nach mehr Transparenz lässt sich also erstens als Resonanz auf Wissenschaftsbetrug lesen (Franzen et al. 2007), dessen öffentliche Thematisierung die Glaubwürdigkeit der Wissenschaft infrage stellt. Fälle von schwerwiegendem Betrug gelten empirischen Studien zufolge nur als Spitze des Eisbergs eines „normal misbehaviour“ (Martinson et al. 2005), welches die Validität der Ergebnisse erheblich einschränkt (vgl. auch Ioannidis 2005). Zweitens richten sich die Transparenzforderungen speziell an wissenschaftliche Zeitschriften, und zwar vor allem an jene mit hoher Definitionsmacht über wissenschaftliche Karrieren wie Science oder Nature (Franzen 2016b). Da selbst in hochrangigen Journalen Fälschungen bekannt wurden, ist seit einiger Zeit von einer Krise des Peer Reviews die Rede (McCook 2006). Auch die Zahl der Widerrufe wissenschaftlicher Studien steigt zeitgleich an (van Noorden 2011).

292

M. Franzen

Ob es sich hierbei um eine tatsächliche Zunahme an falschen Ergebnissen handelt oder eine gesteigerte Sensibilität gegenüber wissenschaftlichen Ungereimtheiten, lässt sich aus den bisherigen Studien nicht schließen. Besonders betroffen von nachträglichen Widerrufen sind die High-Impact Journale wie Nature oder Science (Nath et al. 2006), die gar als schädlich für den Wissenschaftsbetrieb angesehen werden, da sie das Herzstück des Impact Factor Games bilden: „A paper can become highly cited because it is good science – or because it is eye-catching, provocative or wrong. Luxury-journal editors know this, so they accept papers that will make waves because they explore sexy subjects or make challenging claims. This influences the science that scientists do. It builds bubbles in fashionable fields where researchers can make the bold claims these journals want, while discouraging other important work, such as replication studies.“ (Schekman 2013)

An der Spitze der Reputationshierarchie wissenschaftlicher Zeitschriften prägt sich mit anderen Worten der Medienkonflikt zwischen Relevanz- und Aufmerksamkeitskriterien der wissenschaftlichen Publikation besonders stark aus (Franzen 2011). Drittens werden Transparenzforderungen bei gescheiterten Replikationsversuchen laut. In einer Umfrage von Nature meinen 90 % der befragten Wissenschaftler, dass sich die Wissenschaft aktuell, wenn nicht gar in einer schweren, dann zumindest in einer leichten Replikationskrise befinde (Baker 2016). Vor diesem Hintergrund werden aus der Wissenschaft heraus rigidere Qualitätskontrollen wissenschaftlicher Zeitschriften gefordert, mit der unliebsamen Nebenfolge, dass das wissenschaftliche Publizieren gerade in den hochrangigen Zeitschriften mit hohen bürokratischen Auflagen überfrachtet wird, um sicherzustellen, dass alle Regeln guter wissenschaftlicher Arbeit eingehalten wurden (Franzen 2016b). Hierzu gehört auch die Bereitstellung der dahinter liegenden Forschungsdaten für eine effektivere Begutachtung. Zusammengenommen haben wir es also evolutionstheoretisch gesprochen mit einem Problem einer mangelnden Restabilisierung von Wissen zu tun, worauf mit unterschiedlichen Maßnahmen reagiert wird (Franzen 2011, S. 236 ff.). Der Dreh- und Angelpunkt für die wissenschaftliche Struktursicherung ist das Peer Review Verfahren als Selektionsmechanismus. So besteht dessen Funktion darin, Vertrauen nach innen und außen sicher zuzustellen: „Nach ‚innen‘ soll sie [die Peer Review, M.F.] das Vertrauen in die Wechselseitigkeit der wissenschaftlichen Kommunikation zur Sicherung ihrer Offenheit schaffen. Nach ‚außen‘, gegenüber der Öffentlichkeit, soll sie Vertrauen in die Verlässlichkeit des produzierten Wissens herstellen, u. a. um die Ressourcen für die Forschung zu legitimieren.“ (Weingart 2003, S. 25)

Funktionen und Folgen von Transparenz: Zum Fall Open Science

293

Genau dieses Vertrauen in die Verlässlichkeit des Peer Review Systems20 und damit in den wissenschaftlichen Selbststeuerungsmechanismus scheint angesichts der ubiquitären Forderung nach Transparenz und der Zunahme interner und externer Kontrollen heute erschüttert. Wie die diskutierten Fälle belegen, sind die anvisierten Ziele von Transparenzmaßnahmen vielfältig. Transparenz soll aus politischer Sicht vor allem die Effizienz und Effektivität der Allokation von Forschungsmitteln erhöhen. Für den Wissenschaftler soll Transparenz u. a. dazu dienen, eine adäquate Anerkennung erbrachter wissenschaftlicher Leistungen zu erhalten, d. h. in sozialer Hinsicht Fairness in der Leistungsbewertung und den Karrieren herzustellen und abweichendes Verhalten umgekehrt zu sanktionieren. Für die beteiligten Organisationen wie z. B. Zeitschriften oder Förderinstitutionen wird Transparenz zur Leitlinie, um der geforderten Rechenschaftspflicht einer Audit-Gesellschaft (Power 1999) nachzukommen. Übergreifend aber lässt sich festhalten, dass sich der öffentliche Diskurs um Transparenz am Symptom des wissenschaftlichen Vertrauensverlusts und nicht an der Ursache einer strukturellen Intransparenz wissenschaftlichen Wissens orientiert. Gemäß der Logik der Enthüllung von als illegitim verstandener Geheimnisse21, steigert das Transparenzgebot somit vor allem das Volumen an (digitalen) Informationen. Mit der immer größeren werdenden Flut an Informationen, die sich der menschlichen Rezeptionskapazität entzieht, wird die diagnostizierte „Paradoxie der Transparenz des Intransparenten“ (Luhmann 1990, S. 26) jedoch eher noch verstärkt22 als aufgelöst. Wie alle drei vorgelegten Einzelfallanalysen nahelegen, ist der positive Effekt der Implementation von Transparenz ein ande-

20Jenseits der idealtypischen Beschreibung eines an wissenschaftlichen Normen orientierten Verfahrens gehören zu den häufigsten und empirisch am besten untersuchten Kritikpunkten am Peer Review: mangelnde prädiktive Validität, ungenügende Reliabilität der Gutachten, Parteilichkeit der Gutachter oder die unnötige Verzögerung der Veröffentlichung (vgl. den fachübergreifenden Forschungsüberblick bei Weller 2002). 21Nicht die Geheimhaltung aus guten Gründen, sondern die bewusste Verschleierung korrupter Praktiken bildet hierbei den Ausgangspunkt. Jede Form der Vorenthaltung von Information gilt im Transparenzregime als potenziell verdächtig. „Geheimnisse sind Lügen“, so auch das eingängige Mantra aus Dave Eggers’ Bestseller-Roman „The Circle“, der die Transparenznorm als Silicon Valley Ideologie entlarvt und in ihren Ausprägungen und Folgen auf recht düstere Weise imaginiert. 22Ein ähnlicher Befund der Transparenzforschung liegt auch für die Ebene der Organisation vor. So kann ein rigides „Compliance-Regime“ dazu führen, dass die Organisation gleichzeitig sehr viel transparenter und sehr viel intransparenter wird (Osrecki 2015).

294

M. Franzen

rer, so die These, und zwar, wissenschaftliche Informationen nicht für die wissenschaftliche Öffentlichkeit, sondern für die maschinelle Verarbeitung zugänglich zu machen. Fragt man nach Transparenz für wen? – dann lautet die Antwort demnach: Transparenz für Maschinen.

5 Theoretische Schlussfolgerungen Transparenz ist ein schillernder Begriff, der in der letzten Dekade eine Konjunktur als „ideologically-determined political initiative“ (Darch und Underwood 2010 zit. nach Worthy 2018, S. 23) erfahren hat. Die Leitlinie besteht darin, Vertrauen zu schaffen bzw. zurückzugewinnen, sobald die relevanten Informationen offen liegen. Beim Transparenzimperativ geht es jedoch um weitaus mehr, als die Veröffentlichung von bislang verdeckt gehaltenen Informationen (August 2018). Wie in diesem Beitrag am Fall der Wissenschaft vorgeführt und entlang des wissenschaftspolitischen Diktums von Open Science untersucht, greifen Transparenzmaßnahmen auf die Strukturen durch, unter denen Systeme wie die Wissenschaft operieren. Ein in diesem Zusammenhang weitestgehend vernachlässigter Effekt der Transparenzwerdung, auf den ich zum Schluss theoretisch noch genauer fokussieren möchte, ist die Generierung einer neuen Handlungsadresse. Wie in der Analyse vorgeführt, werden durch Maßnahmen der Transparenz wissenschaftliche Handlungen datafiziert (Argumentationen, empirische Beobachtungen, wissenschaftliche Bewertungen). Dadurch werden technische Systeme in die Lage versetzt, wissenschaftsbezogene Daten unterschiedlicher Art so zu prozessieren, dass sie wiederum handlungsleitend werden (Stichwort: predictive modelling). Die schiere Menge an Daten, die von und über das Wissenschaftssystem laufend digital erzeugt werden, entzieht sich der menschlichen Rezeptionskapazität. Für Computer dagegen ist die Verarbeitung großer Datenmengen nicht problematisch, sondern im Gegenteil die entscheidende Erfolgsbedingung für maschinelles Lernen. Auf Basis von Big Data lässt sich, wie der letzte Fall zur Begutachtungspraxis besonders eindrücklich gezeigt hat (vgl. Abschn. 4.3), wissenschaftliches Handeln maschinell simulieren, und zwar bis hin zu dem bislang ausschließlich ausgewiesenen Experten vorbehaltenen Peer Review. Dies wirft die politisch brisante Frage auf, inwieweit man selbst in der Wissenschaft von einem künftigen Substitutionsprozess des Menschen durch Maschinen auszugehen hat (vgl. auch Franzen 2019). Naheliegender erscheint eine spezifische Arbeitsteilung zwischen Mensch und Maschine, die es lohnt empirisch daraufhin zu untersuchen, wie sie sich mittelfristig organisiert und in

Funktionen und Folgen von Transparenz: Zum Fall Open Science

295

welcher Hinsicht genau Maschinen zukünftig in Kooperations- oder Konkurrenzbeziehung zum Wissenschaftler treten. Für die Transparenzforschung kann aus dem Fall der Transparenzwerdung der Wissenschaft nun folgendes theoretische Argument gewonnen werden: Transparenzpraktiken, die auf Systemtransparenz wie im Falle von Open Science abzielen, setzen auf der Ebene der Kommunikation an (mehr Informationen), obwohl echte wissenschaftliche Transparenz nach innen und außen nur auf der Ebene der Wahrnehmung (Anschauung des Wahrheitswerts) zu erzielen wäre. Mit der derzeitigen Umsetzung von Transparenz mithilfe eines gesteigerten Veröffentlichungsgebots über digitale Daten entsteht somit paradoxerweise eine neue Intransparenz der Wissenschaft bei gleichzeitiger Transparenz wissenschaftlicher Informationen für Maschinen. Massen an Informationen werden in digitaler Form erfasst und können maschinell ausgelesen und prozessiert werden. Maschinelle Datenverarbeitungsprozesse entziehen sich aber umgekehrt der subjektiven Wahrnehmung und damit der systemeigenen Kommunikation. Auf die Intransparenz des Computers hatte bereits Luhmann (1997) hingewiesen: „Obwohl produzierte und programmierte Maschinen, arbeiten solche Computer in einer Weise, die für Bewußtsein und für Kommunikation intransparent bleibt – und trotzdem über strukturelle Kopplungen auf Bewußtsein und Kommunikation einwirkt. Sie sind streng genommen unsichtbare Maschinen.“ (Luhmann 1997, S. 117)

Auf Basis der vorliegenden Analyse lässt sich daher die These formulieren, dass im maschinellen Prozessieren von nutzergenerierten Daten die bisherigen Zurechnungsadressen von Wahrnehmung (Bewusstseinssystem) und Kommunikation (Gesellschaft) verschmelzen. Bestand die Funktionsbestimmung von Wissenschaft darin, neues Wissen zu generieren, das auf wissenschaftliches Vorwissen und damit auf subjektive Bewusstseinsleistungen angewiesen war, ist eine mehr oder minder explizierte Stoßrichtung von Open Science, wissenschaftsbezogene Daten zu sammeln und derart zu validieren und aufzubereiten, dass Computer sie prozessieren können. Die ersten Versuche in diese Richtung wurden bereits unternommen23.

23Bereits heute sind erste Testläufe Richtung automatisierter Wissensproduktion zu verfolgen. Kürzlich hat das US-Pentagon eine Förderausschreibung seiner Forschungsagentur DRAPA „Artificial Intelligence Exploration (AIE) Opportunity“ lanciert, „inviting submissions of innovative basic or applied research concepts in the technical domain of automated knowledge discovery, curation, and application“ (https:// www.fbo.gov/index?s=opportunity&mode=form&id=6ea9c46dd5a8d8620cd02d2b1471ed59&tab=core&_cview=0. Zugegriffen: 30. August 2018).

296

M. Franzen

Aus gesellschaftstheoretischer Perspektive ist demnach die entscheidende Frage, „ob und wie weit Computer die gesellschaftskonstituierende Leistung der Kommunikation ersetzen oder überbieten können“ (Luhmann 1997, S. 303). Für die soziologische Systemtheorie hieße das, ihren Grundbegriff Kommunikation für die Beschreibung der „nächsten Gesellschaft“ (Baecker 2007) grundsätzlich zu überdenken (Baecker 2011; Esposito 2017; Harth und Lorenz 2017). Dies schließt zugleich mit ein, über die Beschreibungskategorien einer funktional differenzierten Gesellschaft hinaus zu denken (Dickel und Franzen 2015, S. 343 f.; Baecker 2018). Während die gesellschaftlichen Folgen der Mensch-MaschineInteraktion noch weitgehend unbestimmt sind, stellt die soziotechnische Entwicklung vor allem auch die Gesellschaftstheorie vor neue Herausforderungen, die bei Luhmann bereits angeklungen sind, und zwar in einer Zeit, als maschinelles Lernen und KI noch Science-Fiction war: „Die einzige Alternative zur strukturellen Kopplung Bewußtsein/Kommunikation, die sich gegenwärtig bereits andeutet, aber unschätzbare Folgen haben würde, ist der Computer. Bereits heute sind Computer in Gebrauch, deren Operationen weder für Bewußtsein noch für Kommunikationen zugänglich sind, und zwar weder zeitgleich noch rekonstruktiv“ (Luhmann 1997, S. 117).

Mit Big Data sind die Möglichkeiten gewachsen menschliches Handeln, so auch wissenschaftliches Handeln, zu modellieren (vgl. Abschn. 4.3). Die vorliegende Analyse liefert somit für die gesellschaftstheoretische Bestimmung der Folgen von Digitalisierung relevantes Anschauungsmaterial und sie macht deutlich, dass der Transparenzimperativ diesem soziotechnischen Prozess die normative Stoßkraft verleiht. Die Analyse zu Open Science signalisiert zugleich weiteren Forschungsbedarf dahin gehend, ob die hier getroffenen Beobachtungen zur Wissenschaft auch auf andere soziale Systeme übertragbar und generalisierbar sind. Eine Vermutung, die sich aus der systemtheoretischen Unterscheidung von Wahrnehmung und Kommunikation ableiten lässt, ist, dass die hier gewonnenen Einsichten vor allem für diejenigen Funktionssysteme zutreffen, die wie die Wissenschaft oder der Journalismus primär auf Erleben und nicht auf Handeln ausgerichtet sind24 und damit auf den Informationsaspekt von Kommunikation statt auf den Mitteilungsaspekt abstellen (Japp und Kusche 2004, S. 517). Möglicherweise fällt die Betrachtung von Funktionen und Folgen der Transparenzwerdung in der Politik oder im Sport anders aus, in Systemen also, die stärker

24Zu

dieser Unterscheidung siehe z. B. Luhmann (1997, S. 335).

Funktionen und Folgen von Transparenz: Zum Fall Open Science

297

handlungsorientiert sind. Eine systemvergleichende Untersuchung wäre ein wünschenswertes und sicher lohnenswertes Unterfangen, um die These der Generierung einer neuen Handlungsadresse qua Transparenzpolitik, die derzeit alle Gesellschaftsbereiche mehr oder weniger erfasst, weiter anzureichern und zu stabilisieren.

Literatur Atmanspacher, H., & Maasen, S. (Hrsg.). (2016). Reproducibility: Principles, problems, practices and prospects. Hoboken: Wiley. August, V. (2018). Theorie und Praxis der Transparenz. Eine Zwischenbilanz. Berliner Blätter, 21(76), 129–156. Baecker, D. (2007). Studien zur nächsten Gesellschaft. Frankfurt a. M.: Suhrkamp. Baecker, D. (2011). Who qualifies for communication? A systems perspective on human and other possibly intelligent beings taking part in the next society. Technikfolgenabschätzung – Theorie und Praxis, 20(1), 17–26. Baecker, D. (2018). 4.0 oder die Lücke die der Rechner lässt. Leipzig: Merve. Baker, M. (2016). 1,500 scientists lift the lid on reproducibility. Survey sheds light on the ‘crisis’ rocking research. Nature, 533, 452–454. Bartoli, A., De Lorenzo, A., Medvet, E., & Tarlao, F. (2016). Your paper has been accepted, rejected, or whatever: Automatic generation of scientific paper reviews. In F. Buccafurri, A. Holzinger, P. Kieseberg, A. Tjoa, & E. Weippl (Hrsg.), Availability, reliability, and security in information systems (S. 19–28). Cham: Springer. Bazerman, C. (1988). Shaping written knowledge. The genre and activity of the experimental article in science. Madison: University of Wisconsin Press. Birchall, C. (2014). Radical transparency. Cultural Studies – Critical Methodologies, 14(1), 77–88. Boyd, D., & Crawford, K. (2013). Big Data als kulturelles, technologisches und wissenschaftliches Phänomen. Sechs Provokationen. In H. Geiselberger & T. Moorstedt (Hrsg.), Big Data. Das neue Versprechen der Allwissenheit (S. 187–218). Berlin: Suhrkamp. Broad, W. J., & Wade, N. (1982). Betrayers of the truth: Fraud and deceit in the halls of science. New York: Simon and Schuster. Darch, C., & Underwood, P. G. (2010). Freedom of information and the developing world: The citizen, the state and models of openness. Oxford: Chandos. Data Citation Synthesis Group. (2014). Joint declaration of data citation principles. San Diego: FORCE11. https://www.force11.org/group/joint-declaration-data-citation-principles-final. Zugegriffen: 27. Jan. 2018. Dickel, S., & Franzen, M. (2015). Digitale Inklusion: Zur sozialen Öffnung des Wissenschaftssystems. Zeitschrift für Soziologie, 44(5), 330–347. Esposito, E. (2005). Die Darstellung der Wahrheit und ihre Probleme. Soziale Systeme, 11(1), 166–175. Esposito, E. (2017). Artificial communication? The production of contingency by algorithms. Zeitschrift für Soziologie, 46(4), 249–265.

298

M. Franzen

European Commission (EC). (2014). Background document. Public consultation. ‘Science 2.0’: Science in transition. Directorates-General for Research and Innovation (RTD) and Communications Networks, Content and Technology (CONNECT). http:// ec.europa.eu/research/consultations/science-2.0/background.pdf. Zugegriffen: 25. Jan. 2018. European Commission (EC). (2016). Open innovation, open science, open to the world – A vision for Europe. Directorate General for Research and Innovation, Directorate A – Policy Development and Coordination, Unit A1 – Internal and external communication. http://www.openaccess.gr/sites/openaccess.gr/files/Openinnovation.pdf. Zugegriffen: 25. Jan. 2018. Franzen, M. (2011). Breaking News. Wissenschaftliche Zeitschriften im Kampf um Aufmerksamkeit. Baden-Baden: Nomos. Franzen, M. (2012). Making science news: The press relations of scientific journals and implications for scholarly communication. In S. Rödder, M. Franzen, & P. Weingart (Hrsg.), The sciences’ media connection – Communication to the public and its repercussions (S. 333–352). Dordrecht: Springer. Franzen, M. (2016a). Open Science als wissenschaftspolitische Problemlösungsformel. In D. Simon, A. Knie, S. Hornbostel, & K. Zimmermann (Hrsg.), Handbuch Wissenschaftspolitik (S. 279–296). Wiesbaden: Springer VS. Franzen, M. (2016b). Science between trust and control: Non-reproducibility in scholarly publishing. In H. Atmanspacher & S. Maasen (Hrsg.), Reproducibility: Principles, problems, practices and prospects (S. 468–485). Hoboken: Wiley. Franzen, M. (2018). Nachhaltiges Publizieren. Zu den Grenzen des wissenschaftlichen Wachstums. In A. Henkel & N. Lüdke (Hrsg.), Das Wissen der Nachhaltigkeit: Herausforderungen zwischen Forschung und Beratung (S. 173–202). München: Oekom. Franzen, M. (2019). Zum Wandel der wissenschaftlichen Wissensproduktion durch Big Data: Welche Rolle spielt Citizen Science? Österreichische Zeitschrift für Soziologie, 44(Supplement 1), 15–35. Franzen, M., Rödder, S., & Weingart, P. (2007). Fraud: Causes and culprits as perceived by science and the media. Institutional changes, rather than individual motivations, encourage misconduct. EMBO Reports, 8(1), 3–7. Garfield, E. (1955). Citation indexes for science. A new dimension in documentation through association of ideas. Science, 128, 108–111. Gilbert, G. N. (1976). The transformation of research findings into scientific knowledge. Social Studies of Science, 6(3–4), 281–306. Hahn, A. (1998). Soziologische Aspekte von Geheimnissen und ihren Äquivalenten. In A. Assmann & J. Assmann (Hrsg.), Schleier und Schwelle. Geheimnis und Offenbarung (S. 23–39). München: Fink. Han, B.-C. (2012). Transparenzgesellschaft. Berlin: Matthes & Seitz. Harth, J., & Lorenz, C.-F. (2017). „Hello World“ – Systemtheoretische Überlegungen zu einer Soziologie des Algorithmus. kommunikation@gesellschaft, 18, 1–18. Herb, U. (2017). Open Access: Von Inklusion zu Exklusivität? https://doi.org/10.5281/ zenodo.1001901. Heßbrüggen-Walter, S. (2013). Tatsachen im semantischen Web: Nanopublikationen in den digitalen Geisteswissenschaften. In P. Haber & E. Pfanzelter (Hrsg.), Historyblogosphere. Bloggen in den Geschichtswissenschaften (S. 149–160). München: Oldenbourg.

Funktionen und Folgen von Transparenz: Zum Fall Open Science

299

Hesselmann, F., Graf, V., Schmidt, M., & Reinhart, M. (2017). The visibility of scientific misconduct: A review of the literature on retracted journal articles. Current Sociology, 65(6), 814–845. Hirschauer, S. (2010). Editorial judgments: A praxeology of ‘voting’ in peer review. Social Studies of Science, 40(1), 71–103. Hood, C., & Heald, D. (Hrsg.). (2006). Transparency: The key to better governance. Oxford: Oxford University Press. Hörisch, J. (1998). Vom Geheimnis zum Rätsel. Die offenbar geheimen und profan erleuchteten Namen Walter Benjamins. In A. Assmann & J. Assmann (Hrsg.), Schleier und Schwelle. Geheimnis und Offenbarung (S. 161–180). München: Fink. Ioannidis, J. P. (2005). Why most published research findings are false. PLoS Med, 2(8), e124. https://doi.org/10.1371/journal.pmed.0020124. Japp, K. R., & Kusche, I. (2004). Die Kommunikation des politischen Systems: Zur Differenz von Herstellung und Darstellung im politischen System. Zeitschrift für Soziologie, 33(6), 511–531. Knorr-Cetina, K. (1984). Die Fabrikation von Erkenntnis: Zur Anthropologie der Naturwissenschaft. Frankfurt a. M.: Suhrkamp. Kriegeskorte, N. (2012). Open evaluation: A vision for entirely transparent post-publication peer review and rating for science. Frontiers in Computational Neuroscience, 6. https:// doi.org/10.3389/fncom.2012.00079. Kriegeskorte, N., Walther, A., & Deca, D. (2012). An emerging consensus for open evaluation: 18 visions for the future of scientific publishing. Frontiers in Computational Neuroscience, 6. https://doi.org/10.3389/fncom.2012.00094. Latour, B., & Woolgar, S. (1979). Laboratory life. Princeton: Princeton University Press. Luhmann, N. (1990). Wissenschaft der Gesellschaft. Frankfurt a. M.: Suhrkamp. Luhmann, N. (1997). Gesellschaft der Gesellschaft. Frankfurt a. M.: Suhrkamp. Martinson, B. C., Anderson, M. S., & De Vries, R. (2005). Scientists behaving badly. Nature, 435, 737–738. McCook, A. (2006). Is peer review broken? The Scientist, 20, 26–34. Meijer, A. (2013). Understanding the complex dynamics of transparency. Public Administration Review, 73(3), 429–439. Merton, R. K. (1942). Science and technology in a democratic order. Journal of Legal and Political Sociology, 1, 115–126. Merton, R. K., & Zuckerman, H. (1985). Institutionalisierte Bewertungsstrukturen in der Wissenschaft. Entwicklung und Wandel von Forschungsinteressen. Aufsätze zur Wissenschaftssoziologie (S. 172–216). Frankfurt a. M.: Suhrkamp. Meta. (2016). Meta for publishers. http://cdn.meta.com/assets/downloads/Pub_Bibliometric.pdf. Zugegriffen: 25. Jan. 2018. Nassehi, A. (2004). Die Theorie funktionaler Differenzierung im Horizont ihrer Kritik. Zeitschrift für Soziologie, 33(2), 98–118. Nath, S. B., Marcus, S. C., & Druss, B. G. (2006). Retractions in the research literature: Misconduct or mistakes? Medical Journal of Australia, 185(3), 152–154. Oransky, I., & Marcus, A. (2016). Meet the world’s top peer reviewer. https://www.statnews.com/2016/09/23/meet-the-worlds-top-peer-reviewer/. Zugegriffen: 25. Jan. 2018.

300

M. Franzen

Osrecki, F. (2015). Fighting corruption with transparent organizations. Anti-corruption and functional deviance in organizational behaviour. Ephemera: Theory & Politics in Organization, 15(2), 337–364. Power, M. (1999). The audit society. Rituals of verification. Oxford: Oxford University Press. Pulverer, B. (2010). Transparency showcases strength of peer review. Nature, 468, 29–31. Ravindran, S. (2016). Getting credit for peer review. Science. https://doi.org/10.1126/science.caredit.a1600022. Ross-Hellauer, T. (2017). What is open peer review? A systematic review. F1000Research, 6. https://doi.org/10.12688/f1000research.11369. Rzepka, V. (2013). Die Ordnung der Transparenz. Jeremy Bentham und die Genealogie einer demokratischen Norm. Berlin: Lit. Schekman, R. (2013). How journals like Nature, Cell and Science are damaging science. The incentives offered by top journals distort science, just as big bonuses distort banking. The Guardian. https://www.theguardian.com/commentisfree/2013/dec/09/howjournals-nature-science-cell-damage-science. Zugegriffen: 25. Jan. 2018. Shapin, S., & Schaffer, S. (1985). Leviathan and the air pump. Hobbes, Boyle and the experimental life. Princeton: Princeton University Press. Stichweh, R. (1987). Die Autopoiesis der Wissenschaft. In D. Baecker, J. Markowitz, R. Stichweh, H. Tyrell, & H. Willke (Hrsg.), Theorie als Passion (S. 447–481). Frankfurt a. M.: Suhrkamp. Stichweh, R. (1988). Inklusion in Funktionssysteme der modernen Gesellschaft. In R. Mayntz, B. Rosewitz, U. Schimank, & R. Stichweh (Hrsg.), Differenzierung und Verselbständigung (S. 261–293). Frankfurt a. M.: Campus. Taubert, N. (2012). Online Editorial Management-Systeme und die Produktion wissenschaftlicher Fachzeitschriften. Leviathan, 40(2), 297–319. Taubert, N., & Weingart, P. (2016). Wandel des wissenschaftlichen Publizierens – Eine Heuristik zur Analyse rezenter Wandlungsprozesse. In P. Weingart & N. Taubert (Hrsg.), Wissenschaftliches Publizieren: Zwischen Digitalisierung, Leistungsmessung, Ökonomisierung und medialer Beobachtung (S. 3–38). Berlin: De Gruyter. Van Noorden, R. (2011). Science publishing. The trouble with retractions. Nature, 478, 26–28. Van Noorden, R. (2017). Web of science owner buys up booming peer-review platform. Nature. https://doi.org/10.1038/nature.2017.22094. Weingart, P. (2001). Die Stunde der Wahrheit? Zum Verhältnis der Wissenschaft zu Politik, Wirtschaft und Medien in der Wissensgesellschaft. Weilerswist: Velbrück. Weingart, P. (2003). Wissenschaftssoziologie. Bielefeld: transcript. Weller, A. C. (2002). Editorial peer review: Its strenghts and weaknesses. Medford: American Society for Information Science and Technology. Wilkinson, M. D., Dumontier, M., Aalbersberg, I. J., Appleton, G., Axton, M., Baak, A., Blomberg, N., Boiten, J.-W., da Silva, S. L. B., Bourne, P. E., Bouwman, J., Brookes, A. J., Clark, T., Crosas, M., Dillo, I., Dumon, O., Edmunds, S., Evelo, C. T., Finkers, R., ­Gonzalez-Beltran, A., Gray, A. J. G., Groth, P., Goble, C., Grethe, J. S., Heringa, J., Hoen, P. A. C., Hooft, R., Kuhn, T., Kok, R., Kok, J. N., Lusher, S. J., Martone, M. E., Mons, A., Packer, A. L., Persson, B., Rocca-Serra, P., Roos, M., van Schaik, R., Sansone, S.-A., Schultes, E., Sengstag, T., Slater, T., Strawn, G., Swertz, M. A., Thompson, M., van der

Funktionen und Folgen von Transparenz: Zum Fall Open Science

301

Lei, J., van Mulligen, E., Velterop, J., Waagmeester, A., Wittenburg, P., Wolstencroft, K. J., Zhao, J., & Mons, B. (2016). The FAIR guiding principles for scientific data management and stewardship. Scientific Data, 3, 160018. https://doi.org/10.1038/sdata.2016.18. Worthy, B. (2018). Transparency. In B. Nerlich, S. Hartley, S. Raman, & A. Smith (Hrsg.), Science and the politics of openness. Here be monsters (S. 23–32). Manchester: Manchester University Press. Ziman, J. M. (1969). Information, communication, knowledge. Nature, 224, 318–324.

Martina Franzen  (Dr.) ist seit 2019 Fellow am Kulturwissenschaftlichen Institut in Essen (KWI) im Bereich Kulturwissenschaftlicher Wissenschaftsforschung. Von 2014–2019 war sie als wissenschaftliche Mitarbeiterin am Wissenschaftszentrum Berlin für Sozialforschung in der Forschungsgruppe Wissenschaftspolitik und davor an der Universität Bielefeld tätig. Ihre Forschung liegt an der Schnittstelle von Wissenschafts-, Medienund Bewertungssoziologie mit einem besonderen Fokus auf der wissenschaftlichen Publikationspraxis. Aktuell befasst sie sich mit Fragen der Digitalisierung, Datafizierung und Automatisierung. Zu den jüngsten Veröffentlichungen gehört: „Die digitale Transformation der Wissenschaft“ (in Beiträge zur Hochschulforschung, 4, 2018).

Transparency and Accountability in Monetary Policy Committees Carlo Martini

Abstract

How much transparency should we ask from an institution? This is an ethical and political question. But for some institutions, there is a technical issue underlying this as well, which forces us to ask how much transparency is possible before an institution’s functioning is compromised. In this paper, I analyze the requirement of transparency for monetary policy committees. Transparency, and its counterpart, discretion, are cogs in the monetary policy machine. Deciding how much transparency to demand must be dealt with as a comprehensive problem, which involves political, social and also scientific aspects about the functioning of monetary policy.

1 Transparency in Economics In modern democracies, institutions are usually held to high standards of transparency. In the popular imagination, lying, hiding, talking or meeting in secrecy are the trade of burglars, not of stateswomen and statesmen. In fact, as a society we often accept much more secrecy from our representatives than the popular imagination would suggest. One example of this can be found in the dealings and workings of monetary policy committees.

C. Martini (*)  Università Vita-Salute San Raffaele, Milano, Italy © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 V. August und F. Osrecki (Hrsg.), Der Transparenz-Imperativ, https://doi.org/10.1007/978-3-658-22294-9_12

303

304

C. Martini

In this paper, I will consider the matter of transparency in monetary policy committees. I will not argue for or against more transparency in monetary policy committees. Rather, I will argue that prior to asking whether more or less transparency is desirable for a given committee, one ought to settle a number of other questions related to the trade-offs that are characteristic of monetary policy. Different monetary policy committees settle those trade-offs in different ways. Only after considering the particular ways a committee settles those trade-offs can we meaningfully ask how transparent it should be. Monetary policy committees are groups of economists and bankers which control a country’s money supply, and hence hold substantial power over many people. At the same time, we know that monetary policy committees tend to be cloaked in secrecy. Their meetings are usually held behind closed doors; the documents and research they produce may be inaccessible to the public, and their minutes may not be disclosed for a period of time after each meeting.1 In the wake of the 2008 global financial crisis, monetary policy committees like the Federal Open Market Committee, the Bank of England’s Monetary Policy Committee, and the Governing Council of the ECB, have been under intense scrutiny from the media over their policy decisions. Much of what we know about monetary policy committees, however, is either what their members claim in public statements, or the result of more or less educated guesswork. In understanding the intentions of central bankers, guesswork is so important that there is a specific term for those whose job it is to observe monetary policy committees and infer their thinking from the little that is observable: Fed watchers.2 But should monetary policy committees be more transparent? Under what circumstances would we want monetary policy to be more transparent, and what level of transparency would be no longer desirable for monetary policy? Are monetary policy committees justified in claiming their right to privacy? As it is often the case in economics, the answer is “it depends”. It depends on a number of factors, which are political and practical, but also technical in character. In the

1There

is much variation among central banks and their committees regarding what is and is not visible to the public. Some monetary policy committees allow their documents to be made public after a certain period following each meeting, and some allow publishing their transcripts. For an overview of the level of accessibility to the workings of monetary policy committees around the world, see Maier (2007) and Patra and Samantaraya (2007). 2The term “Fed watchers” originates from those observing the Federal Open Market Committee. It is now widely used for other committees as well.

Transparency and Accountability in Monetary Policy Committees

305

case of monetary policy, where trust and perception of each other’s intentions and expectations play an ineliminable game-theoretical role, transparency can change the very nature of an institution. Making a monetary policy committee more or less transparent is not like lifting a veil on its workings, but can change its very way of functioning as well as its structure. Understanding how monetary policy interacts with public expectations is essential for answering the question “how much transparency is appropriate in monetary policy?” Requiring more transparency from monetary policy may seem like a s­imple task for democratic institutions. However, social scientists have to ask whether the desire for more transparency genuinely seeks to improve the workings of monetary policy, or if it is rather “transparency for the sake of transparency.” As Strathern (2000) explains, the need for more visibility may be a symptom of a society that “privileges information as a source of knowledge” (2000, p. 312), but the kind of transparency achieved through audits and reporting does not necessarily show us the inner working of an institution. There are unintended consequences for sharing more information and creating more visibility, including the possibility that those very institutions from which we require more visibility will be changed (for better or worse) by the demand for transparency. The next section will give a brief introduction of current research on monetary policy committees, and explain how the issue of transparency relates to these institutions. Despite the calls for more transparency from central banks and their monetary policy committees, I will argue that there are a number of questions that must be answered before we can meaningfully demand more or less transparency from monetary policy. In the end, I will argue that there are institutions, among which monetary policy committees are one example, for which transparency is not simply a window to their inner workings and functioning. In the case of monetary policy, transparency, and its counterpart, discretion, are like cogs in a machine. Consequently, asking for more or less transparency is equivalent to changing the way the machine itself functions.

2 Monetary Policy: A Primer Monetary economics investigates macro-relations between real economic variables – e.g., employment, real GDP, interest rates – and nominal variables, e.g., nominal interest rates, money supply, and prices. Modern monetary theory mostly relies on the general premise that national currencies are fiat money – i.e. a

306

C. Martini

c­urrency without intrinsic value – and that governments are the sole suppliers of national currencies. A government can issue unlimited quantities of its own currency, thus preventing the possibility that it could ever go bankrupt or be insolvent. However, how much money is in circulation in an economy, and how much a government borrows and repays interest on its bonds, are factors that have concrete effects on a number of macroeconomic variables, such as inflation, growth, and employment. Given the complexities of the economy, a central bank cannot usually print unlimited amounts of money without affecting other macroeconomic variables. For that reason, a central bank plays a sometimes subtle balancing act of maintaining price stability and moderate growth in its national economy. In most modern democratic and liberal governments, central banks rely on groups of experts (usually a mix of professional economists, bankers, and sometimes academics) to decide on the actions of a central bank, i.e. open market operations, changes in reserve requirements, lending to banks. Groups of experts are called “monetary policy committees” (MPC, for short), and are established in order to make central banking to some extent independent of a government’s decision-making. While the members of an MPC are appointed through a political process, their terms do not expire with the usual political terms, and they are typically longer than political appointments. Longer terms of appointment and independence from particular political administrations make it possible for a central bank to pursue goals that would otherwise be hard to pursue in the usually short time-horizon of political decision-making. Central banks, and their monetary policy committees, do not necessarily all pursue the same goals (see Blinder et al. 2001, p. 10). Some central banks peg their currencies to a foreign currency, pursuing fixed exchange rate systems (e.g., China’s linkage of the yuan to the U.S. dollar), while others aim at a government-given inflation target or range (e.g., the Bank of England). Other committees still, like the U.S. Federal Open Market Committee, pursue multiple targets, i.e. maximum employment, stable prices, and moderate longterm interest rates (see Blinder 2004, p. 16). The operations and institutional arrangements of MPCs greatly affect the power and democratic accountability of central banks. In the past decades there has been an intense debate on how much an MPC can be assessed, audited, and evaluated for its performance (see ­Blinder 2004). That debate, which will be the subject of the next section, is an illuminating one for understanding transparency, and how transparency affects institutions.

Transparency and Accountability in Monetary Policy Committees

307

3 Transparency and Accountability in Monetary Policy A monetary policy committee is an institution that regulates the monetary policy of a national (or transnational, in the case of the EU) economy. In short, nations decide how much fiat money should be present in their economy, but because of possible conflicts of interest, this decision is nowadays in the hands of independent committees. However, the meetings and long-term decisions of these committees are for the most part secret and, in general, there is little accountability for the workings of a monetary policy committee. The issue of transparency in monetary policy has been debated in both academic and public circles for as long as central banking has been recognized as independent from political agendas. Debates commonly juxtapose the thesis of discretion against an antithesis of accountability. We could think about this supposed dichotomy with the metaphor of a physician. What is often assumed is that a doctor who commits to her patient’s (physical) well-being is accountable only for the outcome of her practice – i.e. the patient is cured, or the patient dies, and, hence, that he or she is not accountable for the means through which she achieves the outcome, e.g. drugs, surgery, or other treatments. In contrast to that, in the case of the doctor, as well as in the case of an MPC, the claim that the expert – e.g. a physician or an economist – is accountable exclusively for the final outcome of her practice is generally not true. In modern medical practice, a doctor is accountable at several stages of the process through which she tries to achieve her goals. Nonetheless, the level of detail at which the doctor is accountable should not impede her use of professional judgment. J. S. Mill argued that “no man pretends to instruct his physician. No man exacts a pledge from his physician that he shall prescribe for him a particular treatment. Nobody pretends that it is the duty of a physician to act ‚according to the wishes and instructions‘of his patient”. (Mill 1832) The situation in monetary policy can be compared to the example of a physician. In both cases, several decades of social science literature have tried to answer the question of how much discretion in decision-making and how much transparency monetary policy committees (and physicians) should have. The term ‚transparency‘can refer to several aspects of a monetary policy committee: how much an MPC publishes its documentation, whether its meetings are open-door or closed-door, whether votes (and hence, disagreements) within a committee are disclosed, whether minutes and/or transcripts are taken and made public, or whether a committee declares specific targets (e.g. inflation targeting).

308

C. Martini

Among many other things, these aspects of institutional design contribute to a monetary policy committee’s transparency. In the past few decades, scholars and policy makers have called for changes in the design of monetary policy institutions, as part of a push towards more transparent central banking (see Blinder 2004; Van der Cruijsen and Eijffinger 2007; Crowe and Meade 2007). However, there has been little analysis of the trade-off that are related to more or less transparency in monetary policy. In this paper I will focus on those trade-offs. It will be helpful here to lay out the extremes of a wide range of transparency options in monetary policy. On the one hand, a central bank can work in complete secrecy. This would amount to having an individual (the president, the governor, etc.), or a committee, possess both full executive power over money supply and interest rates, and at the same time, have no obligations to disclose the data or models on which it bases its decisions. On the other end of the spectrum, full transparency would be a monetary policy on autopilot; that is, it would set interest rates based on mathematical functions, such as the Taylor-rule (Taylor 1993). In the latter case, as at times advocated by Friedman (1986), the MPC would operate like a “bureau” sharing perfect information with the market (except when there is noise in the data). Economists are usually divided on which role monetary policy ought to take. Whether policy should lead the market by correcting its course when it fails, or whether it should follow the market, by supplying the amount of money that the market needs to operate at its optimal level. Economists are also divided on whether an MPC can correct the market at all, but we cannot address this problem here. Ignoring this division in the economics literature undermines several of the arguments that are typically made either in favor or against more transparency in monetary policy. In the next sections, I will highlight three trade-offs in monetary policy design, and explain how each of those trade-offs affect the debate on transparency. I will argue that achieving more transparency in the field monetary policy, for example when central banks disclose their research and economic measurements, is not guaranteed to make monetary policy more effective. In fact, according to some accounts, making monetary policy research completely transparent could potentially undermine monetary policy itself.

4 Transparency in the Monetary Policy Committee: Three trade-offs How much transparency is appropriate in monetary policy? How we answer this question depends on a number of factors, including the following three:

Transparency and Accountability in Monetary Policy Committees

309

a) The status of an MPC – whether we understand monetary policy to have a technical (“scientific”) role or a policy-making/normative one; b) The scope of an MPC – whether we understand monetary policy as having a narrow or a broad scope target; c) The power of an MPC – whether we understand the role of monetary policy as being that of correcting the market, or of implementing a relation of trust (an symmetric equilibrium) with the market. I will analyze each of those factors in order. According to a substantial part of the literature on monetary policy, the role of central banks, along with many other things, is to stabilize the market. Due to herding (see Hirshleifer and Teoh 2003) or overreaction to information, markets tend to be rather volatile in the short period and focused on short-term performance (see Blinder 2004, chap. 3). Based on that premise, the long-term outlook of a central bank is to promote a number of stability-conditions. Central banks and governments around the world hold different mandates regarding the situations in which nation’s monetary policy can and ought to intervene. I will expand on this point later, but for now let us focus on inflation. One of the mandates many central banks pursue is inflation-targeting. If a monetary policy committee aims at maintaining a strict quantitative inflation target, it acts as a scientific body, and does not take decisions on the goals of monetary policy. Given inputs (data about the economy), mechanism (the transmission mechanism of monetary policy), and goals, the central bank uses the tools at its disposal (i.e., market operations) to achieve the desired target. If, on the other hand, an MPC is given a flexible or qualitative inflation target, i.e. low inflation – an MPC will have the additional normative role of deciding which specific inflation target to address. And this decision is contingent on other welfare considerations, such as employment and growth. The status of an MPC can thus be either that of a technical (scientific) body, or of a policy-making one (deciding on goals and values). Whether an MPC performs more like a technical body or a policy-making one is something that must be discussed prior to concerns about transparency. Yet, it is clear that the status of an MPC will also depend on its scope, which brings us to the second item in the list of trade-offs mentioned above: narrow or broad scope (i.e., targets) for monetary policy. A narrow target is typically a quantitative target of a measurable economic variable. The Bank of England’s Monetary Policy Committee, for instance, pursues an inflation upper-bound of 2%. By contrast, the Federal Reserve Act mandates the Federal Open Market Committee (FOMC, for short) pursue “maximum

310

C. Martini

employment, stable prices, and moderate long-term interest rates.” (Federal Reserve 2014, Sect. 2a). With a target as broad as the one of the FOMC, the committee needs to decide, in occasion of each meeting, which combination of mandated goals contained it wants to pursue. This decision is necessary, as the quantitative targets mentioned in the Federal Reserve Act are not always compatible. If unemployment is very low, prices tend to go up, while high unemployment typically implies less disposable income and therefore a lower rate of inflation or even a negative one (deflation). Thus, while a quantitative numerical target can often be implemented by an MPC as a purely technical (engineering) decision, broadly defined targets in monetary policy involve value considerations that are normative (and possibly political) in character. The third and last factor affecting transparency considerations is whether we consider an MPC’s role as predicting and correcting the market, or as establishing an equilibrium with the market. The two roles are not entirely incompatible, but there are important differences that need to be highlighted. First, there are three important players involved – governments, MPCs and markets – and each of them has slightly different goals. Governments have short-term horizons in terms of political electoral gains (typically a few years), but an MPC has a longer term horizon of economic stability. The degree of central bank independence achieved in the past few decades is almost unanimously cheered as a great economic and democratic success (see Blinder 2004). The market has different goals, and since the market is simply a collective term for ‘the set of all market players’, it is hard to pinpoint at any given time what its precise goals are. It is fair to say, however, that most market players work with short-term horizons (from a few weeks for “chartists” to a few months or a year at the most for “fundamentalists”; cf. Frankel and Froot 1990) and certainly much shorter gain-horizons. Given the different goals of markets, governments and central banks, it has long been the belief of central bankers that MPCs need to outwit the market in the attempt to pursue their long-term goals. Because the market could react to information released by an MPC in a way that would nullify the committee’s predictions, it was believed that as much information as possible had to be kept secret from markets and speculators (for an analysis, see Goodfriend 1986). The status quo has changed much in recent decades of central banking, but there is far from unanimous agreement about the role of MPCs. Most economists accept the view that there is a certain market equilibrium (and an economically beneficial one) between market forces and central bankers. At the same, most economists also still believe that MPCs‘policies have the power to guide market forces towards long-term economic goals, which are generally believed to be economic stability and moderate long-term growth.

Transparency and Accountability in Monetary Policy Committees

311

As to be expected, many disagree and would rather see rule-based monetary policy implemented (Friedman 1986), whereby interest rates are adjusted automatically according to a specified mathematical function. For more on this, one can refer to Milton Friedman’s legacy on the unpredictability of the market (Frey 2006). This paper is not attempting to address that debate. What is stressed here is that there are two sides of the story in monetary policy interventions: those who believe that a central bank’s monetary policy can only be in equilibrium with the market, and those who believe that monetary policy can influence and partly control the market. In the next sections I will highlight how each of the three factors discussed above relate to transparency in central banks, and in MPCs in ­particular.

5 Three trade-offs in Monetary Policy The three factors mentioned in the previous section determine three trade-offs for monetary policy. There are thus three sets of alternative design-choices for MPCs. I will highlight in the following sections that, depending on the balance of factors involved, different considerations apply when addressing the question of how transparent an MPC ought to be. For example, if an MPC has the mandate to pursue low interest rates, maximum employment and long-term growth, then it will not be feasible to ask that MPC to be fully transparent about which numerical goals it will pursue in, say, a two-year period. This is because the MPC itself cannot know too far in advance which numerical targets it will be pursuing to fulfill its general mandate. The market changes quickly, and, as Blinder puts it, “we cannot ask central banks to reveal information [i.e. long-term numerical goals] they do not have.” (2004, p. 25). This example serves to illustrate the fact that, while we may have independent reasons for requiring transparency from an institution, one ought to be clear about the limits of transparency and how they are conditional on an institution’s official role. Requiring more transparency than is possible is likely to change the very nature of an institution, and might, in the extreme, destroy an institution’s ability to comply. This lesson was born out in US economic policy. Before 1978, the Council of Economic Advisers had the task of advising the U.S. president on how to pursue the goals stated in the 1946 Employment Act. This act gives mandate to the Federal government to pursue maximum employment, production, and purchasing power. The mandate is clear, but general enough to leave much operational freedom, at least on short-term policies. In an effort to push for more

312

C. Martini

transparency, the 1978 Full Employment and Balanced Growth Act required the CEA to establish numerical targets and formulate comprehensive economic plans. According to Cimbala and Stout (1983) the 1978 Act transformed the annual Economic Report of the President from a technical into a political document, “by forcing the pursuit of unfeasible targets in order to satisfy the political agendas of different political sides” (Martini 2015, p. 396). In the example that Cimbala and Stout (1983) provide, the request for more transparency from the Council of Economic Advisers had the effect of changing the nature of the Council itself. In particular, it changed the nature of its annual report to the president. At the same time, it reduced a technical and possibly valuable document on how to achieve economic results into an allegedly rather useless tool in political diplomacy. In the next section, I will highlight the three trade-off that a policy maker must consider in the design of a monetary policy committee. Each of these helps determine what level of transparency is acceptable for an MPC.

5.1 Transparency and Control Many scholars support the thesis that high levels of transparency in monetary policy implies a limited ability to predict the market, and, in turn, limited room for corrective action. Whether that stance is correct depends on how we understand the “monetary transmission mechanism” – the mechanism through which changes in the interest rates controlled by an MPC affect macroeconomic variables. It must be noted that the main tool of monetary policy used by an MPC is typically of little economic significance when taken by itself. The Federal Open Market Committee, which controls the Federal Funds Rate, illustrates this caveat well. This particular rate of interest affects a very limited number of overnight transactions, mostly clearing the market from excess reserves by allowing banks to trade reserves among them. Despite the relatively little significance of the Federal Funds Rate (in terms of volume of transactions), it is believed that there is a transmission mechanism which connects that rate to other more important macroeconomic variables (inflation rate, employment, etc.). However, there is no universal understanding of how this mechanism actually works. A better understanding of the transmission mechanism would make it easier to understand whether more publicly disclosed information limits the power of an MPC to influence the market. In this respect, the review paper by Van der Cruijsen and Eijffinger (2007) is helpful for understanding whether more or less transparency comes at the cost of flexibility to manipulate and stabilize the economy.

Transparency and Accountability in Monetary Policy Committees

313

Van der Cruijsen and Eijffinger (2007) present several models for the monetary transmission mechanism: each model carries different implications for how the release of information affects the power of an MPC to influence the market. However, the striking “conclusion” is that for all of the transparency categories3 considered by the authors, there seems to be no unambiguous conclusion. Whether it is political transparency, operational transparency, or something else, some models seem to indicate that more transparency is valuable, whereas others show the opposite holds true. It is safe to conclude that at least the theoretical possibility of a trade-off between prediction and transparency exists. Therefore, if we think of the MPC as playing a stabilization role on markets, one has to accept that there will be a certain loss of control over markets as the MPC becomes more transparent. How much transparency, and especially which kind of transparency,4 influences the extent to which an MPC loses control. And this is something that will depend on the precise understanding of how the transmission mechanism works. In other words, it depends on the specific model through which changes in MPC controlled interest rates bring about the desired effects to macroeconomic variables. Model-based evidence is perhaps the most sought-after type of knowledge in economics, but it may not be the best kind of evidence. In this respect, it is useful to consider what Blinder (2004) thinks about the trade-off between transparency and prediction. Important to remember is that Alan Blinder is a staunch advocate of more transparency in the Federal Open Market Committee (the American MPC). Blinder (2004) reviews evidence that transparency in monetary policy is conducive to better, not worse, forecasting. Blinder’s claim is that transparency increases credibility, and that a more credible MPC promotes less second-guessing in the market, and consequently less volatility. If we understand the role of the MPC as creating an equilibrium in which the market knows what the central bank is up to, and vice versa, then more transparency is to be preferred. It is important to note, however, that even Blinder (2004) stops short of suggesting that transparency should be all-encompassing and absolute. In other words,

3Van

der Cruijsen and Eijffinger select political transparency, economic transparency, procedural transparency, policy transparency, operational transparency (2007, p. 265). The model literature they analyze provides different evidence for whether more or less transparency is desirable, depending on which category is considered. 4In this paper, I do not deal with different kinds of transparency. For that, the reader can refer to Blinder (2004) and Van der Cruijsen and Eijffinger (2007) for categorizations of different kinds of transparency – see also footnote 1.

314

C. Martini

while the MPC tries to create an equilibrium with the market, its role is still to guide (and when necessary, to correct) the market. For this task, full disclosure is not necessarily desirable. In a Friedman-like world (see Friedman 1986) where the MPC changes the interest rates according to a strict Taylor-like rule,5 the MPC would end up pursuing the goals of the market (Blinder 2004, Chap. 3). But those goals are, as I argued above, different from the long-term welfare goals of monetary policy.

5.2 Transparency and  Target-Fixing Different MPCs across the world have different mandates. Monetary policy can, in principle, target a number of macroeconomic variables. Inflation has been the most popular one in the past few decades, but it is not the only one.6 Furthermore, an MPC may just choose to target some variables and not others, either because of its government’s mandate, economic considerations, or technical choices. In some cases, an MPC will be given a rather narrowly defined target – e.g. a rate of inflation. This is already a step towards transparency, because the public knows which macro variables the MPC is targeting. A narrowly defined target lets the MPC operate more like a technical body than a policy-making one. It also lets the MPC achieve transparency easily by publishing forecasts, models, and other data on which it bases its decisions. But not many central banks would be happy with an extremely rigid target. Those who believe that MPCs have a role in guiding the economy on long-term goals may find a rigid target rate too limiting. Moreover, there seems to be no principled reason why a given inflation target ought to be preferred over another. Even inflation-targeting MPCs typically work with flexible targets, i.e. within a range of target rates. A flexible target leaves room for discretion. For instance, a surprise inflation spike, even within the allowed range, can boost investment if an MPC decided it needs to sustain growth. But targeting a level of inflation rather than another, for instance in order to boost investment, reveals an ulterior goal: in

5For

a debate on the effectiveness of Taylor-like rules for monetary policy, see Woodford (2001). 6In response to the 2008–2009 crisis, central banks have rushed to monetary policy in the attempt to boost growth; one can find abundance of newspaper articles on this – see for example Spicer (2014) on Federal Reserve’s Chair Janet Yellen’s promise to keep sustaining growth in the US economy.

Transparency and Accountability in Monetary Policy Committees

315

this example, growth. This theoretical example shows that there is no true narrow goal that is also meaningful from a welfare point of view. An arbitrary inflation target, isolated from welfare considerations, has little meaning. The same goes for an arbitrary growth or employment target. All of the aforementioned macro variables, as well as many other variables, contribute in different ways to welfare. The question then, is whether the decision about how to pursue welfare should be left to central banks and MPCs, or to political bodies. In the former case, the MPC will be given only a loosely defined mandate, and it will be up to the judgment of its experts to decide what specific target to pursue. In the latter case, the MPC will be given a narrow target and it will be up to the political body to decide the specific target. As I have previously mentioned, there are a number of reasons for wanting a central bank to have a certain degree of autonomy in deciding which goals to pursue. Political goals do not always coincide with long-term welfare goals, and political reaction-times are typically rather slow (at least in most democratic ­nations) compared to fast pace of economic change. Ultimately, however, it is a political decision underlying the degree of a central bank’s independence. What has been stressed in this section is that this choice affects considerations about the level of transparency required for an MPC. An MPC with a narrow mandate can be made accountable in relatively easy way by keeping a record of its operations. The Bank of England’s MPC, for example, is often assessed, in the economic literature, over its track record of low inflation in England since the establishment of its independence from the government (see House of Commons Treasury 2007; Berger and Nitsch 2011). For a mostly technical committee, probably the best form of transparency and accountability is keeping a track record, but this is not a luxury that MPCs with only broadly defined mandates enjoy. For example, there is the Federal Reserve Act (Federal Reserve 2014), which gives the FOMC a mandate to pursue maximum employment, stable prices, and moderate long-term interest rates. As I anticipated in Sect. 4, the three goals of the FOMC are not always compatible, and the committee has more than merely a technical role: it pursues whichever combination of macroeconomic targets it deems the most beneficial from a welfare perspective. Promoting transparency in an MPC like the FOMC involves more than simply keeping a track record of the committee’s performance. In the pursuit of multiple objectives, there will not be a univocal way for accessing the MPC’s performance. In targeting the employment rate, an MPC might decide to sacrifice the goal of low inflation for a period; or in the attempt to temper an overheated market, an MPC might decide to temporarily sacrifice the goal of having

316

C. Martini

moderate interest rates. However, the requirement of transparency is stronger for an MPC with a free mandate, just like policy-makers are typically held to higher standards than accountants. The trade-off between a narrow and broad mandate therefore affects the feasibility of keeping an MPC accountable and transparent. Moreover, it impacts the perceived opportunity of demanding transparency, insofar as we tend to expect from political or semi-political institutions relatively high standards of transparency. To summarize this section, an MPC with a narrow mandate does not need as many transparency requirements as one with a broadly defined mandate. This is because, for the most part, a narrow mandate accountability coincides with tracking the committee’s objective performance. On the other hand, an MPC with a broad mandate – because it performs a more political role than one with a narrow mandate – will be held to higher standards of transparency and accountability. At the same time, it will also be more difficult for this type of committee to establish good transparency and accountability standards.

5.3 Transparency and Stability There are different schools of thought about the role of central banks and MPCs in the market. Those who believe that the market cannot be outwitted, directed, or corrected, can only see an MPC as establishing some kind of equilibrium with the market. The one extreme of that position would take an MPC to have a purely bureaucratic role. It “prints” how much money is required by the market (see Friedman 1986). This solution would be maximally transparent, as the market can always project the quantity of money that will be in circulation in a given interval of time under certain initial economic conditions. This is of course assuming that information on current and projected economic data is common knowledge. There are only a few economists who would like to see MPCs in the aforementioned perfect state of equilibrium with the market. This is because, as I noted before, short-term market goals do not always coincide with long-term welfare goals. So where should the balance of an MPC stand on the spectrum of positions it can hold – from a pure equilibrium with the market to a pure manipulator of it? For much of the history of central banking, MPCs leaned towards trying to outsmart markets, rather than trying to establish an equilibrium with them. Goodfriend (1986) provides a review of the aura of mystique and wisdom that permeated early central banking, though it must be noted that his account came before central banking was operated by committees. Quoting Brunner (1981),

Transparency and Accountability in Monetary Policy Committees

317

Goodfriend writes that “the political mystique of Central Banking was, and still is to some extent, widely expressed by an essentially metaphysical approach to monetary affairs and monetary policy-making. The possession of wisdom, perception and relevant knowledge is naturally attributed to the management of Central Banks” (Goodfriend 1986, p. 2). Secrecy in central banking, however, has been significantly reduced in most democracies over the past two or three decades. The modern notion of central banking assumes that MPCs will try to establish a controlled equilibrium with the market. In that equilibrium, the central bank will provide the amount of liquidity the market needs, as long as the market stays within the parameters which the central bank thinks are optimal for sustainable long-term economic welfare (i.e. relatively low inflation rate, moderate growth, a rate of unemployment close to the natural rate, interest rates that sustain investment, etc.). By their own nature, markets will try to exploit the information they have about monetary policy to their short-term advantage. And this is the gap that an MPC will likely want to keep between full secrecy and full disclosure in its monetary operations, its deliberations, its long-term numerical goals, etc. So there is a trade-off between communicating efficiently with the market, thus creating an equilibrium, and keeping information from the market, therefore using an information advantage in order to exercise some control over some economic variables that an MPC thinks are conducive to long-term economic welfare. An MPCs choices about how to enact equilibrium with the market matter for transparency. Different MPCs will lean toward a more or less asymmetric informational state with the market – asymmetry of information meaning that the MPC has information the market doesn’t have, whereas typically the information contained in the market is common knowledge. The more symmetry of information between an MPC and the market means that the MPC lies closer to a purely market-driven equilibrium. But it also means that if a given MPC believes it has an advantage in keeping more information from the market than another MPC, then the demands for transparency will be lower for the former than the latter. As in the case of Sect. 5.1, the beliefs of the MPC about its power to control the market will be based on its understanding of the monetary policy transmission mechanism. From a purely theoretical viewpoint – given equal initial conditions – there is only one correct mechanism. Theory, however, is not enough to comprehend the working of real monetary policy. It is very likely that different MPCs refer to different models for understanding the transmission mechanism. For the purposes of this paper, it is important to stress the fact that the problem of how much transparency an MPC should exhibit can meaningfully and rationally be settled only after we have understood

318

C. Martini

the transmission mechanism. Luckily, this is not an entirely political and normative choice. There are matters of fact concerning which transmission mechanisms make economic sense, and which ones do not. It is the task of economic theory and econometrics to shed light on that problem.

6 Conclusion How much transparency and accountability should we require from monetary policy committees? This is to a large extent a political, and perhaps also an ethical question. However, as I have tried to show in this paper, political and ethical considerations do not complete the whole picture. In monetary policy, transparency and its counterpart, secrecy, are cogs in the monetary policy machine, much like trust and confidence. More information on what the central bankers are doing doesn’t simply mean that the public will be able to see more, or see under a veil of discretion. Making monetary policy more transparent might entail changing how monetary policy works, or involve a shift in the equilibrium with the market. We would hope that a more transparent central bank, like the ECB, could act more responsibly in political terms, for example when considering a broad number of targets beyond narrow inflation goals, such as levels of employment or growth. But, as I have shown in Sects. 4 and 5 of this paper, there is a trade-off between transparency and broad goals in central banking. Pursuing a broad mandate can potentially make it difficult to be transparent and accountable. This is because members of a monetary policy committee cannot give the public information they do not have, and because pursuing multiple goals at the same time may not always be economically feasible. In other words, a bank with a broad mandate will have more autonomy, and I have argued that there are clear benefits to central banking autonomy. On the other hand, like in the case of the doctor who cannot be held strictly accountable for how to treat a patient, we cannot expect a committee with a broad mandate to be transparent and accountable in the same way as a committee with a narrow mandate. Monetary policy may not be the only example in which more or less transparency can change the rules of the game for an institution. In domains of society where information and expectations are among the forces that drive behavior, we must be aware that more or less information can change both behavior and social equilibria, and, in the extreme, make an institutions‘ functioning impossible. More studies are needed to understand how a social institution (like a monetary policy committee) may benefit from more transparency. More conceptual work is also needed to understand the fine line a society walks between voyeurism and transparency.

Transparency and Accountability in Monetary Policy Committees

319

References Berger, H., & Nitsch, V. (2011). Too many cooks. Committees in monetary policy. Southern Economic Journal, 78(2), 452–475. Blinder, A. (2004). The quiet revolution. Central banking goes modern. New Haven: Yale University Press. Blinder, A., Goodhart, C., Hildebrand, P., Lipton, D., & Wyplosz, C. (Eds.). (2001). How do central banks talk. Geneva reports on the world economy 3. Geneva: International Center for Monetary and Banking Studies, Centre for Economic Policy Research. Brunner, K. (1981). The art of central banking. Working Paper, No. GPB 81–6, June 1981. Center for Research in Government Policy and Business, Graduate School of Management, University of Rochester. Cimbala, S. J., & Stout, R. L. (1983). The economic report of the president. Before and after the full employment and balanced growth act of 1978. Presidential Studies Quarterly, 13(1), 50–61. Crowe, C., & Meade, E. E. (2007). Central bank independence and transparency. Evolution and effectiveness. European Journal of Political Economy, 24(4), 763–777. Federal Reserve. (2014). The federal reserve act. http://www.federalreserve.gov/aboutthefed/fract.htm. Accessed: 30 Jan 2018. Frankel, J. A., & Froot, K. A. (1990). Chartists, fundamentalists, and trading in the foreign exchange market. The American Economic Review, 8(2), 181–185. Frey, B. S. (2006). How influential is economics. De Economist, 154(2), 295–311. Friedman, M. (1986). Economists and economic policy. Economic Inquiry, 24(1), 1–10. Goodfriend, M. (1986). Monetary mystique. Secrecy and central banking. Journal of Monetary Economics, 17(1), 63–92. Hirshleifer, D., & Teoh, S. H. (2003). Herd behaviour and cascading in capital markets. A review and synthesis. European Financial Management, 9(1), 25–66. House of Commons Treasury. (2007). The monetary policy committee of the bank of England. Ten years on. Twelfth report of session 2006–07. Vol. I. House of Commons London. The Stationery Office Limited. https://publications.parliament.uk/pa/cm200607/ cmselect/cmtreasy/299/299.pdf. Accessed: 27 Jul 2018. Maier, P. (2007). Monetary policy committees in action. Is there room for improvement. Bank of Canada Working Paper, 2007(6), 1–31. Martini, C. (2015). Expertise and institutional design in economic committees. Journal of Economic Methodology, 22(3), 391–409. Mill, J. S. (1832). The Examiner, July 1, 1831. In A. P. Robson & J. M. Robson (Eds.), The Collected Works of John Stuart Mill, Volume XXIII (pp. 417–418). Online Library of Liberty. http://oll.libertyfund.org/index.php. Accessed: 30 Aug 2018. Patra, M. D., & Samantaraya, A. (2007). Monetary policy committee. What works and where. RBI Occasional Papers, 28(2), 1–26. Spicer, J. (2014). Yellen commits fed to boost still-weak U.S. economy. Reuters, 05 March 2014. https://in.reuters.com/article/usa-fed-yellen/yellen-commits-fed-to-boost-still-weak-u-s-economy-idINDEEA2500620140306?type%3DeconomicNews. Accessed: 10 Mar 2014. Strathern, M. (2000). The tyranny of transparency. British Educational Research Journal, 26(3), 309–321.

320

C. Martini

Taylor, J. J. B. (1993). Discretion versus policy rules in practice. Carnegie-Rochester Conference Series on Public Policy, 39, 195–214. Van der Cruijsen, C., & Eijffnger, S. (2007). The economic impact of central bank transparency. A survey. In P. L. Siklos, M. T. Bohl, & M. E. Wohar (Eds.), Challenges in central banking. The current institutional environment and forces affecting monetary policy (pp. 261–319). Cambridge: Cambridge University Press. Woodford, M. (2001). The Taylor rule and optimal monetary policy. American Economic Review, 91(2), 232–237.

Carlo Martini (PhD) works as an Assistant Professor at Vita-Salute San Raffaele University in Milan. He is a visiting researcher at the Centre for Philosophy of Social Science at University of Helsinki. Carlo Martini’s main research fields are philosophy of economics, philosophy of the social sciences, social epistemology and formal epistemology. His latest publications include “The Epistemology of Expertise” (forthcoming in the Routledge Handbook of Social Epistemology, ed. by P. Graham et al.), “Modeling individual expertise in group judgments” (in Scientific Collaboration and Collective Knowledge, ed. by T. Boyer-Kassem et al. 2017) and “Ad Hominem Arguments, Rhetoric, and Science Communication” in Studies in Logic, Grammar and Rhetoric, 55 (68), 2018.

Transparenz oder Öffentlichkeit? Zur Funktionsbedingung parlamentarischer Deliberation Andreas Schäfer

Zusammenfassung

Der Aufsatz behandelt den Zusammenhang von Öffentlichkeit, Transparenz und Deliberation im parlamentarischen Entscheidungsprozess. Er rekonstruiert in einem ersten Schritt die Diskussion über positive und negative Effekte von Öffentlichkeit auf Deliberation innerhalb der deliberativen Demokratietheorie. In einem zweiten Schritt stellt er diesen Überlegungen die analoge Diskussion innerhalb der Parlamentarismustheorie gegenüber. Dabei wird argumentiert, dass letzterer durch die implizite Gleichsetzung von Transparenz mit der Öffentlichkeitsfunktion von Parlamenten die Chance entgeht, von der ausdifferenzierten demokratietheoretischen Diskussion zu profitieren. In einem dritten Schritt liefert der Aufsatz mittels einer Fallstudie zu den Wirkungen von Öffentlichkeit und Nicht-Öffentlichkeit auf Deliberationsprozesse im Deutschen Bundestag Belege für die diskutierten Vermutungen der Demokratietheorie. Gleichzeitig zeigt er jene Mechanismen auf, mittels derer Öffentlichkeit in nicht-öffentliche Beratungsarenen hineinwirkt.

A. Schäfer (*)  Humboldt-Universität zu Berlin, Berlin, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 V. August und F. Osrecki (Hrsg.), Der Transparenz-Imperativ, https://doi.org/10.1007/978-3-658-22294-9_13

321

322

A. Schäfer

Abstract

The article focuses on the relationship between publicity, transparency and deliberation in the parliamentary decision-making process. In a first step, the article reconstructs the discussion about positive and negative effects of publicity on deliberation within deliberative democratic theory. In a second step, the article compares these reflections with the analogous discussion within the theory of parliamentarianism. Thereby it argues that the latter misses the chance to profit from the differentiated discussions within deliberative democratic theory by implicitly equating transparency with the publicity function of parliaments. Using a case study on the effects of publicity on deliberation processes in the German Bundestag, the article provides in a third step evidence for the discussed assumptions of democratic theory. At the same time, it shows those mechanisms through which publicity influences deliberation in non-public arenas of the parliament.

1 Einleitung Die Öffentlichkeit politischer Willensbildungs- und Entscheidungsprozesse ist ein klassischer Wert normativer Demokratiemodelle sowie liberaler Demokratien.1 Politische Entscheidungen können demnach nur legitimiert werden, wenn sie nicht im Geheimen gefällt werden, sondern öffentlich nachvollziehbar und damit kritisierbar. Diese Norm spiegelt sich auch in der Theorie und Praxis des Parlamentarismus wider, der dem Parlament die Aufgabe zuschreibt, kollektive Willensbildungs- und Entscheidungsprozesse sowohl in ihrem Entstehen als auch in ihrer Konflikthaftigkeit für alle Bürgerinnen und Bürger sichtbar zu machen. Gleichzeitig ist sowohl in der demokratietheoretischen Diskussion als auch in der empirischen Forschung mittlerweile die Erkenntnis gewachsen, dass Transparenz demokratischer Prozesse unter Umständen auch demokratietheoretisch unerwünschte Folgen haben kann. Die Diskussion um Öffentlichkeit und Nicht-Öffentlichkeit ist sowohl normativ als auch analytisch komplizierter als ehemals angenommen. Der vorliegende Beitrag knüpft an diese Diskussion

1Ich

danke den Herausgebern dieses Bandes sowie den Teilnehmerinnen und Teilnehmern des Autorenworkshops am 12./13. Januar 2018 am Institut für Sozialwissenschaften der Humboldt-Universität zu Berlin für ihre hilfreichen Anmerkungen zu einer früheren Fassung dieses Aufsatzes.

Transparenz oder Öffentlichkeit? Zur Funktionsbedingung …

323

an und bezieht sie auf die Frage des Zusammenhangs von Öffentlichkeit, Transparenz und Deliberation, die insbesondere im Kontext des parlamentarischen Beratungsprozesses untersucht werden soll. Dazu wird im ersten Schritt nach einigen konzeptuellen Vorklärungen die Diskussion innerhalb der (deliberativen) Demokratietheorie betrachtet, um die theoretischen Argumente zu rekonstruieren, die die Erwartungen hinsichtlich der Wirkungen von Öffentlichkeit auf Deliberation sowohl in positiver als auch negativer Hinsicht beschreiben. Es zeigt sich, dass insbesondere in neueren systemischen Ansätzen der deliberativen Demokratietheorie die Problematik sehr differenziert betrachtet wird und einer umfassenden Zielsetzung für mehr Transparenz entgegenläuft. Im zweiten Schritt wird die allgemeine demokratietheoretische Perspektive in Bezug auf den parlamentarischen Kontext spezifiziert. Hier wird mithilfe der Rekonstruktion der Sichtweise der Parlamentarismustheorie die Verbindung von normativen Vorstellungen und strukturellen Eigenschaften des parlamentarischen Prozesses hergestellt. Obwohl auch hier eine Diskussion über Vor- und Nachteile von Transparenz anzutreffen ist, bleibt letztere eine zentrale Zielnorm für Reformüberlegungen, weil sie mit der Öffentlichkeitsfunktion des Parlaments gleichgesetzt wird. Im dritten Schritt erfolgt die empirische Analyse der Praxis parlamentarischer Deliberation mittels einer Fallstudie zum Deutschen Bundestag. Sie zeigt den Zusammenhang zwischen den in Hinblick auf öffentliche Einsehbarkeit differenzierten Arenen des parlamentarischen Prozesses einerseits und der (kommunikativen) Verhaltensorientierung der in ihnen agierenden Akteure andererseits auf. Im Ergebnis zeigt sich, dass sowohl Öffentlichkeit als auch Nicht-Öffentlichkeit jeweils unterschiedlicher parlamentarischer Arenen demokratietheoretisch vorteilhafte Effekte zeitigen kann – allerdings gleichzeitig im Schatten der Öffentlichkeit durch Antizipationsmechanismen öffentliche Verhaltensorientierungen erzeugt werden, sodass Öffentlichkeit letztlich die entscheidende Funktionsbedingung des Prozesses bleibt. Die aus der theoretischen und empirischen Analyse zu ziehenden Schlussfolgerungen verweisen auf die Grenzen einer Gleichsetzung der Transparenzmit der Öffentlichkeitsfunktion von Parlamenten. Eine funktionale Einordnung von Transparenzstrukturen in ein ausdifferenziertes System von öffentlichen und nicht-öffentlichen Beratungsphasen und -arenen, die als Ganzes eine öffentliche Praxis der Deliberation ermöglichen, erscheint vor diesem Hintergrund als ein angemessener Referenzrahmen. Hier könnte die Parlamentarismustheorie von aktuellen Debatten um die systemische Wende innerhalb der deliberativen Demokratietheorie profitieren.

324

A. Schäfer

2 Der demokratietheoretische Zusammenhang von Öffentlichkeit, Transparenz und Deliberation Zwischen Öffentlichkeit und Transparenz wird oftmals nicht explizit unterschieden. Dies gilt insbesondere für die Parlamentarismustheorie, wie sich in Kap. 3 noch zeigen wird. Eine Gleichsetzung der beiden Konzepte blendet allerdings wichtige Aspekte aus. Denn Öffentlichkeit und Transparenz sind zwar eng aufeinander bezogene, aber keine deckungsgleichen Begriffe. Transparenz lässt sich nach de Fine Licht und Naurin (2015, S. 133) als Variable bestimmen „[…], which indicates the degree to which information is made available about how decisions are produced within a certain institution.“ Damit wird Transparenz zwar zur Voraussetzung von Öffentlichkeit, stellt sie aber noch nicht her. Transparenz ist gewissermaßen die passive Seite von Öffentlichkeit. Hinzukommen muss ein aktives Moment, welches die Information aufnimmt und in einen kommunikativen Prozess einbindet.

2.1 Öffentlichkeit als Voraussetzung demokratischer Deliberation Öffentlichkeit ist ein zentraler demokratietheoretischer Wertmaßstab. Ganz allgemein zeichnet sich demokratische Öffentlichkeit dadurch aus, dass Akteure „im Horizont“ eines prinzipiell unabgeschlossenen Publikums politisch kommunizieren (Gerhards 1998, S. 269). So verstanden beschreibt der Begriff eine spezifisch strukturierte Kommunikationssituation. Diese umfasst eine grundsätzliche äußere Einsehbarkeit von (auch internen) kommunikativen Akten (im Sinne von Transparenz), eine dreiseitige soziale Beziehung (Sprecher, Hörer, Publikum) sowie eine allgemeine (sowohl aktive als auch passive) Zugänglichkeit des Kommunikationsprozesses. Vor dem Hintergrund dieser Merkmale impliziert diese spezifische Kommunikationssituation darüber hinaus eine strukturell bedingte oder verstärkte Verhaltenseinstellung der Kommunikationspartner: Die Bedingung der Öffentlichkeit legt andere Verhaltensmaßstäbe nahe als jene der Nicht-Öffentlichkeit. So lassen sich beispielsweise politisch-strategische Erwägungen nicht sinnvoll vor einem prinzipiell unabgeschlossenen Publikum artikulieren – sie verlieren unter diesen Bedingungen entweder ihre Wirksamkeit oder werden als Täuschungsmanöver wahrgenommen. Dagegen können argumentativ begründete politische Appelle, die auf ein wie auch immer konzipiertes Gemeinwohl gerichtet sind, erst einmal als legitim wahrgenommen werden – sie werden dann

Transparenz oder Öffentlichkeit? Zur Funktionsbedingung …

325

entweder akzeptiert oder in ihrer Geltung wiederum argumentativ infrage gestellt. Mit Öffentlichkeit gehen also normative Beschränkungen für politisches Handeln im Allgemeinen und politische Kommunikation im Besonderen einher (vgl. ­Benhabib 1996, S. 71 f.; Elster 1998, S. 101 ff.; Neblo 2005, S. 174 f.). Der Aspekt der Transparenz ist in dieser Perspektive also ein zentraler Bestandteil des Öffentlichkeitsbegriffs, aber nicht der einzige. Hinzu kommen die weiteren genannten strukturellen Merkmale einschließlich der spezifischen Verhaltenserwartungen, die an die öffentlich auftretenden politischen Akteure gerichtet sind. In diesem Sinne bildet Öffentlichkeit auch eine konstitutive Bedingung demokratischer Deliberation, wenn wir letztere als argumentative Auseinandersetzung um politische Positionen und Entscheidungen unter gleichrangigen Entscheidungsträgern im Kontext der Öffentlichkeit verstehen (vgl. Schäfer 2017a, S. 90 ff.). Denn es gilt als eine zentrale Norm moderner politischer Öffentlichkeit, dass Sprecher „mit den Themen und Meinungen anderer diskursiv umgehen und ihre eigenen Themen und Meinungen unter dem Druck der Argumente anderer gegebenenfalls revidieren“ (Neidhardt 1994, S. 8). Eine (Nicht-)Einhaltung dieser Kommunikationsregeln wird vom Publikum und von Kommunikationsteilnehmern als Verstoß wahrgenommen und potenziell sanktioniert. Öffentlichkeit verstärkt auf diese Weise die Geltung von Regeln, die aus Sicht der Theorie des kommunikativen Handelns bereits in der Alltagskommunikation anzutreffen sind (Habermas 1987, S. 376). Während der Begriff der Öffentlichkeit mit unterschiedlicher Schwerpunktsetzung auch in anderen zeitgenössischen demokratietheoretischen Strömungen eine zentrale Rolle spielt (Ferree et al. 2002), ist die theoretische Reflexion des Zusammenhangs zwischen Öffentlichkeitsstrukturen und Formen politischer Kommunikation am stärksten in der deliberativen Demokratietheorie ausgeprägt, weshalb die folgende Argumentation an letztere anknüpfen wird. So definiert Cohen die deliberative Demokratie als „an association whose affairs are governed by the public deliberation of its members“ (Cohen 1989, S. 17).2 Durch die Öffentlichkeit soll die Inklusion potenziell aller Bürgerinnen und Bürger in einen diskursiven politischen Prozess gesichert werden, der es prinzipiell jeder und jedem Betroffenen erlaubt, allgemeinverbindliche Entscheidungen auf Basis von Rechtfertigungen aus freien Stücken zu akzeptieren oder gegebenenfalls abzu-

2Vgl. auch Benhabib (1996, S. 68): „I will argue that legitimacy in complex democratic societies must be thought to result from the free and unconstrained public deliberation of all about matters of common concern. Thus a public sphere of deliberation about matters of mutual concern is essential to the legitimacy of democratic institutions.“

326

A. Schäfer

lehnen (Benhabib 1996, S. 70; Cohen 1989, S. 22; Habermas 1999, S. 299 f.). Habermas sieht politische Öffentlichkeit dementsprechend als den „Inbegriff derjenigen Kommunikationsbedingungen, unter denen eine diskursive Meinungsund Willensbildung eines Publikums von Staatsbürgern zustande kommen kann“ (Habermas 1990, S. 38). In der deliberativen Demokratietheorie ist Öffentlichkeit also sowohl zentraler normativer Standard als auch Funktionsbedingung für demokratische Prozesse. Angesichts der ausgeprägten Vermachtung und Stratifizierung gegenwärtiger massenmedial organisierter Öffentlichkeit stellt sich natürlich unmittelbar die Frage, ob eine solche zentrale demokratietheoretische Rolle öffentlicher Diskurse nicht zu idealistisch gedacht ist (vgl. Peters 2007, S. 190 ff.). Theoretiker der deliberativen Demokratie als naive Transparenzbefürworter einzustufen, die „die Nation nach dem Bilde der griechischen Agora als inklusiv und egalitär“ konzipieren und sich eine „umfassende Transparenz [erhoffen, A.S.], die Rhetorik und Politik wieder in Deckung bringt“ (Baumann 2014, S. 403 u. 409), greift allerdings aus mindestens zwei Gründen zu kurz.3 Erstens spielt das Konzept der Transparenz im Vergleich mit jenem umfassenderen der Öffentlichkeit in der deliberativen Demokratietheorie eine untergeordnete Rolle. Zweitens fällt die theorieinterne Diskussion um die Vor- und Nachteile von öffentlicher Deliberation weit differenzierter aus, wie sich im Folgenden zeigen wird. Insbesondere in neueren Ansätzen, die der „systemischen Wende“ (Dryzek 2010, S. 6 ff.) in der deliberativen Demokratie gefolgt sind, sind Vorstellungen einer integrierten Agora nicht mehr aktuell (wenn sie es jemals waren).4

3Ein

weiterer gegen die deliberative Demokratietheorie vorgebrachter Einwand betrifft die von Habermas rekonstruierten Geltungsansprüche rationaler Diskurse. Diese seien politisch irrelevant, weil „Wahrheit und Authentizität schlicht keine geeigneten Kategorien einer pluralistischen und repräsentativen Demokratie sind“ (Baumann 2014, S. 409). Diese These kann hier nicht eingehend diskutiert werden (für ein Gegenargument, das auf die kommunikativ-kritische Funktion von diskursiven Geltungsansprüchen abhebt, siehe Schäfer 2017b, S. 4–6). Verwiesen sei aber zumindest auf die sehr weitreichende Implikation dieser These, die, wenn sie zutrifft, nicht nur einfach bedeutet, dass unaufrichtige, falsche und unangemessene Aussagen politischer Akteure ständig vorkommen, sondern auch, dass dies von der demokratischen Öffentlichkeit systematisch gleichgültig hingenommen wird. 4Das Nachdenken über die Einbettung deliberativer Prozesse in den Zusammenhang politischer Systeme ist in der deliberativen Demokratietheorie keineswegs neu. Die elaborierteste frühe Variante findet sich bei Habermas (1994). Allerdings hat das Nachdenken über die theoretischen Implikationen systemischen Denkens für deliberative Zielvorstellungen in den letzten Jahren deutlich an Dynamik gewonnen (s. u.).

Transparenz oder Öffentlichkeit? Zur Funktionsbedingung …

327

2.2 Die Diskussion um Öffentlichkeitseffekte auf Deliberation Unter der Bedingung von Öffentlichkeit erwartet die Theorie klassischerweise positive deliberative Effekte wie Gemeinwohlorientierung und Rationalität von Argumenten. Deswegen gilt die Öffentlichkeitsbedingung als Standard-Option. Abweichungen davon – beispielsweise durch Auslagerung von Beratungen in nicht-öffentliche Arenen – sind aus dieser Perspektive wiederum nur deliberativ zu begründen (Gutmann und Thompson 1996, S. 95 ff.; Riese in diesem Band).5 Doch wird in der jüngeren Theoriediskussion die Frage der Wirkung von Öffentlichkeit auf Deliberation zunehmend differenziert betrachtet. Öffentlichkeit erbringt nicht immer die gewünschten Effekte und kann mitunter sogar das Gegenteil bewirken. Daraus ist ein Bewusstsein dafür erwachsen, dass die unterschiedlichen Standards und normativen Ziele der deliberativen Theorie wie Gleichheit, Partizipation, Öffentlichkeit und rationaler Diskurs in Konflikt miteinander geraten können und dass die Lösung dieses Konflikts nur als trade-off durch ein entsprechendes Austarieren der unterschiedlichen Standards erreicht werden kann (vgl. z. B. Thompson 2008, S. 511 ff.). Bereits Elster (1998, S. 111) erstellt auf Basis seiner Analyse der Rolle von deliberativen verfassunggebenden Versammlungen eine Bilanz von positiven und negativen Effekten von Öffentlichkeit auf die Qualität von Deliberation. So sei die entscheidende wünschenswerte Wirkung der Zwang, politische Positionen mit verallgemeinerbaren, rational nachvollziehbaren Argumenten zu begründen. Selbst wenn solche Haltungen eigentlich auf egoistischen Eigeninteressen beruhten, würde dieser Zwang eine zivilisierende Kraft ausüben. Von solchermaßen begründeten Positionen könne nämlich auch dann nicht ohne weiteres ungestraft abgerückt werden, wenn sich die Situation oder Interessenlage ändere. Gleichzeitig könne diese Konsistenzerwartung der Öffentlichkeit auch unerwünschte Folgen nach sich ziehen, wenn Akteure trotz vernünftiger Einwände nicht von ihrer Meinung abrücken wollen, um den Eindruck der Schwäche oder Wankelmütigkeit zu vermeiden. Hinzu komme, dass Deliberationen vor Publikum die Rolle der auf Emotionen zielenden Rhetorik zuungunsten r­ ationaler

5Aus

dieser Perspektive muss die deliberative Demokratie also insgesamt als ein öffentliches Unterfangen verstanden werden. Das schließt aber nicht aus, dass einzelne Arenen und Phasen unter Ausschluss der Öffentlichkeit stattfinden, wenn es legitime Gründe dafür gibt. Entscheidend ist, dass die jeweiligen Begründungen argumentativ angefochten werden können.

328

A. Schäfer

Argumente stärkten.6 Umgekehrt sei der große Vorteil von nicht-öffentlichen Arenen, dass sie die Qualität von Deliberation im Sinne ihres rationalen Gehaltes erhöhen (ebd., S. 110). An diesem inneren Widerspruch der deliberativen Theorie zwischen der Hoffnung auf die rationalisierende und egoistische Interessen transformierende Kraft öffentlicher Deliberation einerseits und dem die Qualität von Deliberation potenziell unterminierenden grellen Licht („glare“) der Öffentlichkeit andererseits, setzt Chambers (2004, S. 389) an, wenn sie versucht, die nützlichen und schädlichen Effekte von Öffentlichkeit auf Deliberation zu klären. Ähnlich wie Elster geht Chambers davon aus, dass die Bedingung der Öffentlichkeit einen Druck auf politische Akteure erzeugt, ihre Positionen mit solchen Gründen zu rechtfertigen, die von möglichst vielen Zuhörern akzeptiert werden können. Warum es dennoch zu dem oben genannten Widerspruch kommen kann, erklärt sie mithilfe von zwei Mechanismen der öffentlichen Deliberation. Der sokratische Mechanismus beschreibt den öffentlichen Rechtfertigungszwang, der Akteure dazu anhält, sich argumentativ möglichst gut gegenüber potenziellen kritischen Einwänden zu wappnen. Der demokratische Mechanismus bringt sie dagegen dazu, im Sinne einer Allgemeinwohlkonzeption zu argumentieren, um für ein breites Publikum akzeptabel zu sein. Wenn beide Mechanismen zusammenwirken, resultiert daraus nach Chambers die Idealform des öffentlichen Vernunftgebrauchs. In ähnlicher Weise unterscheiden Mansbridge et al. (2012, S. 10 ff.) in ihrem programmatischen Appell für eine systemische Herangehensweise an die deliberative Demokratie eine epistemische und eine demokratische Funktion von Deliberation.7 Beide Funktionen sollen Erwartungen an den demokratischen Prozess

6Als

weitere Gefahr der Öffentlichkeit nennt Elster, dass eine anwesende Zuschauermenge durch Druck den demokratisch gewählten Repräsentanten ihren Willen aufzwingen könne (1998, S. 111). Dies setzt allerdings voraus, dass diese Gruppe von Zuschauern über einen kollektiven Willen verfügt und sie diesen – in welcher Form auch immer – artikulieren kann. 7Neben diesen beiden Funktionen nennen die Autoren auch die ethische Funktion von Deliberation (Mansbridge et al. 2012, S. 11). Auch wenn diese Unterscheidung analytisch hilfreich ist, um verschiedene Aspekte von Deliberation aufzuzeigen, läuft sie dennoch Gefahr, das Konzept normativ zu desintegrieren – so als ob die unterschiedlichen Funktionen auch getrennt voneinander zu erfüllen wären. Denn die legitimatorische Kraft der Praxis der Deliberation besteht ja gerade darin, epistemische Aspekte als demokratische Funktionen zu deuten – und nicht dem demokratischen Prozess einen andersartigen korrigierenden Legitimations-Modus hinzuzufügen, der dann für die epistemische Qualität von Entscheidungen sorgt. Besser wäre es daher (wie es die Autoren auch andeuten), anstatt von einer demokratischen von einer Inklusions-Funktion zu sprechen und die Kombination aller drei Funktionen (der ethischen, epistemischen und inkludierenden) als das demokratische Ziel von Deliberation zu verstehen.

Transparenz oder Öffentlichkeit? Zur Funktionsbedingung …

329

widerspiegeln: Zum einen das systematische Sammeln und rationale Abwägen aller entscheidungsrelevanten Informationen, zum anderen die gleiche Berücksichtigung aller gesellschaftlichen Perspektiven und Interessen. Diese Funktionen können von verschiedenen Arenen und Praktiken des politischen Systems – wie zum Beispiel von moderierten Mini-Publics oder durch Parteienwettbewerb – unterschiedlich gut erfüllt werden. Im besten Fall wirken diese Sphären komplementär zusammen, um deliberative Leistungen für das Gesamtsystem zu erbringen. Chambers (2004) nimmt mit ihrer Unterscheidung des demokratischen und sokratischen Mechanismus diese Differenzierung vorweg und führt aus, wann und warum die öffentliche Transparenz von Prozessen dieses Zusammenwirken unterminieren kann. Denn beide Mechanismen können in der politischen Konfliktaustragung auch auseinanderfallen. Je breiter das Publikum politischer Deliberation wird, desto stärker wirkt der demokratische Mechanismus und desto größer wird der Anreiz für politische Akteure, mit ihren Aussagen möglichst viele Menschen zufriedenzustellen. Gleichzeitig wird dann aber das kritische Potenzial deliberativer Prozesse geringer, weil in der Massenkommunikation die direkte und differenzierte Auseinandersetzung mit Argumenten erschwert ist. Beide Aspekte schwächen den sokratischen Mechanismus und damit die argumentative Qualität (ebd., S. 398). Die Folge ist, dass die Idealform des öffentlichen Vernunftgebrauchs in der medialen Massenöffentlichkeit oftmals durch eine andere ersetzt wird, die Chambers „plebiszitorische Rationalität“ (2004, S. 393) nennt. Sie zeichnet sich durch eine entsprechende Rhetorik aus, die auf Manipulation, Anbiedern an den Publikumsgeschmack und Image-Pflege und nicht auf argumentative Auseinandersetzung zielt.8 Doch auch wenn die kommunikativen Bedingungen der Massendemokratie eine plebiszitorische Rhetorik begünstigen, machen sie diese nicht unausweichlich. Die demokratietheoretische Herausforderung besteht nach Chambers dann darin, zu erforschen, wie sie zugunsten einer Rhetorik überwunden werden kann, in der das sokratische und das demokratische Element zusammenfallen.9

8Was

hier – in anderen Worten – zählt, ist „[…] the skill of strategically crafting speech to push the right buttons“ (Chambers 2009, S. 337). 9Anstatt eine plebiszitorische Strategie zu verfolgen, kann die deliberativ orientierte Sprecherin die notwendigerweise asymmetrische Struktur der Massenkommunikation ausbalancieren, indem sie eine Beziehung der Reziprozität zwischen ihr und dem konkreten Publikum herstellt. In Bezug auf die begriffliche Ausdifferenzierung der Aspekte von pathos, ethos und logos in der aristotelischen Rhetorik zeigt Chambers auf, dass das Problem der plebiszitorischen Rhetorik nicht in der Ansprache von Emotionen an sich liegt,

330

A. Schäfer

Das Problem stellt sich allerdings in umgekehrter Weise im Fall von nicht-öffentlichen Beratungen. Der Ausschluss der Öffentlichkeit reduziert hier einerseits den Einfluss der plebiszitorischen Rationalität und der sokratische Mechanismus kann sich voll entfalten. Chambers erwartet hier eine höhere argumentative Qualität der Deliberation, weil die direkte und kritische Auseinandersetzung unter den Kommunikationspartnern möglich ist. Andererseits besteht aber die Gefahr, dass der demokratische Mechanismus aufgrund der Abwesenheit des Publikums ausgehebelt wird. Die mangelnde unmittelbare Rechenschaftspflicht gegenüber einem potenziell unabgeschlossenen Kreis von Zuhörern senkt die Hemmschwelle, entweder Deliberation durch Verhandeln zu ersetzen oder partikulare bzw. nicht-verallgemeinerbare Positionen einzunehmen und zu verteidigen. Während Verhandlungsprozesse für bestimmte Materien durchaus legitim sein können, würden sie sich für andere – insbesondere für moralische Fragen – im Lichte der Öffentlichkeit als unangemessen erweisen.10 Die sich hier stellende demokratietheoretische Herausforderung besteht darin, die öffentliche Rechenschaftspflicht zu sichern, ohne den sokratischen Mechanismus zu unterminieren (Chambers 2004, S. 405 ff.). Dies kann nach Chambers vor allem dann erreicht werden, wenn die nicht-öffentlich tagenden Gremien so pluralistisch besetzt sind, dass möglichst heterogene Positionen vertreten werden und entsprechend eine diskursive Auseinandersetzung vor dem Hintergrund einer möglichst hohen Bandbreite an kritischen Einwänden wahrscheinlich wird.11

sondern von solchen, die demokratische Orientierung und kritische Reflexion untergraben (wie Neid, Hass, Missgunst). Eine deliberative Rhetorik müsse dagegen darauf zielen, selbst-reflexiv die Perspektive der Zuhörer einzunehmen und die eigenen Argumente aus anderen Blickwinkeln zu erörtern (Chambers 2004, S. 401 ff.). Das passive Publikum soll so die Chance erhalten, zu aktiven Zuhörern zu werden und dadurch nicht nur zum Handeln, sondern auch dazu motiviert werden, sich eine kritisch-reflektierte Meinung zu bilden (Chambers 2009, 335 ff.). 10Während

in der früheren theoretischen Diskussion Deliberation von Verhandeln abgegrenzt wurde, indem die Gegensätzlichkeit von „arguing“ und „bargaining“ herausgestellt wurde (siehe z. B. Elster 2000; Saretzki 1996), wird jüngst der Versuch unternommen, das Verhandlungskonzept selbst in ein deliberatives und nicht-deliberatives zu differenzieren (vgl. Mansbridge 2015). 11Ein

ähnliches Argument liefert Bohman (2007), wenn er den epistemischen Wert von Diversität für Deliberation hervorhebt: „[…] deliberating in heterogeneous groups improves its quality by making deliberators less susceptible to cognitive errors and biases“ (ebd., S. 349). Dabei betont er, dass es weniger auf die Heterogenität von Meinungen als solchen, sondern vor allem auf die Diversität von Perspektiven ankommt, welche wiederum

Transparenz oder Öffentlichkeit? Zur Funktionsbedingung …

331

Auf diese Weise könne „Öffentlichkeit im Geheimen“ hergestellt werden (ebd., S. 405). Darüber hinaus müsse es stets ermöglicht werden, dass die Frage, ob Diskurse durch Verhandlungen ersetzt werden sollen, deliberativ gefordert und geklärt werden könne. Zusammengefasst zeigt die kurze Rekonstruktion der demokratietheoretischen Diskussion sowohl den hohen normativen Wert als auch die spezifischen Hoffnungen, die der Öffentlichkeit von Deliberationsprozessen zugesprochen wird. Dabei wird klar, dass Öffentlichkeit sowohl den Aspekt der Transparenz umfasst als auch jene kommunikativen Strukturen, von denen eine normative Kraft auf das Verhalten von politischen Akteuren erwartet wird. Diese Effekte werden allerdings zunehmend differenziert diskutiert, wobei sich abzeichnet, dass je spezifische öffentliche und nicht-öffentliche Kontexte sowohl positive als auch negative Wirkungen hervorbringen können. Eine einzelne optimale Struktur scheint nicht in Sicht. Es kommt auf die Ausbalancierung der verschiedenen Arenen mit ihren unterschiedlichen Strukturen an. Welche Implikationen haben die skizzierten Überlegungen nun für parlamentarische Beratungs- und Entscheidungsprozesse? Im Parlament sind öffentliche und nicht-öffentliche Arenen in unterschiedlichen Phasen des Beratungs- und Entscheidungsprozesses anzufinden. Hier müssten sich also die unterschiedlichen Effekte von Öffentlichkeit auf Deliberation in Entscheidungsgremien besonders gut studieren lassen. Die empirische Forschung zu Beratungen in solchen Gremien liefert Belege für die Gültigkeit der oben skizzierten theoretischen Überlegungen. So zeigen Meade und Stasavage (2006) beispielsweise mittels eines quasi-natürlichen Experiments am Fall des Federal Open Market Committee der US-amerikanischen Zentralbank, dass die Transparentmachung der Beratungen die Mitglieder dazu bringt, weniger Widerspruch gegenüber epistemischen Autoritäten zu äußern und weniger oft ihr Abstimmungsverhalten zu verändern als unter Bedingungen der Nicht-Öffentlichkeit. Dies belegt im Sinne von Chambers, wie der sokratische Mechanismus von Deliberation durch Transparenz ausgehebelt wird, denn weniger argumentativer Widerspruch und weniger Bereitschaft, im Zuge von Beratungen Positionsänderungen vorzunehmen, schränkt die epistemische Leistung von Deliberation ein.

auf sozialen Erfahrungen und Positionen beruhen. Denn solche Perspektiven sind der Ausgangspunkt von Meinungen und können deshalb im Laufe des deliberativen Prozesses auch neue Meinungen generieren. Nur durch den Einschluss diverser Perspektiven kann somit demokratische Inklusion gewährleistet werden.

332

A. Schäfer

Für den parlamentarischen Kontext liefern Steiner et al. (2004, S. 128 ff.) differenzierte Belege für die Effekte von Öffentlichkeit auf deliberatives Verhalten. Demnach ist Deliberation einerseits in öffentlichen Plenar-Debatten weniger respektvoll gegenüber anderen Gruppen und den Argumenten der Abgeordneten anderer Fraktionen als in nicht-öffentlichen Ausschusssitzungen. Andererseits wirkt sich die Öffentlichkeit der Debatte insofern positiv auf das Begründungsniveau aus, als Abgeordnete deutlicher Gemeinwohlbezüge und umfassendere Begründungen liefern, offenbar um das Publikum zu überzeugen. Auch diese Befunde scheinen die Annahmen von Chambers zu stützen. Der demokratische Mechanismus wird durch Öffentlichkeit, der sokratische durch Nicht-Öffentlichkeit verstärkt. Was diese Studien allerdings nicht in den Blick nehmen, ist das systematische Zusammenwirken von öffentlichen und nicht-öffentlichen Arenen in deliberativen Prozessen, wie sie von systemischen Ansätzen der deliberativen Demokratietheorie anvisiert wird. Dies soll im Folgenden an Hand einer Rekonstruktion der Bedingungen von öffentlicher und nicht-öffentlicher Deliberation und deren Interaktion im parlamentarischen Beratungsprozess am Fall des Deutschen Bundestages versucht werden. Zuvor soll aber zunächst an Hand der Perspektive der Parlamentarismustheorie rekonstruiert werden, inwiefern sich die normativen Dimensionen von Öffentlichkeit auch im Parlamentarismus und in der Struktur von Parlamenten wiederfinden lassen.

3 Die Verbindung von Norm und Struktur im Parlamentarismus Im Vergleich mit den anderen Organen der repräsentativen Demokratie wie der Exekutive liegt der genuine legitimatorische Mehrwert des Parlaments aus Sicht der Theorie des Parlamentarismus in der Zentralität der Kommunikationsfunktion (Patzelt 1998). Sie soll politische Entscheidungsprozesse öffentlich sichtbar machen: „Gerade diese Fähigkeit, Licht in das bis dato vorherrschende Dunkel des Regierens zu bringen, wird von der Parlamentarismustheorie als eine zentrale Eigenschaft von Parlamenten gefeiert“ (Marschall 2005, S. 113). Die demokratische Legitimationsfunktion von Parlamenten setzt nach vorherrschender Meinung in der Parlamentarismustheorie die Öffentlichkeit und Transparenz ihrer Verfahren voraus. Dabei wird die parlamentarische Kommunikationsfunktion in der Regel auch als diskursive Praxis gedeutet: Plenardebatten sollen nicht nur unterschiedliche politische Positionen abbilden, sondern sie in wechselseitiger

Transparenz oder Öffentlichkeit? Zur Funktionsbedingung …

333

argumentativer Auseinandersetzung nachzeichnen, um so „Entscheidungen rational nachvollziehbar zu machen und in den öffentlichen Diskussionszusammenhang zu stellen“ (Ismayr 2012, S. 307). Trotz der Tatsache, dass im Zuge dessen gegenseitige Überzeugungseffekte unter Abgeordneten und Fraktionen unwahrscheinlich sind, erscheint aus dieser Perspektive eine gewisse Ernsthaftigkeit und Authentizität der Debatte unerlässlich. Diskursive Auseinandersetzungen müssten wirkliche Konflikte widerspiegeln, andernfalls leide die Glaubwürdigkeit (ebd., S. 308). Diese Prinzipien finden sich auch in Reformüberlegungen und tatsächlichen historischen Parlamentsreformen wieder. Ein wiederkehrendes Motiv ist dabei die Absicht, Plenardebatten lebendiger und diskursiver zu gestalten. So wurde 1969 das Prinzip der Rede und Gegenrede explizit in der Geschäftsordnung des Bundestages kodifiziert. Diese Regelung betrifft weniger die Verteilung der Rederechte als die inhaltliche Struktur des Beratungsprozesses. Während die Redeanteile der Fraktionen jeweils zu Beginn der Legislaturperiode nach Stärkeverhältnissen in der sogenannten „Berliner Stunde“ festgelegt werden, geht es bei diesem Prinzip darum, dass widerstreitende oder gegenläufige Positionen aufeinanderfolgen. Der diskursive Charakter der Debatten sollte im Zuge von Reformschritten im Jahre 1990 und 1995 weiterhin durch die Ermöglichung von Zwischenfragen und Kurzinterventionen von Abgeordneten während einzelner Redebeiträge gefördert werden (Ismayr 2012, S. 302 ff.). In Hinblick auf Reformoptionen wird allerdings immer wieder auf die „unzureichende Transparenz des Willensbildungsprozesses“ im deutschen Bundestag verwiesen (Ismayr 2012, S. 309). Dies betrifft die nicht-öffentlich beratenden fraktionellen und interfraktionellen Gremien und Arenen (Koalitionsgremien und Ausschüsse) (vgl. Marschall 1999, S. 114 ff.). Nach Ismayr kann insbesondere die Nicht-Öffentlichkeit von Ausschusssitzungen als problematisch betrachtet werden, denn: „Die Öffentlichkeit nicht nur über die Entscheidungen zu informieren, sondern die Willensbildungsprozesse selbst zu öffnen und die Bürger laufend Einblick nehmen zu lassen in das parlamentarische Geschehen ist eine selbstverständliche Konsequenz gewachsener Repräsentations- und Legitimationsansprüche“ (Ismayr 2012, S. 310). Mit diesem Anspruch wird auch die aufklärerische Hoffnung verbunden, dass die „kollegiale Atmosphäre und der vergleichsweise sachliche Diskussionsverlauf“ in den Ausschüssen „das Verständnis für parlamentarische Arbeitsvorgänge fördern würde“ (ebd.; siehe auch ­Marschall 1999, S. 115). Diese Einschätzungen stehen im Kontext einer bereits längeren Forschungslinie. In einer Analyse der Parlamentsreform im fünften Deutschen Bundestag hat ­Thaysen (1972) Transparenz als einen der drei wichtigsten normativen L ­ eitbegriffe

334

A. Schäfer

zur Evaluation von Parlamentsreformen rekonstruiert. Er unterscheidet dabei zwischen den Dimensionen der Herrschaftstransparenz (politisch), Problemtransparenz (sachlich), Planungstransparenz (prospektiv) und Geschichtstransparenz (historisch) und konstatiert insbesondere für die erste Dimension: „Dieser Moment muss (zumindest zeitweilig) einsichtig werden, wenn der Gefahr bzw. dem Verdacht der ‚Manipulation‘ kein Vorschub geleistet werden soll. Gelingt dies nicht, so erwächst hieraus die Entfremdung zwischen Bürger und Parlament aufgrund eines Ungenügens des Parlaments in seiner Mittlerfunktion“ (Thaysen 1972, S. 86).12 Eine der unter der Maßgabe eines solchermaßen explizierten Transparenzbegriffs zu untersuchende Frage sei, neben derjenigen nach der Gestaltung von Plenardebatten in Hinblick auf Redezeit und Redefolge, unter anderem jene nach der Anwendung der seit der Reform von 1969 fakultativen Öffentlichkeit von Ausschusssitzungen.13 Dem grundsätzlichen Anspruch auf (Herrschafts-)Transparenz werden nach Thaysen allerdings auch immer wieder einschlägige Argumente entgegengebracht. Das erste besagt, es gebe bereits genügend Transparenz, und sei kaum zu überprüfen bzw. zu widerlegen, weil Transparenz nur schwer messbar sei. Das zweite konstatiert, Transparenz sei nicht erzwingbar, weil bei Bedarf immer Ausweichbewegungen in nicht-transparente Räume erfolgen (können).14

12Transparenz

wird hier – in Anlehnung an die systemtheoretische Steuerungsdiskussion – als ein umfassendes Prinzip aufgefasst, das nicht nur die demokratietheoretische Forderung nach Öffentlichkeit, sondern auch das funktionale Erfordernis umfasst, durch offene Kommunikation von Problemen und Vorhaben, Koordination unter Experten, Interessenträgern und politischen Entscheidern zu gewährleisten (Thaysen 1972, S. 87). Für Thaysen stellt sich das Problem der Transparenz in dreifacher Hinsicht: qualitativ in Hinblick auf die Beschaffenheit der Öffentlichkeit und auf ihren Zugang zu Information und Partizipation; quantitativ bezüglich der Zahl der zu Informierenden und der Informationen; sowie „sozialtechnisch“ nach der Bewerkstelligung des Zugangs (ebd., S. 90). 13Siehe Thaysen (1972, S.  91): Weitere in diesem Zusammenhang genannte Untersuchungsbeispiele sind „[…] die Zulassung von Rundfunk und Fernsehen zu den Beratungen des Bundestages, seine Gemeinschutzordnung (u. a. Fotografier-Verbot), die öffentlichen Anhörungen, Große und Kleine Anfragen, […], die Öffentlichkeitsarbeit des Bundestages […] sowie alle faktischen und juristischen Regulierungsmechanismen für den Zugang und Einfluss von Verbänden auf das Regierungssystem […].“ 14Theoretische und empirische Belege für diesen Ausweichmechanismus liefern u. a. Swank und Visser (2013), die aber auch darauf verweisen, dass die Kombination von formell öffentlichen Sitzungen mit informellen geheimen Vortreffen im Vergleich zu nur im Geheimen tagenden Gremien bessere Entscheidungen hervorbringen könnten, weil Gremienmitglieder durch die Notwendigkeit der öffentlichen Ratifizierung von im Geheimen getroffenen Entscheidungen diszipliniert würden.

Transparenz oder Öffentlichkeit? Zur Funktionsbedingung …

335

Das dritte hebt darauf ab, dass die meisten Entscheidungsmaterien für durchschnittliche Bürger zu komplex seien, um transparent darstellbar und verständlich nachvollziehbar zu sein (ebd., S. 89).15 Ein weiteres in der Literatur auffindbares Argument besagt, dass sich der Charakter von Ausschusssitzungen durch ihre Öffentlichkeit verändern und der Funktionsweise von Plenardebatten angleichen würde, weil die Logik der Medienberichterstattung einen Anreiz setze, nach außen gerichtete Reden zu halten und nicht in sachliche Diskussions- und Verhandlungsprozesse mit den anderen Abgeordneten einzutreten (Marschall 1999, S. 115). Dabei sei es allerdings unwahrscheinlich, dass sich die allgemeine Öffentlichkeit für die durchschnittliche Fachdebatte im Ausschuss interessiere. Plausibler erscheine es, dass sich Fachöffentlichkeiten beteiligten, über die auch die entsprechenden Interessenvertreter ihren Einfluss auf die Entscheidungsfindung (weiter) sichern könnten. Auch der Vorschlag, sogar die für den Entscheidungsprozess sehr wichtigen Fraktionssitzungen für die Öffentlichkeit zu öffnen, stößt auf plausible Gegenargumente. So könne durch diese Maßnahme der Einfluss einzelner Abgeordneter mit von der Fraktion abweichenden Positionen, der innerhalb der Fraktion noch relativ groß ist, weiter geschmälert werden (Marschall 1999, S. 116). Außerdem kann der Transparenzanspruch ungewollte Folgen zeitigen. Als ein zentrales Problem kann hier die Spannung zwischen Aktualitätsanspruch und Relevanz betrachtet werden: Die kontinuierliche Beobachtung (transparenter) parlamentarischer Prozesse führt zu einem Zeitdruck, der es den handelnden Akteuren nicht ohne weiteres ermöglicht, Themen und Argumente vorzusortieren, bevor sie an die Öffentlichkeit gelangen (Thaysen 1972, S. 97 f.). Dieses Problem ist gerade im digitalen Zeitalter der nahezu unbegrenzten Speicher- und Darstellungsmöglichkeiten von Informationen von wachsender Bedeutung (siehe auch Edmunds und Morris 2000). Aber auch das Verhältnis zwischen Transparenz und anderen Reformkriterien – für Thaysen wie auch für Steffani sind dies Effizienz und Partizipation – gilt es zu

15Diese

argumentative Figur findet sich auch beispielsweise bei Baumann (2014, S. 416): „Um Politik wieder stärker zu einer ‚Sache der Bürger‘ zu machen, müssten erst – oder zumindest im Gleichtakt mit der Implementation von Transparenz – das Interesse und die Politikfähigkeit der Bürger gestärkt werden. Das ist kein einfaches Unterfangen.“

336

A. Schäfer

differenzieren (Steffani 1971, S. 12; Thaysen 1972, S. 103 ff.).16 In Hinblick auf die Partizipation scheint relativ eindeutig festzustehen, dass Transparenz eine Voraussetzung ist. Ohne Einsehbarkeit in Beratungs- und Entscheidungsprozesse ist eine sinnvolle Partizipation von Bürgerinnen und Bürgern – geschweige denn von Parlamentariern selbst – nicht denkbar. Das Verhältnis zur Effizienz kann sowohl als positiv als auch als negativ korreliert vorgestellt werden. Beispielsweise besteht eine häufige Befürchtung darin, dass mit der Steigerung von Transparenz eine Verringerung von Effizienz einhergeht, weil das Auge der Öffentlichkeit wiederum die Akteure aus strategischen Gesichtspunkten heraus zu Selbstinszenierungsbemühungen anhält und davon abbringt, den sonst direkteren Weg zur Bildung von Kompromissen zu gehen. Aber auch unter effizienztheoretischen Gesichtspunkten ist ein positives Wirkungsverhältnis vorstellbar, wie Thaysen hervorhebt: Wenn sich ein Parlament mit dem Argument gegenüber Transparenzansprüchen abschotte, es könne nur unter der Bedingung der Nichtöffentlichkeit von Fraktions- und Ausschusssitzungen sachdienlich arbeiten, beruhe dies auf sozialpsychologischen Falschannahmen, denn: „[das Parlament, A.S.] […] begibt sich selbst breiter Innovationsbasen […] und schafft, wo eine integrierende und demokratisch kontrollierbar dialogisierende Kommunikation nicht erreicht […] werden kann, Substrukturen informeller Information, die notwendigerweise Misstrauen wecken, mit ihren Endergebnissen fruchtlose Konfrontationen provozieren und damit die Tendenzen zum Ausschluss der Öffentlichkeit […] weiter potenzieren. Technokratisch vindizierte circulos vitiosos dieser Art gilt es, wo immer möglich, zu durchbrechen“ (Thaysen 1972, S. 105).

Zusammenfassend bleibt festzuhalten, dass die Parlamentarismustheorie das Öffentlichmachen von Entscheidungsprozessen als die zentrale Funktion parlamentarischen Handelns betrachtet. Einerseits findet man in der skizzierten Perspektive durchaus auch eine ausdifferenzierte Diskussion über die potenziellen positiven und negativen Effekte von mehr Transparenz im parlamentarischen Beratungsprozess. Auf diese Weise ähnelt diese Sichtweise der zuvor

16Steffani

fordert im Sinne einer „komplexen Demokratietheorie“, dass keines der drei normativen Kriterien verabsolutiert werden dürfe: „Demokratischen Ansprüchen genügt ein Regierungssystem erst dann, wenn es effiziente Problemlösung und Innovation bei Optimierung der Partizipationschancen aller Bürger und der Transparenz aller relevanten Planungs-, Diskussions- und Entscheidungsabläufe zu leisten vermag. Auf diesen demokratischen Anspruch hin sind die institutionellen Strukturen und Handlungsabläufe konkreter politischer Systeme zu überprüfen“ (Steffani 1971, S. 29).

Transparenz oder Öffentlichkeit? Zur Funktionsbedingung …

337

dargestellten Diskussion innerhalb der deliberativen Demokratietheorie. Andererseits wurde auch deutlich, dass in der Parlamentarismustheorie Transparenz seit langem als die Zielgröße gelten kann, in deren Richtung auch heute noch Reformschritte des deutschen Bundestags gehen sollten. Anders als in der oben dargelegten Diskussion innerhalb der deliberativen Demokratie spielt in der Parlamentarismustheorie also das Konzept der Transparenz als Norm eine zentrale Rolle. Wie sich gezeigt hat, wird Transparenz dabei auch als ein Instrument zur Verringerung von Misstrauen gegenüber politischen Akteuren und Entscheidungsprozessen aufseiten der Bürgerinnen und Bürger betrachtet – eine Annahme, die in der Transparenzforschung mittlerweile durchaus umstritten ist. Der Einwand besteht darin, dass Transparenz eine Kultur des Misstrauens operationalisiert, die sich selbst verstärkt, weil transparentere Strukturen immer darauf verweisen, was (noch) nicht transparent ist, und daher noch misstrauischer machen (siehe August 2018; Baumann 2014). Diese Frage nach der Wirkung auf Außenstehende kann hier empirisch nicht geklärt werden. Auffällig ist aber, dass in den dargestellten Positionen der Parlamentarismustheorie zwischen Transparenz und Öffentlichkeit nicht explizit unterschieden wird. Die parlamentarismustheoretische Diskussion beraubt sich durch diese Gleichsetzung aber der Möglichkeit, die Frage der Transparenz in ein umfassenderes Konzept von Öffentlichkeit differenziert einzugliedern. Hier könnte die Parlamentarismustheorie von der Diskussion in der deliberativen Demokratietheorie profitieren. Der Fokus würde sich dann von der Frage, wie transparent eine Institution ist, zu jener nach dem Zusammenwirken öffentlicher und nicht-öffentlicher Phasen und Arenen in einer insgesamt öffentlichen Praxis politischer Willensbildung und Entscheidungsfindung verlagern. Zu dieser Frage sollen nun einige empirische Beobachtungen am Fall des Deutschen Bundestages dargestellt werden.

4 Die parlamentarische Beratungspraxis im Deutschen Bundestag Die parlamentarischen Arenen des Bundestages sind durch unterschiedliche Formen und Stufen von Öffentlichkeit charakterisiert (Marschall 2002, S. 171). Diesen Sachverhalt berücksichtigen Sarcinelli und Tenscher (2000, S. 79 ff.; s. a. Sarcinelli 2011, S. 271) in einem theoretischen Modell, das ein Öffentlichkeits-Kontinuum über vier Arenen hinweg annimmt. Es reicht von der parlamentarischen Nicht-Öffentlichkeit in geheimen oder vertraulichen Sitzungen über die „mittelbare Öffentlichkeit“ in nicht-öffentlichen Fraktions- und Ausschusssitzungen über die „unmittelbare Öffentlichkeit“ in Plenardebatten bis hin

338

A. Schäfer

zur Medienöffentlichkeit. Diese Ausdifferenzierung wird mit der Annahme verbunden, dass die Handlungsorientierung der Akteure mit den unterschiedlichen Arenen variiert. Eine wichtige Implikation dieser Modellierung ist zudem, dass „jedes parlamentarische Handeln zumindest potenziell öffentliches Handeln“ ist (Sarcinelli und Tenscher 2000, S. 82). Die folgende Analyse bestätigt einerseits die Grundannahmen dieses Modells, macht aber andererseits zusätzlich deutlich, auf welche Weise die Kombination von Öffentlichkeit und Nicht-Öffentlichkeit die Handlungsorientierung der parlamentarischen Akteure in den unterschiedlichen Phasen und Arenen des Entscheidungsprozesses prägt. Sie nutzt Experteninterviews mit Mitgliedern des 17. Deutschen Bundestages, die im Rahmen einer Fallstudie zur Rolle von Deliberation im parlamentarischen Entscheidungsprozess geführt wurden.17 Die Aussagen der Gesprächspartner werden teils paraphrasiert, teils wörtlich und anonymisiert dargestellt.18 Die Analyse der Sichtweisen von Parlamentariern fügt der theoretischen Diskussion nicht nur eine weitere Perspektive hinzu, sondern ermöglicht eine Rückbindung der Diskussion an das Betriebswissen der im Feld agierenden und sozialisierten Akteure (Kelle 2003; Meuser und Nagel 2009). Insofern eignet sie sich auch dazu, die Vermutungen in der theoretischen Literatur zu überprüfen und erfahrungsbasiert einzuordnen.

4.1 Die Rolle von Verfahren Deliberationsprozesse im Deutschen Bundestag finden vor dem Hintergrund von in der Regel klaren Mehrheitsverhältnissen statt. Die durchweg berichtete Grunderfahrung von Abgeordneten des Bundestages ist, dass sich das Abstimmungsverhalten relativ strikt an diesen Mehrheitsverhältnissen orientiert und sich im Zuge des Beratungsprozesses im Normalfall auch nicht ändert. Was motiviert

17Zu näheren Angaben siehe Schäfer (2017a). Die Studie nutzte u. a. 34 Experteninterviews mit Bundestagsabgeordneten, um deren Betriebswissen für die Rekonstruktion der Ausgangsbedingungen, Formen und Praktiken sowie Wirkungen von Deliberation im parlamentarischen Entscheidungsprozess zu analysieren. 18Die jeweils angegebenen Kürzel, z. B. B1, 36, beziehen sich auf die durchnummerierte Liste der Befragten und den jeweiligen Absatz der Interviewtranskription. Bei wörtlichen Zitaten ist zudem die jeweilige Zugehörigkeit des Interviewpartners zur Regierungsmehrheit bzw. Opposition mit angegeben. Kursive Hervorhebungen in Zitaten stammen vom Autor. Die Textbelege zu den paraphrasierten Aussagen der Interviews können auf Nachfrage vom Autor zum Abgleich der Interpretation zur Verfügung gestellt werden.

Transparenz oder Öffentlichkeit? Zur Funktionsbedingung …

339

Parlamentarier unter diesen Umständen noch dazu, ihre Positionen argumentativ zu rechtfertigen? Wirft man diese Frage in den Interviews auf, erhält man von den Befragten neben allgemeinen Verweisen auf die Notwendigkeit, sich seiner eigenen Position zu versichern, oder auf die Aufgabe der Opposition, zu demonstrieren, dass die Politik der regierenden Mehrheit nicht alternativlos ist, noch ein im vorliegenden Zusammenhang besonders interessantes Antwortmuster. Es verweist auf die das Verhalten steuernde Wirkung parlamentarischer Verfahren, die den Akteuren die Rechtfertigung ihrer Positionen und die Auseinandersetzung mit jenen der politischen Gegner als angemessen und erforderlich erscheinen lässt: „[…] das ist ein unheimlich hilfreiches Korsett, weil man eben bei Mehrheiten es nicht nötig hätte, sich mit den Argumenten der Anderen auseinanderzusetzen. Insofern ist das schon ein ganz wichtiges Instrument, diese Verfahren, die wir da haben, eine wichtige Hilfestellung, weil jeder kann morgen Regierung oder Opposition sein.“ [B2, Regierungsmehrheit, 120]

Die Verfahren setzen dem Verhalten der Akteure also einen Rahmen der Angemessenheit, dessen Wirkung gleichzeitig durch die Erwartung unterstützt wird, dass es im Prinzip jederzeit, aber insbesondere nach Bundestagswahlen zu einem Rollenwechsel zwischen den Mehrheits- und Oppositionsakteuren kommen kann. Eine Berücksichtigung der durch die Verfahren implizierten Spielregeln erscheint vor diesem Hintergrund als rational: „Jeder Abgeordnete, der über den Tag hinaus denkt, weiß, dass er sehr schnell von der Regierungsseite wieder in die Oppositionsseite wechseln kann. […] Und deshalb wäre man dumm, wenn man dann, wenn man die Regierung vertritt, die Opposition missachten würde. Denn man kann sehr schnell auch selbst wieder in der Oppositionsrolle sein. Und dann ist es wichtig, dass da ein gutes Miteinander herrscht […].“ [B27, Regierungsmehrheit, 146]

Die befragten Abgeordneten betrachten also die Verfahrensregeln als verlässliche Rahmenbedingungen, die ihre Wirkung auch unabhängig von den aktuellen Machtverhältnissen entfalten können.

4.2 Wirkungen von Öffentlichkeit und NichtÖffentlichkeit Verfahren können Deliberation einfordern, sie allerdings nicht erzwingen. Aus Sicht der Befragten spielt die Öffentlichkeit des Prozesses eine entscheidende

340

A. Schäfer

Rolle dabei, die Akteure dazu zu bringen, sich auf die Auseinandersetzung mit den Argumenten des politischen Gegners einzulassen. Dieser Zusammenhang wird im folgenden Zitat eines Interviewpartners deutlich: „Da ist unsere parlamentarische Demokratie auch so stark, dass sie Minderheiten relativ gute Rechte einräumt, also das Wort nehmen zu können […], zu konfrontieren und man wird immer sagen dann: ‚Der Ball liegt dann im Spielfeld‘. Ja die Frage ist, wieweit ein solches Thema dann auch so relevant ist und dazu gehören auch viele andere Mechanismen, Öffentlichkeit zum Beispiel gehört dazu, dass andere den Ball mit aufnehmen müssen oder mitspielen müssen, die können nicht sagen: ‚Da will ich nichts mit zu tun haben‘.“ [B34, Opposition, 32]

Wenn Verfahren mit der Öffentlichkeitsbedingung einhergehen, wird ein für beide Seiten bedeutungsvoller Deliberationsprozess sichergestellt – so ist zumindest die Erwartung der befragten Akteure. Öffentlichkeit kann vor diesem Hintergrund in Übereinstimmung mit den normativen Annahmen der deliberativen Demokratietheorie und Parlamentarismustheorie als eine Funktionsbedingung für parlamentarische Deliberation betrachtet werden. Dieser Zusammenhang tritt besonders deutlich beim Prozess des Agenda-Settings zutage, wie in folgender Aussage aus Oppositionsperspektive zum Ausdruck kommt: „Es kann sich eigentlich eine Regierungsmehrheit nicht erlauben, auf Dauer ein Thema wegzudrängen – allein schon deshalb, weil wir das dann skandalisieren würden. Es kann auch für die Regierungsfraktionen sich als Bumerang erweisen, ein Thema dann zu lange köcheln zu lassen. […] Wenn es […] darum geht, letztlich das Oppositionsrecht auf Thematisierung, Kontrolle, usw. dann auch zu beschneiden, dann könnten die eben entsprechend damit rechnen, dass wir das dann skandalisieren auch in der Öffentlichkeit.“ [B8, Opposition, 36]

Öffentlichkeit erweist sich somit als wichtiges Kontrollinstrument, wenn legitimen Erwartungen an das deliberative Verhalten nicht Genüge geleistet wird. Der dieser Wirkung zugrunde liegende Mechanismus ist der durch Öffentlichkeit erzeugte Positionierungs- und Rechtfertigungsdruck, der Ignoranz nicht erlaubt und zum „Mitspielen“ drängt. Er zwingt die Akteure dazu, Stellung zu beziehen und diese im Zweifelsfall auch argumentativ zu verteidigen. Dies gilt nicht nur für Themen, sondern auch für Argumente. Die beispielsweise in öffentlichen Sachverständigenanhörungen mobilisierten Argumente gewinnen ihre Relevanz für den Beratungs- und Entscheidungsprozess demnach auch dadurch, dass bei Ignoranz die Gefahr droht, in der öffentlichen Wahrnehmung ins Hintertreffen zu geraten. Vertreter der Regierungsfraktionen stellen dann unter Umständen für sich fest: „Mensch, da gibt es ein Argument, […]

Transparenz oder Öffentlichkeit? Zur Funktionsbedingung …

341

dem können und wollen wir uns nicht verweigern […], wenn wir dieses oder jenes nicht aufgreifen würden, dann hat die Opposition einfach so einen […] starken öffentlichen Auftritt, das wollen wir vermeiden“ [B1, Opposition, 17]. Dies gilt natürlich umso mehr, je deutlicher die Sachverständigen in eine Richtung argumentieren: „Natürlich, wenn alle aus einem Rohr schießen und das in den Medien eben auch entsprechend aufgenommen wird, dann ist es dann schon sehr schwer, einfach das zu übergehen“ [B10, Opposition, 31]. Zwar kann sich eine Regierungskoalition aufgrund ihrer parlamentarischen Mehrheit über jedes Gegenargument hinwegsetzen, doch läuft sie dann im Zweifelsfall Gefahr, an Reputation bei Fachpublikum und in der öffentlichen Wahrnehmung einzubüßen, wenn es ihr nicht gelingt, überzeugende Gegenargumente zu mobilisieren und die Opposition diese Haltung öffentlich anklagt. Diese Analyse bestätigt die eingangs skizzierten demokratietheoretischen Erwartungen an die Erzeugung von Rechtfertigungsdruck durch Öffentlichkeit. Im Sinne von Chambers handelt es sich hierbei in erster Linie um den demokratischen Mechanismus öffentlicher Deliberation: Politische Akteure sehen sich dazu angehalten, im Sinne einer wie auch immer gearteten Gemeinwohlkonzeption Stellung zu beziehen und die entsprechenden Forderungen der Gegenseite nicht zu ignorieren. Angesichts dessen ist zu erwarten, dass die Öffentlichkeit der Verfahren die Akteure dazu anhält, den Deliberationsprozess ernst zu nehmen. Gegenüber diesen demokratisierenden Wirkungen lassen sich aber auch Mechanismen rekonstruieren, durch die sich Öffentlichkeit kontraproduktiv auf die Qualität parlamentarischer Deliberation auswirkt. Die befragten Abgeordneten bewerteten in dieser Hinsicht die Nicht-Öffentlichkeit von Ausschusssitzungen im Deutschen Bundestag in der Regel als sehr positiv. Denn diese Regel schafft nach eigener Auskunft die notwendigen Freiräume, sich auf die sachliche und fachliche Auseinandersetzung einzulassen ohne stets auf die öffentliche Wirkung der eigenen Einlassungen zu schielen. Die Folge ist aus Sicht der Befragten eine höhere Dialog- und Sachorientierung als im öffentlichen Plenum.19 Diese kann sich wiederum positiv auf die Offenheit gegenüber den Argumenten der Gegenseite auswirken, wie folgendes Zitat nahelegt: „Man ist da noch offener, weil man eben nicht eine Öffentlichkeit hat, sondern einen kleinen Kreis. Da kann man auch mal einen Fehler eingestehen und sagen: Okay, da könnte ich mich bewegen. Deswegen ist das ein gutes […] Gremium, um politische Prozesse in Gang zu setzen und auch Vertrauen aufzubauen.“ [B22, Opposition, 103–105]

19B2,

80; B4, 60; B23, 42–44; B25, 51–53; B27, 82–92.

342

A. Schäfer

Umgekehrt erwarten die meisten Interviewpartner, dass die Öffentlichkeit von Ausschusssitzungen diese Offenheit und konstruktive Sachorientierung deutlich einschränken würde, weil dann strategische Erwägungen die fachpolitischen tendenziell aushebeln würden:20 „Und sobald […] es eine öffentliche Sitzung ist, reden auch die Parlamentarier leider oft anders als sie bei geschlossener Sitzung es tun, weil sie glauben, sie müssen sich jetzt für die Öffentlichkeit produzieren und müssen hier große Aufmerksamkeit erregen. Ja, das ist der Hauptunterschied, Plenardebatte vor offener Bühne oder Ausschuss in geschlossenem Rahmen ist eine ganz andere Qualität und ein ganz anderer Tiefgang in der Debatte.“ [B32, Regierungsmehrheit, 32]

Diese erfahrungsbasierten Einschätzungen der Abgeordneten zum Zusammenhang von Öffentlichkeit und Qualität des Beratungsprozesses spiegeln sich auch in einer ambivalenten Haltung gegenüber den Medien wieder. Diese werden einerseits als ein wichtiger Kanal betrachtet, um die Beratungsprozesse zu dynamisieren, indem Themen auf die Agenda gesetzt werden können und artikulierter Kritik Gewicht verliehen werden kann.21 Andererseits kann die Kommunikation über Medien einen effektiven Beratungsprozess unter Abgeordneten unterminieren, wobei der jeweilige Zeitpunkt, an dem die Veröffentlichung stattfindet, als entscheidend betrachtet wird, wie die folgende Aussage illustriert: „Was ich mir ein bisschen mehr wünschen würde, […] dass bestimmte Kommunikationsprozesse so lange intern bleiben, wie sie das nötig haben, […] – also wie ein guter Wein, der ein bisschen Zeit braucht zum Reifen, also das ist ein bisschen schwierig, wenn dann bestimmte Sachen vorher an die Presse durchgestochen werden, wo […] der Diskurs abrupt endet, weil man nun plötzlich eine ganz andere Konstellation hat.“ [B2, Regierungsmehrheit, 140]

Soweit ergibt die Analyse also ein zweigeteiltes Bild. Öffentlichkeit fördert – aus der Perspektive der Befragten – bestimmte Aspekte von Deliberation und Nicht-Öffentlichkeit wiederum andere. Umgekehrt kann der durch Öffentlichkeit verstärkte Rechtfertigungs- und Positionierungsdruck aber auch die Qualität von

20B3,

31; B20, 56; B32, 34–36. Einige Abgeordnete teilen diese Beobachtung eines wesentlichen Unterschieds in der Qualität der Beratung zwischen öffentlichem Plenum und nicht-öffentlichem Ausschuss nicht (B1, 17; B19, 40; B26, 121–123). Dies verweist möglicherweise auch auf Unterschiede zwischen verschiedenen Fachausschüssen. 21B2, 138–140; B33, 23–25.

Transparenz oder Öffentlichkeit? Zur Funktionsbedingung …

343

Deliberation unterminieren. Diese Analyse bestätigt wiederum die von Chambers vorgebrachten theoretischen Vermutungen: Die Aussagen der Interviewpartner veranschaulichen den sokratischen Mechanismus der Deliberation, der sich am besten in kleineren geschlossenen Gremien im Zuge einer sachlich-kritischen Diskussion entfalten kann und der in dieser Sichtweise durch den demokratischen Mechanismus der Öffentlichkeit potenziell unterminiert wird. Während also die öffentliche Transparenz die demokratische Funktion von Deliberation unterstützt, stärkt die Abschließung gegenüber der Öffentlichkeit die epistemische (vgl. Mansbridge et al. 2012, S. 10 ff.). Eine wichtige Stütze für dialogische Offenheit und Sachorientierung im parlamentarischen Prozess scheint die Rolle der Abgeordneten als Fachpolitikerin bzw. als Fachpolitiker. Diese Rollenorientierung ermöglicht nach Auskunft der Befragten oftmals, den parteipolitischen Gegensatz auf der Grundlage kollegialen Vertrauens und wechselseitiger fachlicher Anerkennung zu überwinden. Voraussetzung dafür ist demnach allerdings eine gewisse Befreiung von strategischen und taktischen Erwägungen, weshalb sich die fachpolitische Orientierung vor allem in nicht-öffentlichen Gremien und informellen Kommunikationsprozessen durchsetzt. Damit steht letztere gleichzeitig in einem Spannungsverhältnis zum allgemeinen Transparenzimperativ. Dieser Zusammenhang wird in folgendem Zitat belegt: „[…] ich glaube der wichtigste Aspekt, den habe ich gesagt, dass man sich gegenseitig als Fachpolitiker akzeptiert und respektiert, dass man sich gegenseitig auch in Entscheidungsprozesse in der jeweiligen Seite einbezieht und ehrlich und anständig miteinander umgeht […] – das findet wenig in der Öffentlichkeit statt, ist ja logisch, so, das hat auch was mit gegenseitigem Vertrauen zu tun, ja, dass man da sich nicht gegenseitig öffentlich nackt macht und so […] – da gibt es viel mehr so an menschlichem Miteinander und fachlichem Miteinander als die Menschen draußen sehen.“ [B30, Opposition, 184]

Stellt man den Bezug zur oben dargelegten Diskussion der Parlamentarismustheorie her, lassen sich somit die Gegenargumente gegen eine umfassende Transparenzforderung stützen. Auch wenn es beispielsweise wünschenswert wäre, wenn das Publikum vertiefte Einblicke in die Arbeitsweisen des Bundestages gewönne, wäre dieses Ziel paradoxerweise wohl nicht durch eine Transparentmachung von Ausschuss- und Fraktionsberatungen zu erreichen, weil deren Qualität gerade die Atmosphäre der Nicht-Öffentlichkeit voraussetzt. Folgt man den rekonstruierten Sichtweisen der meisten Interviewpartner, so wäre eine flächendeckende Transparenz des parlamentarischen Beratungsprozesses mit hohen Einbußen in Hinblick auf die sachliche Rationalität verbunden.

344

A. Schäfer

4.3 Öffentlichkeit als Kontinuum Soweit hat die vorliegende Untersuchung eine klare Dichotomie unterstellt: Die öffentlichen Arenen des Parlaments auf der einen, die nicht-öffentlichen auf der anderen Seite. Wie sich im Weiteren zeigt, kann diese klare Gegenüberstellung aber nicht aufrechterhalten werden. Denn parlamentarische Öffentlichkeit muss als ein Kontinuum betrachtet werden, wie es Sarcinelli und Tenscher (2000) vorschlagen und wie die vorliegende Analyse belegt. Außerdem liefert die Untersuchung Anhaltspunkte, um dieses Modell zu spezifizieren. Sie belegt nämlich neben der Tatsache, dass formal öffentliche und nicht-öffentliche Arenen unterschiedliche kommunikative Verhaltensweisen bewirken, auch, dass Öffentlichkeit in alle parlamentarischen Beratungsphasen – wenn auch in unterschiedlichem Maße – hineinwirkt. Metaphorisch gesprochen erzeugt das im parlamentarischen Kontext allgegenwärtige Licht der Öffentlichkeit in den nicht-öffentlichen Arenen des Parlaments zumindest einen Schatten, der auch dort potenziell „öffentliche“ Handlungsorientierungen unter den Abgeordneten induziert. Zunächst einmal ist aber festzustellen, dass die Abgrenzung zwischen öffentlichen und nicht-öffentlichen Arenen nicht trennscharf ist. Die Trennwand ist zumindest porös. Dahin gehend wirken mindestens zwei Mechanismen gradueller Transparenzmachung. Zum einen gibt es in der Regel eine interessierte Fachöffentlichkeit, die die Prozesse im Kontext der Ausschussberatung zumindest indirekt beobachtet und – teilweise medial – begleitet: „[…] der Beratungsprozess erfolgt ja nie abgeschottet. Der Beratungsprozess ist ja immer innerhalb auch verschiedener Öffentlichkeiten. […] Das wird natürlich in der Fachöffentlichkeit […] besprochen. Das interessiert ja diese Vertretungen – da habe ich natürlich auch schon eine Öffentlichkeit, eine Fachöffentlichkeit. Das kann sich dann auch widerspiegeln in Medien […].“ [B33, Opposition, 33]

Zum anderen wird die Abschottung zur äußeren Öffentlichkeit durch die Teilnahme von Gästen oder Mitarbeitern, die Informationen aus dem Ausschuss genauso wie die regulären Mitglieder nach außen kommunizieren können, graduell unterlaufen: „Im Ausschuss […] ist es je nachdem, weil es nur so eine halböffentliche Sache ist – ei-gentlich nicht-öffentlich, aber da kann natürlich trotzdem was nach außen dringen und tut es ja auch, ist auch okay – also weil es eher so halböffentlich ist, ist im Ausschuss aber schon das offener, man kann auch mal eher ein unbedachtes Wort sagen.“ [B6, Opposition,124]

Transparenz oder Öffentlichkeit? Zur Funktionsbedingung …

345

Ähnlich verhält es sich mit Fraktionssitzungen, die in der Regel noch strikter nach außen abgeschottet sind und in denen im Normalfall weder Presse noch Gäste zugelassen sind: „[…] da ist auch nichts intern, wenn 220 Leute zusammensitzen, dann ist es am nächsten Tag in der Presse. Also wenn du etwas in die Presse bringen willst, dann sagst du ‚interne Beratung Fraktion‘, dann kannst du es übermorgen in der FAZ nachlesen“ [B9, Regierungsmehrheit, 54]. Neben dieser graduellen Transparenz wirkt aber vor allem auch ein Mechanismus, der öffentliche und nicht-öffentliche Arenen handlungslogisch verbindet: Antizipation. Die in den Aussagen der Befragten Bundestagsabgeordneten identifizierbare Antizipationslogik tritt in verschiedener Weise in Erscheinung. Zum einen geht es im Einzelnen Beratungsprozess in den unterschiedlichen Phasen jeweils um die gleichen Materien, weshalb die Erwartung besteht, dass Positionierungen und deren Begründungen über die Arenen hinweg kohärent sein müssen, wie folgende Aussage eines Interviewpartners hervorhebt: „Klar ist das Plenum ein bisschen mehr Podium, weil Ausschuss ist in der Regel nicht-öffentlich, ja aber nicht wirklich, weil man wird ja dann auch vorgeführt, wenn man im Ausschuss etwas anderes sagt als im Plenum“ [B29, Opposition, 64]. Die Antizipation der späteren Situation kann also gegenwärtiges Verhalten disziplinieren. Mit den Beratungsarenen variiert das Publikum, das jeweils die Öffentlichkeit verkörpert (s. a. Neidhardt 1994, S. 12). Das jeweilige Publikum ist die Beobachtungsinstanz, an der sich letztlich die Güte der Rechtfertigungen messen lassen muss. Das allgemeine Publikum tritt faktisch zwar nur in der dann auch medial übertragenen Plenardebatte beobachtend in Erscheinung, seine Wahrnehmung kann aber in den vorgelagerten Beratungsprozessen antizipiert werden. Diese Antizipation funktioniert auch deswegen, weil die Rolle des Publikums in den nicht-öffentlichen Phasen durch das jeweilige kollektive Gegenüber, sei es durch den politischen Gegner oder die eigene Fraktion, eingenommen wird. Die Verlässlichkeit der parlamentarischen Verfahren trägt ihren Teil zum Funktionieren der Antizipationslogik bei. Denn Bundestagsabgeordnete antizipieren potenzielle Argumente und Reaktionen der Vertreter anderer Fraktionen auch deswegen, weil sie mit der späteren öffentlichen Auseinandersetzung rechnen können. Diese Aussicht motiviert die Akteure, sich bereits in nicht-öffentlichen Phasen auf diese öffentliche Beratung vorzubereiten. Dieser Zusammenhang wird in folgendem Zitat veranschaulicht: „[…] durch die repräsentative Funktion ist man immer gezwungen, die Sachen mit einer gewissen Ernsthaftigkeit und Seriosität zu betrachten und das wirkt sich auch auf die dem Diskurs vorgelagerten internen Konsultationsprozesse auch sehr hilfreich aus, während auf der anderen Seite die Art der repräsentativen Darstellung

346

A. Schäfer

auch von Themen davon lebt, dass man im Vorfeld sich auch schon mal mit den Gedanken zum Beispiel der politischen Gegner auseinandergesetzt hat, weil man natürlich dann auch, zum Beispiel in einem Forum oder vor Publikum dann auch bestimmte Argumente schon mal durchgespielt hat eben mit den Kollegen aus den anderen Fraktionen.“ [B2, Regierungsmehrheit, 44]

Der oben rekonstruierte Rechtfertigungsdruck durch Öffentlichkeit überträgt sich durch diese Verbindung der Phasen in die nicht-öffentlichen Arenen.22 Die Logik der Antizipation durchzieht dann den mehrstufigen Beratungsprozess, der letztlich stets auf die öffentliche Rechtfertigung der eigenen Position zielt, wie folgende Aussage eines Interviewpartners illustriert: „Also, ich denke, dass man in der eigenen Arbeitsgruppe diesen Rahmen nutzt, um die eigenen Argumente auf Plausibilität zu hinterfragen und dann im Ausschuss nochmal mit Argumenten konfrontiert wird, die eben von anderen Standpunkten herrühren, […] dann geht es wieder zurück in die Arbeitsgruppe, dann wird mit diesen neuen Argumenten wieder gearbeitet, das machen die anderen Arbeitsgruppen ja auch […], weil man letzten Endes auch seine Argumente im Plenum nach außen vertreten muss in der Öffentlichkeit.“ [B2, Regierungsmehrheit, 72]

In die Antizipation künftiger Öffentlichkeit muss von den Akteuren auch die Tatsache einbezogen werden, dass ihre Rechtfertigungen im Zuge des parlamentarischen Verfahrens protokollarisch archiviert und zu einem späteren Zeitpunkt wieder hervorgeholt werden können: „Wir gucken immer, was haben die gesagt, als sie regiert haben. Also (…) so nach dem Motto: ‚Vor zwei Jahren hast du das gesagt, heute sagst du das, erklär mal!‘“ (B4, Regierungsmehrheit, 92). So besteht für die Akteure ein gewisser Anreiz, Aussagen so zu gestalten, dass sie auch in zukünftigen Situationen und beispielsweise nach einem Rollenwechsel zwischen Opposition und Regierungsmehrheit öffentlich vertretbar bleiben. Die Antizipationslogik erzeugt somit insgesamt einen sehr umfassenden

22Man

trifft mitunter aber auch auf Interviewpartner, die sich einen noch stärkeren Rechtfertigungsdruck durch Öffentlichkeit im gesamten parlamentarischen Beratungsprozess wünschen [B19, 40; B26, 121–123]. Aus Sicht eines Befragten müssten beispielsweise die nicht-öffentlichen Sitzungen des Ausschusses noch stärker an die öffentlichen Arenen angedockt werden, um die Debatte zu dynamisieren: „Ich glaube, Pfeffer kriege ich und Spannung und auch vor allen Dingen dann auch das Rechtfertigen, warum man sich dann entgegen des Sachverständigen-Rates beispielsweise so oder so verständigt hat nur, indem ich deutliche Impulse nach draußen setze und also die Anhörung mit der Ausschussarbeit viel stärker verknüpfe“ [B19, Opposition, 40].

Transparenz oder Öffentlichkeit? Zur Funktionsbedingung …

347

Rechtfertigungsdruck, wie in der folgenden Aussage eines Interviewpartners abschließend auf den Punkt gebracht wird: „[…] das ist ja auch ganz die Rolle des Parlamentes, nicht Sachen einfach durchzuwinken, weil wenn – man kann überall und wird überall dazu befragt und muss natürlich dann auch sich für seine Entscheidungen rechtfertigen“ [B26, Opposition, 155]. Die Arenen und Phasen des parlamentarischen Beratungsprozesses erscheinen vor dem Hintergrund dieser Analyse als prozedural und antizipativ verklammert. Dieser Zusammenhang muss berücksichtigt werden, will man die Wirkung von Öffentlichkeit und Nicht-Öffentlichkeit auf Deliberation erklären. Eine rein formale Betrachtung einzelner Arenen erscheint dabei nicht ausreichend. Die Antizipationslogik als phasenverbindendes Handlungsprinzip bildet also eine wichtige Ergänzung für die Modellierung der Handlungslogiken unterschiedlicher parlamentarischer Arenen (Sarcinelli und Tenscher 2000).

5 Schlussfolgerungen Die vorliegende Untersuchung widmete sich dem Zusammenhang zwischen Öffentlichkeit, Transparenz und (parlamentarischer) Deliberation. Sie begann mit einer Rekonstruktion der normativen und strukturellen Annahmen der deliberativen Demokratietheorie einerseits und der Parlamentarismustheorie andererseits. Dabei haben sich zahlreiche Parallelen, aber auch Unterschiede gezeigt. Beide Perspektiven verweisen auf den hohen normativen Wert von Öffentlichkeit und verbanden sich mit spezifischen Erwartungen hinsichtlich der Wirkung von letzterer auf das Handeln politischer Akteure. Dabei hat die theoretische Diskussion ein differenziertes Bild gezeichnet. Es werden je nach Kontext eher wünschenswerte oder negative Effekte von Öffentlichkeit auf (parlamentarische) Deliberation erwartet. Gleichzeitig unterscheiden sich die beiden theoretischen Perspektiven in Hinblick auf die Rolle und Bedeutung von Transparenz. So spielt der Begriff in der Parlamentarismustheorie eine ungleich wichtigere Rolle, wird mit der Öffentlichkeitsfunktion des Parlaments gleichgesetzt und daher als eine zentrale Zielvorgabe für Reformen aufgefasst. Im Vergleich mit der demokratietheoretischen Diskussion zeigen sich aber die Grenzen einer solchen Sichtweise. Sie begibt sich letztlich in ein normatives Dilemma: Mehr Transparenz als absoluter Wert muss ihre potenziellen negativen Folgen in Kauf nehmen. Eine Lösung könnte die Orientierung an der jüngeren Diskussion um systemische Zusammenhänge unterschiedlicher demokratischer Praktiken innerhalb der deliberativen Demokratietheorie liefern (Goodin 2005; Mansbridge et al. 2012). Transparenz würde

348

A. Schäfer

dann ihren absoluten normativen Wert zugunsten einer Beurteilung ihrer relativen Funktionalität verlieren. Dies würde bedeuten, die Diskussion von der absoluten Frage, wie mehr Transparenz hergestellt werden kann, hin zur umgekehrten Frage zu verlagern, wo Transparenz die Sicherung einer insgesamt öffentlichen Praxis der politischen Willensbildung unterstützt – und wo sie sie unter Umständen unterminiert. Denn Öffentlichkeit wird insgesamt letztlich nicht durch passive Transparenz, sondern durch eine aktive Kommunikationspraxis hergestellt. Vor diesem Hintergrund können die Ergebnisse der oben erfolgten Analyse von Praktiken parlamentarischer Deliberation auf Basis des Betriebswissens von Abgeordneten des Deutschen Bundestages gedeutet werden. Hier hat sich zunächst gezeigt, dass parlamentarische Verfahren in Verbindung mit der Erzeugung von Öffentlichkeit einen bedeutungsvollen Deliberationsprozess trotz klarer Mehrheitsverhältnisse gewährleisten. Dies bestätigt die zuvor rekonstruierten theoretischen Erwartungen hinsichtlich des demokratisierenden Mechanismus von Öffentlichkeit. Gleichzeitig konnte auf dieser empirischen Basis wiederum in Übereinstimmung mit skeptisch orientierten theoretischen Argumenten belegt werden, dass sich Öffentlichkeit auch negativ auf bestimmte Aspekte von Deliberation auswirken kann. So kann sie Dialogizität und Sachorientierung (den „sokratischen Mechanismus“ nach Chambers) unterminieren. Insofern bestätigen die Befunde die theoretischen Erwartungen und empirischen Ergebnisse bisheriger Untersuchungen. Der dritte wichtige Punkt, den die Analyse zutage fördert, verweist hingegen auf notwendige Ergänzungen der theoretischen Perspektive. Er betrifft den Charakter und die Wirkungsweise von Öffentlichkeit im spezifischen Kontext des Parlaments. So konnte dargelegt werden, dass Öffentlichkeit dort als Kontinuum begriffen werden muss und sich ihre Wirkung durch den Antizipationsmechanismus auch auf formal nicht-öffentliche oder gar vertrauliche Arenen erstreckt. Dies hat sowohl praktische als auch theoretische Implikationen. Parlamentsreformerische Bemühungen sehen sich mit dem Dilemma konfrontiert, dass die Schaffung von mehr Transparenz im Beratungs- und Entscheidungsprozess genau jene positiven Seiten desselben unterminieren könnten, die sie zur Anschauung bringen sollten. Dies muss kein Grund sein, das legitime Streben nach Transparenz aufzugeben. Allerdings müssen beim Nachdenken über mögliche Reformoptionen die empirisch belegbaren Zusammenhänge berücksichtigt werden. Denn der demokratische Rechtfertigungsdruck speist sich aus der Verbindung des nicht-öffentlichen mit dem öffentlichen Beratungsprozess, welche entsprechend hergestellt bzw. gesichert werden sollte. Die Schlussfolgerung muss daher nicht sein, alle nicht-öffentlichen Arenen öffentlich zu machen, sondern die unterschiedlich geregelten

Transparenz oder Öffentlichkeit? Zur Funktionsbedingung …

349

Phasen des Beratungsprozesses geschickt zu kombinieren. Dabei muss es im Sinne einer systemischen Betrachtung deliberativer Prozesse nicht darum gehen, parteipolitische gegen fachpolitische Dimensionen auszuspielen, sondern im Gegenteil deren komplementäre Vorteile zu nutzen und zu verhindern, dass sie sich in ihren Nachteilen gegenseitig aushebeln. Der Mechanismus der Antizipation kann so demokratietheoretisch betrachtet neben der Pluralität der Zusammensetzung von Gremien (siehe Chambers 2004 und B ­ ohman 2007) als weiteres Instrument zur Sicherung des Zusammenspiels von sokratisch-epistemischen und demokratisch-egalitären Elementen betrachtet werden.

Literatur August, V. (2018). Theorie und Praxis der Transparenz. Eine Zwischenbilanz. Berliner Blätter, 21(76), 129–156. Baumann, M.-O. (2014). Die schöne Transparenz-Norm und das Biest des Politischen. Paradoxe Folgen einer neuen Ideologie der Öffentlichkeit. Leviathan, 42(3), 398–419. Benhabib, S. (1996). Toward a deliberative model of democratic legitimacy. In S. Benhabib (Hrsg.), Democracy and difference. Contesting the boundaries of the political (S. 67–94). Princeton: Princeton University Press. Bohman, J. (2007). Political communication and the epistemic value of diversity. Deliberation and legitimation in media societies. Communication Theory, 17(4), 348–355. Chambers, S. (2004). Behind closed doors. Publicity, secrecy, and the quality of deliberation. Journal of Political Philosophy, 12(4), 389–410. Chambers, S. (2009). Rhetoric and the public sphere. Has deliberative democracy abandoned mass democracy. Political Theory, 37(3), 323–350. Cohen, J. (1989). Deliberation and democratic legitimacy. In A. Hamlin & P. Pettit (Hrsg.), The good polity. Normative analysis of the state (S. 17–34). New York: Blackwell. De Fine Licht, J., & Naurin, D. (2015). Open decision-making procedures and public legitimacy. An inventory of causal mechanism. In J. Elster (Hrsg.), Secrecy and publicity in votes and debates (S. 131–151). Cambridge: Cambridge University Press. Dryzek, J. (2010). Foundations and frontiers of deliberative governance. Oxford: Oxford University Press. Edmunds, A., & Morris, A. (2000). The problem of information overload in business organisations. A review of the literature. International Journal of Information Management, 20(1), 17–28. Elster, J. (1998). Deliberation and constitution making. In J. Elster (Hrsg.), Deliberative democracy (S. 97–122). Cambridge: Cambridge University Press. Elster, J. (2000). Arguing and bargaining in two constituent assemblies. University of Pennsylvania Journal of Constitutional Law, 2(2), 345–421. Ferree, M. M., Gamson, W. A., Gerhards, J., & Rucht, D. (2002). Four models of the public sphere in modern democracies. Theory and Society, 31(3), 289–324.

350

A. Schäfer

Gerhards, J. (1998). Öffentlichkeit. In O. Jarren, U. Sarcinelli, & U. Saxer (Hrsg.), Politische Kommunikation in der demokratischen Gesellschaft (S. 268–274). Wiesbaden: VS Verlag. Goodin, R. E. (2005). Sequencing deliberative moments. Acta Politica, 40(2), 182–196. Gutmann, A., & Thompson, D. F. (1996). Democracy and disagreement. Cambridge: ­Belknap Press of Harvard University Press. Habermas, J. (1987). Theorie des kommunikativen Handelns. Handlungsrationalität und gesellschaftliche Rationalisierung (Bd. 1). Frankfurt a. M.: Suhrkamp (Erstveröffentlichung 1981). Habermas, J. (1990). Strukturwandel der Öffentlichkeit. Untersuchungen zu einer Kategorie der bürgerlichen Gesellschaft. Frankfurt a. M.: Suhrkamp (Erstveröffentlichung 1962). Habermas, J. (1994). Faktizität und Geltung. Beiträge zur Diskurstheorie des Rechts und des demokratischen Rechtsstaats. Frankfurt a. M.: Suhrkamp (Erstveröffentlichung 1992). Habermas, J. (1999). Über den internen Zusammenhang von Rechtsstaat und Demokratie. In J. Habermas (Hrsg.), Die Einbeziehung des Anderen. Studien zur politischen Theorie (S. 193–308). Frankfurt a. M.: Suhrkamp. Ismayr, W. (2012). Der Deutsche Bundestag. Wiesbaden: Springer VS. Kelle, U. (2003). Die Entwicklung kausaler Hypothesen in der qualitativen Sozialforschung. Methodologische Überlegungen zu einem häufig vernachlässigten Aspekt qualitativer Theorie- und Typenbildung. Zentralblatt für Didaktik der Mathematik, 35(6), 232–246. Mansbridge, J. J. (2015). Deliberative und nicht-deliberative Verhandlungen. In A. Bächtinger, S. Shikano, & E. Linhart (Hrsg.), Jahrbuch für Handlungs- und Entscheidungstheorie . Bd. 9. Deliberation und Aggregation (S. 1–39). Wiesbaden: Springer VS. Mansbridge, J. J., Bohman, J., Chambers, S., Christiano, T., Fung, A., Parkinson, J. R., Thompson, D. F., & Warren, M. (2012). A systemic approach to deliberative democracy. In J. Parkinson & J. J. Mansbridge (Hrsg.), Deliberative systems. Deliberative democracy at the large scale (S. 1–26). Cambridge: Cambridge University Press. Marschall, S. (1999). Parlamentsreform. Ziele, Akteure, Prozesse. Opladen: Leske  +  Budrich. Marschall, S. (2002). Parlamentarische Öffentlichkeit. Eine Feldskizze. In H. Oberreuter (Hrsg.), Der Deutsche Bundestag im Wandel. Ergebnisse neuerer Parlamentarismusforschung (S. 168–186). Wiesbaden: Westdeutscher Verlag. Marschall, S. (2005). Parlamentarismus. Eine Einführung. Baden-Baden: Nomos. Meade, E., & Stasavage, D. (2006). Two effects of transparency on the quality of deliberation. Swiss Political Science Review, 12(3), 123–133. Meuser, M., & Nagel, U. (2009). Das Experteninterview. Konzeptionelle Grundlagen und methodische Anlage. In S. Pickel, G. Pickel, H.-J. Lauth, & D. Jahn (Hrsg.), Methoden der vergleichenden Politik- und Sozialwissenschaft. Neue Entwicklungen und Anwendungen (S. 465–479). Wiesbaden: VS Verlag. Neblo, M. (2005). Thinking through democracy. Between the theory and practice of deliberative politics. Acta Politica, 40(2), 169–181. Neidhardt, F. (1994). Öffentlichkeit, öffentliche Meinung, soziale Bewegungen. Opladen: Westdeutscher Verlag.

Transparenz oder Öffentlichkeit? Zur Funktionsbedingung …

351

Patzelt, W. J. (1998). Parlamentskommunikation. In O. Harren (Hrsg.), Politische Kommunikation in der demokratischen Gesellschaft. Ein Handbuch mit Lexikonteil (S. 431– 441). Opladen: Westdeutscher Verlag. Peters, B. (2007). Der Sinn von Öffentlichkeit. Frankfurt a. M.: Suhrkamp. Sarcinelli, U. (2011). Politische Kommunikation in Deutschland. Wiesbaden: VS Verlag. Sarcinelli, U., & Tenscher, J. (2000). Vom repräsentativen zum präsentativen Parlamentarismus. Entwurf eines Arenenmodells parlamentarischer Kommunikation. In O. Harren (Hrsg.), Zerfall der Öffentlichkeit (S. 74–93). Wiesbaden: Westdeutscher Verlag. Saretzki, T. (1996). Wie unterscheiden sich Argumentieren und Verhandeln. Definitionsprobleme, funktionale Bezüge und strukturelle Differenzen von zwei verschiedenen Kommunikationsmodi. In V. Prittwitz (Hrsg.), Verhandeln und Argumentieren. Dialog, Interessen und Macht in der Umweltpolitik (S. 19–39). Opladen: Leske + Budrich. Schäfer, A. (2017a). Zwischen Repräsentation und Diskurs. Zur Rolle von Deliberation im parlamentarischen Entscheidungsprozess. Wiesbaden: Springer VS. Schäfer, A. (2017b). Deliberation in representative institutions. An analytical framework for a systemic approach. Australian Journal of Political Science, 52(3), 419–435. Steffani, W. (1971). Parlamentarismus ohne Transparenz. Wiesbaden: VS Verlag. Steiner, J., Bächtiger, A., Spörndli, M., & Steenbergen, M. R. (2004). Deliberative politics in action. Analyzing parliamentary discourse. Cambridge: Cambridge University Press. Swank, O. H., & Visser, B. (2013). Is transparency to no avail? The Scandinavian Journal of Economics, 115(4), 967–994. Thaysen, U. (1972). Parlamentsreform in Theorie und Praxis. Wiesbaden: VS Verlag. Thompson, D. F. (2008). Deliberative democratic theory and empirical political science. Annual Review of Political Science, 11, 497–520.

Andreas Schäfer (Dr.) ist wissenschaftlicher Mitarbeiter am Lehrbereich Politische Soziologie und Sozialpolitik an der Humboldt-Universität zu Berlin. Seine Forschungsinteressen liegen insbesondere an der Schnittstelle von politischer Kommunikation und Entscheidungsprozessen sowie im Bereich der Demokratietheorie. 2017 erschien bei Springer VS die Monografie Zwischen Repräsentation und Diskurs – Zur Rolle von Deliberation im parlamentarischen Entscheidungsprozess sowie im Australian Journal of Political Science der Aufsatz „Deliberation in representative institutions: an analytical framework for a systemic approach“.