Zahlenwerk: Kalkulation, Organisation und Gesellschaft (German Edition) 3531151673, 9783531151670

Inwiefern die massenhafte Mobilisierung von Zahlen und Rechenpraktiken die Aufrechterhaltung sozialer Ordnung ermöglicht

109 70 2MB

German Pages 276 [268] Year 2007

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Zahlenwerk: Kalkulation, Organisation und Gesellschaft (German Edition)
 3531151673, 9783531151670

Citation preview

Andrea Mennicken · Hendrik Vollmer (Hrsg.) Zahlenwerk

Organisation und Gesellschaft Herausgegeben von Günther Ortmann, Thomas Klatetzki und Arnold Windeler Wie wünscht man sich Organisationsforschung? Theoretisch reflektiert, weder in Empirie noch in Organisationslehre oder beratung sich erschöpfend. An avancierte Sozial- und Gesellschaftstheorie anschließend, denn Organisationen sind in der Gesellschaft. Interessiert an Organisation als Phänomen der Moderne und an ihrer Genese im Zuge der Entstehung und Entwicklung des Kapitalismus. Organisationen als Aktionszentren der modernen Gesellschaft ernstnehmend, in denen sich die gesellschaftliche Produktion, Interaktion, Kommunikation – gelinde gesagt – überwiegend abspielt. Mit der erforderlichen Aufmerksamkeit für das Verhältnis von Organisation und Ökonomie, lebenswichtig nicht nur, aber besonders für Unternehmungen, die seit je als das Paradigma der Organisationstheorie gelten. Gleichwohl Fragen der Wahrnehmung, Interpretation und Kommunikation und also der Sinnkonstitution und solche der Legitimation nicht ausblendend, wie sie in der interpretativen resp. der Organisationskulturforschung und innerhalb des EthikDiskurses erörtert werden. Organisation auch als Herrschaftszusammenhang thematisierend – als moderne, von Personen abgelöste Form der Herrschaft über Menschen und über Natur und materielle Ressourcen. Kritisch gegenüber den Verletzungen der Welt, die in der Form der Organisation tatsächlich oder der Möglichkeit nach impliziert sind. Verbindung haltend zu Wirtschafts-, Arbeits- und Industriesoziologie, Technik- und Wirtschaftsgeschichte, Volks- und Betriebswirtschaftslehre und womöglich die Abtrennung dieser Departments voneinander und von der Organisationsforschung revidierend. Realitätsmächtig im Sinne von: empfindlich und aufschlussreich für die gesellschaftliche Realität und mit Neugier und Sinn für das Gewicht von Fragen, gemessen an der sozialen Praxis der Menschen. So wünscht man sich Organisationsforschung. Die Reihe „Organisation und Gesellschaft“ ist für Arbeiten gedacht, die dazu beitragen.

Andrea Mennicken Hendrik Vollmer (Hrsg.)

Zahlenwerk Kalkulation, Organisation und Gesellschaft

Bibliografische Information Der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.

1. Auflage April 2007 Alle Rechte vorbehalten © VS Verlag für Sozialwissenschaften | GWV Fachverlage GmbH, Wiesbaden 2007 Lektorat: Frank Engelhardt Der VS Verlag für Sozialwissenschaften ist ein Unternehmen von Springer Science+Business Media. www.vs-verlag.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Umschlaggestaltung: KünkelLopka Medienentwicklung, Heidelberg Satz: Anke Vogel Druck und buchbinderische Verarbeitung: Krips b.v., Meppel Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier Printed in the Netherlands ISBN 978-3-531-15167-0

Inhalt

5

Inhalt Inhalt

Günther Ortmann Vorwort: Was wirklich zählt................................................................................................... 7 Andrea Mennicken und Hendrik Vollmer Einleitung: Fundstellen von Zahlenforschung ........................................................................ 9 Peter Miller Wie und warum das Rechnungswesen in der Soziologie in Vergessenheit geriet ............... 19 Uwe Vormbusch Die Kalkulation der Gesellschaft .......................................................................................... 43 Bettina Heintz Zahlen, Wissen, Objektivität: Wissenschaftssoziologische Perspektiven ............................ 65 Martin Messner, Tobias Scheytt und Albrecht Becker Messen und Managen: Controlling und die (Un-)Berechenbarkeit des Managements ........ 87 Peter Pelzer Basel II, oder: die Einsicht in die unzureichende Verlässlichkeit reiner Quantifizierung.......................... 105 Michael Power Die Erfindung operativer Risiken ....................................................................................... 123 Herbert Kalthoff Ökonomisches Rechnen: Zur Konstitution bankwirtschaftlicher Objekte und Investitionen ..................................... 143

6

Inhalt

Alex Preda Formel-Bolschewismus: Eine historische Soziologie der Euro-Umrechnung.................... 165 Stefan Kühl Zahlenspiele in der Entwicklungshilfe: Zu einer Soziologie des Deckungsbeitrages ........ 185 Andrea Mennicken und Alexandra Heßling Welt(en) regulierter Zahlenproduktion zwischen Globalität und Lokalität: Reflexionen zu globalen Standards in Rechnungslegung und Wirtschaftsprüfung............ 207 Daniel Schmidt Buchführung für Oikos und Etat ......................................................................................... 229 Tobias Werron Die zwei Wirklichkeiten des modernen Sports: Soziologische Thesen zur Sportstatistik ............................................................................. 247 Die Autorinnen und Autoren............................................................................................... 271

7

Vorwort: Was wirklich zählt

Vorwort: Was wirklich zählt

Günther Ortmann Ansehen-als, Erklären-für oder Betrachten-als heißt im Englischen „to account for“. Als intransitives Verb heißt „account“: „Rechenschaft ablegen über“, „verantwortlich sein für“, „erklären“, „begründen“. Als Substantiv: Rechnung, Jahresabschluss, Konto – „Das geht auf dein Konto!“ –, Rechenschaftsbericht, Darstellung, Wichtigkeit („of no account“ = „ohne Bedeutung“). „To take account of” heißt „Rechnung tragen”, „To leave out of account” „außer Betracht lassen”, „To take into account” umgekehrt „in Betracht ziehen”. „Accountability” ist „Verantwortlichkeit”. „To give an account of oneself“ bedeutet, dass jemand eine Geschichte über sich selbst erzählt, um sich dem anderen verständlich zu machen – sich zu erklären. Und „accounting“ heißt Rechnungswesen. Was wirklich zählt, ist, wie es scheint, Zahlenwerk: Kennziffern, Ratings, ScoringModelle. Auditing, Accounting, Budgeting, Controlling, Benchmarking. Evaluation, Kalkulation und quantitative Analysen. Grund genug, sollte man meinen, dieses Feld nicht der Betriebswirtschaftslehre (und den Statistikern) allein zu überlassen. Jedoch, seit Georg Simmel, Max Weber und Werner Sombart sich für die Genese und die Effekte der doppelten Buchführung und der Kapitalrechnung und gar eine Philosophie des Geldes interessiert haben, ist die Aufmerksamkeit zumal der Soziologie für diese spröde Materie für beinahe ein Jahrhundert nahezu erloschen – ein paradigmatischer Fall institutionellen Vergessens und/oder einer Kapitulation vor der Zuständigkeit und Definitionsmacht eben jener Ökonomen, deren Imperialismus die Soziologen doch zu Recht beklagen. Zu erinnern wäre allerdings an die marxistisch inspirierten Analysen der Genesis der Elementarformen der abstrakt geistigen Tätigkeit und des Verhältnisses von Geld und Geist Alfred Sohn-Rethels und Rudolf Wolfgang Müllers, aus bekannten, guten und schlechten Gründen versunken im Orkus der Geschichte. Dabei ist ja die Schnittmenge solcher Termini und Begriffe frappant, die beide heute „zuständigen“ Disziplinen, Betriebswirtschaftslehre einerseits und Soziologie andererseits, in Anspruch nehmen, um ihre respektiven Probleme einzukreisen: Den accounts der Ethnomethodologie – methodische Praktiken der Aufweisung von Sinn im Sprechen und Handeln – korrespondiert das Accounting der Betriebswirtschaftslehre, in dem der aufgewiesene Sinn in Soll und Haben und in Ketten der Verursachung von Outputs durch Inputs terminiert. Accountability ist ein Begriff des Managements und auch der Unternehmensethik. Der Attributionsproblematik der Soziologie entspricht das zentrale Problem der betriebswirtschaftlichen Zurechnung – Kosten, Leistungen, Gewinne und Erfolge müssen (daher so genannten) Kosten-, Leistungs- oder Erfolgsträgern zugerechnet werden. Am meisten aber sticht mir jener Zusammenhang zwischen Zählen und Gelten ins Auge, der mit den Mitteln der Sprechakttheorie durch Austin und Searle ins Blickfeld gerückt worden ist. John Searles performativer Sprechakt der allgemeinen Form X zählt als Y im Kontext K

8

Günther Ortmann

heißt ja deswegen „performativ“, weil er das „Zählt-als“ – das „Gilt-als“ – nicht etwa konstativ behauptet, sondern wirksam etabliert. Er ist für Searle Ausdruck und sprachlicher Kern von (machtabhängigen) Prozessen der Institutionalisierung – eines In-Kraft- oder InGeltung-Setzens: X1 zählt als Bundespräsident im Kontext K1. Dieses Stück Papier zählt als Geld im Kontext K2. X3 zählt als Erfolg von Jürgen Schrempp im Kontext K3. X4 zählt als Stückkosten des Produkts Y im Kontext K4. Eine Ebene der Abstraktion höher: Die Unternehmen, Schulen, Krankenhäuser, Leistungen, Produkte X5-X9 etc. zählen als vergleichbar im Kontext K5-9. Und nun, noch eine Ebene höher: Zahlenwerke – und näher hin: betriebswirtschaftliche Rechnungen – zählen als maßgebliche Systeme performativer Sprechakte im Kontext K10, im Kontext einer dem Funktionalismus ergebenen Moderne. In diesem letzteren Performativ – es ist ein Meta-Performativ, weil er performativ festlegt, welche Performative zählen – kommt als institutioneller Imperativ zum Ausdruck, dass Zahlenwerke nicht nur eine konstative, sondern eben auch und vor allem eine dominante performative Funktion haben. Typisch dafür sind betriebswirtschaftliche ZuRechnungen. Sie sagen nicht nur, was ist, sondern, um Austins berühmten Buchtitel zu paraphrasieren, sie „tun Dinge mit Zahlen“. Sie präsentieren uns die Rechnung. Das ist ihr Werk. Zahlenwerke behaupten nicht nur quantitative Zusammenhänge, sondern etablieren sie als geltend – verschaffen ihnen anerkannte, alsbald kaum mehr bezweifelbare Geltung. So auch, wenn es heißt: X11 zählt als operatives Risiko im Kontext K11. X12 zählt als signifikant im Kontext K12. Nicht zuletzt von dieser Dimension der Performanz, der Intervention im Unterschied zur Repräsentation, der Konstruktion, des Enactment, schließlich auch der Fabrikation und Manipulation handelt dieser Band. Er bietet dabei auch einen Überblick über den avancierten Stand der sozialwissenschaftlichen – überwiegend angloamerikanischen – AccountingForschung im weitesten Sinne und über die noch jungen Beiträge aus dem deutschsprachigen Raum. Da herrschte noch vor kurzem gähnende Leere, indiziert dadurch, dass hier eine Zeitschrift fehlt, die in England im Jahre 1976 gegründet worden ist: Accounting, Organizations and Society. Die repräsentative, vor allem aber die performative, selektive, konstruktive, ordnende, kontrollierende, evaluierende, klassifizierende, imprägnierende, vergleichende, gleichmachende, zurichtende, zurechnende Funktion von Zahlenwerken, ihre Institutionalisierung als calculative agencies in der modernen Gesellschaft, die Ausbildung entsprechender „epistemischer Kulturen“ und eines „kalkulierenden Selbst“, schließlich das wechselseitige Steigerungsverhältnis von Kalkulation und Organisation: das alles ist wichtig. Wir müssen darauf Acht geben, wenn wir wissen und wahren wollen, was wirklich zählt.

Einleitung: Fundstellen von Zahlenforschung

9

Einleitung: Fundstellen von Zahlenforschung

Andrea Mennicken und Hendrik Vollmer1 „Durch die ganze Geschichte des Westens haben wir traditionsgemäß und zu Recht die Schrift als Wiege der Zivilisation betrachtet und in unseren Literaturen ein Gütezeichen kultureller Leistung gesehen. Doch auf dem ganzen Wege hat uns der Schatten der Zahl begleitet. [...] Genau wie die Schrift eine Ausweitung und Trennung unseres neutralsten und objektivsten Sinnes ist, so ist die Zahl eine Ausweitung und Trennung unserer intimsten und am stärksten in gegenseitiger Beziehung stehenden Tätigkeit, nämlich unseres Tastsinns.“ (McLuhan 1992: 129)

Zahlen und Rechenpraktiken sind in der Gegenwartsgesellschaft, ihren Organisationen, ihren Alltagswelten, in Wirtschaft, Politik, Massenmedien, Erziehung und Wissenschaft allgegenwärtig. Jeden Tag werden wir mit Zahlen, z. B. in der Form von Prognosen, Preisen, Risikobewertungen, Kostennutzenanalysen, Schulnoten, Bilanzen, Sportergebnissen und Tabellen oder innerbetrieblichen Kennzahlen konfrontiert. Privates und öffentliches Zusammenleben vollzieht sich in numerisierten Umwelten (Rose 1991). Gleichwohl findet man in den Sozialwissenschaften kaum systematisches Interesse daran, ob und inwiefern die massenhafte Mobilisierung von Zahlen, Messungen und Kalkulationen die Aufrechterhaltung sozialer Ordnung beeinträchtigt, abstützt oder unterläuft. Auch die Diskussion über organisiertes Rechnen, die im englischsprachigen Raum seit geraumer Zeit unter dem Oberbegriff des „Accounting“ geführt wird (z. B. Hopwood/Miller 1994; Vollmer 2003a), ist weitgehend auf Spezialistenkreise beschränkt geblieben. Der vorliegende Band möchte dazu beitragen, diese Randständigkeit sozialwissenschaftlicher Zahlenforschung zu überwinden und ihr Erkenntnispotential in einem breiten Spektrum an Fragen zu den Voraussetzungen, Folgen und Problemen des Umgangs mit Zahlen und Rechenwerken in Organisationen, Wirtschaft und Gesellschaft verorten: Welche Rolle spielen Zahlen und Rechenprozesse in gegenwärtigen Ordnungsregimen? Wie greifen sie in die Gestaltung sozialer Beziehungen in, zwischen und über Organisationen hinaus ein? Inwiefern vermitteln sie zwischen Organisationen und Gesellschaft, stabilisieren, transformieren und regulieren Organisationen und Organisationsfelder, bis hin zu weltgesellschaftlichen Gefügen? Die Beiträge des Bandes dokumentieren eine allmählich erwachende sozialwissenschaftliche Aufmerksamkeit für das Thema der „Macht der Zahlen“ in unserer Gesellschaft (Vormbusch 2004; Wagner 2005). Sie bedienen sich verschiedener theoretischer wie auch methodischer Ansätze und Konzepte und testen dabei Schnittstellen zwischen Soziologie und Betriebswirtschaftslehre, organisations- und gesellschaftstheoretischen sowie kulturwissenschaftlichen Ansätzen. Keineswegs verfolgen die Autorinnen und Autoren hierbei ein einheitliches Forschungsprogramm. Alle teilen jedoch die Ansicht, dass Zahlen und 1

An dieser Stelle möchten wir uns bei Susan Geideck bedanken, die die Idee zu diesem Band mitentwickelt hat. Ohne ihre Initiative und ihren Einsatz in der Anfangsphase wäre das Buch wahrscheinlich nicht entstanden.

10

Andrea Mennicken und Hendrik Vollmer

Zahlenwerke mehr als einer Erfassung von Tatsachen, mehr als einer neutralen, objektiven Wiedergabe ökonomischer und gesellschaftlicher Sachverhalte dienen. Durchgängig heben die Beiträge konstruktive, wirklichkeitsgenerierende Effekte des Gebrauchs von Zahlen und Rechenverfahren hervor. Sie demonstrieren: Der Wirkungsbereich von Zahlen geht weit über eine Repräsentation und Symbolisierung von Werteinschätzungen hinaus. Zahlen greifen substanziell in die Reproduktion sozialer Ordnung ein. Verfahren und Methoden der Kalkulation bringen neue ökonomische und regulatorische Objekte hervor, wie die Beiträge von Kalthoff, Preda, Power sowie Messner, Scheytt und Albrecht im vorliegenden Band besonders deutlich machen. Zahlen und Rechenapparaturen fungieren als Scharniere, die politische Programmatiken, individuelle und organisationsspezifische Handlungsmotive miteinander verknüpfen und transformieren (Miller, Schmidt, Vormbusch, Pelzer). Sie produzieren neue Evaluations- und Vergleichsräume, Kommunikationsmöglichkeiten und Differenzierungsmuster (Heintz, Werron, Mennicken und Heßling). Gleichzeitig sind Zahlen und Rechenwerke sozial eingebettet und angewiesen auf ein Netzwerk an sozialen Vorkehrungen, Konventionen, Regeln und Definitionen, sei es in und zwischen Organisationen (Kühl), in Organisationsfeldern (Power) auf zwischenstaatlicher (Pelzer, Preda) oder globaler Ebene (Mennicken und Heßling). Trotz aller Unterschiedlichkeit in der Herangehensweise erscheint Zahlengebrauch also durchgängig als mehr als nur eine arithmetische Operation. Nun geht es den Autorinnen und Autoren nicht darum, diesen Tatbestand zu skandalisieren. Weder finden sich hier Versuche einer Denunzierung ‚ungenauer’, ‚falscher’ oder ‚nicht-objektiver’ Zahlen, noch sind die Beiträge auf der Suche nach normativen Bemessungsgrundlagen für Sinn und Zweck des Messens, Zählens, Kalkulierens. In erster Linie bemühen sie sich um ein besseres, breiteres und wirklichkeitsnäheres Verständnis des Umgangs mit Zahlen, also darum, die soziale Beschaffenheit von Zahlenwerken in ihren Bedingungen, Möglichkeiten, Grenzen und Konfliktstellen im Kontext von Organisationen und Gesellschaft zu erkunden. Es geht um den sozialen Zusammenhang, die soziale Einbettung und Verflechtung des Zahlengebrauchs, von Messen zu Managen, Rechnen zu Regieren oder Kalkulieren zu Konstruieren; nicht darum, derlei Zusammenhänge kontrafaktisch abzuschütteln, sondern darum, sie zunächst einmal in ihrer sozialen Tragweite zu verstehen. Mit seinen Beiträgen stellt der vorliegende Band wesentliche Aktivposten gegenwärtiger Zahlenforschung erstmalig in einem gemeinsamen Rahmen vor. In dieser Hinsicht möchte er als Materialsammlung dienen und zur Entstehung eines gemeinsamen, transdisziplinären Feldes beitragen, das die unterschiedlichen Interessen und Ansätze nicht nur seiner Autorinnen und Autoren zusammenführt, sondern auch, so hoffen wir, seine Leserinnen und Leser zu weiterer Erkundung einlädt. Hierfür importiert der Band eine Reihe von Forschungsansätzen aus dem englischsprachigen Raum, deren Resonanz in Deutschland bis heute ausgesprochen bescheiden blieb. Doch auch im internationalen Fachdiskurs gab es bislang erstaunlich wenig Brückenschläge zwischen Arbeiten aus dem Bereich der „critical accounting studies“ (z. B. Hopwood/Miller 1994; Miller/Rose 1990; Power 1997, 2004) und solchen der „social studies of finance“ (z.B. Callon/Muniesa 2005; Knorr Cetina/Preda 2005; MacKenzie/Millo 2003), den vielleicht produktivsten Aktivposten zeitgenössischer Zahlenforschung. Beide haben je für sich nahezu das Niveau einer Schulenbildung erreicht. Mit welcher Erkenntnisrendite? Wie Miller in seinem Beitrag zu Beginn des Bandes aufzeigt, hat sich die Schule der soziologisch orientierten „critical accounting studies“ seit Anfang der achtziger Jahre vor-

Einleitung: Fundstellen von Zahlenforschung

11

wiegend im angelsächsischen Raum herausgebildet. Die soziologisch orientierte Accounting-Forschung hat sich seitdem sowohl mit der Frage nach der Einbindung von Praktiken der Rechnungslegung, des Controlling, Performance Managements und anderen Formen organisierten Rechnens in soziale, organisationale und gesellschaftliche Zusammenhänge, als auch mit der Auswirkung jener kalkulativer Praktiken auf die Organisation von Wirtschaft und Gesellschaft befasst. Sie hat die Bedeutung von Accounting-Praktiken im Hinblick auf die Sichtbarmachung ökonomischer Größen, die Hervorbringung bestimmter Muster des Managements sowie die Erzeugung von Machtstrukturen thematisiert. Wie Miller verdeutlicht, knüpft das Forschungsfeld der „critical accounting studies“ hierbei an verschiedene, zum Teil konfligierende soziologische Theorieströmungen und organisationstheoretische Ansätze an. Hierzu zählen etwa Neoinstitutionalismus, Praxistheorien, die Ethnomethodologie, Ansätze aus der Politischen Ökonomie, marxistische Theorien sowie an Foucault orientierte Ansätze. Trotzdem hat sich die soziologisch orientierte AccountingForschung interessanterweise außerhalb der Disziplin der Soziologie entwickeln und etablieren müssen. Obwohl das frühe soziologische Interesse an Zahlenforschung unter anderem bei Max Weber (1980: 45ff.), einem der Gründungsväter der Soziologie, eine zentrale Stellung einnahm, wurde dieses Interesse, wie Miller feststellt, bereits wenig später innerhalb der Disziplin der Soziologie weitgehend vergessen. Dabei hatte neben Weber auch sein Zeitgenosse Werner Sombart in der doppelten Buchführung viel mehr als eine Technik rationalen Wirtschaftens erkannt. „Ohne doppelte Buchführung, so Sombart, kein Kapitalismus“, rekapituliert der Beitrag von Vormbusch, um danach einen erweiterten Begriff der ‚Soziokalkulation’ zu entwickeln, der in gewisser Weise den Sombartschen Diffusionsgedanken generalisiert: „Weder die Funktionalität noch die Kulturbedeutung von Soziokalkulation als Steuerungstypus ist noch an ökonomische Zusammenhänge im engeren Sinne gebunden“ (Vormbusch). Aus dieser Perspektive sollte die wachsende gesellschaftliche Bedeutung von ‚Accounting’, accounting-ähnlichen und accounting-geleiteten Praktiken (Controlling, Evaluation, Budgetierung, Benchmarking, Ergebnissteuerung usw.) Grund genug sein, einen Teil der in Accounting Departments und Management Schools exportierten Zahlensoziologie zu re-importieren. Im Gegensatz zu den „critical studies of accounting“ entwickelte sich das jüngere Feld der „social studies of finance“ weitestgehend innerhalb der Disziplinen von Soziologie und Anthropologie. Unter der Anwendung von Methoden und Theorien der „science and technology studies“ sind hier seit Mitte der neunziger Jahre Finanzmärkte bzw. deren Institutionen, Instrumente und Akteure untersucht worden. Der Beitrag Kalthoffs demonstriert die hierbei federführenden empirischen Forschungsinteressen. Diese haben sich beispielsweise auf Transaktionspraktiken von Wertpapierhändlern (Knorr Cetina/Brügger 2002), die räumliche Organisation von Trading Rooms (Buenza/Stark 2004) oder Aushandlungsprozesse im Direktorium der US-amerikanischen Notenbank gerichtet (Abolafia 2004).2 Das Augenmerk finanzsoziologischer Forschung liegt so einerseits auf lokal situierten Praktiken, in die ökonomisches Handeln eingebettet ist, andererseits auf der konstitutiven Bedeutung bzw. „Performativität“ (MacKenzie/Millo 2003) ökonomischer Darstellungen (Graphiken, Formeln, Rechenmodelle), die ökonomisches Handeln rahmen und gestalten oder, wie Callon (1998) es nennt, „formatieren“. Der Beitrag von Preda greift diese Erkenntnismotive auf: Vor dem Hintergrund der sozialen Einbettung der Entwicklung und Anwendung der Euro2

Vgl. dazu auch den Sammelband von Knorr Cetina und Preda (2005) für ein Spektrum aktueller Beiträge.

12

Andrea Mennicken und Hendrik Vollmer

Umstellungsformel, so Preda, „gab es für den Euro keine andere Wahl, als Bolschewik zu sein“. Accounting-Forschung und Finanzsoziologie bilden zusammengenommen einen thematischen Schwerpunkt sozialwissenschaftlicher Zahlenforschung, dem sich die vorliegende Sammlung, auch wenn sie sich um eine möglichst breite Aufstellung ihres Interesses an Zahlenforschung bemüht, also nicht ganz entziehen kann. Bis heute liegt das Gravitationszentrum sozialwissenschaftlicher Zahlenforschung überwiegend im Bereich des organisierten Rechnens mit Finanzzahlen, also dort, wo schon das frühe soziologische Interesse an Zahlenforschung bei Weber und Sombart seinen Platz hatte. Doch in vieler Hinsicht haben sich insbesondere die selbst nun schon traditionsreichen „critical accounting studies“ bereits um eine breitere Einbettung ihrer Forschungsinteressen bemüht. Hierfür stehen insbesondere ihre von Foucault inspirierten Arbeiten. Vor allem in Foucaults posthum veröffentlichten Vorlesungen über die „Gouvernementalität“ (Foucault 2000, 2004), die in Großbritannien ein gutes Jahrzehnt früher rezipiert wurden als im deutschsprachigen Raum (Burchell et al. 1991), spielt die Statistik eine maßgebliche Rolle bei der Transformation bürokratischer Herrschaftsapparate in wissenshungrige Abwickler periodisch wechselnder Regierungsprogramme. Nun ist ‚statistisches Denken’ für sich genommen seit geraumer Zeit bereits Thema sozialwissenschaftlicher Forschung gewesen (z. B. Porter 1986; Hacking 1990), wohl nicht zuletzt, weil es die Soziologie selbst so direkt betrifft – angefangen bei Durkheims Auseinandersetzung mit Selbstmordraten (Durkheim 1983; vgl. Vanderstraeten 2006). Der Aufstieg der Statistik ist eng verbunden sowohl mit dem Aufbau bürokratischer Herrschaftsapparate (Spittler 1980; Woolf 1989), als auch mit der wechselhaften Geschichte ihrer Regierungs- und Regulierungsprogramme (Hacking 1982, 1991; Desrosières 1998; Keller 2001). Sie ist von sozialen Interessen durchzogen (MacKenzie 1978), eingebunden in eine gemeinsame Matrix von Programmen und Technologien des Regierens – und genau das verbindet sie mit einem breiten Spektrum zeitgenössischer Accounting-Praktiken (vgl. Rose/Miller 1992). Zahlen machen dabei nicht nur gesellschaftliche Wirklichkeiten, Bevölkerungsgruppen, Populationsgrößen, Selbstmordraten, Arbeitslosenzahlen usw. zugänglich für politische Interventionen, sondern erfassen und adressieren zudem den Einzelnen, seine Leistungen, seine Karriere, wenn nicht sein Leben per se. Nicht alleine die Entfaltung von Gouvernementalität, sondern auch das Streben nach Disziplinierung (im Sinne von Foucault 1977) begleitet die historische Verbreitung von Accounting-Praktiken (Roberts/Scapens 1990; Hoskin/Macve 1994). Der Beitrag von Schmidt im vorliegenden Band spürt einem Disziplinierungsimpuls nach, der nicht in erster Linie auf die Herrschaftsbürokratie, sondern auf die Alltagswelt des Einzelnen zielt. Die Führung von Haushaltsbüchern soll die ökonomische Selbstregulierung der Haushaltsbewohner an die Stelle disziplinierender Interventionen des Staates setzen. Schmidt zeichnet diesen Diskurs nach, nicht ohne den in beunruhigender Weise kontinuierlichen Beitrag der Soziologie bis in die Gegenwart zu verfolgen. An der Ausbreitung von Soziokalkulation, so könnte man mit Vormbusch reformulieren, ist die Soziologie alles andere als unbeteiligt. Neben ihrer intensiven Foucault-Lektüre hat die Accounting-Forschung seit den neunziger Jahren eine Reihe von Ansätzen aus der Wissenschaftssoziologie rezipiert. Schließlich legt es die Allgegenwart von Mess- und Bewertungsapparaturen in Organisationen gerade in ihrer Kombination mit Programmen verwissenschaftlichter Betriebsführung nahe, die Fabrik als Laboratorium zu betrachten (Miller/O'Leary 1996). Als besonders einschlägig

Einleitung: Fundstellen von Zahlenforschung

13

für entsprechende Analysen hat sich die Actor-Network-Theory im Anschluss an Latour (1987) erwiesen. Gerade vor dem Hintergrund dieser Berührungspunkte fällt jedoch auf, wie wenig Korrespondenz die Accounting-Literatur bislang zur Soziologie der Mathematik als von jeher zentralem Bestandteil der neueren Wissenschaftssoziologie unterhalten hat. Mit der Formulierung ihres „strong programme“ hatte sich diese schließlich mit der Mathematik gezielt demjenigen Gegenstandsbereich zugewandt, von dem sie den heftigsten Widerstand gegen die soziologische Erklärung wissenschaftlichen Wissens erwartete (Bloor 1976, 1994). Heintz nimmt ihren Beitrag zum vorliegenden Band zum Anlass, wesentliche Erkenntnisse und Inspirationen in Augenschein zu nehmen, die sich einer breiter aufgestellten sozialwissenschaftlichen Zahlenforschung aus wissenschaftssoziologischer Perspektive anbieten lassen. Vor allem mahnt Heintz Differenzierungen an, die bislang weder in der zeitgenössischen Accounting-Forschung noch in der Finanzsoziologie hinreichend in Anschlag gebracht wurden: Quantifizierung ist nicht gleichzusetzen mit einer Durchsetzung von Mathematik; die Überzeugungskraft von Formeln ist eine andere als die Überzeugungskraft von Zahlen. Die Beiträge von Kalthoff und Preda zeigen, dass Verbindungen zur Wissenschaftssoziologie zum jetzigen Zeitpunkt in der Finanzsoziologie sicherlich etwas aktiver genutzt werden als in der Accounting-Forschung, was nicht zuletzt wohl den Überschneidungen im Forschungspersonal geschuldet ist. Es sind die grundlagenorientierten Fragestellungen, die hier aufgenommen werden – im Anschluss an Heidegger bei Kalthoff, im Anschluss an Wittgenstein und Austin bei Preda – die diesen Bereich zeitgenössischer Zahlenforschung so viel versprechend für eine Erweiterung ihrer Forschungsinteressen in neue Gegenstandsbereiche hinein erscheinen lassen (Vollmer 2003b: 16-18). Der Beitrag von Heintz und insbesondere die Kritik am Zahlenverständnis Porters (Porter 1995), die aus dieser Perspektive resultiert, illustriert auch, wie viel Arbeit zu leisten bleibt, um ein gleichzeitig allgemeines wie soziologisch differenziertes Verständnis des Umgangs mit Zahlen in Wissenschaft, Wirtschaft und anderswo zu entwickeln. Vielleicht findet sich dann die bedeutsamste Lücke im Gegenstandsbezug sozialwissenschaftlicher Zahlenforschung in einer bislang weitgehend fehlenden Alltagssoziologie des Zahlengebrauchs. Erste Schritte in diese Richtung lassen sich wiederum in der Finanzsoziologie durchaus ausmachen, etwa in ihrer Beschäftigung mit Laieninvestoren (Preda 2001). Auffällig ist hier, wie mit dem Börsenticker ein Medium der Zahlenpräsentation den vielleicht wesentlichsten Einstiegspunkt für die Inklusion von Publikum in die Interaktion auf Finanzmärkten markiert (Preda 2006; Stäheli 2004). Ohne Zweifel sind weitere Studien zum Umgang mit Finanzzahlen im Alltag wünschenswert, schließlich ist schon der Gebrauch einfacher Arithmetik kaum unter Absehen ihrer Verwendungskontexte soziologisch zu dechiffrieren (so schon Wittgenstein 1974; vgl. Lave 1986). Doch der Zahlengebrauch im Alltag begrenzt sich keineswegs auf Finanzzahlen, und der Beitrag von Werron nimmt einen ganz anderen Bereich gesellschaftlicher Aktivität und Aufmerksamkeit unter die Lupe: den Sport. Zahlen, Verfahren der Leistungsmessung und -bewertung, so Werron, binden nicht nur die Aufmerksamkeit eines Publikums, sondern leisten auch einen gewichtigen Beitrag zur Ausdifferenzierung des Sports und seiner Sportarten. Das Eigentümliche am modernen Sport besteht in der Einbettung lokaler Ereignisse in umspannende Vergleichszusammenhänge, in Tabellen und Rekordbücher, Individual- oder Vereinsstatistiken. Das situative Erleben (Mitfiebern, Wetten auf usw.) einzelner Wettkampfereignisse

14

Andrea Mennicken und Hendrik Vollmer

findet vor der Präsenz eines größeren (nationalen, globalen) Wettkampfgeschehens statt, in das es sich anhand von Zahlen einordnet. Wenn sich in dieser Einbettung einzelner Situationen in situationsübergreifende soziale Ordnungen, Organisationen, Organisationsfelder oder (Welt-)Gesellschaft ein besonders einschlägiger sozialer Effekt des Umgangs mit Zahlen beobachten lässt, dann ist der Blick in die Gegenrichtung – von der Alltagswelt über Organisationen in Richtung Weltgesellschaft wenigstens ebenso lohnenswert. Wenn die Vergleichbarkeit von Zahlen ein entscheidendes Scharnier der Einbettung von Situationen und Organisationen in übergreifende, tendenziell globale gesellschaftliche Ordnungen darstellt, rückt damit beinahe zwangsläufig das Problem der Standardsetzung ins Blickfeld (Brunsson/Jacobsson 2000; Loya/Boli 1999; Mennicken 2006). Diesem Problem widmet sich der Beitrag von Mennicken und Heßling anhand desjenigen Bereichs gesellschaftlichen Zusammenlebens, in dem mit zunehmender Globalisierung auch Prozesse der Standardsetzung für die Erzeugung und Zirkulation von Zahlen außerordentlich weit vorangeschritten ist: der Wirtschaft. Hier zeigen sich wie kaum anderswo Formen einer globalen Regulierung der Zahlenproduktion, einer Regulierung, die in erster Linie nicht von staatlichen oder zwischenstaatlichen Institutionen, sondern in großen Teilen von privaten Autoritäten getragen und durchgesetzt wird. Mennicken und Heßling hinterfragen die Funktionalität globaler Wirtschafts- und Rechnungslegungsstandards und betonen die Fragilität der Fiktion von Vergleichbarkeit, die den Standards so oft zugrunde gelegt wird. Sie zeigen, dass die Standards ein Streitobjekt konstituieren, in das verschiedene Vorstellungen von Unternehmenskalkulation und -repräsentation hineinprojiziert werden, und untersuchen unterschiedliche Vorstellungen darüber, was ein Standard ist und leisten soll, bzw. inwieweit er regulierend in Praktiken der Unternehmenskalkulation einzugreifen habe. Wir befinden uns damit erneut im Gravitationszentrum sozialwissenschaftlicher Zahlenforschung. Das Regelwerk von Basel II ist für zwei weitere Beiträge dieses Bandes der Anlass, einem konkreten und besonders komplexen Versuch programmgesteuerter Regulierung von Organisationen und Organisationsfeldern – hier: von Banken – im Kontext des globalen Finanzsystems auf die Spur zu kommen. Die Beiträge von Pelzer und Power zeichnen nach, in welch komplexer Weise Mess- und Rechenverfahren in die Baseler Regulierungsanstrengung und ihre Aufnahme durch Organisationen verflochten sind. „Regulierung als Stück auf der Bühne, Aufsicht als Autoren und Schiedsrichter in einem, und all das auf dem turbulenten Markt mit einer eingebauten Neigung zur Übertreibung und dazu eine übertrieben erscheinende Quantifizierung“, so formuliert Pelzer seinen Eindruck. Die Komplexität dieser Konstellation, so Pelzer, ist auch eine Spiegelung der Komplexität der Regulierungsbedingungen im globalen Finanzsystem. Der Beitrag von Power konzentriert sich demgegenüber auf die Konzeption operativer Risiken, die Basel II in Geltung zu setzen versucht. Power zeichnet den Siegeszug operativer Risiken hin zu ihrer Institutionalisierung als Schlüsselkomponente globaler Bankenregulierung nach. Erfolgreich in diesem Sinne sind operative Risiken jedoch nicht, weil sie ein robustes und wohldefiniertes Kontrollinstrument darstellen, sondern weil sie als formbares „boundary object“ fungieren, das die Interessen unterschiedlicher Zahlenexperten mit ihren je spezifischen Kalkulationsphilosophien in seinen Bann zieht. An einem ganz anderen Bereich, der Entwicklungshilfe, zeigt der Beitrag von Kühl eine ähnliche Verflechtung von Zahlenproduktion und Zahlentausch in Aushandlungsprozesse nicht nur in, sondern auch zwischen Organisationen auf. Das Zurückgreifen auf Zahlen

Einleitung: Fundstellen von Zahlenforschung

15

und Kennziffern, so Kühl, führt keineswegs zu einer Reduktion von Verhandlungskonstellationen auf ‚Zählbares’, sondern eher zu einer Verkomplizierung von Machtspielen, die ihren Teilnehmern gleichzeitig auch eine Fortsetzung bestehender Kooperationsbeziehungen erlaubt. Der Austausch von Zahlen verändert Mikropolitik, aber ersetzt sie nicht. Das gilt auch für einen Kernbereich organisierten Rechnens, der im deutschsprachigen Raum wie kein anderer für die voranschreitende Bindung organisierter Sozialordnungen an die Produktion und Wiederverwertung von Zahlen steht: das Controlling. Der Beitrag von Messner, Scheytt und Becker demonstriert, dass sich auch das Controlling keineswegs als ein durch Messen, Rechnen und Kalkulieren sterilisiertes Organisationsinstrument begreifen lässt. Schon die Trennung zwischen Controlling und Management, die solch einem Verständnis vorauszusetzen wäre, erweist sich für Messner, Scheytt und Becker als nicht tragfähig. Wenn die Autoren dann fragen, welche Folgen aus der steigenden Bedeutung des Controlling für das Managements selbst, für seinen Charakter und seine Handlungsmöglichkeiten resultieren, zeigt sich einmal mehr: Die Expansion organisierten Rechnens verändert nicht nur das, was Organisationen gegenwärtig ausmacht, sondern auch das, was sie in Zukunft sein können. „Management, das als Makler von Zahlen zwischen Organisation und Gesellschaft wirkt, und der Ort ist, an dem Zahlen auch in gesellschaftlich relevante Entscheidungen umgesetzt werden, müsste als gesellschaftlich bedeutsame Praxis beschrieben werden“, so Messner, Scheytt und Becker in ihrem Fazit. Vielleicht deutet sich hier ein wesentlicher Schlüssel für den weiteren Ausbau der Programme sozialwissenschaftlicher Zahlenforschung und gleichzeitig einer der Gründe ihrer fortgesetzten Faszination für die organisierten Bereiche gesellschaftlichen Zahlengebrauchs an. Organisiertes Rechnen transformiert organisierte Sozialordnungen (Vollmer 2004), und in der Organisationsgesellschaft heißt dies in besonderer Weise: Organisiertes Rechnen verändert Gesellschaft. Vielleicht hat die Allgegenwart der Zahlen selbst dort, wo es (noch?) nicht in erster Linie um Investition und Rendite geht, auch etwas damit zu tun, dass sich gesellschaftsweit eine generalisierte Idee von Organisierbarkeit verbreitet, die in der modernen Vorstellung von Management einen privilegierten Ausdruck findet. Auch wenn die Rhetorik in Politik, Wirtschaft und Wissenschaft in der Regel für sich in Anspruch nimmt, ihre Organisationen (Behörden, Unternehmen, Universitäten usw.) durch Zahlen gesellschaftlicher Kontrolle und Steuerung zugänglich machen zu wollen, vermag die Pointe der massenhaften Verbreitung von Zahlen, Messungen und Kalkulationen dann womöglich nur zu erkennen, wer in die Gegenrichtung blickt: Vor Organisationen, die sich über Zahlen Zugang verschaffen, ist gesellschaftliche Ordnung, egal wo, niemals sicher. Die Beiträge des Bandes zeigen, dass dieser Umstand keineswegs aus einer dem Sozialen enthobenen Neutralität des Zahlengebrauchs resultiert, sondern aus seiner Verflochtenheit in vielschichtige Dynamiken des Erlebens und Handelns in der Organisationsgesellschaft erwächst. Literatur Bloor, D. (1976): Knowledge and Social Imagery. London: Routledge and Kegan Paul. Bloor, D. (1994): What Can the Sociologist of Knowledge Say About 2+2=4? In: Ernest, P. (Hg.): Mathematics, Education and Philosophy: An International Perspective. London: Falmer, S. 21-32. Brunsson, N./Jacobsson, B. (2000): A World of Standards. Oxford: Oxford University Press.

16

Andrea Mennicken und Hendrik Vollmer

Burchell, G./Gordon, C./Miller, P. (Hg.) (1991): The Foucault Effect: Studies in Governmentality. Chicago: University of Chicago Press. Callon, M./Muniesa, F. (2005): Peripheral Vision: Economic Markets as Calculative Collective Devices. In: Organization Studies 26, S. 1229-1250. Desrosières, A. (1998): The Politics of Large Numbers: A History of Statistical Reasoning. Cambridge, Mass., und London: Harvard University Press. Durkheim, E. (1983): Der Selbstmord. Frankfurt/M.: Suhrkamp. Fligstein, N. (1987): The Intraorganizational Power Struggle: The Rise of Finance Personnel to Top Leadership in Large Corporations, 1919-1979. In: American Sociological Review 52, S. 44-58. Foucault, M. (1977): Überwachen und Strafen: Die Geburt des Gefängnisses. Frankfurt/M.: Suhrkamp. Foucault, M. (2000): Die Gouvernementalität. In: Bröckling, U./Krasmann, S./Lemke, T. (Hg.): Gouvernementalität der Gegenwart: Studien zur Ökonomisierung des Sozialen. Frankfurt/M.: Suhrkamp, S. 41-67. Foucault, M. (2004): Geschichte der Gouvernementalität. 2 Bände. Frankfurt/M.: Suhrkamp. Hacking, I. (1982): Biopower and the Avalanche of Printed Numbers. In: Humanities in Society 5, S. 279-295. Hacking, I. (1990): The Taming of Chance. Cambridge: Cambridge University Press. Hacking, I. (1991): How Should We Do the History of Statistics? In: Burchell, G./Gordon, C./Miller, P. (Hg.): The Foucault Effect: Studies in Governmentality. Chicago: University of Chicago Press, S. 181-195. Heintz, B. (2000a): Die Innenwelt der Mathematik: Zur Kultur und Praxis einer beweisenden Disziplin. Wien: Springer. Heintz, B. (2000b): ‚In der Mathematik ist ein Streit mit Sicherheit zu entscheiden’: Perspektiven einer Soziologie der Mathematik. In: Zeitschrift für Soziologie 29, S. 339-360. Hopwood, A.G./Miller, P. (Hg.) (1994): Accounting as Social and Institutional Practice. Cambridge: Cambridge University Press. Hoskin, K./Macve, R. (1994): Writing, Examining, Disciplining: The Genesis of Accounting's Modern Power. In: Hopwood, A. G./Miller, P. (Hg.): Accounting as Social and Institutional Practice. Cambridge: Cambridge University Press, S. 67-97. Keller, F. (2001): Archäologie der Meinungsforschung: Mathematik und die Erzählbarkeit des Politischen. Konstanz: UVK. Knorr Cetina, K./Bruegger, U. (2002): Global Microstructures: The Virtual Societies of Financial Markets. In: American Journal of Sociology 107, S. 905-951. Knorr Cetina, K./Preda, A. (2005): The Sociology of Financial Markets. Oxford: Oxford University Press. Latour, B. (1987): Science in Action: How to Follow Scientists and Engineers through Society. Cambridge, Mass.: Harvard University Press. Lave, J. (1986): The Values of Quantification. In: Law, J. (Hg.): Power, Action and Belief: A New Sociology of Knowledge. London: Routledge and Kegan Paul, S. 88-111. Loya, T.A./Boli, J. (1999): Standardization in the World Polity: Technical Rationality Over Power. In: Boli, J./Thomas, G.M. (Hg.): Constructing World Culture: International Nongovernmental Organizations since 1875. Stanford: Stanford University Press, S. 169-197. MacKenzie, D. (1978): Statistical Theory and Social Interests: A Case Study. In: Social Studies of Science 8, S. 35-83. MacKenzie, D./Millo, Y. (2003): Constructing a Market, Performing Theory: The Historical Sociology of a Financial Derivatives Exchange. In: American Journal of Sociology 109, S. 107-145. McLuhan, M. (1992): Die magischen Kanäle: „Understanding Media“. Düsseldorf/Wien: ECON. Mennicken, A. (2006): Translation and Standardization: Audit World-Building in Post-Soviet Russia. CARR Discussion Paper No. 36. London: The Centre for Analysis of Risk and Regulation. Miller, P./O'Leary, T. (1996): The Factory as Laboratory. In: Power, M. (Hg.): Accounting and Science: Natural Inquiry and Commercial Reason. Cambridge: Cambridge University Press, S. 120-150.

Einleitung: Fundstellen von Zahlenforschung

17

Miller, P./Rose, N. (1990): Governing Economic Life. In: Economy and Society 19, S. 1-31. Porter, T.M. (1986): The Rise of Statistical Thinking, 1820-1900. Princeton: Princeton University Press. Porter, T.M. (1995): Trust in Numbers: The Pursuit of Objectivity in Science and Public Life. Princeton: Princeton University Press. Power, M. (2004): Counting, Control and Calculation: Reflections on Measuring and Management. In: Human Relations 57, S. 765-783. Power, M. (1997): The Audit Society: Rituals of Verification. Oxford: Oxford University Press. Preda, A. (2001): The Rise of the Popular Investor: Financial Knowledge and Investing in England and France, 1840-1880. In: Sociological Quarterly 42, S. 205-232. Preda, A. (2006): Socio-Technical Agency in Financial Markets: The Case of the Stock Ticker. In: Social Studies of Science 36, S. 753-782. Roberts, J./Scapens, R.W. (1990): Accounting As Discipline. In: Cooper, D./Hopper, T.M. (Hg.): Critical Accounts. London: Macmillan, S. 107-125. Rose, N. (1991): Governing By Numbers: Figuring Out Democracy. In: Accounting, Organizations and Society 16, S. 673-692. Rose, N./Miller, P. (1992): Political Power Beyond the State: Problematics of Government. In: British Journal of Sociology 43, S. 173-205. Spittler, G. (1980): Abstraktes Wissen als Herrschaftsbasis: Zur Entstehungsgeschichte bürokratischer Herrschaft im Bauernstaat Preußen. In: Kölner Zeitschrift für Soziologie und Sozialpsychologie 32, S. 574-604. Stäheli, U.: 2004: Im Takt der Börse. Inklusionseffekte von Verbreitungsmedien am Beispiel des Börsentickers. In: Zeitschrift für Soziologie 33, S. 245-263. Strange, S. (1997): Casino Capitalism. Manchester/New York: Manchester University Press. Vanderstraeten, R. (2006): Soziale Beobachtungsraster: Eine wissenssoziologische Analyse statistischer Klassifikationsschemata. In: Zeitschrift für Soziologie 35, S. 193-211. Vollmer, H. (2003a): Bookkeeping, Accounting, Calculative Practice: The Sociological Suspense of Calculation. In: Critical Perspectives on Accounting 14, S. 353-381. Vollmer, H. (2003b): Grundthesen und Forschungsperspektiven einer Soziologie des Rechnens. In: Sociologia Internationalis 41, S. 1-23. Vollmer, H. (2004): Folgen und Funktionen organisierten Rechnens. In: Zeitschrift für Soziologie 33, S. 450-470. Vormbusch, U. (2004): Accounting: Die Macht der Zahlen im gegenwärtigen Kapitalismus. In: Berliner Journal für Soziologie 14, S. 33-50. Wagner, H. (2005): Die ‚Macht der Zahlen’: Neue Steuerung im Betrieb. In: dies. (Hg.): ‚Rentier’ ich mich noch?’ Neue Steuerungskonzepte im Betrieb. Hamburg: VSA, S. 9-22. Weber, M. (1980): Wirtschaft und Gesellschaft. Tübingen: Mohr. Wittgenstein, L. (1974): Bemerkungen über die Grundlagen der Mathematik. Frankfurt/M.: Suhrkamp. Woolf, S. (1989): Statistics and the State. In: Comparative Studies in Society and History 31, S. 588604.

Wie und warum das Rechnungswesen in der Soziologie in Vergessenheit geriet

19

Wie und warum das Rechnungswesen in der Soziologie in Vergessenheit geriet1

Peter Miller Die meisten Experten stehen ihrer Vergangenheit entweder gleichgültig gegenüber, oder sie bereitet ihnen Unbehagen. Ob dies mit schlechtem Gewissen zu erklären ist, was dazu führt, dass Kommentare von außen häufig als Kritik aufgenommen werden, oder aber durch Fortschrittsglauben, welcher frühere Wissensstadien irrelevant erscheinen lässt, ist an dieser Stelle weit weniger wichtig als das Ergebnis dieses Umstandes. Im Falle des Rechnungswesens hat dies dazu geführt, dass heute eine Soziologie der Rechnungslegung und ihrer kalkulativen Praktiken lediglich in unausgereifter Form existiert. Es wäre falsch, dafür in erster Linie oder gar ausschließlich die Experten zur Verantwortung zu ziehen, sehen diese doch meist keinen oder nur einen geringen Nutzen in einem erhöhten Selbstverständnis ihrer Praxis. Die Ursache dafür ist woanders zu suchen, nämlich bei derjenigen Wissenschaftsdisziplin, die es bislang versäumt hat, sich einem der wichtigsten Phänomene des zwanzigsten Jahrhunderts – dem Zuwachs der Vielfalt an Formen ökonomischer Kalkulation, die weitläufig unter dem Begriff des Accounting zusammengefasst werden können – entsprechend gründlich zu widmen. Es scheint, als habe sich die Soziologie zu sehr beeindrucken lassen von Wirtschaft und Wirtschaftswissenschaften, als habe sie zu lange deren Elemente als gegeben, objektiv und unantastbar angenommen und sich verunsichern lassen von einem Territorium, das dicht bestückt ist mit augenscheinlich hochkomplexen Techniken und Instrumentarien. Zu sehr vereinnahmen lassen hat sich die Soziologie zudem von Professionen wie Medizin oder Recht, sich dementsprechend verachtungsvoll gegenüber der Rechnungslegung verhalten und dieser nicht die Beachtung geschenkt, die ihr eigentlich zukommen sollte. Außerdem scheinen Sozialwissenschaftler und soziale Regierungseinrichtungen es traditionell eher vorzuziehen, sich mit dem Leben der Armen, Kranken, Verrückten, Abweichler und Ausgeschlossenen zu befassen, anstatt sich mit den kalkulierenden Maschinen auseinanderzusetzen, die den gegenwärtigen Kapitalismus gestalten und verkörpern. Die Vernachlässigung des Rechnungswesens in der Soziologie ist umso merkwürdiger, als es gerade die Soziologie war, die zu Beginn ihrer Entstehung dem Rechnungswesen eine zentrale Rolle in Wirtschaft und Gesellschaft zugewiesen hat. In den Schriften Max Webers wird die Kapitalrechnung als das Herzstück ‚rationaler’ kapitalistisch-ökonomischer Aktivitäten betrachtet, während in den Werken von Karl Marx dem Rechnungswesen eine wichtige Bedeutung für die Entwicklung und Reproduktion kapitalistischer sozialer Beziehungen 1

Anmerkung der Übersetzerin: Dieser Artikel wurde aus dem Englischen übersetzt. Im englischen Original lautet der Titel: How and Why Sociology Forgot Accounting. In der deutschen Überschrift wurde der Begriff des „Accounting“ mit dem des „Rechnungswesens“ übersetzt. Der englische Begriff des „Accounting“ umfasst allerdings nicht nur Praktiken der Rechnungslegung und Buchführung, sondern ebenfalls kalkulative Praktiken des Controlling und Performance Managements und ist dementsprechend weitergefasst als die deutschen Begriffe des Rechnungswesens und der Rechnungslegung.

20

Peter Miller

zugeschrieben wird. Gegen Ende des neunzehnten und zu Beginn des zwanzigsten Jahrhunderts spielten solch kühne Behauptungen eine zentrale Rolle in der sich entwickelnden soziologischen Vorstellungskraft. Jedoch folgte darauf für fast ein halbes Jahrhundert ein Schweigen der Soziologie, was umso überraschender ist in Anbetracht der Tatsache, dass innerhalb dieser Zeit Webers zentrale Schriften zum Thema des Rechnungswesens von Talcott Parsons, dem Begründer amerikanischer strukturfunktionalistischer Soziologie, ins Englische übersetzt wurden.2 Erst in den fünfziger Jahren wurde das Interesse der Sozialwissenschaftler am Thema ‚Accounting’ wieder wach. In den sechziger Jahren ist ein Aufkeimen verhaltenswissenschaftlicher Studien zu beobachten, die unter dem Begriff der „behavioural accounting studies“ zusammengefasst werden können. Diese Studien konzentrieren sich weitestgehend auf die Analyse organisationsinterner Prozesse und Probleme und sind theoretisch meist in sozialpsychologischen Ansätzen verankert. Erst 1976 bekam die soziologisch orientierte Accounting-Forschung eine Zeitschrift – Accounting, Organizations and Society. Und erst gegen Anfang der achtziger Jahre begann sich eine Forschungsrichtung herauszubilden, die sich ernsthaft mit dem Zusammenspiel von Formen des Kalkulierens und Prozessen gesellschaftlichen Organisierens auseinandersetzt. In den letzten zwei Jahrzehnten ist generell eine Wiederbelebung und Wiederbegründung der Ökonomie als Objekt soziologischen Interesses zu beobachten, und zwar diesseits und jenseits des Atlantiks (siehe z.B. Abolafia 1996; Amin/Thrift 2004; Callon 1998; DiMaggio 2001; Fligstein 1990, 2001; Granovetter 1985; Kalthoff 2005; Kalthoff et al. 2000; MacKenzie 1996, 2003, 2004; Miller 1994a; Smelser/Swedberg 2005). Aber trotz dieser durchaus ermutigenden Belebung soziologischen Interesses an Wirtschaft und Märkten haben Soziologen weiterhin den kalkulativen Praktiken des Rechnungswesens erstaunlich wenig Beachtung geschenkt. Am besten lässt sich dies vielleicht am Beispiel der kürzlich erschienenen und überarbeiteten zweiten Auflage des Handbook of Economic Sociology (Smelser/Swedberg 2005) aufzeigen. Obgleich das Handbuch von beeindruckendem Umfang und bemerkenswerter Vielfalt ist, kann man leicht beim Lesen des Buches den Eindruck gewinnen, dass sich Wirtschaft und Märkte lediglich aus Institutionen, Organisationen und Netzwerken zusammensetzen. Kalkulative Praktiken des Accounting scheinen in Bemühungen, ökonomische Prozesse zu visualisieren und kalkulier- und handhabbar zu machen, keine Rolle zu spielen.3 Wissenschaftler in Europa haben sich im Gegensatz zu ihren amerikanischen Kollegen diesem Thema mit mehr Aufmerksamkeit zugewandt. Dennoch wurden auch hier Praktiken ökonomischer Kalkulation eher undifferenziert betrachtet und kein direkter Bezug zu weitergehenden Fragen und insbesondere nicht zu Fragen der ‚Regierung’ ökonomischen Lebens hergestellt. In diesem Zusammenhang sind in erster Linie die Arbeiten Callons zu erwähnen mitsamt seines Aufrufs, endlich zu den Waffen zu greifen und die Wechselbezie2

3

Die protestantische Ethik und der Geist des Kapitalismus wurde 1904-5 als Zweiteiler zum ersten Mal in Deutsch veröffentlicht. 1930 wurde das Buch ins Englische übersetzt. The Theory of Social and Economic Organization, eine englische Übersetzung des ersten Teiles von Wirtschaft und Gesellschaft, wurde 1947 veröffentlicht. Interessant ist in diesem Zusammenhang, dass Karl Polanyis The Great Transformation 1944 auf Englisch erschien; ein Buch, das ebenfalls ausdrücklich auf die Notwendigkeit einer Soziologie des Marktes und des Finanzwesens hinweist. Im Index dieses Buches taucht noch nicht einmal ein Eintrag zum Begriff des „Accounting“ auf. Gleichwohl sollte darauf hingewiesen werden, dass der Beitrag von Carruthers in diesem Buch eine bemerkenswerte Ausnahme darstellt. Carruthers setzt sich mit Fragen des Messens auseinander und der Bedeutung des Rechnungswesens (Accounting) für die Quantifizierung ökonomischer Werte. Daneben zeigt er generelle Problemlagen der Quantifizierung auf.

Wie und warum das Rechnungswesen in der Soziologie in Vergessenheit geriet

21

hungen zwischen Wirtschaft und Wirtschaftswissenschaften näher zu untersuchen (Callon 1998), was einen positiven, wachrüttelnden Effekt hatte auf das, was im weitesteten Sinne unter Wirtschaftssoziologie verstanden werden kann. Diese ‚technologische Wende’ hat zwar dazu geführt, dass auf die materielle Verfasstheit von Kalkulation aufmerksam gemacht worden ist, aber nach wie vor fehlt eine dem entsprechende Hinwendung zu den ‚Programmatiken’ und ‚Ideen’, die bestimmte Arten und Weisen des Kalkulierens ausbilden, formulieren und platzieren helfen. Zeitweise schien sich sogar die Sicht verbreitet zu haben, als ob alle Formen ökonomischer Kalkulation von den Wirtschaftswissenschaften her abgeleitet bzw. diesen untergeordnet werden könnten.4 Wenn wir aber die konstitutiven Effekte der verschiedenen, vielgestaltigen Formen ökonomischer Kalkulation, die unser Leben beeinflussen, hinreichend verstehen wollen, benötigen wir einen differenzierteren Denkansatz. Zweifelsohne schließt dies ein Erforschen der Beziehungen zwischen Wirtschaft und Wirtschaftswissenschaften, ökonomischen Modellen und ökonomischem Leben mit ein (vgl. dazu auch Morrison/Morgan 1999). Ebenfalls zentral sind Untersuchungen über die Beziehungen zwischen Finanzinstitutionen und -theorien – ein Forschungsbereich, in dem gerade in letzter Zeit vielleicht einige der innovativsten wirtschaftssoziologischen Arbeiten hervorgebracht worden sind.5 Allerdings ist es ebenso wichtig, den konstitutiven Effekten und unterschiedlichen Charakteristika von Praktiken des Accounting Beachtung zu schenken. Denn diese ermöglichen es erst, dass Individuen, Organisationseinheiten sowie intra- und interorganisationale Beziehungen ökonomisch sichtbar und kalkulierbar gemacht werden können. Während einige dieser Accounting-Praktiken, wie z.B. die Renditeberechnung (return on investment) oder die Kapitalwertmethode (net present value) aus den Wirtschaftswissenschaften hervorgegangen sind, lassen sich andere Methoden wiederum, wie z.B. die Plankostenrechnung (standard costing) oder die Varianzanalyse (variance analysis) eher auf das Ingenieurwesen zurückführen (Miller 1998). Wirtschaftswissenschaften (Economics), Finanzwissenschaften (Finance) und Rechnungswesen (Accounting) weisen viele Gemeinsamkeiten auf, aber sie sollten nicht als eine Einheit behandelt werden, weder als eine Gruppe kalkulativer Praktiken noch als eine Anhäufung von Idiomen und diskursiven Repräsentationen. Alles in allem sollten Accounting-Praktiken als relativ eigenständige, jedoch nur temporär stabilisierbare, Ansammlung – „assemblage“ – von Instrumenten der Intervenierung betrachtet werden, deren Entstehung in mehreren, unterschiedlichen Bedingungen begründet liegt.6 Der folgende Beitrag befasst sich sowohl mit dem Wie, als auch mit dem Warum des oben geschilderten Falles institutioneller Amnesie, und verweist auf ihre geographisch jeweils unterschiedliche Ausprägung. Er skizziert ihre Konturen, liefert aber keine vollständige Darstellung. Die Frage des Wie erfordert vorwiegend deskriptive Darstellungsarbeit. Sie verlangt nach einem Umriss der seltsam punktuellen Geschichte der Soziologie 4 5

6

Vgl. dazu Barry und Slater (2002: 176): „Seen in these terms the concept of economics has to be understood broadly to include not just academic economic theory, but all the institutions, techniques and professional practices (such as accountancy and audit) that serve to make actions and objects calculable“. Die weitestgehend noch im Entstehen begriffene Finanzsoziologie bestätigt den verhältnismäßig eigentümlichen Charakter des Zusammenhanges von Finanzwissenschaft und Finanzpraxis (vgl. dazu Beunza/Stark 2004; Kalthoff 2005; Knorr Cetina/Bruegger 2002; Knorr Cetina/Preda 2005; MacKenzie 2003, 2004; MacKenzie/Millo 2003). Selbstverständlich ist jede „Assemblage“ leicht durchdringbar und geprägt durch mehr oder weniger dauerhafte Prozesse der „Hybridisierung“ (Miller et al. 2006).

22

Peter Miller

des Accounting und der Beachtung des Umstandes, dass das Rechnungswesen (Accounting) zu Beginn der Entwicklung der Soziologie im Zentrum ihrer Überlegungen stand, dann aber für ca. ein halbes Jahrhundert in Vergessenheit geriet.7 Als das Rechnungswesen (Accounting) in den fünfziger und sechziger Jahren als Untersuchungsgegenstand wiederbelebt wurde, war dies maßgeblich durch Forschungsgruppen geschehen, die sich zu dem Zeitpunkt mit internen Organisationsprozessen befassten, allerdings wenig für weitergehende soziologische Fragen interessierten. So hat die Wiederbelebung der Accounting-Forschung in den Nachkriegsjahren gerade wegen ihres starken Fokus auf die Gruppe und interne Organisationszusammenhänge dazu geführt, dass breiter angelegten soziologischen Fragestellungen zu Accounting-Praktiken Raum genommen wurde. Erst gegen Mitte der achtziger Jahre begann sich wieder ein stärkeres Interesse an Beitrag und Einfluss von Accounting-Praktiken auf die Regierung und Steuerung ökonomischen Lebens herauszubilden. Mit der Frage nach dem Warum begeben wir uns auf spekulativeres Gelände. Hier müssen wir sowohl nach Erklärungen für das lang andauernde Schweigen suchen, als auch nach den Bedingungen der Möglichkeit zu seiner Aufhebung fragen, wenngleich diese Momente der Aufhebung bislang nur auf einige wenige Forschungskreise beschränkt geblieben sind. Der Begriff der Praxis verschafft uns hier einen guten Ausgangspunkt, um beide Begebenheiten, wenn auch nicht vollständig, zu ergründen. Ebenfalls würde sich dazu natürlich auch ein Fokussieren auf Instrumente, Technologien oder Werkzeuge eignen. In unterschiedlichem Ausmaß und in unterschiedlicher Weise haben sowohl Weber als auch Marx es in ihren Schriften versäumt, sich mit der Vielfalt und den Funktionen kalkulativer Praktiken auseinanderzusetzen, die in ihrer Gesamtheit die Apparatur des Rechnungswesens ausmachen. Webers mehr oder weniger ausschließliche Konzentration auf die Rationalisierung der Lebensführung und die Rolle der doppelten Buchführung darin neigt dazu, andere wichtige kalkulative Praktiken des Accounting zu marginalisieren. Selbst Webers breites Verständnis von Rationalisierung scheint eher eine eindimensionale Auffassung über Beschaffenheit und Auswirkungen des Rechnungswesens nahe zu legen. Marx bietet ebenfalls keinen adäquaten Ansatz, der bei der Konzeptionalisierung unterschiedlicher Typen ökonomischer Kalkulation in kapitalistischen Unternehmungen helfen könnte, da er dem Accounting noch nicht einmal eine konstitutive Bedeutung für die Verkörperung und Darstellung von Wert zuspricht (Cutler et al. 1977, 1978). Obgleich dem Rechnungswesen (Accounting) in frühen soziologischen Studien viel Aufmerksamkeit geschenkt wurde, nahm es dennoch eine eher untergeordnete Rolle gegenüber anderen erforschten Phänomenen ein und wurde nicht als Ansammlung von Praktiken betrachtet, die sui generis als wichtiges Untersuchungsobjekt zu betrachten wären, nicht zuletzt wegen ihres großen Wirkungskreises in der Welt. Dem entgegengesetzt lässt sich die jüngst zu beobachtende Wiederentdeckung des Accounting in der Soziologie (wie sie sich auch im vorliegenden Band ausdrückt), zumindest mittelbar, unter anderem mit dem Auftrieb soziologischen Interesses am Begriff der Praxis und der Untersuchung von Praktiken erklären. In den letzten zwei Jahrzehnten haben wir ein starkes Anwachsen soziologischen Interesses an der Rolle von Instrumenten und Techniken der Kalkulation und Intervention beobachten können. Eine ganze Reihe von Studien, innerhalb von Soziologie, Geschichtswissenschaft und Wissenschaftsphilosophie, haben in diesem Zusammenhang die Wichtigkeit des Themas der Praxis hervorgehoben. Hacking (1983) zum Beispiel hat Wissenschaftler dazu angehalten, sich von den früher vorherr7

Vgl. dazu auch Vollmer (2003).

Wie und warum das Rechnungswesen in der Soziologie in Vergessenheit geriet

23

schenden Fragen nach Möglichkeiten und Problemen der Repräsentation wegzubewegen und sich mehr auf Experimente und Arten und Weisen des Intervenierens zu konzentrieren. Der Begriff der „mediating machines“ (Wise 1988) hat dazu beigetragen, die Aufmerksamkeit darauf zu lenken wie Maschinen gleichzeitig physikalische und gesellschaftliche Ideen in sich vereinen und praktisch einzubetten vermögen. Naturwissenschaft wird als „Praxis“ (Pickering 1992) betrachtet, und der Blick auf die Dichte und Vielgestaltigkeit des Praktizierens von Wissenschaft gelenkt, z.B. auf Tätigkeiten, die die Entwicklung neuer Instrumente oder die Planung und Durchführung von Versuchen ermöglichen. Begriffe wie „action at a distance“, „centres of calculation“, und „immutable and combinable mobiles“ (Latour 1987), wie auch MacKenzies (1996) Betonung der Materialität von Wissen und Technologie, veranschaulichen die begrenzte Einsatzfähigkeit von Konzepten, wie Wissen oder Macht. Im Hinblick auf Accounting hat Callon (1998) aufgezeigt, dass Kalkulation als komplexe kollektive Praxis verstanden werden muss, die Akteure und Aktanten, Instrumente und Inskriptionen, miteinander verbindet und in Beziehung setzt.8 Zusammengenommen haben diese Untersuchungen dem schlichten aber wichtigen Gedanken, dass Kalkulation nicht ohne kalkulative Instrumente und Praktiken existieren kann, direkt und indirekt beachtlichen Aufwind gegeben. Angewandt auf das Gebiet des Accounting, heißt das, dass der ‚Werkzeugsatz’ von Buchhaltern, Controllern, Steuerberatern und Wirtschaftsprüfern in das Zentrum von Fragen, die die Operationalisierung und Instrumentalisierung von Märkten und den sie konstituierenden Einheiten betreffen, rückt. Gekoppelt mit weitergehenden Fragen danach, wie verschiedenste Instrumente, Werkzeuge und Techniken Führung und Verhalten von Personen beeinflussen und als „Selbsttechnologien“ (technologies of the self) fungieren können, hat das Konzept der Praxis an soziologischer Signifikanz gewonnen (Foucault 1988; Miller 2005; Miller/Rose 1990; Rose/Miller 1992). Der Aufsatz setzt sich mit dieser Thematik in folgender Reihenfolge auseinander: Zunächst befasst er sich mit der makro-strukturellen Verortung von Accounting in den Schriften von Marx und Weber. Dann untersucht er die ‚Wiederentdeckung’ des Rechnungswesens (Accounting) in den fünfziger und sechziger Jahren im Zusammenhang mit der Entwicklung und Ausarbeitung des Konzeptes der Gruppe durch Sozialpsychologen, Verwaltungswissenschaftler und Soziologen. Im Anschluss werden Bemühungen diskutiert, die sich innerhalb der Accounting-Literatur etwa seit Mitte der siebziger Jahre beobachten lassen und darauf abzielen, Accounting-Praktiken auf organisationaler und gesellschaftlicher Ebene zu analysieren. Des Weiteren werden verschiedene Orte betrachtet, an denen sich ein Interesse an soziologisch orientierter Accounting-Forschung herausgebildet hat: Der Beitrag fragt, inwiefern dieses Interesse dazu beitragen kann, dass Accounting in seiner Funktion als Regierungsmodalität ökonomischen Lebens eine größere Aufmerksamkeit zuteil wird. Abschließend wird herausgestellt, dass ein vollständiges Verständnis des Wechselspiels von Arten und Weisen des Organisierens und Kalkulierens nicht ohne eine angemessene Auseinandersetzung mit den kalkulativen Praktiken des Rechnungswesens (Accounting) entwickelt werden kann. Gleichzeitig wird allerdings betont, dass diese Auseinandersetzung stets der Ergänzung durch weiterführende Fragen nach den (Regierungs-) Rationalitäten bedarf, die bestimmten Formen des Kalkulierens zugrunde liegen und diesen Form und Sinn verleihen.

8

Vgl. dazu auch Kalthoff et al. (2000).

24

Peter Miller

Accounting und Rationalisierung Max Weber, dessen Werk hauptsächlich in den ersten zwei Jahrzehnten des vorigen Jahrhunderts entstanden ist, betrachtet die Entwicklung des Rechnungswesens als zentrales Element der Rationalisierung von Gesellschaft im Kapitalismus. Weber lehnt die Vorstellung ab, dass Kapitalismus maßgeblich von Habgier oder Geiz angetrieben ist. Stattdessen argumentiert er, dass Kapitalismus als kontinuierliches Bemühen um Profit mit den Mitteln der „rationalen, kapitalistischen Unternehmung“ (Weber 2004) verstanden werden müsse. Ökonomisches Handeln, so Weber, sei insofern kapitalistisch, als es von einer Gewinnerwartung bestimmt sei, die sich auf die Möglichkeit der Durchführung von Tauschgeschäften beziehe. Und dieses „rationale“ Gewinnstreben erfordere im Gegenzug Kapital erfassende Kalkulationen. Die Entstehung der modernen, rationalen Organisation des kapitalistischen Unternehmens, behauptet Weber, wäre ohne die kalkulative Praxis der Buchführung nicht möglich gewesen. In Webers Werk ist Rationalisierung ein durchgängiges Thema. Die mehrdimensionale Rationalisierung unseres Lebens belegt er mit dem Begriff der Rationalisierung der „Lebensführung“ (Gordon 1987; Hennis 1987). Weber befasst sich mit den Bedingungen, welche die Ausbildung und Verbreitung einer „spezifisch modernen kalkulierenden Haltung“ (Weber 1980) ermöglichen und fördern. In seinen Analysen der soziologischen Bedingungen wirtschaftlicher Aktivität nimmt das Rechnungswesen sowohl im Hinblick auf Formen des Budget-Managements, als auch der Kapitalrechnung eine zentrale Stellung ein. Weber zufolge ist Geld „technisch angesehen“ als „das ‚vollkommenste’ wirtschaftliche Rechnungsmittel, das heißt: das formal rationalste Mittel der Orientierung wirtschaftlichen Handelns“ zu betrachten (Weber 1980: 45). Geldrechnung, und nicht aktuellen Geldgebrauch, betrachtet er als das spezifische Mittel „zweckrationaler Beschaffungswirtschaft“ (Weber 1980: 45), und dem rationalen wirtschaftlichen Erwerben zugehörig ist für ihn eine besondere Form der Geldrechnung: die Kapitalrechnung (Weber 1980: 48). Weber definiert wirtschaftliches Unternehmertum als „ein an Kapitalrechnung autonom orientierbares Handeln“ (Weber 1980: 48). Weiter schreibt er, dass jene Orientierung durch Kalkulation erfolge (Weber 1980: 48). Insofern räumt er der Kalkulation einen zentralen Platz in der soziologischen Analyse wirtschaftlicher Aktivität ein. Kalkulation betrachtet er als das Medium, das zwischen rationalen, profitorientierten Unternehmen und ihren (Markt-)Möglichkeiten zu vermitteln hilft. Weber zufolge stellt die doppelte Buchführung die „technisch (bisher) höchst entwickelte Form der Buchführung“ dar (Weber 1980: 49), da „durch ein Kontensystem die Fiktion von Tauschvorgängen zwischen den einzelnen Betriebsabteilungen oder gesonderten Rechnungsposten zugrunde gelegt wird, welches technisch am vollkommensten die Kontrolle der Rentabilität jeder einzelnen Maßregel gestattet“ (Weber 1980: 49). Webers Ausführungen wurden durch die Studien Sombarts ergänzt, der eine ähnliche, allerdings wesentlich stärkere Argumentationslinie, die Verbindung von doppelter Buchführung und Kapitalismus betreffend, verfolgte (Sombart 1987). Sombart behauptet nicht nur, dass die rationale Kalkulation wichtig für die Entwicklung des kapitalistischen Unternehmen gewesen ist, er geht sogar so weit, sich zu fragen, ob die doppelte Buchführung nicht als Ursache für die Entstehung des Kapitalismus betrachtet werden muss (vgl. dazu auch den Beitrag Vormbuschs in diesem Band). Für unsere Diskussion ist weniger wichtig, ob diese Behauptung als richtig oder falsch einzustufen ist. Weitaus wichtiger ist, dass diese Behaup-

Wie und warum das Rechnungswesen in der Soziologie in Vergessenheit geriet

25

tung dazu beigetragen hat, ökonomische Kalkulation als etwas Zentrales, soziologisch Bedeutsames zu sehen. Sie weist ökonomischer Kalkulation nicht länger eine untergeordnete, sondern eine zentrale und prägende Funktion zu. Zusammen mit den Ausführungen Webers hat Sombart so dazu beigetragen, eine Verbindung zwischen Accounting und Soziologie aufzubauen, die bis heute noch Bestand hat. Accounting ist hier zum ersten Mal als bedeutsamer Gegenstand soziologischer Analyse identifiziert worden. Vor Weber hatte schon Marx auf die wichtige Bedeutung des Verhältnisses von Accounting (bzw. Buchführung) und Kapitalismus hingewiesen. In einem indirekten Verweis auf die imaginäre Welt der politischen Ökonomie vermerkt Marx im ersten Band des Kapitals, dass eine der ersten Tätigkeiten Robinson Crusoes auf seiner einsamen Insel darin bestanden habe, Buch zu führen (Marx 1989/1867: 91): „… unser Robinson, der Uhr, Hauptbuch, Tinte und Feder aus dem Schiffbruch gerettet, beginnt als guter Engländer bald Buch über sich selbst zu führen. Sein Inventarium enthält ein Verzeichnis der Gebrauchsgegenstände, die er besitzt, der verschiednen Verrichtungen, die zu ihrer Produktion erheischt sind, endlich der Arbeitszeit, die ihm bestimmte Quanta dieser verschiednen Produkte im Durchschnitt kosten. Alle Beziehungen zwischen Robinson und den Dingen, die seinen selbstgeschaffnen Reichtum bilden, sind hier so einfach und durchsichtig, daß selbst Herr M.Wirth sie ohne besondre Geistesanstrengung verstehn dürfte. Und dennoch sind darin alle wesentlichen Bestimmungen des Werts enthalten.“ Im zweiten Band des Kapitals, in dem Marx sich mit dem Zirkulationsprozess des Kapitals, der Transformation von Kapital in Waren, von Waren in Geld und von Geld in Waren auseinandersetzt, spricht er unter anderem auch über die Kosten der Arbeitszeit, die mit Buchführung verbracht wird. Laut Marx müsse ein Teil des Kapitals immer dem Produktionsprozess entzogen werden, um das Fortsetzen des Zirkulationsprozesses zu unterstützen. In diesem Zusammenhang wird die Buchführung als „unproduktive Verausgabung von Arbeitszeit“, als etwas dem produktiven Prozess Folgendes und sich aus diesem her Ableitendes dargestellt, wenngleich sie auch als unerlässlich für die Aufrechterhaltung der Zirkulation betrachtet wird (Marx 1986/1885: 135-137). Marx zufolge spiegelt die Buchhaltung – „the machinerie of the office“ – die Bewegung von Wert durch produktive Prozesse wider; sie erstellt ein „symbolisches Abbild“ von ihnen (Marx 1986/1885: 135). Insofern Kapital stets nach seiner eigenen Reproduktion strebt, ist diese Ableitung oder Widerspiegelung dessen, was Marx als den realen Produktionsprozess betrachtet, ein wesentlicher Teil desselben. Und je mehr der Produktionsprozess an „rein individuellem Charakter“ verliert und an gesellschaftlichem gewinnt, desto notwendiger wird die Buchführung (Marx 1986/1885: 137). Marx schreibt dem Accounting keine so zentrale Rolle zu, wie Weber dies tut. Gleichwohl räumt Marx dem Accounting, wenn man es in den Kontext seiner Werttheorie und der Theorie der kapitalistischen Produktionsweise stellt, einen zentralen Stellenwert neben anderen politischen Interventionen in Produktionsverhältnisse ein. In Marx’ Schriften wird dem Accounting eine makro-strukturelle Funktion zugewiesen, die zugleich die kapitalistischen Produktionsverhältnisse gestaltet und reproduziert. In dieser Hinsicht könnte man sagen, dass Marx und Weber ein ähnliches Terrain bearbeiten. Für beide gilt Accounting als zentraler Bestandteil der Gestaltung sozialer und ökonomischer Verhältnisse. So nahm die Auseinandersetzung der Soziologie mit dem Gebiet des Accounting ihren Anfang. Es folgte daraufhin jedoch kaum etwas. Erst in den fünfziger und sechziger Jahren, mit Einsetzen der Entwicklung der „behavioural accounting studies“, erfuhr das Thema einen erneuten Aufschwung.

26

Peter Miller

Die Wiederentdeckung des Accounting und die Entdeckung der Gruppe Nach den Schriften Webers und Sombarts fand bis in die fünfziger Jahre hinein so gut wie kein Dialog zwischen der Disziplin des Accounting und der Soziologie statt. In den fünfziger Jahren, als die Soziologie wieder ein gewisses Interesse für das Rechnungswesen (Accounting) zu zeigen begann, hatte sich ihr Forschungsfokus von der Makroebene, von der Analyse gesellschaftlicher Rationalisierungs- und Akkumulationsprozesse, wegbewegt und auf die Mikroebene der sozialen Gruppe, der Analyse von Gruppendynamiken und der Funktion von Accounting darin, verlagert (Platt 1996). Gut veranschaulichen lässt sich dieser Perspektivenwechsel am Beispiel des einflussreichen Aufsatzes von Chris Argyris (1952), der die Auswirkungen von Finanz- und Wirtschaftsplänen (Budgets) auf das menschliche Verhalten thematisiert. Argyris ging hier der Frage nach, wie so genannte „budget people“ zu den von ihnen aufgestellten Finanz- und Wirtschaftsplänen stehen und inwiefern sich davon die Einstellungen der Produktionsleiter unterscheiden. Er verknüpfte seine Studie über Accounting-Praktiken mit seinem Interesse an Gruppen und Gruppendynamiken. Er betrachtet hierbei Gruppen nicht als etwas Gegebenes und Selbstverständliches, sondern beschreibt die Interaktion zwischen Menschen und Budgets als eine Aktivität, die zur Gruppenbildung beiträgt. Unter anderem behauptet er, dass vom Management ausgeübter erhöhter Druck Prozesse der Gruppenbildung fördere. Die Gruppenbildung könne dazu beitragen, den erhöhten Druck, der vom Management auf einzelne Individuen ausgeübt wird, zu verarbeiten und abzufangen. Haben sich solche Gruppen einmal ausgebildet, so können sie über einen längeren Zeitraum hinweg bestehen – auch dann, wenn der Druck von oben, der einst zu ihrer Entstehung führte, nicht mehr vorhanden ist. In seinen Arbeiten griff Argyris auf die Ergebnisse soziologischer Forschungen zurück, die innerhalb zweier Jahrzehnte maßgeblich dazu beigetragen hatten, die Soziologie des späten neunzehnten und frühen zwanzigsten Jahrhunderts neu zu justieren. Mit Beginn der dreißiger Jahre rückten Gruppen und Gruppendynamiken immer mehr in das Zentrum sozialwissenschaftlichen Interesses. Die Grenzen zwischen Sozialpsychologie und Soziologie begannen zunehmend zu verschwimmen, und Sozialwissenschaftler benutzten ‚die Gruppe’ in fast jedem Feld als grundlegende Untersuchungseinheit. Im Hinblick auf den Perspektivenwechsel, der sich auch innerhalb der Untersuchungen von sozialen Beziehungen in Unternehmen vollzog, ist Elton Mayo von zentraler Bedeutung. Die Studien, die zwischen 1927 und 1932 unter seiner Anleitung in den Hawthorne Works der Western Electric Company in Chicago durchgeführt wurden, veranschaulichen den Wandel (Mayo 1933). Die Untersuchungen kommen allesamt zu dem Schluss, dass Gruppendynamiken Veränderungen in den Produktionsleistungen besser erklären können als technische Faktoren. Das Unternehmen wird als soziales System betrachtet und zwischenmenschliche Beziehungen und Gruppendynamiken als das Herzstück dieses sozialen Systems. Andere Wissenschaftler, wie zum Beispiel der Verwaltungswissenschaftler Chester Barnard, kamen zu ähnlichen Schlüssen: „the most usual conception of an organization is that of a group of persons“ (Barnard 1938: 68). Barnard zufolge bilden Interaktionssysteme die Basis einer jeden Gruppe, und die formale Organisation müsse dementsprechend als ein System „of consciously coordinated activities or forces of two or more persons“ (Barnard 1938: 73) betrachtet werden. Der zweite Weltkrieg und seine unmittelbaren Nachwirkungen boten den Forschern ein „Laboratorium“, in dem sie Gruppen und Gruppenbeziehungen in allen Facetten und Details untersuchen konnten (Miller 1986).

Wie und warum das Rechnungswesen in der Soziologie in Vergessenheit geriet

27

In den fünfziger und sechziger Jahren nahm das Konzept der Gruppe auch einen zentralen Platz in der sich rasch ausdehnenden Soziologie ein. Der Soziologe George Homans (1951) war einer der ersten, die versuchten, das Konzept der Gruppe theoretisch zu verankern. Eine ganze Reihe unterschiedlicher Einflüsse, wie zum Beispiel die Theorie Freuds, Kurt Lewins Sozialpsychologie oder die Soziometrie Munros, schürten das wachsende Interesse an Untersuchungen der Kleingruppe. Homans suchte diese verschiedenen theoretischen Stränge in einer allgemeinen soziologischen Theorie zu vereinen, die die Gruppe als Ausgangspunkt für die Analyse sozialer Beziehungen nimmt. Neben dem synthetisierenden Theorieversuch Homans beschäftigten sich auch andere Soziologen eingehend mit Themen wie Arbeitsabwesenheit, Personaldurchsatz, Arbeitsmoral, Produktivität und Arbeitskämpfen, die ebenfalls auf den Einfluss von Gruppendynamiken hin untersucht wurden. Der von Gouldner (1954) untersuchte „wildcat strike“ wurde von ihm im Rahmen einer „allgemeinen Theorie der Gruppenkonflikte“ behandelt. Ebenso gut konnte man auch die Lackierung von Spielsachen an einem Fließband im Hinblick auf Gruppendynamiken und Gruppenbeziehungen untersuchen, wie Strauss (1955) zeigte. Dalton (1959) wiederum stellte die Behauptung auf, dass Cliquen, kleine Gruppen von Personen mit gemeinsamen Interessen, unabdingbare Elemente sowohl in der Förderung, Stabilisierung als auch der Hemmung von Wandel darstellen. Bion (1946) führte den Begriff der „leaderless group“ ein, um die Stellung von Individuen innerhalb eines Komplexes interpersoneller Beziehungen zu untersuchen, während Jaques (1951) Arbeitskonflikte zwischen Managern und Arbeitern in problematischen Gruppenverhältnissen begründet sah. In der Accounting-Forschung wird die Flut an Arbeiten, die seit den späten fünfziger Jahren begonnen hatte, Erkenntnisse aus der soziologischen und sozialpsychologischen Gruppenforschung aufzugreifen, unter den Begriff des „behavioural accounting“ gefasst. Der Forschungszweig der „behavioural accounting studies“ befindet sich an der Schnittstelle zwischen Soziologie und Betriebswirtschaft und setzt sich auf unterschiedliche Art und Weise mit dem Zusammenwirken von Accounting und Gruppenbeziehungen auseinander. In einem frühen Aufsatz, der mehr an Soziologen als an „Accountants” gerichtet war, zeigte Dalton (1959) auf, wie Kostendruck gepaart mit Anreizstrukturen das Fälschen von Akten und Bilanzen begünstigen kann. In Anlehnung an Ansätze der Entscheidungstheorie (z.B. March/Simon 1958) und Ideen der „Human-Relations-Forschung“ (z.B. McGregor 1960; Likert 1961; Herzberg 1968) verfestigten die „behavioural accounting studies“ den Fokus auf Gruppenbeziehungen in der Organisationsforschung. In den sechziger und siebziger Jahren zogen vor allem Verhaltens- und Organisationsaspekte von Budgetierungsprozessen die Aufmerksamkeit der soziologisch orientierten Accounting-Forschung auf sich. Becker und Green (1962) erweiterten Argyris’ Studien um eine Analyse der Gruppendynamiken in Budgetierungsprozessen. Sie untersuchten den Zusammenhang zwischen der Kohäsionskraft von Arbeitsgruppen und der Akzeptanz von Wirtschaftszielen, und den Einfluss dieses Zusammenhanges auf das Betriebsergebnis. Hofstede (1968) beschrieb Budgetierungsprozesse als Spiel, an dem Individuen um des Spielens willen teilnehmen. Ihm zufolge seien Budgetierungsprozesse maßgeblich von dem „Spielgeist“, mit dem Manager in die so genannten „Budgetspiele“ einsteigen geprägt. Diese Argumentationslinie wurde später von Hopwood (1974) aufgegriffen, der vor allem auf die Bedeutung von Partizipation für Budgetierungsprozesse hinweist und die Debatte neu konzentrierte, indem er drei deutlich unterschiedliche Arten des Umgangs mit Budgets identifizierte. Hopwood unterscheidet zwischen „streng an Budgets ausgerichteten” („bud-

28

Peter Miller

get constrained“), „profitbewussten” („profit conscious“) und „nicht betriebswirtschaftlichen“ („non-accounting“) Umgangsweisen. In seinen Studien zeigt er auf, dass nur eine „profitbewusste“ Umgangsweise es schaffen kann, eine Kostenorientierung herbeizuführen, die, im Gegensatz zu streng an Budgets ausgerichteten Umgangsweisen, nicht von Bilanzmanipulationen und Verschlechterungen des Betriebsklimas begleitet ist. Zwei Jahrzehnte behavioristischer Forschungen, die sich mit verhaltenswissenschaftlichen Aspekten von Budgetierung und Evaluierung auseinandersetzten, veränderten die akademische Disziplin des Accounting nachhaltig. Accounting wurde nicht mehr als ein rein technischer Prozess betrachtet, sondern als geprägt von organisationalen Kontexten und menschlichem Verhalten. Allerdings blieb der Blickwinkel jener Untersuchungen weiterhin auf die Organisations- und Mikroebene der Gruppe beschränkt. Dies sollte sich allerdings bald schon ändern, wenn auch im Zuge anderer Entwicklungen, die sich innerhalb der Soziologie und ihrem weiteren Umfeld abspielten. Accounting als organisationale und soziale Praxis Mitte der siebziger Jahre war die behavioristische Accounting-Forschung als Forschungsgebiet fest etabliert. Allerdings war die Aufmerksamkeit dieser Forschungsrichtung fast ausschließlich auf Prozesse gerichtet, die innerhalb von Organisationen stattfinden. Die von Weber, Sombart und Marx formulierten Forschungsprogramme, die darauf abzielten, die Beziehungen zwischen tief greifendem sozialen Wandel und Accounting zu untersuchen, waren fast gänzlich von der Beschäftigung mit Gruppen und Gruppendynamiken abgelöst worden. Hopwood (1974) brachte als erster das Anliegen vor, dass dem entgegengewirkt werden müsse und die Makroebene nicht vernachlässigt werden dürfe. Ihm zufolge sind Prozesse, die es Gruppen ermöglichen, die Funktion des Accounting zu beeinflussen und zu kontrollieren, immer auch begleitet von Einflüssen aus der wirtschaftlichen und gesellschaftlichen Umwelt einer Organisation. In dem Maße wie heute viele AccountingPraktiken und -Theorien das Ethos des Kapitalismus widerspiegeln, könne man auch allgemeiner davon ausgehen, dass sich Gestalt und Philosophie des Accounting in Korrespondenz zu seiner weiteren sozialen und politischen Umwelt entwickeln. Hopwood bekräftigt diesen Punkt 1976 im Editorial der ersten Ausgabe der von ihm herausgegebenen Zeitschrift Accounting, Organizations and Society. Hier vertritt er die Auffassung, dass verhaltenswissenschaftliche Accounting-Studien um breiter angelegte Studien über Macht, Einfluss und Kontrolle ergänzt werden müssen. Wortwörtlich schreibt er: „There is now an urgent need for research which can provide a basis for seeing accounting as both a social and organizational phenomenon” (Hopwood 1976: 3). Allerdings sollte es noch einige Jahre dauern, bis sich die Dinge grundlegend zu verändern begannen. Ende der Siebziger stellt Hopwood immer noch fest, dass nur wenige Studien in der Accounting-Forschung politischen und gesellschaftlichen Einflüssen hinreichend Beachtung schenken (Hopwood 1978). Der vor allem in der nordamerikanischen Forschungstradition verankerte Fokus auf die Mikroebene dominierte nach wie vor das Feld, während die mehr makro-orientierten europäischen Ansätze, die sich mit Fragen der Organisationssoziologie und weitergehenden strukturellen Umwelteinflüssen auseinandersetzen, nur zögerlich in Erscheinung traten.

Wie und warum das Rechnungswesen in der Soziologie in Vergessenheit geriet

29

Auch in den achtziger Jahren blieben soziologische Analysen des Accounting, die Mikro- und Makroebene erfolgreich miteinander zu verknüpfen wissen, ein noch nicht erreichtes, anzustrebendes Ziel. In der Tat war nicht einmal klar, welche Konzepte und Fragen solch ein Forschungsprogramm überhaupt anleiten sollten. Allerdings wurden einige Vorschläge dazu 1980 in einem einflussreichen Artikel von Burchell, Clubb und Hopwood gemacht, der verschiedene Funktionen des Accounting in Organisation und Gesellschaft zu identifizieren versucht (Burchell et al. 1980). Eine ganze Reihe an Fragen, die bislang vernachlässigt worden waren, sollten nach Auffassung der Autoren nicht länger unbeachtet bleiben, und dementsprechend auch die konzeptionellen Grundlagen der Accounting-Forschung grundsätzlich überarbeitet werden. Die technische Seite des Accounting sollte nicht länger als etwas von gesellschaftlichen Dynamiken Unabhängiges betrachtet werden, sondern in ihrer Wechselbeziehung zur Gesellschaft gesehen werden. So wie Argyris behauptet hat, dass Accounting-Praktiken zu Gruppenbildung führen können, wurde nun behauptet, dass Accounting auch andere gesellschaftliche Zusammenhänge hervorbringen helfe. Untersucht werden müsse die Funktion des Accounting für die Herstellung von organisationaler Sichtbarkeit, die Hervorbringung bestimmter Muster des Managements sowie die Erzeugung von Machtstrukturen. Die Untersuchung von AccountingPraktiken in Organisationen sollte explizit mit einer Analyse allgemeiner Formen ökonomischen und sozialen Managements verbunden werden. Mit anderen Worten sollte Accounting nicht länger als ein rein organisationales Phänomen betrachtet werden. Es wurde auf die frühe soziologische Forschung, die sich mit Accounting befasste, wie die Studien von Marx und Weber, Bezug genommen mit dem Hinweis, dass diese Fragen aufgeworfen haben, die es wert seien, systematischer untersucht zu werden. Sowohl Prozesse der Rationalisierung seien eingehender zu analysieren, wie auch mythische, symbolische und rituelle Bedeutungen von Accounting-Praktiken. Studien der organisationalen Funktionen des betrieblichen Rechnungswesens sollten um Untersuchungen seiner gesellschaftlichen Funktionen ergänzt werden. Ab 1980 begannen diese Veränderungen Boden zu gewinnen. Die Bandbreite verwendeter Methoden wurde größer und der Fokus der Accounting-Forschung weitete sich. Institutionellen Strukturen und Prozessen wurde zunehmend mehr Aufmerksamkeit gewidmet. In den folgenden zwei Jahrzehnten wandelte sich das Verhältnis zwischen Soziologie und Accounting damit ganz grundlegend. Soziologische Untersuchungen von AccountingPraktiken wurden mehr und mehr in der Disziplin des Accounting selbst verankert, und mit dieser Entwicklung änderten sich auch Konzepte und Definitionen des Untersuchungsgegenstandes. Nicht länger ging es um die Übertragung vorgegebener soziologischer Konzepte auf das Gebiet des Accounting, sondern die Konzepte selbst wurden in enger Anlehnung und Auseinandersetzung mit den kalkulativen Praktiken des Accounting generiert. Die Disziplin des Accounting wurde reflexiver und fing an, aktiv zur weiteren Entwicklung der Sozialwissenschaften beizutragen. Insgesamt lassen sich drei Forschungsstränge erkennen, die zur soziologischen Ausweitung der Accounting-Forschung beigetragen haben: Erstens Untersuchungen, die sich mit den institutionellen Umwelten des Accounting befassen; zweitens die Politische Ökonomie des Accounting; und drittens Ethnographien des Accounting. Soziologie und Organisationstheorie hatten Untersuchungen institutioneller Umwelten des Accounting den Boden bereitet. Hier wurden bereits in den späten siebziger Jahren erste Studien über die „institutionalisierten Mythenstrukturen“ (Meyer/Rowan 1977) ratio-

30

Peter Miller

nalisierter Gesellschaften durchgeführt. Meyer und Rowan kritisierten, dass damals vorherrschende Theorien Fragen nach der Legitimität rational formaler Strukturen im Gegensatz zu täglichen Arbeitsaktivitäten vernachlässigt hätten. Insofern als unpersönliche, rationalisierte Vorschriften technischen Arbeiten eine gesellschaftliche Funktion beimessen und festlegen, wie diese genau auszuführen seien, verdienen sie es auch, als eigenständiges Untersuchungsobjekt behandelt zu werden. Meyer und Rowan bezeichnen solche Vorschriften als „Mythen“, deren Tragweite im Ausmaß ihrer Institutionalisierung, das heißt ihrer Verfestigung in Normen und Verhaltensmustern, begründet liegt. Meyer und Rowan zufolge üben solche Mythen auf bestimmte Organisationen eine verpflichtende Wirkung aus und wirken so an der Gestaltung von Organisation und Gesellschaft mit. Die Mythen des Accounting nehmen damit ihren Platz neben denen der Medizin, Juristerei und anderer Professionen ein. Ob es sich um eine bestimmte Kostenkategorie handelt oder die, in rationalisierten Gesellschaften verankerte, zeremonielle Bedeutung von Finanzwerten – Mythen, Organisationen und Prozesse der Rationalisierung sind stets im Zusammenhang miteinander zu betrachten. Im Anschluss an Max Weber werden formale Organisationen als Einheiten aufgefasst, die von ihrer Umwelt dazu bewegt werden, vermeintlich rationale Praktiken und Prozeduren in sich aufzunehmen. Die Konventionen des modernen Accounting, das Vokabular der Personalexperten sowie Organigramme wurden als Mechanismen verstanden, die Organisationen in ihre institutionelle Umwelt einbinden helfen. Mit der Übernahme vermeintlich rationaler Praktiken aus ihren institutionellen Umwelten verschaffen sich Organisationen, so wird behauptet, Legitimität und erhöhen somit ihre Überlebenschancen. Aus neoinstitutionalistischer Sicht kann Accounting als einer der Mechanismen aufgefasst werden, die es Organisationen ermöglichen, rationale Konzeptionen des Organisierens in sich aufzunehmen und einzubetten. Das Accounting stellt eine Reihe an Techniken zur Organisation und Kontrolle von Tätigkeiten bereit und stattet uns mit einer Sprache aus, die es ermöglicht, Organisationsziele, -prozeduren und -politiken zu definieren und artikulieren. Accounting-Praktiken üben zudem eine zeremonielle Funktion aus, die dazu beiträgt, eine Organisation vor ihren Mitgliedern und ‚Nutzern’, wie z.B. der Öffentlichkeit, Aktieninhabern oder Regulierungsbehörden, wie der amerikanischen Securities Exchange Commission (SEC), zu legitimieren. Anstatt von der Annahme der Effizienz auszugehen, kann die Aufnahme und Diffusion bestimmter Accounting-Praktiken im Hinblick auf ihre Funktion als rationalisierter institutioneller Mythos hin untersucht werden. Und auf Gesellschaftsebene kann gefragt werden, inwiefern Accounting-Praktiken in bestimmten Gesellschafts- oder Organisationsordnungen nicht nur von internen technischen Arbeitsvorgängen, sondern auch, und zwar oft maßgeblich, von ihren externen Umwelten bestimmt werden. Der Fokus auf die institutionellen Umwelten des Accounting hat der AccountingForschung die Begründung eines neuen wichtigen Forschungsprogramms ermöglicht. Von nun an konnte dem Verhältnis zwischen Organisation und Umwelt ein zentraler Platz eingeräumt werden. Innerhalb der Accounting-Disziplin wurden Forscher dazu ermutigt, einen Blick über die Organisation hinaus zu werfen und Organisationswandel im Zusammenhang mit weiteren Umweltveränderungen zu betrachten. Accounting-Praktiken verloren an mutmaßlicher Einzigartigkeit und wurden Teil des gesamtgesellschaftlichen ‚Kulturapparats’. Praktiken der Budgetierung innerhalb einer Organisation wurden nicht länger nur unter dem Gesichtspunkt der Gruppendynamik oder des Spieltriebs einzelner gesehen. Sie wurden ebenso als Ausdruck und Spielart gesellschaftlicher Erwartungen, z. B. im Hinblick auf die

Wie und warum das Rechnungswesen in der Soziologie in Vergessenheit geriet

31

Definition akzeptabler Budgetierungspraktiken in Zeiten des Niedergangs einer Organisation verstanden (Covaleski/Dirsmith 1988). Fragen danach, wie solche Erwartungen sich bilden, welchem Zweck sie dienen, von wem und an welchem Ort sie vorgebracht werden, gehen weit über den unmittelbaren Kontext der Organisation hinaus. Die wachsende Präsenz von Finanzpersonal in der Kontrolle großer Unternehmen konnte mit dem Hinweis auf Veränderungen in Organisationsstrukturen und -strategien, Veränderungen des Kartellrechts und der Tendenz von Firmen einander nachzuahmen erklärt werden (Fligstein 1990). Der Wandel von Machtbeziehungen in Organisationen wurde als Resultat von weiteren, in der Organisationsumwelt stattfindenden Ereignissen betrachtet sowie der Art und Weise, wie zentrale Akteure in Organisationen ihre Probleme und Aufgaben definieren, zugeschrieben. Eine Reihe weiterer Studien, die weniger eng an der neoinstitutionalistischen Perspektive ausgerichtet waren, zeigten auf, wie wichtig es ist, Veränderungen von Accounting-Praktiken innerhalb einer Organisation im Zusammenhang mit den Erwartungen und Anforderungen, die aus der institutionellen Umwelt an sie herangetragen werden, zu sehen (Berry et al. 1985; Espeland/Hirsch 1990; Ansari/Euske 1987). Daneben haben auch Ansätze einer Politischen Ökonomie des Accounting die Aufmerksamkeit auf die Wichtigkeit der Makroebene und des weiteren Umfeldes von Organisationen gelenkt, und sie taten dies in Anlehnung an die Schriften von Marx und ihm folgende Autoren. Jene Ansätze betonen das Konfliktpotential, das Accounting-Praktiken innewohnt, und den Einfluss ökonomischer Interessen, die sowohl innerhalb als auch außerhalb von Organisationen wirken. Insbesondere wurde historisch spezifischen Machtverhältnissen und ihrem Einfluss auf, bzw. ihrer Gestaltung durch Accounting-Praktiken Beachtung geschenkt. Das Bild, welches das Rechnungswesen als technisch neutrale, objektive Praxis skizzierte, wird von den Anwälten einer Politischen Ökonomie des Accounting entschieden zurückgewiesen. Stattdessen wird Accounting als parteiische, von Interessen durchsetzte Sprache und Praxis begriffen, die bestimmte Beschäftigtengruppen und Klassen repräsentieren und Strukturen verfestigen hilft. Der Boden für die Erneuerung des Interesses an Ansätzen der Politischen Ökonomie war unter anderem durch die Veröffentlichung des Buches Labor and Monopoly Capital (Braverman 1974) bereitet worden. Dieses Buch war als intellektueller ‚Waffenruf’ an all diejenigen gerichtet, die sich mit dem Wandel von Produktionsprozessen und Arbeitsverhältnissen des vergangenen Jahrhunderts auseinandersetzten. Braverman zufolge hätten sich neue Industriezweige herausgebildet, wie z. B. das Bank- oder Versicherungswesen, in denen „the productive processes of society disappear into a stream of paper“ (Braverman 1974: 301). Im Monopolkapitalismus würden immer mehr Ressourcen für das Rechnungswesen aufgewandt, was sogar soweit ginge, dass die damit verbrachte Arbeitszeit sich an die mit produktiven Tätigkeiten verbrachte Zeit anzunähern begänne, bzw. diese sogar in einigen Fällen zu übersteigen drohe. Für Braverman war diese Aufblähung der Rechenapparate von Organisationen nicht nur das Ergebnis ansteigender Komplexität. Für ihn hatte dies ebenfalls etwas mit Vertrauen, bzw. dem Mangel dessen zu tun. Misstrauen und die Unterstellung von Unehrlichkeit, „dem ersten Grundsatz des modernen Accounting“ (Braverman, 1974, S. 303), wurde von Braverman als Ursache für diesen gewaltigen, der doppelten Buchführung zutiefst innewohnenden Drang zur Ausdehnung verstanden. Wenn Misstrauen zur Norm erhoben werde, bedürfe es der Wirtschaftsprüfung, die Braverman mit feiner Ironie als „Profession der Ehrenhaftigkeit“ bezeichnet, um Außenstehende von der Richtigkeit der Geschäftsbücher zu überzeugen. Hieraus ergebe sich ein monströses

32

Peter Miller

„Papierreich“, das laut Braverman in seiner Erscheinung genauso real sei wie die physische Welt, die es nun mehr und mehr zu beherrschen drohe. In der Accounting-Forschung hat eine ganze Anzahl von Wissenschaftlern Ansätze der Politischen Ökonomie aufgegriffen und, wenn auch mit unterschiedlichen Gewichtungen, weiterentwickelt. So wurden Veränderungen in Form und Inhalt von Jahresabschlussberichten mit wandelnden Strategien der Kapitalakkumulation in Zusammenhang gebracht (Neimark 1992; Neimark/Tinker 1986). Weiter wurde vorgeschlagen, eine „Sozialkritik des Accounting“ (Tinker 1985: 201) zu etablieren, die mit der Begründung eines „emanzipatorischen Accounting“ (Tinker 1985: 201) einhergehen sollte. Andere haben sich weniger direkt an die Schriften von Marx angelehnt und sich mehr auf neuere Ansätze der Politischen Ökonomie bezogen. Hier wurden Unterschiede in der Regulierung des Accounting mit Unterschieden in den institutionellen und politischen Strukturen verschiedener Länder in Zusammenhang gebracht (Puxty et al. 1987) oder Funktionen des Accounting in industriellen Beziehungen und Tarifverhandlungen untersucht (Bougen 1989; Bougen et al. 1990). Die Herrschaft der Accounting-Kontrollen über Arbeitsprozesse in Großbritannien wurde mit dem Verweis auf das „collective mobility project“ der Accounting-Profession und ihrer dominanten Position erklärt, die sie und Accounting-Praktiken innerhalb der globalen Arbeitsweise des Kapitals erreicht hätten (Armstrong 1985, 1987). Im historischen Vergleich wurde die unterschiedliche Ausbreitung von Accounting-Praktiken, z. B. von standard costing, budgeting und performance reports, in Amerika und Großbritannien untersucht. Eine Anzahl weiterer Studien untersuchte die Wechselwirkungen zwischen staatlichem Handeln und Accounting-Politiken und ihre Folgen für die Güterverteilung (Arnold 1991) sowie Zusammenhänge zwischen Techniken des „cost accounting“ und den Bemühungen, Arbeitsprozesse zu kontrollieren. In jüngerer Zeit wurde die Wichtigkeit von Konzepten wie Klasse, Ideologie und Sozialstruktur in der Analyse von Arbeitsbeziehungen, insbesondere im Zusammenhang mit betrieblichen Reorganisationsprozessen, erneut hervorgehoben (Arnold 1998; Froud et al. 1998). In den frühen achtziger Jahren entstand ein weiteres Forschungsprogramm, das man als die Ethnographie des Accounting bezeichnen kann. Das Anliegen dieses Programms besteht darin, die Bedeutung und Vorstellungen von Akteuren, die Accounting-Techniken selbst entwickeln und benutzen, in ihrer unmittelbaren Umgebung zu untersuchen. Die meisten Untersuchungen konzentrieren sich hier auf Analysen der Bedingungen und Folgen von Accounting-Praktiken in spezifischen Organisationskontexten. In Fallstudien untersucht man die „gelebte Erfahrung“ einzelner Akteure und betont die Funktion des Accounting für die Ermöglichung und Strukturierung von Interaktion (Boland/Pondy 1983). Es wird versucht, ein Verständnis dafür zu entwickeln, auf welche Weise AccountingPraktiken in die Produktion und Reproduktion organisationalen Lebens eingebunden sind (Roberts/Scapens 1985). In der Ethnographie des Accounting bemüht man sich zu begreifen, was in einer bestimmten Situation gesagt, getan und gedacht wurde. Der Blick auf die wandelnden Beziehungen zwischen Volumen und Kosten in der verarbeitenden Industrie verlangt nach der Berücksichtigung lokal situierter Praktiken und Prozeduren, behaupten z. B. Jonnson und Gronlund (1988). Um die Entwicklung neuer Formen des Accounting hinreichend untersuchen und verstehen zu können, schaut man auf lokal situierte Bedeutungs- und Interaktionsmuster (Nahapiert 1988). Das Aufkommen neuer, im Accounting verankerter Organisationskulturen ist z. B. unter Zuhilfenahme von Ansätzen der interpretativen Sozialforschung

Wie und warum das Rechnungswesen in der Soziologie in Vergessenheit geriet

33

analysiert worden (Dent 1991). In Untersuchungen der Fabrikation von Budgets (Preston et al. 1992) und des Einflusses der Inspektionstätigkeit des britischen Finanzamts auf interne Accounting-Prozeduren (Preston 1989) konnte so die Relevanz verschiedener Bedeutungsund Interpretationsmuster aufgezeigt werden. Des Weiteren hat eine Ethnographie über drei Krankenhäuser dazu beigetragen, ein besseres Verständnis dafür zu entwickeln, wie und warum neue Accounting-Zahlen produziert werden und wie dies unter anderem durch die sozialen Verbindungen einer relativ kleinen Gruppe ermöglicht wird (Chua 1995). Daneben ist aufgezeigt worden, dass der Ausbildungsprozess des professionellen Accountant (Power 1991) in Analogie zur „moralischen Karriere eines Geisteskranken“ (Goffman 1961) betrachtet werden kann. Die drei oben vorgestellten Forschungsrichtungen erlauben es natürlich nicht, die ‚Wiederentdeckung’ des Accounting seit Mitte der siebziger Jahre vollständig und erschöpfend zu behandeln. Sie sprechen allerdings für die Vielfalt der Ansätze, die zur Analyse der gesellschaftlichen und organisationalen Signifikanz des Accounting herangezogen wurden und werden. Um die Wechselbeziehungen zwischen kalkulativen Praktiken und den verschiedenen Formen, in denen ihnen Sinn und Bedeutung zugeschrieben werden, allerdings umfassender zu verstehen, ist es sinnvoll, noch eine weitere Reihe an Arbeiten zu berücksichtigen. Charakteristisch für die Arbeiten, denen wir uns nun im nächsten Abschnitt zuwenden werden, ist ihr Fokus auf die Rolle des Accounting in Prozessen der Regierung und Steuerung ökonomischen Lebens. Accounting und die Regierung ökonomischen Lebens Mit Mitte der achtziger Jahre wurde zunehmend deutlich, dass Accounting weitaus mehr zu bewirken vermag, als ökonomische Realitäten widerzuspiegeln, und dass der Einflussbereich des Accounting sich weit über die Grenzen von Firmen und Organisationen hinaus erstreckt. Ein umfassenderes Verständnis davon, wie Accounting soziale Beziehungen formt und gestaltet, wie es unser Leben beeinflusst und verändert, blieb jedoch noch zu entwickeln. Erst mit Mitte der neunziger Jahre begann sich eine solche breitere Sichtweise auf das Accounting herauszubilden und zu etablieren. Möglich gemacht wurde dies durch eine Reihe unterschiedlicher, aber dennoch lose miteinander verbundener Arbeiten. Die Auseinandersetzung mit der Unternehmenskalkulation in verschiedenen kapitalistischen Ökonomien hatte bereits einige Jahre zuvor verschiedenen Formen der Organisation und Bedingungen der Unternehmensführung Aufmerksamkeit geschenkt (Cutler et al. 1977, 1978). Hier wurde die Ausbildung bestimmter Merkmale und Formen von Kalkulation unter anderem auf die Charakteristika bestimmter institutioneller und gesellschaftlicher Umfelder zurückgeführt. Die Gewinn- und Verlustrechnung wurde als Ergebnis bestimmter Normen und Messvorschriften gesehen, und jene Normen und Messvorschriften wiederum wurden in Bezug zu den nationalen Kontexten gesetzt, die sie hervorgebracht und zu ihrer Durchsetzung beigetragen haben. In diesem Zusammenhang wurde auch der Einfluss von Zielen und Praktiken der Wirtschaftspolitik auf die Konstitution kalkulativer Praktiken untersucht (Tomlinson 1994). In gewisser Weise wurden hier bereits einige der Argumente von Callon (1998) vorweggenommen: Ökonomische Kalkulation wurde als etwas betrachtet, das kalkulierender „Aktanten“ und Handlungen bedarf, die wiederum im Bezug auf ihre Einbettung in ein weit verzweigtes, organisationales und institutionelles Gerüst beschrieben werden können (Thompson 1986).

34

Peter Miller

Andere wiederum haben auf die Wichtigkeit der Untersuchung historisch spezifischer „Accounting-Konstellationen“ hingewiesen (Burchell et al. 1985). Unter dem Begriff der „Konstellation“ wurde der soziale Raum betrachtet, in dem sich, zu einem bestimmten Zeitpunkt, bestimmte Praktiken, Prozesse und Institutionen überkreuzen und miteinander verweben. Der Aufstieg und Niedergang des „value-added accounting“ wurde in diesem Zusammenhang im Kontext der verschiedenen Beziehungen betrachtet, die sich zwischen kalkulativen Praktiken und Normen, bestimmtem Wissen, Wirtschafts- und Verwaltungsprozessen sowie Institutionen herausbilden. Auf ähnliche Art und Weise, allerdings im Rückgriff auf anderes empirisches Material, hat auch Robson (1991) in seiner Studie über die Accounting Standardsetzung in Großbritannien diesen Ansatz explizit verfolgt und zu erweitern versucht. Robson zeigt auf, dass Accounting-Praktiken sich unter anderem dann wandeln, wenn eine bestimmte Gruppe oder Institution es schafft, andere Akteure in ihre Pläne und Sichtweisen mit einzubeziehen und deren Interessen in ihre Lösungsvorschläge zu übersetzen und einzuarbeiten. In diesem Prozess des „enrolment“ werden die Gemeinsamkeiten unterschiedlicher Probleme hervorgehoben, Allianzen gebildet, Argumente mobilisiert und die Interessen anderer Gruppen, Parteien und Institutionen in ein gemeinsames Projekt überführt. Der Begriff der Praxis, wie er innerhalb und im weiteren Umfeld wissenschaftssoziologischer Studien ausgearbeitet worden ist, hat solche Auseinandersetzungen mit ökonomischer Kalkulation beeinflusst und bekräftigt. Hacking (1983) unterstreicht die Wichtigkeit, Prozesse der Intervention and Repräsentation in ihrer Verknüpfung miteinander zu betrachten. Er betont dies später noch einmal, allerdings hier in anderer Formulierung, mit seiner, auf den ersten Blick trügerisch einfach erscheinenden Einteilung verschiedener Elemente der Laborwissenschaften in „ideas, things and marks“ (Hacking 1992). Pickering (1992) vertritt eine ähnliche Auffassung mit seinem Verweis auf die Komplexität und Vielschichtigkeit von wissenschaftlicher Praxis, wie auch Knorr Cetina mit ihrem Begriff der „epistemischen Kulturen“ (Knorr Cetina 1999). Die gleichzeitige Auseinandersetzung mit Fragen der Repräsentation und Intervention mündeten unter anderem in der Ansicht, dass Instrumente, Maschinen und Modelle eine wichtige Vermittlungsfunktion zwischen verschiedenen Arenen und Akteuren ausüben können. Instruktiv ist in dieser Hinsicht auch die von Wise (1988) durchgeführte Untersuchung verschiedener Vermittlungsmodi, die an der Entwicklung der Dampfmaschine und des elektrischen Telegrafen beteiligt waren, auch wenn die Analyse dieser Modi in einer eher einfachen Sprache vom „sozialen Kontext“ gefasst ist. Wenn dieser „soziale Kontext“ existiere, behauptet Wise, dann nur in vermittelter Form. Eine Maschine, die in einem bestimmten sozialen Kontext fungiert, trage sowohl Ideen und Konzepte in und mit sich, die ihren technischen Betrieb erklären, als auch solche, die ihre soziale Funktion erläutern helfen. Durch diese beiden Ideensets, so Wise, interagieren Mensch und Gesellschaft mit der Maschine. Die gleichzeitige Einbettung technischer und sozialer Konzepte ermögliche es, dass Begriffe und Kategorien einer lokalen „scientific community“ und breitere, politische und ökonomische Konzepte sich wechselseitig definieren. In ähnlicher Weise können auch abstrakte Modelle als „mediating instruments“ (Morrison/Morgan 1999) fungieren. Modelle können deshalb als Werkzeuge wissenschaftlicher Untersuchungen fungieren, weil sie sich aus einer Mixtur sehr unterschiedlicher Elemente zusammensetzen. Morrison und Morgan zufolge gelte dies nicht nur für den Bereich der Naturwissenschaften, sondern auch für den der Sozialwissenschaften. Ob es sich um Modelle der Supraleitfähigkeit, Modelle

Wie und warum das Rechnungswesen in der Soziologie in Vergessenheit geriet

35

des „confinement“ von Quarks, Leontiefs Input-Output Modelle oder Modelle multivariater Zeitreihenanalysen handelt, sie alle fungieren sowohl als Mittel der Intervention, wie auch als Mittel der Repräsentation. Des Weiteren spielen Modelle eine wichtige Rolle in der Messung, und somit nehmen sie ihren Platz ein neben Experimenten, Theorien und Erhebungsdaten als essentielle Bestandteile wissenschaftlicher Praxis. Callon (1998), der ebenfalls in seinen Arbeiten dem Thema der Kalkulation einen zentralen Stellenwert einräumt, setzt sich hauptsächlich mit der materiellen Wirklichkeit von komplexen kalkulativen Praktiken auseinander den Zahlen, Mechanismen und Inskriptionen, die für die Durchführung von Kalkulation von entscheidender Bedeutung sind. Kalkulation und agency seien zwei Seiten derselben Medaille, und die Existenz von calculative agencies sei eng korreliert mit dem Vorhandensein kalkulativer Werkzeuge. Werkzeuge und calculative agencies definieren sich ebenso wechselseitig wie Art und Inhalt der Kalkulationen, die von ihnen durchgeführt werden. Die Werkzeuge selbst sind flexibel, plastisch, unterschiedlich einsetzbar und veränderbar. Andere Autoren, wie MacKenzie und Millo (2003), haben sich in ähnlicher Weise mit dem Thema auseinandergesetzt, allerdings in diesem Falle mit Blick auf die „Performativität“ der Wirtschaftswissenschaften im Kontext des Optionshandels. Beunza und Stark (2004) beschreiben die Verbindungen zwischen Personen und Instrumenten in einem Trading Room der New Yorker Wall Street. Kalthoff (2005) untersucht Praktiken des bankwirtschaftlichen Risikomanagements. Er betrachtet Praktiken des Risikomanagements als epistemische Praktiken und „investments in form“ (Thévenot 1984), die Unternehmen und andere bankwirtschaftliche Objekte mitkonstituieren (vgl. dazu auch den Beitrag Kalthoffs in diesem Band). Diese Betonung der dynamischen und konstitutiven Funktion von Kalkulation hat sowohl den Horizont, als auch den Aktionsradius der Wirtschaftssoziologie erheblich erweitert und uns ein wesentlich besseres Verständnis von den Instrumenten geliefert, die die heutigen Finanzmärkte beleben. Jedoch sind während der, verständlicherweise wichtigen, Bemühungen darum, sich von überholten Begriffen des sozialen Kontexts zu distanzieren, Wechselwirkung und Zusammenspiel von Arten und Weisen des Kalkulierens und verschiedenen Weisen der Regierung und Steuerung ökonomischen Lebens aus dem Blickfeld geraten. So wie die Wirtschaftssoziologie dazu tendiert hat, kalkulative Praktiken zu übersehen, so führt der „technological turn“ in den Wissenschaftsstudien indirekt dazu, dass Ensembles von Kalkulationen, Inskriptionen, Taktiken, Strategien und Aspirationen, die historisch spezifische Machtmodi herausbilden und begründen helfen, vernachlässigt werden. Anders ausgedrückt ist der Fokus auf Instrumente (zumindest in den meisten Fällen) nicht begleitet von einer ebenfalls wichtigen Auseinandersetzung mit „Ideen“, wie Hacking (1992) es in entwaffnend einfacher Sprache nennt. Oder, noch anders ausgedrückt, die Analyse von Technologien geht nicht mit einer entsprechenden Analyse von politischen Programmen und Programmatiken einher. Eine ganze Reihe an Autoren (z. B. Gordon 1980; Miller/Rose 1990; Rose/Miller 1992) hat jedoch aufgezeigt, dass Programme und Technologien, Rationalitäten und Werkzeuge, Ideen und Instrumente gemeinsam untersucht werden müssen, wenn wir Prozesse der Regierung und Lenkung ökonomischen Lebens vollständig verstehen wollen. In Bezugnahme auf Foucaults Studien zum Verhältnis von Wissen und Macht hält Gordon (1980) uns dazu an, mehr Acht auf die komplexen und dichten Beziehungsgefüge, die zwischen Programmen und Techniken der Macht bestehen, zu geben. Ein programmatisches Schema, behauptet er, erfülle seine Bestimmung nur, wenn es durch die Ausarbeitung ent-

36

Peter Miller

sprechender Techniken komplementiert werde. Miller und Rose (1990) unterscheiden in ähnlicher Weise zwischen Programmen und Technologien der Macht, um diskursive und technische Dimensionen der „Gouvernementalität“ voneinander zu trennen. Jede Art von Regierung benötigt bestimmte Modi der Repräsentation und Wissen über den jeweiligen Herrschaftsbereich, genauso wie sie verschiedener Technologien bedarf, um auf die Regierungsobjekte, die sie erdenkt und entwirft, einwirken zu können. Rose und Miller (1992) haben aufgezeigt, dass Regierungsprogrammatiken erst durch Technologien betriebsfähig gemacht werden können. Und Kalkulation, so behaupten sie, sei einer der eminentesten Modi durch die Programme übersetzt und betriebsfähig gemacht werden können. Unter der Annahme, dass Ziffern und Zeichen intrinsisch mit Programmatiken verknüpft sind und die Bereiche, die sie repräsentieren, transformieren können, liefert die allein stehende Finanzzahl ein exzellentes Beispiel einer Technologie der Intervention (Miller 1994b). Denn die allein stehende Finanzzahl verleiht Dingen und Aktivitäten nicht nur Objektivität und Neutralität, sondern macht diese Aktivitäten auch dann vergleichbar, wenn sie sonst eher wenig miteinander gemein haben. Die allein stehende Finanzzahl, so wie sie von den kalkulativen Routinen des Accounting produziert wird, vermag es, Akteure und Aktivitäten in einen funktionierenden kalkulativen und programmatischen Gesamtzusammenhang einzubinden. So wie der Bereichsleiter eines multinationalen Unternehmens in ein „kalkulierendes Selbst“ transformiert werden kann, kann dies auch der Arzt, Sozialarbeiter oder Lehrer. Das „kalkulierende Selbst“ kann mit ganz verschiedenen kalkulativen Räumen verbunden werden: abstrakten Räumen, wie z. B. Profit Centers, oder physischen Räumen, wie z. B. einer Fabrikhalle oder einer Krankenstation. Und in diesem Prozess der Vermittlung, Intervention und Erfindung kann die Fabrik selbst in ein Labor umgewandelt werden, in dem sowohl mit neuen Formen der Kalkulation ‚experimentiert’ wird, als auch neue Formen der Identität und des Menschseins entworfen werden (Miller/O’Leary 1994). Auf die Wichtigkeit einer Analyse der Verbindungen zwischen Programmen und Technologien hat auch mit Nachdruck Power (1997) hingewiesen. In seinen Studien über Auditing hebt er hervor, dass zur Erklärung der „Audit Explosion“ sowohl Prozesse der Generalisierung der Audit-Idee, als auch die Fülle der Instrumente und Techniken der Audit-Praxis herangezogen werden müssen. Versuche Auditing zu definieren seien Bemühungen, festzuschreiben, was Auditing sein könnte oder sein sollte und somit Projektionen einer idealisierten, normativen Sicht auf sein Potential. Diese programmatische Dimension des Auditing ist entscheidend, denn hier werden breitere Ambitionen und politische Ziele des Auditing entwickelt und vorgestellt. Regulierungsbehörden und -systeme machen sich Auditing für die Projektion ihrer Programmatiken zunutze und passen es in ganz verschiedene politische Programme, Ziele und Arenen ein. Techniken des Auditing, wie z. B. Checklisten, die Erstellung von Untersuchungsproben oder bestimmte analytische Prüfungsverfahren, wiederum sind von „Unterprogrammen und Metadiskursen“ umgeben. Powers doppelter Fokus auf technische und programmatische Aspekte des Auditing ermöglicht es ihm, seine Analyse von technokratischen und funktionalistischen Sichtweisen zu distanzieren. Auditing mag zwar aus einer Ansammlung von Tests und Evidenz generierenden Tätigkeiten bestehen, jedoch stellt es genauso eine „assemblage“ von Werten und Zielen dar, die ihm in den offiziellen Programmatiken, die es begehren und anfordern, zugewiesen werden. Rückblickend kann gesagt werden, dass mit den neunziger Jahren die konstitutiven und schöpferischen Eigenschaften kalkulativer Praktiken zu einem festen Bestandteil einer

Wie und warum das Rechnungswesen in der Soziologie in Vergessenheit geriet

37

ganzen Reihe von Studien geworden sind. Zunehmend wird akzeptiert, dass wirtschaftliche Kalkulationen soziale Beziehungen gestalten sowie unsere Sicht auf uns selbst und andere beeinflussen. Jedoch ist die Wichtigkeit einer Analyse der Verbindungen zwischen Ideen und Praktiken der Kalkulation, zwischen Programmen und Technologien der Kalkulation, weitaus weniger fest etabliert. Das Zusammenspiel von Ideen und Praktiken, Programmen und Technologien der Kalkulation ermöglicht es jedoch erst, die Funktionen verschiedener kalkulativer Praktiken für die Regierung und Steuerung ökonomischen Lebens zu verstehen, und ist von zentraler Wichtigkeit für eine Soziologie des Accounting, wenn sie denn überkommene Begriffe des Kontexts überwinden und eine Sicht auf kalkulative Praktiken als Selbstläufer vermeiden will. Schluss Dieser Aufsatz behandelte die Frage, wie und warum in der Soziologie das Rechnungswesen (Accounting) für ungefähr ein halbes Jahrhundert in Vergessenheit geraten konnte. Er skizzierte die eigenartig punktuelle Geschichte der soziologischen Auseinandersetzung mit Accounting und Accounting-Praktiken innerhalb des letzten Jahrhunderts. Während das Rechnungswesen noch einen zentralen Platz in der Soziologie des beginnenden zwanzigsten Jahrhunderts eingenommen hatte, verschwand es danach für ca. ein halbes Jahrhundert aus dem Blickfeld der Soziologen. Als das Accounting als Untersuchungsobjekt von den Sozialwissenschaften in den fünfziger und sechziger Jahren ‚wiederentdeckt’ wurde, fand dies in einem relativ engen Rahmen statt, der durch den sozialpsychologischen Fokus auf Gruppen und Gruppenprozesse abgesteckt war. Erst in den siebziger Jahren wurde das Interesse an den gesellschaftlichen und organisationalen Dimensionen des Accounting wieder langsam wach. Und erst Mitte der Achtziger begann man sich mit Fragen nach den Funktionen des Accounting für die Regierung und Steuerung ökonomischen Lebens auseinanderzusetzen. Dieser Beitrag hat diesen Prozess in seinen Konturen dargestellt und eine erste vorsichtige, aber ohne Zweifel nicht vollständige, Erklärung für seinen Verlauf angeboten. Es wurde vorgeschlagen, dass im Kern dieses Phänomens das Fehlen bzw. Aufkommen einer Analyse kalkulativer Praktiken liegt. Während das ‚Vergessen’, zumindest in Teilen, auf die Unfähigkeit oder das Versagen der Soziologen zurückgeführt werden kann, sich adäquat mit der Reichweite und Vielfältigkeit von Accounting-Praktiken auseinanderzusetzen, so kann die Wiederentdeckung des Accounting im Gegenzug mit der Wiederentdeckung bzw. erneuten Konzentration auf die Funktionen von Accounting-Praktiken in der Gestaltung von Wirtschaft und Gesellschaft erklärt werden. Aus diesem synoptischen Rückblick auf mehr als ein Jahrhundert soziologischer Auseinandersetzung mit Accounting können eine Anzahl verschiedener Schlussfolgerungen gezogen werden. Erstens haben der „technological turn“ in der Wissenschaftssoziologie sowie die Wiederentdeckung der Wirtschaft als soziologisches Untersuchungsobjekt direkt und indirekt dazu beigetragen, die Aufmerksamkeit der Soziologie erneut auf das Accounting und andere verwandte Formen der ökonomischen Kalkulation zu lenken (vgl. dazu auch die Beiträge von Heintz, Kalthoff, Preda und Vormbusch in diesem Band). Aber dies war zumindest bislang nicht gepaart mit der Entwicklung eines gleichwertigen Interesses an breiter angelegten Fragestellungen, die die Regierung und Lenkung ökonomischen Lebens betreffen.

38

Peter Miller

Das fast ausschließliche Interesse an kalkulativen Praktiken hat dazu beigetragen, dass Fragen nach den ‚Ideen’ oder ‚Programmen’ der Kalkulation häufig an den Rand der Aufmerksamkeit gedrängt werden. Dies ist bedauerlich, da wir doch weiter oben gesehen haben, dass Praktiken des Auditing nicht von Ideen des Auditing getrennt werden können. Die Kalkulation von Varianzen und der Abweichung von Standards ist untrennbar mit Konzepten der Effizienz verbunden. Praktiken des Benchmarking gehen typischerweise Hand in Hand mit breiteren Diskursen über Wettbewerbsfähigkeit. Und die Sprache der Märkte kann dazu beitragen, die Grenzen zwischen privatem und öffentlichem Sektor zu verschieben und eine Lawine an Zahlen loszutreten, die von einer ganzen Reihe verschiedener Kalkulationsmaschinen produziert wird. Wir sollten uns nicht nur mit der konstitutiven Funktion kalkulativer Praktiken auseinandersetzen, sondern uns ebenso damit beschäftigen, wie Kalkulationen mit Bedeutungen versehen werden, die über die unmittelbaren Aufgaben, die ihnen zugewiesen werden, hinausgehen. Selbst noch so alltägliche und banale kalkulative Tätigkeiten führen immer auch ein Bündel an weitergehenden Gedanken und Ideen mit sich. Ob es sich dabei um die Wechselbeziehung zwischen Praktiken der Evaluierung und Vorstellungen einer elektronischen Zukunft in der Mikroprozessorindustrie handelt (Miller/O’Leary 2006) oder um den Zusammenhang zwischen Instrumenten, die die Performanz des Gesundheitswesens berechnen, und weiteren Prozessen der Vermarktlichung – eine Untersuchung der Verbindungen zwischen Techniken und Programmatiken der Kalkulation ist vonnöten, wenn wir ein hinreichendes Verständnis darüber entwickeln wollen, wie ökonomisches Leben bestimmt, gestaltet und regiert wird. Zweitens ist deutlich geworden, dass wir uns mit den Verbindungen zwischen Wirtschaft und Wirtschaftswissenschaften, Finanztheorie und Finanzinstitutionen, genauer beschäftigen müssen. Allerdings sollten wir beachten, dass sich nicht alle Arten ökonomischer Kalkulation notwendigerweise von den Wirtschaftswissenschaften her ableiten lassen oder diesen untergeordnet werden können. Wir müssen uns deshalb stärker mit dem Komplex an Wissen und Praktiken, die ökonomisches Leben gestalten, repräsentieren und in es intervenieren, empirisch auseinandersetzen. Wir sollten die Verbindungen zwischen den verschiedenen Disziplinen und Praktiken, die mithelfen, der Wirtschaft ihre gegenwärtige Form zu verleihen, untersuchen. Accounting, Versicherungswissenschaft, angewandte Psychologie, Ingenieurswissenschaften, Finanzwissenschaften, Operations Research und, neuerdings, Risikoanalysen gehören zu den Disziplinen, denen wir uns zuwenden sollten. Natürlich sind viele dieser Disziplinen mit den Wirtschaftswissenschaften auf die eine oder andere Weise mehr oder weniger eng verbunden. Jedoch sind es die „assemblages“, die sich aus einer Vielzahl verschiedener Konzepte und Praktiken zusammensetzen, und deren variablen und durchlässigen Grenzen, denen wir unsere Aufmerksamkeit schenken sollten. Denn durch sie werden Eingriffe in die Ökonomie ermöglicht und wichtige Prozesse der Hybridisierung von Praxis in Gang gebracht. Drittens haben wir angemerkt, dass die ‚Wiederentdeckung’ des Accounting durch die Soziologie geografisch unterschiedlich verlaufen ist und dass das Untersuchungsobjekt Accounting es bis heute nicht geschafft hat, bis in die Hauptströmung der Wirtschaftssoziologie vorzudringen. Während die Wissenschaftssoziologie dazu tendierte, Fragen nach der Regierung und Lenkung ökonomischen Lebens auszublenden, hat sich die herkömmliche Wirtschaftssoziologie weiterhin mehr oder weniger ausschließlich mit der Analyse von Institutionen, Organisationen und Netzwerken befasst und dabei die Bedeutung kalkulativer

Wie und warum das Rechnungswesen in der Soziologie in Vergessenheit geriet

39

Praktiken fast vollständig vernachlässigt.9 Beides ist bedauerlich und widersinnig. Während in unserer viel gerühmten und kritisierten ‚globalen’ transnationalen Welt die Praktiken und Ideen, von denen die Wirtschaft belebt und angetrieben wird, weiterhin die nationalen Grenzen mehr und mehr verschwinden lassen, sind die Disziplinen, die diese Prozesse untersuchen, in geografischer wie intellektueller Hinsicht bis heute in bemerkenswerter Weise voneinander abgegrenzt geblieben. Übersetzung: Andrea Mennicken Literatur Abolafia, M.Y. (1996): Making Markets. Cambridge, Mass.: Harvard University Press. Amin, A./Thrift, N. (2004): The Blackwell Cultural Economy Reader. Oxford: Blackwell. Ansari, S./Euske, K. (1987): Rational, Rationalizing and Reifying Uses of Accounting Data in Organizations. In: Accounting, Organizations and Society 12, S. 549-570. Argyris, C. (1952): The Impact of Budgets on People. Controllership Foundation. Armstrong, P. (1985): Changing Management Control Strategies: The Role of Competition Between Accountancy and Other Organisational Professions. In: Accounting, Organizations and Society 10, S. 129-148. Armstrong, P. (1987): The Rise of Accounting Controls in British Capitalist Enterprises. In: Accounting, Organizations and Society 12, S. 415-436. Arnold, P. (1998): The Limits of Postmodernism in Accounting History: The Decatur Experience. In: Accounting, Organizations and Society 23, S. 665-684. Arnold, P. (1991): Accounting and the State: Consequences of Merger and Acquisition Accounting in the US Hospital Industry. In: Accounting, Organizations and Society 16, S. 121-140. Barnard, C.I. (1938): The Functions of the Executive. Cambridge, Mass.: Harvard University Press. Becker, S./Green, D. (1962): Budgeting and Employee Behavior. In: The Journal of Business, S. 392-402. Berry, A.J./Capps, T./Cooper, D./Ferguson, P./Hopper, T./Lowe, E.A. (1985): Management Accounting in an Area of the NCB: Rationales of Accounting Practices in a Public Enterprise. In: Accounting, Organizations and Society 10, S. 3-28. Beunza, D./Stark, D. (2004): Tools of the Trade: The Socio-Technology of Arbitrage in a Wall Street Trading Room. In: Industrial and Corporate Change 13, S. 369-400. Bion, W. (1946): The Leaderless Group Project. In: Bulletin of the Menninger Clinic, Volume 10. Boland, R.J./Pondy, L.R. (1983): Accounting in Organizations: A Union of Natural and Rational Perspectives. In: Accounting, Organizations and Society 8, S. 223-234. Bougen, P. (1989): The Emergence, Roles and Consequences of an Accounting-Industrial Relations Interaction. In: Accounting, Organizations and Society 14, S. 203-234. Bougen, P.D./Ogden, S.G./Outram, Q. (1990): The Appearance and Disappearance of Accounting: Wage Determination in the UK Coal Industry. In: Accounting, Organizations and Society 15, S. 149-170. Braverman, H. (1974): Labor and Monopoly Capital: The Degradation of Work in the Twentieth Century. New York: Monthly Review Press. Burchell, S./Clubb, C./Hopwood, A./Hughes, J. (1980): The Roles of Accounting in Organizations and Society. In: Accounting, Organizations and Society 5, S. 5-27. Burchell, S./Clubb, C./Hopwood, A.G. (1985): Accounting in its Social Context: Towards a History of Value Added in the United Kingdom. In: Accounting, Organizations and Society 10, S. 381-413. 9

Die Studien von John Meyer bilden in diesem Zusammenhang eine Ausnahme. Vgl. dazu z. B.: Meyer/Rowan (1977) und jüngst Drori et al (2003) und Drori et al. (2006).

40

Peter Miller

Chua, W.F. (1995): Experts, Networks and Inscriptions in the Fabrication of Accounting Images: A Story of the Representation of Three Public Hospitals. In: Accounting, Organizations and Society 20, S. 111-145. Callon, M. (Hg.) (1998): The Laws of the Markets. Oxford: Blackwell. Covaleski, M.A./Dirsmith, M.W. (1988): The Use of Budgetary Symbols in the Political Arena: An Historically Informed Field Study. In: Accounting, Organizations and Society 13, S. 1-24. Cutler, A./Hindess, B./Hirst, P./Hussain, A. (1977): Marx’s ‘Capital’ and Capitalism Today: Volume One. London: Routledge and Kegan Paul. Cutler, A./Hindess, B./Hirst, P./Hussain, A. (1978): Marx’s ‘Capital’ and Capitalism Today: Volume Two. London: Routledge and Kegan Paul. Dalton, M. (1959): Men Who Manage: Fusions of Feeling and Theory in Administration. New York: John Wiley and Sons. Dent, J. (1991): Accounting and Organizational Cultures: A Field Study of the Emergence of a New Organizational Reality. In: Accounting, Organizations and Society 16, S. 705-732. DiMaggio, P. (Hg.) (2001): The Twenty-First-Century Firm: Changing Economic Organization in International Perspective. Princeton, NJ: Princeton University Press. Drori, G./Meyer, J.W./Ramirez, F.O./Schofer, E. (2003): Science in the Modern World Polity: Institutionalization and Globalization. Stanford: Stanford University Press. Drori, G./Meyer, J./Hwang, H. (2006): Globalization and Organization: World Society and Organizational Change. Oxford: Oxford University Press. Espeland, W.N./Hirsch, P.M. (1990): Ownership Changes, Accounting Practice and the Redefinition of the Corporation. In: Accounting, Organizations and Society 15, S. 77-96. Fligstein, N. (2001): The Architecture of Markets: An Economic Sociology of Twenty-First-Century Capitalist Societies. Princeton, NJ: Princeton University Press. Fligstein, N. (1990): The Transformation of Corporate Control. Cambridge, Mass.: Harvard University Press. Foucault, M. (1988): The Political Technology of Individuals. In: Martin, L.H./Gutman, H./Hutton, P.H. (Hg.): Technologies of the Self. Amherst, Mass.: University of Massachusetts Press. Froud J./Williams, K./Haslam, C./Johal, S./Williams J. (1998): Caterpillar: Two Stories and an Argument. In: Accounting, Organizations and Society 23, S. 685-708. Goffman, E. (1961): Asylums: Essays on the Social Situation of Mental Patients and Other Inmates. New York: Doubleday & Co. Gordon, C. (1987): The Soul of the Citizen: Max Weber and Michel Foucault on Rationality and Government. In: Lash, S./Whimster, S. (Hg.): Max Weber, Rationality and Modernity. London: Allen and Unwin. Gordon. C. (1980): Afterword. In: Gordon, C. (Hg.): Power/Knowledge: Michel Foucault – Selected Interviews and Other Writings 1972-1977. Brighton: Harvester, S. 229-259. Gouldner, A.W. (1954): Wildcat Strike: A Study in Worker-Management Relationships. New York: Harper and Row. Granovetter, M. (1985): Economic Action and Social Structure: The Problem of Embeddedness. In: American Journal of Sociology 91, S. 481-510. Hacking, I. (1983): Representing and Intervening. Cambridge: Cambridge University Press. Hacking, I. (1992): The Self-Vindication of the Laboratory Sciences. In: Pickering, A. (Hg.): Science as Practice and Culture. Chicago: University of Chicago Press, S. 29-64. Hennis, W. (1987): Personality and Life Orders: Max Weber’s Theme. In: Lash, S./Whimster, S. (Hg.): Max Weber, Rationality and Modernity. London: Allen and Unwin. Herzberg, F. (1968): Work and the Nature of Man. London: Staples Press. Hofstede, G. (1968): The Game of Budget Control. London: Tavistock. Homans, G. (1951): The Human Group. London: Routledge and Kegan Paul. Hopwood, A. G. (1978): Editorial. In: Accounting, Organizations and Society 3, S. 189-190. Hopwood, A.G. (1976): Editorial: The Path Ahead. In: Accounting, Organizations and Society 1, S. 1-4.

Wie und warum das Rechnungswesen in der Soziologie in Vergessenheit geriet

41

Hopwood, A.G. (1974): Accounting and Human Behaviour. London: Haymarket Publishing. Jaques, E. (1951): The Changing Culture of a Factory. London: Tavistock. Jonsson, S./Gronlund, A. (1988): Life with a Sub-Contractor: New Technology and Management Accounting. In: Accounting, Organizations and Society 13, S. 512-532. Kalthoff, H. (2005): Practices of Calculation: Economic Representations and Risk Management. In: Theory, Culture and Society 22, S. 69-97. Kalthoff, H./Rottenburg, R./Wagener, H.-J. (Hg.) (2000): Facts and Figures: Economic Representations and Practices. Marburg: Metropolis. Knorr Cetina, K. (1999): Epistemic Cultures: How the Sciences Make Knowledge. Cambridge, Mass.: Harvard University Press. Knorr Cetina, K./Preda, A. (2005): The Sociology of Financial Markets. Oxford: Oxford University Press. Latour, B. (1987): Science in Action: How to Follow Scientists and Engineers Through Society. Milton Keynes: Open University Press. Likert, R. (1961): New Patterns of Management. London: McGraw-Hill. MacKenzie, D. (2004): The Big, Bad Wolf and the Rational Market: Portfolio Insurance, the 1987 Crash and the Performativity of Economics. In: Economy and Society 33, S. 303-334. MacKenzie, D. (2003): Long-Term Capital Management and the Sociology of Arbitrage. In: Economy and Society 32, S. 349-380. MacKenzie, D. (1996): Knowing Machines: Essays on Technical Change. Cambridge, Mass.: MIT Press. MacKenzie D./Millo, Y. (2003): Constructing a Market, Performing Theory: The Historical Sociology of a Financial Derivatives Exchange. In: American Journal of Sociology 109, S. 107-145. March, J.G./Simon, H.A. (1958): Organizations. New York: Wiley. Marx, K. (1989/1867): Das Kapital. Band I. Der Produktionsprozeß des Kapitals. Berlin: Dietz Verlag. Marx, K. (1986/1893): Das Kapital. Band II. Der Zirkulationsprozeß des Kapitals. Berlin: Dietz Verlag. Mayo, E. (1933): The Human Problems of an Industrial Civilization. New York: Macmillan. McGregor, D. (1960): The Human Side of the Enterprise. London: McGraw-Hill. Meyer, J.W./Rowan, B. (1977): Institutionalized Organizations: Formal Structure as Myth and Ceremony. In: American Journal of Sociology 83, S. 340-363. Miller, P. (2005): Kalkulierende Subjekte. In: Arbeitsgruppe SubArO (Hg.): Ökonomie der Subjektivität. Subjektivität der Ökonomie. Berlin: Sigma. Miller, P. (1998): The Margins of Accounting. In: Callon, M. (Hg.): The Laws of the Markets. Oxford: Blackwell, S. 174-193. Miller, P. (1994a): Accounting as Social and Institutional Practice: An Introduction. In: Hopwood, A.G./Miller, P. (Hg.): Accounting as Social and Institutional Practice. Cambridge: Cambridge University Press, S. 1-39. Miller, P. (1994b): Accounting and Objectivity: The Invention of Calculating Selves and Calculable Spaces. In: Megill, A. (Hg.): Rethinking Objectivity. Durham: Duke University Press. Miller, P. (1986): Psychotherapy of Work and Unemployment. In: Miller, P./Rose N. (Hg.): The Power of Psychiatry. Cambridge: Polity Press. Miller, P./Kurunmäki, L./O’Leary, T. (2006): Accounting, Hybrids and the Management of Risk. CARR Discussion Paper No. 40. London: Centre for Analysis of Risk and Regulation. Miller, P./O’Leary, T. (2006): Mediating Instruments and Making Markets: Capital Budgeting, Science and the Economy. Working Paper, London School of Economics and Political Science. Miller, P./O’Leary, T. (1994): The Factory as Laboratory. In: Science in Context 7, S. 469-496. Miller, P./Rose, N. (1990): Governing Economic Life. In: Economy and Society 19, S. 1 – 31. Morrison, M./Morgan, M.S. (1999): Models as Mediating Instruments. In: Morgan, M.S./Morrison, M. (Hg.): Models as Mediators: Perspectives on Natural and Social Science. Cambridge: Cambridge University Press. Nahapiet, J. (1988): The Rhetoric and Reality of an Accounting Change: A Study of Resource Allocation. In: Accounting, Organizations and Society 13, S. 333-358.

42

Peter Miller

Neimark, M.K. (1992): The Hidden Dimensions of Annual Reports: Sixty Years of Social Conflict at General Motors. New York: Markus Wiener. Neimark, M./Tinker, T. (1986): The Social Construction of Management Control Systems. In: Accounting, Organizations and Society 11, S. 369-395. Pickering, A. (1992): From Science as Knowledge to Science as Practice. In: Pickering, A. (Hg.): Science as Practice and Culture. Chicago: University of Chicago Press, S. 1-26. Platt, J. (1996): A History of Sociological Research Methods in America, 1920-1960. Cambridge: Cambridge University Press. Power, M. (1997): The Audit Society: Rituals of Verification. Oxford: Oxford University Press. Power, M. (1991): Educating Accountants: Towards a Critical Ethnography. In: Accounting, Organizations and Society 16, S. 333-353. Preston, A.M. (1989): The Taxman Cometh: Some Observations on the Interrelationship Between Accounting and Inland Revenue Practice. In: Accounting, Organizations and Society 11, S. 398-413. Preston, A.M./Cooper, D.J./Coombs, R.W. (1992): Fabricating Budgets: A Study of the Production of Management Budgeting in the National Health Service. In: Accounting, Organizations and Society 17, S. 561-593. Puxty, A.G./Willmott, H.C./Cooper, D.J./Lowe, T. (1987): Modes of Regulation in Advanced Capitalism: Locating Accountancy in Four Countries. In: Accounting, Organizations and Society 12, S. 273-291. Roberts, J./Scapens, R. (1985): Accounting Systems and Systems of Accountability: Understanding Accounting Practices in their Organizational Contexts. In: Accounting, Organizations and Society 10, S. 443-456. Robson, K. (1991): On the Arenas of Accounting Change: The Process of Translation. In: Accounting, Organizations and Society 16, S. 547-570. Rose, N./Miller, P. (1992): Political Power Beyond the State: Problematics of Government. In: British Journal of Sociology 43, S. 173-205. Smelser, N.J./Swedberg, R. (Hg.) (2005): The Handbook of Economic Sociology. Second edition. Princeton, NJ: Princeton University Press. Sombart, W. (1987/1916): Der moderne Kapitalismus. Band II: Das europäische Wirtschaftsleben im Zeitalter des Frühkapitalismus, unveränderter Nachdruck der zweiten, neugearbeiteten Auflage. München: DTB. Strauss, G. (1955): Group Dynamics and Intergroup Relations. In Whyte, W.F. (Hg.): Money and Motivation: An Analysis of Incentives in Industry. New York: Harper and Row. Thévenot, L. (1984): Rules and Implements: Investments in Forms. In: Social Science Information 23, S. 1-45. Thompson, G. (1986): Economic Calculation and Policy Formation. London: Routledge. Tinker, T. (1985): Paper Prophets: A Social Critique of Accounting. New York: Praeger. Tomlinson, J. (1994): The Politics of Economic Measurement: The Rise of the ‘Productivity Problem’ in the 1940s. In: Hopwood, A.G/Miller, P. (Hg.): Accounting as Social and Institutional Practice. Cambridge: Cambridge University Press. Vollmer, H. (2003): Bookkeeping, Accounting, Calculative Practice: The Sociological Suspense of Calculation. In: Critical Perspectives on Accounting 14, S. 353-381. Weber, M. (1980): Wirtschaft und Gesellschaft. Tübingen: J.C.B. Mohr. Erstveröffentlichung 1921/1922. Weber, M. (2004): Die protestantische Ethik und der Geist des Kapitalismus. München: Beck. Erstveröffentlichung 1904/1905. Wise, M. N. (1988): Mediating Machines. In: Science in Context 2, S. 77-113.

Die Kalkulation der Gesellschaft

43

Die Kalkulation der Gesellschaft

Uwe Vormbusch Der folgende Beitrag untersucht zwei Thesen: Erstens beginnen sich im Feld der gesellschaftlichen Steuerung und Kontrolle spezifische Formen des ‚Rechenschreibens’ und ‚Rechensprechens’ durchzusetzen. Sie repräsentieren den Versuch, gesellschaftliche Phänomene im Medium organisierten Zahlengebrauchs zu rekonstruieren und zu manipulieren. Einer ihrer historischen Vorläufer ist in der doppelten Buchführung zu sehen, welche sich in Europa seit dem 13., 14. Jahrhundert als „Schrift des Kapitals“ (vgl. Baecker 1993) zu etablieren begann. Gegenwärtig lässt sich vor dem Hintergrund der Steuerungsanforderungen moderner kapitalistischer Gesellschaften eine gesellschaftliche Verallgemeinerung dieser Formen des Rechenschreibens in Gestalt soziokalkulativer Praktiken beobachten, in deren Zuge aus der ökonomischen Schrift des Kapitals eine ‚Schrift der Gesellschaft’ wird. Zweitens wird argumentiert, dass soziokalkulative Praktiken auf der Ebene der Kulturtechniken auf die Verbreitung ‚kalkulativer Lesefähigkeiten’ angewiesen sind (numeracy). Die erste These zielt offensichtlich auf die ökonomische und politische Relevanz kalkulativer Praktiken, d. h. auf ihre Systemfunktionen. Die zweite These hebt dagegen auf Prozesse der individuellen und kollektiven Deutung moderner Gesellschaften im Medium kalkulativer Praktiken ab, d. h. auf die Art und Weise, in der wir unserer Welt handlungspraktisch einen Sinn geben, auf welche Deutungsmuster wir uns hierbei stützen, und schließlich auf die kulturelle Legitimität kalkulativer Praktiken und Konstrukte, d. h. auf die Bereitschaft, diese als angemessene und legitime Darstellungsformen der gesellschaftlichen Wirklichkeit zu akzeptieren. Welche ‚Wirklichkeit’ nimmt das ‚Zahlenwissen’ für uns heute an, nachdem es historisch betrachtet den engen Käfig der wirtschaftlichen Buchführung längst verlassen hat und zu einer gesellschaftlich beinahe ubiquitären Praxis geworden ist? Diese Frage nach der Kulturbedeutung des Kalkulativen ist die Frage danach, welche spezifische gesellschaftliche Wirklichkeit die handelnden Subjekte mit kalkulativen Konstrukten und kalkulativen Praktiken verbinden. Da diese ‚innere Wirklichkeit’ der wissenschaftlichen Beobachtung weitgehend verborgen ist und zumindest die Soziologie keinen Anspruch darauf erhebt, diese erschließen zu können, müssen hierzu Handlungsstrategien und Aushandlungsprozesse in solchen Feldern rekonstruiert werden, die durch kalkulative Praktiken geprägt sind. Systemfunktionen und kulturelle Basis kalkulativer Praktiken sind zwei eng miteinander verknüpfte Aspekte einer gesellschaftlichen Kalkulationsweise. Der Begriff der Produktionsweise wird in der Regel ausgehend von Marx als eine Form des gesellschaftlichen Zusammenspiels von Produktivkräften und Produktionsverhältnissen verstanden. Eine Kalkulationsweise ist dementsprechend ein spezifischer Teil dieses Wechselspiels, der sowohl die Techniken der zahlenbasierten Steuerung und Kontrolle in Wirtschaft und Gesellschaft umfasst, als auch die kulturelle Relevanz kalkulativer Praktiken und schließlich den Pool an Lese- und Interpretationskompetenzen, ohne den die „gesellschaftliche Macht der Zahlen“ (Vormbusch 2004; Wagner 2005) auf tönernen Füßen stehen würde. So wie

44

Uwe Vormbusch

neue Formen der Schriftlichkeit, wie der Druck und das Lesen von Büchern, an die gesellschaftliche Diffusion entsprechender Lesefähigkeiten und -neigungen gebunden war und diese zugleich beförderte, so sind auch die gesellschaftlichen Formen des Rechenschreibens an die Verbreitung entsprechender Lese- und Interpretationskompetenzen gebunden, für welche im Folgenden der Sammelbegriff der „numeracy“ verwendet wird. „Literacy skills have a significant impact on economic success” (OECD/UNESCOUIS 2003: 36). Gesellschaftliche Schreib- und Lesefähigkeiten, deren Oberbegriff im angelsächsischen Sprachgebrauch „literacy“ bildet, sind laut der internationalen PISA-Studie auch auf der Ebene individueller Denkweisen relevant: „Literacy provides access to literate institutions and resources, and it has an impact on cognition because it shapes the way in which we think“ (OECD/UNECO-UIS 2003: 36; Hervorhebung U.V.). PISA testet und misst Lese- und mathematisches Verständnis dabei in getrennten Erhebungsabschnitten bzw. Skalen. Einer der Aspekte kulturell und ökonomisch relevanter Lesefähigkeiten und entsprechend eine der Skalen in diesem Zusammenhang ist die „mathematical literacy scale“. Aufschlussreich für unsere Fragestellung ist hierbei, dass „mathematical literacy“ konzeptionell nicht allein als die Fähigkeit aufgefasst wird, mathematisch abstrakte Gleichungen und Aufgaben zu lösen, sondern als die Fähigkeit sowie die Bereitschaft, mathematisches Wissen und Fähigkeiten praktisch anzuwenden. Bestandteil von PISA sind also nicht nur entsprechende (kognitive) Fähigkeiten, sondern gewissermaßen auch eine Disposition, sozialen Phänomenen im Medium des Zahlengebrauchs einen Sinn zu verleihen. Insbesondere soll die Kompetenz jugendlicher SchülerInnen evaluiert werden, Einschätzungen zu sozialen Sachverhalten abgeben zu können, welche numerisch bzw. kalkulativ1 dargestellt und aufbereitet werden, d. h. zum Beispiel komplexe kalkulative Schemata wie einen politischen ‚Haushalt’ oder einen Bildungsetat verstehen und eine Meinung hierzu bilden zu können. „Mathematical literacy“ soll im Folgenden als ein Teil des weiter gefassten Konzepts der „numeracy“ interpretiert werden. Die Ergänzung des Oxford English Dictionary von 1976 definiert „numeracy“ als „ability with or knowledge of numbers“ und führt den Begriff auf einen 1959 erschienenen Report über Bildung in England zurück, in dem „illiterate scientists“ den „innumerate humanists“ gegenübergestellt werden (vgl. Cohen 1999: 4f.). Diese Unterscheidung reflektiert eine tief verankerte kulturelle Überzeugung, welche ‚Zählen’ und ‚Erzählen’ (vgl. Hörisch 2002) ganz unterschiedlichen Wissens- und Wissenschaftskulturen exklusiv zurechnet – eine Unterscheidung, deren Einfachheit ihrer Fruchtbarkeit diametral entgegengesetzt ist. Im Übrigen wurde und wird der Begriff der „numeracy“ in Analogie zu „literacy“ verwendet. Er scheint regelmäßig lediglich in politischen Debatten über die Reorganisation des Bildungswesens in Großbritannien verwendet zu werden. In den USA wird stattdessen der Begriff der „quantitative literacy“, in PISA der (engere) Begriff der „mathematical literacy“ verwendet. „Numeracy“ wird auf der Homepage des UK Department for Education and Skills folgendermaßen definiert (Hervorhebungen U.V.): 1

Im Folgenden wird der Ausdruck des „Numerischen“ durch denjenigen des „Kalkulativen“ (des kalkulativen Handelns etc.) ersetzt, weil dieser im Sinne kalkulativer sozialer Praktiken („calculative practices“) in der kritischen angelsächsischen Accounting-Forschung fest etabliert ist (vgl. z. B. Vollmer 2003, 2004). Die Verwendung des Begriffs der „kalkulativen Praktiken“ in diesem Kontext verdeutlicht, dass hiermit – ebenso wie im Fall von PISA – keine abstrakten mathematischen Operationen gemeint sind, sondern eine spezifische soziale Praxis, welche gesellschaftliche Phänomene im Medium des Zahlengebrauchs rekonstruiert und verändert.

Die Kalkulation der Gesellschaft

45

„Numeracy is a proficiency which is developed mainly in mathematics but also in other subjects. It is more than an ability to do basic arithmetic. It involves developing confidence and competence with numbers and measures. It requires understanding of the number system, a repertoire of mathematical techniques, and an inclination and ability to solve quantitative or spatial problems in a range of contexts. Numeracy also demands understanding of the ways in which data are gathered by counting and measuring, and presented in graphs, diagrams, charts and tables.”

Bemerkenswert ist, dass hier ausführlicher als in der PISA-basierten Definition die Relevanz der sozialen Praktiken des Messens und der Aufbereitung von Messergebnissen in Graphiken, Diagrammen, Tabellen und ähnlichem hervorgehoben wird. Numeracy wird so zu einem komplexen Sammelbegriff, unter den verschiedene Transformationspraktiken subsumiert werden: die Überführung von Wahrnehmungen in „Daten“ durch Weisen des Kategorisierens und Zählens sowie die diesbezüglichen Übereinkünfte ebenso wie die Visualisierung dieser Transformationen in Graphen, Tabellen und Schaubildern und die praktischen Fähigkeiten des Umgangs hiermit (vgl. zum Aspekt der Visualisierung die Beiträge in Lynch/Woolgar 1988; Kalthoff 2000). Im Folgenden soll zunächst anhand der Arbeiten Werner Sombarts zum Zusammenhang von Buchführung und der Genese des okzidentalen Kapitalismus der Kulturbedeutung des Kalkulativen nachgegangen werden. Seine Arbeiten zum „modernen Kapitalismus“ können auch als die Frage danach interpretiert werden, in welcher Weise die doppelte Buchführung als zentraler Baustein der Kalkulationsweise des aufkommenden Kapitalismus sowohl eine spezifische Denkweise als auch die spezifischen Erwerbsmotive der Trägerschichten dieses Kapitalismus mit hervorbrachte. Im Anschluss hieran soll anhand des Konzepts der Soziokalkulation nach der Bedeutung kalkulativer Praktiken für die Steuerung der fortgeschrittenen Gegenwartsgesellschaften gefragt werden. Die These lautet, dass kalkulative Praktiken in den modernen Gegenwartsgesellschaften eine historisch neuartige Textform des Rechenschreibens etablieren. Deren Bedeutung geht weit über ihren ökonomischen Entstehungskontext hinaus, Formen der Soziokalkulation werden zu einer generalisierbaren Basis von Steuerung und Kontrolle in ganz unterschiedlichen gesellschaftlichen Handlungsfeldern (vgl. auch den Beitrag von Schmidt im vorliegenden Band). Die Relevanz kalkulativer Praktiken und Konstrukte liegt in diesem Zusammenhang nicht darin, dass sie der einzige Schlüssel zu einer kritischen Gesellschaftsanalyse wären, sondern darin, dass sie ein immer wichtigerer Baustein politischer und ökonomischer Programme und Rationalitäten sind (vgl. Miller 1992: 80). Die Genese des okzidentalen Kapitalismus und die doppelte Buchführung Zeitgleich untersuchten sowohl Max Weber als auch Werner Sombart die doppelte Buchführung im Zusammenhang der Genese des okzidentalen Kapitalismus. Ihnen geht es in diesem Zusammenhang keineswegs nur um technische Innovationen der Buchführung und der Organisation von Wirtschaftsunternehmungen, sondern um das Wechselspiel der gesellschaftlichen Wirkungen und der gesellschaftlichen Bedingtheit der Buchführung – d. h. um ihre ‚Kulturbedeutung’. Weber konzentriert sich dabei auf den Aspekt der Organisierung bzw. Bürokratisierung, während Sombart sich wesentlich ausführlicher mit der Evolution der buchhalterischen Techniken in den norditalienischen Stadtstaaten im 13. und 14.

46

Uwe Vormbusch

Jahrhundert und ihrer Einbettung in den Wandel der Unternehmensformen und der Wirtschaft auseinandersetzt. Seine Frage nach dem Verhältnis von Kalkulation und modernem Kapitalismus ist die doppelte Frage nach der Relevanz kalkulativer Praktiken für das Wirtschafts- und Gesellschaftssystem und für die Handlungsmotive bzw. die Denkweise der Trägerschichten dieses Wirtschaftssystems. Es ist Sombart, der die Buchführung in ihrer Funktion als Bindeglied zwischen der Organisation von Unternehmungen und der Entfaltung des kapitalistischen „Erwerbstriebes“ als eines Teiles des „kapitalistischen Geistes“ untersucht. Ohne doppelte Buchführung, so Sombart, kein Kapitalismus: „Man kann schlechthin Kapitalismus ohne doppelte Buchführung nicht denken: sie verhalten sich wie Form und Inhalt zueinander. Und man kann im Zweifel sein, ob sich der Kapitalismus in der doppelten Buchführung ein Werkzeug, um seine Kräfte zu betätigen, geschaffen oder ob die doppelte Buchhaltung erst den Kapitalismus aus ihrem Geiste geboren habe.“ (Sombart 1987: 118)

Seine Analyse des Verhältnisses von Buchführung und Kapitalismus ist Teil der weiter gefassten Analyse historisch distinkter Gesellschaftsformationen. Sombarts einschlägiger Begriff des „Wirtschaftssystems“ orientiert sich an der von Marx gut fünfzig Jahre vor ihm entwickelten Theorie des historischen Materialismus, mit dem Unterschied allerdings, dass Sombart neben der „Ordnung des Wirtschaftslebens“ (den „Produktionsverhältnissen“) und der „Technik“ (den „Produktivkräften“) eine dritte Grundkategorie, die des „Geistes im Wirtschaftsleben“ einführt. Dieser Geist sei entweder vom Bedarfs- oder vom Erwerbsprinzip geprägt, entweder von traditionaler oder rationalistisch-effizienzorientierter Mittelwahl und entweder von einem individualistischen oder aber solidarischen Verhalten der Subjekte zueinander (vgl. Appel 1992: 104). Durch die Einführung des „Geistes im Wirtschaftsleben“ wird die „materialistische Analyse (...) ergänzt durch eine Darstellung der mentalen Triebkräfte, die hinter den wirtschaftlichen Handlungen stehen“ (Appel 1992: 107). Die Eigenart des europäisch-amerikanischen Kapitalismus liegt für Sombart wie für Weber in der Verbindung dieser historisch neuartigen Wirtschaftsgesinnung – des „kapitalistischen Geistes“ – mit Veränderungen der wirtschaftlichen Organisations- und Verkehrsformen, denn kapitalistische Verkehrsformen – hier stimmen beide vollkommen überein – habe es in unterschiedlichen Epochen und Weltregionen gegeben (vgl. Weber 1958: 303). Auch wenn Sombart und Weber geteilter Meinung über die Ursprünge und demzufolge auch über den historischen Zeitpunkt des Auftretens der methodisch-rationalen Lebensführung und des ökonomischen Rationalismus sind, so teilen sie neben der charakteristischen Betonung des „Geistes“ im Wirtschaftsleben das Interesse an Buchführungstechniken für die Analyse der kapitalistischen Entwicklungsdynamik. Die Genese des Kapitalismus ist erstens, so ihre gemeinsame Überzeugung, an die Psychogenese affiner Handlungsdispositionen bzw. Motivlagen gebunden. Zweitens – und hier trennen sich ihre Wege – deutet Sombart diese Psychogenese im Zusammenhang der Kulturbedeutung bestimmter technisch-kultureller Innovationen, insbesondere der Kapitalrechnung, während Weber die Bedeutung einer religiös begründeten Ethik der protestantischen Sekten hervorhebt. Insbesondere die Sombartsche Zusammenhangsthese öffnet eine gesellschaftstheoretisch reiche Perspektive auf den Zusammenhang von Kalkulation und Kapitalismus. Denn so gesehen findet das Kalkulative nicht allein auf der Ebene des Wirtschaftssystems – als Form der Repräsentation ökonomischer Prozesse, als Controlling etc. – seinen Ausdruck. Es reicht stattdessen bis in die subjektiven Handlungsmotive, die indivi-

Die Kalkulation der Gesellschaft

47

duellen Antriebe und ihre kulturelle Verankerung hinein und prägt diese in einer für die Herausbildung des kapitalistischen Wirtschaftssystems entscheidenden Weise. Die Bilanz steht stellvertretend für das methodische und theoretische Anliegen Sombarts, das kapitalistische Wirtschaftssystem als Verbindung struktureller und ideeller Bewegungsmomente zu betrachten. Sie ist für ihn das Scharnier, mittels dessen das kapitalistische Handlungssystem und das gesellschaftliche Inventar wirtschaftlicher Handlungsmotive miteinander verbunden werden. Neben der (äußeren) Ordnung der wirtschaftlichen Vorgänge sieht Sombart (1987: 119) eine im Hinblick auf die Formierung der wirtschaftlichen Handlungsmotive „innere“ Wirkung der doppelten Buchführung in der Trennung des abstrakten Gewinnziels „von allen naturalen Zwecken der Unterhaltsfürsorge“ und damit von den Prämissen der mittelalterlichen Bedarfswirtschaft. Der Ordnung der äußeren Wirtschaftsvorfälle entspricht sozusagen die Herstellung einer für entscheidende Trägerschichten des frühen Kapitalismus verbindlichen inneren Ökonomie, welche die Motivstruktur der Wirtschaftssubjekte grundlegend zu verändern weiß. An die Stelle der mittelalterlichen Bedarfs- tritt die rational-kontinuierliche Erwerbsorientierung. Damit aber ist eine radikale Veränderung der wirtschaftlichen Handlungsmotive bezeichnet. Die doppelte Buchführung stellt demnach auch ein ökonomisches Deutungsmuster dar, welches die Aufmerksamkeit der Wirtschaftssubjekte auf einen einzigen Zweck lenkt: die Vermehrung des Buchgewinns. „Wer sich in die doppelte Buchhaltung vertieft, vergißt alle Güter- und Leistungsqualitäten, vergißt alle organische Beschränktheit des Bedarfsdeckungsprinzips und erfüllt sich mit der einzigen Idee des Erwerbes (...)“ (Sombart 1987: 120). Die doppelte Buchführung ist das Medium der Durchsetzung einer ebenso abstrakten wie schrankenlosen Profitorientierung. Gleichzeitig vollzieht sich über sie ein enormer Schub der Rationalisierung der Wirtschaft; alle wirtschaftlichen Vorgänge werden in quantitativen Begriffen darstellbar, Wirtschaft erhält die (letztlich inhaltsbestimmende) Form der „allgemeinen Rechenhaftigkeit“ (Sombart 1987: 120). Alle wirtschaftlichen Erscheinungen nur in Quantitäten zu erfassen, löst einen enormen Schub sowohl für die formale Rationalisierung des Wirtschaftslebens als auch für die Abstraktifizierung des Erwerbsprinzips, d. h. seine Loslösung von bedarfsorientierten Erwägungen, aus. Die doppelte Buchführung ist somit ein wesentlicher Bestandteil der Konstruktion gesellschaftlicher Wirklichkeit unter kapitalistischen Bedingungen und gleichzeitig konstituiert sie das spezifisch Kapitalistische dieser Wirtschaft mit (zusammen mit ebenso grundlegenden Aspekten wie der Betriebsförmigkeit der Arbeit, der Orientierung an kontinuierlichem Erwerb, dem kapitalistischem Geist): durch die mit ihr implizierten Quantifizierung, durch sowohl die regulative Idee als auch die konkrete Organisation des Kreislaufs des Kapitals und schließlich durch die hiermit implizierte Idee der Vermehrung des Kapitals um des Kapitals willen. Indem sie in dieser Weise den Begriff und die Vorstellung von Kapital erst erzeugt, schafft sie gleichzeitig die spezifische Vorstellung der kapitalistischen Unternehmung als der Organisationsform des Prozesses der Kapitalverwertung. Die Einheit des „Geschäfts“ leitet sich nicht mehr aus der unverwechselbaren Person des Unternehmers ab, vielmehr tritt sie „dem Unternehmer als ein Selbständiges gegenüber, das nach inneren, eigenen Gesetzen bewegt wird“ (Sombart 1987: 123). Die doppelte Buchführung als das paradigmatische kapitalistische Zeichensystem ist so gesehen nicht nur im technischen Sinne eine „doppelte“, sondern auch, insofern sie eine neue und doppelte Realität für die Wirtschaftssubjekte erzeugt. Diese tritt dem Unternehmer in ihrer entwickelten Form als etwas Objektives, als systemisch verankerter Hand-

48

Uwe Vormbusch

lungszwang gegenüber, an dem er sich bei Strafe des Untergangs zu orientieren hat. Sie bildet aber auch einen Teil seiner inneren Realität und formiert als solche die Handlungsmotive kapitalistischen Wirtschaftens. Die Buchführung erscheint so – noch weit vor den Arbeiten der kritischen Accounting-Forschung des 20. Jahrhunderts – nicht als ein technisches Instrument zur Lösung von ‚Sachproblemen’, sondern als eine Kulturtechnik, durch welche der Erwerbstrieb zugleich entfesselt als auch in spezifisch kapitalistischer Weise geformt werden konnte. Während es für Weber die innerweltlichen Wirkungen bestimmter Glaubensüberzeugungen, insbesondere des Protestantismus sind, welche den ursprünglich rohen und gewalttätigen Erwerbstrieb in ein Handlungsmotiv des disziplinierten, temperierten und zugleich entgrenzten Kapitalismus umformen, ist es bei Sombart die doppelte Buchführung, welche dieses gleichsam unbehauene und ungestüme Erwerbsmotiv in rational-kalkulierte Bahnen lenkt. Folgt man der von Sombart vorgeschlagenen Argumentation, dann liegt die soziogenetische Bedeutung der doppelten Buchführung darin, dass sie auf beiden Vergesellschaftungsebenen – sowohl der Ebene der systemischen Verknüpfung von Handlungen und Handlungsfolgen als auch auf der Ebene der psychischen Dispositionen und Motivlagen – wirksam wurde. Hierdurch ist die Durchdringung der kapitalistischen Entwicklungsdynamik auf den Ebenen von Person, Kultur und System und damit der Siegeszug des Kapitalismus überhaupt erst möglich geworden. Das erinnert – nicht zufällig – an die Funktionen, welche im Rahmen der zitierten PISA-Studie den „literacy skills“ zugesprochen werden, nämlich sowohl für die ökonomische Leistungsfähigkeit von Gesellschaften, als auch für das ‚Denken’ ihrer Mitglieder von fundamentaler Bedeutung zu sein. Sombart gelangt zu der beinahe euphorischen Einschätzung der wirtschafts- und soziogenetischen Bedeutung der doppelten Buchführung durch die Annahme, dass sie zwei Aspekte des „kapitalistischen Geistes“ – die allgemeine Rechenhaftigkeit des bürgerlichen Subjekts und den „Erwerbstrieb“ des Unternehmers – fundamental verändert. Aus einem an dem konkreten Lebens- bzw. Reproduktionsbedarf orientierten mittelalterlichen Subjekt wird so ein frühbürgerliches Marktsubjekt, welches seine Markt- und Akkumulationschancen durch die Bilanz systematisch zu kontrollieren lernt und gerade hierdurch einen historischen Prozess einleitet, welcher es am Ende selbst den systemischen Handlungszwängen eines entfesselten Kapitalismus subsumiert – ökonomisch als auch in Hinblick auf seine innerpsychischen Handlungsmotive. Dass der Mensch aufhört, das „Maß aller Dinge“ zu sein (so Sombart), ist zum einen die kulturelle Voraussetzung der Explosion kapitalistischer Handlungsmotive und Handlungssysteme, es ist zum anderen aus Sombarts Sicht der Anfang vom Ende des Kapitalismus selbst, weil hierdurch letztlich die motivationalen Grundlagen des Kapitalismus abgetötet werden.2

2

In Sombarts Sichtweise fällt das Absterben des aus Abenteurertum geborenen dynamischen, wagemutigen Unternehmungsgeistes im Spätkapitalismus mit dem Absterben der motivationalen Grundlagen des Kapitalismus überhaupt zusammen. Die Zerfalls- und Selbstdestruktionstendenzen des Spätkapitalismus sieht er als eine Folge dieser Erosion der Motivationsbasis des Kapitalismus bei gleichzeitiger Durchrationalisierung des gesamten Wirtschaftslebens.

Die Kalkulation der Gesellschaft

49

Soziokalkulation am Beispiel der „Hochschulsteuerung 2010“ in Nordrhein-Westfalen Sombarts Analyse des Zusammenhangs von Buchführung, Wirtschaftssystem und Erwerbsmotiv ist auch eine Skizze der frühkapitalistischen Kalkulationsweise, selbst wenn er diesen Begriff nicht verwendet hat. Sie ist in ihrer weit reichenden Ableitung der Veränderung des „Erwerbstriebs“ aus materiellen Veränderungen der Gesellschaft (nicht allein auf der Ebene der Buchführung) nicht frei von funktionalistischen Argumenten, was werkgeschichtlich vor allem auf seine frühe Orientierung an Marx zurückzuführen sein dürfte. Die Verbindung von System- und Kulturbedeutung des Kalkulativen verweist für die heutige Zeit auf das Wechselspiel der Veränderung der Steuerungs- und Kontrollformen in den fortgeschrittenen Kapitalismen, auf die Fähigkeit und Bereitschaft der Subjekte, sich in diesen zu positionieren, sie zu reproduzieren bzw. zu verändern, sowie auf die soziale Legitimität kalkulativer Formen der Weltdeutung und -bearbeitung. Soziokalkulative Praktiken sind in diesem Sinne nicht nur als ein Scharnier zu betrachten, über welches gegebene systemische Handlungsimperative und gegebene individuelle bzw. organisatorische Handlungsmotive bzw. -ziele in mechanischer Weise verknüpft würden. Vielmehr muss auch (in Fortführung der Sombartschen Untersuchungsperspektive) danach gefragt werden, in welcher Weise kalkulative Praktiken beide zu verändern in der Lage sein könnten: im Sinne einer Umdeutung organisatorischer oder gar gesellschaftlicher Ziele und Strategien und im Sinne einer Instanz, welche über Routinisierung, die Sedimentation kalkulativer Weltdeutungen und schlichte Macht subjektivierende Wirkungen entfaltet. Zur Veranschaulichung der doppelten Relevanz kalkulativer Praktiken auf den Ebenen systemischer Handlungszwänge und individueller bzw. kollektiver Handlungsmotive soll auf ein Beispiel aus dem so genannten New Public Management (vgl. Brülle et al. 1998) zurückgegriffen werden, an dem die Grundzüge dieses Steuerungsmodells und die konstitutive Bedeutung kalkulativer Praktiken skizziert werden können. Die Bereitstellung öffentlicher Güter ist zunehmend mit der Prämisse konfrontiert, dass sie nur mehr in Form messbarer ‚Outputs’ als förder- und finanzierbar gelten. Damit verschieben sich die Bezugspunkte für die Produktion und die gesellschaftliche Legitimierung dieser Leistungen dramatisch. In Hinblick auf die Reorganisation der sozialen Dienstleistungen im Rahmen des New Public Managements in Großbritannien kommen Dominelli und Hoogvelt (1996: 199) zu dem Schluss, dass hierdurch die Wohlfahrtspolitik als eine „Beschäftigung mit Bedürfnissen“ („concern with needs“) in eine Leistung verwandelt werde, die sich primär auf die Einhaltung von Budgets („concern with budgets“) konzentriere.3 Helmut Fangmann (2005), Gruppenleiter für Grundsatzangelegenheiten und Hochschulplanung im MIWFT4 in Düsseldorf, plädiert dagegen für eine Umsetzung der Steuerungsmodelle des New Public Management auch in der deutschen Hochschulsteuerung und -entwicklung. Die Ausgangsüberlegung im Rahmen des „Hochschulkonzeptes 2010“ des Landes NRW besteht zunächst darin, dass es im Feld der Hochschulen keinen Markt oder einen äquivalenten Mechanismus gebe, welcher die Funktionen der Ressourcen- und der Aufgabenallokation übernehmen könne (Fangmann 2005: 1). Die Voraussetzungen der teilautonomen Selbststeuerung bzw. der „Kontextsteuerung“ (Fangmann 2005: 3; vgl. Willke 3 4

Das schließt positive „sekundäre“ Wohlstandseffekte wie z. B. die Erreichung auch klassischer Bildungsziele nicht aus, weil marktorientierte Steuerungsanreize und faktische Steuerungs- bzw. Bildungserfolge nicht vollständig entkoppelt sind, Steuerung also nicht ausschließlich dysfunktionale Folgen hat. Ministerium für Innovation, Wissenschaft, Forschung und Technologie des Landes Nordrhein-Westfalen

50

Uwe Vormbusch

1984) in diesem Bereich werden dementsprechend in der Verschränkung von Hochschulautonomie und Wettbewerb zwischen den Hochschulen gesehen (ebd.). „Wettbewerbssteuerung“ sei vor allem sinnvoll im Verhältnis von Staat und Hochschulen. Das „Hochschulkonzept 2010“ setzt deshalb zum einen auf ein bereits existentes System der Leistungskontrolle durch Kennzahlen über alle Hochschulen und Fächer hinweg. Darüber hinaus soll ein Monitoring-System etabliert werden, welches eine beständige Evaluation von Zielen und Zielerreichung zwischen Ministerium und Hochschulen erlaubt, die kontinuierliche Verbesserung vorantreibt und ein Instrument der Selbstreflexion darstellen soll. Die leistungsorientierte Mittelvergabe beläuft sich in diesem Zusammenhang in Zukunft auf 20% des „bereinigten Haushaltssolls“ (Fangmann 2005: 8) und stellt damit einen erheblichen, bei Strafe des organisatorischen Untergangs bzw. der Marginalisierung in der Hochschullandschaft nicht zu ignorierenden Anreiz dar. Das Ziel liegt in einer forschungsstrategisch zu begründenden Profilbildung, aber auch darin, das Lehrangebot an die tatsächliche Nachfrage anzupassen. Fachbereiche mit „Ausbildungsüberschuss“, welche weniger als 80% Auslastung aufweisen, sollen „überprüft und neu justiert“ werden (Fangmann 2005: 8). Hierzu werden auf der Grundlage vergleichsweise einfacher, weil über die in Universitäten, Ministerien und Verwaltungen vorhandenen Statistiken möglichen Kapazitäts- und Auslastungskalkulationen Portfolios und Matrizen gebildet, von denen hier aus Platzgründen nur die beiden folgenden wiedergegeben werden sollen (vgl. Fangmann 2005: 12f.). Abbildung 1:

Schematische Darstellung des Evaluationskonzepts für den Lehr- und Forschungserfolg, Quelle: Fangmann (2005: 12f.)

Die Kalkulation der Gesellschaft

Abbildung 2:

51

Erfolgsparameter „Lehr- und Forschungserfolg“ in den Fachbereichen Chemie an den Hochschulen in Nordrhein-Westfalen, Quelle: Fangmann (2005: 12f.)

Die Konstruktion zentraler Erfolgs- bzw. Funktionsparameter, ihre hierarchische Durchsetzung und Visualisierung in Tabellen, Portfolios und Matrizen ist als solche nicht neu. So beruht beispielsweise die Produktion und Stabilisierung von Wissen in den Naturwissenschaften auf einer spezifischen „Visualisierung von Beweisen“ (vgl. Amann/Knorr-Cetina 1988). Es ist als ein weiterer Hinweis auf die Veränderung des gesellschaftlichen Steuerungsmodus zu interpretieren, dass über die Kommunikation von Forschern und Experten in Wissenschaft und Statistik hinaus auf Kalkulation und auf Visualisierung zugleich beruhende Verfahren nunmehr gesellschaftlich verallgemeinert werden. Dementsprechend lassen sich ähnliche Graphiken mittlerweile in beinahe allen organisierten Handlungsbereichen der modernen Gegenwartsgesellschaften finden. Umso bedeutsamer ist es, ihre Funktionsprinzipien und -voraussetzungen, insbesondere ihren spezifischen Bezug auf kalkulative Praktiken zu untersuchen. Welche Transformationen und ‚Übersetzungen’ müssen vorgenommen werden, um zu dieser Graphik zu gelangen und die soziale Realität der Fachbereiche Chemie an den nordrhein-westfälischen Hochschulen damit in eine handhabbare Entscheidungssituation zu überführen? Zunächst wird ein „abstrakter“ bzw. „kalkulierbarer Raum“ entworfen (vgl. Miller 1992: 75ff.), indem die beiden für die Steuerung der Hochschule bzw. einzelner Fachbereiche zentralen Indikatoren als „Lehrerfolg“ und „Forschungserfolg“ identifiziert bzw. hie-

52

Uwe Vormbusch

rarchisch vorgegeben werden. In der Regel stellen die Dimensionen solcher Vier-FelderMatrizen zwei gleichermaßen erwünschte, jedoch nicht gleichzeitig zu erreichende Ziele dar, welche damit in Konkurrenz zueinander stehen. An beiden Indikatoren hängen entsprechende Messvorschriften und Operationalisierungen (die Graphik gibt Hinweise hierauf: „Forschungserfolg“ gemessen in „Drittmittel je Wissenschaftlerstelle“ etc.).5 Die Indikatoren verweisen ihrerseits auf traditionale Deutungsmuster des Bildungsauftrags von Hochschule („Lehre und Forschung“ und nicht etwa „Beitrag zur regionalen Wettbewerbsfähigkeit und Innovationskraft“). Und es dürfte lohnend sein festzuhalten, dass diese Leistungsparameter zwar das Ergebnis von Aushandlungen in einem Feld sind, an dem Universitätsleitungen, Ministerium, Wissenschaftler, Fachbereiche, Wirtschaftsberater und evtl. sogar Studierendenorganisationen partizipieren konnten, mit ihrer Festschreibung als zentrale Leistungsparameter nunmehr jedoch diesen Aushandlungen für die nähere Zukunft entzogen sind und damit von den Akteuren dieses Feldes als ‚Datum’ behandelt werden müssen. Dies verweist nicht nur auf das hierarchische Verhältnis von Ministerium und Universitäten, sondern ebenso auf den bereits etablierten Diskurs um die Parameter der Hochschulsteuerung, an dessen Entwicklung auch Akteure wie CHE (Centrum für Hochschulentwicklung), Unternehmensberatungen und andere Akteure aus dem Feld der Evaluierung, des Audit und allgemein des ‚Accounting’ beteiligt waren. Der ‚praktische’ Datumscharakter der gewählten Indikatoren verweist hierüber hinaus auf wissenschaftliche und methodologische Begründungsmuster, welche aus dem Feld der Statistik stammen und z. B. besagen, dass einmal gewählte Indikatoren nicht jedes Jahr verändert werden können, wenn man halbwegs aussagekräftige Zeitreihen etablieren möchte. Die verwendeten Kalkulationspraktiken sind also sowohl diskursiv als auch methodologisch und hierarchisch fixiert. Es sollte noch erwähnt werden, dass die gewählten Indikatoren beide quantifizierbar sind, jedoch nur einer („eingeworbene Drittmittel“) eine monetäre Größe darstellt und auf einen ‚Markt’ der Forschungsförderung verweist, auf dem Institutionen und einzelne Wissenschaftler um private und öffentliche Gelder konkurrieren. Die Graphik reflektiert mithin die relativen Leistungen der Universitäten bzw. Fachbereiche Chemie anhand der zentralen Parameter „Lehrerfolg“ und „Drittmitteleinwerbung“. Sie vermag aber noch mehr, indem sie jeder Kombination der beiden zentralen Erfolgsparameter, d. h. einer in spezifischer Weise ‚gewichteten’ Lehr- und Forschungsleistung eine Position ober- oder unterhalb einer Faktorkurve zuweist. Deren konkreter Verlauf basiert auf einer hierarchischen Setzung, und nicht etwa ausschließlich auf ‚Sachargumenten’. Der Verlauf dieser Faktorkurve und die hiermit determinierte Position einzelner Fachbereiche ober- bzw. unterhalb dieser Linie setzt spezifische Aushandlungs- und Legitimationsmuster in Gang. Der Aushandlungs- und Entscheidungsraum ist insbesondere durch die Einführung dieser sehr simplen ‚Trennung’ eindeutig definiert und die reale Komplexität einer unübersichtlichen Entscheidungssituation von seiner überschießenden Komplexität (d. h. auch von den Unsicherheitszonen, welche die Akteure der ‚Vergleichspopulation’ besitzen) weitgehend befreit: Es kann um nichts anderes mehr gehen als um die ‚Spitzenfachbereiche’ und um diejenigen im ‚kritischen Bereich’. Man beachte, dass die vier Quadranten jeweils mit einem mathematischen Kürzel bezeichnet wurden, welches in seiner Deutlichkeit nichts zu wünschen übrig lässt: „0“ für solche Bereiche, welche zunächst unproblema5

Weiterführende Einschränkungen und Spezifizierungen, in welcher Weise konkret die Daten erhoben bzw. ‚gemessen’ wurden, werden an dieser Stelle nicht gemacht (was gilt als „Drittmittel“, welche Periodisierungen der Messintervalle werden vorgenommen, was ist eine „Wissenschaftlerstelle“ etc.).

Die Kalkulation der Gesellschaft

53

tisch erscheinen, ein „+“ für solche mit einer überdurchschnittlichen Leistungskonstellation, und schließlich ein „–“ für Bereiche mit „Überprüfungs-“ und „Justierungsbedarf“ (dieser letzte Quadrant wird informell auch schon einmal als der „Todesquadrant“ apostrophiert). Das bedeutet vor dem Hintergrund der Ausgangsüberlegungen des Modells (Profilbildung und Wettbewerb) sehr wahrscheinlich, dass die Population dieses Quadranten mit potenzieller Schließung, Zusammenlegung, Ressourcenentzug oder auch ‚Planungsentzug’ konfrontiert werden wird. Im Ergebnis wird eine sehr komplexe und kontingente Situation in einem mehr oder weniger beliebigen sozialen Feld, welche sich für alle Akteure aus ihrem jeweiligen organisatorischen, politischen oder auch biographischen Kontext (denkt man beispielsweise an den Bereich der Personalentwicklung, in dem mittlerweile ähnliche Verfahren angewendet werden) heraus zwangsläufig unterschiedlich darstellt, in eine kaum disputable Text- bzw. Präsentationsform mit einer annähernd binären Entscheidungslogik transformiert. Tatsächlich liegen die Dinge etwas komplizierter, auch in der Praxis der ‚neuen Steuerung’. Denn diese zielt nicht ausschließlich – ja nicht einmal vordringlich – darauf, dass hierarchisch übergeordnete Akteure Entscheidungen unter Bezug auf „kalkulierbare Räume“ sowohl treffen als auch legitimieren können, sondern primär auf das produktive Potential, welches in der Stimulierung von Aushandlungsprozessen liegt, eine Produktivität, welche in Hinblick auf durch technische Parameter definierte Verbesserungsziele definiert ist. So stellt sich für das MIWTF das Problem zum einen als Frage danach dar, in welcher Weise die Faktorkurve Lehr- und Forschungserfolg generell nach rechts oben verschoben werden kann, d. h. das allgemeine Leistungsniveau aller Fachbereiche Chemie der Summe nach verbessert werden kann, und zum anderen als ein Problem der ‚Profilbildung’, d. h. als die Frage danach, welche Universität, welcher Fachbereich hierzu in überdurchschnittlicher Weise beitragen kann – und welche nicht. Für die Universitäten stellt sich das Problem als die Frage danach dar, wie man aus dem rot schraffierten Bereich einer in doppelter Hinsicht ungenügenden Leistung in die komfortablere (aber keinesfalls ‚sichere’) Gruppe der ‚Spitzenuniversitäten’ aufsteigen kann. Im Ergebnis zielt dieser Mechanismus auf die Parallelisierung der Handlungs- und Entwicklungsmotive der Universitäts- und Fachbereichsleitungen mit den Handlungsvorgaben des Ministeriums, wobei dies empirisch nicht zwangsläufig bedeutet, dass nicht auch parallel andere und im Sinne des Modells kontraproduktive Strategien des „cheating by the numbers“ verfolgt werden. Im Zuge der Etablierung eines abstrakten Vergleichsraums gehen die individuellen Merkmale der sozialen Objekte, die in diesen ‚eingetragen’ werden, verloren (vgl. sehr eindrücklich Kalthoff 2000). Stattdessen werden diese Objekte in einen neuen, artifiziellen Kontext gestellt, in dem die modellhaften Beziehungen zwischen den Objekten durch die Parameter der Leistungsmessung neu definiert werden: in einen Mikrokosmos, der keine Repräsentation des sozialen Raums darzustellen beabsichtigt, sondern eine gezielte Reduktion und Idealisierung desselben. Der so gewonnene abstrakte Raum wird in der Regel durch eine Vergleichspopulation anderer sozialer Einheiten bevölkert, und es wird möglich sein, durch die Transformation der ursprünglichen Daten eine Kommensurabilisierung der Vergleichsobjekte durchzuführen, um sie in eine bestimmte (ordinale oder gar metrische) Ordnung zu bringen. Die individuelle soziale Einheit (das Unternehmen, die Universität, das Krankenhaus, der Beschäftigte) hört damit auf, der Referenzpunkt der Evaluation zu sein. Der Raum von Daten und Argumenten, auf den sich Debatten um zukünftige Entscheidungen, den zukünftigen Entwicklungspfad etc. zu beziehen haben, ist nicht mehr der

54

Uwe Vormbusch

Raum der ursprünglichen sozialen Entität. Es ist auch nicht der Raum, der sich durch Verweis auf die individuellen und kontextgebunden Ziele der Entität (Bildungsauftrag z. B.) ergibt. Sondern es ist der Raum, der sich durch die gewählten Leistungskriterien, die Form ihrer Messung und Darstellung, und die hierdurch etablierten neuen Beziehungen zwischen den zu evaluierenden sozialen Einheiten ergibt. Form und Ergebnisse der in dieser Weise stimulierten Aushandlungsprozesse folgen einerseits einer gewissen (argumentativen und ‚realweltlichen’) Eigenlogik, andererseits sind sie eine Funktion der zugrunde gelegten Taxonomie und der Fähigkeit kalkulativer Praktiken, soziale Phänomene in organisierbare, komplexitätsreduzierte und handhabbare Größen zu transformieren. Der erste und unter Umständen wichtigste Schritt der kalkulativen Rekonstruktion des Sozialen liegt in der Messung sozialer Phänomene, d. h. ihrer Überführung in eine spezifische Taxonomie. Hierzu – und damit sind wir im Bereich kalkulativer bzw. soziokalkulativer Praktiken – werden spezifische Zeichen verwendet, welche zugleich bezeichnen und zählen.6 Erst dies ermöglicht eine Bewertung durch den Vergleich von Zeichenausprägungen: entweder anhand eines Vergleichs mit anderen Merkmalsträgern, d. h. als Konkurrenz, oder anhand eines diachronen Vergleichs mit sich selbst, z. B. durch die Etablierung von Zeitreihen, welche die Ergebnisse von Verbesserungsstrategien im Zeitverlauf sichtbar und evaluierbar machen. Das zitierte Beispiel gibt nur wenig Aufschluss über die sozial voraussetzungsreichen Aushandlungsprozesse, welche schließlich zur Konstruktion und Durchsetzung der beiden zentralen Vergleichsparameter „Lehr- und Forschungserfolg“ führen. Prinzipiell jedoch sind dem „measurement of everything“ (Power 2004: 767) keine Grenzen gesetzt. Die Leistungen von Universitäten können ebenso gemessen werden wie das Entwicklungspotenzial von Beschäftigten (vgl. Oechsler 2000: 574ff.; Vormbusch o.J.), das „Wissen“ von Unternehmen (vgl. Leitner 2001), die „soziale Sicherheit“ in den Ländern der Europäischen Gemeinschaft (vgl. Tangian 2005) oder eben auch die Schreib- und Lesefähigkeiten ganzer Bevölkerungen (vgl. PISA). Möglich wird dies unter anderem dadurch, dass Soziokalkulation mehr ein konstruktiver als ein rekonstruktiver Mechanismus ist. Es muss sogar noch entschiedener formuliert werden: Die Ziele, welche mit Soziokalkulation verfolgt werden, können nicht erreicht werden, wenn die Absicht darin besteht, die ‚Wirklichkeit’ außerhalb des durch Soziokalkulation aufgespannten Raumes zu ‚repräsentieren’, sondern nur dann, wenn es gelingt, durch die Erzeugung eines neuen und an andere Ziele (Profilbildung etc.) gebundenen Bezugsrahmens zu einer Neukonstruktion des sozialen Phänomens zu kommen, auf welche sich die Steuerungs- und Rationalisierungsanstrengungen konzentrieren. Es geht damit explizit nicht um eine Repräsentation dessen, was ist, sondern um die Herstellung neuer Beziehungen zwischen Objekten, welche die gesellschaftliche Wertigkeit derselben neu justieren. Das Ziel besteht nicht darin, die komplexen Abhängigkeiten eines sozialen Feldes oder von Gesellschaft generell zu ‚verstehen’, sondern dieselben gezielt zu manipulieren. Wenn man es mit Begriffen aus der industriellen Innovation beschreiben wollte, geht es nicht um ‚Forschung’ und nicht um ‚Entwicklung’, sondern um das prototypische ‚Design’ eines Handlungsbereichs bzw. sozialen Milieus. Dies schlicht als Visualisierung (im Sinne von Abbildung) zu betrachten, wäre irreführend. Es geht um die Konstruktion eines neuen Feldes von funktionalen Vergleichsmöglichkeiten, welche so vorher 6

Über die notwendige Bedingung für Beobachtungen, dass „unterschieden und bezeichnet“ wird (vgl. z. B. Luhmann 1990), tritt im Falle kalkulativer Praktiken die zusätzliche Bedingung, dass „unterschieden, bezeichnet und gezählt“ wird (auf welchem Zählniveau auch immer).

Die Kalkulation der Gesellschaft

55

noch nicht vorhanden waren. Die Visualisierung ist lediglich der Ausdruck soziokalkulativer Praktiken, wenn auch die spezifischen Wahrnehmungs- und Interpretationsmöglichkeiten, die Visualisierung nahe legt, eine eigene Untersuchung rechtfertigten.7 Soziokalkulation ist dabei ein hochselektiver Mechanismus. Diese Selektivität der Konstruktion soziokalkulativer Räume ist kein Manko, sondern eine ihrer funktionalen Bedingungen. Die Selektivität der Konstruktion von Vergleichsmaßstäben verweist sowohl auf den Aspekt der Nicht-Objektivität bzw. Konstruktivität kalkulativer Praktiken, als auch auf die Prämisse der jeweiligen übergeordneten Instanz im Kontext der neuen Steuerung, weniger und nicht etwa mehr wissen zu wollen (vgl. hierzu Vormbusch 2006). Des Weiteren zielt diese gezielte Reduktion und Konstruktion auf die Hervorbringung klar strukturierter Verhandlungs- und Entscheidungssituationen mit modellhaftem Charakter. Es ist die Aufgabe der Akteure in dem kalkulativ rekonstruierten Feld, die modelltheoretisch etablierten Zusammenhänge und die ‚realen’, alltäglichen Abläufe in all ihrer Komplexität und Widersprüchlichkeit zu vereinbaren. Dies verweist sowohl auf die spezifische Produktivität dieser Steuerungstechnologie als auch auf die Frage, warum hier von Soziokalkulation – und nicht lediglich von kalkulativen Praktiken – gesprochen wird. Zum einen soll diese Begriffswahl deutlich machen, dass Kalkulation auf soziale Phänomene zielt und sich nicht etwa in einer Sphäre abstrakter mathematischer Kalküle abspielt. Entscheidender noch ist, dass Soziokalkulation selbst eine soziale Praxis darstellt und konzeptionell auch so verstanden wird – vermutlich selbst von den involvierten Akteuren. Die Produktivität dieser Technologie aus Sicht der Steuerung beruht nicht auf der rechnerischen Überführung sozialer Phänomene in einen kalkulierbaren Raum und der selektiven Messung einiger konstruierter Eigenschaften des Phänomens. Sie liegt vielmehr in den spezifischen sozialen Aushandlungsprozessen, welche durch die Positionierung eines Objekts in einer Vergleichspopulation und der Etablierung vergleichsweise eindeutiger Konkurrenzbeziehungen zwischen diesen Objekten stimuliert werden. Die Produktivität beruht auf der Verschränkung einer kalkulativen ‚Rahmung’ mit den innerhalb derselben stattfindenden diskursiven Aushandlungen. Es geht weniger um objektivierende Fremdbeschreibung als um die subjektivierende Veränderung der Selbstbeschreibungen der Akteure im Feld mit dem Ziel einer Transformation ihrer Handlungsziele und -motive (vgl. dazu auch den Beitrag von Schmidt im vorliegenden Band). Voraussetzung hierfür ist, dass die gewählten Parameter bzw. Messgrößen in gewisser Weise einfach und verständlich sind (wenn nicht ihre sozialen und methodologischen Konstruktionsmechanismen dekonstruiert werden, ein im üblichen Gang der Dinge eher unwahrscheinlicher Vorgang). Auch dies erklärt sich aus der Absicht, unter der Bedingung der Intransparenz und Überkomplexität der zu steuernden Bereiche Entscheidungen über den künftigen Gang der Dinge hierarchisch nicht vorgeben zu können, sondern diese erst vor dem Hintergrund der Aushandlungsprozesse im Feld selbst treffen zu können. Hierzu müssen alle Akteure die spezifische Konstruktion des Feldes ‚verstehen’ und etwaige Konsequenzen schlüssig ableiten können. Die zitierte Graphik mit ihrer Faktorkurve ist ein wunderbares Beispiel hierfür: hopp oder topp – soviel zumindest dürfte jedem sofort klar sein. Die Transformation des Feldes und seiner Akteure (ihrer Ziele, ihres Selbstverständ7

Vgl. zu wissenschaftlichen und disziplinären Repräsentationspraktiken den Sammelband von Lynch/Woolgar (1988), in dem die Funktion von Visualisierungen in Hinblick auf die Rekonstruktion und Beherrschung des Sozialen aus einer Vielzahl von Perspektiven untersucht wird, deren gemeinsamer Nenner vermutlich ihr „Konstruktivismus“ ist.

56

Uwe Vormbusch

nisses) vollzieht sich dabei in der Diskussion über die Optimierung der Erfolgsparameter und deren etwaige Konsequenzen – und ggf. den Strategien ihrer Vermeidung – und ist deshalb als „Subjektivierung“, d. h. als die durch kalkulative Räume induzierte Selbsttransformation der beteiligten Akteure zu interpretieren – sofern sie denn aus Sicht der Steuerung empirischen Erfolg hat. Im Zuge solcher Aushandlungen gehen vorgegebene Erfolgsparameter in die Selbstbeschreibungen und Strategiebildung der Akteure ein. Soziokalkulation etabliert auf der systemischen Ebene (d. h.: man muss nicht daran glauben!) bestimmte Handlungs- und Selbstdarstellungszwänge, denen man sich – aufgrund des in der Regel hierarchischen Settings – nur bei Strafe des Untergangs verweigern kann. Die scheinbare Einfachheit, visuelle Zugänglichkeit und Transparenz des Optimierungsraums stellt zwar ein potenzielles Einfallstor für eine Kritik dar, welche sich an der Güte der ‚Repräsentation’ einer modellexternen ‚Realität’ orientiert. Konzeptionell ist sie jedoch nicht etwa als ein Mangel des Verfahrens, sondern als seine funktionale Voraussetzung zu betrachten. Denn es geht hier nicht darum, Akteure von dem Diskussions-, respektive Optimierungs- und Selektionsprozess auszuschließen, sondern sie in spezifischer Weise zu beteiligen: Soziokalkulation ist ein partizipatives Steuerungsinstrument. Eine seiner Stärken liegt in einer vordergründigen Simplizität, welche seinen ‚demokratischen’ Partizipationscharakter unterstreicht. Die Verbindungen des Konzepts der Soziokalkulation zu dem Ansatz „kalkulierbarer Räume“ (Miller 1992) und der „Qualculation“ (Callon/Muniesa 2005) liegen auf der Hand. Miller (1992) gehört der Verdienst, als einer der ersten den Beitrag des Accounting zur Konstruktion „kalkulierbarer Räume“ und „kalkulierender Subjekte“ analysiert zu haben. Er folgt dabei stärker einem durch die Arbeiten von Foucault zur „Gouvernementalität“ inspirierten analytischen Rahmen. Einige seiner Argumente sind hierüber hinaus an die Vorstellung geknüpft, das Accounting übersetze komplexe und empirisch ganz unterschiedliche Prozesse bzw. Phänomene in eine „single figure“ (eine „letzte Zahl“, wie das Bruttoinlandsprodukt, Return on Investment, Cash Flow etc.): „Accounting makes comparable activities and processes whose physical characteristics and geographical location may bear no resemblance whatsoever. And it does so by linking this single figure to calculating selves rendered responsible and located in calculable spaces. This objectifying-subjectifying capacity has allowed accountancy to offer so much to such diverse political programs.” (Miller 1992: 68)

Die beobachtbaren soziokalkulativen Praktiken in Hochschulsteuerung, Bildungssystem, Unternehmen und sozialen Einrichtungen scheinen aber eher (grundsätzlich kann dies meines Erachtens gegenwärtig nicht entschieden werden) einem Ansatz zu folgen, der sich von der alleinigen Ausrichtung auf (finanzorientierte) eindimensionale Kennzahlensysteme bzw. „letzte Zahlen” abwendet, Verfahren also „which in some sense recognize that there is no bottom line, no single figure” (Power 2004: 775). Dieses Vorgehen scheint – insbesondere vor dem Hintergrund der Kritik des „New Management Accounting“ an eindimensionalen, finanzorientierten Kennzahlen – deshalb sinnvoll, weil eine „einzelne Zahl“ (ein Preis, eine Bruttorendite) zu sehr von den ‚realen’, in sich widersprüchlichen Handlungsbedingungen im Feld abstrahiert, um Diskussionen über operativ angemessene Verbesserungsstrategien praktisch anleiten zu können. Es scheint produktiver, die Akteure in Gestalt widersprüchlicher Optimierungsdimensionen von vornherein mit der Widersprüchlichkeit

Die Kalkulation der Gesellschaft

57

des Feldes, in dem sie sich bewegen, zu konfrontieren: Soziokalkulation dient weniger der hierarchischen Kontrolle als der Stimulierung einer unabschließbaren Selbstoptimierung. Obwohl das Konzept der Soziokalkulation sich gleichfalls auf die Vorstellung „kalkulierbarer Räume“ bezieht, liegt der bedeutsamste Unterschied zu dem Konzept der „Qualculation“ darin, dass ‚Rechnen’ in diesem nicht eine notwendige Bedingung kalkulativer Praktiken darstellt. „Calculating does not necessarily mean performing mathematical or even numerical operations (Lave 1988)” (Callon/Muniesa 2005: 1231). Die Auffassung, dass das Feld des Kalkulativen viel weiter ist als dies in der wirtschaftswissenschaftlichen Thematisierung der Rechnungslegung oder des Controlling angenommen wird, teilt offensichtlich auch der Ansatz der Soziokalkulation. Auf der anderen Seite ist es meines Erachtens notwendig, den Begriff der Kalkulation spezifisch an das zu binden, was Vollmer (2004) als „organisiertes Rechnen“ bezeichnet hat. Vollmer meint damit insbesondere die gesellschaftlich immer weiter hervortretenden Praktiken der Buchführung, des Controllings, der Auditierung, Bilanzierung und Budgetierung sowie der Evaluation, theoretisch beschreibbar als die an die „Evolution organisationaler Formen und Organisationserfordernisse“ gekoppelte „Ausdifferenzierung und Weiterentwicklung komplexer Zähl-, Kontierund Rechenapparaturen“ (Vollmer 2004: 451). Kalkulation, das bemerkt John Law treffend, „carries a sizable quantitative baggage” (zitiert nach Callon/Law 2003: 3). Organisierter Zahlengebrauch ist deshalb eine notwendige Bedingung, um kalkulative Praktiken sinnvoll und trennscharf von anderen sozialen Praktiken differenzieren zu können. Rechenschreiben, Rechenlesen, Rechensprechen: Aspekte der Kalkulationsweise moderner Gesellschaften Im Folgenden soll die These vertreten werden, dass das Konzept der Soziokalkulation für die gegenwärtige gesellschaftliche Kalkulationsweise und damit für den vorherrschenden Typus von Steuerung und Kontrolle paradigmatisch ist. Seine Eigenheiten können dabei insbesondere im Vergleich zu anderen Ansätzen herausgearbeitet werden, welche auf ähnliche gesellschaftliche Phänomene bzw. Entwicklungen abheben. So geht Boes (2005: 6) von einer sich historisch gewissermaßen immer weiter vertiefenden Kluft zwischen sinnhaft integrierten und systemisch durch Informatisierung gekennzeichneten Symbolsystemen aus: Verschriftlichung und die Schaffung von Informationssystemen bilden die beiden Schlüsselprozesse der Informatisierung. Während die Verschriftlichung ihre Anwendung bei Informationsarten findet, welche „nicht-codifiziert“ (Pirker 1962) sind, d. h. nur „sinnbezogen“ (Luhmann 1987) gehandhabt werden können, werden Informationssysteme dann anwendbar, wenn die Informationen „codifiziert“ sind und dementsprechend ‚regelhaft’ zu handhaben sind. Der eingangs zitierte PISA-Report erinnert uns jedoch daran, dass dieser doppelte Prozess der gesellschaftlichen Ausdifferenzierung der Schriftlichkeit auf der Seite der Subjekte entsprechende Lese- und Schreibfähigkeiten voraussetzt. Nicht nur Literatur, auch Bilanzen wollen geschrieben und gelesen werden. Wenn man, wie das Konzept der Informatisierung dies tut, zwar von einer spezifischen Zweigleisigkeit des gesellschaftlichen Verschriftlichungsprozesses ausgeht, gleichwohl jedoch vor allem die formative Kraft der Informatisierung, d. h. „codifizierter“, „nicht-sinnhaft“ zu verkoppelnder Information hervorhebt (vgl. Schmiede 1996a, 1996b; Baukrowitz/Boes 1996), wird nur eine Seite der Veränderung gesellschaftlicher Schriftformen thematisch, die andere jedoch systematisch

58

Uwe Vormbusch

ausgeblendet. Es ist nicht zu leugnen, dass viele informationsgestützte Prozesse heute ohne Sinnverstehen ablaufen, dass sie also die definitorische Bedingung der Informatisierung erfüllen, „Informationen vom konkreten Subjekt unabhängig nutzen zu können“ (Boes 2005: 5) – und dementsprechend der gesellschaftlichen Macht der Information die Ohnmacht der Subjekte, der politischen Steuerung, der Moral gegenübergestellt werden kann. Für soziokalkulative Praktiken gilt dies nicht, weil sie notwendig auf dem Sinnverstehen handlungsfähiger Akteure und der Veränderung ihrer Selbst- und Weltbeschreibungen beruhen: nicht Informatisierung, sondern Formierung, nicht Ausschaltung von Subjektivität, sondern Subjektivierung. Aus der Perspektive des Konzepts der Soziokalkulation beleuchtet das Theorem der Informatisierung nur eine Hälfte dessen, was in einer kritischen Analyse kalkulativer Praktiken zusammengedacht werden sollte: die Veränderung von Mess- und Kalkulationsvorschriften ebenso wie die korrespondierenden Veränderungen der in der Gesellschaft verfügbaren kalkulativen Lese- und Interpretationskompetenzen und ihre spezifische kalkulative Kultur. Wenn man Aussagen bezüglich einer historisch und gesellschaftlich spezifischen Kalkulationsweise treffen will, dann muss auch der Prozess der Ausbildung entsprechender ‚Lesefähigkeiten’ thematisiert werden. Mit ‚Lesefähigkeiten’ ist hier in einem umfassenden Sinne das Lesen, Interpretieren und Bearbeiten kalkulativer Symbolsysteme gemeint, d.h. von Zeichen, die zählen, sowie ihrer Verknüpfung und Visualisierung. Hierzu – auch darauf weist der PISA-Report hin – sind nicht nur Fähigkeiten notwendig, sondern auch bestimmte Bereitschaften: das Kalkulative bzw. kalkulativ bestimmte Zeichensystem nämlich überhaupt als eine adäquate und legitime Darstellungsbzw. Artikulationsweise gesellschaftlicher Wirklichkeit anzuerkennen. Dies verweist wiederum auf die Akzeptanz kalkulativer Repräsentations-Formen in der Gesellschaft, mit anderen Worten auf die Kulturbedeutung des Kalkulativen. Das Konzept der Informatisierung blendet diese Aspekte in seiner gegenwärtigen Form aus. Der kulturelle Vorrat diesbezüglicher Lesefähigkeiten und Legitimationsmuster kommt ihm nicht in den Blick. Demgegenüber verdanken wir Sombart die Einsicht, dass die frühneuzeitlichen Trägerschichten des Kapitalismus vor allem auch lernen mussten, Bilanzen zu lesen, die Ausbildung kalkulativer Lesefähigkeiten mithin ein Aspekt eines gesellschaftsweiten kognitiven Lernprozesses darstellen. Die Bilanz bzw. allgemeiner die doppelte Buchführung begann – folgen wir Sombart – nicht nur Teil der äußeren, sondern auch der inneren Realität der Wirtschaftssubjekte zu werden. Die allgemeine „Rechenhaftigkeit“ wird dabei sowohl auf der Ebene des Persönlichkeitssystems als auch des Wirtschaftssystems wirksam. Als Bestandteil des Persönlichkeitssystems bezeichnet sie eine bestimmte kalkulative Mentalität, d. h. die Form, in der sich die Mäßigung, Sparsamkeit und der Geschäftssinn des Bürgers entfaltet. Auf der Ebene des Wirtschaftssystems bildet sich im Laufe der Jahrhunderte ein objektiviertes System des Rechnens und der Kalkulation heraus, das sich allmählich von den Handlungsdispositionen der Wirtschaftssubjekte abzulösen beginnt und ihnen in der Folge als Bestandteil einer systemisch integrierten ökonomischen Struktur entgegentritt. Diesen letzten Aspekt betont das Konzept der Informatisierung. Es spricht aus der Sicht des hier skizzierten Konzeptes jedoch viel dafür, eine kritische Analyse der gesellschaftlichen Bedeutung kalkulativer Praktiken wieder unter beiden Gesichtspunkten: dem des Handlungssystems und demjenigen der hierauf bezogenen individuellen und kollektiven Deutungen zu integrieren. Gerade, weil es aus der heutigen Sicht schwierig erscheint, mit weit reichenden Pauschalkategorien wie „kapitalistischer Geist“ oder „Erwerbstrieb“ zu argumentieren, wäre ein erster, recht praktischer Schritt eine in diesem Sinne integrierte

Die Kalkulation der Gesellschaft

59

Betrachtung soziokalkulativer Praktiken und der hierauf bezogenen Deutungskompetenzen und -muster der Subjekte.8 Welche Relevanz besitzen kalkulative Konstrukte und Praktiken im Alltagsbewusstsein der Akteure und in welcher Weise werden sie im Rahmen soziokalkulativ strukturierter Aushandlungen, Politiken und Mikropolitiken tatsächlich bedeutsam? PISA hat uns die Relevanz dieser Verbindung praktisch vor Augen geführt. Im Kontext einer soziokalkulativen Steuerung in modernen Gesellschaften werden entsprechende Schreib- und Lesefähigkeiten nicht nur in der Schule, sondern auch im Büro, im Forschungslabor, in der Fabrik, in den Sozialverwaltungen, an der Börse, d. h. in allen organisierten Handlungsbereichen – auch, aber nicht ausschließlich in denjenigen mit ‚Marktnähe’ gefordert. Waren kalkulative Schreib- und Lesefähigkeiten im Frühkapitalismus nur für die kleinen Trägerschichten des sich entwickelnden Kapitalismus von Bedeutung, so werden sie vor dem Hintergrund der Ausdehnung kalkulativ geprägter Selbstbeschreibungen des modernen Kapitalismus und der Ausdehnung von Programmen der Selbststeuerung bzw. der „Selbstregierung“ (vgl. Miller/Rose 1994) gesellschaftlich verallgemeinert. Die Fähigkeit und die Bereitschaft der interpretierenden Aneignung kalkulativer Konstrukte ist heute keine Anforderung mehr, die auf bestimmte Eliten oder Expertenkulturen beschränkt wäre. „Numeracy“ im Sinne einer Interpretation einer großen Vielfalt sozialer Sachverhalte im Modus des organisierten Zahlengebrauchs wird stattdessen zu einer Grundvoraussetzung der Teilnahme am gesellschaftlichen Meinungsbildungs- und Entscheidungsprozess überhaupt. Hiermit soll keineswegs behauptet werden, dass nunmehr alle relevanten gesellschaftlichen Sachverhalte soziokalkulativ ‚ausgedrückt’ würden. Soziokalkulative Praktiken stellen jedoch einen immer wichtigeren Teil der gesellschaftlichen Textualität9 in vielen Handlungsbereichen dar, nicht nur des Finanzreportings auf der Ebene der Unternehmensberichterstattung oder der Statistik auf der Ebene des Nationalstaats. Es soll auch nicht behauptet werden, dass ‚der’ Markt oder ‚der’ Kapitalismus die einzigen Antriebskräfte dieser Entwicklung wären. Numeracy beruht auf einem langwierigen historischen Entwicklungsprozess, in dem die wachsende Bedeutung des Marktes und marktbezogener Messungen (Kula 1986), von Naturwissenschaft, Technik und deduktiv-hypothetischen bzw. experimentellen Wirklichkeitsempirien (Bonß 1982), Abenteurertum und der im Zuge der Globalisierung steigende Bedarf, Berichte aus entfernten Teilen dieser Welt nachvollziehbar und überprüfbar zu machen (Cohen 1999) als auch schließlich die enge Verbindung von Statistik und entstehendem Nationalstaat (vgl. Desrosières 2005) eine entscheidende Rolle spielten. Man kann demzufolge darüber streiten, ob die gegenwärtigen Anforderungen an kalkulative Lesefähigkeiten einen weiteren Schub in der kalkulativ geprägten Konstruktion der Wirklichkeit oder eher eine kontinuierliche Entwicklung reflektieren. Wie auch immer diese Frage eingeschätzt wird, es liegt nahe, die Relevanz soziokalkulativer Praktiken heute in den Zusammenhang von Strukturmerkmalen entwickelter kapitalistischer Gesellschaften zu stellen. So gesehen ist es erstens deren strukturelle Unübersichtlichkeit, zweitens der Verlust eines hierarchisch übergeordneten Steuerungszentrums, drittens die Abstraktifizierung von Produktion und Erfahrung, und viertens die Etablierung 8 9

Der Begriff der „Kompetenz“ integriert in der Regel die beiden hier relevanten Dimensionen der „Fähigkeit“ und der „Bereitschaft“. Zum Begriff der „Textualität“ vgl. Hoskin/Macve (1986, 1994), welche deren Veränderung – anders als dies in diesem Aufsatz nahe gelegt wurde – nicht auf das ökonomische System, sondern auf das Bildungssystem zurückführen.

60

Uwe Vormbusch

markt- und effizienzorientierter Konkurrenzbeziehungen zwischen teilautonomen Einheiten der Selbststeuerung, welche die Vorteile soziokalkulativer Praktiken gegenüber hierarchischen oder rein marktbasierten Formen der Steuerung begründen. Die Attraktivität von Kalkulation ist bei Cohen (1999) daran gebunden, die Ferne in der Nähe rekonstruier- und erfahrbar zu machen. Die Rekonstruktion entfernter oder strukturell undurchsichtiger Kontexte ist ein generelles Motiv, welches Soziokalkulation heute in gestiegenem Maße zugrunde liegt. Soziokalkulative Praktiken etablieren – ganz im Gegensatz zu jenen Ansprüchen der Objektivität, Wissenschaftlichkeit und Neutralität, mit denen Kalkulation oftmals assoziiert wird – ein neues Netz sozialer Beziehungen und Wertigkeiten. Wenn wir Soziokalkulation als den sozialen Prozess der Aushandlung und Fixierung der relativen Wertigkeit sozialer Objekte mittels der Transformation sozialer Phänomene in numerisch darstellbare ‚Wirklichkeiten’ auffassen, dann kann es nicht verwundern, dass die Ergebnisse und Schlussfolgerungen dieses Prozesses für die Betroffenen (das können Einzelne sein wie im Feld der Personalentwicklung, Gruppen von Personen in funktionalen Zusammenhängen wie bei Schülern oder Mitgliedern von Arbeits- und Projektgruppen, aber auch Organisationen wie im Feld der Hochschulentwicklung) nicht nur ihre Markt-, Wettbewerbs- und gesellschaftlichen Teilhabechancen massiv verändern, sondern auch eine normative Bedeutung besitzen. Soziokalkulative Praktiken weisen den ‚taxierten’ sozialen Objekten ihren gegenwärtigen gesellschaftlichen Wert in Relation zu relevanten Anderen zu. Hierüber hinaus spannen kalkulative Messgrößen und Zielvorgaben einen Entwicklungs- und Bewegungsraum auf, innerhalb dessen ein soziales Objekt auf- oder absteigen kann. Sie definieren damit Bewegungsziele als auch die Kenngrößen, mittels derer diese Positionsveränderungen potenziell realisiert werden können. Durch hierarchisch gesetzte Grenzwerte, wie die skizzierte Faktorkurve, verdeutlichen sie darüber hinaus den Knappheitscharakter der umkämpften gesellschaftlichen Ressourcen und machen mithin klar, dass nicht alle Individuen der betrachteten ‚Population’ gleichermaßen unbeschadet die nächste Runde der Evaluierung überstehen werden. Soziokalkulation bietet sich damit als ein Steuerungsinstrument in der gesellschaftlichen Krise an, welches für die übergeordnete Instanz nicht nur eine gewisse Planungssicherheit für die kommende Periode herzustellen weiß (weil in der Gegenwart bereits quantifiziert werden kann, in welchem Rahmen in der Zukunft gespart werden wird), sondern auch die gesellschaftliche Legitimität für die Selektion von ‚Underperformern’ sichern soll und kann. Dieses ‚Können’ hat sowohl etwas mit der spezifischen Einfachheit von Soziokalkulation auf einem bestimmten Level und seiner visuellen Überzeugungskraft zu tun, welche die Kommunizierbarkeit des Modells und seiner Konsequenzen für breite Rezipientenschichten möglich machen (seiner Rhetorik also), als auch mit seinem ‚partizipativen’ und ‚inklusiven’ Ansatz: Jede soziale Einheit kann teilnehmen (nein: sie muss!) und sich nach Maßgabe der in Anschlag gebrachten Parameter verbessern. Es ist ein gesellschaftsöffentliches Leistungsspiel, das hier entfaltet wird, und die Konsequenzen dieses Spiels erscheinen so lange als leistungsgerecht, als jeder Betroffene über die Möglichkeit der Teilnahme verfügt. Unter gesellschaftlichen Bedingungen, welche die Früchte erbrachter Leistungen immer stärker an den ‚Erfolg’ knüpfen (vgl. Neckel et al. 2005), erscheint Soziokalkulation in gewissem Sinne sogar als der im Vergleich zum Markt legitimere Mechanismus der Verbindung von Leistungen und Ressourcen, weil sich die betroffenen Akteure im Gegensatz zum anonymen Marktgeschehen politisch bzw. diskursiv artikulieren können.

Die Kalkulation der Gesellschaft

61

Für Baecker (1993: 258) liegt die „Schrift des Kapitals“ nicht nur dem Kapitalismus, sondern auch dem (als sein stabilisierendes Gegenüber untergegangenen) Kommunismus zugrunde. Das liegt daran, dass aus seiner Sicht die Schrift des Kapitals immer schon eine Schrift der Gesellschaft ist, denn „wenn es so etwas wie einen primären Akt der Gesellschaft gibt, dann besteht er darin, einen Kredit einzuräumen und anzunehmen“ (Baecker 1993: 269). Am Anfang der Buchführung stehe also nicht das Konto (wie Sombart annahm), sondern die „Interpretation der Einheit des Vermögens als Differenz von Soll und Haben“ (Baecker 1993: 266). Ein Kredit als ursprünglicher Gesellschaftsakt ist deshalb als (temporalisierte) Einheit der Differenz von Zahlung und Rückzahlung zu interpretieren, und das gelte im Übrigen auch für den „Kapitalismus der Trobriander“ im Sinne einer moralischen Buchführung über Gabe und Gegengabe (Baecker 1993: 269): „Die Schrift des Kapitals ist eine Schrift der Gesellschaft.“ (Baecker 1993: 268). Auf dieser Generalisierungsebene klingt das zunächst plausibel. Wenn nämlich Schuld gleich Schulden ist, dann ist die Bilanz nicht nur der Ausdruck der Akkumulation von Kapital, sondern ebenso eine ‚moralische Bilanz’, welche Auskunft nicht nur über Äquivalenzverhältnisse, sondern auch über die reziproke Verflechtung der Gesellschaft durch Gabe und Gegengabe gibt. Diese Übergeneralisierung der in der Kontenstruktur der Bilanz angelegten Interdependenzidee eröffnet einerseits Einsichten in die kaum untersuchten Verbindungen von Bilanz, Kalkulation und Moral bzw. Ethik (Weber und Sombart würden hier vermutlich einen guten Ausgangspunkt darstellen). Sie verbirgt andererseits erstens die Differenzen in der Form der ‚Kontierung’, welche zweifelsohne zwischen Ökonomie und Lebenswelt, Politik und Moral bestehen. Zweitens verbirgt sie historische Formveränderungen der Bilanzierung (zwischen der moralischen Ökonomie der Trobriander, dem Frühkapitalismus und der Gegenwart beispielsweise). Anhand des Vergleichs frühkapitalistischer Buchführung und der gegenwärtigen Formen der Soziokalkulation werden jedoch auch die historischen Mutationen und fundamentalen Unterschiede in der „Schrift des Kapitals“ deutlich. Die Genese der Schrift des Kapitals im Frühkapitalismus ist an ökonomische Strukturveränderungen gekoppelt. Sie hat hierüber hinaus die Erwerbsmotive der Trägerschichten des Kapitalismus tief greifend verändert und mit den kapitalistischen Systemimperativen, insbesondere der entgrenzten und gewissermaßen ‚selbstgenügsamen’ Akkumulation des Kapitals, parallelisiert. Ihre Systemfunktionen blieben jedoch ebenso an die Ökonomie gebunden wie sich ihre Kulturbedeutung auf die Eliten des neuen Wirtschaftssystems beschränkte. In der Gegenwart erodieren diese beiden Einschränkungen: Weder die Funktionalität noch die Kulturbedeutung von Soziokalkulation als Steuerungstypus ist noch an ökonomische Zusammenhänge im engeren Sinne gebunden. Erst die Generalisierung als gesellschaftliches Steuerungsmedium, die skizzierten Formveränderungen soziokalkulativer Praktiken, welche diese Generalisierung erst möglich machen, und schließlich ihre Bedeutungszunahme als Teil des „kulturellen Gepäcks“ (vgl. Gorz 2004) zunehmend breiterer Schichten der Bevölkerung lassen es gerechtfertig erscheinen, von einer veränderten und entgrenzten Schrift des Kapitals als einer Schrift der Gesellschaft zu sprechen. Diese Schrift der Gesellschaft, das macht das Konzept der Soziokalkulation hierüber hinaus deutlich, hat nichts mit naiven Vorstellungen einer Repräsentation des Sozialen zu tun. Sie basiert ebenso auf Praktiken des Rechensprechens wie auf spezifischen Lesekompetenzen der Gesellschaftsmitglieder und einer historisch variablen Legitimität des Zahlenwissens, d. h. auf einer spezifischen Kulturbedeutung des Kalkulativen. Der Begriff der Soziokalkulation bezeichnet in diesem Zusammenhang ebenso eine historisch bislang einmalige Ausdehnung

62

Uwe Vormbusch

des Objektbereichs kalkulativer Praktiken wie ihren eigentümlichen modus operandi: als soziale Selbsttransformation im Medium des Kalkulativen. Kalkulation ist damit ein Spiegel, in dem die moderne Gesellschaft weniger sich selbst in einer naiven Weise ‚anschaut’, sondern welcher in spezifischer Weise den Blick für alternative Gegenwarten und potenzielle Zukünfte öffnet – und damit die Selbsttransformation der Gesellschaft in Gang setzt. Literatur Amann, K./Knorr-Cetina, K. (1988): The Fixation of (Visual) Evidence. In: Lynch, Michael; Steve Woolgar (Hg.): Representation in Scientific Practice. Cambrigde, Mass.: The MIT Press, S. 85-121. Appel, M. (1992): Werner Sombart: Historiker und Theoretiker des modernen Kapitalismus. Marburg: Metropolis-Verlag. Baecker, D. (1993): Die Schrift des Kapitals. In: Gumbrecht, H.U./Pfeiffer, K.L. (Hg.): Schrift. München: Wilhelm Fink, S. 257-272. Baukrowitz, A./Boes, A. (1996): Arbeit in der ‚Informationsgesellschaft’. Einige Überlegungen aus einer (fast schon) ungewohnten Perspektive. In: Schmiede, R. (Hg.): Virtuelle Arbeitswelten. Arbeit, Produktion und Subjekt in der ‚Informationsgesellschaft’. Berlin: edition sigma, S. 129-157. Boes, A. (2005): Informatisierung. In: SOFI/IAB/ISF München/INIFES (Hg.): Berichterstattung zur sozioökonomischen Entwicklung in Deutschland – Arbeits- und Lebensweisen. Erster Bericht. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 211-244 (Seitenzahlen zitiert nach Manuskript). Bonß, W. (1982): Die Einübung des Tatsachenblicks: Zur Struktur und Veränderung empirischer Sozialforschung, Frankfurt am Main: Suhrkamp. Brülle, H./Reis, C./Reiss, H.-C. (1998): Neue Steuerungsmodelle in der Sozialen Arbeit. Ansätze zu einer adressaten- und mitarbeiterorientierten Reform der öffentlichen Sozialverwaltung? In: Reis, C./Schulze-Böing, M. (Hg.): Planung und Produktion sozialer Dienstleistungen. Die Herausforderungen ‘neuer Steuerungsmodelle’. Berlin: edition sigma, S. 55-79. Callon, M./Law, J. (2003): On Qualculation, Agency and Otherness. Online paper Centre for Science Studies Lancaster University, published on 20th December 2003. Callon, M./Muniesa, F. (2005): Peripheral Vision. Economic Markets as Calculative Collective Devices. In: Organization Studies 26, S. 1229-1250. Certeau, M. de (1988): Kunst des Handeln. Berlin: Merve. Cohen, P.C. (1999): A Calculating people. The Spread of Numeracy in Early America. New York/ London: Routledge. Desrosières, A. (2005): Die Politik der großen Zahlen. Eine Geschichte der statistischen Denkweise. Berlin u.a.: Springer. Dominelli, L./Hoogvelt, A. (1996): Globalisation, the Privatisation of Welfare, and the Changing Role of Professional Academics in Britain. In: Critical Perspectives on Accounting 7, S. 191-212. Fangmann, H. (2005): Hochschulsteuerung in Nordrhein-Westfalen. Strukturen und Instrumente, Sachstand und Perspektiven, Vortrag auf der IHF-Fachtagung „Neue Finanzierungs- und Steuerungssysteme“, München, 7. Oktober 2005. Gorz, A. (2004): Wissen, Wert und Kapital. Zur Kritik der Wissensökonomie. Zürich: Rotpunktverlag. Hörisch, J. (2002): Zählen oder Erzählen. Hinweise auf neuere Geld-Literatur. In: Deutschmann, C. (Hg.): Die gesellschaftliche Macht des Geldes. Wiesbaden: Westdeutscher Verlag, S. 316-324. Hoskin, K.W./Macve, R.H. (1986): Accounting and the Examination: A Genealogy of Disciplinary Power. In: Accounting, Organizations and Society 11, S. 105-136. Hoskin, K.W./Macve, R.H. (1994): Writing, Examining, Disciplining: The Genesis of Accounting’s Modern Power. In: Hopwood, A. G./Miller, P. (Hg.): Accounting as Social and Institutional Practice. Cambridge: Cambridge University Press, S. 67-97. Kalthoff, H. (2000): Entscheiden unter Ungewissheit: Bankwirtschaftliche Standortsuche in Mittelund Osteuropa. In: Zeitschrift für Soziologie 29, S. 103-120.

Die Kalkulation der Gesellschaft

63

Kaplan, R.S./Norton, D.P. (1997): Balanced Scorecard. Strategien erfolgreich umsetzen. Stuttgart: Schäffer-Poeschel. Kula, W. (1986): Measures and Men. Princeton: Princeton University Press. Leitner, K.-H. (2001): Das ARC-Wissensbilanzmodell: Bewertung und Reporting von immateriellen Vermögenswerten, ftw. Workshop Wissensmanagement, Wien: 26. April 2001. Luhmann, N. (1990): Sthenographie. In: Luhmann, N./Maturana, H./Namiki, M. (Hg.): Beobachter: Konvergenz der Erkenntnistheorien. München: Wilhelm Fink, S. 119-137. Lynch, M./Woolgar, S. (Hg.) (1988): Representation in Scientific Practice. Cambrigde, Mass.: The MIT Press. Miller, P. (1992): Accounting and Objectivity: The Invention of Calculating Selves and Calculable Spaces. In: Annals of Scholarship 9, S. 61-86. Miller, P./Rose, N. (1994): Das ökonomische Leben regieren. In: Schwarz, R. (Hg.): Zur Genealogie der Regulation. Anschlüsse an Michel Foucault. Mainz: Decaton, S. 54-108. Neckel, S./Dröge, K./Somm, I. (2005): Das umkämpfte Leistungsprinzip – Deutungskonflikte um die Legitimationen sozialer Ungleichheit. In: WSI-Mitteilungen 7/2005, S. 368-374. OECD/UNESCO-Institute for Statistics (2003): Literacy Skills for the World of Tomorrow. Further Results from PISA 2000. Paris. Oechsler, W.A. (2000): Personal und Arbeit. Grundlagen des Human Resource Management und der Arbeitgeber-Arbeitnehmer-Beziehungen. Siebte, überarbeitete und erweiterte Auflage, München/Wien: R. Oldenbourg. Power, M. (2004): Counting, Control and Calculation: Reflections on Measuring and Measurement. In: Human Relations 57, S. 765-783. Schmiede, R. (1996a): Informatisierung, Formalisierung und kapitalistische Produktionsweise. Entstehung der Informationstechnik und Wandel der gesellschaftlichen Arbeit. In: ders. (Hg.): Virtuelle Arbeitswelten. Arbeit, Produktion und Subjekt in der ‚Informationsgesellschaft’. Berlin: edition sigma, S. 15-47. Schmiede, R. (1996b): Informatisierung und gesellschaftliche Arbeit. Strukturveränderungen von Arbeit und Gesellschaft. In: ders. (Hg.): Virtuelle Arbeitswelten. Arbeit, Produktion und Subjekt in der ‚Informationsgesellschaft’. Berlin: edition sigma, S. 107-128. Sombart, W. (1987): Der moderne Kapitalismus. Band II: Das europäische Wirtschaftsleben im Zeitalter des Frühkapitalismus, unveränderter Nachdruck der zweiten, neugearbeiteten Auflage (Duncker & Humblot 1916). München: Deutscher Taschenbuch Verlag. Tangian, A.S. (2005): European Welfare State under the Policy “Make Work Pay”: Analysis with Composite Indicators. WSI-Diskussionspapier 141/2005. Vollmer, H. (2003): Grundthesen und Forschungsperspektiven einer Soziologie des Rechnens. In: Sociologia Internationalis 41, S. 1-23. Vollmer, H. (2004): Folgen und Funktionen organisierten Rechnens. In: Zeitschrift für Soziologie 33, S. 450-470. Vormbusch, U. (2004): Accounting. Die Macht der Zahlen im gegenwärtigen Kapitalismus. In: Berliner Journal für Soziologie, S. 33-50. Vormbusch, U. (2006): Accounting, Informatisierung und der Calculating Man. In: Baukrowitz, A./Berker, T./Boes, A./Pfeiffer, S./Schmiede, R./Will, M. (Hg.): Informatisierung der Arbeit – Gesellschaft im Umbruch. Berlin: edition sigma, S. 145-152. Vormbusch, U. (o.J.): Soziokalkulation. Zum Wandel gesellschaftlicher Steuerung im neuen Kapitalismus. Manuskript, Habilitationsschrift. Wagner, H. (2005): Die ‚Macht der Zahlen’. Neue Steuerung im Betrieb. In: dies. (Hg.): ‚Rentier'’ ich mich noch? Neue Steuerungskonzepte im Betrieb. Hamburg: VSA, S. 9-22. Weber, M. (1958): Wirtschaftsgeschichte. Abriss der universalen Sozial- und Wirtschaftsgeschichte, Berlin: Duncker & Humblot. Willke, H. (1984): Gesellschaftssteuerung. In: Glagow, M. (Hg.): Gesellschaftssteuerung zwischen Korporatismus und Subsidiarität. Bielefeld: AJZ, S. 29-53.

Zahlen, Wissen, Objektivität: Wissenschaftssoziologische Perspektiven

65

Zahlen, Wissen, Objektivität: Wissenschaftssoziologische Perspektiven

Bettina Heintz In seinem breit rezipierten Buch „Trust in Numbers“ hat Theodore Porter die Auffassung vertreten, dass Quantifizierung ein Kommunikationsmedium ist, das Aussagen mit Objektivität versieht und das vor allem dann zum Einsatz kommt, wenn andere konsensbildende Mechanismen nicht mehr greifen. „Numbers, graphs and formulas (are) first of all strategies of communication. ... Reliance on numbers and quantitative manipulation minimizes the need for intimate knowledge and personal trust“ (Porter 1995: viii, ix). Der unpersönliche Charakter von Zahlen verhelfe dazu, Argumente mit einer Aura des Notwendigen zu versehen, und trage damit dazu bei, Akzeptanz herzustellen. Dies wird aber erst dann notwendig, wenn persönliches Vertrauen nicht mehr gegeben ist und Konsens nicht mehr über direkte Interaktion hergestellt werden kann. Quantifizierungsbestrebungen setzen folglich dann ein, wenn die Kommunikation von persönlicher Begegnung auf schriftlichen Verkehr umgestellt wird und das persönliche Vertrauen gering ist. Aus systemtheoretischer Perspektive lässt sich Porters These dahingehend umformulieren, dass Quantifizierung ein symbolisch generalisiertes Kommunikationsmedium ist, ähnlich wie Liebe, Wahrheit, Geld oder Macht (Luhmann 1997: 316ff.). Symbolisch generalisierte Kommunikationsmedien sind Kommunikationsanweisungen, die es ermöglichen, an sich unwahrscheinlichen Kommunikationen Akzeptanz zu verschaffen. Sie sind der historisch letzte Typus einer Reihe von Kommunikationsmedien, die das Problem der dreifachen Unwahrscheinlichkeit von Kommunikation zu lösen helfen: Verstehen, Erreichen von Empfängern und Kommunikationserfolg (Luhmann 1981). Sprache ist das historisch primäre Medium. Ihre Entwicklung erleichtert das Verstehen einer Kommunikation. Verbreitungsmedien (Schrift, Buchdruck, Zeitungen, elektronische Medien etc.) schließen daran an und erweitern den Adressatenkreis. Sprache allein legt nicht fest, wie auf eine Kommunikation reagiert wird, ob mit Zustimmung oder Ablehnung. Im Falle mündlicher Kommunikation wird die sprachlich gegebene Möglichkeit zur Negation in vielen Fällen vermieden und stattdessen Konsens signalisiert, auch wenn die Meinungen faktisch auseinander gehen (Messmer 2003). Insofern führt Anwesenheit zu einer erhöhten Bereitschaft, Mitteilungen zu akzeptieren und die Artikulation von Dissens zu vermeiden resp. durch „korrektive Verfahren“ aufzulösen (Goffman 1982). Sobald jedoch durch die Entstehung von Verbreitungsmedien der unmittelbare Zusammenhang von Mitteilung/Information und Verstehen auseinander gerissen wird, braucht es andere Verfahren, um das Verstehen und die Annahme einer Kommunikation zu sichern. An dieser Stelle kommen für Luhmann die symbolisch generalisierten Kommunikationsmedien ins Spiel. Symbolisch generalisierte Kommunikationsmedien steigern die Akzeptanz von Kommunikationen, indem „die Konditionierung der Selektion zum Motivationsfaktor gemacht wird“ (Luhmann 1997: 321), d. h.

66

Bettina Heintz

indem sie signalisieren, dass ihre Auswahl bestimmte Voraussetzungen erfüllt.1 Insofern sind sie keine Sachverhalte, sondern „semantische Einrichtungen“, die auf Sachverhalte hinweisen und ihnen Kausalität zuschreiben. So ist das Kommunikationsmedium Liebe kein Gefühl, sondern eine Kommunikationsanweisung, wie Liebe auszudrücken ist, und ähnlich bezeichnet Wahrheit als Kommunikationsmedium keine Eigenschaft von Sätzen, sondern eine Kommunikationsanweisung, die signalisiert, dass die Auswahl der Information durch die Beachtung anerkannter Verfahren und nicht durch eine Laune des Mitteilenden zustande kam. Porters These, dass Quantifizierung die Akzeptanz von Aussagen wahrscheinlich macht und dies vor allem dann notwendig ist, wenn andere konsensbildende Mechanismen nicht mehr greifen, lässt jedoch zwei Fragen unbeantwortet: 1. Was geschieht vor der kommunikativen Verwendung von Zahlen? Wie werden Zahlen generiert und unter welchen Bedingungen werden sie von ihren Produzenten als objektiv interpretiert? 2. Weshalb ist eine Argumentation mit Zahlen konsenserzeugender als eine Argumentation, die sich ausschließlich der Sprache bedient? Oder anders gefragt: Inwieweit ist Quantifizierung tatsächlich ein Kommunikationsmedium? Auf diese Fragen gehe ich im Folgenden unter Beiziehung wissenschaftssoziologischer Konzepte näher ein. In einem ersten Abschnitt beschreibe ich den Wandel des Objektivitätsbegriffs und unterscheide in diesem Zusammenhang zwei Strategien, über die in der Wissenschaft Objektivität erzeugt wird. Die eine setzt bei der Beobachtung ein, d. h. in jener Phase, in der Daten resp. Zahlen generiert werden, die andere bezieht sich auf die nachfolgende Phase der Forschungskommunikation. In der Quantifizierungsliteratur wird der Umgang mit Zahlen oft in die Nähe der Mathematik gerückt. Abgesehen davon, dass sich die Quantifizierungsbemühungen zu einem großen Teil unabhängig von der Mathematik vollzogen haben, gibt es einen grundsätzlichen Unterschied zwischen Mathematik und Rechnen. Im Gegensatz zu Zahlen, die am Ende immer auf einen externen Referenten verweisen und darüber ihre Bedeutung erhalten, handelt die moderne Mathematik nicht von Zahlen, sondern von Zeichen, die keinen externen Bezug haben. In einem zweiten Teil werde ich deshalb kurz auf die Mathematik eingehen und zeigen, dass und inwiefern mathematische Formalisierung als ein symbolisch generalisiertes Kommunikationsmedium verstanden werden kann. Formalisierung und Quantifizierung sind nicht dasselbe. Auch wenn man eine konstruktivistische Position bezieht und den realitätserzeugenden Charakter von Zahlen betont, anstatt sie als Repräsentationen einer gegebenen Wirklichkeit zu begreifen (Kalthoff 2005), verweisen Zahlen am Ende doch auf eine Außenwelt. D. h. im Gegensatz zu mathematischen Operationen setzt die Produktion von Zahlen Messung voraus und hat insofern einen externen Bezug. Mit der Frage, auf welche Weise und unter welchen Bedingungen einer Beobachtung resp. Messung Objektivität zugeschrieben wird, hat sich vor allem die Wissenschaftssoziologie beschäftigt. Darauf gehe ich in einem dritten Teil ein. Im Mittelpunkt steht die Frage, wie und unter welchen Bedingungen Wissenschaftler die von ihnen erzeugten Daten als Fakten interpretieren und nicht als Artefakt der von ihnen verwendeten Apparaturen bzw. Verfahren. Der Eindruck, auf ein Faktum gestoßen zu sein, wird allerdings erst dann zu einem wissenschaftlichen Ereignis, wenn es gelingt, andere davon zu überzeugen. Auf diesen Überzeugungsprozess bezieht sich Porter mit seiner These, dass Zahlen ein Kom1

Es ist in Luhmanns Medientheorie nicht immer klar, ob es nur um die Akzeptanz oder auch um das Verstehen einer Kommunikation und damit um Anschlussfähigkeit per se geht, unabhängig davon, ob die Kommunikation angenommen oder ihr widersprochen wird, vgl. dazu auch Göbel (2000: 245ff.).

Zahlen, Wissen, Objektivität: Wissenschaftssoziologische Perspektiven

67

munikationsmedium sind. Mit den verschiedenen Strategien, Akzeptanz zu erzeugen, befasse ich mich im vierten Abschnitt. In einem fünften Abschnitt fasse ich die Argumentation noch einmal zusammen. Objektivierungsverfahren in der Wissenschaft: Regulierte Beobachtung und normierte Kommunikation Mit seiner These, dass Zahlen Objektivität signalisieren und dadurch die Akzeptanz von Aussagen fördern, bezieht sich Porter auf jene Phase, in der bestehende Zahlen einer weiteren Öffentlichkeit vermittelt werden. Dieser Phase ist jedoch ein Prozess vorgelagert, in der Zahlen produziert und von den Produzenten als objektiv eingestuft werden. Diese Unterscheidung entspricht der in der Wissenschaftssoziologie geläufigen Unterscheidung zwischen Forschungshandeln und Forschungskommunikation. Es ist eine Sache, wann Wissenschaftler ihren Forschungsergebnissen Faktizitätscharakter zuschreiben, und eine andere, wie sie ihre Ergebnisse kommunizieren und unter welchen Bedingungen sie von der Fachgemeinschaft als objektiv wahrgenommen werden. Entsprechend unterscheiden sich auch die Objektivierungsbedingungen. Wie wissenschaftshistorische Untersuchungen zeigen, sind die Vorstellungen darüber, wie objektives Wissen garantiert werden kann, historisch wandelbar. Die für uns heute selbstverständliche Gleichsetzung von „objektiv“ mit „unabhängig von persönlichen Einschätzungen“ und die ebenso geläufige Assoziation von „Objektivität“ und „Wahrheit“ ist eine Entwicklung, die sich erst im 19. Jahrhundert endgültig durchgesetzt hat (u. a. Daston 2001). Die Anfänge dieser Entwicklung reichen bis ins späte 16. Jahrhundert zurück, als sich zuerst in England, später auch in anderen Ländern die epistemischen und sozialen Regeln zu konstituieren begannen, die heute das Selbstverständnis der Wissenschaft ausmachen. Die moderne Wissenschaft, die sich in dieser Zeit als eigenständiges Funktionssystem auszudifferenzieren begann, inthronisierte die Empirie und das Experiment als grundlegendes Erkenntnisinstrument (u. a. Shapin 1996). Anstatt Autoritäten und Bücherwissen zu vertrauen, wurden die Augen zur ultimativen Erkenntnisinstanz. Nur was mit eigenen Augen beobachtet wird, d. h. empirisch erfahrbar und intersubjektiv überprüfbar ist, kann zu einer wissenschaftlichen Tatsache werden. Damit stellte sich jedoch ein Problem, dessen Lösung in unterschiedliche Verfahren zur Herstellung von Objektivität mündete. Beobachtungen sind lokale Ereignisse. Es ist ein konkretes Individuum, das an einem bestimmten Ort und zu einem bestimmten Zeitpunkt seine Beobachtungen macht. Unter welchen Voraussetzungen bekommt dieses notwendig lokale und subjektgebundene Wissen den Status einer objektiven Tatsache? Welche Bedingungen müssen erfüllt sein, damit der „view from somewhere“ (Porter 1992: 646) zu Thomas Nagels „Blick von nirgendwo“ wird (Nagel 1992)? Zur Lösung dieses Problems wurden zwei Strategien entwickelt. Die eine Strategie setzt bei der Beobachtung an, die andere bezieht sich auf die Regeln der wissenschaftlichen Kommunikation.

68

Bettina Heintz

Disziplinierung der Beobachtung Wie Werner Kutschmann (1986) in seiner informativen Studie zeigt, avancierte methodische (Selbst-)Disziplinierung seit dem späten 16. Jahrhundert zum wichtigsten Garanten für Objektivität. Um zu Wissen über die Natur zu gelangen, braucht es den Wissenschaftler als „Aufzeichnungsgerät“, gleichzeitig muss dessen Subjektivität und Körperlichkeit aber weitgehend ausgeschaltet werden, damit die Natur tatsächlich „für sich selbst sprechen kann“, d. h. objektive Erkenntnis möglich ist. Die Lösung dieses Problems bestand einerseits in der Entwicklung strikter methodischer Regeln und andererseits in der apparativen Aufrüstung des menschlichen Auges. Die Erfindung des Teleskops und des Mikroskops eröffnete dem Naturbeobachter nicht nur Schichten der Wirklichkeit, die dem Auge vorher nicht zugänglich waren, sondern hatte gleichzeitig die Funktion, die wissenschaftliche Beobachtung von den prinzipiell fehlbaren menschlichen Sinnen unabhängiger zu machen. Die Strategie, wissenschaftliche Beobachtung an technische Apparaturen zu delegieren, wurde im Verlaufe des 19. Jahrhunderts perfektioniert. Lorraine Daston und Peter Galison (1992) sprechen in diesem Zusammenhang von „mechanischer Objektivität“. Mechanische Objektivität zielt auf eine vollständige Ausschaltung des „Apriori des Leibes“ (Kutschmann 1986), indem Apparaturen den Körper als Beobachtungs- und Messinstrument ersetzen (sollen), und sie beruht auf der empiristischen Annahme, dass sich Theorie und Beobachtung trennen lassen. Das Ideal ist die subjektfreie Beobachtung über Aufzeichnungsgeräte, mit deren Hilfe sich die Natur selbst beschreiben kann, ohne menschliches Dazwischentreten. Beispielhaft dafür sind die wissenschaftliche Photographie und die Entwicklung von selbstregistrierenden Instrumenten in der Biologie (vgl. u. a. Chadarevian 1994). Damit wird das Problem der Kontingenz wissenschaftlicher Beobachtung jedoch nicht gelöst, sondern nur verschoben, indem das Gesehene nun abhängig ist von der Funktionstüchtigkeit eines technischen Geräts.2 Dieses Dilemma, das H. M. Collins (1985) als „experimentellen Zirkel“ bezeichnet und das sich in gleicher Form auch bei der Produktion von Zahlen in Unternehmen oder statistischen Ämtern stellt, lässt sich nicht auflösen, sondern höchstens latent halten. Normierung der Kommunikation Mechanische Objektivität reicht nicht aus, um individuell und lokal erzeugtem Wissen den Status unzweifelhafter Objektivität zu verleihen. Denn mit der erfolgreichen Durchführung eines Experiments wird erst ein Geltungsanspruch erhoben, der von der Fachgemeinschaft akzeptiert werden muss, damit das Ergebnis zu einer wissenschaftlichen Tatsache wird. Wie wissenschaftshistorische Studien zeigen, haben sich die Akzeptanzbedingungen und Überzeugungsstrategien im Verlaufe der Zeit grundlegend geändert. In der Frühphase der modernen Wissenschaft musste ein experimentelles Resultat durch Zeugen öffentlich, d. h. in einem Akt gemeinsamer Wahrnehmung, beglaubigt werden, damit es den Status einer wissenschaftlichen Tatsache erhalten konnte (Shapin/Schaffer 1985). Als Zeugen kamen 2

Ein berühmtes Beispiel ist Galileos Versuch, seine Gegner durch den Blick durchs Fernrohr von der Existenz der Jupitermonde zu überzeugen. Das Scheitern dieses Versuchs macht deutlich, dass das menschliche Auge durch den Einsatz von Beobachtungsinstrumenten nicht ersetzbar, sondern auf neue Art gefordert ist (vgl. Blumenberg 1965).

Zahlen, Wissen, Objektivität: Wissenschaftssoziologische Perspektiven

69

nur Personen in Betracht, deren sozialer Status Unvoreingenommenheit garantierte. Bezahlte Experimentatoren waren aufgrund ihrer materiellen Interessen nicht in der Lage, ihre Resultate mit Glaubwürdigkeit zu versehen: „They made the machines work, but they could not make knowledge“ (Shapin 1988: 395). D. h. in einer Gesellschaft, die auf stratifikatorischer Differenzierung beruhte, war Vertrauenswürdigkeit an den sozialen Rang gebunden und erst sekundär mit wissenschaftlicher Kompetenz assoziiert. Shapin (1988) spricht deshalb auch von „Gentlemen-Wissenschaft“. Dies änderte sich im Verlauf des 18. und vor allem im 19. Jahrhundert im Zusammenhang mit der endgültigen Ausdifferenzierung der Wissenschaft als eigenständiges Funktionssystem. Der Zugang zur Wissenschaft wurde nun nicht mehr über den sozialen Stand geregelt, sondern neu an den Erwerb von Qualifikationen gebunden, die die Wissenschaft selbst festlegt. Wissenschaft wird mit anderen Worten zu einem Beruf, der nach bestimmten Verfahren gelehrt wird und dessen Ausübung die Befolgung anerkannter Forschungstechniken voraussetzt. Gleichzeitig führten die Expansion der Wissenschaft und ihre Verankerung an den neu gegründeten Universitäten zu einer Veränderung und Ausweitung des Adressatenkreises mit Folgen für die wissenschaftliche Kommunikation. Im Verlaufe des 19. Jahrhunderts nahm die Publikationsaktivität explosionsartig zu und der Zeitschriftenaufsatz, der sich an ein anonymes Publikum richtet, etablierte sich als Standardform der (natur-)wissenschaftlichen Kommunikation (Stichweh 1984: 401ff.; Wagner-Döbler 1997). Zudem entstanden zahlreiche internationale Kommissionen und Kooperationen, in denen Wissenschaftler aus unterschiedlichsten Ländern zusammenarbeiteten (Schofer 1999). Angesichts dieser institutionellen Veränderungen versagen Strategien, die auf sozialer Glaubwürdigkeit und direktem Kontakt beruhen wie im Falle der „Gentlemen-Wissenschaft“. Ähnlich wie es Porter beschreibt, mussten Überzeugungsstrategien entwickelt werden, die die Akzeptanz von wissenschaftlichen Aussagen auch dann wahrscheinlich machen, wenn gemeinsame Wahrnehmung nicht mehr vorausgesetzt werden kann und sich die Teilnehmer nicht persönlich kennen. Wie Lorraine Daston zeigt, wird Objektivität neu über Kommunizierbarkeit definiert und der Kunst entgegengesetzt, die nun die Sphäre der nichtdiskursivierbaren Subjektivität verkörpert. „L’art c’est moi, la science c’est nous“, mit dieser Formulierung hat der französische Physiologe Claude Bernard 1865 das neue Selbstverständnis der Wissenschaft auf den Punkt gebracht (zit. in Daston 1998: 82). Während es früher die Anwesenheit sozial vertrauenswürdiger Zeugen war, die einer wissenschaftlichen Aussage Objektivität und damit Akzeptanz verlieh, verlagert sich das Gewicht nun auf die Form der Mitteilung. Wissenschaftliche Aussagen können dann den Anspruch auf Objektivität erheben, wenn sie in einer Form mitgeteilt werden, die ihren exakten Nachvollzug gestattet, d. h. wenn die Begriffe genau definiert sind, der Gedankengang keine Lücken enthält und die Ergebnisse in einer Weise erzeugt wurden, die ihre Wiederholung an anderen Orten, zu anderen Zeiten und durch andere Personen möglich macht. Dieses neue Verständnis von Objektivität stellte die Wissenschaftler vor die Anforderung, den Messvorgang zu standardisieren und ihre Kommunikation zu normieren. Die Standardisierung der Maße, Messinstrumente und Messbedingungen hatte zur Folge, dass die Forschungsbedingungen weltweit vereinheitlicht wurden. Forschungsresultate sind zwar grundsätzlich partikular, indem sie an bestimmten Orten, zu bestimmten Zeiten und von bestimmten Personen erzeugt werden, die durch Standardisierung erreichte Vereinheitlichung führt jedoch dazu, dass sie vergleichbar und kommunikativ anschlussfähig werden. Heute ist es für uns selbstverständlich, dass Länge, Gewicht und Zeit an jedem

70

Bettina Heintz

Ort der Welt auf dieselbe Weise gemessen werden. Historisch gesehen ist diese Vereinheitlichung der Maße aber ein relativ neues Phänomen. Viele der heute gebräuchlichen Maßeinheiten und Messverfahren wurden erst im Lauf des 19. Jahrhunderts festgelegt und nach teilweise langen Auseinandersetzungen international für verbindlich erklärt (vgl. u. a. Galison 2006; Kula 1986; Wise 1995). Eine ähnliche Standardisierung erfolgte auch in Bezug auf die Messinstrumente. Während die Messapparaturen in der Frühzeit der empirischen Wissenschaft fast immer Unikate waren, deren Zuverlässigkeit abhängig war von der Geschicklichkeit des Experimentators, war die Instrumentenentwicklung im 19. Jahrhundert auf Standardisierung ausgerichtet: Im Idealfall konnten die Messergebnisse auf einer Skala in Form von Zahlen abgelesen werden und entsprachen damit dem Ideal der mechanischen Objektivität. Mit der Durchsetzung des Labors, das im Verlauf des 19. Jahrhunderts in zunehmendem Maße das „Feld“ als Arbeitsstätte und Untersuchungsgegenstand ersetzte, wurden schließlich auch die Messbedingungen vergleichbar gemacht.3 Laboratorisierung der Wissenschaft heißt, dass die wissenschaftliche Beobachtung unter Bedingungen stattfindet, die sich gezielt variieren und systematisch kontrollieren lassen. Damit werden Bedingungen geschaffen, die im Prinzip überall reproduzierbar sind, im Gegensatz zur Feldwissenschaft, die von externen Restriktionen und natürlichen Kontingenzen abhängig bleibt und in der die Messbedingungen dem Zugriff und der Kenntnis der Forscher weitgehend entzogen sind. Dazu kommt, dass die im Labor untersuchten Objekte nicht von außen importierte „natürliche“ Gegenstände sind, sondern in vielen Fällen im Labor erst erzeugt werden. Die durch die Standardisierung der Maße, Messinstrumente und Messbedingungen geschaffene Vereinheitlichung macht die notwendig lokal produzierten Ergebnisse kommunikativ anschlussfähig und ermöglicht einen potentiell weltweiten Vergleich von Forschungsresultaten hinsichtlich ihrer „Wahrheit“. Diese Entwicklung trug entscheidend zur Globalisierung der Wissenschaft bei (zu einer ähnlichen Entwicklung im Sport vgl. den Beitrag von Werron in diesem Band).4 Parallel zur Standardisierung des Messvorgangs wurde auch die wissenschaftliche Kommunikation normiert mit dem Ziel, die Anschlussfähigkeit wissenschaftlicher Kommunikation auch dann zu sicherzustellen, wenn der unmittelbare Zusammenhang zwischen Autor und Leser nicht mehr gegeben ist und das Verstehen einer Aussage folglich voraussetzungsvoller und ihre Akzeptanz unwahrscheinlicher wird. Bis Ende des 18. Jahrhunderts wurden wissenschaftliche Beiträge häufig in Briefform publiziert (u. a. Daston 1991; Goldstein 2003). Der Autor machte sich als Person kenntlich und sprach ein ihm bekanntes Publikum an. Dies änderte sich im ausgehenden 18. Jahrhundert. Die Schrift löste sich als eigenständiges Medium von der mündlichen Kommunikation und erhielt von nun an Modellfunktion. Wissenschaftliche Texte waren von nun an nicht mehr Simulationen eines Gespräches, sondern entwickelten eigenständige Stilmittel, die auf Unpersönlichkeit und Exaktheit ausgerichtet sind.5 Die persönliche Anrede wurde durch Sprachformen ersetzt, 3

4 5

Die Durchsetzung des Labors und die Umwandlung der Feldwissenschaften in Laborwissenschaften erfolgten allerdings in unterschiedlichem Tempo und erfassten nicht alle Disziplinen gleichermaßen. Vgl. zur Laboratorisierung im 19. Jahrhundert James (1989), und zu den Feldwissenschaften Rees (2001) sowie Kuklick/Kohler (1996). Die zeitlich parallel laufende Nationalisierung der Wissenschaft, z. B. in Form der Gründung von nationalen Zeitschriften und nationalen Wissenschaftsvereinigungen, steht dazu nicht im Widerspruch, sondern ist als Folge und Reaktion auf die Entstehung eines zunehmend globalen Kommunikationszusammenhangs zu verstehen. Zu den Verschiebungen im Verhältnis von Mündlichkeit und Schriftlichkeit im Übergang zur Moderne vgl. Bohn (1999).

Zahlen, Wissen, Objektivität: Wissenschaftssoziologische Perspektiven

71

die den Autor und seine Adressaten zurücktreten lassen zugunsten einer entpersonalisierten Beschreibung von Sachverhalten. Der Anspruch auf Wahrheit wird nicht mehr über den sozialen Rang des Schreibenden und die damit verbundene Zurechnung von Wahrhaftigkeit gestützt, sondern über die Beachtung der zulässigen wissenschaftlichen Verfahren. Das Resultat sind wissenschaftliche Texte, deren sprachliche Form zum Ausdruck bringt, dass sie einen Sachverhalt wiedergeben und nicht durch persönliche Urteile gefärbt sind. Diese Umstellung des wissenschaftlichen Kommunikationscodes von persönlicher Anrede zu entpersonalisierten Beschreibungen ist beispielhaft für die Operationsweise von symbolisch generalisierten Kommunikationsmedien (vgl. Einleitung). Als Kommunikationsmedium ist Wahrheit eine „semantische Einrichtung“ (Luhmann 1982: 21), die signalisiert, dass eine Aussage auf wissenschaftlichen Grundlagen beruht und nicht bloß Meinungen und Wertungen wiedergibt (Luhmann 1990: 173ff.). Im Unterschied zu anderen Kommunikationsmedien liegt die Besonderheit des Mediums Wahrheit darin, dass die Selektion der Information der Umwelt („Erleben“) und nicht den Beteiligten („Handeln“) zugerechnet wird. Diese Zurechnung auf Erleben ergibt sich nicht von selbst, sondern wird durch den spezifischen Kommunikationscode wissenschaftlicher Publikationen nahe gelegt. Indem sich wissenschaftliche Aussagen als Beschreibungen von Sachverhalten präsentieren, die durch Befolgung anerkannter methodischer Regeln zustande kamen, erhöht sich ihre Akzeptanzwahrscheinlichkeit. Ein Forschungsergebnis wird also dann mit Objektivität assoziiert, wenn unterstellt werden kann, dass es einen externen Sachverhalt wiedergibt, und nicht die persönliche Meinung der Beteiligten. „Wenn man neues, ungewöhnliches Wissen als wahr vorschlagen will, muss man das eigene Handeln hinten anstellen. Man kann schließlich nicht sagen: es ist wahr, weil ich es so will oder weil ich es vorschlage“ (Luhmann 1990: 221). Genau dies formuliert der moderne Objektivitätsbegriff als normative Vorgabe, und hier liegt auch der Berührungspunkt zwischen Luhmanns Theorie symbolisch generalisierter Kommunikationsmedien und den historischen Arbeiten zur Geschichte der Objektivität. Formalisierung als symbolisch generalisiertes Kommunikationsmedium In seinem Buch nennt Porter Formalisierung und Quantifizierung, Mathematik und Rechnen oft im gleichen Atemzug. Diese Gleichsetzung von Mathematik und Rechnen findet sich nicht nur bei Porter, sondern zieht sich auch durch praktisch die gesamte AccountingLiteratur. Für die Manipulation von Zahlen sind mathematische Techniken zwar unabdingbar, zwischen Rechnen und Mathematik besteht jedoch ein grundsätzlicher Unterschied mit der Folge, dass die Überzeugungskraft von Zahlen auf anderen Mechanismen beruht als die Überzeugungskraft von Formeln. Während sich Zahlen letztlich immer auf einen externen Referenten beziehen, sind die Referenzbeziehungen in der Mathematik ausschließlich interner Natur. In der modernen (reinen) Mathematik gibt es keinen Verweis mehr auf irgendetwas außerhalb des mathematischen Systems, heiße das nun Anschauung, Evidenz oder Intuition. Mathematiker operieren nicht mit Zahlen, sondern mit Zeichen, die intern definiert sind und nicht auf einen externen Sachverhalt verweisen. Das Selbstverständnis der Mathematik als ein geschlossenes System, das die Objekte, mit denen es operiert, und die Regeln, nach denen es vorgeht, selbst erzeugt, ist eine Entwicklung des 19. Jahrhunderts und hängt entscheidend mit dem im vorangehenden Abschnitt beschriebenen instituti-

72

Bettina Heintz

onellen Veränderungen und dem damit verbundenen Wandel des Objektivitätsbegriffs zusammen (vgl. für das Folgende ausführlicher Heintz 2001). Im Verlaufe des 19. Jahrhunderts wurde der „naive abstractionism“ (Gray 1992) der früheren Mathematik überwunden und durch Objekte ersetzt, die ausschließlich mathematikintern definiert sind. Diese „De-Ontologisierung“ war auch deshalb notwendig geworden, weil die Mathematiker zunehmend Begriffe eingeführt hatten, die nicht mehr als Idealisierungen bzw. Abstraktionen aus empirischen Erfahrungen verstanden werden konnten, sondern ausschließlich „fiktiven“ Charakter hatten. Das bekannteste Beispiel sind die imaginären Zahlen, die von Leonhard Euler treffend als „ohnmögliche“, „eingebildete“ oder eben als „imaginäre“ Zahlen bezeichnet wurden (Toth 1987: 115) und die man bis weit ins 19. Jahrhundert verwendete, ohne sie systematisch hergeleitet zu haben. Im Zuge dieser „Theoretisierung“ der Mathematik (Jahnke 1990) wurden die mathematischen Grundbegriffe sukzessiv hinterfragt und in ein explizites System überführt. Dies gilt, um nur einige Beispiele zu erwähnen, für den Begriff des Raumes (Riemann), den Funktionsbegriff (Weierstraß) und den Begriff der Zahl (Dedekind). Den Endpunkt dieser Entwicklung bildete David Hilberts formale Axiomatisierung der Geometrie. In der inhaltlichen Axiomatik – das bekannteste Beispiel ist die Euklidsche Geometrie – werden die Axiome über ihre kognitive oder sinnliche Evidenz und damit indirekt über ihren externen Bezug gerechtfertigt. Demgegenüber verzichtet die formale Axiomatik auf eine inhaltliche Qualifizierung der Axiome. Axiome sind Annahmen hypothetischer Art, „Satzungen“ gewissermaßen, deren inhaltliche Wahrheit nicht zur Debatte steht. Wahrheit wird nicht mehr über Korrespondenz mit einer wie auch immer gearteten externen Wirklichkeit definiert, sondern gleichgesetzt mit Widerspruchsfreiheit innerhalb einer vom Mathematiker selbst geschaffenen Ordnung. Wahr sind die Axiome dann, wenn aus ihnen kein Widerspruch resultiert. In gleicher Weise wird auch der Begriff der Existenz von allen ontologischen Bezügen befreit. Existent ist das, was den Axiomen nicht widerspricht.6 Was die über die Axiome definierten Begriffe „bedeuten“, ist offen und hängt von ihrer semantischen Interpretation ab. Solange sie mit den Axiomen verträglich seien, könne man sich, so Hilbert, unter „Punkten“, „Geraden“ oder „Ebenen“ auch „Tische“, „Stühle“ und „Bierseidel“ vorstellen (zit. in Blumenthal 1935: 403). Im Hilbertschen Formalismus verweisen die Begriffe auf nichts mehr außerhalb des mathematischen Systems, innerhalb dessen sie definiert wurden. Die Mathematik wird damit referenzlos, was die Außenwelt betrifft, und selbstreferentiell in Bezug auf sich selbst. Oder wie es Herbert Mehrtens formuliert: „Eine mathematische Theorie ist eine Symbolsprache, die sich auf nichts außer auf sich selbst bezieht“ (Mehrtens 1990: 123).7 Die zweite Veränderung bezieht sich auf das Verständnis des Beweises. Wie die Geschichte der Mathematik zeigt, sind die Auffassungen darüber, unter welchen Bedingungen 6

7

„Wenn sich die willkürlich gesetzten Axiome nicht einander widersprechen mit sämtlichen Folgen, so sind sie wahr, so existieren die durch die Axiome definirten Dinge. Das ist für mich das Criterium der Wahrheit und Existenz“, so David Hilbert in einem Brief an Gottlob Frege, der die geometrischen Axiome in traditioneller Manier inhaltlich begründen wollte: „(Geometrische) Axiome nenne ich Sätze, die wahr sind, weil ihre Erkenntnis aus einer der logischen ganz verschiedenen Erkenntnisquelle fließt, die man Raumanschauung nennen könnte“ (zit. in Frege 1976: 63, 66). Eine ähnliche Umstellung findet zur gleichen Zeit innerhalb der Sprachwissenschaft statt. Ähnlich wie in der Mathematik definiert Ferdinand de Saussure die Bedeutung eines sprachlichen Zeichens nicht mehr über den Bezug zu einem außersprachlichen Referenten, sondern über seine sprachinterne Relation resp. Differenz zu anderen Zeichen (de Saussure 2001). Diese Parallelität ist ein wissenssoziologisch interessanter Befund, dem näher nachzugehen sich lohnen würde.

Zahlen, Wissen, Objektivität: Wissenschaftssoziologische Perspektiven

73

eine mathematische Aussage gerechtfertigt ist und damit als wahr akzeptiert werden kann, historisch wandelbar. Noch im 18. Jahrhundert war es nicht unüblich, Resultate und Begriffe zu verwenden, die nicht im strengen Sinn bewiesen waren, sondern über Plausibilitätsüberlegungen, induktiv-empirisch oder auch bloß pragmatisch über das Argument gerechtfertigt wurden, dass sie funktionieren (Grabiner 1981; Kline 1980: Kap. 6). Seit Beginn des 19. Jahrhunderts wurde die Tatsache, dass viele Ergebnisse nicht durch Beweise gedeckt waren, zunehmend als Problem erkannt. Um der Forderung nach strengeren Beweisen nachzukommen, mussten neue Sprachkonventionen entwickelt und durchgesetzt werden. Ein „strenger“ Beweis ist ein Beweis, bei dem die verwendeten Begriffe über die Axiome definiert sind, die Argumentation deduktiv und möglichst lückenlos erfolgt und die Alltagssprache weitgehend durch eine formale Sprache ersetzt wird. Im Idealfall sind Beweise in einer Weise formuliert, dass sie durch jeden anderen Mathematiker ohne weitere Erklärungen nachvollziehbar sind. Diese Anforderungen hatten neben ihrer epistemischen auch eine wichtige kommunikative Funktion: die Forderung nach strengeren Beweisen zwang die Mathematiker dazu, ihre Kommunikation zu disziplinieren und ihre Überlegungen Schritt für Schritt in eine Form zu bringen, die sich an den expliziten Vorgaben und Standards der mathematischen Gemeinschaft orientiert. Die Mathematik wird damit, so Mehrtens, „zu einer Schriftsprache mit scharfen, allgemein gültigen Gebrauchsregeln, auf die jeder Sprecher verpflichtet werden kann“ (Mehrtens 1990: 41). Die Festlegung von strikten Regeln, wie mathematische Aussagen zu begründen und in welcher Form sie zu formulieren sind, verweist darauf, dass Objektivität auch in der Mathematik die Bedeutung von Kommunizierbarkeit annimmt. „Was objektiv ist“, so der französische Mathematiker Henri Poincaré 1905, „muss mehreren Geistern gemein sein und folglich von einem dem anderen übermittelt werden können, und da diese Übermittlung nur durch die Rede vor sich gehen kann (...), sind wir gezwungen, zu schließen: Ohne Rede keine Objektivität“ (Poincaré 1905: 197). Ähnlich wie die empirischen Wissenschaften auf die Anonymisierung und Heterogenisierung des Adressatenkreises mit einer Standardisierung des Messvorgangs und einer Entpersonalisierung der wissenschaftlichen Sprache reagiert haben, verändert auch die Mathematik ihren Kommunikationscode, um die Akzeptanzwahrscheinlichkeit von Kommunikation zu erhöhen. Die im 19. Jahrhundert einsetzende Formalisierung der Mathematik, d. h. ihre Axiomatisierung und die Etablierung strenger Beweiskonventionen, hat m. a. W. nicht nur innermathematische Gründe, sondern ist auch als Antwort auf das sich verschärfende Problem der „Unwahrscheinlichkeit der Kommunikation“ (Luhmann) zu verstehen: Unter der Bedingung anonymer und indirekter Kommunikation braucht es eine präzise Sprache, um Argumente mitteilbar, und „strenge“ Methoden, um sie überzeugend zu machen. Ein in einer formalen Sprache formuliertes Argument, das deduktiv und (praktisch) lückenlos aufgebaut ist, hat zwingenden Charakter: es lässt keinen Raum offen für Uneindeutigkeiten und Missverstehen und lässt sich nicht bestreiten. Mathematische Formalisierung erfüllt damit jene Funktion, die Luhmann symbolisch generalisierten Kommunikationsmedien zuschreibt – die spezifische Art der Selektion motiviert zur Annahme einer Kommunikation.8 Dies macht deutlich, dass das Konzept symbolisch generalisierter Kommunikati8

„Man kann eine zugemutete Kommunikation annehmen, wenn man weiß, dass ihre Auswahl bestimmten Bedingungen gehorcht; und zugleich kann derjenige, der eine Zumutung mitteilt, durch Beachtung dieser Bedingungen die Annahmewahrscheinlichkeit erhöhen und sich selbst damit zur Kommunikation ermutigen“ (Luhmann 1997: 321).

74

Bettina Heintz

onsmedien nicht epistemische Beliebigkeit impliziert. Mit Wahrheit als Kommunikationsmedium ist nicht gemeint, dass der Inhalt der Aussagen irrelevant ist und es nur auf die Form der Mitteilung ankommt. Ansonsten wären Fälschungen ebenso akzeptierbar wie korrekte Ergebnisse. Gemeint ist vielmehr, dass die Kommunikationsform indiziert, dass das mitgeteilte Ergebnis unter Anwendung akzeptierter und im Prinzip überprüfbarer Verfahren zustande kam und insofern der Umwelt („Erleben“) zugerechnet werden muss und nicht den Präferenzen und Interessen der Beteiligten („Handeln“). „Die Frage, was der Fall ist, muss ergänzt (nicht ersetzt!) werden durch die Angabe, wie man zuverlässig feststellen kann, was der Fall ist“ (Luhmann 1997: 339). Die Frage ist: lässt sich auch Quantifizierung als Kommunikationsmedium interpretieren, wie Porter es behauptet? Oder erfordert eine Argumentation mit Zahlen zusätzliche, außerepistemische Unterstützungsmaßnahmen, da die Herstellung von Zahlen Messung und damit Apparaturen voraussetzt, deren Zuverlässigkeit grundsätzlich bestreitbar ist? Auf die Frage, unter welchen Bedingungen Wissenschaftler ihren Messungen Faktizitätscharakter zuschreiben, gehe ich im nächsten Abschnitt ein, um anschließend die Frage zu diskutieren, ob numerische Argumentationen in gleicher Weise als Kommunikationsmedium angesehen werden können wie Formalisierung in der Mathematik. Herstellungsstrategien – die Konstruktion einer wissenschaftlichen Tatsache Die Produktion von Zahlen setzt Messung voraus.9 Entsprechend hängt die Einschätzung der Objektivität von Zahlen in entscheidendem Maße von der Glaubwürdigkeit der verwendeten Messapparaturen und -verfahren ab, technisch gesprochen: von ihrer Reliabilität und Validität. So zweifelt (heute) niemand mehr daran, dass ein Fieberthermometer tatsächlich die Temperatur eines Menschen misst und es dies immer auf die gleiche Weise tut, unabhängig von Ort, Zeit und Person. Und ebenso wenig wird in Frage gestellt, dass die Temperatur bei allen Menschen messbar ist, unabhängig davon, worin sie sich sonst noch unterscheiden. Dies macht deutlich, dass Messung Kommensurabilität erfordert (vgl. Espeland/Stevens 1998). Phänomene, die in eine numerische Ordnung gebracht werden, müssen unter Absehung ihrer individuellen Unterschiede als vergleichbar eingestuft werden – z. B. Güter hinsichtlich ihres Preises, Länder hinsichtlich ihres Bruttosozialprodukts pro Kopf. Allerdings gibt es auch Phänomene, die sich aus kulturellen Gründen gegen Vergleichbarkeit und damit gegen eine Quantifizierung sperren. Ein Beispiel dafür ist Liebe, die im Gegensatz etwa zu wirtschaftlichen Produktionsleistungen gerade umgekehrt über Einzigartigkeit und Unvergleichbarkeit definiert wird. Vergleichbarkeit ist den vermessenen Objekten nicht inhärent, sondern das Resultat einer Kategorisierung, die sozial voraussetzungsvoll und entsprechend potentiell kontrovers ist (Bowker/Star 2000; Vanderstraten 2006). Kategorisierung bedeutet, dass nur einige Merkmale als relevant ausgewählt werden und alles andere ignoriert wird. Insofern impliziert Kategorisierung Abstraktion und Komplexitätsreduktion (vgl. anschaulich Borges 1981).10 All diese sozialen Prozesse – Kategorisierung, Herstellung von Ver9 10

Grundsätzlich können auch qualitative Beurteilungen in eine numerische Form gebracht werden, z. B. in Form von Noten oder Rankings, im Normalfall ist Quantifizierung jedoch an Messung gebunden. Ähnlich unterscheidet Townley (1995) im Anschluss an Foucault zwischen „taxonomy“ und „mathesis“. Taxonomien haben eine standardisierende Funktion, indem sie Vergleichbarkeit zwischen Phänomenen herstellen, die ursprünglich als qualitativ verschieden angesehen wurden. Sie bilden die Voraussetzung für Quantifizierung, d. h. für die Zuordnung von Zahlwerten (mathesis).

Zahlen, Wissen, Objektivität: Wissenschaftssoziologische Perspektiven

75

gleichbarkeit und Messung – sind der Produktion von Zahlen vorgelagert, und entsprechend ist es umso erstaunlicher, dass Zahlen in vielen Fällen nicht strittig sind. Niemand erhebt Einspruch gegen die Zeitmessung bei einem Hundertmeterlauf, wohl aber gegen die medizinischen Interventionen, die diese Leistung erst möglich machten; niemand streitet über die Ozonwerte, wohl aber über deren Ursachen und Folgen; kaum jemand stellt die Zahlen zur Altersverteilung in Frage, wohl aber deren politische Einschätzung. Zahlen, die nicht strittig sind, werden nicht als selektive Beschreibungen einer zugrunde liegenden Wirklichkeit angesehen, sondern mit dieser selbst gleichgesetzt. Faktisch handelt es sich aber um das Ergebnis eines Reifikationsprozesses, dessen Struktur erst dann sichtbar wird, wenn hinsichtlich der Zuverlässigkeit der Messverfahren Unsicherheit oder Dissens besteht. Mit der Frage, unter welchen Bedingungen Messungen Faktizitätscharakter zugeschrieben wird, hat sich vor allem die konstruktivistische Wissenschaftssoziologie beschäftigt. Wie kann man beurteilen, ob eine Messung einen Sachverhalt wiedergibt oder ob sie ein Artefakt der verwendeten Messverfahren ist? Am Beispiel einer Kontroverse in der Physik hat H. M. Collins zu zeigen versucht, dass diese Frage in eine Paradoxie führt (Collins 1985: 79ff.). Ende der 60er Jahre stellte der Physiker Joseph Weber die Behauptung auf, es sei ihm gelungen, ein Gerät zu entwickeln, mit dem sich die Gravitationsstrahlung, deren Existenz bis dahin nur theoretisch postuliert worden war, messen lasse. Die Reaktion der Physiker auf dieses Ergebnis war gespalten. Für die einen waren die Ergebnisse von Weber tatsächlich ein Beweis für die Existenz von Gravitationswellen, für die anderen waren sie ein Artefakt der von ihm entwickelten Apparatur. Das Phänomen des „experimentellen Zirkels“ (Collins) erklärt, weshalb eine solche Kontroverse zwar geschlossen, aber nicht aufgelöst werden kann. Um sicher zu sein, dass die Apparatur tatsächlich misst, was sie messen soll, muss sie „richtige“ Resultate liefern. Ein richtiges Resultat setzt aber voraus, dass die Apparatur zuverlässig funktioniert. Ob dies der Fall ist, kann man aber erst entscheiden, wenn sie richtige Resultate liefert, und so weiter. „Zuverlässigkeit“ und „Richtigkeit“ bestimmen sich m. a. W. gegenseitig und führen insofern in eine Paradoxie, die prinzipiell nicht auflösbar ist. Diese Paradoxie ist im Prinzip jeder Datenerhebung eigen. Solange jedoch Konsens über die Zuverlässigkeit der angewandten Verfahren besteht und sie als selbstverständlich angesehen werden, bleibt sie latent. Offen zutage tritt sie erst dann, wenn im Rahmen von Kontroversen Messungen in Frage gestellt werden.11 In der Praxis der Forschung geht es über weite Strecken darum zu entscheiden, wann eine Messung als objektives Merkmal der Außenwelt zugerechnet werden kann und wann sie als Artefakt der verwendeten Verfahren interpretiert werden muss. In der Wissenschaftstheorie wird Forschung in der Regel als ein Vorgang behandelt, bei dem zwei Größen aufeinander abgestimmt werden müssen: gesucht wird ein „fit“ zwischen Theorie und Beobachtung resp. Messung. Mikrosoziologische Studien des Forschungshandelns zeigen jedoch, dass das Problem um einiges komplizierter ist. Es sind mehrere Größen, die aufeinander abgestimmt werden müssen, bis sich der Eindruck herstellt, auf ein Faktum gestoßen 11

Ein instruktives Beispiel für den paradoxalen Charakter des „experimentellen Zirkels“ ist die Kontroverse um die Zulässigkeit von computergestützten Beweisen in der Mathematik. Soll man einen Beweis akzeptieren, der nur mit Hilfe eines Computers durchführbar ist und sich folglich mit den üblichen Werkzeugen der Mathematik – Kopf, Bleistift und Papier – nicht überprüfen lässt? Während einige Mathematiker Computerbeweise strikt ablehnen, übrigens mit ähnlichen Argumenten, wie sie Collins anführt, plädieren andere dafür, neue Kriterien für die Akzeptanz von Beweisen einzuführen: Nachprüfung des Programms durch Gutachter, Replikation durch andere Computer etc. Die Paradoxie lässt sich damit zwar latent halten, aber nur auf Kosten einer Einschränkung der Beweisanforderungen, vgl. ausführlicher Heintz 2000: 352ff.

76

Bettina Heintz

zu sein, und alle Größen, nicht nur die theoretischen Annahmen, sind im Prinzip veränderbar. Pickering (1989) unterscheidet zwischen drei Komponenten, zwischen denen Kohärenz hergestellt werden muss: phenomenal models (theoretische Annahmen und Forschungsfragen), instrumental models (messtechnische Annahmen über die Funktionsweise der Apparatur bzw. der Versuchsanordnung) und schließlich das Forschungshandeln selbst – die Bedienung und Überwachung der Apparaturen, das Hantieren mit Proben, die Änderung der Versuchsanordnung (material procedures; vgl. ähnlich Hacking 1992). Das Resultat – die Messung – fehlt in dieser Aufzählung. Der Grund dafür liegt in dessen oszillierendem ontologischen Status. Diesen Status zu fixieren, ist das Hauptziel der Forschungsarbeit, und ihr Erfolg hängt entscheidend vom Vertrauen in die Messapparaturen ab. Am Beispiel von Pickerings Untersuchung lässt sich veranschaulichen, unter welchen Bedingungen einer Messung Objektivität zugeschrieben wird. Die Studie beruht auf einer Rekonstruktion einer Serie von Experimenten, die der italienische Physiker Giacomo Morpurgo in den 60er Jahren durchgeführt hat. Kurz zuvor war in der Kernphysik die Behauptung aufgestellt worden, dass es Teilchen gebe – so genannte Quarks –, deren Ladung nur einen Bruchteil, nämlich 1/3 oder 2/3 der Ladung eines Elektrons ausmache. Dies war zu dieser Zeit eine radikale These, da man bisher davon ausgegangen war, dass die Ladung des Elektrons die kleinstmögliche ist. Die Experimente von Morpurgo hatten zum Ziel, diese neue Behauptung zu testen. Er orientierte sich dabei an einer Versuchsanordnung, die um 1910 von Robert Millikan entwickelt worden war, und wandelte sie für seine Zwecke ab. Die ersten Messungen, die Morpurgo durchführte, widersprachen seinen theoretischen Erwartungen. Anstatt das theoretische Modell (phenomenal model) zu modifizieren, wie es das Falsifikationsmodell einfordern würde, revidierte er seine Vorstellungen über die Funktionsweise der Apparatur (instrumental model): Mit Hilfe einer Zusatzhypothese, die die Versuchsanlage betraf, gelang es ihm, Beobachtung und theoretisches Modell in Einklang zu bringen. Unter der Annahme einer spezifischen Funktionsweise der Apparatur wiesen seine Messungen darauf hin, dass es keine Teilchen mit einer geringeren Ladung als das Elektron gibt. Kurz nachdem er dieses Resultat beschrieben hatte, machte er eine Beobachtung, die diesem Resultat widersprach. Morpurgo führte diese Diskrepanz auf die Versuchsanordnung zurück und begann mit ihr zu experimentieren. Mit Hilfe einer geringfügigen Änderung des experimentellen Verfahrens (material procedures) ließen sich die für ihn unerwarteten Ladungen zum Verschwinden bringen. Damit war es Morpurgo gelungen, zwischen allen Komponenten Kohärenz herzustellen: zwischen den theoretischen und messtechnischen Annahmen, seinem experimentellen Handeln und den Messungen, die damit für ihn – und zunächst nur für ihn – den Status einer wissenschaftlichen Tatsache bekamen. Das Ideal der mechanischen Objektivität unterstellt, dass apparategestützte und quantitative Messverfahren zuverlässiger sind als Verfahren, die auf direkter Beobachtung beruhen. Messungen sind, so die verbreitete Annahme, unabhängig von Person, Zeit und Raum und damit prinzipiell wiederholbar – im Gegensatz zu qualitativen Einschätzungen, die nicht ohne weiteres explizierbar und folglich nur bedingt in eine standardisierte (und damit im Prinzip auch mechanisierbare) Handlungsanweisung übersetzt werden können (Roth/ Bowen 2001). Die mikrosoziologischen Untersuchungen zur experimentellen Praxis machen jedoch deutlich, dass der Unterschied zwischen qualitativem Urteil und quantitativer

Zahlen, Wissen, Objektivität: Wissenschaftssoziologische Perspektiven

77

Messung nicht grundsätzlicher Natur ist.12 Messergebnisse werden nicht von vornherein als objektiver Sachverhalt der Umwelt zugeschrieben („Erleben“), sondern können auch als Artefakte des experimentellen Handelns oder der verwendeten Apparatur aufgefasst werden. Damit ein Datum als Faktum interpretiert wird, müssen eine Reihe komplexer und hoch selektiver Voraussetzungen gegeben sein, angefangen bei der Etablierung einer kognitiven Ordnung (Kategorienbildung) über technische Standardisierung bis hin zur erfolgreichen Abstimmung von theoretischen Annahmen, messtechnischen Überlegungen, Forschungshandeln und der Messung selbst. Was am Ende als Faktum eingestuft wird, ist das Ergebnis eines Reifikationsprozesses, bei dem es primär darum geht, Vertrauen in die Messverfahren zu gewinnen, und in dessen Verlauf „subjektiver Sinn zu objektiver Faktizität“ wird (Berger/Luckmann 1970: 20; vgl. ähnlich auch Mead 1903). Sobald dies geschehen ist, haben die Messungen keinen vorläufigen und hypothetischen Charakter mehr, sondern werden als „Tatsachen“ der Außenwelt zugerechnet, während der Herstellungsprozess selbst in Vergessenheit gerät. Es ist dieser Umschlag der Zurechnung von „Handeln“ auf „Erleben“, die Messungen ihre Überzeugungskraft verleiht: „The result of the construction of a fact is that it appears to be unconstructed by anyone“ (Latour/Woolgar 1986: 240). Überzeugungsstrategien – die Durchsetzung einer wissenschaftlichen Tatsache Die Studie von Pickering bezieht sich auf das Forschungshandeln und rekonstruiert, wie auf individueller Ebene Faktizität hergestellt wird. Davon zu unterscheiden sind Objektivierungsprozesse im Rahmen der Forschungskommunikation. Um zu einem wissenschaftlichen Ereignis zu werden, muss ein Resultat mitgeteilt und von der Fachgemeinschaft akzeptiert werden. Im Anschluss an Shapin und Schaffer (1985) lassen sich drei Strategien unterscheiden, über die sich die Akzeptanzbedingungen beeinflussen lassen: „material technologies“, „social technologies“ und „literary technologies“ (S. 25ff.). Diese drei „technologies of fact-making“ greifen auf unterschiedliche Weise in die Forschungskommunikation ein und asymmetrisieren sie in Richtung Akzeptanz. Materielle Technologien präformieren Akzeptanz, indem ein Teil des bestreitbaren Wissens in die soziale und technische Infrastruktur eingelagert und damit der direkten Auseinandersetzung weitgehend entzogen ist. Beispielhaft dafür ist die Etablierung von international anerkannten Maßeinheiten und Messinstrumenten. Davon zu unterscheiden sind soziale Strategien, die über Allianzenbildungen und Exklusionsverfahren die Kommunikation in Richtung Akzeptanz steuern. Die Untersuchung solcher Sozialstrategien und ihrer epistemischen Folgen stand im Mittelpunkt des frühen Sozialkonstruktivismus im Umkreis von David Bloor (1976). Die Akteur-Netzwerk-Theorie führt diese Fragestellung weiter – allerdings unter Einschluss von nicht-menschlichen „Aktanten“ – und wendet sich damit gegen die im Bloorschen Symmetriepostulat angelegte Trennung von „sozialen“ und „rationalen“ Einflussfaktoren (vgl. Latour 1987; sowie als Überblick Belliger/Krieger 2006). Dadurch wird der einseitige Soziodeterminismus der konstruktivistischen Wissenschaftsforschung zwar korrigiert und durch eine in doppelter Hinsicht „realistischere“ Einschätzung ersetzt, allerdings um den Preis einer Überdehnung des Akteurs- und vor allem des Kommunikationsbegriffs (vgl. anders Teubner 2006). 12

Vgl. auch den Beitrag von Messner, Scheytt und Becker im vorliegenden Band, der mit Blick auf das Verhältnis von Controlling und Management zu einer ganz ähnlichen Einschätzung kommt.

78

Bettina Heintz

Indem Sozialstrategien außerwissenschaftliche Ressourcen wie Macht, Einfluss, Geld etc. mobilisieren, stehen sie im Widerspruch zur normativen Struktur der Wissenschaft, deren Objektivitätsanspruch gerade umgekehrt auf einem Primat der Sach- gegenüber der Sozialdimension beruht. Weniger umstritten sind die von Shapin und Schaffer als „literarische Technologien“ bezeichneten Strategien. Literarische Technologien verwenden kommunikative Verfahren, um Behauptungen mit Überzeugungskraft auszustatten. Die Verfahren reichen vom Gebrauch spezifisch wissenschaftlicher Stilmittel über den Einsatz von Bildern und Zahlen bis hin zur Verwendung einer formalen Sprache. Im Vergleich zu Texten sind Zahlen (und Bilder) besser geeignet, Objektivität zu signalisieren und dadurch Akzeptanz zu mobilisieren. Der Grund dafür liegt weniger in ihrem unpersönlichen Charakter, als vielmehr darin, dass Zahlen – und das gilt erst recht für Bilder – schwerer negierbar sind als sprachlich formulierte Aussagen. Während Sprache aufgrund ihrer binären Struktur über das Gegebene hinaus verweist und damit gewissermaßen von selbst Kontingenz erzeugt, ist in numerische und visuelle Repräsentationen nicht von vornherein eine Alternativfassung eingebaut. Die Blockierung von Kontingenz ist im Falle von wissenschaftlichen Bildern besonders ausgeprägt (vgl. dazu ausführlicher Heintz/Huber 2001a). Ähnlich wie massenmediale Bilder suggerieren wissenschaftliche Bilder Objektivität. Sie geben vor, eine Realität zu zeigen, die außerhalb von ihnen liegt und durch sie sichtbar gemacht werden kann. Diese Objektivierungsleistung beruht darauf, dass wissenschaftliche Bilder im Gegensatz zu künstlerischen Bildern ihre Bildhaftigkeit nicht zum Thema machen, sondern insinuieren, dass sie sich ausschließlich auf etwas Bildexternes beziehen. Demgegenüber sind künstlerische Bilder selbstreferentiell, indem sie zeigen, dass und wie sie etwas zeigen.13 Während das wissenschaftliche Bild die Differenz von Bild und Realität einebnet, indem es seine Visualität gewissermaßen unterschlägt, thematisiert das künstlerische Bild das Bildhafte des Bildes und damit den kontingenten Charakter des Gezeigten (Boehm 2001). Die durch wissenschaftliche Bilder suggerierte Evidenz des Augenscheins ist umso erstaunlicher, als sie in hochgradigem Maße artifiziell sind. Zwischen dem vermessenen Objekt und seiner bildlichen Darstellung liegt eine Vielzahl von Aufzeichnungen und Bearbeitungsschritten, die sich im Prinzip an jedem Punkt in verschiedene Richtungen verzweigen können. Ob ein Bild „richtig“ ist, d. h. die Oberflächenstruktur eines Atoms oder eine cerebrale Läsion adäquat wiedergibt, lässt sich nicht durch einen Blick auf die „Sache selbst“ entscheiden, sondern nur durch andere Bilder: bildexterne Kriterien gibt es in den meisten Fällen nicht (vgl. illustrativ die „Werkstattberichte“ in Heintz/Huber 2001b).14 Die Objektivierungsleistung von Zahlen funktioniert über einen ähnlichen Mechanismus. Während Sprache immer eine Ja- und eine Nein-Fassung bereitstellt und insofern ein Satz seine Negationsmöglichkeit bereits in sich trägt, muss Negation im Falle von Zahlen aktiv erzeugt werden. Um numerische Aussagen zu relativieren, braucht es m. a. W. alternative Zahlen resp. ein Wissen darüber, auf welche Weise sie zustande kamen. Ablehnung wird damit voraussetzungsvoller. Dies – und nicht ihre semiotische Besonderheit – erklärt, weshalb Zahlen eher als Texten Objektivität zugeschrieben wird. Dies bedeutet selbstverständlich nicht, dass Zahlen nicht in Frage gestellt werden – das werden sie häufig und 13 14

Das Lehrbuchbeispiel dafür ist René Magrittes Bild „Ceci n’est pas une pipe“. Dies gilt sogar für die Medizin. Obschon mit der klinischen Untersuchung alternative Beobachtungsverfahren zur Verfügung stehen, wird eine Diskrepanz zwischen Bild und klinischem Befund in zunehmendem Masse zugunsten des Bildes entschieden, vgl. Burri (2001).

Zahlen, Wissen, Objektivität: Wissenschaftssoziologische Perspektiven

79

immer wieder (vgl. etwa McBarnet et al. 1993; Lehmann 1992). Dies kann aber nur dann wirkungsvoll geschehen, wenn die Verfahren zur Generierung von Zahlen transparent sind und eigene Ressourcen zur Datengenerierung zur Verfügung stehen. Ein weiterer Grund für die Objektivitätsaura von Zahlen liegt darin, dass sie Wissen in hoch verdichteter und komprimierter Form darstellen und insofern weniger indexale Bezüge aufweisen als sprachlich formulierte Aussagen. Für Bruno Latour sind Zahlen ähnlich wie Landkarten, Diagramme, Texte, Photographien oder Formeln „Inskriptionen“, über die die „Welt“ mental und kommunikativ verfügbar gemacht werden kann (Latour 1987: 215ff.). Zahlen stehen dabei nicht am Anfang, sondern sie sind Zwischenglieder in einem komplexen Übersetzungsprozess, in dessen Verlauf Beobachtungen in Inskriptionen und Inskriptionen in andere Inskriptionen übersetzt werden (vgl. anschaulich Latour 1996). Während nur der Beobachter sieht, was er sieht, sind die von ihm produzierten Tabellen, Bilder oder Texte im Prinzip allen zugänglich. Um als Verbreitungsmedien zu fungieren, müssen Inskriptionen allerdings drei Bedingungen erfüllen: sie müssen transportierbar sein, in ihrer Form über die Zeit hinweg stabil bleiben, und sie müssen kombinierbar und manipulierbar sein. Zahlen erfüllen diese Bedingungen in besonderem Maße (Robson 1992). Die Differenz zu anderen Medien liegt vor allem in ihrer Kombinierbarkeit und Manipulierbarkeit. Aus Zahlen lassen sich durch statistische Verfahren schrittweise neue Zahlen generieren mit zunehmendem Generalisierungs- und Komplexitätsgrad, ohne dass dabei der Bezug zum repräsentierten Objekt verloren geht. Die Erzeugung von Zahlen aus Zahlen vollzieht sich auf einer rein syntaktischen Ebene, d. h. unter Absehung ihrer Bedeutung, ähnlich wie die Deduktion eines formalen Beweises (vgl. Vollmer 2007). Auf dieser syntaktischen Ebene können Zahlen für alles stehen – für Dinge unterschiedlichster Art, aber auch für andere Zahlen. Über die Zuordnung von Zahlwerten lässt sich qualitativ Verschiedenes vergleichbar machen und zueinander in Beziehung setzen: das Bruttosozialprodukt mit den Unternehmensausgaben für Forschung und Entwicklung (Robson 2004) oder die Aufenthaltsdauer von Patienten in einem Krankenhaus mit der Art der Erkrankung und dem finanziellen Aufwand für Pflege, Forschung und Betrieb (Chua 1995). Durch Kombination, Aggregation und Transformation entstehen neue Vergleichsmöglichkeiten und Zusammenhänge, die sich ihrerseits wieder numerisch darstellen lassen, z. B. in Form eines Rankings der Kosteneffizienz von Krankenhäusern. Power spricht in diesem Zusammenhang von „metameasurement“ (Power 2004: 771ff.), Vollmer (2003) von einer „Hyperrealität“ der Zahlen. Wie aggregiert eine Zahl auch immer ist, entscheidend ist, dass ihr (im Normalfall) eine Messung zugrunde liegt, im Gegensatz zu einer mathematischen Formel.15 Die Zurechnung von Objektivität impliziert folglich ein doppeltes Vertrauen: einerseits in die Zuverlässigkeit der Messverfahren, über die die Rohdaten gewonnen wurden, und andererseits in die Zuverlässigkeit der verwendeten statistischen Verfahren und deren korrekte Anwendung. Nur unter dieser Bedingung kann Quantifizierung als Kommunikationsmedium fungieren und die Kommunikation zwischen Personen erleichtern, die sich persönlich nicht kennen. Während die Präsentation von Zahlen in der Wissenschaft mit der Erwartung einhergeht, dass sich Mess- und Bearbeitungsverfahren rekonstruieren und durch andere Wissenschaftler überprüfen lassen, ist dies in andern gesellschaftlichen Bereichen nicht oder nur bedingt der Fall: Akzeptanz stützt sich nicht auf „Verständnis“, sondern auf „Einverständnis“ (im Weberschen Sinne). Daten sind entweder öffentlich nicht zugänglich oder es 15

Es gibt natürlich auch den Nicht-Normalfall: Fälschungen in der Wissenschaft oder „creative accounting“ in der Buchführung.

80

Bettina Heintz

besteht faktisch ein Datenmonopol, wie z. B. im Falle von statistischen Ämtern oder Publikationsdaten (Weingart 2005). Dazu kommt, dass die statistischen Verfahren teilweise so komplex sind, dass sie von den Adressaten nicht rekonstruierbar sind. Während in der Wissenschaft Datenproduzenten und Datenrezipienten über dieselbe Qualifikation verfügen, stehen sich in anderen gesellschaftlichen Bereichen Experten und Laien gegenüber. Entsprechend haben die vertrauensgenerierenden Maßnahmen eine andere Form: an die Stelle der Replikation durch andere Wissenschaftler tritt das Auditing durch spezialisierte Firmen. Auditing ist so gesehen ein funktionales Äquivalent zur Replikation in der Wissenschaft, mit dem Unterschied allerdings, dass es sich in der Regel um eine bezahlte Leistung handelt und die Überprüfung nicht systematisch erfolgt (Power 1997). Diese Unterschiede erklären, weshalb die Zurechnung von Objektivität in außerwissenschaftlichen Bereichen zwar nicht notwendig geringer, aber instabiler und kontroverser ist als in der Wissenschaft. Ausblick Zahlen signalisieren Unbestreitbarkeit und Objektivität. Die Objektivität von Zahlen ist jedoch kein Sachverhalt, sondern eine Zurechnung. Diese Zurechnung erfolgt nicht beliebig, sondern ist an spezifische und historisch wandelbare Bedingungen geknüpft. Ich habe in diesem Zusammenhang auf die Wissenschaft bezogen zwischen zwei Phasen der Objektivitätszurechnung unterschieden: zwischen der Phase der Generierung einer Messung und der Phase ihrer kommunikativen Vermittlung. Im ersten Fall geht es um die Frage, unter welchen Bedingungen Messungen Faktizitätscharakter zugeschrieben wird. Wie ich im ersten Abschnitt unter dem Stichwort „Disziplinierung der Beobachtung“ ausgeführt habe, ist die Zurechnung von Objektivität an Beobachtungskonstellationen gebunden, die unter Einsatz methodisch kontrollierter Verfahren und durch Apparaturen zustande kommt, die den menschlichen Körper als Aufzeichnungsgerät partiell ersetzen. Damit wird das Ideal der „mechanischen Objektivität“ zwar erfüllt, das Problem, wie Fakt und Artefakt zu unterscheiden sind, wird aber nicht gelöst, sondern nur verschoben. Während ursprünglich der menschliche Körper als Fehlerquelle galt, hängt die Objektivität der Messung nun von der Validität und Reliabilität der verwendeten Messapparaturen und Messverfahren ab. Collins zufolge führt diese Abhängigkeit in eine Paradoxie, die sich im Falle etablierter Messmethoden zwar latent halten lässt, aber offenkundig wird, sobald es sich um neue oder umstrittene Verfahren handelt (vgl. Mallard 1998). Wie in der Praxis der Forschung mit diesem Problem umgegangen wird, habe ich im dritten Abschnitt am Beispiel der Untersuchung von Andrew Pickering ausgeführt. Die Studie zeigt, dass es oft unklar ist, ob Messungen einen objektiven Sachverhalt wiedergeben oder ob sie als Artefakt der verwendeten Verfahren und Apparaturen zu interpretieren sind. Der Eindruck, auf einen objektiven Sachverhalt gestoßen zu sein, stellt sich erst dann ein, wenn es gelingt, zwischen verschiedenen Größen – den theoretischen und messtechnischen Annahmen, dem experimentellen Handeln und den Messungen selbst – Übereinstimmung herzustellen. Sobald dies geschehen ist, wird die Messung als objektives Merkmal der Außenwelt zugerechnet, während der Herstellungsprozess selbst in Vergessenheit gerät. Es ist dieser Umschlag der Zurechnung von „Handeln“ auf „Erleben“, der Zahlen den Anschein des Unpersönlichen verleiht. Was in der Wissenschaft Gegenstand methodischer

Zahlen, Wissen, Objektivität: Wissenschaftssoziologische Perspektiven

81

Reflexion ist, gilt ähnlich auch für die Produktion von Zahlen in anderen Bereichen, nur wird es hier nicht systematisch reflektiert (vgl. Kalthoff in diesem Band). Der von Pickering beschriebene Prozess der Herstellung von Faktizität ist aber erst ein erster Schritt. Um zu einem allgemein akzeptierten Faktum zu werden, müssen die Ergebnisse von einem weiteren Kreis akzeptiert werden. Um die Kommunikation in Richtung Akzeptanz zu steuern, werden verschiedene Strategien eingesetzt, vor allem kommunikativer Art. Ergebnisse können in unterschiedlichen Medien kommuniziert werden, sprachlich, numerisch, symbolisch oder auch visuell, und ebenso variabel sind auch die Kommunikationsregeln. Wie ich am Beispiel der Mathematik ausgeführt habe, verläuft die Entwicklung in Richtung einer zunehmenden Normierung der Kommunikation. Um eine Aussage mit Überzeugungskraft zu versehen, hat die Argumentation in einer Form zu erfolgen, die ihre Überprüfung an anderen Orten, zu anderen Zeiten und durch andere Personen im Prinzip möglich macht. Erst unter dieser Bedingung wird Wahrheit zu einem symbolisch generalisierten Kommunikationsmedium. Das heißt, es ist das durch die Art der Mitteilung gestützte Versprechen auf Einhaltung der gültigen Verfahren, die zur Annahme einer Selektion motiviert. In den empirischen Wissenschaften sind Quantifizierung (und Visualisierung) ähnlich wie die Formalisierung in der Mathematik Verfahren, um Aussagen mit Überzeugungskraft zu versehen und dadurch Akzeptanz zu mobilisieren. Weil Zahlen die Handschrift ihrer Autoren verbergen, erwecken sie den Eindruck, interpretationsfreie Beschreibungen der Wirklichkeit zu sein. Der Grund dafür, dass Zahlen als objektiver eingestuft werden als sprachlich formulierte Aussagen, liegt aber weniger in ihrem „unpersönlichen“ Charakter, sondern vor allem darin, dass sie nicht über das durch sie Beschriebene hinausweisen und Information in hoch verdichteter Form darstellen. Während ein Satz seine Negationsmöglichkeit immer in sich trägt, sind Zahlen – und das gilt erst recht für Bilder – tendenziell affirmativ: „What is counted usually counts“ (Miller 2001: 386). Um Alternativen sichtbar zu machen, müssen neue Zahlen generiert werden, und dazu braucht es Ressourcen und ein Wissen darüber, wie die ursprünglichen Zahlen zustande kamen. Während dies in der Wissenschaft im Prinzip möglich und normativ sogar geboten ist, ist das Verhältnis zwischen Datenproduzenten und Datenkonsumenten in anderen Funktionssystemen grundlegend asymmetrisch. Die Zahlen, die kommunikativ eingesetzt werden, sind in der Regel hoch aggregierte Gebilde und werden im Normalfall ohne Angabe ihrer Mess- und Bearbeitungsverfahren präsentiert. Sie müssen als „black boxes“ behandelt werden, unter Ausblendung der Komplexität und Kontingenz ihrer Herstellung. Quantifizierung ist, so Porter, „a distinctive style of communication“ (Porter 1992: 643) – ein Kommunikationsmedium, das Aussagen mit Überzeugungskraft ausstattet und das vor allem dann wichtig wird, wenn Konsenserzeugung über Interaktion nicht mehr möglich ist. Da die Herstellung von Zahlen Messung voraussetzt und insofern immer selektiv ist, setzt die Kommunikationsfunktion von Zahlen Vertrauen in die verwendeten Messund Bearbeitungsverfahren voraus. In der Wissenschaft wird dieses Vertrauen durch Transparenz und die Möglichkeit zur Replikation geschaffen, in anderen Funktionsbereichen gibt es keine vergleichbaren Mittel, um die Vertrauenswürdigkeit von Zahlen zu sichern. Vertrauenswürdigkeit wird hier vornehmlich durch soziale Arrangements hergestellt – durch Monopolisierung, black boxing und Netzwerkbildung (vgl. u. a. Chua 1995; Jones/Dugdale 2001). Insofern ist Porters These zu relativieren: Quantifizierung funktioniert nicht generell als „technology of trust“, sondern ist außerhalb der Wissenschaft auf außerepistemische

82

Bettina Heintz

Stützungsmaßnahmen angewiesen, die zwar, wie das Vertrauen in Zahlen zeigt, durchaus erfolgreich sein können, aber anfällig sind für Auseinandersetzungen und damit potentiell instabilen Charakter haben. Literatur Belliger, A./Krieger, D.J. (Hg.) (2006): Anthology. Ein einführendes Handbuch in die AkteurNetzwerk-Theorie. Bielefeld: transcript. Berger, P.L./Luckmann, T. (1970): Die gesellschaftliche Konstruktion der Wirklichkeit. Frankfurt/M.: Fischer. Bloor, D. (1976): Knowledge and Social Imagery. Chicago: University of Chicago Press. Blumenberg, H. (1965): Das Fernrohr und die Ohnmacht der Wahrheit (Einleitung). In: Ders. (Hg.): Galileo Galilei, Sidereus Nuncius. Nachricht von neuen Sternen. Frankfurt/M.: Suhrkamp, S. 7-75. Blumenthal, O. (1935): Lebensgeschichte. In: Hilbert, D. (Hg.): Gesammelte Abhandlungen, Bd. 3, Berlin: Springer, S. 388-429. Boehm, G. (2001): Zwischen Auge und Hand: Bilder als Instrumente der Erkenntnis. In: Heintz, B./Huber, J. (Hg.): Mit dem Augen denken. Strategien der Sichtbarmachung in wissenschaftlichen und virtuellen Welten. Zürich/Wien: Voldemeer/Springer, S. 43-54. Bohn, C. (1999): Schnittstellen: Konversation und Schriftlichkeit im Übergang zur Moderne. In: Berliner Journal für Soziologie 9, S. 213-233. Borges, J.L. (1984): Das unerbittliche Gedächtnis. In: Ders.: Gesammelte Werke, Bd. 3/I. München: Hanser, S. 173-181. Bowker, G.C./Star, S.L. (2000): Sorting Things Out: Classification and its Consequences. Cambridge, Mass.: MIT Press. Burri, R. (2001): Doing Images: Zur soziotechnischen Fabrikation visueller Erkenntnis in der Medizin. In: Heintz, B./Huber, J. (Hg.): Mit dem Augen denken. Strategien der Sichtbarmachung in wissenschaftlichen und virtuellen Welten. Zürich/Wien: Voldemeer/Springer, S. 277-304. Chadarevian, S. de (1994): Sehen und Aufzeichnen in der Botanik des 19. Jahrhunderts. In: Wetzel, M./Wolf, H. (Hg.): Der Entzug der Bilder: Visuelle Realitäten. München: Walter Fink, S. 121-144. Chua, W.F. (1995): Experts, Networks and Inscriptions in the Fabrication of Accounting Images: A Story of the Representation of Three Public Hospitals. In: Accounting Organizations and Society 20, S. 111-145. Collins, H.M. (1985): Changing Order: Replication and Induction in Scientific Practice. Chicago: University of Chicago Press. Daston, L. (1991): The Ideal and Reality of the Republic of Letters in the Enlightenment. In: Science in Context 4, S. 367-386. Daston, L. (1998): Fear and Loathing of the Imagination in Science. In: Daedalus 127, S. 73-93. Daston, L. (2001): Die Kultur der wissenschaftlichen Objektivität. In: Hagner, M. (Hg.): Ansichten der Wissenschaftsgeschichte. Frankfurt/M.: Fischer, S. 137-160. Daston, L./Galison, P. (1992): The Image of Objectivity. In: Representations 40, S. 81-128. Espeland, W.N./Stevens, M.L. (1998): Commensuration as a Social Process. In: Annual Review of Sociology 24, S. 313-343. Frege, G. (1976): Wissenschaftlicher Briefwechsel (hrsg. von Gottfried Gabriel u. a.). Hamburg: Felix Meiner. Galison, P. (2006): Einsteins Uhren, Poincarés Karten. Die Arbeit an der Ordnung der Zeit. Frankfurt/M.: Fischer. Göbel, A. (2000): Theoriegenese als Problemgenese: Eine problemgeschichtliche Rekonstruktion der soziologischen Systemtheorie Niklas Luhmanns. Konstanz: UVK. Goffman, E: (1982): Der korrektive Austausch. In: Ders.: Das Individuum im öffentlichen Austausch. Frankfurt/M.: Suhrkamp, S. 138-255.

Zahlen, Wissen, Objektivität: Wissenschaftssoziologische Perspektiven

83

Goldstein, C. (2003): Weder öffentlich noch privat. Mathematik im Frankreich des frühen 17. Jahrhunderts. In: Wobbe, T. (Hg.): Zwischen Vorderbühne und Hinterbühne. Beiträge zum Wandel der Geschlechterbeziehungen in der Wissenschaft vom 17. Jahrhundert bis zur Gegenwart. Bielefeld: transcript, S. 41-72. Grabiner, J.V. (1981): Changing Attitudes Toward Mathematical Rigor: Lagrange and Analysis in the Eighteenth and Nineteenth Centuries. In: Jahnke, H.N./Otte, M. (Hg.): Epistemological and Social Problems of the Sciences in the Early Nineteenth Century. Dordrecht: Reidel, S. 311-330. Gray, J. (1992): The Nineteenth-Century Revolution in Mathematical Ontology. In: Gillies, D. (Hg.): Revolutions in Mathematics. Oxford: Oxford University Press, S. 226-248. Hacking, J. (1992): The Self-Vindication of the Laboratory Sciences. In: Pickering, A. (Hg.): Science as Practice and Culture. Chicago: Chicago University Press, S. 29-64. Heintz, B. (2000): ‘In der Mathematik ist ein Streit mit Sicherheit zu entscheiden.’ Überlegungen zu einer Soziologie der Mathematik. In: Zeitschrift für Soziologie 29, S. 341-362. Heintz, B. (2001): Die Innenwelt der Mathematik. Zur Kultur und Praxis einer beweisenden Disziplin. Wien/New York: Springer. Heintz, B./Huber, J. (2001a): Der verführerische Blick. Formen und Folgen wissenschaftlicher Visualisierungsstrategien. In: Dies. (Hg.): Mit dem Auge denken. Strategien der Sichtbarmachung in wissenschaftlichen und virtuellen Welten. Zürich/Wien: Voldemeer/Springer, S. 9-40. Heintz, B./Huber, J. (Hg.) (2001b): Mit dem Auge denken. Strategien der Sichtbarmachung in wissenschaftlichen und virtuellen Welten. Zürich/Wien: Voldemeer/Springer. Jahnke, H.N./Herbart, J.F. (1990): Nach-Kantische Philosophie und Theoretisierung der Mathematik. In: König, G. (Hg.): Konzepte des mathematisch Unendlichen im 19. Jahrhundert. Göttingen: Vandenhoeck und Ruprecht, S. 165-188. James, F.A. (Hg.) (1989): The Development of the Laboratory: Essays on the Place of Experiment in Industrial Civilization. Basingstoke: Macmillan Press. Jones, C.T./Dugdale, D. (2001): The Concept of an Accounting Regime. In: Critical Perspectives on Accounting 12, S. 35-63. Kalthoff, H. (2005): Practices of Calculation: Economic Representations and Risk Management. In: Theory, Culture and Society 22, S. 69-97. Kline, M. (1980): Mathematics: The Loss of Certainty. Oxford: Oxford University Press. Kuklick, H./Kohler, R.E. (Hg.) (1996): Science in the Field. In: Osiris 11. Kula, W. (1986): Measures and Men. Princeton: Princeton University Press. Kutschmann, W. (1986): Der Naturwissenschaftler und sein Körper: Die Rolle der „inneren Natur“ in der experimentellen Naturwissenschaft der frühen Neuzeit. Frankfurt/M.: Suhrkamp. Latour, B. (1987): Science in Action. Cambridge, Mass.: Harvard University Press. Latour, B. (1996): Der Pedologenfaden von Boa Vista. Eine photo-philosophische Montage. In: Ders., Der Berliner Schlüssel: Erkundigungen eines Liebhabers der Wissenschaften. Berlin: Akademie, S. 191-248. Latour, B./Woolgar, S. (1986): Laboratory Life: The Social Construction of Scientific Facts. Princeton: Princeton University Press. Lehman, C.R. (1992): Accounting’s Changing Role in Social Conflict. New York: Wiener. Luhmann, N. (1981): Die Unwahrscheinlichkeit der Kommunikation. In: Ders.: Soziologische Aufklärung, Bd. 3. Opladen: Westdeutscher Verlag, S. 25-34. Luhmann, N. (1982): Liebe als Passion, Frankfurt/M.: Suhrkamp. Luhmann, N. (1990): Die Wissenschaft der Gesellschaft, Frankfurt/M.: Suhrkamp. Luhmann, N. (1997): Die Gesellschaft der Gesellschaft, Frankfurt/M.: Suhrkamp. Mallard, A. (1998): Compare, Standardize and Settle Agreement: On Some Usual Metrological Problems. In: Social Studies of Science 28, S. 571-601. McBarnet, D./Weston, S./Whelan, C.J. (1993): Adversary Accounting: Strategic Uses of Financial Information by Capital and Labour. In: Accounting, Organizations and Society 18, S. 81-100. Mead, G.H. (1903): Die Definition des Psychischen. In: Ders.: Gesammelte Aufsätze, Bd. 1, hrsg. von Hans Joas. Frankfurt/M.: Suhrkamp (1980), S. 83-148.

84

Bettina Heintz

Mehrtens, H. (1990): Moderne – Sprache – Mathematik. Eine Geschichte des Streits um die Grundlagen der Disziplin und des Subjekts formaler Systeme. Frankfurt/M.: Suhrkamp. Messmer, H. (2003): Konflikt und Konfliktepisode. Prozesse, Strukturen und Funktionen einer sozialen Form. In: Zeitschrift für Soziologie 32, S. 98-122. Miller, P. (2001): Governing by Numbers: Why Calculative Practices Matter. In: Social Research 28, S. 379-390. Nagel, T. (1992): Der Blick von nirgendwo. Frankfurt/M.: Suhrkamp. Pickering, A. (1989): Living in the Material World: On Realism and Experimental Practice. In: Gooding, D./Pinch, T./Schaffer, S. (Hg.): The Uses of Experiment: Studies in the Natural Sciences. Cambridge: Cambridge University Press, S. 275-297. Poincaré, H. (1905): Der Wert der Wissenschaft. Leipzig: Teubner. Porter, T. (1992): Quantification and the Accounting Ideal in Science. In: Social Studies of Science 22, S. 633-652. Porter, T. (1995): Trust in Numbers: The Pursuit of Objectivity in Science and Public Life. Princeton: Princeton University Press. Power, M. (1997): The Audit Society: Rituals of Verification. Oxford: Oxford University Press. Power, M. (2004): Counting, Control and Calculation: Reflections on Measuring and Management. In: Human Relations 57, S. 765-783. Rees, A. (2001): Practising Infanticide, Oberserving Narrative: Controversial Texts in a Field Science. In: Social Studies of Science 31, S. 507-532. Robson, K. (1992): Accounting Numbers as ‘Inscription’: Action at a Distance and the Development of Accounting. In: Accounting, Organizations and Society 17, S. 685-708. Robson, K. (1996): Connecting Science to the Economic: Accounting Calculation and Visibility of Research and Development. In: Power, M. (Hg.): Accounting and Science. Cambridge: Cambridge University Press, S. 151-169. Roth, W.-M./Bowen, M. (2001): ‘Creative Solutions’ and ‘Fibbing Results’: Enculturation in Field Ecology. In: Social Studies of Science 31, S. 533-556. Saussure, F. de (2001), Grundfragen der allgemeinen Sprachwissenschaft. Berlin: de Gruyter. Schofer, E. (1999): Science Associations in the International Sphere, 1875-1990: The Rationalization of Science and the Scientization of Society. In: Boli, J./Thomas, G.M. (Hg.): Constructing World Culture: International Nongovernmental Organizations Since 1875. Stanford: Stanford University Press, S. 249-266. Shapin, S. (1988): The House of Experiment in Seventeenth-Century England. In: Isis 79, S. 373-404. Shapin, S. (1996): The Scientific Revolution. Chicago: University of Chicago Press. Shapin, S./Schaffer, S. (1985): Leviathan and the Air-Pump: Hobbes, Boyle, and the Experimental Life. Princeton: Princeton University Press. Stichweh, R. (1984): Zur Entstehung des modernen Systems wissenschaftlicher Disziplinen: Physik in Deutschland 1740-1890. Frankfurt/M.: Suhrkamp. Teubner, G. (2006): Rights of Non-Humans? Electronic Agents and Animals as New Actors in Politics and Law. In: Journal of Law and Society (im Erscheinen). Toth, I. (1980): Wann und von wem wurde die nichteuklidsche Geometrie begründet? In: Archives Internationales d’Histoire des Sciences 30, S. 192-205. Townley, B. (1995): Managing By Numbers: Accounting Personnel Management and the Creation of a Mathesis. In: Critical Perspectives on Accounting 6, S. 555-575. Vanderstraeten, R. (2006): Soziale Beobachtungsraster. Eine wissenssoziologische Analyse statistischer Klassifikationsschemata. In: Zeitschrift für Soziologie 35, S. 193-211. Vollmer, H. (2003): Bookkeeping, Accounting, Calculative Practice: The Sociological Suspense of Calculation. In: Critical Perspectives on Accounting 14, S. 353-381. Vollmer, H. (2007): How to Do More With Numbers: Elementary Stakes, Framing, Keying and the Three-Dimensional Character of Numerical Signs. In: Accounting, Organizations and Society (im Erscheinen).

Zahlen, Wissen, Objektivität: Wissenschaftssoziologische Perspektiven

85

Wagner-Döbler, R. (1997): Wachstumszyklen technisch-wissenschaftlicher Kreativität. Eine quantitative Studie unter besonderer Beachtung der Mathematik. Frankfurt/M.: Campus Weingart, P. (2005): Impact of Bibliometrics Upon the Science System: Inadvertent Consequences? In: Scientometrics 62, S. 117-131. Wise, N.M. (Hg.) (1995): The Values of Precision. Princeton: Princeton University Press.

Messen und Managen: Controlling und die (Un-)Berechenbarkeit des Managements

87

Messen und Managen: Controlling und die (Un-)Berechenbarkeit des Managements Messen und Managen: Controlling und die (Un-)Berechenbarkeit des Managements

Martin Messner, Tobias Scheytt und Albrecht Becker Keine quantifizierende Einsicht, die nicht ihren Sinn, ihren terminus ad quem erst in der Rückübersetzung in Qualitatives empfinge. T. W. Adorno (1975: 54) Die Zahlen sprechen für sich. Alltagsweisheit

Controlling ist in Mode. In Organisationen aller Formen und Zwecke werden heute vermehrt Methoden der quantifizierenden Darstellung, Kalkulation und Bewertung eingesetzt. Produkte und Leistungen werden hinsichtlich ihrer Kosten kalkuliert; Ziele werden durch Quantifizierung operationalisiert; die Qualität der Kundenbeziehungen wird in Zahlen ausgedrückt; Investitionen werden danach beurteilt, welche Rendite sie versprechen; und nicht zuletzt wird menschliche Arbeit durch Stundensätze, Gemeinkostenzuschläge o.ä. messbar gemacht. Die Folge ist, dass die vom Controlling produzierten Zahlen zunehmend Prozesse der Gestaltung und Steuerung von Organisationen durchdringen. Sie gelten in der Praxis nicht selten als einzig zulässige Referenz für die sachrationale Interpretation organisationalen Geschehens und werden, in der Folge, für die Legitimierung organisationalen Handelns herangezogen. Doch Zahlen sind nicht nur dazu da, um interpretiert und angewandt zu werden. Sie umgibt mitunter eine Aura der Unangreifbarkeit. Die sprichwörtliche Meinung, dass Zahlen nicht lügen bzw. für sich selbst sprechen ist mehr als nur eine Redeweise – sie bringt zum Ausdruck, was im organisationalen Alltag immer mehr zur Wirklichkeit zu werden scheint: Der Glaube an die Objektivität und Eindeutigkeit von Zahlen entwickelt eine Eigendynamik, in deren Zuge die Produktion von Zahlen zu einem Selbstzweck wird. Zahlen sind die „hard facts“ in der Betrachtung einer Organisation, an denen offensichtlich kein modernes Management vorbei führt, zumindest, wenn man einem viel zitierten Diktum Glauben schenkt: „If you can’t measure it, you can’t manage it.“1 Dabei stellt sich die Frage, ob dem 1

Wer der Management-Denker war, der diesen Ausspruch ins Leben gerufen hat, scheint nicht völlig geklärt. Wiederholt als Autoren genannt werden jedenfalls Peter Drucker, Edward Deming und Robert Kaplan. Aber wie es bei Ursprüngen so ist – sie „leben“ davon, nicht nur zitiert, sondern auch „neu erfunden“ zu werden (vgl. Derrida, 1996; Dupuy und Varela, 1991), was soviel bedeutet, wie einen neuen Kontext für sie zu finden. In dieser Hinsicht sei auf die Aussage des früheren Bürgermeisters von New York, Rudolph Giuliani, verwiesen, der auf die Frage, wie er die Kriminalität in seiner Stadt unter Kontrolle gebracht hätte, mit dem Verweis auf den Einsatz von Metriken und Benchmarks antwortete und – gewisser Maßen als theoretische Fundierung dieser Strategie – das Drucker/Deming/Kaplan-Zitat nachschob (vgl. Eisenberg, 2002). Leser von Foucault (1981) dürfte das Vertrauen in Zahlen in diesem Kontext wohl kaum überraschen.

88

Martin Messner, Tobias Scheytt und Albrecht Becker

„Management by numbers“ (vgl. Ezzamel et al. 1990), d.h. der Form des Managements, die wesentlich auf der zahlenmäßigen Abbildung der Organisation und ihrer Umwelt basiert, eine besondere Qualität zukommt. Wirkt sich, mit anderen Worten, der Siegeszug des Controlling und das damit einher gehende Vertrauen in die Zahlen auch auf das Verständnis und den Begriff von Management selbst aus? Im vorliegenden Beitrag gehen wir dieser Frage nach. Wir untersuchen, inwiefern die vom Controlling geleistete Quantifizierung mehr ist als eine bloße Repräsentation organisationaler Sachverhalte. Dabei argumentieren wir, dass Controlling durch spezifische Formen der Produktion von Zahlen konstruktiv in das Management von Organisationen eingreift, und es in der Folge zu einem Verschwimmen der Grenzen zwischen der „bloßen“ Vorbereitung einer Entscheidung durch das Controlling und dem kommt, was man als „echte Entscheidung“ durch das Management bezeichnen könnte. „Management by numbers“, so unsere Schlussfolgerung, ist nicht bloß ein Management, das auf Zahlen basiert. Indem Managen unmittelbar an das Messen, Berechnen bzw. Kalkulieren von Entscheidungsalternativen geknüpft wird, verändert sich der Begriff von Management selbst. Kann man, so unsere abschließende Frage, dann überhaupt noch von Management sprechen, wenn aus der Kunst des Managements eine Technik der Berechnung bzw. Kalkulation wird? Oder anders gefragt: Welche konzeptionellen Umstellungen ergeben sich, wenn man Management als in dieser Form durch Zahlenspiele bedingt und beeinflusst konzeptualisiert? Bei der Untersuchung dieser Frage gehen wir folgendermaßen vor: Im nächsten Abschnitt zeigen wir mit einer Diskussion des Begriffs des Controlling bzw. Management Accounting, dass es bereits bei den konzeptionellen Überlegungen zur Beziehung von Controlling und Management zu einer aufschlussreichen Überschneidung von Management- und Controllingagenden kommt. Diese Überschneidung wird aber zumindest in der deutschsprachigen Controllingforschung nicht hinreichend expliziert bzw. konzeptualisiert. Im dritten Abschnitt geben wir einen Überblick über jene Beiträge der internationalen Forschung zum Management Accounting, die dieser Überschneidung stärker Rechnung tragen und von daher eine präzisere Diskussion der wechselseitigen Wirkungen zwischen Controlling und Management erlauben. Während sich in der Literatur zahlreiche Untersuchungen dazu finden, warum dem Management Accounting eine zunehmende Bedeutung zukommt, gehen einige Beiträge speziell auf die abstrahierende Wirkung ein, die mit dem Einsatz von Controllingsystemen einhergeht. Die Besonderheiten eines „abstract management“ skizzieren wir im vierten Abschnitt, bevor wir im fünften Abschnitt die Frage diskutieren, inwiefern aus der Abstraktion auf Basis von Zahlen ein Substitut für Management werden kann. Ein kurzes Fazit fasst schließlich den Gedankengang zusammen und deutet an, welche Konsequenzen sich daraus für die Praxis wie Theorie des Managements ableiten lassen. Controlling, Management (und) Accounting Was im deutschen Sprachraum „Controlling“ heißt, wird im angloamerikanischen Kontext üblicherweise als „Management Accounting“ bezeichnet. In diesem Begriff kommt offensichtlich eine Verknüpfung zweier organisationaler Praktiken zum Ausdruck, jener des Managements und der des Accounting. Traditionellerweise wird Management mit der Erfüllung von Planungs-, Steuerungs- und Kontrollaufgaben assoziiert (Koontz/O'Donnell

Messen und Managen: Controlling und die (Un-)Berechenbarkeit des Managements

89

1955; Steinmann/Schreyögg 2005). Management dient also primär der governance des Unternehmens durch das Unternehmen selbst. Das externe Rechnungswesen bzw. Financial Accounting ist hingegen eine wesentliche Stütze der externen governance. Durch eine transparente Abbildung der Organisation sollen externe Stakeholder, wie Investoren, Gläubiger oder Geschäftspartner, mit wesentlichen Informationen über das Unternehmen versorgt und damit in ihren Kontrollmöglichkeiten gestärkt werden. Management Accounting hingegen bezeichnet Accounting-Praktiken, die nicht an externe Stakeholder, sondern an das Management gerichtet sind. Sie dienen üblicherweise der Informationsversorgung und Entscheidungsunterstützung des Managements zum Zwecke der zielorientierten Steuerung von Organisationen. „Management accounting measures and reports financial information as well as other types of information that are intended primarily to assist managers in fulfilling the goals of the organisation“ (Horngren et al. 2005: 5). Im Begriff des Management Accounting kommt somit eine Verbindung zwischen der Praxis des Entscheidens und jener der informationsmäßigen – und enger: zahlenmäßigen – Erfassung der Organisation zum Ausdruck. Es scheint, dass die Steuerung von Organisationen nicht ohne eine Informationsbasis auskommt, die im Wesentlichen die Form von kalkulativen Praktiken (vgl. Miller 2004) annimmt. Im deutschsprachigen wissenschaftlichen Diskurs nimmt die Verknüpfung von Management und Accounting eine besondere Form an. Mit dem Terminus „Controlling“ wird hier in der Regel eine eigenständige betriebliche Funktion assoziiert, die über eine bloße Informationsversorgung des Managements hinausgeht. Die Benennung dieser Agenden mit dem Begriff Controlling legt zwar nahe, dass es sich dabei im Wesentlichen um die Kontrolle von organisationalen Strukturen und Prozessen handelt. Allerdings ist Controlling eine historisch erklärbare Eindeutschung des englischen „to control“ und ist im Sinne von dessen mehrfacher Bedeutung zu verstehen als allgemein die vielfältigen Agenden und Aktivitäten bezeichnend, die der Steuerung, Überwachung und Kontrolle von Organisationen dienen. Dementsprechend breit und vielfältig wird die Funktion des Controlling in unterschiedlichen betriebswirtschaftlichen Controllingkonzeptionen definiert: als Koordination (Horváth 2001; Küpper 2001), als Sicherstellung von Führungsrationalität (Weber/Schäffer 1999b) oder als Reflexion von Entscheidungen (Pietsch/Scherm 2000; Pietsch 2003). Bereits bei diesen Funktionsbestimmungen deutet sich an, dass die Grenze zwischen klassischen Managementaufgaben und Controllingagenden im Theoriediskurs zunehmend verschwimmt. Es erscheint zweifelhaft, Koordination, Sicherstellung von Rationalität und Reflexion als genuine Aufgabenbereiche des Controlling zu definieren und auf dieser Basis eine Abgrenzung zum Management herzustellen. Schließlich ist die Koordination betrieblicher Abläufe eine genuine Managementaufgabe (vgl. etwa Steinmann/Schreyögg 2005), und eine Abtrennung dieser Funktion vom Management würde nur zur Paradoxie weiter steigenden Koordinationsbedarfs führen (vgl. Becker 2003; Kappler/Scheytt 2005). Auch für die anderen Ansätze ließe sich zeigen, dass die unterschiedlichen Definitionsversuche von Controlling letztlich nicht einlösen können, was sie selbst versprechen: eine präzise und konsistente Abgrenzung des Controlling von anderen betrieblichen Funktionen zu leisten (vgl. Becker 2003; Scheytt 2003). Ebenso wie für die funktionale Bestimmung von Controlling als Reflexion gilt dies auch für die Bestimmung von Controlling als Funktion der Sicherstellung von Führungsrationalität in der Konzeption von Weber und Schäffer (vgl. Messner 2006). Einerseits gehen Weber und Schäffer (1999b; vgl. Weber 2004) bei der Herleitung ihrer Controllingdefinition von einer Delegationslogik aus, der zu

90

Martin Messner, Tobias Scheytt und Albrecht Becker

Folge Controllingaufgaben in Abhängigkeit von der Führungsfunktion – dem Management – festzulegen sind. Sicherstellung von Führungsrationalität bedeutet dann, dass das Management selbst die Kriterien seiner eigenen Rationalität festlegt und an das Controlling die Aufgabe delegiert, die Einhaltung dieser Rationalitätskriterien zu überprüfen. Controlling wird hier demnach als Servicefunktion der Führung konzeptualisiert. Andererseits betont gerade Weber (2004), dass Sicherstellung von Rationalität über eine bloße Servicefunktion hinausgehen kann, dann nämlich, wenn ControllerInnen auf Grund von Wissens- und Könnensdefiziten von ManagerInnen korrigierend eingreifen, um diese Defizite auszuräumen und/oder zu kompensieren. In diesem Fall wird aus der Sicherstellung von Führungsrationalität eine radikalere Infragestellung eben dieser Rationalität und ihrer Kriterien. Folglich wäre auch die Delegationslogik zwischen Führung und Controlling nicht mehr aufrecht zu erhalten und Controlling dürfte nicht funktional von der Führung, sondern vom System Organisation selbst bzw. von einem Rationalitätsstandard, der „von außen“ kommt und nicht durch die Führung selbst repräsentiert wird, abgeleitet werden (vgl. Messner 2006). Der Versuch, das variable Verhältnis von Führung und Controlling in eine eindeutige funktionale Definition zu integrieren, muss also letztlich scheitern, sodass es dem Rationalitätssicherungsansatz nicht gelingt, eine präzise Abgrenzung zwischen Management und Controlling herzustellen. Dieser Befund verweist jedoch noch auf einen anderen Sachverhalt als lediglich auf ein konzeptionelles Problem der jeweiligen Controllingtheorie bei der Abgrenzung ihres Gegenstands. Vielmehr lässt sich die Trennung zwischen Management und Controlling auch deshalb nicht exakt festlegen, weil sich Management (im zeitgemäßen Sinne) kaum unabhängig von jenen „Vorarbeiten“ denken lässt, die mit dem Controlling assoziiert werden und die beispielsweise in den entscheidungsunterstützenden Informationen zu finden sind, die durch Controllingsysteme bereitgestellt werden. Würden wir die Praxis des Entscheidens, wie man Management wohl auch bezeichnen könnte, auch dann noch Management nennen, wenn sie ohne jene Entscheidungsunterstützung auskommen müsste, die sie scheinbar nur ergänzt? Eine solche Entscheidungspraxis würde – zumindest in der Managementtheorie – als „Entscheidung aus dem Bauch“, Intuition oder gar als Willkürakt identifiziert. Nicht, dass Management nicht auch mit solchen intuitiven Elementen assoziiert wird (vgl. Weber/Schäffer 1999a; und klassisch: Gutenberg 1951), aber Management als systematische Konzeption (und Praxis) der Führung von Organisationen lässt sich sinnvoller Weise nicht auf die intuitiven Anteile beschränken. Der Begriff des Managements umfasst also bereits dasjenige, was durch Controlling und andere unterstützende Praktiken scheinbar erst hinzugefügt wird. Die Kritik an den Controllingkonzeptionen wäre dann aber anders – und fundamentaler – anzusetzen: Sie versäumen es nicht nur, ihr eigenes Versprechen einer trennscharfen Abgrenzung zwischen der Managementfunktion und der Controllingfunktion einzulösen. Vielmehr läuft bereits das Bemühen fehl, diese beiden Funktionen kontextunabhängig definieren und voneinander abgrenzen zu wollen. Management, so scheint es, ist heute nicht mehr denkbar, ohne dass ihm ein entsprechendes Controlling zur Seite gestellt ist, das zugleich aber nie ganz im Begriff des Managements aufzugehen scheint. Folgt man diesem Gedankengang, so zeigt sich zwischen der Praxis des Managements und jener des Controllings eine Logik der Ergänzung bzw. Supplementarität (Derrida 1988, 1996). Der Begriff des Supplements bringt zwei Bedeutungen zum Ausdruck. „Das Supplement fügt sich hinzu, es ist ein Surplus; Fülle, die eine andere Fülle bereichert.“ (Derrida 1996: 250) In diesem Sinne ergänzt Controlling also das Management, bereichert es, bringt

Messen und Managen: Controlling und die (Un-)Berechenbarkeit des Managements

91

es voll zur Geltung, vervollständigt es. Doch wo sich das Supplement hinzufügt, gesellt es sich zugleich bei, „um zu ersetzen“. „Es kommt hinzu oder setzt sich unmerklich an-(die)Stelle-von“ (Derrida 1996: 250). Controlling ergänzt das Management dort, wo dieses nicht von selbst zur Fülle finden kann. In dieser Hinsicht ist Controlling ein Substitut, das sich nicht einfach der „Positivität einer Präsenz“ fügt, sondern Wirklichkeit wird „durch das vorangegangene Fehlen einer Präsenz“ (Derrida 1996: 250). Daher folgt aus der Logik der Supplementarität keine simple Verschmelzung der Begriffe Management und Controlling. Vielmehr bleibt festzuhalten, dass dort, wo Controlling Einzug hält, Management eine spezifische Form annimmt, weil es sich mit einer Wirklichkeit konfrontiert sieht, die wesentlich vom Controlling mitkonstitutiert wird und hinter die es nicht zurück kann. Die Entscheidungen, die das Management trifft, sind mit anderen Worten durch jene Unterscheidungsoperationen, die vom Controlling geleistet werden, vorund mitbestimmt (vgl. Scheytt 2003). Entscheidungsunterstützung ist somit als wesentlicher Teil der Entscheidung selbst und nicht bloß als eine aus der Funktion der Entscheidung abzuleitende Funktion zu denken. Die zahlreiche Literatur zu den Wirkungen der Implementierung von Controllingsystemen belegt, dass Management sich selbst durch die Anwendung von Controlling an gewisse Standards bindet und sich damit bestimmten Festlegungen hinsichtlich der Form von Entscheidungen unterwirft (vgl. etwa nur Hopwood 1983, 1990; Roberts/Scapens 1985; Jones/Dugdale 2002; Kappler/Scheytt 2003). Auch empirische Befunde zur Beziehung zwischen Controlling und Management in der Praxis zeigen, dass es nur schwer möglich ist, dem Controlling eine – und genau eine Funktion – als distinktives Merkmal zuzuweisen (vgl. Scheytt et al. 2005). Das Problem der Controllingkonzeptionen in der deutschsprachigen Betriebswirtschaftslehre besteht mithin darin, dass sie im Gegenteil darauf zielen, beide auf der begrifflichen Ebene möglichst exakt voneinander abzugrenzen. „What is counted, counts“ Im Gegensatz zur deutschsprachigen betriebswirtschaftlichen Controllingliteratur finden sich im internationalen Diskurs über Management Accounting (und im weiteren Sinne auch im Diskurs über Accounting im Allgemeinen) zahlreiche empirische Befunde und theoretische Konzeptualisierungen, die die angedeutete Verschränkung von Accounting und Management ins Zentrum stellt. „Accounting has become to be regarded as a social and institutional practice, one that is intrinsic to, and constitutive of social relations“, schreibt Miller (1994: 1) in seiner Einleitung zu einem Überblick über die einschlägigen Forschungen (Hopwood/Miller 1994). Dieser Diskurs, der auch unter dem Oberbegriff „alternative management accounting research“ (Baxter/Chua 2003) zusammengefasst wird, ist ursprünglich aus der Unzufriedenheit mit klassischer verhaltenswissenschaftlicher Forschung zum Accounting und Management Accounting hervorgegangen. Kritisiert wurde an dieser, dass sie sich zu stark auf das (isolierte) Individuum konzentriere und den sozialen und organisationalen Kontext des Controlling vernachlässige. Vielmehr gehe es um „trying to study accounting in the contexts in which it operates“ (Hopwood 1983). Nur so könne ein angemessenes Bild des Accounting, Management Accounting bzw. Controlling in Organisationen gezeichnet werden. Im Gegensatz zum eher normativ orientierten Controllingdiskurs in der deutschsprachigen Betriebswirtschaftslehre ist also der Diskurs zum „social and organi-

92

Martin Messner, Tobias Scheytt und Albrecht Becker

zational context of management accounting“ erstens empirisch deutlich stärker fundiert und ermöglicht zweitens eine Perspektive auf Controlling und Management als einander wechselseitig konstituierende organisationale Praktiken. So beschreiben beispielsweise Studien aus dem Bereich der interpretativen Accountingforschung, wie Management Accounting in die Produktion von Sinn in Organisationen einbezogen ist und diese häufig dominiert. Bekannte Studien sind etwa Dent (1991) und Ahrens (1996, 1997). Erstere beschreibt die Rolle von Management Accounting in der Transformation einer staatlichen Eisenbahngesellschaft, die stark von einer technischingenieurwissenschaftlichen Kultur geprägt war, in eine deutlich stärker ökonomisch dominierte Organisation. Ahrens vergleicht in seiner Studie die unterschiedlichen Rollen von Management Accountants in britischen und ControllerInnen in deutschen Brauereien und zeichnet im Detail nach, wie Management Accounting und seine Signifikationsstrategien auf der Mikroebene der alltäglichen Interaktion zwischen Controlling und Management funktionieren. Theoretischer Hintergrund dieser Studien sind insbesondere der Symbolische Interaktionismus (Blumer 1969) und die Ethnomethodologie (Garfinkel 1973). Zwar stehen bei den interpretativen Ansätzen der Controlling- bzw. Accountingtheorie auch die Wirkungen der Controllinginstrumente und -praktiken auf die Akteure im Fokus. Anders als bei den klassisch verhaltenswissenschaftlichen Arbeiten wird hier aber auf die sozialkonstruktiven Effekte abgehoben: Controlling beeinflusst nicht nur einzelne Individuen, sondern prägt die Kultur der Organisation und dieser Prozess ist nicht als unidirektionaler Prozess („Controlling wirkt auf die Akteure“), sondern als rekursiver Prozess konzeptualisiert, in dem das Handeln der Akteure konstitutiv für den Kontext eben dieses Handelns ist. Von besonderer Relevanz für unseren Zusammenhang sind von Foucault inspirierte Arbeiten, in denen Controlling als ökonomischer Diskurs konzeptualisiert wird. Diskurse sind „constituted by the difference between what one could say correctly at one period (under the rules of grammar and logic) and what is actually said (…) [they are] the formation and transformation of 'things said'“ (Foucault 1991: 63). Hopwood (1990: 8ff.) beschreibt die Funktionsweise von Controlling bzw. Management Accounting als ökonomischer Diskurs wie folgt: Controlling produziert erstens eine spezifische Sichtbarkeit. Es ist nicht einfach so, dass das Controlling Kosten, die nicht direkt beobachtbar sind, sichtbar macht, sondern dass Kosten durch die ökonomische Betrachtung der Organisation erst entstehen. Gleichzeitig führt die Sichtbarmachung ökonomisch quantifizierter bzw. quantifizierbarer Sachverhalte zur Verdrängung anderer, nicht ökonomisch bewertbarer Sachverhalte von der organisationalen Agenda. So werden Wahrnehmungen, Prioritäten und Relevanzstrukturen von organisationalen Akteuren durch Controlling in spezifischer Weise beeinflusst. Der Controllingdiskurs in Organisationen produziert nicht nur die abstrakte Sichtbarkeit ökonomischer Größen, sondern macht die Größen, zweitens, durch Techniken wie beispielsweise die Kosten- und Erlösrechnung auch konkret messbar und rechenbar. Controlling ist eine Praktik der Kalkulation und damit der Objektivierung ökonomischer Größen. Diese Objektivierung ermöglicht gleichzeitig die Priorisierung der messbaren Größen. Damit ist Controlling drittens nicht (nur) eine Technik der Dokumentation, sondern (auch) ein Prozess der Konstitution ökonomischen Handelns bzw. ökonomischer Organisationen. Der ökonomische Diskurs des Controlling reflektiert die Realität in gleichem Maße, wie er sie hervorbringt und gestaltet. Controlling lässt sich daher als „a game of ‘truth’ [rather] than a search for Truth” (Moore 1991: 770) bezeichnen.

Messen und Managen: Controlling und die (Un-)Berechenbarkeit des Managements

93

Dieses „game of truth“ wird als Macht/Wissen-Komplex oder Wahrheitsregime beschrieben. Foucault konstatiert, „daß die Macht Wissen hervorbringt (und nicht bloß fördert, anwendet, ausnutzt); daß Macht und Wissen einander unmittelbar einschließen; daß es keine Machtbeziehung gibt, ohne daß sich ein entsprechendes Wissensfeld konstituiert, und kein Wissen, das nicht gleichzeitig Machtbeziehungen voraussetzt und konstituiert“ (Foucault 1981: 39). Ökonomische Bedeutung wird im Zuge der Etablierung dieses Diskurses in die Individuen eingeschrieben. Dieser Prozess wird in zahlreichen historischen Untersuchungen dokumentiert. Controlling wird dabei als Instrument der Herrschaftsausübung rekonstruiert, das insbesondere auf Relevanzstrukturen, Prioritäten und Motivation der Akteure wirkt. Ein Mechanismus, wie er in Abbildung 1 als selbstverständlich angenommene Anreizwirkung von Controllinginformationen in dem Lehrbuchklassiker „Management Control Systems“ (Anthony/Govindarajan 2003) dargestellt ist, basiert demnach auf einem Jahrhunderte währenden Prozess der Etablierung eines disziplinierenden ökonomischen Diskurses (vgl. dazu z. B. Bhimani 1994). Abbildung 1:

Framework for designing performance measurement systems (Anthony/Govindarajan 2003: 494)

Nun beschränkt sich der Einfluss des ökonomischen Diskurses nicht auf Controllinghandeln, sondern erstreckt sich genauso auf das allgemeine Managementhandeln. „Information, including accounting information, is moderating managerial vocabularies, proactively shaping and changing their conceptions of what is important and what is not.“ (Hopwood, 1990: 11). Die spezifische Sichtbarkeit, die Controlling konstituiert, gilt für die gesamte Organisation. Abstraktion Die Sichtbarkeit, die Accounting bzw. Controlling produziert, ist allerdings mitunter sehr selektiv. Sehen diejenigen Arbeiten, die durch das Werk Foucaults inspiriert werden, die Selektionsleistung von Controlling darin, dass durch Controllingpraxis ein bestimmtes

94

Martin Messner, Tobias Scheytt und Albrecht Becker

Wahrheitsregime befördert wird, das sich disziplinierend auf die Subjektivität der Akteure auswirkt, so kritisieren marxistische und neomarxistische Ansätze hingegen die Abstraktion von bedeutenden gesellschaftlichen Zusammenhängen, die mit dem Einsatz von Accounting vollzogen wird. Für (sozial-) konstruktivistische Ansätze bezieht sich Selektion schließlich ganz allgemein auf die kontingenten Wirklichkeitskonstruktionen, die durch Accounting-Systeme bereitgestellt werden. Die Gemeinsamkeit all dieser Ansätze ist jedenfalls, dass sie davon ausgehen, dass durch Controlling kontextuelle Bezüge ausgeblendet werden und dass schließlich – in extremo – nur solchen Informationen Relevanz zugerechnet wird, die von den vorhandenen Systemen und Instrumenten des Controlling bereitgestellt werden. Zwischen organisationale Realität und aktualisierte Wahrnehmung durch ein Management, das unter Entscheidungsdruck steht, schieben sich gewissermaßen die Systeme und Informationen des Controlling als Platzhalter für die Realität, aber eben auch mit einer eigenen Natur – und verbunden mit einer quasi-normativen Kraft, die sich aus der Faktizität von Zahlen ergibt. Nun sind Abstraktion und Komplexitätsreduktion keinesfalls per se problematisch. Aus wahrnehmungspsychologischer und handlungspragmatischer Sicht sind sie vielmehr notwendige Prozesse der Bewältigung der komplexen Umwelt. Es gilt somit, von einer allzu schnellen These der „Kolonialisierung“ einer qualitätvollen Wirklichkeit durch Quantitäten und abstrakte Konzepte Abstand zu nehmen. Eine Lebenswelt, die ohne Abstraktion und Komplexitätsreduktion auskäme, wäre ebenso wenig lebbar wie eine Welt, die sich vollends berechnen ließe. Die quantitative Bewältigung der Qualität kann daher nicht automatisch als Gewalt an dieser interpretiert werden. Allerdings können die Effekte der Abstraktion auf das Management, seine Entscheidungen und deren Legitimation im Kontext der Organisation selbst rückwirken. Schließlich beziehen sich die Entscheidungen des Managements auf eben diese organisationale Realität und es stellt sich die Frage, inwiefern auf dieser Grundlage Managementhandeln angemessen sein kann. Verschiedene Sozialtheorien lassen sich heranziehen, um diese Problematik der Abstraktion des Managements zu beschreiben. Im Anschluss an systemtheoretische Ansätze kann man beispielsweise Controllingsysteme als Beispiele für Entscheidungsprämissen begreifen und Controllinginformationen als Teil des Gedächtnisses von Organisationen, die jeweils dazu beitragen, dass Entscheidungen in Organisationen zunehmend abstrakt geraten. In den Worten Luhmanns: „Je mehr das System sich über Gedächtnis und über Entscheidungsprämissen selbst steuert, desto mehr tritt das Angewiesensein auf unmittelbare Verständlichkeit zurück. Ähnlich wie im Bereich der gesellschaftlichen Kommunikationsmedien ein generalisiertes Vertrauen aufgebaut wird, […] kann sich auch eine komplexe Organisation von einer Deckung durch verständliche Wahrnehmung weit entfernen. Man operiert dann im Normalfalle auf den sekundären Ebenen der Zeichen für Zeichen. […] Man könnte also auch hier von Problemen einer Inflationierung sprechen, die sich zu sehr auf Indirektheit verlässt und an unmittelbarer Motivfähigkeit einbüßt. Im Falle von ‚Strukturen’ und im Falle notwendiger Innovationen wird es dann nicht leicht sein, auf die Ebene der wahrnehmbaren Verständlichkeit zurückzukehren. Dann sind greifbare Symbole, dann ist Farbe gefragt, aber mit einer Reaktion auf ein Defizit ist die verlorene Unmittelbarkeit kaum wiederzugewinnen. Man durchschaut die angebotene Oberfläche und erkennt die Absicht.“ (Luhmann 2000: 149 f.)

Und so führt dann die Selektionsleistung nicht zur Reduktion von Komplexität, sondern vielmehr zum paradoxen Effekt, dass diese Selektionsleistungen Komplexität erst entstehen

Messen und Managen: Controlling und die (Un-)Berechenbarkeit des Managements

95

lassen, weil dann nicht mehr alles mit allem relationiert ist und die Intransparenz sozialer Systeme damit zunimmt (vgl. Luhmann 1990). Dies gilt gerade auch für das Controlling: Informationen informieren, aber sie abstrahieren damit zugleich auch von dem, was durch sie dargestellt wird (vgl. Scheytt 2005) Aber nicht nur auf Grundlage systemtheoretischer Ansätze, sondern auch mit den Mitteln der Kritischen Theorie lassen sich die Folgen der Abstraktion problematisieren. Hier gewinnt der Begriff der „Abstraktion“ eine spezifische Bedeutung als Mechanismus zur Rationalisierung hin auf eine aufgezwungene, vereinheitlichende Objektivität. Dort, wo durch Abstraktion wesenhafte Qualitäten zum Verschwinden gebracht werden, besteht demnach Grund zur Kritik. Nicht von ungefähr sprechen Horkheimer und Adorno (1969: 19) von der „nivellierenden Herrschaft des Abstrakten“, die sich darin äußert, dass Ungleiches zu Gleichem gemacht wird. Abstraktion „schneidet das Inkommensurable weg“ (Horkheimer/Adorno 1969: 19) und suggeriert, dass Erkenntnis nicht im Erkennen des Wesens einer Sache, sondern in der Reduktion dieses Wesens auf seine Position innerhalb der herrschenden „Ordnung der Dinge“ (Foucault 1993) besteht. Der Grundtenor einer solchen Kritik der abstrakten Vernunft findet sich auch in der kritischen Managementforschung wieder (vgl. für einen Überblick Alvesson/Willmott 1999). Townley (2002: 550) spricht von einem „increasingly abstract or context-independent, disembodied and disembedded model of management”, das die Organisationslandschaft prägt. Die Fundamente dieses „abstract management“ sieht sie, darin Horkheimer und Adorno folgend, im Wissensbegriff der Moderne. Rationalität, Kausalität, Individualität, Sicherheit und Souveränität – das sind Townley zufolge die Eckpfeiler des modernen Weltbilds des Menschen und seines Verhältnisses zur Natur. Auf diesen Begriffen gründet auch das moderne Verständnis von Management. Abstraktion erfolgt dabei beispielsweise auf dem Wege der Reduktion organisationsrelevanter Sachverhalte auf scheinbar eindeutige Kategorien, Kennzahlen und Kausalbeziehungen, wie etwa im Rahmen von Performance Measurement Systemen. „Stress is placed on quantification, hard data and facts“ (Townley 2002: 563f.). Controllingsysteme scheinen generell diesen Drang nach Abstraktion zu bedienen. Standardisierte Instrumente und Techniken des Controlling ermöglichen und unterstützen „an abstract and generalized conception of management which is detached from expertise in any particular process and can, in consequence, be applied to any and all processes” (Armstrong 2001: 282). Die Folge ist, dass sich das Wesen von Management wandelt. Burchell et al. (1980: 15) sprechen von einer „extension of computational practice into the realms of the judgemental domain”: „To a large extent, computational practices have been developed which can complement, if not replace, the exercise of human judgement. Accounting has been implicated in the design and implementation of many of these changes in management practice. The increasing formalization of investment appraisals and planning processes has increased the sphere and extent of financial calculation. On occasions the financial risks and uncertainties which were important foci for managerial judgement are now being quantified, with the decisions taking more of a computational form.” (Burchell et al. 1980: 15f.)

Der höchste Grad an Abstraktion scheint dann erreicht, wenn die Repräsentation der Welt die Form von Zahlen annimmt. Quantifizierung tilgt letztlich das qualitative Moment der Dinge, indem es das, was sich nicht in Zahlen ausdrücken lässt, als „unwesentlich“ zurück lässt. Das „Wesen“ der Dinge wird durch ein solches „Résumé des Wesentlichen ver-

96

Martin Messner, Tobias Scheytt und Albrecht Becker

fälscht“ (Adorno 1975: 43). Das Objekt der Erkenntnis wird Opfer seiner Verobjektivierung, die dazu neigt, „die Qualitäten auszuschalten“, sie „in messbare Bestimmungen zu verwandeln“ (Adorno 1975: 53). Dem entspricht auf der Seite des erkennenden Subjekts „die Reduktion des Erkennenden zu einem qualitätslos Allgemeinen, rein Logischen“ (Adorno 1975: 54). Oder anders ausgedrückt: Aus der Frage der Erkenntnis wird eine Frage der Berechnung.2 Nun bedeutet die Tendenz zur Quantifizierung aber selbst für einen Denker wie Adorno, dessen Zeitdiagnosen überaus pessimistisch anmuten, nicht, dass der Weg zum Qualitativen gänzlich versperrt ist. Denn Quantifizierung „ist nicht das zeitlose Wesen, als welches Mathematik, ihr Instrument, sie erscheinen lässt“ (Adorno 1975: 54). Auch wenn Rationalität selbst „in steigendem Maß more mathematico dem Vermögen der Quantifizierung gleichgesetzt“ wird (Adorno 1975: 53), so bleibt doch ein Rest an Vernunft, der am Qualitativen festhält. Adorno beschwört dieses „Ideal des Differenzierten und Nuancierten, das Erkenntnis trotz alles Science is measurement bis zu den jüngsten Entwicklungen nie ganz vergaß“ (Adorno 1975: 54f.; unsere Hervorhebung). Dieses Ideal kann selbst in der rationalistischen Verengung von Vernunft nicht ganz vergessen werden, soll das Reden von wahrer Erkenntnis und Praxis nicht unverständlich werden und Rationalität nicht gänzlich als irrational erscheinen (Adorno 1975: 55, 227ff.). Was die rationale Berechnung supplementiert3, sie gewissermaßen supplementieren muss, ist die „Willkür eines jeden Denkaktes“ (Adorno 1975: 229) – ohne sie gäbe es keine Erkenntnis und keine Praxis, die der Idee von Freiheit genügten. Wir werden auf diese „dekonstruktive“ Analyse weiter unten zurückkommen, wollen zunächst aber nachzuvollziehen versuchen, was Adorno ebenso deutlich gesehen und betont hat: dass die Eigendynamik des mathematischen Systems der Kalkulation die Rückbesinnung aufs Qualitative erschweren oder suspendieren mag. Um dies zu begreifen, kann man sich zwei unterschiedliche Arten der Verwendung von Zahlen vor Augen halten (Vollmer 2007). Einerseits können Zahlen im „frame of consumption“ interpretiert, d.h. mit einer „underlying reality“ in Verbindung gebracht werden. Andererseits lässt sich mit Zahlen auch rechnen, was eine andere Art der Verwendung von Zahlen darstellt. Im „frame of reproduction“ werden Zahlen mit Hilfe mathematischer Operationen zu neuen Zahlen kombiniert. Diese Möglichkeit der Kalkulation ist spezifisch für Zahlen und unterscheidet deren Gebrauch vom Gebrauch von Wörtern. „In this sense, much more might be done with numbers than could be achieved by words” (Vollmer 2007). Nun stellt sich allerdings die Frage, durch welche Mechanismen diese spezifische Eigenschaft von Zahlen auch Auswirkungen auf ihre Verwendung im „frame of consumption“ nach sich zieht. Die bloße Tatsache, dass man mit Zahlen auch rechnen kann, impliziert ja prinzipiell noch keine Konsequenzen für die Verwendung von Zahlen in sozialen Situationen. Wenn es keinen Einfluss der Operationen im „frame of reproduction“ auf die Operationen im „frame of consumption“ gäbe, dann wäre die spezifische Qualität von Zahlen in der Tat auf den „frame of reproduction“ beschränkt. Die Ausführungen von Power (2004) 2

3

Leibniz, Philosoph und Mathematiker, brachte diesen Gedanken 1686 auf den Punkt, als er zur Verbesserung philosophischer Schlussfolgerungen den Vorschlag machte, sich an der Logik der Mathematik zu orientieren: „Das einzige Mittel, unsere Schlussfolgerungen zu verbessern, ist, sie ebenso anschaulich zu machen, wie es die der Mathematiker sind, derart, dass man seinen Irrtum mit den Augen findet, und, wenn es Streitigkeiten unter Leuten gibt, man nur zu sagen braucht: ‚Rechnen wir!’ ohne eine weitere Förmlichkeit, um zu sehen, wer Recht hat“ (zitiert in: Coy 2005: 48). Adorno verwendet nicht den Begriff des Supplements, sondern spricht vom „Hinzutretenden“ (1975: 226).

Messen und Managen: Controlling und die (Un-)Berechenbarkeit des Managements

97

zur Rolle quantifizierender Methoden und zur Prominenz des „Performance Measurement“ im privaten wie im öffentlichen Bereich geben in dieser Hinsicht wesentlichen Aufschluss. Power argumentiert, dass sich zwischen den Aktivitäten „counting“, „control“ und „calculation“ unterscheiden lässt. Während „counting“ das Zählen, Messen und Wiegen beschreibt, das, so kann man sagen, seit jeher die Aufgabe eines jeden guten Kaufmanns ist, ist „calculation“ der Modus, in dem Zahlen in sozialen Zusammenhängen Relevanz erlangen. Während „counting” und „control” also ein first-order measurement darstellen, beschreibt „calculation” eine Form von second-order measurement. Letzteres „can be understood as the further aggregation of numbers and the further creation, via statistical and mathematical operations, of ratios and indices” (Power 1994: 771). Eben diese Weiterverwendung von Zahlen und Daten findet häufig in anderen Zusammenhängen statt als jenem, aus dem die Zahlen stammen. So beurteilen beispielsweise Kreditagenturen das Rating von Unternehmen auf der Grundlage von Zahlen, die Unternehmen ihnen zur Verfügung stellen, oder Universitäten werden auf der Grundlage einiger weniger von ihnen selbst bereit gestellter Informationen in Rankings eingeordnet, die mitunter auch für die Verteilung von staatlichen Budgets herangezogen werden. Es ist also die Kontextualisierung einer Zahl in einem neuen Kontext, der aus der „number“ eine „calculation“ macht, d.h. sie mit einer neuen Bedeutung versieht. In Vollmers Terminologie ausgedrückt ist es gerade die Kombination von Autonomie und Verknüpfung von „frame of reproduction“ und „frame of consumption“, die dazu führt, dass die spezifische Qualität von Zahlen auch im „frame of consumption“ Wirkung zeigt. Die Verknüpfung führt dazu, dass Zahlen in einem wechselseitigen Prozess mit Bedeutung belegt werden bzw. Bedeutung in Form von Zahlen „gespeichert“ wird. Die Autonomie der Sphären allerdings bewirkt, dass sich Zahlen und Bedeutungen auch getrennt voneinander weiterentwickeln. Das heißt, dass mit der Produktion neuer Zahlen im „frame of reproduction“ nicht notwendigerweise immer gleich festgeschrieben ist, ob und wie dadurch auch neue Bedeutungszuschreibungen im „frame of consumption“ zustande kommen. Die Folge ist die Entstehung einer „hyperreality“, d.h. einer Welt von Zahlen, die zwar in sich gesehen bedeutsam ist, deren Verbindung zu nicht-numerischen Bedeutungen aber brüchig geworden ist (vgl. McGoun 1997; Macintosh et al. 2000; Vollmer 2003). „Objects such as standard costs, returns on investment and net present values move in a virtual world where we no longer remember what any of these things represent” (Power 2004: 773). Entscheidend ist, dass diese „hyperreality“ nicht gänzlich von der nicht-numerischen Sphäre getrennt ist. Operationen im „frame of reproduction“ sind daher nicht etwa bedeutungslos, neutral oder objektiv; denn sobald mitbedacht wird, dass die Zahl an irgendeiner Stelle wieder in den „frame of consumption“ zurückwandern wird, ist ihre Manipulation im „frame of reproduction“ als bedeutungsvoll einzustufen.4 Dass der Bedeutungsgehalt und dessen Veränderung im Alltag nicht immer offensichtlich sind, liegt daran, dass die Operationen im „frame of reproduction“ nicht als bedeutungsvolle Operationen erscheinen, sondern eben „nur“ als Rechenoperationen. Und diese gelten, vor dem Hintergrund einer entsprechenden Kalkulationspraxis, in der Regel als nicht kontingent. 4

So auch Macintosh (2002: 70): „[…] in the hyperreal financial economy, […] accounting signs have indeed lost their association with ‚real’ referents, such as true intrinsic value. There is nothing to see through to. But, since reported earnings are related to stock prices which are crucial to executives’ stock options and bonuses, they do matter, even though it does not matter to them that the income sign does not refer to any real referent.“

98

Martin Messner, Tobias Scheytt und Albrecht Becker

Zahlen, die unter anderem produziert werden, um Mehrdeutigkeit zu reduzieren, verlangen nach einer Interpretation ihrer Bedeutung, die sie im Prinzip nicht selbst mitliefern können. Dort aber, wo diese Interpretation ihrerseits auf Basis einer Kalkulation bzw. Berechnung geleistet wird, perpetuiert sich das – möglicherweise falsche – Vertrauen in die Zahl. Wenn beispielsweise nicht klar ist, ob ein Mehr-Gewinn von 200 gegenüber 100 „hoch genug“ ist, dann werden die Zahlen ihrerseits in Verhältnis zu weiteren Zahlen gesetzt, beispielsweise zur Summe des eingesetzten Kapitals. Aus einem Absolutgewinn von 200 wird dann eine Rendite von 15%, aus einem Gewinn von 100 eine Rendite von 12%. Erneut stellt sich dann aber mitunter die Frage nach der Bedeutung der Differenz von 3%. Weil die Zahlen – obwohl Eindeutigkeit, Objektivität und eine „schlanke“ Form der Information vorspiegelnd – nicht eindeutig genug sind, werden weitere Variablen in die Kalkulation mit aufgenommen, wie etwa das Risiko der jeweiligen Investition, das beispielsweise in Form einer geschätzten Varianz angegeben wird. Und so perpetuiert sich die Relationierung, bis irgendwann scheinbar alle „entscheidenden“ Variablen in Form von Zahlen erfasst sind. Dass an dieser Stelle längst zahlreiche bedeutungsvolle Entscheidungen – in Form von entscheidungsvobereitenden Operationen – getroffen wurden, bleibt oft unbemerkt. Gibt es dann, wenn alle entscheidenden (sic!) Zahlen vorliegen, überhaupt noch etwas zu entscheiden bzw. zu managen? Wenn man Management mit dem bewussten Treffen von Entscheidungen assoziiert, dann, so ließe sich aus dem bisher gesagten schlussfolgern, scheint die Ubiquität kalkulativer Operationen zu einer Suspension „echten“ Entscheidens zu führen. Townleys Argumentation zeigt in diese Richtung: „Abstract management can be a form of avoiding management. If standard methods produce standard results then management does not need to interfere. Judgement is replaced by laws, principles and rules. Management becomes management through an abstract system.“ (Townley 2002: 567). Darin äußert sich nun zum einen eine kritische Einstellung gegenüber gegenwärtigen Formen von Management, die sich der bewussten Entscheidung, dem „judgement“, entziehen und sich in die abstrakte Berechnung von Entscheidungsalternativen flüchten. Zum anderen deutet sich hinter dieser kritischen Lesart aber auch eine Geste an, die sich nicht auf den Nenner einer „Kritik der abstrakten Vernunft“ bringen lässt, die also nicht darin aufgeht, die gespenstische Heimsuchung des Managements durch die abstrakte Berechnung als bloße Pathologie zu kritisieren. Eine solche „dekonstruktive“ Geste schlägt sich nicht auf die Seite des „rein Konkreten“ als Gegenteil zur Abstraktion, sondern zweifelt an der vermeintlichen Reinheit einer derartigen Opposition. Sie sucht im Begriff des Managements nach dem, was Management ermöglicht und zugleich gefährdet – nach den Gespenstern, die das Management heimsuchen, ja, heimsuchen müssen – und versucht, diesen „Spuk“ in die Konstruktion des Begriffs des Managements selbst mit aufzunehmen (Derrida 2004: 219).5

5

Günther Ortmann (2004: 161ff.) begibt sich auf eine ähnliche Suche nach dem Spuk, der immer schon den Tausch zwischen Organisationen heimsucht, und findet die „Gabe“, die „im Herzen der Unternehmung und im Innersten einer theory of the firm eine verschwiegene, leicht zu übersehende, aber wichtige Rolle spielt“ (ebd.: 182).

Messen und Managen: Controlling und die (Un-)Berechenbarkeit des Managements

99

Management Damit sind wir an einem entscheidenden Punkt der Argumentation angelangt. Weiter oben haben wir argumentiert, dass Controlling nicht nur Entscheidungsunterstützung und -vorbereitung leistet, sondern durch seine konstruktive – und konstruierende – Wirkung selbst als Teil der Praxis des Entscheidens zu begreifen ist und damit auch einen Teil dessen ausmacht, was man gemeinhin unter Management versteht. Aber die Analyse der Bedeutung von Zahlen im Rahmen von Controllingpraktiken führte uns zu dem Schluss, dass Management zunehmend ersetzt – oder genauer: ausgelöscht, durchgestrichen – wird durch die Form der Quantifizierung von Sachverhalten, die es selbst intendiert und der es sich gewissermaßen selbst unterwirft. Kann man also überhaupt noch von Management sprechen, wenn das Urteil und die Entscheidung ersetzt werden durch die Berechnung und Kalkulation? Geht die Kunst des Managements in einer simplen Technik auf? Halten wir fest: Empirisch ist belegbar, dass Controlling nicht gleich Management ist und umgekehrt. Akteure im Feld von Unternehmen können in der Regel recht genau angeben, wo die Grenze zwischen Management und Controlling liegt. Das bedeutet aber noch nicht, dass auf einer konzeptionellen Ebene die funktionale Trennung von Controlling und Management einfach gelingen mag (vgl. Scheytt et al. 2005). Es manifestiert sich eine Paradoxie, die schon einer der Väter der deutschsprachigen Betriebswirtschaftslehre, Erich Gutenberg, in seinen „Grundlagen der Betriebswirtschaftslehre“ (1951) aufzeigt: Das Management, in Gutenbergs Worten: „der dispositive Faktor“, lässt sich nicht in Rationalität „auflösen“. Zwar wird, so Gutenberg, die betriebliche Sphäre immer mehr durch Planung (als dem gedanklichen Vorwegnehmen des Handelns) und Organisation (als der Realisation desselben) dem Rationalprinzip unterworfen, allerdings verbleibt immer ein Rest, den Gutenberg einer „irrationalen Schicht“ zuordnet. Und es ist nach Gutenberg genau dieser irrationale Rest, die Verletzung von sich immer mehr ausbreitenden Rationalitätsstandards, der die „wahre Größe“ des dispositiven Faktors, seine „Weitsicht“ oder auch den Inhalt „echter Führungsentscheidungen“ ausmacht. Auch wenn gegenwärtige Ausprägungen von Management wesentlich auf Berechnung und Kalkulation beruhen und als „abstract management“ das situationsspezifische Urteilen und Entscheiden in den Hintergrund drängen, so geht die Praxis des Managements doch nicht in jener des Controlling auf, ist Management also nicht mit Berechnung und Kalkulation allein gleichzusetzen. Das gilt für das Selbstverständnis von Managern wie auch für den Diskurs über Management in Wissenschaft und Öffentlichkeit. „It has become readily accepted that there is more to managing than measuring, at the same time as the latter maintains its grip“ (Power 2004: 779). Was Berglund und Werr (2000) über die Rhetorik der Managementberatung sagen – dass diese einerseits an den Glauben an Berechenbarkeit und Objektivität appelliere, andererseits aber die subjektiven und „unberechenbaren“ Fähigkeiten der Berater als Experten hervorhebe – könnte man also ganz generell, und mit Gutenberg unter Berufung auf die Ursprünge der Betriebswirtschaftslehre, auch für das moderne Verständnis von Management behaupten. Der schillernde Begriff des Managements oszilliert zwischen dem Glauben an die Plan-, Steuer- und Berechenbarkeit einerseits, und der Einsicht in die Grenzen einer solchen Rationalität andererseits. Vielleicht kann man den Grund hierfür darin sehen, dass der Begriff des Managements eng mit dem Begriff der Entscheidung verbunden ist. Es ist nicht nur James March (1990),

100

Martin Messner, Tobias Scheytt und Albrecht Becker

der in seinen Arbeiten zur verhaltenswissenschaftlichen Entscheidungstheorie Organisationen als organisierte Anarchien beschreibt und angesichts dieses Befunds für eine „Technologie der Torheit“ im Management plädiert, damit durch den spielerischen Umgang mit Annahmen, Überzeugungen und Zielen die engen Grenzen von Entscheidungsmodellen überschritten werden könnten. Auch Jacques Derrida stellt fest, dass eine Entscheidung, die vernünftig und angemessen sein soll, der Aporie unterliege, dass sie „einer Regel unterstehen und ohne Regel auskommen“ müsse (Derrida 1991: 54). Was der Begriff der Entscheidung impliziert, ist eine doppelte Notwendigkeit: Die Entscheidung ist nicht bloß Willkür und reine Souveränität, sie stützt sich auf eine Rationalität und Berechenbarkeit, die sie aber nie gänzlich begründen kann. Deshalb ist die Entscheidung immer auch eine „Unterbrechung“, eine „zerreißende Entscheidung“ (Derrida 2002: 105), die die Regel, auf die sie sich stützt, zu brechen bereit sein muss, sie sogar brechen muss, auch wenn sie ihr folgt. Die Entscheidung fällt „in der Nacht des Nicht-Wissens und der Nicht-Regelung“ (Derrida 1991: 54) – und kommt dennoch nicht ohne Wissen und Berechnung aus. „Is it really necessary to measure in order to manage?“ fragt Michael Power (2004: 779), und wir können ergänzen: Inwiefern ist Management eine berechnende Vernunft, eine Vernunft, die ans Rechnen gebunden ist, inwiefern muss sie es sein? Aber auch: Inwiefern muss Management mehr sein als Ausdruck einer solchen Rationalität, muss es sich der Berechenbarkeit entziehen? Ist die Überschreitung von – selbst vorgegebenen – Rationalitätsstandards die Ausnahme, das Brechen der Regel (vgl. Ortmann 2003) gar ein konstitutives Element des Managements?6 Es scheint, als wäre an ein Management, das den obigen konzeptionellen Überlegungen entspricht und sich nicht selbst auslöscht, die Forderung gestellt, einen Kompromiss zu finden, „zwischen der vernünftigen Forderung nach Berechnung oder Bedingtheit einerseits und dem intransigenten, das heißt nicht verhandelbaren Anspruch eines unbedingten Unberechenbaren andererseits“ (Derrida 2006: 204). Man mag diese zwei Seiten des Kompromisses, Derrida und Adorno folgend, mit den Begriffen des „Rationalen“ und des „Vernünftigen“ umschreiben. „In solchen Sätzen hätte das Rationale just mit dem Genauen [juste] zu tun, manchmal auch mit der Genauigkeit [justesse] der juridischen und berechnenden Vernunft. Doch das Vernünftige tut mehr und etwas anderes. Es würde gewiß die Buchführung der juridischen Genauigkeit berücksichtigen, aber es würde sich auch, vermittels Aushandlung und Aporie, um Gerechtigkeit [justice] bemühen. Das Vernünftige (…) wäre eine Rationalität, die das Unberechenbare in Rechnung stellen würde, um von ihm Rechenschaft zu geben, selbst wo es unmöglich scheint, um es in Rechnung zu stellen und mit ihm zu rechnen, das heißt mit dem Ereignis dessen, was kommt, oder dessen, der kommt.“ (Derrida 2006: 214f.)

Freilich lässt sich dieser doppelte Anspruch nach Rationalität und Vernünftigkeit in der Praxis wie auch in der Theorie über diese Praxis nach einer Seite hin auflösen; reine Berechnung oder reine Willkür sind nicht bloß hypothetische Optionen. Ob man im Falle einer solchen Auflösung allerdings noch von Management sprechen kann, ob man dann noch diesen Begriff des Managements, der gleichermaßen beide Seiten bezeichnet, in Anspruch nehmen kann, daran sollten die obigen Ausführungen zumindest Zweifel geweckt haben. 6

In seiner Annäherung an den Begriff eines „gerechten Managements” stellt sich Richard Weiskopf (2004) ganz ähnliche Fragen.

Messen und Managen: Controlling und die (Un-)Berechenbarkeit des Managements

101

Fazit Wir haben in diesem Beitrag den Versuch unternommen, die Bedeutung von Zahlen für die Praxis des Managements zu untersuchen. Ausgehend von der Feststellung, dass Zahlen und den Systemen, die sie bereitstellen, in der organisationalen Realität eine nach wie vor wachsende Bedeutung zukommt, haben wir Controlling als betriebliches Zentrum der Produktion solcher Zahlenwerke identifiziert. Die Analyse der Ansätze zur Konzeptualisierung der Funktion des Controlling in der deutschsprachigen Diskussion brachte uns zu der Schlussfolgerung, dass die dort versuchte Trennung von Controlling als Ort der Produktion von Zahlen und Management als Ort ihrer Verarbeitung aus systematischen Gründen nicht trennscharf gelingen kann. Mit dem Blick in die internationale Diskussion zum „accounting in its social and institutional context“ konnten wir beschreiben, dass eine Grundfunktion bzw. Folge von quantifizierenden Systemen die Abstraktion von der (organisationalen) Realität ist und die Selektionsleistungen von Zahlenwerken eine aus mehreren Gründen prekäre Praxis darstellt. Daraus ergab sich aber auch eine besondere Pointe: Die Abstraktion von der Realität durch Controllingsysteme und -informationen ist auch die Abstraktion vom Management selbst. Die Paradoxie, dass also Management nach Controlling verlangt, endet schließlich darin, dass Management mindestens in der Form von Entscheidungen sich diesem Controlling und seinen Kalkülen gleichsam entziehen muss, damit es nicht in der Rolle eines „Entscheidungsautomaten“ aufgeht. Unter Bezug auf Derrida haben wir schließlich die begriffliche Differenz von Rationalität und Vernunft ausgenutzt, um die Rolle des Managements als oszillierend zwischen einer sich immer weiter vervollkommnenden Rationalität und einer Praxis des vernünftigen Entscheidens zu beschreiben. Wenn man auf dieser Basis den Versuch unternähme, einen Begriff von Management, von vernünftigem Management, näher auszuarbeiten, dann – soviel scheint klar – besäße dieser einen normativen Gehalt, der ihn vor jeder Vereinnahmung durch das rein Instrumentelle und Technische bewahrte. Klar scheint aber auch, dass ein solcher Begriff von Management nicht dem entspricht, was man heute gemeinhin unter Management zu verstehen bereit ist. Vor dem Hintergrund des Ideals der reinen Berechenbarkeit und seines Gegenübers, dem Ideal der vollkommenen Autonomie, werden die Gespenster, die diese Ideale immer schon heimsuchen und supplementieren, nur allzu oft vertrieben. Dies gilt nicht nur für das Verhältnis von Controlling und Management in Organisationen. Das „second-order measurement“ (Power 2004), das zum Zwang zu mehr „first-order measurement“ in Organisationen führt, vollzieht sich schließlich auf vielfältige Weise zwischen Organisationen, oder anders gesprochen: im gesellschaftlichen Kontext. Die Analyse der Bedeutung von Zahlen in Organisationen müsste dementsprechend immer auch eine Analyse sein, die gesellschaftliche Strukturen und Entwicklungen mit einschließt. Und das Management, das als Makler von Zahlen zwischen Organisation und Gesellschaft wirkt, und der Ort ist, an dem Zahlen auch in gesellschaftlich relevante Entscheidungen umgesetzt werden, müsste als gesellschaftlich bedeutsame Praxis beschrieben werden. Dass dieser gesellschaftliche Kontext in weiten Teilen der Managementforschung unthematisiert bleibt, zeigt indes nicht nur die „analytische“ Scheu vor den Gespenstern. In ihr äußert sich nicht nur die Distanz zum dekonstruktiven Denken, sondern auch die Scheu vor einer Auseinandersetzung mit jener fundamentalen Kritik der Ökonomie, als deren Erbe Derrida (2004) die Dekonstruktion verstanden haben möchte.

102

Martin Messner, Tobias Scheytt und Albrecht Becker

Literatur Adorno, T.W. (1975): Negative Dialektik. Frankfurt/M.: Suhrkamp. Ahrens, T. (1996): Styles of Accountability. In: Accounting, Organizations and Society 21, S. 139-173. Ahrens, T. (1997): Talking Accounting: An Ethnography of Management Knowledge in British and German Brewers. In: Accounting, Organizations and Society 22, S. 617-637. Alvesson, M./Willmott, H. (1999): Doing Critical Management Research. London: Sage. Anthony, R. N./Govindarajan, V. (2003): Management Control Systems. 11. Auflage. Boston: McGraw Hill. Armstrong, P. (2001): Management, Image and Management Accounting. In: Critical Perspectives on Accounting 13, S. 281-295. Baxter, J./Chua, W.F. (2003): Alternative Management Accounting Research – Whence and Whither. In: Accounting, Organizations and Society 28, S. 97-126. Becker, A. (2003): Controlling als reflexive Steuerung von Organisationen. Stuttgart: SchäfferPöschel Verlag. Berglund, J./Werr, A. (2000): The Invincible Character of Management Consulting Rhetoric: How One Blends Incommensurates while Keeping them Apart. In: Organization 7, S. 633-655. Bhimani, A. (1994): Accounting and the Emergence of „Economic Man“. In: Accounting, Organizations and Society 11, S. 637-674. Blumer, H. (1969): Symbolic Interactions: Perspective and Method. Englewood Cliffs, N.J.: PrenticeHall. Burchell, S./Clubb, C./Hopwood, A.G./Hughes, J./Nahapiet, J. (1980): The Roles of Accounting in Organizations and Society. In: Accounting, Organizations and Society, 5, S. 5-27. Coy, W. (2005): Rechnen als Kulturtechnik. In: Brüning, J./Knobloch, E. (Hg.): Die mathematischen Wurzeln der Kultur: Mathematische Innovationen und ihre Folgen. Wilhelm Fink: München, S. 45-64. Dent, J. (1991): Accounting and Organizational Cultures: A Field Study of the Emergence of a New Organizational Reality. In: Accounting, Organizations and Society 16, S. 705-732. Derrida, J. (1988): Randgänge der Philosophie. Wien: Passagen-Verlag. Derrida, J. (1991): Gesetzeskraft. Der ‚mystische Grund der Autorität’. Frankfurt/M.: Suhrkamp. Derrida, J. (1996): Grammatologie. Frankfurt/M.: Suhrkamp. Derrida, J. (2002): Politik der Freundschaft. Frankfurt/M.: Suhrkamp. Derrida, J. (2004): Marx' Gespenster. Der Staat der Schuld, die Trauerarbeit und die neue Internationale. Frankfurt/M.: Suhrkamp. Derrida, J. (2006): Schurken. Zwei Essays über die Vernunft. Frankfurt/M.: Suhrkamp. Dupuy, J.-P./Varela, F. (1991): Kreative Zirkelschlüsse. Zum Verständnis der Ursprünge. In: Watzlawick, P./Krieg, P. (Hg.): Das Auge des Betrachters. Beiträge zum Konstruktivismus. München: Piper, S. 247-275. Eisenberg, B. (2002): ‚Web Analytics’ No Longer Means Web Rage. ClickZ Network. Online unter: http://www.clickz.com/showPage.html?page=1377891 (Zugriff: 30.8.2006). Ezzamel, M./Hoskin, K./Macve, R.H. (1990): Managing it All By Numbers: A Review of Johnson & Kaplan's 'Relevance Lost'. In: Accounting and Business Research 20, S. 153-166. Foucault, M. (1981): Überwachen und Strafen: Die Geburt des Gefängnisses. 4. Auflage. Frankfurt/M.: Suhrkamp. Foucault, M. (1991): Politics and the Study of Discourse. In: Burchell, G./Gordon, C./Miller, P. (Hg.): The Foucault Effect: Studies in Governmentality. London: Harvester Wheatsheaf, S. 53-72. Foucault, M. (1993): Die Ordnung der Dinge: Eine Archäologie der Humanwissenschaften. Frankfurt/M.: Suhrkamp. Garfinkel, H. (1967): Studies in Ethnomethodology. Englewood Cliffs: Prentice-Hall. Gutenberg, E. (1951): Grundlagen der Betriebswirtschaftslehre. Heidelberg u.a.: Springer.

Messen und Managen: Controlling und die (Un-)Berechenbarkeit des Managements

103

Hopwood, A.G. (1983): On Trying to Study Accounting in the Context in Which It Operates. In: Accounting, Organizations and Society 8, S. 287-305. Hopwood, A.G. (1990): Accounting and Organisation Change. In: Accounting, Auditing and Accountability Journal 3, S. 7-17. Hopwood, A.G./Miller, P. (Hg.) (1994): Accounting as Social and Institutional Practice. Cambridge: Cambridge University Press. Horkheimer, M./Adorno, T.W. (1969): Dialektik der Aufklärung. Philosophische Fragmente. Frankfurt/M.: S. Fischer. Horngren, C.T./Bhimani, A./Datar, S.M./Foster, G. (2005): Management and Cost Accounting. 3. Auflage. Harlow: Prentice Hall. Horváth, P. (2001): Controlling. 8. Auflage. München: Franz Vahlen. Jones, T.C./Dugdale, D. (2002): The ABC Bandwagon and the Juggernaut of Modernity. In: Accounting, Organizations and Society 27, S. 121-163. Kappler, E./Scheytt, T. (2003): Die Einstellung zum Controlling in kleinen und mittleren Unternehmen. In: Seicht, G. (Hg.): Jahrbuch Controlling und Rechnungswesen 2003. Wien: Orac, S. 149-178. Kappler, E./Scheytt, T. (2006): Konstruktionen des Controlling. Von der Sekundärkoordination zur Beobachtung zweiter Ordnung. In: Rusch, G. (Hg.): Konstruktivistische Ökonomik. Marburg: Metropolis, S. 93-122. Koontz, H./O'Donnell, C. (1955): Principles of Management. New York: McGraw-Hill. Küpper, H.-U. (2001): Controlling: Konzeption, Aufgaben und Instrumente. 3. Auflage. Stuttgart: Schäffer-Poeschel. Luhmann, N. (1990): Essays on Self-Reference. New York: Columbia University Press. Luhmann, N. (2000): Organisation und Entscheidung. Opladen: Westdeutscher Verlag. Macintosh, N.B. (2002): Accounting, Accountants and Accountability: Poststructuralist Positions. London: Routledge. Macintosh, N.B./Shearer, T./Thornton, D.B./Welker, M. (2000): Accounting as Simulacrum and Hyperreality: Perspectives on Income and Capital. In: Accounting, Organizations and Society 25, S. 13-50. March, J.G. (1990): Die Technologie der Torheit. In: Ders.: Entscheidung und Organisation: Kritische und konstruktive Beiträge, Entwicklungen und Perspektiven. Wiesbaden: Gabler, S. 281-295. McGoun, E.G. (1997): Hyperreal Finance. In: Critical Perspectives on Accounting 8, S. 97-122. Messner, M. (2006): Die Organisation der Kritik. Dissertation, Universität Innsbruck. Miller, P. (1994): Accounting as Social and Institutional Practice: An Introduction. In: Hopwood, A.G./Miller, P. (Hg.): Accounting as Social and Institutional Practice. Cambridge: Cambridge University Press, S. 1-39. Miller, P. (2004): Governing By Numbers: Why Calculative Practices Matter. In: Amin, A./Thrift, N. (Hg.): The Blackwell Cultural Economy Reader. Malden, Mass.: Blackwell, S. 179-189. Morgan, G. (1988): Accounting as Reality Construction: Towards a New Epistemology for Accounting Practice. In: Accounting, Organizations and Society, 13, S. 477-485 Moore, D.C. (1991): Accounting On Trial: The Critical Legal Studies Movement and Its Lessons for Radical Accounting. In: Accounting, Organizations and Society 16, S. 763-791. Ortmann, G. (2003): Regel und Ausnahme. Paradoxien sozialer Ordnung. Frankfurt/M.: Suhrkamp. Ortmann, G. (2004): Als Ob. Fiktionen und Organisationen. Wiesbaden: VS Verlag für Sozialwissenschaften. Pietsch, G. (2003): Reflexionsorientiertes Controlling. Konzeption und Gestaltung. Wiesbaden: Deutscher Universitäts-Verlag. Pietsch, G./Scherm, E. (2000): Die Präzisierung des Controlling als Führungs- und Führungsunterstützungsfunktion. In: Die Unternehmung 54, S. 395-412. Power, M. (2004): Counting, Control and Calculation: Reflections on Measuring and Management. In: Human Relations 57, S. 765-783.

104

Martin Messner, Tobias Scheytt und Albrecht Becker

Roberts, J./Scapens, R.W. (1985): Accounting Systems and Systems of Accountability: Understanding Accounting Practices in Their Organisational Contexts. In: Accounting, Organizations and Society 10, S. 443-456. Scheytt, T. (2003): Controlling, Unterscheidung und Differenz: Skizze zu einer postrationalistischen Konzeption des Controlling. In: Weiskopf, R. (Hg.), Menschenregierungskünste. Anwendungen poststrukturalistischer Analyse auf Management und Organisation. Wiesbaden: Westdeutscher Verlag, S. 187-205. Scheytt, T. (2005): Management Accounting from a Systems Theoretical Perspective. In: Seidl, D./Becker, K.H. (Hg.): Niklas Luhmann and Organization Theory. Copenhagen: Copenhagen Business School Press, S. 386-401. Scheytt, T./Unterrieder, A./Becker, A. (2005): Controllingbilder und Controllingpraxis: Epistemologische und methodologische Aspekte internationaler Controllingforschung. In: Weber, J./Meyer, M. (Hg.): Internationalisierung des Controllings. Wiesbaden: Deutscher Universitäts-Verlag, S. 85-109. Steinmann, H./Schreyögg, G. (2000): Management. Grundlagen der Unternehmensführung. Konzepte, Funktionen, Fallstudien. Wiesbaden: Gabler. Townley, B. (2002): Managing With Modernity. In: Organization 9, S. 549-573. Vollmer, H. (2003): Bookkeeping, Accounting, Calculative Practice: The Sociological Suspense of Calculation. In: Critical Perspectives on Accounting 14, S. 353-381. Vollmer, H. (2007): How to Do More With Numbers: Elementary Stakes, Framing, Keying, and the Three-Dimensional Character of Numerical Signs. In: Accounting, Organizations and Society (im Erscheinen). Weber, J. (2004): Einführung in das Controlling. Stuttgart: Schäffer-Poeschel. Weber, J./Schäffer, U. (1999a): Controlling durch die Nutzung des fruchtbaren Spannungsverhältnisses von Reflexion und Intuition. In: Zeitschrift für Planung 10, S. 205-224. Weber, J./Schäffer, U. (1999b): Sicherstellung der Rationalität von Führung als Funktion des Controlling. In: Die Betriebswirtschaft 59, S. 731-746. Weiskopf, R. (2004): Management, Organisation und die Gespenster der Gerechtigkeit. In: Schreyögg, G./Conrad, P. (Hg.): Gerechtigkeit und Management. Managementforschung Band 14. Wiesbaden: Gabler, S. 211-251.

Basel II, oder: die Einsicht in die unzureichende Verlässlichkeit reiner Quantifizierung

105

Basel II, oder: die Einsicht in die unzureichende Verlässlichkeit reiner Quantifizierung

Peter Pelzer Denkt an eine Zahl, nehmt sie mal zwei, mal drei, erhebt sie zum Quadrat. Und streicht sie. Mac Neice

Mac Neice macht einen sehr spöttischen Vorschlag zum Umgang mit Zahlen. Offensichtlich sieht er das Erheben von Zahlen und deren formelgeleitete Umformung als bedeutungslos an. Man kann sie ebenso gut streichen. Diese Haltung beschreibt das der Zahlengläubigkeit der reinen Quantifizierung von Fakten entgegen gesetzte Extrem. Basel II, das ist die hier grundlegende These, nimmt mit der impliziten Kritik an reinen Zahlenwerken, die in der Konstruktion dieses Rahmenabkommens liegt, eine ernstzunehmende Zwischenposition ein. Von außen betrachtet, aus Sicht der Aufsichtsbehörde, ergibt die Feststellung des eifrigen Datensammelns und -verdichtens keinen verlässlichen Eindruck über die Konsequenzen, die aus diesem Zahlenwerk gezogen werden. Basel II kann als Versuch der Praxis angesehen werden, mit einer Vereinheitlichung von Standards die Unzulänglichkeiten reiner Quantifizierung von Risiken zu überwinden. Dieser Aspekt wird im Folgenden der Fokus der Betrachtung sein. Basel II versucht einen interessanten Spagat.1 Einerseits werden Mindestvorgaben definiert, die weltweit für alle international operierenden Banken gelten sollen. Hier werden mit enormem Aufwand Daten gesammelt, berechnet und zu Kennzahlen verdichtet. Andererseits kommen zwei völlig neue Themenbereiche hinzu, die es in der Aufsichtspraxis überhaupt nicht oder so noch nicht gab und die über eine rein quantitative Betrachtung hinausgehen. Basel II verspricht deshalb in seiner Anwendung faszinierend heterogen zu werden. Diese Erkenntnis, die durch meine Beschäftigung mit dem Thema ‚Umsetzung von Basel II in Banken’ in der Praxis zustande kam,2 hat darüber hinaus eine Betrachtung des Themas im Zusammenhang mit Regeln und deren Anwendung auf theoretischer Ebene (Derrida 1983, 1990; Ortmann 2003) ausgelöst. Angeregt wurde diese Betrachtung durch die Äußerungen von Helmut Bauer, eines Repräsentanten der BaFin (Bundesanstalt für Finanzdienstleistungsaufsicht).3 Er gab seiner Meinung über die unzureichende Verläss1 2 3

Die Leitlinien von Basel II können auf der Internetseite des Gremiums (www.bis.org/bcbs) eingesehen werden. Konkret ist hier ein Projekt gemeint, bei dem ich zusammen mit Kollegen die Auswirkungen von Basel II auf die Prozesse in einer Bank untersucht habe. Die Diskussionen in diesem Projekt führten mich zu den weiterführenden Überlegungen in diesem Kapitel. Helmut Bauer ist Erster Direktor der Säule „Bankenaufsicht“ in der Bundesanstalt für Finanzdienstleistungsaufsicht und Mitglied im Basel Committee on Banking Supervision (BCBS). Bei der BaFin ist er ver-

106

Peter Pelzer

lichkeit reiner Quantifizierung im Risikomanagement der Banken deutlich Ausdruck und sieht Basel II als Einstieg in die Überwindung dieser Einseitigkeit. Mich hat dabei überrascht, inwieweit sich in diesem Vortrag (Bauer 2004) – wenn auch implizit, als Einsicht aus der Praxis – Erkenntnisse aus der Theorie spiegeln. Im Folgenden wird nach einer kurzen Darstellung der Notwendigkeit internationaler Regulierungen im Finanzsektor die Konzeption von Basel II vorgestellt. Danach folgen einige theoretische Reflexionen über Regeln und deren Anwendung. In der Anwendung von Regeln in der Praxis, so lautet die Erkenntnis, erfahren die Inhalte der Regeln unvermeidlich Veränderungen. Dies wird dann mit Hilfe des erwähnten Vortrags von Helmut Bauer für die Bankpraxis verdeutlicht. Basel II: Eine internationale Rahmenvereinbarung für Banken Gegenwärtig sind die kostenträchtigsten Projekte in Banken mit dem Ausdruck Basel II belegt. Die Ziffer „2“ deutet dabei an, dass hier nicht die Schweizer Stadt gemeint ist, sondern dass sie als Synonym für ein internationales Abkommen steht, und dass es nicht das erste Abkommen dieser Art ist. Der Grund für die Auswahl Basels ist offensichtlich. Basel ist der Sitz der Bank für internationalen Zahlungsausgleich (BIZ). Die BIZ ist eine internationale Organisation, die die Zusammenarbeit zwischen Zentralbanken und anderen Institutionen im Hinblick auf die monetäre und finanzielle Stabilität fördert. Darüber hinaus bietet sie Bankservices exklusiv für Zentralbanken und internationale Organisationen an. Hier ist das Zentralsekretariat des Ausschusses für Bankenaufsicht angesiedelt. Dieses wurde von den Präsidenten der Nationalbanken von Belgien, Deutschland, Frankreich, Italien, Japan, Kanada, Luxemburg, den Niederlanden, Schweden, der Schweiz und den USA 1975 gegründet. Der Baseler Ausschuss für Bankenaufsicht, kurz Baseler Ausschuss genannt, dient als Koordinator für internationale Regulierungen des Finanzmarktes. Er hat keine legislative Macht und keine Aufsichtsgewalt, aber seine Regulierungen beeinflussen die jeweiligen nationalen Gesetzgebungen und die EU-Gesetzgebung und damit die Regulierung der nationalen Finanzmärkte. Hintergrund der Baseler Regelwerke ist die Sorge um die Stabilität der internationalen Finanzmärkte. Die Vernetzung der Volkswirtschaften ist in einem Maße fortgeschritten, dass ernsthafte Störungen des Gleichgewichtes in einem Markt Störungen in anderen Märkten auslösen und auf diese Weise eine Kettenreaktion zumindest nicht unmöglich ist. Die Vernetzung der internationalen Märkte erfolgt durch Banken. Geschäftsverbindungen auf den Warenmärkten erfordern Zahlungen, die über Banken abgewickelt werden. Diese Unternehmen sind Kreditnehmer der Banken, an Börsen notiert, und platzieren mit Hilfe der Banken Anleihen an internationalen Finanzmärkten. Banken agieren weltweit mit Finanzierungen von Unternehmen, engagieren sich in Fusionen und Übernahmen, betreuen Einführungen von Aktien an Börsen. Die Stabilität des Bankensektors ist deshalb von eminenter Wichtigkeit für die Stabilität der Weltwirtschaft. Diese Finanzmärkte sind heute von erstaunlicher Stabilität. Dennoch gibt es ein Bewusstsein dafür, wie groß die Auswirkungen sein können, wenn es doch zu einem Ausfall kommt. Wegen der Vernetzung kann es zu

antwortlich für die Beaufsichtigung von mehr als 2.000 Kreditinstituten, die Entscheidung bankaufsichtsrechtlicher Grundsatzfragen und die Entwicklung qualitativer Aufsichtsstandards.

Basel II, oder: die Einsicht in die unzureichende Verlässlichkeit reiner Quantifizierung

107

nicht vorhersehbaren Auswirkungen in anderen Sektoren und anderen Teilen der Welt kommen als dort, wo der der Ausfall stattfindet. In Deutschland blicken wir auf einen spektakulären Fall zurück, der die Notwendigkeit eines adäquaten Risikomanagements deutlich machte. Im Jahr 1974 entzogen die Aufsichtsbehörden der Herstatt Bank die Banklizenz. Dies signalisierte die größte Bankeninsolvenz der Nachkriegsgeschichte in Deutschland. Die Bank, ironischerweise gegründet als Verwalterin der Kollekteneinnahmen der Kölner Kirchengemeinden, wuchs sehr stark vor allem mit ihrem Engagement auf internationalen Devisenmärkten. In diesem unkontrollierten und praktisch unbegrenzten Engagement lag sowohl der Grund für die zunächst spektakulären Gewinne als auch das letztendliche Scheitern. Der Eigentümer und Vorstandschef der Bank setzte seinem Chef-Devisenhändler keine Limits und betrieb keinerlei Risikomanagement. Als die Spekulationen in Verluste gerieten und andere Banken Refinanzierungslinien strichen, da sie das Vertrauen in die Herstatt Bank angesichts des immer offensichtlicher werdenden Missverhältnisses zwischen den Engagements und der Größe der Bank verloren, versuchte die Bank, die voraussehbaren Verluste mit Bilanzmanipulationen zu verschleiern. Der durch den Verlust von Einlagen bei Privatanlegern im Zuge der Herstatt-Insolvenz aufgetretene Vertrauensverlust in Banken in der Öffentlichkeit und die dadurch ausgelösten Diskussionen markierten gleichzeitig einen Wendepunkt in der Bewertung des Risikomanagements in Banken. Natürlich gab es Risikomanagement schon vorher. Nach diesem Vorfall setzte jedoch eine Entwicklung zur Standardisierung der Methoden ein. Das, was sich individuell in einzelnen Banken bewährt hatte, wurde mit mathematischen Modellen kombiniert, die Anwendung verbreitert und seitdem in kleinen Schritten permanent verfeinert. Die sich so herausbildenden Marktstandards wurden von der ersten Initiative zur Setzung eines verbindlichen Standards aufgegriffen und in einem langjährigen Prozess abgestimmt. Resultat waren schließlich die als Basel I bekannt gewordenen Kapitaladäquanzrichtlinien. Der Baseler Ausschuss brauchte bis 1988 zur endgültigen Verabschiedung des ersten Akkords. Die Umsetzung war bis 1992 vorgesehen. Die grundsätzliche Überlegung hinter der Kapitaladäquanz ist es sicherzustellen, dass eine Bank auch den Ausfall ihres größten Kreditengagements verkraftet, ohne insolvent zu werden. Alle Formen von Kredit müssen mit Eigenkapital unterlegt werden, so dass sich automatisch eine Obergrenze für das zulässige Gesamtkreditvolumen ergibt. Dies kann auch als erster koordinierter Schritt hin zu einer Globalisierung eines Bewusstseins für Risiken und Risikomanagement im Bankgeschäft bezeichnet werden. Thema ist dabei nicht der technische Gesichtspunkt der Eigenkapitalunterlegung, es ist das Ausfallrisiko bei Krediten. Ziel ist die Solidität und Stabilität der internationalen Finanzmärkte. 1995 kam es zu einer neuen, spektakulären Bankeninsolvenz. Bei der Barings Bank war es ein einzelner Händler, der in der Lage war, die wachsenden Ungleichgewichte in seinem Portfolio zu verstecken, um durch immer höhere Engagements zu versuchen, sie doch noch auszugleichen. Als der Markt sich nicht in die Richtung entwickelte, die der Händler erwartete, wurde das Engagement zu hoch, um durch die Bank bedient werden zu können. Das Fehlen eines adäquaten Risikomanagements führte auch hier zum Niedergang eines traditionsreichen Bankhauses. Der Barings-Fall lenkte den Blick der Öffentlichkeit auf die Risiken, die aus einem stark wachsenden Marktsegment erwuchsen. Die neunziger Jahre des vorigen Jahrhunderts erlebten eine massive Ausweitung des Investmentbankings. Einerseits wurden alle Tätig-

108

Peter Pelzer

keiten, die mit dem Handel von Waren und Wertpapieren an Börsen, der Finanzierung von Unternehmen über Börsen und Fusionen und Akquisitionen zusammenhängen, stark ausgeweitet. Andererseits kam es zu einer Ausweitung der Finanzinstrumente über den originären Bedarf hinaus. Auch dieses Phänomen war nicht neu, löste sich jedoch immer mehr von den ursprünglich zugrunde liegenden Warengeschäften zu einem selbständigen Marktsegment mit innovativer Produktgestaltung. Neu war insbesondere, dass die Intention der Derivate nicht mehr notwendigerweise auf die Erfüllung eines zugrunde liegenden Geschäftes gerichtet war, sondern unabhängig davon rein finanziell abgewickelt werden konnte. Der Wert der derivativen Finanzinstrumente beträgt ein Vielfaches der tatsächlich gehandelten Werte der zugrunde liegenden Waren, Wertpapiere oder Devisen. Selbstverständlich unterliegen die Märkte für derivative Finanzinstrumente den allgemeinen Risiken des Bankgeschäftes, aber auch speziellen Risiken, die sich aus der Volatilität der gehandelten Produkte ergeben. Der Risikobegriff des Baseler Abkommens wurde 1996 erweitert, um Marktrisiken einzuschließen. In Deutschland wurden diese Regulierungen durch das Bundesaufsichtsamt für das Kreditwesen (BaKred)4 mit so genannten Mindestanforderungen für genehmigungspflichtige Geschäfte umgesetzt. Das Kreditwesengesetz (KWG) führt detailliert auf, welche Geschäfte ausschließlich von Banken oder Wertpapierdienstleistern ausgeführt werden dürfen, die für diese Ausführung eine Lizenz durch die Aufsichtsbehörde benötigen. Die Lizenz kann widerrufen werden. Es entstanden Mindestanforderungen für die Vergabe von Krediten (MaK), Handelsgeschäfte (MaH) und interne Revision (MaiR). Zu diesen Mindestanforderungen wurden in der Folge Rundschreiben zur Auslegung entworfen. Die Kapitaladäquanz wurde mit der „Groß- und Millionenkreditverordnung“ umgesetzt. Darüber hinaus gilt auch das Wertpapierhandelsgesetz. Diese – im Detail sogar unvollständige – Aufzählung lässt verständlich werden, warum der Bankensektor als einer der am meisten regulierten Wirtschaftszweige überhaupt bezeichnet wird. Zur Durchsetzung der Anforderungen dient ein detailliertes externes Meldewesen, mit dem Banken genau definierte Daten turnusmäßig an die Bundesbank und das BaFin übermitteln müssen. Es war jedoch klar, dass Basel I nur ein Zwischenschritt sein konnte, da sich bereits zu diesem Zeitpunkt die Unzulänglichkeiten und Lücken der ersten Rahmenvereinbarung in der Praxis herausstellten5. 1999 wurde deshalb ein Konsultationspapier „Internationale Konvergenz der Kapitalmessung und Eigenkapitalanforderungen“ (BIS 2004) veröffentlicht, von nationalen Aufsichtsbehörden, Bankenverbänden und Regierungen diskutiert, revidiert und schließlich 2004 verabschiedet. Worum geht es nun bei Basel II? Es stellt eine erhebliche Ausweitung der ursprünglichen Konzeption dar. Da die drei Kapitel als Säulen bezeichnet werden, kann man die Konstruktion auch mit einer architektonischen Metapher beschreiben, wie es in der folgenden Darstellung versucht wird. Eine beabsichtigte Interpretation dieser Art von Darstellung ist sicherlich, dass ein solches Gebäude nur vollständig bzw. tragfähig ist, wenn alle Säulen beachtet werden. Dies ist, wie gezeigt werden wird, genau die Absicht des Ausschusses. 4 5

Das BaKred wurde mit dem Bundesaufsichtsamt für das Wertpapierwesen und dem Bundesaufsichtsamt für das Versicherungswesen zur Bundesanstalt für Finanzdienstleistungen (BaFin) zusammengefasst. Alle Regulierungen wurden in die Zuständigkeit der neuen Behörde übernommen und gelten fort. Es wurden nicht alle Risiken aufgenommen. Die schnelle Entwicklung der Märkte machte schon während der Konsultationszeit klar, dass eine Weiterentwicklung unvermeidbar war, um mit dieser Entwicklung mitzuhalten.

Basel II, oder: die Einsicht in die unzureichende Verlässlichkeit reiner Quantifizierung

Abbildung 2:

109

Darstellung des Basel II -Abkommens in der Säulenarchitektur6

Intention von Basel II ist die engere Verzahnung von Kapitalanforderungen und dem ökonomischen Risiko und die fortlaufende Einbeziehung neuer Entwicklungen sowohl der Kapitalmärkte als auch der internen Risikomanagementsysteme der Banken. Eine riskoadäquate Kapitalausstattung wird allerdings nicht als ausreichend angesehen, um das Ziel der Solvabilität und Stabilität des Bankensektors zu erreichen. Bezogen auf das einzelne Geschäft oder das einzelne Wertpapier, wird der Preis oder der Zins immer dann höher sein, wenn das Risiko im Vergleich zu anderen Geschäften höher ist. Damit kommt die Risikound Gewinnpräferenz der jeweiligen Bank, die vom Vorstand bestimmt wird, in Verbindung mit deren Fähigkeit, diese Risiken ständig zu managen und zu tragen, in den Fokus. Deshalb geht Basel II über den Ansatz des ersten Akkordes hinaus und formuliert zwei neue Säulen. Das aufsichtliche Überprüfungsverfahren der Säule 2 und die Marktdisziplin der Säule 3 beschreiben neue Dimensionen von Regulierung.

6

Die Bezeichnung der Kapitel als „Säulen“ und eine schematische Darstellung als Tempel auf der Homepage der Deutschen Bundesbank haben mich zu dieser Darstellung inspiriert. Siehe http://www.bundesbank.de/ bankenaufsicht/bankenaufsicht_basel.php.

110

Peter Pelzer

Säule 1: Mindestkapitalanforderungen Die Säule 1 umfasst alle quantitativen Regeln und Methoden zur Messung und Verdichtung von Risiken. Es werden sowohl die Mindestvoraussetzungen definiert, als auch die Kriterien für die Anwendung verfeinerter Modelle festgelegt. Resultat aller dieser Berechnungen ist die Kalkulation der Mindestkapitalanforderungen für die Unterlegung der Geschäfte der Bank mit Eigenkapital. Das hört sich sehr mathematisch an und so sind auch die Methoden zur Beantwortung der Frage: Wie kann eine aussagekräftige Kennzahl für alle Risiken, die im Bankgeschäft enthalten sind, gewonnen werden und wie können die Risiken, die sich aus möglichen Verlusten ergeben, durch die Bank beherrscht werden? Die zweite Frage kann leichter als die erste beantwortet werden. Es ist inzwischen internationaler Standard, dass Banken eine Eigenkapitalunterlegung von mindestens 8% der gewichteten Risikoaktiva haben müssen. Das bedeutet, dass ihre Geschäfte durch ihre Eigenkapitalbasis limitiert sind. Um die individuelle Situation einer Bank aufgrund ihrer Geschäftsstruktur zu erfassen, werden diese Ziffern gewichtet und auf ihren Nettowert bezogen, d. h. die potentiellen Ergebnisse mehrerer Geschäfte mit demselben Partner, die sowohl Käufe wie auch Verkäufe beinhalten, können gegeneinander aufgerechnet werden. Es sind detaillierte Bestimmungen ausgearbeitet, welche Teile der Bilanz als Eigenkapital gewertet werden können. Zur Bewertung der Risiken gibt es jeweils mehrere Methoden. Da die Anzahl der Risiken, die nunmehr in Betracht gezogen werden müssen, ausgeweitet wurde, sind wesentlich umfassendere Anforderungen an die Eigenkapitalausstattung gestellt. Die betrachteten Risiken umfassen Kredit- und Marktrisiken mit mehreren Gesichtspunkten wie Adressausfall-, Liquiditäts-, Devisen-, Waren-, Wertpapier- und Zinsrisiken. Hinzu kommen die operativen Risiken, die zu Verlusten aufgrund fehlerhafter interner Prozesse, menschlichem Versagen oder Systemversagen oder aus externen Einflüssen resultieren. Diese beinhalten interne und externe Betrugsfälle, Arbeitsplatzsicherheit, Geschäftsunterbrechungen, Systemabstürze, Schäden an Gebäuden, die ein Weiterarbeiten gefährden usw.7 Wie nicht anders zu erwarten, wurden in einer von Zahlen dominierten Welt als erste Lösung, um mit der Komplexität dieser Materie umzugehen, Kennzahlen entwickelt, die es ermöglichen sollten, das Risikoniveau abzubilden. Es wurden Limits für das Engagement mit einzelnen Geschäftspartnern gesetzt. Modelle und Simulationen wurden entwickelt, um das Engagement der Bank und die potentielle Entwicklung der Kredit- und Handelsbücher vorherzusehen. Stress-Tests sollten bei der Einschätzung der Lage helfen, wenn sich grundlegende Parameter in den Märkten verändern. Es bildeten sich Marktstandards heraus. Kennzahlen wie Value at Risk (VaR) oder Simulationen wie die Monte-Carlo-Simulation gehören zu den allgemein angewendeten Methoden und sind Marktstandard. VaR soll das Verlustpotential des gesamten Portfolios einer Bank ausdrücken: Unter normalen Marktbedingungen wird der Verlust aus den eingegangenen Geschäften mit einer Wahrscheinlichkeit von y % nicht mehr als x € in den nächsten n Tagen sein. Die Monte-Carlo-Simulation ist eine Methode, um zum VaR zu kommen. Es werden historische Daten von Marktpreisen und Kursen durchgerechnet, um daraus den höchsten wahrscheinlichen Verlust abzuleiten. Dabei war es aber auch Konsens, dass diese standardisierten Kennzahlen und Modelle die spezifische Situation einer individuellen Bank nicht notwendigerweise korrekt abbilden. Aus diesem Grunde entwickelten insbesondere die international tätigen großen Banken verfeinerte Modelle, um sie an ihre 7

Vgl. zum operativen Risiko den Beitrag von Michael Power in diesem Band.

Basel II, oder: die Einsicht in die unzureichende Verlässlichkeit reiner Quantifizierung

111

Situation anzupassen. Resultat ist eine heterogene Landschaft des Risikomanagements, die auf einer allgemein anerkannten Auswahl von Standardansätzen aufbaut. Basel II erkennt diese Situation an. Die weitere Entwicklung dieser Ansätze in der Praxis soll nicht durch Fixierung der Banken auf ein bestimmtes Instrumentarium behindert werden. Der Ansatz lässt ausdrücklich die Weiterentwicklung auf Basis von Mindestanforderungen zu. In der Praxis bedeutet eine Verfeinerung in der Regel die Entwicklung von der Beurteilung von Marktsegmenten hin zu einem individualisierten, auf einzelne Kunden bzw. Geschäftspartner ausgerichteten Ansatz. Jeder Geschäftspartner soll aufgrund seiner speziellen Risikosituation bewertet werden. Eine Konsequenz daraus wird ein risikoadäquates Preismodell sein, d. h. je höher das Risiko ist, desto höher wird der Zins oder die geforderte Sicherheit sein. Um diesen Unterschied zwischen den Entwicklungsstufen und Notwendigkeiten zu unterstützen, wurden Mindestanforderungen gesetzt und fortgeschrittene Ansätze zugelassen. Der Standardansatz ist dabei die Mindestanforderung für alle Banken, ein individualisierter Ansatz mit verfeinerten Methoden kann genutzt werden. Die detaillierte Sammlung der notwendigen Daten und deren Verarbeitung und die Wartung der dafür erforderlichen IT-Systeme erfordert einen sehr hohen Aufwand. Banken, die in fortgeschrittene Ansätze investieren und damit die Risiken spezifizieren, sollen deshalb mit geringeren Eigenkapitalanforderungen belohnt werden. Im Gegenzug müssen die individualisierten Ansätze von der jeweiligen nationalen Aufsichtsbehörde abgenommen werden. Die Regeln und die zeitlichen Vorläufe sind durch Basel II gesetzt. Wenn die Methoden abgenommen wurden, können die Eigenkapitalanforderungen auf bis zu 70% des für das jeweilige Risiko festgesetzten Wertes reduziert werden. Anders formuliert: mit der Investition in Verfahren zur Risikosteuerung kann die Bank mit gleichem Eigenkapitaleinsatz mehr Geschäft machen. Der entscheidende Faktor für die Qualität dieser Formen der Risikoerfassung ist die Datensammlung und die Datenverarbeitung. Selbst wenn wir annehmen, dass die Individualisierung nicht das gesamte Geschäft umfasst – so ist z.B. das Konsumentenkreditgeschäft sehr gut standardisierbar –, sondern nur Firmenkunden und das Wertapiergeschäft mit allen seinen Ausprägungen umfasst, ist der Umfang der zu erhebenden und zu speichernden Daten zu Märkten, Bilanzen oder Verlauf von Kursen in der Vergangenheit enorm. Resultat all dieser Zahlen ist ein komplexes internes und externes Meldewesen. Das interne Reporting soll dem Management Informationen in die Hand geben, mit denen es die Einhaltung der Limits kontrollieren kann, aber vor allem potentielle Risiken wahrnehmen kann. Das externe Meldewesen zur Bundesbank und zur BaFin hat, abhängig vom Thema, auf täglicher, monatlicher, quartalsmäßiger oder jährlicher Basis zu erfolgen. Diese recht starke quantifizierte Form des Umgangs mit Risiken wird in der Konzeption von Basel II durch die Säulen 2 und 3 in signifikanter Weise erweitert. Säule 2: Das bankenaufsichtliche Überprüfungsverfahren Der Inhalt dieser Säule geht über die Kapitaladäquanz hinaus. Der Baseler Ausschuss beabsichtigt den Blick auf den gesamten Risikomanagementprozess zu lenken und die Einführung besserer Verfahren zur Überwachung und Steuerung von Risiken zu unterstützen. Das bankenaufsichtliche Überprüfungsverfahren fügt den Vorschriften zur Messung der Risiken der Säule 1 Vorgaben zum Umgang mit ihnen hinsichtlich der Einfügung in Prozesse, der

112

Peter Pelzer

Dokumentation und der organisatorischen Gestaltung hinzu.8 Da trotz des Umfanges der Erläuterungen der Säule 1 noch nicht alle Risiken bzw. einige nicht vollständig erfasst wurden, wird Säule 2 als angemessener Platz zur Behandlung definiert. Hier ist auch der Platz für die Beurteilung der Voraussetzungen für die genutzten Modelle sowie die Einhaltung der Offenlegungspflichten der Säule 3. Die Betonung der Verantwortung des obersten Managements deutet auf die zentrale Bedeutung dieser Säule hin: „Die Geschäftsleitung muss die Art und das Niveau des von der Bank eingegangenen Risikos sowie dessen Einfluss auf die angemessene Eigenkapitalausstattung verstehen“ (BIS 2004, Tz. 728). Dies kann einerseits als Betonung der Wichtigkeit des Risikomanagements für Banken gesehen werden. Andererseits erscheint es etwas beunruhigend, dass ein internationales Rahmenwerk das Management an seine grundlegenden Verantwortlichkeiten erinnern muss. Die interne Revision der Banken wird aufgewertet, indem sie zur Prüfung der aufsichtlichen Vorgaben angehalten wird und mit dieser Aufgabe zum Ansprechpartner bei Prüfungen für die Aufsicht wird. Es war also kein Zufall, dass Bauer die Interpretation der BaFin, die weiter unten besprochen wird, auf der Jahrestagung der internen Revision vorgestellt hat. In vier Prinzipien sind hier auch Aufgaben und Pflichten der Aufsicht formuliert. Sie soll die Angemessenheit der Verfahren beurteilen und die bankinternen Beurteilungen und Strategien zur angemessenen Eigenkapitalausstattung überprüfen und bewerten. Dabei kann die Aufsicht bei Fehlentwicklungen eingreifen und entsprechende Maßnahmen durchsetzen. Die zurückhaltende Formulierung, „die Aufsichtsinstanzen sollten angemessene aufsichtsrechtliche Maßnahmen ergreifen, wenn sie mit dem Ergebnis dieses Verfahrens nicht zufrieden sind“ (BIS 2004: 184), macht deutlich, dass der Aufsicht dabei Mittel zur Durchsetzung zur Verfügung stehen. Die ultimative Drohung der Aufsichtsbehörden ist dabei der Entzug der Banklizenz. Säule 3: Marktdisziplin Der Baseler Ausschuss hat das Dilemma erkannt, das sich mit der Öffnung von Regularien für Weiterentwicklung und der Akzeptanz bankenindividueller Verfahren ergibt. Der erwünschte Effekt der Weiterentwicklung führt im Gegenzug zu einer sehr heterogenen Landschaft des Umgangs mit den Regularien und zu großen Schwierigkeiten mit einer flächendeckenden und zeitnahen Abnahme und laufenden Überprüfung der Einhaltung der Regeln. Soll hier nicht ein neues Risiko entstehen, quasi eine aufsichtlich sanktionierte Lücke, die mangels Überprüfung Fehler und Unzulänglichkeiten faktisch akzeptiert bzw. das Unterlaufen des Regelwerkes in Kauf nimmt, so muss auch die Prüfung auf ein neues Niveau gehoben werden. Diesem Ziel dient die Säule 3. Der größere Ermessensspielraum für die Banken hinsichtlich der gewählten Verfahren zur Risikomessung soll die Intention des Rahmenwerkes nicht unterlaufen. Der Druck zu einer angemessenen Auslegung soll aber nicht nur von der Aufsicht, sondern auch von denen kommen, die die ergriffenen Maßnahmen am besten beurteilen können und ein Eigeninteresse daran haben, dass es zu keinem Ausfall kommt: andere Banken, immer gleich8

Diese Anforderungen sind zum großen Teil bereits aus den Mindestanforderungen (MaK, MaH, MaiR) bekannt. Sie sind durch enge Bezugnahme auf EU-Recht, schon bestehende internationale Abkommen gekennzeichnet. Sie werden durch Basel II weltweit bindend.

Basel II, oder: die Einsicht in die unzureichende Verlässlichkeit reiner Quantifizierung

113

zeitig Konkurrenten und Geschäftspartner. Offenlegung von Informationen zur Risikobehandlung bedeutet in diesem Zusammenhang die Möglichkeit zur gegenseitigen Einschätzung der Geschäftspartner in Bezug auf die Seriosität des Risikomanagements. Deshalb wird in Säule 3 eine Veröffentlichungspflicht definiert, „die es den Marktteilnehmern gestattet, Kerninformationen über den Anwendungsbereich, das Eigenkapital, die Risikopositionen, die Risikomessverfahren und – daraus abgeleitet – die Angemessenheit der Eigenkapitalausstattung des Instituts beurteilen zu können“ (BIS 2004: Tz. 809). Der Markt soll bei der Durchsetzung der Regeln helfen, da die aus der Anwendung der Regeln resultierende Stabilität in wohlverstandenem Eigeninteresse jedes Marktteilnehmers ist. Ein schlechteres Rating führt zu einer Verteuerung bei der Geldbeschaffung und damit zu einer Verschlechterung der Wettbewerbssituation. Die grundlegende Überzeugung dieses Ansatzes ist, dass Banken diesen Umstand vermeiden wollen und deshalb die Standards erfüllen werden. Die Erläuterungen zu den mathematischen Modellen und die verschiedenen akzeptierten Ansätze für die Risikoprüfung, -evaluation und -Reporting in der Säule 1 nehmen etwa 90% des Seitenumfanges des Baseler Dokumentes ein. Die beiden anderen Säulen teilen sich den restlichen Platz. Dies symbolisiert zwei Aspekte. Der Umgang mit Risken mit Hilfe von mathematischen Modellen war schon Bestandteil des ersten Rahmenwerkes und ist deshalb schon gängige und ausgefeilte Praxis. Die Tiefe und der Umfang dieser Kapitel dokumentieren dies. Zweitens, und dies ist von zentraler Bedeutung, fügen der aufsichtliche Prozess und die Marktdisziplin eine sehr interessante neue Perspektive hinzu. Sie sind ein erster Schritt, um die Last der Aufsicht auf mehr Schultern zu verteilen. Die Regulierer beabsichtigen, die interne Revision der Banken und den Markt über die Verpflichtung zu einer erweiterten Offenlegung von Informationen zum Risikomanagement zu integrieren. Wie das Bild andeutet, ist dabei ein gewisses Ungleichgewicht der Konstruktion festzustellen. Säule 1 ist nicht nur so groß gezeichnet, weil der Text so viel Platz beansprucht. Es deutet auch an, dass die Menge Text, die nötig ist, um den Inhalt zu erklären, den größten Teil des Dokumentes ausmacht. Das mag daran liegen, dass dies eine Fortschreibung der ersten Rahmenvereinbarung ist. Die Regeln und die zugrunde liegenden mathematischen Modelle sind konsequent verfeinert und weiterentwickelt worden. Regeln und Regulierungen, Regler und Geregelte Regeln sind dazu da, eingehalten zu werden. Wenn nicht, sind in der Regel (sic!) strenge Konsequenzen in Form von Strafverfolgung und Bestrafung angedroht. Andererseits wissen wir auch, dass Regeln oft folgenlos nicht eingehalten werden: Wo kein Kläger ist, da ist auch kein Richter, d. h. bevor eine Regelverletzung bestraft wird, muss es jemanden geben, der die Verletzung bemerkt, der dies dann auch noch anzeigt, und vor der Festsetzung eines Strafmaßes muss die Regelverletzung auch noch bewiesen und einer konkreten Person zugeordnet werden. Darüber hinaus wissen wir auch, dass Regeln permanent aus den unterschiedlichsten Gründen gebrochen werden, unbewusst, etwa weil die Existenz einer Regel nicht bekannt ist oder wegen unzureichender Ausbildung bezüglich ihrer korrekten Anwendung; bewusst, weil es in einer konkreten Situation die einfachste Möglichkeit der Ausführung einer Aufgabe ist und es sowieso keiner merkt, oder auch, um einen persönlichen Vorteil zu erlangen. Unterschiedliche Regeln können sich auch widersprechen, so dass der Ausführende in der Situation entscheiden muss, welche Regel er anwendet und welche er

114

Peter Pelzer

verletzt, um seine Aufgabe erfüllen zu können. Die subtilste Form des Streikes wird „Dienst nach Vorschrift“ genannt: Keine Arbeitsweise führt sicherer zur völligen Immobilisierung einer Organisation als die buchstabengetreue Ausführung aller ihrer Regularien. Regeln brauchen Ausnahmen, aber was als Ausnahme akzeptiert wird, kann immer nur in der konkreten Situation entschieden werden, weil Regeln in unterschiedlichen Kontexten und sich ändernden Umwelten angewendet werden müssen, die nicht vollständig bei ihrer Aufstellung antizipiert werden können. Diese wenigen Bemerkungen zeigen schon deutlich, dass die Welt der Regeln nicht so einfach zu handhaben ist, wie es eine Idee von Ordnung gerne hätte. „Paradoxien sozialer Ordnung“ ist der diesen Umstand deutlich ansprechende Untertitel von Günther Ortmanns Buch „Regel und Ausnahme“ (2003), in dem die Rolle von Regeln im Kontext von Organisationen Thema ist. Ortmann untersucht die unterschiedlichen Arten und Weisen, in denen das Verhältnis von Regel und Ausnahme interpretiert werden kann, um zu einem adäquateren Verständnis der Komplexitäten zu kommen, die in der Regelbefolgung liegen. Dies soll als theoretischer Hintergrund für einige Beobachtungen hinsichtlich der Umsetzung von Basel II dienen. Ortmann nutzt Derridas Konzept der Différance (Derrida 1990) zur Begründung der speziellen Gleichzeitigkeit des Phänomens der Regelbefolgung: Eine Regel kann zugleich angewandt und verletzt, ihre Geltung zugleich vorausgesetzt und in der Anwendung erst gesetzt, in Anspruch genommen und aufgeschoben bzw. verändert werden (Ortmann 2003: 25). Die Anwendung einer Regel verändert immer ihre Bedeutung. Der Gesetzgeber, der Regelsetzer kann nie abschließend die Anwendung der Regeln bestimmen. Diese ist immer abhängig davon, wie der Anwender die Regel versteht und in der Lage ist, sie zu nutzen, und wie der Kontext interpretiert wird, in dem die Regel zur Anwendung kommt. Die Regel wird immer supplementiert (im Sinne von Derridas Begriff des Supplément). Jede Nutzung der Regel supplementiert die Interpretation des Anwenders durch die Anwendung der Regel. Der Inhalt der Regel wird ein wenig geändert, etwa um die Regel in einer geänderten Umwelt ihrer Absicht entsprechend anzuwenden, oder als falsche Anwendung. Es wird immer eine Vermittlung zwischen der Regel und ihrer Anwendung geben, und jede Anwendung wird die Regel in einer gewissen Weise supplementieren. Anders gesagt: Das Verletzen der Regel ist unweigerlich Teil der Anwendung der Regel. Was wir in der täglichen Praxis als regelkonforme Anwendung betrachten, ist eine Praxis des Aufhebens plus Erhaltens, bei dem das Aufheben die stillschweigende Anerkenntnis notwendiger Änderungen zur Erreichung der Absicht der Regel ist. Die Supplemente geben dem, was sie verschieben, Sinn. Dies ist die Lösung für den Umstand, dass es so etwas wie die originale Situation, einen Ursprung, nicht gibt. Es gibt keine unmittelbare Präsenz, keine ursprüngliche Wahrnehmung. Alle scheinbare Unmittelbarkeit ist abgeleitet. Alles beginnt durch das Vermittelnde (Derrida 1983: 282). Eine Regel hat ihren Ausgangspunkt immer in der Mitte, sie ist eine Intervention in einer sich immer wandelnden Umwelt. Ortmann weist auf die hierin enthaltenen Paradoxien hin: „Gesetze, Institutionen, Regeln enthalten Imperative, die unser Handeln orientieren sollen, aber was sie genau bedeuten, entscheidet sich merkwürdiger Weise erst in jenem Handeln, durch jenes Handeln, das sie doch leiten sollen“ (Ortmann 2004: 42). Regeln folgen Handelnden: Ortmann nennt diese Umkehrung der normalen Sichtweise, dass Handelnde Regeln folgen hin zur retrospektiven Sichtweise, dass Regeln auch Handelnden folgen, störend, bestürzend, fast schon kafkaesk, aber nichtsdestoweniger eine unvermeidliche Doppeldeutigkeit. Akzeptiert man

Basel II, oder: die Einsicht in die unzureichende Verlässlichkeit reiner Quantifizierung

115

dies, so gerät die grundlegende Fiktionalität organisationaler Regeln und Regelbefolgung in den Blick und das Paradox setzt sich fort. Organisationale Regeln helfen nicht deshalb, weil sie funktionieren, sondern indem sie nicht funktionieren, aber, weil wir, getäuscht oder uns selbst täuschend, an ihre Wirkung glauben und sie zur Wirkung bringen und sie so mit Wirksamkeit versehen; oder, wenn wir nicht an die Wirkung glauben, täuschen wir andere, indem wir so tun, als ob wir an die Wirkung glauben und sie so performativ zum Funktionieren bringen (Ortmann 2003: 127). Ortmanns Argumente zu Regeln und deren sehr spezifische Befolgung spiegeln die enorme Unsicherheit der sozialen Welt. Seine Bücher gehören zu den raren Beispielen, in denen diese Unsicherheit, Flüssigkeit, Multiperspektivität nicht nur anerkannt werden, um ein besseres Verständnis und damit ein mehr an Ordnung aus der übermächtigen Unordnung zu erringen, sondern als grundlegende Bedingung verstanden werden, die der Ausgangspunkt aller Versuche für Organisation und das Setzen von Regeln ist. Es ist die unvermeidliche Anerkennung der Tatsache, dass Ordnung und Unordnung sich gegenseitig bedingen, das eine nicht ohne das andere zu haben ist, dass Ordnung sich nur dadurch definiert, dass sie eine Grenze setzt zur Unordnung und deshalb in dieser Weise von Unordnung bestimmt wird (Cooper 1990). Eine Regel definiert ein Territorium, in dem sie Gültigkeit reklamiert und in dem diese Gültigkeit durchgesetzt werden muss. Ordnung und Regeln sind keine objektiven Faktoren, sondern Prozesse, die in Abwesenheit eines objektiven, stabilen Fundaments sich selbst reproduzieren. Trotzdem ist das Resultat dieses Prozesses eine hinreichend stabile Umwelt. Ortmann fordert mit diesen Argumenten implizit traditionelle Fragestellungen der Organisationsforschung heraus. Wie soll ein Unternehmen organisiert sein, um Gewinn zu erzielen? Was müssen wir tun, um effizienter zu produzieren? Was ist die beste Vorgehensweise zur Erreichung eines bestimmten Ziels? Solcher Art sind die gewohnten Fragen. Stattdessen wird hier gefragt: Nehmen wir die unsichere Basis, auf der wir organisieren und auf der wir Regeln als gegeben formulieren, auch die Erfahrung, dass wir immer tausend Gründe finden, warum die Regeln eigentlich nicht funktionieren können, wenn man sie am beabsichtigten Ergebnis misst, und dass die Regeln den Absichten der Anwender folgen – wie ist es dann möglich, dass z.B. ein Auto, das in einer solchen Umgebung produziert wird, sicher gefahren werden kann, wenn es die Fabrik verlässt, oder dass Millionen von Zahlungen jeden Tag auf dem richtigen Konto gebucht werden? Dies ist die völlige Umkehrung der Fragestellung, die auf der Annahme fußt, dass wir alles erreichen können, wenn wir nur die richtige Art der Organisation des Prozesses finden und dass es für diese Prozesse ein Ideal gibt, welches aufgezeigt werden kann. Diese Umkehr der Frage erkennt die Unmöglichkeit eines Bezuges auf etwas außerhalb des sozialen Kontextes und unabhängig von den involvierten Menschen an. Damit wird jede Art von Letztbegründung zurückgewiesen. Solche Argumentation besteht auf der Fundierung in endogen erzeugten normativen Fixpunkten (Ortmann 2003: 265). Es ist der Versuch einer theoretischen Begründung für Probleme wie z. B. Hirshman sie mit seiner „hiding hand“ (Hirschman 1976) aufgezeigt hat, als er Projekte der Vereinten Nationen untersuchte und herausfand, dass die Kriterien für den Erfolg im Nachhinein definiert wurden. Dies sollte nicht als zweifelhaftes Verhalten verurteilt werden. Die retrospektive Betrachtung von Erfolg und Misserfolg hängt auch von der wechselnden Umwelt zwischen der Entscheidung für ein Projekt und dessen Fertigstellung ab, und das Projekt kann durchaus im Verlauf an diese Änderungen angepasst worden sein. Es kann sich sogar als Reinfall

116

Peter Pelzer

herausstellen, obwohl die anfänglichen Ziele erreicht wurden, aber diese im Laufe der Realisierung bedeutungslos geworden sind. Wenn wir den oben im Zusammenhang mit der Regelbefolgung verwendeten Ausdruck Täuschung durch ‚als ob’ ersetzen, wird die Richtung, in die Ortmann weist, deutlich. Er arbeitet mit der Metapher des „bootstrapping“, um seine Sicht auf Organisationen zu erläutern. Das Wort ist nicht einfach zu übersetzen und ist am ehesten mit der Münchhausen-Bezeichnung „sich am eigenen Schopf aus dem Sumpf ziehen“ zu vergleichen. Es bezeichnet die Fiktion, dass wir beim Gehen über unsicherem Grund in der Lage sind, uns aus Gefahrensituationen durch das Ziehen an den eigenen Schnürsenkeln aus der Affäre zu ziehen. Wenn wir organisieren und Regeln formulieren, tun wir etwas Ähnliches. Wir haben eine Idee, wie ein Problem zu lösen ist. Bevor wir diese Idee tatsächlich ausprobieren, haben wir jedoch keine Sicherheit, ob das Ziel damit erreicht wird. Wir können den Erfolg nur im Nachhinein beurteilen. Anders gesagt: Wir müssen handeln, als ob wir sicher wären, dass wir richtig handeln und mit dieser Fiktion setzen wir uns in die Lage, die Chancen und Schwierigkeiten, die im Laufe unserer Handlungen entstehen, zu ergreifen und zu meistern. Wir schaffen den Boden, auf dem wir stehen, selber mit keiner weiteren Begründung über den Glauben hinaus, dass dieser Boden uns tragen wird. Die folgende Diskussion einer Präsentation von Helmut Bauer wird dies illustrieren. Basel II – die Interpretation des Regulierers Basel II verdeutlicht, dass einerseits das Bewusstsein um die Dimension und Komplexität der Risiken der internationalen Finanzmärkte vorhanden ist, andererseits ist es Ausdruck der Überzeugung, dass massive Datensammlung und Controlling allein das Problem nicht lösen. Basel II bedeutet aber auch eine massive Ausweitung der zu überwachenden Regeln. Die in den drei Säulen gewählte Konstruktion kann deshalb als der Versuch der Vertreter der Aufsichtsbehörden gesehen werden, wie man die Durchsetzung organisieren kann, ohne selbst den üblichen quantitativen Weg einer massiven Aufstockung des Personals der Behörden zu gehen. Schon die Abnahme der fortgeschrittenen Methoden und Systeme hat sich als ernster Engpassfaktor für die BaFin herausgestellt, da erheblich mehr Banken diesen Weg gehen wollen, als ursprünglich angenommen. Eine regelmäßige Überprüfung der eingesetzten Methoden und Systeme dürfte die Kapazitäten bei weitem übersteigen. Nimmt man die Größenordnung des deutschen Bankenmarktes als Beispiel, wird der Engpass deutlich. Eine Behörde mit etwa 200 Angestellten kann nicht effektiv mehr als 2000 Banken auf die Einhaltung komplexer Regeln neben ihren bisherigen, weiter laufenden Aufgaben kontrollieren. Die Auswertung des externen Meldewesens, die Erteilung und Prüfung von Banklizenzen, die Überwachung der Compliance-Regeln, die Weiterentwicklung der nationalen Umsetzung, der Abgleich aller relevanten und sich gegebenenfalls gegenseitig beeinflussenden Regulierungen auf nationaler, EU- und internationaler Ebene und die Anpassung von Ausführungsbestimmungen sind andere, wichtige Aufgaben der Behörde, die über der Umsetzung von Basel II nicht vernachlässigt werden dürfen. Das Rahmenabkommen ist quasi ein Drehbuch für die Entwicklung in eine Richtung, bei der der individuelle Weg durchaus verschieden sein kann. Die Bezeichnung „Drehbuch“ ist in diesem Zusammenhang mehr als nur eine übliche sprachliche Wendung. Es steht für die narrative Qualität des Prozesses, seine grundsätzliche Fiktionalität und damit

Basel II, oder: die Einsicht in die unzureichende Verlässlichkeit reiner Quantifizierung

117

den supplementären Charakter, das unvermeidliche Ändern im Laufe der Anwendung, was sich auch in den Äußerungen Helmut Bauers, dem Ersten Direktor der Bankenaufsicht innerhalb der BaFin, zu Basel II zeigt. Helmut Bauer beschreibt seine Sicht der Säulen 2 und 3 und seine Erwartungen an sein Publikum in einer Rede auf der Jahrestagung der internen Revision (Bauer 2004). Die Richtung seiner Argumentation lässt sich bereits aus seiner Charakterisierung der Säule 1 entnehmen: „Die Aufsicht agiert hier vor allem im Modus der Quantitäten. Sie bewegen sich auf dem – leider nur scheinbar verlässlichen Grund fester Risikogrößen“ (Bauer 2004: 7). Was folgt, ist ein direkter Angriff auf den blinden Glauben an Zahlen und ein Plädoyer für die Wichtigkeit qualitativer Faktoren. „Säule 2 steht in der Mitte. Und da gehört sie auch hin“ (Bauer 2004: 7). Aufsicht muss eine qualitative Aufsicht mit einem Fokus auf die Qualität der bankinternen Lenkungs- und Steuerungsprozesse, der internen Kontrollsysteme und das Risikomanagement sein. Parallel zu den Bemühungen um die Verfeinerung der Risikomodelle wurden qualitative Maßnahmen zur Ordnungsmäßigkeit des Bankgeschäftes, die nur am Rande in Gesetze gefasst sind, ausgearbeitet und durch Rundschreiben und Ausführungsbestimmungen durch die nationalen Aufsichtsbehörden in die Praxis umgesetzt. Diese so genannten Mindestanforderungen haben Standards gesetzt, die Banken in den Bereichen Kredite (MAK), Handel (MAH) und interne Revision (MaiR) erfüllen müssen.9 Basel II ist ein weiterer Schritt in diese Richtung. Bauer sieht klar, dass diese Qualität erheblich schwieriger zu erfassen ist und schwammiger gefasst ist als die Quantitäten der Säule 1. Säule 2 handelt von den Prozessen und Anforderungen an die Organisation und schließt das Berichtswesen und die Entscheidungsfindung bezüglich der Nutzung der Risikomanagementmethoden ein. Nur diese qualitativen weichen Faktoren entscheiden über die Wirksamkeit des Risikomanagements in Säule 1. Die intensive Diskussion über die Messungen und deren erhebliche Verfeinerungen haben einen Punkt sehr deutlich gemacht: die stark gewachsene Notwendigkeit zur Interpretation der Daten. Die anspruchsvollen internen Risikomessverfahren sind notwendig, aber auf keinen Fall hinreichend (Bauer 2004: 8). Nur die bankinternen Lenkungsund Steuerungsprozesse, die internen Kontrollsysteme und das Risikomanagement in ihrer Gesamtheit entscheiden über den Wert der quantitativen Messungen der Säule 1. Dies ist die Anerkenntnis der eingeschränkten Verlässlichkeit reiner Quantifizierung in komplexen Prozessen. Bauer spricht den Paradigmenwechsel erstaunlich deutlich an: „Die Durchsetzung komplexer Regularien in voller Tiefe und Breite muss demgegenüber zurücktreten. Das gilt nach Basel II entschiedener noch als schon bisher.“ (Bauer 2004: 11)

Ein anderer interessanter Aspekt ist Bauers Wortwahl, mit der er die Absichten der Aufsicht beschreibt. Er benutzt Metaphern vom Theater – „Erlauben Sie mir, mit einer dramaturgischen Bemerkung zu beginnen“ (Bauer 2004: 9) – und definiert Rollen in einem Mehrpersonenstück, spricht über Besetzung und Inszenierung. Seine Antwort auf die Frage, was der Inhalt von Säule 3 ist, ist metaphorisch. Er nutzt die Bezeichnungen vom Theater, um die Rolle dieser Säule deutlich zu machen. Die Aufsicht ist der Platzwart, der nach der Offenlegung der Banken schaut, aber er beurteilt die veröffentlichten Informationen nicht. Marktdisziplin soll der Aufsicht über das Medium der Reaktion der Geschäftspartner auf 9

In Deutschland werden diese drei Mindestanforderungen in die neuen Mindestanforderungen an das Risikomanagement (MAR) zusammengefasst und, wo erforderlich, an Basel II angepasst.

118

Peter Pelzer

die zur Verfügung gestellten Informationen über das Marktinstrument der Konditionen bei Geschäften zwischen Marktteilnehmern helfen. Bauer gesteht zu, dass die Komplexität der Märkte zu einem Durchsetzungsproblem für die nationalen Aufsichtsbehörden führt. Die Aufsicht kann zwar mit Regularien auf gleichem Komplexitätsniveau antworten, aber sie ist sofort mit immensen Schwierigkeiten der Durchsetzung konfrontiert, dass die entsprechenden Prüfungen aufgrund von Kapazitätsengpässen nicht hinreichend durchgeführt werden können: „Die dramaturgische Antwort, die Säule 3 auf dieses Problem gibt, ist nun die folgende: Schaffe Dir einen Mitspieler. Bei der Säule 3 geht es um einen externen Mitspieler, den Markt. Der wird durch aufsichtlich aufgegebene Offenlegung aufgerüstet, um nun seinerseits, mit den Mitteln des Marktes, zu hohe Risiken, ein nicht überzeugendes Geschäftsmodell und schlechtes Management abzustrafen.“ (Bauer 2004: 10)

Selbstverständlich ist Basel II nach wie vor in Diskussion in Hinsicht auf die Praktikabilität, die Angemessenheit für nationale Besonderheiten und Marktsegmente, die Auswirkungen des individualisierten Ratings auf klein- und mittelständische Unternehmen, die Vorschläge zur Implementierung (für das aufsichtliche Überprüfungsverfahren vgl. Jakob 2004), so dass Basel II mit einer weiteren Verfeinerung des Instrumentariums bereits jetzt unabweisbar erscheint. Bedenkt man die Intensität und die Dauer der Konsultationen von sechs Jahren sowie die Änderungen, die letztendlich in das Rahmenwerk integriert wurden, kann man gut behaupten, dass das Rahmenwerk durch die Einbeziehung der nationalen Aufsichtsbehörden, Zentralbanken, der Bankenverbände und der Banken selbst eine Arbeit an einem gemeinsamen Verständnis von der Ordnungsmäßigkeit des Bankgeschäftes darstellt, das seinen Status als „work in progress“ nicht verleugnet. Finale Definitionen werden nicht gegeben. Dies kann man bedauern. Man kann es aber auch als Einsicht in den Charakter von Regelaufstellung und Regelbefolgung interpretieren. Auf der Bühne: ein Drehbuch auf der Suche nach bereitwilligen Akteuren Bauers Kommentare haben deutlich gezeigt, dass die Autoren von Basel II klar erkannt haben, dass ein traditionelles Verständnis von Aufsicht den Anforderungen des Marktes auf beiden Seiten nicht mehr genügt, weder für die Aufsicht, noch für die Banken. Die erhöhten Anforderungen der Kapitalmärkte hinsichtlich Komplexität, Geschwindigkeit, Volumen, Entwicklung neuer Marktsegmente und des Risikos, das sich aus diesen Entwicklungen ergibt, können nicht mehr durch Individuen oder einzelne Institutionen beherrscht werden. Sie können nur noch durch Prozesse, die unvermeidbar durch mehrere Akteure ausgeführt werden, erfüllt werden. Jede Regulierung, die die Flexibilität und die schnellen Veränderungen der Märkte nicht ins Kalkül einbezieht und versucht, die Risiken durch strikte Regeln in den Griff zu bekommen, wird unweigerlich scheitern, weil diese Regeln massiv umgangen würden, entweder offen durch Bekämpfung des Inkrafttretens über Verbände und Medien, oder versteckt im Wege des Reinterpretierens während des Anwendens. Die Herausforderung reicht jedoch noch weiter. Die notwendige Komplexität der Regulierung hat einen Grad erreicht, an dem strikte Regelbefolgung nicht mehr erwartet werden kann, selbst wenn die Einsichten der Différance und des Suppléments nicht zum Hintergrund der Regulatoren gehören. Wenn wir die Situation von Basel II auf dem Hintergrund der Be-

Basel II, oder: die Einsicht in die unzureichende Verlässlichkeit reiner Quantifizierung

119

merkungen zur Regelbefolgung und dem unsicheren Boden, auf dem sie errichtet sind, sehen, bemerken wir, dass die Situation der Regulatoren sogar noch trügerischer ist. In diesem Prozess agieren mehr Instanzen als in einer einzelnen Organisation. Die potentiellen Nutzer der Regeln sind selbst Organisationen und Wettbewerber. Sie sind wegen der weltweiten Gültigkeit Teil unterschiedlicher nationaler Ökonomien und in ihrem nationalen Markt Teil unterschiedlicher Segmente (große Aktiengesellschaften, Sparkassen, Volksund Raiffeisenbanken, Investmentbanken, Hypothekenbanken, usw.). Innerhalb dieser Organisationen gibt es mehrere Stellen, die sich mit Risikomanagement beschäftigen – das Management, Geschäftsbereiche wie Kredit oder Handel, das Risikocontrolling, die Abwicklung, die IT-Abteilung, die interne Revision. Die tatsächlichen Nutzer sind wiederum Individuen, die Regeln anwenden, die durch die Interpretation der nationalen Verbände und die Strategie ihrer eigenen Bank gefiltert wurden. Darüber hinaus ist die Anwendung der Regeln auch Gegenstand mikropolitischer Spiele und des Kampfes um Einfluss zwischen den Abteilungen innerhalb der Bank wie auch Gegenstand des Wettbewerbs am Markt hinsichtlich der Kosteneffizienz der Maßnahmen und der erreichten Reduzierung der Eigenkapitalunterlegung. Innerhalb einer solchen Situation hätte der Anspruch, ein umfassendes Regelwerk in jedem Detail umzusetzen, keine Chance. Bauers dramaturgische Beschreibung beruht auf dieser Überzeugung. Weder die aktuelle Größe und Kapazität seiner Behörde noch die Komplexität der Banken, die die Regeln anzuwenden haben, lassen die Möglichkeit eines standardisierten Ansatzes zu. Wenn die grundlegende Intention bewahrt werden soll, muss eine gewisse Flexibilität in der Anwendung garantiert werden. Die bemerkenswerte Äußerung eines Aufsichtsbeamten, dessen Aufgabe es ist, Regeln durchzusetzen, kann man ruhig wiederholen: „Die Durchsetzung komplexer Regularien in voller Tiefe und Breite muss demgegenüber zurücktreten. Das gilt nach Basel II entschiedener noch als schon bisher“ (Bauer 2004: 11). Angesichts von Problemen mit ausreichender Dringlichkeit kommt die Praxis manchmal zu ähnlichen Einsichten wie die Theorie. Im Rahmen von Basel II hat die Aufsicht nicht die vergleichsweise einfache Aufgabe, darüber zu wachen, dass die Regeln eingehalten werden. Beschränkt sich die Aufsicht auf die Rolle des überwachenden Beobachters, betrachtet sie sich als außerhalb des Spielfeldes stehend, wird der entscheidende Punkt, dass die Aufsicht als Schiedsrichter in einer sehr wichtigen Rolle Teil des Spieles ist, übersehen. Sie ist konstitutioneller Teil des Spiels, indem sie die Regeln miterfindet, die das Spiel ausmachen (Ortmann 2003: 197). Natürlich kommt dabei Weicks (1985: 9) berühmtes Beispiel in den Sinn, bei dem drei Schiedsrichter ihre Sicht erläutern, was in einem Spiel als Foul zu werten ist. Es ist weder die Aussage zutreffend, dass Fouls gepfiffen werden, wie sie sind, noch dass sie so gepfiffen werden, wie sie gesehen werden, sondern dass es sie überhaupt erst gibt, wenn der Schiedsrichter sie pfeift. Weicks Beispiel etwas ausweitend kann man sagen, dass die Regulatoren des Baseler Ausschusses nur ein Aspekt des Spiels ‚Regeln’ sind. Sie und die nationale Aufsicht sind gleichzeitig die Autoren der Regeln und Schiedsrichter. Die Regulatoren haben das Spielfeld und die Regeln mit einer klaren Absicht definiert, aber in Kooperation mit den Spielern. Zusätzlich zu ihrer Rolle als Autoren definieren sie auch den Sinn der Regeln durch die Art, wie sie die Einhaltung kontrollieren. Die Spieler agieren gemäß der Regeln, wie sie sie verstehen und den Sinn interpretieren. Die Aufsicht als Schiedsrichter entscheidet dann, was ein Foul tatsächlich ist. Aber entscheidet sie tatsächlich autonom? Sie hat einen Teil der Schiedsrichteraufgabe auf die Spieler übertragen. Das Beispiel weitertreibend kann man

120

Peter Pelzer

sagen, dass die Spieler auf diesem Spielfeld ihren Mitspielern die Prämie kürzen dürfen, wenn Fouls festgestellt werden. Das Regelwerk wird im Spiel interpretiert, angewendet und weiterentwickelt. Was eine rote Karte ist, d.h. was einen Entzug der Banklizenz auslöst, entscheidet letztendlich aber noch der Schiedsrichter, d.h. die Aufsicht. Obwohl auch das eine Folge des Verhaltens der Spieler sein kann. Der Lizenzentzug der Herstatt Bank kann auch als Folge der Schieflage interpretiert werden, die sich durch das geschwundene Vertrauen der Marktteilnehmer ergab. Auch das lässt sich aus Sicht der Theorie als normal bezeichnen. Eine Regel, wurde mit Derrida oben gesagt, hat ihren Ausgangspunkt immer in der Mitte. Die Entscheidung auf ‚Foul’ hängt nicht nur von der schriftlich niedergelegten Regel ab, sondern auch vom Prozess ihrer Anwendung. Die Anwendung findet durch die Marktteilnehmer statt. Die Kunst der Aufsicht ist es, durch die Entscheidung auf Foul den Sinn des Regelwerkes aufrechtzuerhalten und mit fortzuschreiben. Erstaunlich bleibt die Tatsache, dass Bauer den Verzicht auf die Einhaltung jeden Details öffentlich äußerte. Eine traditionellere Ansicht würde dies als eine weitere Quelle der Unsicherheit interpretieren, vielleicht sogar als Einladung zur Korruption. In einer Welt, in der Regeln als feste Anweisungen für Verhalten gesehen werden, als Instruktionen, die sich außerhalb der Reichweite der Akteure befinden und klare Kriterien benannt werden können, die klar anzeigen, ob die Regel verletzt wurde oder nicht, muss ein solches Verständnis von Regelbefolgung als Alptraum empfunden werden. Regeln als abhängig von ihrer Anwendung und Gegenstand von Verletzung plus Erhaltung zu sehen, öffnet jedoch die Möglichkeit eines anderen Umgangs mit instabilen Umwelten: eine Koexistenz weiterer Entwicklung von Methoden in der regulierten Welt und ein Rahmenwerk, das nicht in der Lage ist, diese Entwicklungen rechtzeitig und adäquat abzubilden, aber Raum für zukünftige Erweiterungen lässt; eine Aufsicht, die den ganzen Prozess des Risikomanagements beurteilt statt die Einhaltung eines jeden Details, und Akteure, die sich gegenseitig beurteilen. Risikomanagement setzt Grenzen und setzt sich damit in einen starken Gegensatz zum Geschäft. Es könnte ohne die Regulierung viel mehr Geschäft gemacht werden. Der Verzicht auf Geschäft, insbesondere an Stellen, wo das eigene Gehalt mit dem Umsatz verknüpft ist, wird nicht gern gesehen. Es provoziert Gegenreaktionen: „Wir wissen heute schon, dass morgen die Controller oder die Evaluationskommissionen ihre Rituale absolvieren werden – und sorgen vor, etwa durch Planungsrituale“ (Ortmann 2004: 43). Diese Art der Reaktion klingt zynisch – und allzu vertraut. Es ist die Reaktion von Leuten, die die Regeln zu befolgen haben, aber damit, zumindest in ihrer eigenen Sicht, durch die Regeln in ihrer Aufgabenerfüllung behindert werden. Deshalb akzeptieren sie die Regel nicht, sind aber gezwungen sie einzuhalten. Die Reaktion ist dann, eine Fassade aufzubauen, die das Bestehen der Evaluierung garantiert und das ungestörte Fortbestehen der – im Sinne der Regel falschen, fehlerhaften – Prozesse hinter der Fassade. Dies kann auch als Bewegung der Différance gesehen werden. Man kommt der Realität in Form der Anforderungen zur Rechtfertigung gemäß der Regeln nach, die für die in Frage stehende Aufgabe relevant sein könnten oder auch nicht, aber mit einem Ritual, das ebenso wenig auf die Aufgabe bezogen ist. Regulierung als Stück auf der Bühne, Aufsicht als Autoren und Schiedsrichter in einem, und all das auf dem turbulenten Markt mit einer eingebauten Neigung zur Übertreibung und dazu eine übertrieben erscheinende Quantifizierung: wenn Ihnen, lieber Leser, ein wenig schwindlig wird ob dieser Perspektive, dann ist dies völlig berechtigt. Als ich dieses Kapitel schrieb, wollte ich eine Meinung über die Realisierbarkeit und die Wahrscheinlichkeit des Erfolges von Basel II entwickeln. Stattdessen wird hier die Unsicherheit des Urteils

Basel II, oder: die Einsicht in die unzureichende Verlässlichkeit reiner Quantifizierung

121

selber gespiegelt, was schließlich ein Kommentar in sich ist. Bevor wir sie nicht anwenden, können wir uns nicht über die Wirksamkeit von Regeln im Klaren sein. Es fehlt uns die Sicht vom Ende des Prozesses her, die nötig wäre, um die Resultate der Zukunft und alle ihre Interpretationen zu kennen, die Arbeit der Différance und des Suppléments, der geänderten Umwelt der Regeln und der Reinterpretation durch die lokalen Spezifikationen usw. Der wichtige Punkt hier ist die Feststellung, dass Basel II diese Unsicherheit mit in seine Konstruktion einbezieht. Schwindel als Resultat des Versuchs, mit der Realität auf den Finanzmärkten fertig zu werden ist ein überraschender Nebeneffekt, aber vielleicht eine notwendige Begleiterscheinung bei der Entwicklung zu einer höheren Stufe von Komplexität. Literatur Bauer, H. (2004): Die interne Revision als Gesprächspartner der Bankenaufsicht. Referat zur 1. Plenarsitzung des IIR (Deutsches Institut für interne Revision e.V.)-Forums Kreditinstitute. Würzburg: http://iir-ev.de/deutsch/veranstaltungen/Grossveranstaltungen/PL1_Bauer.pdf; zuletzt angesehen am 07.03.2005. BIS (2004): Baseler Ausschuss für Bankenaufsicht: Internationale Konvergenz der Kapitalmessung und Eigenkapitalanforderungen. Basel: Bank for International Settlements, in der Übersetzung der Deutschen Bundesbank. Cooper, R. (1990): Organization/Disorganisation. In: Hassard, J./Pym, D.: The Theory and Philosophy of Organizations. London: Routledge, S. 167-197. Derrida, J. (1983): Grammatologie, Frankfurt/M.: Suhrkamp. Derrida, J. (1990): Die Différance. In: Engelmann, P. (Hg.): Postmoderne und Dekonstruktion. Stuttgart: Reclam, S. 76-113. Hirschman, A.O. (1967): Development Projects Observed. Washington: The Brookings Institution. Jakob, K. (2004): Die Umsetzung der zweiten Säule von Basel II: Wie könnte der Supervisory Review Process in Deutschland aussehen? In: Suyter, A. (Hg.): Risikomanagement: Aktuelle Entwicklungen und Auswirkungen auf Banken und Unternehmen. Frankfurt/M.: Fritz Knapp Verlag, S. 81-95. Ortmann, G. (2003): Regel und Ausnahme: Paradoxien sozialer Ordnung. Frankfurt/M.: Suhrkamp Ortmann, G. (2004): Als ob: Fiktionen und Organisationen. Wiesbaden: VS Verlag für Sozialwissenschaften. Weick, K.E. (1985): Der Prozess des Organisierens. Frankfurt/M.: Suhrkamp.

Die Erfindung operativer Risiken

123

Die Erfindung operativer Risiken1

Michael Power Das operative Risiko ist kein neues Risiko. (...) Neu ist die Idee, dass das Management operativer Risiken eine Disziplin mit eigenen Strukturen, Instrumenten und Prozessen darstellt. (British Bankers’ Association Website, 26. August, 2002) Es können durch wechselnde Risikodefinitionen ganz neuartige Bedürfnisse – und damit Märkte – geschaffen werden. Vor allem anderen das Bedürfnis der Risikovermeidung – interpretationsoffen, kausal konstruierbar, unendlich vermehrbar. (Beck 1986: 74)

Die Produktion und Aushandlung von Konzepten, die Entwicklung von Klassifikationsrastern und die Herstellung von Blaupausen für „best practice“ sind wesentliche Ausgangspunkte von Praktiken der Steuerung, Regulierung und Intervention. Gleichzeitig konstituieren sie Themen gesellschaftlicher Diskurse, an denen eine Vielzahl von Akteuren mit unterschiedlichen, teilweise aber auch überlappenden und nicht notwendig trennscharfen Interessen teilnehmen (Leyshon/Thrift 1997: Kapitel 8). Abstrakte Kontrollmöglichkeiten und Steuerungsansprüche materialisieren sich in unzähligen Diskussionspapieren, „codes of practice“, in Handbüchern und Rechtsnormen, deren Programmatik für konkurrierende Interpretationen offen bleibt. Konzepte der Steuerung und Regulierung sind Teil diskursiver Prozesse und werden von interessierten Teilnehmern mobilisiert, um eine politische Ökonomie von zunehmender Wissensbasiertheit (Thrift 1994) fortlaufend zu restrukturieren. Diese politische Ökonomie vertraut mehr und mehr auf die Expertenschaften privater Akteure und ihrer Koalitionen (Tsingou 2003), die jenseits des Staates operieren (Rose/Miller 1992). An Steuerungsinnovationen wird dieser diskursive Charakter der gegenwärtigen politischen Ökonomie besonders augenfällig. Der folgende Beitrag beschreibt die Basel II-Reformen der Bankenregulierung mit ihren spezifischen Anforderungen an das Management operativer Risiken als ein in dieser Hinsicht einschlägiges Beispiel. Die Entwicklung (Implementierung, Evaluation, Anpassung) operativen Risikomanagements in Banken ist weit von einem Abschluss entfernt. Eine entscheidende Hürde hat sie allerdings mit der Institutionalisierung operativer Risiken als zentraler Kategorie regulato1

Eine frühere Fassung des vorliegenden Beitrages erschien in der Zeitschrift Review of International Political Economy 12 (2005), S. 577-599. Die zugrunde liegenden Ideen wurden ursprünglich in der zweiten von drei P.D. Leake Trust Vorlesungen an der Säid Business School, University of Oxford (März 2002) präsentiert, eine erste Arbeitsfassung als Discussion Paper 16, ESRC Centre for Analysis of Risk and Regulation, London School of Economics and Political Science, publiziert. Für Kommentare zu diesen früheren Fassungen ist der Autor insbesondere Clive Briault, Julia Black, David Cooper, Yves Gendron, Wai Fong Chua, John Thirlwell und zwei anonymen Gutachtern dankbar; ebenso der Recherchetätigkeit von Lea Clavecilla sowie der finanziellen Unterstützung durch das Economic and Social Research Council (UK) und die Trustees of the Institute of Chartered Accountants in England and Wales.

124

Michael Power

rischer Aufmerksamkeit bereits genommen. Das mag auch damit zusammenhängen, dass es für Parteien unterschiedlicher Interessenlagen vergleichsweise einfach ist, Einverständnis über Generalziele zu erreichen, die von den Widrigkeiten tatsächlicher Interventions- und Steuerungsprozesse und den Schwierigkeiten ihrer Aushandlung zunächst einmal abstrahieren. Neugeschaffene Kategorien wie diejenige der operativen Risiken können dann eine zentrale Rolle für das Entwerfen allgemeiner Steuerungsvisionen übernehmen, bieten sie doch eine Vielzahl von Anknüpfungspunkten für die Neuordnung von Praktiken und Konzepten durch Interessengruppen, Organisationen und ihre Mitglieder. Von der Erfindung operativer Risiken zu sprechen heißt mehr als nur eine hübsche Metapher zu benutzen. Natürlich sind sich viele Unternehmen – und Banken sicher in besonderem Ausmaß – seit vielen Jahren der Gefahren und Unsicherheiten durchaus bewusst gewesen, die aus fehlerhaften Informationsarchitekturen und -technologien, aus Betrugsfällen, Marktstörungen und Haftungsproblemen resultieren. Doch erst die Rekonstruktion derartiger Unsicherheiten im Rahmen des Diskurses operativer Risiken bringt eine einschneidende Änderung des Stellenwertes dieser Unsicherheiten für Steuerungsanstrengungen von Managern, Bankenorganisationen und Regulierungsagenturen hervor. Darüber hinaus stellt das Programm von Basel II Verbindungen zwischen dem Management operativer Risiken und „good corporate governance“ in einer Art und Weise her, die es gestattet, ‚alte’ Risiken in einem neuen Raum politisch-gesellschaftlicher Erwartungen zu positionieren. Mit zunehmender Verbreitung der Kategorie operativer Risiken überschneidet sich der Diskurs guter Unternehmensführung mehr und mehr mit dem der Risikoregulierung. Ein Indiz für den hohen diskursiven Stellenwert der Kategorie operativer Risiken ist ihre explosionsartige Ausbreitung. Obwohl der Terminus „Operationsrisiken“ schon 1991 als eigenständiges Konzept Erwähnung findet (COSO 1991), blieb die Kategorie operativer Risiken bis zur zweiten Hälfte der neunziger Jahre und dem Beginn der „Basel II“-Initiative insgesamt randständig. Vielleicht mag man Nicholas Leeson, auf dessen Vertuschung verlustreicher Transaktionen der Ruin der Barings Bank im Jahre 1995 zurückgeführt wird, für den unfreiwilligen Erfinder operativer Risiken halten. Schließlich behandelt der Diskurs operativer Risiken den Fall der Barings Bank in vielen Beiträgen als entscheidende Zäsur. Auf der Ebene der Wirtschaftsmythologie hat Leeson für das operative Risiko sicherlich eine Leistung erbracht, die der von Robert Maxwell für den Topos der „corporate governance“ nicht nachzustehen braucht – für die moderne Ikonographie des Steuerungsversagens sind Leeson und Maxwell von gleichem Rang. Allerdings ist festzustellen, dass der Ruin der Barings Bank (ähnlich wie andere Skandale Mitte der neunziger Jahre, z.B. der Fall der japanischen Daiwa Bank) erst retrospektiv als Missmanagement operativer Risiken erschien. Zwar erkannte das Baseler Gremium die Bedeutung von Operationsrisiken, verstanden im Sinne von Defiziten in Informationssystemen und internen Kontrollen, die sich in unerwarteten Verlusten niederschlagen, schon im Jahre 1994 und begann noch vor dem Barings-Desaster, die Reichweite seiner eigenen Richtlinien aus dem Jahre 1988 zu hinterfragen (Basel Committee on Banking Supervision 1994).2 Doch Fälle wie Barings und Daiwa brachten nicht einfach aus sich heraus die Kategorie operativer Risiken hervor, sondern wurden retrospektiv im Rahmen einer grundsätzlichen Fortentwicklung dieser Kategorie zum Zeitpunkt von Basel II reinterpretiert.

2

Die Vorschläge des Baseler Gremiums waren außerordentlich stark von der Group of Thirty (1993) inspiriert; vgl. Tsingou (2003) zu deren weitreichendem regulatorischen Einfluss.

Die Erfindung operativer Risiken

125

Während operative Risiken als Praktikerkategorie in den frühen Neunzigern kaum zu existieren schienen, gab es unter Praktikern in Banken und Regulierungsagenturen gegen Ende der Neunziger kaum noch ein anderes Thema.3 Bücher wurden veröffentlicht, Konferenzen organisiert, neue Stellenprofile, wie die des „operational risk managers“, fanden Verbreitung, selbst von einer entstehenden Profession war nun die Rede. Operative Risiken hatten ihr Dasein in der Bankenindustrie als Residualkategorie begonnen, waren dort Überbleibsel der Bearbeitung von Markt- und Kreditrisiken, eine Angstkategorie von unklarer Bedeutung. So sollte es sich dann auch als außerordentlich problematisch herausstellen, ihren Gehalt exakt zu definieren, wobei genau diese Bestimmungsprobleme die Bedeutung der Kategorie eher noch steigerten als verminderten. Operative Risiken bilden bis heute keine einfache oder offensichtliche Kategorie, sie liefern eine Bezeichnung für ein weites Spektrum an Praktiken, eine Kontrollvision für ein schwer fassbares Interventionsfeld, eine Art managerialen Imperativ zur Bewältigung einer Gruppe neu entdeckter Probleme. Operative Risiken haben Problemen und Interessen in erster Linie eine neue begriffliche Klammer gegeben und dadurch einen neuen, erst noch auszutretenden Pfad für Interventionen innerhalb der internen Strukturen von Bankenorganisationen freigelegt. Die neu entstehende Regulierungsagenda hat zwangsläufig an bestehende technische Interessen verschiedener Berufsgruppen angeschlossen. Beispielsweise widmete sich das vierte „Annual Global Financial Industry Forum” im Juni 2001 dem Thema „Managing operational risk and latest developments in achieving operations, settlements and payments efficiencies”. Im Rahmen derartiger Zusammenkünfte war das Konzept operativer Risiken von etablierten Gemeinschaften (in diesem Fall: von Kreditrisiko-Managern) mit sehr spezifischen Interessenlagen (hier beispielsweise: an der Integrität von Abrechnungssystemen) kontextualisiert worden.4 Anstatt also einfach ein neu entdecktes Feld für Expertise abzustecken, wird die Nachfrage nach Bearbeitung und Kontrolle operativer Risiken von existierenden „communities of practice“ mitgeprägt, die sich beeilen, ihre Belange in die Sprache operativer Risiken zu übersetzen.5 Die „Basel II“-Reformen haben einen Raum für Zuständigkeitswettbewerbe geschaffen, in denen verschiedene Akteure und Berufsgruppen das, was sie tun, im Namen operativen Risikomanagements ins Rennen schicken. In dieser Hinsicht ist die Frage „Was sind operative Risiken?“ nicht von der Frage zu trennen, wer sich selbst im Namen operativer Risiken neu zu erfinden versucht – und diese Frage konstituiert das diskursive Gravitationszentrum einer politischen Ökonomie der Regulierung. Die nachfolgende Diskussion versucht weder, einer vom Autor präferierten Definition operativer Risiken Geltung zu verschaffen, noch möchte sie überhaupt auf einer technischnormativen Ebene in die Debatte operativer Risiken einsteigen. Ihr Ziel ist vielmehr eine Analyse der vielfältigen Versuche, die Bedeutung operativer Risiken zu fixieren, dabei spezifische Formen der Informationsbeschaffung und -verarbeitung zu verankern und schließlich: Formen ökonomischer Kalkulation im Namen operativer Risiken zu etablieren. Alle drei Bereiche offenbaren Spannungen in der Logik operativer Risiken, etwa zwischen breiten und engen Definitionen, zwischen normalen und anormalen Datensätzen oder zwi3 4

5

Im Jahr 2000 beginnt die „Risk Waters“-Gruppe, einen Newsletter mit diesem Titel herauszugeben. Derartige Konferenzen fungieren auch als bedeutsame Plattformen für Beratungsfirmen, um ihre Dienstleistungsangebote zu vermarkten. So bemühen sich beispielsweise „Ernst & Young“, Sponsoren der genannten Konferenz, besonders aktiv um ihre Positionierung im Beratungsmarkt für die Steuerung operativer Risiken (vgl. Ernst & Young 2001). Ein vergleichbares Beispiel ist das Auftreten rechtlicher Risiken als Unterkategorie operativer Risiken - ein Anlass für Redefinitionen juristischer Beratungsarbeit in Organisationen.

126

Michael Power

schen harten und weichen Philosophien der Quantifizierung. Der vorliegende Beitrag bemüht sich um ein Verständnis dieser Spannungen im Rahmen einer „Logik der Praxis“ (Bourdieu 1987). Der nächste Abschnitt bietet einen deskriptiven Überblick der „Basel II“-Initiative, soweit sie operative Risiken und ihre Bedeutung für die Bankenregulierung betrifft. Ihm folgen drei Abschnitte, die sich nacheinander mit den Problemen der Definition operativer Risiken, der Erhebung und Verwendung entsprechender Daten und mit der Anwendung von Quantifizierungsverfahren auseinandersetzen. Schließlich werden die diagnostizierten Spannungen im Kontext von Wettbewerbsverhältnissen zwischen Expertenschaften und konkurrierenden Kalkulationsphilosophien diskutiert, gefolgt von einem kurzen Fazit. Bankenregulierung und operative Risiken Über Jahre und Jahrzehnte hinweg entwickelte sich die Bankenregulierung im Schatten von Krisensituationen fort (z.B. Moran 1986, 1989). Im Jahre 1974 formierte sich schließlich aus Mitgliedern zentraler Notenbanken das „Basel Committee on Banking Supervision“ unter dem Banner des Vorhabens, Programme der Bankenregulierung auf einer globalen Ebene zu koordinieren. Dieses Gremium, das in der „Bank for International Settlements“ tagen sollte, ist bis heute mit keinerlei formal verankerter staatlicher Autorität ausgestattet worden, verfügt aber über beträchtliche indirekte Macht, die sich immer wieder in der Übernahme seiner Initiativen durch nationalstaatliche Aufsichtsbehörden gezeigt hat. Im Jahre 1988 entwarf das Gremium ein System zur Bestimmung und Regulierung der Eigenkapitalbasis von Bankenorganisationen. Der damit angesprochene Kapitalregulierungsprozess ist Bestandteil einer Tiefenlogik der Bankenregulierung, die von jeder Bank verlangt, einen angemessenen Kapitalpuffer vorzuhalten, um unerwartet eintretende Verluste adäquat kompensieren zu können. Der Kapitalpuffer soll einerseits die Konkursrisiken einzelner Banken mindern, andererseits ‚systemischen’ Risiken vorbeugen, insbesondere der Möglichkeit, dass der Konkurs einer einzelnen Bank aufgrund der hohen Vernetzung zwischen Transaktionen und Institutionen weitere Notlagen im Bankensystem nach sich zieht. Die Regulierung der Eigenkapitalbasis hat in diesem Sinne Prinzipien formalisieren wollen, die einer vorsichtigen und vorausschauenden Bankenführung von jeher inhärent sind. Ein solcher Versuch ‚regulativer Induktion’, wie er sich in der Anlage der Baseler Übereinkunft von 1988 (Basel I) zeigt, ist nichts Ungewöhnliches, wenn es darum geht, Steuerungsmechanismen auf den Weg zu bringen, die Legitimität und Konsens bedürfen. Die Formulierung von „best practice“-Konzepten wird so an existierende Ordnungsprinzipien angelehnt, um ihre Verbreitungschancen zu erhöhen. Nun ist die Bestimmung einer angemessenen Eigenkapitaldecke von jeher weit davon entfernt gewesen, ein bloßes Problem technischer Messung darzustellen. Der Entwurf des Baseler Gremiums spiegelte diese Tatsache wider. So hat das Minimalverhältnis von Eigenkapital zu Anlagen (capital adequacy), das ursprünglich auf 8% festgelegt worden war, deutlich die Interessen angloamerikanischer Regulierungsinstanzen reflektiert und im Ergebnis die deutschen (die typisch mit einer höheren Deckung operiert haben) und die japanischen Banken (von denen damit verlangt wurde, ihre Anlagen zu reduzieren) benachteiligt.6 Auf nationaler Ebene sollte die letztendlich notwendige Eigenkapitalbasis einer Bank 6

Vgl. Leyshon (1994: 137) sowie ausführlicher Underhill (1991).

Die Erfindung operativer Risiken

127

von einer zentralen Aufsichtsinstanz festgelegt werden, im Regelfall (jedoch nicht in allen Fällen) von der Zentralbank des Landes, die diesen Wert auf der Grundlage veröffentlichter Bilanzposten unter Gewichtung wahrgenommener Risikokonstellationen zu berechnen hatte. Bald schon begannen die Banken, sich über die Kalkulationsgrundlagen für die Rücklagen zu beklagen, und argumentierten, diese seien willkürlich gesetzt and würden nicht ausreichend zwischen den unterschiedlichen Risikokonstellationen differenzieren, denen sich verschiedene Banken (oder einzelne Banken in verschiedenen Geschäftsfeldern) ausgesetzt sähen. Tatsächlich orientierte sich Basel I kaum an spezifischen Risikokonstellationen (Vieten 1996). Auf Grundlage ihrer eigenen Risikobewältigungsmechanismen fühlten sich viele Banken in einen Wettbewerbsnachteil versetzt, insoweit ihnen eine höhere Kapitalrücklage abverlangt wurde, als sie selbst für erforderlich hielten. Unter dem Eindruck derartiger Einwände begann das Baseler Gremium, sein Steuerungskonzept zu überdenken und orientierte sich dabei erstmals an Berechungsgrundlagen, die von den Risikomodellen und Informationssystemen der betroffenen Banken selbst bereitgestellt wurden. Diese zunehmende Offenheit für branchenspezifisches Steuerungswissen, insbesondere für global expandierende finanzwissenschaftliche Expertenschaften, korrespondierte mit einem signifikanten Wandel des dargestellten Stils politischer Steuerung von „command-and-control“ zu einer Art von kontrollierter Selbstregulierung (Ayres/Braithwaite 1992), bei der Banken ihre Kapitalbasis nach eigenen, für Aufsichtsinstanzen offen zu legenden Prämissen regulieren sollten. Auf Risikokonstellationen, deren Bearbeitung eher einzelne Banken als zentrale Regulierungsinstanzen wahrzunehmen in der Lage sind, ist demnach durch eine Stärkung des Eigeninteresses der Banken an der Aufrechterhaltung angemessener Kapitalreserven einzuwirken. Dies ist dann zur allgemeinen Steuerungsphilosophie von Basel II geworden, von Richtlinien, die unter der Annahme formuliert wurden, der Risikoappetit von Banken könne mehr oder weniger effektiv mit dem der Bankenaufsicht auf ein gemeinsames Geschmacksniveau gehoben werden, so dass die entsprechenden Aufsichtsfunktionen (wohlgemerkt unter der Bedingung ihrer Transparenz und Testbarkeit) letztendlich den Banken selbst überlassen werden könnten. Der entscheidende Umbruch begann 1996, als die Richtlinien des Baseler Gremiums angepasst wurden, um die Nutzung hausinterner Modelle bei der Berechnung von Kapitalrücklagen in der Vorsorge gegen Marktrisiken zu gestatten. Bankeneigene Modelle der Risikoberechnung waren im Bereich von Marktrisiken (derjenigen Geschäftsrisiken, die aus Marktbewegungen resultieren) vielleicht am weitesten fortentwickelt. Für Marktrisiken erschien regulatorische Willkür weitgehend durch eine systematische Anwendung von Berechnungsmodellen substituierbar. Damit war zudem eine Verlagerung der politischen Ökonomie der Bankenregulierung markiert, bei der mächtige brancheninterne Akteure fortan als Insider der Wissensproduktion auftreten konnten und nicht länger als Outsider, die nur über Lobbyarbeit Einfluss auszuüben vermochten. Im Gegenzug sicherten staatliche Regulierungsinstanzen die Beschaffung von Konsens auf der allgemeinen Ebene der Steuerungsprinzipien, -begriffe und -konzepte zu. Im Ergebnis konnte sich dadurch die Bestimmung des faktischen Steuerungsprozesses von der Ebene der Programmformulierung auf die der Programmimplementation verschieben. Ein zweites Element der Baseler Steuerungsphilosophie ist von Ansprüchen an die Eigenkapitalbasis von Banken (der Säule 1) zu trennen und bezieht sich allgemeiner auf die Arbeitsweise des bankeninternen Risikomanagements sowie die Effektivität der jeweiligen Kontrollsysteme (Säule 2) (vgl. dazu auch den Aufsatz von Pelzer in diesem Band). Anfor-

128

Michael Power

derungen an interne Kontrollmechanismen waren seit den achtziger Jahren ein Teil der Bankengesetzgebung gewesen (z. B. im UK Banking Act von 1987), doch mit der Zeit, als die Risikoregulierung für die Banken selbst an Bedeutung gewann, legten die Instanzen der Bankenaufsicht ihr Augenmerk zunehmend auf die Effektivität bankeneigener Kontrollsysteme (Basel Committee on Banking Supervision 1994, 1998a). Es gab bereits eine gewisse Tradition, Kapitalrückstellungen oberhalb des erforderlichen Minimums anzusetzen, um Beurteilungen des Kontrollumfelds einer Bank zu reflektieren. Mit Basel II wurde von Banken nun ein Standardniveau interner Kontrolle als Vorbedingung der Nutzung komplexerer Berechnungsverfahren für die Eigenkapitalunterlegung verlangt. Insgesamt wandelte sich die Rolle der Bankenaufsicht zu der eines Risikomanagers, der die von Banken genutzten Modelle (Säule 1) und Systeme (Säule 2) beobachtet und bewertet. Seit 1998 geht mit diesen Verschiebungen eine fortschreitende Institutionalisierung der Kategorie operativer Risiken einher.7 Basel II hat die elementare Idee eines Kapitalpuffers für Risiken ausgeweitet, sowohl für solche, die sich messen (Kredit- und Marktrisiken), als auch für solche, die sich zunächst nicht messen lassen (vgl. Basel Committee on Banking Supervision 2003). Nicht messbare Risiken waren im Laufe der Neunziger zu einem immer auffälligeren Steuerungsthema geworden, obwohl Basel I sie bereits implizit abgedeckt hatte und die Kategorie operativer Risiken eigentlich erfunden wurde, um genau diese Risiken einzuhegen. Basel II setzte sich am Ende aus drei überlappenden Komponenten zusammen: Die erste Säule hat minimale Kapitalstandards setzen und sowohl qualitative als auch quantitative Anforderungen an Risikomanagement verkörpern wollen. Die Debatte über die Messung und Bewertung operativer Risiken fiel in diesem Bereich am schärfsten aus. Die zweite Säule sprach die Angemessenheit bankeninterner Kontrollsysteme an und die dritte Säule forderte die Offenlegung von Prozessen des Risikomanagements durch die Banken, indem sie Veröffentlichungspflichten festsetzte (ausführlicher dazu der Beitrag von Pelzer im vorliegenden Band). Was die erste Säule betrifft, die von der Messung operativer Risiken konstituiert wird, nahm der Regulierungsansatz eine gleichsam evolutionäre Form an. Banken sollten ermutigt werden, ihre Strategien des Risikomanagements von elementaren zu standardisierten und dann immer ausgefeilteren Berechnungsverfahren fortzuentwickeln. Der Prozess der Entwicklung von Regeln zur Messung operativer Risiken blieb dabei Gegenstand branchenweiter Diffusionsprozesse. „Road Shows“ mit Präsentationen von „best practice“ durch Mitarbeiter des Baseler Gremiums waren hierfür von tragender Bedeutung (z.B. Basel Committee on Banking Supervision 2001b). Tritt man einen Schritt vom Detailreichtum der Baseler Richtlinien zurück, erscheinen ihre Ambitionen als ein so noch nicht da gewesener Versuch, die Innenwelten der Bankenführung zu durchdringen. Einer frühen Erhebung zufolge (Basel Committee on Banking Supervision 1998b) hatte bereits die Hälfte der befragten Banken die Position eines „Operational Risk Managers“ geschaffen. Dies reflektiert die wachsende Entschlossenheit seitens der Banken, die angemessene Kontrolle operativer Risiken als intrinsischen Teil ihrer Führungsaufgaben zu begreifen und nicht alleine als Angelegenheit ihrer Anpassung an externe Steuerungsinitiativen (vgl. BBA et al. 1999). 7

Indizien hierfür finden sich in einem nicht-repräsentativen Sample von Geschäftsberichten zehn großer Banken in Australien, Frankreich, Deutschland, Großbritannien und den USA. Diese Geschäftsberichte zeigen erste Erwähnungen operativer Risiken als narrativer Berichtskategorie von 1998 an, wobei nur zwei dieser Berichte die Kategorie vor diesem Zeitpunkt nutzen (Helbok/Wagner 2003).

Die Erfindung operativer Risiken

129

An der ambitionierten Natur von Basel II kann, was operative Risiken betrifft, kein Zweifel bestehen. Operative Risiken bilden eine Kategorie, die das Konzept des Kapitalpuffers – eine von jeher konstitutive Idee der Bankenregulierung – bis an die Grenzen seiner Belastbarkeit zu dehnen scheint.8 Im nächsten Abschnitt wird der erste von drei kritischen Punkten der Kategorie operativer Risiken in Augenschein genommen: das Problem ihrer Definition. Der Einsatz von Definitionsstrategien Definitionen und die auf sie bezogenen Klassifikationsverfahren sind nicht alleine als gemeinsame Orientierungen für Praktiker von Bedeutung. Darüber hinaus stecken sie Zuständigkeitsbereiche für Expertenschaften ab (Abbott 1988), und mitunter helfen sie gänzlich neue Formen ökonomischen Lebens zu konstituieren (Tribe 1978). So haben Führungsangestellte mit vergleichsweise niedrigem Status (z. B. Innenrevisoren) seit Beginn der neunziger Jahre begonnen, sich im Namen operativer Risiken in ihren Organisationen Gehör zu verschaffen. Das Projekt der Definition operativer Risiken ist also mehr als eine Frage der Etikettierung – es verlangt nach unter Konkurrenzbedingungen zu leistender Konstruktionsarbeit an Konzepten, die verschiedene Interessen und Ambitionen ansprechen und für sich einnehmen können. In ihren frühen Erscheinungsformen traten operative Risiken vornehmlich als Residualkategorien für ‚weitere Risiken’ auf, die nicht von Markt- und Kreditrisiken erfasst werden konnten. Die Randposition des Konzepts täuschte zunächst über seine potentiell tragende Bedeutung in der Architektur risikorelevanten Steuerungs- und Führungswissens hinweg. Mit der retrospektiven Interpretation von Schadensfällen als Versagen operativen Risikomanagements wurde diese dann allerdings allmählich erkennbar. Schadensereignisse wie Barings und Daiwa und ihre Reinterpretation stellten den minderen epistemischen Status der Kategorie operativer Risiken wie auch ihre Positionierung in den Steuerungshierarchien der Bankenwelt in Frage. Ab Mitte der neunziger Jahre haben verschiedene Projekte der Definition und Bestimmung operativer Risiken Praktiken und Wissen in Bankenorganisationen neue Konturen gegeben. Die Tatsache, dass die Klasse operativer Risiken so außerordentlich mühevoll zu definieren ist (Goodhart 2001), half ihr dabei, Beachtung zu gewinnen und ließ operative Risiken als „boundary objects“ (Bowker/Star 2000) fungieren: „Boundary objects are those objects that both inhabit several communities of practice and satisfy the informational requirements of each of them. Boundary objects are thus both plastic enough to adapt to local needs and constraints of the several parties employing them, yet robust enough to maintain common identity across sites. They are weakly structured in common use and become strongly structured in individual site use.” (Bowker/Star 2000: 297). Die Flexibilität und Formbarkeit der Kategorie operativer Risiken ist in verschiedenen Definitionsdebatten besonders deutlich geworden (vgl. Hoffman 2002: Kapitel 3). Unter Bezugnahme auf eine frühere Definition (Basel Committee on Banking Supervision 1994)9 hat Basel II operative Risiken schließlich als „the risk of direct or indirect loss resulting 8 9

So mag man beispielsweise über den immanenten Konservatismus von Regeln streiten, die positive Effekte der Risikostreuung nicht in Rechnung stellen. Diese Definition findet auch bei BBA et al. (1999) Verwendung.

130

Michael Power

from inadequate or failed internal processes, people and systems or from external events” definiert (Basel Committee on Banking Supervision 2001a: §6). Diese Definition, die am Ende eines langen Diskussionsprozesses stand, erscheint etwas breiter angelegt als die Definition von 1994 und wurde nachfolgend weiter spezifiziert, um strategische und Reputationsrisiken auszuschließen. Mit der offiziellen Definition wollte man sich auf verlustbringende Ereignisse konzentrieren und sich durch eine prinzipiell negative Wertung der Risikoübernahme von solchen Definitionen abgrenzen, die man etwa in den Finanzwissenschaften findet (z.B. Gigerenzer 2002: 26). Auf der Ebene der Spezifizierung eines abstrakten boundary objects für die offizielle Darstellung erlangten die Definitionsoptionen strategische Bedeutung. Bei einer allgemeineren Definition hätte das operative Risikomanagement jenseits etablierter Zuständigkeitsbereiche abteilungsspezifischer Risikomanager stattzufinden, würde umfangreiche Organisationsänderungen erfordern und potentiell einer größeren Anzahl von Führungspersonen auf die Zehen treten (Jameson 2001a). Teilbereiche operativer Risiken sprechen zudem die Verantwortungsbereiche unterschiedlicher Führungsebenen an. System-, Zahlungs- und Buchungsfehler mag man technischen Angestellten anlasten, die für die entsprechenden Systeme zuständig sind. Unautorisierte Verschleierungen, wie sie die Fälle von Daiwa und Barings charakterisieren, reflektieren demgegenüber vor allem ein Versagen des oberen Managements bei Aufsichtsaufgaben (Group of Thirty 1993; Basel Committee on Banking Supervision 1994). Tatsächlich lässt sich Basel II im Ergebnis als Projekt einer Repositionierung der Verantwortlichkeit des oberen Managements in der Verwaltung und Leitung verschiedener Ebenen einer Architektur des Risikomanagements begreifen. Folgt man Mary Douglas (1992), dann könnte man annehmen, dass die Klassifikation von Gefahren anhand der Terminologie operativer Risiken als Teil eines forensischen Prozesses in Organisationen fungiert, der die Zuweisung von Verantwortung (und gegebenenfalls von Schuld) unter ihren Mitgliedern regelt. Unterschiedliche Definitionen operativer Risiken verkörpern in diesem Sinne, ob offen oder implizit, Annahmen über Verantwortlichkeiten. Eine breite Definition operativer Risiken schiebt diese in die Verantwortungsbereiche des oberen und strategischen Managements, bis hoch zur Geschäftsführung. Derlei Zuständigkeitsfragen bestimmen Teilnehmerstrategien in Diskursen des Risikomanagements, insbesondere des „neuen Risikomanagements“ (Power 2000), das sich auf Basel II bezieht. Operative Risiken bieten als diffus definierte boundary objects Organisationsmitgliedern, wie Rechts- oder Finanzspezialisten, Gelegenheiten zur Reformulierung ihrer Aufgaben und Leistungen in der Terminologie des Risikomanagements. Controller werden dazu tendieren, das Problem interner Kontrolle für den angemessenen Orientierungspunkt zu halten, um über das Management operativer Risiken als integrativer Führungsaufgabe nachzudenken (Wilson 2001). Von diesem Standpunkt aus können operative Risiken nicht als ein anderen Risiken nebengeordneter Verantwortungsbereich erscheinen – ihnen steht ein Informationswert höherer Ordnung zu. Diese Auffassung steht im Gegensatz zur Perspektive von Marktrisikospezialisten mit finanzwissenschaftlichem Hintergrund, für die operative Risiken einen weichen und schmutzigen Gegenstandsbereich darstellen, der erst noch für robustere quantitative Modellierungsmethoden erschlossen werden muss. So wird die Definition operativer Risiken zum Bestandteil mikropolitischer Verteilungsprozesse zwischen Berufsgruppen.

Die Erfindung operativer Risiken

131

Festzuhalten ist an dieser Stelle, dass Definitionen von Schlüsselkonzepten zentrale Stützen einer Logik der Steuerungspraxis darstellen – ohne ein System von Konzepten und Taxonomien bleiben Steuerungsversuche blind, desorganisiert und von fragwürdiger Legitimität. Definitionen sind Werkzeuge strategischer Aufmerksamkeitssteuerung, die die Objekte von Interventions- und Steuerungsinteressen identifizieren. Sie sind boundary objects, deren Umrisse zunächst vage und mehrdeutig bleiben und erst in faktischen Steuerungsprozessen, die in ihrem Namen vorangetrieben werden, an Kontur und Determinationskraft gewinnen. Konzeptionelle Definitionen lassen Steuerungsprozesse Fahrt aufnehmen, und Basel II war weitgehend erfolgreich darin, diese Art der Anschubhilfe zu leisten. Prozesse der Definition operativer Risiken stellen also substanzielle steuerungstechnische Innovationen dar und erschließen das Gelände für eine entstehende Managementdisziplin, die mehr ist als die Summe ihrer vormals etablierten Komponenten. An der Definitionsarbeit beteiligen sich Akteure, die daran interessiert sind, Risikomanagement nach Maßgabe ihrer eigenen Konzepte, Methoden und Interpretationen zu rekonstruieren. Die vor diesem Hintergrund entflammenden organisationsinternen Wettbewerbe über Deutungen und Implementationsmöglichkeiten finden sich auf der Ebene der Beschaffung risikospezifischer Daten wieder. Risikoidentifizierung und Widersprüche der Datenbeschaffung Wie oben deutlich wurde, ist die Kategorie operativer Risiken nicht alleine als Sammelpunkt für existierende Praktiken des Risikomanagements von Bedeutung, sondern generiert ebenso Aufmerksamkeit für Unsicherheiten, die bisher entweder von Banken ignoriert oder von ihren Managementsystemen unzureichend explizit gemacht wurden. Die Erfindung operativer Risiken ist somit Element eines allgemeineren Bewusstseinswandels in Organisationen hinsichtlich der Tragweite und Bedeutung von Verfahren der Risikoidentifizierung. Kritisch für die Etablierung der entsprechenden Steuerungspraktiken ist die Normalisierung der für ihre Zwecke zu beschaffenden Daten, durch die Gefahren in Risiken transformiert werden können, die den Entscheidungen der jeweiligen Organisation zugänglich sind (vgl. Luhmann 1990). Die Debatte über angemessene Daten ist in ihrer Substanz eine gleichsam handgreiflichere Wiederholung des geschilderten Wettbewerbs. Welche Arten von Daten sind relevant für die Beschreibung und Steuerung operativer Risiken? Sind tatsächlich eingefahrene Verluste bedeutsamer als näher kommende Einschläge oder potentielle Verluste? Wenn die Aufmerksamkeit ‚erwarteten’ Verlusten gilt, werden diese nicht bereits effektiv durch buchhalterische Abschreibungen aufgefangen und ist der Kapitalpuffer nicht eher für die Regelung unerwarteter Verluste freizustellen? Wie das Baseler Gremium feststellte, gibt es „often a high degree of ambiguity inherent in the process of categorizing losses and costs” (Basel Committee on Banking Supervision 2001a: §8). Wie Organisationen diesen Spielraum nutzen, Fehler definieren und beseitigen, ist in der Regel eine Frage ihrer jeweiligen Steuerungsrituale (Vaughan 2002). Im Fall der Barings Bank haben interne Kontrollversäumnisse das Management ex ante nicht alarmiert. Das illustriert auch, wie manche Risiken existierende Kategorisierungslinien in Organisationen durchkreuzen können (Cagan 2001). Definitionen, Verantwortlichkeiten, Fehler- und Verlustkategorien sowie potentielle Expertenschaften konstituieren sich wechselseitig: Die Bestimmung der für die Beschrei-

132

Michael Power

bung und Bewältigung operativer Risiken relevanten Daten hat deshalb Implikationen für die Frage, wer im Namen operativer Risiken zu handeln befugt sein wird. Schon die Definition operativer Risiken ist ein institutionell eingebettetes Phänomen. Beispielsweise ist der gesamte Kapitalunterlegungsansatz, der den Richtlinien von Basel II zugrunde gelegt wurde, auf die Berücksichtigung konkreter ex post Ereignisse wie realer Verluste und Abwertungen eingestellt. Obwohl Basel II das Experimentieren im Bereich operativer Risiken stärken möchte, ist Praktikern zu Beginn des neuen Jahrtausends diese Steuerungsphilosophie weiterhin unbehaglich, auch aufgrund der Ambivalenz des Verhältnisses existierender Buchführungs- und Controllingsysteme (bestenfalls eingestellt auf die Erfassung tatsächlicher und erwarteter Verluste) zum potentiell viel breiteren Spektrum an Daten zur Bestimmung operativer Risiken, die unerwartete und beinahe eingetretene Verluste einbeziehen sollen. Insgesamt überrascht es wenig, wenn Praktikern die Datenlage „shaky and fragile“ (Goodhart 2001) erscheint. In einem risikosensitiven Steuerungsregime sollte die Kapitaleinlage für operative Risiken der Theorie nach das Erfahrungs- und Risikoprofil der jeweiligen Bank reflektieren. Allerdings gab das Baseler Gremium schon in frühen Studien zu, dass der aktuelle Stand des Wissens über Verlustdaten derartig armselig sei, dass die interne Messung operativer Risiken für den Moment weitgehend im Dunklen taste. Einschlägige Daten fehlen für alle bis auf eine Handvoll an Banken; Branchenstandards für diese Daten fehlen gänzlich (Cagan 2001). Ein Bericht des Baseler Gremiums (Basel Committee on Banking Supervision 1998b), der auf einer Erhebung in 30 Banken basiert, musste konstatieren, dass gravierende Verlustfälle selten und geeignete Längsschnittdaten über erlittene Schäden und ihre jeweiligen Entstehungsbedingungen schlichtweg nicht vorhanden seien. Datenmangel tritt also – fast möchte man sagen: qua definitionem – vor allem dort auf, wo die Beschaffung von Daten am dringendsten wäre. Die Daten für die Erfassung operativer Risiken sind in gerade den Bereichen notorisch dünn, wo auch das Konzept selbst seine Schwächen aufweist: bei der Erfassung selten auftretender Verlustfälle mit hoher Schadenswirkung. Ebenso unklar ist geblieben, wie sich ein entsprechendes Informationssystem an die bestehenden Kontrollsysteme einer Bank ankoppeln soll, denn risikospezifische Ereignisse lassen sich nicht umstandslos mit konkreten Transaktionen oder Transaktionsformen verbinden. In frühen Diskussionen von Basel II argumentierten Praktiker häufig, es sei widersinnig, historische Verlustdaten bei der Berechnung der Kapitalgrundlage (und damit gewissermaßen strafend) in Rechnung zu stellen, weil sich Kontrollsysteme doch gerade auf Basis von Verlusterfahrungen verbessern. Zudem sind Verlustdaten für sich genommen wenig instruktiv, weil sie über die Ursachen der Verluste in der Regel schweigen. Die Baseler Wahrscheinlichkeitsgröße in der Berechnung der Eigenkapitalunterlegung basiert zudem gerade nicht auf empirischen Schadensmessungen, sondern ist hochgradig zugänglich für Einflussnahmen der jeweiligen Bankenführung. Anstatt als technische Stellgrößen erweisen sich Wahrscheinlichkeitsannahmen hier als Aushandlungsergebnisse (Wynne 2003) und performative Konstrukte (MacKenzie 2004).10 Die nachweisbare Befolgung von Governance-Standards im Sinne der zweiten Säule von Basel II, wie sie etwa in Großbritannien im Turnbull Report festgelegt wurden (ICAEW 1999), sollte der Theorie nach als eine Art Anpassungsfaktor in der Richtlinienimplementation fungieren, insbesondere insoweit ausgebaute Kontrollsysteme eine Voraussetzung für die 10

So auch John Thirwell (private Korrespondenz mit dem Autor): „Operational risk is a social rather than a mathematical science.”

Die Erfindung operativer Risiken

133

Nutzung fortgeschrittener Berechnungsverfahren darstellen. Zunächst hatte das Baseler Gremium gezögert, explizite Bewertungsskalen für interne Kontrollsysteme aufzustellen. Funktionierende Kontrollsysteme, so ein Argument, würden sich mit der Zeit in geringere Verlustfälle übersetzen. Vor diesem Hintergrund entwickelte sich eine längere steuerungspolitische Auseinandersetzung darüber, unter welchen Bedingungen sich verlustmindernde Investitionen für Banken in geringeren Kapitalbindungen auszahlen sollten.11 In jedem Fall erzeugen Prozesse der Datensammlung selbst bedeutsame Verhaltensbindungen. Sie können die Offenlegung risikorelevanter Ereignisse entmutigen, weil dies eine Erhöhung der Kapitalrücklage erzwingen kann. Während Rechts- oder Personalexperten kaum von der Meldung von Schäden oder nahenden Einschlägen abzuschrecken sind (denn sie stärken genau damit die Bedeutung ihrer Expertenschaften), hat Basel II Risikoabteilungen ein Motiv geliefert, derartige Ereignisse zu verbergen oder in Kredit- und Marktrisiken aufzulösen. Organisationsintern mögen Verluste und Verlustmöglichkeiten weiterhin durchaus übersteigert kommuniziert werden, um Ressourcen zu mobilisieren – unter Hinnahme der daraus resultierenden Risiken für andere Abteilungen. Methoden der Datenbeschaffung, die eigentlich dazu dienen sollten, den negativen Auswirkungen von Schadensfällen vorzubeugen, können so schlimmstenfalls in Anreizstrukturen resultieren, die Eintrittswahrscheinlichkeiten von Schadensfällen auf mehreren Wegen steigern (Goodhart 2001: 12). Die Sammlung und Verarbeitung risikospezifischer Daten mag sich auf diesem Wege als „fatal remedy“ (Sieber 1981) erweisen. Die problematische Datenlage spiegelt sich ebenfalls in der Debatte über den möglichen Stellenwert von Versicherungen für das Management operativer Risiken wider. Einige Kritiker argumentieren, Basel II überdehne die Anwendbarkeit der Kapitalpuffer-Philosophie, weil interne Kontrollsysteme und Versicherungsverträge arbeitsteilig bereits ein flächendeckendes Risikomanagement sicherstellen könnten (Calomiris/Herring 2002). Versicherung wird als ein gleichberechtigtes Werkzeug des Risikomanagements betrachtet und die Rolle von Kapitalpuffern im Ergebnis auf nicht-versicherbare Risiken begrenzt. Die Bankenaufsicht hingegen fürchtet zusätzliche systemische Risiken einer solchen Strategie: Das Management operativer Risiken würde an einen Versicherungsmarkt weitergegeben, der selbst über ungenügende Kapitalrücklagen verfügen mag. Ein gravierender Verlust in einer einzigen Police könnte auf diese Weise den gesamten Markt in Gefahr bringen. Obwohl derartige Befürchtungen auch die Fragmentierung der Steuerungsregime für Banken und Versicherungen widerspiegeln, reichen die versicherungstechnischen Unsicherheiten hinsichtlich operativer Risiken tiefer, eben weil die bereits geschilderten Datenprobleme auch beim Gewährleisten von Versicherungsdienstleistungen zu Buche schlagen (Goodhart 2001). Es fehlt eine rationale Grundlage zur Korrelation von Prämien und Risiken bei grundlegenden Zweifeln hinsichtlich möglicher Haftungsrahmen und Auszahlungsverfahren. Letztendlich haben sich zwei Wege einer pragmatischen ‚Lösung’ von Datenerhebungsproblemen herauskristallisiert. Auf der einen Seite versucht man, dem Problem des Datenmangels durch eine Vergrößerung der Datenbasis und die Zusammenlegung der Daten einzelner Banken entgegenzuwirken. Neue Institutionen wurden geschaffen, um die Informationslage hinsichtlich operativer Risiken auf Branchenebene zu verbessern, z. B. die „Operational Risk Database Association“ als Angliederung der „British Bankers’ Association“. Doch selbst wenn solche Ansätze, die sich noch im Entwicklungsstadium befinden, in einer dauerhaften Institutionalisierung münden, haben sie doch den nachteiligen Effekt, 11

Vgl. zu diesem Punkt wiederum den Beitrag von Pelzer im vorliegenden Band.

134

Michael Power

einen intern konzeptionierten Ansatz der Steuerung operativer Risiken de facto zu externalisieren. Das mag die Risikosensitivität einzelner Organisationen abstumpfen lassen, die Basel II doch gerade zu fördern versucht. Der zweite, eher implizit beschrittene Weg folgt der Tendenz von Organisationen, diejenigen Daten sammeln, zu denen sie durch ihre etablierten Informationssysteme bereits Zugang haben (und nicht diejenigen Daten, die zur Bearbeitung eines spezifischen Problems notwendig wären). Bei dieser Lösung wedelt der Schwanz der Datensammlung mit dem Hund des Risikomanagements. Organisationen beziehen ihr Verständnis von Fehlern und deren Bewältigung hierbei aus institutionalisierten Routinen der Informationsbeschaffung und -verarbeitung sowie aus institutionalisierten Ansprüchen an diese, während inkompatible Anomalien ihrer Aufmerksamkeit leicht entgehen können (Vaughan 2002). Tatsächlich hat sich die Aufmerksamkeit der Banken beim Management operativer Risiken bisher weitgehend auf Ereignisse mittlerer bis hoher Eintrittswahrscheinlichkeit und geringer potentieller Schadenswirkung konzentriert. Strafen für die Fehlveräußerung finanzieller Produkte und Einbußen durch Kreditkartenbetrug haben die Agenda operativen Risikomanagements von Risikolagen à la Barings fortbewegt und zu einer starken Betonung von rechtlichen Haftungsrisiken und Betrugsprävention geführt. Zusammenfassend kann gesagt werden, dass das Management operativer Risiken weit davon entfernt ist, als technischer Prozess der Risikoidentifizierung und Datensammlung zu fungieren. Die Gewinnung und Mobilisierung von Daten ist ein konstruktiver und performativer Prozess, der Fehler und Anomalien anhand organisationsspezifischer Wahrnehmungsraster identifiziert und sie für Zwecke der Entscheidungsproduktion als Risiken markiert. Zudem fordert er Anpassungsverhalten seitens der Mitglieder von Bankenorganisationen heraus und verlangt von den Organisationen, ihre bisherigen Wahrnehmungs- und Entscheidungskulturen durch neue Formen von Datensätzen zu transzendieren. Das Management operativer Risiken sieht sich vor diesem Hintergrund potentiell folgendem Dilemma gegenüber: Auf der einen Seite betritt das operative Risikomanagement als neuartige Kategorie von Führungs- und Steuerungsaufgaben im Gefolge historischer Erfahrungen mit seltenen, aber katastrophalen Schadensfällen (wie z.B. Barings und Daiwa) die Bühne; auf der anderen Seite werden diese Aufgaben von der alltäglichen Praxis des Risikomanagements überformt und bleiben von einer Fokussierung auf Ereignisse mittlerer bis hoher Eintrittswahrscheinlichkeit und mittlerer bis geringer Schadenwirkung geprägt. Organisationsinterne Akteure wie Justitiare und Innenrevisoren definieren die Risikoagenda entlang der jeweils gewohnten Maßstäbe. Organisationen sammeln diejenigen Daten, an die sich ihre Mitglieder gewöhnt haben, und konstruieren Fehlerkategorien, die sich mit den ihnen zur Verfügung stehenden Mitteln trefflich operationalisieren lassen, aber nicht mehr den ursprünglichen Informationsbedarf über seltene, folgenreiche Verluste bedienen. Eine politische Ökonomie der Regulierung, die auf die Macht und Kompetenz privater Akteure vertraut, steuerungsrelevantes Wissen beizusteuern, sollte die Tendenz existierender organisationsspezifischer Praktiken registrieren, potentiell nicht-regelbare Gefahrenlagen zu kontextualisieren und nach eigenen Bewertungskriterien einzuhegen.

Die Erfindung operativer Risiken

135

Quantifizierung und das Vertrauen auf Risikozahlen Der Aufstieg des Managements operativer Risiken offenbart verschiedene Nuancen eines Vertrauens auf Zahlen (Porter 1994). Das institutionelle Erbe der Modellierung von Kreditund Marktrisiken verschafft sich in Messungsansprüchen Gehör. In diesem Diskurs sind Wortmeldungen, die eine ‚Robustheit’ entsprechender Verfahren einfordern, prominent. Zahlreiche Kommentatoren beklagen die Unreife der Modellierung operativer Risiken und die Tatsache, dass keine Alternative zu ‚semi-quantitativen’ Methoden greifbar sei (z. B. Wilson 1995). Ein Verlangen nach einer rationalen Basis der Berechnung von Kapitaleinlagen besteht selbst dort, wo aus praktischen Gründen so genannte ‚weichere’ Ansätze benutzt werden. Die Methode der risikoangepassten Kapitalrentabilität („risk adjusted rate of return on capital“, RAROC) liefert hierfür ein instruktives Beispiel. Die der RAROC zugrunde liegende Idee ist, die Berechnung des Gewinns einer Einheit daran anzupassen, welchen Risiken sie investiertes Kapital aussetzt (Jorion 2001: 96). Diese Methode erfordert die Quantifizierung riskierten Kapitals, die dann erlaubt, die Leistung unterschiedlicher Einheiten unter dem Aspekt risikoangepasster Kapitalrentabilität zu vergleichen. Das Interesse der Bankenbranche an der RAROC Methode erwachte unter anderem aufgrund einer Unzufriedenheit mit behördlichen Risikokennziffern. Für viele Banken war die Suche nach ‚wirklichen ökonomischen Risiken’ – oder wenigstens nach besseren Risikorepräsentationen als denen der behördlichen Kennziffern – sowohl ein Aspekt des Strebens nach verbesserter interner Leistungsmessung, als auch ein Mittel fortgesetzter Kritik an einer als wenig risikosensitiv wahrgenommenen Regulierungspraxis. Hierdurch wurde Druck auf die Regulierungsbehörden ausgeübt, der unter anderem die Anerkennung hausinterner Modelle zur Berechnung von Marktrisiken im Jahre 1996 bewirkte. Zu Beginn der neunziger Jahre wurde dieses umkämpfte Feld von einer Welle von Konferenzen und Konzeptpapieren zur RAROC-Methode überschwemmt, die in Rufen nach einer ‚strengeren’ RAROC-Praxis gipfelte (Jameson 2001a).12 Jedoch lässt sich die RAROC-Methode keineswegs als ein rein technisches Recheninstrument auffassen. Sie repräsentiert ein Programm, das die Sicherheitsbedürfnisse von Aufsichtsinstanzen mit den Zielen von Bankenführungen hinsichtlich der Verteilung und Kontrolle ihrer Ressourcen zu harmonisieren verspricht. RAROC verkörpert damit einmal mehr das Ideal „kontrollierter Selbstregulierung“, bei der Regulierungssysteme und Branchenpraxis miteinander Hand in Hand gehen, eine theoretische „win-win-situation“ für politische und ökonomische Interessen. In der Praxis muss sich dieser Ansatz jedoch auf die Kompetenzen des jeweiligen Bankenstabes verlassen (Jameson 2001a). Die Bankenführung hat sich mit Kapitalzuweisungen anzufreunden, die auf der RAROC-Methode basieren: „This is partly a problem of bank politics and balance: making sure that senior managers support RAROC projects, that business lines are involved and that RAROC figures are neither rejected out of hand nor used uncritically.” (Jameson 2001a: 5). Was auch immer die technischen Vorzüge von RAROC als integrativer Risikomessungsmethode sein mögen, zunächst bleibt RAROC ein Spielball komplexer organisationsinterner Abstimmungsprozesse, ein potentielles Werkzeug unter vielen in bankinternen Preiskalkulationen.

12

Grundlage der Kommentare von Jameson sind Interviews mit den folgenden Personen: Anders Kragsterman, Head of Group Risk Control, Skandinaviska Ensckilda Banken (SEB); Russell Playford, Wachovia Corporation; Tom Wilson, Chief Risk Officer, Swiss Re New Markets, New York.

136

Michael Power

Inwieweit RAROC-Berechnungen tatsächlich zur Anwendung gelangen, ist eine offene Frage. Die Idee, dass es notwendig sei, Praktikern selbst die rationalsten Berechnungsverfahren zunächst einmal zu ‚verkaufen’ ist nicht neu und zahlreiche Studien zur Einführung neuer Buchführungs- und Controllingsysteme haben komplexe Mikropolitiken organisationalen Wandels zutage gefördert (z.B. Preston et al. 1992; Hopwood 1987). Zweifellos birgt die Implementation von RAROC-basierten Systemen ein Potential, das innere Machtgefüge in Bankenorganisationen in Bewegung zu setzen, ähnlich wie es die abteilungsspezifische Leistungsmessung bereits auf allgemeinerer Ebene getan hat. RAROC erschafft neue Zentren der Kalkulation, lässt Risikoexperten Macht zufließen, bewaffnet sie mit Daten sowie mit der Autorität, diese zu interpretieren. Tatsächlich hat Basel II durch die Legitimierung der privaten Produktion von Steuerungswissen die Position von Innenrevisoren und Controllern gestärkt, die nun eine strategische Rolle jenseits des Stereotyps des Kontrolloffiziers für sich reklamieren können. Glaubt man dem Leiter der Risikoabteilung der schwedischen Bank SEB, dann wird die Motivation zur Anwendung der RAROC-Methode einerseits vom Wunsch genährt, bessere Preiskalkulationen für Finanzdienstleistungen zu erhalten (insbesondere in den Bereichen, in denen Marktpreise weitgehend fehlen), und andererseits vom Bedürfnis getrieben, kapitalhungrige Unternehmensbereiche zu disziplinieren. In beiden Hinsichten verstrickt sich RAROC tief in bankeninterne Mikropolitiken. Jameson (2001a) zufolge akzeptierten Praktiker die RAROC-Methode als allgemeine Philosophie, ohne sie allerdings bislang als „true risk metric“ anerkannt zu haben. Gleichzeitig wird unter dem Druck, technische Probleme auszubügeln, hingenommen, dass es für viele Faktoren (etwa den langfristigen Wert einer Kundenbeziehung) außerordentlich schwierig bleibt, sie in das Modell einzubauen. Zudem können auch eindeutige RAROC-Kennzahlen für sich genommen der Bankenführung kein grünes Licht für den Ausbau von Dienstleistungsbereichen geben, denn Relevanzfragen beantworten sie nicht. Derlei Abzüge von der RAROC-Methode als Instrument rechnerischer Rationalisierung machen verständlich, warum organisationsinterne Anwendungsfragen mitunter in mikropolitische Kleinkriege ausarten. Insgesamt befindet sich die RAROC-Methode im Zentrum von Ambitionen, rationalisierte Verfahren der Kapitalberechnung zu entwickeln und Geschäftsbereiche über die Mikro-Ebene kalkulativer Praxis zu disziplinieren. Experimente mit der RAROC-Methode gehen Basel II zeitlich voran, doch wird die RAROC-Methode in Basel II als idealisiertes Modell zur Bewertung operativen Risikomanagements eingesetzt, was den Druck auf Banken, ihr operatives Risikokapital zu berechnen, stark erhöht. Trotz einer klaren theoretischen Spezifikation bleibt die RAROC-Methode allerdings auf operativer Ebene unterspezifiziert, nicht zuletzt wegen der im vorangegangenen Abschnitt diskutierten Datenerhebungsprobleme. Während die RAROC-Methode eine gemeinsame Sprache für die externe Aufsicht und innere Führung von Banken bietet, herrschen gleichzeitig in der Idee und Praxis von RAROC beträchtliche Spannungen und Schwierigkeiten, insbesondere im Kontext des operativen Risikomanagements, wo Berechnungen des „Capital-at-Risk“ äußerst problematisch und angreifbar sind.

Die Erfindung operativer Risiken

137

Hierarchien der Kalkulation: Messen und Managen In der Zusammenschau suggerieren die Praktikerdiskussionen und Kommentare zu Basel II zwei idealtypische Annäherungen an das Problem operativer Risiken, die mit divergierenden Loyalitäten zu Idealen des Messens und Managens korrespondieren. Der erste Ansatz lässt sich als kalkulativer Pragmatismus bezeichnen. Seine Anhänger betrachten Zahlen typischerweise als Mittel der Aufmerksamkeitsbindung ohne intrinsische Repräsentationsfunktion. Skalen der Risikoeinstufung und entsprechende Wertungslisten („scorecards“) sollen Risikokapital für das Führungspersonal sichtbar machen und helfen, Verhalten in die richtige Richtung zu dirigieren. Operative Risiken verlangen in dieser Perspektive nach pluralistischer Führung und eher nach Kunstfertigkeit als nach Wissenschaft. Das entsprechende Expertenwissen hat seine Wurzeln im Revisionswesen, der Kreditregulierung, der Steuerung und Kontrolle von Abrechnungssystemen und Geschäftsprozessen sowie im Human Ressource Management. Der zweite Ansatz lässt sich als kalkulativer Idealismus verstehen. Seine Anhänger begreifen Zahlen vornehmlich als Versuche, die wahren Kosten ökonomischen Kapitals anhand möglichst genauer und umfassender Datensätze zu erschließen, um korrekte ökonomische Entscheidungen im Lichte gemessener Risikogrößen treffen zu können. Operative Risiken beugen sich in dieser Sichtweise einem Wissensparadigma, in dem Techniken der Value-at-Risk-Bemessung einen zentralen Stellenwert einnehmen und die Disziplin des Marktrisikomanagements als Bezugsmarke dient. Während Praktiker dieser Orientierung zuweilen durchaus auch in die Rolle kalkulativer Pragmatiker schlüpfen, hängen sie doch einem reduktionistischen, nicht-pluralistischen Verständnis operativer Risiken an und sorgen sich beständig um Robustheit und methodische Strenge der Risikoanalyse. Diese zwei gegensätzlichen Orientierungen repräsentieren konkurrierende Wissensformen oder Logiken der Praxis, ein „Tauziehen“ (Hoffman 2002: 186), das in der Programmatik von Basel II bereits angelegt ist. Ein gutes Beispiel für kalkulativen Pragmatismus ist der „risk exposure calculator“ von Simon (1999), ein Werkzeug, das qualitative Wertungslisten generiert. Diese Wertungslisten erlangen Objektivität dadurch, dass das Management sie kontinuierlich einsetzt und so Aufmerksamkeitsbindungen herbeiführt. Dieser Prozess ist gänzlich frei von Versuchen, Risiken über Eintrittswahrscheinlichkeiten zu ermitteln und Simon gesteht zu, der „risk exposure calculator“ sei „not a precise tool“, seine Resultate seien lediglich „directional“ (Simon 1999: 86). Kalkulativer Pragmatismus dieser Art, der mitunter als „weiches“ Risikomanagement bezeichnet wird, scheint auf Bedingungen eingestellt, in denen es von zentraler Wichtigkeit ist, solche Risiken zu identifizieren und zu katalogisieren, die an den Grenzen gesicherter Wissensstände auftreten – wie eben im Falle operativer Risiken. Wertungslisten, die aus konsultativen Prozessen resultieren, machen die Bestimmung und Kartographisierung von Risiken zu einer Praxis von Semi-Experten und setzen ein pluralistisches Wissensreservoire in Organisationen voraus, „that can provide powerful feedback for the purposes of mapping risks“ (Cagan 2001). Der Bankers Trust etwa, ein „Pioneer des Risikomanagements“ (Jorion 2001: 96), koppelt Kapitaleinlagen mit operativen Risiken auf Grundlage einer Wertungsliste mit breit angelegten Faktoren wie inhärenten Risiken, Kontrollrisiken und tatsächlichen Schadensereignissen (Hoffman 2002; Wilson 1995). Die Chase Manhattan Bank stimmte ihre Steuerung operativer Risiken 1999 auf die Richtlinien der COSO (1991) ab (Barton et al. 2001: Kapitel 3), und in einem anderen Experiment nutzte der „Chief Risk

138

Michael Power

Officer“ der ANZ Bank, Mark Lawrence, ebenfalls ein Scorecard-System (Jameson 2001b). Wertungslisten für ökonomisches Kapital, die ungenaue aber Aufmerksamkeit bindende RAROC-Zahlen generieren, haben für kalkulative Pragmatiker den unter dem Gesichtspunkt von Verhaltenseffekten ausschlaggebenden Vorzug, das über unterschiedliche Unternehmensbereiche verstreute Führungspersonal an die Kosten des eingesetzten Kapitals zu erinnern. Kalkulative Pragmatiker lassen sich von kalkulativen Idealisten anhand ihres Widerstandes gegen den (von ihnen diagnostizierten) Reduktionismus von Basel II und die konzeptionelle Dominanz des Kapitalpufferdenkens trennen. Für kalkulative Pragmatiker hat die Etablierung interner Kontrollsysteme Vorrang vor Kapitalberechnungen. Die Quantifizierung operativer Risiken ist für sie nur ein Instrument unter vielen (Cagan 2001). Berücksichtigt man die gegebenen Quantifizierungsprobleme, mag das Vertrauen auf die resultierenden Zahlen in der Tat selbst ein operatives Risiko darstellen (Wilson 2001).13 Aus der Sicht des Pragmatikers stellt sich das Management operativer Risiken als das Management des Risikomanagements dar, als Aufsichts- und Führungsaufgabe höherer Ordnung, die dem kalkulativen Idealismus des Markt- und Kreditrisikomanagements hierarchisch überzuordnen ist. Die bankinterne Praxis des operativen Risikomanagements ist von Spannungen zwischen verschiedenen Konstellationen quantitativer Expertise begleitet, und wird somit zum Streitobjekt im Kampf um Positionen in Führungshierarchien. Basel II setzt auf eine explizite Philosophie des Vertrauens auf „solide Managementprozesse“ (Säule 2), um die Bankenführung zur eigenverantwortlichen Risikoregulierung zu aktivieren und einem „Management des Risikomanagements“ den Weg zu bereiten, das einer pragmatischen Herangehensweise zuspricht. Pragmatiker und Idealisten stimmen gleichwohl in ihrem Misstrauen gegenüber einer als willkürlich wahrgenommenen Bankenaufsicht überein, die ihnen entweder in Urteilen über die Qualität interner Kontrollsysteme gegenübertritt (Säule 2) oder in Anweisungen der Modifikation bankeninterner Kapitalberechnungen. Zusammenfassend kann gesagt werden, dass Praktikerdebatten sich eindringlich, jedoch nicht in konsistenter Manier mit Quantifizierungsfragen auseinandersetzen. Kalkulative Idealisten halten operative Risiken für prinzipiell vergleichbar mit Markt- oder Kreditrisiken und gleichsam für ein ungezähmtes Monster, das letztendlich, genügend Dressurarbeit vorausgesetzt, mit rechnerischen Mitteln zu kontrollieren sein sollte. Kalkulative Pragmatiker hingegen akzeptieren zwar den von kalkulativen Idealisten artikulierten Quantifizierungsbedarf, heben aber ihrerseits die wesentliche Bedeutung von reflexiven Führungsprozessen und Kontrollarchitekturen für das Management operativer Risiken hervor. Obwohl beide Orientierungen selten in Reinform auftreten, bricht ihre Gegensätzlichkeit immer wieder in den Programmdiskussionen über Basel II und über die von Banken gewählten Managementansätze hervor. Der Gegensatz von kalkulativem Pragmatismus und Idealismus reflektiert dabei auch einen Zusammenstoß zwischen Innenrevision, Buchführung und Controlling auf der einen und finanzwissenschaftlicher Expertenschaft auf der anderen Seite, zwischen Steuerungshandwerk einerseits und mathematisch disziplinierter

13

Ein Artikel des Risikomanagers von Enron trägt den diesbezüglich verräterischen Titel „Aiming for a Single Metric“ (Buy 2001).

Die Erfindung operativer Risiken

139

Modellierungstechnologie andererseits.14 In der Kategorie operativer Risiken manifestieren sich wichtige Binnendifferenzen in Konzepten ökonomischer Kalkulation. Diese Differenzen korrespondieren mit neuen beruflichen Definitions- und Mobilitätsbestrebungen, die aus dem von Basel II propagierten Ideal der kontrollierten Selbstregulierung Impulse erhalten – einem Steuerungsideal, das private Akteure explizit für die Mobilisierung von Steuerungswissen und die Aktivierung organisationaler Selbstkontrolle zu rekrutieren trachtet. Fazit Die Richtlinien von Basel II haben die Kategorie operativer Risiken erfolgreich als Arbeitsfeld der Produktion von Steuerungswissen institutionalisiert. Die Kategorie operativer Risiken spricht dabei weder auf begrifflicher Ebene für sich selbst, noch für ein distinktes Ensemble wohldefinierter Praktiken. Als boundary object bettet sie sich in eine Konstellation privater Interessen ein (vgl. Burchell et al. 1985) und vereinigt so existierende Risikoexpertenschaften zu einem neuen steuerungstechnischen Hybrid: dem operativen Risikomanagement. Neue Formen von Expertenschaften und Machtbeziehungen verschaffen sich im Diskurs operativer Risiken Geltung, lose Zweckgemeinschaften von Praktikern definieren sich im Namen operativer Risiken neu, beides vor dem Hintergrund des Versprechens, eine Disziplin höherer Ordnung zum Nutzen verbesserter Risikobewältigung zu schaffen. Die Bedeutung der Kategorie operativer Risiken leitet sich aus ihrer Kapazität ab, zunächst ganz unterschiedliche Sorgen über Betrug, Systemversagen, Geschäftseinbrüche, Humanressourcen, Haftungsfälle, Reputations- wie auch strategische Risiken für sich vereinnahmen zu können. Sie definiert einen Aufmerksamkeitsbereich, in dem sich die Idee der Eigenkapitalunterlegung mit allgemeineren Problemen der Unternehmensführung vermischt. Tatsächlich mag der Aufstieg operativer Risiken damit instruktives Anschauungsmaterial für zukünftige Entwürfe von Steuerungsprogrammen bieten: Ihren fortgesetzten Willen vorausgesetzt, privates Steuerungswissen zu rekrutieren, mögen Regulierungsbehörden auch in Zukunft versuchen, mittels der Verbreitung von Konzepten möglichst breiter Aufmerksamkeitswirkung an der Bildung privater Interessenkonstellationen mitzuwirken. Dieser Beitrag bemühte sich, drei Schlüsselbereiche zu umreißen, in denen die maßgeblichen Konturen und Grenzen des Managements operativer Risiken ausgehandelt werden. Definitions-, Daten- und Quantifizierungsfragen sind Spielbälle in Arenen mikropolitischer Wettkämpfe, an denen sich Koalitionen von Organisationsmitgliedern mit ihren jeweiligen Expertenschaften, Positionen, Berufsgruppen und Zuständigkeitsbereichen beteiligen. Die Kategorie operativer Risiken bleibt anfällig für Versuche mikropolitischer Einflussnahme, aber hat gleichzeitig schon jetzt neue Risikokonstellationen beobachtbar gemacht sowie zusätzliche Möglichkeiten der Intervention und Steuerung bankeninterner Prozesse im Namen der Risikobewältigung etabliert. Basel II ist Ausdruck eines allgemeineren Regulierungsklimas, in dem sich staatliche wie private Steuerungsprojekte zunehmend auf die Effektivität organisationsinterner Kontrollen und Kontrollkulturen konzentrieren. Dieses Klima wiederum reflektiert eine politische Ökonomie der Steuerung, die ihre Adressaten in Form von heterogenen Koalitionen 14

Unter Vergleichsgesichtspunkten mögen sich juristische Expertenschaften der ersten Gruppe zuordnen lassen. Welche Rolle juristische Formen der Risikoorientierung im Management operativer Risiken übernehmen, erscheint zum jetzigen Zeitpunkt allerdings weitgehend offen.

140

Michael Power

privater Experten als Steuerungspartner gewinnen möchte. Diese politische Ökonomie der Steuerung leistet einem permanenten Wettbewerb privater Kontrolldiskurse Vorschub, und die Fähigkeit, Steuerungswissen zu erzeugen und zu kontrollieren, wird so zu einem Korrelat von Einfluss und Macht. Abschließend erscheint Basel II als potentiell globale Regulierungsmatrix, als Projektion eines Ideals, wenn nicht einer Phantasie (Clarke 1999) hyper-rationalen Managements im globalen Bankensystem. Die Erfindung und Mobilisierung von neuartigen Konzepten wie dem der operativen Risiken spricht für eine anhaltende politische Nachfrage nach effektiver Steuerung und rationaler Kontrolle in der (Wieder-)Herstellung von Vertrauen in die Sicherheit des Finanzsystems. So bleibt ein mehr als nur geringfügiger Verdacht, dass die Erfindung operativer Risiken am Ende einen Versuch darstellt, zu erfassen, was nicht zu erfassen ist, um dabei tief sitzende Ängste vor dem Versagen gesellschaftlicher Kontrolle zu besänftigen und Monster zu domestizieren, die das globale Finanzsystem selbst herangezüchtet hat. Übersetzung: Hendrik Vollmer Literatur Abbott, A. (1998): The System of Professions. Chicago: University of Chicago Press. Ayres, I./Braithwaite, J. (1992): Responsive Regulation: Transcending the Deregulation Debate. Oxford: Oxford University Press. Barton, T./Shenkir, W./Walker, P. (2001): Making Enterprise Risk Management Pay Off. Morristown, N.J.: Financial Executives Research Foundation, Inc. Basel Committee on Banking Supervision (1994): Risk Management Guidelines for Derivatives. Basel: Bank for International Settlements. Basel Committee on Banking Supervision (1998a): Framework for the Evaluation of Internal Control. Basel: Bank for International Settlements. Basel Committee on Banking Supervision (1998b): Operational Risk Management Survey. Basel: Bank for International Settlements. Basel Committee on Banking Supervision (2001a): Consultative Document: Operational Risk. Basel: Bank for International Settlements. Basel Committee on Banking Supervision (2001b): Sound Practices for the Management and Supervision of Operational Risk. Basel: Bank for International Settlements. Basel Committee on Banking Supervision (2003): The New Basel Capital Accord: Third Consultative Paper. Basel: Bank for International Settlements. BBA/ISDA/RMA (1999): Operational Risk: The Next Frontier. London: British Bankers’ Association. Beck, U. (1986): Risikogesellschaft. Auf dem Weg in eine andere Moderne. Frankfurt/M.: Suhrkamp. Bourdieu, P. (1987): Sozialer Sinn: Kritik der theoretischen Vernunft. Frankfurt/M.: Suhrkamp. Bowker, G./Star, S.L. (2000): Sorting Things Out: Classification and its Consequences. Cambridge, Mass.: MIT Press. Burchell, S./Clubb, C./Hopwood, A. (1985): Accounting in Its Social Context: Towards a History of Value Added in the UK. In: Accounting, Organizations and Society 10, S. 381-413. Buy, R. (2001): Aiming for a Single Metric. In: Erisk.com, Februar. Cagan, P. (2001): Standard Operating Procedures. In: Erisk.com, März. Calomiris, C./Herring, R. (2002): The regulation of operational risk in investment management companies. In: Perspective 8, S. 1-19. Clarke, L. (1999): Mission Improbable. Chicago: University of Chicago Press.

Die Erfindung operativer Risiken

141

COSO (1991): Internal Control: Integrated Framework. New York: Committee of Sponsoring Organizations of the Treadway Commission. Ernst & Young (2001): Basel: A better Use of Control (Operational Risk Management Promotional Brochure). London: Ernst & Young. Douglas, M. (1992): Risk and Blame. In: Douglas, M. (Hg.): Risk and Blame: Essays in Cultural Theory. London: Routledge, S. 3-21. Gigerenzer, G. (2002): Reckoning with Risk: Learning to Live with Uncertainty. London: Penguin. Group of Thirty (1993): Derivatives: Practices and Principles. Washington, D.C.: Group of Thirty. Goodhart, C. (2001): Operational Risk. Special Paper 131, Financial Markets Group. London: The London School of Economics and Political Science. Helbok, G./Wagner, C. (2003): Corporate Financial Disclosure on Operational Risk in the Banking Industry. Working Paper, Operational and Group Risk Control. Wien: Bank Austria Creditanstalt. Hoffman, D.G. (2002): Managing Operational Risk: 20 Firm-Wide Best Practice Strategies. New York: John Wiley. Hopwood, A.G. (1987): The Archaeology of Accounting Systems. In: Accounting, Organizations and Society 12, S. 207-234. ICAEW (1999): Internal Control: Guidance for the Directors of Listed Companies. London: Institute of Chartered Accountants in England and Wales (ICAEW). Jameson, R. (2001a): Between RAROC and a Hard Place. In: Erisk.com, Februar. Jameson, R. (2001b): Operational Risk Charges: A Bad Case of Mission Creep? In: Erisk.com, Mai. Jorion, P. (2001): Value at Risk. New York: McGraw-Hill. Leyshon, A. (1994): Under Pressure: Finance, Geo-Economic Competition and the Rise and Fall of Japan’s Postwar Growth Economy. In: Corbridge, S./Martin, R./Thrift, N. (Hg.): Money, Power and Space. Oxford: Blackwell, S. 116-145. Leyshon, A./Thrift, N. (1997): Money/Space: Geographies of Monetary Transformation. London: Routledge. Luhmann, N. (1990): Risiko und Gefahr. In: Luhmann, N.: Soziologische Aufklärung 5: Konstruktivistische Perspektiven. Opladen: Westdeutscher Verlag, S. 131-169. MacKenzie, D. (2004): The Big, Bad Wolf and the Rational Market: Portfolio Insurance, the Crash of 1987 and the Performativity of Economics. In: Economy and Society 33, S. 303-334. Moran, M. (1986): The Politics of Banking. London: Macmillan. Moran, M. (1989): The Politics of the Financial Services Revolution: The USA, UK and Japan. London: Macmillan. Porter, T. (1994): Trust in Numbers. Princeton: Princeton University Press. Power, M. (2000): The New Risk Management. In: European Business Forum 1, S. 20. Preston, A.M./Cooper, D.J./Coombs, R.W. (1992): Fabricating Budgets: A Study of the Production of Management Budgeting in the National Health Service. In: Accounting, Organizations and Society 17, S. 561-593. Rose, N./Miller, P. (1992): Political Power Beyond the State: Problematics of Government. In: British Journal of Sociology 43, S. 173-205. Sieber, S. (1981): Fatal Remedies: The Ironies of Social Intervention. New York: Plenum Press. Simon, R. (1999): How Risky is Your Company? In: Harvard Business Review 77 (Mai-Juni), S. 85-94. Thrift, N. (1994): On the Social and Cultural Determinants of International Financial Centres: The case of the City of London. In: Corbridge, S./Martin, R./Thrift, N. (Hg.): Money, Power and Space. Oxford: Blackwell, S. 327-355. Tribe, K. (1978): Land, Labour and Economic Discourse. London: Routledge. Tsingou, E. (2003): Transnational Policy Communities and Financial Governance: The Role of Private Actors in Derivatives Regulation. Working Paper 111/03, ESRC Centre for the Study of Globalization and Regionalization, University of Warwick. Underhill, G. (1991): Markets Beyond Politics? The State and the Internationalisation of Financial Markets. In: European Journal of Political Research 19, S. 197-225.

142

Michael Power

Vaughan, D. (2002): Organizational Rituals of Risk and Error. Paper presented at the Organisational Encounters with Risk Workshop, ESRC Centre for Analysis of Risk and Regulation, The London School of Economics and Political Science. Vieten, H. (1996): Banking Regulation in Britain and Germany Compared: Capital Ratios, External Audit and Internal Control. Unveröffentlichte Dissertation, London University. Wilson, D. (2001): Operational Risk. In: Borodovsky, L./Lore, M. (Hg.): The Professional’s Handbook of Financial Risk Management. Oxford: Butterworth-Heinemann, S. 377-413 Wilson, D. (1995): VAR in Operation. In: Risk 8, S. 24-25. Wynne, B. (2003): Is Environmental Risk a Cinderella Issue? Paper presented at the NIESR/ESRC Workshop, 16. January.

Ökonomisches Rechnen: Zur Konstitution bankwirtschaftlicher Objekte und Investitionen

143

Ökonomisches Rechnen: Zur Konstitution bankwirtschaftlicher Objekte und Investitionen

Herbert Kalthoff Im Rahmen der Wirtschaftssoziologie entstand in den vergangenen Jahren eine empirische Finanzsoziologie (die Social Studies of Finance), die methodische Forschungsstrategien und Theorieperspektiven der Science and Technology Studies zur Erforschung globaler Finanzmärkte und der Bankwirtschaft einsetzt. Soziologisches Wissen, das in der wissenschaftsund techniksoziologischen Forschung über die interaktive und technische Hervorbringung von (naturwissenschaftlichen) Fakten entwickelt wurde, wird also auf die Beobachtung ökonomischer Prozesse übertragen. Die Social Studies of Finance sind keineswegs homogen strukturiert, sondern beziehen sich auf verschiedene Ansätze innerhalb der Wissenschaftsund Techniksoziologie sowie auf Praxistheorien. Untersucht werden die zentrale Rolle des ökonomischen Wissens, die Performativität ökonomischer Darstellungen und lokal situierte Praktiken, die in diese Wissensformen eingebettet sind (bspw. Callon 1998; Beunza/Stark 2004; Knorr Cetina/Brügger 2002; MacKenzie 2006; Kalthoff et al. 2000). Auf diesem Hintergrund erörtert dieser Aufsatz Fragen der ökonomischen Kalkulation und ihrer technischen Rahmung am Beispiel des bankwirtschaftlichen Risikomanagements. Wenn internationale Großbanken Kredite an Unternehmen vergeben, sind sie vor das Problem gestellt, erkennen und abwägen zu müssen, ob der Kredit zurückgezahlt werden kann oder nicht. Um sich über die zukünftige Zahlungsfähigkeit der Unternehmen ein Bild machen zu können, überprüfen Bankmitarbeiter deren ökonomische Performanz und finanzielles Standing aus verschiedenen Blickwinkeln. Erstens überführen sie verschiedene Dokumente (z.B. Bilanz, Gewinn- und Verlustrechnung), die ihnen von den Unternehmen oder anderen Institutionen (z.B. Unternehmensberatungen) zur Verfügung gestellt werden, in ihr bankeigenes Modell der ökonomischen Darstellung; diese Umwandlung der Unternehmenszahlen ist Voraussetzung für die Kalkulation einer Vielzahl ökonomischer Kennziffern. Zweitens besuchen sie persönlich ihre (potentiellen) Kunden, um einen Eindruck vom Zustand des Unternehmens und von der Atmosphäre im Unternehmen zu gewinnen. Sie versuchen, wie ein Bankmitarbeiter erläutert, „to get an idea how the process is running [...] how the production facilities are organised, what the ambience is like, and how the workers move around.”1 Es sind diese direkten Beobachtungen der ökonomischen Realität, die eine „sinnliche Gewissheit“ (Hegel 1983: 65) erlauben: Die ökonomische Lebenswelt ist genau so, wie Bankmitarbeiter sie wahrnehmen. Drittens verfassen sie ein Credit Proposal, in dem die Ergebnisse zusammengefasst werden: Zweck, Laufzeit und Konstruktion des Kredits und Beschreibung des zu finanzierenden Objektes, mögliche Sicherheiten und 1

Das empirische Material dieser Studie wurde durch mehrmonatige teilnehmende Beobachtungen in zwei internationalen Großbanken generiert, und zwar in deren Tochtergesellschaften in Polen bzw. Bulgarien. Darüber hinaus führte ich Interviews in Bankzentralen in Frankfurt/Main, London, München und Paris sowie in Inlandsbanken in Warschau, Prag und Sofia (vgl. Kalthoff 2007a).

144

Herbert Kalthoff

interne Evaluation (Rating), die Kreditwürdigkeit des Unternehmens und seine ökonomisch-finanzielle Situation, Informationen über den Schuldner (Adresse, Dauer der Bankbeziehung etc.) und schließlich handschriftliche Anmerkungen des unterzeichnenden Bankmitarbeiters, der mit der entsprechenden (Kredit-)Kompetenz ausgestattet ist. Das Credit Proposal ist Gegenstand vielfältiger Aushandlungen, und zwar innerhalb der Tochtergesellschaften großer internationaler Banken und zwischen Tochtergesellschaften und dem Hauptsitz der jeweiligen Bank. Zwei Abteilungen sind in der Organisation der Bank für die Kreditentscheidung verantwortlich: Corporate Banking und Risk Management. Das Corporate Banking bereitet das Geschäft vor, führt Verhandlungen mit den Unternehmen über die Konstruktion des Kreditgeschäfts (hierzu: Kalthoff 2004), beobachtet und bewertet die Geschäftsaussichten des Unternehmens auf den entsprechenden Märkten. Das Risikomanagement führt eine Unternehmensevaluation durch, die ausschließlich auf Dokumenten beruht, und zwar auf der Basis transformierter Unternehmenszahlen. Auf diese Weise fungiert das Risikomangement als „eine Art Supervisor“ (Abteilungsleiter) des Corporate Banking. Die offizielle und rechtlich kodierte Darstellung des Kreditprozesses sieht somit eine organisationale Arbeitsteilung, eine Ausdehnung der Kreditvorbereitung und des Entscheidungsprozesses vor. Dies impliziert, dass der Kreditprozess eine binäre Struktur aufweist: Auf der einen Seite die Corporate Banker (auch Firmenkundenbetreuer genannt), die über einen direkten Kontakt mit den Klienten verfügen, Kredite und Kunden einwerben, eine „Vertrauensbeziehung“ zu den Unternehmen aufbauen und ein gewisses Selbstinteresse am Kreditgeschäft mitbringen, da sie für jeden Kreditabschluss eine Prämie erhalten. Auf der anderen Seite der Risikoanalyst, der sich ausschließlich für die schriftlichen Dokumente der Unternehmen interessiert und damit für die Kalkulation des Riskios. In diesem Aufsatz werden Praktiken der Kalkulation als epistemische Praktiken im Rahmen angewandter Mathematik konzipiert. Epistemische Praktiken befragen die Umstände, Ereignisse und Artefakte, die in den alltäglichen Routinen als selbstverständlich gelten. Zur gleichen Zeit sind sie selbst Routinetätigkeiten im eigenen Recht und ihre Performanz wird durch technische Dinge, Verfahren, andere Akteure und Verhandlungen gerahmt.2 Das Bestreben, Wissensobjekte zu beschreiben und abzugrenzen, wird folglich durch technische und andere Mittel stabilisiert: Sie betten die Wissensobjekte ein, und zwar in dem Sinne, dass sie sie darstellen und qua Darstellung als solche hervorbringen. Diese technischen Mittel werden dabei nicht als neutrale Objekte konzipiert, sondern als theorieinduzierte Instrumente der Repräsentation (vgl. Rheinberger 2001; Knorr Cetina 1999). Epistemische Praktiken erkunden in diesem Sinne ökonomische Objekte wie etwa die Zahlungsfähigkeit eines Unternehmens, die Entwicklung von Märkten und Preisen, die Dynamik des Devisenhandels usw. Das zentrale Wissensobjekt der Bankwirtschaft ist die ökonomische Zeit von Akteuren und Investitionen; es hat zwei Implikationen: Es präsentiert sich erstens nicht in einer klaren, sofort erkennbaren Weise, sondern bleibt vage und auch ambivalent und fordert daher gewisse Anstrengungen, erkennbar zu werden. Zweitens ist der Sinn einer ökonomischen Investition nicht einfach gegeben, sondern wird nach und 2

Die Unterscheidung zwischen Objekten, die in Handlungsroutinen als selbstverständlich angenommen werden, und denen, die durch epistemische Praktiken befragt werden, findet sich auch bei Heidegger (2001). Ihm zufolge sind Instrumente „zuhanden“ und werden für bestimmte Zwecke verwendet, auf die sie selbst fraglos verweisen. Aber in Situationen, in denen diese Referenz der Objekte gestört wird, werden sie selbst befragt und müssen erneut stabilisiert werden (vgl. Heidegger 2001: 74).

Ökonomisches Rechnen: Zur Konstitution bankwirtschaftlicher Objekte und Investitionen

145

nach erarbeitet. Im Folgenden erörtert dieser Aufsatz verschiedene Aspekte der ökonomischen Berechnung, wie sie im Risikomanagement umgesetzt wird. Der Aufsatz skizziert die technischen Rahmenbedingungen der Risikokalkulation, und zwar in Bezug auf das globale Software- und Datenmanagement von Banken. Im Folgenden erörtert und begründet der Aufsatz die These, dass die Berechnungsverfahren das auf seine Kreditwürdigkeit zu prüfende Unternehmen neu konstituieren. Gezeigt wird ferner die Konstruktivität ökonomischer Zahlenwerke, die sich aus der Arbeit an der ökonomischen Kategorie ergibt. Daran anschließend analysiere ich Aushandlungen der kalkulierten Zahlen zwischen Risikoanalysten in den Tochtergesellschaften und Risikoanalysten in den Zentralen internationaler Großbanken. Die Analyse der mündlichen Interpretationen schriftlicher Dokumente zielt darauf ab, den Begriff der Kalkulation zu erweitern, und zwar von „etwas berechnen“ zu „mit etwas rechnen“. Mit dieser Beziehung von Darstellung und Interpretation, Mündlichkeit und Schriftlichkeit analysiert der Aufsatz Praktiken der Kommunikation und Kognition, in Ideen und Erwartungen über die zukünftige Entwicklung der ökonomischen Strategie der Bank involviert sind. Beide Konzepte – „etwas berechnen“ und „mit etwas rechnen“ – gehen zurück auf Heideggers Schriften über die soziale Rolle und das soziale Funktionieren von Technologie in modernen Gesellschaften. In einem ersten Schritt wird die Heideggersche Position erörtert, um ihre Relevanz für eine Soziologie der Kalkulation zu bestimmen. Kalkulation und Technologie Die Rolle und die Funktionsweise von Technologie werden in der Soziologie von verschiedenen Ansätzen untersucht. Posthumanistische Theorien des Sozialen symmetrisieren die soziologische Betrachtungsweise insofern, als sie den nicht-menschlichen Akteuren einen gewichtigen Anteil an der Performanz von Handlungen zuweisen. Zentral für diese Ansätze ist eine Dezentrierung des Subjekts und der Rolle, die es in der Soziologie spielt. Die Erfindung von technischen Dingen, an die die Umsetzung und Vereinfachung von Funktionen und Optionen, Werten und Routinen delegiert wird, führt zu einer Auflösung der einfachen Dichotomie von menschlichen und nicht-menschlichen Akteuren. Im Kern geht es um die menschliche Handlungsträgerschaft als eine technisch gerahmte und umgesetzte Interaktion. International bekannt ist der Ansatz der Actor Network Theory mit einem starken semiotischen Kulturbegriff und akteursanalogen Artefakten, die das interaktive Geschehen qua „Interobjektivität“ (Latour 1994) rahmen; in Deutschland ist es insbesondere das Konzept der „geteilten Handlungsträgerschaft“ wie es von Werner Rammert entwickelt worden ist (vgl. Rammert/Schulz-Schaeffer 2002); angestrebt wird dabei eine Empirisierung und auch kultursoziologische Reformulierung der Actor Network Theory. Hier existieren Verbindungen zum sozialen Konstruktivismus in den Science and Technology Studies, der die gegenseitigen und vielschichtigen Anpassungen und Regulierungen zwischen menschlichen Akteuren und technischen Artefakten sowie deren Integration in die soziale Welt als Prozess einer interpretativen Stabilisierung beschreibt (vgl. Bijker et al. 1987; Oudshoorn/Pinch 2003). Die Autonomie technischer Objekte wird in diesen Studien mit dem Wissen der Akteure konfrontiert, sie für bestimmte Zwecke einzusetzen und zu handhaben, ohne dass hiermit eine stabile und dauerhafte Konfiguration angenommen wird. Auch wenn menschliche Akteure durch technische Dinge gerahmt werden, verfügen sie dennoch über sie,

146

Herbert Kalthoff

erfinden und produzieren sie. In neueren Arbeiten lässt sich auch eine Reorientierung auf die menschliche agency diagnostizieren, die materielle und technische Figuration menschlicher Lebenswelten in Rechnung stellt (z.B. Pickering 1995). Dieser Aufsatz verfolgt eine andere Strategie: Um die Logik (materialer) Praktiken im Risikomanagement von internationalen Banken zu erforschen, greift er auf die technikphilosophischen Arbeiten von Martin Heidegger zurück. Dies geht nicht ohne Schwierigkeiten, denn Heidegger vertritt ein ambivalente Position gegenüber modernen Technologien: kritische anti-technologische Gedanken, die Idee einer menschlichen Kontrolle über Technologie und romantische Ideen des Handwerkertums finden sich in seinen Texten (vgl. Dreyfus 1993: 303ff.; 2002: 163f.). Ebenso lädt seine Sprache – eine Art Privatsprache – zur Kritik geradezu ein (vgl. Bourdieu 1988). Daher geht es in diesem Aufsatz nicht darum, mit Heidegger eine totalisierende Perspektive auf Technologie und Kalkulation zu entwickeln, die konzeptuell und empirisch kaum aufrecht zu halten wäre. Ziel des Aufsatzes ist es vielmehr, eine konstitutionstheoretische Perspektive zu begründen und damit die Debatte über die Relevanz Heideggerischer Ideen für die Soziologie aufzunehmen (vgl. Weiß 2001; Martens 2001). Der Aufsatz rezipiert im Wesentlichen die späteren Arbeiten Heideggers (1952; 1994; 1997 [1957]; 2000a [1954]; 2000b [1959]; 2002 [1957]) und bezieht die Werkinterpretationen von Dreyfus (1992; 1993; 2002; Dreyfus/Spinosa, 1997) und Seubold (1986) mit ein. Der Ausgangspunkt der Heideggerschen Überlegung ist eine Unzufriedenheit mit anthropologischen und instrumentellen Erklärungen der Technologie und technischer Dinge. Heidegger konstatiert, dass beide Positionen nicht falsch, aber unvollständig sind, um das Wesen von Technik zu erfassen oder um zu erklären, wie Menschen von der Technik einbezogen werden. Heidegger zufolge kann das Wesen der Technik nur dann verstanden werden, wenn die Frage gestellt wird, wie etwas Abwesendes hervorgebracht und damit anwesend wird. Sein Hauptanliegen ist es daher, das Wesen der Technik als eine „Weise des Entbergens“ (Heidegger 2000a: 16) zu verstehen; das „Entbergen“ als „Grundzug“ moderner Technik (Heidegger 2000a: 18) bringt das nicht Sichtbare oder Verborgene hervor und damit zur Existenz. Technik ist für Heidegger daher nicht nur ein Mittel; im entbergenden Wesen der Technik zeigt sich vielmehr ein „Herausfordern“ (Heidegger 2000a: 18). In der Heideggerschen Sprache werden Dinge durch dieses Herausfordern „gestellt“, das heißt hervorgebracht und in einen anderen, die hervorgebrachten Dinge „stellenden“ Zusammenhang gebracht. Um die Signatur der modernen Technik zu fassen, sind für Heidegger drei Argumente zentral: Das erste Argument lautet, dass moderne Technik einem Ordnungssystem gleicht (z.B. Heidegger 1994: 24ff.; 2000a: 23ff.), das jede anwesende menschliche und nicht-menschliche Entität als Ressource behandelt, die genutzt, herausgefordert und transformiert wird. Es ist ein fragloses, kaum erklärbares Geschehen, das alles, und zwar wiederholt und andauernd, in einen Zusammenhang und zu sich stellt (vgl. Heidegger 1994: 31). Das Paradigma dieses Prozesses der Ordnung und Effizienz ist das „Herausfordern“ von Energie durch ein Wasserkraftwerk: Ein Fluss als ein natürliches Objekt bringt aus sich heraus keine elektrische Energie hervor; er wird durch das Kraftwerk gestellt, das ihn auf die Funktion „stellt“, Turbinen anzutreiben: „Das Wasserkraftwerk ist in den Rheinstrom gestellt. Es stellt ihn auf seinen Wasserdruck, der die Turbinen daraufhin stellt, sich zu drehen, welche Drehung diejenige Maschine umtreibt, deren Getriebe den elektrischen Strom herstellt, für den die Überlandzentrale und ihr Stromnetz

Ökonomisches Rechnen: Zur Konstitution bankwirtschaftlicher Objekte und Investitionen

147

zur Strombeförderung bestellt sind. Das Wasserkraftwerk ist nicht in den Strom gebaut [...] Vielmehr ist der Strom in das Kraftwerk verbaut. [...] Diese [Herausforderung, H.K.] geschieht dadurch, daß die in der Natur verborgene Energie aufgeschlossen, das Erschlossene umgeformt, das Umgeformte gespeichert, das Gespeicherte wieder verteilt und das Verteilte erneut umgeschaltet wird. Erschließen, umformen, speichern, verteilen, umschalten sind Weisen des Entbergens.“ (Heidegger 2000a: 19f.)

Das Beispiel enthält zwei wichtige Argumentationslinien von Heidegger: Zum einen zeigt es, dass jedes Element durch ein anderes Element gestellt ist. Diese „Kette des Bestellens“ (Heidegger 1994: 29), die kein Ende kennt, sondern als „Kreisgang“ (Heidegger 1994: 29) konzipiert ist, gleicht einer „endless disaggregation, redistribution, and reaggregation for its own sake“ (Dreyfus/Spinosa 1997: 163; Herv. im Orig.). Zum anderen zeigt das Beispiel auch, dass, gemäß Heidegger, die moderne Technik jedes Objekt auf seine materielle Qualität und Funktion reduziert (etwa auf die Erzeugung von hydraulischem Druck) und es hierdurch sofort und vollständig verfügbar macht. Dieses Merkmal moderner Technik trifft nicht ausschließlich auf technische Hardware zu, sondern gilt ebenso für Informationen und Organisationen. In späteren Schriften wird die computergestützte Bearbeitung von Informationen für Heidegger zum Paradigma der Technik und der modernen Wissenschaft (insbesondere der Physik) (vgl. Heidegger 1997; Dreyfus/Spinosa 1997). Verbunden ist hiermit die Perfektion der Technik, die sich in einer „durchgängigen Berechenbarkeit der Gegenstände“ (Heidegger 1997: 198) zeigt, die damit als ein „System von Informationen bestellbar“ (Heidegger 2000a: 26) werden. Mit dem zweiten Argument schlägt Heidegger eine Perspektive vor, die das SubjektObjekt-Verhältnis neu bestimmt: Nicht das Kraftwerk ist in den Rhein gebaut, sondern der Rhein in das Kraftwerk. Der Rhein ist das, was er ist, durch das Kraftwerk – und nicht umgekehrt. Im Ordnungssystem des Gestells, das jedes menschliche und nicht-menschliche Wesen als Ressource betrachtet, konstituiert moderne Technik die Welt, indem sie zeigt, wie mit Objekten umzugehen ist und wie ein effektives Ordnen der Ressourcen organisiert wird. Heidegger (2000a: 20f.) illustriert diesen Punkt am Beispiel des Flugzeugs: Das Wesen eines Flugzeugs erschließt sich nicht durch seine materiellen Eigenschaften oder durch seine Startfähigkeit, sondern durch den Zusammenhang, in den es gestellt ist. Dies ist das internationale Transportsystem, in dem Menschen den Zweck erfüllen, die startbereiten Maschinen zu füllen (vgl. Dreyfus 1993: 306). Übertragen auf das ökonomische Rechnen bedeutet dies folgendes: Die Umsetzung einer Berechnung unter Zuhilfenahme technischer Mittel steht in einer „Kette“ (Heidegger) der Umformung, die Uniformität, Vergegenständlichung und Herrschaft mobilisiert: Eine Ebene der Kalkulation stellt eine andere Berechnungsebene, eine ökonomische Repräsentation stellt eine andere ökonomische Repräsentation, eine Interpretation stellt eine andere Interpretation. Das, was die technische Infrastruktur erwirkt, sind andere Bearbeitungsformen und eine andere Ordnung von Gegenständen, als dies durch einfache Geräte und Werkzeuge der Berechnung möglich war und ist; Techniken und ihre symbolische Ordnung treten daher auch nicht an deren Stelle, sondern nehmen einen eigenständigen Platz ein. Ihr Ort ist der laufende Betrieb; ihre Produkte werden in andere Rahmungen gestellt und dort genutzt und herausgefordert. In diesem Sinne sind der Darstellungsbetrieb und seine technische Infrastruktur darauf abgestellt, ökonomische Kalkulationen hervorzubringen und zu zirkulieren. Wie nicht das Rad die Rotation determiniert, sondern die Rotation das Rad (vgl. Heidegger 1994: 34), wird hier in analoger Weise davon ausgegangen, dass nicht ein Risiko die ökonomische Darstellung und

148

Herbert Kalthoff

Entscheidung bedingt, sondern die Kalkulation und ihre Medien das „Entbergen“ des Risikos – und damit den Markt, das Geschäft und den Gewinn. Das heißt: Ökonomisches Rechnen bringt nicht schon existierende Objekte in eine sichtbare Ordnung, sondern die Objekte werden erst durch die Verfahren der Kalkulation hervorgebracht. In diesem Sinne konstituiert die Berechnung ökonomische Objekte, indem sie sie fixiert (vgl. Seubold 1986: 87ff.). Das dritte Argument dehnt den Begriff des Rechnens über den Umgang mit Zahlen hinaus: „Rechnen im weiten, wesentlichen Sinne meint: mit etwas rechnen, d.h. etwas in Betracht ziehen, auf etwas rechnen, d.h. in Erwartung stellen. In dieser Weise ist alle Vergegenständlichung des Wirklichen ein Rechnen [...].“ (Heidegger 2000a: 54) Oder er schreibt: „Wir stellen sie [die Umstände, H.K.] in Rechnung aus der berechneten Absicht auf bestimmte Zwecke. Wir rechnen im voraus auf bestimmte Erfolge. [...] Solches Denken bleibt auch dann ein Rechnen, wenn es nicht mit Zahlen operiert und nicht die Zählmaschine und keine Großrechenanlage in Gang setzt. Das rechnende Denken kalkuliert.“ (Heidegger 2000b: 12; vgl. auch Heidegger 1997: 168). Wichtig ist in diesem Zusammenhang, dass Heidegger das „rechnende Denken“ vom „besinnlichen Nachdenken“ (Heidegger 2000b: 13) und „vorstellenden Denken“ unterscheidet. Das rechnende Denken kennzeichnet Planung und Forschung (Heidegger 2000b: 12) mit dem Ziel, etwas genau zu kennen, zu messen und zu bestimmen; das besinnliche Nachdenken ist dem Menschen als „sinnende[s] Wesen“ (Heidegger 2002b: 14; Herv. im Orig.) eigen und fordert ihm Anstrengung und Sorgfalt ab. Das vorstellende Denken ist eine Aktivität, die etwas anderes in Relation zu sich selbst bringt und es in der Weise des Vorstellens gestaltet; es überbrückt auch die Differenz von rechnendem und besinnlichem Denken (vgl. Buckley 1992: 234ff.). In seinem „Weltbild“-Aufsatz schreibt Heidegger: „[W]ir sind über etwas im Bilde. Das will sagen: die Sache selbst steht so, wie es mit ihr für uns steht, vor uns. Sich über etwas ins Bild setzen heißt: das Seiende selbst in dem, wie es mit ihm steht, vor sich stellen und es als so gestaltetes ständig vor sich haben.“ (Heidegger 1952: 82). Sich etwas vorstellen ist also ein „vor sich hin und zu sich her Stellen“ (Heidegger 1952: 85). In diesem Bildbegriff, der nicht „Abklatsch“ (Heidegger) der Wirklichkeit meint, kommt die Aktivität des Herstellens durch Vorstellen zum Ausdruck. Vorstellen heißt demnach, etwas zu kennen und präsent zu haben, Relationen zu verschieben und hierdurch zu gestalten. Dieser Aspekt sei hier durch die Aussage eines Senior Risk Analyst einer französischen Geschäftsbank illustriert, der in einem Interview sagt: „One can say that figures do speak, that they provoke images. This means that we aren’t like robots. Every time I see figures, they provoke images and a certain behaviour. I’ll give you an easy example. Let’s say we have an enterprise: The margins are not particularly good, the cash flow is not very good, we also have liabilities. I see that immediately, I immediately imagine the workers doing their jobs. I also imagine the problems with the stock, which is very important. I imagine the clients who are not paying their debts on time. All this. I simply have a mechanism, a logic, which starts moving inside my head. What happens is that the figures are a pretext with which you can go further. Therefore, figures do speak. But the figures speak because they make other things speak.”

Der Risikoanalyst unterstreicht die Reziprozität von Zahlen und Objekten, von Erfahrung und Imagination im vorstellenden Denken. Wie gezeigt, unterstreicht Heidegger (1952) die empirische Relevanz solcher kognitiven Repräsentationen: Eine Sache vorzustellen heißt in diesem Sinne sie durch dieses Denken mit hervorzubringen. An dieser Stelle existieren

Ökonomisches Rechnen: Zur Konstitution bankwirtschaftlicher Objekte und Investitionen

149

Parallelen zu Wittgenstein (1994), der über die Beziehung von Berechnung und Beurteilung feststellt, dass Beurteilungen durch Kalkulationen fixiert werden, von denen zugleich Stabilität und Eindeutigkeit angenommen werden: „Wir beurteilen also die Fakten mit Hilfe der Rechnung ganz anders als wir es täten, wenn wir das Resultat der Rechnung nicht als etwas ein für allemal bestimmtes ansähen“ (Wittgenstein 1994: 325). Was aber bedeutet dieses Konzept für die Wirtschaftssoziologie im Allgemeinen und die Social Studies of Finance im Besonderen? Was lernt die wirtschafts- und finanzsoziologische Forschung über die Praxis ökonomischen Rechnens und Kalkulierens, wenn man sie in eine „Kultur des Gestells“ (Martens 2001: 303) einbettet? Innerhalb der neueren finanzsoziologischen Forschung hat insbesondere Michel Callon (1998) einen konzeptionellen Vorschlag unterbreitet, der breit rezipiert worden ist (z. B. MacKenzie 2003). Im Wesentlichen entwickelt Callon zwei Argumente. Erstens: Ökonomisches Handeln ist in die Wirtschaftstheorie und ihre Modellierungen ökonomischer Vorgänge eingebettet. Demzufolge rahmen und formatieren wirtschaftstheoretische Modellierungen ökonomisches Handeln. Die Neigung der Wirtschaftssoziologie, ökonomische Praxis und ökonomische Theorie getrennt zu beobachten und ökonomische Praxis als eine ontologisch eigenständige Sphäre der sozialen Welt zu behandeln, wird ersetzt durch eine symmetrische Perspektive, die die (Wirtschafts-)Soziologie auch davor bewahren soll, Hilfsdisziplin der Wirtschaftstheorie zu sein, die ihre Aufmerksamkeit etwa auf Präferenzen der Akteure richtet. Zweitens unterstreicht Callon: „[…] homo oeconomicus does exist, but is not an ahistorical reality […] He is the result of a process of configuration and is formatted, framed and equipped with prostheses which help him in his calculation […].“ (Callon 1998: 22, 51; Herv. im Orig.) Im Kontext der Actor Network Theory geht es Callon um die Einbettung menschlicher Akteure in ein Netz nicht-menschlicher und durch die ökonomische Theorie formatierter Kalkulationsmittel, die es den Akteuren erlauben, Berechnungen anzustellen, Prognosen zu formulieren und damit auch Handlungen zu evozieren. Demzufolge ist der Callonsche homo oeconomicus ein Glied in einer Kette von Inskriptionen (d.h. Repräsentationen) und sozio-technischen Konstellationen. Hier liegt der soziale Ort der „capacity of economics in the performing (or what I call ‘performation’) of the economy” (Callon 1998: 23). Die Aufgabe der Soziologie besteht – so Callon – nicht darin, eine noch komplexere Version des homo oeconomicus vorzulegen, sondern in „the comprehension of his simplicity and poverty“ (Callon 1998: 50). In jüngster Zeit ist insbesondere das Konzept der „performation“ (Callon 1998: 23) kritisiert worden (vgl. nur Fine 2003; Aspers 2005; Mirowski/Nik-Khah 2006). Dieser Begriff, der in der angelsächsischen Diskussion mit performativity übersetzt worden ist, geht u.a. auf die französische Forschungsrichtung einer Économie des conventions zurück, zu der Autoren wie Laurent Thévenot, Robert Salais und Olivier Favereau gehören. Diese Forschungsrichtung untersucht u.a., wie ökonomische Handlungen so koordiniert werden können, dass Ereignisse oder Entitäten in eine Form gebracht werden, die als Information anerkannt wird und daher als legitime Verallgemeinerung partikularer Umstände (Situationen, Theorien, Personen etc.) zirkulieren kann. Dies wird als „Investment in Forms“ beschrieben (vgl. Thévenot 1984) und als „Formatierung“ ins Deutsche übersetzt. Der Vorschlag Callons, von einer Performation zu sprechen, meint durch Hinzufügung einer Präposition die Durchformatierung einer Entität durch eine andere.3 In Anlehnung an La3

Vgl. hierzu auch Heidegger, der über die Information schreibt: „Indem jedoch die Information in-formiert, d.h. benachrichtigt, formiert sie zugleich, d.h. sie richtet ein und aus“ (Heidegger 1997: 203).

150

Herbert Kalthoff

tour (1994): Wie durch einen unsichtbaren Faden ist die ökonomische Praxis mit den Laboratorien der Wirtschaftstheorie verbunden; die Jahre zuvor entwickelten Formeln bleiben, vermittelt durch eine Industrie von Programmierern, Ingenieuren und Leitungskräften, der Rahmen, der das Handeln der Wirtschaftsakteure bestimmt, kanalisiert und autorisiert. Die kultursoziologische und kulturtheoretische Diskussion des Begriffs Performativität bezieht sich im Anschluss an Austin (1975; 1992) dagegen auf die Realisierung und Hervorbringungsleistung in und durch Medien (wie etwa Sprache und Körper) sowie auf den Aufführungscharakter von Praktiken, die sich, einem Publikum dargeboten, in der Wiederholung verändern (vgl. Wirth 2002). Wichtig ist der Begriff in der Geschlechterforschung (bspw. Butler 1988), in Untersuchungen der Realisierung von Sprache (z.B. Krämer 1996), in der Analyse der Aufführung des Selbst (z.B. Goffman 1980) sowie der Wirkung und Logik von Darstellungsmedien (vgl. Fischer-Lichte et al. 2001). Orientiert sich also die kultursoziologische und kulturtheoretische Forschung darauf, Performativität mikroanalytisch in verschiedenen Praxiskontexten bzw. Medien zu situieren, markiert Callons Begriff der „performation“ eine Makroteilung der Welt, wobei die eine Welt (Wirtschaftstheorie) auf die andere Welt (ökonomische Praxis) durchgreift. Die Actor Network Theory konzipiert diesen Durchgriff als eine inskribierende Übersetzung, durch die das Soziale, die Natur oder die Technik in eine bearbeitbare Schrift überführt werden kann (z. B. Latour 1999). Dieser semiotische Kulturbegriff bringt die Dinge, die er beschreibt, in eine andere ontologische Ordnung, während kultursoziologische oder kulturtheoretische Performativitätstheorien diese Reduzierung nicht vornehmen. Das Performations-Theorem unterscheidet sich folglich von Diskursen der Performativität insofern, als es die Codierung von Wissen in wirtschaftstheoretischen Modellen zum Ausgangspunkt der Analyse ökonomischer Praktiken macht: Beobachtet werden soll die Formatierung der ökonomischen Welt, die den Modellen der ökonomischen Theorie entspricht. Zu Callons Konzept ist ferner anzumerken, dass es dazu tendiert, die kritische Auseinandersetzung mit den Inkonsistenzen ökonomischer Theorie abzuschließen (vgl. nur Rosenberg 1979; Mirowski 1984; McCloskey 1994; Cullenberg/Dasgupta 2001) und damit den soziologischen Blick auf die Praxis der ökonomischen Theoriebildung abzukürzen sowie andere soziale Dimensionen ökonomischer Praktiken zu ignorieren. Gleichwohl wird hier die Auffassung vertreten, dass die rahmende Funktion sowohl des ökonomischen theoretischen Wissens, das etwa in Techniken, Bankprodukte und Darstellungsinstrumente eingeht, als auch der staatlichen Regelungen, die den Markt formatieren, für eine Soziologie ökonomischen Handelns von Bedeutung. Zugleich scheint aber auch die Rehabilitierung der sozialen Akteure sinnvoll, die in diesem Konzept in der Dynamik der Inskription aufzugehen scheinen. Anzumerken ist ebenfalls, dass bislang nur wenige Studien vorliegen, die das Programm in konkrete soziologische Forschung umgesetzt haben (vgl. Muniesa 2003). Im Unterschied zur Actor Network Theory reicht eine konstitutionstheoretische Perspektive, wie sie hier im Anschluss an Heidegger skizziert worden ist, über die Analyse der semiotischen Kultur sozio-technischer Netzwerke hinaus. So wird die Durchführung beispielsweise der Risikokalkulation auf ihre eigene Performativität bezogen, die ihrerseits ökonomische Objekte, die sie ordnet, kategorisiert und kalkuliert, hervorbringt. Dies geschieht nicht jenseits menschlichen Handelns, aber auch nicht durch menschliches Handeln allein. Die technischen Dinge sind Mittel in den Händen menschlicher Akteure, welche ihrerseits ein wesentlicher Bestandteil der Funktionsweise technischer Dinge sind (vgl. Heidegger 1994: 68; 2000: 16). Beide werden in der Heideggerschen Perspektive kontex-

Ökonomisches Rechnen: Zur Konstitution bankwirtschaftlicher Objekte und Investitionen

151

tiert durch den Prozess des Hervorbringens von Wirklichkeit. Ferner erlaubt die empirische Perspektive, die mit einem konstitutionstheoretischen Ansatz eingenommen wird, das Handeln und Sprechen der Akteure sowie die Performativität ökonomischer Darstellungen im Rahmen des Risikomanagements als eine kalkulative Praxis zu beobachten und zu beschreiben. Soziologische Theoriebildung erfolgt in diesem Ansatz somit auf der Grundlage empirischer Beobachtungen, deren Zweck nicht darin besteht, ein Theoriemodell zu verifizieren, sondern Theorie generieren und auch irritieren zu können. Die technischen Rahmenbedingungen des Risikomanagements Ein erster Blick in die Abteilung Risikomanagement einer Bank zeigt diese Abteilung als Anordnung von Rechnern, die über die Arbeitsplätze der Risikoanalysten verteilt und über Rechnernetzwerke aneinander gekoppelt sind. Aus der Perspektive der Risikoanalysten betrachtet sind Rechner und Programme bloßes Werkzeug, das Anwendungen möglich macht. Sie haben die Rechner nicht konstruiert und die Software auch nicht programmiert; sie sind Nutzer der Rechner, das heißt sie sind Anwender von Softwareprogrammen, und zwar solchen Softwareprogrammen, wie sie der zuständige Konzernbereich für die Risikokalkulation entwickelt und installiert hat. Während die Risikoanalysten selbst an ihren Büroplatz gebunden sind, so sind es die Daten, die beweglich sind und von ihnen bewegt und transformiert werden. Die Tätigkeit der Risikoanalysten ist individualisiert, denn sie sind in der Regel für einzelne Unternehmen oder Branchen zuständig; direkte professionelle Verknüpfungen ergeben sich auf horizontaler Ebene nur selten mit anderen Risikoanalysten, sondern eher mit den Firmenkundenbetreuern, die diese Unternehmen respektive Branchen vertreten. Die rechnergestützten Daten, auf die der Risikoanalyst zurückgreifen kann, sind Daten über Unternehmen und Branchen sowie über die wirtschaftliche Entwicklung von Regionen und Ländern. Der Rechner stellt ihm aber nicht allein Daten zur Verfügung, mit denen er ökonomische Entwicklungen oder ein Unternehmen kalkulieren kann, sondern auch die Formate, in denen dieses durchgeführt wird. So sind beispielsweise Cashflow-, Ratio- oder Projection-Sheet spezifische Technologien der ökonomischen Darstellung mittels Kalkulation, die Effekte der Homogenisierung und Vereinfachung erfordern und durchsetzen.4 Der Risikoanalyst operiert folglich auf der Basis von Formen, in die seine Organisation Wissen implementiert hat. Das heißt auch: Die Arbeit an der Form der Kalkulation ist im Moment ihrer Anwendung abgeschlossen; Aushandlungen über die Implikationen der Berechnungsmodelle oder über die Implementierung anderer Kalkulationsverfahren finden nicht im Risikomanagement, sondern in anderen Bankabteilungen statt.

4

Dies gilt in gleicher Weise für Mitarbeiter, die im FX-, Bond- oder Derivatehandel oder im Investmentbanking tätig sind. Hier sind rechnergestützte Berechungstools der technischen Analyse auf die Rechner der Händler gespielt, die mit ihnen operieren.

152 Abbildung 1:

Herbert Kalthoff

Backup-Network für die Tochtergesellschaft einer internationalen Großbank

Das Updaten der Rechnerprogramme und das tägliche Backup der Daten wird durch ein Backup Network realisiert, in das Banken ihre Tochtergesellschaften einbinden. Die in Abbildung 1 dokumentierte technische Infrastruktur des Datentransfers zeigt, wie in der zweiten Hälfte der 1990er Jahre ein lokales internes Netwerk („Subsidiary“) durch Router mit den Netwerken der zentralen Rechenzentren („Headquarters“) verbunden ist. Ohne alle technischen Details erörtern zu können, seien hier folgende strukturelle Merkmale festgehalten: Das gesamte Backup-System dieser Tochtergesellschaft ist auf Ausfallsicherheit ausgelegt. Dies wird erstens daran deutlich, dass an drei geographisch voneinander getrennten Standorten Backups des gesamten Datenbestandes vorgenommen werden, und zwar in einem lokalen Rechenzentrum und in zwei zentralen Rechenzentren. Zweitens verweist die Tatsache, dass wie die Verknüpfung zwischen den Einzelnetzen („Subsidiary“, „Local backup“ etc.) mit dem Symbol des Blitzes () dargestellt wird, darauf, dass zwischen den Einzelnetzen keine direkte Verbindung, sondern eine Verbindung über ein weiteres Medium besteht (Telefonnetz, Standleitung oder Satellit). Deutlich wird, dass zwei unterschiedliche Arten von Datenfernübertragung (DFÜ) genutzt werden: Einmal das eigene Telefonnetz bzw. Standleitungen zwischen den Organisationseinheiten, zum anderen eine Satellitenverbindung zwischen „Local backup“ und „Headquarter_2 backup“. Sollte also die Datenfernübertragung über die Telefon- bzw. Standleitung gestört sein, dann ist das Backup zwischen dem lokalen Rechenzentrum und einem zentralen Rechenzentrum durch eine DFÜ-Verbindung gesichert, die vom Telefonnetz bzw. der Standleitung unabhängig operiert. Die angegebenen Bandbreiten für die Verbindung zu den Rechenzentren („Head-

Ökonomisches Rechnen: Zur Konstitution bankwirtschaftlicher Objekte und Investitionen

153

quarter backups“), die aus heutiger Sicht eher gering für den Transfer großer Datenmengen erscheinen, verweisen auf Großrechner in den zentralen Rechenzentren, die die Netzwerkverbindung effizienter nutzen als übliche Rechner. Schließlich ist die Technik des „X.25 Node“ eine in den 1970er Jahren entwickelte Protokollfamilie, die sichere Verbindungen über unzuverlässige Telefonnetze ermöglicht. Die Verwendung dieser Technik in den 1990er Jahren ist insofern plausibel, als das Tochterunternehmen, dessen Backup Network dargestellt wird, in einem osteuropäischen Land operativ tätig ist. Anzumerken bleibt hier, dass auch das Updating von Rechnerprogrammen über diese Verbindungen erfolgt: Eine Vielzahl von Programmen (zur Erfassung von Kundendaten, zur Umsetzung von Transaktionen, zur Berechnung und Darstellung ökonomischer Objekte in den verschiedenen Abteilungen etc.), deren Betreuung auch teilweise an externe Firmen delegiert wird (etwa Bloomberg oder Reuters), wird von den zentralen Rechenzentren aus über die lokalen Rechenzentren auf die individuellen Rechner der Risikomanager und Analysten eingespielt. Dabei werden auch regionale Differenzierungen vorgenommen, die die Erfordernisse und rechtlichen Bedingungen vor Ort berücksichtigen. So sah ein Programm zur Erfassung aller Kundendaten „Branch-Specific Screens“ für New York und Paris vor. Abbildung 2:

Struktur des Datentransfers

Lokales Risikomangement Programme, Daten Daten

Rechenzentrum Subsidiary

Rechenzentren Headquarter Programme, Daten Daten

Der Sinn und Zweck dieses Systems besteht erstens darin, dass es Daten in einem einheitlichen Format an den verschiedensten Orten und global verfügbar macht. Er besteht zweitens darin, Daten nicht nur abrufbar und darstellbar zu machen, sondern auch bearbeiten zu können. Dieses permanente Überschreiben, Sichern, Überschreiben etc. der Daten geschieht in einer Gleichzeitigkeit, die dazu führt, dass innerhalb der lokalen Netzwerke alle Mitarbeiter bei der Benutzung eines bestimmten Rechnerprogramms auf dem neuesten Stand sind und diesen zugleich mit erzeugen. Selbstverständlich, und dies ist nicht überraschend, existiert in den verschiedenen operativen und administrativen Bereichen des Bankgeschäfts eine Vielzahl von Rechnerprogrammen. Im Folgenden geht es um die Nutzung und die Performativität von rechnergestützten Kalkulationstools, die in der Bankwirtschaft für die Berechnung der Kreditwürdigkeit eingesetzt werden. Die Konstruktivität der Zahlen Die Berechnung und damit die Arbeit am Dokument beginnt, wenn die Jahresabschlusszahlen der Unternehmen in der Risikoanalyse eintreffen und von den Risikoanalysten manuell in die Strukturbilanz der Bank übertragen werden. Risikoanalysten nennen diese Aktivität

154

Herbert Kalthoff

„eine Gliederung machen“. Sie beschreiben damit den Umstand, dass die Originalbilanz eines Unternehmens umstrukturiert und somit neu gegliedert wird. In diesem ersten Schritt der Zahlentransformation werden einzelne Positionen neu bewertet, zusammengefasst und umgruppiert. Häufig werden beispielsweise die kurz- und mittelfristigen Verbindlichkeiten eines Unternehmens neu berechnet oder einzelne Positionen der Originalbilanz werden zu einer Position in der Strukturbilanz zusammengefasst. „Eine Gliederung machen“ bedeutet demzufolge, Positionen zu identifizieren und einzuteilen sowie einfache arithmetische Operationen vorzunehmen. Aus der Unternehmensbilanz wird auf diese Weise die Strukturbilanz der Bank, aus dem Unternehmen wird ein neues Unternehmen errechnet, aus der Selbstbeschreibung entsteht eine Fremdbeschreibung. Im Sinne dieser Studie handelt es sich bei dieser Aktivität um die Neukonstitution des Unternehmens, denn sein ökonomischer Rahmen wird durch die Verfahren der Bank neu bestimmt. Mit Foucault (1974: 252ff.) kann auf den Aspekt hingewiesen werden, dass diese Aktivität Ordnung schafft und abweichende Darstellungen methodisch auf ein Format bringt: Der dokumentierte Reichtum eines Unternehmens wird Kategorie für Kategorie, Element für Element aufgetrennt und linear gegliedert. Die neue Anordnung der ökonomischen Darstellung macht Rekombinationen möglich, das heißt verschiedene Kalkulationen, die in weitere ökonomische Repräsentationen münden. Technische Grundlage der Aktivität des „Gliederns“ ist ein Kalkulationsprogramm (ein so genanntes „Data Sheet“). Ein Beispiel: Ein Risikoanalyst sitzt vor seinem Rechner und hat die Eingabemaske geladen, in die er die neuen Zwischenzahlen eines Unternehmens eintragen will. Er klickt „new customer statement“ an und gibt das Datum der Jahresabschlusszahlen ein. Anschließend muss er sich für den „Accounting Standard“ entscheiden; er wählt das „Local Commercial Law“ aus und nicht den USGAAP. Er beginnt mit der Eingabe der Zahlen bei der Position 111 („Cash and Equivalents“). Er tippt die Ziffern „662“, drückt auf die „Return“-Taste und murmelt: „Zack“. In der virtuellen Tabelle erscheint die Ziffernfolge jetzt rechtsbündig gesetzt. Sein Blick wandert von der Originalbilanz zum Bildschirm, vom Bildschirm wieder zurück zur Originalbilanz. So geht es weiter, Kategorie für Kategorie, Zeile für Zeile, Eingabezelle für Eingabezelle. Einige Kategorien setzen sich aus verschiedenen Positionen der Originalbilanz zusammen. So zum Beispiel die Position 321 („Staff Expenditures“). Er tippt zunächst die eigentlichen Personalkosten ein, lässt dann die Personalnebenkosten und die Sozialkosten hinzu addieren. Ob die Eingabe richtig erfolgte, kontrolliert der Risikoanalyst anhand verschiedener Positionen. Aber auch der Rechner selbst produziert Warnungen. Der Risikoanalyst sagt: „Hier hat er jetzt einen Warnhinweis“, und deutet dabei auf eine Zeile. Der Risikoanalyst erläutert weiter: „Der Rechner sagt, das Eigenkapital des Vorjahres plus/minus 'total change in own funds', was sich aus der gesamten GuV [Gewinn und Verlustrechnung] ergibt, muss Eigenkapital des laufenden Jahres ergeben.“

In diesem Beispiel wird eine Routinetätigkeit geschildert, die beinahe täglich zu beobachten ist. Das Beispiel macht deutlich, dass der menschliche Akteur zwischen dem schriftlichen Dokument des Unternehmens und dem Rechner, der ein virtuelles Dokument auf den Bildschirm projiziert, vermittelt. Indem der Risikoanalyst eine Ziffer nach der anderen eingibt und Aggregierungen vornimmt, wird der Rechner in die Lage versetzt, die arithmetischen Operationen durchzuführen, für die das Programm vorgesehen ist. Damit Rechner und Programm miteinander interagieren können, ist dieser Transfer der Originalbilanz vonnöten; zugleich verliert hierdurch das schriftliche Dokument des Unternehmens seine Funktion, den Inhalt der Kalkulation bereitzustellen. Es wird überflüssig, denn es nimmt keinen

Ökonomisches Rechnen: Zur Konstitution bankwirtschaftlicher Objekte und Investitionen

155

Einfluss mehr auf die Kalkulation des Rechners; es wandert in die Akten und spielt im Verfahren der Kreditprüfung keine Rolle mehr. „Eine Gliederung machen“ bedeutet also, die vorliegenden Zahlenwerke des Unternehmens in das bankeigene Schema zu übertragen und somit neue Dokumente zu generieren, welche die zentrale Grundlage für alle weiteren Kalkulationen, Aushandlungen und Entscheidungen darstellen. Aus der Neugliederung entstehen somit die zentralen bankwirtschaftlichen Schriftdokumente. Die Routineaktivität wird durch unklare Fälle unterbrochen. So in einem Fall, als eine Risikoanalystin über einen Betrag stutzt, der als „weitere Einnahme“ gekennzeichnet ist. Sie gliedert den Betrag in eine variable Position, das heißt in eine Position, die sie selbst definiert, und bittet den Kundenbetreuer, diese Position mit dem Unternehmen zu klären. Später teilte ihr der Corporate Banker mit, dass es sich um einen „Inter-Company Loan“ handelt. In einem weiteren Fall kann der Risikoanalyst die vom Rechner angezeigte Differenz nur durch „Probieren“ klären, und zwar so lange „bis das dann funktioniert“ und der Rechner keine Differenz anzeigt. Konkret geht es darum, die Position „Sachanlagen laufendes Jahr“ zu ermitteln. Dieser „Sachanlagenanschluss“ wird durch eine arithmetische Operation ermittelt: Sachanlagen (previous year) plus Zugänge minus Abgänge minus Abschreibungen ergibt Sachanlagen (laufendes Jahr). Oder in den englischen Fachbegriffen: Fixed Assets (Vorjahr) plus Addition to Fixed Assets minus Net Disposal of Fixed Assets minus Depreciation ergibt Fixed Assets (current year). Das Problem besteht nun nicht darin, diese Berechnung durchzuführen, sondern zu wissen, welche Werte für die jeweiligen Kategorien (Zugänge, Abgänge und Abschreibungen) zu berücksichtigen sind. Wenngleich nun die Rechenschritte sowie die Werte vorgegeben sind, geht die Kalkulation nicht auf. Der Risikoanalyst korrigiert in einem ersten Schritt einen Fehler. Er hat nämlich die Abschreibungen auf Anlagevermögen (Depreciation) und die Abschreibungen auf immaterielle Anlagegüter (Amortisation) irrtümlich zusammengefasst. Im „Income Statement“ trägt er nun beide Ziffern getrennt ein. Im nächsten Schritt nimmt er eine Liste zur Hand, in welcher die Bewegung des Anlagevermögens detailliert festgehalten ist. Er addiert diejenigen Positionen, die als Abgänge bezeichnet sind; von diesen zieht er wiederum die Abschreibungen auf die Abgänge ab und erhält somit den vom Rechner vorgegebenen Betrag (Position 612). Ähnlich verfährt er mit den Zugängen. Die Differenz, die der Rechner ausgewiesen hatte, entstand dadurch, dass der Risikoanalyst zunächst einer anderen Darstellungsphilosophie gefolgt war, indem er die „geleisteten Anzahlungen auf Investitionen“ nicht als „Zugang“ kategorisiert hatte. Er kommentiert dies so: „Es ist oft sehr unterschiedlich dargestellt. Da muss man immer probieren, wie das dann funktioniert.“ In diesem Zitat äußert sich eine pragmatische Haltung zur angewandten Darstellung und eine Orientierung an den Vorgaben des Rechners. Ferner zeigen diese Szenen, wie stark das rechnergestützte Format – insbesondere die Formelzellen der Kalkulationstabelle – in das Geschehen eingreift und die Aufmerksamkeit der Risikoanalysten auf sich zieht; an den Vorgaben und Kalkulationen des Formates richten sie ihre weiteren Schritte aus, das heißt sie addieren hinzu, streichen Zahlenwerte oder ignorieren die „Warnung“. In gleichen Worten formulierten verschiedene Teilnehmer, dass sie immer wieder probieren und sehen müssten, ob „es hinkommt“: „Probieren“ und „Hinkommen“ verdeutlichen, dass „eine Gliederung machen“ keine einfache Zahlenübertragung von einem Kalkulationsschema in ein anderes ist, sondern eine Arbeit der Passung derjenigen Berechnungskategorien, die den Schemata zugrunde liegen. Sie zeigt mit anderen Worten die Konstruktivität der Zahlen.

156

Herbert Kalthoff

Die Arbeit an der Neukonstitution des Unternehmens kann auch so weit reichen, dass Unternehmenszahlen erfunden werden. So konstruierten Risikoanalysten in einem Fall eine so genannte „Pro-forma-Bilanz“: Für ein Unternehmen, das bisher zu einer Unternehmensgruppe gehört hatte und bilanztechnisch nicht selbständig ausgewiesen war, verfasste man nachträglich eine Bilanz. Man habe, so der Risikoanalyst, das neue Unternehmen bilanztechnisch aus dem alten Unternehmen herausgelöst und man tue jetzt so, als sei es schon in den Jahren zuvor selbständig gewesen. Man operiere aber eigentlich auf einer Zahlenbasis, die sehr unsicher sei und von der man gar nicht wisse, ob sie so stimmen und „hinkommen“ werde. Unabdingbare Voraussetzung für die Regeln dieser Kalkulationen ist die Arbeit an ökonomischen Kategorien, die von „Kapitalumschlaghäufigkeit“, „Bruttoumsatzüberschuss“ bis hin zu „FX Adjustments“ reichen. Berechnet werden die Kategorien mit Hilfe von Gleichungen, die oft durch einfache arithmetische Operationen gekennzeichnet sind. Als Beispiel sei hier der „Return on Investment“ angeführt. Die finanzwirtschaftliche Gleichung „Return on Investment“ ist das Produkt einer Multiplikation von Eigenkapitalquote und Eigenkapitalrentabilität. Beide Faktoren verweisen auf monetäre Ziele des Unternehmens, und zwar auf „Geld verdienen“ und „Verdienstquelle sichern“ (Baetge 1998: 522); die betriebswirtschaftliche Rede lenkt den Blick also auf die Ertragskraft und finanzielle Stabilität eines Unternehmens, die auf diese Weise erfasst werden können. Die Eigenkapitalrentabilität gibt aus betriebswirtschaftlicher Sicht an, wie effizient ein Unternehmen gearbeitet hat; sie drückt insofern die Unternehmensrentabilität aus. Cashflow I, Eigenkapital, Gesamtkapital sind ihrerseits auch zusammengesetzte Gebilde etwa aus dem rechnerischen Verhältnis von Betriebsergebnis, Normalabschreibungen (oder Zuschreibungen) und Zuführung (oder Auflösung) von Pensionsrückstellungen (wie im Falle des Cashflow I). Grundlage dieser Verzweigung und Interdependenz der Berechnungsdimensionen sind Kennzahlensysteme, welche die finanzwirtschaftlichen Gleichungen miteinander kombinieren und – im Falle der „Dupont Formel“ – pyramidenförmig zu einer „Spitzenkennzahl“ (Baetge 1998) zusammenführen. Rechentechnisch gesehen werden die Gleichungen durch Operationen der Zerlegung, Substitution und Erweiterung gebildet (vgl. Küting/Weber 2000: 27f.). Die angewandten Gleichungen erzielen einen Effekt: Sie zeigen, auf welche Art und Weise ökonomische Darstellungen behandelt und kombiniert werden können. Die Kalkulation von ökonomischen Größen ist in der Risikoanalyse vor allem das Ingangsetzen einer Rechenmaschine, die an anderen Orten hergestellt und programmiert sowie laufend aktualisiert wird. Mittels ihrer logischen Kalküle transformiert und kalkuliert diese Rechenmaschine das empirisch verfügbare Datenmaterial in einer Weise, dass andere Dimensionen des Unternehmens verfügbar werden. Diese Arbeit am Dokument minimiert nicht nur den Kontakt zur empirischen Realität, sondern erzeugt ganz neue Ansatzpunkte und Perspektiven auf sie. Das heißt: Sie bringt im Medium der Darstellung und Kalkulation Gegenstände hervor und damit vor die körperlichen Augen der Bankmitarbeiter. Hiermit verknüpft ist eine Verschiebung auf die interne Plausibilität und Richtigkeit der ökonomischen Darstellung.

Ökonomisches Rechnen: Zur Konstitution bankwirtschaftlicher Objekte und Investitionen

157

Struktur des ökonomischen Diskurses Berechnendes Denken im Sinne Heideggers wird – wie gezeigt – im Kontext der Transformation der Unternehmenszahlen und im Umgang mit den Erfordernissen sichtbar, die die rechnergestützten Kalkulationsprogramme vorgeben. In diesem Abschnitt wird das berechnende Denken in den Zusammenhang derjenigen Diskussionen und Auseinandersetzungen gestellt, die über das errechnete ökonomische und finanzielle Standing des Unternehmens und in Bezug auf die Entscheidung über die Transaktion geführt werden. Wie an anderer Stelle dargelegt (vgl. Kalthoff 2005; 2007a) finden diese mündlichen Erörterungen innerhalb der und zwischen den beteiligten Organisationseinheiten – Tochterunternehmen (lokale Ebene) und Bankzentrale (globale Ebene) – statt. Beteiligt sind auf der lokalen Ebene die Abteilungen Risk Management und Corporate Banking, auf der globalen Ebene in der Regel nur das Risk Managment. Diese Erörterungen finden mal in symptomatischer, mal in systematischer Form statt. Zu den symptomatischen Formen zähle ich u.a. Gespräche auf dem Flur, zwischen ‚Tür und Angel’ oder bilaterale Telefonate und Emails; zu den systematischen Formen zähle ich solche Zusammenkünfte, die in der Bank strukturell vorgesehen sind, wie etwa die Sitzung von Kreditkomitees oder Telefonkonferenzen. Empirisch beobachtet wurden die Aushandlungen innerhalb von Tochterunternehmen (lokale Ebene) sowie zwischen den Tochterunternehmen und der Bankzentrale, die in Form von Telefonaten und Telefonkonferenzen stattfanden. Abbildung 3:

Aushandlungskonstellationen im Tochterunternehmen (lokale Ebene)

in der Bankzentrale (globale Ebene)

zwischen lokaler und globaler Ebene

symptomatisch systematisch

Die Orte stehen für jeweils eigene Perspektiven der Beobachtung: zum einen eine erarbeitete (starke) Identifizierung mit dem Kreditgeschäft und damit mit dem Unternehmen (lokale Seite); zum anderen eine Beobachtung dieser Praxis, Zweifel an der richtigen Darstellung der Zahlen und eine Identifizierung mit den Vorgaben der Bank (globale Seite). Im Folgenden konzentriert sich der Text auf die Frage, wie die Akteure vorgehen, wenn sie, die erzeugten schriftlichen Dokumente zur Hand, die Kreditkonstruktion und die errechneten Zahlen diskutieren. Dies werde ich anhand einiger Beispiele erörtern: Beispiel 1: Lokales Risikomanagement Es geht um ein Stahlunternehmen. Der Abteilungsleiter fragt den Mitarbeiter, was für den Kredit spricht. Der Risikoanalyst sagt, man habe es hier nicht mit einem Stahlproduzenten, sondern mit einem Unternehmen zu tun, das die Weiterverarbeitung und Veredelung von Stahl betreibe. Zweitens habe das Unternehmen in den letzten Jahren ca. 30 Millionen Euro in die Modernisierung der Produktion investiert. Daraufhin fragt der Abteilungsleiter, wie es denn mit der Konkurrenz aussehe. Der Mitarbeiter meint, dass Stahlprodukte aus Asien keine Konkurrenz darstellten und dass die Nachfrage nach Stahlprodukten in Polen doch recht groß sei. Aber das sei heute, wirft der Abteilungsleiter ein, und weist darauf hin, dass der Stahlkonsum in Polen im

158

Herbert Kalthoff Vergleich zu Westeuropa weit hinterherhinke. Dagegen wendet der Risikoanalyst ein, dass aber das Unternehmen seine Produkte selbst auch nach Westeuropa exportiere. Der Anteil liege zwar nur bei zehn Prozent, aber die Produkte seien auch in Westeuropa konkurrenzfähig. Nachdem dann beide schweigend einige Zeit in den Unterlagen geblättert haben, sagt der Mitarbeiter: „Die Liquidität ist ein Schwachpunkt des Unternehmens.“ „Ja, das stimmt“, pflichtet ihm der Abteilungsleiter bei.

Das Beispiel dokumentiert eine Aushandlung, wie sie in der Risikoanalyse oft angetroffen werden kann. Über Papiere gebeugt formulieren die Teilnehmer ihre (kritischen) Nachfragen und Kommentare, zeigen ihre Zustimmung und ihre Bedenken. Sie sprechen das aus, was sie lesen, und sie hören das, was sie lesen, aber andere aussprechen. In diesem Fall wird das Gespräch durch den Umstand vorstrukturiert, dass sowohl der Risikoanalyst als auch der Abteilungsleiter – ein weit gereister Risikospezialist der Großbank – dem Kreditgeschäft im Grunde positiv gegenüberstehen. Die Szene dokumentiert, dass die Teilnehmer nach einem Frageraster vorgehen: Sie befragen ƒ ƒ ƒ

das ökonomische Umfeld und Bedingungen des Unternehmens (etwa Bezug des Stahls), die Marktsituation (etwa Nachfrage und Konkurrenz) und die finanzielle Situation des Unternehmens anhand von Kennziffern (etwa „Return on Equity“, „Liquidität“).

Dass die Risikoanalysten diese Bereiche abfragen, ist auf den Umstand zurückzuführen, dass sie durch das so genannte „Rating Sheet“ – ein Bewertungsraster der Bank – vorgegeben sind. Es gibt ihnen diese Punkte vor, die sie dann in der Interaktion formulieren und Fall für Fall beantworten. In dieser Interaktion wird also die Darstellung des Unternehmens durch ein Dokument vorstrukturiert, das selbst Bestandteil der ökonomischen Bewertung des Unternehmens ist. Wie ein roter Faden ziehen sich die im „Rating Sheet“ zu bewertenden Punkte durch die Konversation. Aber wer spricht, wenn Risikoanalysten diese Punkte ansprechen? Auf den ersten Blick sind sie es natürlich selbst, die sprechen; sie sind, da sie die Fragen aussprechen, Sprecher erster Ordnung. Andererseits sind sie aber auch Sprecher der Bank, das heißt derjenigen zentralen Abteilung, die das Risikoraster entworfen und erprobt hat. Insofern formulieren sie Fragen, die an anderer Stelle für diese Anwendung entworfen wurden. Sie sind die Sprecher der Risikosteuerung. Beispiel 2: Lokales Risikomanagement Der Abteilungsleiter sagt: „Was ist das denn für eine Müllbude? Warum machen wir das überhaupt? Mit ‚C’ ist das doch ein potentieller Wertberichtigungskunde.“ Der Risikoanalyst rechtfertigt sich und sagt, das „C“ resultiere aus der schlechten Informationspolitik des Kunden, aber die Transaktion sei in sich sicher. Und „die Firma kann nicht über das Geld verfügen.“ Darauf fragt der Abteilungsleiter: „Und wohin kommt das Geld?“ Das Geld komme auf ein Sonderkonto, sagt der Risikoanalyst.

Es geht in diesem Beispiel um den folgenden Fall: Ein Unternehmen will eine Kreditlinie von 1 Million DM einsetzen, um 2 Millionen PLN (polnische Záoty) zu kaufen. Das Risiko für die Bank besteht darin, dass das Unternehmen bei einem starken PLN-Kurs keine 2

Ökonomisches Rechnen: Zur Konstitution bankwirtschaftlicher Objekte und Investitionen

159

Millionen PLN kaufen kann. Für die Transaktion bieten sich zwei Möglichkeiten: Zum einen die Spot-Transaktion, die – orientiert am Tageskurs – von den Devisenhändlern der Bank umgesetzt würde; zum anderen bietet sich für die Bank dann ein FX-Forward an, wenn die einzusetzende Summe auf einem Sonderkonto liegt, für welches das Unternehmen nur sehr eingeschränkte Verfügungsrechte besitzt. Man entscheidet sich im Zuge der Diskussion für diese zweite Variante und beauftragt die Abteilung „Global Markets“ damit, einen anderen Marktteilnehmer zu finden, der zu einem festgelegten Termin die Summe zum Kurs von 1,9 - 2,1 tauschen will. Deutlich wird die Bedeutung der ökonomischen Beurteilung. Die schlechte Note („C“) wird gegen ein „sicheres Geschäft“ aufgerechnet und dadurch neutralisiert. Dies gelingt dadurch, dass die Transaktion in der Weise abgesichert wird, dass Kreditzusage und Verfügungsrecht getrennt werden. Aus einem schlechten Kreditrating kann also dann eine positive Entscheidung resultieren, wenn das ökonomische Risiko überschaubar und die Bank der zentrale Spieler bleibt. Beispiel 3: Zwischen Corporate Banking und Risikomanagement (lokale Ebene) Ein Corporate Banker schickt eine E-Mail an den Abteilungsleiter des Risk Management. Eine halbe Stunde später geht er in das Büro und fragt ihn, ob „alles okay“ sei. Der Abteilungsleiter liest die Mail noch einmal durch und antwortet dann: „Ich sage dir, warum ich okay sage. Der Mann ist sauber, der redet nicht falsch. Das ist kein Mann, der dich im Regen stehen lässt. Der hat mal auf Südamerika gesetzt und dann war das Holz aus der Ukraine billiger. Und dann hat der auch private Mittel eingesetzt.“ Dies ergänzt der Corporate Banker mit den Worten: „Und zwar erhebliche!“ „Also der redet nicht falsch“, bestärkt noch einmal der Risikoanalyst. „Also okay?“, will der Corporate Banker wissen, worauf der Risikoanalyst mit einem „ja, okay“ antwortet. Mit einem „sehr schön“ verlässt der Corporate Banker das Büro.

Was an diesem Beispiel überrascht, ist der offensichtliche Code-Switch des ökonomischen Diskurses: von der kühlen Analyse „nackter Zahlen“ (Risikoanalyst) zur Metaphorik ethischer Prinzipien und ökonomischer Verantwortung. Es ist daher auch die Person des Unternehmers, die mit ihrem in der Vergangenheit dokumentierten Geschäftsprinzip verknüpft wird: Hygiene, Ehrlichkeit und Zuverlässigkeit (selbst in schwierigen Momenten) bündeln sich zu einem Ethos, das den Risikoanalysten überzeugt. Die Beurteilung der Managementqualität ist ein Bereich, den die Akteure ebenfalls dem „Rating Sheet“ entnehmen. Hier wird die positive Bewertung durch einen Wechsel des Argumentationsregimes vollzogen, das – mit einem gewissen Pathos – Assoziationen aus anderen sozialen Bereichen aktiviert. Die (positive) Investitionsentscheidung wird in dieser Situation durch eine Strategie der Abkürzung umgesetzt: Nicht die errechneten Zahlenwerke zählen, sondern die Unternehmerperson, auf die die Akteure setzen.

160

Herbert Kalthoff Beispiel 4: Zwischen lokalem und globalem Risikomanagement5 Hq: Sub1: Sub2: Hq:

[…] And so only the new cars are included in the balance sheet. Yes. Yes. Because last year they had quite a high capital expenditure, more or less working capi tal. I assume, to increase their business potential. Sub2: The capital expenditure is in connection with the cars. Yes, that’s right. Hq: With the cars, okay […] Hq: Sub: Hq: Sub: Hq: Sub:

[…] We will take an amount of foreign currency receivable from that board. Yes. Alright. And we will get reviewed that portfolio. Sure. Okay. Then these payments will be made into accounts in Sofia or in the branches? Yes, in Sofia, because we have all the accounts technically here. Everything is done over here. Hq: Okay. And if there are receivables which are not being paid we would have the right to replace these with other receivables of our choice? Sub: Yes, of course. Hq: Okay. [...] Sub: [...] Auf Seite 24 ist auch noch mal was ausgesagt zu den Leverage Ratios. Gut das ist jetzt wieder gesamt gesehen natürlich, Total Liabilities versus Equity. Und da müssen wir sehen, dass diese Firma am unteren Ende hinsichtlich der Ratio steht. Das ist jetzt positiv gemeint. Am unteren Ende wenn wir das mal vergleichen mit der mit der gesam ten Industrie. Und wir haben eine Projektion, die eine zunehmende Verringerung dieser Leverage Ratio sieht. Und dann kommt die Kapitalerhöhung von 290 Millionen Záoty. Dann kommt doch wieder etwas Platz rein. Hq: Ja, das ist aber die gesamte Leverage-Situation. Wissen Sie, wir haben so die Bauernre gel ich sag mal so 10 Prozent des Eigenkapitals. Das sind so unsere Grenzen. Und das ist klar drüber. Sub: Einen Moment ((Taschenrechnergeräusche; blättern)) kurz mal sehen. Wir liegen bei 18 Prozent. Und das ist Ihnen zu hoch? Hq: Ja. Und es geht primär um diesen Kredit. Wir wollen keine 'plain vanilla' Kreditprodukte an den Mann bringen. [...]

Die drei Aushandlungssequenzen in Beispiel 4 zeigen eine weitere Systematik. Die Risikomanager der Bankzentrale fragen Details der Kalkulation, des Managements, der Marktsituation oder der Transaktion ab und stellen auch, wie die dritte Sequenz dokumentiert, die vorgenommene Berechnung in Frage. Wichtig ist hier, dass für sie die ökonomische Darstellung, die die lokale Seite in den schriftlichen Dokumenten vorgelegt hat, nicht offensichtlich ist. Sie begegnen der Darstellung mit einem Zweifel an der richtigen Abbildung der Situation des Unternehmens durch die lokale Seite. Indem sie die ökonomische Darstellung überprüfen, prüfen sie die Stichhaltigkeit der Argumentation, Genauigkeit der Kalkulation sowie die Absicherung der Transaktion. Dies kann auch dazu führen, dass das Berechnungsmodell der lokalen Seite dekonstruiert wird. Deutlich wird in der dritten Sequenz ebenso eine Diskrepanz zwischen lokalem Markt und globaler Strategie: Die Sprecherin der 5

Sub = Subsidiary (Tochterunternehmen, lokale Ebene); Hq = Headquarter (Bankzentrale, globale Ebene).

Ökonomisches Rechnen: Zur Konstitution bankwirtschaftlicher Objekte und Investitionen

161

globalen Seite erinnert die lokalen Risikoanalysten an die allgemeine Geschäftsstrategie, nicht auf einfache, sondern komplexe Investitionen und Bankgeschäfte zu setzen. Mitthematisiert wird in den Sequenzen ebenfalls die hierarchische Struktur des Diskurses: In den ersten beiden Sequenzen stehen ein lokaler Abteilungsleiter und eine Risikoanalystin einem höheren Manager der Bankzentrale (globale Risikosteuerung) Rede und Antwort: Wie bei einer Befragung vor Gericht antworten sie lediglich mit kurzen Bestätigungsäußerungen. Die dokumentierten Szenen verdeutlichen systematische Elemente von Konsensprozessen, die in einer internationalen Großbank auf der Basis schriftlicher Dokumente geführt werden: die Vorstrukturierung des Diskurses durch ein Bewertungsinstrument, das die Aufmerksamkeit und den Blick der Akteure ausrichtet (1), die Verwendung nichtökonomischer Argumentationsfiguren zur Legitimation ökonomischer Entscheidungen, (2), die Dekonstruktion ökonomischer Berechnungen und damit die argumentative Vorbereitung von Gründen, die zu einer Ablehnung des Kreditantrags führen können (3) und schließlich der Zweifel an der Abbildung, der zu detaillierten Nachfragen führt (4). Diese vier Elemente kehren in verschiedenen Konstellationen und Variationen in den mündlichen Verhandlungen wieder. Sie dokumentieren ferner, welche Gestalt das soziale Phänomen des „Mit-etwas-rechnen“ in diesem Bereich annimmt. Schluss Dieser Aufsatz beschäftigte sich mit der Frage, wie eine Soziologie der angewandten Mathematik am Beispiel ökonomischen Rechnens begründet und empirisch analysiert werden kann. Er hat argumentiert, dass der Reiz, aber auch die besondere Herausforderung für die Soziologie darin besteht, eine konstitutionstheoretische Perspektive einzunehmen, mit der davon ausgegangen wird, dass (ökonomische) Objekte durch die Methoden und Verfahren der Kalkulation hervorgebracht werden. Die Umsetzung ökonomischer Kalkulationen als (technische gestützte) Konstitution von Objekten und als reziprokes Verhältnis von Zahlenund Vorstellungswelten zu konzipieren, hat Konsequenzen für die soziologische Forschung: Aufzuheben ist erstens der mathematische Realismus, wie er beispielsweise für wissenssoziologische Arbeiten kennzeichnend ist (etwa Mannheim 1995; Bloor 1973). Wie an anderer Stelle erörtert (vgl. Kalthoff 2007b), nimmt der mathematische Realismus die Existenz von Objekten an, die durch Rechenverfahren lediglich neu geordnet und abgebildet werden. Die konstitutionstheoretische Perspektive, die hier vorgeschlagen wird, argumentiert dagegen, dass die schriftlichen Verfahren mathematischer Operationen die Gegenstände der Ökonomie hervorbringen; erst durch die Verfahren der Berechung werden diese Entitäten (etwa Cash Flow, Ebitda, Risiko) zur Existenz gebracht. Die Entwicklung, Implementierung und Verwendung dieser „operativen Schrift“ (Krämer 1997) der Finanzwissenschaft markiert für die Wirtschafts- und Finanzsoziologie ein empirisches Forschungsprogramm (ausführlich: Kalthoff 2007b). Zu ergänzen ist zweitens die Visibilisierungsthese, die von der Accountingforschung formuliert wird (etwa Hopwood/Miller 1994). Argumentiert wird in diesen Studien, dass verborgene Elemente des Ökonomischen durch eine skopische Technologie der Berechnung sichtbar gemacht werden und dass durch diese Sichtbarmachung eine Fremd- und Selbstkontrolle wirksam wird, wie sie Foucaults (1977) Modell des Panoptismus kenn-

162

Herbert Kalthoff

zeichnen.6 Vernachlässigt wird in diesen Studien die andere Seite der Sichtbarkeit, und zwar ein Sehen, das mit Macht und Wissen ausgestattet und auf (Selbst-)Erkenntnis gerichtet ist. Wichtig ist für eine Soziologie der Kalkulation, dass sie die Ausarbeitung einer Theorie dieser Art ökonomischer „Sorge um sich“ (Foucault 2004) als eines eigenständigen Mechanismus kalkulativer Praxis in Angriff nimmt. Zu klären und zu konzeptualisieren ist drittens der Praxisbegriff. In der Regel wird in der ökonomischen Soziologie oder in den Accounting Studies ein Handlungsbegriff mitgeführt, der intentionale und zielgerichtete individuelle Akteure impliziert. Mit einem solchen Handlungsbegriff lassen sich Fragen zur Praxis der Kalkulation, zur Konstruktivität von Zahlenwerken, zur Funktion technischer Artefakte oder zur Rolle menschlicher Körper nur eingeschränkt thematisieren. Plädiert wird hier somit für eine kultursoziologische Konzeption, die das Handeln nicht individualisiert, sondern in der Performanz sozialer Praxis verortet, die ihrerseits körperliche und technische, darstellerische und reflexive Dimensionen aufweist. Hierzu liegen kultursoziologische Konzepte vor, die Anschlussmöglichkeiten bieten (vgl. Reckwitz 2000). Die vorgeschlagene Forschungsperspektive impliziert keine (neo-)kantianische Wende der Soziologie der Kalkulation oder eine Wiederbelebung der alten Debatte um Realismus vs. Relativismus in Bezug auf die Wirklichkeit ökonomischer Objekte oder Sachverhalte, sondern setzt die Arbeit am schriftlichen Dokument und an der Kalkulation und damit die Praxis des Repräsentierens in ihr eigenes Recht. Auf diese Weise folgt sie beobachtbaren Praktiken und empirischen Relationen; sie impliziert eine Thematisierung des kalkulativen Rahmens und damit die Frage, was durch die Arbeit an der Kategorie in die Kalkulation aufgenommen bzw. aus ihr ausgeschlossen wird. Literatur Aspers, P. (2005): Performativity, Neoclassical Theory and Economic Sociology. In: Economic Sociology 6, S. 33-39. Austin, J.L. (1992): How to do Things with Words. New York: Oxford University Press. Austin, J.L. (1975): Performative Äußerungen. In: Austin, J.L.: Wort und Bedeutung. Philosophische Aufsätze. München: List, S. 245-268 Baetge, J. (1998): Bilanzanalyse. Düsseldorf: IDW-Verlag. Beunza, D./Stark, D. (2004): Tools of the Trade: The Socio-Technology of Arbitrage in a Wall Street Trading Room. In: Industrial and Corporate Change 13, S. 369-401. Bijker, W.E./Hughes, P./Pinch, T. (Hg.) (1987): The Social Construction of Technological Systems: New Directions in the Sociology and History of Technology. Cambridge, Mass.: MIT Press. Bloor, D. (1973): Wittgenstein and Mannheim on the Sociology of Mathematics. In: Studies in History and Philosophy of Science 4, S. 173-191. Bourdieu, P. (1988): L’ontologie politque de Martin Heidegger. Paris: Minuit. Buckley, R.P. (1992): Husserl, Heidegger and the Crisis of Philosophical Responsibility. Dordrecht u.a.: Kluwer. Butler, J. (1988): Performative Acts and Gender Constitution. An Essay in Phenomenology and Feminist Theory. In: Conboy, K. (Hg.): Writing on the Body. New York: Columbia University Press, S. 401-417.

6

Der Begriff der skopischen Technologie knüpft hier lose an Foucault (1977) an. Zum Begriff des „skopischen Systems“ vgl. Knorr Cetina (2006).

Ökonomisches Rechnen: Zur Konstitution bankwirtschaftlicher Objekte und Investitionen

163

Callon, M. (1998): Introduction: The Embeddedness of Economic Markets in Economics. In: Callon, M. (Hg.): The Laws of the Market. Oxford: Blackwell, S. 1-57. Cullenberg, S./Dasgupta, I. (2001): From Myth to Metaphor. A Semiological Analysis of the Cambridge Capital Controversy. In: Cullenberg, S./Amariglio, J./Ruccio, D.F. (Hg.): Postmodernism, Economics and Knowledge. London/New York: Routledge, S. 337-353. Dreyfus, H.L. (1993): Heidegger on the Connection between Nihilism, Art, Technology, and Politics. In: Guignon, C.B. (Hg.): The Cambridge Companion to Heidegger. Cambridge: Cambridge University Press, S. 289-316. Dreyfus, H.L. (2002): Heidegger on Gaining a Free Relation to Technology. In: Dreyfus, H.L./Wrathall, M. (Hg.): Heidegger Reexamined. Volume 3. Art, Poetry, and Technology. New York/London: Routledge, S. 163-174. Dreyfus, H.L./Spinosa, C. (1997): Highway Bridges and Feasts: Heidegger and Borgmann on How to Affirm Technology. In: Man and World 30, S. 150-177. Dreyfus, H.L. (1992): Heidegger’s History of the Being of Equipment. In: Dreyfus, H.L./Hall, H. (Hg.): Heidegger: A Critical Reader. Cambridge: Blackwell, S. 173-185. Fine, B. (2003): Callonistics. A Disentanglement. In: Economy and Society 43, S. 478-484. Fischer-Lichte, E./Horn, C./Warstat, M. (2001): Verkörperung. Tübingen/Basel: Francke. Foucault, M. (1977): Überwachen und Strafen. Die Geburt des Gefängnisses. Frankfurt/M.: Suhrkamp. Foucault, M. (2004): Hermeneutik des Subjekts. Frankfurt/M.: Suhrkamp [2001]. Goffman, E. (1980): Rahmen-Analyse. Ein Versuch über die Organisation von Alltagserfahrungen. Frnakfurt/M.: Suhrkamp. Hegel, G.W.F. (1983): Phänomenologie des Geistes. Frankfurt/M.: Ullstein. Heidegger, M. (1952): Holzwege. Frankfurt/M.: Vittorio Klostermann. Heidegger, M. (1994): Bremer und Freiburger Vorträge. Frankfurt/M.: Klostermann. Heidegger, M. (1997): Der Satz vom Grund. Pfullingen: Neske. Heidegger, M. (2000a): Vorträge und Aufsätze. Stuttgart: Neske [1954]. Heidegger, M. (2000b): Gelassenheit. Stuttgart: Neske [1959]. Heidegger, M. (2001): Sein und Zeit. Tübingen: Niemeyer. Heidegger, M. (2002): Identität und Differenz. Stuttgart: Klett-Cotta. Hopwood, A.G./Miller, P. (Hg.) (1994): Accounting as Social and Institutional Practice. Cambridge: Cambridge University Press. Kalthoff, H. (2004): Finanzwirtschaftliche Praxis und Wirtschaftstheorie: Skizze einer Soziologie ökonomischen Wissens. In: Zeitschrift für Soziologie 33, S. 154-175. Kalthoff, H. (2005): Practices of Calculation: Economic Representation and Risk Management. In: Theory, Culture and Society 22, S. 69-97. Kalthoff, H. (2007b): Cultures of Economic Calculation – An Empirical Research Programme. In: Strulik, T./Willke, H. (Hg.): Governance in a Knowledge-Intensive Financial System. Towards a Cognitive Mode of Global Finance. Frankfurt/M.: Campus, S. 159-179. Kalthoff, H. (2007a): Zahlenwelten. Studien zur Praxis bankwirtschaftlichen Wissens. Stuttgart: Lucius (im Erscheinen). Kalthoff, H./Rottenburg, R./Wagener, H.-J. (Hg.) (2000): Facts and Figures. Economic Representations and Practices. Marburg: Metropolis. Knorr Cetina, K. (1999): Epistemic Cultures. How the Sciences Make Knowledge. Harvard: Harvard University Press. Knorr Cetina, K. (2006): The Market. In: Theory, Culture and Society 23, S. 551-556. Knorr Cetina, K./Brüger, U. (2002): Global Microstructures: The Virtual Societies of Financial Markets. In: American Journal of Sociology 107, S. 905-950. Krämer, S. (1996): Sprache und Schrift oder: Ist Schrift verschriftete Sprache? In: Zeitschrift für Sprachwissenschaft 15, S. 92-112. Krämer, S. (1997): Kalküle als Repräsentation. Zur Genese des operativen Symbolismus in der Neuzeit. In: Rheinberger, H.-J./Hagner, M./Wahrig-Schmidt, B. (Hg.): Räume des Wissens. Berlin: Akademie Verlag, S. 111-122.

164

Herbert Kalthoff

Küting, K./Weber, C.-P. (2000): Die Bilanzanalyse: Lehrbuch zur Beurteilung von Einzel- und Konzernabschlüssen. Stuttgart: Schöffer-Poeschel. Latour, B. (1994): Une sociologie sans objet? Remarques sur l’interobjectivité. In: Sociologie du Travail 36, S. 587-607. Latour, B. (1999): Pandora’s Hope. Essays on the Reality of Science Studies. Cambridge: Harvard University Press. MacKenzie, D. (2003): An Equation and its Worlds: Bricolage, Exemplars, Disunity and Performativity in Financial Economics. In: Social Studies of Science 33, S. 831-868. MacKenzie, D. (2006): An Engine, Not a Camera. How Financial Models Shape Markets. Cambridge, Mass.: MIT Press. Mannheim, K. (1995): Ideologie und Utopie. Frankfurt/M.: Klostermann [1931]. Martens, W. (2001): Ist das Gestell funktional differenziert? Heideggers Technikverständnis und Luhmanns Theorie funktional differenzierter Gesellschaften. In: Weiß, J. (Hg.): Die Jemeinigkeit des Mitseins. Die Daseinsanalytik Martin Heideggers und die Kritik der soziologischen Vernunft. Konstanz: UVK, S. 295-326. McCloskey, D.N. (1994): Knowledge and Persuasion in Economics. Cambridge: Cambridge University Press. Mirowski, P./Nik-Khah, E. (2006): Command Performance: Exploring What STS Thinks It Takes to Build a Market, Like the FCC Spectrum Auction. In: Swedberg, R. (Hg.): Economic Sociology and Technology (im Erscheinen). Mirowski, P. (1984): Physics and the 'Marginalist Revolution'. In: Cambridge Journal of Economics 8, S. 361-379. Muniesa, F. (2003): Des marchés comme algorithmes: sociologie de la cotation électronique à la Bourse de Paris. Dissertation, École Nationale Supérieure des Mines, Paris. Oudshoorn, N.E.J./Pinch, T.J. (Hrg.) (2003): How Users Matter: The Co-construction of Users and Technology. Cambridge, Mass.: MIT Press. Pickering, A. (1995): The Mangle of Practice: Time, Agency, and Science. Chicago/London: University of Chicago Press. Rammert, W./Schulz-Schaeffer, I. (Hg.) (2002): Können Maschinen handeln? Soziologische Beiträge zum Verhältnis von Mensch und Technik. Frankfurt/M.: Campus. Reckwitz, A. (2000): Die Transformation der Kulturtheorien. Zur Entwicklung eines Theorieprogramms. Weilerswist: Velbrück. Rheinberger, H.-J. (2001): Experimentalsysteme und epistemische Dinge. Eine Geschichte der Proteinsynthese im Reagenzglas. Göttingen: Wallstein. Rosenberg, A. (1979): Can Economic Science Explain Everything? In: Philosophy of the Social Science 9, S. 509-529. Seubold, G. (1986): Heideggers Analyse der neuzeitlichen Technik. Freiburg/München: Alber. Thévenot, L. (1984): Rules and Implements: Investment in Forms. In: Social Science Information 23, S. 1-45. Weiß, J. (Hg.) (2001): Die Jemeinigkeit des Mitseins. Konstanz: UVK. Wirth, U. (2002): Der Performanzbegriff im Spannungsfeld von Illokution, Iteration und Indexikalität. In: Wirth, U. (Hg.): Performanz. Zwischen Sprachphilosophie und Kulturwissenschaften. Frankfurt/M.: Suhrkamp, S. 9-60. Wittgenstein, L. (1994): Bemerkungen über die Grundlage der Mathematik. Frankfurt/M.: Suhrkamp.

Formel-Bolschewismus: Eine historische Soziologie der Euro-Umrechnung

165

Formel-Bolschewismus: Eine historische Soziologie der EuroUmrechnung

Alex Preda 1939 hielt Ludwig Wittgenstein in Cambridge eine Reihe von Vorträgen über die Grundlagen der Mathematik. Unter den Zuhörern befand sich Alan Turing, und die Vorträge entwickelten sich schnell zu einer intellektuellen Debatte. Turing akzeptierte Wittgensteins Untersuchungsmethode nicht und verließ die Vortragsreihe früh, frustriert über die versuchte Einführung von „Bolschewismus in die Mathematik“, wie es Wittgenstein selbst später augenzwinkernd nannte (Monk 1990: 417, 420). Was von der mathematischen Welt zu jener Zeit als „bolschewistische“ Bedrohung verstanden wurde, war nicht die Existenz der Sowjetunion, sondern das Programm des „anti-foundationalism“ in der Mathematik. Dieses Programm, das weder etwas mit politischen Revolutionen noch mit der Sowjetunion im Sinne hatte, wurde in den dreißiger Jahren von vielen Mathematikern als eine mit der bolschewistischen Revolution vergleichbare Bedrohung empfunden. Doch Wittgensteins eigenes Programm war letztendlich ein anderes: die Demonstration der untrennbaren Verbundenheit der Logik mathematischer Gesetze mit ihren sozialen Grundlagen. Was er in seinen Vorträgen systematisch hervorhob, war die Angewiesenheit mathematischer Beweise auf ein Netzwerk sozialer Vorkehrungen und Regeln. Wittgensteins Bolschewismus1 war also keineswegs „anti-foundationalist“, sah er doch die Grundlagen mathematischer Beweise und Formeln fest im Sozialleben verankert. Seit Wittgensteins Vorträgen in Cambridge haben Wissens- und Wissenschaftssoziologen zahlreiche Fälle von mathematischem Bolschewismus in diesem Sinne aufgespürt (MacKenzie 2001; Livingston 1986; Heintz 2000) und dabei die Interessen, Kämpfe, Regeln und Konventionen herausgearbeitet, von denen die mathematische Welt durchzogen ist. In letzter Zeit wird nun zunehmend die mathematische Finanzwissenschaft zum Gegenstand nachhaltiger sozialwissenschaftlicher Studien. Finanzmärkte und insbesondere der Handel mit Derivativen hängen in hohem Grade von mathematischen Modellen ab. Automatisierte Geldtransaktionen basieren auf Handelsalgorithmen, die Abwicklung von Termingeschäften ist ohne Formeln der Prämienberechnung schlichtweg nicht vorstellbar. Neue Arbeiten in der Finanzsoziologie und zur Geschichte der neoklassischen Theorie rekonstruieren die Entwicklung der Wirtschaftswissenschaft anhand eines Forschungsprogramms über Marktautomaten (Mirowski 2002) und beschreiben, wie die Benutzung von Rechenverfahren, Gleichungen und Formeln Finanzmärkte transformiert (MacKenzie/Millo 2003).

1

Tatsächlich war Ludwig Wittgenstein wohl zu keiner Zeit mit einer politischen Bewegung verbunden gewesen. Die Bezeichnung „Bolschewismus“ wird in diesem Beitrag dann, wie von Wittgenstein selbst, in einem metaphorischen Sinne verwendet, als Verweis auf die bestimmende Kraft des Kollektivs für den Gebrauch von Formeln.

166

Alex Preda

Vor diesem Hintergrund untersucht der vorliegende Beitrag einen spezifischen Fall von Formel-Bolschewismus: das Verfahren der Umstellung europäischer Landeswährungen auf den Euro. Der Beitrag widmet sich also dem Rechenverfahren, mit dem die Landeswährungen von zwölf europäischen Ländern am 1. Januar 1999 in eine neue gemeinsame Währung überführt wurden. In der öffentlichen Wahrnehmung der Einführung des Euro wurde das technische Detail des Umrechnungsverfahrens weitgehend vom politischen Glanz der europäischen Währungsunion überlagert. Doch auch kleine Details fügen sich zuweilen zu grandiosen Bildern zusammen. Die nachfolgende Darstellung stellt den sozialen Prozessen nach, die sich in das Verfahren der Euroumstellung eingeschrieben haben. Diese Prozesse sind nicht identisch mit denjenigen, in die das Umstellungsverfahren seinerseits eingebettet war, z. B. die Konkurrenz politischer Interessen, die lange Geschichte der europäischen Integration, Wechselwirkungen zwischen Wirtschaft und Politik usw. Nachfolgend geht es in erster Linie um die sozialen Definitionsprozesse, Bedeutungen, Probleme und Begriffsrahmen, die in das Umstellungsverfahren einflossen und es maßgeblich geprägt haben, um danach dem Vergessen anheim zu fallen. Eine kurze Geschichte der Euro-Umstellung Im Februar 1992 unterzeichneten die Regierungschefs der Mitgliedsstaaten der europäischen Union2 den Vertrag von Maastricht und beschlossen die Wirtschafts- und Währungsunion ihrer Staaten. Gegen Ende des Jahrzehnts war damit eine allgemeine Währung einzuführen, von der die einzelnen Landeswährungen ersetzt werden sollten. Die Umrechnungssätze der Landeswährungen zur neuen Gemeinschaftswährung sollten am 1. Januar 1999 unwiderruflich festgesetzt werden, und am gleichen Tag sollte die mit der allgemeinen Währung in Verbindung stehende Gesetzgebung in Kraft treten. Die neue Währung wurde zunächst Ecu getauft,3 aber beim Gipfel von Madrid im Dezember 1995 wurde sie, vor allem aufgrund der Beharrlichkeit des deutschen Finanzministers, in Euro umbenannt. Das Argument hierfür bestand darin, dass europäische Bürger (und Deutsche an erster Stelle) sich mit einem abstrakten Namen nicht würden identifizieren, der Währung dementsprechend nicht würden vertrauen können, und „Euro“ erschien diesbezüglich geeigneter. ECU war zudem der Name der europäischen Währungsrechnungseinheit, einer Korbwährung, von der die Währungen der Mitgliedesstaaten der Europäischen Gemeinschaft miteinander verbunden wurden und die Schwankungen innereuropäischer Wechselkurse auf eine schmale Bandbreite begrenzte.4 Der Vorgänger des ECU war das EWS (Europäisches Währungssystem), initiiert im März 1979 durch Frankreich und Deutschland. Die Fluktuationsbandbreite der ECU Mitgliedswährungen lag zunächst bei 5% und ließ ihre Wechselkurse in einer Bandbreite von 2 3 4

Zum damaligen Zeitpunkt die Europäische Gemeinschaft (EG). Um der Klarheit willen verwende ich die Beziechung „ECU“ für die Korbwährung, die bis zum 1.1.1999 in Gebrauch war, und „Ecu“ als Ausgangsname der neuen Währung. „Ecu“ wurde 1995 durch „Euro“ ersetzt. In amtlichen Urkunden werden „ECU“ und „Ecu“ austauschbar gebraucht. Die Zusammensetzung des ECU-Korbes wurde am 1. November 1993 durch die Europäische Kommission eingefroren. Dies bedeutete, dass die Anteile der Landeswährungen, aus denen er sich zusammensetzte, unabänderlich wurden. Ein ECU war die gewichtete Summe der Währungsanteile, jeder Anteil wurde mit seinem Gewicht im Korb multipliziert. Während die Anteile eingefroren waren, konnten die Gewichte hingegen verändert werden. 1993 bildeten die wichtigsten Währungen (der französische Franc, die D-Mark und das britische Pfund) über 54% des Gesamtkorbes (European Commission 1993).

Formel-Bolschewismus: Eine historische Soziologie der Euro-Umrechnung

167

plus 2,5% bis minus 2,5% schwanken. Aufgabe der Zentralbanken war es, Fluktuationen innerhalb dieser Bandbreite zu halten. Nach den spekulationsgeleiteten Angriffen auf das britische Pfund und die italienische Lira im Sommer 1992, gefolgt von den Angriffen auf die spanische Peseta 1993, wurde die Bandbreite auf 30% vergrößert. Diese vergrößerte Bandbreite konstituierte den ERM (Exchange Rate Mechanism), der das EWS ersetzte. Der Vertrag von Maastricht legte den Umrechnungskurs zwischen der Korbwährung ECU und der neuen Währung (zu jener Zeit Ecu genannt) auf 1:1 fest. Desweiteren besagte er, dass die Wechselkurse des 31. Dezembers 1998 die Umrechnungskurse zwischen den teilnehmenden Landeswährungen und der gemeinsamen Währung Ecu (des späteren Euro) bestimmen sollten. Der Vertrag spezifizierte kein exaktes Verfahren der Festlegung von Umrechnungskursen. Nationale Gesetzgeber, Europäische Kommission, Zentralbanken und Akademiker waren sich einig, dass eine strikte Interpretation des Vertragsinhalts bedeutete, die Bestimmung der Umrechnungskurse dem Markt zu überlassen. Unterzeichnet von den Staatsoberhäuptern der Europäischen Union, setzte der Vertrag von Maastricht damit einen Rahmen für das, was später geschehen sollte. Der Vertrag von Maastricht enthielt eine Austrittsklausel, aufgrund der nicht alle Unterzeichner die neue gemeinsame Währung tatsächlich übernehmen mussten. Von Anfang an war deutlich, dass Großbritannien und Dänemark zumindest für eine Weile von dieser Klausel Gebrauch machen würden. Umgekehrt legte der Vertrag Kriterien fest, die von den unterzeichnenden Staaten zu erfüllen waren, wollten sie sich für die Übernahme der Gemeinschaftswährung qualifizieren. Diese Kriterien waren: ƒ ƒ ƒ ƒ

ein hoher Grad an Preisstabilität, mit Preissteigerungen von 1,5% oder weniger im Vergleich zu den drei preisstabilsten Volkswirtschaften. ein jährliches Haushaltsdefizit von 3% des Bruttoinlandsproduktes oder weniger. eine Bruttoverschuldung des öffentlichen Sektors von 60% des Bruttoinlandsproduktes oder weniger. die höchsten Zentralbankzinssätze durften maximal um 2% höher ausfallen als diejenigen der drei stabilsten Volkswirtschaften.

In der Öffentlichkeit bestanden die Finanzminister der beteiligten Staaten vehement auf einer strengen Befolgung dieser Kriterien. Vom damaligen deutschen Finanzminister, Theo Waigel, stammt der zu jener Zeit viel zitierte Ausspruch „Drei Prozent ist drei Prozent“. Konsequenz einer Nichterfüllung der Stabilitätskriterien waren empfindliche Geldbußen. Doch 1994 wurden die Maastricht-Kriterien von keinem einzigen Mitgliedsland der Europäischen Union erfüllt (Deutsche Bundesbank 1994: 26-27). Geld- und Kreditpolitik wurden als Aufgaben einer Europäischen Zentralbank (EZB) zugewiesen, die in Frankfurt am Main gegründet wurde. Nationale Zentralbanken sollten sich zukünftig als lokale Tochtergesellschaften der EZB verstehen. Ausgangsbasis der EZB war das Europäische Finanzinstitut, 1994 mit der Aufgabe geschaffen, eine Infrastruktur für die zukünftige EZB zu errichten und die Europäische Kommission bei ihren Vorbereitungen zur Einführung der neuen Währung zu unterstützen. Im Mai 1995 nahm die Europäische Kommission dann ein so genanntes „Green Paper“ an, das den Zeitplan für die Einführung der Gemeinschaftswährung bestimmte. Dieser Zeitplan umfasste drei Phasen: (1) die Einführung der Europäischen Währungsunion (EWU), (2) den erfolgreichen Betrieb der EWU und (3) die volle Einführung der gemeinsamen Währung. Phase 1 umspannte das

168

Alex Preda

Jahr 1998, unter anderem mit dem Verkünden einer Liste teilnehmender Staaten, des Datums, an dem die EWU beginnen würde, der Festlegung einer Struktur für die Europäische Zentralbank, einer beginnenden Produktion von Banknoten und Münzen. Phase 2 dauerte vom 1. Januar 1999 bis zur Einführung der gemeinsamen Währung. 1995, als dieser Zeitplan beschlossen wurde, war dieses Datum noch Gegenstand von Debatten. Während der Phase 2 waren Umrechnungskurse festzulegen und der Ecu (später Euro) sollte eine vollrechtliche Währung werden. Auf den Märkten konnte man in dieser Phase sowohl in der neuen als auch in der alten Währung zahlen, alle Preisauszeichnungen mussten sowohl in den Landeswährungen als auch in der gemeinsamen Währung erfolgen. Daten zur Neuverschuldung der Regierungen mussten in der neuen Gemeinschaftswährung herausgegeben werden, alle Interbank-, Finanz-, Kapital- und Devisenmärkte auf ihrer Basis handeln. Phase 3, deren Beginn zu diesem Zeitpunkt noch unsicher war, sollte schließlich mit dem Gebrauch der Banknoten und Münzen eintreten. In dieser Phase sollten die Landeswährungen zurückgezogen und durch die neue Gemeinschaftswährung vollständig ersetzt werden (European Commission 1995). Rückblickend wissen wir jetzt, dass Phase 3 am 1. Januar 2002 eintrat. Wie bereits erwähnt, spezifizierte der Vertrag von Maastricht kein Verfahren für die Festlegung der Umrechnungskurse. Er erforderte nur, dass eine Einheit der neuen Währung zum Stichtag 31.12.1998 genau einem ECU entsprechen sollte. Die Korbwährung ECU5 jedoch beinhaltete Währungen, die nicht an der gemeinsamen Währung teilnahmen – das britische Pfund und die dänische Krone. Sie bezog auch die italienische Lira, die spanische Peseta, den portugiesischen Escudo und das griechische Drachma ein. Bis in die späten neunziger Jahre hinein wurde die Teilnahme dieser Länder im Europrojekt von vielen Beobachtern als unwahrscheinlich angesehen. Die Festlegung eines Stichtags für die Festlegung der Umrechungskurse steigerte die Skepsis. Was, wenn massive spekulative Angriffe am 30. Dezember 1998 stattfinden würden? Was, wenn es eine gezielte, starke Abwertung einiger teilnehmender Währungen geben würde? Der Vertrag sprach zwar von einer irreversiblen Umstellung, schloss aber die Koexistenz von Landeswährungen mit der Einzelwährung über einige Jahre hinweg nicht aus. Die Umrechnungskurse der Länderwährungen gegen den Euro wurden vom Europäischen Zentralrat am 31. Dezember 1998 angenommen. Danach war ein Euro 1,95583 DM oder 6,55957 französische Francs oder 166,386 spanische Peseten (usw.) wert. In den ersten Monaten des Jahres 2002 ergab das praktische Probleme. Beispielsweise mussten Marktteilnehmer Europreise mit Umrechnungskursen multiplizieren, um die Höhe eines Preises einzuschätzen. Da diese Kurse auf Bruchzahlen basierten, war es schwierig, die entsprechenden Rechenoperationen ‚im Kopf’ durchzuführen. Die Umrechnungskurse generierten auch endlose Zahlen: Eine Million DM zum Kurs von 1,95583 in Euro zu konvertieren resultierte beispielsweise in einer Summe von 511.291,88119621848524667276808312. Das wurde als unbequem kritisiert, manche Volkswirte verlangten vor diesem Hintergrund, dass bei einem späteren Einschluss des britischen Pfundes dessen Wechselkurs zu runden sei (Wiseman 2002). Warum also 166,386 spanische Peseten für einen Euro und nicht, sagen wir, 180,200 oder 100? Wie wurden diese Zahlen kalkuliert? Was war die Logik der Berechnung? In der 5

Der Wert der Korbwährung ergab sich aus der Summe der gewichteten Währungen der Mitgliedsstaaten. Die Auslandswechselrate des ECU (z.B., gegen den US Dollar) wurde mit den Wechselkursen der konstituierenden Währungen berechnet. Die resultierende Rate wurde auch „theoretischer ECU“ genannt.

Formel-Bolschewismus: Eine historische Soziologie der Euro-Umrechnung

169

Öffentlichkeit erschienen die Umrechnungskurse als gegeben, sie waren bereits mit Autorität ausgestattet. Hinter ihnen stand eine Umrechnungsformel, die vom europäischen Zentralrat und der europäischen Zentralbank beschlossen wurde. Es handelte sich um eine Formel, die weit einfacher ausfiel als beispielsweise diejenigen, die für die Berechnung von Optionspreisen verwendet werden. Alles, was sie zu wissen verlangte, waren die Wechselkurse zwischen den Währungen der teilnehmenden Länder und die Wechselkurse dieser Währungen zum US Dollar. Die Formel, anhand der die Umrechnungskurse berechnet wurden, lautete wie folgt: Für zwei beliebige teilnehmende Währungen (a, b) a

/USD = (a/b)CR · (b/USD)

Damit ergibt sich für den Umrechnungskurs r von jeder teilnehmenden Währung, a zum Euro:

r = (USD/ECU) · (a/USD) Dieses ist die übliche Formel für das Berechnen des Wechselkurses zwischen zwei Währungen, allein „CR“ stellt eine Besonderheit darf. CR ist die durch den Exchange Rate Mechanism (ERM) festgelegte Rate zweier teilnehmender Währungen zum Stichtag 31.12.1998. Der ECU ist die ERM-Kontowährung, die dem Euro voranging (European Central Bank 1999). Artikel 2 eines Beschlusses des Europäischen Zentralrates von 17. Juni 1997 setzte die Rate des Euro zum ECU auf 1:1 (gemeinsames Kommuniqué der EU vom 2. Mai 1998). Der US-Dollar taucht in der Formel alleine aufgrund der logischen Bedingungen einer Feststellung von Kursunterschieden zwischen zwei Währungen auf, die für zwei beliebige Währungen (a, b) eine Rate (a/USD) zu (b/USD) errechnen lässt. Das Schlüsselelement der Formel ist CR, die zentral festgelegte bilaterale Rate. Wenn der Kurs zwischen Euro und ECU durch bloßen Beschluss auf 1:1 gesetzt werden konnte, warum wurden diese Formeln überhaupt benötigt? Schließlich beinhaltete der ECU nicht nur die Währungen derjenigen Länder, die den Euro übernehmen wollten, sondern auch die Währungen nicht-teilnehmender Länder, so das britische Pfund und die dänische Krone. Wären diese nicht aus der Berechnung der Wechselkurse herauszuhalten gewesen? Zudem war es bis 1998 überhaupt nicht klar, ob sich Spanien, Italien oder Portugal für die Übernahme der Gemeinschaftswährung würden qualifizieren können. Inbesondere die Erwartung, dass Griechenland die Währung übernehmen könnte, war eher gering. Die Einführung des Euros war der Gegenstand zahlreicher akademischer Kontroversen gewesen. Einige Politikwissenschaftler charakterisierten die Einführung des Euro als „political project disguised as an economic one”, bei dem „the political will is applied to purely economic, not to say, monetarist objectives” (Boyer 2000: 24, 26). Andere Beobachter argumentierten im Gegenteil, dass das Projekt der Währungsunion ein „major step in a general strategy of depoliticization“ (Spahn 2001: 170) sei, weil die Einführung einer gemeinsamen Währung ökonomische Kräfte die Oberhand gegenüber der Politik in der Bestimmung des wirtschaftspolitischen Kurses der EU gewinnen ließe. Diese Beobachtung trifft sich mit der Theorie optimaler Währungsräume, nach der es für innerlich geöffnete und außen geschlossene Wirtschaftskreisläufe (wie den EU-Raum) sinnvoll erscheinen

170

Alex Preda

muss, „to peg their currencies to the body of internally traded goods (…) for price stability and adopt externally flexible exchange rates for external balance“ (Kawai 1991: 529). Solche theoretischen Argumente besagen jedoch nicht viel über Umrechnungsverfahren oder Wechselkurse, schließlich sollten sich letztere maßgeblich nach Angebot und Nachfrage auf Devisenmärkten richten (Woelfel 1994: 360). Langfristig werden Wechselkurse durch Erwartungen über die Zukunft und von grundlegenden ökonomischen Indikatoren bestimmt, also von Bruttoinlandsprodukt, Produktivität, Verhältnis von Staatsverschuldung zum Bruttoinlandsprodukt und dergleichen (European Commission 1997). Die Unterscheidung zwischen Real- und Nominalkursen bestimmt ein Verhältnis zwischen Kurs- und Preisindexen (Mankiw 1998: 649), der relative Wert einer Währung hängt vom Verhältnis zwischen ihrer Kaufkraft im jeweiligen Währungsgebiet und jenseits dessen ab. Aber auch das lässt keine normative Grundregel für Umrechnungskurse erschließen. Insgesamt haben Geldtheorien kein normatives Modell für Umrechnungskurse entwickelt. Ihre Erwartung ist, dass Wechselkurse durch Angebot und Nachfrage bestimmt werden und vor diesem Hintergrund erscheint die Einführung des Euro als Ausnahmeereignis. Als Hauptelement der Umrechnungsformel fungierte CR, der zentrale bilaterale Wechselkurs. Dieser Wechselkurs war eine theoretische Berechnungsrate, die nicht von Finanzmärkten bestimmt wurde. Die Konsequenzen dieser Berechungsrate waren beträchtlich: Sie stellte praktisch das Vermögen fest, mit dem die teilnehmenden Länder sich der EWU anschlossen; sie brachte eine relative Umverteilung von Reichtum unter den teilnehmenden Ländern in Gang; sie schaffte eine neue Leitwährung, den Euro, von dem man erwartete, auf Augenhöhe mit dem US-Dollar und den japanischen Yen zu konkurrieren. Obwohl es zur Zeit seiner Einführung kaum hinterfragt wurde, hat das Umstellungsverfahren in späteren Diskussionen über die ökonomische Leistung der EWU sowie über die Aussichten, dass Großbritannien sich noch anschließen könnte, eine gewisse Prominenz gewonnen. Beispielsweise wurde argumentiert, dass Deutschlands schlechte ökonomische Leistung zum Beginn des neuen Jahrtausends auch aus einer Überbewertung der DM im Wechselkurs zum Euro resultierte. Britische Ökonomen verlangten in diesem Sinne eine sorgfältige Erwägung des Umstellungsverfahrens für das britische Pfund, sollte Großbritanninen der Euro-Zone beitreten wollen. Schließlich folgte eine Entscheidung des EUMinisterrates, das Umrechnungsverfahren für Währungen künftiger Beitrittsländer durch Einzelverträge zu bestimmen. Die Umrechnungsformel, auf deren Basis sich die Euro-Zone konstituierte, muss also nicht bloß als Instrument für eine einzigartige Operation erscheinen, sondern auch als Instrument für einmalige Verwendung. Damit stellt sich eine Reihe von Fragen. Während die Idee eines in Formeln gefassten Umrechnungsverfahrens Wiederholbarkeit suggeriert, wurde dieses Verfahren nur zu einem einzigen Anlass verwendet. Wie sollen wir ein „Verfahren“ verstehen, das im Widerspruch zum Begriff des Verfahrens steht? Wie ist zudem die Auswahl eines Verfahrens zu erklären, dessen Anwendung schwerfällig ist und zu unhandlichen Resultaten (wie z. B. zu endlosen Zahlen) führt? Die Entscheidung für ein Verfahren sollte aus seiner praktischen Angemessenheit erwachsen. Diese aber ist in diesem Fall schwer auszumachen. Eine strikte Deutung des Vertrages von Maastricht hätte verlangt, Umrechnungssätze von Devisenmärkten, also durch das Gleichgewicht von Angebot und Nachfrage festsetzen zu lassen. Die Entscheidung für ein Verfahren setzt jedoch im Gegenteil die freie Wählbarkeit einer Berechnungsmethode voraus, die unabhängig von Marktkräften operiert. Konstituiert das nicht einen Vertragsbruch?

Formel-Bolschewismus: Eine historische Soziologie der Euro-Umrechnung

171

Das Umrechnungsverfahren als soziologisches Problem Ein soziologischer Ansatz kann Fragen angemessener Geld- und Kreditpolitik schwerlich beantworten. Dementsprechend ist hier nicht zu zeigen, wie eine richtige oder falsche Entscheidung für eine richtige oder falsche Formel aussehen sollte. In erster Linie geht es um eine angemessene Beschreibung des historischen Sachverhaltes: Wie konnte die CRVariable zum Schlüsselelement der Umrechnungsformel werden? In welcher Art von Konkurrenz stand sie? Was waren ihre epistemischen Voraussetzungen? Wie fügte sie sich mit anderen Aspekten der Einführung des Euro zusammen? Man mag die Erwartung hegen, dass Formeln wie die, durch die sich die Umrechnungskurse bestimmten, auf Relationen zwischen logischen Kategorien basieren sollten, die eine regelgerechte Produktion von Ergebnissen ermöglichen. Wittgenstein argumentiert in seinen Vorträgen über die Mathematik, dass zunächst zwischen Formeln und Listen zu unterscheiden sei (Wittgenstein 1984: 416). Während die Anwendung einer Formel Ergebnisse produziere, die in eine Liste eingetragen werden könnten, sei die Ergebnisliste mit der Formel doch in keiner Weise identisch. Für Wittgenstein stehen Formeln und Listen (als Ergebnisse der Anwendung einer Formel) mit unterschiedlichen Grammatiken in Verbindung, zueinander in einem Verhältnis wie ein Zug, den man mit einem Zugunfall vergleicht (Wittgenstein 1984: 417). Eine Formel, ausgedrückt durch eine Gleichung, setzt das Gleichheitszeichen (=) ein. Sie trifft Aussagen wie „x = A“, „1 + 1 = 2“, „3·2 = 6“. Formeln sind Verfahren, durch die Einheiten Kategorien zugeordnet werden, sie dienen also als Verfahren der Herstellung von Identität. Wenn wir „x = A“ sagen, treffen wir automatisch eine Aussage über die Identität von x. Durch „x = A“ mögen wir auch andeuten wollen, dass alle Eigenschaften von x auch Eigenschaften von a sind. Das aber ist ein Irrtum, denn „die Eigenschaften physischer Gegenstände haben nur eine irrelevante Ähnlichkeit mit den Eigenschaften von Zahlen, Linien, usw. in der Mathematik. Ausdrücke von Eigenschaften in den üblichen Kontexten müssen für Qualitäten bestimmt sein, über die es sinnvoll ist, zu sagen, dass der Träger sie hat oder nicht. Es ist absurd, eine Eigenschaft einer Sache zuzuschreiben, wenn die Sache so definiert wird, dass sie diese Eigenschaft hat“ (Wittgenstein 1984: 419). Wittgenstein begreift hier Formeln oder Gleichungen als Sprechakte und nicht als Ausdrücke einer abstrakten Logik. Zwar können wir uns Kalküle vorstellen, die keine generalisierten Ausdrücke verwenden, doch diese sind dann von Formelgebrauch zu unterscheiden (Wittgenstein 1984: 421). Kinder, die das Rechnen erlernen, mögen Beispiele in dieser Richtung bieten. Nach Wittgenstein sind Spiele regelbasierte soziale Verfahren, die je für sich einzigartige Qualitäten aufweisen (Wittgenstein 1977: §66). Es gibt keine zwei identischen Spiele, deren Eigenschaften völlig übereinstimmen. Es folgt, dass im Verständnis des Gebrauchs einer Formel zwischen zwei Spielen zu unterscheiden ist: einerseits der Produktion einer Ergebnisliste (wie z.B. wenn wir sagen, dass ein Euro 1,95569 Mark, 40,3399 belgische Franc, 1936,27 italienische Lira, usw. wert ist); andererseits dem Ausdruck einer Einheit mit einer bestimmten Identität (wie im Fall von „ein Euro ist…“). Diese zwei Spiele sind nicht identisch, der Ausdruck einer Identität kann nicht mit der Behauptung „diese Einheit ist so und so viel wert“ gleichgesetzt werden. Wittgenstein lässt Berechnungen als Experimente begreifen und damit als Rechenvorgänge, die nur einmal erfolgen. Das widerspricht der üblichen funktionalistischen Ansicht, die besagt, dass eine Formel in erster Linie eine Ergebnisliste produziert. Das Hauptresultat

172

Alex Preda

einer Berechnung-als-Experiment soll keine Ergebnisliste sein, sondern Ausdruck der Eigenschaften einer Einheit: „Wenn man einen Beweis als Experiment auffasst, so ist das Resultat des Experimentes jedenfalls nicht das, was man das Resultat des Beweises nennt. Das Resultat der Rechnung ist der Satz, mit welchem sie abschließt; das Resultat des Experimentes ist: dass ich von diesen Sätzen durch diese Regeln zu diesem Satz geführt wurde.“ (Wittgenstein 1989: 98). Wenn wir „Rot ist blasser als Pink“ sagen, dann reden wir nicht von einer Eigenschaft „rot“, sondern von der Grammatik des Wortes „rot“ (Wittgenstein 1984: 419). Wenn wir die Identität einer bestimmten Einheit erklären, definieren wir sie folglich automatisch als im Besitz bestimmter Eigenschaften. Die Definition stattet die Identität mit Eigenschaften aus. Die Tatsache, dass sie Einheiten mit Eigenschaften ausstatten, macht Formeln zu Sprechakten (Austin 1972). Als solche entfalten sie performative Wirkung, schaffen also die Einheit dessen, worüber sie sprechen. In ihrer Analyse der Preisformel für Optionsscheine analysieren MacKenzie und Millo (2003) deren Performativität, die nicht einfach Preise abbildet, sondern den Markt für Termingeschäfte über die Konstitution von Preisen verändert. So stellt der Formelgebrauch Einheiten her, die er performativ mit bestimmten Eigenschaften versieht. In diesem Sinne kann die Umrechnungsformel als Sprechakt analysiert werden, die eine monetäre Einheit herstellt und sie mit spezifischen Eigenschaften ausstattet. Diese Eigenschaften sind nicht auf eine Liste von Wechselkurswerten reduzierbar. Das Umrechnungsverfahren wurde vom Ministerrat der EU angenommen und in amtlichen Urkunden ausgedrückt. Insofern erfüllt es John Austins Performativitätsbedingungen für Sprechakte, nämlich die Anwendung eines in einem gegebenen sozialen Kontext geltenden Verfahrens in den dafür vorgesehenen Umständen unter korrekter Durchführung und Artikulation. Doch dieser Sprechakt selbst kann nicht isoliert von anderen Sprechakten betrachtet werden, die ihm vorangingen und die Eigenschaften von „Euro“, von „Umstellung“, der entsprechenden Verfahren usw. definierten. Es bedarf also einer historischen Rekonstruktion dessen, wie ein Umstellungsverfahren gefunden, stabilisiert und legitimiert werden konnte. Das Verfahren wurde offiziell vom Europäischen Rat am 1. Oktober 1998 beschlossen. Die nachfolgende Analyse nimmt Dokumente aus der Periode zwischen 1993 und 1998 in Augenschein. Es handelt sich bei diesen um Forschungsberichte, ökonomische Analysen, Positionspapiere, Aktionspläne und Sitzungsprotokolle, die sich mit den Definitionen des Euro beschäftigen. 1997 ist ein in dieser Hinsicht besonders relevantes Jahr. Technische Details der finanziellen Umrechnung zeichneten sich ab und wurden 1997 vereinbart. Auf Seiten der Politik setzte der Amsterdamer Gipfel im Juni 1997 die makroökonomischen Kriterien fest, nach denen Länder in den „Euroklub“ aufgenommen werden konnten. Vieldiskutierte Kriterien wie die Bedingung, dass das Schuldniveau eines Eurolandes 3% seines Bruttoinlandsproduktes nicht übersteigen dürfe, wurden zu diesem Zeitpunkt beschlossen. Alles in allem kann 1997 als das Jahr gelten, in dem die wesentlichen Eigenschaften der europäischen Währungsunion festgelegt wurden. Die Datensammlung für diese Analyse wurde im Rahmen von ethnographischen Beobachtungen durchgeführt, die der Autor 1997 in der Brüsseler EU-Repräsentanz einer europäischen Bank absolvieren konnte. Die analysierten Dokumente stammen vom Europäischen Währungsinstitut, der Europäischen Kommission, von akademischen Forschungsinstituten und Banken. Die Dokumente werden als Sprechakte betrachtet, die Eigenschaften der Währungseinheit Euro, von „Umstellung“, Umstellungszenarien und Umrechnungsverfahren arti-

Formel-Bolschewismus: Eine historische Soziologie der Euro-Umrechnung

173

kulieren, und damit die Schlüsselfaktoren derjenigen Produktionsprozesse in Stellung bringen konnten, die am Ende in einer Liste von Währungwerten resultierte. Umstellung Bei der Betrachtung der Dokumente über die Einführung des Euro aus der Periode 19931998 fällt zunächst auf, dass sich Grundlinien der Diskussionen über das Umstellungsverfahren erst spät im Jahre 1996 herauskristallisieren. Der Grund hierfür lag keineswegs in einer Ungewissheit, ob der Euro überhaupt angenommen würde. Schließlich wurde in den amtlichen Urkunden bereits eingehend debattiert, wie die notwendigen Veränderungen in den Verkaufsautomaten oder die Münztransporte zu organisieren seien. Was machte demgegenüber die besondere Problematik des Umstellungsverfahrens aus? Das Wählen eines Umrechnungskurses (und damit auch der Definition des Euro selbst) hängt davon ab, in welcher Weise „Umstellung“ definiert wird. Aus dem Betrachten der Dokumente, die durch die Europäische Kommission, die Zentralbanken und die Lobbyisten herausgegeben wurden, lässt sich ermessen, welch großen Aufwand die Definition des Problems der Währungsumstellung erforderte. Die frühesten Dokumente vergleichen die Einführung des Euros mit dem Übergang zum Dezimalsystem in Großbritannien Mitte der siebziger Jahre und mit der Erweiterung der DM nach Ostdeutschland 1991. Die Einzelwährung wurde in diesem Kontext als die Erweiterung einer bereits vorhandenen Währung, nicht als die Einführung einer neuen dargestellt. So öffnet ein früher interner Bericht einer großen europäischen Bank mit der Feststellung: „Although for most aspects of the political and economic framework, German and European Monetary Union are two completely different processes, at least one positive lesson regarding the future EMU can be drawn, namely that there are no major technical problems implied when adopting a new currency.”

Der Bericht spricht diesbezüglich von der deutschen Währungsunion, definiert sie als die Erweiterung eines vorhandenen Währungsraums, gleichzeitig aber auch als Währungsreform. Ein ökonomisches Papier, das 1994 für das Generaldirektorat für ökonomische und finanzielle Angelegenheiten der Europäischen Kommission geschrieben wurde, differenziert demgegenüber vier Arten von Währungsveränderungen: Änderungen in der Währungsstruktur, Auswechseln einer Währung durch eine andere vorhandene Währung, die Trennung von zwei Währungen und die Neubewertung einer vorhandenen Währung (Burridge/Mayes 1994: 4). Die Einführung einer vollständig neuen Währung fehlt als Kategorie. Von den vier genannten Kategorien werden nur der britische Übergang zum Dezimalsystem und die deutsche Währungsunion im Detail erörtert. In der Zusammenfassung definiert das Papier die neue Währung dann als „Währungsschaltung“ und konkretisiert: „Since conversion rates will not be known until the beginning of Stage III, it will not be possible to put the Ecu into circulation before this point. Furthermore, it seems very unlikely that old and new currency will have exact equivalences. This again points to a changeover period being required following E-day.” (Burridge/Mayes 1994: 10)

174

Alex Preda

Ein Zwischenbericht über die „Schaltung“, vorbereitet für die Europäische Kommission im Jahre 1995, stellt fest, der Ecu würde ab Anfang der Phase 3 zu einer Währung für sich, sei bis dahin aber (als ECU) ein privates Marktinstrument, sein externer Wert würde sich dabei allerdings nicht ändern (Expert Group on the Changeover to the Single Currency 1995: 4, 10). Trotz offizieller Gleichwertigkeit mit dem ECU müsse der Euro „as strong as the strongest national currency” sein, andernfalls „the common currency would not find the necessary public acceptance”. Diese Position wird auch von einem offiziellen Positionspapier eines europäischen Bankenverbandes eingenommen, das der Europäischen Kommission 1995 unmittelbar nach Bekanntwerden ihres eigenen Papiers über die praktischen Vorbereitungen für die Einführung der europäischen Währung vorgelegt wurde. Die Vorstellung, dass der Euro so „hart“ oder „stark“ wie die D-Mark sein solle, hatte ihren Ursprung in früheren Vergleichen zwischen der deutschen Währungsunion und der EU. Diese Vergleiche wollten zeigen, wie man erfolgreich eine „starke“ Währung einführt. Die Umstellung sei eine rein arithmetische Operation, so die Feststellung in einem früheren Bericht des Europäischen Währungsinstitutes (1995: 3, 19). Diese Operation mache Devisenmärkte zwischen teilnehmenden Währungen überflüssig. Die Umstellung sei unwiderruflich, einen umgekehrten Umrechnungskurs erfordere sie nicht (Finnish Ministry of Finance 1997: 4). Ein anderer Bericht, gemeinsam produziert von den Direktoraten für ökonomische und finanzielle Angelegenheiten und für Binnenmarkt und Finanzdienstleistungen der Europäischen Kommission, argumentiert wiederum, nach der Umstellung seien die Landeswährungen und der Euro unterschiedliche Ausdrücke von dem, was ökonomisch die gleiche Währung darstelle (European Commission 1996: 8). Ähnlich stellt eine Studie des Europäischen Währungsinstituts vom November 1995 fest, dass zum genannten Zeitpunkt die Landeswährungen aufhören würden, füreinander ausländische Währungen zu sein, es bleibe dann „only one currency which can be expressed in different ways: either in terms of the European monetary unit or in terms of any of the national monetary unit“ (S. 17). „Umstellung“ erscheint hierbei lediglich als Veränderung in den Ausdrucksmitteln, aber nicht als Währungs- und Wertänderung. Alle diese Definitionen stellen die Umstellung entweder als einfache technische Änderung (die lediglich Bezeichnungen verändert, so wie im britischen Übergang zum Dezimalsystem) oder als Erweiterung und Umbenennung einer bereits vorhandenen Währung (der ECU-Währung) dar. Während man von der deutschen Währungsunion auch als Währungsreform sprach, wurde dieser Begriff im Zusammenhang mit der Gemeinschaftswährung durchgängig vermieden. Schließlich verbarg sich im potentiellen Tatbestand einer Währungsreform eine gewichtige juristische Problematik. Eine Währungsreform setzt voraus, dass eine bestehende Währung aufhört zu existieren. Verträge, die in der alten Währung abgeschlossen wurden, hätten dann möglicherweise gekündigt oder neu ausgehandelt werden können. Wenn beispielsweise eine Hypothek in französischen Francs abgeschlossen ist und der französische Franc zu existieren aufhört, dann kann der zugrundeliegende Vertrag als ungültig betrachtet werden – in der gegebenen Größenordnung der Euro-Einführung wäre dies ein ökonomischer und juristischer Albtraum gewesen! Die Umstellung sollte demgegenüber das Fortbestehen ökonomischer Vertragsverhältnisse sicherstellen, also keine juristische Grundlage für das Ändern oder Annullieren von Verträgen bieten. Auch Zinssätze sollten unberührt bleiben. Ein Positionspapier, das 1995 von einer Lobbyorganisation in Umlauf gebracht wurde, mahnte an:

Formel-Bolschewismus: Eine historische Soziologie der Euro-Umrechnung

175

„Every day, thousands of contracts are being agreed which will still be in force beyond the date of implementation of the EMU. These contracts affect commerce, banks and the public. They include items such as mortgage loans, term deposits, insurance policies and bond subscriptions. An early announcement needs to be made that implementation of EMU will not affect the terms of these contracts, other than to convert domestic currencies automatically at the official rate into a single currency, and that rates of interest either expressed as fixed rates will not be changed.” (ESBG 1995: 7-8)

Die Umstellung wurde somit zu einem paradoxen Prozess, der radikale Änderungen verursachen, aber möglichst alles unverändert lassen sollte. Eine derartige Vorstellung lässt sich nur aufrechterhalten, wenn man die Umstellung als arithmetische Operation, als Anwendung einer Formel und nicht als politischen Prozess, als ökonomische Umstellung oder als Umverteilung von Reichtum definiert. Schon 1995 bildete sich so ein Konsens zwischen den teilnehmenden Akteuren, politischen und wirtschaftlichen Institutionen heraus, über die Umstellung in erster Linie als arithmetische Operation zu sprechen, lange bevor die Details des Verfahrens zu einem Thema wurden. Kosten Ohne Ausnahme wurde die Entscheidung zur Annahme der Gemeinschaftswährung in Begriffe wirtschaftlicher Zweckmäßigkeit gekleidet. Der Euro würde Transaktionskosten verringern, die ökonomische Transparenz und die Integration teilnehmender Volkswirtschaften in den europäischen Binnenmarkt erhöhen und dort den Kapitalverkehr erleichtern. Wenn man also vom Euro erwartete, Transaktionskosten zu verringern, welche Kosten der Umstellung wären demgegenüber in Rechnung zu stellen? Und inwieweit würde der Umstellungsprozess selbst durch seine Kosten in Mitleidenschaft gezogen? Da die Umstellung keine Reform und keine radikale ökonomische Wende sein sollte, hatte sie auch billig zu sein. Auf Seiten ökonomischer Akteure mussten jedoch praktisch alle Unternehmen die Struktur ihrer Preiskalkulation, Rechnungs- und Kaufsysteme, ihrer Buchhaltung und Kontoführung ändern. Diese Änderungen schlossen das Kaufen neuer Software und Hardware, die Einführung neuer Richtlinien für Buchhaltungs- und Managementsysteme und entsprechende Personalfortbildungen ein. Die Europäische Kommission schätzte die Folgekosten der Euro-Einführung für Unternehmen und Industrie gleichwohl als geringfügig ein (Burridge/Mayes 1994: 1) und erwartete, dass eine große Handelsbank ungefähr 10 Million Ecu für die Umstellung würde ausgeben müssen. Ein Bericht der Bank for International Settlements von 1997 schätzt demgegenüber, dass Devisenmärkte nach Einführung des Euro ungefähr 10% globaler Transaktionen verlieren müssten (1997: 76). Eine interne Studie, die 1997 von einem der europäischen Bankenverbände6 durchgeführt wurde, schätzt die Umstellungskosten auf ungefähr 200 bis 300 Millionen Ecu für eine große Handelsbank und damit auf etwa 2% der Betriebskosten für jedes Jahr der Umstellungsperiode. Diese Kosten seien mit Einkommensverlusten aus dem Devisengeschäft verbunden. Eine Umfrage, die 1993 von einem großen Beratungsunternehmen für die European Financial Management and Marketing Association durchgeführt 6

Aufgrund historischer Besonderheiten, gibt es mehrere Bankenverbände in der EU. Jeder Verband ist eine Vereinigung nationaler Verbände. Die euopäischen Bankenverbände treten auf nationaler und europäischer Ebene als Lobbyisten auf, betreiben Wirtschaftsforschung und betätigen sich als Investoren.

176

Alex Preda

wurde, dokumentiert beim Bankenpersonal weit verbreitete Erwartungen höherer Kosten, erhöhter Konkurrenz, von Einkommensverlusten und verringerter Kapitalrentabilität (EFMA Surveys 1993: 12). Das interne Papier eines europäischen Bankenverbandes von 1997 weist zudem auf zusätzliche potentielle Kosten einer längeren Doppelwährungsperiode hin: „In 1995, [Bankenverband x] estimated the costs of the changeover to the European banking sector to be circa 10 billion ECU. However, it should be recognized that the (...) survey was based on the assumption that the single currency would be introduced in a 'big bang' scenario. This is no longer an option, and the phased introduction at the wholesale level in 1999, to be followed three years later by a full scale switch to euro notes and coins is generally reckoned to double the costs.” (Hervorhebungen im Original)

Derart hohe Kostenvoranschläge passten nicht recht zur Idee einer Wirtschaftlichkeit der Umstellung. In einer europaweiten, im Jahr 1997 unter Bankenangestellten verbreiteten „Eurowährungsbroschüre“ rät ein Bankenverband dem Schalterpersonal, private Kontoinhaber gleichwohl folgendermaßen zu informieren: „During the transition a single conversion rate should be used to convert a national currency into the euro. This should not lead to a rise in prices nor should the rounding of prices. But even if one would be tempted to round off towards a higher price, increased competition will play its role and favor lower prices.” (Hervorhebung im Original)

Gegenüber Firmenkunden sei folgende Position zu vertreten: „Nobody can guarantee that the single currency will be introduced. But often, the political will of the European Heads of State and Government, the interests of big business and the driving role of the European Commission are underestimated. Anyone who is taken unaware by the introduction of the euro risks will incur high change-over costs, which can be caused by bad investments due to failure to consider the new challenges, delayed and overpriced or ill-prepared conversion work.”

Diesen Positionen entsprechend waren Kostenerhöhungen entweder nicht zu befürchten oder lagen in der Verantwortlichkeit des individuellen Unternehmens. Staatliche Behörden beharrten darauf, dass den Verbrauchern keine Kosten aufgebürdet würden; Verbraucherorganisationen beklagten demgegenüber, dass der Verbraucher für Transaktionen zur Kasse gebeten würde, die er nicht zu zahlen habe; Bankverbände argumentierten wiederum, dass sie nicht alle Handlungs- und Speicherkosten für die neue Währung auffangen könnten und zusätzliche Dienstleistungen (z. B. Euro-Scheckhefte) gebührenpflichtig sein sollten (European Commission 1997b: 2). Die Idee einer Einführung des Euro als technischer Angelegenheit schloss jedoch die Anerkennung derartiger Kosten aus. Mitte 1997, während der Sitzung eines wichtigen europäischen Bankenverbandes, bildete sich die folgende Diskussion darüber, wie man Kosten angehen sollte: „[Name] asked the delegates if [Organisation] shall publish its information concerning the costs of the changeover to the Euro. [Name] replied that it is a problem to determine what costs exactly are. It depends on the definition of costs. Picking another definition of costs as a basis, the costs could be ten times higher. [Name] requested to keep all information about the costs of the Euro confidential. [Name] underlined that he is not against a publication of the costs of the Euro because the information that had been given are based on old data. In reality the costs are higher

Formel-Bolschewismus: Eine historische Soziologie der Euro-Umrechnung

177

now. [Name] pointed to the fact that the consumer associations are quite “aggressive”. For the preparation of the roundtable on [Datum], the group should be very careful with the publication of all kinds of data concerning the costs of the changeover to the Euro. [Name] explained that in fact the consumers will be burdened with the costs of the changeover, but that this should not be obvious to the consumers. … [Name] recalled that the members should be very careful with publication of all data concerning the costs of the changeover and that it would be better to explain any additional costs in relation to the reaction of the market or with changes on the market.”

Wenn die Euroumstellung kostenfrei ausfiele, dann würden grundlegende ökonomische Daten auch nicht durch Kosten beeinflusst, folglich die einzelnen Euro-Umrechnungskurse nicht in Mitleidenschaft gezogen. Das stimmte mit der Idee der Umstellung als technischarithmetischer Operation überein. Gleichzeitig wurde vom Markt erwartet, Unternehmen zu sanktionieren, die versuchten, etwaige Kosten den Verbrauchern aufzubürden. Erhöhte Kosten wären ein Fall von Marktversagen. Szenarien Die Idee der Umstellung als kostenfreie, arithmetische Operation war nun in einen Umstellungsplan, ein institutionelles „Szenario“ zu überführen. Dabei war die Dauer des Umstellungsprozesses, die Zahl der teilnehmenden Länder und das Verhältnis der Gemeinschaftswährung zu den einzelnen Landeswährungen festzusetzen. Die konkreten Umrechnungskurse sollten ebenso wie das Verfahren für ihre Berechnung später als abhängig vom gewählten Szenario erscheinen. Die frühesten Szenarien finden sich in der bereits erwähnten Umfrage der EFMA unter Beschäftigten von 50 europäischen Banken und Geldinstituten (EFMA Surveys 1993). Über 80% der Befragten erwarteten, dass die Einführung der neuen Währung 1999 oder später geschehen und die Vorbereitung dazu mindestens zwei Jahre dauern würde. Den Befragten wurden drei mögliche Szenarien präsentiert: (1) ein „big bang“, das heißt, eine unmittelbare Umstellung aller Währungen; (2) eine Periode von fixierten EWS- bzw. ERMRaten, gefolgt von einem „big bang“; (3) eine Periode von Doppelwährungen, in der die europäische Gemeinschaftswährung die Landeswährungen als gesetzliches Zahlungsmittel stufenweise in den Hintergrund drängt. Während eine Mehrheit an das Doppelwährungsszenario glaubte, hielten einige französische und deutsche Banken einen „big bang“ für die beste Lösung. Die Befragten erwarteten, dass fünf oder sechs Länder (Frankreich, Deutschland, Belgien, die Niederlande und Luxemburg) von Anfang an teilnehmen würden und die Mitgliedschaft von da an stufenweise wachsen könnte (EFMA Surveys 1993: 10). Ein „big bang“ hätte die schnelle Ersetzung (über Nacht oder im Verlauf von wenigen Tagen) der Landeswährungen durch die Gemeinschaftswährung erfordert, während eine Doppelwährungsperiode bis zu zwei Jahre hätte andauern können. Bei einer Doppelwährungslösung wäre die Gemeinschaftswährung nicht als neu, sondern zunächst als alternative Beschreibung von Landeswährungen erschienen. Diese Szenarien finden sich in amtlichen Dokumenten der Europäischen Kommission, des Europäischen Währungsinstituts, von Bankenverbänden und wissenschaftlichen Diskussionspapieren wieder. Ein Kommuniqué der Europäischen Kommission von 1994 präsentiert zusätzlich eine Art Zwischenlösung, die den Ecu/Euro als einzige Fakturierungs-

178

Alex Preda

und Abrechnungswährung einführen würde, um die Landeswährungen weiterhin für Privatkundengeschäfte zu verwenden. Für eine Weile wären Landeswährungen und Gemeinschaftswährung so nebeneinander im Umlauf. Vorteile einer solchen Lösung lägen in einem Entgegenkommen auf die Präferenzen bestimmter Benutzergruppen und in der Möglichkeit, die Gemeinschaftswährung zu unterschiedlichen Zeitpunkten in den Teilnehmerländern einzuführen, abhängig von den jeweiligen Wünschen und Möglichkeiten (Official Journal of the European Communities 1994: 5-6). Ihrerseits wiesen sowohl das Europäische Währungsinstitut als auch die Expertengruppe der Europäischen Kommission das Szenario vom „big bang“ als unmöglich oder nicht ratsam zurück (Expert Group on the Changeover to the Single Currency 1995: 8; European Monetary Institute 1995: 12). Das Argument des EMI war, die Märkte seien nicht dazu bereit, einen länger vorbereiteten „big bang“ abzuwarten, und es sei im Interesse der Finanzmärkte und des Bankenwesens ein Klima gleichmäßigen Übergangs zu schaffen, dass es ermöglichen würde, Kunden in derjenigen Währung zu bedienen, die sie für ihre Transaktionen benötigten (European Monetary Institute 1995: 12). Das befand sich wiederum im Einklang mit der Idee einer möglichst kostenneutralen Schaltung: Eine längere Umstellungsperiode würde das schlagartige Anfallen erheblicher Kosten verhindern. Obwohl sich einige Großbanken gegen eine längere Übergangsphase aussprachen, wurden ihre Argumente von der Europäischen Kommission als weder in ihrem eigenen Interesse noch in dem ihrer Kunden dargestellt. Das Szenario der Doppelwährungsperiode wurde im Mai 1995 in einem Green Paper der Europäischen Kommission festgeschrieben, das die Umstellungsphasen fixierte. Dementsprechend sollte die Doppelwährungsperiode (Phase 2) am 1. Januar 1999 anfangen und am 31. Dezember 2001 enden. Die Wechselkurse der teilnehmenden Länder waren unwiderruflich zum Beginn von Phase 2, das heißt am 1.1.1999 festzusetzen. Damit verlagerte sich die Diskussion über das Verfahren der Kursberechnung. Das Doppelwährungsszenario befand sich im Einklang mit der paradoxen Idee einer möglichst änderungsfreien Umstellung und trug so dazu bei, dass die Frage des Umstellungsverfahrens zunächst außer Acht gelassen wurde. Insbesondere hatte die Festsetzung des 1.1.1999 als Beginn einer Doppelwährungsperiode (und nicht etwa als Zeitpunkt einer vollzogenen Währungsumstellung) beträchtliche Auswirkungen auf die Konstruktion und Wahl von Verfahren der Währungsumstellung. Der Vertrag von Maastricht erforderte lediglich, dass die Wechselkurse der Landeswährungen zur Gemeinschaftswährung am 1. Januar 1999 zu fixieren seien. Dieses Datum hätte also durchaus der Termin für einen „big bang“ sein dürfen. Unter anderem beeinflusste die Entscheidung für das Szenario einer Doppelwährungsperiode den Handel der teilnehmenden Währungen auf den Devisenmärkten und damit vor allem den Wechselkurs des Ecu zum US-Dollar und zum japanischen Yen. Weil der Vertrag von Maastricht ebenfalls keine Aussagen über bilaterale Wechselkurse (etwa zwischen dem französischen Franc und der deutschen Mark) enthielt, bot sich innerhalb der Bandbreite des ERM Raum für beträchtliche finanzielle Spekulationen. Die resultierenden Änderungen in bilateralen Wechselkursen konnten jedoch nicht ohne Konsequenzen für die Wechselkurse der Landeswährungen zum Ecu und folglich zum Euro bleiben.

Formel-Bolschewismus: Eine historische Soziologie der Euro-Umrechnung

179

Das Umstellungsverfahren Die Gefahr der Märkte 1996 begann das Verfahren der Festsetzung von Umrechnungskursen in den Dokumenten der Europäischen Kommission diskutiert zu werden. 1997 intensivierten sich diese Diskussionen mit der Publikation entsprechender Positionspapiere seitens der Kommission, aber auch durch Bankenverbände und akademische Forschungseinheiten. Die Herstellung und Verbreitung dieser Positionspapiere führte wiederum zu verstärkten Sitzungsaktivitäten in den am Diskurs beteiligten Organisationen, und in einigen Fällen zu hitzigen Debatten, an denen der Autor als Beobachter teilnehmen konnte. Zu Beginn wurde das Umrechnungsverfahren als Instrument für die Auswahl teilnehmender Landeswährungen und für die Festsetzung der Umtauschraten angesehen. So schlug ein vom Wirtschafts- und Sozialausschuss der EU herausgegebenes Arbeitspapier (Burani et al. 1996) vor, die Umrechnungskurse als zentrales Konvergenzkriterium zu behandeln. Eine geringe Fluktuation von 5% im Verlaufe von 1997 ohne Zuhilfenahme stützender Notenbankinterventionen während 1996 und 1997 sollte Landeswährungen für die Teilnahme an der Europäischen Währungsunion qualifizieren (Burani et al. 1996: 6). Diese Ansicht operierte mit einer Idee natürlicher Selektion: Nicht Staatsinterventionen sollten Basis der Qualifikation teilnehmender Währungen sein, sondern allein die Stärke von Währungen, die „fundamentally healthy“ sein müssten. Aber auch Märkte seien letztendlich ungeeignet, die Umrechnungskurse festzulegen. Da eine strenge Deutung des Vertrages allerdings bedeutet hätte, dass Devisenmärkte die Umrechnungssätze festsetzen müssten, argumentiert das Papier: „In view of the potential dangers this poses for the postulated neutrality of the conversion in terms of competition, the Committee cannot endorse this approach. In order to prevent costinduced distortions of competition in international trade, the Committee considers it essential to ensure that speculative upheavals do not lead to fundamentally unjustified conversion rates being applied at the beginning of monetary union. (…) Exchange rates justified in real economic terms are an essential precondition for the success of the currency system. If a country participates in a currency system at an exchange rate which is too high it runs the risk of losing price competitiveness. This would be all the more problematic on entry to the third stage of monetary union, as, with the disappearance of national currencies, such overvaluation could no longer be compensated for by a relatively low level of interest rates.“ (Burani et al. 1996: 9)

Märkte sind in dieser Perspektive nicht in der Lage, grundlegende Wirtschaftsdaten zu produzieren – eine Position im krassen Widerspruch zu den Standardannahmen der Volkswirtschaftslehre. Weil der Vorteil eines Teilnehmers (durch Währungsabwertung) den Nachteil eines anderen (durch Überbewertung) konstituiere, handle es sich um eine Gerechtigkeitsfrage. Umrechnungskurse müssten gerecht sein, nicht nur präzise oder ökonomisch gerechtfertigt. Märkte jedoch könnten Gerechtigkeit nicht sicherstellen. Ähnlich äußerte sich auch Hans Tietmeyer, damaliger Präsident der Deutschen Bundesbank, immer wieder bei öffentlichen Auftritten, so auch in einer Rede vor dem Europäischen Bankkongress in Frankfurt am 22. November 1996: „If these signals (to the markets) are to be disseminated credibly, yet another element is required: namely willingness to change parities, if necessary, in good time, and that on both sides.

180

Alex Preda The country whose central rate turns out to be too ambitious should not fail to devalue for fear of any loss of prestige. Conversely, neither should a phobia evolve in the euro area, regarding any devaluation against the euro as an unfair, malicious act. Permitting an appreciation of one’s own currency in order to rectify an exchange rate pattern that has become unrealistic is likewise part and parcel of being a viable anchor.“ (Tietmeyer 1996: 5)

Also stellte sich folgendes Dilemma: Den Märkten würde man die Festsetzung der Umrechnungskurse nicht anvertrauen dürfen, selbst wenn eine strenge Deutung des Vertrags genau das bedeutet hätte. Ebenso wenig aber war den teilnehmenden Staaten diese Aufgabe anzuvertrauen, weil sie versuchen würden, ihre jeweiligen Volkswirtschaften dadurch zu begünstigen, indem sie den Wert ihrer Währung manipulierten. Das Verfahren Der Vertrag von Maastricht spezifizierte weder Datum noch Verfahren für die Festsetzung bilateraler Wechselkurse zwischen teilnehmenden Währungen. Diese konnten weit vor dem Umstellungsdatum festgesetzt werden und würden sich wesentlich auf den Wert des Euro auswirken. Wie oben gezeigt, hing der Umrechnungskurs jeder teilnehmenden Währung zum Euro von ihren bilateralen Umrechnungskursen zu den anderen teilnehmenden Währungen ab. Wenn alle bilateralen Raten vorab festgesetzt worden wären, hätte man also den Wert des ECU voraussagen und ihn durch Marktspekulation testen können. Ab dem Zeitpunkt einer solchen Festsetzung wäre damit eine erhebliche Gefahr von Währungsspekulationen gegeben gewesen. Ein weiteres Problem lag darin, dass der ECU Währungen enthielt, die zweifellos nicht an der Gemeinschaftswährung teilnehmen würden, nämlich das britische Pfund und die dänische Krone. Ein einflussreicher akademischer Beitrag stellt dazu fest: „The rule that the ECU will be converted to the Euro one for one and the fact that the ECU contains the currencies of countries that will not participate in the EMU thus have a bizarre implication: Giving markets complete certainty that the EMU will not involve capital gains or losses on the last day makes it impossible to create any certainty about the conversion rates of the currencies participating in the Euro any day before 31 December 1998. They can only be determined from the last day’s market rates.“ (Begg et al. 1997: 13-14)

Dieses vom Centre for Economic Policy Research (CEPR) herausgegebene Papier argumentiert, dass bilaterale Wechselkurse im Voraus festgelegt werden sollten, um Marktinterferenzen zu vermeiden. Es diskutiert hierfür einige Lösungen: bilaterale Kurse in einer breiten Bandbreite fluktuieren lassen; einen Währungsausschuss einrichten, der die ECUWechselkurse festlegt; historische Durchschnittsumrechnungskurse für den ECU während der Periode 1996-1998 zu berechnen (die sogenannte Lamfalussy-Regel7); schmale Fluktuationsbänder nicht für Kassakurse, aber für historische (fluktuierende) Durchschnittswerte von Kassakursen zu übernehmen (die sogenannten Bartolini-Prati-Bänder; Begg et al. 1997: 35-41). Nachdem das CEPR-Papier all diese Lösungen als fehlerhaft zurückweist, bringt es die Festlegung bilateraler Umrechnungskurse im Voraus als eigene Lösung ins Spiel. Diese bilateralen Raten sollten mit den vorhandenen zentralen Paritäten innerhalb der 7

Alexandre de Lamfalussy war zu dieser Zeit Präsident des Europäischen Währungsinstituts und ehemaliger Präsident der Bank for International Settlements.

Formel-Bolschewismus: Eine historische Soziologie der Euro-Umrechnung

181

breiten Fluktuationsbänder des ERM (Begg et al. 1997: 48) errechnet werden. Die Argumente der Autoren waren ausschließlich ökonomischer Natur: die Abweichungen der Kassakurse von den Zentralparitäten seien niedrig, Zentralparitäten könnten als Gleichgewichtsparitäten angesehen werden, grundlegende Wirtschaftsdaten sprächen für Zentralparitäten. Diese sollten nicht nur für die erste Welle teilnehmender Landeswährungen, sondern auch für zukünftige Beitrittsfälle verwendet werden (Begg et al. 1997: 55). „Our ideal solution would be to dispense with bands altogether for countries that are deemed Ins. The central parity will summarize their exchange rate commitments, to which they would be held as the transition expired. In the meantime, countries would be free to float, in the knowledge that any gains pursued, for example through depreciation, would have to be repaid so quickly that they yield scarcely any benefit. Uncertainty is reduced and incentives for perverse behavior are considerably diminished.“ (Begg et al. 1997: 56)

Diese Lösung sollte gleichzeitig der Verabschiedung von Fluktuationsbändern den Weg bereiten, Marktungewissheit verringern und „perverse behavior“ vermeiden helfen. Zentralparitäten jedoch sind errechnete Paritäten, arithmetische Kunstprodukte und nicht das Resultat von Markttransaktionen. Spät im Jahre 1996, bei einem Treffen von Bankenverbänden mit dem Generaldirektorium für die Wirtschafts- und Finanzangelegenheiten der Europäischen Kommission, wurde der anwesende Repräsentant des Direktorats zu den bilateralen Umrechnungskursen befragt. Im Sitzungsprotokoll wurde festgehalten: „Furthermore, there will be no fixing of bilateral rates e.g. between the DM and FF, only between the individual currencies and the Euro. In order to calculate the bilateral rate, one must pass through the Euro and the process must be made with three decimals. This process takes into account the present system operated by banks in calculating conversions. In response to a question as to why it was decided not to have fixed bilateral conversion rates during the transition period, [name] replied that it was felt that fixed bilateral conversion rates during the transition period could result in inconsistencies. He explained that while such rates exist within the ERM they result from the pertaining buying and selling rates, however within an EMU they would be of necessity fixed and precise and therefore inconsistencies could result.“

Das CEPR-Papier hatte beträchtliche Auswirkungen. Ein Pressekommuniqué über das Papier wurde den Bankenverbänden vorab zugestelllt und in zahlreichen Sitzungen diskutiert. So befasste sich die Sitzung des Ausschusses für Wirtschafts- und Geldpolitik eines Bankenverbandes, bei dem der Autor ethnographische Beobachtungen durchführen konnte, mit den Ungereimtheiten, die sich durch den Gebrauch arithmetischer Kunstprodukte (durchschnittlicher Raten oder zentraler Paritäten) ergeben würden. Gleichzeitig begriffen die Teilnehmer der Sitzung den Einsatz dieser Kunstprodukte als Mittel, spekulative Angriffe abzuwehren. Der Ausschuss beschloss letztendlich, eine Arbeitsgruppe für das weitere Studium des CEPR-Papieres einzurichten. Diese Arbeitsgruppe, die Wirtschaftswissenschaftler und Rechtsanwälte umfasste, sollte den Diskussionsstand zusammenfassen, auf dieser Basis ein Positionspapier erarbeiten und eine Sondersitzung des Ausschusses zum Thema der Umrechnungssätze organisieren. Das Papier, das aus diesem Arbeitsauftrag resultierte, hält zunächst fest: „In order to avoid financial market turbulence and exchange rate manipulation by future member countries, the method of setting these final conversion rates should be announced as soon as possible. Such an announcement would clearly convey to the public and the markets that bilate-

182

Alex Preda ral conversion rates implied by the conversion of national currencies to the Euro will equal the pre-announced rates without regard to the ECU exchange rates prevailing on the last day and without regard to other circumstances.“

Daraufhin nimmt das Papier noch einmal die verschiedenen Verfahren für die Festsetzung der Umrechnungskurse in Augenschein (Lamfalussy, Bartolini-Prato und CEPR), nicht ohne hinsichtlich der CEPR-Lösung festzustellen: „the general consensus at present appears to favor this type of approach“. Auf der Sondersitzung des Ausschusses, in der das Papier präsentiert wurde, ergänzte der Moderator aus der Arbeitsgruppe, dass der Vorsitz der EU, der Beauftragte für ökonomische Angelegenheiten und die Bank von Belgien bereits ihr Einverständnis mit dem CEPR-Verfahren signalisiert hätten. Die anschließende Diskussion befasste sich dann wieder mit den Zielen der Spekulationsabwehr sowie der Blockade unilateraler Manipulationsversuche durch Teilnehmerstaaten und ihre Notenbanken. Aufs Neue wurden Gerechtigkeitsprobleme sichtbar. So wurde argumentiert, dass das CEPR-Verfahren verhindere, dass Italien mit einer niedrigen Rate beitreten könne, die den französischen Exportchancen schade. Auch sähen sich Spekulanten einem enormen Risiko gegenüber, wenn das Verfahren angenommen würde. „CEPR ist more efficient. It eliminates noise in the market“, so ein Sitzungsteilnehmer. Die Frage von Ungereimtheiten, die genau von denselben Ausschussmitgliedern sechs Monate zuvor besprochen wurde, wurde zu keinem Zeitpunkt dieser Sitzung erwähnt. Das Lamfalussy-Verfahren wurde mit Bemerkungen über seinen Autor beiseite geschoben: „He wanted to quiet down the market.“ Am Ende beschloss der Ausschuss, das CEPR-Verfahren öffentlich zu unterstützen. Wie man heute weiß, ging dieses Verfahren dann tatsächlich als Sieger aus der Debatte hervor. Die bilateralen Wechselkurse wurden Mitte 1998 verkündet und als Zentralraten festgesetzt. Fazit Obwohl es auf den ersten Blick ein kleines Detail in einem großen politischen Entwurf darstellt, hat das Umrechnungsverfahren eine beträchtliche Rolle bei der Herausbildung der europäischen Währungsunion gespielt. Es wirkte sich auf den ökonomischen Wert der Gemeinschaftswährung und die Verteilung ökonomischen Kapitals unter den teilnehmenden Ländern aus. Das CEPR-Papier, in dem das Verfahren entwickelt und verbreitet wurde, das schließlich die Umrechnung organisieren sollte, kann als „boundary object“ (Star 1989) erscheinen: Unterschiedliche Institutionen (die Europäische Kommission, Bankenverbände, Forschungsinstitute, Verbraucherorganisationen usw.), bauten um das Papier herum ihren Konsens auf. Das Lamfalussy-Verfahren wurde von prominenten Personen vertreten, doch nie in einem Diskussionspapier niedergeschrieben. Das Bartolini-Prati-Verfahren wurde zwar in einem Artikel im Journal of Economic Policy publiziert, aber das CEPR-Papier hatte es bereits vor dieser Veröffentlichung besprochen (und diskreditiert). Aus einem anderen Blickwinkel gesehen, findet sich hier ein gutes Beispiel für die Performativität der Wirtschaftswissenschaft, wie sie von Donald MacKenzie und Yuval Millo (2003) beschrieben wird. Die ökonomische Welt wird nicht alleine beschrieben und analysiert, sondern aktiv durch den Gebrauch ökonomischen Wissens und wirtschaftswissenschaftlicher Formeln konstruiert und umgestaltet. Dementsprechend ging es hier nicht um die die Wahl einer richtigen (wahren, falschen) Formel, sondern um die sozialen Prozesse, die Substanz, Anwendung und Geltung

Formel-Bolschewismus: Eine historische Soziologie der Euro-Umrechnung

183

der Wechselkursformel definierten. Diskussionen und Entscheidungen fanden in einem Rahmen institutioneller Sprechakte statt, von denen die Euroumstellung performativ nach und nach konstituiert und konkretisiert wurde. Die Umstellung sollte keine Währungsreform, sondern eine technische, arithmetische Operation, sie sollte einfach und preiswert sein. Sie sollte auf einem gerechten Verfahren beruhen, das sicherzustellen hatte, dass kein Teilnehmer auf Kosten anderer einen Vorteil gewinnen würde. Sie sollte eine starke Währung einführen, ähnlich wie die starke DM die schwache deutsche Ostwährung ersetzt hatte. Die Umstellung sollte Marktkräfte stärken, ohne von ihnen beeinflusst zu werden. Während eine strenge Deutung des Vertrags von Maastricht zweifellos die Übernahme von Börsenkursen verlangt hatte, wurde diese Möglichkeit nicht nur zu keinem Zeitpunkt ernsthaft erwogen – die Wahl eines Umrechnungsverfahrens wurde geradezu von seiner Fähigkeit bestimmt, Marktkräften keinen Raum zuzugestehen. Für sich betrachtet beruhte das Umstellungsverfahren auf widersprüchlichen Annahmen und und führte zu unpraktischen Resultaten. In seinem sozialen Kontext betrachtet, erscheint es als gemeinsamer, praktischer und letztendlich regelrecht logischer Nenner einer Verkettung institutioneller Sprechakte. Als zentrales Argument für die Wahl des CEPR-Verfahrens wurde wiederholt angeführt, dass es Vertrauen erzeugen würde, weil es „perverses Marktverhalten“ verhindere. Das spielte der Autorität der Zentralbanken in die Hände, von denen die zentralen bilateralen Kurse festgelegt wurden. Das Vertrauen galt nicht den Märkten, sondern den Zentralbanken. Einige osteuropäische Länder haben sich 2004 und 2007 der EU angeschlossen und weitere werden es vermutlich in der Zukunft tun. Das Umrechnungsverfahren für die erste Welle der Teilnehmerländer wird jedoch nie wieder Verwendung finden. Wittgenstein stellt den Gebrauch einer Formel als soziales Experiment dar, als einzigartiges Spiel, dessen Regeln seiner Substanz nach nicht logisch, sondern sozial sind. Dieser nicht reduzierbare Sozialcharakter konstituiert den hier beschriebenen Formel-Bolschewismus. Die Umrechnungsformel der Landeswährungen zum Euro trug in diesem Sinne also ohne Zweifel bolschewistische Züge. Durch ihre Geschichte ziehen sich eine Reihe sozialer Probleme, Fragen von Gerechtigkeit, von Vertragspflichten, der symbolischen Natur von Währungen, sowie die tiefe Überzeugung, dass all diese Fragen nicht durch Märkte zu lösen waren. Vor diesem Hintergrund gab es für den Euro keine andere Wahl, als Bolschewik zu sein. Übersetzung: Roxana Preda und Hendrik Vollmer Literatur Austin, J. L. (1972): Zur Theorie der Sprechakte. Stuttgart: Reclam. Bank of International Settlements (1997): 67th Annual Report. Basel: BIS. Begg, D./Giavazzi, F./von Hagen, J./Wyplosz, C. (1997): EMU. Getting the End-game Right. Monitoring European Integration, Vol. 7. London: CEPR. Boyer, R. (2000): The Unanticipated Fallout of European Monetary Union: The Political and Institutional Deficits of the Euro. In: Crouch, C. (Hg.): After the Euro: Shaping Institutions of Governance in the Wake of European Monetary Union. Oxford: Oxford University Press, S. 24-88. Burani, U./Du Granrut, B./Geuenich, M. (1996): The Economic Consequences of the Economic and Monetary Union. Working Document ECO/204 of the Section for Economic, Financial and Monetary Questions on the Single Currency. Brüssel: Economic and Social Committee of the European Communities.

184

Alex Preda

Burridge, M./Mayes, D.G. (1994): The Implications for Firms and Industry of the Adoption of the ECU as the Single Currency in the EC. European Commission Economic Papers Nr. 106. Deutsche Bundesbank (1994): Die zweite Stufe der Europäischen Wirtschafts- und Währungsunion. Monatsbericht Januar 1994. Frankfurt: Deutsche Bundesbank. EFMA Surveys (1993): Consequences of the ECU/EMU on the European Banking Industry. Brüssel. ESBG (1995): The European Savings Banks and EMU. Brüssel. European Central Bank (1999): Joint Information Notice by the European Commission and the European Central Bank on the detailed computation of the irrevocable conversion rates for the euro. Frankfurt: EZB. European Commission (1993): The Freezing of the ECU Basket. Press release IP (93) 950. European Commission (1995): Green Paper on the Practical Arrangements for the Introduction of the Single Currency. Brüssel: May 31, 1995. European Commission (1996): Reactions on the Green Paper on the Practical Arrangement for the Introduction of the Single Currency. Brüssel. European Commission (1997a): External Aspects of Economic and Monetary Union. Brüssel: Commission Staff Working Document. European Commission (1997b): Roundtable on Pratical Aspects of the Changeover to the Euro. Brüssel: Directorate General II for Economic and Financial Affairs. European Monetary Institute (1995): The Changeover to the Single Currency. Frankfurt: EMI. Expert Group on the Changeover to the Single Currency (1995): The Preparation of the Changeover to the Single Currency. Brüssel: Interim Report to the European Commission. Finnish Ministry of Finance (1997): Finland’s National Changeover Plan for the Introduction of the Euro. Brüssel. Heintz, B. (2000): Die Innenwelt der Mathematik. Zur Kultur und Praxis einer beweisenden Disziplin. Wien: Springer. Kawai, M. (1991): Optimum Currency Areas. In Eatwell, J./Milgate, M./Newman, P. (Hg.): The World of Economics. London: Macmillan, S. 526-533. Livingston, E. (1986): The Ethnomethodological Foundations of Mathematics. London: Routledge and Kegan Paul. MacKenzie, D. (2001): Mechanizing Proof: Computers, Risk, and Trust. Cambridge, Mass.: MIT Press. MacKenzie, D./Millo, Y. (2003): Constructing a Market, Performing Theory: The Historical Sociology of a Financial Derivatives Exchange. In: American Journal of Sociology 109, S. 107-145. Mankiw, G.N. (1998): Principles of Economics. Dryden: Forth Worth TX. Mirowski, P. (2002): Machine Dreams. Economics Becomes a Cyborg Science. Cambridge: Cambridge University Press. Monk, R. (1990): Ludwig Wittgenstein. The Duty of Genius. New York: Free Press. Official Journal of the European Communities (1994): Communication: Practical Problems Involved in Introducing the Ecu as the European Union’s Single Currency. No. 153/3. Spahn, H.-P. (2001): From Gold to Euro: On Monetary Theory and the History of Currency Systems. Berlin: Springer. Star, S.L.. 1989. Regions of the Mind: Brain Research and the Quest for Scientific Certainty. Stanford: Stanford University Press. Tietmeyer, H. (1996): Statement for the panel discussion „Currency Arrangements Between EMU and Its Neighbors“. Frankfurt: European Banking Congress. Wiseman, J. (2002): Round EMU Conversion Rates. http://www.ledr.com/guests/jdaw/papers/finmkts/emu-rates.html. Wittgenstein, L. (1977): Philosophische Untersuchungen. Frankfurt/M.: Suhrkamp. Wittgenstein, L. (1989): Bemerkungen über die Grundlagen der Mathematik. Frankfurt/M.: Suhrkamp Wittgenstein, L. (1984): Vorlesungen 1930-1935. Frankfurt/M.: Suhrkamp. Woelfel, C. (1994): Encyclopedia of Business and Finance. Chicago: Irwin.

Zahlenspiele in der Entwicklungshilfe: Zu einer Soziologie des Deckungsbeitrages

185

Zahlenspiele in der Entwicklungshilfe: Zu einer Soziologie des Deckungsbeitrages1

Stefan Kühl Wäre Entwicklungshilfe ein Geschenk würden Zahlen eine untergeordnete Rolle spielen. Zugegeben: Man könnte messen, ob das Geschenk des einen Industrielandes an ein Entwicklungsland größer ist als das Geschenk eines anderen Industrielandes. Man könnte feststellen, ob das Geschenk, das ein Ölstaat vergibt, größer ist als im vorigen Jahr. Oder man könnte versuchen herauszubekommen, wie hoch die Gesamtsumme von erhaltenen Geschenken aus den Industriestaaten ist. Aber die Quantifizierung von Geschenken ist – jedenfalls in modernen Gesellschaften – weitgehend tabuisiert. Gegenstände und Dienstleistungen scheinen sich einer Quantifizierung ihres Wertes, ihres Nutzens zu entziehen, wenn sie die Form eines Geschenkes annehmen (vgl. zur Funktion des Schenkens Mauss 1990). Man sieht es an der Tabuisierung des Vergleichs zwischen Schenkenden. Man merkt es, wenn der Beschenkte nur verschämt abzuschätzen wagt, ob der eigene Lebenspartner bei den Weihnachtsgeschenken für einen mal wieder gespart hat. Aber Entwicklungshilfe ist kein Geschenk. Häufig wird Entwicklungshilfe nur als – wenn auch subventionierter – Kredit vergeben. Sowohl bei der Vergabe der Entwicklungshilfe als Kredit als auch als Zuschuss wird diese an Bedingungen geknüpft, beispielsweise die Verabschiedung von Gesetzen oder die Verlagerung von Schwerpunkten in Budgets. Weiterhin wird – auch wegen den Rechenschaftspflichten der großen Geberorganisationen – genau spezifiziert, was mit der Entwicklungshilfe gemacht und erreicht werden soll. Weil die Entwicklungshilfe in der Regel an eine Vielzahl von Bedingungen geknüpft wird, spielen Zahlen eine zentrale Rolle. Die Berechtigung für Entwicklungshilfe wird zum Beispiel darin gesehen, dass das Durchschnittseinkommen der Bevölkerung unter einem festgesetzten Entwicklungshilfebetrag liegt. Die Freigabe von Mitteln wird häufig daran gebunden, dass die Empfängerorganisationen ein genau definiertes Jahrergebnis erzielen. Der Erfolg der Entwicklungshilfe wird darin gemessen, inwiefern sich quantitative, häufig monetäre Indikatoren verbessert haben. In den Hochglanzbroschüren der Entwicklungshilfeorganisationen mögen (je nach Intention) weinende oder glücklich lächelnde Kinder gezeigt werden, eine Versammlung eifrig diskutierender Dorfbewohner abgebildet oder Zwei-Kammer-Toiletten als die neuste technischen Errungenschaft präsentiert werden, aber die Verständigung zwischen verschiedenen in der Entwicklungshilfe aktiven Organisationen läuft ganz maßgeblich über Zahlen. Zahlen sind die Verkehrsprache, mit denen Organisationen aus ganz unterschiedlichen Kulturen versuchen sich zu verständigen. Es spricht vieles dafür, dass Zahlen die „Lingua Franca“ sind, mit denen sich in der Entwicklungshilfe

1

Ich danke Andrea Mennicken und Hendrik Vollmer für die ausführliche Kommentierung einer früheren Fassung des Artikels.

186

Stefan Kühl

verständigt wird.2 Dabei können wir uns ganz verschiedene Formen von Zahlen vorstellen: die Prozentzahl von Personen, die Zugang zu einer Basisgesundheitsversorgung haben, die Kilometer, die ein Dorfbewohner durchschnittlich zur nächsten Straße gehen muss, die Absolventenzahlen nach Einführung eines Bildungsprogramms oder die Prozentzahl des Wassers, das durch lecke Rohre versickert (vgl. z.B. Wisner 1989: 47). Zahlen erscheinen auf den ersten Blick als neutral, unabhängig und objektiv und signalisieren so, dass es kaum Interpretationsspielraum gibt (vgl. Porter 1995: x). Eine Zahlenangabe, so wenigstens die erste Suggestion, repräsentiert in einem westeuropäischen Land das gleiche wie in einem Land in Subsahara-Afrika. Eine Gewinn-und-Verlust-Rechnung funktioniere, so die Annahme, in einem US-amerikanischen Unternehmen genauso wie bei seinem philippinischen Kooperationspartner und ist von regionalen oder kulturellen Besonderheiten unabhängig. Aber auch bei dieser „Lingua Franca“ kann es Dialekte geben. Bei Dialekten handelt es sich im Verständnis der Linguistik um Varietäten einer Sprache. Sprachen und ihre Dialekte sind dabei von ihrer Grundstruktur so eng gekoppelt, dass sich der Sprecher einer Hochsprache und die Sprecher eines Dialektes miteinander verständigen können. Für Zahlen als „Lingua Franca“ bedeutet dies, dass zwar im Rahmen eines weltweiten Standards unterschiedliche Berechnungsformen existieren, aber die konkurrierenden Berechnungsformen verstanden werden.3 Inzwischen gibt es in der soziologisch orientierten Accounting-Forschung eine Reihe von Studien, die die Ausbildung unterschiedlicher „Zahlendialekte“ sehr detailliert herausgearbeitet haben.4 So wurde beispielsweise in Studien über Instandhaltungseinheiten der US-amerikanischen Armee (vgl. Ansari/Euske 1987), australische Krankenhäuser (vgl. Chua 1995), deutsche und britische Brauereien (Ahrens 1996; Ahrens 1997), multinationale Accounting-Firmen Osteuropas (vgl. Cooper et al. 1998), Forschungs- und Entwicklungsabteilungen (vgl. Robson 1993), internationale Hotelketten (Gustavsson 2000) und den britischen National Health Service (vgl. Pinch et al. 2000) dargestellt, wie Zahlen durch unterschiedliche Sinnzusammenhänge geprägt werden (siehe auch die Sammelbände von Hopwood/Miller 1994 und Kalthoff et al. 2000). Das Ziel dieses Artikels ist es – anknüpfend an diese Forschungen – Zahlendialekte in den Kooperationsbeziehungen zwischen nationalen und internationalen Entwicklungshilfeorganisationen, staatlichen und privaten Einrichtungen in Entwicklungsländern und den in der Entwicklungshilfe tätigen Beratungsorganisationen näher zu analysieren. Der Artikel fokussiert besonders auf die Verwendung monetär gefasster Kennzahlen in der Entwick2 3 4

In der Analyse von Accounting haben Metaphern der Sprache eine gewisse Tradition. Siehe z.B. Tinker et al. 1988; Robson 1991; Munro 1993. In der Linguistik ist die Unterscheidung zwischen Sprache und Dialekt umstritten, weil Sprache eine Höherwertigkeit gegenüber Dialekten signalisiert und die Bestimmung als Sprache oder Dialekt häufig von politischen Rahmenbedingungen abhängt. Soziologisch orientierte Accounting-Forschung ist zugegebenermaßen ein unpräziser Begriff. Er umfasst vorrangig deskriptiv, nicht normativ ausgerichtete Ansätze. Diese Ansätze werden mit so unterschiedlichen Begriffen wie „Behavioral Accounting“ (vgl. Hopwood 1987) oder „Critical Accounting“ (vgl. Dillard 1991) oder „Radical Accounting“ (vgl. Hunt/Hogler 1990) bezeichnet. Dazu können besonders ethnomethodologische (vgl. Chua 1995), neoinstitutionalistische (vgl. Meyer 1986), marxistische (vgl. Tinker et al. 1988), systemtheoretische (vgl. Scheytt 2005) und an Foucault orientierte Ansätze (vgl. Rose 1990; Hacking 1990) gezählt werden. Hendrik Vollmer (2004: 454) macht darauf aufmerksam, dass das Zugeständnis wirklichkeitskonstitutierender Effekte organisierten Rechnens als Minimalkonsens dieser Schulen zu betrachten ist und darüber die Abgrenzung zum wirtschafts- und managementwissenschaftlichen Mainstream vorgenommen wird.

Zahlenspiele in der Entwicklungshilfe: Zu einer Soziologie des Deckungsbeitrages

187

lungszusammenarbeit. Ökonomische Kennziffern können dabei als eine Sonderform von Zahlen begriffen werden, die dann entstehen, wenn soziale Phänomene in Geldbeträgen quantifiziert werden. Dabei ist der Übergang zwischen den nicht in Geldbeträgen gefasste Zahlen und den in Geldbeträgen gefasste Zahlen fließend (Munro 1993). Jedes soziales Phänomen lässt sich – mehr oder minder gut – in Zahlen fassen und jede nichtmonetäre Zahl lässt sich in Dollar-, Euro- oder Pfundbeträge überführen. Die Bezifferung der ökonomischen Verluste durch eine hohe HIV-Erkrankungsrate in Dollar, Euro oder Rand ist häufig noch eindrucksvoller als die reine Prozentzahl von AIDS-Kranken. Die Übersetzung der in Litern ausgedrückten technischen Wasserverluste einer nationalen Wasserbehörde in Peso, Rupie oder Riyal verleiht der in Geld ausgedrückten Zahl eine eigene Nachdrücklichkeit.5 Monetäre Zahlen greifen – im Gegensatz zu anderen Zahlen wie Lehrauslastung, Krankheitszeiten oder Überstunden – auf den Charakter von Geld als symbolisch generalisiertes Kommunikationsmedien zurück (vgl. speziell zu Geld Luhmann 1972: 187ff; Luhmann 1981: 397; Luhmann 1988: 306; allgemein zu symbolisch generalisierten Kommunikationsmedien Luhmann 1997: 316ff). Geld erhöht – ähnlich wie in anderen Kontexten Macht, Liebe oder Wahrheit – die Erfolgswahrscheinlichkeit von Kommunikationen. Man ist als Berater bereit mit Projektmanagern einer staatlichen Beratungsorganisation Zeit zu verbringen, weil man mit Geld (oder in sehr seltenen Fällen alternativ durch Liebe oder Macht) dazu gebracht wird. Große multinationale Entwicklungshilfeorganisationen nutzen das in Aussichtstellen größerer Geldbeträge dazu, um in Entwicklungsländern Veränderungen im Staatshaushalt durchzusetzen. Durch die Fassung in symbolisch generalisierte Kommunikationsmedien werden soziale Phänomene vergleichbar. Ein soziales Phänomen, das als Geldsumme gefasst ist, kann mit fast jedem beliebigen anderen sozialen Phänomen verglichen werden. Durch diese Vergleichbarkeit erhält eine Zahl eine ganz eigene Form von Aufmerksamkeit. Ein Vertreter der Weltbank kann das Bruttoinlandprodukt von Senegal in der Höhe von 5 Milliarden US-Dollar mit dem Umsatz von General Motors von 200 Milliarden US-Dollar vergleichen. Eine 12-jährige Schülerin in Washington kann das durchschnittliche Tageseinkommen in Nigeria von 1$ mit dem eigenen Taschengeld in Beziehung setzen. Der Erfolg eines Beratungsprojektes kann durch die Berater in Geldbeträge gefasst werden und erscheint dann plötzlich gegenüber dem aufgewandten Beraterhonorar überraschend günstig. Im Mittelpunkt des Artikels wird eine einzige ökonomische Kennzahl gestellt: der Deckungsbeitrag. Diese Kennzahl bestimmt sich aus der Differenz zwischen den Geschäftseinnahmen (zum Beispiel durch den Verkauf von Gütern) und den Ausgaben für das laufende Geschäft (z.B. für Rohstoffe, Ersatzteile oder Personal). Über die – nur auf den 5

Besten Dank an Hendrik Vollmer für einige Hinweise zur besonderen Charakterisierung ökonomischer Kennziffern. Von einer eindrucksvollen Übersetzung berichten Neu und Ocampo (2006) in ihrem Artikel über die Bildungspolitik der Weltbank in Latein Amerika. Bei der Definition eines Projektes in Panama wird beispielsweise die „rate of return“ von 22% genau bestimmt. Die Rate basiert auf einer geschätzten Einkommenssteigerung, die die Kinder aufgrund einer verbesserten Bildung erhalten würden. Dies wird im Weltbank-Dokument genauer ausgeführt. „Throughout the calculation, the maintained hypothesis was a working life of 45 years. Yearly wages for different education levels were estimated from the 1997 Living Standard Measurement Survey … To estimate the expected yearly income, the unemployment rates for the category “All Poor” were estimated from the 1997 LSMS data. The unemployment rate for people who finished lower secondary education is substantially higher than for people with a less educated background. … To incorporate these in the calculations, the unemployment rate for someone with a lower secondary education was taken to be 2.5 times that of a primary educated person, but to decline linearly by .1 percent point per year of working life until both unemployment rates reach the same level.”

188

Stefan Kühl

ersten Blick – dröge wirkende Kennziffer des Deckungsbeitrages versuchen Entwicklungshilfeorganisationen Organisationen in verschiedenen Entwicklungsländern zu steuern. So wird häufig die Auszahlung der Entwicklungshilfe an eine Verbesserung des Deckungsbeitrages knüpfen. Auch die Honorierung von Beratungsunternehmen oder von durch die Entwicklungshilfe finanzierten privaten Betreiberunternehmen wird zunehmend an einer Verbesserung des Deckungsbeitrages abhängig gemacht.6 Wasserversorgungsbetreiber Im Norden des Landes

Im Westen des Landes

Im Osten des Landes

Ökonomische Situation Versorgt vorrangig die Hauptstadt mit Wasser. Es gibt eine Vielzahl von privaten und industriellen Anschlüssen. Wegen der Ballung im städtischen Raum sind die Erschließungs- und Wartungskosten relativ gering. Versorgt neben privaten Haushalten vorrangig eine zweistellige Zahl von Unternehmen im zentralen Hafen des Landes. Weil es sich bei diesen Unternehmen um zuverlässig zahlende Großabnehmern handelt, kann das Unternehmen kostendeckend arbeiten. Versorgt werden vorrangig mittelgroße Städte im ländlichen Raum sowie einige kleinere Ansiedlungen.

Betreibermodell Seit einigen Jahren wird die Wasserversorgung durch ein Konsortium um ein internationales Wasserunternehmen betrieben.

Seit einigen Jahren wird die Wasserversorgung durch ein staatliches Unternehmen betrieben. Dieses Unternehmen ist im Besitz mehrerer unterschiedlicher staatlicher Institutionen.

Die Wasserversorgung wird durch eine Unterbehörde der zentralen nationalen Wasserbehörde betrieben. Ziel ist es, diese Wasserbehörde mittelfristig in den Status eines staatlichen Unternehmens zu überführen.

Als Empirie für diesen Artikel dienen mir die „Zahlenspiele“, die zwischen großen nationalen und multinationalen Entwicklungshilfeorganisationen und drei größeren Wasserversorgungsbetreibern in einem afrikanischen Land stattfinden.7 Die drei untersuchten größeren 6

7

Aus meiner Sicht lassen sich politische Prozesse um Accounting besonders gut anhand von bestimmten ökonomischen Berechnungsverfahren bestimmen. Siehe zum Beispiel Powers (1992) Studie über die Frage, wie der Wert von Markennamen zu bestimmen ist. Über insgesamt einen Monat wurden Experteninterviews mit insgesamt 41 Mitarbeitern von internationalen und nationalen Entwicklungshilfeorganisationen (sieben Gesprächspartner), des zuständigen Ministerium (vier Gesprächspartner inklusive Minister und Staatssekretär), der nationalen Wasserbehörde (neun Gesprächspartner), der drei regionalen Wasserversorgungseinheiten (15 Gesprächspartner) und der engagierten

Zahlenspiele in der Entwicklungshilfe: Zu einer Soziologie des Deckungsbeitrages

189

Wasserunternehmen, die alle aus einer zentralen nationalen Wasserbehörde hervorgegangen sind, unterscheiden sich grundlegend voneinander. Das Wasserunternehmen im Norden des Landes, das unter anderem die Metropole des Landes versorgt, wird seit einigen Jahren durch einen privaten Betreiber gemanagt. Dieser private Betreiber besteht aus einem Konsortium, das durch ein in Großbritannien ansässiges multinationales Wasserunternehmen dominiert wird. Das Wasserunternehmen im Westen, in dem sich unter anderem der zentrale Hafen des Landes befindet, wird als staatliches Unternehmen gemanagt. Das Unternehmen ist zwar im Staatsbesitz, aber die Struktur seines Aufsichtsrats stellt eine hohe Autonomie des Managements sicher. Das dritte Wasserunternehmen im Osten des Landes versorgt vorrangig mittelgroße Städte im ländlichen Raum. Es sollte ursprünglich nach dem Vorbild des Unternehmens im Süden in ein privates Betreibermodell überführt werden. Nach dem Scheitern dieses Privatisierungsmodells wurde angestrebt, dass Unternehmen ökonomisch so leistungsfähig zu machen, dass es als staatliches Unternehmen gemanagt werden kann. Im folgenden Abschnitt wird herausgearbeitet, wie sich in Bezug auf die einfache Kennzahl des Deckungsbeitrages zwei unterschiedliche Berechnungsformen ausgebildet haben. Im dritten Abschnitt werden drei Machtspiele zwischen internationalen Entwicklungshilfeorganisationen, Ministerien, Behörden und Wasserversorgungsunternehmen rekonstruiert, die sich um den Deckungsbeitrag herum etablieren. Es wird gezeigt, wie eine multinationale Entwicklungsbank vergeblich versucht, die Machtspiele durch ein ITVorhaben zu seinen Gunsten aufzulösen. Im vierten Abschnitt wird herausgearbeitet, weswegen der Deckungsbeitrag trotz der teilweise blockierenden Machtkämpfe im Wassersektor des afrikanischen Landes, eine wichtige Funktion erfüllt: erst durch den Verweis auf den Deckungsbeitrag wird eine Ebene geschaffen, auf deren Basis die Kooperationsbeziehungen immer weiter fortgeführt werden können. Im fünften abschließenden Abschnitt wird versucht herauszuarbeiten, inwiefern sich Zahlenspiele in Entwicklungsländern von Zahlenspielen in Industrieländern unterscheiden. Die Objektivitätsannahme – Zahlen als Verständigungsmittel In den Kooperationsbeziehungen im Rahmen der Entwicklungshilfe spielen verschiedene ökonomische Kennziffern eine Rolle: Anlagevermögen, Anschaffungsvermögen, Cash-Flow, Deckungsrückstellungen, Eigenkapitalquoten, Einnahmen, Erträge, Fremdkapital, Firmenwert, Investitionsrechnungen, Liquiditätspläne, Mankos, Umlaufvermögen, Verbindlichkeiten oder Wiederbeschaffungskosten. In dem untersuchten Wassersektor des afrikanischen Landes ist jedoch eine Kennzahl von besonderer Bedeutung: der Deckungsbeitrag. Der Deckungsbeitrag umfasst das Verhältnis von Betriebseinnahmen zu Betriebsausgaben, internationalen Beratungsfirmen geführt (sechs Gesprächspartner). Mit über einem Drittel der Gesprächspartner wurden dabei mehrere Interviews geführt, um einen Abgleich mit den Ergebnissen aus anderen Interviews zu ermöglichen. Zusätzlich wurden in der zentralen Wasserbehörde und in einer regionalen Wasserversorgungseinheit teilnehmende Beobachtungen vorrangig in der Finanzbuchhaltung und in der ITAbteilung durchgeführt. Weiterhin wurden zentrale öffentliche und nichtöffentliche Dokumente der Entwicklungshilfeorganisationen, des Ministeriums, der Wasserbehörde und der regionalen Versorger herangezogen. Aus Gründen der Anonymisierung wurden Details betreffend des Landes, der beteiligten Entwicklungshilfeorganisationen und der nationalen Organisationen verändert und auf die Wiedergabe wörtlicher Zitate verzichtet.

190

Stefan Kühl

rechnet aber die Kosten, die durch Steuern, Zinsbelastung oder durch Rücklagen für Investitionen entstehen, nicht mit ein. Ein Deckungsbeitrag, der bei 80 % liegt, bedeutet beispielsweise, dass durch die Einnahmen aus Gebühren für das Wasser und dem Verlegen von Anschlüssen die Ausgaben für Personal, Ersatzteile, Büros oder Fahrzeuge nur zu 4/5 gedeckt werden können. Ein Deckungsbeitrag von 150% bedeutet, dass dem Unternehmen nach dem Abzug der Betriebsausgaben von den Betriebseinnahmen noch 50% übrig bleiben, um Kredite für Investitionen zurückzuzahlen. Der Deckungsbeitrag (operating ratio) lässt sich folglich durch ein einfaches Verfahren bestimmen: Es handelt sich um das Verhältnis zwischen den Einnahmen (operating revenues) und den Betriebsausgaben (operating and maintenance costs).8 Die Einnahmen sind im Fall der Wasserunternehmen vorrangig die Gebühren, die von den Kunden für die Zurverfügungstellung des Wassers und das Verlegen der Anschlussleitungen verlangt wird. Die Betriebsausgaben sind die Kosten, die den Wasserbehörden für Löhne, Energie und Verbrauchsgüter entstehen.9 Sind die Einnahmen niedriger als die Betriebsausgaben liegt der Deckungsbeitrag unter 100%. Dies ist gerade bei der östlichen Wasserbehörde der Fall, in dem die Betriebskosten aufgrund des bergigen Geländes und dem hohen Anteil von Privatanschlüssen verhältnismäßig hoch sind. Sind die Einnahmen höher als die Betriebsausgaben liegt der Deckungsbeitrag über 100%. Dies wird bisher vor allem in der westlichen Wasserbehörde erreicht. Dies hängt überwiegend damit zusammen, dass im Westen ein vergleichsweise großer Anteil gewerblicher Kunden existiert, die dem Versorger hohe und gut zu kalkulierende Betriebseinnahmen bescheren. Der Deckungsbeitrag ist in vielen privatwirtschaftlich ausgerichteten Unternehmen nur eine zweitrangige Kennziffer.10 Interessieren tun sich Unternehmen vorrangig dafür, ob auch nach dem Bezahlen von Betriebsausgaben, von Zinsen für Kredite, der Bildung von Rücklagen und der Zahlung von Steuern immer noch über 100% liegt. Aber sowohl nationale Regierung als auch die Entwicklungshilfeorganisationen gehen davon aus, dass die Wasserversorgungsunternehmen des afrikanischen Landes in absehbarer Zeit nicht in der Lage sein werden, aus den Betriebseinnahmen auch die Kreditrückzahlungen, Rücklagenbildung und Steuern zahlen zu können. Ziel, so die zwischen Entwicklungshilfeorganisatio8

9

10

In der Literatur wird der Deckungsbeitrag häufig nicht als eine Prozentzahl angeben, sondern als absolute Zahl. Dabei wird vom Umsatz die durch die Herstellung verursachten Kosten abgezogen. So entsteht eine Euro- oder Dollar-Summe. Ist diese Summe positiv, leistet das entsprechend fokussierte Produkt einen positiven Beitrag zum Betriebsergebnis. Hier wird unter Deckungsbeitrag jedoch das prozentuale Verhältnis von Betriebseinnahmen zu Betriebsausgaben verstanden. Es handelt sich hier um eine vereinfachte Darstellung auf der Basis der im afrikanischen Land verwendeten Definitionen. In der Literatur wird der Operating Ratio häufig auch umgekehrt bestimmt – als das Verhältnis von Betriebsausgaben zu Betriebseinnahmen. In diesem Fall weist eine niedrige Prozentzahl auf gute, eine hohe Prozentzahl auf schlechte Profitabilitätschancen hin. Diese unterschiedliche Bestimmungsform lässt sich dadurch erklären, dass der Begriff Operating Ratio es offen lässt, wie genau Betriebsausgaben und Betriebseinnahmen zueinander in Verhältnis gesetzt werden. Aus der Perspektive der Accounting-Forschung ist es interessant, wie sich in spezifischen Konstellationen einzelne Kennziffern durchsetzen. Anne Loft hat beispielsweise überzeugend herausgearbeitet, wie sich die Kennziffer der Kostendeckung im Ersten Weltkrieg durchsetzte. Um die Kriegsmaschinerie effizient zu versorgen wurden im Weltkrieg Marktprozesse weitgehend außer Kraft gesetzt und Unternehmen vereinbarte Fixpreise gezahlt. Gerade unter Gewerkschaftern herrschte die Sorge, dass das Kapital versuchen werde ihre Profitrate zu erhöhen, während die Gewerkschaften aufgrund der Kriegssituation zum Lohnverzicht angehalten werden würden. In diesem Klima gewann die Kennzahl der Kostenrechnung an Bedeutung. Sie sollte helfen die „realen Produktionskosten“ zu bestimmen, um so sicher zu stellen, dass die Unternehmenseigner sich neben der Kostendeckung nur einen kleinen Profit genehmigen konnten.

Zahlenspiele in der Entwicklungshilfe: Zu einer Soziologie des Deckungsbeitrages

191

nen und Wasserministerium vereinbarte Zielsetzung, müsste es jedoch sein, dass die Wasserbehörden wenigstens einen positiven Deckungsbeitrag erzielen: ihre regelmäßigen Betriebsausgaben also aus den Einnahmen gedeckt werden können. Der Deckungsbeitrag erscheint deswegen als eine viel wichtigere Kennziffer als die Profitrate. Dementsprechend wird in dem afrikanischen Land über diese Kennziffer versucht, die mit Wasserver- und entsorgung betrauten Organisationen zu steuern. So wird die Auszahlung der Entwicklungshilfe für das für Wasser zuständige Ministerium an eine Verbesserung des Deckungsbeitrages geknüpft. Auch die Möglichkeiten für die regionale Wasserbehörden zu einem staatlichen Unternehmen zu werden und so höhere Autonomie gegenüber Ministerium und Wasserbehörde zu erreichen, ist an einen Deckungsbeitrag über 100% geknüpft. Und nicht zuletzt werden sowohl die Honorierung privater Betreiberunternehmen im Wassersektor und die Honorierung von Beratern in den regionalen Wasserversorgungseinrichtungen von dem Deckungsbeitrag abhängig gemacht. Jenseits der Objektivität: Die Konkurrenz zweier Berechnungsverfahren Im Wassersektor des afrikanischen Landes haben sich interessanter Weise zwei unterschiedliche Berechnungsverfahren ausgebildet. Im expansiven Modell wird im Zweifelsfall eine Ausgabe immer als Kapitalinvestition und nicht als Betriebsausgabe verrechnet. Ausgaben für Rohre, Wasserzähler und andere Materialen werden als Kapitalinvestition gewertet. Lohnkosten werden dann als Investition abgebucht, wenn die so genannten „Vertragsangestellten“ in größeren Infrastrukturvorhaben tätig sind. Im expansiven Modell wird auf der Seite der Betriebseinnahmen großzügig verbucht. So wird jeder in Rechnung gestellter Betrag als Einnahme abgebucht und keine Rücklagen für Zahlungsausfälle gebildet. Im restriktiven Modell werden Ausgaben der Wasserbehörde eher zurückhaltend als Investition verrechnet. Rohre beispielsweise werden nur dann als Kapitalinvestition verrechnet, wenn diese für neue Leitungen genutzt werden. Werden Rohre für Reparaturen eingesetzt, werden diese – ebenso wie die Wasserzähler – als Betriebsausgabe verrechnet. Die „Vertragsangestellte“ werden in dem restriktiven Modell genauso wie alle anderen Lohnkosten als Betriebsausgabe gerechnet. Auf der Seite der Betriebseinnahmen wird im restriktiven Modell nicht jeder in Rechnung gestellter Betrag komplett als Einnahme verbucht. Vielmehr wird ein kleiner Teil des Rechnungsbetrages nicht als Einnahme eingebucht, weil davon ausgegangen wird, dass ungefähr 1% des Rechnungsbetrages nicht bezahlt wird. In dem afrikanischen Land wird das expansive Modell besonders von der nationalen Wasserbehörde verfochten. Diese Behörde ist im Auftrag des Wasserministeriums für die Erstellung der Einnahmen-Ausgaben-Rechnung für den nationalen Wassersektor zuständig und legt über dieses Berechnungsverfahren den nationalweit erzielten Deckungsbeitrag fest. Gestützt wird dieses Berechnungsmodell durch ein Konsortium von Wasserunternehmen, das als privater Lizenznehmer die Wasserversorgung im Norden betreibt. Dabei verwenden aber weder die nationale Wasserbehörde noch die privaten Betreiber den Begriff des „expansiven Modells“, weil für sie diese Berechnungsform des Deckungsbeitrages die einzige vertretbare ist. Dieses restriktive Modell wird besonders von den großen internationalen und nationalen Entwicklungshilfeorganisationen propagiert. Weil diese über Beratungsprojekte teilweise direkten Zugriff auf einzelne regionale Wasserbehörden haben, wird dieses restriktive Modell auch in zwei der drei regionalen Wasserbehörden favorisiert. Von Ver-

192

Stefan Kühl

tretern der Entwicklungshilfeorganisationen wird die eigene Berechnungsform als „State of the Art“ präsentiert und die Berechnungsmethode der nationalen Wasserbehörde als zu expansiv abgelehnt. Wie kommt es trotz der vermeintlichen „Objektivität“ von Berechnungsverfahren zu der Existenz dieser unterschiedlichen Modelle? Expansives Modell Jedes Rohr wird als Kapitalinvestition verrechnet Alle Wasserzähler werden als Kapitalinvestition gezählt „Vertragsangestellte“ (Contract Employees) werden als Kapitalinvestition gewertet, weil sie im Rahmen von Projekten beschäftigt werden In Rechnung gestellte Beiträge werden komplett als Betriebseinnahmen gebucht

Restriktives Modell Rohre werden entsprechend ihrer Verwendung zugerechnet. Bei neuen Leitungen handelt es sich um Kapitalinvestitionen, bei Reparaturen um Betriebsausgaben Wasserzähler werden als Betriebsausgabe verrechnet „Vertragsangestellte“ (Contract Employees) werden als Betriebsausgaben verbucht Es wird davon ausgegangen, dass 1% alle in Rechnung gestellten Beträge durch die Kunden nicht gezahlt werden

Die Hintergründe zweier unterschiedlicher Berechnungsgrundlagen für den Deckungsbeitrag Die Position der Geber ist, dass die nationale Wasserbehörde wenigstens ihre Betriebsausgaben durch ihre Einnahmen decken soll. Das Erreichen dieses Zieles wird als wichtiger Schritt gesehen, damit sich die Wasserbehörden mittelfristig von Zahlungen aus der Entwicklungshilfe unabhängig machen können. Um dieses Ziel zu erreichen, verordnet die Koordinationsrunde der verschiedenen Geberinstitutionen mit der nationalen Wasserbehörde konkrete Ziele: Im nächsten Jahr soll die Wasserbehörde einen Deckungsbeitrag von 130% erreichen, drei Jahre später von 140% und fünf Jahre später 150%. Bei Nichterreichung dieser Zielvorgaben drohen die Geber mit einer Reduzierung der Entwicklungshilfezahlungen an das Land. Zur Bestimmung des Deckungsbeitrages sollen, so die Position der Geber, „vernünftige“ Berechnungsgrundlagen gewählt werden. So verweisen die Geber immer wieder darauf, dass zur Berechnung des Deckungsbeitrages auf die Bestimmungen der International Financial Reporting Standards und zurückgegriffen werden sollte. Man geht von der Annahme aus, dass nur dieser die „objektive Lage“ einer Behörde und eines Unternehmens abbilden kann und durch diesen Zweifelfragen bei der Zurechnung auf Betriebskosten oder Investitionskosten einwandfrei geklärt werden können. Dabei wird suggeriert, dass es sich bei den International Financial Reporting Standards genauso wie bei seinem Vorläufer, dem International Accounting Standard, um einen einheitlichen Standard und nicht um einen ganzen Apparat von Standards handelt. Die nationale Wasserbehörde muss sich – nicht zuletzt aufgrund des Drucks des Wasser- und des Planungsministeriums den Vorgaben zum Deckungsbeitrag – beugen. Wenn die Geber „130% + x Deckungsbeitrag“ wollen, so die Einstellung in der Wasserbehörde, dann werden wir dies auch erreichen. Für sie ist dies eine notwendige Pflichtübung, um

Zahlenspiele in der Entwicklungshilfe: Zu einer Soziologie des Deckungsbeitrages

193

weiterhin an die Mittel der nationalen und internationalen Entwicklungshilfeorganisationen zu kommen. Anders als von den Gebern intendiert, versucht die nationale Wasserbehörde den Deckungsbeitrag nicht vorrangig durch die Steigerung der Einnahmen oder durch Senkung der Kosten zu erreichen, sondern durch eine Umstellung in der Buchhaltung. Durch die Deklarierung von immer mehr Kosten als Investitionen und durch den Verzicht ausstehende Einnahmen abzuschreiben, wird der Deckungsbeitrag immer weiter erhöht. Dabei besteht die Hoffnung, dass die Geber sich schon nicht allzu intensiv mit den Details der Buchführung auseinandersetzen werden.11 Für die Durchsetzung dieses expansiven Modells der Deckungsbeitragsberechnung ist die nationale Wasserbehörde darauf angewiesen, dass die regionalen Wasserbehörden ihren Deckungsbeitrag auch nach dem expansiven Modell berechnen. Bei dem durch die internationale Wasserunternehmen betriebenen Versorger im Zentrum des Landes besteht eine Bereitschaft, dem expansiven Modell zu folgen – hängt ihr Honorar doch teilweise von einem möglichst hohen Deckungsbeitrag ab. Für die regionale Wasserbehörde im Norden ist die Höhe des Deckungsbeitrags nicht von der gleichen Wichtigkeit. Deswegen können auch die von einer europäischen Entwicklungshilfeorganisation installierten Berater, recht erfolgreich diese regionale Wasserbehörde als Modellfall für eine restriktive Deckungsbeitragsberechnung aufbauen. Wie wirken sich jetzt die unterschiedlichen Berechnungsformeln in den Kooperationsverhältnissen in dem afrikanischen Wassersektor aus? Die mikropolitischen Auseinandersetzungen über die Bestimmung des Deckungsbeitrages Im Ansatz des finanziellen Realismus, zu dem neben der betriebswirtschaftlichen Controllingtheorie – auch mit Abstrichen die Tranksaktionskosten- und die Prinicipal-AgentTheorie gezählt werden kann, wird davon ausgegangen, dass die Ermittlung von ökonomischen Kennziffern Machtkämpfe reduzieren können.12 Eine Gewinn-Verlust-Rechnung könne dazu beitragen, die Leistungsfähigkeit des Top-Managements einzuschätzen und so deren Bewertung objektivieren. Eine Investitionsrechnung könne eine von politischen Interessen „gereinigte“ Einschätzung einer geplanten Großanschaffung ermöglichen und so die mikropolitischen Spiele reduzieren. Verrechnungspreise zwischen den einzelnen Profitcentern eines Unternehmens könnten sicherstellen, dass die Kooperationsprozesse durch „Marktprozesse“ objektiviert werden und so machtpolitische Interessen an Einfluss verlieren. In dieser Auffassung muss jedoch immer davon ausgegangen werden, dass die Zahlen sich unabhängig von den Interessen beteiligter Organisationseinheiten oder Organisationen bestimmen lassen. Schließlich kann aus der Perspektive des finanziellen Realismus die Reduzierung der Machtkämpfe nur dadurch erreicht werden, dass es eine jenseits der Interessen gelagerte Objektivität gibt, die nicht oder nur mit Schwierigkeiten manipuliert werden können. Diese Einschätzung wird interessanterweise auch in Teilen der gegen den finanziellen Realismus gerichteten kritischen Accounting-Forschung geteilt (konzeptionell 11 12

Aus Fallstudien über Unternehmen in Industrieländern wissen wir, wie durch kreative Buchführung punktgenau von oben gesetzte Ziele erreicht werden (vgl. z.B. eindrucksvoll Jackall 1988: 107ff). In der Literatur wird dieser Ansatz auch als „positive Accounting-Forschung“ oder in Abgrenzung von den „critical accounting theory studies“ (cats) auch als „rational accounting theory studies“ (rats) bezeichnet. Für gute Theorieüberblicke siehe z.B. Chua 1986: 601ff; Becker 2003: 61ff. Einen guten kurzen Überblick liefert auch Power 1993.

194

Stefan Kühl

siehe Burchell et al. 1980; Hopwood 1987). Aus einer marxistischen Perspektive beschreiben Tinker, Lehman und Neimark Accounting als eines der letzten „nicht politisierten Mysterien“ (Tinker et al. 1988: 213). Aber auch in der sich auf Michel Foucault beziehenden Accounting-Forschung wird argumentiert, dass Zahlen häufig nicht mehr „aufgefaltet“ werden können und subtile Machtregulierungsmechanismen einsetzen (vgl. Hacking 1990; Rose 1991). Der Unterschied zwischen dem finanziellen Realismus und der an Marx und Foucault anknüpfenden Accounting-Forschung ist lediglich, dass die Anhänger einer Marxschen oder Foucaultschen Argumentation hinter diesen konfliktreduzierenden Mechanismen kaschierte Machtinstanzen vermuten. Die Konstruktion von Zahlen werde durch Experten bewacht, die darüber zentrale Prozesse in Organisationen beherrschen.13 Im Fall des Wassersektors in dem afrikanischen Land wird jedoch deutlich, wie schwierig dieser Schutzprozess ist. Zwischen den Gebern auf der einen Seite und der Wasserbehörde auf der anderen Seite herrscht seit knapp einem Jahrzehnt ein immer komplexer werdendes Machtspiel: Die Geber insistieren, dass die Wasserbehörde einen vorher definierten Deckungsbeitrag erreichen soll und legen dies in „Aktionsplänen“ für die Wasserbehörde vor. Die Wasserbehörde reagiert auf diese Anforderung mit immer stärker aufgeweichten Systemen zur Bestimmung des Deckungsbeitrages und erreicht so punktgenau die in den „Aktionsplänen“ festgelegten Beträge. Die Geber wiederum versuchen die Aufweichung dieser Standards zu verhindern, um ihre eigentliche Intention – eine Effizienzsteigerung der Wasserbehörde – zu erreichen. Vor dem Hintergrund dieses grundlegenden Machtspiels laufen dann verschiedene andere Machtspiele ab, die maßgeblich den Wassersektor in dem afrikanischen Land prägen. Die Machtspiele um den Deckungsbeitrag Bei der Auseinandersetzung um den Deckungsbeitrag stehen sich in der Regel immer die nationale Wasserbehörde auf der einen Seite und die Gruppe der Geberorganisationen auf der anderen Seite gegenüber. Die Position der anderen Organisationen hängt davon ab, welche Berechnungsmethoden für sie jeweils vorteilhafter sind. Dabei bilden sich Interessenskonstellationen aus, die quer zu einer Konfliktlinie zwischen den Organisationen aus der nördlichen Halbkugel einerseits und den Organisationen im Entwicklungsland andererseits liegen. Ein erstes Machtspiel dreht sich dabei um die Entlohnung der über die Entwicklungshilfe bezahlten privaten Betreiber. Dabei bildet sich eine Koalition zwischen der zentralen Wasserbehörde und dem privaten Betreiber im Norden des Landes aus. Dieser privaten Betreiber, an dem neben dem internationalen Wasserunternehmen auch ein internationales und ein nationales Beratungsunternehmen beteiligt ist, hat die Wasserwerke und Versorgungs- und Entsorgungsleitungen nicht erworben, sondern erhält für den Betrieb des Systems ein erfolgsabhängiges Honorar. Das Honorar dieser Beraterfirma hängt maßgeblich davon ab, in welchem Maße das Wasserunternehmen seinen Deckungsbeitrag steigern kann. Erst bei einer deutlichen Steigerung des Deckungsbeitrages wird das private Betreibermodell für das internationale Versorgungsunternehmen und die beiden Beratungsunternehmen finanziell interessant. Aus diesem Grund unterstützt das private Konsortium, die 13

Machtprozesse sind in der Accounting-Forschung lange Zeit vorrangig für Budgetierungsprozesse untersucht wurden (vgl. z.B. Argyris 1952; Wildavsky 1964; Wildavsky 1975; Covaleski/Dirsmith 1986; speziell für Budgetierung in Entwicklungsländern Caiden/Wildavsky 1974).

Zahlenspiele in der Entwicklungshilfe: Zu einer Soziologie des Deckungsbeitrages

195

expansive Berechnungsmethode der zentralen Wasserbehörde, kommt dieses expansive Modell doch immer zu höheren Deckungsbeiträgen. Die Geber versuchen diesem Effekt über den Aufsichtsrat des Wasserunternehmens im Zentrum entgegenzusteuern, um die Erosion ihrer Berechnungsstandards zu verhindern. Sie nutzen dafür teilweise auch die von ihnen eingerichtete Project Management Unit in der zentralen Wasserbehörde, über die die privaten Betreiber kontrolliert werden sollen. Ergebnis ist eine permanente Auseinandersetzung zwischen Aufsichtsorgan, der Project Management Unit und dem privaten Wasserunternehmen über Details des Abrechnungsverfahrens. Diese Konfliktlinie in dem afrikanischen Land lässt sich bei vielen in Amerika, Asien und Afrika etablierten privaten Betreibermodelle finden. Die Ausgangssituation („Baseline“) für die Leistungsbemessung ist – trotz teilweise hohen Messaufwand zu Beginn des Vertrages – nicht eindeutig zu bestimmen. Das betrifft sowohl die in die Landeswährung gefassten als auch die nichtmonetären Kennzahlen. Aus verschiedenen Fallstudien besonders über Privatisierung in der Wasserversorgung ist bekannt, dass auch bei privaten Betreibermodellen, in denen die Entlohnung an die Anzahl von neu verlegten Wasseranschlüssen, an die Verringerung von Wasserverlusten oder an die Reduzierung von Betriebskosten gebunden werden, es zu heftigen Auseinandersetzungen über die Interpretation dieser Zahlen kommt (vgl. Megginson/Netter 2001: 346; Azpiazu/Focinito 2002; Grusky 2003; Ugaz 2002).14 Das zweite Machtspiel findet zwischen der nationalen Wasserbehörde und den regionalen Wasserunternehmen statt. Über größere Beratungsprojekte haben die Geber direkten Zugriff auf die regionalen Wasserversorger im Westen und im Osten des Landes. Über diese Beratungsprojekte versuchen die Geber ihr restriktiveres Berechnungssystem für den Deckungsbeitrag durchzusetzen. Besonders im Osten versuchen die Berater in Abstimmung mit den europäischen Gebern das Buchhaltungssystem als Modell für das ganze Land aufzuarbeiten. Die regionalen Wasserversorger sind jedoch nach wie vor der zentralen Wasserbehörde unterstellt. Der Geschäftsführer der regionalen Wasserbehörde ist hierarchisch dem Behördenchef der nationalen Wasserbehörde zugeordnet und auch indirekt noch von Mittelzuweisungen durch die zentrale Wasserbehörde abhängig. So kann die zentrale Wasserbehörde durchsetzen, dass die regionalen Wasserbehörden an die nationalen Standards „angepasste Betriebsergebnisse“ produzieren. Der Effekt ist, dass zwei Betriebsergebnisse mit jeweils unterschiedlichen Deckungsbeiträgen existieren. Im Osten wird dann einerseits mit dem restriktiven Berechnungssystem der Geber ein Deckungsbeitrag von 60% errechnet, während mit dem expansiven Berechnungssystem der nationalen Wasserbehörde ein Deckungsbeitrag von 70% erzielt wird. Das dritte Machtspiel dreht sich um die Überführung der regionalen Wasserbehörden in staatliche Unternehmen. Der Deckungsbeitrag ist unter anderem deswegen eine kritische Kennziffer, weil die – besonders von den Gebern geforderte – Umstrukturierung der regionalen Wasserbehörden in staatliche Unternehmen von einem Deckungsbeitrag von über 100% abhängig gemacht wird. Hintergrund ist ein nationales Gesetz, wonach staatliche Unternehmen nur gegründet werden dürfen, wenn diese mittelfristig ökonomisch lebensfähig sind. Gerade bei der Verhandlung über die Überführung des regionalen Wasserbehörde im Norden in ein staatliche Unternehmen entsteht eine fast paradox wirkende Situation: Die 14

Für das eine der beiden private Betreibermodell in Manila wurde gezeigt, wie trotz intensiver Bemühungen zur Definition der Ausgangssituation es zu unterschiedlichsten Interpretationen des Vertragswerks kam (vgl. Stadler/Hoering 2003: 150ff).

196

Stefan Kühl

Geber, die auf eine möglichst schnelle Umwandlung der Wasserbehörde dringen, sehen sich an ihre restriktive Berechnungsformel gebunden. Auch wenn sie für eine möglichst schnelle Überführung in einen neuen Rechtsstatus sind, erreicht die betroffene Wasserbehörde nach ihrer Berechnungsform wesentlich später den notwendigen Deckungsbeitrag von 100% als nach der expansiven Berechnungsformel der nationalen Wasserbehörde. Die zentrale Wasserbehörde, die einer rechtlichen Unabhängigkeit eines lokalen Ablegers eher zögerlich gegenüber steht, kommt mit ihren expansiven Berechnungen zu einem eher schnellen Erreichen des notwendigen Deckungsbeitrages von 100%. Hierbei wird deutlich, dass Organisationen mit widersprüchlichen organisationalen Zielsetzungen konfrontiert sein können (vgl. hierzu aus unterschiedlichen Theorieperspektiven Luhmann 1973; Friedland/Aldorf 1991). Die Zielvorstellungen der Entwicklungshilfeorganisation, die regionalen Wasserversorger möglichst schnell aus den Fängen der nationalen Wasserbehörde zu befreien, stehen im Konflikt mit dem Ziel einer möglichst restriktiven Buchführung. Die Zielvorstellung der nationalen Wasserbehörde eine Autonomie der regionalen Wasserversorger möglichst weit herauszuzögern gerät im Widerspruch zu der expansiven Bestimmung des Deckungsbeitrages. In allen dieser drei Machtspiele ist auffällig, wie stark sich die Akteure an ihre jeweiligen Berechnungssysteme gebunden sehen. In dem Konflikt über die Leistungsfähigkeit wird tendenziell sowohl von der Wasserbehörde als auch von den Entwicklungshilfeorganisationen immer mehr aus dem Auge verloren, dass der Deckungsbeitrag keine Aussage über die ökonomische Überlebensfähigkeit eines Unternehmens bietet. Um diese zu bestimmen, wäre es notwendig für die betriebswirtschaftliche Rechnung auf der Kostenseite auch Ausgaben für Steuern, Zinsen und Rücklagen für Investitionen mit einzukalkulieren. Die technische Lösung für ein mikropolitisches Problem Nachdem der Konflikt über den Deckungsbeitrag die Auseinandersetzung im Wassersektor des afrikanischen Landes über längere Zeit geprägt hat, gab es gerade von Seiten der Geber den Versuch, einen einheitlichen Accounting Standard für das Land zu etablieren. Besonders eine multilaterale Entwicklungsbank verlangt von der zentralen Wasserbehörde ein technisches Projekt aufzulegen, mit dem das Rechnungswesen in dem Land vereinheitlicht werden soll. Gerade für die Politik der Weltbank ist inzwischen gut herausgearbeitet worden, wie diese Finanz- und Accounting-Technologien auch an weit entfernte Plätze transportiert werden. Dabei sind Projektdesigns, Kreditabkommen oder beraterische Unterstützungsmaßnahmen Instrumente, mit denen Vorstellungen der Weltbank von Finanzinstrumenten und Rechnungslegungsstandards transportiert werden (vgl. Neu et al. 2002; Neu/Ocampo 2006; siehe auch Harper 1998).15 Zur Durchsetzung dieser Vereinheitlichung finanziert – inspiriert durch die multilaterale Entwicklungsbank – eine große amerikanische Entwicklungsagentur ein über fünf Jahre laufendes Projekt zur Einführung eines „Finanziellen Berechungssystems“ (FBS). Offizielles Ziel dieses Projektes ist es, das alte budgetbasierte Buchführungssystem auf ein moderneres und flexibleres Berechnungsverfahren umzustellen und landesweit die Einnahme- und Ausgabeverbuchung auf EDV umzustellen. Die versteckte Agenda 15

Bei Jang (2006) findet sich aus einer neoinstitutionalistischen Perspektive die Argumentation, dass Accounting stark in die „Weltkultur“ eingebettet sei. Es gebe, so Jang, einen weltweiten Anstieg von Organisationen, die sich den Accounting-Normen unterwerfen.

Zahlenspiele in der Entwicklungshilfe: Zu einer Soziologie des Deckungsbeitrages

197

bei der Vereinheitlichung des Accounting Standards ist jedoch, über ein landesweites System das von den Gebern propagierte restriktivere Berechnungssystem durchzusetzen. Die Hoffnung ist, dass durch die Abhängigkeit der Software-Entwickler von den Zahlungen der Geber, Buchungsverfahren zugrunde liegen, die eher zurückhaltend mit der Einbuchung von Kosten als Investitionen sind. James Ferguson hat in einer Studie über Weltbank in Lesotho die Strategie von multilateralen Entwicklungshilfeorganisationen als „Anti-Politics-Machine“ bezeichnet. Die Entwicklungshilfeorganisationen würden zentrale Entwicklungsprobleme wie zum Beispiel Armut auf „technische Probleme“ reduzieren. Für diese technischen Probleme würden die Entwicklungshilfeorganisationen dann auch rein technische Lösungen suchen. Dies trüge zu einer Entpolitisierung der Entwicklungshilfe bei und würde, so Ferguson, von den wirklichen Problemen in Entwicklungsländern ablenken (vgl. Ferguson 1990, 1994).16 Ferguson bezieht sein Argument vorrangig auf die Abstinenz von Entwicklungshilfeorganisationen von der „großen Politik“.17 Seit Ende des Kalten Krieges hat sich die Rhetorik der Entwicklungshilfeorganisationen jedoch grundlegend verändert. An der Karriere des Themas Korruption kann man erkennen, dass selbst die Weltbank – früher sicherlich der Prototyp einer Anti-Politics-Machine – bewusst politische Eckpfeiler für Länder festlegt. Bei den nationalen Entwicklungshilfeorganisationen findet sich inzwischen häufig das Selbstverständnis einer „politischen Entwicklungszusammenarbeit“. Das Bild der „Anti-Politics-Machine“ lässt sich jedoch sinnvoll beibehalten, wenn man es nicht auf die Rhetorik der Entwicklungshilfeorganisationen bezieht, sondern auf die Vielzahl von Programmen, Projekten und Maßnahmen, die von den Organisationen durchgeführt werden. In diesen Prozessen der „Projektifizierung“, der „Programmierung“ und „Maßnahmendefinition“ werden die mikropolitischen Komponenten „verobjektiviert“. Die Projekte, Programme und Maßnahmen erscheinen nur noch als technische Maßnahmen, von ihren politischen Komponenten vollkommen beraubt. Das Finanzielle Berechnungssystem (FBS) erscheint als ein rein technisches Projekt. Das Ausgangsproblem, an dem das Projekt ansetzt, wird rein technisch definiert, indem auf die veraltete IT-Architektur der Wasserbehörde verwiesen wird. Als Lösung wird dann auch die Schaffung eines neuen ITSystems angesehen, in dem sowohl die Einnahmen und Ausgaben zeitnah und behördeneinheitlich verbucht werden können. Als Experten für das Problem werden dann folglich auch SAP-Spezialisten und Datenbank-Programmierer angesehen. Durch diese technische Projektanlage wird der Interessenskonflikt zwischen Gebern und Wasserbehörde durch die „Anti-Politics-Machine“ entpolitisiert. Aber die Prozedur der „Anti-Politics-Machine“ führt – jedenfalls in dem Fall des afrikanischen Staates – nicht dazu, dass die Machtauseinandersetzungen aufgelöst werden können. Gerade für die zentrale Wasserbehörde ist die versteckte Agenda hinter dem Software-Projekt leicht zu erkennen. Obwohl eine neue Software auch aus der Wahrnehmung der zentralen Wasserbehörde dringend benötigt wird, blockiert diese das Software-Projekt, immer wenn es um die Zuordnung von Ausgaben in die Bereiche Betriebskosten und Investitionskosten geht. Effekt dieser technischen Lösung für das ursächlich mikropolitische 16

17

Das generalisierte Argument von Ferguson findet sich schon bei Meltsner (1976: 32). Die Studie von Ferguson ist in den späten achtziger, frühen neunziger Jahren entstanden und betrifft besonders die Situation multilaterale Entwicklungsbanken. Diese scheine aufgrund ihrer komplexen Besitzverhältnisse stärker als die bilateralen Entwicklungsbanken auf politische Zurückhaltung angewiesen zu sein. Zur Differenz von Mikro- und Makropolitik siehe aufschlussreich Kieserling (2003).

198

Stefan Kühl

Problem war, dass sich das Software-Projekt um Jahre verspätete und es sich andeutete, dass am Ende lediglich eine Software-Ruine von den Beratern übergeben wird. Die Verschärfung der mikropolitischen Spiele durch die Orientierung am Deckungsbeitrag Schon Aaron Wildavsky (1964) hat in seinem „The Politics of the Budgetary Process” Zweifel angemeldet, dass sich mit Kosten-Nutzen-Analysen, mit Programmbudget oder mit ökonomischen Kennziffernsystem der politische Bargaining Prozess reduzieren lässt. Aufgrund der hier vorgestellten Fallstudie lässt sich Wildavskys Argument noch verschärften: Die Versuche, mikropolitische Prozesse durch ökonomische Kennziffersysteme zu reduzieren, führt eher zu einer Vervielfältigung der Konflikte. Man kann anhand der Fallstudie geradezu eine mikropolitische Paradoxie des Accountings in der Entwicklungshilfe feststellen. Die „Zahlensteuerer“ verlängern und verkomplizieren die mikropolitischen Prozesse, die sie eigentlich reduzieren wollen. Ausgefeilten Kennzahlen-Systemen raffinieren, was sie eigentlich beseitigen sollen. Kennzahlen können letztlich langfristig die Konflikte eskalieren lassen, die durch den Einsatz der Kennzahlen eigentlich reduziert werden sollen (vgl. Neuberger 2001: 192). Die Funktion von ökonomischen Kennziffern in der Entwicklungshilfe Die Verkomplizierung der Machtspiele durch die Orientierung aller Beteiligten an einer Verbesserung des Deckungsbeitrages erscheint auf den ersten Blick wie eine weitere Nebenfolge in der Entwicklungshilfe. Genauso wie ein gut gewolltes integriertes Landwirtschaftsprojekt zu einer Überweidung beitragen kann oder die Entwicklungshilfe für einen Staat dazu führt, dass sich korrupte Eliten an der Macht halten, könnte auch die Orientierung am Deckungsbeitrag mit einem „gut gewollt, aber problematisch in seinen Folgen“ abgehakt werden. Aus dieser Perspektive könnte die Orientierung am Deckungsbeitrag als ein vorrangig durch eine in dem Wassersektor dominierende multilaterale Entwicklungsbank zu verantwortender „Steuerungsfehler“ interpretiert werden. So setzt bei den Entwicklungshilfeorganisationen und bei den in den verschiedenen Projekten aktiven Beratungsunternehmen in den letzten Jahren zunehmend Kritik an der Orientierung an einer Erhöhung des Deckungsbeitrages ein. Aus einer distanzierten soziologischen Perspektive scheint es jedoch sinnvoll diese schnelle Kritik in Frage zu stellen. Selbst wenn die offensichtlichen, manifesten Funktionen der Deckungsbeitragsorientierung nicht erreicht werden, so können doch eventuell versteckte, latente Funktionen beim Deckungsbeitrag eine Rolle spielen. Das von Robert Merton eingeführte Denkkonzept der latenten Funktion ermöglicht es, sich von den Selbstbeschreibungen von Familien, Stämmen, Organisationen oder Gesellschaften zu lösen und Funktionen aus einer distanzierteren Perspektive heraus zu bestimmen (vgl. Merton 1952). Schließlich umfasst eine Familie, ein Stamm, eine Organisation oder eine Gesellschaft immer mehr als sie prima facie darstellen (vgl. Luhmann 1967).

Zahlenspiele in der Entwicklungshilfe: Zu einer Soziologie des Deckungsbeitrages

199

Die kurzfristige Entlastung der Verhandlungssituation durch die Orientierung am Deckungsbeitrag Eine zentrale Funktion des Deckungsbeitrages scheint darin zu bestehen, dass in kritischen Verhandlungssituationen wenigstens kurzfristig eine Grundlage geschaffen wird, auf die sich – bei aller Widersprüchlichkeit – die beteiligten Organisationen einigen können. Der Effekt von ökonomischen Kennziffern scheint zu sein, dass durch den Verweis auf eine gemeinsame „Sprache“ ein Konflikt kurzfristig befriedet wird (vgl. auch Porter 1995: ix). Man einigt sich in den Aushandlungen zwischen den Gebern und der Wasserbehörde daraus, dass die Leistungen zukünftig am Erreichen von Deckungsbeiträgen gemessen werden soll. Oder in den Verhandlungen zwischen Wasserbehörde, Geberorganisationen und privaten Betreibern wird die Honorarzahlung an die Verbesserung von Deckungsbeiträgen geknüpft. Auch wenn diese Befriedung nur kurzfristig wirkt, weil sich die Machtspiele dann in den Projekten, Programmen und Maßnahmen, die über die Kennziffer gesteuert werden multiplizieren: In dem Moment der Einigung auf eine ökonomische Kennziffer gibt es erstmal einen Anlass weiterzumachen. Überspitzt ausgedrückt: Über Zahlen wird die Fiktion einer Einigung produziert, auf dessen Basis die verschiedenen Organisationen weiter miteinander kooperieren können. Der Clou ist, dass diese Funktion auch erfüllt wird, wenn die Kennzahl nur sehr lose mit der Realsituation gekoppelt ist. Zahlen geben bei aller Konstruiertheit Sicherheit, weil auf deren Basis Entscheidungen gefällt werden können. Die „Willkürlichkeit“ von Zahlen wird – ähnlich wie das „Stoppen bei Rotlicht“ – in Kauf genommen, weil sie sich als Grundlage für Entscheidungen eignen. Bei allem Abstand zur Realsituation können Zahlen also durchaus reale Konsequenzen haben (vgl. Macintosh et al. 2000: 13, 42). Damit die Zahlen ihre realen Konsequenzen haben können, müssen sie jedoch „selbstverständlicht“ werden. Der Prozess der „Selbstverständlichung“ von Kennzahlen Im Fall der afrikanischen Wasserbehörde kann gezeigt werden, wie die ökonomische Kennziffer des Deckungsbeitrages einen immer selbstverständlicheren Charakter bekommt.18 In den mündlichen und schriftlichen Verhandlungen zwischen den großen Geberorganisationen, der nationalen Wasserbehörde und den lokalen Wasserversorgern spielen die unterschiedlichen Berechnungsformen noch eine große Rolle. Immer wieder finden Auseinandersetzungen darüber statt, wie genau der Deckungsbeitrag zu bestimmen ist. Für die unmittelbar an den Verhandlungen beteiligten Vertreter der verschiedenen Organisationen liegt die Konstruiertheit dieser Kennziffer noch im Wahrnehmungshorizont. Aber je mehr sich die Kommunikationen von der unmittelbare Verhandlungssituation zwischen den Repräsentanten der Organisationen zu den internen Abstimmungen in den jeweiligen Organisationen verschiebt desto stärker verblasst dieser Konflikt. Das Wasserministerium kann dem Planungsministerium melden, dass der von der Wasserbehörde erwartete Deckungs18

Von Wai Fong Chua gibt es eine Beschreibung eines ähnlichen Prozesses in drei australischen Krankenhäusern. Die Etablierung von Accounting-Systemen wird nicht aus einem Wissen über die ökonomische Nützlichkeit erklärt sondern vielmehr als Resultat von „rhetorischen Strategien“ von Experten (vgl. Chua 1995: 111 und 113).

200

Stefan Kühl

beitrag punktgenau erreicht wurde. In den Studien zu privaten Betreibermodellen in dem afrikanischen Land wird zwar immer wieder darauf verwiesen, dass die Organisationen wenigstens ihre laufenden Kosten erwirtschaften sollen, aber die Unterschiedlichkeit der Berechnungsmethode wird dabei nicht erwähnt. In den Dokumenten zu den Regierungsverhandlungen wird nur noch von einer Verbesserung des Deckungsbeitrages geredet, ohne dass aber die Konflikte spezifiziert werden. Trotz des ursprünglichen Konfliktes über die Bestimmung wird die Kennziffer Deckungsbeitrag in der Prozessierung in den jeweiligen Organisationen immer selbstverständlicher. Die Berichte mit den Zahlenwerken werden, so Richard Rottenburg, bei ihren „Wanderung durch die Abteilungen und Hierarchien“ immer dünner. Die Informationen werden nach vorgegebenen Transformationsregeln in immer neue Formen umgewandelt und dadurch immer weiter reduziert. Dadurch stehen am Ende des Prozess nur noch einige wenige Kennzahlen, die von ihren Entstehungs- und Kontextbedingungen weitgehend entkleidet sind und so die Notwendigkeit für vertiefte Kenntnisse sozialer Situationen reduziert (vgl. Rottenburg 2002: 223; siehe schon früher Porter 1995: ix).19 Die in den jeweiligen Verhandlungssituationen noch offensichtlichen konflikthaften Konstruktionsbedingungen des Deckungsbeitrages verschwinden so in den internen Abstimmungsprozessen der multilateralen Entwicklungsbanken, der nationalen Entwicklungshilfeorganisationen und der Ministerien des afrikanischen Landes. Die komplexe Realität eines Wasserversorgungsvorhabens wird auf eine Zahl wie „Deckungsbeitrag von 105%“ reduziert. Je allgemeingültiger diese Kennziffer ist desto weniger könnte die „Vielfalt“, „Komplexität“ und „Partikularität“ einer „ortsgebundenen Wirklichkeit“ berücksichtigt werden (vgl. Rottenburg 2002: 229f). Die Konstruktionsformen des Deckungsbeitrages können in dem immer weiter fortschreitenden Prozessionsprozess nur noch mit größter Mühe aufgeschnürt werden und erhalten so ein hohes Maß an Plausibilität. Aus dieser Plausibilisierung beim Prozessieren innerhalb einer Organisation kann auch erklärt werden, weswegen sich Kennziffern wie der Deckungsbeitrag so gut für die Einigungsfiktionen eignen. Auch wenn den unmittelbar an den Verhandlungen Beteiligten klar ist, dass es keine Übereinstimmung über die Details der Bestimmung einer Kennziffer gibt, so können sie durch davon ausgehen, dass die eigene Organisation bei der Behandlung der Einigung von diesen Details sehr wohl abstrahieren wird. Eigenschaften von Zahlen und der Prozess der „Selbstverständlichung“ Die Plausibilisierung findet für alle Formen von Informationen statt, die in einer Organisation kondensiert und komprimiert werden. Auch qualitativ aufbereitete Informationen erhalten durch ihre Verdichtung und Aufbereitung eine größere Überzeugungskraft. Man denke nur an die für Insider überraschend rund wirkenden Vorstandsvorlagen oder die mehrmals überarbeiteten Powerpoint-Präsentationen, die aufgrund ihrer Stringenz kaum noch kritisierbar erscheinen. Zahlen scheinen aber über drei Merkmale zu verfügen, die sie für den Prozess der „Selbstverständlichung“ besonders geeignet erscheinen lassen. In der Form von Kennziffern sind Informationen besonders leicht transportierbar. Weil es sich 19

Insgesamt ist für Rottenburg jedoch die „Liste“ wichtiger als die „Zahl“. Aus meiner Sicht müsste geprüft werden, ob es nicht die durch Listen mögliche Quantifizierung ist, die diese in der Entwicklungshilfe so attraktiv macht.

Zahlenspiele in der Entwicklungshilfe: Zu einer Soziologie des Deckungsbeitrages

201

um verdichtete Zahlen handelt, können sie zwischen Profitcentern und Zentrale, zwischen Zulieferern und Kunden, zwischen Unternehmen und Steuerbehörden, zwischen Gebern und Nehmern von Entwicklungshilfe hin- und hergeschoben werden. So kann die Kennziffer des Deckungsbeitrags beispielsweise auf der Ebene der drei Wasserver- und Entsorgungseinheiten erhoben und dann zur zentralen Wasserbehörde weitergeleitet werden. Oder der Deckungsbeitrag der nationalen Wasserbehörde kann an die Entwicklungshilfeorganisationen weitergeleitet werden, bei der ein Projektmanager mit einem einfachen Blick erfassen kann, ob die Zielvorgaben erreicht wurden oder nicht. Wenn die Informationen in Form von Zahlen aufbereitet sind, sind diese auch im Vergleich beispielsweise zu verbalen Informationen relativ leicht kombinierbar. Der Deckungsbeitrag der drei Wasserversorgungseinheiten kann beispielsweise zu einem einheitlichen Deckungsbeitrag der nationalen Wasserbehörde aggregiert werden. Und wenn eine Entwicklungshilfeorganisation Interesse daran hat, könnte sie ohne größere Schwierigkeiten den durchschnittlichen Deckungsbeitrag alle von ihr finanzierten Versorgungsunternehmen berechnen.20 Ein weiteres Charakteristikum von Zahlen besteht darin, dass Sie ohne große Schwierigkeiten vergleichbar sind.21 Der Deckungsbeitrag von 150% in der einen Wasserbehörde kann mit dem Deckungsbeitrag von 70% bei einer anderen Behördeneinheit verglichen werden. Oder der Deckungsbeitrag von 50% im Jahr 2000 kann mit dem Deckungsbeitrag von 110% im Jahr 2010 verglichen werden. Während bei qualitativen Informationen regelmäßig der Vorwurf gemacht wird, dass Äpfel mit Birnen verglichen wird, sind die Vergleiche mit der gleichen ökonomischen Kennziffer in der Regel nicht diesem Verdacht aufgesetzt. Die drei Merkmale der Transportierbarkeit, Kombinierbarkeit und Vergleichbarkeit von Zahlen macht deren Einsatz in der Entwicklungshilfe so attraktiv. Erst sie ermöglichen es den nationalen und internationalen Entwicklungshilfeorganisationen Projekte auch auf große Distanz zu steuern und trotz ganz unterschiedlicher regionaler und kultureller Besonderheiten der Einsatzgebiete mit einheitlichen Kriterien arbeiten zu können. Fazit: Zahlen in der Entwicklungshilfe Die Validität von Zahlen werden in sozialen Zusammenhängen unterschiedlich stark abgesichert. Es gibt akzeptierte mathematische Formeln wie das berühmte „2+2=4“, deren Gültigkeit nur von Grundschülern in der ersten Klasse oder besonders raffinierten Philosophen bezweifelt werden kann (vgl. Bloor 1994). Es gibt die Anzahl von verlegten Wasserleitungen in Tansania, über deren Anzahl unterschiedlichste Meinungen existieren mögen, deren Bestand aber im Rahmen eines Projektes objektiviert werden kann (vgl. Rottenburg 2001). Und es gibt Indikatoren wie dem Human-Development-Index der Vereinten Nationen oder den Korruptionsindex von Transparency International, bei dem die „soziale Konstruiert20 21

Auf die Kombination von Mobilität, Kombinierbarkeit und Stabilität bei Zahlen macht in Anschluss an Bruno Latour z.B. Robson (1992: 690f) aufmerksam (siehe auch Latour 1990). Besten Dank an Andrea Mennicken für den Hinweis auf den Latourschen Ansatz. Quantifizierung, so Stefan A. Musto (1987: 428), würde zusammen mit Standardisierung und Kausalisierung den Entwicklungshilfeorganisationen ermöglichen ein „simples Weltbild“ zu erstellen. Die Quantifizierung mache Vergleiche möglich. Die Standardisierung erlaube Verallgemeinerungen. Die Kausalisierung, die Aufstellung eindeutiger Folgerungen, begründe Handlungsanweisungen. Dies „Vereinfachungen“ seien funktional, weil ein „wirklichkeitsnäheres Weltbild“ gezielte Einzeleingriffe gar nicht möglich erscheinen lassen.

202

Stefan Kühl

heit“ selbst in den Massenmedien diskutiert wird (vgl. Booysen 2002). Für eine soziologische Analyse ist jetzt interessant, wie eine Objektivierung von Zahlen von statten geht. Viele Rechnungs- und Auditierungsverfahren machen die Kontingenz von Berechnungen unsichtbar und produzieren so Zahlen, die von den unmittelbar Betroffenen und den späteren Verwendern akzeptiert werden. In der Accounting-Forschung werden diese Prozesse mit Begriffen wie „Enactment“ (Radcliffe 1999), „Upkeying“ (Vollmer 2007) oder „MicroProduction of Macro-Order“ (Pentland 1993) bezeichnet. Was ist jetzt das Besondere dieser Prozesse des „Enactment“, „Upkeying“ oder „Micro-Production of Macro-Order“ im Kontext der Entwicklungshilfe? Stark vereinfachend gedacht kann man in Industrieländern davon ausgeben, dass bei der Bestimmung beispielsweise einer Gewinn- und Verlustrechnung oder eines Deckungsbeitrages bewährte Verfahren gibt, in denen im Konfliktfall die ökonomische Kennziffer sozial objektiviert werden können. Wenn der Verdacht besteht, dass das Management vergangene Gewinne eines Unternehmens durch Zahlentricks in die Höhe getrieben hat, kann ein Aktionär vor Gericht ziehen. Wenn die Steuerbehörde eines Landes den Eindruck gewinnt, dass Unternehmen Einnahmen ins Ausland verschieben, können sie im Rahmen des Gesetzes prüfen, ob die Gewinn-Verlust-Rechnung modifiziert werden muss. Die Justiz hat dabei natürlich auch nicht die Möglichkeit, realitätsnähere Berechnungsverfahren zu erstellen. Vielmehr besteht ihre Funktion darin, dass sie Konflikte über Zahlen entscheiden kann. Dabei kann es sehr wohl passieren, dass das durch ein Gerichtsurteil „objektivierte“ Berechnungsverfahren allen anderen Beteiligten abstrus erscheinen, aber die Beteiligten haben eine Basis auf der alle weitermachen können. Die Möglichkeit zur juristischen Eskalation unterschiedlicher Interpretation von Zahlen wirkt wie eine Stoppregel für Konflikte. Diese Möglichkeit besteht in der Entwicklungshilfe nur begrenzt. Konfliktparteien verlassen sich im Kontext der Entwicklungshilfe sehr ungern auf die Justiz, um rechnerischen Sachverhalten klären zu lassen. Gerade die binationalen und multinationalen Entwicklungshilfeorganisationen vertrauen den rechtlichen Instanzen in den Empfängerländern nicht zu, die Interpretationskonflikte zu lösen. Effekt ist, dass die Zahlen – bei allen vorhandenen Dialekten und Interpretationsschwierigkeiten – in der Kooperation zwischen den verschiedenen Organisationen immer wieder bestätigt werden. Literatur Ahrens, T. (1996): Styles of Accountability. In: Accounting, Organizations and Society 21, S. 139-173. Ahrens, T. (1997): Talking Accounting: An Ethnography of Management Knowledge in British and German Brewers. In: Accounting, Organizations and Society 22, S. 617-637. Ansari, S./Euske, K.J. (1987): Rational, Rationalizing, and Reifying Uses of Accounting Data in Organizations. In: Accounting, Organizations and Society 12, S. 549-570. Argyris, C. (1952): The Impact of Budgets on People. Ithaca, NY: Cornell University Press. Azpiazu, D./Focinito, K. (2002): Privatisation of the Water and Sanitation Systems in the Buenos Aires Metropolitian Area: Regulatory Discontinuity, Corporate Non-performance, Extraordinary Profits and Distributional Inequality. Oxford: Prinwass Oxford. Becker, A. (2003): Controlling als reflexive Steuerung von Organisationen. Stuttgart: Schäffer-Poeschel. Bloor, D. (1994): What Can the Sociologist of Knowledge Say About 2+2=4? In: Ernest, P. (Hg.): Mathematics, Education and Philosophy: An International Perspective. London: Falmer, S. 21-32.

Zahlenspiele in der Entwicklungshilfe: Zu einer Soziologie des Deckungsbeitrages

203

Booysen, F. (2002): An Overview and Evaluation of Composite Indices of Development. In: Social Indicators Research 59, S. 115-151. Burchell, S./Clubb, C./Hopwood, A.G./Hughes, J./Nahapiet, J. (1980): The Roles of Accounting in Organizations and Society. In: Accounting, Organizations and Society 5, S. 5-27. Caiden, N./Wildavsky, A. (1974): Planning and Budgeting in Poor Countries. New York: Wiley. Chua, W.F. (1986): Radical Developments in Accounting Thought. In: The Accounting Review 61, S. 601-632. Chua, W.F. (1995): Experts, Networks and Inscriptions in the Fabrication of Accounting Images: A Story of the Representation of Three Public Hospitals. In: Accounting, Organizations and Society 20, S. 111-145. Cooper, D. J./Greenwood, R./Hinings, B./Brown, J. L. (1998): Globalization and Nationalism in a Multinational Accounting Firm: The Case of Opening New Markets in Eastern Europe. In: Accounting, Organizations and Society 23, S. 531-548. Covaleski, M.A./Dirsmith, M.W. (1986): The Budgetary Process of Power and Politics. In: Accounting, Organizations and Society 11, S. 193-214. Ferguson, J. (1990): The Anti-Politics Machine: ‘Development’, Depoliticization, and Bureaucratic Power in Lesotho. Cambridge: Cambridge University Press. Ferguson, J. (1994): The Anti-Politics Machine. ‘Development’ and Bureaucratic Power in Lesotho. In: The Ecologist 24, S. 176-181. Friedland, R./Alford, R. R. (1991): Bringing Society Back in: Symbols, Practices and Institutional Contradictions. In: Powell, W.W./DiMaggio, P.J. (Hg.): New Institutionalism in Organizational Analysis. Chicago; London: University of Chicago Press, S. 232-266. Grusky, S. (2003): Water Privatization Myths: Broken Promises and Social Turmoil. Oxford: Prinwass. Gustavsson, E. (2000): From a Hotel Guest to the '3.4. satisfied' Customer. In: Kalthoff, H./Rottenburg, R./Wagener, H.-J. (Hg.): Facts and Figures. Economic Representations and Practices. Marburg: Metropolis, S. 175-204. Hacking, I. (1990): The Taming of Chance. Cambridge: Cambridge University Press. Harper, R.H.R. (1998): Inside the IMF: An Ethnography of Documents, Technology and Organisational Action. San Diego/London: Academic Press. Hopwood, A.G. (1987): The Archaeology of Accounting Systems. In: Accounting, Organizations and Society 12, S. 207-234. Hopwood, A.G./Miller, P. (Hg.) (1994): Accounting as Social and Institutional Practice. Cambridge: Cambridge University Press. Hunt, H.G./Hogler, R.L. (1990): Agency Theory as Ideology: A Comparative Analysis Based on Critical Legal Theory and Radical Accounting. In: Accounting, Organizations and Society 15, S. 437-454. Jackall, R. (1988): Moral Mazes. The World of Corporate Managers. New York/Oxford: Oxford University Press. Jang, Y. S. (2006): Transparent Accounting as a World Societal Rule. In: Drori, G.S./Meyer, J. W./Hwang, H. (Hg.): Globalization and Organization: World Society and Organizational Change. Oxford: Oxford University Press, S. 167-195. Kalthoff, H./Rottenburg, R./Wagener, H.-J. (Hg.) (2000): Facts and Figures. Economic Representations and Practices. Marburg: Metropolis. Kieserling, A. (2003): Makropolitik, Mikropolitik, Politik der Protestbewegung. In: Nassehi, A./Schroer, M. (Hg.): Der Begriff des Politischen. Baden-Baden: Nomos, Soziale Welt Sonderband, S. 419-439. Latour, B. (1987): Science in Action: How to Follow Scientists and Engineers Through Society. Cambridge, Mass.: Harvard University Press. Latour, B. (1990): Drawing Things Together. In: Lynch, M./Woolgar, S. (Hg.): Representation in Scientific Practice. Cambridge, Mass.: MIT Press, S. 19-68. Luhmann, N. (1967): Soziologische Aufklärung. In: Soziale Welt 18, S. 97-123. Luhmann, N. (1972): Knappheit, Geld und die bürgerliche Gesellschaft. In: Jahrbuch für Sozialwissenschaften 23, S. 187-210.

204

Stefan Kühl

Luhmann, N. (1973): Zweckbegriff und Systemrationalität. Über die Funktion von Zwecken in sozialen Systemen. Frankfurt/M.: Suhrkamp. Luhmann, N. (1981): Organisation im Wirtschaftssystem. In: Ders.: Soziologische Aufklärung 3. Opladen: Westdeutscher Verlag, S. 390-414. Luhmann, N. (1988): Geld als Kommunikationsmedium: Über symbolische und diabolische Generalisierungen. In: Ders.: Die Wirtschaft der Gesellschaft. Frankfurt/M.: Suhrkamp, S. 230-271. Luhmann, N. (1997): Die Gesellschaft der Gesellschaft. Frankfurt/M.: Suhrkamp. Macintosh, N.B./Shearer, T./Thornton, D.B./Welker, M. (2000): Accounting as Simulacrum and Hyperreality: Perspectives on Income and Capital. In: Accounting, Organizations and Society 25, S. 13-50. Mauss, M. (1990): Die Gabe. Form und Funktion des Austauschs in archaischen Gesellschaften. Frankfurt/M.: Suhrkamp. Megginson, W.L./Netter, J.M. (2001): From State to Market. A Survey of Empirical Studies on Privatization. In: Journal of Economic Literature 39, S. 321-389. Meltsner, A. (1976): Policy Analysts in the Bureaucracy. Berkeley: University of California Press. Merton, R. K. (1952): Manifest and Latent Functions. In: Schuler, E.A. et al. (Hg.): Readings in Sociology. New York: Thomas Y. Crowell, S. 392-402. Meyer, J.W. (1986): Social Environments and Organizational Accounting. In: Accounting, Organizations and Society 11, S. 345-356. Morgan, G. (1988): Accounting as Reality Construction: Towards a New Epistemology for Accounting Practice. In: Accounting, Organizations and Society 13, S. 477-485. Munro, R. (1993): Just When You Thought It Safe to Enter the Water: Accountability, Language Games and Multiple Control Technologies. In: Accounting, Management and Information Technology 3, S. 249-271. Musto, S. A. (1987): Die hilflose Hilfe: Ansätze zu einer Kritik der manipulativen Vernunft. In: Schwefel, D. (Hg.): Soziale Wirkungen von Projekten in der Dritten Welt. Baden-Baden: Nomos, S. 419-503. Neu, D./Ocampo, E./Ponce de León, O. G./Zepeda, M. F. (2002): Facilitating Globalization Processes: Financial Technologies and the World Bank. In: Accounting Forum 26, S. 271-290. Neu, D./Ocampo, E. (2006): Doing Missionary Work: The World Bank and the Diffusion of Financial Practices. In: Accounting, Organizations and Society, in press. Neuberger, O. (2001): Im Labyrinth der Daten und Interessen – Controlling als organisierte Vertragsüberwachung. In: Fischer, H. (Hg.): Unternehmensführung im Spannungsfeld zwischen Finanzund Kulturtechnik. Hamburg: Kovac, S. 173-194. Pentland, B.T. (1993): Getting Comfortable with the Numbers: Auditing and the Micro-Production of Macro-Order. In: Accounting, Organizations and Society 18, S. 605-620. Pinch, T./Ashmore, M./Mulkay, M. (2000): Cost-benefit Analysis in Practice: Option Appraisal in the UK National Health Service and the Politics of Rational Decision-making. In: Kalthoff, H./Rottenburg, R./Wagener, H.-J. (Hg.): Facts and Figures. Economic Representations and Practices. Marburg: Metropolis, S. 87-116. Porter, T.M. (1995): Trust in Numbers: The Pursuit of Objectivity in Science and Public Life. Princeton, N.J.: Princeton University Press Power, M. (1992): The Politics of Brand Accounting in the United Kingdom. In: European Accounting Review 1, S. 39-68. Power, M. (1993): The Politics of Financial Accounting. In: The Political Quarterly 64, S. 272-284. Radcliffe, V.S. (1999): Knowing Efficiency: The Enactment of Efficiency in Efficiency Auditing. In: Accounting, Organizations and Society 24, S. 333-362 Robson, K. (1991): On the Arenas of Accounting Change: The Process of Translation. In: Accounting, Organizations and Society 16, S. 547-570. Robson, K. (1992): Accounting Numbers as ‚Inscriptions‘: Action at a Distance and the Development of Accounting. In: Accounting, Organizations and Society 17, S. 685-708.

Zahlenspiele in der Entwicklungshilfe: Zu einer Soziologie des Deckungsbeitrages

205

Robson, K. (1993): Accounting Policy Making and ‘Interest’: Accounting for Research and Development. In: Critical Perspectives on Accounting 3, S. 1-27. Rose, N. (1990): Governing the Soul. London: Routledge. Rose, N. (1991): Governing By Numbers: Figuring Out Democracy. In: Accounting, Organizations and Society 16, S. 673-692. Rottenburg, R. (2001): Kultur der Entwicklungszusammenarbeit mit Afrika. In: Wippel, S./Cornelssen, I. (Hg.): Entwicklungspolitische Perspektiven im Kontext wachsender Komplexität. Festschrift für Prof. Dr. Dieter Weiß. Bonn: Weltforum, S. 349–377. Rottenburg, R. (2002): Weit hergeholte Fakten. Eine Parabel der Entwicklungshilfe. Stuttgart: Lucius und Lucius. Scheytt, T. (2005): Management Accounting from a Systems-Theoretical Perspective. In: Becker, K.H./Seidl, D. (Hg.): Niklas Luhmann and Organization Studies. Copenhagen: Copenhagen Business School Press, S. 386-404. Stadler, L./Hoering, U. (2003): Das Wasser-Monopoly. Von einem Allgemeingut und seiner Privatisierung. Zürich: Rotpunktverlag. Tinker, T./Lehman, C./Neimark, M. (1988): Bookkeeping for Capitalism: The Mystery of Accounting for Unequal Exchange. In: Mosco, V./Wasko, J. (Hg.): The Political Economy of Information. Madison: University of Wisconsin Press, S. 188- 216. Ugaz, C. (2002): Liberalisation of Utilities Markets and Children´s Right to Basic Services: Some Evidence from Latin America. Oxford: Prinwass. Vollmer, H. (2004): Funktionen und Folgen organisierten Rechnens. In: Zeitschrift für Soziologie 33, S. 450-470. Vollmer, H. (2007): How to Do More With Numbers. Elementary Stakes, Framing, Keying, and the Three-dimensional Chracter of Numerical Signs. In: Accounting, Organizations and Society (im Erscheinen). Vormbusch, U. (2004): Accounting. Die Macht der Zahlen im gegenwärtigen Kapitalismus. In: Berliner Journal für Soziologie 14, S. 33-50. Wildavsky, A. (1964): The Politics of the Budgetary Process. Boston: Litte, Brown. Wildavsky, A. (1975): Budgeting: A Comparative Theory of Budgetary Process. Boston: Little, Brown. Wisner, B. (1989): Power and Need in Africa. Trenton: Africa World Press.

Welt(en) regulierter Zahlenproduktion zwischen Globalität und Lokalität

207

Welt(en) regulierter Zahlenproduktion zwischen Globalität und Lokalität: Reflexionen zu globalen Standards in Rechnungslegung und Wirtschaftsprüfung Welt(en) regulierter Zahlenproduktion zwischen Globalität und Lokalität

Andrea Mennicken und Alexandra Heßling Even where standards give rise to uniformity, they normally allow for some diversity as well. Nils Brunsson (2000: 148) We are witnesses to – and participants in – a massive twofold process involving the interpenetration of the universalization of particularism and the particularization of universalism. Roland Robertson (1992: 100)

Standardisierung kann als eine notwendige Voraussetzung der Möglichkeit von Rechnungslegung und Wirtschaftsprüfung betrachtet werden. Ohne Standardisierung wären sowohl Jahresabschlüsse als auch Prüfungsberichte nicht vergleichbar, nur schwer interpretierbar und – dementsprechend – lediglich von geringem Wert für Investoren, Kreditinstitute, Unternehmensleiter oder Regulierungsbehörden. Insbesondere vor dem Hintergrund wirtschaftlicher Globalisierungsprozesse wird einheitlichen Rechnungslegungs- und Prüfungsstandards zunehmend größere Bedeutung beigemessen. Sie werden als wichtiger Bestandteil der Stabilisierung internationaler Finanzmärkte gesehen. Sie sollen helfen, unterschiedliche Regulierungsarchitekturen zu harmonisieren und dazu beitragen, Markteintrittsbarrieren zu reduzieren. Sie sollen den Fluss und Austausch von Finanzdienstleistungen beschleunigen und die internationale Anschlussfähigkeit von Unternehmen erhöhen. Robert Roussey, der ehemalige Vorsitzende des International Auditing Practices Committee1, unterstreicht die Wichtigkeit internationaler Standards mit den folgenden Worten: „The 1970s and 1980s have shown us there is a need for standards that can be used for international investment and other multinational business purposes. In thinking about the topic of developing international accounting and auditing standards for world markets, the word globalization comes immediately to mind. And the road to world markets and globalization is creating a greater need for global accounting and auditing standards and greater initiatives for harmonization than ever before.“ (Roussey 1992: 1)2 1

2

Das International Auditing Practices Committee (IAPC) wurde 1978 gegründet, ein Jahr nachdem auf dem International Congress of Accountans die International Federation of Accountants (IFAC) ins Leben gerufen worden war (Goerdeler 1978). 2002 wurde das IAPC umbenannt und fungiert seither unter dem Namen International Auditing and Assurance Standards Board (IAASB). Seit 1978 entwickeln und verabschieden das IAPC bzw. IAASB internationale Wirtschaftsprüfungsstandards (International Standards on Auditing). Ähnliche Aussagen finden sich auf den Webseiten der Weltbank, der OECD, der International Federation of Accountants (IFAC) und des Forums für Finanzstabilität (Financial Stability Forum), das 1999 auf Initiative der G7 gegründet wurde, um die Stabilität des internationalen Finanzsystems zu stärken, die Funktionsfähigkeit der Kapitalmärkte zu verbessern und Systemrisiken zu vermindern. Dem Forum gehören Vertreter

208

Andrea Mennicken und Alexandra Heßling

Besonders in den letzten zehn Jahren ist eine beträchtliche Zunahme von Aktivitäten und Initiativen zur grenzüberschreitenden Harmonisierung von Wirtschaftsprüfungs- und Rechnungslegungsstandards zu beobachten. Im März 2000 verabschiedete das Forum für Finanzstabilität zum Beispiel ein Papier zur Etablierung einer „Task Force for the Implementation of Standards“. Die Task Force identifizierte zwölf verschiedene Gruppen von Standards als zentralen Bestandteil einer Regulierungsarchitektur zur Stabilisierung und Entwicklung globaler Finanzmärkte. Zu diesen Standards zählen auch internationale Rechnungslegungsstandards (International Accounting Standards, IAS und International Financial Reporting Standards, IFRS) sowie internationale Wirtschaftsprüfungsstandards (International Standards on Auditing, ISAs).3 Ein paar Jahre später, am 19. Juli 2002, beschlossen das Europäische Parlament und der Ministerrat, IAS bzw. IFRS ab 2005 zur Norm für alle börsennotierten Unternehmen innerhalb der EU zu erheben. In diesem Beschluss ist zu lesen: „Für die Wettbewerbsfähigkeit der gemeinschaftlichen Kapitalmärkte ist es von großer Bedeutung, dass eine Konvergenz der in Europa auf die Aufstellung von Abschlüssen angewendeten Normen mit internationalen Rechnungslegungsstandards erreicht wird, die weltweit für grenzübergreifende Geschäfte oder für die Zulassung an allen Börsen der Welt genutzt werden können.“4

In Deutschland wurde im April 1998 das Kapitalaufnahmeerleichterungsgesetz verabschiedet (§292a HGB), das es deutschen Unternehmen erstmals ermöglichte, ihre Konzernabschlüsse nach internationalen Standards vorzubereiten und offen zu legen.5 Im selben Jahr wurde auf Bundesebene das Deutsche Rechnungslegungs Standards Committee e.V. (DRSC) eingerichtet, ein privates, mit unabhängigen Fachleuten besetztes Gremium, das die Bundesrepublik Deutschland in internationalen Standardisierungsgremien vertreten und die Konvergenz deutscher Rechungslegungsvorschriften mit internationalen Standards vorantreiben soll. Wie in der Satzung nachzulesen ist, verfolgte die Gründung des Vereins unter anderem den Zweck: „die Standardisierung durch ein unabhängiges, ausschließlich mit anerkannten Sachverständigen besetztes Gremium nach angloamerikanischem und internationalem Vorbild einzuführen und zu finanzieren, weil die dort gemachten Erfahrungen zeigen, dass den jeweiligen Bedürfnissen glo-

3

4 5

der Finanzministerien, Zentralbanken und Aufsichtsbehörden der G7-Länder und vier weiterer bedeutender internationaler Finanzplätze sowie Repräsentanten wichtiger internationaler Institutionen und Gremien (z.B. Weltbank und IWF) an, die sich mit Fragen der Finanzstabilität befassen. Auslöser für die Gründung des Forums waren unter anderem die mexikanische, ostasiatische und russische Finanzkrise von 1997 und 1998. Weitere Standards sind: der IWF „Code of Good Practices on Transparency in Monetary and Financial Policies“, der IWF „Code of Good Practices in Fiscal Transparency“, der IWF „Special Data Dissemination Standard“ sowie die „Principles of Good Governance“ der OECD, die „Core Principles for Systemically Important Payment Systems“ des Ausschusses für Zahlungsverkehrs- und Abrechnungssysteme (CPSS), die vierzig Empfehlungen der „Financial Action Task Force“, die vom Basler Ausschuss für Bankenaufsicht (BCBS) verabschiedeten „Core Principles for Effective Banking Supervision“, die von der internationalen Organisation für Effektenhandels- und Börsenaufsichtsbehörden (IOSCO) entwickelten „Principles of Securities Regulation“ und die „Insurance Supervisory Principles“ der internationalen Vereinigung der Versicherungsaufsichtsbehörden (IAIS). Verordnung (EG) Nr. 1606/2002 des Europäischen Parlaments und des Rates vom 19. Juli 2002, http://eurlex.europa.eu/LexUriServ/LexUriServ.do?uri=CELEX:32002R1606:DE:NOT (angesehen am 14.10.06). Anstoß für die Verabschiedung des Gesetzes gab unter anderem die zunehmende Notierung deutscher Unternehmen an ausländischen Börsen, wie z.B. die Notierung der Daimler Benz AG an der New Yorker Börse (New York Stock Exchange) im Jahre 1993.

Welt(en) regulierter Zahlenproduktion zwischen Globalität und Lokalität

209

baler und nationaler Märkte, insbesondere der internationalen Harmonisierung, auf diese Weise besser als über zwischenstaatliche und nationale Gesetzgebung entsprochen werden kann.“6

Der folgende Beitrag betrachtet diese Entwicklungen und hinterfragt die Funktionalität globaler Wirtschaftsprüfungs- und Rechnungslegungsstandards. Er thematisiert internationale Standardisierungsbemühungen im Spannungsfeld von Globalität und Lokalität, diskutiert Prozesse der De- und Rekontextualisierung, in die die Standards eingelassen sind, und fragt nach Möglichkeiten und Grenzen einer inter- und transnational regulierten Zahlenproduktion. Welche neue Welt(en) regulierter Zahlenproduktion werden durch internationale Standardisierungsprojekte geschaffen? Welche neuen Handlungsmöglichkeiten werden durch sie für Unternehmen, Investoren und Regulierungsbehörden eröffnet? Und was für Kontroversen, Brüche und Widersprüche begleiten die globalen Standardisierungsvorhaben? Dieser Beitrag betont die Fragilität der Fiktion von Vergleichbarkeit und unterstreicht die Unabgeschlossenheit und Ambivalenz der internationalen Standardisierungsvorhaben. Prozesse der Standardisierung sind institutionell voraussetzungsvoll, umstritten und konfliktgeladen. In Rechnungslegung und Wirtschaftsprüfung konstituieren die internationalen Standards ein Streitobjekt, in das verschiedene Vorstellungen von Unternehmenskalkulation und -repräsentation hineinprojiziert werden. Gekoppelt daran sind unterschiedliche Vorstellungen darüber, was ein Standard ist und leisten soll bzw. inwieweit er regulierend in Praktiken der Unternehmenskalkulation und -repräsentation einzugreifen habe. Der erste Abschnitt lenkt den Blick auf verschiedene Brüche und Widersprüche, die die Standardisierungsvorhaben begleiten und die Etablierung eines weltweiten Vergleichsraumes innerhalb von Wirtschaftsprüfung und Rechnungslegung unterminieren können. Hierbei wird zum einen auf die Ambiguität der Standards verwiesen. Zum anderen wird auf ihre lokal variierende politische Programmierung aufmerksam gemacht. Im zweiten Abschnitt folgt ein kurzer Abriss der Entwicklungsgeschichte internationaler Wirtschaftsprüfungs- und Rechnungslegungsstandards. Wir betrachten die Entstehung der Standards im Zusammenhang mit globaler Professionalisierung und heben hervor, dass die Genese internationaler Standards in Rechnungslegung und Wirtschaftsprüfung nicht nur auf funktionale Notwendigkeiten einer globalen Ökonomie zurückzuführen ist, sondern auch auf die Interessen und Anstrengungen unterschiedlicher Akteure, vor allem die der Accounting-Profession.7 Als Projektionen professioneller Expertise und Kompetenz dienen die Standards dazu, professionelles Handeln auf globaler Ebene zu demonstrieren, professionelle Jurisdiktionen weltweit abzustecken und Arbeitsterritorien zu verteidigen (Abbott 1988). In diesem Zusammenhang wird hervorgehoben, dass dieser Prozess von Abgrenzung nicht nur nach außen gerichtet ist, sondern auch von Auseinandersetzungen und Abgrenzungskämpfen innerhalb der Profession begleitet wird. Die Regeln und deren Setzung sind in unterschiedlichen Projektionen professioneller Expertise eingebunden, was Konfliktpotential schafft und Bemühungen um Standardisierung und internationale Vergleichbarkeit untergraben kann. 6 7

Vgl. dazu: http://www.standardsetter.de/drsc/docs/charter.pdf (angesehen am 15.10.06). Im Angelsächsischen umfasst der Begriff „accounting profession“ sowohl den Berufsstand des Wirtschaftsprüfers als auch den des Controllers, Financial Directors und Buchhalters. In den USA und Großbritannien sind alle Personen „professional accountants“, die die berufsqualifizierende Prüfung zum Certified Public Accountant (USA) oder Chartered Accountant (UK) abgelegt haben, während in Deutschland der Begriff „Accounting-Profession“ nur im engeren Sinn auf den Berufsstand des staatlich geprüften Wirtschaftsprüfers (bzw. Steuerberaters) bezogen ist.

210

Andrea Mennicken und Alexandra Heßling

Der dritte Abschnitt betrachtet die Standardisierungsbemühungen im Spannungsfeld von globaler Ambition und lokaler Spezifität. Es wird hervorgehoben, dass die Standards in globalen und lokalen Zusammenhängen entwickelt werden, und dass sie stets der lokalen Vermittlungs- und Übersetzungsarbeit bedürfen, um global diffundieren zu können. Dies ist nicht unproblematisch. Praktiken der Rechnungslegung und Unternehmenskalkulation variieren weltweit und sind in regional unterschiedlichen regulatorischen Bezugsrahmen eingelassen. Wir beobachten die Herausbildung globaler Konkurrenz und betrachten in diesem Zusammenhang insbesondere die Herausbildung zweier miteinander konkurrierender Zentren von Standardisierung: das US-Amerikanische Federal Accounting Standards Board (FASB) und das International Accounting Standards Board (IASB), welches seinen Sitz in London hat und ursprünglich maßgeblich von der britischen Accounting-Profession und deren Bilanzierungs- und Regulierungspraktiken beeinflusst wurde. Es wird herausgestellt, dass globale Standardisierungsprojekte nicht nur vereinheitlichend wirken, sondern auch zur Verschärfung regionaler und lokaler Differenzen beitragen können. Die imaginierte „eine“ Welt der Rechnungslegung löst sich auf in viele Welten, die nebeneinander existieren und an global operierende Unternehmen multiple Rechen- und Bilanzierungsanforderungen stellen. Der vierte und letzte Abschnitt diskutiert Implikationen dieses Befundes im Hinblick auf generelle Möglichkeiten und Grenzen der Regulierung unternehmerischer Zahlenproduktion durch globale Standards. Wir stellen einige theoretische Schlussfolgerungen an und versuchen zu begründen, warum es sich bei den Standardisierungsbemühungen um einen Fall des „erfolgreichen Scheiterns“ handelt. Getragen von Rufen nach mehr Transparenz und Vergleichbarkeit, lautet unser Argument, schaffen die Bemühungen um globale Vereinheitlichung (zumindest in Teilen) neue Unübersichtlichkeit. Die Standards stellen nur bedingt einheitliche Kriterien zur Unternehmensbewertung bereit. Regionale Domestizierungsversuche überlagern die Bemühungen um Vereinheitlichung. Versuche, die Mehrdeutigkeit der Standards (lokal) zu vereindeutigen, haben die Produktion von mehr und mehr Regeln angeregt, was, wie weiter unten aufgezeigt wird, die Kontingenz der Standards nicht notwendigerweise reduziert, sondern im Gegenteil gerade die Fragilität unternehmerischer Zahlenproduktion vor Augen führt und auf die Brüchigkeit der ihr zugrunde gelegten Objektivitätsannahmen aufmerksam macht. Fiktionen von globaler Standardisierung und Vergleichbarkeit Bowker und Star (2000: 13) definieren Standards als „any set of agreed-upon rules for the production of (textual or material) objects“. Für sie fungieren Standards als „boundary objects“8, die verschiedene Gemeinschaften, Orte und Praktiken miteinander verknüpfen und inter- bzw. translokale Anschlussfähigkeit etablieren helfen (vgl. zum Begriff des „boundary object“ auch die Beiträge von Power und Preda in diesem Band). Standards werden normalerweise mit dem Ziel eingesetzt, Aktivitäten kompatibel zu machen und 8

Bowker und Star definieren den Begriff des „boundary object” folgendermaßen: „Boundary objects are those objects that both inhabit several communities of practice and satisfy the informational requirements of each of them. Boundary objects are thus both plastic enough to adapt to local needs and constraints of the several parties employing them, yet robust enough to maintain common identity across sites. They are weakly structured in common use and become strongly structured in individual site use“ (Bowker/Star 2000: 297).

Welt(en) regulierter Zahlenproduktion zwischen Globalität und Lokalität

211

Schnittstellen, Produkte sowie Prozesse zu vereinheitlichen. Sie sollen es ermöglichen, räumliche und zeitliche Distanz zu überwinden sowie Vergleichbarkeit, Koordination und Kooperation über nationale Grenzen hinweg stimulieren (vgl. dazu z. B. Brunsson/Jacobsson 2000; Loya/Boli 1999). Allerdings ist es wichtig, zwischen verschiedenen Typen von Standards zu unterscheiden. Standards konstituieren keine homogene Klasse von Regeln. Sie variieren in ihrer Reichweite und Verbindlichkeit, in ihren Zielen, in ihrem Detailreichtum und Formalisierungsgrad. Wie Bowker und Star (2000) aufzeigen, können Standards sowohl formeller als auch informeller Natur sein. Sie können Produkte, Handlungen und Prozesse explizit oder implizit beeinflussen. Sie können dazu benutzt werden, Dinge zu klassifizieren, ein Produktdesign festzulegen oder Prozessverläufe zu bestimmen. Sie werden dazu herangezogen, bestehende Praxis zu kodifizieren oder noch nicht realisierte Ambitionen zu artikulieren und zu projizieren. Internationale Wirtschaftsprüfungs- und Rechnungslegungsstandards, die professionelles Verhalten anleiten und Rechnungslegungsprozesse steuern sollen, unterscheiden sich deutlich von fest etablierten technischen Normen, die Papiergrößen oder Maßeinheiten festsetzen. Im Gegensatz zu Messnormen, Ouput- oder Produkstandards beziehen sich internationale Rechnungslegungs- und Wirtschaftsprüfungsstandards hauptsächlich auf die Regulierung von Verfahren und Prozessen ökonomischer Selbstbeschreibung und Kontrolle. Die Standards sind relativ abstrakt, mehrdeutig und auf kontrovers diskutierte, häufig unerfüllbare Ideale, wie z.B. das der „faithful representation“9, ausgerichtet. Mit Bezug auf Brunsson und Jacobsson (2000: 4) könnte man sagen, die Standards verweisen nicht auf erreichte bzw. anzustrebende Qualität, sondern beziehen sich in erster Linie auf administrative Prozesse, die aus Sicht der Regulierer, Buchhalter und Wirtschaftsprüfer notwendig sind, um ein Mindestmaß an Qualität und Einheitlichkeit sicherzustellen. Oder wie Power (2002: 195) es formuliert, sie sind „empty of substantive content“.10 Insbesondere die International Standards on Auditing (ISAs) stellen einen ziemlich vagen, abstrakten Regelzusammenhang dar. Sie sind eng angelehnt an der allgemeinen Struktur eines Wirtschaftsprüfungsprozesses, wie er z. B. in gängigen Lehrbüchern dargestellt wird (Arens/Loebbecke 1997; Gray/Manson 2005; Marten et al. 2003). Die Standards behandeln Themen, wie z. B. die Planung einer Wirtschaftsprüfung, die Begutachung der Beweiskraft von Prüfungsinformationen (evaluation of audit evidence), das Konzept des Prüfungsrisikos (audit risk) oder die Bedeutung interner Kontrollsysteme. Jedoch werden 9

10

Das im konzeptionellen Rahmenwerk der IFRS beschriebene Konzept der „faithful representation“ verweist auf das Bemühen um Korrespondenz bzw. Übereinstimmung eines Maßes oder einer Angabe mit dem ökonomischen Gegenstand (z. B. ökonomische Ressourcen, Transaktionen, Verbindlichkeiten), den es zu repräsentieren gilt (IASB 2006: 39 ). In der US-amerikanischen Rechnungslegung wird dieses Prinzip auch „representational faithfulness“ genannt. Im Deutschen ist das Prinzip mit den Worten „Vermittlung eines den tatsächlichen Verhältnissen entsprechenden Bildes“ übersetzt worden. Wie eine Erfüllung dieses Prinzips am besten zu erreichen ist, ist dabei umstritten. Ob eine Zahl im Jahresabschluss dieses Prinzip erfüllt oder nicht, kann korrespondenztheoretisch nicht geklärt werden. Wie Bettina Heintz in diesem Band aufzeigt, ist die Richtigkeit und Unbestreitbarkeit einer Zahl kein Sachverhalt, sondern eine immer in sozialen Prozessen verankerte Zurechnung. Der repräsentative Gehalt einer Finanzzahl lässt sich nicht unabhängig von dem interpretativen und sozial interaktiven Prozess ihrer Produktion bestimmen und ist dementsprechend potentiell kontrovers und konfliktgeladen (vgl. dazu z. B. Kalthoff 2005; Rottenburg 2002; Vollmer 2004). Vgl. dazu auch Ortmann (2003: 164), der soweit geht, von internationalen Prozessstandards, wie z. B. der ISO 9000, als Ersatz für Qualitäts- und Kontrollsicherung zu sprechen. Ortmann zufolge tragen Standards wie die ISO 9000 dazu bei, Fragen nach Qualität auszublenden bzw. durch Fragen nach prozeduraler Angemessenheit und Richtigkeit zu ersetzen (ähnliche Argumentationslinien werden ebenfalls von Power [1997, 2002] und Kieser et al. [2002] verfolgt).

212

Andrea Mennicken und Alexandra Heßling

dabei weder Ziele noch Inhalte des Prüfungsprozesses näher bestimmt. Formulierungen, wie „performing an audit in an efficient and timely manner“, „gathering sufficient knowledge of the business“ oder „the auditor should implement quality control procedures“ verkörpern allgemeine Ziele und Prinzipien, die von den Wirtschaftsprüfern selbst in ihrer jeweiligen Arbeit präzisiert werden müssen. Die Standards geben Einblick in den allgemeinen Ablauf eines Wirtschaftsprüfungsprozesses und sie enthalten einen Katalog von verschiedenen Kriterien, die von Prüfern in Betracht gezogen werden sollten, aber sie geben keine konkrete Handlungsanleitung oder Auskunft darüber, wie ein Prüfer oder eine Prüferin letztendlich zu ihrem Prüfungsergebnis kommt und sich eine Meinung über die verschiedenen Tätigkeiten und deren Repräsentation innerhalb eines Unternehmens bilden kann. Die Internationalen Rechnungslegungsstandards (IFRS/IAS)11 sind konkreter gefasst. Sie enthalten ein Regelwerk von Bilanzierungs- und Reportingregeln, das darauf ausgerichtet ist, Jahresabschlüsse international zu vereinheitlichen und vergleichbar zu machen. Die Standards beschreiben Ziele und Anforderungen der Rechnungslegung sowie deren Elemente (z. B. Aktiva, Passiva, Erträge und Aufwendungen). Sie behandeln Ansatz-, Ausweis- und Gliederungsfragen sowie verschiedene Einzelthemen (z. B. den Umgang mit Inflation, Kostendefinitionen, die Bilanzierung von Finanzinstrumenten, geistigem Eigentum, langfristigen Verträgen oder Unternehmenszusammenschlüssen) (vgl. dazu z. B. Ballwieser 2006; Walleyo/Melzer 2005). Allerdings ist – ähnlich wie bei den ISAs – auch die Anwendung der IFRS/IAS nicht unumstritten, und im Vergleich zu den im Handelsgesetzbuch (HGB) verankerten deutschen Grundsätzen ordnungsgemäßer Buchführung können Buchhalter und Wirtschaftsprüfer hier nicht auf ein detailliertes Kommentarwerk zurückgreifen. Es gibt keine internationale Kontroll- und Überwachungsstelle, welche die Anwendung aller IFRS/IASStandards auf Basis der gleichen Interpretation und Auslegung der Regelungen in den veröffentlichten Abschlüssen sicherstellen könnte (Freisleben/Leibfried 2004: 108). Auch enthalten die IFRS/IAS wesentlich weniger Detailregelungen als die deutschen (HGB) oder USamerikanischen Rechnungslegungsgrundsätze (US-GAAP). Das Arbeiten mit IFRS/IAS ist somit weit mehr als eine Angelegenheit rein technischer Implementation. Wie andere Regeln auch, müssen die Standards handhabbar und betriebsfähig gemacht werden. Sie müssen interpretiert und den spezifischen Strukturen, ökonomischen und rechtlichen Bedingungen einer Organisation angepasst werden. Dem muss hinzugefügt werden, dass die internationalen Rechnungslegungs- und Wirtschaftsprüfungsstandards kein stabiles, in sich abgeschlossenes Referenzsystem darstellen. Die internationale Standardsetzung befindet sich in ständiger Bewegung. IFRS (bzw. IAS) und ISAs werden häufig überarbeitet und erweitert. Alte Standards werden regelmäßig durchgesehen, verändert oder ganz ersetzt. Rechnungslegung und Wirtschaftsprüfung sind nur schwer greifbare sowie dynamische Objekte der Regulierung. Sie befinden sich in stetigem Wandel (besonders nach Finanzskandalen wie Enron, Worldcom oder Parmalat), ihre Ziele sind umstritten und ihr Inhalt nicht eindeutig festzulegen. Die internationalen Standardisierungsbemühungen finden nicht in einem institutionellen Vakuum statt. Wie dieser Beitrag weiter unten genauer aufzeigen wird, treffen auf der Ebene internationaler Standardisierungsprojekte konfligierende, regional variierende Prinzipien der Rechnungslegung und Wirtschaftsprüfung sowie verschiedene Traditionen der Regulierung und Standardisierung aufeinander. Definitionen von „compliance“ mit Standards sind dementsprechend umstrit11

Bis 2001 wurden die Standards als IAS (International Accounting Standards) bezeichnet. Seit 2002 werden alle neuen Standards unter dem Namen IFRS (International Financial Reporting Standards) verabschiedet.

Welt(en) regulierter Zahlenproduktion zwischen Globalität und Lokalität

213

ten und Vorstellungen von „best practice“ werden kontrovers diskutiert (vgl. dazu auch Botzem/Quack 2006; Tamm Hallström 2004; Tate 2001).12 Zum Beispiel legen IFRS und IAS ihr Hauptaugenmerk auf kapitalmarktorientierte Unternehmen und das Prinzip der „faithful representation“, während die deutsche HGB-Welt Gläubigerschutz und das Vorsichtsprinzip in den Vordergrund stellt. In den IFRS/IAS hat das wirtschaftliche Ergebnis einer Transaktion oder eines Geschäftsvorfalles immer Vorrang vor rechtlichen Erfordernissen, da angenommen wird, dass bestimmte rechtliche (z. B. steuerliche) Erfordernisse die Kalkulation und Darstellung des Unternehmensergebnisses verzerren könnten (Prinzip der „substance over form“). Im Gegensatz dazu ist im HGB die Rechnungslegung eng mit der steuerlichen Gewinnermittlung und dem Prinzip des Gläubigerschutzes verknüpft, weswegen z. B. selbst erstellte immaterielle Vermögenswerte in der Unternehmensbilanz nicht aktiviert werden können (Ballwieser 2006; Walleyo/Melzer 2005). Solche und andere Unterschiede begrenzen das Harmonisierungspotential der Standards. Zwar tragen globale Standards Tendenzen einer globalen Homogensierung in sich, aber unter der Oberfläche globaler Homogenität laufen die weltweiten Standardisierungsbemühungen in Wirtschaftsprüfung und Rechnungslegung weder eindeutig auf Vereinheitlichung noch auf Diversifizierung hinaus. Aspekte von Homogenität und Heterogenität verschränken sich auf eigentümliche Weise. Auf der einen Seite beruhen internationale Standardisierungsbemühungen und die Attraktivität der Standards auf „projektiven Universalismen“ (Stichweh 2000), dem Verlangen und der Sehnsucht lokale Grenzen zu überwinden, einen weltweit einheitlichen (und überschaubaren) Kommunikationszusammenhang zu etablieren, globale Anschlussfähigkeit und Vergleichbarkeit zu sichern, internationale Anerkennung zu erlangen und zur Gemeinschaft der „global players“ dazu zu gehören (Meyer et al. 1997; Meyer 2000; Ortmann 2003; Power 2002). Auf der anderen Seite wird die imaginäre Einheit durchbrochen von lokalen Partikularismen, unterschiedlichen Regulierungstraditionen, professionellen Jurisdiktionen und Geschäftsmonopolen (z. B. dem der vier großen Wirtschaftsprüfungsgesellschaften PwC, Deloitte, Ernst & Young, KPMG). Die Standards oszillieren zwischen globalen Ansprüchen und lokalen Wirklichkeiten und eröffnen so nicht nur neue Möglichkeiten der Verflechtung, sondern auch neue Möglichkeiten der Differenzierung und Abgrenzung. Die Standards sind in einer Ordnung eingelassen, die die Koexistenz verschiedener Welten regulierter Zahlenproduktion nicht notwendigerweise reduziert, sondern in sich aufnimmt und dementsprechend auch durchaus fördert und verstärkt.13 Globale und lokale Organisations- und Regulationszusammenhänge durchdringen sich wechselseitig (siehe z.B. Robertson 1992; Stichweh 2000; Wimmer 2001). Mit Robertson (1992) könnte man sagen, dass wir es mit einer Interpenetration der Universalisierung des 12

13

In diesem Zusammenhang ist hervorzuheben, dass die Unbestimmtheit von „compliance“ ein generelles Phänomen darstellt. Soziologische Studien der Regulierung in anderen Bereichen haben aufgezeigt, dass „compliance“ nur schwerlich im Vorhinein festgelegt und unmissverständlich definiert werden kann. „Compliance“ ist ein komplexes, flexibles, fragiles und auf Interaktion beruhendes soziales Konstrukt (vgl. dazu z. B. Hutter 1997). Die Definition und das Erreichen von „compliance“ ist, wie Hutter (1997) bemerkt, das Produkt von Interaktion, Interpretation, konkurrierenden Interessen und Prinzipien sowie dem weiteren sozialen und institutionellen Kontext, in dem Regulierung stattfindet. Wimmer (2001) bezeichnet diesen Prozess als „heteromorphisation“ und grenzt sich damit, wie wir, von der Isomorphismusthese des Neoinstitutionalismus ab (z.B. Drori et al. 2006; Loya/Boli 1999; Meyer/Rowan 1977; Meyer et al. 1997). Er schreibt: „Disjuncture and conjuncture, synchronization and desynchronization, iso- and heteromorphy are all possible outcomes of globalization, a point very often overlooked due to the conviction that everything is ever-more connected, changing in the same direction, becoming alike“ (Wimmer 2001: 439).

214

Andrea Mennicken und Alexandra Heßling

Partikularen und einer Partikularisierung des Universalen zu tun haben. Einerseits nehmen lokale, partikulare Kontexte universale Gehalte auf. Die in den IFRS/IAS verankerten Konzepte und Grundsätze der Rechnungslegung beeinflussen lokale und regionale Praktiken der Buchführung. Sie können der lokalen Zahlenproduktion eine neue Ausrichtung geben, die Darstellung und Interpretation von Unternehmenszahlen neu justieren und, zumindest schrittweise, weltweit angleichen. Andererseits sind die globalen Standards selbst aus verschiedenen lokalen Praktiken der Unternehmenskalkulation und -repräsentation zusammengesetzt. IFRS und IAS wurden und werden nicht in einem Raum entwickelt, der von lokalen und regionalen Sichtweisen, Regulierungstraditionen und Kalkulationspraktiken abgeschottet ist. An der Entwicklung der Standards sind verschiedene Gruppen von Akteuren beteiligt, die zum Teil aus sehr unterschiedlichen regulativen Kontexten stammen und ihre jeweiligen Interessen, Ansichten und Vorstellungen in die Standards hineinprojizieren (vgl. dazu auch Botzem/Quack 2006). Wie weiter unten aufgezeigt werden wird, können diese Ansichten und Vorstellungen sich überlappen, ineinander verschachtelt sein oder zueinander in Konkurrenz treten. Die internationalen Standardisierungsbemühungen führen nicht zwangsläufig zu einem Mehr an Harmonisierung. In erster Linie bieten die internationalen Standardisierungsprojekte eine Plattform für Kommunikation über verschiedene Praktiken der Rechnungslegung und deren Regulierung. Lokale rechnungslegerische „Wesenseinheiten“ werden gezwungen sich zu vergleichen und miteinander auseinanderzusetzen. Partikulare Perspektiven werden herausgefordert, relativiert und miteinander in Beziehung gesetzt.14 Standardisierung ist nicht ein linearer Prozess der Konvergenz und Vereinheitlichung – oder eine Bewegung, die Differenz in Gleichheit überführt. Die den Standards und Standardisierungsbemühungen unterstellten Ideen von Universalität, Einheit und Vergleichbarkeit sind fragile Konstrukte, die der ständigen Stabilisierung bedürfen und keinen Archimedischen Punkt besitzen. Dies wird bereits am Beispiel der Entstehungsgeschichte der Standards deutlich. Standards als Projektionen professioneller Expertise und Kompetenz Die Entwicklung internationaler Accounting und Auditing Standards wurde vor allen Dingen von der Accounting-Profession – nationalen Berufsverbänden („professional institutes“), akademischen Verbänden, wie z. B. der American Accounting Association sowie Vertretern großer Wirtschaftsprüfungsgesellschaften – vorangetrieben und begann 1973 mit der Gründung des International Accounting Standards Committee (IASC) durch die Profession in London. Die Gründung des IASC wurde 1972 auf dem 10. International Congress of Accountants in Sydney vorbereitet und diskutiert. Hier versammelten sich zum zehnten Mal seit 1905 Buchhalter und Wirtschaftsprüfer aus aller Welt, um sich mit Fragen der Wirtschaftsprüfung und Rechnungslegung sowie deren internationaler Harmonisierung auseinanderzusetzen. Der erste International Congress of Accountants wurde 1905 in St. Louis

14

Vgl. dazu auch Nassehi (2003), der das Globale als Horizont beschreibt, an dem sich verschiedene Lokalitäten begegnen, und betont, dass im Gewande universalistischer Utopien für partikularistische Ziele gekämpft wird, und Stichweh (2000: 36), der Weltgesellschaft als Zusammenhang fortschreitender Differenzierung sieht, in dem einzelne Einheiten immer häufiger gezwungen werden, „einander wechselseitig in Rechnung zu stellen“.

Welt(en) regulierter Zahlenproduktion zwischen Globalität und Lokalität

215

auf eine Initiative der amerikanischen Accounting-Profession hin abgehalten.15 Der Chairman J.E. Sterret eröffnete den Kongress mit den Worten: „For the first time in the world's history an international body of public accountants has come together to deliberate upon topics of common interest. In this city on the banks of the mighty ‘Father of Waters’ and surrounded by these marvellous evidences of the world's progress in wealth and all that goes to increase the happiness of the individual and promote the welfare of society, we are met together as one. Our purpose is not to destroy, but to build up, not to disparage the work of other men, but to learn from one another how best to develop this profession, which in the few short years of its history has made such a splendid record and which seems destined to be in the future a still more potent factor in the promotion of justice between man and man and in the elevation of business life.“16

Das IASC (heute IASB, International Accounting Standards Board) wurde mit dem Ziel gegründet, einheitliche, global durchsetzbare Rechnungslegungsstandards zu entwickeln, deren weltweite Anwendung und Akzeptanz zu fördern sowie professionelles Handeln in verschiedenen Kontexten anzugleichen, anzuleiten und zu legitimieren (IDW 1978). Vier Jahre später, 1977, wurde auf dem 11. International Congress of Accountants in München die International Federation of Accountants (IFAC) ins Leben gerufen, um die Entwicklung einer „co-ordinated world-wide accountancy profession“ (Goerderler 1978: 414) voranzubringen.17 Die Föderation verabschiedete 1979 ihren ersten internationalen Wirtschaftsprüfungsstandard „Objective and Scope of the Audit of Financial Statements”. Zu diesem Zeitpunkt hatte das IASC bereits 13 International Accounting Standards (IAS) verabschiedet, die sich unter anderem mit der Repräsentation von verschiedenen Aktiva und Passiva, der Kalkulation von Gewinn, dem Einfluss von Preisänderungen sowie der Erstellung von Konzernabschlüssen befassten. Die internationalen Harmonisierungsbestrebungen der Accounting-Profession wurden einerseits durch die zunehmende Globalisierung nationaler Ökonomien, die Zunahme multinationaler Unternehmen und die Entstehung globaler Kapitalmärkte angeregt. In diesem Zusammenhang können die Gründung von IFAC und IASC als eine Reaktion der Profession auf Forderungen von Investoren, Managern und Regulatoren nach mehr Transparenz und internationaler Vergleichbarkeit von unternehmerischen Zahlen gesehen werden. Dazu bemerkt der erste Vorsitzende der IFAC, Reinhard Goerdeler, in einer Rede auf dem 11. International Congress of Accountants: „the principal task [of IFAC and IASC] is the harmonisation of accounting and auditing standards, as only in this way can proper regard be given to the growing financial and economic interdependence of the national economic systems of the world.“ (IDW 1978: 39) 15

16 17

In den USA, Großbritannien und den Niederlanden gab es bereits Mitte des 19. Jahrhunderts die ersten Wirtschaftsprüfer, während der Berufsstand des Wirtschaftsprüfers in Deutschland, Frankreich und Italien erst rund 50 Jahre später entstand. Die wesentlich frühere Gründung des Berufsstandes der Wirtschaftsprüfer in den zuerst genannten Ländern geht vor allem auf die dortige frühere Expansion des Finanzgeschäfts zurück. In Deutschland hat erst der Börsenkrach von 1929 zur Gründung des Berufs der Wirtschaftsprüfer geführt. Zur selben Zeit befasste sich die Profession in den USA bereits mit der schriftlichen Fixierung allgemein anerkannter Regeln für die Rechnungslegung (US-GAAP). Die Eröffnungsrede kann eingesehen werden unter: http://raw.rutgers.edu/raw/aah/worldcongress/AIDDRESS%20BY%20THE%20CHAIRMAN%20(p23--33).htm (zuletzt angesehen am 14.11.2006). Im Januar 2006 waren 163 Berufsverbände von Wirtschaftsprüfern und Buchhaltern Mitglied bei der IFAC, die zusammen insgesamt über 2,5 Millionen Accountants aus aller Welt repräsentieren (IFAC 2006: 6).

216

Andrea Mennicken und Alexandra Heßling

Gleichzeitig können die internationalen Standardisierungsbemühungen jedoch auch als Versuch der Profession betrachtet werden, ihre Bedeutung in einer zunehmend transnationalen Regulierungswelt zu unterstreichen und ihre regulative Autonomie zu verteidigen. Zeitgleich mit den Harmonisierungsbemühungen der Accounting-Profession befassten sich auch Organisationen wie die OECD und UN sowie nationale Börsenaufsichten zunehmend mit Fragen der Regulierung der Rechnungslegung multinationaler Unternehmen (Hopwood 1989; Bromwich/Hopwood 1983). Die Gründung von IFAC und IASC ermöglichte es der Profession sich in diesem Kontext Gehör zu verschaffen, ihre Standpunkte gegenüber den anderen transnationalen Organisationen zu vertreten und ihr Vermögen zu (potentiell weltweiter) Selbstregulierung zu demonstrieren. Die Profession konnte so die Entwicklung einer globalen Regulierungsarchitektur aktiv mitgestalten und ihre Interessen auf internationaler Ebene einbringen und verteidigen (vgl. dazu auch Tamm Hallström 2004). Spätestens seit den 1990er Jahren – im Zuge von globalen Finanzkrisen und Finanzskandalen sowie den Bemühungen der EU um die Etablierung eines effizienten europäischen Binnenmarktes und die Stärkung ihrer Kapitalmärkte – werden internationale Accounting und Auditing Standards (IAS/IFRS und ISA) immer mehr dazu herangezogen, globale Felder professioneller Finanz-Expertise auszubilden, abzustecken und zu stabilisieren.18 Für die Accounting-Profession avancierten die Standards dabei zu weit mehr als einem regulativen Koordinationsmechanismus. IAS/IFRS und ISA spielen eine zunehmend wichtigere Rolle in der Legitimierung, Rationalisierung und Autorisierung professionellen Wissens (vgl. dazu auch Jang 2006) und sind somit zu einem wichtigen Bestandteil professioneller Identitätspolitik geworden. Die Standards dienen der Darstellung globaler professioneller Expertise und Kompetenz sowie der Imagination einer weltweiten „professional community“. Sie werden als Vehikel betrachtet, um professionelles Wissen über lokale Grenzen hinweg zu demonstrieren, zu transportieren und professionelle Verantwortungsbereiche abzustecken. Die Standards versorgen Buchhalter und Wirtschaftsprüfer mit einem Repertoire an Begriffen, Konzepten und Regeln, die sie benutzen können, um sich darzustellen, abzugrenzen und Professionalität zu kommunizieren. Wie Power (2002: 197) es ausdrückt, Accounting und Auditing Standards „give public visibility and legitimacy to the knowledge base of the accountant“.19 Projektionen von Kontext(Un-)Abhängigkeit. Wie andere Professionen auch, stützt sich ebenfalls die Accounting-Profession auf die Anwendung abstrakten Wissens (Abbott 1988). Mit der Abstraktheit des Wissens lässt sich, so Abbott, die Exklusivität der Profession begründen: „Only a knowledge system governed by abstractions can redefine its problems and tasks, defend them from interlopers, and seize new problems“ (Abbott 1988: 9). Abbott zufolge gewinnt mit der Kopplung abstrakten Wissens an epistemische Werte wie 18 19

Für detaillierte Überblicke über die Entwicklung von IFAC und IASC vgl. Botzem und Quack (2006), Loft et al. (2006) sowie Tamm Hallström (2004). Dies soll nicht darüber hinwegtäuschen, dass die Standards institutionell voraussetzungsvoll sind und, wie weiter unten aufgezeigt werden wird, kontrovers diskutiert werden. Die Standards sind weder einfach umzusetzen, noch verfügen sie über einen offiziellen Mechanismus ihrer Autorisierung (dazu ausführlicher Mennicken 2006; Tamm Hallström 2004). Jedoch haben die Standards seit den späten 80er Jahren immer mehr an Bedeutung und Einfluss gewonnen. Wichtige Ereignisse, die den Standards zu mehr Autorität verhalfen waren dabei: der Beschluss der EU, die IAS/IFRS für alle gelisteten Unternehmen innerhalb der EU ab 2005 verbindlich zu machen, die Anerkennung des IASC als alleinigen internationalen Standardsetter im Bereich der Rechnungslegung durch die IOSCO (International Organisation of Securities Commissions) (dazu genauer Tamm Hallström 2004) sowie die Aufnahme von IFRS/IAS und ISAs in den Katalog der 12 Standards des Financial Stability Forum (FSF).

Welt(en) regulierter Zahlenproduktion zwischen Globalität und Lokalität

217

Rationalität, Effizienz und Wissenschaftlichkeit eine Profession erst ihre gesellschaftliche Wirkmächtigkeit. Die internationalen Accounting und Auditing Standards untermauern dieses Postulat, indem sie (bzw. ihre Hersteller und Befürworter) das professionelle Wissen des „Accountant“ in weiten Teilen als etwas Abstraktes, Kontextunabhängiges und universell Einsetzbares präsentieren. Die Standards ruhen auf der Annahme der Universalisierbarkeit professionellen Wissens und sind dementsprechend durch eine gewisse Indifferenz gegenüber lokalen Besonderheiten geprägt, sowohl im Hinblick auf die Kontexte ihrer Anwendung: „economic transactions can be measured universally in accounting terms using the same procedures“, als auch hinsichtlich der Adressatenkreise: „all users of financial statements have the same needs in all countries“ (Rodrigues/Craig 2006: 2). IFRS/IAS und ISAs abstrahieren von kontextspezifischen Besonderheiten der Produktion und Kontrolle unternehmerischer Zahlenproduktion. Sie sind von lokalen Bedingungen der Wirtschaftsprüfung und Rechnungslegung entrückt und stellen Accounting als etwas Technisches, Neutrales und Apolitisches dar, das außerhalb der Partikularität bestimmter Wirtschaftskontexte existiert. Joni Young schreibt dazu: „As we accept a standard as good accounting, we are implicitly accepting that good accounting can be acontextual. We are implicitly accepting the universality of accounting, that it somehow exists outside the particular but that it can still be readily applied to any context“ (Young 2003: 637).20 Wichtige Kriterien für einen ‚guten’ Standard sind interne Konsistenz und logische Geschlossenheit: „IFRSs are based on the Framework, which addresses the concepts underlying the information presented in general purpose financial statements. The objective of the Framework is to facilitate the consistent and logical formulation of IFRSs“ (IASB 2006: 24).

IFAC und IASB haben sich ganz der Idee der universellen Geltung und Anwendbarkeit ihrer Standards verschrieben und verstehen sich als globale Regulierungsinstanzen. Die Standards richten sich an ein potentiell universelles Publikum und zielen auf die Entgrenzung lokaler Praktiken der Wirtschaftsprüfung und Rechnungslegung ab. Jedoch lassen sich solche universellen Geltungsansprüche und Selbstbeschreibungen nicht zwangsläufig realisieren. Aus allgemeiner gesellschaftstheoretischer Sicht bemerkt Rudolf Stichweh: „Universalismen diesen Typs findet man in vielen Funktionskontexten. Zweifellos sind sie für die Vorbereitung und spätere Realisierung der Weltgesellschaft von großer Bedeutung; gleichzeitig aber kann man sie sinnvoll nur projektive Universalismen nennen. Die von ihnen antizipierte Einheit eines globalen Kommunikationszusammenhangs ist eine projektiv vorweggenommene Einheit, die fernab der strukturellen und prozessualen Realisierung dieser Einheit liegt“ (Stichweh 2000: 131). Differenzen in der Begründung professioneller Expertise. So homogen sich das Feld globaler Professionalisierung und Standardisierung auf den ersten Blick auch zeigen mag, unter der Oberfläche von projizierter globaler Homogenität existieren und re-konstitutieren sich Differenzen. Die globalen Selbstbeschreibungen der Profession werden konterkariert von lokal bzw. regional variierenden institutionellen Begründungsmustern professioneller 20

Young schreibt hier über den US-amerikanischen Kontext und die US-amerikanische Standardsetzung. Allerdings lassen sich ihre Beobachtungen auf den Fall der internationalen Rechnungslegungs- und Wirtschaftsprüfungsstandards übertragen. IFRS/IAS und ISAs bedienen sich einer sehr ähnlichen Rhetorik wie ihre US-amerikanischen Gegenspieler. Auch sie sind darum bemüht die Allgemeingültigkeit der Standards in einer Sprache zu begründen, die das Technische vom Politischen zu trennen sucht und AccountingObjektivität betont (vgl. dazu auch Power 2002).

218

Andrea Mennicken und Alexandra Heßling

Expertise. Innerhalb der Profession gibt es unterschiedliche Vorstellungen darüber, was professionelles Handeln kennzeichnet und wie es angeleitet werden soll. Dies zeigt sich zum Beispiel an der Kontroverse, die unter dem Stichwort „Rules-Based vs. PrinciplesBased Accounting“ geführt wird (vgl. z. B. ICAS 2006; Nobes 2005; Schipper 2003). Diese Debatte gibt uns Einblick in die unterschiedlichen Standpunkte, die im Hinblick auf die Konzeption und Regulierung professioneller Expertise bestehen. Sie veranschaulicht die Verankerung von Rechnungslegung und Wirtschaftsprüfung in lokal variierenden Regulierungsphilosophien und macht uns auf allgemeine Grenzen der (formalen) Regelbarkeit subjektiver Expertenurteile aufmerksam.21 Vertreter eines so genannten „rules-based approach“ betonen die Notwendigkeit der Zuverlässigkeit, Objektivität, Vergleichbarkeit von Unternehmensabschlüssen und gehen davon aus, dass dies nur durch ein detailliertes, „professional judgement“ reduzierendes und rechtlich einklagbares Regelwerk gewährleistet werden kann: „The vision underlying a rules-based approach is to specify the appropriate accounting treatment for virtually every imaginable scenario, such that the determination of the appropriate accounting answer for any situation is straight-forward and, at least in theory, the extent of professional judgment necessary is minimized.“22

Vertreter eines so genannten „principles-based approach“ hingegen unterstreichen die Notwendigkeit zu Spielraum in der professionellen Urteilsfindung (professional judgement). Sie gehen davon aus, dass professionelles Handeln nur bedingt formell geregelt werden kann und sind der Annahme, dass ein Accountant sich über Regeln hinwegsetzen dürfen muss, wenn er/sie dies für angemessen hält und begründen kann (vgl. dazu z.B. ICAS 2006).23 Ein Beispiel für eine regelorientierte Rechnungslegungsnorm liefert folgender Regelsatz: „Annual depreciation expense for all fixed assets is to be 10 percent of the original cost of the asset until the asset is fully depreciated.“

Eine solche Regel bietet wenig Interpretationsspielraum. Die Kalkulation der Abschreibung ist für alle Fälle einheitlich festgelegt. Dies gewährleistet Einheitlichkeit und Vergleichbarkeit der Abschreibungszahlen. Allerdings büßt eine solche Norm an Relevanz ein, da sie nicht darauf ausgerichtet ist, den ökonomischen Wertverlust eines Aktivpostens widerzuspiegeln, der von Fall zu Fall unterschiedlich sein kann. Eine prinzipien-basierte Regel würde dem Accountant hier mehr Spielraum geben: „Depreciation expense for the reporting period should reflect the decline in the economic value of the asset over the period.“

21

22 23

Nelson Carvalho, der Vorsitzende des Standards Advisory Council des IASB, bemerkte dazu auf einem Vortrag vom 7.11.06 an der London School of Economics: „Es gibt nur drei objektive Tatbestände in einer Bilanz, an denen sich nicht rütteln lässt: erstens das Datum ihrer Erstellung, zweitens der Kassenbestand und drittens die Anzahl der ausgegebenen Aktien. Alles andere, was in der Bilanz steht, ist subjektiv und hängt von der Sichtweise des Accountant ab.“ Siehe Securities and Exchange Commission 2003: Abschnitt I.C (abrufbar unter: www.sec.gov). In Großbritannien ist dieser Ansatz in Prinzipien wie „comply or explain“ bzw. „substance over form“ verankert.

Welt(en) regulierter Zahlenproduktion zwischen Globalität und Lokalität

219

Solch ein Standard verlangt die Ausübung eines auf Expertise basierenden Urteils, das nicht durch einen einfachen Algorithmus bestimmt werden kann und deswegen je nach Sichtweise des Experten unterschiedlich ausfallen kann. Eine sehr gute Dokumentation der Debatte ist unter dem Titel Principles-Based or Rules-Based Accounting Standards? A Question of Judgement vom Institute of Chartered Accountants of Scotland (ICAS) Anfang 2006 vorgelegt worden.24 In akribischer Manier werden hier zahlreiche Äußerungen und Kommentare vonseiten des IASB sowie verschiedener nationaler Berufsverbände und Regulierungsbehörden zusammengetragen und ausgewertet (siehe Abb. 1). Abbildung 1:

Rules-Based Standards – Vor- und Nachteile (Quelle: ICAS 2006) Supporting rules-based standards

Against rules-based standards

Professional judgement

They are what the participants want. They provide detailed guidance and clarification and precise answers to questions.

They reduce the exercise of professional judgment und lead to deskilling of the profession.

Enforceability

They are authoritative and enforceable.

They do not prevent dishonest practice.

Comparability and consistency

They provide comparability

They do not ensure comparability.

Complexity

They set out greater detail, which is especially important where translation is needed.

Greater detail in rules requires to be translated, with correspondingly greater difficulties.

Creative accounting

They deter creative accounting.

They foster creative accounting by diverting judgment from economic reality to the detail of application.

Economic reality

The rules-based system can be used to represent economic reality in many situations.

Principles, rather than rules, are needed to represent economic reality.

Die Kontroverse „Rules vs. Principles“ verdeutlicht untereinander konkurrierende Vorstellungen dahingehend, wie die Architektur der Weltökonomie zukünftig auszusehen hat und welche Politiken der Regulierung die globale Architektur der Rechnungslegung tragen sollen. Zum einen entwickeln sich diese Vorstellungen entlang der regional jeweils sehr unterschiedlich verlaufenden Entwicklungsgeschichte der Profession. Zum anderen gewinnen sie durch ihre Einbindung in verschiedene nationalstaatliche Jurisdiktionen an Kontur (vgl. dazu auch Tate 2001). Beispiele für ein stark regelgebundenes Rechnungslegungssystem sind die US-amerikanische und deutsche Rechnungslegung, wo zum Teil sehr detaillierte Regelungen vorgegeben werden, die darauf abzielen, jeden nur möglichen Einzelfall zu erfassen und eine hohe Rechtssicherheit zu schaffen. Den Gegenpol hierzu bildet die britische Rechnungslegung, die auf generelleren Prinzipien aufbaut und dem Accountant 24

Vgl. dazu: http://www.icas.org.uk/site/cms/contentviewarticle.asp?article=4597 (zuletzt angesehen am 10. November 2006).

220

Andrea Mennicken und Alexandra Heßling

wesentlich mehr Entscheidungsspielraum gibt. Auf der Ebene der internationalen Standardsetzung treffen diese unterschiedlichen Ansätze und Traditionen aufeinander. Hinzu kommen politische Machtkämpfe und rivalisierende regionale bzw. nationalstaatliche Politiken der Regulierung, die die Standardsetzung zusätzlich erschweren. Standards zwischen globaler Ambition und lokaler Spezifizität IFRS/IAS und ISAs werden für globale Märkte entwickelt. Allerdings treffen, wie oben bereits angedeutet, auf transnationaler Ebene lokal spezifische und potentiell kontroverse Vorstellungen über Praktiken und Regeln zur Errechnung, Darstellung und Überprüfung von Betriebsergebnissen aufeinander. Die Standards bewegen sich zwischen globaler Ambition und rivalisierender, lokaler Spezifizität. Wie Michael Power (2002: 193) es formuliert: Standardisierungsprojekte sind „in constant movement and reform as local judgements, resistance, contingency and creative idiosyncrasy are both the conditions of possibility for any success in applying standards as well as the condition of their chronic failure. Standards […] are necessarily applied in conditions which are irredeemably local and thereby subject to creative interpretation, bias, fraud and error.“ Die Entwicklung globaler Rechnungslegungs- und Wirtschaftsprüfungsstandards ruht auf der Annahme der Universalisierbarkeit professionellen Wissens, auf Fiktionen der globalen Welterschließung (Ortmann 2003) und dem Ideal von weltweiter Einheitlichkeit und Vergleichbarkeit. Diese Ambitionen, Ideale und Träume werden jedoch durchkreuzt von lokal bzw. regional unterschiedlichen Regulierungspraktiken, Gerichtsbarkeiten, Wirtschaftsordnungen und Systemen der Unternehmenskalkulation und -repräsentation (Benston et al. 2006; Bromwich/Hopwood 1983; Mennicken 2004, 2006; Tate 2001). Die Literatur zur Klassifikation von Accounting-Systemen benennt unterschiedliche Kriterien der Herausbildung lokaler Differenzen. Entweder werden kulturalistische Argumente angeführt, um Charakteristika lokal verankerter Regelwerke zu spezifizieren oder besondere Merkmale in Prozessen der Standardisierung zu identifizieren (z. B. Hofstede 1980; Perera 1989). Oder es wird ein enger Zusammenhang zwischen rechtlichen Traditionen einerseits, politisch-ökonomischen Kontexten andererseits und spezifischen Ausprägungen der Rechnungslegung postuliert (d’Arcy 2001). Weitere Varianten der Klassifikation beziehen sich auf Typologien von Prozessen der Standardisierung, die Bildung von Clustern im Hinblick auf Praktiken der Rechnungslegung oder den Vergleich von Anforderungen an die Unternehmenspublizität.25 Was bei diesen und anderen Varianten der Klassifikation von lokaler Differenz ins Auge fällt, ist der methodologische und konzeptionelle Pluralismus von Erklärungsversuchen, der vor allem auf die Komplexität lokaler Spezifizitäten und regionaler Besonderheit aufmerksam macht. Um einige Beispiele zu geben: In Deutschland sind die Grundlagen der Rechnungslegung, die so genannten „Grundsätze ordnungsgemäßer Buchführung“, im Handelsgesetzbuch (HGB) festgelegt. Innerhalb der deutschen Rechnungslegung dominierte – zumindest über einen langen Zeitraum hinweg – das Prinzip des Gläubigerschutzes, verbunden mit

25

Für einen Überblick über die Debatte um die Klassifikation und Harmonisierung der Rechnungslegung siehe d’Arcy (2001).

Welt(en) regulierter Zahlenproduktion zwischen Globalität und Lokalität

221

einer sehr konservativen Orientierung in der Darstellung von Unternehmensergebnissen.26 Traditionell, insbesondere seit dem deutschen Börsencrash von 1873, wird die Wichtigkeit des Vorsichtsprinzips in der Unternehmensbewertung sowie die Bildung von Rücklagen betont (Benston et al. 2006: 108). Ein wichtiges Ziel der Rechnungslegung besteht in der Vermeidung von Überbewertungen. So sollen Aktiva in der Bilanz beispielsweise entsprechend ihrer ursprünglichen Anschaffungskosten (abzüglich rechtlich festgelegter Amortisierungskosten) und nicht gemäß ihres Marktwertes dargestellt werden. Daneben besteht ein weit reichendes Aktivierungsverbot für immaterielle Vermögenswerte (Ballwieser 2006; Walleyo/Melzer 2005). Die deutsche Rechnungslegung ist eng an die Steuergesetzgebung geknüpft, was den Raum für „professional judgements“ erheblich einschränkt. Die Betonung liegt auf Objektivität, Verlässlichkeit (reliability) und die externe Verifizierbarkeit bzw. Nachvollziehbarkeit von Unternehmenszahlen. Benston et al. (2006: 111) bemerken hierzu: „Accounting standard setting and interpretation have been considered a domain of lawyers. This led to a legal rather than professional approach to accounting. Law provides many detailed rules on financial disclosure and is relatively inflexible with respect to emerging issues.“ Im Gegensatz dazu ist die Entwicklung der Rechnungslegung in Großbritannien und den USA eng mit der Ausbildung der dortigen Kapitalmärkte, dem Informationsbedarf von Shareholdern und der frühen Entwicklung einer weitestgehend selbst regulierten Accounting-Profession verwoben. Die Steuergesetzgebung ist zumindest in weiten Teilen entkoppelt von der Rechnungslegung. Das Hauptaugenmerk liegt hier auf dem Kapitalmarkt. In beiden Ländern werden Accounting und Auditing in erster Linie nicht staatlich, sondern vermittels unabhängiger, privater Organisationen reguliert. Die Ziele der Rechnungslegung sind stärker auf die Nützlichkeit der Unternehmenszahlen für Marktteilnehmer und deren Investitionsentscheidungen ausgerichtet, weshalb es mehr Raum gibt für „fair value“ und „book-to-market adjustments“ (Aufwertungen gemäß des beizulegenden Zeitwertes bzw. Marktpreises). Rechnungslegungsvorschriften und deren Interpretationen werden von nationalen, an die Profession eng angebundenen Standardsettern verabschiedet. Allerdings unterscheidet sich die Accounting-Regulierung in den USA von der in Großbritannien dahingehend, dass die US-Börsenaufsichtsbehörde SEC (Security and Exchange Commission) eine weitaus höhere Zugriffsgewalt besitzt als ihr britisches Pendant FSA (Financial Services Authority). Daneben sind die amerikanischen Rechnungslegungsvorschriften (USGAAP, US-Generally Accepted Accounting Principles) wesentlich stärker als die UKGAAP auf ihre gerichtliche Durchsetzbarkeit hin ausgerichtet. Solche stark typisierenden Verallgemeinerungen müssen natürlich stets mit Vorsicht genossen werden. Sie dienen lediglich einer ersten groben Einordnung und geben keineswegs ein genaues Abbild der Charakteristika der einzelnen Rechnungslegungssysteme. Die unterschiedlichen nationalen Systeme befinden sich in stetigem Wandel und Versuche der internationalen Angleichung haben ihre Spuren hinterlassen und Hybridisierungen herbeigeführt. Zwischen den verschiedenen lokalen (bzw. nationalen und regionalen) Systemen der Rechnungslegung einerseits und den Prozessen der internationalen Standardsetzung andererseits bestehen komplexe und prekäre Zusammenhänge wechselseitiger Interpenetra26

Über einen langen Zeitraum hinweg waren deutsche Unternehmen größtenteils über Bankkredite finanziert, und Kapitalmärkte spielten nur eine untergeordnete Rolle. Dies erklärt die starke Fokussierung der deutschen Rechnungslegung auf Gläubigerschutz und Rücklagenbildung. In den letzten Jahren haben Kapitalmärkte (inklusive der Deutschen Börse) allerdings auch in Deutschland zunehmend an Bedeutung gewonnen.

222

Andrea Mennicken und Alexandra Heßling

tion. Verschiedene Perspektiven treffen aufeinander und werden miteinander verwoben und in Beziehung gebracht. Im Zusammenhang mit den Harmonisierungsbemühungen der EU wurden in das deutsche System z.B. angelsächsische Rechnungslegungskonzepte und -elemente (wie z. B. das Prinzip der „true and fair view“)27 aufgenommen, und den Informationsinteressen der Shareholder wird, neben den Banken, zunehmend mehr Aufmerksamkeit geschenkt (Benston et al. 2006). In diesem Zusammenhang sollte auch erwähnt werden, dass das IASB (damals IASC) maßgeblich unter der Federführung der britischen Accounting-Profession gegründet wurde, um unter anderem stärkeren Einfluss auf die europäische Accounting-Regelsetzung ausüben zu können und sich gegen die Regulierungsund Accounting-Interessen der kontinentaleuropäischen Bündnispartner durchsetzen zu können (vgl. dazu Hopwood 1994). Andererseits ließ die Verabschiedung der europäischen Accounting Direktiven die britische Rechnungslegung nicht unberührt. Dort wurden mit den Direktiven in den 80er Jahren zum ersten Mal – ganz nach kontinentaleuropäischer Manier – detaillierte, gesetzliche Regeln, z. B. im Hinblick auf Bilanzierungsformate und Bestimmungen zur Offenlegung, in das Rechnungslegungssystem eingeführt (Benston et al. 2006).28 Die internationale Standardsetzung ist somit keineswegs losgelöst von lokalen und nationalen Welten der Unternehmenskalkulation und -regulation. IAS/IFRS und ISAs treffen auf lokal ausdifferenzierte Accounting Cluster, werden in diese eingebettet und gehen neue Verbindungen mit lokalen Kontexten ein. Gleichzeitig kommt es unter den nationalen Standardsettern und Regulierungsbehörden zur Herausbildung globaler Konkurrenz und zu konfliktreichen Auseinandersetzungen um die Bedeutung, Berechtigung und Geltung von Regeln zur unternehmerischen Zahlenproduktion (allgemeiner dazu auch Ortmann 2003). Die internationale Standardsetzung bietet nicht nur ein Forum für Austausch, Vermittlung und Angleichungsarbeit, ebenso dient sie als Arena für nationale bzw. regionale Lobbyund Abgrenzungsarbeit. Nationale und regionale Standardsetter befinden sich in ihrer Beziehung zum IASB und der IFAC in einem Spannungsverhältnis von Kooptation und Konkurrenz. So hat die EU die IAS bzw. IFRS als Norm für alle börsennotierten Unternehmen innerhalb der EU erhoben, sich gleichzeitig aber vorbehalten, die Standards den „europäischen Umständen“ gemäß anzupassen.29 Dies geschah z. B. im Falle des Standards IAS 39 (Financial Instruments: Recognition and Measurement). Die europäische Version des IAS 39 verbietet im Gegensatz zum Original die Bewertung von Passiva entsprechend ihrem „fair value“30 und nimmt stattdessen „historical cost“ (ursprüngliche Kosten) als Referenzpunkt. 27

28

29

30

Das Prinzip der „true and fair view“ besagt, dass Accountingregeln solange befolgt werden müssen, wie sie der Produktion einer „true and fair view“ auf Unternehmensaktivitäten dienen. Sollten die Regeln aus Sicht des Accountants dem im Wege stehen, kann er/sie - unter der Bedingung, dass die Wirtschaftsprüfung ihre Zustimmung gibt - sich über die Normen hinwegsetzen („true and fair view override“). Benston et al. (2006: 86) schreiben dazu: „These directives were promulgated after a long period of discussion and bargaining in the European Community. They are a blend of substantially different accounting practices in several countries. They incorporate the U.K. “true and fair” view. […] The directives also incorporate the continental practice of highly structured accounts.“ Nur solche IAS und IFRS erlangen innerhalb der EU Gültigkeit, die vom European Financial Reporting Council (EFRAG) und dem Accounting Regulatory Committee (ARC) offiziell autorisiert worden sind. Der Autorisierungsprozess (endorsement process) gibt der EU die Möglichkeit, in die Entwicklung der Standards zumindest indirekt (z.B. durch Ablehnung) einzugreifen. Laut IAS/IFRS ist der „fair value“ derjenige Betrag, zu dem ein Vermögenswert zwischen sachverständigen, vertragswilligen und voneinander unabhängigen Geschäftspartnern getauscht oder eine Verpflichtung beglichen werden kann. Es handelt sich hier um einen hypothetischen Marktpreis unter idealisierten Bedingungen.

Welt(en) regulierter Zahlenproduktion zwischen Globalität und Lokalität

223

Die Harmonisierungsbemühungen von IFAC und IASB werden des Weiteren konterkariert durch das Verhalten der USA, die bislang die IFRS/IAS und ISAs gänzlich abgelehnt haben. US-amerikanische Regulierungsbehörden, wie die SEC und der nationale Standardsetter FASB (Federal Accounting Standards Board), sehen sich durch eine Übernahme der internationalen Standards in ihrer Souveränität bedroht und halten nach wie vor die US-GAAP (US-Generally Accepted Accounting Principles) als den „besseren“ internationalen Standard hoch. Gestärkt sehen sich die amerikanischen Regulierer und Standardsetter in ihrer Position durch die internationale Attraktivität des New York Stock Exchange, der größten Börse der Welt, und die weltweite Verbreitung der US-GAAP in der Rechnungslegungspraxis. So erlaubten z. B. deutsche Regulierungsbehörden bis zur offiziellen Einführung der IAS/IFRS durch die EU die Anfertigung von Konzernabschlüssen in IAS/IFRS oder US-GAAP. SEC und FASB sind zwei der wichtigsten Gegenspieler des IASB und der IFAC. Seit Jahren ringt das IASB um die Anerkennung seiner Standards durch das FASB bzw. die SEC, bislang jedoch nur mit wenig Erfolg. Nach wie vor sind IFRS/IAS Jahresabschlüsse auf amerikanischen Kapitalmärkten (zumindest noch) nicht zugelassen. Allerdings haben FASB und IASB sich 2002 einem gemeinsamen Konvergenzprojekt verschrieben (Norwalk Agreement)31, das vorsieht, die beiden Regelwerke in den nächsten Jahren enger zusammenzuführen. Die derzeitige Situation scheint allerdings noch sehr weit von der Entwicklung einheitlicher „Worldwide GAAP“ entfernt zu sein. Viel mehr haben wir es mit einer Konstellation zu tun, die man mit dem Begriff der „polycentric oligarchy“ (Whitley 1984) begrifflich umschreiben könnte. Es gibt mehrere, konkurrierende Zentren der Standardisierung (die Welt der IFRS, EU autorisierte IFRS, die nordamerikanische Welt der US-GAAP usw.), die sich auf internationaler Ebene zwar wechselseitig durchdringen, aber bei weitem nicht einfach in eins überführen lassen. Schlussfolgerungen: Multiplizierung und Fragmentierung regulierter Zahlenproduktion Was für Folgen birgt dies in sich für die unternehmerische Zahlenproduktion? Es kommt zur Multiplizierung und Fragmentierung regulierter Zahlenproduktion. Parallelwelten unternehmerischer Kalkulation und Repräsentation bilden sich heraus, und Vergleichspotenziale einer (imaginierten) globalen Rechnungslegungswelt werden nicht notwendigerweise gesteigert, sondern ebenso durchbrochen und unterminiert. Prozesse der globalen Diffusion institutioneller Muster können nicht ohne weiteres lokal „umgesetzt“ werden. Auf der Ebene der Organisationen treffen verschiedene Leitgesichtspunkte der Rechnungslegung und Wirtschaftsprüfung aufeinander. Dabei fließen verschiedene Spielarten institutioneller Variation innerhalb des Wirtschaftssystems wie auch unterschiedliche Politiken der Anerkennung und Regulierung, regionale und branchenspezifischer Besonderheiten in die Praktiken der Rechnungslegung mit ein. Organisationen müssen sich, wenn sie auf der weltgesellschaftlichen Bühne der Wirtschaft agieren wollen, sowohl mit globalen Ansprüchen als auch mit lokalen Gegebenheiten auseinandersetzen. Wie komplex und vielschichtig die Rechenanforderungen sein können, wird am Beispiel der Rechnungslegung der Deutschen Telekom AG deutlich. Während die Deutsche Telekom bis Ende 1994 ausschließlich die Rechenanforderungen des HGB zu berücksichti31

Vgl. http://www.fasb.org/news/memorandum.pdf (zuletzt angesehen am 25.11.2006).

224

Andrea Mennicken und Alexandra Heßling

gen hatte, praktiziert sie seit 2005 eine vierfache Rechnungslegung. Parallel werden länderspezifische Jahresabschlüsse (nach HGB) und länderspezifische steuerliche Abschlüsse aufgestellt, der Konzernabschluss erfolgt nach IFRS und US-GAAP (Brücks 2006). VW bilanzierte bis 2005 nach HGB-, BMW nach HGB- und IAS/IFRS- und Daimler Chrysler nach HGB- und US-GAAP-Vorschriften. Das entsprechende Schlagwort, unter dem Wirtschaftsorganisationen ihre Rechenexperten rekrutieren und die Beratungsindustrie ihre ITLösungen anbietet, heißt denn auch „Multi GAAP Accounting“ – eine Bezeichnung, die die gegenwärtige Situation der parallelen Konstruktion von Zahlenwerken trefflich auf den Punkt bringt. Internationale Standards, wie die IAS/IFRS und ISAs, evozieren Vorstellungen von Einheitlichkeit und Kompatibilität, aber sie konstituieren noch lange keinen einheitlichen Maßstab der Vergleichbarkeit. Wir müssen unterscheiden zwischen Standards als Ambition, Zielvorstellung, abstraktes Konzept auf der einen und den vielgestaltigen praktischen Versuchen ihrer Verwirklichung auf der anderen Seite (Mennicken 2004, 2006). Programmatiken der internationalen Standardisierung von Accounting und Auditing begründen einen Raum, in dem diverse, zum Teil widersprüchliche Ziele, Strategien und Interessen artikuliert, ausgetauscht und verhandelt werden. Aspekte von Homogenität und Heterogenität verschränken sich dabei auf eigentümliche Weise. Das „Lokale“ ist nicht Gegenspieler, sondern konstitutiver Bestandteil des „Globalen“ (Robertson 1998). Lokale Praktiken der Unternehmenskalkulation und -repräsentation werden in Bemühungen um internationale Harmonisierung rekonstruiert, problematisiert und hybridisiert, aber nicht aufgehoben. Standardisierung ist keine lineare Bewegung, die Differenz in Gleichheit überführt, sondern ein komplexer, offener Prozess der Auseinandersetzung, Verknüpfung, Abgrenzung und neuen Verbindung, deren Dynamiken und Folgen sich weder einfach bestimmen noch steuern lassen. Bemühungen um globale Vereinheitlichung reduzieren nicht Komplexität, sondern münden in neue Unübersichtlichkeit. Die imaginierte „eine“ Welt der Rechnungslegung löst sich auf in viele Welten, die an global operierende Unternehmen multiple Rechen- und Bilanzierungsanforderungen stellen. IAS und IFRS stellen nur einen Maßstab unter vielen dar. Die Vielfalt der Rechnungslegungssysteme schafft neue Anwendungs- und Kommunikationsprobleme (vgl. dazu auch Ballwieser 2006; Freisleben, Leibfried 2004). In analytischer Hinsicht machen uns die Standardisierungsbemühungen auf wichtige Bruchlinien universeller Harmonisierungsprojekte aufmerksam und verweisen auf wichtige Grenzen der globalen Regelbarkeit unternehmerischer Zahlenproduktion und -zirkulation. Rechnungslegung lässt sich nicht auf allgemeine und universell gültige mathematische Zahlenwerke verkürzen. Wie Küting et al. (2001: 861) es formulieren: „Reine Konzentration auf finanzielle Maßgrößen gaukelt eine irreführende Vergleichbarkeit vor. Sie ist Folge unserer sinnwidrigen Zahlengläubigkeit.“ Rechnungslegerische Zahlen müssen „zum Sprechen gebracht werden“. Sie müssen eingeordnet, kontextuell eingebunden und in ihrer lokalen Situiertheit interpretiert werden. Auf transnationaler Ebene treffen lokal spezifische, potentiell kontroverse Vorstellungen über Praktiken und Regeln zur Errechnung, Darstellung und Überprüfung von Betriebsergebnissen aufeinander, die nicht so ohne weiteres in ein Kalkulationssystem überführt werden können. Die Anwendung von IAS/IFRS und ISAs ist umstritten und nur äußerst eingeschränkt zentral regelbar. Die Standards allein stellen keine einheitlichen Kriterien zur Unternehmensbewertung bereit. Versuche der internationalen Standardisierung von Wirtschaftsprüfung und Rechnungslegung sind getragen von einem

Welt(en) regulierter Zahlenproduktion zwischen Globalität und Lokalität

225

Traum – dem Streben nach globaler Regulier- und Kalkulierbarkeit. Jedoch mündet dieser Traum nicht automatisch in ein Mehr an Vergleichbarkeit, sondern schafft, wie dieser Beitrag zeigt, ebenso neues Konfliktpotential und beleuchtet die Kontingenz und prekäre Beschaffenheit sozialer Konstrukte rechnungslegerischer Objektivität und Einheitlichkeit. Literatur Abbott, A. (1988): The System of Professions. An Essay on the Division of Expert Labor. Chicago: University of Chicago Press. d’Arcy, A. (2001): Accounting Classification and the International Harmonisation Debate – an Empirical Investigation. In: Accounting, Organizations and Society 26, S. 327-349. Arens, A.A./Loebbecke, J.K. (1997): Auditing: An Integrated Approach. Upper Saddle River: Prentice-Hall. Ballwieser, W. (2006): IFRS Rechnungslegung. Konzept, Regeln und Wirkung. München: Vahlen. Benston, G.J./Bromwich, M./Litan, R.E./Wagenhofer, A. (2006): Worldwide Financial Reporting: The Development and Future of Accounting Standards. Oxford: Oxford University Press. Botzem, S./Quack, S. (2006): Contested Rules and Shifting Boundaries: International Standard Setting in Accounting. In: Djelic, M.-L./Sahlin-Andersson, K. (Hrsg.): Transnational Governance: Institutional Dynamics of Regulation. Cambridge: Cambridge University Press. Bowker, G.C./Star, S.L. (2000): Sorting Things Out: Classification and its Consequences. Cambridge, Mass.: MIT Press. Bromwich, M./Hopwood, A.G. (1983): Accounting Standard Setting: An International Perspective. London: Pitman. Brücks, M. (2006): Erfahrungsbericht aus der Praxis. Die Umstellung auf IFRS bei der Deutschen Telekom. Manuskript, Berlin. Brunsson, N. (2000): Standardization and Uniformity. In: Brunsson, N./Jacobsson, B. (Hg.): A World of Standards. Oxford: Oxford University Press, S. 138-150. Brunsson, N./Jacobsson, B. (Hg.) (2000): A World of Standards. Oxford: Oxford University Press. Drori, G./Meyer, J.W./Hwang, H. (2006): Globalization and Organization: World Society and Organizational Change. Oxford: Oxford University Press. Freisleben, N./Leibfried, P. (2004): Warum IAS/IFRS-Abschlüsse nicht (miteinander) vergleichbar sind. In: Kapitalmarktorientierte Rechnungslegung 3, S. 101-109. Goerdeler, R. (1978): Prospects on the Future Tasks of IFAC. In: Institut der Wirtschaftsprüfer (IDW) (Hg.): Accounting and Auditing in One World. Düsseldorf: IDW Verlag, S. 414-415. Gray, I./Manson, S. (2005): The Audit Process. Principles, Practice and Cases. London: Thomson Learning. Hanson, J.D. (1989): Internationalisation of the Accounting Firm. In: Hopwood, A.G. (Hg.): International Pressures for Accounting Change. Hertfordshire: Prentice Hall, S. 43-56. Hofstede, G. (1980): Culture's Consequences: International Differences in work-related values. Beverly Hills: Sage. Hopwood, A.G. (1989): International Pressures for Accounting Change. Hertfordshire: Prentice Hall. Hopwood, A.G. (1994): Some Reflections on ‘The Harmonization of Accounting with the EU’. In: European Accounting Review 3, S. 241-253. Hutter, B. (1997): Compliance: Regulation and Environment. Oxford: Clarendon Press. IASB (2006): International Financial Reporting Standards (IFRSs). London: IASCF. IDW (1978): Accounting and Auditing in One World. Munich: IDW-Verlag. IFAC (2006): Handbook of International Auditing, Assurance and Ethics Pronouncements. New York: IFAC. ICAS (2006): Principles-Based or Rules-Based Accounting Standards? A Question of Judgement. Edinburgh: ICAS.

226

Andrea Mennicken und Alexandra Heßling

Jang, Y.-S. (2006): Transparent Accounting as a World Society Rule. In: Drori, G.S./Meyer, J.W./Hwang, H. (Hg.): Globalization and Organization. World Society and Organizational Change. Oxford: Oxford University Press, S. 167-195. Kalthoff, H. (2005): Practices of Calculation. Economic Representation and Risk Management. In: Theory, Culture and Society 22, S. 69-97. Kieser, A./Spindler, G./Walgenbach, P. (2002): Mehr Rechtssicherheit durch normative Managementkonzepte und Organisationsnormung? In: Zeitschrift für betriebswirtschaftliche Forschung 54, S. 395-425. Küting, K./Harth, H.-J./Leinen, M. (2001): Anmerkungen zur international vergleichenden Jahresabschlussanalyse. In: Die Wirtschaftsprüfung 54, S. 861-867. Loft, A./Humphrey, C./Turley, S. (2006): In Pursuit of Global Regulation: Changing Governance and Accountability Structures at the International Federation of Accountants (IFAC). In: Accounting, Auditing and Accountability Journal 19, S. 428-451. Loya, T.A./Boli, J. (1999): Standardization in the World Polity: Technical Rationality Over Power. In: Boli, J./Thomas, G.M. (Hg.): Constructing World Culture: International Nongovernmental Organizations since 1875. Stanford: Stanford University Press, S. 169-197. Marten, K.-U./Quick, R./Ruhnke, K. (2003): Wirtschaftsprüfung. Stuttgart: Schäffer-Poeschel. Mennicken, A. (2004): Moving West: The Emergence, Reform and Standardization of Audit Practice in Post-Soviet Russia. PhD Thesis: London School of Economics and Political Science, London. Mennicken, A. (2006): Translation and Standardization: Audit World-Building in Post-Soviet Russia. CARR Discussion Paper No. 36. London: CARR. Meyer, J.W. (2000): Globalization. In: International Sociology 15, S. 233-248. Meyer, J.W. (2002): Globalization and the Expansion and Standardization of Management. In: Sahlin-Andersson, K./Engwall, L. (Hg.): The Expansion of Management Knowledge. Stanford: Stanford University Press, S. 33-44. Meyer, J.W./Rowan, B. (1977): Institutionalized Organizations: Formal Structure as Myth and Ceremony. In: American Journal of Sociology 83: 340-363. Meyer, J.W./Boli, J./Thomas, G.M./Ramirez, F.O. (1997): World Society and the Nation State. In: American Journal of Sociology 103: 144-181. Nassehi, A. (2003): Welten in der Weltgesellschaft. In: Nassehi, A.: Geschlossenheit und Offenheit. Studien zur Theorie der modernen Gesellschaft. Frankfurt/M.: Suhrkamp, S. 188-228. Nobes, C.W. (2005): Rules-Based Standards and the Lack of Principles in Accounting. In: Accounting Horizons 19, S. 25-34. Ortmann, G. (2003): Organisation und Welterschließung. Dekonstruktionen. Wiesbaden: Westdeutscher Verlag. Perera, H.M. (1989): Towards a framework to analyze the impact of culture on accounting. In: International Journal of Accounting 24, S. 42-56. Power, M. (1997): The Audit Society: Rituals of Verification. Oxford: Oxford University Press. Power, M. (2002): Standardization and the Regulation of Management Control Practices. In: Soziale Systeme 8, S. 191-204. Robertson, R. (1992): Globalization. Social Theory and Global Culture. London: Sage. Robertson, R. (1998): Glokalisierung: Homogenität und Heterogenität in Raum und Zeit. In: Beck, U. (Hg.): Perspektiven der Weltgesellschaft. Frankfurt/M.: Suhrkamp, S. 192-220. Rodrigues, L.L./Craig, R. (2006): Assessing International Accounting Harmonization using Hegelian Dialectic, Isomorphism and Foucault. In: Critical Perspectives on Accounting (Article in Press, Corrected Proof). Rottenburg, R. (2002): Weit hergeholte Fakten: Eine Parabel der Entwicklungshilfe. Stuttgart: Lucius and Lucius. Roussey, R.S. (1992): Developing International Accounting and Auditing Standards for World Markets. In: Journal of International Accounting, Auditing and Taxation 1, S. 1-11. Schipper, K. (2003): Principles-Based Accounting Standards. In: Accounting Horizons 17, S. 61-72.

Welt(en) regulierter Zahlenproduktion zwischen Globalität und Lokalität

227

Stichweh, R. (2000): Zur Genese der Weltgesellschaft – Innovationen und Mechanismen. In: Stichweh, R.: Die Weltgesellschaft. Soziologische Analysen. Frankfurt/M.: Suhrkamp, S. 245-267. Tamm Hallström, K. (2004): Organizing International Standardization. Cheltenham: Edward Elgar. Tate, J. (2001): National varieties of Standardization. In: Hall, P./Soskice D. (Hrsg.): Varieties of Capitalism. Oxford: Oxford University Press, S. 442-473. Vollmer, H. (2004): Folgen und Funktionen organisierten Rechnens. In: Zeitschrift für Soziologie 33, S. 450-470. Walleyo, S/Melzer, K. (2005): IFRS – International Financial Reporting Standards. Grundphilosophie und die Hauptunterschiede zum HGB. Berlin: Cornelsen. Whitley, R. (1984): The Intellectual and Social Organization of the Sciences. Oxford: Clarendon Press. Wimmer, A. (2001): Globalizations Avant la Lettre: A Comparative View of Isomorphization and Heteromorphization in an Inter-Connecting World. In: Comparative Studies in Society and History 43, S. 435-465. Young, J.J. (2003): Constructing, Persuading and Silencing: The Rhetoric of Accounting Standards. In: Accounting, Organizations and Society 28, S. 621-638.

Buchführung für Oikos und Etat

229

Buchführung für Oikos und Etat

Daniel Schmidt „Da kommt nun unsere nüchterne Zeit. Ihr Charakter ist der Maßstab, den sie in tausend Formen in ihrer Hand führt, und in tausend Formen messend doch immer dasselbe mißt. Das aber, was sie mißt, ist der Werth, und zwar mit kühler Härte und vollem Bewußtsein der wirthschaftliche Werth aller Dinge. […] Es ist sehr traurig, so sehr nützlich zu sein, aber es ist so. Wer will es wagen, sich dem zu entziehen?“ Lorenz von Stein (1876: 6)

Nehmen wir den letzten Satz noch einmal auf: „Wer will es wagen, sich dem zu entziehen?“ Ein sogenanntes Sachzwangargument führt der Staatswissenschaftler (vgl. Koslowski 2005) da ins Feld, und von solchen Sätzen wissen wir, dass sie einen nicht zu vernachlässigenden normativen Gehalt besitzen. Es war geradezu eine implizite Standardhypothese jener Literatur, die sich im neunzehnten Jahrhundert mit der „Sozialen Frage“ oder aber dem Pauperismus auseinandersetzte, dass Angehörige gewisser gesellschaftlicher Schichten, vor allem die verarmte Lohnarbeiterschaft, nicht rational und rationell genug mit ihrem Geld haushalteten und damit wenn nicht ihr Los selbst verschuldeten, so doch wenigstens erheblich verschärften. Offensichtlich ‚wagten’ es zu viele, sich der ‚kühlen Härte’ des ökonomischen Maßstabs zu entziehen. Um es etwas abstrakter zu formulieren: Die öffentliche Ökonomie funktioniert nicht optimal, solange Menschen am Markt teilnehmen, die nicht marktkonform agieren. Lange Zeit wusste niemand genau, wie sie konkret wirtschafteten, weil die private Konsumtion in einer, wie wir heute sagen würden, erkenntnistheoretischen ‚Blackbox’ stattfand.1 Diese Blackbox konnte sich erst öffnen, nachdem ihre Innenverhältnisse selbst ökonomisiert waren. Denn die Sprache der Ökonomie drückt sich – wie übrigens auch die der Statistik – in Zahlen aus. Das Leben im Haushalt musste also erst quantifiziert, in die ökonomistische Grammatik übersetzt werden, um wissenschaftlichen wie staatlichen Interventionsstrategien zugänglich zu sein. Dazu erfand man im neunzehnten Jahrhundert das Instrument des Haushalt(ung)sbuchs oder Rechnungsbuchs. Es dient(e) der statistischen Erkenntnis ebenso wie der Selbstkontrolle des Familienlebens. Idealerweise würde diese zweite Funktion, die ökonomische Selbstregulierung der Haushaltsmitglieder staatliche Interventionen sogar überflüssig machen. Die Debatte um das Haushaltsbuch repräsentiert erstens eine Politik der Regierung der Bevölkerung beziehungsweise einiger ihrer Fraktionen („Schichten“, „Klassen“). Zugleich geht es zweitens um die Regierung des Einzelnen. Drittens fungiert das Haushaltsbuch als Spielfeld, auf dem Geschlechterrollen neu vermessen werden. Und viertens schließlich 1

Das Blackbox-Problem besteht offenbar auch noch in der jüngeren Zeit. So jedenfalls Hans-Günther Krüsselberg (1993: 79): „Dieses Schicksal, zu einer 'black box' in einem System der Entscheidungslogik geworden zu sein, teilt der private Haushalt mit anderen gesellschaftlichen Institutionen.“

230

Daniel Schmidt

definiert dieser Diskurs ein gewisses Innen-Außenverhältnis, eine Beziehung zwischen Privatheit und staatlichem Wissensinteresse, ein Machtspiel, das zuletzt zwischen 1983 und 1987 in der Bundesrepublik im Zuge der Volkszählung mit einiger Vehemenz ausgetragen worden ist (Appel/Hummel 1987; Statistisches Bundesamt 1984). Diese vier Wahrheitsspiele, die oberflächlich betrachtet als Zahlenspiele daherkommen, sollen im Folgenden rekonstruiert werden. Dabei steht die Vergangenheit keineswegs als Vorläufer unserer Gegenwart, sondern vielmehr als ihr Spiegel. Moderne Staatlichkeit und statistisches (Nicht-)Wissen Zunächst will ich skizzieren, was mit der „Regierung der Bevölkerung“ und ihrer wissenstechnischen Voraussetzung, der (amtlichen) Statistik gemeint ist. Damit dürften auch der theoretische Hintergrund und die Perspektive klar werden. Die „Regierung“ bezeichnet weniger die Institution eines Kabinetts oder ähnliches, sondern die Regierungsrationalität oder auch „Regierungskunst“ (Gouvernementalität) (Foucault 2000). Die Statistik konstruiert das Objekt der modernen Regierung, die „Bevölkerung“ nämlich, und dient gleichzeitig als Instrument zur Erhebung von Wissen über sie. Dazu hat sie Verfahren entwickelt, „große Zahlen“ zu erheben, Mittelwerte zu berechnen, zu fraktionieren, Korrelationen und Kausalzusammenhänge zu ermitteln. Dieses Wissen schien und scheint äußerst tauglich, die Regierungskunst zu perfektionieren, sie effektiver und rationaler zu gestalten. Deshalb kam man in beinahe allen Staaten der Welt nicht umhin, die Statistik irgendwann möglichst zu bürokratisieren und zu professionalisieren.2 Das Spezifische und das spezifisch Moderne an der Gouvernementalität ist, folgen wir Michel Foucault, dass seit der Neuzeit nicht länger die „Regierung der Seelen“ oder die Führung eines territorialen Fürstentums im Mittelpunkt steht, sondern die „Regierung der Menschen“ (Lemke 1997: 157ff.). Auch die – vormoderne – „Pastoralmacht“ benötigte „Machtwissen“, allerdings bezogen auf das konkrete Individuum selbst und über die Praxis des Geständnisses nur vom „Hirten“ erhoben. Die Gewissens- und Kontrollinstanz war – scheinbar – außerweltlich angesiedelt, auch wenn die eigentlichen Führer der Seelen innerweltlich sehr real waren (Lemke 1997: 155f.). Von diesem epistemologischen Punkt ausgehend lässt sich die Entwicklung der Techniken der modernen individualisierenden Disziplinarmacht weiter verfolgen, die „Mikrophysik der Macht“, die das Geständnis, die Kontrolle und die Gewissensbildung immanierte und perfektionierte: die Schulen, die Kliniken, die Kasernen, die Gefängnisse, die Fabriken, schließlich die liberalistische „Führung des Selbst“. Als eine immanente und rationale Staatsräson die Pastoralmacht ablöste, oder eher: ergänzte, entwickelte sich aber zugleich ein weiterer, paralleler Zweig des Machtwissens heraus, nämlich das Wissen vom Staat selbst oder aber von den Menschen, die auf seinem Territorium leben. Im gewöhnlich gelehrten Kanon der Ideengeschichte findet man diesen wichtigen Schritt zwischen Niccolò Machiavelli und Jean Bodin vollzogen. Der Fürst, so 2

Dieses „irgendwann“ bezeichnet für die meisten Länder Europas und Nordamerikas das „lange“ neunzehnte Jahrhundert. Eine Übersicht für die deutschen Staaten findet sich in Friedrich Zahn (1925: 26; vgl. Hölder/Ehling 1991; Rothenbacher 1997). Die USA begannen bereits 1790 mit zehnjährlichen Volkszählungen, richteten aber erst Anfang des zwanzigsten Jahrhunderts ein ständiges Census-Bureau ein (vgl. Anderson 1991; Desrosières 1998: 195ff.).

Buchführung für Oikos und Etat

231

Machiavelli, müsse „die Gestaltung seines Landes kennenlernen und sehen, wie die Berge sich erheben, die Täler verlaufen, die Ebenen sich dehnen, wie die Flüsse und Sümpfe beschaffen sind und dabei die größte Sorgfalt aufwenden.“ Der Zweck war die rationelle Sicherung des eigenen und die effektive Eroberung fremden Territoriums (Machiavelli 1990: 75f.). In dieser Zeit, im frühen sechzehnten Jahrhundert, versorgten bereits Gesandte, die mancherorts „statista“ genannten wurden, ihre Fürsten- und Königshöfe mit Berichten über fremde Länder, ihre topografischen Gegebenheiten, die Anzahl ihrer Schiffe, ihrer Soldaten, über den Wohlstand ihrer Bewohner. Das Volk oder die Menschen, die Untertanen des Fürsten waren, kamen bei Machiavelli zwar vor, erschienen aber weniger als Regierungsobjekt und erst recht nicht als Objekt staatlicher Wissenserhebung. Anders war das schon etwa sechzig Jahre später in Jean Bodins „Sechs Büchern über den Staat“. Bodin bedauerte, dass die Volkszählungen nach dem Altertum vergessen worden seien. Dabei lägen die Vorteile der „Zensur“, die er als Zählung vom „Zensus“ (der Schätzung des Besitzes) unterschied, auf der Hand: „Kennt man Zahl, Alter und Status der Leute, dann weiß man, wie viele man zum Kriegsdienst verwenden kann, wie viele zu Hause bleiben, wie viele in Kolonien geschickt und wie viele für öffentliche Arbeiten wie Ausbesserungen und Befestigungen eingesetzt werden können.“ Bodin ging aber über den militärischen Nutzen des (statistischen) Wissens hinaus. Er schrieb weiter: „Einer der größten Vorteile der Zensur besteht darin, daß man erkennen kann, von welchem Stand und von welcher Herkunft jemand ist und welcher Tätigkeit er nachgeht. Dadurch kann man alle Wespen vertreiben, die den Honig der Bienen verschwenden, und die Vagabunden, Faulenzer, Diebe, Falschspieler und Kuppler verbannen, die unter guten Bürgern wie Wölfe unter Schafen leben. Man kann sie herausfinden und brandmarken. […] Nur der Zensor kann dieses Ungeziefer verjagen.“ (Bodin 1976: 100f.)

Zwei Aspekte der modernen Statistik schienen hier auf: Erstens die Idee, dass sich die zunächst homogen erscheinende Masse der Untertanen fraktionieren ließ, zum Beispiel nach Berufsgruppen. Und zweitens orientierte sich diese Fraktionierung an wirtschaftlichen und – damit verknüpft – moralischen Kriterien: auf der einen Seite diejenigen Untertanen, die Reichtum erzeugen und ihn vermehren („Nützlinge“), auf der anderen die, die ihn verschwenden („Ungeziefer“). Ohne überhaupt eine Volkszählung angestellt zu haben, hatte Bodin das vermutliche Ergebnis einer solchen formuliert (das hier dem Zweck implizit ist). Die beiden wesentlichen Elemente der modernen Regierungskunst – Moral und Ökonomie –, die der Merkantilismus entwickeln und der Liberalismus vervollkommnen sollte, sind ausgerechnet in jenem Passus, der Volkszählungen zum Thema hat, deutlich skizziert worden. Freilich waren Bodins Überlegungen über den Nutzen der Volkszählungen noch sehr früh- oder vormodern. Denn er ging davon aus, dass ihre Erkenntnisse sich für „policeyliche“ Interventionen3 eigneten – man könne die Wölfe brandmarken und verjagen. Objekt der staatlichen Erkenntnis waren die Individuen (in Form von Untertanen), die das „Volk“ bildeten; eine „Bevölkerung“ existierte noch nicht. Und eine ganz ähnliche Konzeption hatte die Policey in ihrer Blütezeit im achtzehnten Jahrhundert, etwa bei Justi, dem „Bevölkerung“ kein Objekt, sondern ein Staatsziel oder vielleicht auch eine Staatstätigkeit war: 3

Dieser vormoderne Polizeibegriff bezeichnet die mikrotechnologische Regelung aller Lebensbereiche. Um ihn von der heutigen „Polizei“ abzugrenzen, verwende ich eine häufig verwendete zeitgenössische Schreibweise.

232

Daniel Schmidt „Je mehr Unterthanen ein Staat hat, die das Land bauen, je mehr hat er Mitglieder des gemeinen Wesens, die zur Vergrößerung des Nahrungsstandes, und zur Vermehrung der Landesherrlichen Einkünfte das ihrige beytragen.“ (Justi 1756: §38)

Die beiden seit Machiavelli bestehenden „Stränge“ von Mikrophysik der Macht auf der einen und (einer noch rudimentären) Makrophysik auf der anderen kamen sich – was die Technologien des Wissens und der Intervention angeht – in der Policey noch einmal sehr nahe, um sich mit der Herausbildung einer komplexen modernen Staatlichkeit, der Temporalisierung des Denkens und der Selbst- wie Fremdentdeckung des humanen Individuums4 seit dem Ende des achtzehnten Jahrhunderts voneinander abzuscheiden und zu entfalten. Als der Kameralismus noch das Wissen um die Zahl der Einwohner eines Landes in den Dienst des Staates zu stellen bestrebt war, um sie unter jene Faktoren zu subsumieren, die als Indikatoren für den Ressourcen-Reichtum des fürstlichen Hauses galten, versuchte Rousseau gerade dieses Wissen gegen den Staat zu emanzipieren. Wenn er im „Gesellschaftsvertrag“ die Statistiker aufrief zu zählen, zu messen und zu vergleichen, dann wandte er sich damit nicht an Staatsbeamte, sondern an Gelehrte. Wissensobjekt war hierbei weniger das Volk sondern die Regierung. Und die gute Regierung erkenne man eben daran, dass die Menschen sich vermehrten: „Ist alles übrige gleich, dann ist diejenige Regierung unfehlbar die bessere, unter der sich die Bürger ohne fremde Mittel, ohne Einbürgerungen und Kolonien besser ausbreiten und vermehren: diejenige, unter der ein Volk weniger wird und abnimmt, ist die schlechtere. Statistiker, jetzt seid ihr daran: zählt, meßt und vergleicht.“ (Rousseau 1986: 63f.)

Außerdem müsse die Stärke einer Regierung in einer Gesellschaft, in der das Volk souverän herrsche, an der Volkszahl orientiert sein; denn je größer das Volk, desto geringer die Souveränität, die der Einzelne besitze. Rousseau hat die Einwohnerzahl politisiert, einen Bevölkerungsbegriff hatte er noch nicht. Indem er aber ein „Volk“ proklamierte, das sich selbst souverän ist, konnte er potenziell ein Wissen erzeugen, das eben dieses „Volk“ in einem nächsten Schritt zur „Bevölkerung“ objektivierte. Und wann immer dieses Wissen staatlich institutionalisiert worden ist, wurde es zum Staatswissen, das öffentlich-politisch so gehandhabt werden konnte, dass die ihm inhärente obstruktive, nämlich bürgerlichkontrollierende Dimension möglichst ausgeblendet blieb. Insofern handelten die Staaten sehr rational, als sie die Statistik bürokratisierten. Die Professionalisierung und Expansion der statistischen Wissenserhebung ging damit einher. Die politische Notwendigkeit, eine amtliche Statistik zu betreiben wurde von dem administrativen/gouvernementalistischen Erfordernis begleitet. Waren es am Anfang einfache technische Fragen, die nur unter Zuhilfenahme statistischer Erkenntnisse beantwortet werden konnten, setzte sich nach und nach die Idee durch, dass die interventionistischen Probleme, vor die der moderne Staat gestellt wurde und vor die er sich mitunter selbst stellte, eine Eigenlogik besaßen, die zur Lösung dieser Aufgaben ein statistisch abgesichertes 4

Der „Mensch“ tritt überhaupt erst mit der Moderne in das (westliche) Denken ein, wird zum Subjekt wie Objekt wissenschaftlicher und gouvernementaler Betätigung, behauptet zumindest Foucault (1974: 462): „[…] der Mensch ist nicht das älteste und auch nicht das konstanteste Problem, das sich dem menschlichen Wissen gestellt hat. Wenn man eine ziemlich kurze Zeitspanne und einen begrenzten geographischen Ausschnitt herausnimmt – die europäische Kultur seit dem sechzehnten Jahrhundert –, kann man sicher sein, daß der Mensch eine junge Erfindung ist.“

Buchführung für Oikos und Etat

233

Wissen erforderte. Die Industrialisierung (im weiteren Sinne) gebar den Staat, wie dieser jene förderte, und erlegte ihm unablässig neue Interventionspflichten auf. Sie tat das auch über statistische Erkenntnis, zum Beispiel über den Unfall (vgl. Ewald 1993), und der Staat (als Institution) konnte diesen komplexen Erfordernissen nur noch mit einer professionalisierten Statistik zu begegnen versuchen. Schließlich verräumlichte man die bloße Zifferntabelle, oder sie wurde als Tableau gesprengt, indem man die Zeitdimension in sie aufnahm – das ist eine Frage der Ordnung statistischen Wissens. Mit Malthus rückte nicht nur die Ökonomie ins Zentrum der gouvernementalen Agenda, sondern auch die Beziehung zwischen dem Gestern, Heute und Morgen. Die malthusische Prognostik hat den merkantilistischen/kameralistischen Bevölkerungsbegriff desavouiert, was ihn für die wissenschaftlichen und staatlichen Objektivierungsstrategien erst verfügbar machte.5 Man konnte sich von der absoluten Kopfzahl lösen und die Zusammensetzung der „Bevölkerung“ untersuchen, Wechselwirkungen, Abhängigkeiten und sogenannte Gesetzmäßigkeiten herausfinden. Das Amalgam war frei für eine detaillierte Analyse, die jedoch als Referenz immer das Ganze im Auge hatte. Verfolgen wir unsere beiden Stränge von Mikro- und Makrophysik der Macht weiter, werden wir bemerken, dass die einzelnen Technologien sich im neunzehnten Jahrhundert diskursiv bereits so fest etabliert hatten und expandiert waren, dass sie in Grenzbereichen wieder aufeinander stießen: Krankheit wurde zu einem Thema sowohl zwischen Arzt und Patient, als auch zwischen Regierung und Bevölkerung; der Mörder und die unehelich Gebärende wurden ganz individuell und konkret von der Polizei verfolgt, gerichtlich verurteilt und bestraft, aber die Zahl der Verbrechen und der unehelichen Geburten galten ebenso als Indikatoren für den moralischen (zivilisatorischen, kulturellen) Zustand der Bevölkerung; schließlich wurde der proletarische Familienvater dazu erzogen, seinen Lohn nicht in der Gastwirtschaft zu vertrinken, sondern in die Sparkasse zu schaffen. Und als diese Appelle nicht im nötigen Umfange zu fruchten schienen – was nur die Statistik belegen konnte –, erfand man die obligatorische Sozialversicherung. Modellhaft zusammengefasst stellt sich das, was moderne Regierung, was das Verhältnis von Wissen und Intervention ausmacht, so dar: Auf der einen Seite finden wir die moralische Regierung des Einzelnen, deren Interventionsstrategien die Erziehung, die individuelle Hygiene, das Besserungsgefängnis, das Militär und so weiter bereit stellen, kurz: jene diskursiven Formationen, die Foucault in „Überwachen und Strafen“ beschrieben hat. Die Wissenserhebung besorgen die Polizei- und Gerichtsakten, die Klassenbücher, Prüfungen, der ärztliche Blick und so weiter (Foucault 1994). Auf der anderen Seite bildete sich die ökonomische Regierung der Bevölkerung heraus, die Intervention über staatliche Wohlfahrtseinrichtungen, Sozialversicherungen, öffentliche Hygiene und Gesetze zur Regulierung der Reproduktionsaktivitäten (Foucault 2004). Diese Interventionen zielen nicht mehr direkt auf das Individuum, sondern auf die Bevölkerung und ihre Fraktionen, weil die Prob5

Malthus verwendete statistische Daten zur Prognose einer Bevölkerungsentwicklung, er hat also deskriptive Daten in die Zukunft fortgeschrieben. Und zwar sagte er voraus, dass sich bei geometrischer Zunahme der Bevölkerung eine nur arithmetische Progression der zur Verfügung stehenden Nahrungsmittel einstellen würde. Dies bedeutete, dass es in absehbarer Zeit zu Hungersnöten, Seuchen und Kriegen käme, wodurch die Bevölkerung dezimiert würde. Zugleich fand er heraus, dass die „Armen“ sich stärker vermehrten als die wohlhabenden Bevölkerungsschichten, und er plädierte deshalb – offenbar mit Erfolg – für eine Beschneidung der Armenfürsorge. (Malthus 1807) Anhand von Enzyklopädie-Artikeln lässt sich rekonstruieren, wie nach der sogenannten „malthusianischen Wende“ der Bevölkerungsbegriff ganz neu konnotiert wurde (vgl. Schmidt 2005: 60ff.; Khalatbari 1991).

234

Daniel Schmidt

leme, die gelöst werden sollen, nur als Kollektivprobleme wahrnehmbar sind. Als Institutionen der Wissenserhebung dienen die Statistik und alle Wissenschaftsdisziplinen, die bevölkerungsstatistisch arbeiten: Staatswissenschaften, Volkswirtschaftslehre, später Sozialwissenschaften. Diese beiden Dimensionen, die Mikrotechnologie der Disziplinierung des Einzelnen (beziehungsweise der Familie) und die Makrotechnologie der Regierung der Bevölkerung (beziehungsweise ihrer Teile), überschneiden sich in den Tabellen des Haushaltsbuchs. Die diskursive Kreuzung oder Überlagerung wurde obendrein Carl Landolt, einem inzwischen vergessenen Pionier der Haushaltsforschung, mit der „Sozialen Frage“ verknüpft: „Die Lebenslage des arbeitenden Volkes wird nicht, wie bisher, der Mehrzahl der Menschen eine terra incognita bleiben. Mit der Schärfe des statistischen Materials wird nachgewiesen, was gerecht und was ungerecht ist an dem Klagen der arbeitenden Klasse über ihre Lage. Es wird sich dann zeigen, ob sie und die Gewohnheiten ihrer Angehörigen selbst die Schuld tragen an den herrschenden Missständen oder ob diese von aussen einwirkenden, allgemeinen gesellschaftlichen Zuständen herrühren. Hier liegt der Schwerpunkt unserer Forschungen! Wissen wir – d.h. können wir einmal beweisen – wo die Ursachen der sozialen Mängel liegen, dann sei es unsere höchste Pflicht, sie zu beseitigen – wenn es notwendig erscheint durch tiefgehende soziale Veränderungen.“ (Landolt 1894: 6)

Das Haushaltsdefizit der Arbeiterfamilien Das Problem, das sich mit der Industrialisierung einstellte, kann man beispielsweise so umreißen: Erstens drückten maschinenbetriebene Etablissements die Preise der Handwerker und der patriarchalisch organisierten heimarbeitenden Gewerke. Letzteres betraf Mitte des Jahrhunderts vor allem die Textilproduktion. Zweitens kam in den deutschen Staaten die „Konkurrenz fremdländischer Waren“ hinzu, gemeint waren Produkte aus anderen Zollvereinsstaaten. Dies führte, vorzugsweise im ländlichen Raum, zum Zusammenbruch etablierter Erwerbssyteme und zwang die Betroffenen zur Abwanderung in die Städte. Dort jedoch vermehrte sich die Arbeiterschaft bald so stark, dass die Löhne noch tiefer herabgedrückt werden konnten. Vom „Lumpenproletariat“ abgesehen hatten die Menschen zwar Arbeit, lebten aber unter erbärmlichsten Bedingungen. Oben zitierter Landolt beschrieb eine „gut situierte“ St. Gallener Arbeiterfamilie. Der Vater entwarf Designs für eine Stickereifabrik; die chronisch kranke Mutter arbeitete nur gelegentlich außerhalb des Haushalts. Die Wohnung hatte drei kleine Zimmer, von denen eines beheizt werden konnte. In allen Räumen gab es winzige Fenster, die aber zum Lüften kaum geeignet waren, weil sie auf einen dunklen Hof führten, der vom Gestank der Ausdünstungen einer gegenüber liegenden Metzgerei erfüllt war. Zwei der Kinder teilten sich ein Bett; das dritte schlief in einem anderen Bett, welches zur Hälfte an einen familienfremden „Schlafgänger“ vermietet wurde. Was hier noch als „gut situiert“ klassifiziert wurde, war – nach unseren Vorstellungen jedenfalls – nicht weniger als existenzielle Not. Angesichts dessen fällt es schwer nachzuvollziehen, wie es „notleidenden Arbeiterfamilien“ ging. Über die Ursachen des Pauperismus war man unterschiedlicher Meinung. Die strukturalistische Hypothese konnte beispielsweise so gelesen werden:

Buchführung für Oikos und Etat

235

„So ist dann der Pauperismus in der That eine nothwendige Folge des Industriesystems. Hierzu bemerken wir aber auch gleich noch, daß die logische Consequenz, mit welcher der Pauperismus aus der herrschenden Ordnung im Industriestaate hervorgeht, die Mutter der socialistischen und communistischen Systeme zur Aenderung dieser fatalen Zustände ist.“ (Engel 1856: 159)

Diese Erkenntnis stammt keinesfalls von einem Kommunisten, sondern von einem ausgewiesenen Liberalen, der zunächst dem sächsischen (1850-1858), später dem preußischen Statistischen Bureau (1860-1882) vorstand. Ernst Engel war einer der bedeutendsten amtlichen Statistiker in Deutschland und Mitbegründer des einflussreichen „Vereins für Socialpolitik“, der unter anderem gewissermaßen als „Think-tank“ der Bismarckschen Sozialgesetzgebung agierte (Strecker/Wiegert 1997). War also das Industriesystem Schuld am Pauperismus, musste die Konsequenz lauten, dasselbe entweder radikal zu verändern oder wenigstens staatlicherseits regulierend einzugreifen. Allerdings fehlte für die zweite Variante eine profunde Wissensbasis. Man musste zum Beispiel in Erfahrung bringen, wie schnell die maschinengestützte Industrie in einem Land überhaupt wuchs und welche Branchen davon am stärksten betroffen waren; das Mittel, dies herauszufinden, war die Gewerbestatistik, wie sie 1843 im Deutschen Zollverein verabredet worden war.6 Indes erwiesen sich diese Statistiken aus verschiedenen Gründen als wenig geeignet, das strukturelle Defizit des Industriesystems zu erklären. Ein anderer Ansatz wurde – abgesehen von zahlreichen privatstatistischen Versuchen – in Belgien und Frankreich ausprobiert und auf dem ersten Internationalen Statistischen Congress, 1853 in Brüssel, vorgestellt: die Erhebung der „Budgets der arbeitenden Klassen“. Leider waren die beiden großen Statistiken von Ducpetiaux und Le Play nicht rechtzeitig fertig geworden; aber nach einigen Debatten einigten sich die Delegierten darauf, die Forschungen systematisch auszuweiten und dabei ein einheitliches Schema zu verwenden. Die zu erhebenden Einnahmen umfassten die Löhne der Eltern und der Kinder sowie andere Hilfsquellen, zum Beispiel der „Ertrag der Gartens oder Gütchens“, Einnahmen aus Vermietung und Verpachtung, Zinsen, Renten. Die Aufstellung der Ausgaben war umfangreicher. Es kam dabei darauf an, wenn nicht alle Möglichkeiten, so doch jene zu erfassen, die von besonderem nationalökonomischen Interesse sind. Also: 1. „Ausgaben für das physische und materielle Bedürfnis“, wie Nahrung, Wohnung, Kleidung, Heizung etc.; 2. „Ausgaben für das religiöse, moralische und intellectuelle Bedürfnis“, wie beispielsweise Schule, Bücher, wohltätige Beiträge und Einlagen in die Sparkasse; und schließlich 3. „Luxusausgaben oder die an Mangel aus Vorsicht entspringen“, wozu selbstverständlich gehörten: „Besuch der Kaffeehäuser und Schenken, und Genuss gegohrener und spirituöser Getränke“, des Weiteren Tabak, Spielverluste, Schmuck, Feste und Ausgaben für Depositen im Leihhaus. Damit glaubte man, die Bedürfnisstruktur einer europäischen Arbeiterfamilie im neunzehnten Jahrhundert erfasst zu haben. Diese Musterfamilie wurde aus „Vater, Mutter und 4 Kindern von beziehungsweise 16, 12, 6 und 2 Jahren bestehend“ gedacht und sollte in drei Unterkategorien klassifiziert werden, nämlich 1. als „Familie nothleidender Arbeiter, welche zum Theil der öffentlichen Unterstützung anheimfällt“, 2. als „Familie wenig bemittelter Arbeiter, die jedoch keine öffentliche Unterstützung geniesst“ und 3. als „Familie wohlhabender Arbeiter in völlig unabhängiger Lage“ (Fallati 1853: 676ff.). Hatte man das 6

Verhandlungen der VI. General-Conferenz in Zollvereins-Angelegenheiten, 1843; §46: Aufstellung einer Gewerbestatistik, S. 117ff.

236

Daniel Schmidt

Budget dieser durchschnittlichen Arbeiterfamilien in einem Kreis, Bezirk oder Land bestimmt, ließen sich daraus dezidierte Interventionserfordernisse ableiten. Das war der Sinn des Ganzen. Indes konstatierte Engel später: „Es ist uns nicht bekannt, dass der angeführte Beschluss des Congresses ein anderes Schicksal gehabt hätte, wie die meisten übrigen Congressbeschlüsse, nämlich todter Buchstabe geblieben zu sein“ (Engel 1882: 38). Nun steckte aber in der Idee, die Einnahme- und Ausgabe-Budgets der Arbeiterfamilien zu untersuchen, die zweite Hypothese, jene nämlich, die besagt, dass die Arbeiterfamilien durch eine schlechte private Haushaltsführung ihr Scherflein beitrügen zur Not, der sie ausgesetzt sind. Zur Ungewissheit der Einnahmen geselle sich oft eine ökonomische Unordnung im Hause, so Lorenz von Stein, der sehr eindrücklich die Kausalitätsketten einer Abstiegskarriere schilderte: „Es ist nicht bloß erklärlich, es ist sogar die nothwendige Folge jener Verhältnisse, daß gerade in diesen kleinsten Wirthschaften, wo nur die strengste Ordnung zu einem gedeihlichen Resultate führen kann, rasch die absoluteste Unordnung einreißt; und ist sie einmal da, so gebiert die Unmöglichkeit ihr zu entgehen, in allen Mitgliedern der Familie endlich die absolute Gleichgültigkeit gegen alle ihre Güter, welche den Menschen eben durch die Familie werden sollen. Der erste, natürlichste Damm, der den Menschen vom Versinken ins Gemeine und Thierische zurückhält, ist gebrochen. Der Schmutz der Wohnung, die Unreinlichkeit der Kleidung fangen an, den Arbeiter zu begleiten; Gedanken und Worte verfallen der Rohheit; alles Edle wird dem Heerde der halb aufgelösten Familie unbekannt; die zarte Scham flieht das Weib, die verständige Beherrschung den Mann; neben dem Hunger kehrt der Trunk in die unglückliche Hütte ein, und mit dem innigsten Schmerze wendet der Genius der Liebe sein Haupt ab, wo endlich jeder Gedanke an das Bessere zu wildem Hasse, jeder Glaube an die Gottheit zu einem finstern Fluche gegen das höchste Wesen wird. Dann ist der Kreis geschlossen; auf solchem Boden wächst keine gedeihliche Frucht mehr; die Noth und die Armut sind nicht bloß heimisch geworden, sondern sie gebähren sich selber wieder in der Auflösung der Familie. Und auf diesem Punkte ist es, wo der Begriff des Pauperismus seinen vollen Inhalt erhält.“ (Stein 1850: Bd. 2, 82f.)

Man sieht, wie das ökonomische Problem mit einem moralischen verknüpft wird. Wenn nun aber die „Arbeiterfrage“ eine moralische Dimension hatte, dann ließe sie sich – folgen wir der liberalistischen Logik – mittels Erziehung wenigstens teilweise lösen. Der Publizist August Lammers etwa empfahl, durch die Einrichtung von Jugend-Sparkassen oder einer Groschenkasse in der Schule so etwas wie eine Spar-Mentalität in die Arbeiterfamilien zu tragen: „Der Mann, der einmal dem Trunke, die Frau, welche sich der Lüderlichkeit ergeben hat, sind schwer mehr zu curiren. Aber in der Seele des Kindes sind alle Gelenke und Sehnen, wenn man so sagen darf, noch weich und geschmeidig; sie nimmt noch mit einer gewissen entgegenkommenden Empfänglichkeit Eindrücke für das Leben an. Daher muss es gewöhnt werden, Selbstüberwindung zu üben. Der Reiz der Capital-Bildung aus kleinen aber beharrlich fortgesetzten Ersparnissen muss gegen die Lockungen flüchtigen und verderblichen Genusses in’s Spiel gebracht werden. Ein so geleitetes Kind wird selbst dann, wenn seine reifere Jugend übermächtigen Verführungen ausgesetzt sein sollte, sich eher zur Sparsamkeit und Mässigkeit zurückfinden, als wenn es das innere Glück der Selbstbeherrschung und deren machtverleihende äussere Frucht nie kennen gelernt hätte. Von den Kindern aus hat sich die Sparsamkeit, gleich anderen guten Uebungen und Gewohnheiten, schon in zahlreichen beobachteten Fällen auf die Eltern übertragen.“ (Lammers 1881: 26f.; vgl. Schmidt 2003)

Buchführung für Oikos und Etat

237

Das Kind fungiert hier gewissermaßen als Trojanisches Pferd oder – paradoxerweise – als Erzieher seiner Eltern. Mit seiner Hilfe ließe sich – so die Hoffnung – die Schwelle des Arbeiter-Haushalts überwinden, um die Grundlagen ökonomischer Selbstregulierung einzuschleusen. Kindererziehung war und ist eben auch ökonomistische Erziehung. Nationalökonomie der Frau Ein anderer Ansatz zur Öffnung des privaten Oikos’ führte – ich habe es oben schon angedeutet – über das Haushaltsbuch. Denn es bietet den Vorteil, sowohl erzieherisch zu wirken als auch, zumindest potenziell, Dritten die ökonomischen Verhältnisse des Haushalts offenbaren zu können, den Schleier lüften zu können, der die Konsumgewohnheiten der Arbeiterfamilien verdeckte. Und es tritt ein neuer Adressat der Erziehungsbemühungen auf, vielmehr eine Adressatin: die Hausfrau. Stein bemühte sich in einer kleinen Schrift das haushalterische Tun der Frau in sein System der Nationalökonomie einzugliedern – und damit zugleich diese Tätigkeiten zu ökonomisieren. „Die Frau auf dem Gebiete der Nationalökonomie“ sollte Frauen direkt ansprechen; das implizieren zumindest das Oktavformat und eine auffallend poetische Sprache. Dabei wurden jedoch nicht allein Ausgaben und Einnahmen der Haushaltung nach Wirtschaftskriterien indiziert, sondern auch die formalisierte partnerschaftliche Beziehung selbst: „Die Ehe, dieses innigste äußere und innere Band zwischen Mann und Frau das das ganze Leben umfaßt, sollte es nicht auch jenes Leben, das wir das Güterleben in Production, Consumtion und Reproduction genannt haben, mit umfassen?“ Das war freilich eine rhetorische Frage, denn die Antwort, wie man sich dies vorzustellen habe, folgte auf dem Fuße; zwischen den Gatten wurde eine strikte Arbeitsteilung eingeführt: „Der Mann wird die Erzeugung der Güter, die Frau die Verzehrung, beide zusammen aber die Wiedererzeugung zu ihrer Lebensaufgabe haben. Oder, wenn Sie es vielleicht schon jetzt anders und näher liegend ausgedrückt haben wollen, der Mann wird für den Werth, die Frau für den Genuß, beide aber werden gemeinsam für die Capitalbildung, die Bildung des Vermögens aus dem richtigen Verhältniß des Genusses zur Erzeugung der Werthe bestimmt sein.“ (Stein 1876: 24)

Weiter hieß es, der Wert der Frau für den Einzelnen wie für das Ganze liege in jenem Maße, „in welchem die Frau in der Verzehrung arbeitend thätig ist“ (Stein 1876: 54). Darin liege schließlich die volkswirtschaftlich entscheidende Kunst der Hausfrau: nicht nur die Ordnung im Hause zu erhalten, nicht nur sparsam mit dem Haushaltsgeld umzugehen, sondern diesen Umgang auch zu messen, „damit jeder Tag seine Rechnung habe und jede Tagesrechnung nicht in verderblichem Widerstreit mit der Jahresrechnung stehe!“ (Stein 1876: 70); denn, so Stein weiter: „Die Ziffer ist unerbittlich; sie legt ihre kalte Hand auf Glück und Liebe, und die erste Thräne fällt auf die erste – unbezahlte Rechnung.“ (Stein 1876: 58) – Wie sich dieser Abstiegs-Kurs fortsetzen kann, haben wir ja schon gesehen. Der ökonomische Wert der Frau entfaltete sich, Stein zufolge, jedoch nicht nur innerhalb des Hauses. Ihr Tun sollte auch eine Außenwirkung haben, vermittelt über den Mann, der in ihr eine Quelle der Rekreation finden könne, um am nächsten Tag gekräftigt in den Erwerbsalltag starten zu können:

238

Daniel Schmidt „An der Schwelle dieses Hauses aber steht die Frau. Ich weiß wohl, was ich dort von ihr erwarte; ich weiß, daß ihre weiche Hand mir die Stirne glättet und ihre freundlichen Worte wie frische Thautropfen auf die Mühen des Tages fallen. […] Ich weiß, daß ich hier von anderen Dingen höre und mich an anderen freue als draußen in der Welt, und wenn der starke, der arbeitsmüde Mann und sein Erfolg zum Stolz des Hauses wird, so darf ich wohl sagen, daß die freundliche Frau der Schmuck desselben ist.“ (Stein 1876: 77)

Möglicherweise steht hinter diesem Bild die Idee vom Oikos als einem abgeschlossenen Kosmos, der von der öffentlichen Welt und von der Welt der Staatsgeschäfte getrennt ist. So ähnlich jedenfalls ist die pseudo-aristotelische „Oeconomica“ in die deutsche Bürgerlichkeit übersetzt worden, als „Hauswirtschaft“. Im Innern des Hauses würde die Frau über die Knechte und Sklaven herrschen und jene Güter, die der Mann hereinbringt, verteilen und bewirtschaften (Aristoteles 1947). Bei Stein liest sich das so: „Dies Gebiet ist das Haus, das eigentliche Reich der Frau, in dem sie die Königin ist.“ (Stein 1876: 73) An dieser Stelle schloss Ernst Engel an, indem er Steins Idee vom volkswirtschaftlichen Wert der Hausfrau aufgriff. Allerdings wurde die ganze Sache hier etwas praktischer. Engel griff die Kategorien der Einnahme- und Ausgabebudgets des Statistischen Congresses von 1853 auf und modifizierte sie, das heißt vor allem, er vermehrte sie beträchtlich, weil jene Einteilung „nur für Familien und Haushaltungen des Arbeiterstandes, für die sie auch nur entworfen und aufgestellt ist, passt.“ (Engel 1882: 10) Außerdem seien die Quellen der Einnahmen und die Zwecke der Ausgaben zu wenig differenziert gewesen. Nunmehr schlug er für die Einnahmen fünf Oberpunkte mit insgesamt 21 Unterpunkten vor; die 87 vorstellbaren Varianten, sein Geld auszugeben, subsumierte er unter zwölf übergeordnete Kategorien.7 Dieses Schema sollte einer geordneten Buchhaltung in einem Privathaushalt zugrunde liegen. Als Muster dienten a) „der Haushalt der politischen Gemeinden, wie Reich, Staat, Gemeinde“ und b) „der Haushalt der Wirthschafts- oder Erwerbsgemeinden oder ähnlicher Einzelunternehmungen“. Zur Ökonomisierung der Geschlechterrollen gesellte sich das Management der Haushaltung. Dazu gehörte auch, dass es mit einer bloßen Aufzeichnung der Einnahmen und Ausgaben nach der vorgeschlagenen Einteilung nicht getan ist: „Die Methoden der Buchhaltung […] für die politischen und Wirthschaftsgemeinden […] lassen sich auch nicht ohne Modificationen in der Privat-Haushaltung anwenden; wohl aber lässt sich daraus Vieles entnehmen, was der Führung eines geordneten Haushalts überaus dienlich ist. Dahin gehört vor Allem der Voranschlag der Einnahmen und Ausgaben (Budget), die regelmässige chronologische Verzeichnung der Einnahmen mit Angabe ihrer Quellen und der Ausgaben mit Angabe ihrer Zwecke, die systematische Darstellung der Einnahmen nach ihren Quellen und der Ausgaben mit ihren Zwecken mit Vermerk der Zeit der einen und der anderen (Buchung auf Conten), der Jahresabschluss, nebst Aufnahme einer Inventur und Aufstellung eines Inventarverzeichnisses am Schlusse jedes Jahres und der Vergleich mit denen des Vorjahres.“ (Engel 1882: 17f.)8 7

8

I. Nahrung; II. Kleidung; III. Wohnung; IV. Heizung und Beleuchtung; V. Gesundheitspflege; VI. Geistespflege, Erziehung, Unterricht, geistigen Verkehr; VII. Seelsorge, Gottesdienst; VIII. Rechtsschutz, öffentliche Sicherheit; IX. Vorsorge und Fürsorge; X. Erholung, Erquickung, Vergnügen, Reisen; XI. Hülfeleistung im Haushalte; XII. Allgemeine und unbestimmte Ausgaben. Allerdings: „Vor Allem sind die Frauen mit sogenannter ‚doppelter Buchhaltung’ gänzlich zu verschonen. Ist dieselbe im grösseren Geschäftsleben zwar unerlässlich, so ist im bürgerlichen Leben die Auflösung jedes Postens in einen Debet- und Creditposten doch eine Complication, die erfahrungsgemäss selbst die vom

Buchführung für Oikos und Etat

239

Dass systematische und chronologische Aufzeichnungen parallel geführt werden sollten, diente vor allem der Kontrolle. Neben den Jahresabschlüssen empfahl Engel noch Vierteljahresabschlüsse, „da sie eher erkennen lassen, ob etwa das Haushalt-Schifflein einen verderblichen Curs eingeschlagen hat, und dass sie mithin auch eher die Möglichkeit darbieten, den Curs zu ändern.“ (Engel 1882: 23) Eine weitere Idee war, die einzelnen Posten am Ende des Jahres durch die Zahl der Haushaltsangehörigen zu teilen. Also: Wieviel Geld wurde pro Kopf für Fleisch, Brot, Kleidung und so weiter ausgegeben? – Eine private Statistik der eigenen Verhältnisse, an die sich das Problem der „Normalkonsumtion“ anschloss. Denn Ernst Engel vernahm „im Geiste die Stimmen vieler Hausfrauen, welche sagen: Ja es ist ganz schön, dass wir darüber belehrt sind, wie die Haushalt-Rechnungsbücher eingerichtet sein sollen, aber wo ist der Aufschluss darüber, wie viel in der einzelnen Familie bei diesem oder jenem Einkommen für Nahrung, Kleidung, Wohnung u.s.w. ausgegeben werden darf, um sowohl mit den Einnahmen im Einklang zu bleiben, als auch die höheren Zwecke der Familie zu erfüllen?“ (Engel 1882: 30) Die „höheren Zwecke der Familie“ mussten an höherer Stelle geklärt werden, nämlich volkswirtschaftlich. Es galt herauszufinden, was wieviel normalerweise, das heißt: im Durchschnitt einer großen Zahl von Haushalten (gestaffelt nach Schichten, versteht sich) konsumiert wurde. Dieser Mittelwert war in Engels Verständnis ein Idealwert. Das Rechnungsbuch als Fragebogen Wir haben es hier mit einer ziemlich subtilen Taktik zu tun: Auf der Mikro-Ebene diente das Rechnungsbuch der Selbstkontrolle, der Disziplinierung und Regulierung. Für die Makro-Ebene der wissenschaftlichen und staatlichen Erkenntis stellten diese Haushaltsbücher eine potenzielle Wissensquelle dar, als fortlaufende Fragebögen. Damit ließen sich gleich drei Probleme der amtlichen Statistik lösen: Das Problem der Stichtagserfassung: In der Regel wurden totale Volkszählungen an einem einzelnen Tag eines Jahres durchgeführt; sie stellten gewissermaßen eine Inventur dar. Konsumverhalten und ähnliche dynamische und saisonal schwankende Erscheinungen der Bevölkerung ließen sich damit nur sehr unzureichend erfassen. Das Rechnungsbuch schien geeignet, Schlözers Diktum von der Statistik als „stillstehender Geschichte“9 – zumindest was die Technik der Datenerhebung angeht – aufzulösen. Das Haushaltsbuch sollte eine Art „Logbuch“ sein. Das Problem der Unrichtigkeit der Angaben: Ein Abgeordneter der sächsischen Ständeversammlung beklagte 1858, die Statistik „plagt die Leute mit ihren in Alles sich einmischenden Fragen und mit der Beantwortung ihrer Tabellen, sie wird aber auch gründlich belogen!“10 In Engels Logik war es schon anachronistisch, wenn man den amtlichen Statistikern falsche Auskunft gab, weil die Regierung nur dann richtig, soll heißen: im Sinne des Gemeinwohls, regieren konnte, wenn sie korrektes Wissen hatte. Wenn das Haushaltsbuch aber in erster Linie Quelle des Selbstregierungswissens war, dann könnte man davon aus-

9 10

besten Willen beseelten Frauen sehr bald dahin bringt, die Buchhaltung ganz auf sich beruhen zu lassen.“ (Engel 1882: 20) „Geschichte ist fortlaufende Statistik, und Statistik eine stillstehende Geschichte; nun so lasse man sie stillstehen, wo man will und so lange man will.“ (August Ludwig Schlözer, zit. nach John 1884: 108f.) Mittheilungen über die Verhandlungen des Ordentlichen Landtags im Königreich Sachsen, 1. Kammer; Dresden 1858; S. 888.

240

Daniel Schmidt

gehen, dass auch die daraus zu ziehenden statistischen Werte wahr waren. Außerdem fand die Unrichtigkeit der Angaben ihren Grund offensichtlich auch in dem Unwissen über die eigenen ökonomischen Verhältnisse. Das Problem der Freiwilligkeit: Jede amtliche Statistik muss die Bürger entweder zwingen oder davon überzeugen, über manchmal sehr persönliche Verhältnisse Auskunft zu geben. Erschwerend kommt hinzu, dass es sich bei einer persönlichen Befragung (Zählersystem) keineswegs um ein anonymes Verfahren handelt, beziehungsweise dass es im neunzehnten Jahrhundert üblich war, die vollen Namen aller Haushaltsangehörigen in den Fragebögen zu verzeichnen. Engels Plan dagegen sah vor, die Haushaltsbücher „selbstverständlich entweder ohne Namen und nur unter Chiffre, oder unter der Bedingung unverbrüchlicher Diskretion“ an eine „Centralstelle“ einsenden zu lassen. Diese Stelle sollte noch nicht einmal staatlich organisiert sein, sondern „aus freier Vereinsthätigkeit hervorgehen (…), weil Niemand zur Führung von Haushalt-Rechnungsbüchern und zu Weggabe derselben auf kurze Zeit an eine centrale Verarbeitungsstelle gezwungen werden kann“ (Engel 1882: 43f.). Der Zweck dieser statistischen Auswertung sollte auch ein vorrangig wissenschaftlicher und kein genuin staatlicher sein. Das gewonnene Wissen sollte den Wissensgebern unmittelbar wieder zugute kommen, um etwa zu lernen, „was Luxus ist“, nämlich: „die Entfernung oder Abweichung vom Mittelmasse“: „Dieses Mittelmass nun, für bestimmte Einkommensklassen in bestimmten Theilen des Staates zu einem gleichsam naturwissenschaftlichen Masse zu erheben […]: Das ist sicher eine schöne und zugleich eine echt wissenschaftliche Aufgabe.“ (Engel 1882: 46f.)

Darüber hinaus aber sollte der Nutzen nicht nur ein persönlicher sein. Die „Frauen und Jungfrauen, indem sie an der Führung des Haushalt-Rechnungsbuches theilnehmen, und die Männer, die bei dieser Buchführung die Frauen mit Rath und That unterstützen“, stünden, so meinte Engel, „im Dienste einer wahrhaft grossen Sache. Das kleine, unscheinbare, gut geführte Rechnungsbuch […] erhebt sich zu einem Instrument zur Messung und Bestimmung des socialen Klima’s.“ (Engel 1882: 43) Es war nun auch nicht mehr von entscheidender Bedeutung, dass die Angaben aus allen Haushalten eines Landes gesammelt würden. Es reichten „jährlich tausend oder einige tausend gut geführter Rechnungsbücher verschieden situirter, aber gleichsam typischer Haushaltungen aus allen Theilen des Landes“ vollkommen aus, um Normalkonsumtion und Volkswohlstand zu messen. Eine repräsentative Stichprobe also. Das Verfahren, Haushaltsbücher als Fragebögen zu nutzen, hat sich inzwischen sowohl in der amtlichen Statistik als auch in der soziologischen und volkswirtschaftlichen Forschung etabliert; diese Idee blieb kein „todter Buchstabe“. Noch immer liegen diesen Erhebungen durchökonomisierte Haushaltsmodelle zugrunde. Das liest sich dann etwa so: „Die Haushaltsaktivitäten erfolgen innerhalb eines Bedingungsrahmens, der durch die natürlichen, technologischen, ökonomischen sowie institutionellen Bedingungen des sozialen Rahmens bestimmt ist. Innerhalb dieses Rahmens setzt der Haushalt seine humanen, materiellen und sozialen Ressourcen ein, um für seine Mitglieder materielle und immaterielle Leistungen bereitzustellen. In Abhängigkeit von der Ausstattung des Haushalts und der Allokation der Ressourcen auf die verschiedenen Aktivitäten ergeben sich dann Outputs, die letztlich die Lebenslage der Haushaltsmitglieder bestimmen.“ (Galler/Ott 1993: 19; Gräbe 1993)

Buchführung für Oikos und Etat

241

Hier geht es um soziologische und sozialökonomische Haushaltsforschung. Das amtlichstatistische Instrument, um Einblick in die Privathaushalte zu gewinnen, ist in der Bundesrepublik Deutschland die im fünfjährigen Abstand stattfindende Einkommens- und Verbrauchsstichprobe (EVS). Die Daten werden von den Statistischen Landesämtern erhoben und im Statistischen Bundesamt in Wiesbaden gebündelt. Die Teilnahme ist freiwillig; das Panel wird aus den Angaben der Melderegister und des Mikrozensus zusammengestellt (Wolf 2004; Kühnen 2001).11 Im Jahr 2003 beteiligten sich bundesweit 74.600 Haushalte, also etwa 0,2 Prozent. Die Erhebung stetzt sich aus einem Einführungsinterview, einem Haushaltsbuch und einem „Feinaufschreibungsheft“ zusammen. Das Einführungsinterview hieß bei den Statistikern des neunzehnten Jahrhunderts „Inventur“ und erfasst Angaben zur Haushaltszusammensetzung, zur Wohnsituation und zur Ausstattung mit langlebigen Gütern, des Weiteren (in der Anlage) Vermögen, Schulden, Versicherungen und so weiter. Das Haushaltsbuch selbst braucht nur ein Vierteljahr lang geführt zu werden, wobei einzutragen sind: die Einnahmen nach Art und Quelle sowie die Ausgaben für den privaten Verbrauch, für Steuern und Abgaben, für Sozial- und andere Versicherungsbeiträge, für Schuldentilgung, für Vermögensbildung, für sonstige Zwecke. Das „Feinaufschreibungsheft“ wird nur von einem Teil der Haushalte geführt und registriert die „mengen- und wertmäßigen“ Ausgaben für Nahrungsmittel, Getränke und Tabak (Wolf 2004: 32). Die historische Kontinuität ist erstaunlich. Das statistische Erhebungskonzept und die Methode sind bis auf Details gleich geblieben. Auch die Spezialinteressen der Statistiker des 19. und des 20./21. Jahrhunderts ähneln sich. Und: In der EVS geht es nicht um die gesamte Bevölkerung, sondern um bestimmte Fraktionen oder ökonomische Schichten. Das betrifft vor allem die Wissensverwertung: „Die Ergebnisse der EVS bilden eine wichtige Grundlage für wirtschafts-, finanz- und sozialpolitische Entscheidungen des Staates (z. B. Berechnung der Regelsätze für die Sozialhilfe sowie Berechnung der Kinderkosten) und sind unerlässlich für die gesamtwirtschaftlich orientierte Verbrauchsforschung. Weiterhin sind die Daten der EVS eine wichtige Basis für die Erstellung des Warenkorbs beim Preisindex für die Lebenshaltung und die einzige Quelle für den Nachweis von Verteilung und Kumulierung von staatlichen Transferleistungen und deren Anteil am Haushaltsnettoeinkommen. Weiterhin ist die EVS eine zentrale Informationsquelle für den Armuts- und Reichtumsbericht der Bundesregierung.“ (Wolf 2004: 31)

Haushalte, die ein monatliches Nettoeinkommen von mehr als 18.000 Euro haben, also die sogenannten „oberen Zehntausend“, fallen übrigens bei dieser Erfassung heraus. „Reich werden nach Plan“ Auch als Erziehungsmittel hat sich das Haushaltsbuch erhalten. Als Carl Landolt 1894 das Budget einer St. Gallener Arbeiterfamilie auswertete, diente die private Buchführung noch sowohl der, gewissermaßen, soziologischen Erkenntnisgewinnung als auch dem Erlernen des sparsamen Umgangs mit den der Familie zur Verfügung stehenden Ressourcen. Der Wissenschaftler veränderte während und durch die Beobachtung bewusst das Objekt seiner Erkenntnis: 11

Vgl. Gesetz über die Statistik der Wirtschaftsrechnungen privater Haushalte.

242

Daniel Schmidt „Wenn damit einmal der Anfang gemacht ist, werden die Leute an einem gewissenhaft geführten Haushaltsbuche Interesse und Freude gewinnen und sich nach Ablauf des ersten Jahres gern zur Weiterführung des Buches entschliessen – sind doch die direkten Vorteile einer regelmässigen Buchführung für die Arbeiterfamilie selbst ganz bedeutende. Es wird eine genauere Verteilung der Ausgaben möglich und leichter lernt man die notwendigen von den notwendigeren unterscheiden. Ich halte es für nützlich, den an der Untersuchung beteiligten Familien diese Vorteile recht eindringlich vor Augen zu führen.“ (Landolt 1894: 12)

Belehrungen solcher Art werden gegenwärtige Statistiker nicht mehr vornehmen. Für diese Annahme spricht, dass die EVS-Haushalte lediglich ein Quartal lang ihre Aufzeichnungen machen müssen. Die Erziehung zur ökonomischen Vernunft haben dafür andere Agenten übernommen. Exemplarisch für eine umfangreiche Ratgeberliteratur sei hier Bernd Katzenstein erwähnt. Seine Sorge oder vielmehr: die seiner antizipierten Leser gilt – anders als wir es bei Stein und Engel gesehen haben – nicht so sehr der Substistenzsicherung, also dem Risiko der existenziellen Armut, als vielmehr dem Risiko, nicht reich zu werden. Ähnlich wie frühere Haushaltsberater bemüht er eine fiktive Narration; nur verläuft der Fall diesmal nicht degressiv, sondern komparatistisch: „Sie haben einen Bekannten. […] Er leistet sich mehr, als Sie das können. Wenn Sie mit Ihrer Familie den Urlaub an der Costa del Sol verbringen, düst Ihr Bekannter in die Karibik oder nach Bali. Sie fahren ein Wochenende nach Berlin, er vier Tage nach New York. Ihr drei Jahre alter Wagen wird es wohl noch zwei Jahre tun müssen. Ihr Freund hat bereits den dritten vor der Tür stehen.“ (Katzenstein 1993: 13; vgl. Duttweiler 2004; Fach 2004)

Hier wird Sozialneid auf hohem Niveau aktiviert. Der Freund hat nicht im Lotto gewonnen, er hat auch keine nennenswerte Erbschaft angetreten. Beide Figuren haben ein ähnliches Einkommen, zwei Kinder und die gleichen Hobbys. Zu allem Überfluss hat ‚der Andere’ auch noch ganz üppige Ersparnisse in Aktien, Lebensversicherungen und so weiter. Katzenstein verrät uns das Geheimnis dieser enormen Differenzen: „Der eine steuert mit seinem Unternehmen Haushalt einen geraden Kurs, der andere läßt sich von den Winden mal hierhin und mal dorthin treiben. Der eine hat ein Lebenskonzept, in dem die persönlichen Ziele mit den finanziellen Bedürfnissen übereinstimmen, der andere läßt zu, daß seine Wünsche und Träume mit seinen finanziellen Möglichkeiten dauernd in Konflikt geraten. Der eine kann sorgenfrei in die Zukunft schauen, den anderen quält Nacht für Nacht die Angst, wie es später einmal finanziell weitergehen soll.“ (Katzenstein 1993: 14)

Die Metaphern gleichen sich auf’s Wort: „sich von den Winden treiben lassen“ (Katzenstein) – „verderblicher Curs des Haushalt-Schiffleins“ (Engel). Katzenstein spricht vom „Unternehmen Haushalt“ und meint das auch so. Dieser Haushalt müsse ähnlich gemanagt werden wie eine Chemiegesellschaft oder eine Großbank. Zentral ist selbstverständlich eine detaillierte Buchführung – die Aufstellung und regelmäßige Kontrolle eines Budgets – ergänzt um eine langfristige Finanzplanung. Allerdings ist, um im Bilde zu bleiben, in der ehelichen „Wir-AG“ die Leitung der Buchhaltungsabteilung ausgetauscht worden: Katzensteins Ratgeber richtet sich, wie übrigens auch das deutsche Formular zur Einkommensteuer-Erklärung, ausschließlich an den Ehemann: „Seine Frau kauft nur in den tollsten Boutiquen ein; Ihre Frau geht in die Kauf-

Buchführung für Oikos und Etat

243

häuser, um sich und Ihre Kinder einzukleiden. […] Häufig haben Sie mit Ihrer Frau über dieses Phänomen gesprochen.“ Der Mann mag weiter der produzierende Teil der Haushaltung sein und die Frau der konsumierende. Letztere scheint aber ihre wissenstechnische Bedeutung in der Ökonomie verloren zu haben. Woran das liegt? Nun, einen Hinweis finden wir womöglich schon bei Landolt. Der schrieb nämlich: „Da es meistentheils der Frau obliegt, die Haushaltungsgeschäfte zu verrichten, die Einkünfte zu besorgen etc., so wäre und ist es natürlicherweise auch ihre Sache, das Haushaltungsbuch zu führen. Man soll deshalb besonders der Frau den Zweck des Haushaltungsbuches und dessen Führung erklären. Man darf indessen weder auf der Männer noch der Ehefrauen Zuverlässigkeit zu sehr vertrauen. Es ist eine stete Kontrolle notwendig. Am besten ist es, wenn der Mann die Eintragungen selbst besorgt.“ Denn: „Möglicherweise wird von einer Frau Haushaltungsgeld zu persönlichen Zwecken verbraucht und zwar unter Fingierung notwendiger Haushaltungsausgaben.“ (Landolt 1894: 10f.)

Selbst wenn auch der Mann nicht besonders korrekt sein sollte, sei es immer noch besser, wenn er die Buchführung besorgt. Der Frau verbleibt das ‚operative Geschäft’. Im Finanzratgeber des ausgehenden zwanzigsten Jahrhunderts darf sie wenigstens mitwirken, wenn es darum geht zu bestimmen, ob die Ehe krisenfest ist. Bei Katzenstein gibt es dazu einen „Partnertest“ mit 19 Fragen und Antwortvariationen. Nachdem beide Eheleute ihre Bögen ausgefüllt haben, sollen sie die Übereinstimmungen zählen. „Wenn Sie mehr als 15 übereinstimmende Antworten haben, können Sie sich beglückwünschen. Sie sind in finanzieller Hinsicht ein Traumpaar – wie geschaffen füreinander.“ (Katzenstein 1993: 166)

Eheglück ist vermessbar geworden. Die Macht der Zahlen Zahlenspiele sind Wahrheitsspiele, hatte ich am Anfang behauptet. Der quantitative Ausdruck repräsentiert die Welt in einer bestimmten Grammatik, und er erlegt ihr diese Grammatik als Ordnungssystem wieder auf. Zahlen machen soziale Verhältnisse überhaupt erst operationalisierbar, sowohl wissens- als auch interventionstechnisch. Und sie bilden die Sprache einer – als naturgesetzmäßig vorgestellten – Ökonomie. Als Messinstrument kann das Haushaltsbuch ein Wissen zur Verfügung stellen, das mit anderen statistischen Methoden, etwa der Volkszählung, nicht besorgt werden kann, weil ‚der Staat’ die komplexen Beziehungen und Verhältnisse im Inneren eines jeden Haushalts nicht erfassen und überblicken kann. Die Messungen mussten standardisiert, typologisiert und in Großen Zahlen gefasst werden, damit sie ein wesentliches Wissenselement zur ökonomischen und sozialen Regierung der Bevölkerung bilden konnten. Als Erziehungsinstrument kehrt das Haushaltsbuch die Innen-Außen-Relation um. Es stand und steht im Zentrum des Versuchs, das Innere des Hauses zu ökonomisieren, es an eine (öffentliche) Nationalökonomie, oder: Volkswirtschaft, anschlussfähig zu machen. Auf diese Weise kann der Einzelne regierbar gemacht, also zu einem rational agierendem Wirtschaftssubjekt werden. Je besser und

244

Daniel Schmidt

durchgreifender das gelingt, desto weniger direkte staatliche Regulationsanstrengungen sind nötig. Ein liberalistisches Ideal. Aus diesen beiden Elementen ergibt sich ein Synergie-Effekt, der den erkenntnistechnischen Zugriff des Staats erleichtert, indem die Art und Weise der Erhebung in bestimmtem Maße vor bewussten Manipulationen schützt. Das zumindest ist die Idee. Schließlich repräsentieren Haushaltsdiskurse die Vermessung der Geschlechterrollen innerhalb der bürgerlichen Familie. Der Versuch, der Frau einen nationalökonomischen Wert innerhalb der Mauern des Hauses zu verleihen, ist offenbar nicht in dem Maße gelungen, wie von einigen intendiert. Nicht deshalb, weil die Hausfrau nicht produzieren würde, sondern weil die Verwaltung dieser Produktivität durch den Mann besorgt wird. Literatur Anderson, M. (1991): The US Bureau of the Census in the Nineteenth Century. In: Social History of Medicine 4, S. 497-513. Appel, R./Hummel, D. (Hg.) (1987): Vorsicht Volkszählung! Erfaßt, vernetzt & ausgezählt. Köln: Kölner Volksblatt-Verlag. Aristoteles (1947): Über Hauswirtschaft. Paderborn: Schöningh. Bodin, J. (1976): Über den Staat. Stuttgart: Reclam. [1572]. Desrosières, A. (1998): The Politics of Large Numbers. Cambridge, Mass.: Harvard University Press. Duttweiler, S. (2004): Beratung. In: Bröckling, U./Krasmann, S./Lemke, T. (Hg.): Glossar der Gegenwart. Frankfurt/M.: Suhrkamp, S. 23-29. Engel, E. (1856): Der Wohlthätigkeitscongreß in Brüssel im September 1856 und die Bekämpfung des Pauperismus. In: Zeitschrift des Statistischen Bureaus des Königl. Sächs. Ministeriums des Innern 2, S. 153-164. Engel, E. (1882): Das Rechnungsbuch der Hausfrau und seine Bedeutung im Wirthschaftsleben der Nation. Berlin: Simion. Ewald, F. (1993): Der Vorsorgestaat. Frankfurt/M.: Suhrkamp. Fach, W. (2004): Selbstverantwortung. In: Bröckling, U./Krasmann, S./Lemke, T. (Hg.): Glossar der Gegenwart. Frankfurt/M.: Suhrkamp, S. 228-235. Fallati, J. (1853): Der statistische Congress in Brüssel. In: Zeitschrift für die gesammte Staatswissenschaft 1853, S. 676-710. Foucault, M. (1974): Die Ordnung der Dinge. Eine Archäologie der Humanwissenschaften. Frankfurt/M.: Suhrkamp. Foucault, M. (1994): Überwachen und Strafen. Die Geburt des Gefängnisses. Frankfurt/M.: Suhrkamp. Foucault, M. (2000): Die Gouvernementalität. In: Bröckling, U./Krasmann, S./Lemke, T. (Hg.): Gouvernementalität der Gegenwart. Studien zur Ökonomisierung des Sozialen. Frankfurt/M.: Suhrkamp, S. 41-67. Foucault. M. (2004): Geschichte der Gouvernementalität. Frankfurt/M.: Suhrkamp. Galler, H.P./Ott, N. (1993): Empirische Haushaltsforschung. Erhebungskonzepte und Analyseansätze angesichts neuer Lebensformen. Frankfurt/M.: Campus. Hölder, E./Ehling, M. (1991): Zur Entwicklung der amtlichen Statistik in Deutschland. In: Fischer, W./Kunz, A. (Hg.): Grundlagen der historischen Statistik von Deutschland. Quellen, Methoden, Forschungsziele. Opladen: Westdeutscher Verlag, S. 15-31. John, V. (1884): Geschichte der Statistik. Ein quellenmäßiges Handbuch für den akademischen Gebrauch wie für den Selbstunterricht. Stuttgart: Enke. Justi, J.G.H. v. (1756): Grundsätze der Policey-Wissenschaft in einen vernünftigen, auf den Endzweck der Policey gegründeten, Zusammenhange und zum Gebrauch Academischer Vorlesungen. Göttingen: Vandenhoeck.

Buchführung für Oikos und Etat

245

Katzenstein, B. (1993): Reich werden nach Plan. Der beste Weg zum privaten Vermögen. Düsseldorf: ECON. Khalatbari, P. (Hg.) (1991): Thomas Robert Malthus im Widerstreit der Wissenschaften. Berlin: Humboldt-Universität. Koslowski, S. (2005): Zur Philosophie von Wirtschaft und Recht. Lorenz von Stein im Spannungsfeld zwischen Idealismus, Historimus und Positivismus. Berlin: Duncker und Humblot. Krüsselberg, H. (1993): Verkannte Revolutionen? Der Familienhaushalt im Licht sozialökonomischer Forschung. In: Gräbe, S. (Hg.): Der private Haushalt im wissenschaftlichen Diskurs. Frankfurt/M.: Campus. Kühnen, C. (2001): Das Stichprobenverfahren der Einkommens- und Verbrauchsstichprobe 1998. Wiesbaden: Statistisches Bundesamt (= Methodenberichte, Heft 1). Lammers, A. (1881): Sparen und Versichern. Berlin: Simion. Landolt, C. (1894): Methode und Technik der Haushaltsstatistik. Freiburg: Mohr. Lemke, T. (1997): Eine Kritik der politischen Vernunft. Foucaults Analyse der modernen Gouvernementalität. Berlin: Argument-Verlag. Machiavelli, N. (1990): Der Fürst. Frankfurt/M.: Insel-Verlag. [1513] Malthus, T.R. (1807): Versuch über die Bedingung und die Folgen der Volksvermehrung. Altona: Hammerich. Rothenbacher, F. (1997): Historische Haushalts- und Familienstatistik von Deutschland 1850-1990. Frankfurt/M.: Campus. Rousseau, J. (1986): Vom Gesellschaftsvertrag oder Grundsätze des Staatsrechts. Stuttgart: Reclam. [1762]. Schmidt, D. (2003): ‚Volk’ und Bevölkerungsstatistik. In: Overath, P./Schmidt, D. (Hg.): Volks(An)Ordnung. Leipzig: Leipziger Universitätsverlag (= Comparativ 3/2003), S. 49-64. Schmidt, D. (2005): Statistik und Staatlichkeit. Wiesbaden: VS Verlag für Sozialwissenschaften. Statistisches Bundesamt (Hg.) (1984): Datennotstand und Datenschutz. Die amtliche Statistik nach dem Volkszählungsurteil. Stuttgart: Kohlhammer. Stein, L. v. (1850): Geschichte der sozialen Bewegung in Frankreich von 1789 bis auf unsere Tage. Leipzig: Wiegand. Stein, L. v. (1876): Die Frau auf dem Gebiete der Nationalökonomie. Stuttgart: Cotta [4. Aufl.]. Strecker, H.; Wiegert, R. (1997): Engel, (Christian Lorenz) Ernst. In: Johnson, N.L./Kotz, S. (Hg.): Leading Personalities in Statistical Sciences from the Seventeenth Century to the Present. New York: Wiley, S. 280-282. Wolff, B. (2004): Durchführung der Einkommens- und Verbrauchsstichprobe 2003. In: Statistik in Sachsen 1/2004, S. 31-34. Zahn, F. (1925): Zur Frage der Konsolidierung der amtlichen Statistik. XVI Session de l’Institut international de statistique, Rome. Rom: Provveditorato dello Stato.

Die zwei Wirklichkeiten des modernen Sports: Soziologische Thesen zur Sportstatistik

247

Die zwei Wirklichkeiten des modernen Sports: Soziologische Thesen zur Sportstatistik

Tobias Werron1 Anläufe, eine Theorie des modernen Sports zu schreiben, hat es schon viele gegeben, von denen aber noch keiner so recht überzeugen konnte. Was ist so schwierig an diesem auf den ersten Blick einfachen, leicht zugänglichen, inzwischen auch von empirischer und historischer Forschung gut erschlossenen Gegenstand? Ich vermute: eben dass er einfach und komplex zugleich ist und nach einer dazu passenden Beschreibung verlangt, die insbesondere der Rolle von Zahlen Rechnung tragen müsste. Die entsprechende soziologische These, die im vorliegenden Aufsatz entwickelt werden soll, lautet: Das Charakteristische des modernen Sports ist, dass er die „Lokalität“ (Präsenz, Spannung, Singularität etc.) einzelner Wettkämpfe mit der „Globalität“ (Komplexität, Kontingenz, Historie etc.) ganzer Sportarten zu kombinieren versteht, und Sportstatistiken tragen zu diesem Arrangement bei, indem sie den Wettkampfbetrieb mit einer historisch, sozial und räumlich unbegrenzt ausgreifenden Leistungsevaluation begleiten. Anders formuliert: Der moderne Sport ist Weltsport, insofern es ihm gelingt, seine Wettkämpfe mit Hilfe von Zahlen in den Vergleich unbeschränkt zahlreicher weiterer Wettkämpfe einzubetten. Der Aufsatz entfaltet die These in vier Schritten. Der einleitende Abschnitt handelt von den Gründen, die der Entwicklung einer soziologischen Theorie des modernen Sports bisher entgegengestanden haben und benennt einige „obstacles épistémologiques“, an denen die Theoretiker des modernen Sports nach meinem Eindruck bisher gescheitert sind. Anschließend skizziere ich die Grundzüge eines eigenen, kommunikationstheoretisch argumentierenden Vorschlags, der dem Publikum (verstanden als öffentliches Gedächtnis) eine konstitutive Rolle zuweist und den Anspruch erhebt, die häufig als „Quantifizierung“ diagnostizierte Ubiquität von Zahlen im modernen Sport zu erklären. Diesen Anspruch versuche ich sodann exemplarisch einzulösen, indem ich mir einige Varianten des Zahlengebrauches empirisch näher anschaue und mit den theoretischen Vorschlägen in Zusammenhang bringe. Der Schlussabschnitt resümiert die Argumente und gibt der Ausgangsthese eine gehaltvollere Fassung. Zur Unterscheidung von Spiel und Sport: Autotelische, analogische, kompensatorische und somatische Fehlschlüsse Über Sport erfährt man eher wenig, wenn man sich ihm definitorisch oder wortgeschichtlich nähert (auch wenn dies immer wieder versucht wird, vgl. aktuell Haverkamp 2005). „Sport“ konnte und kann so vieles heißen, vom Jagen (so das bevorzugte Verständnis noch 1

Ich danke ESPN für die Überlassung der Copyright-Rechte an den Statistiken und Hendrik Vollmer für Anmerkungen zu einer früheren Fassung des Textes.

248

Tobias Werron

im England des späten 19. Jahrhunderts) über das gesundheitsbewusste morgendliche Joggen bis zum dopinggeplagten Spitzensport, dass Versuche, den gesamten Bereich dessen, was bisweilen Sport genannt wird, begrifflich zu erfassen und typologisch einzuteilen (vgl. z.B. Heinemann 1998: 34ff.), den Vereinheitlichungsbedürfnissen von Sportfunktionären und Sportwissenschaftlern entgegenkommen mögen, analytisch aber kaum weiter helfen.2 Texte, denen an der Erklärung der Genese des modernen Sports gelegen ist, weisen daher in der Regel eine einschränkende Prämisse auf: Sie nehmen an, dass Wettkämpfe („contests“) im Zentrum des Sports stehen und dass Wettkämpfe im modernen Sport anders organisiert werden als in seinen historischen Vorgängerformen (vgl. stilbildend Guttmann 1978). Macht man sich diese Voreinstellung zueigen, ist das Problem folglich nicht, was Sport „ist“, sondern wie sich der moderne Wettkampfsport von anderen, insbesondere nichtmodernen Wettkampfformen unterscheidet. Wenn man so beginnt, liegt die Frage eigentlich nahe, was Wettkämpfe als Form eigener Art auszeichnet und welcher spezifischen Deutung sie im modernen Sport unterzogen werden. Tatsächlich ist dies die Frage, die mich im folgenden interessieren wird und von der ich annehme, dass sie noch nicht hinreichend präzise gestellt und beantwortet worden ist. Der Neuigkeitswert dieser Frage und meines Lösungsvorschlag soll im Kontrast mit bisherigen Erklärungsversuchen deutlich werden, deren Hauptargumente ich zunächst benennen und einer Reihe traditioneller „Fehlschlüsse“ zuordnen will – ausgehend von der (allzu) offenkundigen Verwandtschaft von Spiel und Sport. Konzentriert man sich allein auf einzelne Wettkämpfe, erscheint Sport wie Spiel:3 Es geht um Sieg und Niederlage. Man benötigt mindestens zwei Teilnehmer. Wer gewinnen will, muss sich an bestimmte Regeln halten. Beginn und Ende des Wettkampfes sind zeitlich und meist auch räumlich definiert. Taktiken, Strategien, Training und Talent entscheiden über Sieg und Niederlage. Und manchmal entscheidet auch das Glück. All das ist in der Tat kennzeichnend für sportliche Wettkämpfe, gibt allein aber offensichtlich noch keine ausreichenden Anhaltspunkte für die Unterscheidung modernen Wettkampfsports von alternativen Formen. Auch griechische Agone oder mittelalterliche Ritterspiele wiesen und heutige Gesellschaftsspiele weisen ja diese Merkmale auf, und gerade die Abgrenzung von solchen nah verwandten Formen müsste eine Bestimmung des modernen Sports leisten.4 Warum aber ist diese Abgrenzung bisher nicht überzeugend gelungen? Ein Teil der Literatur leidet unter einer Erkenntnisblockade, die man autotelischen Fehlschluss nennen könnte. Da sportliche Wettkämpfe auf den ersten Blick aussehen wie Spiele, halten diese Theoretiker Sport für eine spielerische, selbstgenügsame, „autotelische“ Aktivität, zu der Modernitätsmerkmale dann lediglich hinzuaddiert werden, häufig in der Form von Aufzählungen untereinander weitgehend unverbundener „Charakteristika“ des modernen Sports (vgl. Dunning 1973; Guttmann 1978; verwandt, aber eher narrativ angelegt Mandell 1982).5 Die Schwäche solcher Aufzählungen, zu deren Elementen auch 2 3 4 5

Begründete, noch heute plausible Zweifel am Sinn solcher Definitionsversuche äußert bereits Fendrich 1914: 16ff.; vgl. aktuell auch McFee 2004: 22. Einen Wettkämpfe einschließenden Begriff des Spiels natürlich vorausgesetzt. Für einen relativ elaborierten Begriff dieser Art im Anschluss an Goffman’s „focused interaction“ vgl. Avedon (1971). Für einen neueren Überblick über Spielbegriffe siehe Sutton-Smith (1997). Einen Leitsatz in diesem Sinne formuliert Hahn (2002: 31): „Man kann Fußball spielen oder ihn als Sport betreiben.“ Die einflussreichste Aufzählung stammt von Allen Guttmann, der sich theoretisch auf Webers Rationalisierungsprozess bezogen und folgende „characteristics of modern sport“ aufgezählt hat: Säkularisierung, Bürokratisierung, Rationalisierung, Gleichheit, (Rollen-)Spezialisierung, Quantifizierung und Rekordorientierung (Guttmann 1978).

Die zwei Wirklichkeiten des modernen Sports: Soziologische Thesen zur Sportstatistik

249

„Quantifizierung“ gehört, liegt in der Unverbundenheit der aufgezählten Merkmale untereinander, und sie zeigt sich in der Auseinandersetzung mit Historikern, die darauf verweisen können, dass einige dieser Merkmale bereits in vormodernen Wettkampfpraktiken eine Rolle spielten, einschließlich diverser Ansätze zu „Quantifizierung“ (vgl. die Sammlung in Carter/Krüger 1990).6 Wie lässt sich gegenüber solchen Einwänden an der Besonderheit des modernen Sports festhalten? Als (Makro-) Soziologe mag man dazu neigen, „Autonomie“ als Merkmal in Betracht zu ziehen, das die anderen Modernitätsmerkmale zusammenhält und ihnen eine gemeinsame Erklärungsbasis verleiht. So gesehen müsste die Differenzierungstheorie, insbesondere die Systemtheorie prädestiniert sein, den Einwänden von Seiten der Historiker Rechnung zu tragen. Ein Blick auf die Mehrheitsmeinung in der soziologischen Systemtheorie zeigt jedoch, dass gerade sie mit besonderem Nachdruck auf der Diagnose besteht, Sport sei „autotelische Aktivität“ (vgl. Schimank 1988; Bette 1989; Cachay/Thiel 2000; Riedl/Cachay 2002; Riedl 2005), diese Annahme gar mit einer zusätzlichen gesellschaftstheoretischen Begründung versieht: Dem Sport fehle eine Funktion, jedenfalls sei offen geblieben, welche Funktion er erfülle. Er beziehe seine Entstehungs- und Differenzierungsdynamik folglich nicht primär aus eigenen Ressourcen, sondern aus Leistungsbeziehungen mit anderen Teilsystemen wie Medizin, Militär, Politik, Massenmedien und Wirtschaft, und sei davon abhängig, sich im Rahmen dieser Leistungsbeziehungen als nützlich zu erweisen, insbesondere in der Phase seiner Ausdifferenzierung im 19. und 20. Jahrhundert. Während bei den Modernisierungstheoretikern offen bleibt, was die Modernitätsmerkmale zusammenhält, verschieben die Systemtheoretiker das Problem damit in die Umweltbeziehungen des Sports. Damit setzen sie sich jedoch nicht nur in Widerspruch zu Grundsätzen der Differenzierungstheorie, die Autonomie definitionsgemäß nicht in die Umwelt eines Systems verlegen kann, sondern lassen auch das eigentliche Problem der Theorie modernen Sports, die Differenz von Spiel und Sport, ungelöst zurück. Systemtheorie und Differenzierungstheorie allein schützen also offenbar vor dem „autotelischen Fehlschluss“ nicht, was aber noch nicht heißt, dass jede Idee von Autonomie als die anderen Merkmale verbindendem Modernitätsmerkmal des Sports verworfen werden müsste. Offenbar muss sie aber weniger die Verwandtschaft als die Differenz zwischen Spiel und Sport akzentuieren, und sie muss offenbar bereit sein, dem Sport eigene Entstehungs- und Differenzierungsdynamik zuzugestehen. Wie man sich eine nicht-nur-spielerische Autonomie des Sports vorstellen könnte, darauf gibt eine in den 1970ern prominente Diskussionslinie einen ersten Hinweis, die bemerkt (und meist auch sogleich kritisiert) hat, dass aus Spiel im Laufe der Entwicklung des Sports „Arbeit“ bzw. „Ernst“ geworden sei (vgl. stellvertretend Rigauers [1969] Analysen des „Warencharakters“ des modernen Sports; ähnlich Habermas 1958). Das leuchtet in vielen Hinsichten ein und ist im Prinzip kaum bestreitbar: Wenn Leistungssportler ihrem Beruf nachgehen, hat das offenbar wenig von der zwanglosen Selbstgenügsamkeit des klassischen Verständnisses von Spielen und des darin implizierten Kontrastes zum „Ernst des Lebens“.

6

Guttmann hält der Kritik entgegen, sie vernachlässige, dass die Modernitätsmerkmale systematisch miteinander verbunden seien und einzelne Merkmale daher nicht isoliert diskutiert und kritisiert werden sollten (Guttmann 1990: 155). Da er aber kein Kriterium nennt, das den Zusammenhalt der Merkmale erklärt, bleibt sein Gegeneinwand letztlich leer, und die Beweislast für die Besonderheit des modernen Sports bleibt bei der Modernisierungsthese.

250

Tobias Werron

Für das Verständnis der Autonomie des Sports ist die Umgestaltung der Spiel/Sport- in eine Spiel/Arbeit-Differenz letztlich aber wenig hilfreich, denn Sport erscheint in dieser Optik nicht primär als Sport, sondern wie Arbeit. Ganz ähnlich wirkt sich die Entscheidung Pierre Bourdieus aus, die Differenz von Spiel und modernem Sport zwar hervorzuheben, dann aber Sport – wie auch andere Felder – in Begriffen von Angebot und Nachfrage zu erfassen (Bourdieu 1986), was sein Interesse von der Eigenlogik des Sports ab- und auf die milieu- bzw. klassenspezifische Rezeption verschiedener Sportarten hinlenkt. So bleiben die Voraussetzungen und Formen der Eigenlogik des Sports, bei aller Betonung von „relativer Autonomie“, unterbelichtet. Man könnte übergreifend von „analogischen Fehlschlüssen“ sprechen und vermuten, dass ihnen eine hinreichend abstrakte Vergleichssprache fehlt, die wirtschaftliche, sportliche und andere Eigenlogiken in Vergleich setzen könnte, ohne Aspekte des einen per Analogieschluss in andere Bereiche transferieren zu müssen. Die Reduktion auf Spiel und das Denken in Analogien sind aber nicht die einzigen Gründe, weshalb die Diskussion zur Autonomie des Sports stecken geblieben ist. Als mindestens ebenso folgenreich erweist sich bei näherem Hinsehen eine den Sport seit seinen Anfängen begleitende Denktradition, die ich „kompensatorischen Fehlschluss“ nennen will. Die einflussreichste Fassung dieses Fehlschlusses – von einem Vertreter und internen Kritiker treffend „Ausgleichshypothese“ genannt (Krockow 1972) – findet sich bei der von Norbert Elias begründeten sog. Figurationssoziologie, die in der Sportsoziologie besondere Prominenz erlangt hat, wohl auch weil Elias, im Unterschied zu den meisten anderen Großtheoretikern, selbst intensiv über Sport gearbeitet hat (vgl. Dunning/Elias 1986). Die Figurationssoziologen sprechen auch von „sportization“ oder „global sports process“ (Maguire 1994), um die Entstehung und Verbreitung des modernen Sports zu beschreiben, und gestehen ihm dabei gelegentlich auch „relative autonomy“ zu. Die Erklärung für den Aufstieg des Sports suchen sie aber nicht primär in diesem Prozess, nicht in der Autonomie des Sports selbst, sondern in einer kompensatorischen Leistung, die er für moderne Individuen erbringe. Das Argument taucht bereits im 19. Jahrhundert auf, wenn gesagt wird, der Sport diene als „safety valve“ (Sicherheitsventil) für Stadtbewohner, deren zivilisatorische Disziplinierung nichts an ihrer Aggressionsbereitschaft ändere und deren latente Aggressivität daher vom Sport gleichsam mitbetreut werden müsse. Der Sport biete Sportlern und Sportzuschauern Gelegenheit, sich zivilisiert zu erregen, gespannt zu entspannen, diszipliniert zu entdisziplinieren und die Disziplin in anderen Bereichen dann umso besser zu wahren (zu frühen amerikanischen Fassungen dieser These vgl. Riess 1999: 23f.). Dieses Kompensationsargument ist im Laufe des 20. Jahrhunderts vielfältig wiederaufgelegt und in buchstäblich Hunderte von Varianten ausdifferenziert worden (zum Überblick über sozialpsychologische Erklärungsansätze, die häufig kompensatorisch gebaut sind, vgl. auch Sloan 1989; Wann et al. 2001), im Kern aber verblüffend konstant geblieben. Immer geht es um die Vorstellung, dass Individuen in der Moderne etwas vorenthalten werde (Spannung, Erregung, Aggression, Leistungsgerechtigkeit etc.), was ihnen zum Ausgleich dann – in moderner, zivilisierter Form – vom Sport dargeboten würde. Kaum eine theoretisch ambitionierte soziologische Stellungnahme zum modernen Sport von Peters (1927) über Plessner (1956) und Habermas (1958) bis Krockow (1972) kommt ohne Varianten dieses Gedankens aus, und auch die spätere systemtheoretische Sportsoziologie hat er maßgeblich beeinflusst (vgl. Bette 1989, Bette/Schimank 1995, 1995a, 2000).7 Ich kann 7

Vgl. Bette/Schimank (2000: 316f.) mit der wohl ausführlichsten Aufzählung von Kompensationsbedürfnissen: Routinisierung, Langeweile, Urbanisierung, Globalisierung, Massenkommunikation, Bürokratisierung,

Die zwei Wirklichkeiten des modernen Sports: Soziologische Thesen zur Sportstatistik

251

diese Tradition hier nicht im Detail würdigen und will nur auf einen grundsätzlichen Defekt aufmerksam machen, der aus soziologischer Sicht besonders ins Auge fällt: Wie alle Theoreme, die Erklärungen sozialer Phänomene auf psychische Effekte und/oder anthropologische Unterstellungen zurückführen, nimmt diese Hypothese starke Beweislasten auf sich, die sie bisher nicht andeutungsweise hat erfüllen können.8 So fehlt etwa eine ausreichende Begründung für die Unterstellung eines anthropologisch universalen Mindesterregungsbedürfnisses, das in der Moderne unterdrückt und im Sport kompensiert werde (dazu skeptisch Eichberg 1978), wie auch dafür, dass dieses Bedürfnis in der Moderne unzureichend bedient werde (wenn doch zugleich von der immanenten Unsicherheit bzw. Kontingenz der Moderne die Rede ist – bietet diese nicht Spannung und Erregung genug?). Auch warum sich ein solches Bedürfnis gerade in einem globalen Makrosystem wie dem Sport Ausdruck verschaffen müsste, ist offen geblieben (warum reichen Vergnügungsparks u.ä. lokale Unterhaltungen nicht aus?). Je genauer man nachfragt, desto deutlicher wird, dass es bei aller Unbestreitbarkeit von Interdependenzen kaum Erfolg verspricht, Sport auf psychische Effekte und allgemeinmenschliche Bedürfnisse zurückzuführen. Die Unabhängigkeitserklärung der Soziologie von ihren Nachbardisziplinen hatte ihre Gründe ja nicht zuletzt in der mangelnden Plausibilität solcher Reduktionen (vgl. nur Simmel 1917). Dass die Sportsoziologie diese disziplinäre Erfahrung so auffallend wenig beachtet hat, mag seine Gründe in der scheinbaren Schlichtheit des Gegenstandes haben, denn wer nur auf schwitzende Körper und erregte Zuschauer achtet – die es ja fast immer auch zu sehen gibt – , wird dazu neigen, seine Erklärungen aus diesen Oberflächenbeobachtungen abzuleiten. Insofern ist der kompensatorische Fehlschluss der „Ausgleichshypothesen“ meist ein psychologischer und/oder anthropologischer Fehlschluss, und das Problem für eine soziologische Theorie des modernen Sports ist weniger, dass die Hypothese falsch ist (eher ist sie unzureichend empirisch überprüft; vgl. kritisch bereits Linde 1967), sondern dass sie eine soziologische Fragestellung hinter einer sozialpsychologischen verschwinden lässt. Skepsis gegenüber solchen Argumenten führt auf ein letztes, ebenfalls quer zu gängigen Theoriefronten liegendes Denkhindernis, das man den somatischen Fehlschluss nennen könnte. Dass es im Sport um Körper geht, scheint offensichtlich zu sein, jedenfalls gehören sich bewegende Körper zu seinem auffälligen täglichen Erscheinungsbild und primär körperbezogene Termini wie Fitness, Training, Doping etc. zu seinen nächsten semantischen Verwandten. Sport, könnte man also denken, ist ein „körperbezogenes Sozialsystem“, das dem sonst in der Moderne verdrängten oder unbeanspruchten Körper in einem speziell für ihn eingerichteten Bereich zu seinem Recht verhilft (so Bette 1987, 1989; ähnlich die Andeutungen bei Luhmann 1984: 337). Tatsächlich kommt der Gedanke, dass es auf den Körper ankomme, auch in der auf Wettkämpfe konzentrierten Theorie des modernen Sports häufig vor, meist ohne nähere Begründung, aber in der erklärten Absicht, bestimmte Wettkampfformen aus dem Sport

8

Verwissenschaftlichung, undurchschaubar gewordene Wirkungsketten, Affektdämpfung, Entzauberung, Gemeinschaftsverlust. Man könnte sich auch eine strikt soziologische Fassung dieser These vorstellen, etwa in der Form, die sie sich andeutungsweise bei Plessner (1956, 1967) findet: Der Sport stelle eine Leistungsgerechtigkeit zur Schau, die von der Gesellschaft im übrigen versprochen, aber nicht eingelöst würde („Tausende werden sagen: Warum nicht ich? Warum der andere? Und sie suchen sich einen Ersatz.“ Plessner 1967: 23). Auch hier muss freilich unterstellt und müsste empirisch nachgewiesen werden, dass Leistungsungerechtigkeiten, soweit vorhanden, Ausgleichsbedürfnisse auslösen – statt etwa Gewöhnung.

252

Tobias Werron

auszuschließen (vgl. Guttmann 1978; Hitzler 1991; Stichweh 1995). Inwiefern es dabei auf den Körper ankommt, wird an folgendem Argument deutlich: Ein Brettspiel wie Schach könne kein Sport sein, da es in ihm nicht primär um körperliche Leistungen gehe. Das wiederum erkenne man daran, dass die Züge nicht zwingend vom Spieler selbst ausgeführt, sondern auch delegiert werden könnten. Sie seien keine höchstpersönliche, also keine körperliche, sondern geistige Leistung (vgl. Hitzler 1991: 482; Stichweh 1995: 17). Das Argument leuchtet als Unterscheidung körperlicher und geistiger Leistungen durchaus ein, erklärt aber nicht, sondern setzt voraus, dass nur körperliche Leistungen als sportliche Leistungen in Betracht kämen. Damit setzt es sich aber nicht nur in Widerspruch zum Selbstverständnis des Sports (der Deutsche Schachverband gehört z. B. zum deutschen Sportbund; Schach hat eine anderen Sportarten vergleichbare Wettkampforganisation; Schach wird im Sportteil der Tagespresse behandelt etc.), sondern schließt eine Vielzahl von Wettkampfpraktiken ohne nähere Begründung aus ihrem Gegenstand und Vergleichsinteresse aus. Diese Tendenz, Sport fraglos mit „Körperkultur“ gleichzusetzen oder primär als Körperpraxis zu beschreiben, hat eine lange Tradition in der sporthistorischen (dazu kritisch Eisenberg 2003) und sportsoziologischen Forschung, die ein schwer auflösbares Amalgam des Sports mit „Leibesübungen“ und „Körpererziehung“ begründet hat (noch heute tragen zahlreiche Organisationen, Bücher und Zeitschriften „sport“ und „physical education“ gleichzeitig im Namen) und durch einen deutlich normativen und/oder pädagogischen Impetus geprägt ist.9 Wer als Soziologe an der Autonomie des modernen Sports interessiert ist, tut daher gut daran, das Vorurteil, dass es im Sport auf den Körper ankomme, zurückzustellen, sich zunächst auf abstraktere Gesichtspunkte der Organisation und Beobachtung von Wettkämpfen zu konzentrieren und auf die Rolle des Körpers erst in zweiter Linie zurückzukommen. Als Zwischenfazit sei festgehalten: Die Tradition des Nachdenkens über den modernen Sport ist geprägt von Voreinstellungen, die der Entwicklung einer genuin soziologischen Theorie des modernen Sports entgegengestanden haben. Ihre Gemeinsamkeit ist, dass sie den Sinn für die Voraussetzungen der Autonomie, Eigenlogik und Eigenkomplexität des modernen Sports über Theoriegrenzen hinweg beeinträchtigt haben, und auch die soziologische Systemtheorie allein hat sich noch nicht als Versicherung gegen diese Fehlschlüsse erwiesen.10 Man muss sie offenbar erst diagnostizieren und gezielt vermeiden, um Zugang zu einem genuin soziologischen Verständnis des modernen Sports zu gewinnen.

9

10

Mit der Folge, dass Forschungen zum Sport, so z. B. Cachays (1988) materialreiche Studie zu „Sport und Gesellschaft“, häufig ausschließlich von Erziehungs- und Gesundheitssemantiken handeln. Zur disziplingeschichtlichen Verbindung besonders der deutschen Sportsoziologie mit der Soziologie des Körpers vgl. Heinemann 1998: 41. Insofern bestätigt diese Analyse die Einschätzung des Historikers Michael Krüger (1993: 34), wonach der Versuch einer historisch-soziologischen Erklärung des modernen Sports „über die Ansätze von Elias, Dunning und Eichberg nicht wesentlich hinausgekommen“ sei. Allein Guttmann habe „mit seinem Versuch einer Abgrenzung des modernen Sports gegen andere historische Realisierungsformen von Leibesübungen einen aufschlußreichen Beitrag zur historischen Einordnung des modernen Sports, aber keine Erklärung geliefert“.

Die zwei Wirklichkeiten des modernen Sports: Soziologische Thesen zur Sportstatistik

253

Zur Autonomie des modernen Sports Eine alternative soziologische Theorie des modernen Sports müsste also (1) Sport nicht auf Spiel reduzieren, (2) ihn nicht vorschnell mit Kompensationsfunktionen erklären, (3) ihn nicht per Analogieschluss auf Aspekte anderer Sozialbereiche zurückführen und (4) sich durch Körperbezüge des Sports nicht von den sozialen Voraussetzungen seiner Genese ablenken lassen. Wenn man all dies vermeidet und sich statt dessen ganz auf die soziologische Fragestellung nach der Autonomie des modernen Wettkampfsports konzentriert, gelangt man wie von selbst zurück zu der Frage, wie sich der Wettkampfsport selbst, d. h. mittels eigener Strukturen, von verwandten Spiel- und Wettkampfformen unterscheidet.11 Eine Lösung zeichnet sich ab, wenn man an der Wettkampfstruktur weniger das Spielerische betont als den Umstand, dass es sich um eine Struktur handelt, die Leistungsvergleiche ermöglicht. Die Wettkampfform ist dann zunächst abstrakt bestimmbar als ein in zeitlicher, räumlicher und sozialer Hinsicht beschränkter Vergleich von Leistungen, wobei, je nach Sportart, die zeitliche Beschränkung von 10 Sekunden (in einem 100-Meter-Lauf) bis 5 Tagen (in einem Cricket-Match) reichen kann, die räumliche von einem Quadratmeter (im Schach) bis zur mehreren hundert Kilometern (in einem Radrennen), die soziale von zwei Teilnehmern (in einem Boxkampf) bis zu mehreren Tausend (in einem Stadtmarathon). In dieser Form ist ein bestimmtes Spektrum von Erlebnismöglichkeiten des Publikums immer schon angelegt – Sieg/Niederlage, Präsenz, Spannung/Kontingenz, Identifikation – die in der Wettkampforganisation und –beobachtung aufgegriffen und stabilisiert werden können (näher Werron 2005a), und in diesem Sinne kann man sagen, dass das Erleben von Leistungen das Bezugsproblem des Sports bezeichnet. Auf dieser Grundlage lässt sich gezielter nach Anregungen aus der historischen und soziologischen Literatur fragen. Von Interesse ist dann insbesondere historische Literatur, die die „Eigenweltlichkeit“ des modernen Wettkampfsports postuliert und explizit von der Geschichte der Körperkultur abgrenzt (siehe Eisenberg 1997, 1999)12 sowie soziologische Literatur, die den modernen Sport als autonomes System beschreibt, das sich auf den Vergleich von Leistungen spezialisiert hat (Stichweh 1990, 1995).13 Zieht man beide Anregungen zusammen, führen sie auf die These, dass sich die Autonomie des Sports auf die historisch erworbene Fähigkeit stützt, den räumlich-zeitlich-sozial beschränkten (wettkampfförmigen) Leistungsvergleich in einen in all diesen Hinsichten unbeschränkten (universalen) Vergleich von Leistungen einzubetten. In sozialer Hinsicht etwa bezieht er eine wachsende Zahl von Teilnehmern und Zuschauern in den Leistungsvergleich ein, standardisiert zu diesem Zweck etwa seit Mitte des 19. Jahrhunderts seine Regeln und organisiert die Wettkämpfe in Hierarchien, die für eine potentiell unbegrenzte 11

12 13

Die folgende Alternativlösung, um dies vorab zu sagen, stützt sich nicht auf den Versuch, eine Funktion des Sports festzulegen. Die Definition einer gesellschaftlichen Funktion des Sports mag gelingen oder nicht gelingen, hängt aber in jedem Fall davon ab, dass es gelingt, die spezifische kommunikative Qualität sportlicher Handlungen zu verstehen und in ein Gesamtverständnis des modernen Sports zu integrieren. Der Vorschlag geht also von einer Umkehrung der Problemstellung aus, die nicht die Autonomie des Sports von der Lösung der Funktionsfrage abhängig macht, sondern umgekehrt die Funktionsfrage von einer plausiblen Rekonstruktion der Autonomie. Für häufig genannte Vorläufer dieser sog. Eigenweltthese siehe Steinitzer 1910; Risse 1921; vgl. zur Autonomie prägnant auch schon Benary (1913: 108), der Sportarten die Fähigkeit zuschreibt, „sich als selbständige, komplexe Erscheinungen durchzusetzen und zu behaupten“. Speziell zum Zusammenspiel von Leistungs- und Vergleichsprinzip vgl. auch Krockow 1972; zum modernen Leistungsprinzip im Sport vgl. die Schriften von Henning Eichberg (1974, 1976, 1984).

254

Tobias Werron

Zahl von Teilnehmern aufnahmefähig sind. In zeitlicher Hinsicht sorgt er für Kontinuität des Leistungsvergleiches durch Organisation der Wettkämpfe in Ligen- und anderen Seriensystemen und legt sich ein eigenes Gedächtnis zu, mit dem er in die Vergangenheit hineingreift, um gegenwärtige Leistungen an vergangenen Leistungen messen zu können. Auch räumlich dehnt er sich aus und wird zu einem nahezu ubiquitären Phänomen, so dass z. B. der Weltfußballverband FIFA heute auf mehr Mitgliedsverbände (207) verweisen kann als die UNO auf Mitgliedsstaaten (191). Der Horizont (systemtheoretisch-phänomenologisch: die Welt) des Vergleiches wird in all diesen Hinsichten universal, und wo immer faktische Grenzen der Ausweitung bleiben, sind sie jedenfalls im Prinzip nicht mehr vorgesehen. Jeder Wettkampf und jede Wettkampfleistung ist so zunehmend nur noch im Horizont anderer Wettkämpfe und Leistungen verständlich. Die „Lokalität“ im Sinne zeitlichräumlich-sozialer Begrenztheit einzelner Wettkämpfe bleibt dabei voll erhalten, wird aber eingebettet auf einer zweiten, zunehmend komplexen Beobachtungsebene, über deren Relevanzen nur in der Sonderexpertenwelt des Sports entschieden werden kann. Macht man sich diese Sicht zu eigen, folgt die Autonomie des Sports nicht aus geschickt arrangierten Umweltbeziehungen, sondern aus einem Prozess der Verselbständigung des Leistungsvergleichs über einzelne Wettkämpfe hinaus, und die „Globalisierung“ des Sports erscheint nicht lediglich als Effekt der weltweiten Diffusion von Regeln, Taktiken etc. (so die Vorstellung von „ludic diffusion“ bei Guttmann 1994), sondern als genuines Modernitätsmerkmal, das räumliche Aspekte der Realisierung eines umfassenden, nicht nur räumliche Aspekte betreffenden Universalitätsanspruches bezeichnet.14 Diese These nimmt jedoch eine eigene Beweislast auf sich. Sie muss zeigen können, wie sich die Einbettung von Wettkämpfen in globalen Vergleichszusammenhängen vollzieht, und sie muss dies als Vorgang beschreiben können, der mit der Genese eigenständiger Autonomie des Sports verbunden ist. Wie also lässt sich die Autonomie des Sports so rekonstruieren, dass die Realität einzelner Wettkämpfe ebenso gewahrt bleibt wie die autonome Realität der Zusammenhänge zwischen den Wettkämpfen? Auch hierfür finden sich Anregungen in der Literatur, so früh schon bei Benary (1913), der „direkten Kampftrieb“ und „indirekten Kampftrieb“ differenziert, oder in der strukturalistischen Analyse Lüschens (1976), die zwischen dem „inneren System“ – den Wettkämpfen – und dem „äußeren System“ des Sports unterscheidet. Aus neuerer systemtheoretischer Sicht drängt sich der Versuch einer kommunikationstheoretischen Lösung des Problems auf, die angedeutet ist in Schulzes (2005) Unterscheidung zwischen Wettkämpfen als „Bewegungssystemen“ und Sportarten als „Kommunikationssystemen“ sowie in Stichwehs (2005) Unterscheidung zwischen „Wettkampfsystem“ und „Publikumssystem“ als operativ geschlossenen, aber strukturell gekoppelten Teilsystemen des Sports – wobei man letztere Formulierung auch als Konkretisierung einer früheren Bemerkung verstehen kann, das Sportsystem setze sich aus Kommunikationen von und über Leistung zusammen (Stichweh 1990).

14

Zu diesem Begriff von Weltsport näher Werron 2005a. Die Auffassung, dass die räumliche und soziale Ausdehnung den modernen Sport charakterisiere, findet sich auch bei Adelman (1986) und Stokvis (1992, 2005). Bei diesen Autoren bleiben aber die operativen Voraussetzungen der Ausweitung offen, so dass letztlich auf die Absichten handelnder Akteure rekurriert werden muss, insbesondere auf den „wish of competitors from different localities, regions and nations to compete with each other“ (Stokvis 2005: 111). Kommunikationstheoretisch betrachtet läuft das auf einen weiteren, nämlich handlungstheoretischen Fehlschluss hinaus.

Die zwei Wirklichkeiten des modernen Sports: Soziologische Thesen zur Sportstatistik

255

Der Erkenntnisgewinn all dieser Unterscheidungen liegt in der deutlichen Trennung zweier Ebenen, die mit der hier interessierenden Differenz von Wettkämpfen und Wettkampfzusammenhängen auf den ersten Blick gut zusammenpasst. Unser Problem ist damit aber allenfalls zur Hälfte gelöst. Zu klären wäre darüber hinaus, wie die Verweisungszusammenhänge zwischen den Wettkämpfen operativ hergestellt werden, und dies Problem wird eher verdrängt als gelöst, wenn man die Wettkämpfe auf den Status von Bewegungssystemen herabsetzt und vom Kommunikationssystem des Sports abtrennt (Schulze) oder wenn man die Ebenen als operativ geschlossene Systeme beschreibt (Stichweh). Kurz: in der Literatur wird die Trennung, nicht aber das operative Zusammenspiel beider Ebenen beschrieben. Wer sich für eine kommunikationstheoretische Beschreibung dieses Zusammenspiels interessiert, muss daher zusätzlich nach den kommunikativen Mitteln fragen, die dem Wettkampfverhalten selbst kommunikative Qualität verleihen und zugleich Deutungszusammenhänge zwischen den Wettkämpfen begründen. Einen semantischen Hinweis auf die gemeinte kommunikative Qualität des Wettkampfverhaltens gibt eine im Sportdiskurs häufige Redewendung, eine Sportlerin oder eine Mannschaft müsse „Leistung sprechen lassen“. Das wird gern von Sportlern verlangt oder von ihnen selbst angekündigt, die in vergangenen Wettkämpfen nicht überzeugt haben. Man soll oder will nicht reden, sondern stattdessen Leistung sprechen lassen (was man freilich auch nur redend ankündigen kann). Der Wettkampf wird als Sprachersatz in Anspruch genommen, als Mittel, etwas mitzuteilen, nämlich Bereitschaft und Fähigkeit, seine Leistung zu steigern und den Gegner im Wettkampf zu besiegen. Zugleich ist klar und wird eigens betont, dass diese Art der Mitteilung gerade nicht auf Sprache zurückgreifen kann; sie ist „wie Sprache“ nur insofern, als sie auch Kommunikation ist, im Übrigen aber gerade nichtsprachlich. Im Sinne dieses Leistungsprechenlassens kann Wettkampfverhalten Kommunikation sein, sofern sie entsprechend verstanden wird. Diese Mitteilungsmöglichkeit ist aber an die Wettkämpfe gebunden, so lokal und ereignishaft wie diese, und teilt mit den Wettkämpfen die zeitliche und räumliche Beschränkung, ist Kommunikation unter Anwesenden oder auch präkommunikative Sozialität (vgl. Kieserling 1999: 118ff.). Eine darüber hinausreichende Evaluation von Wettkämpfen ist an sprachliche und schriftliche Kommunikation über Wettkämpfe gebunden, wobei wiederum zwischen der Evaluation einzelner und der Relationierung vieler Wettkämpfe zu unterscheiden ist. Nur auf diesem Weg können Bewegungen und anderes Wettkampfverhalten15 als Kommunikation konstituiert und „selbstsimplifizierend“ als Leistungshandlungen gedeutet werden (dazu allgemein Luhmann 1984: 191ff.). Die Kommunikation über Leistung muss demnach zweierlei und beides zugleich leisten: (1) das Geschehen einzelner Wettkämpfe dokumentieren und für weitere Vergleiche fixieren; (2) Wettkämpfe aufeinander beziehen und Kriterien für die wettkampfübergreifende Evaluation von Leistungen bereitstellen. Die Ebene der Kommunikation über Leistung ist also zugleich auch für die Überbrückung bzw. Kopplung beider Ebenen zuständig, wobei, genauer gesagt, die Berichterstattung über einzelne Wettkämpfe die Kopplung beider Ebenen gewährleistet, während die Relationierung vieler Wettkämpfe die zweite Ebene als eigenständige Ebene erst konstituiert und eigene Autonomie des Sports erst ermög-

15

Stichweh (1990) bemerkt, dass bisweilen nicht „Bewegung“, sondern „Halten“, z.B. der Hantel im Gewichtheben, als Leistungshandlung in Betracht kommt. Bezieht man zudem Schach und andere primär geistige Leistungsvergleiche mit ein, wären auch bloße „Entscheidungen“ als Leistungshandlungen zu akzeptieren.

256

Tobias Werron

licht.16 Die Wettkämpfleistungen der Sportler erscheinen in dieser Sicht als Zurechnungsleistung der Kommunikation über sie, und Zahlengebrauch („Quantifizierung“) interessiert als Variante des Sprechens und Schreibens über einzelne und viele Wettkämpfe, einzelne und viele Leistungen. Diese operative Analyse kann aber nur ein erster Teil der Lösung sein, denn Kommunikation von und über Leistung in diesem basalen Sinne hat es natürlich auch schon vor dem modernen Sport gegeben und gibt es ebenso bei Gesellschaftsspielen und anderen verwandten Formen. Der nächste Teil beginnt mit der These, dass sich die Verselbständigung des Leistungsvergleichens und die ihr entsprechende Differenz von Spiel und Sport primär auf drei evolutionäre Errungenschaften stützt: (1) auf die Standardisierung der Regeln einzelner Sportarten, (2) auf einem kontinuierlichen, eine potentiell unbegrenzte Zahl von Teilnehmern umfassenden Wettkampfbetrieb dieser Sportarten sowie (3) auf eine auf diesen Betrieb bezogene, ihn übergreifende Evaluation von Leistungen: Einheitliche Regeln (Leistungsbedingungen) Publikum (Vergleichskriterien) 1.

2.

16

Wettkampfbetrieb (Vergleichsereignisse)

Vereinheitlichte, häufig von Weltverbänden (wie der Fifa) überwachte Regeln gewährleisten die Stabilität der Leistungsbedingungen. Sie sind gleichsam die Basis der Verselbständigung des Leistungsvergleichs, denn je einheitlicher die Regeln unterschiedlicher Wettkämpfe und die übrigen Wettkampfbedingungen, desto plausibler scheint es, sie auch über räumlich-zeitlich-soziale Distanzen hinweg als Leistungen miteinander zu vergleichen. Das gilt schon für gleichzeitige, aber räumlich entfernt ausgetragene Wettkämpfe etwa einer nationalen Liga, aber ebenso für historisch und sozial weiter ausgreifende Vergleiche. Der Wettkampfbetrieb, vor allem in Ligen- und Seriensystemen und Groß- bzw. Weltereignissen, sorgt für kontinuierlichen Nachschub an Vergleichsereignissen. Diese Leistung wird häufig unterschätzt oder ganz übersehen, obschon ihre Einrichtung sich, historisch gesehen, als eine besonders schwierige Herausforderung erwiesen hat (vgl. zu den amerikanischen Profiligen Leifer 1995). Dieser Betrieb schließt aufwendige Vorkehrungen zur Erhaltung von „competitive balance“ ein, etwa Auf- und Abstiegsregelungen oder so genannte Draft-Systeme, die den erfolglosesten Mannschaften den Zugriff auf die besten Nachwuchsspieler sichern. Es scheint also, darauf komme ich

Ein früher Vorgänger dieser Auffassung ist Robert Musil, der einmal bemerkt hat, der Geist des Sports sei nicht aus der Ausübung, sondern aus dem Zusehen entstanden. Solche Äußerungen Musils und anderer Autoren lassen Gero Rigauer schließen: „Der sportliche Wettkampf und Vergleich lebt vom Betrachtetwerden.“ (Rigauer 1982: 89). Aber inwiefern genau „lebt“ er davon? Der hier vorgeschlagene Publikumsbegriff versucht auf diese Frage zu antworten.

Die zwei Wirklichkeiten des modernen Sports: Soziologische Thesen zur Sportstatistik

3.

257

noch zurück, ein Kriterium gelingender Wettkampforganisation zu sein, neben der Kontinuität auch die Ergebnisoffenheit der Wettkämpfe zu garantieren. Die Evaluation schließlich stellt Vergleichskriterien bereit, die die Erfassung einzelner Wettkämpfe mit der Relationierung vieler Wettkämpfe verbinden. In systemtheoretischer Diktion kann man auch sagen, dass es um die Gedächtnisfunktion von Sportarten geht, d. h. um die Fähigkeit, wiederholt verwendbare Schemata für einen selektiven, zugleich stets gegenwärtigen Zugriff auf die Systemgeschichte bereit zu halten und die Vergangenheit damit als „erworbene Gegenwart“ verfügbar zu machen (zum Begriff siehe Luhmann 1996; vgl. auch Baecker 1987; Esposito 2002). Dabei kann man grob zwischen drei Gruppen von Schemata – visuellen, narrativen und quantitativen Elementen – unterscheiden, die alle auf je unterschiedliche Weise an der Leistungsevaluation beteiligt sind (näher Werron 2005b). Unabhängig von speziellen Theoriebegriffen lässt sich diese Funktion auch so fassen, dass Sportarten eine Beziehung zu ihrer Vergangenheit ebenso wie zu ihrer Zukunft unterhalten müssen. Dass diese Beziehung in der Gegenwart ständig neu justiert werden muss, folgt im Prinzip schon daraus, dass der Wettkampfbetrieb ständig weiterläuft – jedenfalls folgt es daraus dann, wenn die Ergebnisse/Leistungen vorangegangener Wettkämpfe als relevant für darauf folgende Wettkämpfe beobachtet werden sollen. Ein gutes Beispiel für ein solches Schema ist eine Ligatabelle, die die künftigen Chancen (Meisterschaft, Europapokalteilnahme etc.) und Risiken (Abstieg) für alle Mannschaften auf einen Blick zugänglich macht, zugleich, und das definiert sie als Schema, immer offen bleibt für Verschiebungen des Tabellenstandes.

Das Gedächtnis teilt also mit den Regeln die Eigenschaft, nicht auf „den Sport“, sondern auf die Wettkampfabfolgen einzelner Sportarten bezogen zu sein. Außerdem teilen die Gedächtnisoperationen mit den Wettkämpfen eine Eigenschaft, die leicht zu übersehen ist, weil sie allzu selbstverständlich erscheint: Sie werden öffentlich, d.h. allgemein zugänglich vollzogen.17 In einem weiten Sinn des Begriffes kann man daher auch sagen, dass die Gedächtniselemente Publikum des Sports sind und dass sie für den modernen Sport in einem ähnlichen Sinne konstitutiv sind wie Märkte für die moderne Wirtschaft oder die öffentliche Meinung für die moderne Politik, indem sie dem Sportbetrieb eine komplexere Zweitfassung seiner selbst zur Verfügung stellen.18 Empirisch lässt sich z. B. jeder erzählende Wettkampfbericht in der Sportpresse als Operation verstehen, mit der ein Ausschnitt der Vergangenheit für Anschlussbeobachtungen aufbereitet und für Vernetzung mit weiteren Wettkämpfen zugänglich gemacht wird; Portraits kommen hinzu, die an die Karrieren großer Spieler erinnern (und sie mit den Karrieren der aktuellen Stars vergleichen); ein Duell zweier rivalisierender Mannschaften kann Anlass sein, sich im Vorbericht an vergan17

18

Der demnach zu erwartende Zusammenhang zwischen Genese des modernen Sports und Sportpublizistik ist häufig diagnostiziert, aber selten näher beschrieben worden; vgl. aber Oriard 1993 am Beispiel von American Football. Die historische Bruchstelle – die nicht zufällig mit der Entstehungszeit des modernen Sports zusammenfällt – wird markiert von der Presse des 19. Jahrhunderts bzw. deren Allianz mit der Telegraphie als dem ersten sog. Echtzeitmedium. Das Gegenmodell zu dieser Vorstellung einer konstitutiven Rolle des Publikums findet sich bei Bourdieu (1986), der das Publikum als „passiven Konsum“ aus dem Feld des Sports herausverlagert, oder bei Riedl (2005), der meint, der Sport könne auch ohne Publikum auskommen und das Publikum diene lediglich als Mechanismus struktureller Kopplung des Sports mit anderen Funktionssystemen (eine Auffassung, die zu dem oben beschriebenen „autotelischen Fehlschluss“ passt).

258

Tobias Werron

gene Duelle zu erinnern (und auf die Chancen beim bevorstehenden Spiel zu schließen); Enzyklopädien bzw. Datenbanken können Informationen über sämtliche je ausgetragene Wettkämpfe einer Sportart auf einen Blick zugänglich machen (und zum Vergleich mit gegenwärtigen Wettkämpfen anregen) etc. Die eingesetzten Medien können zwischen gedruckten und/oder digitalisierten Texten, stehenden oder bewegten Bildern und Tonaufnahmen variieren – stets wird ein gegenwärtiges Interesse am Leistungsvergleich zum Anlass einer selektiven Rückblende auf die Vergangenheit. Das Verhältnis dieser drei Errungenschaften kann man sich als Verhältnis wechselseitiger Ermöglichung vorstellen und eine mit diesen Prämissen arbeitende Erklärung der Genese des modernen Sports müsste sich vor allem um die historische Rekonstruktion dieser Dreiecksbeziehung bemühen. Im Folgenden werde ich mich auf Bemerkungen zur Rolle von Zahlen im Gedächtnis/Publikum des Sports konzentrieren und die beiden anderen Voraussetzungen weitgehend als gegeben unterstellen. Zahlen im Gedächtnis des Sports Wenn der Beitrag des Gedächtnisses (Publikums) zur Autonomie des Sports darin bestehen soll, Wettkämpfe in einen potentiell unbeschränkten Evaluationszusammenhang weiterer Wettkämpfe einzubetten, dann müsste auch die Funktion von Zahlen mit diesem Beitrag zu tun haben. Um diese These zu überprüfen, werde ich zunächst an einem einzelnen Basketballspiel (der nordamerikanischen Profiliga NBA von Januar 2006) zu zeigen versuchen, wie ein sportlicher Wettkampf in der Sportpublizistik gleichsam sozial zur Welt gebracht und mit anderen Wettkämpfen vernetzt wird. Die dabei entwickelten Argumente werde ich dann mit einigen weiteren Statistiken und Statistik-Selbstbeschreibungen, wiederum vorwiegend aus dem Basketball, erläutern. Die Eignung von Zahlen, den Ausgang eines einzelnen Wettkampfes zu dokumentieren und festzustellen, wer in diesem Wettkampf die bessere (= leistungsfähigere) Mannschaft gewesen ist, ist leicht zu sehen. Ohne Zahlen dieser Art wäre jeder Spielbericht unvollständig, denn ein Basketballspiel wird von der Mannschaft gewonnen, die mehr Punkte erzielt. Das folgende Spiel, ein Spiel der „regular season“ im Januar 2006, haben die „Phoenix Suns“ gewonnen: Abbildung 1:

„Recap“

Wer mehr Punkte erzielt, gewinnt das Spiel, aber diese „Ergebniszahlen“ verraten noch nicht viel über Spezifika des Zahlengebrauchs im Sport. Auch bei einer Partie Scrabble oder Skat im Familienkreis würde man ja Punkte notieren und zusammenzählen müssen, um Sieger und Verlierer zu ermitteln. Die Spezifika eines sportlichen Spielberichtes werden

Die zwei Wirklichkeiten des modernen Sports: Soziologische Thesen zur Sportstatistik

259

schon deutlicher, wenn man auf die Zahlen achtet, die unter den Punkteergebnissen stehen („29-9“), da sie andeuten, dass diesem Spiel weitere vorangegangen waren und noch viele weitere (hier 82 Spiele in der regulären Spielzeit) folgen werden, also implizit auf andere Spiele verweisen. Die Konsequenzen werden klarer, wenn man auf die Rubrik „Play-byPlay“ klickt, in der jede statistisch relevante Spielaktion erfasst wird: Abbildung 2:

„Play-by-Play“

Jedes der vier Viertel, in die ein Basketballspiel eingeteilt ist (und, wenn erforderlich, auch noch die Verlängerung, die „over time“), wird auf diese Weise Spielzug für Spielzug dokumentiert, und das Gesamtergebnis dieser Zählungen kann man während des Spiels und danach im „box score“ ablesen:19 Der „box score“ gibt einen Überblick über alle gängigen Leistungskategorien, von gespielten Minuten (min) über erfolgreiche/versuchte Korbwürfe („field goals“, FGM-A), Dreipunktewürfe (3PM-A), Auffangen von Abprallern („rebounds“, OREB/DREB/REB), „assists“, Zuspiele, die zum Korberfolg führen (AST), Ballgewinne („steals“, STL), ge19

Der „Box Score“ ist eine Darstellungsform, die ursprünglich aus dem Cricket stammt und in den 1850er Jahren in das Baseball, später dann auch in andere Sportarten übernommen wurde. Zur Geschichte des Box Score und anderer statistischer Instrumente des Baseball, eingebettet in ein Porträt des „father of baseball“, Henry Chadwick, vgl. Tygiel 2000: 15ff.; zur Statistikgeschichte des Baseball, die vieles vorwegnimmt, was sich in Sportarten wie Basketball oder Fußball gerade erst zu entwickeln beginnt, vgl. Schwarz 2004.

260

Tobias Werron

blockte Würfe („blocks“, BLK), Ballverluste („turnover“, TO) und persönliche Fouls (PF), schließlich die in diesem Spiel erzielten Punkte (PTS), und zwar in Bezug auf einzelne Spieler wie auch, in den jeweils letzten Zeilen, in Bezug auf die gesamte Mannschaft. All diese positiven (Punkte, Rebounds, Assists, Ballgewinne, Blocks) und negativen (Ballverluste, Fouls) Leistungskategorien erlauben den Vergleich der Leistungen aller Mannschaften und aller an einem Spiel teilnehmenden Spieler unter speziellen Vergleicheinheiten bzw. Leistungskategorien. Abbildung 3:

„Box Score“

Eine dieser Vergleichseinheiten, die „assists“, will ich etwas näher betrachten, um den Weg vom Einzelwettkampf zu weiter ausgreifenden Vergleichen exemplarisch nachzuvollziehen. Mit Ian Hacking könnte man mit Bezug auf solche Vergleichseinheiten auch von „new classes“ sprechen, die im Rahmen eines bestimmten statistischen Argumentationsstils („style of reasoning“) Plausibilität gewinnen.20 Dabei ist jedoch der eigene, statistische, aber auch andere Elemente übergreifende Argumentationsstil des Sports zu berücksichtigen. Dieser Stil ist das Denken in Leistungsvergleichen, und in dieses Denken fügt sich ein „as20

Hacking 1992: 144. Vanderstraeten (2006) spricht für analoge Fälle aus der Bevölkerungsstatistik bzw. Staatswissenschaft des 19. Jahrhunderts von „Klassifikationsschemata“.

Die zwei Wirklichkeiten des modernen Sports: Soziologische Thesen zur Sportstatistik

261

sist“ wie folgt ein: Wenn Punkte ein plausibles Leistungskriterium sind, weil sie Spiele entscheiden, aber erfahrungsgemäß mehr als die Hälfte der Würfe nicht zum Erfolg führt, dann sind auch Pässe als Leistungskriterium plausibel, die die Wahrscheinlichkeit, dass ein Wurf zum Erfolg führt, günstig beeinflussen. Dieses bereits in sich statistische Argument (erst aufgrund einer großen Zahl verwandelter und nicht verwandelter Würfe lässt sich ermessen, welcher Wahrscheinlichkeitswert den assists zugeschrieben werden kann) findet Ausdruck in der folgenden Definition aus einem offiziellen Statistikhandbuch, die zugleich zeigt, wie voraussetzungsvoll die Bestimmung und Anwendung solcher Vergleichskategorien ist (indem sie es dem „judgement of the statistician“ überlässt, ein assist als „major part of the play“ zu identifizieren): „A player is credited with an assist when the player makes, in the judgment of the statistician, the principal pass contributing directly to a field goal (or an awarded score of two or three points). Only one assist is to be credited on any field goal and only when the pass was a major part of the play.” (NCAA 2005: 30)

Wenn sich aber eine Vergleichseinheit wie ein „assist“ und die Idee, die assists aller Spieler zu vergleichen, erst durchgesetzt hat, drängen sich weitere Vergleiche und die sie ermöglichenden Zahlen geradezu auf. Denn die Vergleichskategorie ist so abstrakt angesetzt, dass sie in jedem Spiel vorkommen kann, und so kann ihre Zählung auf alle Spiele ausgedehnt, zu einem Durchschnittswert („assists per game“, APG) verrechnet sowie in einer Rangliste aller Durchschnittswerte aller Spieler der Liga eingetragen werden:21 Abbildung 4:

„NBA Assists Leaders“

Daran können weitere, noch umfassendere, sozial und historisch weiter ausgreifender Vergleiche anschließen. So kann insbesondere die Suche nach dem besten aller Spieler und nach Formeln beginnen, die sämtliche Einzelleistungen sämtlicher Spieler miteinander verrechnen und in einer einzigen Zahl zusammenziehen. Charakteristisch dafür ist folgende Statistik, ein „Player Efficiency Rating“ (PER) zur Evaluation von Basketballspielern, in dem „assists“ als eines von insgesamt neun Leistungskriterien auftaucht:22 21 22

http://sports.espn.go.com/nba/statistics?stat=nbaassists&league=nba&sort=asts&season=2006 (Stand: 09.04.2006). http://insider.espn.go.com/nba/hollinger/statistics (Stand: 09.04.2006). Solche Formeln, die die Spieler von Mannschaftssportarten unabhängig von ihrer Spielposition vergleichen, sind gegenwärtig stark im Kommen. Vgl. den „Player Performance Index“ (PPI), der vom Fernsehsender Eurosport während der FußballWeltmeisterschaft 2006 verwendet wurde (http://www.eurosport.com/football/worldcup/2006/stats-center.

262

Tobias Werron

Abbildung 5:

„Player Efficiency Rating“

Zum Anspruch dieser Rangliste bemerkt der Erfinder: „Allow me to explain. One reason I developed a new type of statistics is that I wanted to be able to make fair comparisons of players – regardless of position, number of minutes played, a player’s image and so on. In other words, I wanted all players to be comparable … apples to apples, year to year, player to player.” (Hollinger 2005; Hervorhebungen: T. W.)

Ganz ähnlich beschreibt sich ein „Player Performance Index“ (PPI), der von dem Fernsehsender Eurosport während der Fußball-Weltmeisterschaft 2006 eingeführt wurde und der unterstreicht, dass der Zug zur detaillierten statistischen Erfassung längst auch Sportarten wie Fußball erfasst hat, die man lange für eher zahlenresistent gehalten hatte: „The actions specific to each role are taken into consideration and for each kind of ball played, a rating is calculated on an historical base and on the expectation of the performance for a player in that role. To give an example, a goalkeeper should save every shot he faces. Consequently, when he concedes a goal, it is considered a negative point in his evaluation, regardless of whether he was directly responsible for it or not. In the same way, if a team concedes a goal, it counts against all the defenders in that team. On the other hand, an interception or a tackle won counts as a positive factor. Obviously, a pass is not worthy of the same recognition as a goal, and is therefore not given the same rating, having its own 'coefficient of importance.' The PPI is then calculated converting the evaluation obtained on a scale between zero and 10. An 'adequate' performance is represented by a value of 6, a very poor performance will result in a PPI of around 2, while a superb performance will result in a PPI between 9 and 10.”23

Soziologisch bemerkenswert an solchen Indizes ist die Sorgfalt, mit der versucht wird, den Einzelleistungen der Spieler gerecht zu werden, etwa ihre Spielpositionen auf dem Platz zu berücksichtigen, positive und negative Leistungen zu registrieren „for each kind of ball played“ oder, so im Falle des „Player Efficieny Rating“, das Spieltempo der Mannschaften, denen der jeweilige Spieler zugehört, in die Bewertung seiner Einzelleistungen einfließen zu lassen. Damit und mit ihren Selbstbeschreibungen bringen sie perfekt die „Grundnorm“ sportstatistischen Denkens zum Ausdruck: „Fair comparisons“, „apples to apples“, „year to year“, kurz: Leistungsvergleich unter Absehung von allen denkbaren alternativen, etwa ästhetischen Relevanzen und unter Überwindung aller zeitlichen und sozialen Beschränkungen.

23

shtml, Stand: 05.07.2006; vgl. dazu auch unten). Als Beispiel für eine ähnliche Statistik aus einer Einzelsport: der „Golf Rank Index“ (http://www.golfrankindex.com/00average01.htm, Stand: 15.05.06). http://www.eurosport.com/football/worldcup/2006/statscenter.shtml (Stand: 05.07.2006).

Die zwei Wirklichkeiten des modernen Sports: Soziologische Thesen zur Sportstatistik

263

Mit der Etablierung der entsprechenden Vergleichseinheiten und Verwendung über mehrere Spielzeiten fügen diese Einheiten wie von selbst in ein historisches Leistungsvergleichsdenken ein, das Leistungsvergleiche auch über viele Jahre und Jahrzehnte hinweg mit quantitativer Plausibilität versehen kann. Im Rahmen dieses Denkens kann dann z. B. nach dem „assist leader of all time“ gesucht werden. Die entsprechende Tabelle findet sich auf der „History“-Seite der Liga:24 Abbildung 6:

„NBA History“

Wenn man den Weg des Zahlengebrauchs vom einzelnen Ergebnis über anspruchsvollere Vergleichseinheiten bis zu historischen Vergleichen nachzeichnet, spricht also vieles dafür, dass sich das aufwendige Zahlenmaterial aufdrängt, ja beinahe zwingend durchsetzt, wenn die entsprechenden Vergleichseinheiten erst eingerichtet sind. Heute jedenfalls sind diese Zahlen zu einem selbstverständlichen Evaluationswerkzeug geworden, und kein Kenner käme auf die Idee, einen Spielmacher im Basketball zu bewerten, ohne sich zuvor über seinen „assists per game average“ informiert zu haben, oder über einen Flügelspieler ohne dessen „scoring average“, „scoring percentage“ oder „rebounds per game“. An diesen kursorischen Beispielen dürfte bereits deutlich geworden sein, wie den Wettkämpfen durch Bezug auf eine immer größere Zahl weiterer Wettkämpfe ein zunehmend komplexer Sinnzusammenhang unterlegt wird, ohne den sich dann auch der Sinn der Einzelwettkämpfe nur noch unvollständig verstehen ließe. Wenn man dieser Darstellung die Vorstellung hinzufügt, dass während einer Saison jede von 26 Mannschaften 82 Spiele bestreitet (und, je nach Erfolg, bis zu 28 weitere in den „playoffs“), dass jeder Wettkampf auf ähnliche Weise statistisch ausgewertet wird und dass mit jedem Wettkampf die Zahlen24

http://www.nba.com/statistics/default_all_time_leaders/AllTimeLeadersAPGQuery.html?topic=4&stat=10 (Stand: 28.06.2006).

264

Tobias Werron

basis weiter anwächst, gewinnt man schon einen guten Eindruck von der Komplexität, die eine Basketball-Liga binnen kurzer Zeit erreicht, wenn sie ihre Wettkämpfe auf diese Weise organisiert und beobachtet. Die Komplexität der Sportart im ganzen steigt entsprechend, wenn man sich Hunderte weitere Amateur- und Profiligen sowie zusätzliche Wettkampfformen wie Weltmeisterschaften und andere Großereignisse einschließlich Qualifikationsturniere und Vorbereitungswettkämpfe hinzudenkt, die in ihrer Gesamtheit den Wettkampfbetrieb einer Sportart bilden und von entsprechenden Vergleichsschemata wie Weltranglisten u. ä. begleitet werden. Sie steigt zusätzlich, wenn man auf die Zeitdimension achtet, denn mit dem Verweis auf Wettkämpfe vergangener Spielzeiten wird die Sportart gewissermaßen immer größer, selbst wenn die Zahl gegenwärtiger Teilnehmer konstant bleibt. Sie erwirbt eine eigene, mit ihr wachsende Geschichte, von der sie immer wieder neu erzählen und die sie immer wieder aufs Neue statistisch aufbereiten kann. Da aber auch die präziseste statistische Aufbereitung nichts an der Offenheit/Kontingenz künftiger Wettkampfverläufe ändert und gerade die Bewahrung dieser Offenheit zu den Prinzipien der Wettkampforganisation gehört, überrascht sich die Sportart trotz aller aufwendigen statistischen Selbstbeobachtung immer wieder mit sich selbst. Sie nutzt Zahlen also einerseits, um ihre Vergangenheit zu reduzieren und Vergleichsmöglichkeiten zu gewinnen, die ohne Zahlen nicht gegeben wären (Reduktionsfunktion), und andererseits, um Zukunftserwartungen zu ermitteln, die von den tatsächlichen Wettkampfverläufen erfüllt, aber auch enttäuscht und dann entsprechend statistisch verarbeitet werden können (Projektionsfunktion). So teilt z. B. ein „assists per game average“ mit, dass ein Sportler in der Vergangenheit eine bestimmte Durchschnittsleistung erbracht hat, die zukünftig eine bestimmte Leistung erwarten lässt, und die nun – mit Hilfe eben dieser Zahl – darauf beobachtet werden kann, ob sie sich verschlechtern oder verbessern wird. Ähnlich bereitet der aktuelle Stand einer „Weltrangliste“ auf mögliche/wahrscheinliche Verschiebungen auf der Weltrangliste vor, und ist ein „Rekord“ informativ mit Blick auf seine mögliche künftige Überbietung.25 Kurz: Der kontinuierliche Wettkampfbetrieb garantiert die Unwahrscheinlichkeit (Unsicherheit, Irritation, Kontingenz etc.) der Wettkampfverläufe, die von quantitativen und anderen Semantiken ebenso kontinuierlich in Wahrscheinlichkeit (relative Sicherheit, Erwartung, Normalität etc.) umgerechnet wird. Diese Kombination aus Sinnreduktion und Wahrscheinlichkeitsrechnung kennzeichnet den Zahlengebrauch im Sport, und so aufbereitet fügen sich Zahlen in die Gedächtnispflege im Sport meist harmonisch, bisweilen aber auch spannungsreich ein. Mögliche Spannungen ergeben sich aus einer Aufgabenteilung zwischen den Gedächtniselementen, die erneut mit der Differenz einzelne/viele Wettkämpfe zusammenhängt: Während narrative Elemente – zunehmend kombiniert mit visuellen Elementen – primär auf die Veranschaulichung von Leistungen in einzelnen Wettkämpfen und ihre kausale, suggestive, auch metaphorische Interpretation ausgerichtet sind, kommt die Statistik primär als Reduktionsinstrument zum Einsatz. Der Geltungsbereich von Zahlen und Narrativen muss daher immer wieder neu aufeinander abgestimmt werden (näher zur Doppelfunktion der Zahlen und zum Verhältnis der Gedächtniselemente Werron 2005b),26 was in der Sportberichterstattung insbesondere 25 26

In einer plausiblen Definition von „Rekord“ muss daher die potentielle Überbietbarkeit mit eingebaut sein; vgl. z. B. Röthig (1976, 249): „Rekorde sind bisher unübertroffene, nach bestimmten Richtlinien und Vorschriften erzielte und kontrollierte Leistungen ...“ (Hervorh. T.W.) Der „gesellschaftliche Reduktionsdruck“, nach dem Hendrik Vollmer in seiner Problemexposition einer Soziologie des Umgangs mit Zahlen fragt (Vollmer 2003: 18) lässt sich im Sport also auf einen systemspezifischen Zug zur Reduktion auf Leistung zurückführen. Viele der gegenwärtig beliebten Formen des „Ra-

Die zwei Wirklichkeiten des modernen Sports: Soziologische Thesen zur Sportstatistik

265

dann thematisiert wird, wenn es um Leistungsbereiche geht, für die mehr oder weniger anerkannt ist, dass sie sich allein statistisch nicht befriedigend erfassen lassen.27 Das gilt etwa für Defensivleistungen im Basketball, wie folgende typische Einschätzung eines führenden Basketballstatistikers zeigt: „Although we have some tools available to us for measuring defense, there aren’t any hard-andfast methods available for measuring defense as there are in other aspects of the game. However, a few metrics provide us with some solid clues to use in building on our subjective observations.” (Hollinger 2006)

„Subjective observations“ werden hier als Gegenbegriff für „metrics“ und „measuring“ verwendet, und gemeint ist Folgendes (hier bezogen auf die Defensivqualitäten des Basketballspielers Kobe Bryant von den Los Angeles Lakers im Vergleich mit einem anderen Star-Basketballspieler, LeBron James, von den Cleveland Cavaliers): “Subjectively, Bryant appears to be the better defender. He has been named first-team AllDefense twice, and although those selections were more the result of some well-timed performances on national TV than a consistent yearlong effort, the truth is that Bryant does expend more energy on defense than many other superstars.” (Hollinger 2006)

Die Formulierungen zeigen, dass es weniger um „subjektive“ Argumente des Statistikers im Unterschied zu „objektiven“ geht als um narrative im Unterschied zu quantitativen: Auch auf der narrativen Ebene lässt sich der „consistent yearlong effort“ von „well-timed perfomances on national TV“ unterscheiden sowie „truth“, also „Objektivität“, markieren. Entscheidend für die Argumentation ist in jedem Fall, dass es um Leistungsvergleich- und evaluation geht, und was immer sich zur Plausibilisierung von Leistungsunterschieden eignet, hat Chancen, als „objektiv“ ausgezeichnet zu werden. Vor dem Hintergrund dieser Überlegungen lässt sich nun noch etwas genauer sagen, wie die drei Grundbedingungen von Autonomie einander ergänzen: (1) Standardisierte Regeln sorgen für konstante Leistungsbedingungen, die plausibel erscheinen lassen, auch raumzeitlich distanzierte Wettkampfleistungen miteinander zu vergleichen. Nur unter dieser Bedingung ist ein „assist“ eine Leistung, die einer bestimmten Sportart, „Basketball“, zugerechnet werden kann. (2) Die Wettkampforganisation, hier die Ligenorganisation, gewährleistet einen beständigen Strom an Vergleichsereignissen und sorgt so für eine ständig wachsende Menge zusammengehöriger Daten. Nur auf dieser Basis lassen sich „assists per game“ in „offiziellen Basketballspielen“ zählen und die Leistungsquotienten heutiger Spieler mit denjenigen vergangener Zeiten vergleichen. (3) Aber erst mit Hilfe seines öffentlichen Gedächtnisses, seiner Leistungsvergleichskriterien, die den Vergangenheits- und Zukunftsbezug des Sports organisieren, gewinnt der Sport Autonomie. Nur mit ihrer Hilfe kann er sich an der eigenen Geschichte und eigenen Zukunft – statt an seiner Umwelt –

27

tings“, von Marktstatistiken über Pisa-Studien bis zu Citation-Indizes, teilen offenbar diese Eigenschaft, sich an der Plausibilisierung und Temporalisierung von Leistungsreduktion und -projektion zu beteiligen, und entsprechend darf man vermuten, dass eine Analyse der für die Sportstatistik charakteristischen Problembereiche (vgl. näher Werron 2005b) auch über den Sport hinaus instruktiv wäre. In den meisten Bereichen ist die gängige Meinung (jedenfalls der Statistiker) aber wohl eher, dass es noch Nachholbedarf an neuen Vergleichseinheiten und detaillierter statistischer Erfassung gibt. Vgl. etwa Schatz 2005 zum American Football: „If baseball research is now about where David Hilbert was in 1900, football research is about where the Arabs were when they invented algebra. Analysis in football has a long way to go.”

266

Tobias Werron

orientieren. Da die heute erreichte Komplexität ohne den Beitrag der Statistik und statistischer Leistungskategorien wie den „assists“ zu dieser Gedächtnisleistung nicht vorstellbar wäre, lässt sich daher ohne Übertreibung sagen, dass die Autonomie des modernen Wettkampfsports ein Werk auch seiner Zahlen ist, und dass in diesem Sinne, als Beitrag zur Genese von Autonomie, „Quantifizierung“ in der Tat zu den konstitutiven Merkmalen des modernen Sports gehört. Fazit Jeder sportliche Wettkampf ist ein singuläres Ereignis und kann auch so erlebt werden: mit Akzent auf Sieg und Niederlage, „Präsenz“, „Spannung“ oder auch Identifikation mit einer der an diesem konkreten Wettkampf teilnehmenden Wettkampfparteien. So gesehen, erscheint Sport wie Spiel, und diesbezügliche Informationen werden gewissermaßen mehr durch Wahrnehmung als durch Kommunikation gewonnen. Entsprechend prägt das Bild eines „zuschauenden“, „Atmosphäre“ schaffenden und genießenden Publikums diese Art des Erlebens wie auch die Bauart von Theorien des modernen Sports, die sich primär auf die Beobachtung dieser Art des Erlebens stützen (für eine Theorie mit Präferenz für Präsenz vgl. Gumbrecht 2005). Dieses Bild ist nicht falsch, aber unvollständig. Denn im modernen Sport ist zugleich jeder Wettkampf in einen zunehmend komplexen Verweisungszusammenhang weiterer Wettkämpfe hineingestellt. Auch so kann er erlebt werden: Mit Betonung der Bedeutung gerade dieses Ereignisses (im Unterschied zu den vielen anderen), mit Betonung der vielfältigen Kontingenzmomente, die sich aus statistisch oder narrativ-visuell aufbereiteten Erfahrungen mit vergangenen Wettkämpfen ergeben, mit Betonung der langfristigen Bindungen von „Fans“ an Sportler, Mannschaften und Vereine (und ihrer dogmatischen Abgrenzung von anderen Vereinen/Fans), schließlich mit Aufmerksamkeit für bewundernswerte oder gar „historische“ Höchstleistungen (im Unterschied zu anderen, vor allem auch vergangenen Leistungen).28 So gesehen ist Sport im Prinzip grenzenlos komplex, und tritt die kommunikative Qualität des Erlebens im Unterschied zur bloß wahrnehmenden umso deutlicher hervor. Dass sich dieser Sprung vom Wahrnehmen zum Verstehen nicht nur soziologisch, sondern auch ästhetisch mit vollziehen lässt, illustriert eine Überlegung, die zwei Baseballstatistiker einem Buch mit dem bezeichnenden Titel „The Hidden Game of Baseball“ vorangeschickt haben. Sie gehen vom Fernseherlebnis aus und argumentieren: “The televised game offers signposts of what baseball is like for those on the field or at the park; to recreate that feeling, the viewer relies upon his imagination, his restructuring of the video image, progresses from what is seen to what is unseen. Disorientingly, in these instances the game that is seen is the abstraction while the unseen game is concrete, or ‘real’. This movement from the seen to the unseen describes the impulse and the activity of the game's statisticians, too. For them, plumbing the meaning of numbers is not mere accounting; to bring the hidden game of baseball into the open is an act of imagination, an apprehension and approximation of truth, and perhaps even a pursuit of beauty and justice.” (Thorn/Palmer 1984: 4; Hervorh. T.W.)

28

Zu diesen Erlebnisvarianten des Sports vgl. Werron 2005a.

Die zwei Wirklichkeiten des modernen Sports: Soziologische Thesen zur Sportstatistik

267

Die Einsicht, dass einfache und komplexe, ereignisbezogene und verweisungsreiche Formen des Erlebens koexistieren und den modernen Wettkampfsport gemeinsam prägen, gibt das Stichwort für eine abschließende kurze Zusammenfassung. Im einleitenden Abschnitt über die „obstacles épistémologiques“ hatte ich behauptet, dass die Theoretiker des Sports dem modernen Sport bisher zuwenig zugetraut haben, ihn wahlweise an Spiel oder Körper, an psychische oder soziale Umwelt gebunden und sich damit den Blick für seine Eigenlogik partiell verstellt haben. Anschließend habe ich zu zeigen versucht, dass eine Analyse des Zahlengebrauchs im Wettkampfsport helfen könnte, dies Defizit zu korrigieren und die Eigenlogik moderner Sportarten als Logik sich verselbständigender „Weltsportarten“ zu beschreiben. Folgt man dieser Argumentation, muss der Kerngedanke einer Theorie des modernen Sports tatsächlich lauten: Das Eigentümliche des modernen Sports ist, dass er die „Lokalität“ (Präsenz, Spannung, Singularität etc.) einzelner Wettkämpfe mit der „Globalität“ (Komplexität, Kontingenz, Historie etc.) ganzer Sportarten zu kombinieren versteht. Jeder Wettkampf hat demnach eine doppelte Wirklichkeit: erstens sich selbst, das Ereignis; zweitens den Ereigniszusammenhang der Sportart, der er zugehört. Entsprechend ist für den Gebrauch von Zahlen zu unterscheiden: Sie können auf ein einzelnes Ereignis bezogen sein und ihren Sinn daraus beziehen, Ergebnisse einzelner Wettkämpfe festzuhalten. Sie können den Einzelereignissen aber auch einen Zusatzsinn unterlegen, der sich aus der Vernetzung in Vergleichszusammenhänge vieler Wettkämpfe ergibt, und in dieser, der zweiten Rolle liegt ihre konstitutive Bedeutung für den modernen Sport. Literatur Adelman, M.L. (1986): A Sporting Time. New York City and the Rise of Modern Athletics, 18201870. Urbana: University of Illinois. Avedon, E.M. (1971): The Structural Elements of Games. In: Avedon, E.M./Sutton-Smith, B. (Hg.): The Study of Games. New York: John Wiley and Sons, S. 419-426. Baecker, D. (1987): Das Gedächtnis der Wirtschaft. In: Baecker, D./Markowitz, J./Stichweh, R./Tyrell, H./Willke H. (Hg.): Theorie als Passion. Niklas Luhmann zum 60. Geburtstag. Frankfurt/M.: Suhrkamp, S. 519-546. Benary, W. (1913): Der Sport als Individual- und Sozial-Erscheinung, Berlin: Wedekind. Bette, K.-H. (1987): Wo ist der Körper? In: Baecker, D./Markowitz, J./Stichweh, R./Tyrell, H./Willke, H.: Theorie als Passion. Niklas Luhmann zum 60. Geburtstag, Frankfurt/M.: Suhrkamp, S. 600-628. Bette, K.-H. (1989): Körperspuren. Zur Semantik und Paradoxie moderner Körperlichkeit. Berlin: New York: de Gruyter. Bette, K.-H./Schimank, U. (1995): Doping im Hochleistungssport. Anpassung durch Abweichung, Frankfurt a. M.: Suhrkamp. Bette, K.-H./Schimank, U. (1995a): Zuschauerinteressen am Spitzensport – Teilsystemische Modernisierung des gesamtgesellschaftlich Verdrängten. In: Jochen Hinsching/Frederik Bonhagen (Hg.): Modernisierung und Sport. Jahrestagung der dvs-Sektion Sportsoziologie, Sankt Augustin: Academia, S. 181-191. Bette, K.-H./Schimank, U. (2000): Sportevents: Eine Verschränkung von ‚erster’ und ‚zweiter Moderne’. In: Winfried Gebhardt/Ronald Hitzler/Michaela Pfadenhauer (Hg.): Events. Soziologie des Außergewöhnlichen, Westdeutscher Verlag: Opladen, S. 307-323. Bourdieu, P. (1986): Historische und soziale Voraussetzungen modernen Sports. In: Gebauer, G./Hortleder, G. (Hg.): Sport – Eros – Tod, Frankfurt/M.: Suhrkamp, S. 91-112.

268

Tobias Werron

Cachay, K./Thiel, A. (2000): Soziologie des Sports. Zur Ausdifferenzierung und Entwicklungsdynamik des Sports in der modernen Gesellschaft. Weinheim: Juventa. Cachay, K. (1988): Sport und Gesellschaft. Schorndorf: Hofmann. Carter, M/Krüger, A. (Hg.) (1990): Ritual and Record. Sports Records and Quantification in PreModern Societies. New York: Greenwood. Dunning, E. (1973): The Structural-Functional Properties of Folk Games and Modern Sport. In: Sportwissenschaft 3, S. 215-232. Eichberg, H. (1974): Der Beginn des modernen Leistens. Terminologische Verschiebungen in der Bewertung von Leibesübungen um 1800. In: Sportwissenschaft 4, S. 21-45. Eichberg, H. (1984): Sozialgeschichtliche Aspekte des Leistungsbegriffs im Sport. In: Kaeber, H./Tripp, B. (Hg.): Gesellschaftliche Funktionen des Sports. Beiträge einer Fachtagung, Darmstadt: Druck- und Verlagsgesellschaft, S. 85-106. Eichberg, H. (1976): Zur historisch-kulturellen Relativität des Leistens in Spiel und Sport. In: Sportwissenschaft 6, S. 9-34 Eisenberg, C. (1999): ‚English sports’ und deutsche Bürger: Eine Gesellschaftsgeschichte 1800-1939. Paderborn: München: Schöningh. Eisenberg, C. (2003): Die Entdeckung des Sports durch die moderne Geschichtswissenschaft. In: Teichler, H.-J. (Hg.): Moden und Trends im Sport und in der Sportgeschichtsschreibung. Jahrestagung der dvs-Sektion Sportgeschichte vom 8.-10. Juni 2001 in Potsdam. Hamburg: Czwalina, S. 31-44. Eisenberg, C. (1997): Einführung. In: Dies. (Hg.): Fußball, soccer, calcio. Ein englischer Sport auf seinem Weg um die Welt. München: dtv, S. 7-21. Esposito, E. (2002): Soziales Vergessen. Formen und Medien des Gedächtnisses der Gesellschaft. Frankfurt/M.: Suhrkamp. Fendrich, A. (1914): Der Sport, der Mensch und der Sportsmensch. 2. Auflage. Stuttgart: Franck. Gumbrecht, H.-U. (2005): Lob des Sports. Frankfurt/M.: Suhrkamp. Guttmann, A. (1978): From Ritual to Record. New York: Columbia University Press. Guttmann, A. (1990): Ritual, Records, Response. In: Marshall Carter, J./Krüger A. (Hg.): Ritual and Record. Sports Records and Quantification in Pre-Modern Societies. New York: Greenwood, S. 153-160. Guttmann, A. (1994): Games and Empires: Modern Sports and Cultural Imperialism. New York: Columbia University Press. Habermas, J. (1958): Soziologische Notizen zum Verhältnis von Arbeit und Freizeit. In: Funke, G. (Hg.): Konkrete Vernunft. Festschrift für E. Rothacker. Bonn: Bouvier, S. 219-231. Hacking, I. (1992): Statistical Language, Statistical Truth and Statistical Reason: The SelfAuthentification of a Style of Scientific Reasoning. In: McMullin, E. (Hg.): The Social Dimensions of Science. Notre Dame: University of Notre Dame Press, S. 130-157. Hahn, A. (2002): Spiel und Sport. In: Friederici, M.R./Horch, H.-D./Schubert, M. (Hg.): Sport, Wirtschaft und Gesellschaft. Schorndorf: Karl Hofmann, S. 25-38. Haverkamp, N. (2005): Typisch Sport? Der Begriff Sport im Lichte der Prototypenmodelle, Köln: Sport und Buch Strauß. Heinemann, K. (1998): Einführung in die Soziologie des Sports. 4., völlig neu bearbeitete Auflage. Schorndorf: Karl Hofmann. Hollinger, J. (2005): „New stats show quality of Elton, LeBron ... and Iverson”. (http://insider.espn.go. com/nba/insider/columns/story?columnist=hollinger_john&id=2257556, Stand: 16.12.2005). Hollinger, J. (2006): „Who would you choose: Kobe or LeBron?”. (http://insider.espn.go.com/nba/ insider/columns/story?columnist=hollinger_john&id=2289510&univLogin02=stateChanged, Stand: 12.01.2006). Kieserling, A. (1999): Kommunikation unter Anwesenden. Studien über Interaktionssysteme. Frankfurt/M.: Suhrkamp. Krockow, C. Gr. v. (1972): Sport und Industriegesellschaft. München: Piper.

Die zwei Wirklichkeiten des modernen Sports: Soziologische Thesen zur Sportstatistik

269

Krüger, M. (1993): Einführung in die Geschichte der Leibeserziehung und des Sports. Teil 3: Leibesübungen im 20. Jahrhundert – Sport für alle. Schorndorf: Karl Hofmann. Leifer, E. M. (1995): Making the Majors. The Transformation of Team Sports in America. Cambridge, Mass.: Harvard University Press. Linde, H. (1967): Zur Soziologie des Sports. Versuch einer empirischen Kritik soziologischer Theoreme. In: Plessner, H./Bock, H.-E./Grupe, O. (Hg.): Sport und Leibeserziehung. Sozialwissenschaftliche, pädagogische und medizinische Beiträge. München: Piper, S. 103-120. Luhmann, N. (1984): Soziale Systeme. Grundriß einer allgemeinen Theorie. Frankfurt/M.: Suhrkamp. Luhmann, N. (1996): Zeit und Gedächtnis. In: Soziale Systeme 2, S. 307-330. Lüschen, G. (1976): Zur Strukturanalyse des Sports. In: Luhmann, N./Weis, K. (Hg.): Die Soziologie des Sports. Darmstadt und Neuwied: Luchterhand, S. 52-69. Maguire, J. (1994): Sport, Identity Politics and Globalization. Diminishing contrasts and increasing varieties. In: Sociology of Sport Journal 11, S. 398-427. Mandell, R. (1984): Sport – a Cultural History, New York: Columbia. McFee, G. (2004): Sport, Rules and Values. Philosophical Investigations into the nature of sport, London: Routledge. National Collegiate Athletic Association (2005): Basketball Statisticians’ Manual. Including Special Interpretations and Approved Rulings Covering Unusual Situations. Indianapolis, Indiana, (http://www.ncaa.org/library/statistical/basketball_stats_manual/2005/2005_basketball_stats.pdf, Stand: 10.12.2005). Oriard, M. (1993): Reading Football. How the Popular Press Created an American Spectacle. Chapel Hill: University of Carolina Press. Peters, A. (1927): Psychologie des Sports. Seine Konfrontierung mit Kampf und Spiel. Leipzig: Der neue Geist. Plessner, H. (1956): Die Funktion des Sports in der industriellen Gesellschaft. In: Ders.: Gesammelte Schriften X. Schriften zur Soziologie und Sozialphilosophie. Frankfurt/M.: Suhrkamp [1985], S. 147-166. Plessner, H. (1967): Spiel und Sport. In: Plessner H./Bock, H.E./Gruppe, O. (Hg.): Sport und Leibeserziehung. Sozialwissenschaftliche, pädagogische und medizinische Beiträge. München: Piper, S. 17-27. Riedl, L. (2005): Spitzensport und Publikum. Zum Problem der Publikumsbindung. Dissertation, Bielefeld. Riedl, L./Cachay, K. (2002): Bosman-Urteil und Nachwuchsförderung. Auswirkungen der Veränderung von Ausländerklauseln und Transferregelungen auf die Sportspiele. Schorndorf: Karl Hofmann. Riess, S. A. (1999): Touching Base. Professional Baseball and American Culture in the Progressive Era. Urbana/Chicago: University of Illinois Press. Rigauer, B. (1969): Sport und Arbeit. Münster: Atalas. Rigauer, B. (1982): Sportsoziologie. Grundlagen, Methoden, Analysen, Hamburg: Rowohlt. Risse, H. (1921): Soziologie des Sports, Nachwort: W. Hopf, Von der Aktualität eines ‚Klassikers’, H. Eichberg, Von der älteren Kulturkritik lernen, ohne ihr aufzusitzen? Münster: Atalas. Reprint 1979. Röthig, P. (Red.) (1976): Sportwissenschaftliches Lexikon. Schorndorf: Karl Hofmann. Schatz, A. (2005): Football’s Hilbert Problems. In: Journal of Quantitative Analysis in Sports 1, No. 1, Article 2. (http://www.bepress.com/jqas/vol1/iss1/2; Stand: 17.12.2005). Schimank, U. (1988): Die Entwicklung des Sports zum gesellschaftlichen Teilsystem. In: Mayntz, R./Rosewitz, B./Schimank, U./Stichweh, R.: Differenzierung und Verselbständigung. Zur Entwicklung gesellschaftlicher Teilsysteme. Frankfurt/M.: Campus, S. 181-232. Schulze, B. (2005): Sportarten als soziale Systeme. Ansätze einer Systemtheorie der Sportarten am Beispiel des Fußballs. Münster: Waxmann. Schwarz, A. (2004): The Numbers Game. Baseball's Lifelong Fascination with Statistics. New York: Thomas Dunne.

270

Tobias Werron

Simmel, G. (1917): Das Gebiet der Soziologie. In: Ders.: Grundfragen der Soziologie (Individuum und Gesellschaft). Berlin/Leipzig: Göschen, S. 5-32. Sloan, L.R. (1989): The Motives of Sport Fans. In: Goldstein, J.H. (Hg.): Sports, Games, and Play. Social and Psychological Viewpoints, 2nd Edition. New Jersey/London: LEA, S. 175-240. Steinitzer, H. (1910): Sport und Kultur – mit besonderer Berücksichtigung des Bergsports. München: Verlag der Deutschen Alpenzeitung. Stichweh, R. (1990): Sport – Ausdifferenzierung, Funktion, Code. In: Sportwissenschaft 20, S. 373-389. Stichweh, R. (1995): Sport und Moderne. In: Hinsching, J./Bonhagen, F. (Hg.): Modernisierung und Sport. Jahrestagung der dvs-Sektion Sportsoziologie. Sankt Augustin: Academia, S. 13-28. Stichweh, R. (2005): Der Wettkampfsport und sein Publikum: Risikoverhalten und Selbstbegrenzung im modernen Hochleistungssport. In: Ders.: Inklusion und Exklusion. Studien zur Gesellschaftstheorie. Bielefeld: transcript, S. 113-129. Stokvis, R. (1992): Sports and Civilization: Is Violence the Central Problem? In: Dunning, E./Rojek, C. (Hg.): Sport and Leisure in the Civilizing Process. Critique and Counter-Critique. London: Macmillan, S. 121-136. Stokvis, R. (2005): The Civilizing Process Applied to Sports: A Response to Dominic Malcolm – Cricket and Civilizing Processes. In: International Review for the Sociology of Sport 40, S. 111-114. Sutton-Smith, B. (1997): The Ambiguity of Play. Cambridge, Mass.: Harvard University Press. Thorn, J./Palmer, P. (1984): The Hidden Game of Baseball. A Revolutionary Approach to Baseball and its Statistics. Garden City, N.Y.: Doubleday and Company. Tygiel, J. (2000): Past Time. Baseball as History. Oxford: Oxford University Press. Vanderstraeten, R. (2006): Soziale Beobachtungsraster: Eine wissenssoziologische Analyse statistischer Klassifikationsschemata. In: Zeitschrift für Soziologie 35, S. 193-211. Vollmer, H. (2003): Grundthesen und Forschungsperspektiven einer Soziologie des Rechnens. In: Sociologia Internationalis 41, S. 1-23. Wann, Daniel L./Melnick, M.J./Russell, G.W./Pease, D.G. (2001): Sport Fans. The Psychology and Social Impact of Spectators. New York/London: Routledge. Werron, T. (2005a): Der Weltsport und sein Publikum. Weltgesellschaftstheoretische Überlegungen zum Zuschauersport. In: Heintz, B./Münch, R./Tyrell, H. (Hg.): Weltgesellschaft. Theoretische Zugänge und empirische Problemlagen. Sonderheft der Zeitschrift für Soziologie. Stuttgart: Lucius und Lucius, S. 260-289. Werron, T. (2005b): ‚Quantifizierung’ in der Welt des Sports. Gesellschaftstheoretische Überlegungen. In: Soziale Systeme 11, S. 199-235.

Die Autorinnen und Autoren

271

Die Autorinnen und Autoren Die Autorinnen und Autoren

Albrecht Becker, Prof. Dr., ist Professor für Betriebliches Rechnungswesen (Management Accounting) an der Universität Innsbruck, Fakultät für Betriebswirtschaft. Studium der Sozialwissenschaften in Oldenburg, Promotion und Habilitation an der Freien Universität Berlin. Forschungsinteressen: Management Accounting as Social Practice; Organisationstheorie; Wissen und Lernen in und von Organisationen. Neuere Veröffentlichungen: After the scandals: A German-speaking perspective on management accounting research and education. In: European Accounting Review 2005 (mit M. Messner); Controlling als Praxis: Eine strukturationstheoretische Perspektive auf Controlling. In: Scherm, E.; Pietsch, G. (Hrsg.), Controlling: Theorien und Konzeptionen, München 2004; Transaktives Wissen, Ressourcen und Wettbewerbsvorteile: Der Akteur als strategischer Faktor. In: Managementforschung 2006 (mit E. Brauner und S. Duschek). Bettina Heintz, Prof. Dr., ist Professorin für Soziologische Theorie und Allgemeine Soziologie an der Fakultät für Soziologie, Universität Bielefeld. Studium der Soziologie und Sozialgeschichte in Zürich. Habilitation 1996 an der FU Berlin. Forschungsschwerpunkte: Weltgesellschaftstheorie, Soziologie der Menschenrechte, Wissenschaftssoziologie, Soziologie der Quantifizierung. Neuere Veröffentlichungen: Emergenz und Reduktion. In: Kölner Zeitschrift für Soziologie und Sozialpsychologie 2004; Wissenschaft, die Grenzen schafft, Bielefeld 2004 (mit M. Merz und Ch. Schumacher); Weltgesellschaft, Stuttgart 2005 (hrsg. mit R. Münch/H. Tyrell); Menschenrechte im Kontext der Weltgesellschaft. In: Zeitschrift für Soziologie 2006 (mit D. Müller und H. Schiener); Verfassungen als Spiegel globaler Normen? In: Kölner Zeitschrift für Soziologie und Sozialpsychologie 2006 (mit A. Schnabel). Alexandra Heßling, Dr., Dipl. Soz., Studium der Soziologie in Marburg und Bielefeld, Promotion (2007) am Institut für Weltgesellschaft der Universität Bielefeld zum Thema „Die globale Taxis der Rechnungslegung. Soziologische Studien zur Zahlenproduktion in der Wissensökonomie“. Forschungsinteressen: Organisations- und Wirtschaftssoziologie, Soziologische Theorien der Globalisierung, Formen der Rechenschaftslegung in Organisation und Gesellschaft. Neuere Veröffentlichungen: Cognitive Shifts in Regulation: The Role of Ignorance in the Regulatory Field of Accounting. In: Strulik, T.; Willke, H. (Hrsg.), Towards a Cognitive Mode of Global Finance, Frankfurt/New York 2007; The Global System of Finance: Scanning Talcott Parsons and Niklas Luhmann for Theoretical Keystones. In: American Journal of Economics and Sociology 2006 (mit H. Pahl). Herbert Kalthoff, Prof. Dr., Dipl. Soz., ist Professor für Soziologie an der Zeppelin University Friedrichshafen. Studium der Soziologie in Hannover, Bielefeld und Paris. Promotion in Bielefeld, Habilitation in Frankfurt/Oder. Forschungsinteressen: Wissens- und kultursoziologische Empirie sozialer und technischer Praxis in der Bank- und Finanzwelt sowie

272

Die Autorinnen und Autoren

in Bildungsinstitutionen; soziologische Theorien und qualitative Methoden. Neuere Veröffentlichungen: Finanzwirtschaftliche Praxis und Wirtschaftstheorie. In: Zeitschrift für Soziologie 2004; Practices of Calculation. In: Theory, Culture & Society 2005; The Launch of Banking Instruments and the Figuration of Markets. In: Journal for the Theory of Social Behaviour 2006; Zahlenwelten. Studien zur Praxis ökonomischen Wissens, Stuttgart 2007. Stefan Kühl, Prof. Dr., ist Professor für Soziologie an der Universität Bielefeld. Studium der Soziologie und der Geschichtswissenschaft an der Universität Bielefeld, der Johns Hopkins University in Baltimore, der Unviversité Paris-X-Nanterre und der University of Oxford. Promotion in Soziologie an der Universität Bielefeld und in Wirtschaftswissenschaften an der TU Chemnitz, Habilitation in Soziologie an der Universität München. Forschungsinteressen: Organisationssoziologie, Techniksoziologie, Industrie- und Arbeitssoziologie. Neuere Veröffentlichungen: Das Regenmacher-Phänomen. Widersprüche und Aberglauben im Konzept der lernenden Organisation. Frankfurt/New York 2000; Exit. Wie Risikokapital die Regeln der Wirtschaft verändert. Frankfurt/New York 2003. Mitherausgeber Methoden der Organisationsforschung, Reinbek 2002, Wiesbaden 2005. Andrea Mennicken, PhD, Dipl. Soz., ist Lecturer in Accounting am Department of Accounting of Finance an der London School of Economics and Political Science (LSE). Studium der Soziologie in Bielefeld und London (LSE), Promotion (2005) an der LSE mit dem Titel „Moving West: The Emergence, Reform and Standardisation of Audit Practices in Post-Soviet Russia“. Forschungsinteressen: Die Rolle von Accounting und Auditing in Prozessen gesellschaftlicher Transformation und Globalisierung; Prozesse der Professionalisierung und Standardisierung; Performance, Governance und Risk Management im staatlichen und privaten Sektor. Neuere Veröffentlichungen: Sociology of Accounting, in: International Encyclopaedia of Economic Sociology, London 2005; Translation and Standardisation: Audit World-Building in Post-Soviet Russia, CARR Discussion Paper No. 36, London 2006. Martin Messner, Dr., ist Assistant Professor am Department of Accounting and Management Control an der HEC School of Management, Paris. Studium der Internationalen Wirtschaftswissenschaften und der Politikwissenschaft in Innsbruck und Dublin, Promotion in Innsbruck (2006) über „Die Organisation der Kritik“. Forschungsinteressen: Praxis und Theorie des Management Accounting, Fragen von Accountability und Ethik in Organisationen, Grenzen des Organisierens. Neuere Veröffentlichungen: After the scandals. A German-speaking perspective on management accounting research and education. In: European Accounting Review 2005 (mit A. Becker); Business Ethics as Practice: Representation, Discourse and Performance, hrsg. mit M. Kornberger, C. Carter, S. Clegg und S. Laske (im Druck). Peter Miller, Prof., PhD, ist Professor für Management Accounting an der London School of Economics. Er leitet dort die Accounting Group und ist stellvertretender Direktor des Centre for Analysis of Risk and Regulation. Forschungsinteressen: Praktiken des Investment Appraisal in grossformatigen Investitionsprojekten, Performance Assessements, Entwicklungen im ‘New Public Management’. Associate Editor der Zeitschrift Accounting, Organizations and Society. Publikationen: Über 50 Artikel in Accounting und Management Zeitschriften (Accounting, Organizations and Society, European Accounting Review, Journal of Accounting Research, Academy of Management Review) und Soziologiezeitschrif-

Die Autorinnen und Autoren

273

ten (Economy and Society, British Journal of Sociology, Theory, Culture and Society). Daneben hat er vier Bücher veröffentlicht, darunter Accounting as Social and Institutional Practice (mit A. Hopwood, Cambridge 1994). Peter Pelzer, Dr. rer. oec, Dipl.-Ök., ist freiberuflicher Berater und Projektmanager für Banken und Visiting Reader an der Universiteit voor Humanistiek in Utrecht. Neben der Projektarbeit bei Banken ist er daran interessiert, seine Erfahrungen in den Projekten wissenschaftlich zu fundieren. Die daraus entstehenden Veröffentlichungen umfassen Aufsätze in internationalen Fachzeitschriften und Büchern zu der Frage, was Philosophie und Ästhetik zum besseren Verständnis von Leben und Arbeiten in Organisationen beitragen können. Neuere Veröffentlichungen: Führung und Management in Banken / Eine kritische Beobachtung. In: Sokolovsky, Z.; Löschenkohl, S. (Hrsg.); Industrialisierung in der Finanzwirtschaft, Wiesbaden 2005; Contempt and Organisation: Present in Practice – Ignored by Research? In: Organization Studies 2005; Art for management's sake? A doubt. In: Culture and Organization 2006. Michael Power, Prof. PhD, ist Professor in Accounting und Research Theme Director des ESRC Centre for the Analysis of Risk and Regulation (CARR) an der London School of Economics and Political Science, wo er seit 1987 angestellt ist. Er studierte in Oxford (St. Edmund Hall) und Cambridge (Girton College) und promovierte an letzterem Ort in Philosophie (zu „Habermas and Transcendental Philosophy“). Er ist ein staatlich an erkannter Wirtschaftsprüfer (professionally qualified accountant) und war Visiting Fellow am Wissenschaftskolleg Berlin in 1995. Forschungsinteressen: Regulierung, Accounting, Auditing, organisationale Kontrollsysteme und Risk Managemen. Sein Buch The Audit Society: Rituals of Verification (Oxford 1999) ist ins Italienische, Japanische und Französische übersetzt worden. Seine neue Monographie Organized Uncertainty: Designing a World of Risk Management wird 2007 bei Oxford University Press erscheinen. Alex Preda, Dr. habil., ist Reader in Sociology an der University of Edinburgh. Studium der Philosophie, Geschichte und Soziologie in Bukarest und Bielefeld, Promotion in Bielefeld, Habilitation in Konstanz. Forschungsinteressen: Wirtschafts- und Techniksoziologie, Wissenschaftssoziologie, soziologische Theorie. Neuere Veröffentlichungen Socio-technical Agency in Financial Markets. The Case of the Stock Ticker. In: Social Studies of Science 2006; Legitimacy and Status Groups in Financial Markets. In: British Journal of Sociology 2005. Tobias Scheytt, Dr., Dipl.-Ök., ist Assistenzprofessor am Institut für Organisation und Lernen – Bereich Controlling und Organisationskultur – an der Fakultät für Betriebswirtschaft der Universität Innsbruck. Nach kaufmännischer Ausbildung und Tätigkeiten im ITSektor Studium der Wirtschaftswissenschaften an der Universität Witten/Herdecke. Promotion ebendort zur Methodologie der Management- und Führungstheorie. Forschungsinteressen: Strategische Steuerung von Organisationen, Organisationsforschung, Kultur, Innovation und Risiko in Organisationen, postrationalistische Konzepte des Controlling. Neuere Veröffentlichungen: Management accounting from a systems theoretical perspective, In: Seidl, D.; Becker, K.H. (Hrsg.), Niklas Luhmann and Organization Theory, Copenhagen, 2006; Making the Case for Narrative Methods in Cross-Cultural Organizational Research. In: Organizational Research Methods 2006 (mit K. Soin).

274

Die Autorinnen und Autoren

Daniel Schmidt, Dr. rer. pol., ist Wissenschaftlicher Mitarbeiter am Lehrstuhl für Politische Theorien und Ideengeschichte an der Universität Leipzig. Studium der Politikwissenschaft und der Journalistik in Leipzig, Promotion (2004) mit einer Dissertation über die Etablierung statistischen Wissens als Staatswissen im 19. Jahrhundert. Derzeitige Forschungsschwerpunkte: Staatlichkeit und lokale Verwaltungsdiskurse, Konstruktionen von Grenzen, Bevölkerungsdiskurse in Deutschland und Europa, Rechtsextremismus und Schule. Neuere Veröffentlichungen: Statistik und Staatlichkeit, Wiesbaden 2005; ‚It’s not an Entertainment.’: Prostitution an Grenzen. In Eigmüller, M.; Vobruba, G. (Hrsg.): Grenzsoziologie, Wiesbaden 2006; Bevölkerungspolitik und Arbeiterfrage. In: Overath/Krassnitzer (Hrsg.): Bevölkerungswissenschaften – Popularisierungsdiskurse – Bevölkerungspolitiken, Köln 2007. Hendrik Vollmer, Dr., Dipl. Soz., ist Wissenschaftlicher Assistent an der Fakultät für Soziologie, Universität Bielefeld. Studium der Soziologie und Science and Technology Studies in Bielefeld und Edinburgh, Promotion in Bielefeld. Forschungsinteressen: Organisationssoziologie, Zahlensoziologie, Soziologie kritischer Situationen. Neuere Veröffentlichungen: Folgen und Funktionen organisierten Rechnens. In: Zeitschrift für Soziologie 2004; How Financial Numbers Are Symptomatic. In: Strulik, T.; Willke, H. (Hrsg.), Towards a Cognitive Mode in Global Finance, Frankfurt/New York 2007; How to Do More With Numbers: Elementary Stakes, Framing, Keying, and the Three-Dimensional Character of Numerical Signs. In: Accounting, Organizations and Society 2007. Uwe Vormbusch, Dr., Dipl. Soz., ist Wissenschaftlicher Mitarbeiter am Institut für Sozialforschung in Frankfurt/Main. Studium der Sozial- und Wirtschaftswissenschaften in Bochum und der Soziologie in Frankfurt am Main. Forschungsinteressen: Soziologie kalkulativer Praktiken, Gesellschaftstheorie, Subjektivierung von Arbeit, Personal- und Biografiepolitik. Neuere Veröffentlichungen: Accounting. Die Macht der Zahlen im gegenwärtigen Kapitalismus, Berliner Journal für Soziologie 2004; Human Resource Management als Feld der Subjektivierung von Arbeit, in: Arbeitsgruppe SubArO (Hrsg.): Ökonomie der Subjektivität – Subjektivität der Ökonomie, Berlin 2005 (mit P. Kels); Eine Soziologie der Kalkulation. Werner Sombart und die Kulturbedeutung des Kalkulativen. In: Pahl, H.; Meyer, L. (Hrsg.): Kognitiver Kapitalismus. Zur Dialektik der Wissensökonomie, Frankfurt (im Druck). Tobias Werron, Ass. iur., ist Wissenschaftlicher Assistent am Soziologischen Seminar der geisteswissenschaftlichen Fakultät der Universität Luzern. Studium der Rechtswissenschaften in Heidelberg und Berlin, nach zwischenzeitlicher Tätigkeit als Rechtsanwalt Promotionsstipendiat der DFG am Graduiertenkolleg „Weltbegriffe und globale Strukturmuster“ in Bielefeld. Forschungsinteressen: Soziologische Theorie, Theorie der Weltgesellschaft, Mediensoziologie, Statistiksoziologie, Rechtssoziologie, Sportsoziologie. Veröffentlichungen: Quantifizierung in der Welt des Sports. Gesellschaftstheoretische Überlegungen. In: Soziale Systeme 2005; Der Weltsport und sein Publikum. Weltgesellschaftstheoretische Überlegungen zum Zuschauersport. In: Heintz, B.; Münch, R.; Tyrell, H. (Hrsg.), Weltgesellschaft. Theoretische Zugänge und empirische Problemlagen, Sonderheft der Zeitschrift für Soziologie, Stuttgart 2005.