Kompendium der Wirtschaftstheorie und Wirtschaftspolitik III: Wirtschaftspolitik [1. Aufl.] 978-3-658-21774-7;978-3-658-21775-4

Das Kompendium liefert einen umfassenden Überblick über die zentralen Bereiche der Volkswirtschaftslehre. Die einzelnen

1,093 163 5MB

German Pages XV, 385 [398] Year 2019

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Kompendium der Wirtschaftstheorie und Wirtschaftspolitik III: Wirtschaftspolitik [1. Aufl.]
 978-3-658-21774-7;978-3-658-21775-4

Table of contents :
Front Matter ....Pages I-XV
Theorie der Wirtschaftspolitik (André Schmidt)....Pages 1-114
Wettbewerbspolitik (Wolfgang Kerber)....Pages 115-187
Regulierung (Ralf Dewenter, Ulrich Heimeshoff)....Pages 189-262
Arbeitsmarktökonomik (Thomas Apolte)....Pages 263-318
Sozialpolitik (Notburga Ott)....Pages 319-380
Back Matter ....Pages 381-385

Citation preview

Thomas Apolte Mathias Erlei Matthias Göcke Roland Menges Notburga Ott André Schmidt Hrsg.

Kompendium der Wirtschaftstheorie und Wirtschaftspolitik III Wirtschaftspolitik

Kompendium der Wirtschaftstheorie und Wirtschaftspolitik III

Thomas Apolte · Mathias Erlei · Matthias Göcke · Roland Menges · Notburga Ott · André Schmidt (Hrsg.)

Kompendium der Wirtschaftstheorie und Wirtschaftspolitik III Wirtschaftspolitik

Hrsg. Thomas Apolte Center for Interdisciplinary Economics (Centrum für Interdisziplinäre Wirtschaftsforschung) University of Münster Münster, Deutschland Matthias Göcke Professur VWL IV - Transformations- und Integrationsökonomik Justus-Liebig-Universität Gießen Gießen, Deutschland Notburga Ott Lehrstuhl für Sozialpolitik und Institutionenökonomik Ruhr-Universität Bochum Bochum, Deutschland

Mathias Erlei Institut für Wirtschaftswissenschaft TU Clausthal Clausthal-Zellerfeld, Deutschland Roland Menges Institut für Wirtschaftswissenschaft TU Clausthal Clausthal-Zellerfeld, Deutschland André Schmidt Fakultät für Wirtschaftswissenschaften Universität Witten/Herdecke Witten, Deutschland

ISBN 978-3-658-21775-4  (eBook) ISBN 978-3-658-21774-7 https://doi.org/10.1007/978-3-658-21775-4 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Springer Gabler © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Lektorat: Annika Hoischen Springer Gabler ist ein Imprint der eingetragenen Gesellschaft Springer Fachmedien Wiesbaden GmbH und ist ein Teil von Springer Nature Die Anschrift der Gesellschaft ist: Abraham-Lincoln-Str. 46, 65189 Wiesbaden, Germany

Vorwort

Ende der siebziger Jahre beschloss eine Gruppe befreundeter Ökonomen, ein Übersichtswerk zur modernen Volkswirtschaftslehre anzufertigen. Jeder übernahm mindestens ein Themengebiet und schrieb ein Manuskript dazu, das anschließend Seite für Seite im Kollegenkreis im Hinblick auf Verständlichkeit und Relevanz besprochen wurde. Das Ergebnis war „Vahlens Kompendium der Wirtschaftstheorie und Wirtschaftspolitik“, das sich schnell zu einem Standardwerk der deutschen Lehrbuchökonomik etablierte. Es brillierte durch seine Verständlichkeit und seine Kürze, denn jedem Thema wurde nur ein sehr begrenzter Raum gegeben, sodass der Leser mit begrenztem Zeitaufwand eine fundierte Einführung in das jeweilige Teilgebiet erhielt. Generationen von Volks- und Betriebswirten nutzten die Bände des Kompendiums zur Vorbereitung auf ihre finalen, themenübergreifenden Diplomprüfungen. Mit der Bologna-Reform und dem Entfallen der abschließenden Diplomprüfungen änderte sich der volkswirtschaftliche Lehrbuchmarkt grundlegend. Gefragt sind nunmehr Texte, die vorrangig als Begleitmaterial für eine spezielle Lehrveranstaltung mit abschließender Modulprüfung dienen. Das nun vorliegende, teilweise von einem neuen Stab an Autoren erstellte neue Kompendium, hat sich an diese Erfordernisse angepasst: So wurde die Seitenrestriktion für die Autoren gelockert, sodass sich jeder Beitrag auch als Skript für eine gleichlautende Vorlesung eignet. Alte Themen wurden aufgegeben, neue – stärker an den Curricula der Hochschulen ausgerichtete – Beiträge wurden hinzugefügt. Beibehalten wurde jedoch der Entstehungsprozess: Jeder Beitrag wird einer detaillierten und kritischen Diskussion unterworfen, bevor er zur Veröffentlichung angenommen wird. Dies, so hoffen wir, stellt sicher, dass die Studierenden nach wie vor ein Gesamtwerk vorfinden, dessen Verständlichkeit und Präzision das vieler anderer Werke übertrifft. Mit der Neukonzipierung einher geht der Wechsel des Verlags. Der Springer Verlag bietet dem Werk ideale Voraussetzungen für eine insbesondere auch digitale Verbreitung der Inhalte.

V

VI Vorwort

Zum Abschluss ein paar Worte des Dankes: Wir danken dem Vahlen Verlag für die gelungene Zusammenarbeit in den vergangenen 30 Jahren und den großzügigen Verzicht auf die Verlagsrechte an den Texten der neunten Auflage. Dem Springer Verlag – vor allem den Mitarbeiterinnen Stefanie Brich, Isabella Hanser und Annika Hoischen – sei gedankt für die Hilfe und die Geduld im Entstehungsprozess des neuen Kompendiums. Unseren Mitarbeitern danken wir für zahlreiche kritische Hinweise. Zu guter Letzt danken wir all denjenigen Studierenden, die sich auch im 21. Jahrhundert noch die Mühe machen, wissenschaftliche Texte zu lesen. August 2018

Die Herausgeber

Inhalt

Band I 1.

Mikroökonomik Mathias Erlei

2.

Industrieökonomik Ulrich Schwalbe

3.

Internationaler Handel Dieter Smeets

4.

Institutionen Mathias Erlei

5.

Umweltökonomik Ronald Menges

Band II 6.

Wirtschaftskreislauf und gesamtwirtschaftliches Rechnungswesen  Matthias Göcke

7.

Makroökonomik Matthias Göcke

8.

Instabilitäten: Konjunktur, Inflation, Finanzkrisen Uwe Vollmer VII

VIII Inhalt

9.

Wachstum und Entwicklung Dieter Bender & Michael Frenkel

10. Geld und Kredit Uwe Vollmer 11. Währung und internationale Finanzmärkte Heinz-Dieter Smeets

Band III 12. Theorie der Wirtschaftspolitik André Schmidt 13. Wettbewerbspolitik Wolfgang Kerber 14. Regulierung Ralf Dewenter & Ulrich Heimeshoff 15. Arbeitsmarkt Thomas Apolte 16. Sozialpolitik Notburga Ott

Inhaltsübersicht

Vorwort........................................................................................................................................... V Symbolverzeichnis........................................................................................................................XI 12. Theorie der Wirtschaftspolitik................................................................................. 1 André Schmidt 13. Wettbewerbspolitik.............................................................................................. 115 Wolfgang Kerber 14. Regulierung.......................................................................................................... 189 Ralf Dewenter & Ulrich Heimeshoff 15. Arbeitsmarkt........................................................................................................ 263 Thomas Apolte 16. Sozialpolitik.......................................................................................................... 319 Notburga Ott Stichwortverzeichnis..................................................................................................................381

IX

Symbolverzeichnis

In das Verzeichnis wurden Symbole aufgenommen, die in mehreren Beiträgen eine einheitliche Bedeutung haben. Symbole, die spezifische Sachverhalte ein­zelner Beiträge kennzeichnen, sind an Ort und Stelle definiert. Dies gilt auch für die Fälle, in denen sich eine abweichende Verwendung desselben Symbols in verschiede­nen Beiträgen nicht vermeiden ließ.

1. Allgemeine Regeln für Zeichen, Subskripte und Superskripte: Definitionsgleichungen bzw. Identitäten sind durch „:=“ gekennzeichnet (z. B.: S:= Y – C). Ableitungen nach der Zeit werden durch einen Punkt über dem Symbol für die zeitabhängige Größe markiert (z. B.: dP/dt:= P! ); partielle Ableitungen einer Funktion F(x, y, ...) in Bezug auf ihre Argumente werden in der Reihenfolge der Funktionsargumente mit Fx, Fy ... bezeichnet. * : Optimalgröße, Gleichgewichtsgröße – gekennzeichnet durch * (z. B.: x* := optimale Menge) – : exogene Größen – generell gekennzeichnet durch einen Querstrich über dem Symbol (z. B.: M:= exogen gegebenes Geldangebot) : Kennzeichnung eines positiven Einfluss einer Variablen in einer Funktion : Kennzeichnung eines negativen Einfluss einer Variablen in einer Funktion (z.B.: L(Y, i) positiver Einfluss des Einkommens Y und negativer Effekt des Zins i auf die Liquiditätsnachfrage L) A : ausländische Variable – hochgestelltes oder tiefgestelltes A (z.B.: YA := ausländisches Einkommen) b : Bruttogröße – hochgestelltes b (z. B.: Ib := Bruttoinvestitionen)

XI

XII Symbolverzeichnis

: Nachfragegrößen – hochgestelltes d (z. B.: Md := Geldnachfrage) e : Erwartungsgrößen – hochgestelltes e (z. B.: pe := erwarteter Preis) : Gleichgewicht – tiefgestelltes g g (z. B.: Yg := Gleichgewichts-Einkommen) g : Wachstumsraten: generell durch g, speziell g mit Suffix (z. B.: gY:= Wachstumsrate des Einkommens) : Variable für Haushalt – tiefgestelltes H H (z.B.: SH := Sparen der Haushalte) n : nominelle Größe bzw. Nettogröße – gekennzeichnet durch hochgestelltes n (z. B.: en := nomineller Wechselkurs bzw. In := Nettoinvestitionen) r : reale Größe – hochgestelltes r (z. B.: er := realer Wechselkurs) : private Größe – tiefgestelltes pr pr (z.B.: Cpr := privater Konsum) s : Angebotsgrößen – hochgestelltes s (z.B.: Ms := Geldangebot) : staatliche Variable – gekennzeichnet durch tiefgestelltes St St (z.B.: ISt := staatliche Investitionen) : Zeitindex – gekennzeichnet durch tiefgestelltes t t (z.B.: Yt := Einkommen in Periode t) : Unternehmensvariable – tiefgestelltes U U (z.B.: IU := Investitionen der Unternehmen) d

2. Großbuchstaben:

A Vermögen („Assets“) A Faktorproduktivität AD gesamtwirtschaftliche Nachfragekurve („Aggregate Demand“) AS gesamtwirtschaftliche Angebotskurve („Aggregate Supply“) AB Außenbeitrag HA (heimische) Absorption BD staatliches Budgetdefizit B Geldbasis, Zentralbankgeld BIP Bruttoinlandsprodukt BNE Bruttonationaleinkommen

Symbolverzeichnis

C Ausgaben für Konsumgüter D Abschreibungen FD Auslandsverschuldung („Foreign Debt“) DE Einlagen (Depositen) DK Durchschnittskosten DS (Auslands)Schuldendienst („Debt Service“) Ex Exporte FDI ausländische Direktinvestition (foreign direct investment) FS Finanzierungssaldo G Güterkäufe des Staates GD verzinsliche Staatsschuld („Government Debt“) GE Grenzerlös GK Grenzkosten H Humankapitalbestand HB Handelsbilanzsaldo I Ausgaben für Investitionsguter (netto), Nettoinvestition Im Importe K Kapitalstock, Sachkapitalbestand K Kosten KB Kapitalbilanz oder Kapitalbilanzsaldo KEx Kapitalexport KIm Kapitalimport KR Kreditvolumen L Liquiditätspräferenz, Geldnachfrage (= Md) LB Leistungsbilanz, Leistungsbilanzsaldo LSK nominelle Lohnstückkosten M Geldmenge M1 Bargeldumlauf und täglich fällige Einlagen M2 M1 + Festgelder + Kündigungsgelder M3 M2 + (insbes.) Geldmarktfondsanteile, Geldmarktpapiere Md Geldnachfrage (= L) Ms Geldangebot N Beschäftigung des Faktors Arbeit, Bevölkerungszahl Nd Arbeitsnachfrage Ns Arbeitsangebot NNE Primäreinkommen = Nettonationaleinkommen zu Marktpreisen

XIII

XIV Symbolverzeichnis

NA Nettovermögen („Net Assets“) P Güterpreisniveau, Preisindex PIm Preisniveau der Importgüter PEx Preisniveau der Exportgüter P K Preis pro Einheit Realkapital R Währungsreserven S Sparen bzw. Ersparnis T Steuern und Abgaben an den Staat Tind „Indirekte Steuern“ U Nutzen Ü Übertragungen V Umlaufgeschwindigkeit des Geldes W Vermögen („Wealth“) Y Volkseinkommen, Produktionsmenge, Nationaleinkommen Yd gesamtwirtschaftliche Güternachfrage Ys gesamtwirtschaftliches Güterangebot L Y Lohneinkommen G Y Gewinn und Kapitaleinkommen Ypot Produktionspotential YV verfügbares Einkommen Z Zahlungsbilanz, (negativer) Devisenbilanzsaldo Z Subventionen

3. Kleinbuchstaben: c marginale Konsumquote e Wechselkurs ex Exportvolumen g Wachstumsrate einer Größe (die als Subskript aufgeführt wird) gK Wachstumsrate des Kapitalstocks gN Wachstumsrate der Arbeit bzw. der Bevölkerung gP Inflationsrate gY Wachstumsrate des Sozialprodukts i Zinssatz (nominal) im Importvolumen k Sachkapital pro Arbeiter, Kapitalintensität (K/N) m marginale Importquote

Symbolverzeichnis

p Preis eines Gutes q Faktorpreis r Realzinssatz s marginale Sparquote tot Terms of trade u Arbeitslosenquote w Lohnsatz v Faktoreinsatz x Mengeneinheiten eines gehandelten Gutes xd Angebotsmenge, Angebotsfunktion xs Nachfragemenge, Nachfragefunktion y Pro-Kopf-Produktion, Pro-Kopf-Einkommen (Y/N) z Zollsatz

4. Griechische Buchstaben:

μ μ σ ∆

Multiplikator Mittelwert Standardabweichung Differenz-Operator (z.B. ∆xt := xt – xt–1)

XV

Theorie der Wirtschaftspolitik

12

André Schmidt

Gliederung 12.1 Grundlagen und Legitimation der Wirtschaftspolitik.................................. 3 12.1.1 Begriff und Eigenschaften staatlicher Wirtschaftspolitik............. 3 12.1.2 Der Staat als abstraktes Regelsystem............................................... 4 12.1.3 Gegenstand der Theorie der Wirtschaftspolitik............................. 6 12.1.4 Legitimation staatlicher Wirtschaftspolitik.................................... 8 12.1.4.1 Erster und Zweiter Hauptsatz der Wohlfahrtsökonomik............................................... 9 12.1.4.2 Kontrakttheoretische Legitimation des Staates und staatlicher Wirtschaftspolitik ................................ 14 12.1.4.3 Soziökonomische Evolution zur Legitimation staatlichen Handelns....................................................... 17 12.1.4.4 Legitimation staatlichen Handels auf der Basis der Verhaltensökonomie................................................ 19 12.2 Prinzipien staatlicher Wirtschaftspolitik zur Konstitutionalisierung einer marktwirtschaftlichen Ordnung............................................................. 21 12.2.1 Verfassungsregeln für eine marktwirtschaftliche Ordnung......... 21 12.2.1.1 Ökonomische Theorie der Verfassung – Das Interdependenzkostenkalkül.................................. 21 12.2.1.2 Grundlegende Verfassungsregeln ................................. 24 12.2.2 Wirtschaftsverfassung ...................................................................... 26 12.2.2.1 Konstituierende Prinzipen einer marktwirtschaftlichen Ordnung.................................... 27 12.2.2.2 Regulierende Prinzipien einer marktwirtschaftlichen Ordnung.................................... 31

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 T. Apolte et al. (Hrsg.), Kompendium der Wirtschaftstheorie und Wirtschaftspolitik III, https://doi.org/10.1007/978-3-658-21775-4_12

1

2

André Schmidt

12.3 Ziele und Mittel der Wirtschaftspolitik........................................................... 33 12.3.1 Ziele der Wirtschaftspolitik.............................................................. 33 12.3.2 Wirtschaftspolitische Instrumentkategorien.................................. 35 12.3.3 Kriterien für den Instrumenteneinsatz........................................... 37 12.3.4 Das Problem der Zeitinkonsistenz: Regelgebundener versus diskretionärer Instrumenteneinsatz .... 38 12.4 Positive Theorie der Wirtschaftspolitik........................................................... 40 12.4.1 Grundlagen der Neuen Politischen Ökonomik............................. 40 12.4.2 Der politische Prozess als Kette von Prinzipal-Agenten-Beziehungen...................................................... 42 12.4.3 Das Versagen des politischen Wettbewerbs.................................... 43 12.4.3.1 Zyklische Mehrheiten .................................................... 44 12.4.3.2 Eingipflige Präferenzen und das Medianwählertheorem............................................. 47 12.4.3.3 Rationale Uninformiertheit der Wähler....................... 48 12.4.4 Die Rolle der Interessengruppen..................................................... 50 12.4.5 Die Rolle der Bürokratie................................................................... 59 12.5 Bereiche der Wirtschaftspolitik........................................................................ 63 12.5.1 Staatliche Wirtschaftspolitik zur Lösung von Allokationsproblemen............................................................... 63 12.5.1.1 Private versus öffentliche Güter..................................... 63 12.5.1.2 Mischgüter........................................................................ 66 12.5.1.3 Externalitäten................................................................... 69 12.5.1.4 Informationsmängel........................................................ 81 12.5.1.5 Natürliche Monopole...................................................... 87 12.5.2 Staatliche Wirtschaftspolitik zur Lösung von Verteilungsproblemen................................................................ 97 12.5.3 Staatliche Wirtschaftspolitik zur Lösung von Stabilisierungsproblemen.......................................................... 102 12.5.3.1 Legitimation der Stabilisierungspolitik........................ 102 12.5.3.2 Nachfrage versus Angebotssteuerung........................... 104 Literaturverzeichnis........................................................................................................ 109

12  Theorie der Wirtschaftspolitik

12.1

3

Grundlagen und Legitimation der Wirtschaftspolitik

12.1.1 Begriff und Eigenschaften staatlicher Wirtschaftspolitik Wirtschaftspolitik beschreibt im Allgemeinen in einer Marktwirtschaft die Gesamtheit aller Institutionen, Regeln, Regulierungen und Maßnahmen, mit denen staatliche oder lokale Entscheidungsträger auf die Wirtschaftsordnung und den Wirtschaftsprozess als Ergebnis dezentraler Entscheidungen einwirken, um bestimmte, von der Gesellschaft vorgegebene Ziele zu erreichen. Dabei kann es sich sowohl um allgemeine Regeln für die Durchführung von Markttransaktionen als auch um gezielte interventionistische Eingriffe zur Erzeugung bestimmter Marktergebnisse handeln. Das Ziel wirtschaftspolitischer Maßnahmen ist es dabei stets, ein effizientes arbeitsteiliges Wirtschaften auf Dauer zu ermöglichen und Störungen in der Wirtschaftsentwicklung durch Schocks einzugrenzen und zu korrigieren. Hierbei ist zwischen verschiedenen Problem- und Politikbereichen zu unterscheiden. Die Leistungsfähigkeit von Volkswirtschaften wird maßgeblich davon beeinflusst, inwieweit es gelingt, dass die knappen Ressourcen in ihre effizienteste Verwendung fließen. Dieses Allokationsproblem wird üblicherweise durch die Preis- und Wettbewerbsmechanismen von Märkten gelöst. Allerdings kann es bestimmte Konstellationen geben, unter denen Märkte nur unvollkommen oder gar nicht funktionieren. Man spricht dann vom sogenannten Marktversagen. Sind Märkte nicht in der Lage, von sich heraus für eine effiziente Ressourcenallokation zu sorgen, dann ist es Aufgabe der staatlichen Wirtschaftspolitik das Allokationsproblem zu lösen. Funktionierende Märkte steuern die Einkommensverteilung nach dem Prinzip der Marktleistung bzw. Leistungsgerechtigkeit. Dies hat jedoch zur Folge, dass weniger leistungsfähige Individuen in ihrer Fähigkeit, Einkommen zu generieren, auf Märkten grundsätzlich benachteiligt werden. Gleiches gilt auch für solche Individuen, die über eine inferiore Anfangsausstattung verfügen. Mit anderen Worten, die durch Märkte hervorgebrachten Einkommensverteilungen müssen nicht zwangsläufig mit den in der Gesellschaft bestehenden Gerechtigkeitsvorstellungen übereinstimmen. Dann ist es Aufgabe des Staates im Rahmen der Distributionspolitik für eine den Wertvorstellungen der Gesellschaft entsprechende Einkommensverteilung zu sorgen. Marktprozesse, die auf individuellen Tauschprozessen basieren, entsprechen nicht zwangsläufig der Anforderung nach Stabilität. Kommt es zu plötzlichen Erwartungsänderungen oder anderen ungeplanten Korrekturen der individuellen Pläne können Märkte erratische Schwankungen unterworfen sein. Da solche Schwankungen zu weiteren Anpassungsprozessen und volkswirtschaftlichen Kosten führen, ist es darüber hinaus Aufgabe des Staates im Rahmen der Stabilisierungspolitik, Schwankungen im Wirtschaftsprozess zu vermeiden und auszugleichen. Zur Erfüllung der oben genannten Aufgaben werden verschiedene Bereiche der Wirtschaftspolitik unterschieden. Hierzu gehören vor allem die Wirtschaftsordnungspolitik, die Prozesspolitik sowie die Finanzpolitik.

4

André Schmidt

Aufgabe der Wirtschaftsordnungspolitik ist es primär, langfristig ausgerichtete Regeln und Normen zu setzen, die die Spielräume der Teilnehmer am Wirtschaftsprozess einschließlich der dazu erforderlichen Institutionen festlegen. Eine wichtige Rolle spielt hierbei die Gestaltung der Wirtschaftsverfassung, die den langfristigen gesellschaftlichen Grundkonsens über die Gestaltung der Wirtschaftsordnung widerspiegelt. Im Rahmen der Prozesspolitik geht es hauptsächlich um die Steuerung der gesamtwirtschaftlichen Nachfrage und des gesamtwirtschaftlichen Angebots, um die gesamtwirtschaftlichen Ziele wie hoher Beschäftigungsstand, Preisniveaustabilität, stetiges und angemessenes Wirtschaftswachstum sowie außenwirtschaftliches Gleichgewicht im Rahmen der stabilitätspolitischen Konzeptionen zu erreichen. Während im Rahmen der Wirtschaftsordnungspolitik die wirtschaftspolitischen Eingriffe auf den Rahmen abzielen, unter dem die ökonomischen Tauschvorgänge stattfinden, zielt die Prozesspolitik stärker auf eine direkte Steuerung des Ergebnisses, die die Tauschvorgänge hervorbringen, ab. Aufgabe der Finanzpolitik ist es, die Finanzierung der Staatsaufgaben durch ein entsprechendes Einnahmensystem. Hierzu zählt vor allem die Erhebung von Steuern, Abgaben und Gebühren. Aber auch die Finanzierung der Staatsaufgaben durch Kredite stellt eine Kernaufgabe der Finanzpolitik. Die Herausforderung der Finanzpolitik ist vor allem darin zu sehen, die öffentlichen Aufgaben so zu finanzieren, dass es nur zu geringen Konflikten mit der effizienten Allokation auf den Güter-, Dienstleistungs- und Faktormärkten kommt und gleichzeitig die Verteilung der Finanzierungslasten den Anforderungen an den in der Gesellschaft vorherrschenden Gerechtigkeitsvorstellungen entsprechen. Bereits aus dieser sehr allgemeinen Beschreibung des Begriffs der Wirtschaftspolitik wird deutlich, dass wirtschaftspolitische Maßnahmen unterschiedliche Intensitätsstufen erreichen können. Allen Formen der Wirtschaftspolitik ist gemein, dass es sich um staatliche Eingriffe in den Wirtschaftsprozess handelt, die sich nach Umfang und Zielsetzung unterscheiden können. Dabei sind zwei Elemente für das Begriffsverständnis der Wirtschaftspolitik ausschlaggebend: es handelt sich um staatliche Eingriffe und mittels dieser Eingriffe sollen bestimmte gesellschaftliche und ökonomische Ziele erreicht werden.

12.1.2 Der Staat als abstraktes Regelsystem Wenn Wirtschaftspolitik untrennbar mit staatlichem Handeln verbunden ist, dann ist zunächst danach zu fragen, wie aus ökonomischer Sicht der Staat und die von ihm ausgehenden Handlungen erklärt werden können. Abstrakt betrachtet, soll der Staat Regeln schaffen, interpretieren und durchsetzen, welche die Menschen zur Organisation ihres Zusammenlebens benötigen. In diesem Zusammenhang kann der Staat als ein abstraktes Regelsystem interpretiert werden (Breyer/Kolmar 2014, 3). Darüber hinaus kann der Staat auch als Gesamtheit der durch dieses Regelsystem geschaffenen Aufgaben- und Funktionsbereiche angesehen werden. Der Begriff des Staates steht somit für die Gesamtheit aller Regeln und der sich daraus ergebenden Funktionsbereiche, die die Organisation aller gesellschaftlichen Prozesse

12  Theorie der Wirtschaftspolitik

5

zum Gegenstand haben. Diese Regeln sind zur Verwirklichung der gesellschaftlichen Grundwerte unabdingbar. Versteht man den Staat als ein solches abstraktes Regelsystem, so kann dieses niemals losgelöst vor dem Hintergrund der gesellschaftlichen Grundwerte diskutiert werden. Die gesellschaftlichen Grundwerte können als Konventionen angesehen werden, die den Hintergrund aller gesellschaftlichen Handlungen abbilden. Zu den gesellschaftlichen Grundwerten zählen Freiheit, Gerechtigkeit, und Sicherheit (Streit 2005, 237). Der Grundwert der Freiheit gehört zu den zentralen Pfeilern für die Existenz aller ökonomischen Tauschprozesse. Allerdings bereitet die begriffliche Präzisierung des Grundwertes der Freiheit erhebliche Schwierigkeiten. Auf der individuellen Ebene kann zwischen Willens- und Handlungsfreiheit unterschieden werden (Kant 1781, 170 f.). Die Willensfreiheit beschreibt die Fähigkeit eines Individuums, die Freiheit zu besitzen, willentlich zu handeln. Im Mittelpunkt steht hierbei die Selbstbestimmtheit des Willens. Die Selbstbestimmung des Handelns durch Abwesenheit von Zwang wird dagegen als Handlungsfreiheit angesehen. Dabei kann es zu einer Diskrepanz zwischen Willens- und Handlungsfreiheit kommen. Menschen können frei sein, einen bestimmten Willen zu haben, fraglich ist jedoch, ob es die konkrete Situation erlaubt, diesen Willen auch durch entsprechende Handlungen umzusetzen. Dies spiegelt sich auch in der Unterscheidung zwischen formaler und materieller Freiheit wider. Während formal, bspw. durch die Verfassung, die Willensfreiheit garantiert sein kann, ist es durchaus möglich, dass Menschen nicht über die ausreichenden Mittel (materielle Freiheiten) verfügen, diese Handlungen auch in die Realität umzusetzen. Auf der gesellschaftlichen Ebene entstehen immer dann Probleme, wenn aufgrund der Handlungsfreiheiten eines oder mehrerer Individuen, die Freiheiten eines anderen oder anderer Individuen beschränkt werden. Daher bedarf es in jeder Gesellschaft Regeln, die die individuellen Handlungsfreiheiten sowohl garantieren als auch begrenzen, bzw. erlaubte von unerlaubten Handlungen abgrenzen. Auf der Basis des gesellschaftlichen Grundwertes der Freiheit soll der Staat Regeln entwickeln, anerkennen und durchsetzen, welche die Handlungsfreiheit aller gleichermaßen sichern soll. Der Grundwert der Gerechtigkeit stellt neben der Freiheit eine gleichwertige Konvention des gesellschaftlichen Wertekatalogs dar. Ohne an dieser Stelle auf die Kontroversen, die mit dem Begriff der Gerechtigkeit einhergehen, einzugehen, wird Gerechtigkeit als Norm zur Beurteilung des Verhaltens gegenüber anderen Personen interpretiert. Das Verständnis der Gerechtigkeit als Verhaltensgerechtigkeit ist jedoch weniger konfliktgeladen als die Auffassung über Gerechtigkeit, welche primär an der Verteilung bestimmter Ergebnisse abzielt. Diese Verteilungsgerechtigkeit ist eine Norm zur Beurteilung von erzielten gesellschaftlichen Stellungen und Positionen sowie Ergebnissen einzelner Personen oder Personengruppen im Vergleich zu anderen Personen und Personengruppen. Die Norm der Verteilungsgerechtigkeit birgt in sich so viele kontroverse Auseinandersetzungen, weil es an einer objektiven Norm fehlt, nach der eine erzielte Gerechtigkeitsposition beurteilt werden kann. Da es aber gleichzeitig den gesellschaftlichen Grundkonsens gibt, dass gerechte Verteilungen angestrebt werden sollen, bedarf es der Schaffung und Entwicklung von Regeln, die dem gesellschaftlichen Bedürfnis nach Gerechtigkeit entsprechen.

6

André Schmidt

Das Bedürfnis nach Sicherheit entspringt dem Wunsch, dass Menschen Gewissheit darüber besitzen wollen, ihre formalen und materiellen Freiheitsrechte auch in Zukunft ausüben zu können. In diesem Zusammenhang haben Freiheit und Sicherheit die gleiche Bezugsbasis, wie die Ausübung von Willens- und Handlungsfreiheiten. Bei der Ausübung ihrer Handlungsfreiheiten haben die Menschen weder Kenntnis über alle denkbaren zukünftigen Ereignisse noch über die Eintrittswahrscheinlichkeit bestimmter Ereignisse. Da sie die Konsequenzen ihrer eigenen Handlungen nicht vollständig kennen und darüber hinaus auch keine Kenntnisse über zukünftige exogene Ereignisse haben, möchten sie sichergestellt wissen, dass sie bei Eintreten negativer Ereignisse notfalls abgesichert sind, und ihre Willens- und Handlungsfreiheiten weiterhin ausüben können. Die Schaffung adäquater Regeln, die der Präferenz nach Sicherheit der Menschen entsprechen –auch über Umverteilungsmechanismen – kann daher ebenfalls als eine Aufgabe staatlichen Handelns angesehen werden. Diese gesellschaftlichen Grundwerte bilden die Basis, auf die sich das abstrakte Regelsystem Staat bezieht. Der Staat schafft die institutionelle Umwelt, in dem er formale Regelungen entwickelt, die die oben genannten Grundwerte schützen und umsetzen sollen. Gleichzeitig muss der Staat die entsprechenden Kontrollstrukturen schaffen, die sicherstellen, dass die formalen Regelungen zum Schutz und zur Umsetzung der gesellschaftlichen Grundwerte auch tatsächlich realisiert werden. Somit lässt sich ein enger und weiter Staatsbegriff unterscheiden. Der weite Staatsbegriff umfasst die Gesamtheit aller formalen Regeln, wie die Verfassung, die einfachen Gesetze und weitere Rechtsakte, während der enge Staatsbegriff auf die institutionellen Strukturen abstellt, die die Interpretation und Umsetzung sämtlicher formaler Regeln betreffen (Williamson 2000). Diese einleitenden Ausführungen bilden die Grundlagen für die theoretische Analyse der staatlichen Wirtschaftspolitik. Insbesondere die gesellschaftlichen Grundwerte wie Freiheit, Gerechtigkeit und Sicherheit werden in den einzelnen Abschnitten über die staatliche Wirtschaftspolitik noch genauer analysiert und diskutiert werden. Speziell die Frage, mit Hilfe welcher Maßnahmen der Staat die Beachtung der Grundwerte nicht nur schaffen, sondern auch implementieren kann, und was die geeigneten Beurteilungsmaßstäbe sind, wird Gegenstand der nachfolgenden Ausführungen sein.

12.1.3 Gegenstand der Theorie der Wirtschaftspolitik Die theoretische Analyse der Wirtschaftspolitik beschäftigt sich daher mit der Gesamtheit aller formalen Regeln und deren Umsetzung, welche die Gestaltung und Durchführung ökonomischer Handlungen zum Gegenstand haben. Der Theorie der Wirtschaftspolitik kommt die Aufgabe zu, staatliches Handeln zu beschreiben und zu analysieren, das darauf abzielt, dauerhaft effizientes, arbeitsteiliges Wirtschaften zu ermöglichen und Störungen in der Wirtschaftsentwicklung zu verhindern und gegebenenfalls zu korrigieren. Im Rahmen der deskriptiven Analyse werden die zentralen Entscheidungsprobleme der realen Wirtschaftspolitik systematisch beschrieben. Diese Entscheidungsprobleme

12 Theorie der Wirtschaftspolitik

7

basieren im Wesentlichen auf den bereits oben beschriebenen Hauptaufgaben der Allokation, der Distribution und der Stabilisierung. Im Mittelpunkt stehen hier die Fragestellungen, welche Güter werden vom Staat bereitgestellt, welche Umverteilungsmaßnahmen werden ergriffen und wie greift der Staat bspw. durch fiskalpolitische Maßnahmen in den Wirtschaftsprozess zur konjunkturpolitischen Steuerung ein. Eine wichtige Basis für die deskriptive Analyse bilden beispielsweise die Statistiken vom Statistischen Bundesamt, die Volkswirtschaftliche Gesamtrechnung sowie die Finanzierungsrechnung. Sie liefern wichtige Einblicke in die Art und den Umfang staatlicher Eingriffe in den Wirtschaftsprozess. Im Rahmen der deskriptiven Analyse der Wirtschaftspolitik ist vor allem die Staatsquote ein wichtiger Indikator zur Messung des Umfangs staatlicher Wirtschaftspolitik. Die Staatsquote gibt das Verhältnis der staatlichen Ausgaben zum Bruttoinlandsprodukt eines Landes des betreffenden Jahres an. Sie gibt damit an, wie viel Prozent der gesamten Wirtschaftsleistung eines Landes vom Staat absorbiert wird. Allerdings ist die Frage, inwieweit eine hohe bzw. geringe Staatsquote wünschenswert ist, schwierig zu beantworten. Würde sie im Extremfall nahe 0Prozent liegen, dann bedeutet dies, dass der Staat nicht einmal essentielle Rahmenbedingungen zur Sicherung der Eigentums- und Verfügungsrechte bereitstellt, während umgekehrt bei einer Staatsquote von nahe 100 Prozent jegliche individuell-private ökonomischen Handlungen unterbunden wären. Abbildung 12.1 zeigt die Entwicklung der Staatsquote für die Bundesrepublik Deutschland auf.

Abb. 12.1 Entwicklung der Staatsquote in der Bundesrepublik Deutschland von 1990-2013 (BMF 2013)

8

André Schmidt

Die Entwicklung der Staatsquote in der Bundesrepublik Deutschland zeigt, dass bei zunehmenden staatlichen Eingriffen in den Wirtschaftsprozess die Staatsquote ansteigt. Dies lässt sich insbesondere für den Zeitraum zwischen 1990 -1995 im Zuge der deutschen Wiedervereinigung und nach der Wirtschafts- und Finanzkrise 2008 erkennen. Neben der rein deskriptiven Analyse wird auch zwischen normativer und positiver Analyse unterschieden. Im Rahmen der normativen Analyse wird danach gefragt, wie die formalen Regeln gestaltet und deren Umsetzung erfolgen sollte, damit ein möglichst „gutes“ Wirtschaftsergebnis erzielt wird. Dies bedeutet beispielsweise, dass danach gefragt wird, wie ein gegebenes Ziel bestmöglich erreicht werden kann. Die Beantwortung dieser Fragestellungen hängt von normativen Bewertungsmaßstäben ab und ist daher klar von der positiven Analyse zu trennen. Im Mittelpunkt der positiven Analyse steht die Frage, warum bestimmte formale Regeln entstehen und warum diese genau so, wie empirisch beobachtbar, interpretiert und umgesetzt werden. Die positive Analyse fragt nicht nachdem, was sein sollte, sondern versucht die Frage zu beantworten, warum bestimmte Phänomene in der Realität auftreten. Hier wird danach gefragt, warum sich beispielsweise die wirtschaftspolitischen Akteure so verhalten, wie es in der Empirie beobachtet wird. Von besonders großer Bedeutung ist hier der Ansatz der Neuen Politischen Ökonomie, die das Entscheidungsverhalten von politischen Entscheidungsträgern untersucht. Beide Aspekte, sowohl die normative als auch die positive Analyse sind für die theoretische Analyse der Wirtschaftspolitik von hoher Relevanz und bilden entscheidende theoretische Ansätze zur Untersuchung wirtschaftspolitischer Handlungen.

12.1.4 Legitimation staatlicher Wirtschaftspolitik Wirtschaftspolitische Eingriffe des Staates in den Wirtschaftsprozess sind nichts Außergewöhnliches. Im Gegenteil, in modernen Marktwirtschaften gehören sie zum Normalfall. Sei es im Rahmen der Wettbewerbspolitik, die Unternehmen bestimmte Verhaltensweisen untersagt, oder im Rahmen der Steuerpolitik, wodurch bestimmte ökonomische Handlungen besteuert werden, oder dass im Zuge der konjunkturpolitischen Steuerung der Staat seine Staatsausgaben erhöht. Beispiele für wirtschaftspolitische Eingriffe finden wir zuhauf. Auch wenn Eingriffe des Staates in den Wirtschaftsprozess an der Tagesordnung sind, so ist jedoch auch bekannt, dass grundsätzlich dezentrale, individuelle Handlungen in der Lage sind, effiziente Ergebnisse herbeizuführen. Greift der Staat mithilfe wirtschaftspolitischer Maßnahmen in den Wirtschaftsprozess ein, so bedeutet dies zunächst nichts anderes, als dass die dezentralen Handlungen der Individuen durch zentrale Handlungen des Staates substituiert werden. Damit werden jedoch individuelle Handlungs- und Entscheidungsfreiheiten beschränkt. Führt der Staat beispielsweise eine Einkommensteuer ein, so bedeutet dies, dass die Wirtschaftssubjekte über die Einkommensbestandteile, die sie als Steuer abführen müssen, nicht mehr frei entscheiden können. Gleiches gilt beispielsweise auch für

12  Theorie der Wirtschaftspolitik

9

die Einführung einer gesetzlichen Kranken-, Renten- und Arbeitslosenversicherung. Dies hat zur Konsequenz, dass die Arbeitnehmer einen bestimmten Anteil ihres Einkommens nicht in Geldleistungen ausgezahlt bekommen, sondern – vergleichbar mit einer Naturalienwirtschaft – in Versicherungsleistungen erhalten, unabhängig davon, ob sie diese wünschen oder nicht. Mit diesen, zugegebenermaßen stark vereinfachenden Beispielen soll deutlich werden, dass, wann immer der Staat in den Wirtschaftsprozess eingreift, individuelle Handlungs- und Entschließungsfreiheiten eingeschränkt werden. In einer marktwirtschaftlichen Ordnung, die auf den individuellen Handlungs- und Entschließungsfreiheiten beruht, darf die Beschränkung dieser Freiheiten keine Selbstverständlichkeit und auch kein Selbstzweck sein, sondern bedarf der besonderen Legitimation. Eine Einschränkung der Freiheiten kann nur dann hinreichend legitimiert sein, wenn sich die Wirtschaftssubjekte durch die mit den wirtschaftspolitischen Maßnahmen einhergehenden Freiheitsbeschränkungen besserstellen, als ohne diese Maßnahmen. Daher wird in den nächsten Abschnitten die Legitimation staatlicher Wirtschaftspolitik im Detail diskutiert.

12.1.4.1 Erster und Zweiter Hauptsatz der Wohlfahrtsökonomik Das oben aufgeführte Argument, dass staatliche Wirtschaftspolitik der Legitimation bedarf, beruht auf der Annahme, dass dezentrale individuelle Handlungen zu effizienten Ergebnissen führen. Der in der Volkswirtschaftslehre hierbei verwendete Effizienzbegriff geht dabei auf den italienischen Ökonomen Vilfredo Pareto zurück. Danach heißt ein Zustand Pareto-effizient, wenn keine Person mehr bessergestellt werden kann, ohne dass eine andere Person schlechter gestellt wird (Varian 2016, 291). Die Bedeutung, die das Kriterium der Pareto-Effizienz in der Volkswirtschaftslehre erlangt hat, lässt sich am besten anhand eines freiwilligen Tausches erklären. Menschen sind nur dann freiwillig zu Tauschhandlungen bereit, wenn sie glauben, dass sie sich durch diesen Tausch in ihren subjektiven Nutzenpositionen verbessern. Das heißt, Tauschvorgänge dauern so lange an, solange sich Menschen durch diesen Tausch verbessern können. Ist der Zustand der Pareto-Effizienz erreicht, wird keine weitere Tauschhandlung stattfinden, da sich mindestens ein Wirtschaftssubjekt in seiner Nutzenposition verschlechtert. Daher wird dieses Wirtschaftssubjekt nicht mehr freiwillig an Tauschhandlungen teilnehmen. In dieser Situation kommen die Tauschhandlungen zum Erliegen, wodurch ein Gleichgewichtszustand erreicht ist. Die Begriffe der Pareto-Effizienz und Pareto-Optimalität werden dabei synonym verwendet. Allerdings erlaubt das Pareto-Kriterium nicht, eine Rangordnung zwischen verschiedenen Zuständen herzustellen. Hierfür verwendet man das Kriterium der Pareto-Verbesserung. Eine Pareto-Verbesserung wird dann erreicht, wenn gegenüber der Ausgangssituation keine Person in ihrer Nutzenposition schlechter gestellt wird und mindestens eine Person in ihrer Nutzenposition gegenüber der Ausgangssituation bessergestellt wird. Ein Pareto-optimaler Zustand ist genau dann erreicht, wenn eine Pareto-Verbesserung nicht mehr möglich ist. Auf funktionierenden Märkten führt der Preismechanismus in Verbindung mit dem Wettbewerbsprinzip dazu, dass eine pareto-effiziente Situation erzielt wird, obwohl die Wirtschaftssubjekte unabhängig voneinander ihre Ziele verfolgen. Dies wird als der Erste

10

André Schmidt

Hauptsatz der Wohlfahrtsökonomik bezeichnet, der nichts anderes besagt, als dass unter den Bedingungen der vollständigen Konkurrenz jedes Gleichgewicht eines Systems von Wettbewerbsmärkten eine Pareto-Optimum ist (Arrow 1951/Debreu 1959).1 Am einfachsten lässt sich diese Situation mithilfe der Edgeworth-Box darstellen. Dabei wird unterstellt, dass zwei Wirtschaftssubjekte (A und B) über zwei Nutzen stiftende Konsumgüter (q1 und q2) verfügen. Die gemeinsame Anfangsausstattung wird in der Egdeworth-Box durch den Punkt C gekennzeichnet. Die Seitenlänge der Edgeworth-Box entspricht den gesamten Erstausstattungen beider Wirtschaftssubjekte. Durch gegenseitigen Tausch können daher alle Güterkombinationen innerhalb und auf den Achsen der Edgeworth-Box realisiert werden. Geht man von der Anfangsausstattung C aus, so kann für beide Wirtschaftssubjekte mithilfe des Tausches gegenüber der Ausgangssituation eine Pareto-Verbesserung erzielt werden, wenn sie eine Kombination erreichen, die innerhalb der durch die Anfangsausstattungen verlaufenden Indifferenzkurven liegt (bspw. Punkt D). Beide Wirtschaftssubjekte realisieren ein Nutzenniveau, welches höher ist, als im Ausgangszustand (Abbildung 12.2). Dabei gibt der das Wirtschaftssubjekt A die Menge dq2A an das Wirtschaftssubjekt B (dq2B) ab und erhält dafür von diesem die Menge dq1A = dq1B. q2

dq2B

OB

q1

D dq1A

dq1B

C

q1 OA

dq2A

q2

Abb. 12.2  Edgeworth-Box

1 Für weitere Erklärungen des ersten Hauptsatzes der Wohlfahrtsökonomik sei auf das Lehrbuch von Mas-Colell/Whinston/Green (1995) in Kapitel 16 verwiesen.

12  Theorie der Wirtschaftspolitik

11

Die Wirtschaftssubjekte können auch vom Punkt D aus noch durch Tausch ihre Nutzenpositionen verbessern. Dies ist solange möglich, bis eine Situation erreicht ist, bei der sich die Indifferenzkurven der Wirtschaftssubjekte A und B tangieren. In diesem Punkt E ist das Pareto-Optimum erreicht, da nun die Verbesserung der Nutzenposition des einen Wirtschaftssubjektes nur durch eine Reduktion der Nutzenposition des anderen Wirtschaftssubjektes erreicht werden kann (siehe Abbildung 12.3). In diesem Fall gibt das Wirtschaftssubjekt A die Menge dq2A (= dq2B) am Gut 2 ab und erhält dafür vom Wirtschaftssubjekt B die Menge dq1A = dq1B am Gut 1. q2

dq2B

OB

q1

E C

dq1A

q1 OA

dq2A

q2

Abb. 12.3  Pareto-Optimales Tauschgleichgewicht

Unterstellt man, dass es unendlich viele Tangentialpunkte zwischen den Indifferenzkurven der beiden Wirtschaftssubjekte gibt, so existieren auch unendlich viele ParetoOptima, die durch die Kontraktkurve, der Verbindungslinie aller Tangentialpunkte zum Ausdruck gebracht wird. Sie ist der geometrische Ort aller pareto-optimalen Verteilungen der Güter 1 und 2 auf die Wirtschaftssubjekte A und B und kann auch als Linie des effizienten Tausches bezeichnet werden (siehe Abbildung 12.4). Für die Wirtschaftspolitik ist der Erste Hauptsatz der Wohlfahrtsökonomik von zentraler Bedeutung. Denn über all dort, wo durch dezentrale, marktliche Handlung nicht automatisch eine pareto-effiziente Situation herbeigeführt werden kann, soll mithilfe wirtschaftspolitischer Maßnahmen durch den Staat das Marktergebnis korrigiert werden. In diesem Zusammenhang spricht man auch vom Marktversagen, welches die normative Theorie der Staatstätigkeit und damit die staatliche Wirtschaftspolitik begründet.

12

André Schmidt q2

OB

q1

OA

q2

Abb. 12.4  Linie des effizienten Tauschs

Auf der Basis des vollständigen Konkurrenzgleichgewichts können sich verschiedene Pareto-effiziente Zustände herausbilden. Dies soll anhand Abbildung 12.5 gezeigt werden. Die Punkte D, E und F bezeichnen pareto-effiziente Zustände. Diese drei Zustände unterscheiden sich nun hinsichtlich der für die jeweiligen Wirtschaftssubjekte realisierten Nutzenniveaus. Während der Zustand D dem Wirtschaftssubjekt B ein hohes Nutzenniveau beschert, realisiert das Wirtschaftssubjekt A in dieser Situation nur ein vergleichsweise geringes Nutzenniveau. Umgekehrt ist der Zustand F. In der Situation E sind die Nutzenpositionen der beiden Wirtschaftssubjekte nahezu ausgeglichen. Jeder der Zustände D, E und F kann nun das Ergebnis eines Konkurrenzgleichgewichts sein. Dabei wird deutlich, dass der Zustand der Pareto-Optimalität nichts über die Verteilung der erzielten Nutzenniveaus aussagt. Die Konkurrenzgleichgewichte können sowohl sehr ungleich (in D und F) als auch sehr gleich (E) verteilt sein. Welches der möglichen Konkurrenzgleichgewichte dabei erreicht wird, hängt von der Anfangsausstattung, das sind die Güter-, Arbeits- oder Kapitalmengen, über die die Haushalte in der Ausgangssituation verfügt haben ab. Sind die Anfangsausstattungen sehr ungleich verteilt, so werden auch die Nutzenniveaus, die im Konkurrenzgleichgewicht erzielt werden, sehr unterschiedlich verteilt sein. Dagegen führen sehr ähnliche Anfangsausstattungen zu eher zu gleich verteilten Nutzenniveaus im Konkurrenzgleichgewicht.

12  Theorie der Wirtschaftspolitik

q2

13

q2FB

q2EB

q2DB

OB

q1

q1DFA

q1FB

F

q1EB

q1EA E

q1DB

q1DA D

q1 OA

q2DA

q2EA

q2FA

q2

Abb. 12.5  Verschiedene pareto-effiziente Zustände

Auf dieser Überlegung basiert der Zweite Hauptsatz der Wohlfahrtsökonomik. Dieser besagt, dass unter den Bedingungen des ersten Hauptsatzes der Wohlfahrtsökonomik und zwei weiteren technischen Bedingungen2, jede mögliche pareto-effiziente Allokation durch vollständige Konkurrenz erreicht werden kann, wenn die Anfangsausstattungen entsprechend umverteilt werden. Dies bedeutet, dass die Berücksichtigung von Verteilungszielen nicht gegen die vollständige Konkurrenz spricht. Will man allerdings eine andere Verteilung der Ergebnisse der vollständigen Konkurrenz erreichen, so müssen die entsprechenden Anfangsausstattungen der Wirtschaftssubjekte entsprechend umverteilt werden. Ohne an dieser Stelle der Diskussion über staatliche Umverteilungspolitik vorzugreifen, lässt sich auf der Basis des Zweiten Hauptsatzes der Wohlfahrtsökonomik auch zeigen, dass bei der Verfolgung bestimmter verteilungspolitischer Ziele, diese nur durch staatliche Umverteilungspolitik erreicht werden können.

2

Das sind die Konvexitäten der Haushaltspräferenzen und der Produktionstechnologie.

14

André Schmidt

12.1.4.2 Kontrakttheoretische Legitimation des Staates und staatlicher Wirtschaftspolitik Die kontrakttheoretische Fundierung des Staates und der staatlichen Wirtschaftspolitik basiert im Wesentlichen auf den Arbeiten von James M. Buchanan. Sie stützt sich auf die Theorie des Gesellschaftsvertrages, mit der die Entstehung der Institutionen des Eigentums und des Staates durch freiwilligen Tausch der Individuen begründet wird (Buchanan 1984). Danach sind die Wirtschaftssubjekte bereit, freiwillig auf bestimmte Freiheitsrechte zu verzichten und sich einer Eigentumsordnung und deren staatliche Durchsetzung zu unterwerfen, um sich dadurch in ihrer Nutzenposition besser zu stellen, als ohne die Existenz des Staates und der Eigentumsordnung. Das heißt, die Gründung eines Staates führt zu einer Pareto-Verbesserung. Der Ausgangspunkt sei eine Situation ohne Staat, ohne Gesetze, ohne Moral und dementsprechend ohne garantierte Eigentumsrechte. Sie entspricht dem Hobbeschen Naturzustand des Gleichgewichts der Anarchie (Hobbes 1651, 62). Der Zustand dieser kämpferischen Anarchie kann nur durch einen Verfassungsvertrag überwunden werden. Die entscheidende Frage ist dabei, wie es zu solch einem Verfassungsvertrag kommt. Im Zustand der Anarchie können die Individuen ihren Lebensunterhalt nicht nur durch die Produktion eigener Güter bestreiten, sondern auch, in dem sie andere Individuen berauben. Entsprechend ihrer individuellen Fähigkeiten, werden sich einige Individuen auf die Produktion von Gütern und deren Verteidigung und andere auf den Raub dieser Güter spezialisieren. Dabei bildet sich eine natürliche Verteilung heraus, in der die Nutzen zusätzlicher Produktions-, Verteidigungs- und Raubaufwendungen deren jeweiligen Grenzkosten entsprechen. Dieses Gleichgewicht der Anarchie ist jedoch instabil, wenn man unterstellt, dass die Individuen auf der Basis rationaler Überlegungen erkennen, dass ein Abkommen über die wechselseitige Anerkennung individueller Eigentumsrechte für alle Individuen ökonomisch vorteilhaft wäre, weil sich alle auf die Produktion von Gütern konzentrieren könnten und keine Kosten für Raub- und Verteidigungsaktivitäten entstehen würden. Die Ressourcen würden dann nur noch für produktive Zwecke verwendet werden, sodass insgesamt eine bessere Güterversorgung und damit auch ein höheres Nutzenniveau erreicht werden könnte. Somit besteht unter rationalen Erwägungen ein Anreiz dazu, ein Abkommen über die wechselseitige Anerkennung der Eigentumsrechte zu schließen. Gleichzeitig werden durch die gegenseitige Anerkennung von Eigentumsrechten Tauschvorgänge möglich, aus denen Wohlfahrtsgewinne erwachsen können. Allerdings ist eine solche gegenseitige Anerkennung der Eigentumsrechte kein stabiles Gleichgewicht. Spieltheoretisch betrachtet, entspricht diese Situation dem Gefangenendilemma. Denn jeder Vertragspartner hat einen Anreiz durch gelegentlichen Raub seine Nutzenposition zu verbessern. Dies kann am Beispiel der Matrix in Abb. 12.6 gezeigt werden. In der Auszahlungsmatrix werden die Nutzenpositionen der Personen A und B, wobei der linke Wert die Nutzenposition für A und der rechte Wert die Nutzenposition für B entspricht, dargestellt. Es wird angenommen, dass beide Personen grundsätzlich zwischen zwei Verhaltensalternativen wählen können. Man kann die Eigentumsrechte respektieren und damit auf Diebstahl verzichten, oder aber die Eigentumsrechte des anderen verletzen.

12  Theorie der Wirtschaftspolitik

A

B

15

Eigentumsrechte respektieren

Eigentumsrechte verletzen

Eigentumsrechte respektieren

(19;7)

(3;11)

Eigentumsrechte verletzen

(22;3)

(9;4)

Abb. 12.6  Auszahlungsmatrix bei Respektierung und Verletzung der Eigentumsrechte

Abb. 6: Auszahlungsmatrix bei Respektierung und Verletzung der Eigentumsrechte

Respektieren beide wechselseitig die Eigentumsrechte so erreicht A eine Nutzenposition In der obigen Auszahlungsmatrix die Nutzenpositionen der Personen A und B, entwobei der linke von 19 Einheiten und B vonwerden 7 Einheiten. Der Gesamtnutzen beider beträgt hier 26 und spricht dem höchsten Im Hobbeschen – in welchem die EigenWert die Nutzenposition für AWert. und der rechte WertNaturzustand die Nutzenposition für Bbeide entspricht, dargestellt. Es tumsrechte verletzen – erreichen sie nur einen Gesamtnutzen von 13 Einheiten, wovon 9 wird angenommen, dass beide Personen grundsätzlich zwischen zwei Verhaltensalternativen wählen auf Person A und 4 auf Person B entfallen. Allerdings kann auch gezeigt werden, dass die können. Man kann die gegenseitig Eigentumsrechte respektierenzuund damit kein auf Diebstahl verzichten, oder aber Vereinbarung, die Eigentumsrechte verletzten, stabiles Gleichgewicht ist, da A, unterdes der anderen Annahme,verletzen. dass B die Eigentumsrechte respektiert, durch gelegentlichen die Eigentumsrechte Respektieren beide wechselseitig die Eigentumsrechte Raub seinen individuellen Nutzen von 19 auf 22 Einheiten steigern kann, bzw. B von 7 so erreicht A eine Nutzenposition von 19 Einheiten und B von 7 Einheiten. Der Gesamtnutzen beider auf 11 Einheiten. Da sich die Nutzenposition der jeweils beraubten und sich vertragstreu beträgt hier 26 und entspricht dem höchsten Wert.sich Im der Hobbeschen Naturzustand in brewelchem beide verhaltenden Person verschlechtert, verstärkt Anreiz ebenfalls den Vertrag– zu chen, sodass verletzen der Rückfall in das Hobbesche der Anarchie die Eigentumsrechte – erreichen sie nurGleichgewicht einen Gesamtnutzen vondroht. 13 Einheiten, wovon 9 auf Diese Situation offenbart die Diskrepanz zwischen individueller und kollektiver RatioPerson A nalität. und 4 Individuell auf PersonistBesentfallen. Allerdings kann auch werden,da dass Vereinbarung, rational, die Eigentumsrechte nichtgezeigt zu respektieren, mandie durch gelegentlichen Raub seinen individuellen Nutzen erhöhen kann. Aus der Sicht der gegenseitig die Eigentumsrechte zu verletzten, kein stabiles Gleichgewicht ist,kollektida A, unter der ven Rationalität ist jedoch die gegenseitige Anerkennung der Eigentumsrechte vorteilhaft. Annahme, dass B die Eigentumsrechte respektiert, durch gelegentlichen Raub seinen individuellen Vergleicht man die Auszahlungsmatrix in der Situation des Hobbeschen Naturzustandes Nutzen von auf 22 Einheiten steigern kann, bzw. respektieren, B von 7 auf 11 Einheiten. mit 19 der Situation, in der beide die Eigentumsrechte so erkennt man, dassDa sich die der Hobbesche Naturzustand gegenüber der Situation der gegenseitigen Anerkennung Nutzenposition der jeweils beraubten und sich vertragstreu verhaltenden Person der verschlechtert, Eigentumsrechte keine Pareto-optimale Situation darstellt, da der Nutzen beider verbesverstärkt sich der Anreiz den der Vertrag sodass der Rückfall in das Hobbesche sert werden kann. ebenfalls Dies entspricht Logikzu desbrechen, Gefangenendilemmas. Gefahr einesdroht. solchen Gefangendilemmas ist umso größer, je größer die Anzahl der GleichgewichtDie der Anarchie Vertragspartner ist. Je mehr Personen an dem Vertrag beteiligt sind, desto eher kann der Einzelne darauf vertrauen, dass sein Vertragsbruch von den anderen nicht ausreichend Diese Situation offenbart geahndet wird. die Diskrepanz zwischen individueller und kollektiver Rationalität. Individuell Nach erkennennicht jedoch rational handelnden dass eine freiwil-Raub seinen ist es rational, die Buchanan Eigentumsrechte zu die respektieren, da manAkteure, durch gelegentlichen lige Übereinkunft über die gegenseitige Anerkennung von Eigentumsrechten keine stabile individuellen Nutzen erhöhen kann. Aus der Sicht der kollektiven Rationalität ist jedoch die Situation ist. Diese kann nur stabilisiert werden, wenn diejenigen, die sich vertragsbrüchig gegenseitige Anerkennung der Eigentumsrechte vorteilhaft. Vergleicht man die Auszahlungsmatrix in verhalten, auch ausreichend sanktioniert werden. Dies ist möglich, wenn sie sich auf die Gründung eines Rechtsschutzstaates einigen, der über die Mittel der Polizeigewalt, der der Situation des Hobbeschen Naturzustandes mit der Situation, in der beide die Eigentumsrechte respektieren, so erkennt man, dass der Hobbesche Naturzustand gegenüber der Situation der gegenseitigen Anerkennung der Eigentumsrechte keine Pareto-optimale Situation darstellt, da der Nutzen beider verbessert werden kann. Dies entspricht der Logik des Gefangenendilemmas.

16 André kann Schmidt Vertragspartner ist. Je mehr Personen an dem Vertrag beteiligt sind, desto eher der Einzelne

darauf vertrauen, dass sein Vertragsbruch von den anderen nicht ausreichend geahndet wird. Gerichtsbarkeit und des Strafvollzugs verfügt. Damit kann es ihm gelingen, die Durchsetzung der Normen zur Respektierung der Eigentumsrechte zu erzwingen. Durch die erkennen jedoch die rational handelnden Akteure, eine freiwillige Nach BUCHANAN Durchsetzung negativer Sanktionen im Falle der Verletzung der dass Eigentumsrechte verän-Übereinkunft dert der Staat Anerkennung die Auszahlungsmatrix, sodass die Respektierung der Eigentumsrechte nun kann nur über die gegenseitige von Eigentumsrechten keine stabile Situation ist. Diese zur dominanten Strategie für alle Individuen wird, wodurch das Gefangenendilemma in stabilisiertein werden, wenn Spiel diejenigen, die sich vertragsbrüchig verhalten, auch gelegentlichen ausreichend sanktioniert kooperatives transformiert wird. Damit kann niemand mehr durch Raubist seine Nutzenposition verbessern. die freiwillige Übereinkunft, einen Staat zueinigen, der werden. Dies möglich, wenn sie sich aufDurch die Gründung eines Rechtsschutzstaates gründen und damit Diebstahlshandlungen zu sanktionieren, kann das pareto-effiziente über die Mittel der Polizeigewalt, der Gerichtsbarkeit und des Strafvollzugs verfügt. Damit kann es ihm Gleichgewicht erreicht werden, was ohne die Institution des Staates nicht gelungen wäre gelingen, die Durchsetzung der Normen zur Respektierung der Eigentumsrechte zu erzwingen. Durch (siehe Abbildung 12.7). Allerdings muss zunächst einmal Konsens über die Gründung dieses Rechtsstaates die Durchsetzung negativer Sanktionen imein Falle der Verletzung der Eigentumsrechte verändert der erzielt werden. In diesem Rechtsstaat werden die Freiheitsspielräume der einzelnen IndiviStaat die duen Auszahlungsmatrix, sodass die Respektierung der Eigentumsrechte nun zur dominanten gegeneinander abgegrenzt. für die Gründung des Rechtsstaates bildet die Vorstellung Strategie fürDie alleBasis Individuen wird, wodurch das Gefangenendilemma in eines ein freiwillikooperatives Spiel gen Gesellschaftsvertrages zwischen den Individuen, die ein Kollektiv bilden (Brennan/ transformiert wird. Damit kann niemand mehr durch gelegentlichen Raub seine Nutzenposition Buchanan 1985, 9ff). Die Vorstellung über die Einigung auf diesen Gesellschaftsvertrag verbessern. Durch diehypothetisches freiwillige Konstrukt Übereinkunft, einen Staat zu für gründen ist dabei als ein anzusehen, welches als Basis normativeund damit Urteile steht. Istzu es hypothetisch vorstellbar, dasspareto-effiziente ein solcher Gesellschaftsvertrag freiwillig Diebstahlshandlungen sanktionieren, kann das Gleichgewicht erreicht werden, zustande kommt, so ist er als legitim anzusehen (Buchanan 1977, 124). Auf der Basis des was ohne die Institution des Staates nicht gelungen wäre (siehe Abbildung 7). methodologischen Individualismus und der Annahme des eigeninteressierten Verhaltens der Akteure werden Regeln ausschließlich danach beurteilt, ob sie den Präferenzen der Mitglieder des jeweiligen Kollektivs entsprechen. Dabei wird in Analogie des freiwilligen Tauschs auf den Gütermärkten das Zustandekommen oder auch die Änderung von Regeln als ein freiwilliger Tauschakt betrachtet (Buchanan 1990, 4f.). Individuen, die einen Rechtsstaat gründen, willigen in Beschränkungen ihres eigenen Handlungsspielraums ein, und zwar im Tausch gegen die Vorteile, die ihnen daraus erwachsen, dass der Handlungsspielraum der anderen Individuen ebenfalls durch die Regeln beschränkt wird. Das Zustandekommen oder die Änderung einer Verfassung kann nur dann als hinreichend legitimiert angesehen werden, wenn hierzu jedes einzelnen Kollektivmitgliedes zugestimmt hat

A

B

Eigentumsrechte respektieren

Eigentumsrechte respektieren

(19;7)

Eigentumsrechte verletzen

(13;3)

Eigentumsrechte verletzen (3;5) (1;1)

Abb. 12.7  Auszahlungsmatrix bei Existenz des Rechtsschutzstaates

Abb. 7: Auszahlungsmatrix bei Existenz des Rechtsschutzstaates

Allerdings muss zunächst einmal ein Konsens über die Gründung dieses Rechtsstaates erzielt werden. In diesem Rechtsstaat werden die Freiheitsspielräume der einzelnen Individuen gegeneinander abgegrenzt.

12  Theorie der Wirtschaftspolitik

17

(Einstimmigkeitsprinzip). Nur die Anwendung der Einstimmigkeitsregel stellt sicher, dass nicht gegen individuelle Präferenzen verstoßen wird und somit effiziente Entscheidungen getroffen werden (Buchanan/Tullock 1962). Das Zustandekommen der Einstimmigkeit bei der Gründung des Rechtsstaates setzt voraus, dass die Zustimmung dabei hinter dem Schleier der Unsicherheit erfolgt (Rawls 1971, 19 ff.). Im Urzustand weiß noch kein Individuum, wo es nach der Zustimmung zum Rechtsschutzstaat und der Gültigkeit seiner Regeln stehen wird. Es weiß daher nicht, ob es von allen Regeln gleichermaßen begünstigt oder auch benachteiligt wird. Nur hinter einem ausreichend dichten Schleier der Unsicherheit kann daher das Zustandekommen der Einstimmigkeit erklärt werden. Neben der Gründung des Rechtsstaates kann auf der Basis des Gesellschaftsvertrages auch die Gründung des Leistungsstaates erklärt werden. Dieser umfasst alle Regeln der gemeinsamen Beschlussfassung bzw. die Bedingungen, unter denen die Individuen gemeinsame Beschlüsse akzeptieren müssen. Diese sind immer dann notwendig, wenn es zu einer Diskrepanz zwischen individueller und kollektiver Rationalität kommt, und durch dezentrale Koordination nicht ausreichend oder nur unvollkommen umgesetzt werden können. Dies betrifft vor allem die Bereitstellung öffentlicher Güter, die durch das Prinzip der Nicht-Ausschließbarkeit und Nicht-Rivalität im Konsum gekennzeichnet sind. Allerdings muss die Entscheidung über den Leistungsstaat nicht mehr zwangsläufig unter dem Einstimmigkeitsprinzip erfolgen. Zwar stellt das Einstimmigkeitsprinzip sicher, dass kein Individuum überstimmt werden und damit gezwungen werden kann, gegen seinen Willen beispielsweise öffentliche Leistungen mitfinanzieren zu müssen, jedoch wären die Abstimmungs- und Verhandlungskosten auch bei vergleichsweise einfachen Anliegen prohibitiv hoch. Um dieses Problem zu lösen, bietet es sich an, dass die Gesellschaftsmitglieder im Gesellschaftsvertrag unter Einstimmigkeit vereinbaren, welche Abstimmungsverfahren sie auf der sogenannten nachkonstitutionellen Ebene – wenn es um die Entscheidung über Sachfragen geht – anwenden wollen (Buchanan/Tullock 1962). Für das Verständnis der Legitimation des Staates und der staatlichen Wirtschaftspolitik auf der Basis kontrakttheoretischer Erklärungen ist es elementar, dass diese Erklärungen auf dem methodologischen Individualismus beruhen. Dies bedeutet, dass der Staat selbst und staatliches Handeln immer nur auf den Präferenzen der Gesellschaftsmitglieder beruht und aus ihnen abgeleitet werden kann.

12.1.4.3 Soziökonomische Evolution zur Legitimation staatlichen Handelns Im Unterschied zur kontrakttheoretischen Erklärung des Staates und staatlicher Wirtschaftspolitik wird in der Theorie der sozioökonomischen Evolution der Staat durch die evolutorische Entwicklung abstrakter Regeln erklärt. Sie geht im Wesentlichen auf Friedrich August von Hayek zurück. Hayek unterscheidet zwei Arten der Ordnung: die spontane und die gemachte Ordnung (Hayek 1986, 59). Gemachte Ordnungen werden exogen geschaffen, sie sind verhältnismäßig einfach, von geringer Komplexität, werden konkret verfasst und dienen einen bestimmten Zweck. Sie sind das Ergebnis bewusster menschlicher Gestaltungsentwürfe.

18

André Schmidt

Im Gegensatz zur gemachten Ordnung entstehen spontane Ordnungen endogen aus dem System heraus. Sie müssen nicht notwendigerweise komplex und abstrakt sein; am wichtigsten ist ihre fehlende Beziehung zu einem bestimmten Zweck. Da die spontane Ordnung nicht von außen geschaffen worden ist, kann sie nach Ansicht Hayeks auch keinen bestimmten Zweck haben, obwohl ihre Existenz für die Individuen von großem Nutzen sein kann. Die spontanen Ordnungen entstehen weder vollkommen unabhängig von menschlichem Handeln, noch sind sie das bewusste Ergebnis planmäßiger Handlungen. Sie sind somit das Ergebnis der Interaktion zwischen dezentral entscheidenden Individuen. Für das Verständnis der sozioökonomischen Evolutionen ist die Entstehung und Entwicklung spontaner Ordnungen von entscheidender Bedeutung. In ihrer Gesamtheit bewirken die dezentralen Interaktionen, die zwischen den verschiedenen Individuen ablaufen, eine Evolution bzw. einen Selektionsprozess. Im Zeitverlauf wird sich dabei die jeweils effizientere Lösung durchsetzen. Eine spontane Ordnung entsteht immer innerhalb bestimmter abstrakter Regeln, die selbst das Ergebnis eines evolutionären Prozesses sind. Deren Evolutionsprozess ist ebenfalls mit einer spontanen Ordnung zu vergleichen. Dabei werden die Regeln bestimmter Gruppen mehr oder weniger zufällig gefunden. Es können sich im Rahmen des Evolutionsprozesses jedoch nur solche Regeln durchsetzen, die sich besser dazu eigenen, Menschen in einer Gruppe das Überleben zu garantieren. Dabei stehen nicht nur die verschiedenen Regeln miteinander in Wettbewerb, sondern auch die verschiedenen Menschengruppen. Gruppen, die in der Lage sind, überlegene Regeln zu entwickeln, haben bessere Überlebenschancen, sind für andere Gruppen attraktiver, sich ihnen anzuschließen und wachsen dadurch schneller. Die Qualität der Regeln bestimmt daher die entsprechende Gruppenselektion. Auf der Basis der Entwicklung abstrakter Regeln für die Entstehung spontaner Ordnungen lassen sich auch die Entstehung des Staates und die von ihm ausgehenden Politikmaßnahmen erklären. So haben sich staatsähnliche Organisationsformen als die effizientere und damit überlegenere Organisationsform zur Durchsetzung privater Eigentumsrechte erwiesen, als vergleichsweise andere Institutionen (North/Thomas 1973). Das heißt, Staaten werden als die überlegenen Institutionen im Rahmen des Evolutionsprozesses angesehen, um den Naturzustand der Anarchie in ein kooperatives Gleichgewicht zu überführen. Im Wesentlichen gelangen die kontrakttheoretische und die sozioökonomische Theorie des Staates zu dem gleichen Ergebnis, nämlich dass die Institution des Staates dazu geschaffen ist, um Eigentumsrechte effizient zu schützen. Der wesentliche Unterschied zwischen beiden Ansätzen ergibt sich nur im Hinblick auf die Entstehung des Staates. In der kontrakttheoretischen Perspektive basiert der Staat auf einem bewusst, von rational handelnden Individuen, geschaffenen Gesellschaftsvertrag. In den Begriffsarten Hayeks wäre dies eine exogen geschaffene Institution, die einer gemachten Ordnung entspricht. In der sozioökonomischen Evolutionstheorie ist der Staat hingegen das Ergebnis einer evolutorischen Entwicklung, die sich endogen im Sinne einer spontanen Ordnung herausgebildet hat. Beide Ansätze bilden dabei wichtige Erklärungen, welche die Entstehung des Staates und staatlichen Handelns begründen. Allerdings sind beide Ansätze auch nicht frei von

12  Theorie der Wirtschaftspolitik

19

Kritik. Im Rahmen der kontrakttheoretischen Erklärungen bleibt weitgehend offen, wie es zur Einigung auf den Gesellschaftsvertrag unter der Anwendung der Einstimmigkeitsregel überhaupt kommt. Der Verweis, dass die andere Alternative nur der Hobbesche Naturzustand der Anarchie wäre, erscheint zunächst plausibel. Allerdings darf nicht verkannt werden, dass es im realen Status quo aber auch noch andere Alternativen gäbe, die weder durch Anarchie oder dem Schleier der Ungewissheit gekennzeichnet sind, sodass die Möglichkeiten zur Schaffung eines einstimmigen Gesellschaftsvertrages doch sehr eingeschränkt sind. Aber auch der Ansatz der sozioökonomischen Evolution ist nicht frei von Kritik. Insbesondere sind die Selektionsmechanismen, die überlegene von weniger überlegenen abstrakten Regeln separieren, unklar.

12.1.4.4 Legitimation staatlichen Handels auf der Basis der Verhaltensökonomie Seit etwa vierzig Jahren fließen in der verhaltensökonomischen Forschung vermehrt auch die Ergebnisse der experimentellen Ökonomik ein. Insbesondere in der jüngeren Zeit hat dieser Forschungszweig deutlich an Beachtung gewonnen und kann ebenfalls als ein Erklärungsansatz zu Legitimation des Staates herangezogen werden. In der Öffentlichkeit besonders bekannt geworden sind die Ergebnisse der experimentellen Ökonomik durch die sogenannten Ultimatumsspiele (Güth/Schmittberger/Schwarze 1982). Dieses Experiment besteht aus zwei Probanden. Beide Probanden sind einander unbekannt und stehen in keinem Abhängigkeitsverhältnis zueinander. Ein Proband fungiert als Anbieter, während der andere Proband als Antwortender agiert. Der Anbieter erhält vom Experimentleiter einen bestimmten Geldbetrag unter der Auflage, diesen beliebig zwischen den beiden Probanden aufzuteilen. Wenn nun der als Antworter agierende Proband den ihm zugewiesen Geldbetrag akzeptiert, können beide den Geldbetrag behalten, lehnt der Antworter dagegen den ihm zugewiesen Geldbetrag ab, so bekommt keiner von beiden etwas. Entsprechend dem ökonomischen Rationalkalkül würde man erwarten, dass der Anbieter den geringstmöglichen Betrag dem Antworter anbietet und dieser dieses Angebot auch akzeptiert, weil er sonst überhaupt nichts bekommen würde. Im Gegensatz zu dieser Erwartung stehen jedoch die tatsächlich beobachteten Ergebnisse. Im Durchschnitt bieten die Anbieter vierzig Prozent des Geldbetrages den anderen Probanden an. Umgekehrt lehnen die Antworter Angebote, die unterhalb der Schwelle von zwanzig Prozent des dem Anbieter zugewiesenen Geldbetrages liegen, regelmäßig ab (Camerer 2003). Selbst in den sogenannten Diktatorspielen, in denen der zweite Proband keine Möglichkeit hat, auf den Geldbetrag, der ihm angeboten wird, Einfluss zu nehmen, da er lediglich Optionsempfänger ist, geben die Anbieter im Durchschnitt zwar weniger, aber immerhin noch freiwillig ca. zwanzig Prozent des erhaltenen Geldbetrages ab. Aus der Sicht der Verhaltensökonomik, lassen sich für die experimentell ermittelten Spielergebnisse eine Reihe von Erklärungen anführen. Dabei wird sehr häufig auf die Existenz der sogenannten Verhaltensanomalien hingewiesen (Kahnemann/Knetsch/Thaler 1991). Abweichungen vom Rationalprinzip (Verhaltensanomalien) lassen sich in der Regel dadurch erklären, in dem davon ausgegangen wird, dass Standards einer Gesellschaft, wie

20

André Schmidt

beispielsweise Fairness, Gerechtigkeit und Großzügigkeit das Handeln der Akteure maßgeblich beeinflussen. Ein solches Verhalten muss jedoch nicht in Widerspruch zu dem Rationalprinzip stehen, wenn man den Inhalt der individuellen Nutzenfunktion, die es zu maximieren gilt, um solche sozialen Standards wie Fairness, Gleichheit und Gerechtigkeit entsprechend erweitert (Kahnemann/Knetsch/Thaler 1987, 114). Damit ist es fraglich, ob es sich tatsächlich um eine Verhaltensanomalie handelt. So lässt sich das Ergebnis der Ultimatumsspiele damit erklären, dass der Anbieter entweder bereits bestimmte Fairnessregeln in seiner Zielfunktion mitberücksichtigt oder er antizipiert, dass sein Spielpartner ein geringes Angebot als unfair erachten und somit das Angebot ablehnen würde (Elster 1998, 68 f.; Bolten/Ockenfels 2000, 169 ff.). Damit sind diese Ergebnisse kein eklatanter Verstoß gegen das in der Ökonomie vorherrschende Rationalprinzip. Vielmehr sei es daher eher der Inhalt des Selbstinteresses, das es zu maximieren gilt, welches einer Revision bedürfe. Zu diesem Selbstinteresse gehören demnach nicht nur die eigenen materiellen und monetären Vorteile, sondern eben auch soziale und gesellschaftliche Präferenzen (Sen 2002, 24; Kliemt 2005, 207). In der Ökonomie hat sich daher weitgehend die Ansicht durchgesetzt, dass eine Revision des Verhaltensmodells der Rationalität nicht erforderlich ist. Den empirisch und experimentell nachgewiesenen sogenannten Anomalien kann im Rahmen einer Theorie rationalen Handelns Rechnung getragen werden, wenn man die Annahme des Selbstinteresses abschwächt, indem man altruistische Interessen oder soziale Präferenzen, bspw. bezüglich der reziproken Fairness, in die individuelle Nutzenfunktion mit aufnimmt (Fehr/Schmidt 1999; Fehr/Fischbacher 2002; Fehr/Falk 2003). Auch wenn durch die Ergebnisse der experimentellen Ökonomik das Rationalkalkül nicht widerlegt wird, so lassen sich aus der experimentellen Ökonomik dennoch wichtige Erkenntnisse ableiten. Dabei scheint es wichtig, dass man zwischen zwei unterschiedlichen Arten von Präferenzen der Akteure differenzieren muss. Zum einen haben die Akteure bestimmte Präferenzen bezüglich der Ergebnisse einer Handlung, zum anderen jedoch haben sie auch bestimmte Präferenzen darüber, wie dieses Ergebnis erzielt wurde. Das heißt, in der Bewertung der Nutzenposition spielt nicht nur das Ergebnis selbst, sondern auch sein Zustandekommen eine wichtige Rolle. Moralische Normen, Prinzipien der Fairness, Gerechtigkeit und Reziprozität sind Präferenzen, die sich nicht auf das Ergebnis der Handlung, sondern sich auf die Handlung selbst beziehen. Es handelt sich daher um Präferenzen bezüglich der Handlungen per se und nicht um Präferenzen bezüglich der Ergebnisse. (Vanberg 2008, 245). Für die Erklärung ökonomischer Wahlhandlungen ist dies von großer Bedeutung. Moralische Normen, Fairness, Gerechtigkeit usw. wirken wie Verhaltensbindungen im Sinne von Selbstverpflichtungen (Sen 2002, 215). Die Bindungskraft solcher Selbstverpflichtungen hängt allerdings wiederum davon ab, ob es eine externe Institution gibt, die das Einhalten von solchen Selbstverpflichtungen belohnt, bzw. deren Nicht-Einhaltung sanktioniert. Denn nur dann kann sichergestellt werden, dass die Individuen in der realen Welt zunächst Regelbefolger und nicht reine Ergebnismaximierer sind. Gerade diese Regelbefolgung ist es, aus der dann die entsprechenden Kooperationsgewinne entstehen.

12  Theorie der Wirtschaftspolitik

21

Wenn jedoch Regelbefolgung eine Präferenz der Individuen ist, so ist auch davon auszugehen, dass sie auch eine Präferenz eine Institution haben, die diese Regelbefolgung entsprechend überwacht und Anreize zur Beachtung der Regelkonformität setzt. Dies dürfte insbesondere in Gesellschaften mit großen Gruppen eine wichtige Rolle spielen. In Analogie zu den vorangegangenen Überlegungen bezüglich des Gefangenendilemmas braucht man auch hier wieder eine Institution, die das Konfliktspiel in ein Kooperationsspiel umwandelt. Dies gilt insbesondere für Regeln, die sich nicht selbst durchsetzen können, sondern eine geplante Überwachung erfordern (Kiwitt/Voigt 1995). Um der Präferenz nach Regelbindung gerecht zu werden, stellt der Staat daher ein überlegenes institutionelles Arrangement dar, eine solche Regelbindung zu etablieren. In dieser Hinsicht führen die Überlegungen auf der Basis der Erkenntnisse der experimentellen Ökonomik zu ähnlichen Ergebnissen wie die kontrakttheoretische Erklärung des Staates. Nur dass es hier nicht nur um die Regeln bezüglich des Schutzes der Eigentumsordnung geht, sondern vor allem um die Erfüllung weiterer Präferenzen bspw. nach Fairness, Gerechtigkeit und Reziprozität.

12.2

Prinzipien staatlicher Wirtschaftspolitik zur Konstitutionalisierung einer marktwirtschaftlichen Ordnung

12.2.1 Verfassungsregeln für eine marktwirtschaftliche Ordnung 12.2.1.1 Ökonomische Theorie der Verfassung – Das Interdependenzkostenkalkül In der ökonomischen Theorie wird die Verfassung als eine ökonomische Tauschhandlung interpretiert. Die Individuen sind bereit, sich bestimmten Regeln zu unterwerfen und damit auch Beschränkungen der eigenen Freiheitssphäre hinzunehmen, wenn sie davon überzeugt sind, dass diese Regeln dazu geeignet sind, gesellschaftlich wünschenswerte Handlungen zu stabilisieren, sodass sie sich mit diesen Regeln besserstellen als ohne diese Regeln. Jedoch basieren Verfassungsregeln nicht auf der Entscheidung eines Einzelnen, sondern entstehen im Rahmen kollektiver Entscheidungen. Diese kollektiven Entscheidungen sind demokratische Abstimmungsprozesse. Aus der Transaktionskostentheorie ist bekannt, dass Abstimmungsprozesse nicht kostenlos erfolgen, sondern es entstehen bereits im Vorfeld Verhandlungs-, Informations- und Entscheidungskosten. Im Rahmen der ökonomischen Theorie stellt sich daher die Frage, mit welchen Kosten der Allokationsmechanismus kollektiver Entscheidungen verbunden ist und wie sich in Abhängigkeit von diesen Kosten eine optimale Entscheidungsregel ermitteln lässt. Mithilfe des Interdependenzkostenkalküls lassen sich Abstimmungskosten vereinfacht darstellen (Buchanan/Tullock 1962).

22

André Schmidt

Das Interdependenzkostenkalkül von Buchanan/Tullock beruht auf der Unterscheidung zweier Kostenarten: den Diskriminierungskosten und den Entscheidungs­ findungskosten. Die Diskriminierungskosten beschreiben diejenigen Kosten, die jeweils anfallen, wenn ein Individuum überstimmt wird, es also zu Regelungen oder Maßnahmen kommt, die nicht den Präferenzen dieses Individuums entsprechen. Ihre Höhe hängt vor allem von der Abstimmungsregel ab. Gilt Einstimmigkeitsprinzip, dann sind die Diskriminierungskosten gleich null, da das Individuum niemals einer solchen Regel zustimmen würde. Da es nicht überstimmt werden kann, ist es unmöglich, dass diese Regel in Kraft tritt. Je weiter man sich jedoch vom Einstimmigkeitsprinzip wegbewegt, desto höher wird die Wahrscheinlichkeit, dass das Individuum überstimmt wird. Die Diskriminierungskosten steigen daher an, je weiter man sich von der Einstimmigkeitsregel entfernt. Je geringer die Anzahl der erforderlichen Ja-Stimmen wird, desto größer wächst die Gefahr, überstimmt zu werden. Würde die Abstimmungsregel „einer für alle“ angewendet werden, ist die Gefahr des Diskriminiertwerdens maximal. Die Diskriminierungskosten steigen dabei ausgehend von der Einstimmigkeitsregel überproportional an (siehe Abbildung 12.8). Den Diskriminierungskosten sind die Entscheidungsfindungskosten gegenüberzustellen. Um eine Abstimmung nicht zu verlieren und damit diskriminiert zu werden, kann das Individuum Kosten auf sich nehmen, um andere von seiner präferierten Regel zu überzeugen. Erfolgt die Entscheidung nach dem Einstimmigkeitsprinzip, so müssen alle Gesellschaftsmitglieder von der Vorteilhaftigkeit dieser Regel überzeugt werden, in diesem Fall sind die Entscheidungsfindungskosten extrem hoch. Gilt dagegen die Abstimmungsregel „Einer für alle“ so sind die Entscheidungsfindungskosten sehr gering. Ausgehend von der Abstimmungsregel „einer für alle“, steigen auch hier mit zunehmenden Mehrheitserfordernissen die Entscheidungsfindungskosten überproportional an (siehe Abbildung 12.9). Die Interdependenzkosten ergeben sich nun aus der vertikalen Aggregation dieser beiden Kurven. Die optimale Abstimmungs- bzw. Mehrheitsregel ist dort gegeben, wo die Interdependenzkosten minimal sind. Dies ist im Punkt A der Fall. (siehe Abbildung 12.10). Das Interdependenzkostenkalkül zeigt, dass es für Gesellschaften weder optimal ist, nach dem Einstimmigkeitsprinzip noch nach der Regel „einer für alle“ zu entscheiden. Vielmehr liegt das Optimum in Abhängigkeit von den Diskriminierungs- und Entscheidungsfindungskosten dazwischen. Diese Kosten werden maßgeblich von der Heterogenität der Gesellschaft beeinflusst. Je heterogener Gesellschaften sind, desto höher sind die Diskriminierungs- und Entscheidungsfindungskosten. Im Rahmen der ökonomischen Analyse der Verfassung stellt sich nun die Frage, ob es nicht grundsätzliche Regeln der Verfassung gibt, durch welche die Diskriminierungskosten gesenkt werden können, ohne dass die Entscheidungsfindungskosten gleichermaßen ansteigen. Solche grundlegenden Verfassungsregeln würden die Individuen vor Diskriminierung schützen und gleichzeitig sicherstellen, dass kollektive Entscheidungen zu geringen Interdependenzkosten getroffen werden können.

12  Theorie der Wirtschaftspolitik

Abb. 12.8  Diskriminierungskosten

Abb. 12.9  Interdependenzkosten und optimale Mehrheitsregel

23

24

André Schmidt

Abb. 12.10  Entscheidungsfindungskosten

12.2.1.2 Grundlegende Verfassungsregeln Die grundlegenden Verfassungsregeln lassen sich in drei verschiedene Kategorien einordnen. Zum einen umfassen sie die individuellen Grundrechte, die jedem Individuum ein Vetorecht einräumen, und zum anderen jedes Individuum vor Willkür und Freiheitsbeschränkungen schützen. Darüber hinaus enthalten sie die ökonomischen Grundprinzipien, die sicherstellen sollen, dass die kollektiven Entscheidungen möglichst nah an den Präferenzen der von diesen Entscheidungen betroffenen Individuen getroffen werden. In der dritten Kategorie enthalten die grundlegenden Verfassungsregeln verbindliche Vorgaben für den Staatsaufbau, um sicherzustellen, dass es keine unkontrollierte Machtkonzentration gibt und die Bürger vor „übergriffen“ des Staates geschützt werden. Die individuellen Grundrechte müssen jedem Bürger ein Vetorecht einräumen. Da jeder Bürger Gefahr läuft, bei kollektiven Abstimmungen überstimmt zu werden und damit sein unbedingtes Vetorecht gegen kollektive Abstimmungen verlieren kann, müssen ihm die Rechte des Verlassens der Gesellschaft (Exit bzw. Abstimmung mit den Füßen) und der freien Meinungsäußerung sowie der Stimmenabgabe (voice) eingeräumt werden (Hirschman 1970). Beide Optionen sind wichtige Mechanismen, um Regierungen und staatliches Handeln zu kontrollieren. Da Politiker ihre Chancen auf Wiederwahl erhalten wollen, müssen sie in ihren Maßnahmen Konsequenzen für die nächste Stimmenabgabe berücksichtigen. Gleiches gilt für die Exit-Option. Wenn die Bürger die Exit-Option wählen, dann hat dies einen indirekten budgetären Effekt für die Regierung, da mit zunehmender Abwanderung die Besteuerungsbasis abnimmt. Gleichzeitig droht dem Land ein hoher

12  Theorie der Wirtschaftspolitik

25

Verlust an Humankapital. Werden die individuellen Grundrechte der freien Meinungsäußerung und Stimmenabgabe beschränkt, dann kann die Exit-Option einen wirkungsvollen Sanktionsmechanismus darstellen. Weiterhin müssen in jeder Gesellschaft die einzelnen Individuen gegen Willkürmaßnahmen der Mehrheit geschützt werden. Hierzu bedarf es der Institutionalisierung umfassender Persönlichkeitsrechte, die die Voraussetzungen dafür schaffen, dass sich jedes Individuum frei entfalten kann. Aufgabe der ökonomischen Grundprinzipien ist es ferner dafür zu sorgen, dass im Rahmen kollektiver Entscheidungen, diese auch von denjenigen Personen bzw. Personengruppen getroffen werden, die von diesen kollektiven Entscheidungen auch selbst unmittelbar betroffen sind. Denn nur dann kann sichergestellt werden, dass die Entscheidungen nah an den tatsächlichen Präferenzen der Betroffenen erfolgen. In Rahmen der ökonomischen Theorie werden hierbei insbesondere zwei Prinzipien angeführt: das Äquivalenzprinzip und das Subsidiaritätsprinzip. Das Äquivalenzprinzip stellt auf eine strikte Verbindung zwischen Nutzern, Zahlern und Entscheidungsberechtigten ab. In Analogie zu den ökonomischen Tauschhandlungen kann dieses Prinzip auch auf die Finanzierung öffentlicher Güter übertragen werden. Danach soll derjenige zur Finanzierung öffentlicher Leistungen herangezogen werden, der von dieser Leistung auch begünstigt wird (Olson 1969). Mit dem Äquivalenzprinzip kann sichergestellt werden, dass die Bereitstellung der öffentlichen Güter präferenzkonform erfolgt. Gleichzeitig wird damit auch vermieden, dass diejenigen, die nicht die Kosten einer Maßnahme zu tragen haben, diese im Übermaß nutzen. Allerdings setzt eine strikte Anwendung des Äquivalenzprinzips die Anwendung der Ausschließbarkeit voraus, sodass diejenigen, die keine Zahlungsbereitschaft für die öffentliche Leistung haben, auch von dieser ausgeschlossen werden können. Ist diese – wie bei vielen öffentlichen Gütern – nicht möglich, sind der Anwendung des Äquivalenzprinzips enge Grenzen gesetzt. Das Subsidiaritätsprinzip ist kein originäres Prinzip der ökonomischen Theorie. Seine Ursprünge finden sich in der Sozialethik und seine Wurzeln lassen sich über die scholastische Lehre Thomas von Aquins bis hin zu Aristoteles verfolgen (Link 1955, 55ff.). Bekannt wurde das Subsidiaritätsprinzip insbesondere durch die Sozialenzyklika „Quadregesimo anno“ von Papst Pius XI. aus dem Jahr 1931 und sollte als Organisationsprinzip Eingang in die katholische Kirche finden. Allgemein formuliert besagt das Subsidiaritätsprinzip, dass eine übergeordnete Einheit nur dann eingreifen sollte, wenn die jeweils untergeordneten Einheiten zur Problemlösung nicht in der Lage sind. Soweit die Fähigkeiten der unteren Einheiten ausreichen, sollte stets deren Handeln den Vorrang haben (Hengstenberg 1953). Als Kompetenzausübungsregel besagt daher das Subsidiaritätsprinzip, dass Kompetenzen nur dann auf einer zentralen Entscheidungsebene angesiedelt werden dürfen, wenn sichergestellt ist, dass die unteren Entscheidungsebenen mit der Kompetenzausübung überfordert wären. (Blanke 1995, 101). Eine Zentralisierung von Aufgaben ist demnach nur dann möglich, wenn die Maßnahme auf der unteren Ebene nicht ausreichend erfüllt werden kann (Erfordernisklausel) und gleichzeitig die zentrale Ebene die Aufgabe besser bewältigen kann (Besserklausel). Damit soll das Subsidiaritätsprinzip sicherstellen, dass die

26

André Schmidt

unteren Entscheidungsebenen, die grundsätzlich näher an den Präferenzen der Bürger sind und diese auch besser kennen sowie wahrnehmen können, primär die Entscheidungskompetenzen tragen sollen. Umgekehrt ist auch eine Kontrolle der Entscheidungsgewalt durch die Bürger einfacher möglich, wenn die Kompetenzen auf dezentraler Ebene alloziiert sind. In demokratischen Gesellschaften müssen die Bürger vor dem Machtmonopol des Staates geschützt werden, um zu verhindern, dass der Staat die Präferenzen der Individuen und Gruppen missachtet. Im Mittelpunkt steht hierbei die Gewaltenteilung. In der klassischen Staatslehre wird hierbei von einer strengen Separierung der drei Gewalten der Exekutiven, der Legislative und der Judikative ausgegangen. Die Idee dabei ist, dass sich diese drei Gewalten gegenseitig kontrollieren und somit die Freiheitsräume der Individuen gewahrt bleiben. So werden die von der Legislativen verabschiedeten Gesetze glaubwürdiger, wenn diese von einer anderen Gewalt (der Exekutive) implementiert werden und diese von einer dritten Gewalt – der Judikative – durch Interpretation auf ihre Rechtmäßigkeit hin überprüft werden. Insbesondere der unabhängigen Gerichtsbarkeit obliegt die Aufgabe, die Bürger vor Übergriffen des Staates oder anderen Privatpersonen zu schützen.

12.2.2 Wirtschaftsverfassung Zu den zentralen Aufgaben der staatlichen Wirtschaftspolitik zählt zunächst die Wirtschaftsordnungspolitik. Im Mittelpunkt steht hierbei das Setzen langfristig ausgerichteter Regeln, welche die Spielräume der Teilnehmer am Wirtschaftsprozess einschließlich der Institutionen festlegen. Jede marktwirtschaftliche Ordnung beruht dabei auf dem konstituierenden Element des Wettbewerbs. Wie bereits gezeigt wurde, ist der Wettbewerb der Mechanismus, der im Zusammenspiel mit dem Preismechanismus für eine Pareto-effiziente Allokation der Ressourcen führt. In allen gesellschaftlichen Funktionssystemen dienen wettbewerbliche Strukturen dazu, die Leistungen der Akteure anzuregen und sie mit Anreizen zu versorgen, ihre Leistungen mittelbar in den Dienst anderer Gesellschaftsmitglieder zu stellen. Als Koordinationsprinzip im Rahmen marktwirtschaftlicher Prozesse steht der Wettbewerb als Garant für wirtschaftlichen Wohlstand, im politischen Prozess als Wettstreit zwischen Regierung und Opposition fördert er die Souveränität der Bürger. Die Vorteilhaftigkeit des Wettbewerbs und von Wettbewerbsprozessen umfasst daher sowohl ökonomische als auch gesellschaftspolitische Dimensionen. Mit der Akzeptanz des Wettbewerbs als konstituierendes Element gewinnt jedoch die Frage nach der konkreten Ausgestaltung der Wettbewerbs- und Wirtschaftsordnung an Bedeutung. Die Errichtung einer funktionsfähigen Wettbewerbsordnung gehört zu den grundlegenden Prinzipien eines jeden marktwirtschaftlichen Systems. In Analogie zum Rechtsstaat schafft sie denjenigen ökonomischen Rahmen, in dem die freie Betätigung der einzelnen Akteure durch die Freiheitssphäre der anderen begrenzt wird (Eucken 1975, 250). Die Umsetzung der Wettbewerbsordnung erfolgt durch die Wirtschaftsverfassung. Im Mittelpunkt steht zunächst die Bindung von Macht sowohl ökonomischer als auch

12  Theorie der Wirtschaftspolitik

27

politischer Art. Die Wirtschaftsverfassung dient einerseits der Abgrenzung zwischen politischer und wirtschaftlicher Sphäre, andererseits soll sie diese über justiziable Kriterien miteinander kompatibel machen. Die Eigengesetzlichkeit des Ökonomischen, soll weder in den rechtsfreien Raum entlassen noch dem Staat schutzlos ausgeliefert werden (Behrens 1986, 12 ff.). Damit ergibt sich für die Wirtschaftsverfassung ein dualistisches Funktionsverständnis. Der Forderung nach staatlicher Beschränkung gegenüber der Sphäre der Wirtschaft steht die Notwendigkeit der Institutionalisierung einer Privatrechtsordnung gegenüber, in der die Privatautonomie des Einzelnen nicht durch die Ausübung der Freiheit durch die Anderen zerstört wird. Die Wirtschaftsverfassung dient demnach primär dem Schutz der individuellen Freiheitsrechte. Der Wettbewerb übernimmt dabei die Rolle derjenigen Institution, in welcher die Freiheitsrechte zur Geltung kommen (Mestmäcker 1968). Damit dient die Wettbewerbsordnung der Erfüllung zweier Schutzzwecke: zum einen soll der Wettbewerb als Institution geschützt werden (Institutionenschutz) und zum anderen soll durch wirksamen Wettbewerb die individuelle Freiheit garantiert werden (Individualschutz).

12.2.2.1 Konstituierende Prinzipen einer marktwirtschaftlichen Ordnung Jede Wettbewerbsordnung basiert auf zwei Prinzipien (Eucken 1975, 254 ff.). Die konstituierenden Prinzipien legen die Freiheitsspielräume der Akteure im Wirtschaftsprozess rechtsverbindlich fest. Sie übernehmen die Aufgabe einer Systemgarantie, die ein an den Wettbewerbsprinzipien orientiertes System schaffen und aufrechterhalten. Die Umsetzung der konstituierenden Prinzipien erfolgt durch die regulierenden Prinzipien, die die Wettbewerbsordnung funktionsfähig machen. Sie können als Funktionsgarantien angesehen werden. Zu den konstituierenden Prinzipien einer am Prinzip des Wettbewerbs ausgerichteten Wirtschaftsverfassung gehören nach Eucken: (1) Preisniveaustabilität (2) Offenheit der Märkte (3) Privateigentum (4) Vertragsfreiheit (5) Haftung (6) Konstanz der Wirtschaftspolitik. Ein funktionierender Preismechanismus ist in einer Marktwirtschaft eine essenzielle Voraussetzung für die optimale Allokation auf den Güter- und Faktormärkten. Sind die Voraussetzungen für die Preisniveaustabilität nicht erfüllt, so werden Preissignale verfälscht, sodass diese nicht mehr die echten Knappheiten der Güter anzeigen. Dies ist insbesondere dann der Fall, wenn die Inflation nicht genau antizipierbar ist. Dadurch wird die Allokationsfunktion des Preises eingeschränkt. Neben den Auswirkungen auf die effiziente Allokation von Gütern und Produktionsfaktoren führt Inflation auch zu erheblichen Umverteilungswirkungen. So werden die

28

André Schmidt

Lohneinkommens- und Transfereinkommensbezieher regelmäßig real benachteiligt, wenn die Anpassung der Löhne und Transfereinkommen zeitlich verzögert und nur unvollkommen an die gestiegene Inflationsrate erfolgt. Gleichzeitig führt die Güterpreisinflation zu einer Umverteilung zugunsten der Schuldner und zulasten der Gläubiger. Steigende Inflationsraten führen dazu, dass der Realwert einer Geldschuld immer geringer wird, wodurch die Schuldner real begünstigt werden. Daher führen hohe Inflationsraten auch zu einer Enteignung der Sparer, da die Ersparnisse, gemessen an der realen Kaufkraft, entwertet werden. Dies gilt dann, wenn der Nominalzins kleiner ist als die Inflationsrate, also die Situation negativer Realzinsen vorliegt. Darüber hinaus erwachsen aus steigenden Inflationsraten einer Volkswirtschaft auch noch weitere Kosten. Hierzu zählen vor allem höhere Transaktionskosten aufgrund der erforderlichen Anpassung der Kassenhaltungen, Kosten die sich durch die kalte Progression in der Besteuerung ergeben sowie die Kosten zur Bekämpfung der Inflation (Fischer/ Modigliani 1978). Langfristig betrachtet erwachsen einer Volkswirtschaft aus inflationären Prozessen erhebliche Wohlfahrtsverluste, von denen letztlich auf Investitionen, das Wachstum und die Beschäftigung eine hemmende Wirkung ausgeht. Da Inflation stets ein monetäres Problem darstellt, sollte die Geldpolitik zur Erreichung des Ziels der Preisniveaustabilität glaubwürdig und unabhängig konstitutionalisiert werden. Glaubwürdig kann eine Geldpolitik nur sein, wenn es ihr gelingt, das Zeitinkonsistenzproblem3 zu überwinden (Kydland/Prescott 1977; Barro/Gordon 1983). Das Zeitinkonsistenzproblem beschreibt allgemein nichts anderes, als dass man einer Ankündigung einer Person oder Institution keinen Glauben schenkt, wenn man weiß, dass sich diese Institution oder Person durch ein von der angekündigten Handlung abweichendes Verhalten in ihrer Nutzenposition besser stellen kann. So kann es für eine, die gesellschaftliche Wohlfahrt maximierende Zentralbank durchaus rational sein, von einer langfristigen angekündigten Strategie der Preisniveaustabilität abzuweichen, wenn sie durch eine kurzfristige, vonseiten der Wirtschaftssubjekte nicht antizipierten Erhöhung der Geldmenge, einen höheren realen Output und ein höheres Beschäftigungsniveau realisieren kann. Unterscheidet sich aus der Sicht der politisch handelnden Akteure die optimale langfristige Strategie von einer optimalen kurzfristigen Strategie, so werden die Wirtschaftssubjekte die Anreize der Regierung oder der Zentralbank, von der langfristigen Strategie abzuweichen, antizipieren und der langfristig angekündigten Politik keinen Glauben schenken (Alessina/Tabellini 1988). Damit hat jedoch die langfristig von der Zentralbank angekündigte optimale Strategie keine Aussicht auf Durchsetzung. Eine solche Situation beschreibt das typische Zeitinkonsistenzproblem, das die Glaubwürdigkeit geldpolitischer Gestaltungsmaßnahmen prinzipiell infrage stellt. Um die Glaubwürdigkeit einer Zentralbank zu sichern und das Zeitinkonsistenzproblem zu lösen sollte sie daher stets politikneutral, also unabhängig und vorrangig dem Ziel der Preisniveaustabilität verpflichtet, institutionalisiert sein.4 Im Rahmen der Wirtschaftsverfassung müssen daher die Unabhängigkeit der 3 4

Siehe Kapitel 10 dieses Beitrags. Bezüglich der Institutionalisierung der Zentralbank ergeben sich beispielsweise zwischen

12  Theorie der Wirtschaftspolitik

29

Zentralbank und deren Fokussierung auf das Ziel der Preisniveaustabilität hinreichend garantiert werden. Das Prinzip der Offenhaltung der Märkte ist nahezu selbst erklärend. Ein funktionsfähiger Wettbewerb setzt stets voraus, dass der Marktzu- und Marktaustritt sowohl für die Anbieter als auch Nachfrager jederzeit möglich ist. Dies bedeutet, dass Markt- und Handelsbeschränkungen grundsätzlich als unvereinbar mit einer marktwirtschaftlichen Ordnung anzusehen sind. Dies richtet sich nicht nur gegen die Errichtung privater Marktzutrittsschranken durch Monopolisierung oder der missbräuchlichen Ausnutzung einer marktbeherrschenden Stellung, sondern auch insbesondere gegen staatlich geschaffene Marktzutrittsschranken durch Regulierungen, diskriminierender Außenwirtschaftspolitik oder durch Subventionierungen. Die Wirtschaftsverfassung muss, um das Prinzip der Offenhaltung der Märkte zu garantieren, daher klare Regeln zum Schutz des Wettbewerbs vor privater oder staatlicher Einflussnahme sowie zum Schutz des grenzüberschreitenden Handels enthalten. Die Garantie des Privateigentums zählt zu den wichtigsten Bereichen, die in einer Wirtschaftsverfassung konstitutionalisiert werden müssen. Bereits im Rahmen der kontrakttheoretischen Legitimation des Staates wurde auf die Bedeutung des Schutzes des Privateigentums hingewiesen. Die Gewährung des Privateigentums bedeutet, dass jedes einzelne Individuum als Haushalt oder Unternehmen das Recht besitzen muss, innerhalb bestimmter Rahmenregeln, frei über die Verwendung von Gütern, Faktoren und Leistungen zu bestimmen. Dies umfasst auch, dass man über die aus dem Einsatz von Gütern, Faktoren und Leistungen realisierten Gewinne entscheiden und verfügen kann. Das Recht auf Privateigentum umfasst aber auch das Recht, sein Eigentum als Sicherheiten für Kredite oder als Bürgschaften zu verwenden. In der Empirie kann gezeigt werden, dass der institutionelle Schutz von Eigentumsrechten und von den aus dem Eigentum realisierten Gewinnen eine wesentliche Voraussetzung für wirtschaftliche Entwicklung und Wachstum darstellt. So war es vor allem die Entwicklung von umfassenden Eigentumsrechten, die in der Landwirtschaft Anreize für die Entwicklung neuer Bewässerungstechniken im Zweistromland zwischen Euphrat und Tigris schafften und die Landwirtschaft insgesamt produktiver werden ließen, wodurch den Grundstein für die wirtschaftliche Entwicklung in dieser Region gelegt war. (North 1981). Untrennbar mit der Garantie des Privateigentums verbunden, ist die Vertragsfreiheit. Nur wenn Vertragsfreiheit besteht, kann über die Nutzung und Verwertung des Privateigentums frei entschieden werden. Diese Vertragsfreiheit umfasst die Freiheit, unter den gegeben Rahmenbedingungen Verträge zum Tausch von Gütern und Faktoren der Europäischen Union und der US-Fed erhebliche unterschiede. Während die Europäische Zentralbank gem. Art. 127 AEUV und Art. 130 AEUV unabhängig institutionalisiert ist und vorrangig dem Ziel der Preisniveaustabilität verpflichtet ist, finden sich im Zielkatalog der US-Fed die Ziele der Preisniveaustabilität, des hohen Beschäftigungsstandes und geringer langfristiger Zinsen gleichberechtig nebeneinander. Darüber hinaus obliegt die Verantwortung der Geldpolitik in den USA nicht dem Federal Reserve sondern dem Congress. Dieser hat die Geldpolitik lediglich an die Fed delegiert, kann aber diese Delegationsentscheidung jederzeit aufheben.

30

André Schmidt

abzuschließen. Sie umfasst auch die Freiheit einen Gewerbebetrieb einzurichten und zu betreiben (Gewerbefreiheit). In diesem Zusammenhang ist die Vertragsfreiheit eine essenzielle Voraussetzung, um überhaupt Wettbewerb entstehen zu lassen. Allerdings kann es keine unbegrenzte Vertragsfreiheit geben. Im Rahmen der Wirtschaftsverfassung findet die Vertragsfreiheit ihre Grenzen dort, wo Verträge zum Zwecke geschlossen werden, um die Vertragsfreiheit unbeteiligter Dritter zu beschränken oder zu beseitigen. Das Prinzip der Haftung schließt sich unmittelbar an das Prinzip der Vertragsfreiheit und der Garantie der Eigentumsrechte an. Es besagt im Wesentlichen nichts anderes, als dass derjenige, der aufgrund der Verfügungsgewalt von Eigentumsrechten und der Vertragsfreiheit die Möglichkeit hat, Gewinne zu erzielen, auch für die daraus entstandenen Schäden haften sollte. Es geht hier primär um die Einheit von Handlung und Haftung. Nur dann, wenn Handlung und Haftung eine Einheit bilden, kann sichergestellt werden, dass jemand bei der Ausübung seiner Rechte auch alle relevanten Opportunitätskosten, die anderen oder der Gesellschaft aus seinen Handlungen erwachsen können, berücksichtigt. Ist diese Bedingung nicht erfüllt, so ergeben sich Anreize zum moral hazard. Dies besagt, dass Individuen dazu neigen, höhere Risiken einzugehen, als sie selbst bereit wären zu tragen, wenn sie erwarten können, dass ein Teil der im Schadensfall entstandenen Schäden auf andere Vertragspartner oder die Gesellschaft abgewälzt werden kann. Ein Beispiel hierfür liefern die Rettungspolitiken für angeschlagene Banken. Wenn eine Geschäftsbank erwartet, dass sie im Verlustfall durch Leistungen des Steuerzahlers kompensiert wird, wird sie eher bereit sein, Geschäfte mit höheren Risiken einzugehen, als wenn sie selbst bzw. ihre Anteilseigner für die im Schadensfall eingetretenen Verluste zur Verantwortung gezogen werden würde. Das Vertrauen darauf, dass der Steuerzahler – ähnlich einer Versicherungsleistung – für etwaige Verluste aufkommt, kann Anreize dafür schaffen, dass die Bankmanager weniger sorgfältig die Bonität ihrer Kreditkunden prüfen, bzw. weniger sorgfältig ein Risikomanagement für die von ihr eingegangenen Geschäfte betreiben. Aufgabe der Wirtschaftsverfassung ist es daher, die Einheit von Handlung in Form von Gestaltungsmacht und Haftung herzustellen, damit die Gesellschaftsmitglieder zu gesellschaftlich verantwortlichem Handeln gezwungen werden und volkswirtschaftliche Kosten, die durch moral hazard entstehen, vermieden werden. Die Konstanz der Wirtschaftspolitik ist als ein weiteres konstituierendes Prinzip zu nennen. Dahinter verbirgt sich die Tatsache, dass einzelne Individuen und die Gesellschaft selbst nur eine unzureichende Kenntnis über die Entwicklung zukünftiger Umweltzustände besitzen. Die privaten Entscheidungen werden daher unter Unsicherheit getroffen. Das heißt, die Individuen bilden bestimmte Erwartungen über mögliche zukünftige Umweltzustände und versuchen die möglichen Entwicklungen zu antizipieren. Auf dieser Basis werden dann die entsprechenden Entscheidungen getroffen. Kommt es jedoch zu nicht antizipierten Änderungen der Umweltzustände erfordert dies Korrekturen der Entscheidungen, die nicht nur zu weiteren Transaktionskosten, sondern auch zu entsprechenden Verlusten führen können, wenn bestimmte Geschäfte getätigt worden sind, die aufgrund der Veränderung der Umweltzustände nicht mehr profitabel sind. Insbesondere bei Investitionsentscheidungskalkülen spielt die Unsicherheit eine große Rolle. Je höher die

12  Theorie der Wirtschaftspolitik

31

Unsicherheit, desto geringer ist der Erwartungsnutzen, der aus dieser Investition generiert wird. Im Extremfall kann dies bei hoher Unsicherheit dazu führen, dass volkswirtschaftlich nützliche Investitionsvorhaben unterbleiben, weil ihr Erwartungsnutzen zu gering ist. In Bezug auf die Wirtschaftspolitik bedeutet dies, dass diese dafür Sorge tragen sollte, die Unsicherheit im Markt zu reduzieren. Da die Wirtschaftspolitik aber selbst direkten Einfluss auf die Profitabilität von Investitionsprojekten durch die Steuer-, Regulierungsund Arbeitsmarktpolitik nehmen kann, sollte sie auch nicht selbst Quelle solche wachsenden Unsicherheiten werden, indem sie permanent ihre Aktionsparameter verändert. Eine für die Wirtschaftssubjekte antizipierbare Wirtschaftspolitik, die durch die Eigenschaften der Stetigkeit und Verlässlichkeit gekennzeichnet ist, ist eine wesentliche Voraussetzung für die Stimulierung von Investitionen, aus denen dann technischer Fortschritt und wirtschaftliches Wachstum resultieren.

12.2.2.2 Regulierende Prinzipien einer marktwirtschaftlichen Ordnung Zu den regulierenden Prinzipen, deren Aufgabe es ist, die Wirtschaftsordnung funktionsfähig zu halten, gehören: (1) Wettbewerbsaufsicht (2) Einkommenspolitik (3) Internalisierung externer Effekte. Zur Durchsetzung einer Wettbewerbsordnung ist eine entsprechende Wettbewerbsaufsicht erforderlich. Aufgabe der Wettbewerbsaufsicht ist es, die Regeln des Wettbewerbsrechts anzuwenden und durchzusetzen. Hierzu gehören vor allem die Regelungen zur Verhinderung von horizontalen und vertikalen Absprachen, die Verhinderung des Missbrauchs einer marktbeherrschenden Stellung sowie die Kontrolle von Unternehmenszusammenschlüssen, um eine Monopolisierung der Märkte zu verhindern. Allerdings gehen von wettbewerbsbeschränkenden Verhaltensweisen nicht immer nur negative Wohlfahrtseffekte aus. So können bestimmte Absprachen – wenn sie beispielsweise sich auf Normung der am Markt gehandelten Güter beziehen – zu erheblichen Transaktionskosteneinsparungen für die Verbraucher führen. Auch können im Bereich der Forschung und Entwicklung Absprachen oder Kooperation zwischen Unternehmen positive Wirkungen entfalten. Auf vertikaler Ebene können Absprachen vor allem dazu dienen, spezifische Investitionen zu ermöglichen, aus denen dann ebenfalls positive Wohlfahrtseffekte resultieren können (Williamson 1985). Darüber hinaus sind im Fall natürlicher Monopole (subadditiver Kostenstrukturen) besondere Regulierungen erforderlich. Dies gilt insbesondere in den Bereichen netzgebundener Leistungen wie Telekommunikation, Energie, Gas, Wasser etc. Die Anwendung der Wettbewerbsregeln sowie die Regulierung von Ausnahmebereichen ist die zentrale Aufgabe einer Wettbewerbsbehörde. Zur Vermeidung von Zielkonflikten sollte die Wettbewerbsbehörde in Analogie zu einer Zentralbank unabhängig institutionalisiert sein (Schmidt 1997). Da dem Wettbewerb im Rahmen einer marktwirtschaftlichen Ordnung eine überragende Bedeutung zukommt, sollte dem Schutz und der Förderung

32

André Schmidt

Abb. 12.11  Hierarchie wirtschaftspolitischer Ziele

des Wettbewerbs eine entsprechende Rolle in der Wirtschaftspolitik zugewiesen werden. Dies kann am besten durch eine unabhängige Kartellbehörde erfolgen, die ausschließlich dem Ziel der Förderung und des Schutzes des Wettbewerbs verpflichtet ist. Sollte es zu Zielkonflikten mit anderen Politikfeldern kommen, die möglicherweise eine Einschränkung des Wettbewerbs legitimieren, weil sie von überragendem Interesse der Allgemeinheit sind, so sollte diese Ausnahmen im Bereich der Politik, die dem Wählerwillen unterliegt, verantwortet werden. Märkte steuern die Einkommensverteilung typischerweise nach der Marktleistung. Daher sind Märkte per se weder gerecht noch ungerecht. Märkte können jedoch nicht die Einkommensverteilung nach ethischen Grundsätzen steuern. Da es aber in den Gesellschaften regelmäßig zu einem Dissens zwischen der Einkommensverteilung nach der

12  Theorie der Wirtschaftspolitik

33

Marktleistung und den gesellschaftlichen Gerechtigkeitsvorstellungen kommt, ergibt sich für den Staat auch die Aufgabe, durch eine Einkommenspolitik eine Einkommensumverteilung vorzunehmen, die in Einklang mit den gesellschaftlichen Wertvorstellungen über eine wie auch immer geartete Einkommensverteilung steht. Insbesondere vor dem Hintergrund der Ergebnisse der experimentellen Ökonomik lässt sich konstatieren, dass die Menschen eine Ungleichheitsaversion haben. Dies gilt insbesondere dann, wenn sie subjektiv der Meinung sind, dass bestimmte Einkommensverteilungen nicht gerechtfertigt sind. Da die Funktionsfähigkeit einer Wirtschaftsordnung auch von der Akzeptanz dieser Ordnung durch die Gesellschaftsmitglieder abhängt, ist es die Aufgabe des Staates eine Einkommenspolitik zu implementieren, die den Präferenzen der Gesellschaftsmitglieder entspricht. Aus diesem Grund ist es erforderlich, in der Wirtschaftsverfassung Regeln zu implementieren, die festlegen, nach welchen Kriterien und durch welche Maßnahmen eine Umverteilung erfolgen soll. Damit soll Vorsorge gegen eine willkürliche und von den jeweiligen politischen Mehrheiten abhängende Umverteilungspolitik geschaffen werden. Externe Effekte beschreiben die Situation, in der durch eine ökonomische Transaktion die Nutzenposition eines unbeteiligten Dritten verschlechtert (negativer externer Effekt) oder verbessert (positiver externer Effekt) wird, ohne dass der unbeteiligte Dritte dafür eine Kompensation erhält oder einen Preis zu bezahlen hat. Ihre Ursache haben die externen Effekte in der mangelhaften Ausschließbarkeit, da unbeteiligte Dritte weder vom Schaden noch Nutzen ausgeschlossen werden können (Fritsch, 2014). Da der Verursacher der Externalität von dieser selbst nicht betroffen ist, fließt diese auch nicht in dessen Entscheidungskalkül ein. Dies hat zur Folge, dass Güter von denen eine negative Externalität ausgeht in zu großer Menge und Güter mit positiven Externalitäten in einer zu geringen Menge angeboten werden. In beiden Fällen wird das allokative Optimum im Markt nicht erreicht, woraus Wohlfahrtsverluste resultieren. Um diese zu vermeiden, muss die Wirtschaftsverfassung dafür sorgen, dass die externen Effekte internalisiert werden, sodass diese idealerweise vollständig in die Nutzenfunktion und damit in das Entscheidungskalkül der Betroffenen mit einfließen. Insbesondere im Bereich der Umweltpolitik kommt der Internalisierung externer Effekte eine wichtige Rolle zu.

12.3

Ziele und Mittel der Wirtschaftspolitik

12.3.1 Ziele der Wirtschaftspolitik Die Basis der Wirtschaftspolitik bilden die bereits im ersten Abschnitt genannten gesellschaftlichen Grundwerte. Die Wirtschaftspolitik besitzt daher grundsätzlich keinen Wert an sich, sondern ihre Ziele lassen sich immer nur vor dem Hintergrund von Oberzielen, in der Form gesellschaftlicher Grundwerte ableiten. Daher ist die Wirtschaftspolitik selbst auch stets nur als ein Mittel anzusehen, um den gesellschaftlichen Grundwerten zur Durchsetzung zu verhelfen. Die gesellschaftlichen Grundwerte Freiheit, Gerechtigkeit und Sicherheit können daher als die obersten Werte angesehen werden, da davon auszugehen

34

André Schmidt

ist, dass deren Verfolgung und Erfüllung alle Gesellschaftsmitglieder in einem Konsens zustimmen würden. In dem Maße, wie die gesellschaftlichen Grundwerte ökonomische Bezüge aufweisen, können sie als Oberziele der Wirtschaftspolitik angesehen werden. In der Wirtschaftstheorie werden die gesellschaftlichen Grundwerte meistens unter dem Begriff des Wohlstandes zusammengefasst, sodass Sicherung und Erhöhung des Wohlstandes in Einklang mit den Präferenzen der Gesellschaftsmitglieder als das zentrale Ziel der Wirtschaftspolitik angesehen werden kann. Das Wohlstandsziel selbst kann wiederum in Unterziele unterteilt werden. Hierzu zählen vor allem die Ordnungs-, Allokations-, Prozess-, Struktur- und Verteilungsziele. Das Prozessziel lässt sich noch einmal in das Stabilitäts- und das Wachstumsziel untergliedern: Die verschiedenen Ziele, welche mithilfe wirtschaftspolitischer Maßnahmen erreicht werden sollen, können untereinander komplementär, neutral oder konfliktär sein. Während komplementäre und neutrale Zielbeziehungen die wirtschaftspolitischen Entscheider vor keine größeren Herausforderungen stellen, ist im Fall konfliktärer Zielbeziehungen abzuwägen, welchem Ziel im Konfliktfall der Vorrang einzuräumen ist (Külp/Berthold 1992, 83 ff.). Solche Zielkonflikte sind beispielsweise bekannt aus der Phillips-KurvenDiskussion. Hier kann es, solange man aufseiten der Haushalte das Vorliegen von Geldillusion unterstellt, zu einem Zielkonflikt zwischen Inflation und hohem Beschäftigungsstand geben. Darüber hinaus können sich Zielkonflikte auch dann ergeben, wenn aus der Nichterfüllung bestimmter Nebenbedingungen, eigentliche Zielharmonien in Konflikte transformiert werden. So können beispielsweise zwischen dem Ziel der Intensivierung des Wettbewerbs und dem Beschäftigungsziel Konflikte resultieren, wenn aufgrund eingeschränkter Faktormobilität die Anpassungserfordernisse, die eine höhere Intensität des Wettbewerbs erfordert, nicht erfüllt werden. Arbeitnehmer, die in den nicht mehr wettbewerbsfähigen Sektoren ihren Arbeitsplatz verloren haben, können dann nicht in die Sektoren wandern, die von der Intensivierung des Wettbewerbs profitieren, wodurch sich dann eine strukturelle Verfestigung der Arbeitslosigkeit in die Volkswirtschaft ergeben kann. Die hierfür erforderlichen Abwägungsentscheidungen müssen den Erfordernissen einer rationalen Entscheidung entsprechen (Welfens 2012, S. 601). Um den Anforderungen einer rationalen Entscheidung in der Wirtschaftspolitik zu genügen, müssen folgende Bedingungen erfüllt sein: 1. Das Zielsystem muss in sich widerspruchsfrei sein, sodass konsistente und konkordante wirtschaftspolitische Entscheidungen getroffen werden können. 2. Der Zielkatalog muss vollständig sein. Alle relevanten wirtschaftspolitischen Ziele, die sich aus den gesellschaftlichen Grundwerten ergeben, müssen erfasst sein. 3. Die Ziele müssen in eine klare Hierarchie zueinander gesetzt werden, damit bei Abwägungsentscheidungen eindeutig zwischen Ober-, Zwischen- und Unterzielen differenziert werden kann.

12  Theorie der Wirtschaftspolitik

35

4. Das Zielsystem muss transparent sein, sodass sowohl die Entscheidungsträger als auch die von der Politik betroffenen Akteure die grundlegenden Ziele und die sich dahinter verbergenden Zielbeziehungen nachvollziehen können. 5. Die Ziele müssen hinreichend genau quantifiziert werden können, sodass ein Indikator zur Messung des Zielerreichungsgrades festgelegt werden kann und Zielabweichungen transparent werden. 6. Die Ziele müssen so definiert werden, dass die Mittel vom jeweiligen Träger in zurechenbarer Verantwortung eingesetzt und deren Wirkungen zugerechnet werden können. Insbesondere die Operationalisierung der Ziele bereitet in der Praxis oftmals erhebliche Schwierigkeiten. Am besten lassen sich dabei die stabilitätspolitischen Ziele quantitativ erfassen. Dies gilt insbesondere für das Ziel eines hohen Beschäftigungsstandes (gemessen durch Erwerbs- und Arbeitslosenquoten), dem Ziel der Preisniveaustabilität (gemessen an der Veränderungsrate der Güterpreise) und dem Wachstumsziel (gemessen an der Zuwachsrate des Bruttoinlandsproduktes). Ungleich schwieriger wird die Operationalisierung von Zielen, für die es keinen klaren Indikator gibt. Dies gilt beispielsweise für das Ziel des Schutzes und der Förderung des Wettbewerbs oder der Erfüllung von Verteilungszielen, wenn es beispielsweise keinen eindeutigen Maßstab dafür gibt, was unter einer „gerechten“ Verteilung verstanden wird.

12.3.2 Wirtschaftspolitische Instrumentkategorien Für die Ausgestaltung der Wirtschaftspolitik stellt sich stets die Frage, mit welchen Instrumenten die jeweiligen wirtschaftspolitischen Ziele erreicht werden sollen. Wirtschaftspolitische Maßnahmen beschreiben daher primär den Einsatz bestimmter wirtschaftspolitischer Instrumente. Bei der Wahl des Instrumenteneinsatzes müssen die Neben- und Folgewirkungen berücksichtigt werden. Dies bedeutet, dass stets beachtet werden muss, dass ein Instrument unter Umständen gleichzeitig oder zeitverzögert auf mehrere Ziele wirken kann. Daher müssen die Interdependenzen zwischen Instrumenten und Zielen ausreichend in das Kalkül des wirtschaftspolitischen Entscheidungsprozesses miteinbezogen werden. Gleichzeitig gilt es, die oben diskutierten möglichen Zielkonflikte zu berücksichtigen. Die wirtschaftspolitischen Instrumente können nach den Kriterien der direkten Zielwirkung und der indirekten Zielwirkung durch Verhaltensbeeinflussung unterschieden werden (Streit 2005, 284). Instrumente mit direkter Zielwirkung liegen vor, wenn die marktmäßige Versorgung durch staatliche Leistungen ergänzt wird oder die Bereitstellung der Leistungen, wie häufig im Fall öffentlicher Güter, direkt durch den Staat erfolgt. Eine direkte Zielwirkung liegt ebenso vor, wenn bestimmte Einkommenserzielungschancen durch Besteuerung oder Subventionierung verändert werden. Ein weiteres Beispiel für eine direkte Zielwirkung

36

André Schmidt

liegt vor, wenn im Rahmen der Wettbewerbspolitik bestimmte Verhaltensweisen direkt untersagt werden. Instrumente mit indirekter Zielwirkung durch Verhaltensbeeinflussung können nach dem Umfang der Eingriffsintensität in Informationspolitiken, Moral Suasion, Marktpreisregulierungen, Marktzutrittsregulierungen und Zwangsmaßnahmen unterteilt werden. Die Informationspolitik dient primär dazu, die Informationsgrundlagen für die Entscheidungen der Wirtschaftssubjekte zu verbessern. Insbesondere bei Vorliegen asymmetrischer Informationen kann die Informationspolitik helfen, diese zu reduzieren. Hierzu zählen vor allem die Aufklärung und die Verbesserung der Markttransparenz. Dabei versucht der Staat, diese Informationen beispielsweise über Forschungsinstitute oder durch Institutionen wie der Stiftung Warentest bereitzustellen. Die Informationspolitik ist umso bedeutsamer, je höher die individuellen Kosten der Informationsbeschaffung bzw. je weniger die Informationen für die Wirtschaftssubjekte überhaupt verfügbar sind. Im Rahmen der moral suasion versucht der Staat, durch bestimmte Appelle an die Wirtschaftssubjekte erwünschte Verhaltensänderungen herbeizuführen. Hierzu gehören vor allem kritische Mahnungen, um die Präferenzen der Individuen zu beeinflussen und ihr Handeln in die gewünschte Richtung zu lenken. Eingriffe durch Marktpreisregulierungen sind im Vergleich zu den beiden erst genannten Instrumenten wesentlich kritischer zu sehen. Durch Marktpreisregulierungen greift der Staat in die dezentrale Preisbildung ein und verfälscht dadurch die am Markt auf der Basis der bestehenden Knappheiten herausgebildeten Preise. Mithilfe solcher Mindestund Höchstpreisregulierungen will der Staat entweder die Angebots- oder Nachfrageseite in ihrem Verhalten beeinflussen. Da Preisregulierungen auf funktionsfähigen Märkten stets mit Wohlfahrtsverlusten einhergehen, müssen für die Eingriffe in die freie Preisbildung durch den Staat besonders gute Gründe vorliegen, die sich nur aus einem überragenden Allgemeininteresse oder dem Vorliegen tatsächlichen Marktversagens rechtfertigen lassen. Grundsätzlich sind Marktpreisregulierungen als nicht-marktkonforme Maßnahme anzusehen und daher aus ordnungspolitischer Sicht besonders kritisch zu betrachten. Regulierungen des Marktzutritts geraten regelmäßig mit dem Prinzip der Offenhaltung der Märkte in Konflikt. Errichtet der Staat Marktzutrittsschranken für die Anbieter, so führt dies zu einer Verknappung des Angebots. Damit wird ebenfalls über die Regulierung des Marktzutritts indirekt auf die Preisbildung Einfluss genommen. Da das Prinzip der Offenhaltung der Märkte ein konstituierendes Prinzip einer Marktwirtschaft darstellt, sind die Maßstäbe für die Legitimation solcher Eingriffe ebenfalls sehr hoch anzusetzen. Eine bekannte Marktzutrittsregulierung ist in Deutschland die bestehende Meisterpflicht für einzelne Handwerksberufe. Demnach darf nur derjenige einen eingerichteten Handwerksbetrieb betreiben, der im Besitz eines Meisterbriefs in dem zu vertretenden Gewerke ist. Gerechtfertigt wird dies mit Qualitätsanforderungen und dem Schutz der Verbraucher. Dies bedeutet aber auch, dass alle Verbraucher – unabhängig von ihrer eigenen Qualitätspräferenz – die höheren Angebotspreise aus der Verknappung des Angebots bezahlen müssen. Andere Formen der Regulierung des Marktzutritts kennt man aus der Außenwirtschaft durch tarifäre und nicht-tarifäre Handelshemmnisse.

12  Theorie der Wirtschaftspolitik

37

Zwangsmaßnahmen haben – wie der Name schon sagt – die höchste Eingriffsintensität. Hier wird die Handlungsfreiheit der Wirtschaftssubjekte aufgehoben und die Wirtschaftssubjekte haben keine Möglichkeit mehr, sich dieser Maßnahme (mit der Ausnahme der Exit-Option) zu entziehen. Zwangsmaßnahmen sind nur dann gerechtfertigt, wenn das Verhalten der Wirtschaftssubjekte offensichtlich zu beträchtlichen Schäden führt und gleichzeitig eine Verhaltensänderung durch die Gestaltung von Verhaltensanreizen nicht herbeigeführt werden kann. Auch hier sind – da es sich hier um die höchste Form der Freiheitsbeschränkung handelt – die Hürden für eine Legitimierung sehr hoch anzusetzen. In Deutschland kennt man solche Zwangsmaßnahmen aus dem Bereich der Sozialversicherungen. Unter der Annahme, dass die Wirtschaftssubjekte den Nutzen einer Kranken-, Arbeitslosen- und Rentenversicherung nicht richtig oder nur unvollständig einschätzen können (Nutzenunkenntnis) werden sie zu einer solchen Versicherungspflicht gezwungen.

12.3.3 Kriterien für den Instrumenteneinsatz Die praktische Wirtschaftspolitik steht stets vor dem Entscheidungsproblem, den Zielen die richtigen Instrumente zuzuordnen. Im Rahmen einer rationalen Wirtschaftspolitik bedarf es hierzu Kriterien, nach denen die Eignung der Instrumente zu beurteilen ist. Es geht daher um die Frage, welche Kriterien für die Wahl einzelner Instrumente in den jeweiligen konkreten Entscheidungssituationen infrage kommen sollen. In der wirtschaftspolitischen Diskussion haben sich hierbei im Wesentlichen drei Beurteilungskriterien durchgesetzt: Zielkonformität, Marktkonformität und Stetigkeit (Tuchtfeld 1970). Das Kriterium der Zielkonformität beschreibt die Geeignetheit einer Maßnahme, das vorgegebene Ziel auch zu erreichen. Es stellt auf die Effektivität der Maßnahme ab. Die Beurteilung der Zielkonformität einer wirtschaftspolitischen Maßnahme setzt voraus, dass die Ursache-Wirkungs-Beziehungen zwischen dem jeweiligen Instrumenteneingriff und dessen Wirkung auf die Zielgröße a priori bekannt sind. Dies bereitet jedoch sowohl in der Theorie als auch in der Praxis erhebliche Probleme, da die Kausalitäten zwischen Instrumenteneinsatz und der zu erwartenden Wirkung nicht immer eindeutig sind. Es liegen oftmals keine gesicherten Kenntnisse darüber vor, um abschätzen zu können, in welcher Art und in welchem Umfang bestimmte Instrumente auf bestimmte wirtschaftspolitische Zielgrößen wirken. Richtung und Stärke eines Effektes werden von einer Vielzahl weiterer Faktoren beeinflusst, sodass in der Regel keine eindeutigen Kausalitäten vorliegen. Darüber hinaus wirken die Instrumente immer auf mehrere Größen ein, sodass auch die Folge- und Nebenwirkungen des Instrumenteneinsatzes berücksichtigt werden müssen. Da aber auch hier die Kausalitäten nicht immer eindeutig sind, können die Wirkungen einzelner Instrumente und deren Kosten allenfalls nur prognostiziert werden. Im Rahmen der Prüfung, ob eine Maßnahme dem Kriterium der Zielkonformität entspricht, ist daher auch stets zu prüfen, ob es nicht auch andere Maßnahmen gibt, die ebenfalls geeignet sind, das angestrebte Ziel zu erreichen, von denen jedoch weniger Folge- und Nebenwirkungen zu erwarten sind.

38

André Schmidt

Das Kriterium der Marktkonformität stellt darauf ab, ob das gewählte Instrument mit den konstituierenden Prinzipien einer Marktwirtschaft vereinbar ist. Demnach sind alle Eingriffe, die die Funktionsfähigkeit von Märkten und damit des Wettbewerbs und der Preisbildung verfälschen in einer marktwirtschaftlichen Ordnung abzulehnen. Hingegen sind die Maßnahmen, die darauf abzielen, Märkte funktionsfähiger zu machen und oder Marktversagen zu heilen, mit den Prinzipien einer marktwirtschaftlichen Ordnung vereinbar. Allerdings findet in der Realität das Kriterium der Marktkonformität häufig dort seine Einschränkung, wo es um die Erreichung außerökonomischer Ziele geht, die im überragenden Interesse der Allgemeinheit stehen. Hierbei handelt es sich häufig um Maßnahmen zum Schutz der sozialen Sicherheit, der Gesundheit, nachhaltiger Umweltweltentwicklung oder dem Schutz der öffentlichen Sicherheit. Da diese genannten Begriffe für die politisch handelnden Akteure erhebliche Interpretationsspielräume eröffnen, bilden sie erhebliche Anreize für die Politiker, nicht-marktkonforme Instrumente zu rechtfertigen. Insofern hat die Bindungswirkung des Kriteriums der Marktkonformität in diesen Feldern mehr und mehr an Bedeutung verloren (Cassel/Rauhut 1998). In Einklang mit der Forderung nach Konstanz der Wirtschaftspolitik ist bei der Wahl des Instrumenteneinsatzes auch das Kriterium der Stetigkeit zu berücksichtigen. Mit diesem Kriterium soll sichergestellt werden, dass das gewählte Instrument den Anforderungen nach Vorhersehbarkeit, nach Planungssicherheit und damit nach einer Reduktion der Unsicherheit entspricht. Wie bereits ausgeführt, kommt der Planungssicherheit und Vorhersehbarkeit insbesondere bei der Tätigung langfristiger Investitionen eine große Bedeutung zu. Müssen Investoren fürchten, dass sich das regulatorische Risiko über die Zeit der Investitionen erhöht oder müssen sie gar damit rechnen, dass der Staat durch ein hold up, sich die Quasi-Renten aus der Investitionsentscheidung aneignet, so werden die Transaktionskosten solcher Investitionen erhöht oder im Extremfall verzichten die Investoren auf die Investition. In beiden Fällen entstehen der Volkswirtschaft erhebliche Wohlfahrtsverluste. Um diese zu vermeiden, ist das Kriterium der Stetigkeit bei der Wahl des Instrumenteneinsatzes stets mit zu berücksichtigen.

12.3.4 Das Problem der Zeitinkonsistenz: Regelgebundener versus diskretionärer Instrumenteneinsatz Die Wirksamkeit wirtschaftspolitischer Instrumente wird vor allem auch davon beeinflusst, inwieweit die Wirtschaftssubjekte einer Maßnahme Glauben schenken. Glaubwürdigkeit ist eine wesentliche Voraussetzung dafür, dass eine wirtschaftspolitische Maßnahme die ihr zugeschriebenen Wirkungen entfalten kann. Allgemein kann Glaubwürdigkeit als der Grad an Übereinstimmung zwischen den Erwartungen der privaten Wirtschaftssubjekte über die zukünftige Politik einerseits und der ursprünglich von der Politikinstanz angekündigten Politik andererseits definiert werden (Blackburn/Christensen 1989, S. 2, Cukierman 1992, S. 148.). Unterscheidet sich beispielsweise aus der Sicht der politisch handelnden Akteure die optimale langfristige

12  Theorie der Wirtschaftspolitik

39

Strategie von einer optimalen kurzfristigen Strategie, so werden die Wirtschaftssubjekte die Anreize der Regierung, von der langfristigen Strategie abzuweichen, antizipieren und der langfristig angekündigten Politik keinen Glauben schenken (Alesina/Tabellini 1988, S. 543). Damit hat jedoch die langfristig optimale Strategie keine Aussicht auf ihre Durchsetzung. Eine solche Situation beschreibt das typische Zeitinkonsistenzproblem, das die Glaubwürdigkeit wirtschaftspolitischer Gestaltungsmaßnahmen prinzipiell infrage stellt. Entscheidend ist dabei, dass es zwischen den Akteuren zu wechselseitigen Interdependenzen kommt, sodass der Erfolg der gewählten Strategie nicht nur vom eigenen Verhalten, sondern auch vom Verhalten der anderen Akteure abhängt. Diese dargestellten Zeitinkonsistenzprobleme sind für eine Vielzahl wirtschaftspolitischer Maßnahmen konstituierend. Theoretisch fundiert wurde dies insbesondere für die Felder der Geldpolitik (Kydland/Prescott 1977, Barro/Gordon 1983), der internationalen Politikkoordinierung (Oudiz/Sachs 1985, Rogoff 1985) sowie der Regulierungs- und Umweltpolitik (Troesken 1996, Majone 2001) nachgewiesen. Darüber hinaus sind auch für den Bereich der öffentlichen Finanzen und der Besteuerung Zeitinkonsistenzprobleme charakteristisch (Calvo 1978, Fisher 1980, Lucas/Stokey 1983,). Die Existenz solcher Zeitinkonsistenzprobleme muss jedoch die Wirksamkeit wirtschaftspolitischer Maßnahmen nicht grundsätzlich infrage stellen. Vielmehr ist nach den geeigneten institutionellen Arrangements zu fragen, die dazu dienen, die Zeitinkonsistenzproblematik zu entschärfen und somit der jeweiligen Politik eine höhere Glaubwürdigkeit zu verleihen. Im Bereich der Geldpolitik geschieht dies beispielsweise mittels der politikneutralen Institutionalisierung durch eine unabhängige Zentralbank. Die politikneutrale Institutionalisierung stellt grundsätzlich nur eine der Gestaltungsoptionen dar. So könnte beispielsweise auch durch geeignete Regeln, welche die Höhe der diskretionären Entscheidungsspielräume der politisch handelnden Akteure beschränken, eine wirksame Entschärfung des Zeitinkonsistenzproblems erreicht werden. Voraussetzung dafür ist jedoch, dass diese Regeln nicht nur formuliert werden, sondern dass die Nichteinhaltung der Regeln auch wirksam sanktioniert werden kann. In diesem Zusammenhang stellt sich die Frage, inwieweit eine Wirtschaftspolitik diskretionär – also unter der Wahrnehmung entsprechender Entscheidungsspielräume von Fall zu Fall erfolgen soll – oder rein regelgebunden, d. h., im Extremfall ohne jegliches Ermessen, erfolgen sollte. Der Vorteil einer rein regelgebundenen Politik ist insbesondere darin zu sehen, dass sie aufgrund des Fehlens von Entscheidungsspielräumen keine Möglichkeiten für die Berücksichtigung von Einzelinteressen bietet (Hayek 1971, S. 185). Allerdings setzt die Anwendung einer solchen, rein regelgebundenen Wirtschaftspolitik voraus, dass stets bereits a priori die Wirkungen der Politikmaßnahme auf die gesamtwirtschaftliche Wohlfahrt bekannt sind. Diese Voraussetzung ist jedoch in den wenigsten Fällen erfüllt. So kann bspw. unter bestimmten Umständen die Ausweitung der Staatsverschuldung durchaus zu positiven Wohlfahrtseffekten führen, wenn die zusätzlichen Staatsausgaben investiv verwendet werden. Daher wäre es zum Beispiel nicht sinnvoll, ein per se-Verbot bezüglich des Aufbaus von Schulden zu konstitutionalisieren. Insofern ist es notwendig und sinnvoll, den politisch handelnden Akteuren diskretionäre Entscheidungsspielräume

40

André Schmidt

im Rahmen von Haushaltsentscheidungen zuzubilligen. Die Frage ist nur, inwieweit die Entscheidungsspielräume begrenzt werden können, um bspw. einer Instrumentalisierung der Wirtschaftspolitik zugunsten von Sonderinteressen entgegen zu wirken. D.h., auch eine solche, auf Entscheidungsspielräumen basierende Politik, muss regelgebunden in dem Sinne erfolgen, dass der Ausübung der jeweiligen Entscheidungsspielräume entsprechende Grenzen gesetzt werden. Dies setzt jedoch voraus, dass die jeweiligen Ermessensbereiche transparent sind und klare Richtlinien für die Ausübung der Ermessensspielräume definiert sowie eine unabhängige, möglichst gerichtliche Kontrolle des politischen Handelns institutionalisiert wird.

12.4

Positive Theorie der Wirtschaftspolitik

12.4.1 Grundlagen der Neuen Politischen Ökonomik Die Neue Politische Ökonomik (syn. Public Choice Theorie) ist heute – wenn es um die Untersuchung wirtschaftspolitischer Prozesse geht – ein unverzichtbarer Bestandteil der ökonomischen Analyse. Sie gibt Antworten auf die Fragen, warum bestimmte formale Regeln entstehen, und warum diese in einer ganz bestimmten Form interpretiert und angewendet werden. Ausgangspunkt der Betrachtung ist der Tatbestand, dass sich die politisch handelnden Akteure und Bürokraten nicht als wohlfahrtsmaximierende Diktatoren verhalten, sondern entsprechend dem Rationalprinzip danach streben, den Eigennutzen zu maximieren. Aus der Sicht der Public Choice Theorie unterscheidet sich dabei das Entscheidungsverhalten im politischen Prozess kaum von dem Nutzenmaximierungsstreben des privaten Sektors, wobei jedoch im politischen Prozess der institutionelle Kontext, in dem die Handlungen stattfinden, miteinbezogen werden muss (Downs 1957; McCormick/ Tollison 1981). Um den politischen Prozess der ökonomischen Analyse zugänglich zu machen, ist es von grundlegender Bedeutung, dass der politische Prozess als ökonomischer Tauschprozess interpretiert und abgebildet wird. Es geht somit um den Tauschprozess politischer Güter. Zur besseren Abbildung dieses Tauschprozesses werden dabei zunächst einmal die Akteure, die an diesem Tausch beteiligt sind, näher bestimmt. Die Nachfragerseite nach politischen Leistungen setzt sich aus den unorganisierten Wählern und organisierten Wählern in Form von Interessengruppen zusammen. Während es sich bei den unorganisierten Bürgern um die breite Masse der Bevölkerung handelt, sind die organisierten Interessengruppen dadurch gekennzeichnet, dass sie spezifische Präferenzen haben, die nur für ganz bestimmte Teile der Bevölkerung Geltung erlangen. Die Anbieterseite hingegen besteht aus dem Staat, der sich im Wesentlichen aus der Regierung und der Verwaltung bzw. Bürokratie zusammensetzt. D.h., die Regierung bietet ganz bestimmte politische Maßnahmen an, die dann von der Bürokratie umgesetzt werden.

12  Theorie der Wirtschaftspolitik

41

Zwischen den genannten Akteuren besteht im Hinblick auf die Nutzenfunktionen keine Kongruenz. Vielmehr differieren die Interessenlagen und es existieren asymmetrische Informationen, sodass es zu den typischen Prinzipal-Agenten-Problemen kommt. Ziel der unorganisierten Bürger ist die Nutzenmaximierung, wobei der Nutzen hier von den bereitzustellenden öffentlichen Leistungen und den Bereitstellungskosten in Form einer Steuer abhängig ist. Auch die in Interessengruppen organisierten Bürger haben das Ziel einer präferenzkonformen Versorgung von öffentlichen Leistungen. Jedoch maximieren sie ihren Nutzen nicht dadurch, in dem sie die allgemeine Bereitstellung der öffentlichen Leistungen und die allgemeinen Steuersätze zu beeinflussen versuchen, sondern dadurch, in dem sie nur solche Leistungen nachfragen, die ihren speziellen Partikularinteressen entsprechen. Ziel ist es somit, spezifische öffentliche Leistungen und/oder bestimmte Subventionsleistungen zu erhalten. Dabei treten die organisierten und nicht organisierten Bürger in Konkurrenz zueinander, da eine Erhöhung der Subventionsleistungen oder der Partialbereitstellung von öffentlichen Gütern zu einer Erhöhung des allgemeinen Steuersatzes und/oder zu einer Verminderung der allgemeinen öffentlichen Leistungen führt. Die politisch handelnden Akteure streben nach Erhöhung der Wiederwahlchancen, Einkommensmaximierung, Macht, Prestige und Ansehen. Ihr vorrangiges Ziel ist es dabei, über ein möglichst hohes Budget zu verfügen, da mit ihm größere Handlungsspielräume verbunden sind. Die Politiker sind jedoch als Bürger selbst von den allgemeinen Steuern betroffen, die zur Finanzierung der Budgets herangezogen werden. Somit lässt sich auch hier wiederum ein Zielkonflikt ableiten, da dem Nutzenzuwachs aufgrund höherer Budgetüberschüsse ein Nutzenverzicht aufgrund einer höheren Steuerzahlung gegenübersteht. Die Bürokraten weisen gegenüber den Politikern sehr ähnlich gelagerte Ziele auf. Auch sie sind daran interessiert, ihr persönliches Einkommen sowie ihren Einfluss und ihr Prestige zu maximieren. Dies gelingt ihnen vor allem dann, wenn sie Budgetmaximierung betreiben. Dabei gilt auch hier wiederum, dass die Bürokraten als normale Bürger Steuerzahler sind, sodass dem Nutzenzuwachs der Budgeterhöhung ein Nutzenentgang in Form höherer Steuerzahlungen gegenübersteht. Hinzu kommt, dass die Bürokraten in doppelter Weise von einer Erhöhung der öffentlichen Leistungen profitieren. Zum einen dadurch, dass auch die Bürokraten selbst als Bürger in den Genuss der bereitgestellten öffentlichen Güter kommen, und zum anderen, dass mit einem erhöhten Angebot an öffentlichen Leistungen auch das Budget der diese Leistungen erbringenden Verwaltung ansteigt.

12.4.2 Der politische Prozess als Kette von Prinzipal-Agenten-Beziehungen Auf der oberen Beschreibung der relevanten Akteure aufbauend, kann der politische Prozess als eine Kette von Prinzipal-Agenten-Beziehungen dargestellt werden (Erlei/ Leschke/Sauerland 2016). Auf der untersten Ebene befinden sich die unorganisierten und organisierten Wähler (Bürger). Sie fungieren als Nachfrager nach politischen Leistungen. Als Prinzipale beauftragen sie über den Wahlmechanismus eine Partei oder einen

42

André Schmidt

Abb. 12.12  Der politische Entscheidungsprozess als Kette von Prinzipal-Agenten-Beziehungen

entsprechenden Politiker mit der Bildung einer Regierung und der präferenzkonformen Bereitstellung der politischen Güter. Die politisch handelnden Akteure fungieren damit als Agenten der Wähler. Die politisch handelnden Akteure wiederum beauftragen als Prinzipale die Administration mit der Durchführung und Umsetzung der jeweils beschlossenen politischen Maßnahme. Die Administration kann auch als Bürokratie bezeichnet werden, die als Agenten der politisch handelnden Akteure fungieren. Da der bürokratische Prozess oftmals über mehrere Ebenen verläuft, können beliebig viele weitere Prinzipal-AgentenBeziehungen auf der bürokratischen Ebene hinzugefügt werden. Für das Verständnis von Prinzipal-Agenten-Problemen ist es wichtig, dass bei asymmetrischen Informationen für den Agenten prinzipiell ein Anreiz besteht, Handlungen vorzunehmen oder zu unterlassen, die seine eigene Nutzenposition verbessern, die aber zum Schaden des Prinzipals sind. Agenten haben einen hohen Anreiz Leistungen zu erbringen, die nicht oder nur begrenzt vom Prinzipal gewünscht sind. Die aus der Prinzipal-Agenten-Theorie bekannten Probleme finden hier nun auch auf der politischen Ebene ihre Anwendung. So besteht auch im politischen Prozess das Problem der verborgenen Eigenschaften (hidden characteristics). Der Wähler hat keine genauen Informationen über die fachlichen und menschlichen Qualifikationen der sich zur Wahl stellenden Kandidaten. Zwar können von beiden Seiten über Signaling- und Screening-Aktivitäten Handlungen vorgenommen werden, um die Informationsasymmetrien abzubauen, aber in der Regel gibt der Wähler seine Stimme bezüglich eines Kandidaten unter unvollständiger Information ab. Das gleiche Problem stellt sich auf der nachgelagerten Ebene, wenn die politisch handelnden

12  Theorie der Wirtschaftspolitik

43

Akteure bestimmte Bürokraten mit Aufgaben betrauen. Auch dies erfolgt bezüglich deren persönlichen Eigenschaften unter unvollständigen Informationen. Verborgene Handlungen (hidden action) beschreiben die Situation, in der aufgrund dessen, dass der Prinzipal den Agenten niemals vollständig beobachten kann, der Agent Handlungen vornimmt oder unterlässt, die seinen eigenen Nutzen erhöhen und die zulasten des Prinzipals gehen. Da der Prinzipal dieses Verhalten nur begrenzt beobachten kann, hat er auch keine Möglichkeit dieses moral hazard-Verhalten direkt zu sanktionieren. Daher ergeben sich für die politischen handelnden Akteure und den Bürokraten Anreize dafür, Handlungen vorzunehmen, die zulasten ihrer Prinzipale gehen. Jedoch selbst wenn eine vollständige Beobachtung des Agenten durch den Prinzipal möglich wäre, so kann es aufgrund der asymmetrischen Informationen dazu kommen, dass dem Prinzipal das Wissen oder die Kenntnisse dazu fehlen, die Handlungen des Agenten richtig zu beurteilen. Auch diese Situation der verborgenen Informationen (hidden information) schaffen Anreize für moral hazard, in dem der Agent Handlungen zulasten der Prinzipale vornimmt. Dieses Problem ist im politischen Prozess ebenso relevant, da dem Wähler als Prinzipal oftmals die Kenntnisse fehlen, um das Verhalten der politisch handelnden Akteure richtig beurteilen zu können. Weiterhin besteht das Problem der verborgenen Absichten (hidden intention). In dieser Situation erbringt der Prinzipal häufig eine irreversible und spezifische Vorleistung für den entsprechenden Agenten. Aufgrund der hohen Spezifität ist der Prinzipal von dem Agenten abhängig. Hält nun der Agent seine Leistungserstellung zurück, so kann er den Prinzipal opportunistisch ausbeuten und seine eigenen Renten aus der Handlung erhöhen. Dieses Verhalten wird auch als hold-up bezeichnet.

12.4.3 Das Versagen des politischen Wettbewerbs Das Vorliegen asymmetrischer Informationen ist nichts Ungewöhnliches. Auch auf Märkten, auf denen private Güter gehandelt werden, sind asymmetrische Informationen ubiquitär. Die entscheidende Frage ist, ob diese asymmetrischen Informationen durch geeignete institutionelle Arrangements so weit reduziert werden können, dass die Märkte ihre Funktionsfähigkeit behalten. Bei der Existenz von sogenannten Such- und Erfahrungsgütern stellt der funktionsfähige ökonomische Wettbewerb einen ausreichenden Sanktionsmechanismus dar, der die Agenten (Unternehmen) zwingt, ihre Informationsvorsprünge nicht zulasten der Agenten (Nachfrager) auszunutzen. Der ökonomische Wettbewerb fungiert hier als effizienter Sanktionsmechanismus. Liegen Güter mit Vertrauenseigenschaften vor, so bedarf es begleitender Regulierungen, damit auch hier der Wettbewerbsmechanismus funktionsfähig bleibt. Der entscheidende Punkt ist nun, ob der politische Wettbewerb über den Wahlmechanismus ebenfalls eine ausreichende Restriktion für die Agenten schafft, ihre Informationsvorteile nicht gegenüber den Wählern auszunutzen. Daher ist es nun erforderlich, genauer die Besonderheiten des politischen Wettbewerbs zu untersuchen und zu überprüfen,

44

André Schmidt

inwieweit dieser eine ausreichende Handlungsrestriktion in Form einer drohenden Abwahl, für die Agenten schafft. Vergleicht man den ökonomischen Wettbewerb mit dem politischen Wettbewerb, so unterscheiden sich beide in einem elementaren Punkt. Während der ökonomische Wettbewerb auf individuellen Entscheidungen beruht, basiert der politische Wettbewerb auf der kollektiven Willensbildung. Daher werden zunächst die Besonderheiten der kollektiven Willensbildung dargestellt.

12.4.3.1 Zyklische Mehrheiten Demokratische Entscheidungen basieren stets auf der absoluten Mehrheitsregel. Im nachfolgenden Beispiel sollen die Ergebnisse einer Mehrpersonenentscheidung über mehrere Alternativen anhand der absoluten Mehrheitsregel skizziert werden. Dazu betrachten wird eine Wohngemeinschaft drei junger Studenten (A, B, C), die gemeinsam darüber abstimmen wollen, wohin sie in diesem Jahr zusammen in den Urlaub fahren wollen. Dabei stehen drei Reiseziele zur Auswahl: Indonesien (I); Venezuela (V) und Uganda (U). Die individuellen Präferenzen der drei Studierenden, hinsichtlich der zur Auswahl stehenden Alternativen, sind wie folgt ausgeprägt: A: I >V>U B: V>U>I C: U>I>V

Abb. 12.13  Mehrgipflige Präferenzen

12  Theorie der Wirtschaftspolitik

45

Abb. 12.14  Eingipflige Präferenzen

Die Tabelle ist wie folgt zu lesen: Für A ist das Reiseziel Indonesien immer besser als Venezuela und dies ist immer besser als Uganda (für B und C gilt dies nur in anderer Reihenfolge). Da sich die Studenten demokratisch auf ein Reiseziel einigen wollen, beschließen sie, das Reiseziel anzusteuern, für das es eine absolute Mehrheit gibt. Demnach wird zunächst zwischen Indonesien und Venezuela abgestimmt. Da sowohl A als auch C Indonesien gegenüber Venezuela präferieren, geht diese Abstimmung zugunsten von Indonesien aus. Im zweiten Schritt wird dann zwischen Indonesien und Uganda abgestimmt. Da B und C jeweils lieber nach Uganda reisen, findet sich nun eine absolute Mehrheit für Uganda. Die Studierenden reisen demnach nach Uganda. Das Abstimmungsergebnis ist U>I>V und entspricht der Präferenz von C. Hätte man jedoch die Abstimmungsreihenfolge geändert, sodass im ersten Schritt zwischen Indonesien und Uganda abgestimmt worden wäre, dann hätte es eine Mehrheit zunächst für Uganda gegeben. Im zweiten Schritt wäre dann zwischen Uganda und Venezuela abgestimmt worden. Da A und B jeweils Venezuela gegenüber Uganda präferieren, wären nun die Studierenden nach Venezuela gereist. Das Abstimmungsergebnis wäre dann V>U>I gewesen. Wäre hingegen in einer weiteren Abstimmungsreihenfolge im ersten Schritt zwischen Uganda und Venezuela abgestimmt worden, dann hätte sich in der zweiten Abstimmung Indonesien als Reiseziel ergeben.

46

André Schmidt

Abb. 12.15  Parteienwettbewerb

Es ist leicht zu erkennen, dass die Reihenfolge der Abstimmung über das Abstimmungsergebnis bestimmt. Deutlich wird auch, dass die auf der Mehrheitsregel basierende kollektive Präferenz keine transitive Rangfolge zwischen den drei Reisezielen schafft. Mehrheitsentscheidungen können daher zu intransitiven Mehrheiten führen. Dies ist das sogenannte Condorcet-Paradoxon. Diese fehlende Transitivität führt zu zyklischen Mehrheiten, da die Mehrheitswahl keinen eindeutigen Sieger hervorbringt und von der Reihenfolge der Abstimmung abhängt. Obwohl alle drei Personen eine transitive Präferenzordnung besitzen, setzt sich bei kollektiven Entscheidungen keine transitive Rangordnung durch. Der Ökonom Kenneth J. Arrow hat auf der Basis der Intransitivität kollektiver Entscheidungen nachgewiesen, dass es keine kollektive Entscheidungsregel gibt, die logisch konsistente Entscheidungen hervorbringt und gleichzeitig wünschenswerte demokratische Eigenschaften aufweist. Zu den wünschenswerten demokratischen Eigenschaften gehören, die Erfüllung der Bedingung des Pareto-Prinzips, die fehlende Einflussnahme eines außenstehenden Diktators, sowie, dass alle Präferenzen der Abstimmungsberechtigten vollständig sind und somit keine Präferenz ausgeschlossen wird. Darüber hinaus fordert die Annahme demokratisch wünschenswerter Entscheidungen, dass die kollektive Rangordnung zwischen zwei Alternativen unverändert bleibt, solange sich auch die individuellen Rangordnungen nicht verändern. Aus Arrows Unmöglichkeitstheorem (Arrow

12  Theorie der Wirtschaftspolitik

47

1953) folgt, dass bei einer einfachen Mehrheitswahl, der Wahlsieger sich nicht mehr zweifelsfrei feststellen lässt. Je größer dabei die Zahl der Entscheidungsbeteiligten ist und je größer die Zahl der zur Wahl stehenden Alternativen oder Kandidaten ist, desto wahrscheinlicher wird das Auftreten zyklischer Majoritäten.

12.4.3.2 Eingipflige Präferenzen und das Medianwählertheorem Das Problem der Intransitivität kollektiver Entscheidungen lässt sich auflösen, wenn die Präferenzen nicht wie im Ausgangsbeispiel mehrgipflig, sondern eingipflig wären. Betrachtet man das Ausgangsbeispiel, so lässt sich feststellen, dass die Präferenzen von C mehrgipflig sind. Sowohl bei Indonesien als auch Uganda weist seine Präferenz einen Gipfel auf. Unterstellt man, dass die Präferenz über die drei Reiseziele für den Mitbewohner C nicht U>I>V wäre, sondern U>V>I lauten würde, so würde man sie in eine eingipflige Präferenz überführen. Würde nun erneut jeweils paarweise über die drei möglichen Reiseziele abgestimmt werden, zeigt sich, dass Venezuela sowohl gegenüber Indonesien als auch gegenüber Uganda und dass Uganda stets gegenüber Indonesien die erforderliche Mehrheit gewinnt. Das Abstimmungsergebnis der kollektiven Entscheidung wäre dann transitiv mit V>U>I. Damit lässt sich einfach illustrieren, dass die Anzahl der Gipfel die entscheidende Determinante dafür ist, ob bei einer Mehrheitswahl zyklische Mehrheiten entstehen oder nicht (Black 1948). Auf der Basis dieser Eingipfligkeitsbedingung lässt sich das Medianwählertheorem ableiten. Dies besagt, dass unter der Bedingung der Eingipfligkeit der Präferenzen sich bei einer Mehrheitswahl diejenige Alternative durchsetzt, die vom Medianwähler bevorzugt wird (Black, 1948). Der Medianwähler ist dabei derjenige Wähler, dessen am meisten präferierte Alternative die Wählerschaft auf einer eindimensionalen Skala genau in zwei Hälften teilt. Er repräsentiert genau den Wähler, der notwendig ist, um die letzte, zur Mehrheit erforderliche Stimme zu erlangen. Das Medianwählermodell findet dabei nicht nur Anwendung im Rahmen der direkten Demokratie, sondern lässt sich auch auf die repräsentative Demokratie, in der die Wähler nicht direkt über bestimmte Alternativen abstimmen, sondern Repräsentanten wählen, welche die kollektiven Entscheidungen über Parlamentsentscheidungen treffen, anwenden. Da sich die Repräsentanten in Form von Parteien organisieren, spricht hierbei auch vom Parteienwettbewerb. Betrachtet seien zwei Parteien, die miteinander im Wettbewerb stehen und die sich ausschließlich am Wahlerfolg ausrichten (Hotelling 1929, Downs 1954). Unterstellt man, dass die Wähler vollständig über Parteiprogramme informiert sind und dass die Parteien sich entlang einer eindimensionalen Skala von politisch rechts bis politisch links anordnen, dann werden sich die Parteien in ihren Parteiprogrammen am Medianwähler ausrichten. Auf der Abszisse werden die Parteipositionen abgetragen. Die Ordinate misst die Häufigkeit der Wähler in Abhängigkeit von den jeweiligen Positionen. Die Stelle M kennzeichnet nun die Position des Medianwählers, sie teilt die Wählermasse genau in zwei Hälften. Wenn sich die Parteien jeweils von Links (L) und Rechts (R) kommend der

48

André Schmidt

Medianwählerposition annähern, können sie jeweils Stimmen hinzugewinnen, ohne dass sie Gefahr laufen, Wählerstimmen die jeweils näher an den Extrema liegen zu verlieren. Im Gleichgewicht werden deshalb beide Parteien die Medianwählerposition besetzen. Mithilfe der dargestellten Erklärungen kann gezeigt werden, dass eine effiziente Allokation bei kollektiver Willensbildung nur dann erreicht werden kann, wenn die Präferenzen der Bürger entweder homogen sind, oder aber der Eigenschaft der Eingipfligkeit entsprechen. Darüber hinaus ist eine Eindimensionalität des Entscheidungsraums erforderlich. Dies mag bei einfachen Rechts-Links-Abstimmungen möglich sein, in der Realität sind aber die zur Entscheidung stehenden Alternativen komplexer als, sodass sie sich nicht immer in einem eindimensionalen Alternativenraum abbilden lassen können. Aus diesen Gründen kann nur von einer eingeschränkten Funktionsfähigkeit des politischen Wettbewerbs ausgegangen werden. Neben den Besonderheiten der kollektiven Willensbildung gibt es auch noch weitere Argumente, welche die eingeschränkte Funktionsfähigkeit des politischen Wettbewerbs begründen. So entstehen Abweichungen zum ökonomischen Wettbewerb dadurch, dass sich die Parteien als Anbieter politischer Programme aus ideologischen Gründen sowie aus Gründen der Glaubwürdigkeit nicht vollständig mobil im Spektrum der Wählerpräferenzen bewegen können und somit nicht dem idealtypischen Bild eines dynamischen Unternehmers entsprechen (Kirsch 1993, 238). Darüber hinaus ist davon auszugehen, dass Amtsinhaber, wenn sie sich einer Wiederwahl stellen, Wettbewerbsvorteile gegenüber ihren Herausforderern haben, da sie häufig einer schwächeren Budgetrestriktion unterliegen als die Opposition (Samuelson 1984).

12.4.3.3 Rationale Uninformiertheit der Wähler Neben den Problemen bezüglich der Funktionsfähigkeit des politischen Wettbewerbs aufgrund der Besonderheiten der kollektiven Willensbildung sind auch noch aus weiteren Gründen erhebliche Zweifel an der Effizienz des politischen Wettbewerbs anzumelden. So setzt ein funktionsfähiger politischer Wettbewerb auch voraus, dass die Wähler über die politischen Programme und die Politiker über die Präferenzen der Bürger vollständig informiert sind. Weder von dem einen noch vom anderen kann jedoch ausgegangen werden, wenn man unterstellt, dass die Informationsgewinnung mit Kosten verbunden ist. Wenn man bedenkt, dass im öffentlichen Sektor die Informationskosten besonders hoch sind und es auch im politischen Sektor keinen funktionsfähigen Preismechanismus gibt, dann ist davon auszugehen, dass die Kosten für die Wähler, sich politisch zu informieren prohibitiv hoch sind und die Grenzkosten mit zunehmender Informationsmenge stark ansteigen. Da jedoch eine abgegebene Stimme bei einer großen Zahl von Wählern nur einen verschwindend geringen Einfluss auf das Wahlergebnis haben wird, stehen den hohen Informationskosten nur geringe Nutzen der Informationsgewinnung und einer Wahlteilnahme gegenüber.

12  Theorie der Wirtschaftspolitik

49

Unterstellt man aufseiten der Wähler Rationalverhalten, so werden diese sich nur in dem Ausmaß informieren, bis die Grenznutzen der Informationsgewinnung gerade so hoch sind wie die Grenzkosten der Informationsgewinnung. Die Informationsmenge, bei der die Grenznutzen = Grenzkosten sind, entspricht dann der optimalen Informationsmenge. Im Schaubild (Abb. 12.16) ist zu erkennen, dass die optimale Informationsmenge wesentlich kleiner ist als die perfekte Informationsmenge. Unterstellt man gar, dass die Grenzkosten grundsätzlich die Grenznutzen der Informationsbeschaffung übersteigen, so ist es für den Wähler rational, sich überhaupt nicht zu informieren. Entschließt sich nun der Bürger dennoch dazu, seine Wählerstimme abzugeben, so tut er dies rational uninformiert, d.h., der Informationsstand des Wählers über die konkreten Auswirkungen der politischen Programmalternativen bei der Stimmabgabe ist sehr gering (Brennan/Buchanan 1984). Die individuelle Wahlentscheidung wird daher von einer Vielzahl verschiedener

Abb. 12.16  Optimale Informationsmenge

Faktoren bestimmt (bspw. Traditionen, Überzeugungen, aktuelle Ereignisse), die mit den eigentlichen, zur Abstimmung stehenden Alternativen, nur sehr wenig zu tun haben (Mueller 1989). Dies schafft wiederum Spielräume für die politisch handelnden Akteure mit Hilfe einer selektiven Informationspolitik die Wählerpräferenzen zu beeinflussen. Betrachtet man zusammenfassend den politischen Wettbewerbsprozess, so wird deutlich, dass dieser nur unvollständig in Lage ist, die effektive Restriktion für die politisch

50

André Schmidt

handelnden Akteure zu schaffen. Aufgrund der bestehenden Informationsasymmetrien ergeben sich vor allem für die politisch handelnden Akteure und die Bürokraten diskretionäre Handlungsspielräume, in denen sie sich der Kontrolle des jeweiligen Prinzipals entziehen und die sie dann für opportunistische Verhaltensweisen nutzen können.

12.4.4 Die Rolle der Interessengruppen Die diskretionären Handlungsspielräume, die es den politisch handelnden Akteuren erlauben, aufgrund der Unvollkommenheiten des politischen Wettbewerbs vom Wähler unbeobachtet und daher ohne entsprechende Sanktionen, Handlungen zugunsten der Verfolgung des Eigeninteresses vorzunehmen, laden auch die Interessengruppen ein, um ihren Partialinteressen zum Durchbruch zu verhelfen. Im Rahmen der Public Choice Theorie haben dabei vor allem diejenigen Ansätze eine hohe Bedeutung erlangt, die das Verhalten und den Einfluss von Interessengruppen thematisieren. Hierbei wird zum einen untersucht, wie die Interessengruppen auf den Staat und die politisch handelnden Akteure Einfluss nehmen und zum anderen, über welche Einflussmöglichkeiten die Interessengruppen in Bezug auf die Bürokratie verfügen. Die erst genannten Ansätze haben vor allem unter dem Stichwort der Interessengruppentheorie des Staates einen hohen Bekanntheitsgrad erzielt. Interessengruppen sind organisierte Gruppen von Individuen, die gemeinsame Ziele verfolgen und diese im politischen Prozess zu verwirklichen suchen. Im Unterschied zu

Abb. 12.17  Die Rolle der Interessengruppen im politischen Entscheidungsprozess

12  Theorie der Wirtschaftspolitik

51

Parteien haben sie nicht das Ziel eines Wahlgewinns oder der Regierungsübernahme. Mithilfe ihrer Einflussnahme wollen Interessengruppen für ihre Mitglieder ganz spezielle Vorteile erwirken. Im Gegenzug dafür bieten sie den politisch handelnden Akteuren ganz bestimmte Leistungen wie Prestigegewinn, Publicity, spezielle Informationen bis hin zu finanziellen Vergünstigungen an (Frey/Kirchgässner 2002, 198 ff.). Die Fähigkeit einer Gruppe, gemeinschaftliches Handeln zu organisieren, ist von einer Reihe von Faktoren abhängig. Begünstigend hierbei wirken insbesondere eine geringe Anzahl von potenziellen Verbandsmitgliedern, eine hohe Homogenität der Präferenzen und die Existenz selektiver Anreize für die Bereitstellung privater Güter (Olson 1965). Im Gegenzug folgt daraus, dass große und vor allem heterogene Gruppen, wie bspw. die Konsumenten und Steuerzahler, sich nur sehr schwer zu einem gemeinsamen Handeln organisieren können. Der Grund hierfür ist darin zu sehen, dass Interessenverbände für ihre Mitglieder ein öffentliches Gut anbieten. Je größer und heterogener die Gruppe ist, desto größer werden die Anreize zum Trittbrettfahrertum. Diese lassen die Organisationskosten solcher Gruppen sehr stark ansteigen. Kleine und homogene Gruppen können zu erheblich geringeren Kosten das Trittbrettverhalten wirkungsvoll verhindern (Olson 1985). Allein die Existenz von Interessengruppen ist jedoch noch kein Beleg für deren politische Einflussnahme. Nur unter der Annahme der Existenz asymmetrischer Informationen, die im politischen Wettbewerb nicht ausreichend kontrolliert werden können, ergeben sich die Möglichkeiten der politischen Einflussnahme. Ausgangspunkt bildet die Annahme, dass sich die Interessenverbände als Spezialisten zu relativ geringen Kosten Informationen über die Wirkungen spezifischer politischer Maßnahmen beschaffen können, was ihnen die Möglichkeit zur Wahrnehmung selektiver Informationsvorsprünge eröffnet. Interessengruppen können daher Sondervergünstigungen für ihre Gruppe durchsetzen, die sie sowohl den politisch handelnden Akteuren als auch den Wählern als Regelungen im Allgemeininteresse verkaufen können. Darüber hinaus verfügen die Interessenverbände über ein erhebliches Wählerstimmenpotenzial, welches sie den Politikern als Gegenleistung für eventuelle Sondervergünstigungen anbieten können (Stigler 1971; Peltzman 1976). Weiterhin können die Interessengruppen über Spendenbeiträge die Wahlkampfkampagnen der Parteien finanzieren. Dabei kann davon ausgegangen werden, dass die Höhe der an die einzelnen Parteien fließenden Unterstützungen von dem zu erwartenden Nutzen der Gruppenmitglieder abhängig ist (Hinich/Munger 1989). Unter der Annahme der rationalen Uninformiertheit der Wähler und den oben genannten Argumenten ergibt sich für die Politiker ein erheblicher Anreiz dazu, die Bedürfnisse einzelner Interessengruppen zu bevorzugen. Der Einfluss der speziellen Interessengruppen ist dabei umso größer, je unsicherer die Politiker über die Wählerpräferenzen sind und je weniger die Wähler über die politischen Programme und deren Folgen informiert sind. Da hier die Gewinner (Interessengruppen) leicht und gleichzeitig die Verlierer (die unorganisierten Wähler) schwer zu identifizieren sind, führt dies zu einer beträchtlichen Erhöhung der Wahlchancen der Politiker (Weingast/Shepsle/Johnson 1981). Dabei werden die Gewinne aus den jeweiligen Maßnahmen jeweils individualisiert, während die Kosten auf die Gesamtheit aller Wähler solidarisiert werden.

52

André Schmidt

Folgt man der Betrachtung des politischen Prozesses als Kette von Prinzipal-AgentenBeziehungen, so ergibt sich durch die explizite Berücksichtigung der Rolle der Interessengruppen nun eine Besonderheit. Da nicht nur die Wähler rational uninformiert sind, sondern auch die politisch handelnden Akteure beauftragen diese als Prinzipale nun die Interessengruppen sie als Agenten bei spezifischen Regulierungs- und Gesetzgebungsverfahren zu unterstützen. Daraus ergibt sich nun die Situation, dass die organisierten Wähler als Prinzipale in der Form der Interessegruppen zu ihren eigenen Agenten werden, und somit Politikmaßnahmen durchsetzen können, die zulasten der unorganisierten Wähler gehen. Dies führt dazu, dass organisierte Interessengruppen gegenüber den nicht-organisierten Wählern über ein erhebliches Beeinflussungspotenzial auf den politischen Entscheidungsprozess verfügen. Das heißt, ein wählerstimmenmaximierendes Programmangebot der Politiker ist nicht Ausdruck eines wohlfahrtsoptimalen Budgets, sondern basiert auf asymmetrischen Durchsetzungschancen der unterschiedlichen Interessengruppen. Das Streben der organisierten Interessengruppen nach Vorzugsbehandlung und Einflussnahme wird auch als rent-seeking bezeichnet (Krueger 1974). Da im Wettbewerb der Interessengruppen um Vorzugsbedingungen Ressourcen gebunden werden, die den produktiven Verwendungen nicht mehr zur Verfügung stehen, kommt es zu Fehlallokationen

Abb. 12.18  Wohlfahrtsverluste durch Rent-seeking

12  Theorie der Wirtschaftspolitik

53

(Tollison 1982). Das heißt, die im politischen Prozess erwirkten Vermögenstransfers führen zu Wohlfahrtsverlusten. Abbildung 12.18 soll der Illustration der entstehenden Wohlfahrtsverluste dienen: Betrachtet wird hierbei ein beliebiger Gütermarkt, auf dem es den Interessengruppen gelingt, bei den politisch handelnden Akteuren eine Regulierung durchzusetzen, die sie bspw. vor ausländischer Konkurrenz schützt. Dadurch gelingt es ihnen, einen gegenüber dem Marktpreis pm höheren Preis Preg durchzusetzen. Infolge dieser Preiserhöhung kommt es zur allokativen Ineffizienz, welche durch das schraffierte Dreieck den Wohlfahrtsverlust zum Ausdruck bringt. Darüber hinaus kommt es zu einer Umverteilung von den Konsumenten hin zu den Produzenten, die durch das Tullock-Viereck gekennzeichnet ist. Dabei ist jedoch davon auszugehen, dass die realiter anfallenden Wohlfahrtsverluste noch viel größer sind, da es infolge von rent-seeking Aktivitäten häufig zu Korruption und Anpassungslasten aufseiten der Konsumenten und Faktoranbieter kommt. Weiterhin gilt zu beachten, dass erfolgreiches rent-seeking auf einem Teilmarkt weitere rent-seeking Aktivitäten auf anderen Märkten nach sich ziehen kann, so dass in Anlehnung an v. Mises Interventionsspiralen (Mises 1929) auch von rent-seeking Spiralen gesprochen werden kann. Gegen solche rent-seeking Spiralen wird häufig das Argument angeführt, dass die Interessengruppen untereinander in Wettbewerb stehen und somit sich gegenseitig kontrollieren würden, sodass es somit zu einem effizienten Gleichgewicht kommen würde (Becker 1996). Große Gruppen hätten dabei die Möglichkeit, Gegendruck zu erzeugen. Allerdings setzt dies voraus, dass das Volumen der zur Verteilung anstehenden Subventions- und Umverteilungsmaßnahmen von vornherein begrenzt ist. Wie es den einzelnen Interessengruppen gelingt, die Regulierungsaktivitäten des Staates zu ihren Gunsten zu beeinflussen lässt sich sehr anschaulich am Beispiel des Modells des politischen Marktes für Regulierungen von Stigler zeigen (Stigler 1971). Das heißt, einzelne regulierungspolitische Maßnahmen werden von einzelnen Wirtschaftszweigen bewusst initiiert und zu deren Vorteil gestaltet und eingesetzt. Der Staat bzw. die sich an der Regierung befindenden Parteien würden als Anbieter solcher Regulierungsmaßnahmen auftreten. Die Ziele solcher Regulierungsmaßnahmen der einzelnen Wirtschaftsbranchen bestehen vor allem darin, in den Genuss von Subventionsmaßnahmen zu gelangen, den Marktzutritt gegen potenzielle Konkurrenz abzusichern, die tatsächliche Wettbewerbsintensität zu senken oder eine Preisregulierung für den jeweiligen Markt zu erreichen. Es besteht somit eine wirksame Nachfrage seitens der betroffenen Branchen nach solchen staatlich verordneten Wettbewerbsbeschränkungen. Insofern besteht aus der Sicht der Neuen Politischen Ökonomie ein Markt für das politische Gut der Regulierung. Einzelne Branchen respektive Unternehmen fragen die Regulierung nach und bieten als Gegenleistung ihre Wählerstimme oder finanzielle Unterstützung im Wahlkampf an. Daraus schlussfolgert Stigler, dass vor allem diejenigen Wirtschaftszweige mit dem Gut Regulierung versorgt werden, die relativ viele Wählerstimmen anbieten oder großzügige finanzielle Unterstützung gewähren können. Verlierer sind dagegen diejenigen Branchen, die nicht zur Abgabe solcher Angebote fähig sind und die Konsumenten des regulierten

54

André Schmidt

Abb. 12.19  Angebot und Nachfrage nach Transferleistungen (Mc Cormick/Tollison 1979)

Wirtschaftszweiges, die die überhöhten Preise gegenüber der Wettbewerbssituation bezahlen müssen. Die Funktionsweise dieser Märkte für Regulierungen lässt sich, wie Abbildung 21.19 zeigt, auf einfache Weise darstellen: Auf der Abszisse werden alle gesellschaftlichen Gruppen, nach ihrer Organisationsfähigkeit geordnet, abgetragen. 5 Ausgehend vom Ursprung steigen die Organisationskosten jeder Gruppierung an, sodass am äußersten rechten Punkt sich diejenige Gruppierung befindet, deren Organisationskosten am größten sind (bspw. Verbraucher). Jede Gruppierung ist Nachfrager nach Vermögenstransfers in Höhe einer Geldeinheit, die über den Staat abgewickelt werden. Der Nettowert der Transferleistung für jede Gruppierung ergibt sich aus der Differenz von Transfersumme und Organisationskosten. Unter der Annahme, dass mit zunehmender Entfernung vom Ursprung auf der Abszisse die Organisationskosten ansteigen, vermindert sich entsprechend der Nettowert der Transferleistung und damit auch die Nachfrage nach diesen Transfers. Dadurch ergibt sich eine negativ geneigte 5

Besteht die Gesellschaft aus n Mitgliedern, so ergeben sich 2n-1 Koalitionsmöglichkeiten.

12  Theorie der Wirtschaftspolitik

55

Nachfragefunktion D nach den Transfers. Für diejenigen Gruppen, deren Organisationskosten höher sind als die Transfersumme, ist die Nachfrage nach der Transferleistung negativ. Die Organisationskosten jeder Gruppe lassen sich aus der vertikalen Differenz zwischen Transfersumme und der Nachfragefunktion ablesen. Umgekehrt kann jede Gruppe auch als potenzieller Anbieter von Transfers betrachtet werden, da alle Gruppierungen der Gefahr unterliegen, besteuert zu werden. Auf der Abszisse werden nun alle Gruppen nach ihrer Zahlungsbereitschaft geordnet, der Besteuerung zu entgehen. Da auch dies wiederum von der Organisationsfähigkeit abhängig ist, erhält man nun die umgekehrte Reihenfolge. Am Ursprung befinden sich jetzt die Gruppierungen mit den höchsten Organisationskosten und je weiter man sich vom Ursprung entfernt, desto geringer werden die Organisationskosten der jeweiligen Gruppierung. Die Zahlungsbereitschaft, der Besteuerung zu entgehen, ist dabei nichts anderes als das Angebot an Transferzahlungen und wird durch die Kurve (S-f) wiedergegeben. Diese Kurve entspricht spiegelbildlich der Nachfragekurve nach Transferzahlungen. Für Gruppen, deren Organisationskosten höher sind, als der Geldbetrag, der ihnen durch Besteuerung entzogen wird, ist es nicht rational sich zu organisieren, da die Organisation des politischen Widerstandes höher ist, als mögliche Lasten aus der erzwungenen Umverteilung. Die politisch handelnden Akteure fungieren als Transfermakler. Ihr Einsatz erfordert Ressourcen in Höhe von f, die als Transaktionskosten der Umverteilung interpretiert werden können. Unterstellt man konstante marginale Transaktionskosten der Transfertätigkeit, so verschiebt sich die Transferangebotskurve um den Betrag von f nach oben [S= (S-f) + f ]. Das Gleichgewicht für den Transfermarkt ist im Schnittpunkt E zwischen der S-Kurve und der D transfers Kurve gegeben. Der Grenzpreis der Vermögenstransfers beträgt die Strecke OA. Alle Gruppierungen, deren Organisationskosten geringer sind als die Differenz aus Transfersumme und dem Grenzpreis A werden von den Transfers begünstigt. Das sind die Gruppen im Bereich von O und B (Transferempfänger). Gruppen, deren Nachfragepreis kleiner als C ist, werden sich nicht gegen die erzwungenen Transfers zur Wehr setzen, da ihre Organisationskosten zu hoch sind. D.h., die Gruppen zwischen D und F werden von der Umverteilung belastet. Dagegen werden die Gruppen zwischen B und D von den Transferleistungen weder belastet noch begünstigt. Obwohl das dargestellte Modell den Markt für Transferleistungen analysiert, lässt es sich ohne größere Modifikationen auf Regulierungsmaßnahmen übertragen. Der Mechanismus der dargestellten Transaktionen gilt nicht nur für monetäre Transferleistungen, sondern auch für alle anderen Vergünstigungen, die die politisch handelnden Akteure den einzelnen Interessengruppen anbieten. Hinter Steuervergünstigungen, Importzöllen oder wettbewerblichen Ausnahmebereichen und dem Schutz vor tatsächlichen oder potenziellen Konkurrenten verbirgt sich nichts anderes als nicht-monetäre Transferleistungen an die jeweiligen Empfänger zur Sicherung ihrer Renten. Ob eine Branche bzw. Gruppierung in den Genuss solcher Regulierungsmaßnahmen kommt; – d.h., ob sie Gewinner oder Verlierer auf dem Markt für Regulierungen ist – wird ausschließlich über die Höhe der Organisationskosten bestimmt. Branchen bzw. Gruppierungen, mit geringen Organisationskosten gelingt es, billiger im politischen Prozess

56

André Schmidt

Vergünstigungen durchzusetzen, die zulasten derjenigen Gruppierungen gehen, deren Organisationskosten prohibitiv hoch sind. Der Erklärungsansatz Stiglers für das Entstehen eines politischen Marktes für Regulierungen wurde von Sam Peltzman weitergehend spezifiziert (Peltzman 1976). Dabei versucht Peltzman vor allem der Frage nachzugehen, warum die durch staatliche Regulierungsaktivitäten benachteiligten Gruppierungen nicht gegen die Regulierungsmaßnahmen opponieren. Diese Frage lässt sich nur dann konsistent beantworten, wenn man die Regulierungstätigkeit sowohl als Angebots- als auch als Nachfrageproblem betrachtet und der Analyse zugänglich macht. Daher greift Peltzman in seinem Modell auf die Demokratietheorie von Downs und die Gruppentheorie von Olson zurück und integriert beide in eine allgemeine Regulierungstheorie. In Analogie zu Downs misst Peltzman den Informationskosten über den politischen Prozess eine wesentliche Bedeutung bei. Von Olson übernimmt Peltzman die Annahme, dass kleine, homogene Gruppen sich leichter organisieren können als größere, heterogene Gruppen. Daher können sich relativ kleine und homogene Gruppen besser mit dem Gut Regulierung versorgen als größere Gruppen. Im Ergebnis werden somit Produzenteninteressen, die von einer kleinen Gruppe, deren Mitglieder ein relativ hohes Einkommen aufweisen, gegenüber großen Gruppen mit unterschiedlichen Mitgliederinteressen (Konsumenten und Steuerzahler) bevorzugt. Der Regulierer als Wählerstimmenmaximierer nach Downs bestimmt als Anbieter die Gruppengröße, der er Unterstützung verspricht. Für die Nutzenfunktion des Regulierers ergibt sich nach Peltzman folgende Notation: W = n*f – (N-n) *h

 max!

M = Mehrheitsstimmen n = Anzahl der potentiellen Wähler in der begünstigten Gruppe f = Wahrscheinlichkeit, dass die Begünstigung Wählerstimmen einbringt N = Gesamtzahl aller potentiellen Wähler h = Wahrscheinlichkeit, dass die Benachteiligten opponieren Die Wahrscheinlichkeit, dass die Unterstützung der Begünstigten in Wählerstimmen transformiert werden kann, ist abhängig von der Pro-Kopf-Begünstigung. Die ProKopf-Begünstigung lässt sich aus der Differenz zwischen Transfersumme und den Lobbying- sowie den Organisationskosten bestimmen. Für die Wahrscheinlichkeit, dass die Benachteiligten gegen die Regulierungsmaßnahme in Form von Wählerstimmenentzug opponieren, sind vor allem die Höhe des Steuersatzes und etwaige Zuschüsse zu den Lobbying-Kosten von Relevanz. Unter diesen Annahmen gelangt Peltzman zu dem Ergebnis, dass die politisch dominante Strategie der Regulierungsinstanz nicht die Verwirklichung des perfekten, i.S. eines vollständigen Produzentenschutzes ist. Solange einzelne Konsumenten bereit sind,

12  Theorie der Wirtschaftspolitik

57

Abb. 12.20  Regulierungsgleichgewichte

Stimmen oder Geld für eine kleine Abweichung vom reinen Produzentenschutz zu bezahlen, wird die Regulierungsinstanz diesen nicht gewähren. In ihrem Entscheidungskalkül kann die politisch handelnde Regulierungsinstanz davon ausgehen, dass die Produzenten ihre Unterstützung nicht in Gänze einstellen, wenn ihre Renten etwas reduziert werden. Damit zeigt Peltzman, dass die Bevorzugung einer Gruppe nicht unmittelbar von ihrer Größe determiniert wird, sondern primär von ihrer Fähigkeit, eine Bevorzugung mit Wählerstimmen zu honorieren bzw. im Falle einer Benachteiligung den Protest wirkungsvoll zu artikulieren. Am Beispiel einer einfachen Preisregulierung lassen sich Peltzmans Überlegungen noch einmal verdeutlichen. Im Rahmen eines Gewinn-Preis-Diagramms (vgl. Abbildung 17) lassen sich sogenannte Isosupportkurven konstruieren. Sie stellen den geometrischen Ort aller Gewinn-Preis-Kombinationen dar, die dem politisch handelnden Regulierer den

58

André Schmidt

gleichen Anteil an Wählerstimmen einbringen. Dabei wird davon ausgegangen, dass die Wählerstimmen M eine Funktion der Güterpreise p und der Gewinne π sind. Es gilt somit: M = f(p, π(p)) Weiterhin sei angenommen, dass die Wählerstimmen der Begünstigten (Unternehmen) umso größer sind, je höher die Gewinne sind und der Protest der Benachteiligten (Konsumenten) umso geringer ausfällt, je geringer die Preise sind. D. h. es gilt:

Mπ =

∂M >0 ∂π

(1)

Mp =

∂M 20, falls B defektiert). Da die Auszahlungsmatrix symmetrisch ist, ergibt sich dasselbe Resultat auch für B. Die individuelle Rationalität der Kartellmitglieder führt folglich zu dem für beide ungünstigen Ergebnis eines Gewinns von jeweils nur 40, während das aus ihrer Sicht optimale Ergebnis von je 80 verfehlt wird. Wettbewerber, die Preise absprechen wollen, müssen folglich dieses Problem der Instabilität ihrer Absprachen aufgrund der inneren Interessengegensätze zwischen den beteiligten Unternehmen lösen. Kann ein gerichtlich einklagbarer Kartellvertrag geschlossen werden, so kann das Gefangenendilemma, etwa durch Vereinbarung hoher Vertragsstrafen im Falle der Nichteinhaltung, gelöst werden. Besteht jedoch wie in allen Industrieländern ein Kartellverbot, so wird es schwierig für die Kartellmitglieder, die Einhaltung der Vereinbarungen über eine solche Verhaltenskoordination zu überwachen und durchzusetzen. Insbesondere auch mit Hilfe der Spieltheorie ist in der Industrieökonomik die Funktionsweise einer solchen Verhaltenskoordination (Kollusion) zwischen Unternehmen untersucht worden. Die folgenden Überlegungen gelten gleichermaßen für die Funktionsweise von Kartellen wie für die Verhaltenskoordination im Oligopol (Abschnitt 13.5). Das Instabilitätsproblem wird geringer, wenn das Kartellverhalten als ein wiederholtes Spiel angesehen werden kann, da dann glaubwürdig mit Bestrafungen der defektierenden Kartellmitglieder in zukünftigen Perioden (etwa durch massive Preissenkungen) gedroht werden kann. Die Stabilität einer Verhaltenskoordination hängt deshalb davon ab, (1) wie groß die Anreize für die einzelnen Unternehmen sind, von den abgestimmten Preisen abzuweichen, (2) wie hoch die Wahrscheinlichkeit ist, dass eine solche Abweichung von den anderen Unternehmen entdeckt wird und (3) wie groß deren Möglichkeiten sind, das defektierende Unternehmen zu bestrafen. Es können eine Anzahl von Bedingungen angegeben werden, die die Entstehung und Stabilität einer Preisabsprache erleichtern oder erschweren (Motta, 2004, S. 142-156; Levenstein/Suslow, 2006; Kerber/Schwalbe, 2015, Rdnr. 294-340): • Wiederholte Spiele und Zeithorizont: Wenn immer wieder dieselben Unternehmen über längere Zeit miteinander konkurrieren und diese über einen langen Zeithorizont ihre Gewinne maximieren (niedrige Abdiskontierung zukünftiger Gewinne), gibt es weniger Anreize, von der Verhaltenskoordination abzuweichen, da die langfristigen Verluste durch eine mögliche Bestrafung stärker wiegen als die kurzfristigen Gewinne durch defektierendes Verhalten. • Anzahl der Anbieter: Je weniger Anbieter auf dem Markt sind, desto leichter können sich diese einigen und desto geringer ist der Anreiz zur Abweichung von der Vereinbarung. • Symmetrie der Anbieter: Eine größere Ähnlichkeit der Wettbewerber in Bezug auf Produkte, Technologie, Kosten, Produktionskapazitäten oder Organisationsform erleichtert die Koordination. In Bezug auf die Stabilität der Koordination erhöht eine große Homogenität die Anreize für eine Verhaltensabweichung, führt aber gleichzeitig zu einer großen Effektivität für die Bestrafung defektierenden Verhaltens.

148

Wolfgang Kerber

• Markttransparenz: Je leichter die Unternehmen sich durch hohe Transparenz wechselseitig kontrollieren können, desto schwerer können unentdeckt heimliche Preisunterbietungen (etwa durch zusätzliche Rabatte) gemacht werden, wodurch eine Verhaltenskoordination stabilisiert wird. • Preiselastizität der Nachfrage: Je niedriger diese ist, desto höher ist der gemeinsame Gewinn aufgrund einer erfolgreichen Verhaltenskoordination. Eine niedrige Preiselastizität führt jedoch gleichzeitig sowohl zu hohen Anreizen, heimlich von den vereinbarten Preisen abzuweichen, als auch zu gravierenden Bestrafungswirkungen, wenn solche Abweichungen entdeckt werden. • Nachfragemacht: Existieren starke Nachfrager mit hohen Einkaufsvolumina (wie etwa Filialunternehmen im Handel), so können diese eine Verhaltenskoordination der Anbieter erschweren, weil sie durch Vergabe von Großaufträgen den einzelnen Anbietern starke Anreize setzen können, heimlich Preise zu unterbieten. • Marktzutrittsschranken: Je leichter es ist, in den Markt einzutreten, desto weniger haben die etablierten Anbieter Möglichkeiten, den Preis durch eine Verhaltenskoordination zu erhöhen. • Innovationen: Je stärker die Innovationsaktivitäten in Bezug auf Produkte oder Produktionstechnologien, desto schwieriger können Verhaltenskoordinationen entstehen bzw. desto größer ist die Wahrscheinlichkeit der Vorteilhaftigkeit wettbewerblicher Vorstöße, durch die solche Vereinbarungen durchbrochen werden. • Konjunkturschwankungen: Je stärker und unvorhersehbarer Schwankungen der Nachfrager sind, desto schwerer können Verhaltenskoordinationen stabilisiert werden, da Anpassungen der Koordination an veränderte Bedingungen sich als schwierig erweisen und gleichzeitig hohe Anreize für Preisunterbietungen durch unterausgelastete Kapazitäten auftreten können. • Informationsaustausch: Durch die Einführung von Marktinformationsverfahren, bei denen sich die Unternehmen wechselseitig über ihre Verkaufspreise und -mengen informieren, kann die Stabilität von Verhaltenskoordinationen erhöht werden, da hierdurch die wechselseitige Überwachung der Einhaltung der Preisabsprachen erleichtert wird.

Ökonomische Wirkungen anderer Arten von Kartellen und Kooperationen Während Absprachen über Preise, Mengen und Verkaufsgebiete wettbewerbspolitisch als generell negativ zu beurteilen sind, gibt es andere Arten von horizontalen Vereinbarungen zwischen Wettbewerbern, die sich unter bestimmten Umständen als gesamtwirtschaftlich positiv erweisen können: • Rationalisierungs- und Spezialisierungskartelle: Hierbei vereinbaren im Wettbewerb stehende Unternehmen, gemeinsame Anstrengungen zur Rationalisierung zu unternehmen oder sich wechselseitig auf bestimmte Teile von Sortimenten zu spezialisieren. Zwar sind in solchen Fällen Effizienzvorteile (aufgrund von Skalen- und

13 Wettbewerbspolitik

149

Verbundvorteilen) möglich, aber die eintretenden negativen Wirkungen durch die Verminderung des Wettbewerbs können sich ebenfalls als sehr gravierend erweisen. • Kooperationen kleiner und mittlerer Unternehmen und Einkaufsgemeinschaften: In der Wettbewerbspolitik wird seit langem die Meinung vertreten, dass eine Zusammenarbeit zwischen kleinen und mittleren Unternehmen unter Umständen vom Kartellverbot ausgenommen werden sollte. Zum einen könnten solche Unternehmen hierdurch effizienter wirtschaften und somit wettbewerbliche Nachteile, die sie teilweise gegenüber großen Unternehmen besitzen, ausgleichen. Zum anderen können Vereinbarungen zwischen kleinen und mittleren Unternehmen üblicherweise kaum wettbewerbsschädliche Auswirkungen auf den Märkten bewirken, zumindest wenn ihre Marktanteile gering bleiben. Eine besondere Form solcher Kooperationen sind Einkaufsgemeinschaften zwischen kleinen und mittleren Unternehmen, bspw. Einzelhändlern, mit denen sie versuchen, in ihren Verhandlungen mit Herstellern, niedrigere Einkaufspreise durchzusetzen. Tatsächlich ist es eine empirisch gut belegte Tatsache, dass durch die Zusammenfassung von Einkaufsvolumina höhere Rabatte bzw. niedrigere Einkaufspreise erzielt werden können. Solange solche Einkaufsgemeinschaften aus kleinen und mittleren Unternehmen bestehen und insgesamt nicht zu große Marktanteile auf sich vereinen, so dass die hieraus entstehende Nachfragermacht beschränkt bleibt, können solche Einkaufsgemeinschaften aus wettbewerbsökonomischer Sicht gerechtfertigt sein. • FuE-Kooperation: Viele Unternehmen kooperieren mit Konkurrenzunternehmen, um gemeinsam neue Produkte oder Technologien zu entwickeln. Aus Sicht der Innovationsökonomik können solche FuE-Kooperationen aufgrund des Zusammenführens komplementärer Kompetenzen (Synergieeffekte), zur Vermeidung von Kostenduplizierungen bei Parallelentwicklungen oder der besseren Internalisierung von Spill overEffekten bei der Wissensproduktion auch gesamtwirtschaftlich sinnvoll sein. Auf der anderen Seite können auch erhebliche wettbewerbsbeschränkende Effekte auftreten: So kann sich der für Innovationsanreize wichtige Wettbewerbsdruck erheblich verringern und Wettbewerbsbeschränkungen auf der FuE-Stufe können sich auf andere Aktionsparameter wie etwa Preise ausbreiten. Aus Sicht der dynamisch-evolutorischen Wettbewerbskonzeption ist es wichtig, dass die Wettbewerber auf Märkten parallel und unabhängig voneinander nach neuen, innovativen Problemlösungen suchen (Wettbewerb als Experimentierungsprozess). Eine FuE-Kooperation impliziert jedoch gerade eine ex-ante Koordination von Forschungsprojekten und reduziert damit die Varietät der Problemlösungsversuche. Insgesamt muss deshalb gerade die FuE-Kooperation als eine besonders ambivalente Form der horizontalen Vereinbarung angesehen werden, bei der es gleichzeitig besonders gute Pro- und Contra-Argumente geben kann (Caloghirou/Ioannides/Vonortas, 2003; Kerber/Schwalbe, 2015, Rdnr. 352-361). • Technologietransfer-Vereinbarungen: In Lizenzverträgen können Unternehmen ihre Geistigen Eigentumsrechte (Patente, Urheberrechte) anderen Unternehmen für eine Lizengebühr zur Nutzung überlassen. Auch wenn solche Lizenzvereinbarungen

150

Wolfgang Kerber

normalerweise kein Problem für den Wettbewerb darstellen, sondern eher zu einer effizienteren Nutzung von neuen Technologien führen, können sie unter bestimmten Umständen auch den Wettbewerb beschränken. Dies kann bspw. der Fall sein, wenn Patente für konkurrierende Technologien in einen Patentpool eingebracht und gemeinsam verwertet werden, da dann der Wettbewerb zwischen diesen substitutiven Technologien ausgeschaltet wird. Auch Überkreuzlizensierungsverträge (cross-licensing), bei denen Unternehmen sich wechselseitig Lizensen für ihre Patente einräumen, können wettbewerbsbeschränkende Effekte haben. Falls jedoch komplexe Produkte (wie bspw. Smartphones) und technische Standards (wie bspw. UMTS-Standard) Technologien mit einer großen Anzahl von Patenten beinhalten, dann können Patentpools, in die alle komplementären und essentiellen (aber nicht: substitutive) Patente eingebracht werden, die Verhandlungs- und damit die Transaktionskosten bzgl. der Lizensierung dieser Patente stark reduzieren. Aufgrund dieser Effizienzvorteile könnten solche Patentpools vom Kartellverbot freigestellt werden (Shapiro, 2001).

13.4.2 W ettbewerbsrechtliche Regelungen: Kartellverbot mit Ausnahmen Die horizontale Verhaltensabstimmung von Wettbewerbern ist folglich im Allgemeinen negativ zu bewerten. Allerdings lassen sich einige Arten von Kooperationen identifizieren, deren gesamtwirtschaftlich positive Wirkungen unter bestimmten Umständen die negativen Wirkungen der Wettbewerbsbeschränkung überkompensieren können. Insofern ist es aus wettbewerbspolitischer Sicht durchaus folgerichtig, alle horizontalen Abstimmungen von Aktionsparametern als Wettbewerbsbeschränkungen zunächst generell zu verbieten (allgemeines Kartellverbot), bei Erfüllung bestimmter Kriterien jedoch Ausnahmen vom Kartellverbot zuzulassen. Dies ist auch die prinzipielle Vorgehensweise im deutschen und europäischen Wettbewerbsrecht.

Horizontale Vereinbarungen im europäischen Wettbewerbsrecht Nach Art. 101 Abs. 1 AEUV sind alle Vereinbarungen zwischen Unternehmen verboten, welche den Handel zwischen den Mitgliedstaaten zu beeinträchtigen geeignet sind (Zwischenstaatlichkeitsklausel) und eine Verhinderung, Einschränkung oder Verfälschung des Wettbewerbs innerhalb des Gemeinsamen Marktes bezwecken oder bewirken (Tabelle 13.1). Hierfür ist es gleichgültig, ob diese Vereinbarungen auf vertraglicher Basis beruhen oder formlose abgestimmte Verhaltensweisen darstellen. Nach Art. 101 Abs. 3 AEUV sind Vereinbarungen vom Kartellverbot freigestellt, wenn folgende vier Bedingungen erfüllt sind: • Es müssen gesamtwirtschaftliche Vorteile entstehen, etwa in Form von Effizienzgewinnen (Ausnützung von Skalen- oder Verbundvorteilen) oder durch Förderung des technischen Fortschritts.

13 Wettbewerbspolitik

151

• Die Nachfrager müssen am entstehenden Gewinn angemessen beteiligt werden. • Die Wettbewerbsbeschränkung muss unerlässlich sein, um diese gesamtwirtschaftlichen Vorteile zu realisieren. • Es darf zu keiner Ausschaltung des Wettbewerbs kommen. Dies wird von der Kommission so interpretiert, dass die an der Vereinbarung beteiligten Unternehmen keine Marktanteile jenseits der Marktbeherrschungsschwelle erreichen dürfen. Entscheidend ist somit eine Abwägung zwischen den gesamtwirtschaftlichen Vorteilen einer solchen Vereinbarung und den Nachteilen für den Wettbewerb. Das Verfahren für die Freistellung vom Kartellverbot ist 2004 umfassend reformiert worden. Die bis dahin bestehende Genehmigungspflicht durch die Kommission ist abgeschafft worden. Letztlich müssen die Unternehmen nun selbst beurteilen, ob ihre Vereinbarungen freistellungsfähig nach Art. 101 Abs. 3 AEUV sind. Hilfreich für diese Beurteilung sind jedoch die bereits seit langem existierenden Gruppenfreistellungsverordnungen (GVO), in denen für bestimmte Typen von Wettbewerbsbeschränkungen (etwa für FuEKooperationen) festgelegt wurde, unter welchen Bedingungen eine solche Vereinbarung freigestellt werden kann. Solche Gruppenfreistellungsverordnungen existieren unter anderem für FuE-Kooperationen (GVO 1217/2010) und Spezialisierungsvereinbarungen (GVO 1218/2010). Hierbei wurden vor allem Marktanteilsgrenzen für die beteiligten Unternehmen (25 v.H. für FuE-Kooperationen bzw. 20 v.H. für Spezialisierungsvereinbarungen) festgelegt, bis zu deren Höhe diese horizontalen Vereinbarungen unter bestimmten Bedingungen allgemein freigestellt sind (Safe harbour-Regel). In ihrer Praxis geht die Kommission sehr rigoros gegen alle Formen von Vereinbarungen über Preise, Mengen und Abgrenzungen von Verkaufsgebieten vor. Für solche Vereinbarungen gilt ein Per-se-Verbot. Um insbesondere heimliche Preiskartelle besser verfolgen zu können, wurde eine Kronzeugenregelung (Leniency-Programm) eingeführt, die Kartellmitglieder, die bei der Aufdeckung eines Kartells helfen, unter bestimmten Umständen von Sanktionen freistellen oder diese reduzieren. Mit solchen Regelungen kann die Stabilität von Verhaltenskoordinationen vermindert werden. Gegenüber anderen Arten von horizontalen Vereinbarungen, bei denen auch Effizienzvorteile oder Vorteile für den technischen Fortschritt entstehen können, ist die Kommission wesentlich großzügiger. Dies gilt für die Freistellung von Spezialisierungsvereinbarungen und insbesondere FuE-Kooperationen.

Kartellverbot mit Ausnahmen im deutschen GWB Seit der 7. GWB-Novelle (2005) sind das deutsche Kartellverbot (§ 1 GWB) und seine Ausnahmen (§ 2 GWB) weitgehend an die europäische Regelung des Art. 101 Abs.1 und 3 AEUV angepasst worden, so dass im Prinzip die gleichen Kriterien gelten wie im europäischen Wettbewerbsrecht. Spezielle Kartellausnahmeregelungen beziehen sich nur noch auf Kooperationen zwischen kleinen und mittleren Unternehmen zur Rationalisierung (Mittelstandskartelle: § 3 GWB). Letztlich geht es auch im deutschen Wettbewerbsrecht bei den Kartellausnahmen um eine Abwägung zwischen eventuell entstehenden

152

Wolfgang Kerber

gesamtwirtschaftlichen Vorteilen durch die Kooperation und den Nachteilen durch die Beschränkung des Wettbewerbs.

13.5

Horizontale Zusammenschlüsse, Unternehmenskonzentration und Fusionskontrolle

13.5.1 Unternehmenskonzentration und Marktabgrenzung Der Begriff der Unternehmenskonzentration bezieht sich üblicherweise auf die Anzahl und relative Größe (Marktanteile) von Anbietern, zwischen denen die Nachfrager auf einem Markt auswählen können. Eine steigende Unternehmenskonzentration bedeutet somit eine Verringerung der Anzahl der Anbieter oder eine stärkere Konzentration von Marktanteilen auf einzelne Anbieter. Die meisten wettbewerbstheoretischen Ansätze verbinden damit eine steigende Gefahr der Entstehung von Marktmacht (Abschnitt 13.2), weshalb in der Wettbewerbspolitik die Unternehmenskonzentration als ein zentraler Indikator bei der Feststellung von Marktbeherrschung im Rahmen der Fusionskontrolle oder bei dem Missbrauchsverbot für marktbeherrschende Unternehmen angesehen wird. Bevor jedoch Marktanteile bestimmt und die Konzentration gemessen werden können, ist festzustellen, welche Produkte bzw. Anbieter zu dem Markt gehören, d.h. es ist zunächst der relevante Markt abzugrenzen.

Konzepte und Methoden der Abgrenzung des relevanten Marktes Für die Frage, ob ein Unternehmen A mit seinem Produkt über Marktmacht verfügt, ist entscheidend, wie leicht die Nachfrager auf andere Anbieter ausweichen können. Das Problem der Marktabgrenzung ist deshalb so schwierig, weil reale Märkte fast nie homogene Punktmärkte sind, sondern aus mehr oder minder austauschbaren heterogenen Produkten verschiedener Anbieter aus unterschiedlichen Standorten bestehen. Im Mittelpunkt steht damit das Kriterium der Austauschbarkeit der Anbieter mit ihren Produkten aus Sicht aller oder einer bestimmten Gruppe von Nachfragern (nachfragerseitige Substituierbarkeit). Zu unterscheiden ist dabei zwischen der sachlichen und räumlichen Abgrenzung von relevanten Märkten (als Überblick: Kerber/Schwalbe, 2015, Rdnr. 228-272). Sachliche Marktabgrenzung: Bei der sachlichen Marktabgrenzung geht es um das Problem, welche Produkte zum selben relevanten Markt gehören. Hierbei sind vor allem zwei Kriterien wichtig: • Substituierbarkeit auf der Nachfrageseite: Bisher wurde für deren Feststellung vor allem das Bedarfsmarktkonzept verwendet, bei dem anhand einer Beurteilung der Eigenschaften der Produkte, ihrer Verwendungsmöglichkeiten und ihrer Preise versucht wird abzuschätzen, ob Nachfrager diese Güter als austauschbar ansehen (zum Beispiel durch stichprobenartige Befragungen von Nachfragern).

13 Wettbewerbspolitik

153

• Substituierbarkeit auf der Angebotsseite: Der Preisspielraum von etablierten Anbietern kann auch dadurch beschränkt werden, dass bei einer Preiserhöhung andere Anbieter kurzfristig ihre Produktion auf die Produkte des betreffenden Marktes umstellen. Anbieter mit hoher Produktionsflexibilität wären somit auch zum sachlich relevanten Markt zu rechnen. Räumliche Marktabgrenzung: Aufgrund ihrer geographischen Lage sind nicht alle Anbieter in gleichem Maße für die Nachfrager austauschbar. Die räumliche Größe der relevanten Märkte kann dabei von verschiedenen Determinanten abhängig sein: Eine besondere Rolle spielen dabei vor allem die Höhe der Transportkosten, Zölle und nichttarifäre Außenhandelsbeschränkungen wie unterschiedliche technische und rechtliche Standards (Regulierungen) sowie die Besonderheiten von nationalen Vertriebssystemen oder nationalen Präferenzen (einschl. Kultur und Sprache). Insofern kann es für bestimmte Güter wie etwa zivile Großraumflugzeuge oder spezifische Softwareprodukte sinnvoll sein, Weltmärkte abzugrenzen, während für andere Produkte die EU oder einzelne Staaten die adäquate Marktgröße darstellen (Konsumgütermärkte). Im Bereich des Handels ist es dagegen oft notwendig, lokale Märkte abzugrenzen. Hypothetischer Monopoltest: Aufgrund der theoretischen und empirischen Probleme bei der bisherigen Bestimmung relevanter Märkte ist als neuer konzeptioneller Rahmen für die Marktabgrenzung der hypothetische Monopoltest entwickelt worden (Kerber/ Schwalbe, 2015, Rdnr. 231-233). Untersucht man das Problem, ob ein Unternehmen A mit seinem Produkt X Marktmacht besitzt, so stellt dieser Test die Frage, ob A die Fähigkeit besitzt, mit einer Preiserhöhung seinen Gewinn zu erhöhen. Ist dies der Fall, so besitzen die Nachfrager offensichtlich wenig Möglichkeiten, dieser Preiserhöhung durch einen Wechsel auf andere Anbieter auszuweichen, so dass dieser Markt nur aus dem Produkt X besteht. Ist die Frage zu verneinen, können die Nachfrager offensichtlich in ausreichendem Umfang auf andere Anbieter ausweichen, etwa das Unternehmen B mit dem Produkt Y. Dann wird gefragt, ob ein hypothetischer Monopolist, der die Produkte X und Y anbietet, mit einer Preiserhöhung seinen Gewinn erhöhen könnte. Ist dies zu bejahen, so besteht der relevante Markt aus diesen beiden Produkten X und Y; andernfalls sind weitere Anbieter mit ihren Produkten einzubeziehen. Auf diese Weise kann in einem schrittweisen Prozess herausgefunden werden, welche Menge von Anbietern mit ihren verschiedenen Produkten und aus unterschiedlichen Standorten zum relevanten Markt gehören. Da sehr kleine und/ oder kurzfristige Preiserhöhungen unproblematisch sind, wird üblicherweise gefragt, ob ein gewinnmaximierender hypothetischer Monopolist für mindestens ein Jahr den Preis in einem signifikanten Umfang von 5 – 10% erhöhen würde (SSNIP-Test: small but significant non-transitory increase in price). Für die konkrete Beantwortung dieser Fragen sind verschiedene empirische Verfahren entwickelt worden, die auch zunehmend Eingang in die praktische Wettbewerbspolitik finden. Probleme der Marktabgrenzung: Das Kriterium der nachfragerseitigen Austauschbarkeit im Bedarfsmarktkonzept enthält auch eine subjektive Dimension und die Frage nach dem Ausmaß der notwendigen Austauschbarkeit (oder der tolerierten Preiserhöhung beim

154

Wolfgang Kerber

hypothetischen Monopoltest) erfordert eine normative Entscheidung über die Zumutbarkeit des Ausweichens auf andere Anbieter. Insofern steht die Marktabgrenzung trotz der Bemühungen um ihrer besseren Objektivierung durch die erwähnten Kriterien und Verfahren in der Gefahr einer gewissen Willkür. Dies ist deshalb problematisch, weil die als wichtig für die Bestimmung von Marktmacht angesehenen festgestellten Marktanteile oder Konzentrationsmaße stark von der Marktabgrenzung abhängig sind.

Messung der Unternehmenskonzentration Mehrere statistische Konzentrationsmaße können für die Messung der horizontalen Unternehmenskonzentration verwendet werden (als Überblick Monopolkommission, XIII. Hauptgutachten, 1998/1999, Anlagenband, S. 4 ff.). • Die Konzentrationsrate (concentration rate) CR berechnet sich aus den kumulierten Marktanteilen der drei (CR3), sechs (CR6) oder acht (CR8) größten Unternehmen auf einem Markt. CR6 = 80 v.H. bedeutet, dass die sechs marktanteilsstärksten Unternehmen insgesamt einen Marktanteil von 80 v.H. haben. • Bei dem Herfindahl-Hirschman-Index (HHI) handelt es sich um ein absolutes Konzentrationsmaß, bei dem die quadrierten Marktanteile aller Unternehmen summiert und mit 10000 multipliziert werden: n

HHI = ∑ m1210000 (m : Marktanteil des Unternehmens i; i = 1, ... n) i=1

i

Bei einem Monopol erreicht der HHI sein Maximum mit HHI = 10000. Der Herfindahl-Hirschman-Index wird in der US-Antitrustpolitik und der europäischen Wettbewerbspolitik verwendet. Nach den US-amerikanischen „Merger Guidelines“ gilt ein Markt bei einem HHI < 1500 als „niedrig konzentriert“, bei 1500 ≤ HHI ≤ 2500 als „mäßig konzentriert“ und bei Werten von HHI > 2500 als „hoch konzentriert“. • Zur Messung der relativen Ungleichverteilung zwischen den Marktanteilen können zusätzlich relative Konzentrationsmaße wie die Disparitätsrate, der Variationskoeffizient oder der Gini-Koeffizient berechnet werden. In Deutschland erstellt die Monopolkommission alle zwei Jahre ein Hauptgutachten, in dem sie die Entwicklung der Unternehmenskonzentration in Deutschland beurteilt und zu aktuellen wettbewerbspolitischen Fragen Stellung nimmt. In diesem Rahmen werden von ihr umfangreiche Statistiken über die Unternehmenskonzentration in den einzelnen Wirtschaftsbranchen erstellt. Die Tabelle 13.3 gibt einen Eindruck von der unterschiedlichen Unternehmenskonzentration in ausgewählten deutschen Wirtschaftszweigen. Die Entwicklung der Unternehmenskonzentration kann zurückgeführt werden auf • unterschiedliches internes Marktanteilswachstum, das entweder durch Leistungsunterschiede oder durch Behinderungen verursacht wird, • Markteintritte und Marktaustritte von Unternehmen und

13 Wettbewerbspolitik

155

Tab. 13.3  Unternehmenskonzentration in ausgewählten Wirtschaftszweigen [Quelle: Monopolkommission, XIX. Hauptgutachten, 2010/2011, Anlage A, Tabelle A.1, S. 4 ff. (Berichtsjahr: 2009)]

Konzentra­tionsmaß

Wirtschaftszweig Büromaschinen (ohne EDV) Kraftwagen und Kraftwagenmotoren Speiseeis Textilien

Anzahl der Anbieter

Konzentrationsraten

HerfindahlIndex

CR3

CR6

CR10

19

64,50

74,12

81,38

2988,22

405

69,78

94,22

98,27

1899,32

237 5377

85,10 10,01

93,90 16,82

95,69 21,82

2775,83 74,59

• externes Unternehmenswachstum durch Zusammenschlüsse. Zusammenschlüsse von Unternehmen sind folglich nur eine Ursache für eine steigende horizontale Konzentration. Externes Wachstum gilt aber als eine besonders problematische Form der Erhöhung der Konzentration, da hierbei der Wettbewerb zwischen den sich zusammenschließenden Unternehmen beseitigt wird. Mit der Fusionskontrolle besteht eine direkte wettbewerbspolitische Möglichkeit, auf die Konzentrationsentwicklung Einfluss zu nehmen. Dagegen sind Konzentrationsveränderungen durch internes Wachstum oder Marktein- und -austritte nur schwer indirekt über die allgemeinen wirtschaftspolitischen Rahmenbedingungen zu beeinflussen (etwa durch Förderung von Existenzgründungen oder durch Beseitigung steuerrechtlicher Vorteile von Großunternehmen).

13.5.2 Wettbewerbspolitische Beurteilung horizontaler Zusammenschlüsse Alle Wettbewerbskonzeptionen sehen in der steigenden Unternehmenskonzentration die Gefahr, dass einzelne Unternehmen oder ein Oligopol eine marktmächtige Stellung mit gesamtwirtschaftlich negativen Konsequenzen erlangen können. In der Wettbewerbspolitik spricht man von Marktbeherrschung, wenn die Unternehmen über einen vom Wettbewerb nicht mehr ausreichend kontrollierten Verhaltens- bzw. Preisspielraum verfügen (Abb. 13.1). Wie in Abschnitt 13.2 dargestellt, können durch eine solche Marktmacht zu hohe Preise entstehen, allokative Ineffizienzen (dead weight losses) und X-Ineffizienzen auftreten und es kann der Innovationswettbewerb beeinträchtigt werden. Sieht man wie die gegenwärtige Wettbewerbsökonomie in der Konsumentenwohlfahrt das zentrale Ziel der Wettbewerbspolitik, dann können Unternehmenszusammenschlüsse sich vor allem durch höhere Preise und durch weniger Innovationen negativ auf die Konsumenten auswirken.

156

Wolfgang Kerber

Preiswirkungen Es liegt nahe, die Unternehmenskonzentration, insbesondere die Höhe der Marktanteile der fusionierenden Unternehmen, als zentrales Kriterium für die Frage der Entstehung von Marktmacht durch horizontale Zusammenschlüsse heranzuziehen. Das Problem besteht jedoch darin, dass es der empirischen Industrieökonomik nicht gelungen ist, in befriedigender Weise zu zeigen, ab welchem Grad der Unternehmenskonzentration eine solche wettbewerbsbeschränkende Marktmacht mit der Folge steigender Preise auftritt (Schmalensee, 1989; Abschnitt 13.2.2). Insofern sind differenziertere Beurteilungskriterien erforderlich. So kann die theoretischen Industrieökonomik (Motta, 2004, S. 231 ff.; Belleflamme/Peitz, 2015, S. 389 ff.) zeigen, dass bei einem Cournot-Mengenwettbewerb eine steigende Konzentration zu einer Erhöhung des Preis-Kosten-Verhältnisses (Lerner-Index als Maß für die Marktmacht) führt; dagegen hat ein Zusammenschluss bei Bertrand-Preiswettbewerb mit homogenen Gütern keine steigenden Preise zur Folge. Liegen dagegen Märkte mit differenzierten (heterogenen) Gütern vor, dann werden sowohl beim Bertrand-Preiswettbewerb als auch beim Cournot-Mengenwettbewerb die Preise auf dem Markt steigen – allerdings in unterschiedlichem Umfang und abhängig vom Ausmaß der Substituierbarkeit zwischen den differenzierten Gütern. Hierbei handelt es sich um die sog. „nichtkoordinierten Wirkungen“ (oder „unilateralen Effekte“) von Unternehmenszusammenschlüssen, bei denen es zu keiner Kollusion zwischen den Unternehmen kommt. Kann es zwischen den Oligopolisten aber auch zu einer erfolgreichen koordinierten Verhaltensabstimmung kommen, dann können Unternehmensfusionen auch zu höheren Preisen durch „koordinierte Effekte“ führen, d.h. dass nach der Fusion durch ex- oder implizite Vereinbarungen höhere Preise durchgesetzt werden können oder dass eine solche Preiskollusion durch den Zusammenschluss stabiler wird. Nichtkoordinierte Wirkungen: Im Mittelpunkt steht dabei vor allem die Frage, ob die fusionierenden Unternehmen fähig sind, den Marktpreis zu erhöhen, entweder durch die Entstehung oder Verstärkung der marktbeherrschenden Stellung eines einzelnen Unternehmens (dominant firm) oder durch nichtkoordinierte Wirkungen in oligopolistischen Marktstrukturen. Im Folgenden finden sich einige zentrale Kriterien für die Beurteilung dieser nichtkoordinierten Wirkungen von horizontalen Zusammenschlüssen: • M arktanteile bzw. Unternehmenskonzentration: Trotz gravierender Einwände sind diese immer noch die wichtigsten ersten Beurteilungskriterien bei einer Fusion. Relativ geringe Marktanteile (etwa unter 30 v.H.) sowie eine niedrige Unternehmenskonzentration (etwa HHI < 1000) werden ebenso wie nur geringe Erhöhungen dieser Maße durch die Fusionen nicht zu spürbaren Wirkungen auf die Marktpreise führen und sind deshalb unproblematisch. • Preis- oder Mengenwettbewerb bzw. Heterogenität des Marktes: Bei höheren Marktanteilen ist die Größe möglicher Preiswirkungen abhängig von der Art des Wettbewerbs (Mengen- oder Preiswettbewerb) sowie der Homogenität oder Differenziertheit der Güter, d.h. wie einfach die Nachfrager zwischen den Gütern wechseln können (Substituierbarkeit, Wechselkosten, freie Kapazitäten). Zur Feststellung solcher Preis- und

13 Wettbewerbspolitik









157

Mengenwirkungen von Zusammenschlüssen werden inzwischen auch Simulationsmodelle verwendet (merger simulation). Stärke der aktuellen Wettbewerber: Handelt es sich bei den Mitwettbewerbern eher um kleine mittelständische Unternehmen mit geringer Finanzkraft und technologischem Know-how, werden sie weniger in der Lage sein, den Verhaltensspielraum eines möglicherweise marktbeherrschenden Unternehmens einzuschränken als wenn es ähnlich große Mitwettbewerber gibt. Potenzieller Wettbewerb: Die Diskussion um die Wirksamkeit des potenziellen Wettbewerbs in Abschnitt 13.2.3 zeigt, dass bei niedrigen Marktzutrittsschranken etablierte Anbieter mit sehr hohen Marktanteilen nur geringe Möglichkeiten haben, diese Marktposition über höhere Preise auszunutzen. Nachfragemacht: Der Verhaltensspielraum eines Anbieters kann auch durch große Nachfrager (wie etwa Automobilhersteller oder Handelskonzerne) eingeschränkt werden, weil diese mit ihren hohen Einkaufsvolumina über eine erhebliche Verhandlungsmacht auch gegenüber großen Anbietern verfügen können. Weitere Kriterien können die Marktphase sein, der Umfang von Innovationsaktivitäten, die Finanzmacht oder die Frage, wie sich die Fusion auf den Zugang anderer Unternehmen zu Absatz- und Beschaffungsmärkten auswirkt.

Koordinierte Wirkungen (marktbeherrschendes Oligopol): Ein horizontaler Zusammenschluss kann die Wahrscheinlichkeit erhöhen, dass Oligopolisten durch eine Verhaltenskoordination den Wettbewerb beschränken und Preise erhöhen können. Erforderlich ist hierzu allerdings die Einigung auf eine Koordination, deren ausreichende Überwachung und eine glaubwürdige Abschreckung bei abweichendem Verhalten einzelner Oligopolisten. Als konkrete Beurteilungskriterien kann auf die Kriterien für die Stabilität von Kartellen zurückgegriffen werden (Abschnitt 13.4.1): Anzahl und Symmetrie der Anbieter, Markttransparenz, Marktzutrittsschranken, Nachfragemacht, Preiselastizität, Überkapazitäten, Konjunkturschwankungen, Innovationsaktivitäten und Verflechtungen zwischen den Oligopolisten. Wichtige Indizien liefert auch eine Analyse des Verhaltens der Oligopolisten in der Vergangenheit. Als Ergebnis der wettbewerbspolitischen Diskussion um die Beurteilungskriterien für horizontale Zusammenschlüsse im Hinblick auf die Entstehung von Marktmacht hat sich folglich ein sehr differenzierter Katalog von Kriterien und Untersuchungsmethoden herausgebildet (vgl. auch Abbildung 13.4 in Abschnitt 13.5.3 für die in der europäischen Fusionskontrollpraxis angewendeten Kriterien).

Effizienzwirkungen Horizontale Zusammenschlüsse können auch eine Möglichkeit sein, wie Unternehmen ihre optimale Unternehmensgröße im Sinne einer Ausnutzung aller Größen- und anderer Effizienzvorteile realisieren können. In der Industrieökonomik gibt es eine Fülle von empirischen Studien über den Umfang von Größenvorteilen in verschiedenen

158

Wolfgang Kerber

Wirtschaftszweigen (Scherer/ Ross, 1990, S. 77). Folgende Effizienzvorteile können bei horizontalen Zusammenschlüssen auftreten (als Überblick: Schwalbe, 2005): • Fixkostendegression: Mit wachsender Ausbringungsmenge sinken die fixen Kosten pro Stück, so dass die Durchschnittskostenkurve einen fallenden Verlauf annimmt. • Skalen- und Verbundvorteile (economies of scale and scope): Steigt bei einer Erhöhung der Faktoreinsatzmengen die produzierte Menge überproportional (Skalenelastizität ε > 1), ergibt sich ein fallender Verlauf der variablen Durchschnittskosten. Bei Verbundvorteilen kann durch die gleichzeitige Herstellung mehrerer Produkte niedrigere Produktionskosten erreicht werden (Subadditivität). • Effizienzvorteile können auch durch einen gemeinsamen Einkauf (niedrigere Beschaffungspreise), eine gemeinsame FuE-Abteilung, einen gemeinsamen Vertrieb etc. verwirklicht werden (Synergievorteile). • Besseres Management: Effizienzgewinne können bei dem Aufkauf eines Unternehmens auch dadurch entstehen, dass das bisherige Management durch ein besseres ersetzt wird (Verringerung von X-Ineffizienz). In diesem Fall spricht man von einer Kontrolle des Managements durch den Kapitalmarkt. Allerdings ist es umstritten, inwieweit solche Effizienzargumente bei der Beurteilung von horizontalen Zusammenschlüssen Berücksichtigung finden sollen, insbesondere ob auch die Entstehung marktbeherrschender Unternehmen zugelassen werden kann, falls nur so diese Effizienzvorteile realisiert werden können. In der US-amerikanischen Fusionskontrolle gibt es die Möglichkeit einer solchen „efficiency defense“. Benutzt man wie die Chicago School als ausschließliches normatives Kriterium den Gesamtwohlfahrtstandard (total welfare standard), so sind die gesamtwirtschaftlichen Effizienzvorteile einer Fusion mit den allokativen Ineffizienzen durch eine Erhöhung der Marktmacht abzuwägen – wie dies die Trade-off-Analyse von Williamson nahe legt (Williamson, 1968; Abschnitt 13.2.3). Die durch die Marktmacht bewirkten Umverteilungen von den Konsumenten zu den Produzenten werden dabei nicht berücksichtigt (siehe Abb. 13.1). Auch bei dem alternativen Konsumentenwohlfahrtstandard (consumer welfare standard), der etwa in der europäischen Wettbewerbspolitik angewendet wird, können solche Effizienzvorteile berücksichtigt werden. Hier allerdings müssen die Effizienzvorteile so umfangreich sein, dass die Unternehmen trotz erhöhter Marktmacht einen Preis setzen, der nicht höher als vor der Fusion ist. Das entscheidende und relativ einfache Beurteilungskriterium ist dann, ob insgesamt durch die Fusion der Marktpreis steigt oder nicht. Bei dem Konsumentenwohlfahrtstandard müssen deshalb wesentlich höhere Effizienzvorteile vorliegen, damit eine Fusion gerechtfertigt werden kann, die zu einer marktbeherrschenden Stellung führt, als bei dem Gesamtwohlfahrtstandard. In der Wettbewerbspolitik hat man deshalb auch von einem möglichen Dilemma zwischen Wettbewerb einerseits und dem Ausnützen von Größenvorteilen andererseits gesprochen. Faktisch existiert dieses Problem jedoch in einem wesentlich geringeren Umfang, da auch erhebliche „diseconomies of scale“ und steigende X-Ineffizienz beobachtet werden

13 Wettbewerbspolitik

159

können, d.h. dass mit wachsender Unternehmensgröße aufgrund von Bürokratisierung oder durch einen geringeren Wettbewerbsdruck die Kosten wieder ansteigen. Weiterhin hat die Erfahrung bei vielen Zusammenschlüssen gezeigt, dass sich die behaupteten Effizienzvorteile (Synergieeffekte) nach dem Zusammenschluss oft nicht haben realisieren lassen. Die empirischen Studien zu Fusionen kommen trotz unterschiedlicher Detailergebnisse übereinstimmend zu dem Schluss, dass ein großer Teil der Zusammenschlüsse sich als Fehlschläge erwiesen haben. Die Wahrscheinlichkeit eines Scheiterns steigt dabei mit der Größe der Fusion an, bei Megafusionen bis auf 70 v.H. (Mueller, 1996). Für die Einbeziehung von Effizienzvorteilen bei der Beurteilung von Fusionen genügt folglich nicht die Behauptung der Existenz solcher Vorteile, vielmehr sollten diese auch konkret nachgewiesen werden. Dies stößt allerdings in der Praxis auf erhebliche Schwierigkeiten. Insofern ist die Zurückhaltung, die Entstehung von marktbeherrschenden Unternehmen zuzulassen, um dafür (oft schwer verifizierbare) Effizienzvorteile zu realisieren, gerechtfertigt.

Innovationswirkungen Jenseits der Wirkungen von horizontalen Zusammenschlüssen in Bezug auf Preise und Effizienz ist auch nach deren Wirkungen auf Innovationen und technischem Fortschritt zu fragen. In der Innovationsökonomik sind die Hypothesen eines positiven Zusammenhangs zwischen der Unternehmensgröße bzw. der Unternehmenskonzentration einerseits und dem Ausmaß von Innovationsaktivitäten andererseits untersucht worden („NeoSchumpeter-Hypothesen“). So wurde diskutiert, ob sehr große Unternehmen oder gar monopolistische Unternehmen besonders innovativ sind, weil sie bspw. über steigende Skalen- oder Verbundvorteile in der Forschung, mehr finanzielle Ressourcen oder höhere Innovationsanreize durch ihre Marktmacht verfügen. Dies hätte wettbewerbspolitisch zu dem Dilemma führen können, d.h. dass man bewusst Fusionen aufgrund ihrer positiven Wirkungen auf Innovationen zulassen sollte, auch wenn durch sie marktbeherrschende Unternehmen entstehen. Solche Argumente sind auch immer wieder im Rahmen industriepolitischer Erwägungen vorgebracht, um die Entstehung von Großunternehmen im Hinblick auf die Verbesserung ihrer internationalen Wettbewerbsfähigkeit zu fördern. Empirische Untersuchungen haben jedoch klar gezeigt, dass diese Hypothesen nicht haltbar sind. Weder sind große Unternehmen oder stärker konzentrierte Branchen innovativer noch kann ein innovationsoptimaler Konzentrationsgrad oder eine innovationsoptimale Unternehmensgröße festgestellt werden. In Bezug auf die Unternehmenskonzentration wird am meisten die umgekehrte U-These diskutiert, d.h. dass weder eine sehr hohe noch eine sehr geringe Konzentration für Innovation förderlich sind (Scherer/Ross, 1990, S.644; Aghion u.a., 2005). Tatsächlich sind die Ursachen für Innovationsaktivitäten sehr vielfältig, so dass je nach Branche und Technologie kleine, mittlere oder große Unternehmen als besonders innovativ anzusehen sind. Gleiches gilt für den Zusammenhang zwischen Unternehmenskonzentration und Innovation. Empirische Untersuchungen bestätigen gerade auch die Bedeutung von kleinen und mittleren Unternehmen für die Entwicklung von Innovationen (Scherer/ Ross, 1990, S. 612 ff.; Audretsch, 2004).

160

Wolfgang Kerber

Welche Erkenntnisse hat die Wettbewerbsökonomie über die Innovationswirkungen von Fusionen? (Überblick: Gilbert, 2006; Katz/Shelanski, 2007) Aus theoretischer Sicht können prinzipiell ähnliche Wirkungen eintreten, wie sie auch für FuE-Kooperationen diskutiert werden. Unternehmenszusammenschlüsse können positive Innovationswirkungen haben, wenn durch sie Innovationsanreize durch Internalisierung von Wissens-Spillovers erhöht werden, Kostenduplizierungen bei Forschung vermieden werden, Skalen- und Verbundvorteile in der Forschung genutzt und Risiken bei FuE-Projekten diversifiziert werden sowie komplementäres Wissen und Ressourcen zusammengebracht werden. Umgekehrt aber konnte die industrieökonomische Forschung auch zeigen, dass Fusionen sich auch negativ auf Innovationen auswirken können. So haben etablierte marktmächtige Unternehmen geringere Anreize für Innovationen, da neue Produkte die Gewinne ihrer bisherigen Produkte vermindern (replacement effect). Gleichermaßen führt ein durch die Fusion entstehender verminderter Wettbewerbsdruck zu geringeren Innovationsanreizen und zu langsameren Innovationsaktivitäten. Etablierte Unternehmen können durch Aufkauf neuer, innovativer Firmen auch den Wettbewerb durch neue Innovatoren direkt eliminieren. Aus einem dynamisch-evolutorischen Wettbewerbsverständnis könnte der Wettbewerb als ein Wissen generierender Prozess parallelen Experimentierens beeinträchtigt werden (Abschnitt 13.2.4), da Fusionen zu einer Verminderung der Anzahl und Vielfalt paralleler FuE-Projekte führen können (bspw. beim Zusammenschluss von Pharmaunternehmen). Aus empirischer Sicht ist festzustellen, dass aus der oben erwähnten empirischen Forschung über den Zusammenhang zwischen Unternehmenskonzentration und Innovation wenig für die Frage der Wirkung von Fusionen auf Innovationen gefolgert werden kann. Dagegen gibt es aber direkte empirische Untersuchungen über die Innovationswirkungen von Unternehmenszusammenschlüssen, die zu dem erstaunlich eindeutigen Ergebnis kommen, dass Fusionen sich oft negativ auf die Innovationsaktivitäten der fusionierenden Unternehmen auswirken (teilweise auch aufgrund finanziell engerer Spielräume nach teuren Unternehmensübernahmen; als Übersicht: De Man/Duysters, 2005). Obwohl ein breiter Konsens über die Bedeutung von Innovationswirkungen von Unternehmenszusammenschlüssen besteht, gibt es bisher noch große Unsicherheiten, wie solche Wirkungen festgestellt und beurteilt werden sollten. Ein spezifisches Problem besteht darin, dass die relevanten Wettbewerber im Innovationswettbewerb nicht identisch sein müssen mit den etablierten Anbietern auf den gegenwärtigen Produktmärkten. Insofern ist in den USA das Konzept von Innovationsmärkten entwickelt worden (Gilbert/Sunshine, 1995), mit dem die relevanten Innovationswettbewerber und eventuelle Beschränkungen des Innovationswettbewerb identifiziert werden sollen. Allerdings wird dieses Konzept auch sehr kritisch diskutiert (Katz/Shelanski, 2007, S. 41 ff.). Insgesamt besteht bzgl. der Untersuchung der Innovationswirkungen von Unternehmensfusionen noch ein erheblicher Forschungsbedarf.

13 Wettbewerbspolitik

161

13.5.3 Wettbewerbsrechtliche Regelungen: Fusionskontrolle Auch wenn die Wirkungen von horizontalen Zusammenschlüssen im Einzelnen umstritten sind, besteht ein breiter Konsens über die Notwendigkeit einer Fusionskontrolle. Ihre Grundidee besteht vor allem darin, die Unternehmen daran zu hindern, durch externes Wachstum den wirksamen Wettbewerb wesentlich zu beeinträchtigen, und damit durch Aufrechterhaltung wettbewerblicher Marktstrukturen einer Vermachtung der Märkte vorzubeugen. Eine solche Präventionsstrategie hat damit Vorrang gegenüber einer Verhaltenskontrolle marktmächtiger Unternehmen, wie sie das Missbrauchsverbot für marktbeherrschende Unternehmen darstellt (Abschnitt 13.7).

Europäische Fusionskontrolle Im Zusammenhang mit der Verwirklichung des europäischen Binnenmarktes wurde 1989 eine europäische Fusionskontrolle eingeführt (als Überblick: Gore u.a., 2013). Nach langen Auseinandersetzungen über die inhaltliche Ausrichtung der Genehmigungskriterien setzten sich letztlich die Befürworter einer strikten Wettbewerbsorientierung klar gegenüber denjenigen durch, die die Genehmigung von Fusionen auch von industriepolitischen Erwägungen abhängen lassen wollten. Seit der letzten Reform der Fusionskontrollverordnung (FKVO 139/2004) gilt als das entscheidende Beurteilungskriterium, ob durch den Zusammenschluss wirksamer Wettbewerb wesentlich behindert wird, insbesondere durch die Entstehung oder Verstärkung einer marktbeherrschenden Stellung (Art. 2 Abs. 2 FKVO). Ein Zusammenschluss unterliegt der europäischen Fusionskontrolle, wenn • der weltweite Gesamtumsatz der beteiligten Unternehmen 5 Mrd. Euro überschreitet, • der gemeinschaftsweite Gesamtumsatz von mindestens zwei der beteiligten Unternehmen jeweils mehr als 250 Mio. Euro beträgt und • die am Zusammenschluss beteiligten Unternehmen nicht mehr als zwei Drittel ihres Umsatzes in einem Mitgliedstaat erzielen. Das Verfahren der Fusionskontrolle verläuft in zwei Phasen: Nach der Anmeldung findet innerhalb eines Monats eine erste Prüfungsphase statt, in der festgestellt wird, ob „ernsthafte Bedenken“ gegen eine Genehmigung der Fusion bestehen oder nicht. Ist dies – wie in ca. 90 v.H. der Fälle – nicht gegeben, wird die Fusion bereits nach einem Monat erlaubt. Bei ernsthaften Bedenken tritt man in eine weitere Prüfungsphase von vier Monaten ein. Anschließend wird die Fusion entweder untersagt oder genehmigt. Meist wird bei ernsthaften Wettbewerbsproblemen versucht, diese durch eine Abänderung des Fusionsvorhabens zu lösen, indem zum Beispiel Unternehmensteile verkauft und damit Marktanteilsadditionen verhindert werden (Genehmigung mit Auflagen). In Abbildung 13.4 findet sich ein systematischer Überblick, wie in der europäischen Fusionskontrolle unter Einbeziehung der Leitlinien zur Bewertung horizontaler Zusammenschlüsse (Europäische Kommission, 2004) bei der konkreten Prüfung eines

162

Abb. 13.4  Beurteilungskriterien in der europäischen Fusionskontrolle

Wolfgang Kerber

13 Wettbewerbspolitik

163

Fusionsvorhabens vorgegangen wird und welche Kriterien hierbei verwendet werden. Bei der letzten Reform der Fusionskontrollverordnung wurde der bisherige Marktbeherrschungstest, d.h. ob eine Fusion zur Begründung oder Verstärkung einer marktbeherrschenden Stellung führt, zu dem sogenannten SIEC-Test („significant impediment to effective competition“) weiterentwickelt, der zusätzlich die Möglichkeit eröffnet, dass eine Fusion in einem oligopolistischen Markt aufgrund von nichtkoordinierten Wirkungen (in Form von höheren Preisen) untersagt werden kann, auch wenn es zu keinem marktbeherrschenden Oligopol kommt. Darüber hinaus wurde – wie bei der US-Fusionskontrolle – die Möglichkeit der Einbeziehung von Effizienzvorteilen eingeführt, aber nur insoweit als dadurch Vorteile für die Verbraucher entstehen (Konsumentenwohlfahrtstandard).

Fusionskontrolle nach dem deutschen GWB Seit ihrer Einführung 1973 ist die deutsche Fusionskontrolle mehrfach weiterentwickelt worden. Ihre Zuständigkeit ist durch Umsatzschwellenwerte geregelt (weltweiter Gesamtumsatz von mindestens 500 Mio. Euro). Fällt jedoch ein Zusammenschluss unter die europäische Fusionskontrolle, ist das deutsche Wettbewerbsrecht nicht mehr zuständig (Prinzip des „one stop shopping“). Das Verfahren ist dem der europäischen Fusionskontrolle angepasst worden und besteht ebenfalls aus zwei Prüfungsphasen mit einer Frist von einem bzw. vier Monaten. Inhaltlich orientiert sich die vom Bundeskartellamt durchgeführte Fusionskontrolle ausschließlich an wettbewerblichen Kriterien. Wie in der europäischen Zusammenschlusskontrolle, so hat auch das Bundeskartellamt einen Zusammenschluss zu untersagen, wenn durch ihn wirksamer Wettbewerb erheblich behindert würde, insbesondere durch die Begründung oder Verstärkung einer marktbeherrschenden Stellung. Eine kleine Modifikation besteht darin, dass dies nicht gilt, wenn die beteiligten Unternehmen nachweisen, dass durch den Zusammenschluss auch Verbesserungen der Wettbewerbsbedingungen (etwa auf anderen Märkten) eintreten und dass diese Verbesserungen die Nachteile der Marktbeherrschung überwiegen. Konkret geht das Bundeskartellamt aber ähnlich vor wie die Kommission bei der europäischen Fusionskontrolle, auch wenn die Kriterien und die konkret angelegten Maßstäbe im Detail etwas voneinander abweichen mögen. Insgesamt ist das Bundeskartellamt mit seiner Fusionskontrollpraxis für eine strengere Prüfung als die europäische Fusionskontrolle bekannt. Eine aus ordnungspolitischer Sicht sehr problematische Besonderheit der deutschen Fusionskontrolle besteht in der Möglichkeit der Genehmigung einer vom Bundeskartellamt untersagten Fusion durch den Bundeswirtschaftsminister (Ministererlaubnis). Dies ist möglich, wenn im Einzelfall die Wettbewerbsbeschränkung von gesamtwirtschaftlichen Vorteilen des Zusammenschlusses aufgewogen wird oder der Zusammenschluss durch ein überragendes Interesse der Allgemeinheit gerechtfertigt ist (§ 42 GWB). Da somit die Nachteile des Wettbewerbs gegenüber beliebigen anderen gesamtwirtschaftlichen Vorteilen abgewogen werden können, ist durch diese Ministererlaubnis das Prinzip der strikten Wettbewerbsorientierung der deutschen Fusionskontrolle durchbrochen.

164

Wolfgang Kerber

Diese Ausnahmemöglichkeit, die es in der europäischen Fusionskontrolle nicht gibt, führt immer wieder zu wettbewerbspolitisch problematischen Entscheidungen.

13.6

Vertikale Zusammenschlüsse und vertikale Vereinbarungen

Vertikale Zusammenschlüsse Ein vertikaler Zusammenschluss liegt vor, wenn zum Beispiel ein Konsumgüterhersteller ein Unternehmen auf der vorgelagerten Wirtschaftsstufe (wie etwa einen Zulieferer) oder der nachgelagerten Wirtschaftsstufe (wie zum Beispiel ein Handelsunternehmen) aufkauft, so dass die Leistungen beider Wirtschaftsstufen innerhalb eines Unternehmens erbracht werden (vertikale Integration). Insofern ist das Ausmaß der vertikalen Konzentration auch ein Ergebnis von Make-or-buy-Entscheidungen, d.h. welche Leistungen ein Unternehmen selbst erstellen und welche es zukaufen möchte. Vertikale Zusammenschlüsse können mit folgenden Effizienzvorteilen verbunden sein: • Senkung von Transaktionskosten: Hat zum Beispiel ein Zulieferer eine hochspezifische Investition für einen bestimmten Abnehmer getätigt, so entsteht eine einseitige Abhängigkeit des Zulieferers, die der Abnehmer zu Preissenkungen und damit zum „Raub“ der Quasirente des Zulieferers nutzen kann. Williamson (1985) zeigt in seinem Governance-Ansatz, dass die vertikale Integration eine transaktionskostensenkende institutionelle Lösung für dieses Hold-up-Problem sein kann (Abschnitt 13.2.3.). • Vermeidung der doppelten Marginalisierung: Bestehen auf zwei aufeinander folgenden Wirtschaftsstufen jeweils marktmächtige Unternehmen, so führt die zweimalige monopolistische oder oligopolistische Preisbildung („double marginalisation“) zu einer besonders ineffizienten Preis-Mengen-Kombination. Eine vertikale Integration zu einem marktmächtigen Unternehmen erhöht gleichzeitig die Gewinne der Unternehmen, senkt den Preis für die Konsumenten und reduziert die allokativen Ineffizienz. • Optimierung der Gesamtleistung: Ein vertikaler Zusammenschluss kann generell durch eine bessere Abstimmung der komplementären Leistungen auf aufeinander folgenden Wirtschaftsstufen zu einer Optimierung der den Verbrauchern angebotenen Gesamtleistung bzw. zu einem effizienteren Ressourceneinsatz führen (Verbundvorteile, Vermeidung von vertikalen Externalitäten). Von vertikalen Zusammenschlüssen können aber auch wettbewerbsbeschränkende Wirkungen ausgehen: • Übertragung von Marktmacht (leverage effect): Eine Möglichkeit besteht darin, dass ein Unternehmen seine marktmächtige Position durch eine vertikale Integration auf vor- oder nachgelagerte Wirtschaftsstufen überträgt (leverage effect). Kauft zum Beispiel ein marktbeherrschender Hersteller ein Handelsunternehmen auf und beliefert es zu niedrigeren Preisen (oder anderen Vorzugsbedingungen) als andere

13 Wettbewerbspolitik

165

Handelsunternehmen, so kann es dem eigenen Handelsunternehmen einen Wettbewerbsvorsprung verschaffen, der zum Aufbau einer marktbeherrschenden Stellung auf der Handelsebene führen kann so dass das vertikal integrierte Unternehmen danach auf beiden Wirtschaftsstufen Marktmacht besitzt. • Marktausschließung (foreclosure effects): Weiterhin kann ein solches marktbeherrschendes vertikal integriertes Unternehmen den Zugang von nicht integrierten Konkurrenten zu Absatz- und Beschaffungsmärkten behindern, indem es zum Beispiel auf der Handelsstufe die Produkte anderer konkurrierender Hersteller nicht (oder zu schlechteren Konditionen) in das Sortiment aufnimmt und damit deren Zugang zu den Absatzmärkten erschwert oder sogar verhindert („raising rivals‘ costs“). • Bei weiter Verbreitung von vertikaler Integration in einer Branche können sich die Marktzutrittsschranken erhöhen, weil ein neu eintretendes Unternehmen eventuell auf beiden Stufen gleichzeitig eintreten muss. Während die Möglichkeit solcher Effizienzvorteile vertikaler Zusammenschlüsse inzwischen breit akzeptiert wird, hat die Chicago School die Existenz dieser wettbewerbsbeschränkenden Wirkungen von vertikalen Fusionen bestritten und für eine weitgehende Freigabe vertikaler Zusammenschlüsse plädiert. Zum Beispiel argumentiert sie, dass sich eine Übertragung von Marktmacht auf eine weitere Stufe für ein marktbeherrschendes Unternehmen nicht lohnt, weil es auch so bereits den maximalen Gewinn erreichen kann. Im Rahmen der neueren spieltheoretischen Forschung der Post-Chicago-Economics konnte aber gezeigt werden, dass unter bestimmten Bedingungen sowohl die Marktmachtübertragung als auch solche Marktausschließungsstrategien gewinnerhöhend sein können. Insofern können vertikale Zusammenschlüsse auch zu wettbewerbsbeschränkenden Wirkungen führen. Allerdings sind solche Wirkungen nur bei erheblicher Marktmacht und unter relativ engen Voraussetzungen möglich, die im Einzelnen zu prüfen sind (Riordan/Salop, 1995). Insgesamt besteht aber ein breiter Konsens, dass vertikale Zusammenschlüsse wesentlich geringere Gefahren für den Wettbewerb bergen als horizontale Zusammenschlüsse (Scherer/Ross, 1990, S. 522 ff.; Carlton/Perloff, 2005, S. 377 ff.). In der Praxis der deutschen und europäischen Fusionskontrolle werden vertikale Zusammenschlüsse darauf abgeprüft, ob durch sie der Zugang zu den Absatz- oder Beschaffungsmärkten für konkurrierende Unternehmen eingeschränkt wird. Voraussetzung ist jedoch der Nachweis einer marktbeherrschenden Stellung der beteiligten Unternehmen auf mindestens einer der beiden Wirtschaftsstufen. Ist dies der Fall, kann der Zusammenschluss untersagt oder mit der Auflage genehmigt werden, dass die Konkurrenten beim Absatz oder der Beschaffung nicht diskriminiert werden dürfen.

Vertikale Vereinbarungen Die vielfältigen Formen vertikaler Vereinbarungen, die es vor allem zwischen Produzenten und Händlern gibt, werfen komplexe wettbewerbspolitische Fragestellungen auf. Hierzu gehören zum Beispiel die vertikale Preisbindung, Franchise-Systeme, Alleinbezugs- und Alleinvertriebsvereinbarungen und selektive Vertriebssysteme (Kfz-Vertragshändler).

166

Wolfgang Kerber

Die theoretische Diskussion verläuft dabei mit ähnlichen Argumenten wie bei vertikalen Zusammenschlüssen (Motta, 2004, S. 302-378; Knieps, 2008, S. 151 ff.; Kerber/ Schwalbe, 2015, Rdnr. 444-500). Viele dieser vertikalen Vereinbarungen sind mit Effizienzvorteilen für die beteiligten Unternehmen verbunden. So kann der bei Alleinvertriebsverträgen von einem Hersteller einem Händler zugesicherte Gebietsschutz notwendig sein, damit dieser Händler einen ausreichenden Anreiz hat, in diesem Gebiet durch Werbung und Verkaufsanstrengungen (transaktionsspezifische Investitionen) einen Markt für die Produkte dieses Herstellers zu schaffen. Auch Franchise-Verträge können verstanden werden als effiziente institutionelle Lösungen für komplexe Distributionssysteme, in denen die umfassenden vertraglichen Bindungen der Franchise-Nehmer erforderlich sind, um die Funktionsfähigkeit des gesamten Franchise-Systems mit seiner Notwendigkeit eines einheitlichen Auftretens und gleich bleibend hoher Qualität gegenüber den Kunden zu sichern. Mit Hilfe der vertikalen Preisbindung kann auch versucht werden, Trittbrettfahrerprobleme (free-rider) zwischen Händlern zu lösen, die dadurch auftreten können, dass Kunden sich bei Händlern mit guter Beratung und relativ hohen Preisen kostenlos informieren, anschließend aber bei preisgünstigen Händlern ohne Beratungsangebot kaufen. Vertikale Vereinbarungen können aber auch zu ähnlichen Vorteilen wie die vertikale Integration führen, etwa um eine doppelte Marginalisierung zu verhindern (vertikale Preisbindung) oder eine bessere Optimierung der Gesamtleistung über die Wirtschaftsstufen zu erreichen. Solche vertikalen Verträge können aber auch wettbewerbsbeschränkende Wirkungen zur Folge haben. So führt eine vertikale Preisbindung (wie bei der deutschen Buchpreisbindung) zur Ausschaltung des Preiswettbewerbs auf der Handelsstufe, da den Händlern ihre Verkaufspreise an die Konsumenten von den Herstellern vorgeschrieben werden. Mit dieser Beschränkung des „Intrabrandwettbewerbs“ führt die vertikale Preisbindung zu einem ähnlichen Ergebnis wie ein Preiskartell auf der Handelsstufe. Weiterhin bedeutet eine zwischen einem Hersteller und einem Händler abgeschlossene Alleinvertriebsvereinbarung mit Gebietsschutz, dass der Händler auf der Handelsstufe ein regionales Monopol in Bezug auf den Verkauf der Produkte dieses Herstellers besitzt. Umstritten ist allerdings, inwieweit solche Beschränkungen des Händlerwettbewerbs durch einen funktionsfähigen „Interbrandwettbewerb“ zwischen den Herstellern ausreichend kompensiert werden können. Die Beschränkung des Preiswettbewerbs auf der Handelsstufe durch die vertikale Preisbindung kann auch wiederum eine Beschränkung des Preiswettbewerbs auf der Herstellerebene erleichtern, da hierdurch eine oligopolistische Verhaltenskoordination erleichtert wird. Im Übrigen können vertikale Vereinbarungen auch verwendet werden, um Marktmacht auf eine andere Wirtschaftsstufe zu übertragen bzw. Konkurrenten den Zugang zu Absatz- und Beschaffungsmärkten zu erschweren. Gleichzeitig ist aber unbestritten, dass die meisten vertikalen Vereinbarungen nur dann zu spürbaren wettbewerbsbeschränkenden Wirkungen führen können, wenn die Unternehmen über eine erhebliche Marktmacht verfügen. Insgesamt besteht in der wettbewerbspolitischen Diskussion inzwischen ein breiter Konsens, dass die überwiegende Mehrheit von vertikalen Vereinbarungen mit

13 Wettbewerbspolitik

167

Effizienzvorteilen verbunden sind, die mögliche wettbewerbsbeschränkende Wirkungen übertreffen. Die praktische Wettbewerbspolitik geht deshalb zu Recht differenziert vor. Im europäischen Wettbewerbsrecht findet Art. 101 AEUV (Kartellverbot mit Ausnahmen) auch auf vertikale Vereinbarungen Anwendung. Obwohl sie zunächst nach Art. 101 Abs. 1 AEUV generell verboten sind, können sie nach Art. 101 Abs. 3 AEUV praktiziert werden, wenn die in Abschnitt 4.2. angeführten vier Bedingungen für eine Freistellung erfüllt sind. Die vertikale Preisbindung und Regelungen, die zu einem absoluten Gebietsschutz führen und folglich geeignet sind, sich negativ auf den Binnenmarkt auszuwirken, sind allerdings aufgrund ihrer überwiegend negativen Wirkungen faktisch per-se verboten. Ansonsten werden vertikale Vereinbarungen in der europäischen Wettbewerbspolitik aber als vorwiegend effizienzerhöhend eingeschätzt, so dass sie in der Gruppenfreistellungsverordnung zu vertikalen Vereinbarungen (GVO 330/2010) als generell erlaubt angesehen werden, solange die Marktanteile der beteiligten Unternehmen 30 v.H. nicht überschreiten (safe-harbour Regel). In der GWB-Novelle von 2005 wurden die speziellen deutschen Regeln zu vertikalen Vereinbarungen abgeschafft, so dass im deutschen Wettbewerbsrecht mit Ausnahme der vertikalen Preisbindung für Bücher (Buchpreisbindungsgesetz) und Zeitschriften (Art. 30 GWB) inzwischen die gleichen Regeln wie im europäischen Wettbewerbsrecht gelten.

13.7

Missbrauchsverbot für marktbeherrschende Unternehmen

Grundidee des Missbrauchsverbots Hauptzweck der Fusionskontrolle ist es, das Entstehen marktbeherrschender Stellungen zu verhindern. Oftmals liegt jedoch das Problem vor, dass Unternehmen bereits über eine marktmächtige Position verfügen. Eine radikale Lösung bestünde in der Zerschlagung dieses Unternehmens (Entflechtung), wie dies etwa im US-amerikanischen Antitrustrecht möglich ist und dort – wenn auch sehr selten – praktiziert wird. In der deutschen und europäischen Wettbewerbspolitik hat man sich gegen diese Möglichkeit entschieden. Wenn eine marktbeherrschende Stellung – zum Beispiel durch internes Wachstum aufgrund besserer Leistung – entstanden ist, so wird dies akzeptiert. Allerdings werden diese marktbeherrschenden Unternehmen dann einem Missbrauchsverbot unterworfen. Ein marktmächtiges Unternehmen zeichnet sich dadurch aus, dass es im Vergleich zu Unternehmen in wettbewerblichen Märkten über einen zusätzlichen Verhaltensspielraum verfügt, der es ihm ermöglicht, sich in einem gewissen Umfang unabhängig von seinen Wettbewerbern und Nachfragern zu verhalten. Die Grundidee des Missbrauchsverbots besteht darin, dass das marktbeherrschende Unternehmen diesen vom Wettbewerb nicht ausreichend kontrollierten zusätzlichen Verhaltensspielraum nicht dazu missbrauchen darf, um seine Nachfrager durch zu hohe Preise zu schädigen (Ausbeutungsmissbrauch) oder seine Wettbewerber zu behindern (Behinderungsmissbrauch). Deshalb sollten marktbeherrschende Unternehmen zusätzliche Verhaltensregeln beachten, die letztlich darauf abzielen, dass sie sich so verhalten wie unter wirksamem Wettbewerb.

168

Wolfgang Kerber

Das Missbrauchsverbot für marktbeherrschende Unternehmen ist im deutschen GWB (§ 19) und im europäischen Wettbewerbsrecht (Art. 102 AEUV) in sehr ähnlicher Weise geregelt. In beiden Regelungen wird die missbräuchliche Ausnutzung einer marktbeherrschenden Stellung durch ein oder mehrere Unternehmen verboten, wobei jeweils beispielhaft bestimmte missbräuchliche Verhaltensweisen aufgezählt werden. Zunächst muss in einem ersten Schritt – ähnlich wie bei der Fusionskontrolle – festgestellt werden, ob das betreffende Unternehmen über eine marktbeherrschende Stellung verfügt. In einem zweiten Schritt ist dann zu prüfen, ob es sich bei diesem Verhalten um einen Missbrauch handelt.

Ausbeutungsmissbrauch Wenn ein marktbeherrschendes Unternehmen als Anbieter seinen vom Wettbewerb nicht ausreichend kontrollierten Verhaltensspielraum benutzt, um von den Nachfragern „überhöhte“ Preise oder andere „unangemessene“ Gegenleistungen zu fordern oder sie in sachlich nicht gerechtfertigter Weise durch die Forderung unterschiedlicher Preise zu diskriminieren, so kann ein Ausbeutungsmissbrauch vorliegen. In diesem Zusammenhang ist die Preismissbrauchskontrolle entwickelt worden, die von der – im Ordoliberalismus entwickelten – Auffassung ausgeht, dass es Aufgabe der Wettbewerbsbehörden sei, marktmächtige Unternehmen zu veranlassen, sich so zu verhalten, als ob sie unter Wettbewerb stünden. Folglich ist der hypothetische Preis zu bestimmen, der bei Wettbewerb vorliegen würde, und dieser ist mit dem faktisch auf dem Markt geforderten Preis zu vergleichen. Die Differenz kann dann als Preismissbrauch gekennzeichnet werden. Die praktischen Probleme liegen darin, dass solche hypothetischen Wettbewerbspreise aufgrund der Offenheit von Wettbewerbsprozessen sehr schwer bestimmbar sind (Hoppmann, 1988). Deshalb ist das Vergleichsmarktkonzept entwickelt worden, das von der Idee ausgeht, den eventuell missbräuchlichen Preis des marktbeherrschenden Unternehmens mit den Preisen auf vergleichbaren Märkten, auf denen aber ein funktionsfähiger Wettbewerb besteht, zu vergleichen. Hierbei kann es sich um einen sachlich, zeitlich oder räumlich vergleichbaren Markt handeln. Aber auch hierbei haben sich die praktischen Probleme als so schwierig erwiesen, dass die Wettbewerbsbehörden die Preismissbrauchskontrolle inzwischen nur sehr selten anwenden. An diesem Beispiel zeigt sich, dass eine Wettbewerbspolitik, die auf die nachträgliche Korrektur von Marktergebnissen statt auf die Sicherung der Bedingungen für wirksamen Wettbewerb setzt, erheblichen Problemen ausgesetzt ist. Behinderungsmissbrauch Von wesentlich größerer Bedeutung ist das Vorgehen der Wettbewerbsbehörden gegen Praktiken von marktbeherrschenden Unternehmen, mit denen andere Unternehmen – insbesondere direkte Konkurrenten aber auch Unternehmen auf vor- und nachgelagerten Wirtschaftsstufen – behindert und in ihrer Leistungsentfaltung beeinträchtigt werden. Hierbei kann es sich insbesondere auch um die Übertragung von Marktmacht von einer Wirtschaftsstufe auf einen vor- oder nachgelagerten Markt (leveraging effects) oder um Marktausschließungsverhalten (foreclosure effects) handeln (siehe auch Abschnitt 13.6).

13 Wettbewerbspolitik

169

Faktisch kann es dabei um eine Fülle unterschiedlicher Praktiken gehen, von denen hier nur einige exemplarisch vorgestellt werden: • Kampfpreisstrategie (predatory pricing): In der theoretischen Industrieökonomik ist umstritten, ob bzw. unter welchen Bedingungen das Setzen besonders niedriger (insbesondere unter den Kosten liegender) Preise ein missbräuchliches Verhalten gegenüber Konkurrenten sein kann (als Überblick: Knieps, 2008, S. 171 ff.). Unbestritten ist dabei, dass ein marktbeherrschendes und finanzstarkes Unternehmen kleinere Konkurrenten durch eine längerfristige Niedrigpreisstrategie aus dem Markt drängen kann. Allerdings ist fraglich, ob sich das marktbeherrschende Unternehmen durch eine solche Strategie nicht selbst schädigt, insbesondere weil es bei einer anschließenden Preiserhöhung wieder mit dem Eintritt von neuen Konkurrenten rechnen muss. In neueren Theorien des Predatory Pricing konnte allerdings gezeigt werden, dass es unter bestimmten Bedingungen rational für ein marktbeherrschendes Unternehmen sein kann, Kampfpreisstrategien gegen Mitwettbewerber einzusetzen (Reputationsund Signalisierungsmodelle). In der praktischen Wettbewerbspolitik hat sich als grobe Faustregel für eine missbräuchliche Kampfpreisunterbietung die Areeda/TurnerRegel durchgesetzt, nach der marktbeherrschende Unternehmen keine Preise unterhalb der kurzfristigen Grenzkosten setzen dürfen. Allerdings können auch höhere Preise zwischen den durchschnittlichen variablen Kosten und den durchschnittlichen Gesamtkosten unter bestimmten Umständen missbräuchlich sein. Sowohl im deutschen als auch im europäischen Wettbewerbsrecht wurden Fälle entschieden, in denen unter bestimmten Bedingungen solche Niedrigpreisstrategien als ein Behinderungsmissbrauch angesehen wurden. • Ausschließlichkeitsvereinbarungen: Ein marktbeherrschendes Unternehmen kann mit einem Nachfrager oder Lieferanten vereinbaren, nur bei ihm zu kaufen (Alleinbezugsvereinbarungen) oder nur an ihn zu liefern (Alleinvertriebsvereinbarungen). Dadurch können sowohl diese Nachfrager oder Lieferanten als auch die Konkurrenten des marktbeherrschenden Unternehmens behindert werden, da letzteren der Zugang zu Absatz- und Beschaffungsmärkten erschwert wird (Abschnitt 13.6). Allerdings ist umstritten, unter welchen genauen Bedingungen solche Ausschließlichkeitsbindungen missbräuchlich sind, weil mit ihnen auch erhebliche Effizienzvorteile verknüpft sein können. • Kopplungsbindungen: Nachfrager von marktbeherrschenden Unternehmen können verpflichtet werden, neben der Abnahme der gewünschten Waren auch weitere Produkte abzunehmen. Hierbei können unterschiedliche Arten von Bündelungen unterschieden werden: Bei einem „pure bundling“ werden die beiden Güter nur in einem bestimmten Verhältnis verkauft, während bei einem „tying“ sie auch in einem variablen Verhältnis verkauft werden können. Aus industrieökonomischer Sicht können durch solche Kopplungsbindungen sehr unterschiedliche Wirkungen entstehen. Zum Beispiel können marktbeherrschende Unternehmen von Verpackungsmaschinen ihre Nachfrager verpflichten, auch die für die Verpackung notwendigen Verpackungsmaterialien

170

Wolfgang Kerber

(zum Beispiel Karton) bei ihnen zu kaufen, obwohl diese Materialien anderweitig preisgünstiger zu beschaffen wären. Hierdurch könnte ein marktbeherrschender Verpackungsmaschinenhersteller die Preise für seine Kunden diskriminieren und damit seinen Gewinn erhöhen. Eine andere Möglichkeit wäre, dass durch Kopplungen ein Unternehmen seine marktbeherrschende Stellung bei Produkt A auf ein anderes (gekoppeltes) Produkt B überträgt (leverage effect) und damit den Wettbewerb auf dem Markt des Produktes B beschränkt. Allerdings ist zu bedenken, dass je nach Art der Kopplungen auch vielfältige positive Effizienzvorteile entstehen können, so dass eine differenzierte ökonomische Analyse der Wirkungen erforderlich erscheint. • Rabattsysteme: Viele Unternehmen verwenden bei ihrer Preisgestaltung ausdifferenzierte Rabattsysteme. Neben normalen Mengenrabatten für einzelne Produkte können Unternehmen insbesondere auch spezielle Gesamtumsatzrabatte oder Treuerabatte einräumen, durch die Abnehmer in besonderem Maße angereizt werden, einen möglichst großen Teil ihrer Gesamtnachfrage bei einem Unternehmen zu konzentrieren. Handelt es sich dabei um ein marktbeherrschendes Unternehmen, so kann dies die noch existierenden schwächeren Mitwettbewerber weiter behindern (Marktausschließungseffekte), die Nachfrager durch diese Rabattsysteme spezifisch angereizt werden, mehr bei dem schon marktbeherrschenden Unternehmen und weniger bei den Mitwettbewerbern zu kaufen (Sogwirkung). Allerdings kann die industrieökonomische Forschung zeigen, dass solche negativen Wirkungen nur unter bestimmten Bedingungen eintreten, während oft auch positive Effizienzwirkungen durch solche Rabattsystem möglich sind. Insofern ist aus wettbewerbsökonomischer Sicht auch hier eine differenzierte ökonomische Analyse und Beurteilung solcher Rabattsysteme erforderlich. • Zugang zu wesentlichen Einrichtungen (essential facilities): Im Zusammenhang mit der Deregulierung von bisherigen wettbewerblichen Ausnahmebereichen (Abschnitt 13.8) ist – ausgehend von der „essential facility doctrine“ der US-Antitrustrechtsprechung – der folgende Missbrauchstatbestand entwickelt worden. Danach stellt es einen Missbrauch dar, wenn ein marktbeherrschendes Unternehmen über notwendige Ressourcen / Inputfaktoren verfügt, ohne die andere Unternehmen nicht in den Markt eintreten können („wesentliche Einrichtungen“), und diesen potenziellen Konkurrenten ohne sachlich gerechtfertigten Grund den Zugang zu diesen wesentlichen Einrichtungen verweigert. Ein möglicher Anwendungsfall ist der Zugang zu Infrastrukturnetzen wie bspw. das Telefonfestnetz oder das Eisenbahnschienennetz. Würde bspw. die Deutsche Bahn, die als Eigentümerin des Schienennetzes marktbeherrschend ist, anderen Eisenbahngesellschaften die Benutzung ihres Eisenbahnnetzes verweigern, so könnte dies ein missbräuchliches Verhalten sein, durch das der Wettbewerb bei der Eisenbahnbeförderung von Personenen und Gütern beeinträchtigt oder gar ausgeschaltet würde. Auch wenn bei solchen Netzsektoren diese Problematik in Deutschland durch die Bundesnetzagentur in einer sektorspezifischen Regulierung gelöst ist (siehe Abschnitt 13.8), so wäre die Deutsche Bahn auch nach dem Missbrauchsverbot verpflichtet, anderen Eisenbahngesellschaften einen diskriminierungsfreien Zugang

13 Wettbewerbspolitik

171

zum Schienennetz zu gewähren, wobei sie allerdings Anspruch auf ein angemessenes Nutzungsentgelt hätte. • Liefer- und Lizenzverweigerung: Die Verweigerung des Zugangs zu „wesentlichen Einrichtungen“ kann jedoch auch außerhalb dieser Netzsektoren missbräuchlich sein. Sowohl im deutschen und im europäischen Wettbewerbsrecht gibt es ein Anzahl von Fällen, in denen Lieferverweigerungen (refusal to deal) unter sehr speziellen Umständen als Missbrauch einer marktbeherrschenden Stellung angesehen wurde. Eine spezielle Gruppe stellen dabei Fälle dar, bei denen die Verweigerung einer Lizenz für ein Patent oder ein Urheberrecht als ein solcher Missbrauch angesehen worden ist (refusal to license). Hierzu gehört bspw. der bekannte europäische Microsoft-Fall, bei dem die EU-Kommission Microsoft in einem solchen Missbrauchsverfahren verpflichtet hat, anderen Anbietern von Software Schnittstelleninformationen zu ihrem Betriebssystem Windows zur Verfügung zu stellen, obwohl diese durch Geistige Eigentumsrechte geschützt sind (Leveque, 2005). Missbräuchliches Verhalten kann auch in solchen Fälle auftreten, bei denen Patentinhaber, deren Patente wesentlich sind für einen technischen Standard, den Abschluss von Lizenzvereinbarungen verweigern (standardessentielle Patente). Bei vielen der als Behinderungsmissbrauch marktbeherrschender Unternehmen angesehenen Verhaltensweisen ist es aus wettbewerbstheoretischer Sicht umstritten, ob und unter welchen Bedingungen sie wirklich als Behinderungsmissbrauch zu beurteilen sind oder ob umgekehrt die zusätzlichen Verhaltensregeln für marktbeherrschende Unternehmen nicht gerade auch wettbewerbliche Verhaltensweisen unterbinden. Insofern wird in der wettbewerbspolitischen Diskussion die gegenwärtige praktische Anwendung des Missbrauchsverbots für marktbeherrschende Unternehmen (§ 19 GWB und Art. 102 AEUV) in Bezug auf den Behinderungsmissbrauch teilweise auch sehr kritisch gesehen, weil eine solche differenzierte Analyse der ökonomischen Wirkungen oftmals fehlt (Bishop/Walker, 2010, S. 256 ff.).

13.8

Wettbewerbliche Ausnahmebereiche und Deregulierung: natürliche Monopole

In der Vergangenheit wurde für bestimmte Wirtschaftssektoren das Wettbewerbsprinzip bewusst nicht durchgesetzt, so dass entweder deren Leistungen durch staatliche bzw. private Monopole angeboten wurden (Deutsche Bundespost, Deutsche Bundesbahn, regionale Stromversorgungsmonopole etc.) oder zumindest bestimmte Arten von Wettbewerbsbeschränkungen zugelassen wurden (wie etwa bei Banken und Versicherungen). Dies wurde mit dem Argument zu rechtfertigen versucht, dass aufgrund der besonderen Bedingungen dieser Sektoren Wettbewerb nicht funktionieren könne und es sich deshalb um wettbewerbliche Ausnahmebereiche handeln würde, auf die das Recht gegen Wettbewerbsbeschränkungen keine Anwendung finden dürfte. Tatsächlich aber hat sich gezeigt, dass es in

172

Wolfgang Kerber

vielen dieser Sektoren sehr wohl möglich ist, das Wettbewerbsprinzip in wesentlich größerem Umfang anzuwenden und damit traditionelle, verkrustete Monopolstrukturen mit ihren zu hohen Preisen und Kosten, geringer Orientierung an den Nachfragerwünschen und geringer Innovationstätigkeit aufzubrechen. Unter dem Stichwort Deregulierung hat in Deutschland und der EU seit den 1980er Jahren ein Prozess der Einführung von Wettbewerb in bisher monopolisierte oder anderweitig vor Wettbewerb geschützte Sektoren stattgefunden. Entscheidend ist dabei die Frage, unter welchen spezifischen Bedingungen Wettbewerb tatsächlich nicht möglich ist und inwieweit deshalb wettbewerbliche Ausnahmebereiche gerechtfertigt sind (als Überblick: Deregulierungskommission, 1991; Borrmann/Finsinger, 1999; Knieps, 2008). Die wichtigste Möglichkeit der Begründung eines wettbewerblichen Ausnahmebereichs ist das Vorliegen eines sog. „natürlichen“ Monopols. Ein natürliches Monopol liegt vor, wenn aufgrund der spezifischen produktionstechnologischen Bedingungen die Marktnachfrage von einem Unternehmen kostengünstiger beliefert werden kann als von mehreren Unternehmen. Dies ist bei Vorliegen einer subadditiven Kostenfunktion der Fall, d.h. wenn ein Unternehmen jede im relevanten Nachfragebereich liegende Produktionsmenge mit niedrigeren Kosten produzieren kann als zwei oder mehr Unternehmen, die jeweils Teilmengen dieser Gesamtmenge herstellen. In Abb. 13.5 ist ein einfacher Fall eines solchen natürlichen Monopols dargestellt. Wenn aufgrund von Unteilbarkeiten von Produktionsfaktoren hohe fixe Kosten in Verbindung mit konstanten Grenzkosten GK auftreten, so entsteht eine fallende Durchschnittskostenkurve DK. Unter diesen Kostenbedingungen wird sich im Wettbewerb dasjenige Unternehmen mit der höchsten abgesetzten Menge durchsetzen, da es mit den niedrigsten Kosten produzieren und folglich auch den niedrigsten Preis setzen kann. Da somit unter Wettbewerbsbedingungen nur ein Unternehmen auf dem Markt übrig bleibt, liegt ein natürliches Monopol vor. Ein solches Monopol wirft die aus der Marktmachtdiskussion in Abschnitt 13.2.1. bekannten Probleme auf. Allerdings ist die Situation insofern schwieriger, weil die aus wohlfahrtsökonomischer Sicht beste Lösung, bei der der Preis den Grenzkosten entspricht (Punkt B; p0 = GK) in einem freien Markt ohne Subventionen nicht verwirklichbar ist, da der Monopolist bei solchen Grenz- und Durchschnittskostenkurven (GK < DK) seine Kosten nicht decken könnte (p0 < DK). Der niedrigste mögliche Preis liegt folglich bei Punkt A, an dem der Preis der Höhe der Durchschnittskosten entspricht (p1 = DK). Allerdings entsteht dann eine geringe allokative Ineffizienz im Umfang der Fläche ABC, die aber im Fall des natürlichen Monopols nicht zu vermeiden ist. Im Vergleich zu dieser aus wohlfahrtsökonomischer Sicht „zweitbesten“ Lösung ergeben sich bei einer einfachen Monopolpreisbildung die typischen negativen Monopolwirkungen: ein zu hoher Preis (p2 > p1), eine zu niedrige Menge (x2 < x1), ein zusätzlicher Verlust an Konsumentenrente (Fläche p2EAp1), ein gesamtwirtschaftlicher Verlust im Umfang der Flächen EAH (zusätzliche allokative Ineffizienz) + GFHp1 (Erhöhung der Durchschnittskosten), ein nichtleistungsbedingter Monopolgewinn (Fläche p2EFG) sowie (hier nicht eingezeichnete) mögliche X-Ineffizienzen und negative Innovationswirkungen des Monopols.

13 Wettbewerbspolitik

173

p

E

p2 G

p1

F A

H C

p0

DK B

GK DD

x2

GE

x1

x0

x

Abb. 13.5  Natürliches Monopol und seine Probleme

Da es in einem solchen Fall gesamtwirtschaftlich effizient ist, dass nur ein Anbieter auf dem Markt tätig ist, ist es sinnvoll, das Monopol zu akzeptieren, die negativen Konsequenzen der Monopolstellung aber durch eine Regulierung zu vermindern. Eine Regulierung ist allerdings nicht notwendig, wenn es sich um einen vollkommen angreifbaren Markt im Sinne der Theorie der Contestable Markets handelt (Abschnitt 13.2.3). Hierzu dürften aber keine Marktzutrittskosten und Marktaustrittskosten bestehen. In diesem Fall müsste der etablierte Monopolist in Abb. 13.5 den (nur die Durchschnittskosten deckenden) Preis p1 setzen, weil bei jedem höheren Preis potenzielle Wettbewerber mit einem etwas niedrigeren Preis und einer etwas höheren Menge in den Markt eindringen und diesen vollständig übernehmen könnten (Baumol/Panzar/Willig, 1982). Liegen sowohl eine hohe Subadditivität als auch erhebliche Markteintrittskosten und Marktaustrittskosten vor, so kann sich eine Regulierung als notwendig erweisen. Hierbei sind eine Fülle von Überlegungen zu beachten (ausführlich: Knieps, 2008, S. 79 ff.). Der Aktivitätsbereich eines Monopols sollte auf die Leistungsbereiche beschränkt werden, die von subadditiven Kostenstrukturen gekennzeichnet sind, alle anderen Leistungen sollten dagegen wettbewerblich angeboten werden. Während es sich zum Beispiel bei einem Eisenbahnschienennetz um einen natürlichen Monopolbereich handelt (Subaddivität, hohe versunkene Kosten), kann der Transport auf den Schienen wettbewerblich betrieben werden. Falls ein Monopolist sowohl Leistungen aus dem natürlichen Monopolbereich als

174

Wolfgang Kerber

auch aus dem Wettbewerbsbereich anbietet, ist auf die Verhinderung von wettbewerbsverzerrenden Quersubventionierungen zu achten. Ist für die Erbringung von Leistungen (wie etwa Eisenbahnbeförderung) der Zugang zu einer Ressource erforderlich, die die Eigenschaften eines natürlichen Monopols hat (wie das Schienennetz), so ist Wettbewerbern ein diskriminierungsfreier Zugang zu einer solchen „wesentlichen Einrichtung“ (essential facility) zu angemessenen Preisen zu verschaffen (bottleneck-Regulierung; vgl. auch den Behinderungsmissbrauch bei marktbeherrschenden Unternehmen, Abschnitt 13.7). Preisregulierungen können eine Möglichkeit sein, das Marktmachtproblem im natürlichen Monopolbereich zu lösen: • Kostendeckende Preise: Würde ein Preis festgelegt, der den Durchschnittskosten entspricht, so könnte durch die Regulierung direkt die wohlfahrtsökonomisch „zweitbeste“ Lösung verwirklicht werden. • Rate-of-return-Regulierung (Renditenregulierung): Preise werden so gesetzt, dass eine angemessene Kapitalverzinsung erzielt wird. • Mark-up-Regulierung: Preise sollen sich an den tatsächlichen Kosten plus einen Gewinnaufschlag orientieren (Cost-plus). • Price-cap-Regulierung (Preisobergrenzen-Regulierung): Alle drei bisher angeführten Preisregulierungen orientieren sich an den Kosten, so dass eher Anreize zur Kostenerhöhung als zur Kostensenkung bestehen. Bei der Price-cap-Regulierung wird dagegen nur eine Obergrenze für die Preisentwicklung vorgegeben (zum Beispiel die Inflationsrate), so dass zusätzliche Kostensenkungen den Gewinn erhöhen. • Zweiteiliger Tarif: Preise können auch aus der Kombination aus einer festen (monatlichen) Grundgebühr, die als Beitrag zu den Fixkosten verstanden werden kann, und einem verbrauchsabhängigen Preis bestehen, der sich dann an den Grenzkosten orientieren kann, ohne dass aufgrund der fallenden Durchschnittskosten ein Defizit auftritt. Solche Tarife sind im Versorgungsbereich (Elektrizität, Gas) und der Telekommunikation üblich. • Ramsey-Preisbildung: Bietet ein natürlicher Monopolist gleichzeitig mehrere Produkte an oder verkauft er ein Produkt an mehrere, gut abgrenzbare Nachfragergruppen mit unterschiedlichen Preiselastizitäten, so wird die allokative Ineffizienz minimiert, wenn die Preise umso mehr von den Grenzkosten abweichen, je geringer die Preiselastizität ist. Umgekehrt sollten die Preise umso weniger die Grenzkosten übersteigen, je höher die Preiselastizität ist (Preisregel der inversen Elastizitäten). Folgende zentrale Probleme sind bei Regulierungen zu beachten: • E s kann notwendig sein, die Preisregulierung durch weitere Regulierungen, zum Beispiel in Bezug auf die Qualität oder auf die flächendeckende Erbringung von Leistungen zu erweitern (Verhinderung des Rosinenpickens). • Prinzipal-Agent-Probleme: Informationsasymmetrien zwischen dem natürlichen Monopolisten und der Regulierungsbehörde können erhebliche Probleme für

13 Wettbewerbspolitik

175

eine angemessene Regulierung aufwerfen. Dies gilt vor allem für kostenorientierte Preisregulierungen. • Capture-Theorie der Regulierung: Langfristig geraten Regulierungsbehörden in die Gefahr, sich mit der von ihnen zu regulierenden Industrie zu identifizieren, so dass sie sich mit den Unternehmen zunehmend arrangieren und ihre Kontrollfunktion vernachlässigen. Auf der Basis solcher regulierungstheoretischer Überlegungen können bisher vor Wettbewerb geschützte Wirtschaftssektoren daraufhin abgeprüft werden, ob und inwieweit sie dem Wettbewerb zugänglich gemacht werden können und welche Form von Regulierungen gegebenenfalls notwendig sind. Allerdings werden außer dem „natürlichen Monopol“ noch weitere Begründungen für wettbewerbliche Ausnahmebereiche angeführt. Hierbei kann es sich um Argumente des Marktversagens handeln oder um die Erreichung von spezifischen Umverteilungszielen, wie bspw. eine gleiche Versorgung in allen Regionen eines Landes. Die Deregulierungen im Telekommunikationssektor (Abbildung 13.6) sind ein Beispiel für die erfolgreiche Einführung von Wettbewerb in einen Wirtschaftssektor, der vorher von einem staatlichen Monopolisten betrieben wurde. Andere Sektoren, in denen Deregulierungen durchgeführt wurden oder angestrebt werden, sind der Luft- und Straßenverkehr, die Post sowie die Elektrizitäts-, Gas- und Wasserversorgung. Die Europäische

Ausgangspunkt: Monopol der Deutschen Bundespost 1990: Beseitigung des Monopols der „Bundespost“ auf Bereitstellung der Telekommunikationsendgeräte 1993: Zulassung von Wettbewerb im Mobilfunkbereich und Satellitenfunk 1995: Umwandlung des ehemaligen Postunternehmens Telekom in eine AG (mit anschließendem Börsengang: Teilprivatisierung) 1998: Inkrafttreten des Telekommunikationsgesetzes (TKG) Abschaffung des Monopols der Telekom für die Sprachtelefonie Errichtung einer neuen Regulierungsbehörde für Post und Telekommunikation (heute: Bundesnetzagentur) Regulierungsgrundsätze: – Preis- und Konditionenkontrolle – Diskriminierungsfreier Zugang von Wettbewerbern zu Netzen, falls diese „wesentliche Einrichtungen“ (bottleneck facilities) sind (z.B. Ortsnetze) – Verpflichtung zu einer flächendeckenden Grundversorgung mit Telekommunikationsleistungen 2000: Versteigerung von Lizenzen für die UMTS-Mobilfunktechnologie Abb. 13.6  Deregulierungen im Telekommunikationssektor in Deutschland

176

Wolfgang Kerber

Union spielte bei diesen Deregulierungsprozessen eine besonders wichtige Rolle, weil sie aufgrund des Ziels der Verwirklichung des europäischen Binnenmarktes ein besonderes Interesse an der Aufbrechung nationaler Monopole hat. Da es im europäischen Wettbewerbsrecht (mit Ausnahme der Landwirtschaft) keine wettbewerblichen Ausnahmebereiche wie im deutschen GWB gibt und der Europäischen Kommission zusätzlich der Art. 106 AEUV, der sich explizit gegen nicht rechtfertigbare nationale Monopole wendet, zur Verfügung steht, konnte die EU – insbesondere mit Richtlinien, die von den Mitgliedstaaten umgesetzt werden mussten – die Deregulierungsprozesse in den Mitgliedstaaten von der EU-Ebene aus erheblich vorantreiben. In Deutschland ist seit 2005 die Bundesnetzagentur für die Regulierung in den Netzsektoren Telekommunikation, Elektrizität, Gas, Post und Eisenbahnverkehr zuständig. Solche Regulierungsbehörden gibt es auch in allen anderen Mitgliedstaaten der Europäischen Union, in denen solche natürlichen Monopole ähnlichen (von europäischen Regeln bestimmten) Regulierungen unterliegen.

13.9

Institutionen und Perspektiven der Wettbewerbspolitik

Verstärkte Durchsetzung des Wettbewerbsprinzips Seit den 1980er und 1990er Jahren hat es sowohl weltweit als auch innerhalb der EU und in Deutschland eine klare Entwicklung zu einer stärkeren Anwendung der marktlichen Selbststeuerung und damit von Wettbewerb als Organisationsprinzip für die Erbringung wirtschaftlicher Leistungen gegeben. Die Liberalisierung, Deregulierung und Privatisierung in wichtigen Bereichen wie der Telekommunikation, der Post, der Energieversorgung, des Luft- und Straßenverkehrs zeigen zum einen die bisherigen Erfolge, verweisen zum anderen aber auch darauf, dass diese Entwicklung als noch nicht abgeschlossen betrachtet werden kann. Die weitere Durchsetzung des Wettbewerbsprinzips muss deshalb eine zentrale Strategie sowohl der Wettbewerbspolitik als auch der allgemeinen Wirtschaftspolitik sein. Wettbewerbspolitik als Teil des institutionellen Rahmens für die marktliche Selbststeuerung Wichtig für die weitere Entwicklung der Wettbewerbspolitik ist auch ihre stärkere Integration in den gesamten institutionellen Rahmen, der die Funktionsfähigkeit von Märkten sicherstellen soll (Wettbewerbsordnung). Relevante Interdependenzen bestehen vor allem zu folgenden speziellen Wirtschaftspolitiken: • Innovationspolitik: Förderung von Innovationen, vor allem durch staatliche Forschungsförderung (Forschungs- und Technologiepolitik) sowie durch Geistige Eigentumsrechte (Patent- und Urheberrecht). Der Schnittstelle zwischen Wettbewerbsrecht und Geistigem Eigentum kommt dabei eine besondere Bedeutung zu, da auf der einen Seite Innovationswettbewerb auch von der Wettbewerbspolitik geschützt wird, auf der anderen Seite aber Patent- und Urheberrecht temporäre Monopolstellungen erlauben,

13 Wettbewerbspolitik

177

die vordergründig in einem Spannungsfeld zu Wettbewerb stehen. Insofern ist es nicht erstaunlich, dass in den letzten Jahren Fälle im Schnittfeld von Wettbewerbsrecht und Geistigem Eigentum ein Schwerpunkt in der wettbewerbsrechtlichen Anwendungspraxis waren. • Verbraucherpolitik: Lösung von Informations- und Rationalitätsproblemen von Letztverbrauchern. Besonders wichtig sind hierfür Informations- und Kennzeichnungspflichten, Irreführungsverbote, Mindeststandards für Produkte, Produkthaftungsregelungen sowie Mindestqualifikationen für bestimmte Berufe. Allerdings ist hierbei darauf zu achten, dass verbraucherrechtliche Regulierungen nicht als wettbewerbsbeschränkende Markteintrittshindernisse wirken. • Industrie- und Strukturpolitik: Ordnungskonforme Förderung von Unternehmensgründungen, Abbau diskriminierender Wirkungen des Steuersystems und Förderung des Strukturwandels statt diskretionärer Förderung der Entwicklung einzelner Industrien. Die Beziehung zwischen einer gestaltenden Industriepolitik und der Wettbewerbspolitik war deshalb immer von Spannungen gekennzeichnet. • Außenwirtschafts- und Binnenmarktpolitik: Abbau von Zöllen, nicht-tarifären Handelshemmnissen und wettbewerbsverzerrenden Subventionen. An dieser Schnittstelle ist auch die europäische Wettbewerbspolitik gegenüber wettbewerbsverzerrenden Maßnahmen der Mitgliedstaaaten (Beihilfenkontrolle, staatliche Monopole) angesiedelt.

Institutionen der Wettbewerbspolitik Wettbewerbspolitik kann nur dann den Wettbewerb erfolgreich schützen, wenn die wettbewerbsrechtlichen Regeln auch effektiv angewendet werden. Insofern sind in der Wettbewerbsökonomie (und in der ökonomischen Analyse des Rechts) gerade auch die Institutionen und die Verfahrensregeln für die Anwendung und Durchsetzung des Wettbewerbsrechts vermehrt ökonomisch untersucht worden (Überblick: Kerber/Schwalbe, 2015, Rdnr. 624-660). In Europa ist das Wettbewerbsrecht traditionell primär durch öffentlich-finanzierte Wettbewerbsbehörden (wie in Deutschland das Bundeskartellamt) durchgesetzt worden. Wettbewerbsbehörden können aber institutionell unterschiedlich ausgestaltet sein. Um eine größere Unabhängigkeit von Lobbyismusaktivitäten und anderen politischen Einflüssen bei wettbewerbsrechtlichen Entscheidungen zu gewährleisten, ist das deutsche Bundeskartellamt bewusst als eine unabhängige Behörde konzipiert worden, während in anderen Mitgliedstaaten der EU ebenso wie auf europäischer Ebene die Wettbewerbsbehörden in den normalen Regierungsapparat integriert sind. Das Ausmaß der Durchsetzung ist auch von den konkreten Befugnissen der Wettbewerbsbehörden zur Aufdeckung und Verfolgung von wettbewerbsbeschränkenden Verhaltensweisen abhängig, wozu auch die Höhe eventuell zu verhängender Sanktionen gehört. Obwohl bspw. die europäischen Wettbewerbsbehörden Bußgelder bis zu einer Höhe von 10 v.H. des weltweiten Gesamtumsatzes verhängen können und auch faktisch bereits in mehreren Fällen Bußgelder über 1 Mrd. Euro verhängt wurden, ist es aus ökonomischer Sicht immer noch zweifelhaft, ob diese Bußgelder ausreichen, um eine ausreichende Abschreckungswirkung

178

Wolfgang Kerber

insbesondere bezüglich Preiskartellen zu erreichen, oder ob zusätzlich die beteiligten Manager auch strafrechtlich mit Gefängnisstrafen (wie in den USA) bedroht werden sollten. Eine weitere Möglichkeit der Durchsetzung wettbewerbsrechtlicher Regeln besteht in der privaten Rechtsdurchsetzung, indem Unternehmen vor Zivilgerichten andere Unternehmen auf Unterlassung oder Schadensersatz aufgrund von wettbewerbsrechtlichen Verstößen verklagen (private enforcement/litigation). Während dieser zivilrechtliche Weg der Rechtsdurchsetzung seit langem im US-Antitrustrecht eine große Rolle spielt, gewinnt er in der EU und Deutschland erst langsam größere Bedeutung (insbesondere bei Schadensersatzklagen in Preiskartellfällen). Aus ökonomischer Sicht hat die Durchsetzung des Wettbewerbsrechts durch Wettbewerbsbehörden und Zivilklagen jeweils ihre eigenen spezifischem Vorzüge und Probleme, so dass eine geschickte Mischung beider Formen der Rechtsdurchsetzung zweckmäßig sein könnte (Van den Bergh, 2017, 408 ff.). Zusätzlich ist auf die wichtige Funktion von Gerichten als letztliche Entscheidungsinstanzen in Wettbewerbsfällen hinzuweisen. Somit ist gerade auch die weitere Verbesserung der institutionellen Grundlagen der Wettbewerbspolitik von zentraler Bedeutung für einen noch besseren Schutz des Wettbewerbs vor wettbewerbsbeschränkenden Praktiken.

Probleme der Wettbewerbspolitik Ein gravierendes Problem stellen die immer noch bestehenden Defizite in der theoretischen Basis der Wettbewerbspolitik sowie unser mangelndes wettbewerbsökonomisches Wissen in Bezug auf die Wirkung vieler Geschäftspraktiken dar. So gibt es bei vielen Wettbewerbsproblemen sowohl theoretisch als auch empirisch noch erheblichen Forschungsbedarf, etwa im Bereich oligopolistischen Verhaltens, bei manchen Kartellausnahmen, bei der Frage, welche Verhaltensweisen als Behinderungswettbewerb anzusehen sind, bei der Einbeziehung der Wirkungen auf Innovationen und dem Schnittfeld zum Geistigen Eigentum, sowie bei den vielfältigen, teilweise noch nicht verstandenen Wettbewerbsproblemen, die sich in der digitalisierten Internetökonomie stellen (Peitz/Waldfogel, 2012; Monopolkommission, 2015). Darüber hinaus werfen sowohl die Evolutionsökonomik als auch die Verhaltensökonomik grundlegende Fragen auf, ob die theoretische Industrieökonomik als allgemeine theoretische Grundlage für die Wettbewerbsökonomie ausreicht oder ob nicht ein stärkerer Theoriepluralismus aus unterschiedlichen wettbewerbskonzeptionellen Ansätzen geeigneter zur Lösung der Wettbewerbsprobleme wäre. In Zukunft sollte man auch stärker über die geeignete Form der Wettbewerbspolitik nachzudenken. Ausgehend von der Einsicht, dass die Wirkungen vieler Verhaltensweisen auch stark von den Umständen des Einzelfalls abhängig sein können, hat sich unter dem Begriff „more economic approach“ bzw. „effects-based approach“ eine Tendenz zu einer zunehmend einzelfallorientierten Prüfung herausgebildet. Dies bedeutet, dass die Feststellung, ob ein Zusammenschluss genehmigt werden sollte oder ein Behinderungsmissbrauch bei einem marktbeherrschenden Unternehmen vorliegt, von den konkret im Einzelfall zu erwartenden Wirkungen (auf die Konsumentenwohlfahrt) abhängen soll. Auf die vielfältigen neuen empirischen Methoden zur Prognose solcher Wirkungen in der

13 Wettbewerbspolitik

179

konkreten Analyse von Fällen wurde bereits hingewiesen (Abschnitt 13.2.5). Damit einher ging in der Wettbewerbspolitik eine starke Ersetzung von Per-se-Regeln durch die aus der US-amerikanischen Antitrustpolitik bekannte Rule of Reason, die gerade die Umstände des Einzelfalls berücksichtigen möchte (Abschnitt 13.3.2). Allerdings gibt es erhebliche Bedenken, teilweise aus Gründen der Rechtssicherheit und teilweise aufgrund von kritischen Fragen bezüglich der Verlässlichkeit ökonomischer Prognosen im Einzelfall, ob eine solche Vorgehensweise wirklich anzuraten ist, oder ob man nicht stärker einen Mittelweg einschlagen sollte zwischen der ökonomischen Einzelfallanalyse und einer regelorientierten Wettbewerbspolitik, bspw. in Form der Suche nach robusten Regeln, geeigneten Formen einer „structured rule of reason“ oder differenzierten Wettbewerbsregeln (Christiansen/Kerber, 2006).

Internationale Wettbewerbspolitik Seit langem haben sich ursprünglich nationale Märkte zu internationalen oder gar globalen Märkten entwickelt. Innerhalb der EU wurde für den Schutz des Wettbewerbs auf europäischen Märkten die europäische Wettbewerbspolitik eingeführt. Auf globaler Ebene gibt es aber keine gültigen Wettbewerbsregeln und damit keine internationale Wettbewerbspolitik. Von daher stellt sich die Frage, ob nationale Wettbewerbspolitiken ausreichend in der Lage sind, die auf solchen internationalen Märkten auftretenden Wettbewerbsbeschränkungen erfolgreich zu bekämpfen. Das zentrale Problem besteht darin, dass im Ausland stattfindende Wettbewerbsbeschränkungen (wie Zusammenschlüsse oder Kartelle) sich negativ auf das Inland auswirken können. Zunächst ist als eine sehr positive Entwicklung festzustellen, dass inzwischen nicht nur entwickelte Industrieländer, sondern auch viele Schwellen- und Entwicklungsländer Wettbewerbsgesetze eingeführt haben und über Wettbewerbsbehörden verfügen. Insofern hat eine starke internationale Ausbreitung von nationalen Wettbewerbspolitiken stattgefunden. Zwar beanspruchen die meisten Wettbewerbspolitiken, wie etwa auch die deutsche und europäische Wettbewerbspolitik, auch vom Ausland ausgehende Wettbewerbsbeschränkungen zu bekämpfen, wenn sie sich negativ auf den Wettbewerb im Inland auswirken (Auswirkungsprinzip). Allerdings kann es sich als sehr schwierig und oftmals sogar als unmöglich erweisen, Ermittlungen im Ausland durchzuführen und Entscheidungen der Wettbewerbsbehörden gegenüber im Ausland ansässigen Unternehmen durchzusetzen. Insofern besteht auf internationalen Märkten eine stark eingeschränkte Wirksamkeit der nationalen Wettbewerbspolitiken. Seit den 1990er Jahre hat sich deshalb die Diskussion verstärkt, ob nicht auch internationale Regeln gegen Wettbewerbsbeschränkungen notwendig sind (als Überblick: Basedow, 1998). Eine sehr begrenzte Lösungsmöglichkeit liegt in der internationalen Kooperation von Wettbewerbsbehörden. Dies kann sich auf den Austausch von Informationen beziehen, aber auch auf die gegenseitige Hilfe bei der Durchsetzung von Entscheidungen. Ein so weitreichender Vorschlag wie die Einführung eines globalen Wettbewerbsrechts (bspw. im Rahmen der Welthandelsorganisation WTO) mit einer internationalen Wettbewerbsbehörde wird aber als unrealistisch und auch nicht als wünschenswert angesehen. Dagegen wird eine stärkere Konvergenz der nationalen Wettbewerbspolitiken, etwa

180

Wolfgang Kerber

durch Mindeststandards oder die Entwicklung von „Best practices“ bei der Sicherung des Wettbewerbs, sowie die Einführung von Verfahrensregeln zur besseren Durchsetzung wettbewerbsrechtlicher Regeln sowohl in der Wissenschaft als auch auf politischer Ebene ernsthaft diskutiert (Budzinski, 2006). Das 2001 gegründete „International Competition Network“, das ein auf freiwilliger Kooperation basierendes Netzwerk von nationalen Wettbewerbsbehörden ist und eine stärkere Konvergenz von nationalen Wettbewerbspolitiken durch die Entwicklung von „Best practices“ bei der Anwendung von Wettbewerbsrecht anstrebt, kann als ein Schritt auf diesem langwierigen Weg angesehen werden. Angesichts der zunehmenden Globalisierung von Märkten ist aber langfristig eine weitere stärkere Internationalisierung der Wettbewerbspolitik erforderlich.

13.10

Kommentierte Literaturhinweise

Systematische deutschsprachige Einführungen in die Wettbewerbspolitik und ihre theoretischen und rechtlichen Grundlagen bieten Schulz (2003), Knieps (2008), Schwalbe und Zimmer (2011), Schmidt und Haucap (2013), sowie Kerber und Schwalbe (2015). Englischsprachige Lehrbücher zur europäischen Wettbewerbspolitik mit einer klaren industrieökonomischen Fundierung sind Motta (2004), Van den Bergh (2017) und Bishop und Walker (2010). Empfehlenswerte englischsprachige Lehrbücher zur theoretischen und empirischen Industrieökonomik sind Scherer und Ross (1990), Church und Ware (2000), Carlton und Perloff (2005) und Belleflamme und Peitz (2015). Weiterhin ist auf die Standardwerke von Tirole (1988) und Schmalensee und Willig (1989) zu verweisen. Deutschsprachige Überblicke geben Bühler und Jäger (2002), Bester (2016) sowie der Beitrag von Schwalbe im ersten Band des Kompendiums. Einen Überblick über das deutsche und europäische Wettbewerbsrecht bieten aus juristischer Sicht die deutschsprachigen Lehrbücher von Rittner, Dreher und Kulka (2014) und Kling und Thomas (2016) sowie in englischer Sprache Monti (2007) und Whish und Bailey (2015). Zentrale Fachzeitschriften zur deutschen und europäischen Wettbewerbspolitik sind Wirtschaft und Wettbewerb (WuW), European Competition Law Review (ECLR) und das Journal of Competition Law and Economics (JCLE). Regelmäßige Berichte und Untersuchungen zur Wettbewerbspolitik finden sich in den Haupt- und Sondergutachten der deutschen Monopolkommission. Aktuelle Informationen zur Wettbewerbspolitik bieten die Internetseiten der Monopolkommission, des deutschen Bundeskartellamtes und der Europäischen Kommission (Generaldirektion Wettbewerb): http://www.monopolkommission.de; http://www.bundeskartellamt.de; http://ec.europa. eu/dgs/competition/index_de.htm.

13 Wettbewerbspolitik

181

Literaturverzeichnis Aghion, P.; N. Bloom; R. Blundell; R. Griffith; P. Howitt (2005), Competition and Innovation: An Inverted-U Relationship, in: Quarterly Journal of Economics, Vol. 120, No. 2, S. 701-718. Anderman, S.; H. Schmidt (2011), EU Competition Law and Intellectual Property Rights: The Regulation of Innovation, 2. A., Oxford (Oxford University Press). Arndt, H. (1952), Schöpferischer Wettbewerb und klassenlose Gesellschaft, Berlin (Duncker & Humblot). Arrow, K. J. (1962), Economic Welfare and the Allocation of Resources to Invention, in: Nelson, R. R., Hg., The Rate and Direction of Economic Activity, Princeton (Princeton University Press), S. 609-626. Audretsch, D. B. (2004), Small Firms, innovation and competition, in: Neumann, M.; J. Weigand, Hg., The international handbook of competition, Cheltenham (Elgar), S. 88-114. Bain, J. S. (1956), Barriers to new competition: Their character and consequences in manufacturing industries, 3. A., Cambridge/Mass. (Harvard University Press). Basedow, J. (1998), Weltkartellrecht. Ausgangslage und Ziele, Methoden und Grenzen der internationalen Vereinheitlichung des Rechts der Wettbewerbsbeschränkungen, Tübingen (Mohr-Siebeck). Baumol, W. J.; J. C. Panzar; R. D. Willig (1982), Contestable Markets and the Theory of Industry Structure, San Diego, CA (Harcourt Brace Jovanovich). Belleflamme, P.; M. Peitz (2015), Industrial Organization: Markets and Strategies, 2. A., Cambridge (Cambridge University Press). Bennett, M.; A. Fletscher; J. Hurley; D. Ruck (2010), What Does Behavioural Economics Mean for Competition Policy, in: Competition Policy International, Vol. 6, S. 111-253. Bester, H. (2016), Theorie der Industrieökonomik, 7. A., Berlin (Springer Gabler). Bishop, S.; M. Walker (2010), The economics of EC competition law: concepts, application and measurement, 3. A., London (Sweet & Maxwell). Böhm, F. (1933), Wettbewerb und Monopolkampf, Berlin (Duncker & Humblot). Bork, R. H. (1978), The antitrust paradox: A policy at war with itself, New York (Macmillan). Borrmann, J.; J. Finsinger (1999), Markt und Regulierung, München (Vahlen). Budzinski, O. (2006), The Governance of Global Competition. The Problem of Competence Allocation in an International Multilevel Competition Policy System, Cheltenham, Northampton (Edgar Elgar Publishing). Bühler, S.; F. Jaeger (2002), Einführung in die Industrieökonomik, Berlin (Springer Verlag). Bundeskartellamt (2017), Tätigkeitsbericht 2015/2016, in: Bundestagsdrucksache 18/5210.

182

Wolfgang Kerber

Caloghirou, Y.; S. Ioannides; N. S. Vonortas (2003), Research joint ventures, in: Journal of Economic Surveys, Vol. 17, S. 541-570. Carlton, D. W.; J. M. Perloff (2005), Modern industrial organization, 4. A., Boston (Addison- Wesley). Chamberlin, E. H. (1933), The theory of monopolistic competition, Cambridge, Mass (Harvard University Press). Christiansen, A.; W. Kerber (2006). Competition Policy with Optimally Differentiated Rules Instead of “Per se Rules vs. Rule of Reason”. in: Journal of Competition Law and Economics, 2, S. 215-244. Church, J. R.; R. Ware (2000), Industrial Organization. A Strategic Approach, Bonston (McGraw-Hill). Clark, J. M. (1940), Toward a concept of workable competition, in: American Economic Review, 30, S. 241-246. Coase, R. H. (1937), The nature of the firm, in: Economica, Vol. 4, S. 386-405. Crane, D. A.; H. Hovenkamp (2013), The Making of Competition Policy: Legal and Economic Sources, Oxford (Oxford University Press Inc). Cucinotta, A.; R. Pardolesi; R. Van den Bergh, Hg. (2002), Post-Chicago developments in antitrust law, Cheltenham (Elgar). DeMan, A.-P.; G. Duysters (2005), Collaboration and Innovation., A Review of the Effects of Mergers, Acquisitions and Alliances on Innovation, in: Technovation, 25, S. 1377-1387. Demsetz, H. (1969), Information and efficiency: Another viewpoint, in: Journal of Law and Economics, 12, S. 1-22. Demsetz, H. (1982), Barriers to entry, in: American Economic Review, Vol. 72, No 1, S. 47-57. Deregulierungskommission (1991), Marktöffnung und Wettbewerb, Stuttgart (Poeschel). Dewenter, R.; J. Rösch (2015): Einführung in die neue Ökonomie der Medienmärkte, Eine wettbewerbsökonomische Betrachtung aus Sicht der Theorie der zweiseitigen Märkte, Wiesbaden (Springer Gabler). Dunne, N. (2015), Competition Law and Economic Regulation: Making and Managing Markets, Cambridge (Cambridge University Press). Elhauge, E. (2013), Research Handbook on the Economics of Antitrust Law, Cheltenham/ Northampton (Edward Elgar Pub Ltd). Ellig, J. (2001), Dynamic Competition and Public Policy, Cambridge (University Press). Elsser, S. (1993), Innovationswettbewerb. Determinanten und Unternehmensverhalten, Frankfurt (Lang). Erlei, M.; M. Leschke; D. Sauerland (2007), Neue Institutionenökonomik, 2. A., Stuttgart (Schaeffer-Poeschel). Eucken, W. (1952), Grundsätze der Wirtschaftspolitik, Bern/Tübingen (Francke und Mohr).

13 Wettbewerbspolitik

183

Europäische Kommission (2004), Leitlinien zur Bewertung horizontaler Zusammenschlüsse gemäß der Ratsverordnung über die Kontrolle von Unternehmenszusammenschlüssen, in: Amtsblatt der Europäischen Gemeinschaft, C31/02 v. 5.2.2004. Evans, D. S. (2011), Platform Economics: Essays on Multi-Sided Businesses, Competition Policy International. Available at: http://ssrn.com/abstract=1974020. Farrell, J.; C. Shapiro (1990), Horizontal Mergers: An Equilibrium Analysis, in: American Economic Review, Vol. 80, S. 107-126. Freeman, C.; L. Soete (1997), The economics of industrial innovation, 3. A., Cambridge, Mass. (MIT Press). Fritsch, M. (2014), Marktversagen und Wirtschaftspolitik. Mikroökonomische Grundlagen staatlichen Handelns, 9. A., München (Vahlen). Geradin, D.; E. Elhauge (2011), Global Competition Law and Economics, 2. A., Oxford (Hart). Geradin, D.; A. Layne-Farrar; N. Petit (2012), EU Competition Law and Economics, Oxford (Oxford University Press). Gilbert, R. J. (2006), Looking for Mr. Schumpeter: Where Are We in the CompetitionInnovation Debate? In: Jaffe, A. B.; J. Lerner; S. Stern, Hg., Innovation Policy and the Economy, Vol. 6, Cambridge, Mass (MIT Press), S. 159-215. Gilbert, R. J.; S. C. Sunhine (1995), Incorporating Dynamic Efficiency Concerns in Merger Analysis: The Use of Innovation Markets, in: Antitrust Law Journal, Vol. 63, No. 2, S. 569-601. Gore, D.; S. Lewis; A. Lofaro; F. Dethmers (2013), The Economic Assessment of Mergers und European Competition Law, Cambridge (Cambridge University Press). Hart, O. D. (1995), Firms, contracts and financial structure, Oxford (Clarendon Press). Hayek, F.A. von (1945), The use of knowledge in society, in: American Economic Review, Vol. 35, No.4, S. 519-530. Hayek, F.A. von (1952), Der Sinn des Wettbewerbs, in: Hayek, F.A. von, Individualismus und wirtschaftliche Ordnung, Erlenbach-Zürich (Eugen Rentsch), S. 122-140. Hayek, F.A. von (1968), Der Wettbewerb als Entdeckungsverfahren, Mohr Siebeck, Tübingen; Wieder abgedr. in: Ders. (1969): Freiburger Studien. Tübingen (Mohr Siebeck), S. 249-265. Herdzina, K. (1999), Wettbewerbspolitik, 5. A., Stuttgart (Fischer). Heuss, E. (1965), Allgemeine Markttheorie, Tübingen (Mohr). Hinloopen, J.; H.-T. Normann (2011), Experiments and Competition Policy, 2. A., Cambridge (Cambridge University Press). Hoppmann, E. (1977), Marktmacht und Wettbewerb, Tübingen (Mohr). Hoppmann, E. (1988), Wirtschaftsordnung und Wettbewerb, Baden-Baden (Nomos). Hovenkamp. H. (2001), Post-Chicago antitrust: A review and critique, in: Columbia Business Law Review, S. 257-337.

184

Wolfgang Kerber

Hovenkamp, H. (2011), Federal Antitrust Policy: The Law of Competition and Its Practice, 4. A., St. Paul, Minn. (West Academic Publishing). Hylton, K. N. (2003), Antitrust Law: Economic Theory and Common Law Evolution, Cambridge (Cambridge University Press). Kamien, M. I.; N. L. Schwartz (1982), Market Structure and Innovation, Cambridge (Cambridge University Press). Kantzenbach, E. (1966), Die Funktionsfähigkeit des Wettbewerbs, Göttingen (Vandenhoek & Ruprecht). Katz, M. L.; H. A. Shelanski (2007), Mergers and Innovation, Antitrust Law Journal, 74, S. 1-85. Kerber, W. (1997), Wettbewerb als Hypothesentest: eine evolutorische Konzeption wissenschaffenden Wettbewerbs, in: K. von Delhaes; U. Fehl, Hg., Dimensionen des Wettbewerbs, Stuttgart (Fischer), S. 29-78. Kerber, W. (2011), Competition, innovation and maintaining diversity through competition law, in: Drexl, J.; W. Kerber; R. Podszun, Hg., Competition Policy and the Economic Approach, Cheltenham/Northampton (Edward Elgar Publishing), S. 173-201. Kerber, W.; U. Schwalbe (2015), Die ökonomischen Grundlagen des Wettbewerbsrechts, in: Säcker, F. J.; F. Montag, Hg., Münchener Kommentar zum Europäischen und Deutschen Wettbewerbsrecht, Bd. I, München (Beck), S. 22-247. Kip Viscusi, W.; J. M. Vernon; J. E. Harrington (2005), Economics of Regulation and Antitrust, 4. A., Cambridge/Mass (MIT Press Ltd). Kirzner, I. M. (1978), Wettbewerb und Unternehmertum, Tübingen (Mohr Siebeck). Kling, M; S. Thomas (2016), Kartellrecht, 2. A., München (C. H. Beck). Knieps, G. (2007): Netzökonomie: Grundlagen, Strategien, Wettbewerbspolitik, Wiesbaden (Gabler). Knieps, G. (2008), Wettbewerbsökonomie: Regulierungstheorie, Industrieökonomie, Wettbewerbspolitik, 3. A., Berlin/Heidelberg (Springer). Leibenstein, H. (1966), Allocative efficiency vs. “X-efficiency”, in: American Economic Review, Vol. 56, No. 3, S. 392-415. Levenstein, M. C.; V. Y. Suslow (2006): What determines cartel success? in: Journal of Economic Literature, Vol. 44, No.1, S. 43-95. Léveque, F. (2005), Innovation, Leveraging and Essential Facilities: Interoperability Licensing in the EU Microsoft Case, in: World Competition, Vol. 28(1), S. 71-91. Lyons, B. (2009), Cases in European Competition Policy: The Economic Analysis, Cambridge (Cambridge University Press). Martin, S. (2010), Industrial Organization in Context, Oxford (Oxford University Press). Martin, S. (2002), Advanced industrial economics, 2. A., Oxford (Blackwell Publishing). Mestmäcker, E.-J.; H. Schweitzer (2014), Europäisches Wettbewerbsrecht, 3. A., München (C. H.Beck).

13 Wettbewerbspolitik

185

Metcalfe, J.S. (1998), Evolutionary economics and creative destruction, London (Routledge). Milgrom, P; J. Roberts (1982), Predation, reputation, and entry deterrence, in: Journal of Economic Theory, Vol. 27, No. 2, S. 280-312. Monopolkommission (1975-2018), Hauptgutachten I – XXII, Baden-Baden (Nomos). Monopolkommission (2015), Sondergutachten 68: Wettbewerbspolitik: Herausforderung digitale Märkte, Bonn. Monti, G. (2007), EC Competition Law, Cambridge (Cambridge University Press). Motta, M. (2004), Competition policy, Cambridge (Cambridge University Press). Mueller, D. C. (1996), Antimerger Policy in the United States: History and Lessons, in: Empirica, Vol. 23, No. 3, S. 229-253. Nelson, R. R. (1995), Recent Evolutionary Theorizing About Economic Change, in: Journal of Economic Literature, Vol. 33, No. 1, S. 48-90. Nelson, R. R.; S. G. Winter (1982), An evolutionary theory of economic change, Cambridge/Mass (Belknap Press of Harvard University Press). Normann, H.-T. (2011), Vertical Mergers, Foreclosure and Raising Rivals’ Costs Experimental Evidence, in: Journal of Industrial Economics 59, S. 506-527. Peitz, M. (2006), Marktplätze und indirekte Netzwerkeffekte, in: Perspektiven der Wirtschaftspolitik, Vol. 7, No. 3, S. 317-333. Peitz, M.; J. Waldfogel (2012), The Oxford Handbook of the Digital Economy, Oxford (Oxford University Press). Pepall, l.; D. Richard, G. Norman (2012), Industrial Organization: Contemporary Theory and Empirical Applications, 5. A., New York (John Wiley & Sons Inc). Posner, R. A. (2001), Antitrust Law. An Economic Perspective, 2. A., Chicago (University of Chicago Press). Riordan, M. H.; Salop (1995), Evaluating Vertical Mergers: A Post-Chicago Approach, in: Antitrust Law Journal, Vol. 63, No. 2, S. 513-568. Rittner, F.; M. Dreher; M. Kulka (2014), Wettbewerbs- und Kartellrecht: Eine systematische Darstellung des deutschen und europäischen Rechts, 8. A., Heidelberg (C. F. Müller). Rodriguez, A. E; A. Menon (2010), The Limits of Competition Policy: The Shortcomings of Antitrust in Developing and Reforming Economies, Alphen aan den Rijn (Kluwer Law International). Rogers, E.M. (2003), Diffusion of innovations, 5. A., New York (Free Press), Salop, S. C.; D. T. Scheffman (1983), Raising Rivals’ Costs, in: American Economic. Review, Vol. 73, No. 2, S. 267-271. Scherer, F. M; D. Ross (1990), Industrial market structure and economic performance, 3. A., Boston (Houghton Mifflin). Schmalensee, R. (1989), Inter-industry studies of structure and performance, in: Schmalensee, R.; R. D. Willig, Hg., Bd. 2 (1989), S. 951-1009.

186

Wolfgang Kerber

Schmalensee, R.; R.D. Willig (1989), Hg., Handbook of industrial organization, Bd. 1 u. 2, Amsterdam (North-Holland). Schmidt, I.; J. Haucap, (2013), Wettbewerbspolitik und Kartellrecht: Eine interdisziplinäre Einführung, 10. A., München (Oldenbourg Verlag). Schmidt, I.; A. Schmidt (2006), Europäische Wettbewerbspolitik und Beihilfenkontrolle, 2. A., München (Verlag Franz Vahlen). Schulz, N. (2003), Wettbewerbspolitik. Eine Einführung aus industrieökonomischer Perspektive, Tübingen (Mohr Siebeck). Schumpeter, J. A. (1911), Theorie der wirtschaftlichen Entwicklung, Eine Untersuchung über Unternehmergewinn, Kapital, Kredit, Zins und den Konjunkturzyklus, 5. A., Berlin (Duncker & Humblot) 1952. Schumpeter, J.A. (1950), Kapitalismus, Sozialismus und Demokratie, 2. A., München (Leo Lehnen Verlag). Schwalbe, U. (2005), Die Berücksichtigung von Effizienzgewinnen in der Europäischen Fusionskontrolle – Ökonomische Aspekte, in: P. Oberender, Hg., Effizienz und Wettbewerb, Berlin (Duncker & Humblot), S. 63-94. Schwalbe, U.; D. Zimmer (2011), Kartellrecht und Ökonomie, 2. A., Frankfurt am Main (Fachmedien Recht und Wirtschaft). Shapiro, C. (2001), Navigating the Patent Thicket: Cross Licenses, Patent Pools, and Standard Setting, in: Jaffe, A.B.; J. Lerner; S. Stern, Hg, Innovation Policy and the Economy, Vol.1, Cambridge, Mass. (MIT Press), S. 119 – 150: Shepherd, W. G.; J. M. Shepherd (2003), The economics of industrial organization, 5. A., Long Grove, Illinois (Waveland Press Inc.). Shy, O. (2001), Industrial organization: theory and applications, 6. A., Cambridge/Mass. (MIT Press). Simon, H.A. (1957), Models of man, New York (John Wiley & Sons). Stigler, G. J. (1968), The organization of industry, Homewood, Ill. (Irwin). Tirole, J. (1988), The theory of industrial organization, Cambridge/Mass (MIT Press); deutsche Übersetzung (1999): Industrieökonomik, 2. A., München (Oldenbourg Verlag). Tremblay, V. J.; C. H. Tremblay (2012), New Perspectives on Industrial Organization: With Contributions from Behavioral Economics and Game Theory, New York (Springer). Van den Bergh, R. (2017), Comparative Competition Law and Economics, Cheltenham/ Northampton (Edgar Elgar Publishing). Vives, X. (2009), Competition Policy in the EU: Fifty Years on from the Treaty of Rome, Oxford (Oxford University Press). Waldman, D. E; E. J. Jensen (2013), Industrial Organization: Theory and Practice, 4. A., New York (Pearson Education Limited). Whish, R., D. Bailey (2015), Competition Law, 8. A., Oxford (Oxford University Press).

13 Wettbewerbspolitik

187

Williamson, O. E. (1968), Economies as an antitrust defense: The welfare trade-offs, in: American Economic Review, Vol 58, No 1, S. 18-36. Williamson, O. E. (1985), The economic institutions of capitalism: firms, markets, relational contracting, New York (Free Press); deutsche Übersetzung (1990), Die ökonomischen Institutionen des Kapitalismus: Unternehmen, Märkte, Kooperationen, Tübingen (Mohr Siebeck).

Regulierung

14

Ralf Dewenter und Ulrich Heimeshoff

Gliederung 14.1 Einleitung............................................................................................................ 191 14.2 Theoretische Grundlagen der Regulierung .................................................... 193 14.2.1 Monopole................................................................................................ 193 14.2.1.1 Preissetzung des Einproduktmonopolisten....................... 193 14.2.1.2 Mehrproduktmonopol.......................................................... 194 14.2.1.3 Natürliches Monopol und Monopolresistenz.................... 195 14.2.2 Wohlfahrtsverluste durch Monopole.................................................. 198 14.2.2.1 Allokative Ineffizienz............................................................. 198 14.2.2.2 Rent-Seeking.......................................................................... 200 14.2.2.3 Produktive Ineffizienz .......................................................... 201 14.2.2.4 Qualitative Ineffizienz .......................................................... 202 14.2.2.5 Dynamische Ineffizienz ....................................................... 202 14.2.3 Kostenstrukturen in Netzindustrien................................................... 203 14.2.3.1 Fixkosten, versunkene Kosten und Marktzutrittsbarrieren.......................................................... 203 14.2.3.2 Entscheidungsrelevante Kosten........................................... 205 14.2.3.3 Verbundkosten und Gemeinkosten.................................... 207 14.2.4 Eigenschaften von Netzindustrien....................................................... 210 14.2.4.1 Netzeffekte ............................................................................. 210 14.2.5 Mechanismen der Preissetzung und Tarifstrukturen....................... 214 14.2.5.1 Grenzkosten- vs. Durchschnittskostenpreise..................... 214 14.2.5.2 Mehrteilige Tarife.................................................................. 216 14.2.5.3 Ramsey-Preise........................................................................ 216 14.3 Instrumente der Preisregulierung.................................................................... 219 14.3.1 Kostenorientierte Instrumente ............................................................ 219 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 T. Apolte et al. (Hrsg.), Kompendium der Wirtschaftstheorie und Wirtschaftspolitik III, https://doi.org/10.1007/978-3-658-21775-4_14

189

190

Ralf Dewenter und Ulrich Heimeshoff

14.3.1.1 Kostenbasierte Regulierung................................................. 219 14.3.1.2 Rate-of-Return Regulierung................................................. 221 14.3.1.3 Cost-Plus-Regulierung.......................................................... 223 14.3.1.4 Efficient Component Pricing Rule ..................................... 224 14.3.1.5 Anreizproblematik kostenorientierter Instrumente......... 224 14.3.2 Anreizorientierte Instrumente............................................................. 225 14.3.2.1 Price-Cap Regulierung (Anreizregulierung)..................... 225 14.3.3 Weitere Instrumente ............................................................................. 228 14.3.3.1 Loeb-Magat Mechanismus................................................... 228 14.3.3.2 Sappington-Sibley Mechanismus......................................... 230 14.3.3.3 Finsinger-Vogelsang Mechanismus..................................... 230 14.3.3.4 Vogelsang-Finsinger Mechanismus..................................... 230 14.4 Alternative Methoden der Regulierung.......................................................... 232 14.4.1 Yardstick Competition.......................................................................... 232 14.4.2 Ausschreibungswettbewerb/Franchise Bidding................................. 233 14.4.2.1 Einführung............................................................................. 233 14.4.2.2 Theoretische Grundlagen..................................................... 235 14.4.2.3 Zentrale Umsetzungsprobleme des Ausschreibungswettbewerbs................................................ 236 14.4.3 Staatsunternehmen/interne Subventionierung.................................. 240 14.4.3.1 Staatsunternehmen und Universaldienstverpflichtungen........................................... 240 14.4.3.2 Definition interner Subventionierung................................ 242 14.4.3.3 Instabilität interner Subventionierung im Wettbewerb....................................................................... 243 14.4.4 Buchhalterische Entflechtung.............................................................. 243 14.4.4.1 Arten der Entflechtung......................................................... 243 14.4.4.2 Anwendung in der regulatorischen Praxis......................... 244 14.5 Institutionen der Regulierung.......................................................................... 245 14.5.1 Regulierungsbehörden ......................................................................... 245 14.5.2 Einflüsse auf Regulierungsbehörden................................................... 247 14.5.3 Unabhängigkeit von Regulierungsbehörden...................................... 248 14.5.4 Vorteile unabhängiger Regulierungsbehörden.................................. 249 14.6 Regulierung von Netzindustrien ..................................................................... 250 14.6.1 Grundlegende Ausgestaltung der Regulierung.................................. 250 14.6.2 Telekommunikation.............................................................................. 251 14.6.3 Energie.................................................................................................... 254 14.6.4 Bahninfrastruktur.................................................................................. 256 Literaturverzeichnis........................................................................................................ 258

14 Regulierung

14.1

191

Einleitung

Die ökonomische Theorie der Regulierung befasst sich traditionell mit den Sektoren einer Volkswirtschaft, die auch in Deutschland lange Zeit sowohl durch intensive staatliche Eingriffe als auch durch den Betrieb von Unternehmen durch den Staat selbst gekennzeichnet waren (vgl. Borrmann und Finsinger, 1999). Bei diesen Sektoren handelt es sich insbesondere um die so genannten Versorgungsbereiche wie Energieversorgung, Telekommunikation und Post, Wasserversorgung und Transportwesen. Im Zuge des Liberalisierungsprozesses ab Mitte der 1990er Jahre wurde das Eigentum des Staates an den in diesen Sektoren tätigen Unternehmen schrittweise zurückgefahren, wenn auch heute noch in einigen Branchen substanzielle Anteil der Versorgungsunternehmen im staatlichen Eigentum stehen. Die ökonomische Theorie der Regulierung (auch Regulierungsökonomik genannt) befasst sich mit der Frage, auf welchen Wertschöpfungsstufen der genannten Sektoren Wettbewerb ohne staatliche Eingriffe möglich ist (z. B. Verkauf von Strom oder Telekommunikationsdienstleis­tungen) und auf welchen Ebenen regulatorische Eingriffe notwendig sind. Aus ökonomischer Sicht wäre es beispielsweise ineffizient, wenn mehrere Unternehmen Übertragungsnetze für Strom parallel bauen würden. Wenn es aber ökonomisch sinnvoll ist lediglich ein Übertragungsnetz zu haben, muss für Unternehmen auf vor- (z. B. Energieerzeuger) und nachgelagerten Ebenen (z. B. Energiehändler) die Möglichkeit bestehen, diese Netze zu festgelegten Entgelten diskriminierungsfrei zu nutzen. Der Eigentümer der Übertragungsnetze soll keine Monopolmacht ausüben, welches durch überhöhte Entgelte oder durch Verwehrung des Zugangs zu diesen Netzen für bestimmte Konkurrenten erfolgen kann. Diese Problematik tritt regelmäßig in den regulierten Netzindustrien auf. Aus diesem Grund befasst sich die Regulierungsökonomik zum einen mit der Frage, wie der Zugang zu den kritischen Infrastrukturen ermöglicht werden kann. Zum anderen spielt die Höhe der von den Zugangssuchenden zu zahlenden Entgelten eine wichtige Rolle. Darüber hinaus kann aber auch die Möglichkeit bestehen, dass Wettbewerb und Zugang zu bestimmten Infrastrukturen nicht möglich sind. In diesem Fall muss dafür gesorgt werden, dass das regulierte Unternehmen nicht seine Monopolmacht ausschöpft, aber dennoch ausreichende Ergebnisse einfährt, um eine leistungsfähige Infrastruktur zu erhalten. Dies sind die Fragestellungen mit denen sich das vorliegende Kapitel beschäftigt. Der Darstellung der Theorie der Regulierung liegt hier somit eine enge Abgrenzung zugrunde. Staatliche Regulierung kann sich auf viele weitere Dinge wie beispielsweise Sicherheitsvorschriften, Haftungsregeln, Mindeststandards und Normen beziehen. Diese werden allerdings in der Regel durch andere Formen des Marktversagens oder anderer Werturteile begründet als die auf der Basis der Theorie der natürlichen Monopole basierenden Netzregulierung, welche in diesem Kapitel dargestellt wird. Aus diesem Grund werden solche weiteren Regulierungsfelder sowohl aus didaktischen als auch aus Platzgründen hier nicht betrachtet. Ein weiteres Feld der Regulierung, die Regulierung von Finanzdienstleistungen, wird ebenfalls nicht dargestellt. Dieser Regulierung liegen ebenfalls andere Faktoren zugrunde, wie zum Beispiel Finanzmarktrisiken, so dass eine umfassende Darstellung im

192

Ralf Dewenter und Ulrich Heimeshoff

Rahmen dieses Kapitels nicht möglich ist. Außerdem hat sich die Regulierung von Banken und Finanzdienstleistern in den letzten zwei Jahrzehnten zu einem eigenen Gebiet entwickelt, welches weitestgehend losgelöst von der klassischen Theorie der Regulierung ist. Die Bedingungen für staatliche Interventionen sind zum einen, eine dauerhafte und gravierende Marktunvollkommenheit, wie z.B. ein resistentes, natürliches Monopols. In diesem Fall ist es wahrscheinlich, dass Monopolpreise gesetzt werden und es dadurch zu einem dauerhaften Wohlfahrtsverlust kommt. Dieser Wohlfahrtsverlust wurde dargestellt, indem der Vergleichsmaßstab der vollkommenen Konkurrenz unterstellt wurde - eine Wettbewerbssituation, die in der Realität nie erreicht wird. Zwar kann das gleiche Ergebnis auch durch einen Preiswettbewerb bei homogenen Produkten erreicht werden, doch sind auch die Annahmen dieses Modells nur selten erfüllt. Unterstellt man aber eine Situation des vollkommenen Wettbewerbs, so ist es wenig verwunderlich, wenn diese in der Realität nicht anzutreffen ist. Es wird ein sogenannter Nirwana-Ansatz gewählt (vgl. Demsetz, 1969), der jedoch mit tatsächlichen Märkten nicht kompatibel ist. Es lässt sich daher auch keine Handlungsempfehlung ableiten, wenn das Wettbewerbsergebnis nicht vorliegt. Vielmehr ist zu fragen, welche Situation den eintreten würde, wenn funktionsfähiger Wettbewerb vorliegen würde. Es stellt sich also die Frage nach der kontrafaktischen Situation. Dies lässt sich daran messen, zu welchem Ergebnis zum Beispiel vergleichbare Märkte, die keinen regulierungsbedarf aufweisen kommen. Nur solche Situationen, die einen realistischen Maßstab darstellen, lassen sich für Handlungsempfehlungen heranführen - also dazu, ob ein Abweichen von dieser Situation tatsächlich evident ist und in welchem Maße regulatorisch eingegriffen werden muss. Die zweite Voraussetzung für die Intervention ist, dass es adäquates Instrument zur Verfügung steht, die Marktunvollkommenheit zu beseitigen und die kontrafaktische Situation herbeizuführen. Im Fall von Marktmacht und damit verbundenen überhöhten Preisen, kann dies anhand der Preisregulierung erreicht werden. Allerdings müssen dazu auch die entsprechenden Informationen zur Verfügung stehen, die eine Regulierung ermöglichen. Die Kosten, die dabei aufgebracht werden müssen, um die entsprechenden Informationen zu erhalten und um die Regulierung durchführen und das Ergebnis überprüfen zu können, dürfen aber nicht so hoch sein, dass der Effizienzgewinn aus der Regulierung (über-)kompensiert wird. Der Eingriff sollte also zu einem Netto-Effizienzgewinn führen. Der Nutzen aus der Regulierung besteht vor allem in dem verhinderten Wohlfahrtsverlust, der durch Marktmacht entsteht. Die Kosten der Regulierung setzen sich zusammen aus den eigentlichen Regulierungsaufwendungen, möglichen Lobbying Aktivitäten des regulierten Unternehmens, möglichen Fehlanreizen des Regulierers oder auch mögliche Ineffizienzen aufgrund fehlender Innovationsanreize bei falscher Regulierung. Das vorliegende Kapitel gliedert sich wie folgt: Im Abschnitt 2 werden zunächst die notwendigen theoretischen Grundlagen dargestellt. Dabei geht es sowohl um die Theorie des natürlichen Monopols und spezielle Kostenstrukturen und Eigenschaften von Netzindustrien als auch um Preissetzungsmechanismen. Aufbauend auf den theoretischen Grundlagen widmet sich Abschnitt 3 den Verfahren der Preisregulierung, die den Kern

14 Regulierung

193

dieses Kapitels darstellen. Im Abschnitt 4 werden Alternativen zu den vorgestellten Verfahren der Preisregulierung präsentiert. Die Wirksamkeit staatlicher Regulierung hängt nicht zuletzt auch von ihrer Umsetzung ab, welche durch Regulierungsbehörden veranlasst wird. Im fünften Abschnitt wenden wir uns der Ausgestaltung von Regulierungsbehörden zu. Abschließend wird im Abschnitt 6 ein kurzer Überblick über die sektorspezifische Regulierung in der Telekommunikation, der Energiewirtschaft sowie dem Bahnsektor gegeben.

14.2

Theoretische Grundlagen der Regulierung

Marktmacht kann als einer der wesentlichen Gründe für staatliche Regulierung herangezogen werden. Wie wir später noch zeigen werden, stellt Marktmacht insbesondere in Form von resistenten Monopolen ein Problem dar, das oftmals regulatorische Eingriffe erfordert. Monopolistische Bereiche und Monopolresistenz lassen sich fast ausschließlich in Netzindustrien beobachten, was mit den Eigenschaften dieser Industrien und den Kostenstrukturen zusammenhängt. Dieser Abschnitt widmet sich daher den Grundlagen der Regulierung. Zunächst wird dazu die Marktform des Monopols und dessen Preissetzung diskutiert. Anschließend werden die Wohlfahrtseffekte im Monopol dargestellt und die Kostenstrukturen in Netzindustrien besprochen. Abschließend werden die besonderen Eigenschaften von Netzindustrien aufgezeigt.

14.2.1 Monopole 14.2.1.1 Preissetzung des Einproduktmonopolisten Preissetzung im Monopol Zunächst betrachten wir die Preissetzung eines Unternehmens, das als einziger Anbieter ein einzelnes Produkt bzw. Dienstleitung anbietet – den sogenannten Einproduktmonopolisten. Um die diese später mit der Preissetzung eines Mehrproduktmonopolisten vergleichen zu können, bietet sich ein allgemeiner Ansatz an, der die genauen funktionalen Zusammenhänge offenlässt und implizite Funktionen verwendet. Angenommen, die inverse Nachfragefunktion nach einem Gut lässt sich durch p(x) und die entsprechende Kostenfunktion K(x) darstellen, wobei p den Preis, x die Menge und K die Kosten darstellen (vgl. Varian, 2011). Der zu maximierende Gewinn des Monopolisten lautet dann max π(x)= p(x)x −K(x). x

Anhand der Bedingung erster Ordnung

dπ dp dK = p(x)+ x − = 0, dx dx dx

194

Ralf Dewenter und Ulrich Heimeshoff

lässt sich der sogenannte Lerner-Index, dK p− dx = 1 dp x p − dx p bzw.

p−GK 1 = , p ε herleiten. Der Index beschreibt den Preis-Kosten-Aufschlag des Monopolisten oberhalb der Grenzkosten (GK). Der Aufschlag ist umso höher, je geringer die Preiselastizität der Nachfrage (), je inelastischer die Nachfrage also auf Preisänderungen reagiert. Ein wichtiges Resultat ist dabei, dass der Monopolist immer einen Preis oberhalb des Wettbewerbspreises pw = GK setzt. Wie weit wiederum der Monopolpreis oberhalb des Wettbewerbspreises liegt, hängt alleine davon ab, wie hoch die Preiselastizität der Nachfrage ist. Die Möglichkeit die Preise oberhalb der Grenzkosten anzuheben und damit die Marktmacht eines Monopolisten, wird also dadurch bestimmt, wie stark die Konsumenten auf Preisveränderungen reagieren.

14.2.1.2 Mehrproduktmonopol Produziert ein monopolistisches Unternehmen mehr als nur ein einzelnes Produkt, wird es als Mehrproduktmonopolist bezeichnet. Ausschlaggebend für das Ergebnis ist dann, in welchen Beziehungen die Produkte zueinander stehen. Grundsätzlich lassen sich dabei unabhängige Produkte, Substitute und Komplemente unterscheiden. Der Preiskostenaufschlag ist bei dem Mehrproduktmonopolisten abhängig davon, welche Beziehungen zwischen den Produkten bestehen. Bietet ein Unternehmen zum Beispiel genau zwei Produkte an, so lassen sich die Nachfragefunktion als x1 = x1(p1, p2) und x2 = x2(p1, p2) darstellen (vgl. Varian, 2011). Lautet die Kostenfunktion K (x1, x2), ergibt sich folgende Gewinnfunktion: π(p1, p2) = p1x1(p1, p2) + p2x2(p1, p2) – K(x1(p1, p2), x2(p1, p2)).

∂π ∂π Mithilfe der Bedingungen erster Ordnung und sowie den direkten Preiselas­∂ p ∂ p2 1 tizitäten ε11 =−

dx1 p1 dx p ε22 =− 2 2 und dp1 x1 dp x 2

und den Kreuzpreiselastizitäten

ε12 =−

dx1 p2 dx p ε21 =− 2 1 , und dp12 x1 dp1 x 2

lassen sich die jeweiligen Preis-Kosten-Aufschläge berechnen als

14 Regulierung

195

p1 −GK1 1 xε p −GK 2 1 xε = +( p2 −GK 2 ) 2 21 und 2 = +( p1 −GK1 ) 1 12 . p1 ε11 p1x1ε11 p2 ε22 p2 x 2ε22 Wie sich leicht erkennen lässt, sind mit Ausnahme der Kreuzpreiselastizitäten alle Ausdrücke auf den jeweils rechten Seiten der Gleichungen eindeutig positiv. Ob nun der PreisKosten-Aufschlag größer oder kleiner als im Einproduktfall ist, hängt damit allein von den Kreuzpreiselastizitäten ab. Für den Fall unabhängiger Produkte, sind diese gleich null, die Aufschläge reduzieren sich auf den Einproduktfall. Der Mehrproduktmonopolist bepreist in diesem Fall jedes der Produkte wie im normalen Monopol. Liegen dagegen Substitute vor, so sind die Kreuzpreiselastizitäten positiv (ε12 > 0 und ε21 > 0). Die Preis-Kosten-Aufschläge sind dann größer als im einfachen Monopol. Während zwei im Wettbewerb stehende Unternehmen substitutionaler Produkte je nach Aktionsparameter deutlich geringere Aufschläge hinnehmen müssen, kann der Mehrproduktmonopolist diesen Wettbewerb außer Kraft setzen und deutlich höhere Aufschlage verlangen. Erhöht der Monopolist den Preis eines Produkts, steigt die Nachfrage nach dem anderen Produkt, dem Substitut. Der Monopolist nutzt diese Substitutionalität zwischen den Produkten bei der Preissetzung aus. Sind die beiden Produkte dagegen Komplemente, so sind die Kreuzpreiselastizitäten negativ (ε12 < 0 und ε21 < 0) und auch der gesamte rechte Ausdruck der jeweiligen Gleichungen wird negativ. Die Preis-Kosten-Aufschläge sind geringer als im einfachen Monopol. Auch hier ist der Zusammenhang intuitiv: Je größer der Preis eines Produkts, desto geringer die Nachfrage nach dem Komplement. Der Monopolist ist also nicht in der Lage, entsprechend hohe Preise für beide Produkte zu verlangen. Liegt jedoch einer der Preise unterhalb der Grenzkosten, ist der Aufschlag des anderen Produkt entsprechend höher. Die rechte Seite würde dann insgesamt positiv, der Preis liegt dann oberhalb des gewöhnlichen Monopols. Unabhängig davon, ob es sich um unabhängige oder abhängige Produkte handelt, gilt immer eine zentrale Aussage: Je größer die direkte Preiselastizität der Nachfrage, desto geringer der Preis-Kosten-Aufschlag. Preise sind also besonders hoch, wenn die Konsumenten wenig Alternativen haben.

14.2.1.3 Natürliches Monopol und Monopolresistenz Natürliches Monopol Im Gegensatz zu den Begriffen Monopol, Oligopol und Polypol, beschreibt der Begriff natürliches Monopol weiniger eine Marktstruktur, sondern vielmehr eine bestimmte Kostenstruktur. Dies ist darin begründet, dass ein natürliches Monopol immer in der Lage ist, zu geringeren Kosten zu produzieren, als jede andere Anzahl von Unternehmen im Markt. Voraussetzung für die Existenz eines natürlichen Monopols, ist die Subadditivität der Kostenfunktion im relevanten Bereich. Subadditivität liegt im Einproduktfall vor, wenn gilt, dass K(X) < K(x1) + K(x2) + … + K(xn),

196

Ralf Dewenter und Ulrich Heimeshoff

wobei K die Kosten und X = x1 + x2 + … + xn die Outputmengen eines Gutes darstellen (vgl. Viscusi et al., 2005). Die Kosten der Produktion der Gesamtmenge X sind also geringer als bei jeglicher Aufteilung der Produktionsmengen auf unterschiedliche Produktionsstätten. Der Grund dafür liegt in der Existenz fallender langfristiger Durchschnittskosten. Diese wiederum können auf verschiedene Weise wie z.B. durch Skalenerträge, Dichtevorteile oder Verbundvorteile begründet sein. Die Frage, ob ein natürliches Monopol vorliegt, muss also durch den Verlauf und der Lage der Durchschnittskostenkurve bestimmt werden. Sinken die langfristigen Durchschnittskosten zum Beispiel (LDK1) bis zur Sättigungsmenge, also bis zum Schnittpunkt mit der Nachfragekurve (N), liegt Subadditivität und damit ein natürliches Monopol vor (vgl. Abbildung 14.1). Nur ein Unternehmen ist dann in der Lage, zu minimalen Kosten zu produzieren. Aber auch der Verlauf von LDK2 bildet ein natürliches Monopol ab. Zwar steigen die Durchschnittskosten bereits vor der Marktsättigung wieder an, jedoch liegt das Kostenminimum so nahe an der Marknachfrage, dass kein weiteres Unternehmen dieses erreichen kann, wenn ein anderes Unternehmen bereits im Kostenminimum produziert. Liegt das Kostenminimum jedoch so weit vor der Sättigungsmenge, dass weitere Unternehmen zu geringsten Kosten anbieten können (LDK3), liegt trotz fallender Durchschnittskosten kein natürliches Monopol vor. Subadditivität hängt somit von der Kostenstruktur als auch von der Nachfragestruktur, also der Marktgröße ab. Verändert sich die Kostenstruktur aufgrund von technischem Fortschritt in Form von Prozessinnovationen oder verändert sich die Marktnachfrage etwa bedingt durch exogene Nachfrageschocks, so muss auch die Frage nach der Subadditivität neu gestellt werden. Subadditivität ist damit aber unter Umständen nur ein temporäres Problem.

Abb. 14.1  Subadditivität

14 Regulierung

197

Monopolresistenz Eine weitere Voraussetzung für die Regulierungsnotwendigkeit von Monopolen, ist die Monopolresistenz. Ein resistentes Monopol liegt dann vor, wenn das natürliche Monopol durch Marktzutrittsbarrieren vor tatsächlichem und potenziellem Wettbewerb geschützt ist. Auch im Fall von hohen Preis-Kosten-Aufschlägen sind andere Unternehmen dann nicht in der Lage, in den Markt einzutreten. Die disziplinierende Wirkung des drohenden Marktzutritts, die bei bestreitbaren Märkten ansonsten zu einem effizienten Ergebnis führen würde, kann ihre Wirkung dann nicht mehr entfalten. Die Theorie der bestreitbaren Märkte (vgl. Willig, 1980; Baumol, Panzar und Willig, 1982) setzt dabei voraus, dass freier Marktzutritt als auch freier Marktaustritt möglich ist. Der potenzielle Wettbewerb führt dann dazu, dass selbst natürliche Monopole diszipliniert werden und den Preis auf Niveau der Durchschnittskosten setzen. Würde das Monopol den Preis oberhalb des wettbewerblichen Niveaus setzen, würde es demnach sofort zu Marktzutritt kommen. Der Neuling könnte dann das etablierte Unternehmen im Preis unterbieten und damit den gesamten Markt bedienen. In dem Wissen, dass ein Konkurrent in den Markt eintreten könnte, setzt der Monopolist den Preis also entsprechend der Durchschnittskosten. Eine Regulierung wäre dann jedoch nicht notwendig. Damit ein Markt aber bestreitbar ist, muss eine Reihe von Voraussetzungen gelten. So muss der Markzutritt völlig kostenlos und jederzeit möglich sein, damit auch bei relativ geringen Preisdifferenzen oberhalb der Kosten, ein Zutritt lohnend erscheint. Ebenso muss der Marktaustritt genauso kostenlos möglich sein, da sonst ein Neuling antizipieren würde, dass beim Marktaustritt Kosten entstehen, die den Zutritt nicht mehr lohnend erscheinen lassen. Das eintretende Unternehmen muss ebenso über die gleiche Technologie verfügen wie der Monopolist, damit ein ebenso effizientes Angebot möglich wird. Gleichzeitig muss der Neuling in der Lage sein, den Preis sofort anzupassen, während der Monopolist jedoch nicht gleichermaßen flexibel sein darf. Könnte der Incumbent den Preis ebenso schnell anpassen, würde ein Zutritt für den Neuling nicht lohnen. Die starken Annahmen lassen Zweifel aufkommen, inwiefern die Theorie der bestreitbaren Märkte realistisch ist, der potenzielle Wettbewerb also tatsächlich dazu führt, dass die Preise auf Durchschnittskostenniveau gesetzt werden. Nichtsdestotrotz ist sie sehr hilfreich, sie zeigt zum einen, dass potenzieller Wettbewerb durchaus disziplinierende Wirkung entfalten kann. Zum anderen aber, und das erscheint noch wichtiger, wird klar, dass bei Existenz von wesentlichen Marktzutrittsbarrieren der Monopolist vor Marktzutritt und damit vor Wettbewerb geschützt ist. In diesem Fall ist möglicherweise ein Eingreifen des Staates notwendig. Den Marktzutritt verhindern können unterschiedlichste Marktzutrittsschranken, die sich generell in institutionelle, strukturelle und strategische Zutrittsschranken unterteilen lassen. Institutionelle Schranken liegen dann vor, wenn Institutionen bestehen, die den Marktzu- oder -austritt behindern. So sind etwa die Meisterpräsenz im Handwerk oder die Lizenzvergabe für Radiosender eine institutionelle Schranke, die bewusst vom Staat eingesetzt werden. Oftmals sind damit andere Ziele verbunden, als die Stärkung des Wettbewerbs. Strategische Schranken werden dagegen vom Unternehmen eingesetzt, um den

198

Ralf Dewenter und Ulrich Heimeshoff

Zutritt von Konkurrenten zu verhindern oder zu erschweren. Eine Produktdifferenzierungsstrategie kann Wettbewerber daran hindern Nischen zu besetzten und damit in den Markt einzutreten. Vertikale Verträge mit Zulieferern können die Kosten für Wettbewerber erhöhen, und damit einen Zutritt zumindest teurer werden lassen. Strukturelle Marktzutrittsbarrieren sind in der Kosten- oder Nachfragestruktur begründete Schranken, die den Zutritt oder Austritt erschweren oder verhindern können. Eine insbesondere bei Netzindustrien wesentliche strukturelle Barriere liegt in der Existenz von versunkenen Kosten (vgl. Abschnitt 14.2.3). Dies sind Kosten bzw. Investition, die vor dem Marktzutritt getätigt werden müssen, um die Produkte oder Dienstleistungen am Markt anbieten zu können, bei Marktaustritt aber nicht mehr oder nur zu einem geringen Teil rückgängig gemacht werden können - man spricht daher auch von irreversiblen Kosten bzw. Investitionen oder generell von Irreversibilitäten. Sind beide Voraussetzungen erfüllt, liegen also Subadditivität und Monopolresistenz vor, ist möglicherweise eine Regulierung notwendig, um dauerhaft Wohlfahrtsverluste zu vermeiden. Ob aber tatsächlich regulatorisch in den Marktprozess eingegriffen werden soll, hängt auch davon ab, ob durch den Eingriff eine bessere Situation geschaffen werden kann als ohne Regulierung. Die Frage ist also, in welchem die Regulierungskosten und die Kosten durch das resistente Monopol stehen. Liegt dagegen keine Monopolresistenz vor, bzw. sind die Marktzutrittsbarrieren gering, so ist davon auszugehen, dass die potenzielle Konkurrenz den Monopolisten diszipliniert und dieser den Preis nicht zu sehr oberhalb der Durchschnittskosten setzt, um keine Konkurrenten anzulocken.

14.2.2 Wohlfahrtsverluste durch Monopole Monopole können in verschiedener Hinsicht zu Wohlfahrtsverlusten führen, sowohl in statischer, als auch in dynamischer Sicht. Aus statischer Sicht, sind vor allem der allokative, der qualitative und der produktive Wohlfahrtsverlust zu nennen. Der erste entsteht durch eine, im Vergleich zum vollständigen Wettbewerb, geringere Menge bei einem gleichzeitig höheren Preis. Die anderen beiden Ineffizienzen entstehen durch eine „zu geringe“ Qualität bzw. durch „zu hohe“ Kosten. Eine dynamische Ineffizienz würde vorliegen, wenn das Monopol einen geringen Anreiz hat in Forschung und Entwicklung zu investieren und damit relativ wenig Produkt- bzw. Prozessinnovationen entstehen (vgl. Viscusi et al., 2005).

14.2.2.1 Allokative Ineffizienz Der allokative Wohlfahrtsverlust ist eine direkte Folge des Monopols. Doch nicht nur bei dieser extremem Marktform entsteht eine solche Ineffizienz, sondern immer dann, wenn Marktmacht existiert, also der Preis oberhalb der Grenzkosten gesetzt werden kann. Da der Preis bei vollständigem Wettbewerb den Grenzkosten entspricht, kann die Differenz als Marktpreis und Grenzkosten als Maß für die vorliegende Marktmacht verwendet werden. Diese ist im Monopol am größten, tritt aber ebenso bei anderen Marktformen auf.

14 Regulierung

199

Liegt der Preis bei Marktmacht oberhalb der Grenzkosten, sinkt die nachgefragte Menge und es entsteht ein Wohlfahrtsverlust. Um diesen zu berechnen, bietet sich ein Beispiel mit einer linearen Nachfragefunktion und linearen Grenzkosten an: Die lineare inverse Nachfragefunktion eines Marktes sei gegeben durch p(x) = a – bx, wobei p den Preis, x die Menge, a den Ordinatenabschnitt der inversen Nachfragefunktion und damit den Prohibitivpreis und b die Steigung der Nachfragefunktion darstellen. Gegeben sei ebenso eine Kostenfunktion mit konstanten Grenzkosten c, K(x) = cx. Der Monopolist maximiert nun seinen Gewinn

max π = ( p−c)x = (a−bx −c)x x

über die Bedingung erster Ordnung und erhält nach Auflösen nach x die gewinnmaximale Monopolmenge

xm =

a−c . 2b

Durch Einsetzen in die inverse Nachfragefunktion ergibt sich der Monopolpreis als

p m=

a+c a−c . = c+ 2 2

Der Preis im Monopol entspricht also den Grenzkosten und einem Aufschlag. Letzterer misst die Marktmacht des Monopolisten. Je größer die Marktmacht, desto höher liegt der Preis oberhalb der Grenzkosten c. Der Monopolgewinn entspricht dann

πm =

(a−c)2 . 4b

Der Gewinn ist also umso höher, je größer Prohibitivpreis (auch vertikale Marktgröße), je geringer die Grenzkosten und die Steigung der inversen Nachfragefunktion. Liegen keine Fixkosten vor, entspricht der Gewinn der Produzentenrente. Die Konsumentenrente lässt sich berechnen als

1 ⎛ a+c ⎞⎟ a−c (a−c)2 KR = ⎜⎜a− = ⎟ 2⎝ 2 ⎟⎠ 2b 8b und entspricht damit bei vorliegenden linearer Nachfrage und Kostenfunktion genau der Hälfte der Produzentenrente. Der Nettowohlfahrtsverlust bemisst sich aus der Differenz der Gesamtwohlfahrt abzüglich der Produzenten- und Konsumentenrente und beläuft sich auf

200

Ralf Dewenter und Ulrich Heimeshoff

1 ⎛ a+c ⎞⎟⎛ a−c a−c ⎞⎟ (a−c)2 NWV = ⎜⎜ −c⎟⎟⎜⎜ − . ⎟= ⎠⎝ b 2⎝ 2 2b ⎟⎠ 8b Der Wohlfahrtsverlust ist damit, bei gegebenen Annahmen, genauso groß wie die Konsumentenrente. Ein dauerhafter Verlust aufgrund eines resistenten Monopols, ist demnach entsprechend groß. Abbildung 14.2 macht noch einmal deutlich, dass ein Wohlfahrtsverlust immer dann entsteht, wenn der Preis oberhalb der Grenzkosten gesetzt wird, also Marktmacht besteht. Als Wohlfahrtsverlust wird diese Situation bezeichnet, da die Gesamtwohlfahrt, also der Summe aus Produzenten- und Konsumentenrente nicht maximal ist. Dieser Bereich geht der Volkswirtschaft verloren, das Ergebnis ist ineffizient.

14.2.2.2 Rent-Seeking Der allokative Wohlfahrtsverlust kann möglicherweise noch stärker ausfallen, wenn ein Monopolist seine Produzentenrente dazu verwendet, seine Monopolstellung zu erhalten oder auszuweiten (vgl. Posner, 1975). Es sind dabei verschiedene Maßnahmen denkbar, um die Renten zu sichern. Beispielsweise kann der Monopolist Anwälte beschäftigen, um Marktmacht in den Verhandlungen mit z.B. Wettbewerbsbehörden zu sichern. Auch können Ausgaben getätigt werden, um Lobbying zu betreiben und die Position gegenüber der Politik zu stärken. Ebenso sind Ausgaben für illegale Maßnahmen denkbar, wie etwa für Bestechung und andere korruptive Handlungen.

Abb. 14.2  Wohlfahrt im Monopol

14 Regulierung

201

Allen diesen Ausgaben gemein ist, dass sie nicht produktiv sind und damit für eine produktive Verwendung nicht mehr zur Verfügung stehen und damit aus wohlfahrtsökonomischer Sicht eine Verschwendung von Renten darstellen. Der allokative Wohlfahrtsverlust erhöht sich also um den Teil der Produzentenrente, die zur Sicherung derselben verwendet werden. Im Extremfall wird der gesamte Monopolgewinn auf die Sicherung der Renten aus Marktmacht verwendet (vgl. Posner, 1975). Damit steigt der Wohlfahrtsverlust aufgrund von Marktmacht, über das Maß des einfachen Nettowohlfahrtsverlustes hinaus und beträgt im Extremfall die Summe aus Nettowohlfahrtsverlust und Gewinn.

14.2.2.3 Produktive Ineffizienz Neben der allokativen Ineffizienz kann es im Monopol ebenso zu einer produktiven Ineffizienz kommen. Diese liegt dann vor, wenn bei gegebener Technologie nicht zu geringstmöglichen Kosten produziert wird. Grundsätzlich gilt zwar, dass der Monopolist einen Anreiz hat, die Kosten zu senken, da auf diese Weise der Gewinn maximiert werden kann. Dies lässt sich grafisch relativ einfach zeigen (vgl. Abbildung 14.3): Indem die Grenzkosten (GK) sinken, wird ein neues Gleichgewicht von Grenzkosten und Grenzerlösen (GE) erreicht, das zu einer Ausweitung der Menge, geringeren Preisen aber ebenso zu höheren Gewinnen und einer größeren Konsumentenrente führt. Der gesamte Wohlfahrtsgewinn, der durch die Kostensenkung erreicht werden könnte, ist durch die grauen Flächen gekennzeichnet.

Abb. 14.3  Produktive Ineffizienz im Monopol

202

Ralf Dewenter und Ulrich Heimeshoff

Ist jedoch ein Unternehmen keinem wesentlichen Wettbewerb ausgesetzt, so sinkt der Druck, die Kosten zu minimieren, um damit das Gewinnmaximum zu erreichen. Dies gilt vor allem für den Monopolisten, da dieser zwar auf maximale Gewinne verzichtet, jedoch keine Nachfrage an mögliche Konkurrenten verliert. Der Druck, zu minimalen Kosten zu produzieren, ist daher nicht sonderlich stark. Dies ist insbesondere der Fall, wenn Unternehmen eine gewisse Größe erreichen. Fehlende Motivation der Mitarbeiter, ein großes, schwer zu manövrierendes Unternehmen und damit lange Entscheidungswege und zunehmende Bürokratisierung erschweren möglicherweise die Entscheidungsfindungen und führen dann zu Ineffizienzen. Leibenstein (1966) hat dieses Phänomen mit dem Begriff der X-Ineffizienzen beschrieben. Die Größe eines Unternehmens und dessen hierarchische Struktur wirken dann negativ auf die Gewinne. Ein weiterer Erklärungsansatz findet sich in der Prinzipal-Agenten-Theorie (vgl. Richter und Furubotn, 2003). Ist ein Unternehmen nicht eigentümer-, sondern managementgeleitet, so enthält die Zielfunktion des Managers nicht unbedingt die Gewinnmaximierung des Unternehmens, sondern z.B. die Umsatzmaximierung (etwa im Fall der Umsatzbeteiligung) oder das sog. „Empire building“. In diesem Fall weichen die Ziele des Prinzipals (also des Eigentümers) von denen des Agenten (des Managers) ab. Während die Eigentümer der Unternehmen stets die Gewinne im Blick haben, handeln Manager opportunistisch, indem sie die eigenen Ziele verfolgen.

14.2.2.4 Qualitative Ineffizienz Geht man davon aus, dass die Qualität eines Produktes die Zahlungsbereitschaft der Konsumenten erhöht, hat auch ein Monopolist grundsätzlich den Anreiz, eine gewisse Qualität zur Verfügung zu stellen. Mit den gleichen Argumenten wie bei der produktiven Effizienz, kann es aber ebenso zu Anreizen kommen, eine suboptimale Qualität anzubieten. Auch wenn eine Qualitätssteigerung den Gewinn erhöhen würde, würde dann das optimale Qualitätsniveau nicht erreicht. Aber auch dann, wenn der Monopolist die durch die Qualitätssteigerung induzierte Gewinnmaximierung mit einbezieht, ist unklar, welches Qualitätsniveau im Vergleich zur Wettbewerbssituation oder zum Wohlfahrtsoptimum letztendlich erreicht wird. Dies hängt vor allem davon ab, wie die Qualität die Zahlungsbereitschaft der Konsumenten beeinflusst und welche Kosten durch die Qualitätssteigerung entstehen. So orientiert sich der gewinnmaximierende Monopolist am Grenzerlös der Qualität und setzt diese den Grenzkosten der Qualität gleich. Der wohlfahrtsmaximierende soziale Planer orientiert sich jedoch am gesamten Grenznutzen der Qualität im Verhältnis zu den Grenzkosten. Der soziale Planer bezieht also auch die Steigerung der Konsumentenwohlfahrt mit ein. Der Monopolist stellt also tendenziell eine zu geringe Qualität zur Verfügung (vgl. Martin, 2002). 14.2.2.5 Dynamische Ineffizienz Inwiefern die dynamische Effizienz im Monopol erreicht wird, ist a priori nicht klar (vgl. Belleflamme und Peitz, 2015). Es gelten auch hier die gleichen Argumente, dass ein geringer

14 Regulierung

203

Wettbewerbsdruck möglicherweise zu einem geringeren Maß an Produkt- und Prozessinnovationen führt und der Wettbewerb stärkere Anreize bietet, zu innovieren. Zwar profitiert auch der Monopolist von einer Prozess- oder einer Produktinnovation, indem Kosten gesenkt oder die Zahlungsbereitschaft der Konsumenten erhöht wird. Jedoch ist der Anreiz des Monopolisten mglw. geringer als der eines Unternehmens im Wettbewerb. Der Monopolist kann sich durch eine Innovation einen geringeren Vorteil erarbeiten als ein Wettbewerbsunternehmen. Für den Monopolisten, der bereits Monopolgewinne realisiert, ist eine Steigerung durch einen effizientere Kostenstruktur (bei Prozessinnovationen) oder aus einer erhöhten Nachfrage (bei Produktinnovationen) möglich. Der Wettbewerber kann dagegen im Extremfall eine Monopolsituation erlangen. Auf der anderen Seite lassen sich Innovationen im Monopol besser zum Machterhalt nutzen, als dies im Wettbewerb möglich ist. Der Monopolist kann im Zweifel seine Monopolstellung verlieren, wenn er durch ein innovierendes Unternehmen, also durch potenzielle Konkurrenz,, bedroht ist. Gleichzeitig erlauben die Monopolgewinne größere Ausgaben für Forschung und Entwicklung (vgl. Schumpeter, 1942). Ein Monopolist kann also unter Umständen über größere Mittel verfügen, um Innovationen zu realisieren. Insgesamt kann also der Anreiz zu Innovationen im Monopol größer sein als im Wettbewerb. Nur dann wenn ein Unternehmen ausreichend Renten aus der Innovation abschöpfen kann und über entsprechende Mittel verfügt, werden auch Innovationen realisiert. Eine eindeutige Wirkung der Marktmacht auf die dynamische Effizienz lässt sich also nicht ableiten. Wie bereits bei der produktiven und qualitativen Effizienz, ist das Ergebnis nicht eindeutig zu bestimmen. Eine eindeutige Aussage lässt sich dagegen immer bezüglich der allokativen Effizienz treffen, die grundsätzlich geringer ist als bei Wettbewerb. Aber auch andere Ineffizienzen sind durchaus möglich und wahrscheinlich.

14.2.3 Kostenstrukturen in Netzindustrien 14.2.3.1 Fixkosten, versunkene Kosten und Marktzutrittsbarrieren Sowohl in unternehmerischen als auch in regulatorischen Entscheidungen sind präzise Kosteninformationen unabdingbar. Netzindustrien zeichnen sich in Bezug auf ihre Kosten durch einige Besonderheiten aus, die man in nicht infrastrukturbasierten Industrien in dieser Form nicht findet. Dazu gehören versunkene Kosten, der hohe Anteil von Fixkosten sowie Verbundvorteile (vgl. Dewenter und Rösch, 2015). In diesem Kapitel entwickeln wir die wichtigsten Kostenkonzepte, welche für regulatorische Zwecke benötigt werden. Netzindustrien und mit ihnen natürliche Monopole zeichnen sich üblicherweise durch einen sehr hohen Kapitaleinsatz sowie einen sehr hohen Anteil von Fixkosten aus (vgl. Knieps, 2007 und Knieps, 2008). Der Grund dafür liegt im Infrastrukturcharakter dieser Industrien. Die zum Angebot bestimmter Dienste notwendige Infrastruktur, also die Netze, resultiert in einem vergleichsweise hohen Anteil fixer Kosten. Dadurch entstehen auch wesentliche Größenvorteile, die durch fallende Durchschnittskosten im relevanten Bereich der Nachfrage charakterisiert sind. Fixe Kosten sind solche Kosten, die bei Variation einer

204

Ralf Dewenter und Ulrich Heimeshoff

Einflussgröße, beispielsweise der Produktion, konstant bleiben (vgl. Schweitzer und Küpper, 2008). Selbstverständlich gilt diese Annahme nur innerhalb bestimmter Kapazitätsgrenzen, da bei einer wesentlichen Erweiterung der Produktionsmöglichkeiten auch die fixen Kosten variieren werden (vgl. Dewenter und Rösch, 2015). Worin besteht nun der Unterschied zwischen Fixkosten und versunkenen Kosten? Versunkene Kosten (auch irreversible Kosten oder Sunk Costs) sind Kosten, die bereits entstanden sind und nicht wieder durch Verkauf rückgängig gemacht werden können. Hat beispielsweise ein Telekommunikationsanbieter ein Festnetz in Deutschland aufgebaut, so hat dieses Netz versunkene Kosten verursacht, weil es dafür keine alternative Verwendung gibt. Ein Marktaustritt und somit ein anderer Einsatzzweck ist für die Infrastruktur von Netzindustrien regelmäßig nicht gegeben. Deshalb stellen versunkene Kosten auch wesentliche Marktaustrittsbarrieren dar. Bei versunkenen Kosten stellen ex Ante und ex Poste Betrachtungen einen wichtigen Aspekt dar. Hat ein Unternehmen bereits eine Infrastruktur aufgebaut und somit die versunkenen Kosten bereits geleistet, sind diese nicht mehr entscheidungsrelevant (ex Post Perspektive). Für einen potenziellen Neueinsteiger, der die notwendigen Investitionen noch nicht getätigt hat, sind sie hingegen extrem entscheidungsrelevant (ex Ante Perspektive).1 Es besteht ein enger Zusammenhang zwischen Irreversibilität und der Möglichkeit abzuwarten. Ist eine Investition noch nicht getätigt, so besteht die Möglichkeit abzuwarten und versunkene Kosten zu verhindern. Diese Möglichkeit zu warten hat potenziell einen eigenen Wert, der in der so genannten Theorie der Realoptionen in die Berechnung von Investitionsvorhaben integriert wird (vgl. Dixit und Pindyck, 1994). Der mögliche Neueinsteiger besitzt diese Warteoption und kann noch entscheiden, ob er die irreversiblen Investitionen tätigen möchte, dadurch sind diese für ihn entscheidungsrelevant. Der etablierte Anbieter, welcher bereits mit eigener Infrastruktur im Markt vertreten ist, besitzt diese Option zu warten nicht mehr. Aus diesem Grund sind die irreversiblen Investitionen für ihn versunken und nicht mehr entscheidungsrelevant. Versunkene Kosten können aus diesen Gründen als starke Markteintrittsbarrieren für potenzielle Neueinsteiger wirken. Nach von Weizsäcker (1980a, b) liegen dann Markteintrittsbarrieren vor, wenn ein Unternehmen, welches in einen Markt eintreten möchte zusätzliche Kosten der Produktion in sein Kalkül einbeziehen muss, die ein bereits im Markt tätiges Unternehmen nicht mehr einbeziehen muss und damit Ineffizienzen 1 Man unterscheidet grundsätzlich drei Arten von Irreversibilitäten: Industrie-, Markt- und Transaktionsirreversibilitäten. Je spezifischer eine Investition für eine bestimmte Verwendung ist, desto größer ist der Anteil der irreversiblen Kosten, desto höher sind auch die Marktzutrittsbarrieren. Während die Industrie- und die Marktirrversibilität vorliegt, wenn eine investitions- Industrie- oder marktspezifisch ist, liegt eine Transaktionsirrversibilität vor, wenn eine Investition für nur eine einzige Transaktion genutzt werden kann. Müssen z.B. physische Netze errichtet, so sind diese oftmals nur in einem bestimmten Markt einsetzbar bzw. veräußerbar. Dementsprechend ist der Anteil der irreversiblen Kosten hoch. Investiert z.B. ein Unternehmen in eine Werbekampagne für ein bestimmtes Produkt, so sind die Kosten allesamt versunken und die Verwendung beschränkt sich auf das entsprechende Produkt.

14 Regulierung

205

verbunden sind (vgl. Martin, 2002). Ein Unternehmen, welches den Markteinstieg in eine Netzindustrie plant und dabei auch irreversible Investitionen tätigen wird, muss der Tatsache Rechnung tragen, dass der etablierte Anbieter diese irreversiblen Investitionen bereits getätigt hat und diese für ihn keine Entscheidungsrelevanz mehr besitzen. Gleichzeitigt weiß dieser Incumbent aber auch, dass er seine Infrastruktur in keine alternative Verwendung führen kann, da diese nur auf einen speziellen Verwendungszweck zugeschnitten ist. Es ist also davon auszugehen, dass dieser etablierte Anbieter alles tun wird, um den Neueinsteiger wieder aus dem Markt zu verdrängen. Dieser Mechanismus ist dem möglichen Neueinsteiger natürlich auch bekannt und er kann dazu führen, dass er auf einen Markteintritt verzichtet.

14.2.3.2 Entscheidungsrelevante Kosten In diesem Abschnitt befassen wir uns mit verschiedenen Kostenkonzepten, die für die Regulierungsökonomik wichtig sind und sowohl im Rahmen der Preisregulierung als auch zur Definition von Quersubventionierung Verwendung finden. Einen Überblick über diese Konzepte gibt Tabelle 14.1. Grundsätzlich sind Grenzkosten als die bei der zusätzlichen Produktion einer weiteren Einheit entstehenden Kosten definiert (vgl. Varian, 2011). Bei der Unterscheidung zwischen kurzfristigen und langfristigen Grenzkosten liegt der wesentliche Unterschied darin, dass langfristig Kapazitäten angepasst werden können. Die langfristigen Grenzkosten beinhalten deshalb auch die periodisierten Kapitalkosten der Kapazitätsvorhaltung (vgl. Knieps, 2007). Kurzfristig sind Kapazitäten fix, aber langfristig besteht natürlich die Möglichkeit der Anpassung (vgl. Dewenter und Rösch, 2015). Ein weiteres, in der Regulierungsökonomik bedeutendes Kostenkonzept ist das der langfristigen Zusatzkosten (vgl. Barth und Heimeshoff, 2014). Langfristige Zusatzkosten sind die Kosten, welche dadurch entstehen, dass ein zusätzliches Produkt produziert wird unter der Annahme, dass alle übrigen Produkte ohnehin hergestellt werden. Tab. 14.1  Kostenkonzepte (Quelle: in Anlehnung an Knieps (2007), S. 25.)

Kostenkonzept

Anwendung

Kurzfristige Grenzkosten

Bestimmung auslastungs-/nutzungsabhängiger Tarife Ermittlung des ökonomischen Werteverzehrs bei der Bereitstelllung eines Produktes Entscheidung, ob bestimmte Netzdienstleistungen bzw. Netzinfrastrukturen zusätzlich angeboten werden sollen Sollen bestimmte Netzdienstleistungen bzw. Netzinfrastrukturen eingestellt werden? Lohnen sich alternative Teilnetze

Langfristige Grenzkosten Langfristige Zusatzkosten Langfristige vermeidbare Kosten Stand-alone-Kosten von Produkten und Produktgruppen Gesamtkosten

Sind aktive Netzbetreiber überlebensfähig?

206

Ralf Dewenter und Ulrich Heimeshoff

Es geht hier also nicht um die Ausweitung der Menge bereits hergestellter Produkte um eine Einheit sondern um die Ergänzung des Produktprogramms um ein weiteres Produkt bzw. eine zusätzliche Dienstleistung. Betrachten wir den Mehrproduktfall mit N = {1, …, N} Produkten und dem Outputvektor y = (y1, …, yn), werden die Zusatzkosten eines zusätzliche Produktes i wie folgt definiert (vgl. Knieps, 2007): K(yi) = K(y) – K(yN–i), wobei yN–i = (y1, …, yi–1, 0, yi+1, …, yn) ist. Die Zusatzkosten sind entscheidend, wenn im Rahmen regulatorischer Entscheidungen potenzielle Quersubventionierung geprüft werden muss (vgl. Abschnitt 14.7). Die langfristigen durchschnittlichen Zusatzkosten werden definiert als (vgl. Baumol, Panzar und Willig, 1982):

DK( yi )=

K( yi ) . yi

Langfristige Zusatzkosten können nicht nur für einzelne Produkte und Dienste sondern auch für ganze Produktgruppen definiert werden. Bei der Produktion eines Outputvektors , lauten die Zusatzkosten einer Produktgruppe S ⊂ N, so dass K(yS) = K(y) – K(yN–S). Hierbei handelt es sich somit um die zusätzlichen Kosten, die anfallen, wenn eine zusätzliche Produktgruppe hergestellt wird und alle anderen Produkte bereits produziert werden. Langfristige Zusatzkosten können sowohl fix als auch variabel sein. Bei der Anwendung des Konzepts der Zusatzkosten oder Inkrementalkosten, ist die Definition des Produktes oder der Produktgruppe entscheidend. Das Konzept der Zusatzkosten darf nur auf Outputs angewendet werden und nicht fiktive sondern ausschließlich tatsächlich angebotene Produkte dürfen Berücksichtigung finden. Betrachten wir ein Einproduktunternehmen, stimmen natürlich die langfristigen Zusatzkosten mit den langfristigen Grenzkosten überein. Vom Konzept der langfristigen Zusatzkosten sind langfristig vermeidbare Kosten abzugrenzen. Dazu ist es nützlich auf die Unterscheidung von fixen und irreversiblen Kosten zurückzugreifen. Fixe Kosten müssen nicht unbedingt irreversibel sein, beispielsweise stellt ein Flugzeug zweifellos fixe Kosten dar, ist aber nicht irreversibel, da es in vielen Verwendungen eingesetzt werden kann. Ein Flughafen hingegen, der ebenfalls größtenteils fixe Kosten darstellt, ist im Wesentlichen irreversibel, da er kaum einer anderen Verwendung zugeführt werden kann. Fixe Kosten können also sowohl reversibel als auch irreversibel sein. Liegen Kostenirreversibilitäten vor, muss zwischen langfristigen Zusatzkosten und langfristig vermeidbaren Kosten unterschieden werden. Vor einem Marktzutritt sind auch die irreversiblen Kosten entscheidungsrelevant, wogegen bei einer Marktaustrittsentscheidung lediglich die vermeidbaren Kosten relevant sind, sofern die Anlage sonst nicht mehr genutzt wird. Gibt man einen Markt nicht auf, besitzen auch die versunkenen Kosten marktmäßige Opportunitätskosten der Inanspruchnahme. Dementsprechend sind sie auch Bestandteil der langfristigen Zusatzkosten. Die

14 Regulierung

207

vermeidbaren Kosten, welche wirklich eingespart werden können, sollte der Markt verlassen werden, sind in der Regel deutlich geringer als die irreversiblen Kosten. Neben den Zusatzkosten, welche relevant sind, wenn eine Entscheidung darüber getroffen wird, ob eine zusätzliche Leistung eingeführt werden sollte, gibt es auch übrige Kosten. Diese Kosten werden oftmals Overhead-Kosten genannt und entstehen auch dann, wenn nur eine Teilmenge aller bisher produzierten Produkte angeboten wird. Sie zeichnen sich dadurch aus, dass sie nicht in Form von Zusatzkosten einzelnen Produkten oder Produktgruppen zugeordnet werden können. Die Overhead-Kosten sind somit als die Differenz der Gesamtkosten und der Summe der Inkrementalkosten definiert:

OK = K( y N )− ∑ K( yi ). i∈N

Solche Kosten können beispielsweise durch die bereichsübergreifende Unternehmensleitung oder Stabsabteilungen entstehen. Diese Overhead-Kosten müssen anhand geeigneter Maßnahmen auf unterschiedliche Nachfragegruppen aufgeteilt werden, um eine komplette Kostendeckung zu gewährleisten. Dabei können Unterschiede in den Nachfrageelastizitäten ausgenutzt werden, wie dies beispielsweise beim Ramsey-Pricing der Fall ist.

14.2.3.3 Verbundkosten und Gemeinkosten In Netzindustrien entstehen oftmals produktgruppenspezifische Verbundkosten, die auf Kostenvorteilen basieren, welche durch das Angebot mehrerer Dienste aus einer Hand entstehen. Es besteht keine Möglichkeit, solche Kosten einem bestimmten Produkt direkt oder kausal zuzuordnen (vgl. Braeutigam, 1989). Stattdessen können sie aber einer Gruppe von Produkten zugeordnet werden. Unternehmensspezifische Gemeinkosten hingegen können weder einzelnen Produkten noch bestimmten Produktgruppen kausal zugeordnet werden. Betrachtet man die so genannten Stand-alone-Kosten einer Produktgruppe, setzen sich diese aus drei Komponenten zusammen: 1. Produktspezifischen Zusatzkosten, 2. Produktgruppenspezifischen Verbundkosten und 3. Unternehmensspezifischen Gemeinkosten. Der Zusammenhang zwischen diesen Komponenten wird in den folgenden Abschnitten anhand eines Beispiels verdeutlicht. Abbildung 14.4 zeigt ein Beispiel, in dem durch ein Telekommunikationsunternehmen drei Dienste angeboten werden. Diese Dienste verursachen sowohl Einzelkosten als auch Verbundkosten, wobei die Verbundkosten sowohl in produktgruppenspezifische Kosten als auch in unternehmensspezifische Kosten aufgeteilt werden können. Bei den produktgruppenspezifischen Kosten ist eine verursachungsgerechte Allokation auf die sich innerhalb der Gruppe befindenden Dienste nicht möglich. Analog dazu können die Kosten innerhalb des Blocks der unternehmensspezifischen Kosten nicht sachadäquat auf

208

Ralf Dewenter und Ulrich Heimeshoff

Abb. 14.4  Verbundkosten bei drei Produkten (Quelle: Knieps (2007))

die verschiedenen Produktgruppen oder Dienste aufgeteilt werden. Vereinfacht kann man sich die Netzkosten für den Fall mit zwei Diensten, z. B. Sprach- und Datendienste, folgendermaßen vorstellen: K(q1, q2, w1, w2) = G + w1q1 + w2q2. K gibt die gesamten Netzkosten, w die Kosten pro Kapazitätseinheit des jeweiligen Dienstes 1 oder 2 (d.h. mit der Kapazität variierende Kosten) und q die Spitzenlast der Nachfrage nach dem entsprechenden Dienst an. Bei G handelt es sich um Gemeinkosten, die in der kurzen Frist fix und lediglich langfristig insofern variabel sind, dass sie bei einem kompletten Verzicht auf jegliche Leistungserstellung nicht anfallen. Die Netzkosten können somit als sprungfixe Kosten bezeichnet werden, da sie mit den Kapazitäten von q1 und q2 wachsen. Eine ökonomisch sinnvolle Aufteilung von G auf die Dienste 1 und 2 ist aber nicht möglich. Folgendes Beispiel soll dies weiter verdeutlichen: Nehmen wir an, die hypothetische Kostenfunktion laute K(q1, q2) = 1000 + 10q1 + 10q2, wobei q1 Sprachdienste seien und q2 Datendienste. Tabelle 14.2 gibt dann die Kosten bei unterschiedlichen Spitzenlastkapazitäten von q1 und q2 an. Wie anhand dieses simplen Beispiels gesehen werden kann, ist es zwar richtig, dass die Höhe der Gesamtkosten (K) langfristig leistungsmengeninduziert ist und im Beispiel, je nach Kapazität des Datendienstes q2, zwischen 1200 und 1600 variiert. Dementsprechend variieren auch die langfristigen Zusatzkosten für das gesamte Inkrement von q2 zwischen 100 und 500, wobei die durchschnittlichen LRIC pro Leistungseinheit mit w1=w2=10 konstant bleiben. Aus der Tatsache, dass die Gesamtkosten (K) des Netzes langfristig mit der Kapazität von q1+q2 variieren, kann jedoch mitnichten geschlossen werden, dass dies für alle Bestandteile der Gesamtk osten (K) gilt. In unserem Beispiel ist der Block von G=1000

14 Regulierung

209

Tab. 14.2  Kostenbeispiel

q1

q2

10 10 10 10 10

10 20 30 40 50

Gesamtkosten K

LRIC q1

LRIC q2

Verhältnis q1: q2

Gemeinkosten

1200 1300 1400 1500 1600

100 100 100 100 100

100 200 300 400 500

50:50 33:67 25:75 20:80 17:83

1000 1000 1000 1000 1000

völlig konstant, unabhängig von der Gesamtkapazität. Dies sind in der Realität große Bestandteile der Netzkosten, etwa die Grabungskosten im Festnetz oder wesentliche Teile des flächendeckenden Netzausbaus im Mobilfunk. Ersichtlich ist auch, dass im Beispiel das Verhältnis der vorgehaltenen Kapazitäten zwischen Sprach- und Datendiensten (q1, q2) variiert. Das impliziert jedoch in keiner Weise, dass die Gemeinkosten (G) in Höhe von 1000 in derselben Weise aufgeteilt werden müssen. Es gibt hier keine verursachungsgerechte Verteilung der Gemeinkosten. Einzelne Dienste besitzen somit keinen spezifischen Anteil an den gesamten Netzkosten (K), vielmehr gilt dies nur für einen in der Realität sehr kleinen Teil der Netzkosten. Man kann also nicht beispielsweise aufgrund der anteiligen Nutzung der Kapazität durch die jeweiligen Dienste zu einer ökonomisch begründeten, verursachungsgerechten, Allokation der echten, nicht direkt einem Dienst zuordenbaren Gemeinkosten gelangen, da diese de facto nicht mit der Leistungsmenge schwanken. Eine künstliche Aufteilung dieser Kosten würde nicht auf ökonomischen Argumenten basieren, sondern genau auf der von der Europäischen Kommission als unbedingt zu vermeiden angemerkten Willkür (vgl. dazu auch Hausman, 2000). Bei Verbundvorteilen entsteht somit ein Kostenallokationsproblem, weil weder die Grenzkosten noch die Zusatzkosten in der Lage sind, die Gesamtkosten zu decken. Ohne die Deckung der Gesamtkosten ist ein Unternehmen aber nicht langfristig überlebensfähig. Um die Deckung der Gesamtkosten zu ermöglichen, müssen Aufschläge auf die Zusatzkosten für die Verbundkosten sowie die Gemeinkosten ermittelt werden. Dazu ist die Einbeziehung der Nachfrageseite erforderlich und es muss Preisdifferenzierung betrieben werden. In der betriebswirtschaftlichen Kostentheorie wurden verschiedenste Konzepte der Grenzplankosten- und Deckungsbeitragsrechnung entwickelt, die das Kostendeckungsproblem lösen sollen (vgl. Kilger, 1985).

210

Ralf Dewenter und Ulrich Heimeshoff

14.2.4 Eigenschaften von Netzindustrien 14.2.4.1 Netzeffekte Netzeffekte (auch Netzwerkeffekte) zeichnen sich dadurch aus, dass der Nutzen der Teilnehmer direkte oder indirekt von der Größe eines Netzwerks abhängt. Im Gegensatz zu gewöhnlichen Märkten also, in denen der Nutzen eines Gutes lediglich von dessen Preis und Eigenschaften beeinflusst wird, spielt bei Produkten, die Netzeffekte aufweisen, auch die Anzahl der anderen Nutzer eine wesentliche Rolle (Belleflamme und Peitz, 2015). Direkte Netzeffekte Weist ein Produkt oder eine Dienstleistung direkte Netzeffekte auf, so ist der Nutzen eines Nutzers direkt mit der Anzahl aller weiteren Nutzer verbunden. Profitieren Konsumenten von der Zahl weiterer Nutzer, spricht man von einem positiven Netzeffekt. Sinkt der Nutzen mit der Anzahl der weiteren Konsumenten, liegt ein negativer Effekt vor. Es liegt damit ein weiterer Faktor vor, der die Zahlungsbereitschaft der Konsumenten beeinflusst. Zwar spielen der Preis und die Eigenschaften eines Gutes immer noch eine wesentliche Rolle, jedoch kann bei starken Netzeffekten oder aber einer entsprechend hohen Nutzerzahl, der Netzeffekte die anderen Einflussfaktoren in der Relevanz übersteigen (vgl. Dewenter und Rösch, 2014). Besonders Netzindustrien weisen typischerweise Netzeffekte auf. So profitiert der Nutzer eines Telefonnetzes mit der Gesamtzahl an Nutzern, die dem Netz angeschlossen sind, da somit die Zahl der potenziellen Verbindungen steigt. Sind also nur weniger Nutzen dem Telefonnetz angeschlossen, so ist der daraus entstehen Nutzen gering. Verfügt aber fast jeder Konsument über einen Anschluss, ist der Beitritt zum Netzwerk mit einem entsprechend hohen Nutzen und damit einer hohen Zahlungsbereitschaft verbunden. Da die Teilnehmerzahl von Netzwerken über die Zeit typischerweise ansteigt und der Nutzen sich daher verändert, steht ein Unternehmen, das Produkte mit Netzeffekten anbietet, oftmals vor einem intertemporalen Problem. Gerade zu Anfang, wenn der Nutzen aus der Teilnehmerzahl noch gering ist, muss es möglichst viele Konsumenten dazu bringen, dem Netzwerk beizutreten. Hierzu sind verschiedene Strategien denkbar. So können die Preise über die Zeit angehoben werden, wenn sich der Nutzen und damit die Zahlungsbereitschaft im Zeitverlauf verändert. Ebenso können die zur Nutzung notwenigen Endgeräte subventioniert werden und deutlich günstiger oder aber auch kostenlos abgegeben werden. Sind die Zahlungsbereitschaften der einzelnen Konsumenten unterschiedlich, werden zunächst die Konsumenten mit einer hohen Zahlungsbereitschaft auch bei einer geringen Zahl an Nutzern dem Netzwerk beitreten. Auf diese Weise kann sich eine Kundenbasis entwickeln, sodass es auch andere Konsumenten attraktiv finden, dem Netzwerke beizutreten. Die Zahl der Nutzer, die notwendig ist, um andere zum Beitritt zu bewegen, wird also die kritische Masse bezeichnet. Ist die kritische Masse erreicht, kann es zu einem Lock-in kommen. Die Nutzer sind dann in einer gewissen Weise „gefangen“. Ein

14 Regulierung

211

Konkurrenzprodukt, das keine vergleichbare Größe an Nutzern aufweist, kann dann wenn überhaupt nur auf eine andere Weise (z.B. durch sehr geringe Preise) mit dem großen Netzwerk konkurrieren. Netzeffekte können somit auch Wechselkosten erzeugen, die einen Wechsel zu einem anderen Anbieter erschweren oder gar unmöglich machen. Weitere Faktoren, die einen Wechsel erschweren, sind zum Beispiel lange Vertragslaufzeiten, Lernkosten, Loyalität seitens der Kunden oder auch Suchkosten. Unternehmen können diese Faktoren strategisch einsetzen, um sich einen weiteren Vorteil im Wettbewerb zu verschaffen. Grundsätzlich wirken Netzeffekte eher konzentrationsfördernd, was die Marktmacht der Unternehmen erhöht.

Indirekte Netzeffekte Liegen indirekte Netzeffekte vor, so hängt der Nutzen aus dem Konsum nur indirekt mit der Anzahl der Teilnehmer zusammen. Steigt zum Beispiel die Zahl der Nutzer eines bestimmten Smartphone-Betriebssystems, so wird es auch für die Programmierer attraktiver, Applikationen für dieses System zu programmieren. Der Nutzen der SmartphoneNutzer steigt also nur indirekt mit deren Anzahl. Auch hier können entsprechend positive und negative Effekte vorliegen (vgl. Dewenter und Rösch. 2014). Typische Märkte, die indirekte Netzeffekte aufweisen, sind Medienmärkte. Je mehr Leser eine Zeitung aufweist, desto höher der Nutzen der Anzeigenkunden. Umgekehrt beeinflusst auch die Menge an Werbung den Nutzen der Leser. Ein etwas moderneres Beispiel findet sich bei Internetplattformen. Sind diese werbefinanziert, liegen auch hier indirekte Netzeffekte vor. Aber auch andere Formen indirekter Netzeffekte sind denkbar. So vermitteln bestimmte Plattformen z.B. zwischen Anbieter und Nachfrager bestimmter Dienstleistungen. Hierzu gehören Immobilienvermittler, Dating-Plattformen, Aktionsplattformen oder auch Arbeitsvermittler. Generell begründen die vorliegenden indirekten Netzeffekte die Existenz zweiseitiger Märkte bzw. Plattformen (vgl. Dewenter und Rösch, 2014). Auch indirekte Netzeffekte wirken tendenziell Konzentrationsfördernd. Es lässt sich beobachten, dass einige der zweiseitigen Märkte hochkonzentriert sind, was oftmals auf die Stärke der Netzeffekte zurückzuführen ist. Dies kann dazu führen, dass analog zur Subadditivität natürliche Oligopole oder auch Monopole entstehen. Kommen neben den indirekten Effekten auch noch direkte Netzeffekte hinzu (wie etwa im Beispiel von sozialen Netzwerken), so ist häufig eine besonders starke Konzentration zu beobachten. In diesem Fall stellt sich die Frage, ob ebenfalls Regulierungsbedarf vorhanden ist. Skalenerträge und Verbundvorteile Eine wesentliche Eigenschaft von Netzindustrien ist die zugrundeliegende Kostenstruktur. So ist die Subadditivität vor allem darauf zurückzuführen, dass mindestens zwei Arten von Skaleneffekten vorliegen. Zum einen sind dies typischerweise sogenannte Economies of scale, zum andere Economies of Scope, also Verbundvorteile.

212

Ralf Dewenter und Ulrich Heimeshoff

Von Economies of Scale spricht man, wenn die durchschnittlichen Kosten mit zunehmender Größe des Unternehmens abnehmen. Wird z.B. die Produktion um 10% ausgeweitet und steigen dabei die Kosten um weniger als 10%, liegen Economies of Scale (auch: positive Skalenerträge) vor (vgl. Viscusi et al., 2005). Begründet ist ein solches Ergebnis in der Grenzproduktivität der Produktionsfaktoren. Bei konstanten Skalenerträgen verhalten sich Input und Output proportional und bei negativen Skalenträgen, fällt der Output unterproportional zum Input. Positive Skalenerträge sind dann zu beobachten, wenn die Produktionsfaktoren um einen bestimmten Faktor steigen, die Ausbringungsmenge stärker, also überproportional, steigt. Die Grenzkosten sinken dann mit steigender Ausbringungsmenge. Liegt einer Produktion z.B. eine Cobb-Douglas Produktionsfunktion zugrunde, lassen sich die Skalenerträge wir folgt darstellen:

Y= v1a + v2b , wobei mit α + β > 1 steigende, mit α + β= 1 konstante und α + β < 1 fallende Skalenerträge vorliegen. Die Ursachen für die Existenz von positiven Skalenerträgen sind vielfältig: Ein hoher Fixkostenanteil kann z.B. zu sinkenden Durchschnittskosten führen und Lernkurveneffekte können über die Zeit, mit Ausweitung der Gesamtmenge ebenfalls zu Kosteneinsparungen führen. Auch Transaktionskosteneinsparungen können bei größeren Mengen zu spürbaren positiven Skalenerträgen führen. Eine weitere Ausprägung von Skaleneffekten sind die sogenannten Economies of Scope (vgl. Knieps, 2008). Die sogenannten Verbundvorteile ergeben sich aus der gemeinsamen Produktion verschiedener Güter oder Dienstleistungen. Liegen also Verbundvorteile vor, so kann ein Unternehmen zwei oder mehrere Güter gemeinsam zu geringeren Kosten produzieren als bei einer getrennten Herstellung:

K ( X ) < K ( x1 ) + K ( x2 ) + ... + K ( xn ) , wobei x1, …, xn. Die Ausbringungsmengen der einzelnen unterschiedlichen Produkte sind. Zum Beispiel kann eine Maschine für verschiedene Produkte genutzt werden, bestehende Vertriebskanäle können ebenfalls für unterschiedliche Produkte Verwendung finden und Verwaltungsapparate weisen geringere Kosten auf, wenn keine Duplizierung vorgenommen werden muss. Verbundvorteile können völlig unabhängig von positiven Skalenerträgen anfallen aber auch (im Fixkostenbeispiel) miteinander in Verbindung stehen.

Der disaggregierte Ansatz und monopolistische Engpassberiche (Bottlenecks) Die Existenz natürlicher Monopole hat lange Zeit als Rechtfertigung gedient, komplette Netzindustrien zu regulieren. So wurde in vielen Ländern der Telekommunikations- der Strom- oder auch der Gassektor als Ganzes reguliert. Während in den USA oftmals private Monopole vorhanden waren, die der Regulierung unterlagen, wurde in Europa und vor allem in Deutschland oftmals Staatsunternehmen gegründet.

14 Regulierung

213

Besonders in den 1990er Jahren ist es dann jedoch zu einem Paradigmawechsel in der Regulierung gekommen, indem der sogenannte disaggregierte Ansatz verfolgt wurde (vgl. Knieps, 1999). Dieser besagt, dass eine disaggregierte Betrachtung der Wertschöpfungskette notwendig ist, um die natürlichen Monopole in dieser vertikalen Struktur zu identifizieren. Dieser Betrachtung liegt die Erkenntnis zugrunde, dass nur solche Bereiche als problematisch anzusehen sind, die dauerhaft ein resistentes natürliches Monopol darstellen. Alle anderen Bereiche sind durchaus wettbewerblich zu organisieren (vgl. Kruse, 2002). Ziel des disaggregierten Ansatzes ist es daher, nur solche monopolistischen Engpassbereiche (Bottlenecks) zu identifizieren (und entsprechend zu regulieren), die nicht bestreitbar, also resistent gegen Marktzutritt sind. Ein solcher monopolistischer Engpassbereich (auch essential facility) in Netzindustrien liegt dann vor, wenn (vgl. Knieps, 2008) (i) ein solcher Bottleneck unabdingbar ist, um auf einer anderen vertikalen Ebene tätig zu werden und kein Substitut zu dieser Einrichtung existiert. Es muss also zum einen ein natürliches Monopol existieren. Zum anderen darf es ohne den Bottleneck nicht möglich sein, am Downstream-Markt tätig zu werden. (ii) Ebenso muss darüber hinaus Monopolresistenz vorliegen. Es darf also mit angemessenen Mitteln nicht möglich sein, die wesentliche Einrichtung zu duplizieren. Ein Substitut ist auch mittelfristig nicht zu erwarten. Dies gilt vor allem, wenn Irreversibilität vorliegt. Liegt ein monopolistischer Bottleneck vor, so ist davon auszugehen, dass dauerhaft Marktmacht in diesem Bereich vorhanden ist. Ein Unternehmen, das eine wesentliche Einrichtung inne hat, kann diese nicht nur im entsprechenden Bereich nutzen, sondern strategisch ausnutzen, um sich dem Wettbewerb auf vor- oder nachgelagerten vertikalen Stufen zu entziehen. So kann zum Beispiel ein monopolistischer Netzbetreiber den Zugang zum Netz (Upstream) verweigern, um damit potenziellen Konkurrenten den Zugang zur Diensteebene (Downstream) zu verweigern. Die grundlegenden Elemente des disaggregierten Ansatzes sind (i) eine minimale Regulierungsbasis, (ii) eine symmetrische Regulierung und (iii) das Auslaufen (Phasingout) der sektorspezifischen Regulierung (vgl. Knieps. 2008). Die minimale Regulierungsbasis bezeichnet dabei die Beschränkung der regulatorischen Eingriffe auf die monopolitischen Bottlenecks. Alle Bereiche, in denen der Wettbewerb funktionsfähig ist, sollen dagegen auch wettbewerblich organisiert sein. Die symmetrische Regulierung besagt, dass ein symmetrischer und diskriminierungsfreier Zugang zu allen monopolistischen Bottleneckbereichen existieren muss. Dieser Zugang muss für alle Anbieter von Netzleistungen in gleicher Weise gewährleistet sein, unabhängig davon, ob sie bereits als Anbieter tätig oder aber potenzieller Wettbewerber sind und welche Technologie von den Anbietern genutzt wird (vgl. Knieps, 2008). Die Regulierung der Bottleneckbereiche ist nicht auf Dauer, sondern im besten Fall nur transitorisch angelegt. Führt z.B. technischer Fortschritt dazu, dass ehemals monopolitische

214

Ralf Dewenter und Ulrich Heimeshoff

Bereiche wettbewerblich organisiert werden können, sollte auch die Regulierung zurückgenommen werden. Regulatorische Eingriffe müssen also immer wiederkehrend auf ihre Notwendigkeit hin überprüft werden. Gemäß der minimalen Regulierungsbasis sind nur noch diejenigen Bereiche zu regulieren, die tatsächlich einen Engpassbereich darstellen. Der Wegfall der netzspezifischen Marktmacht führt demnach auch zu einem Wegfall der Regulierung.

14.2.5 Mechanismen der Preissetzung und Tarifstrukturen 14.2.5.1 Grenzkosten- vs. Durchschnittskostenpreise Der im Monopol anfallende Nettowohlfahrtsverlust lässt sich grundsätzlich durch die Durchführung einer Preisregulierung beheben. Fraglich ist jedoch, welches Preisniveau vom Regulierer genau gesetzt werden soll. Eine Möglichkeit, die allokative Ineffizienz zu beheben und eine First-Best-Lösung, besteht darin, den Preis gleich den Grenzkosten zu setzen. Im Fall konstanter Grenz- und Durchschnittskosten wird dann die Wohlfahrt maximiert. Der wohlfahrtsmaximierende Preis ergibt sich in diesem Fall aus ∞

max p W ∫ x( p)dp+( p−c)x( p). p

Anhand der Bedingung erster Ordnung,

∂W ∂x =−x + x +( p−c) = 0, ∂p ∂p lässt sich der optimale Preis, p = c, herleiten. Wie sich leicht erkennen lässt, ist der Deckungsbeitrag, der auf diese Weise erwirtschaftet wird bei dieser Lösung gleich Null. Liegen jedoch Fixkosten vor, so muss der Monopolist bei Deckungsbeiträgen von Null Verluste hinnehmen. Ein solcher Verlust ist generell zu beobachten, wenn fallenden Durchschnittskosten existieren und damit die Grenzkosten unterhalb der Durchschnittskosten verlaufen (vgl. Abbildung 14.5). Der Verlustbetrag ergibt sich aus der Differenz von pGK und pDK multipliziert mit der Absatzmenge. Will man an dieser First-Best-Lösung festhalten, muss der Regulierer bzw. der Staat das regulierte Monopolunternehmen in Höhe der entstandenen Verluste subventionieren. Dies ist dann denkbar, wenn, wie noch vor einiger Zeit in Deutschland und anderen europäischen Staaten üblich, Netzgüter durch Staatsmonopole bereitgestellt wurden. Eine andere, sog. Second-Best-Lösung, besteht darin, den Preis nicht auf Grenz-, sondern auf Durchschnittskostenniveau zu setzen (vgl. Abbildung 14.6). In diesem Fall entsteht dem Unternehmen weder ein Gewinn, noch ein Verlust. Gleichzeitig entsteht jedoch

14 Regulierung

Abb. 14.5  Fallende Grenz- und Durchschnittskosten

Abb. 14.6  Durchschnittskostenpreise

215

216

Ralf Dewenter und Ulrich Heimeshoff

ein allokativer Wohlfahrtsverlust. Die Menge, die bei p = DK erreicht wird, ist geringer als die bei P = GK. Der Wohlfahrtsverlust ergibt sich demnach aus der Fläche unterhalb der Nachfragefunktion und oberhalb der Grenzkosten, in den Grenzen von xGK und xDK.

14.2.5.2 Mehrteilige Tarife Eine weitere Möglichkeit, die Wirtschaftlichkeit der Unternehmen zu gewährleiten, besteht in der Anwendung nicht-linearer oder auch mehrteiliger Tarife (vgl. Knieps, 2008). Die einfachste Form des mehrteiligen Tarifs ist der zweiteilige Tarif, bei dem sowohl eine fixe Grundgebühr als auch eine variable Nutzungsgebühr entrichtet wird. Im Prinzip ist der mehrteilige Tarif damit nichts anderes als eine Form der Preisdifferenzierung. Wird das Nutzungsentgelt auf Höhe der Grenzkosten gesetzt, kann die Grundgebühr so hoch gewählt werden, dass das dabei entstehende Defizit ausgeglichen wird. Wird dagegen eine Grundgebühr erhoben, die der Konsumentenrente der Nachfrager entspricht, wird diese komplett abgeschöpft. In diesem Fall würde vollkommene Preisdifferenzierung vorliegen. Eine Grundgebühr zur Defizitdeckung müsste so ausfallen, dass jeder der Konsumenten einen Anteil der des Defizits trägt. Liegen z.B. homogene Konsumenten vor, die alle die gleiche Zahlungsbereitschaft aufweisen, oder kann nicht zwischen unterschiedlichen Konsumentengruppen unterschieden werden, wird für jeden Konsumenten dieselbe Grundgebühr erhoben. Liegen dagegen unterschiedliche Konsumentengruppen vor und können diese nach der Zahlungsbereitschaft differenziert werden, so können auch verschiedene Grundgebühren, also stärker differenzierte Preise, eingeführt werden. 14.2.5.3 Ramsey-Preise Viele Netzindustrien sind dadurch gekennzeichnet, dass nicht nur ein Produkt, sondern oftmals eine Vielzahl an Produkten oder Dienstleistungen angeboten wird – die Anbieter also Mehrproduktunternehmen darstellen. So bieten Telekommunikationsanbieter nicht nur Sprachtelefonie an, sondern bieten ebenso Datendienste oder Kurznachrichten. Während bei einem Einprodukt-unternehmen die zweitbeste Lösung darin besteht, den Preis auf Durchschnittskostenniveau zu setzen, stellt sich die Frage, welche Regel bei einem Mehrproduktunternehmen sinnvoll erscheint, welche Preise also unter der Bedingung der Kostendeckung wohlfahrtsoptimal sind. Sind dies ebenso die jeweiligen Durchschnittskosten? Welche Rolle spielen dabei Gemeinkosten und inwiefern sind unterschiedliche Preiselastizitäten relevant? Die Antwort auf diese Fragen bieten die sogenannten Ramsey-Preise (vgl. Ramsey, 1927). Diese lassen sich für eine beliebig viele Produkte berechnen, unabhängig von der Beziehung zwischen den Produkten und der Kostenstruktur. Ramsey-Preise bieten daher den Vorteil, auch für Substitute und Komplemente und auch für die Zuordnung von Gemeinkosten anwendbar zu sein. Betrachtet man den einfachen Fall ein Zweiproduktmonopolisten, der voneinander unabhängige Produkte anbietet, lässt sich folgender Zusammenhang darstellen. Eine optimale Regulierung würde die Wohlfahrt maximieren, unter der Bedingung der

14 Regulierung

217

Eigenwirtschaftlichkeit des Unternehmens. Dies kann über eine Maximierung der Gesamtwohlfahrt oder auch der Konsumentenrente unter der Nebenbedingung, dass die Gewinne nicht negativ werden dürfen erreicht werden. Lautet die Gewinnfunktion des Zweiprodukt-Monopolisten π(p1, p2) = p1 x1(p1) + p2 x2(p2) – C(x1(p1), x2(p2)), so lässt sich das Optimierungsproblem des Regulierers darstellen als

max W = KR1 + KR2 + PR p1 , p2

u.d.N. p1 x1(p1) + p2 x2(p2) – C(x1(p1), x2(p2)) ≥ 0. Maximiert wird also die Wohlfahrt über beide Produkte unter der Nebenbedingung, dass die Gewinne des Unternehmens mindestens Null betragen.2 Wenn die Konsumentenrenten

KR1 =



∫ x ( p )dp 1

1

1

und KR2 =

p1



∫ x ( p )dp 2

2

2

p2

lauten, ist die entsprechende Lagrange-Funktion ∞



L = ∫ x1 ( p1 )dp1 + ∫ x 2 ( p2 )dp2 + p1x1 ( p1 )+ p2 x 2 ( p2 )− p1

p2

C(x1 ( p1 ), x 2 ( p2 ))−λ(−p1x1 ( p1 )− p2 x 2 ( p2 )+C(x1 ( p1 ), x 2 ( p2 ))). Anhand der Bedingungen erster Ordnung lassen sich dann folgende Preis-KostenAufschläge berechnen

p1 −GK1 λ 1 p2 −GK 2 λ 1 = = . p1 1+λ ε1 und p2 1+λ ε2 Die wohlfahrtsmaximierenden Preisstruktur für beide Produkte entspricht also der des Mehrproduktmonopolisten. Die Preise unterscheiden sich jedoch in der Höhe von den Monopolpreisen. Da der Ausdruck λ/(1 + λ) < 1, sind beide Preise geringer als im unregulierten Mehrproduktmonopol. Kombiniert man die beiden Preisaufschläge, ergibt sich das Verhältnis

p1 −GK1 ε p1 = 2. p2 −GK 2 ε1 p2 2 Der gleiche Ansatz könnte angewendet werden, um ein vorher definiertes Gewinnniveau zuzulassen.

218

Ralf Dewenter und Ulrich Heimeshoff

Wie am Verhältnis der Aufschläge und der Preiselastizitäten erkennen kann, werden die Preise auf solchen Märkten relativ gering gesetzt, auf denen eine hohe Preiselastizität der Nachfrage existiert. Reagieren Konsumenten dagegen preisunelastisch, so wird ein hoher Preis gesetzt. Weist ein Produkt also nur wenige oder keine Substitute auf, wird es entsprechend hoch bepreist. Eine wohlfahrtsoptimale Preisstruktur entspricht also der des Monopolisten. Der Grund für dieses Ergebnis liegt darin begründet, dass der Wohlfahrtsverlust umso geringer ausfällt, je unelastischer die Nachfrage ist. So können an Märkten mit geringer Preiselastizität hohe Preisaufschläge realisiert werde, ohne dass ein hoher Wohlfahrtsverlust zu befürchten ist. Abbildung 14.7 verdeutlicht diesen Zusammenhang: Bei gleicher Preishöhe fallen die Netto-Wohlfahrtsverluste entsprechend größer aus, je elastischer die Nachfragekurven verlaufen. Nachdem wir nun die ökonomischen Grundlagen der Regulierung dargestellt haben, widmen wir uns im nächsten Abschnitt den Instrumenten der Preisregulierung. Hierbei handelt es sich um die Methoden, die zur Regulierung von Netzindustrien im Wesentlichen verwendet werden.

Abb. 14.7  Ramsey-Pricing

14

Regulierung

14.3

219

Instrumente der Preisregulierung

Während aus theoretischer Sicht eine Regulierung nach Ramsey-Preisen eine Second-Best Lösung im Sinne der allokativen Effizienz darstellt, ist die praktische Relevanz des Ansatzes beschränkt. Vor allem der hohe Informationsbedarf stellt hier große Herausforderungen an die Regulierungsbehörde. Eine genaue Kenntnis über alle Kosten- und Nachfragestrukturen, um die exakten Ramsey-Preise zu berechnen, ist wohl für eine Behörde kaum zu beschaffen. Im Folgenden werden wir daher die wesentlichen Verfahren zur Preisregulierung erläutern, die eine entsprechende praktische Relevanz haben. Diese lassen sich grundsätzlich in zwei Arten der Regulierungsansätze einteilen (vgl. Abbildung 14.8). Zum einen existieren kostenorientierte Verfahren, welche die Kosten des regulierten Unternehmens zum Ausgangspunkt der Regulierung machen und danach die regulierten Preise festsetzen. Zum anderen existieren anreizorientierte Verfahren, die darauf abzielen, Anreize zur Kostensenkung und zu Investitionen in Prozessinnovationen zu setzen.

14.3.1

Kostenorientierte Instrumente

14.3.1.1 Kostenbasierte Regulierung Eine Regulierung auf Basis der Grenzkosten führt, solange diese konstant sind, wie bereits erläutert zu effizienten Netzzugangsentgelten. Liegen dagegen sinkenden Durchschnittskosten vor, so ist eine solche Preissetzung nicht sinnvoll, da die Grenzkosten dann unterhalb

Abb. 14.8 Wesentliche Methoden der Preisregulierung

220

Ralf Dewenter und Ulrich Heimeshoff

der Durchschnittskosten liegen und dem Netzbetreiber dadurch Verluste entstehen. Eine Möglichkeit, diese Verluste auszugleichen, besteht darin, das regulierte Unternehmen in Höhe dieser Verluste zu subventionieren. Ein zweiter Ansatz ist die Regulierung auf Niveau der Durchschnittskosten. Dieser Preis stellt zwar nur eine Second-Best-Lösung dar, führt aber dazu, dass dem Unternehmen keine Verluste entstehen, die durch Subventionen ausgeglichen werden müssten. Fraglich ist dabei, welche Durchschnittskosten in der Praxis zur Berechnung eines regulierten Preises herangezogen werden. Gerade bei Multiproduktunternehmen ist diese Frage nicht trivial. Wird auf Kostenniveau reguliert, so lässt sich anhand des gewählten Maßstabs eine Bandbreite erzeugen, die von einem Mindestpreis reicht, der gerade einmal die Kosten eines bestimmten Services deckt, bis hin zu einem Höchstpreis, der die sich auf die Stand-Alone Kosten bezieht, also davon ausgeht, dass ein Service vollkommen neu geschaffen werden müsste. Im letzten Fall würde man mögliche Kostenvorteile der gemeinsamen Erstellung ignorieren. Das entsprechende praxisrelevante Äquivalent zur kostenbasierten Regulierung auf Grenzkostenniveau stellt die Regulierung auf Basis der langfristigen Inkrementalkosten (Long Run Incremental Cost, LRIC) dar. Dieser Ansatz unterstellt die Situation, dass eine wesentliche Einrichtung anhand des aktuellen Stands der Technik komplett neu errichtet werden müsste. Es werden so die Kosten der effizienten Leistungserstellung ermittelt. Diese Kosten würden sich in einem kompetitiven Markt ergeben, da kein Anbieter in der Lage wäre, höhere Preise zu setzen. Es soll also eine Wettbewerbssituation simuliert werden. Preise auf Basis langfristiger Inkrementalkosten ergeben sich aber nur unter bestimmten Bedingungen. Zum einen muss ein intensiver Wettbewerb herrschen. Genau diese Situation soll ja mit den LRIC-Preisen simuliert werden. Ebenso dürfen sowohl Gemeinkosten als auch versunkenen Kosten keine Rolle spielen. Beides sind aber die Voraussetzungen für die Existenz einer wesentlichen Einrichtung. Eine Regulierung derselben kann also nur schwer mit diesen Kosten begründet werden. Darüber hinaus müssen die Investitionsrisiken gut vorhersehbar sein. Auch diese Annahme ist in Netzindustrien in der Regel nicht realistisch. Es stellt sich also die Frage, inwiefern LRIC-Preise ein geeigneter Benchmark sind. Ein weiteres Problem der langfristigen Inkrementalkosten liegt darin begründet, dass keine Investitionsanreize gegeben sind, wenn gerade einmal die Kosten der effizienten Leistungserstellung gedeckt werden (vgl. Vogelsang, 2013). Eine weitere Möglichkeit, die auch in der Praxis Verwendung findet, ist eine kostenbasierte Regulierung auf Inkrementalkostenniveau und der zusätzlichen Gewährung von kleineren Preisaufschlägen. Auf diese Weise lässt sich zumindest ein Teil der Gemeinkosten finanzieren und eine Struktur zumindest in Richtung Ramsey-Preise realisieren. Die Vorteile von LRIC-Preisen liegen auf der Hand (vgl. auch Vogelsang, 2003; 2013). Geringe Zugangsentgelte ermöglichen (i) den Marktzutritt von Wettbewerbern im Downstreammarkt und fördern damit die allokative Effizienz. Liegen genügend starke Netzeffekte vor, so ist dies (ii) ebenfalls eine Rechtfertigung für geringe Preise, da somit ein Ausnutzen der positiven Externalitäten ermöglicht wird. Ebenso verhindern geringe Zugangsentgelte eine doppelte Marginalisierung, also einen doppelten Preisaufschlag der

14 Regulierung

221

vertikal verbundenen Märkte. Da die Wettbewerber ebenfalls Gemeinkosten alloziieren müssen, fallen neben den Preisaufschlägen im Upstreambereich auch noch Aufschläge im Downstreammarkt an. Hohe Zugangspreise würden (iii) den Wettbewerb im Downstreambereich beschränken, da Wettbewerber dann nur schwer mit den Incumbents konkurrieren können. Ebenso bieten (iv) hohe Zugangspreise keine Anreize für Investitionen der Wettbewerber. Neben den Vorteilen bestehen aber auch einige Nachteile, die aus der kostenbasierten Regulierung erwachsen. So werden Gemeinkosten durch LRIC-Preise nicht gedeckt, was dazu führt, dass Preisaufschläge notwendig werden. Diese Aufschläge müssen entsprechend hoch angesetzt werden, wenn sie insgesamt zu einer Deckung der Gemeinkosten führen und anreizkompatibel sein sollen. Sind diese Aufschläge zu gering, besteht ein Anreiz des Incumbents, die Qualität zu reduzieren, um somit Kosten zu senken. Damit ergibt sich ein ineffizientes Ausmaß an Qualität im Netz. Generell bieten zu geringe Aufschlage die Anreize, in einem zu geringen Maße in das Netz zu investieren und zu innovieren. Auch der Netzausbau und das Ausmaß an Innovationen können also bei zu geringen Entgelten ineffizient sein. Außerdem können durch zu geringe Zugangsentgelte Anreize entstehen, Konkurrenten vom Netz fernzuhalten. Dies ist dann der Fall, wenn der Verlust durch den Wettbewerb am Downstream-Markt größer ist, als die Einnahmen über den Netzzugang. Ist das Zugangsentgelt lediglich kostenbasiert, führt eine Zunahme des Wettbewerbs zwangsläufig zu einer Reduktion der gesamten Gewinne. Die Verhinderung des Marktzutritts über eine Verweigerung des Netzzugangs, erhöht dann die Deckungsbeiträge des Incumbents.

14.3.1.2 Rate-of-Return Regulierung Die Regulierung der Rentabilität ist eine der wichtigsten und gebräuchlichsten Regulierungsverfahren. Im Gegensatz zu den Verfahren der Preisregulierung, zielt die Rate-ofReturn Regulierung auf die Rentabilität eines regulierten Monopolisten und damit auf dessen Gewinn ab. Das von Averch und Johnson (1962) entwickelte Verfahren führt die Regulierung eines Unternehmens als Nebenbedingung zur Gewinnmaximierung ein. Es gewährt dem Unternehmen eine Kapitalverzinsung s, die unterhalb der monopolistischen Rendite m aber oberhalb des Marktzinses liegt (r < s < m). Ausgangspunkt ist eine Produktionsfunktion vom Typ Cobb-Douglas mit den beiden substituierbaren Produktionsfaktoren Arbeit und Kapital. Der Preis der Arbeit (A) wird durch den Lohnsatz w bestimmt, der des Kapitals (K) mit der Kapitalrendite r. Der zu maximierende Gewinn unter der Nebenbedingung, dass die Rendite den Wert s nicht überschreiten darf, lautet dann: π = p(x(A, K))x(A, K) – wA – rK u.d.N.:

p(x(A,K ))x(A,K )– wA ≤s K

wobei p den Preis und x die Menge darstellen.

222

Ralf Dewenter und Ulrich Heimeshoff

Annahmegemäß kennt der Regulierer die Kosten des Monopolisten nicht vollständig. Allerdings ist einigermaßen er in der Lage, die Gewinne und den Kapitalstock zu beobachten. Die notwendigen Informationen können der Buchhaltung entnommen werden und beziehen sich damit in der Regel auf historische Daten. Eine vollständige Messung bzw. Schätzung der Kosten ist damit unnötig. Dies ist ein Vorteil gegenüber der kostenbasierten Regulierung, da hier deutlich weniger Informationen notwendiger sind. Durch die Regulierung der Kapitalverzinsung werden die Preise also nur indirekt reguliert, dies gilt insbesondere beim Mehrproduktfall. Ein weiterer Vorteil liegt in der direkten Steuerung der Renditen bzw. Gewinne. Mit diesem Ansatz kann sichergestellt werden, dass es zum einen zu einer Kostendeckung kommt und die regulierten Unternehmen keine Verluste hinnehmen müssen. Zum anderen können aber ebenso monopolistische oder übermäßige Gewinne verhindert werden. Je nach Zielgenauigkeit der Regulierung, kann dem Unternehmen jedoch eine gewisse Rendite zugestanden werden. Ebenso bestehen keine Anreize, die Produktqualität zu reduzieren, da eine Kostensenkung keine Auswirkung auf die Gewinne hat. Eine Erhöhung der Qualität ist dann sinnvoll, wenn dadurch ein höherer Gewinn erzielt werden kann. Die Rentabilitätsregulierung bietet aber auch einige Nachteile. So ist etwa er Anreiz, die Kosten zu senken gering, da der Gewinn bzw. die Rendite unter den vorhandenen Kosten festgeschrieben werden. Jede Kostensenkung führt dazu ebenso zu einer Preissenkung. Ebenso bestehen hohe Informationserfordernisse über die relevante Kapitalbasis und über die adäquate Kapitalverzinsung. Beides muss vom Regulierer bestimmt bzw. festgelegt werden. Damit fallen hohe Verwaltungs- und Transaktionskosten an. Eine weitere Eigenschaft der Rate-of-Return Regulierung ist ein Time-lag, der sog. Regulatory lag, beobachten. Eine Kostenänderung wirkt sich damit nicht unmittelbar aus, sondern erst dann, wenn sie in der Kostenrechnung der Unternehmen erscheint bzw. wenn es zu einer Überprüfung der Kosten durch den Regulierer kommt. Die Preise bzw. Renditen werden dann nicht sofort angepasst, es existiert eine zeitliche Verzögerung, in der sich eine Kostenreduktion durchaus positiv auf die Gewinne auswirken kann. Der größte Nachteil des Verfahrens liegt jedoch in einer Anreizverzerrung, dem sogenannten Averch-Johnson-Effekt, begründet. Bedingt dadurch, dass dem Monopolisten eine bestimmte Kapitalrendite gewährt wird, hat dieses den Anreiz, das Kapitel über das Maß auszuweiten, das notwendig ist, den Output kostenoptimal zu produzieren. Es wird also Arbeit durch Kapital in ineffizienter Weise substituiert. Anhand der obigen Gewinnfunktion lässt sich das Problem anschaulich darstellen. Um das Optimierungsproblem des Regulierers zu lösen, kann mithilfe der Lagrange-Funktion L = p(x(A, K))x(A, K) – wA – rK + λ(wA + sK – p(x(A, K)) x(A, K)) und der Bedingungen erster Ordnung folgender Zusammenhang ableiten: ∂x ∂A = (1−λ)w ≠ w , für λ >0. ∂x r −λs r ∂K

14 Regulierung

223

Wie sich leicht erkennen lässt, entspricht die rechte Seite der Gleichung dem Verhältnis aus den Grenzproduktivitäten der Produktionsfaktoren. Ohne die Nebenbedingung würde rechts das Faktorpreisverhältnis stehen. Es würde sich das übliche Ergebnis Faktorproduktivitäten gleich Preisverhältnis ergeben. Ist jedoch λ > 0, ist die Bedingung also bindend, so ist die rechte Seite größer als das einfache Faktorpreisverhältnis. Dementsprechend muss auch die linke Seite größer sein. Die kann bei annehmenden Grenzerträgen dadurch erreicht werden, dass Arbeit durch Kapital ersetzt wird. Es kommt also zu einem ineffizienten Einsatz an Kapital. Ein weiteres Problem liegt in der Bestimmung einer adäquaten Rendite. Diese gilt als angemessen, wenn das Unternehmen für die Investitionen in den Kapitalstock kompensiert wird. Unklar ist jedoch, wie der Kapitalstock bewertet werden soll (vgl. Knieps, 2008). Grundsätzlich sollten auch nur solche Investitionen in den Kapitalstock einbezogen werden, die sinnvoll sind. Investition in Überkapazitäten sollten nicht berücksichtigt werden (vgl. Gilbert und Newberry, 1994).

14.3.1.3 Cost-Plus-Regulierung Eine weitere Möglichkeit, die Preise oberhalb der Kosten zu regulieren und somit einen Gewinn- oder Risikozuschlag zu gewähren, ist die sogenannte Cost-Plus- oder auch Markup- bzw. Kostenzuschlagsregulierung (vgl. Knieps, 2008). Hierbei wird dem regulierten Unternehmen ein Aufschlag α auf die Durchschnittskosten gewährt und auf diese Weise der Umsatz beschränkt. Der zu regulierende Preis lautet dann: DK p = (1+α) bzw. P ⋅X −DK = αDK , x wobei p den Preis, x die Menge, DK die Durchschnittskosten abbilden. Die Cost-PlusRegulierung stellt ebenfalls eine Rate-of-Return Regulierung dar. Allerdings sind hierbei die Umsätze beschränkt und nicht das eingesetzte Kapital. Der Kostenzuschlag wird exogen vom Regulierer festgesetzt. Eine Neuberechnung der Aufschläge kann nach bestimmten Zeitabständen vorgenommen werden. Allerdings erfolgt eine pauschale Preisanpassung durch veränderte Kosten. Die Kostenzuschlagsregulierung kann dabei auf verschiedene Weisen angewandt werden. So kann sie auf Basis der Vollkostenrechnung oder der Nachfrageintensität durchgeführt werden. Auf Basis der Vollkostenrechnung werden die Gemeinkosten den Stückkosten zugerechnet. Wird auf Basis der Nachfrageintensität reguliert, werden bei jedem Produkt zunächst lediglich die Stückkosten gedeckt. Darüber hinaus werden dann Deckungsbeiträge bestimmt, die gemäß der Preiselastizität der Nachfrage festgesetzt werden. Je inelastischer die Nachfrage, desto höher fallen die Aufschläge aus. Eine solche Bestimmung der Markups folgt damit der Logik der Ramsey-Preisregel und wird damit effizienter. Insgesamt hat dieser Ansatz den Nachteil, dass das regulierte Unternehmen keinen Anreiz hat, die Kosten zu senken. Kostensenkungen müssen anhand geringerer Preise an den Konsumenten weitergegeben werden und Kostenerhöhungen haben keinen Effekt auf den Gewinn. Darüber hinaus besteht der Anreiz, die Kosten noch weiter zu erhöhen, da

224

Ralf Dewenter und Ulrich Heimeshoff

ein fester Zuschlag (von z.B. 5%) mit steigenden Kosten ebenfalls steigt. Das Unternehmen hat gegenüber dem Regulierer einen Informationsvorteil und kann diesen zu opportunistischem Verhalten nutzen.

14.3.1.4 Efficient Component Pricing Rule Ein im Vergleich zur einfachen kostenbasierten Regulierung anderes Extrem, stellt die sogenannte Efficient Component Pricing Rule dar. Die ECPR ist eine Variation des sogenannten Retail-Minus Ansatzes. Die Idee hinter diesem Ansatz ist es, den Zugang zur wesentlichen Einrichtung daran zu orientieren, wie hoch der Händlerpreise, oder anders ausgedrückt, der Preis im Downstream-Markt ist. Vom Händlerpreis werden die vermiedenen Kosten des Handels abgezogen und damit die Kosten für den Netzzugang bestimmt. Die ECPR, auch Baumol-Willig Regel (vgl. Willig, 1979; Baumol, 1983), greift diesen Ansatz auf und bestimmt den Preis für den Netzzugang gemäß der tatsächlich anfallenden Kosten als auch der Opportunitätskosten. Die tatsächlichen Kosten können durch die durchschnittlichen oder die marginalen Inrekementalkosten approximiert werden. Die Opportunitätskosten entsprechen dem entgangenen Gewinn der Netzbetreiber, wenn die Ressource selbstgenutzt würde. Ein Wettbewerber, der den Zugang zum Netz nachfragt wird bei dieser Art der Regulierung also nur dann ein den Markt eintreten, wenn er trotz des hohen Zugangsentgelts konkurrenzfähig im Downstreammarkt ist. Der Wettbewerber muss also effizienter als der Incumbent sein und zu geringeren Kosten anbieten können. Ist der Wettbeweber lediglich so effizient wie der Incumbent, kommt es nicht zu Marktzutritt und damit auch nicht zu Wettbewerb am Downstreammarkt. Es kommt damit zu einer nur sehr leichten Regulierung. Die Vorteile der Methode liegen in der relativ einfachen Anwendbarkeit. Ebenso kommt die ECPR unter Umständen zum gleichen Ergebnis wie Ramsey-Pricing. Dazu müssen jedoch im Downstreambereich vollkommene Substitute vorhanden sein. Ebenso müssen konstante Skalenerträge vorliegen und der Wettbewerber darf keine Marktmacht aufweisen, damit keine Preisaufschläge weitergegeben werden. Und im Downstreambereich muss der Wettbewerbspreis realisiert werden. Insgesamt ist es also unwahrscheinlich, dass neben technischer Effizienz auch allokative Effizienz entsteht. Zwar sind entsprechende Anpassungen der ECPR für realistischere Szenarien möglich, in dem Fall entsteht aber auch eine deutlich komplexere Version der Efficient Component Pricing Rule. 14.3.1.5 Anreizproblematik kostenorientierter Instrumente Generell weisen sich die kostenorientierten Verfahren deutliche Nachteile bezüglich der Anreize zu Innovationen auf. Wird auf Basis der tatsächlichen Kosten reguliert, haben diese keine Auswirkungen auf den Gewinn des regulierten Unternehmens, da entweder der Preis auf Kostenniveau festgesetzt wird oder aber ein Aufschlag auf die Kosten gewährt wird. Es besteht daher nur ein geringer Anreiz die Kosten zu senken und innovative Verfahren einzusetzen.

14 Regulierung

225

Neben den reduzierten Anreizen zu Innovationen besteht ebenso eine Informationsasymmetrie. Während das Unternehmen seine Kostenstruktur aber auch die anderen relevanten Kennzahlen kennt, ist der Regulierer hierbei teilweise stark auf Informationen seitens der Unternehmen angewiesen. Die regulierten Unternehmen können diesen Informationsvorsprung ausnutzen, indem zum Beispiel die Kosten höher dargestellt werden, als sie tatsächlich sind. Auf diese Weise könnte ein Aufschlag größer ausfallen, als angemessen wäre. Haben die Unternehmen dagegen Informationsvorteile darüber, welcher Einsatz an Produktionsfaktoren effizient ist, könnte es zu einem weiteren Problem kommen. In diesem Fall besteht ein Anreiz, die Kosten zu erhöhen, indem zu viel in Produktionsfaktoren investiert wird. Es käme damit zu ineffizienten Überinvestitionen. Bei der Rate-of-Return-Regulierung fallen wie bereits diskutiert ebenso noch Verzerrungen bezüglich des Averch-Johnson-Effekts und der Problematik der Berechnung einer adäquaten Kapitalverzinsung an. Investitionsanreize bestehen zwar demnach aber lediglich in Richtung Anlagevermögen und in einem ineffizienten Maße.

14.3.2 Anreizorientierte Instrumente 14.3.2.1 Price-Cap Regulierung (Anreizregulierung) Die Price-Cap Regulierung (auch RPI-X-Regulierung oder Anreizregulierung) weist im Gegensatz zu den kostenorientierten Methoden einen dynamischen Ansatz auf, der eine im Zeitverlauf eine obere Preisgrenze definiert, die vom regulierten Unternehmen nicht überschritten werden darf. Diese Preisobergrenze gilt dann im Einproduktfall für einen einzelnen Preis oder im Mehrproduktfall für die Preise eines ganzen Güterkorbes. Der weitaus interessantere Fall wird dabei durch den Mehrproduktfall dargestellt, daher soll auch dieser im Folgenden betrachtet werden. Die zugrundeliegende Überlegung des Ansatzes ist, dass ein reguliertes Unternehmen immer einen Informationsvorteil gegenüber dem Regulierer hat. Das Unternehmen kann sowohl seine Kosten­- als auch die Nachfragestruktur besser einschätzen als eine Regulierungsbehörde. Einen Regulierungsansatz zu wählen, der vollständige Informationen unterstellt, ist daher unrealistisch. Vielmehr sollte ein geeigneter Ansatz anreizkompatibel sein und somit das Unternehmen dazu bringen, entsprechende Investitionen zu tätigen. Die Idee der Price-Cap Regulierung ist einfach: Dem Monopolisten wird eine Preissteigerung im Zeitverlauf gewährt, die sich an der allgemeine Preisentwicklung (z.B. dem Konsumpreisindex) orientiert. Demnach sind im Durchschnitt Preissteigerungen gemäß diesem Preisindex möglich. Reduziert wird der Index durch die branchenspezifische Produktivitätssteigerung. Die Regulierung ist damit von den Kosten entkoppelt. Eine allgemeine Formel für n Produkte lässt sich folgendermaßen darstellen: n

∑w i =1

i ,t −1

 pi ,t − pi ,t −1    ≤ RPI t − X .  p i ,t −1 

226

Ralf Dewenter und Ulrich Heimeshoff

Auf der linken Seite der Gleichung findet sich die Summe der Wachstumsraten der Preise p aller n Produkte die reguliert werden sollen. Diese sind jeweils gewichtet mit einem Faktor der sich etwa aus den Umsatzanteilen der einzelnen Produkte oder Dienste zusammensetzt: p ⋅x wi ,t −1 = n i ,t −1 i ,t −1 . ∑ p j ,t −1 ⋅ x j ,t −1 j =1

Setzt man die Gewichte in die Ausgangsgleichung ein, ergibt sich (vgl. Knieps, 2008) n

∑p

⋅x

n

RPIt t−– X X).) ≤ ∑ pi ,t −1 ⋅ xi ,t −1 ⋅ ( 1(1++RPI . )

i ,t i ,t −1 =i 1 =j 1

Die Summe der gewichteten Preisänderungen darf dabei insgesamt nicht größer sein als ein Preisindex (RPI) abzüglich des Produktivitätsfaktors X. Wie diese Summe zustande kommt, welche Preise also besonders stark angehoben werden, obliegt dabei allein dem Monopolisten. Dieser kann die Preise also relativ frei im Rahmen des vorgegebenen Preispfades wählen. Es ist damit eine optimale Preisstruktur möglich. Eine solche liegt sowohl im Interesse des Regulierers als auch des regulierten Unternehmens. Grundsätzlich kann diese Freiheit jedoch eingeschränkt werden, indem die Zahl der Preiskörbe erhöht wird, für die eine jeweils eigene Obergrenze gilt. Die Anwendung des Ansatzes wird wie folgt durchgeführt: Zunächst muss der Ausgangspreis (zum Beispiel) aufgrund von kostenbasierten Verfahren durchgeführt. Dann erfolgt die Festlegung des Price-Caps für die regulierten Produkte. Es erfolgt dann eine Kopplung der Preise an einen geeigneten Anpassungsfaktor, z.B. den Konsumpreisindex und die Festlegung des Produktivitätsfaktors. Nach Ablauf einer vorher zu bestimmenden Regulierungsperiode, erfolgt eine Evaluierung des Price-Caps und, gegebenenfalls, eine entsprechende Anpassung. Das Verfahren gibt einen Anreiz zu einer effizienten Preisstruktur. Das regulierte Unternehmen wird gemäß der Gewinnmaximierung die entsprechenden Preise relativ hoch setzen, wenn die dazugehörige Preiselastizität der Nachfrage relativ gering ist. Er folgt damit dem Optimierungsverhalten eines Mehrproduktmonopolisten aber ebenso auch der Ramsey-Preisstruktur. Über die Preisobergrenze wird jedoch verhindert, dass die Preise insgesamt zu hoch gesetzt werden. Eine Preissteigerung, die in einem Jahr nicht ausgenutzt wird kann somit in einem anderen Jahr umgesetzt werden. Über den Price-Cap können unzulässig hohe Gewinne verhindert werden. Ebenso können die Unternehmen die Preise relativ flexibel setzen. Die gilt sowohl bei einer Vergrößerung als auch bei einer Verkleinerung des Preissetzungsspielraums. Fällt z. B. die Produktivitätssteigerung in einer Periode größer als die allgemeine Preissteigerung aus, muss danach eine Preissenkung erfolgen. Wie aber auch bei einer Preissteigerung gilt hierbei, dass der Monopolist frei wählen kann, welche Preise dieser wie stark senkt. Ebenso kann das regulierte Unternehmen auch einige der Preise konstant lassen oder auch anheben, wenn sich im Mittel eine Preissenkung ergibt.

14 Regulierung

227

Die Preisobergrenze ist damit während einer Regulierungsperiode vollkommen unabhängig von den Kosten, was letztendlich einen Anreiz zur Kostensenkung und damit zur Effizienz erzeugt. Werden die Kosten gesenkt, können dadurch die Deckungsbeiträge gesteigert werden. Dieser Tatsache verdankt das Verfahren, dass es auch als Anreizregulierung bezeichnet wird. Welcher zeitliche Spielraum hierbei entsteht, hängt davon ab, wie lange eine Regulierungsperiode definiert ist. Während einer Regulierungsperiode hat das regulierte Unternehmen den Anreiz, die Effizienz zu steigern, da diese Kostensenkungen in dieser Zeit nicht in die Regulierung einbezogen werden. Die Festlegung Regulierungsperiode ist daher auch elementar für das Verfahren. Ebenso ist aus Sicht des Unternehmens von Vorteil, dass innerhalb der Regulierungsperiode keine Preissenkungen durchgesetzt werden können und somit ein größerer Preissetzungsspielraum entsteht. Auf diese Weise können dann insbesondere bei preisunelastischen Produkten oder Diensten, sowohl durch Preiserhöhungen als auch durch Kostensenkungen, die Deckungsbeiträge angehoben werden. Aus Sicht des Regulierers ist vorteilhaft, dass nur relativ geringe Informationserfordernisse existieren. Die Preise sind in aller Regel bekannt, lediglich die Gewichte als auch die Produktivität müssen bestimmt werden. Informationen über Kosten oder andere Größen sind (zumindest während einer Regulierungsperiode) nicht notwendig. Eine Kostenermittlung findet nur zu Beginn des Regulierungszeitraums statt, um einen Anfangspreis festlegen zu können. Danach können die Kosten ignoriert werden. Durch die Anpassung der Preise legt das regulierte Unternehmen im Zeitverlauf dagegen Informationen über seine Kostenstruktur offen. Auch ist das Verfahren nicht mit dem Nachteil der Überkapitalisierung behaftet, das der Rate-of-Return-Regulierung anhaftet. Die Einfachheit des Ansatzes und die relative Freiheit der Unternehmen in der Preissetzung erfordern überdies weniger starke und feine Eingriffe des Regulierers, es ist damit auch weniger Anfällig für Regulierungsfehler. Neben den Vorteilen existieren aber auch einige Probleme, die nicht außer Acht gelassen werden sollen: So ist zunächst unklar, wie der erste zu regulierende Preis bestimmt werden soll. Erst dann, wenn die Preise ein aus Wohlfahrtssicht optimales Niveau erreichen, macht es Sinn, diese anhand der allgemeinen Preissteigerungsrate fortzuführen. Um das Ausgangspreisniveau zu bestimmen, müssen jedoch deutlich mehr Informationen vorhanden sein als bei der eigentlichen Anwendung des Price Caps. Eine falsche Berechnung des Ausgangspreisniveaus würde sich im Verlauf mit der Orientierung an einen Preisindex fortsetzen. Ähnliches gilt auch für die Bestimmung des X-Faktors. Da dieser (allerdings in jeder einzelnen Periode) einen wesentlichen Einfluss auf das Preisniveau nimmt, ist es unerlässlich eine möglichst genaue Schätzung der Produktivität bzw. der Produktivitätssteigerung vorzunehmen. Ebenso kann aber auch dieser Faktor strategisch eingesetzt werden. Er kann sowohl eine Betrachtung der Vergangenheit oder auch der zukünftigen Produktivitätssteigerungen darstellen. Darüber hinaus kann aber auch eine vom Unternehmen erwartete Produktivität damit abgebildet werden.

228

Ralf Dewenter und Ulrich Heimeshoff

A priori nicht ganz klar ist darüber hinaus, wie die Gewichte (wi) bestimmt werden sollen. Diese sollen die Relevanz der einzelnen Produkte abbilden. Hierbei sind mehrere Vorgehen denkbar, wie zum Beispiel die oben erläuterte Orientierung an den relativen Umsätzen vergangener Perioden, die die einzelnen Produkte oder Dienste erwirtschaften oder die abgesetzten Mengen. Ebenso ist die Bewertung neuer Produkte nicht trivial, da hier keine oder nur wenige Informationen zur Verfügung stehen. Ein wesentliches Problem des RPI-X-Verfahrens liegt in der Tatsache begründet, dass zwar Anreize bestehen, die Kosten zu senken, jedoch ebenso Qualitätsreduktionen die Folge sein können. Ob es dazu kommt, hängt zum einen davon ab, wie kostenintensiv die Bereitstellung der Produkt- oder Servicequalität ist. Zum anderen ist relevant, wie stark die Konsumenten auf Qualitätsvariationen reagieren. Ist Qualität kostspielig und reagieren Konsumenten relativ wenig auf Qualitätsvariationen, so ist eher mit einer Reduktion der Qualität zu rechnen. Sollte dies der Fall sein, ist möglicherweise auch eine Regulierung der Qualität notwendig. Dies würde jedoch wiederum neue Informationsprobleme mit sich bringen. Anfällig ist das Verfahren ebenso für unerwartete Kostenschocks. Steigen die Kosten in der Regulierungsperiode unerwartet und in einem wesentlichen Ausmaß, hat dies direkte Auswirkungen auf die Profitabilität des regulierten Unternehmens. Das RPI-X-Verfahren ist so angelegt, dass eine Einbeziehung solcher Kostenschocks nicht erfolgt, das entsprechende Risiko trägt also im vollen Umfang das Unternehmen. Grundsätzlich wäre zwar eine Einbeziehung von Faktorpreisen zwar möglich, dann würde jedoch wiederum das Problem auftreten, dass die Anreize zur Kostenreduktion sinken würden. Es lassen sich verschiedene Versionen des Price-Caps Verfahrens anwenden. In der hier erläuterten Variante, bei der die Preise anhand der gewichteten Umsätze bestimmt werden, besteht eine relative Flexibilität bei der Preissetzung einzelner Produkte oder Dienste. Im Ergebnis kann sich, wie bereits erläutert, eine effiziente Preisstruktur ergeben. Ebenso sind jedoch auch andere Ansätze möglich. So lassen sich alle Produkte einzelnen reguliere, was die Flexibilität zwischen den einzelnen Gütern verhindern würde. Auch ließe sich ein ungewichteter Durchschnitt bilden oder auch Kombinationen der einzelnen Ansätze.

14.3.3 Weitere Instrumente Neben den genannten Verfahren existiert ebenso eine Reihe alternativer Ansätze, monopolistische Unternehmen zu regulieren. Eine Möglichkeit besteht z.B. darin, den Monopolisten zu subventionieren, um damit Anreize zu geben, die Preise auf ein möglichst geringes Niveau zu setzen. Diese Verfahren sind ebenso mit der Versteigerung von Monopolrechten kombinierbar. Einige davon sollen hier kurz vorgestellt werden.

14.3.3.1 Loeb-Magat Mechanismus Ein erster Ansatz ist der sogenannte Loeb-Magat Mechanismus (vgl. Loeb und Magat, 1979). Dieser geht der Frage nach, wie der Regulierer den Monopolisten anhand von Subventionen dazu bewegen kann, im sozialen Optimum anzubieten, ohne dass der Regulierer

14 Regulierung

229

genaue Kenntnisse über die Kosten des Unternehmens hat. Das soziale Optimum wird dann erreicht, wenn die Summe aus Produzenten- und Konsumentenrente maximiert wird. Das Ziel des Regulierers ist es also, die Wohlfahrt

= W

x

∫ p( x )dx − K ( x ) 0

zu maximieren, wobei p wiederum den Preis, x die Menge und K die Kosten bezeichnet. Zahlt der Regulierer dem regulierten Unternehmen nun eine Subvention t(x) in Abhängigkeit der Menge, dann lautet die Gewinnfunktion des Unternehmens wie folgt: π= p( x ) x + t ( x ) − K ( x ) p Der Grundgedanke des Ansatzes ist es, eine optimale Subvention zu finden, die so hoch ist, dass die Wohlfahrt maximiert wird. Da das Unternehmen selbst lediglich den Gewinn, nicht aber die Gesamtwohlfahrt maximiert, muss die Subvention also so bestimmt werden, dass sie der Konsumentenrente entspricht, also dem Integral unterhalb der inversen Nachfragefunktion, abzüglich der Umsätze:

t ( x )=

x

∫ p( x )dx − p( x ) x=

KR.

0

Setzt man die Subvention dann in die Gewinnfunktion ein erhält man x

pπ = p( x ) x + ∫ p( x )dx − p( x ) x − K ( x ) = 0

x

∫ p( x )dx − K ( x ). 0

Der Monopolist maximiert dann automatisch die Gesamtwohlfahrt als Summe aus Konsumenten- und Produzentenrente. Der Staat zahlt also immer genau die Differenz aus Gesamtwohlfahrt und Produzentenrente. Setzt der Monopolist den Preis auf Grenzkostenniveau, erhält er die Gesamtwohlfahrt als Subvention. In diesem Fall würde er die maximalen Gewinne erzielen und die Konsumenten die geringsten Preise zahlen. Das Verfahren eignet sich ebenso für die Regulierung von Mehrproduktmonopolisten, weist aber auch einige Nachteile auf. So besteht ein großer Informationsbedarf seitens des Regulierers. Um die optimale Subvention berechnen zu können, müssen Informationen über Nachfragestrukturen vorhanden sein, die typischerweise nicht zur Verfügung stehen. Ein ebenso großer Nachteil besteht darin, dass der Staat eine durch die Subvention Kosten entstehen, die wiederum gegenfinanziert werden müssen. Sollte zum Beispiel eine Steuerfinanzierung vorgenommen werden, so stellt sich die Frage nach der adäquaten Besteuerung. Eine allgemeine Steuer z.B. würde hier zu einer Verzerrung führen, wenn nicht alle Steuerzahler die Dienste oder Produkte des regulierten Monopolisten gleichsam nutzen. Diejenigen, welche die Dienste nicht oder nur geringfügig nutzen, werden dann über Gebühr belastet. Eine weitere Möglichkeit besteht darin, das Verfahren mit einer Versteigerung von Monopolrechten kombinieren. In einem ersten Schritt würden dann die Lizenzen zur Bereitstellung der entsprechenden Dienste oder Produkte versteigert. In einem zweiten dann die Subventionen an den monopolistischen Anbieter gezahlt.

230

Ralf Dewenter und Ulrich Heimeshoff

14.3.3.2 Sappington-Sibley Mechanismus Eine Abwandlung des Loeb-Magat Mechanismus ist der Sappington-Sibley (1988) Ansatz. Bei diesem Ansatz zahlt der Regulierer dem Monopolisten statt der gesamten lediglich die Veränderung der Konsumentenrente (KR), die durch eine Preissenkung verursacht wird, abzüglich des operativen Gewinns der letzten Periode. Der Informationsbedarf ist hierbei ebenso auf die Nachfragefunktion beschränkt. Diese muss jedoch relativ genau bekannt sein, um die Änderung der Konsumentenrente abschätzen zu können. Ist Ot = PtXt – Et der operationale Gewinn zum Zeitpunkt t, wobei P den Preis, X die Menge und E die Ausgaben bezeichnen und ist St = (KRt – KRt–1) – Ot–1 die vom Staat gezahlte Subvention, dann entspricht der vom Monopolisten zu maximierende Gewinn der Änderung der Gesamtwohlfahrt: πt = (Ot – Ot–1) + (KRt – KRt–1). Der Monopolist hat damit immer den Anreiz die Veränderung der Wohlfahrt zu maximieren, damit konvergiert das Ergebnis ebenfalls zum Wohlfahrtsmaximum. Der Nachteil des Verfahrens liegt vor allem in den bezüglich der Nachfragestruktur hohen Informationsbedarfs. Je genauer die Kenntnis über die zugrundeliegende Nachfragefunktion, desto exakter fallen auch die Schätzungen über die Veränderungen der Konsumentenrente aus. Auch stellt sich hier die Frage nach der Finanzierung.

14.3.3.3 Finsinger-Vogelsang Mechanismus Der Ansatz von Finsinger und Vogelsang (1981) lockert die strenge Annahme über den Informationsbedarf bezüglich der Nachfragestruktur, der dem Sappington-Sibley Mechanismus unterliegt, sodass kaum Informationen über die Nachfrage notwendig sind. Auch in diesem Fall wird die Veränderung der Konsumentenrente in die Regulierung einbezogen und abzüglich des operativen Gewinns als Subvention ausgezahlt. Die Veränderung der Konsumentenrente wird dabei aber über die Preisveränderung (multipliziert mit der Menge) approximiert. Die Subvention lautet dann St = xt–1 (pt–1 – pt) – Ot–1 , sodass der zu maximierende Gewinn des Monopolisten wie folgt definiert ist: πt = Ot + St = (Ot – Ot–1) + xt–1 (pt–1 – pt) und sich aus der Veränderung des operativen Gewinns und der Veränderung der Konsumentenrente zusammensetzt, insgesamt also die Veränderung der Gesamtwohlfahrt darstellt. Es lässt sich zeigen, dass bei Anwendung des Finsinger-Vogelsang Mechanismus die Preise gegen die wohlfahrtsoptimalen Preise konvergieren. Im Fall von Mehrproduktunternehmen findet somit eine Konvergenz zu Ramsey-Preisen statt.

14.3.3.4 Vogelsang-Finsinger Mechanismus Der sogenannte Vogelsang-Finsinger Mechanismus (1979) stellt anders als der FinsingerVogelsang Ansatz keinen Subventionsmechanismus dar, sondern stellt auf eine Regulierung der Preise bei Vorliegen von Informationsasymmetrien ab. Dieser Ansatz setzt kaum

14 Regulierung

231

Kenntnisse über die Nachfrage- und Kostenstruktur voraus. Die notwendigen Daten werden aus der Buchhaltung des Unternehmens der vergangenen Periode gewonnen. Gegeben alle notwenigen Informationen kann der Monopolist jeden Preis wählen, für den gilt:

pt xt −1 ≤ K t −1. Anders ausgedrückt, darf der Preis damit nicht über den Durchschnittskosten (DK) der vergangenen Periode liegen:

pt xt −1 ≤ xt −1DK t −1 ⇒ pt ≤ DK t −1. Auf diese Weise wird der Monopolist dazu gezwungen, sukzessive den Preis zu senken und die Menge entsprechend zu erhöhen. Liegt der Preis zum Beispiel im Ausgangsniveau bei p1 (vgl. Abbildung 14.9), dann darf dieser in der nächsten Periode nicht größer sein als die Durchschnittskosten (DK1) bei entsprechender Menge x1. Hierbei wird dann die Menge x2 realisiert, die dann wiederum die Durchschnittskosten und den entsprechenden Preis der nächsten Periode vorgeben usw. Auf diese Weise nähert sich der Preis immer weiter der Second-Best Lösung p = DK bei der Sättigungsnachfrage an. Wie bereits erwähnt, sind die Informationsanforderungen an den Mechanismus gering, der Monopolist hat aber deutlich mehr Informationen als der Regulierer. Daher erwächst aus diesem Informationsnachteil des Regulierers auch ein Anreiz des Monopolisten, die Kosten zu erhöhen, da somit ein höherer Preis verlangt werden kann. Dies kann

Abb. 14.9  Vogelsang-Finsinger Mechanismus

232

Ralf Dewenter und Ulrich Heimeshoff

grundsätzlich auf zweierlei Weise geschehen. Zum einen kann das regulierte Unternehmen tatsächlich die Kosten unnötigerweise erhöhen, um damit einen größeren Preissetzungsspielraum zu erlangen. Zum anderen kann der Monopolist aber auch einfach höhere Kosten in der Buchhaltung ausweisen, also die tatsächlichen Kosten verschleiern. Beides ist für den Regulierer nur schwer nachzuweisen. Eine Möglichkeit besteht darin, das Unternehmen regelmäßig zu kontrollieren um damit mögliche Ungenauigkeiten aufzudecken. Das Vorgehen des Monopolisten müsste dann mit entsprechenden Strafen belegt werden. Die Kosten für die Untersuchungen müssen allerdings vom Staat und damit vom Steuerzahler aufgebracht werden (vgl. Train, 1991). Nachteilig ist ebenso, dass eine Konvergenz nur über die Zeit stattfindet. Dies ist insbesondere bei sich ändernden Rahmenbedingungen problematisch, da es jeweils zu einer Neuausrichtung der Regulierung kommen muss. Ansonsten würde das Wohlfahrtsoptimum nicht erreicht. Der Ansatz ist ebenso anfällig für strategisches Verhalten des regulierten Unternehmens. Im nächsten Abschnitt widmen wir uns alternativen Methoden der Regulierung von wesentlichen Einrichtungen.

14.4

Alternative Methoden der Regulierung

14.4.1 Yardstick Competition Yardstick Competition ist der Versuch im Rahmen ökonomischer Entscheidungen einen Benchmarking Ansatz zu implementieren. Dabei ist die Anwendung dieses Ansatzes keineswegs auf regulatorische Entscheidungen beschränkt sondern kann auch zur Evaluation der Leistung von Regierungen als Benchmark für Wähler dienen (vgl. Vaubel, 1999 und Wrede, 2007). In der praktischen Regulierung ist es oft schwierig festzustellen, was Effizienz im Sinne eines First-best Marktergebnisses sein könnte. Stattdessen wird im Benchmarking Ansatz auf den effizientesten Anbieter zurückgegriffen, um festzulegen, welches Effizienzniveau realistischerweise von weniger effizienten Anbietern erreicht werden kann. Yardstick Competition ist somit eng verwandt mit Ansätzen zur Anreizregulierung.3 In der Anreizregulierung wird der Tatsache Rechnung getragen, dass die Unternehmen Ineffizienzen aufgebaut haben und diese Ineffizienzen abgebaut werden müssen. Die relevante Frage ist lediglich, bis zu welchem Grad dies geschehen kann. Es ist nahezu unmöglich einen theoretischen Benchmark aufzustellen, wie ein effizienter Netzbetreiber aussehen sollte. Um dieser Tatsache Rechnung zu tragen, wurden Ansätze entwickelt, die der parallelen Regulierung vergleichbarer Unternehmen Rechnung tragen. Die Literatur startete im Wesentlichen mit Shleifer (1985) worin Mechanismen entwickelt wurden, die Anreize für „Franchise Monopolies“ zum Abbau von Ineffizienzen bieten. 3

Zur Anreizregulierung vgl. Abschnitt 14.3 oder Vogelsang (2002).

14 Regulierung

233

Die Kernidee ist das sich Unternehmen an anderen regulierten Unternehmen, die nicht in direkter Konkurrenz zu ihnen stehen, orientieren müssen. Sind diese Unternehmen effizienter als das regulierte Unternehmen selbst ist, werden die Gewinne unter der Regulierung automatisch „gekürzt“, so dass Anreize bestehen selbst effizienter zu werden. Man ersetzt somit einen theoretisch effizienten Benchmark, welcher im Sinne von Demsetz (1969) als Nirwana-Ansatz gesehen werden könnte4, mit einem realistischen Benchmark der zeigt was vergleichbare Unternehmen aus Effizienzgesichtspunkten tatsächlich erreichen können. In diesem Kontext sollte festgehalten werden, dass das Konzept des Yardstick Competition nicht isoliert sondern in Kombination mit Verfahren der Anreizregulierung angewendet wird. Yardstick Competition dient somit dazu einen Effizienzbenchmark zu finden, der realistischerweise verwendet werden kann. Dadurch kann auf theoretische Vergleichssituationen verzichtet werden, welche unter Umständen unrealistisch sein könnten und damit der Gefahr des Vorwurfs des Nirwana-Ansatzes ausgesetzt werden können. Im folgenden Abschnitt stellen wir mit dem Ausschreibungswettbewerb ein Regulierungsverfahren vor, welches alternativ zu den klassischen Preisregulierungsverfahren angewendet werden kann, wenn Wettbewerb auf dem Markt nicht möglich ist und stattdessen Wettbewerb um den Markt implementiert werden kann (vgl. Joskow und Rose, 1989).

14.4.2 Ausschreibungswettbewerb/Franchise Bidding 14.4.2.1 Einführung Generell versucht Regulierung in den meisten Fällen durch regulatorische Eingriffe in das Marktgeschehen „Second-best“-Ergebnisse zu erzielen. Dies ist allerdings nicht in jedem Fall sinnvoll beziehungsweise Wettbewerb auf einem Markt ist nicht immer wünschenswert. In Energie- und Telekommunikationsmärkten ist eine Aufspaltung der Wertschöpfungskette in Bereiche, die durch die Eigenschaft eines natürlichen Monopols charakterisiert sind in Stufen, die wettbewerblich organisiert werden können, möglich. Es gibt allerdings Märkte in denen dies nicht der Fall ist. Auf solchen Märkten wird der „Wettbewerb auf dem Markt“ durch „Wettbewerb um den Markt“ ersetzt (vgl. Demsetz, 1968). Es findet also eine Ausschreibung für ein temporäres Monopol statt (vgl. Borrmann und Finsinger, 1999). Durch diese Ausschreibung wird herausgefunden, wer die höchste Zahlungsbereitschaft für dieses temporäre Monopol hat. Ein solcher Ausschreibungswettbewerb wird im englischen auch als „Franchise Bidding“ bezeichnet. Der Mechanismus ist dem von Auktionen ähnlich, wobei mit Hilfe der Gebote der Bieter mit der höchsten Zahlungsbereitschaft für das Recht für einen begrenzten Zeitraum den Markt zu bedienen gefunden werden soll (vgl. Train, 1991). Dadurch wird unter bestimmten Bedingungen eine effiziente Zuteilung des Rechts auf ein temporäres Monopol gefunden. 4

Vgl. dazu auch Richter und Furubotn (2003), S. 549.

234

Ralf Dewenter und Ulrich Heimeshoff

Die Idee des Ausschreibungswettbewerbs ist, dass ohne regulatorische Eingriffe Marktzutritt nicht möglich wäre. Aus diesem Grund wird eine Form des institutionalisierten Markteintritts geschaffen, der sich in wiederkehrenden Zeiträumen wiederholt (vgl. Borrmann und Finsinger, 1999). Das Monopol wird für einen vorgegebenen Zeitraum an den Meistbietenden versteigert. Den Bietern werden ex Ante alle staatlichen Auflagen für den relevanten Markt bekannt gegeben. In Bezug auf den Vergabemechanismus existieren verschiedenste Möglichkeiten (vgl. Knieps, 2004): 1. Die ausschreibende Behörde legt den Preis ex Ante fest und der Zuschlag geht an den Bieter, der die niedrigste Subvention fordert, um einen bestimmten Dienst für eine gegebene Periode anzubieten. 2. Alternativ kann der Zuschlag auch an den Anbieter gehen, der ohne Subvention den niedrigsten Preis zusagt. 3. Außerdem besteht die Möglichkeit, den Zuschlag demjenigen zu geben, der das höchste Gebot für das temporäre Monopol abgibt. Wird, wie in Alternative 1 skizziert, der Preis ex Ante festgelegt, wird dies in der Regel ein Preis auf Höhe der Grenzkosten sein. Dieser Preis ist natürlich nicht ausreichend, um einen kostendeckenden Betrieb eines bestimmten Dienstes zu ermöglichen. Aus diesem Grund wird der Grenzkostenpreis mit der Zahlung einer Subvention verbunden. Die Nutzer eines bestimmten Dienstes sollen in den Genuss niedriger Preise kommen, das Unternehmen benötigt allerdings einen Ausgleich, um keine Verluste zu generieren. Eine alternative Möglichkeit besteht darin, auf eine Zahlung von Subventionen zu verzichten und stattdessen den Zuschlag vom angebotenen Endkundenpreis abhängig zu machen. Damit soll möglichst der effizienteste Anbieter gefunden werden, der kostendeckend den niedrigsten Preis anbieten kann. Diese Ausschreibungsmethode birgt allerdings einige Risiken, wie in späteren Abschnitten noch erläutert wird. Darüber hinaus kann der Zuschlag aber auch an den Anbieter gehen, der bereit ist das höchste Gebot für das temporäre Monopol abzugeben. Dies könnte für einige öffentliche Körperschaften in Zeiten abnehmender öffentlicher Budgets im ersten Moment eine attraktive Alternative im Sinne der Einnahmenmaximierung sein, die daraus entstehenden Marktergebnisse können allerdings äußerst kontraproduktiv sein (vgl. Klemperer, 2002). Die UMTS-Ausschreibungen der Bundesnetzagentur sind dafür ein prominentes Beispiel (vgl. Klemperer, 2002). Bei identischen Geboten entscheidet oftmals das Los. Ausschreibungen finden häufig im Verkehrssektor und dort insbesondere bei Schienen- und Busverbindungen statt. Beispielsweise kann der Betrieb eines U-Bahn-Netzes an einen privaten Anbieter vergeben werden. Hier würde in der Regel aufgrund des Koordinationsaufwands ein Wettbewerb zwischen verschiedenen Anbietern im Markt nicht sinnvoll sein. In diesem Kontext ist es wichtig zu beachten, dass die Infrastruktur in Form von Tunnelstrecken und Schienennetz von der ausschreibenden Stadt oder Gemeinde zur Verfügung gestellt wird. Damit wird der künftige Betreiber von den höchsten versunkenen Kosten beziehungsweise irreversiblen Investitionen befreit. Nur dadurch wird in diesem

14 Regulierung

235

Beispiel der Wettbewerb um die preisgünstigste Versorgung möglich. Bei anderen Ausschreibungen wie beispielsweise von Busstrecken im ländlichen Raum spielen versunkene Kosten hingegen eine deutlich kleinere Rolle.

14.4.2.2 Theoretische Grundlagen Die Theorie des Ausschreibungswettbewerbs beschreibt die Funktionsweise dieses Regulierungsinstruments unter idealisierenden Prämissen (vgl. Borrmann, 1999). Diese Annahmen sollen hier vertieft betrachtet werden: 1. 2. 3. 4. 5.

Homogenes Gut, Beteiligung hinreichend vieler Bieter, Bieter sind homogen hinsichtlich ihrer Produktionstechnologie, Keine expliziten oder impliziten Absprachen zwischen den Bietern und Konstante Kosten- und Nachfragebedingungen.

Gelten diese Annahmen, wird bei Ausschreibungswettbewerb ein „second best“-Marktergebnis erzielt. Das gewinnende Gebot wird gegen die Durchschnittskosten des Unternehmens gehen und es ist davon auszugehen, dass das Unternehmen effizient produziert. Ein niedrigeres Angebot würde es unter diesen Annahmen nicht geben, da in diesem Fall Verluste realisiert würden. Effiziente Produktion liegt außerdem im Interesse des Anbieters, weil dadurch die Gewinne erhöht werden können. In konkreten Ausschreibungen ist es sicherlich fraglich, inwieweit diese Annahmen erfüllt sein werden. Produkthomogenität kann zumindest näherungsweise erzielt werden, wenn die ausgeschriebene Dienstleistung hinreichend exakt spezifiziert wird. Die Beteiligung hinreichend vieler Bieter hingegen wird in vielen Fällen nicht erfüllt sein, weil beispielsweise bei bestimmten Ausschreibungen Mindestgrößen oder Erfahrung der Bieter in diesen Branchen vorausgesetzt werden. Dadurch bleibt oftmals nur eine geringe Anzahl von Bietern übrig, welche sich an der Ausschreibung beteiligen.5 Die Homogenitätsannahmen bezüglich der Produktionstechnologie und der entsprechenden Kosten ist sicherlich auch häufig nicht gegeben. Darüber hinaus muss die Kostenfunktion im relevanten Bereich subadditiv sein, da ansonsten die Eigenschaft des natürlichen Monopols nicht gegeben wäre. Auch konstante Kosten- und Nachfragebedingungen können über längere Zeiträume nur schwer gerechtfertigt werden. Wesentliche Innovationen müssten aus diesem Grund für den Zeitraum der Vertragslaufzeit ausgeschlossen werden. Außerdem darf sich das Nachfrageverhalten der Konsumenten nicht wesentlich ändern, was beispielsweise bei der Wahl zwischen verschiedenen Verkehrsträgern durchaus passieren kann.6 Darüber hinaus spielen Submissionskartelle empirisch eine große Rolle und dementsprechend ein häufig auftretendes Phänomen. Zu den Effekten der Anzahl der Bieter auf das Marktergebnis vgl. Williamson (1976). Im ländlichen Raum werden beispielsweise Buslinien relativ häufig ausgeschrieben. Ausschreibungen sind darüber hinaus auch im Schienenpersonennahverkehr zu finden. Aus diesem Grund ist der Verkehrssektor ein gutes Beispiel für die Anwendung des Ausschreibungswettbewerbs. 5 6

236

Ralf Dewenter und Ulrich Heimeshoff

Das Konzept des Ausschreibungswettbewerbs zeigt durchaus Parallelen zum Modell der bestreitbaren Märkte. Auch bei Ausschreibungen versucht man sich potenzielle Konkurrenz zunutze zu machen und dadurch Effizienz zu erreichen. Der aktuell am Markt tätige Anbieter hat immer den Druck, dass im Rahmen der nächsten Vergabe neue und unter Umständen effizientere Anbieter ihn bei der Auktion schlagen könnten. Aus diesem Grund bestehen Anreize effizient zu produzieren über die eigene Gewinnmaximierung in statischer Hinsicht hinaus. Diese Drohung liegt natürlich im eigentlichen Sinne nur in regelmäßigen Zeitabständen vor, wenn eine neue Vergaberunde ansteht. Dies ist der wesentliche Unterschied zum Modell der bestreitbaren Märkte, in dem diese Drohung permanent besteht.

14.4.2.3 Zentrale Umsetzungsprobleme des Ausschreibungswettbewerbs Wie bereits angedeutet, treten bei der konkreten Umsetzung des Ausschreibungswettbewerbs einige Probleme auf, die in den folgenden Abschnitten näher betrachtet werden sollen. Tabelle 14.3 gibt einen Überblick über die wichtigsten Probleme bei der Implementierung des Ausschreibungswettbewerbs in der Praxis. Im Sinne von Hayek (1945) wird Wettbewerb häufig als Entdeckungsverfahren interpretiert, da Wissen dezentral angeordnet ist und kein zentraler Planer dieses Wissen kumulieren kann. Vor einem ähnlichen Problem steht eine ausschreibende Behörde. Ihr fehlt sowohl das relevante Wissen in Bezug auf die Kostenstrukturen der Angebotsseite als auch Informationen bezüglich der Präferenzen der Konsumenten. Auf der Angebotsseite nutzt der Ausschreibungswettbewerb in diesem Fall den Wettbewerb um den Markt, um zu effizienten Ergebnissen zu gelangen und somit eine etwas andere Form des Marktmechanismus zu implementieren. Dies führt aber nur dann zu effizienten Ergebnissen, wenn die Anzahl der sich beteiligenden Bieter groß genug ist. Ansonsten ist der Wettbewerb um den Markt nicht ausreichend, um zu effizienten Auktionsergebnissen zu gelangen. Problematisch ist allerdings, dass hier kein Marktmechanismus auf Seiten der Konsumenten ins Spiel kommt. Hier muss die ausschreibende Behörde die Entscheidung treffen, welche Art von Dienstleistung mit welcher Qualität sie ausschreibt, da eine Entscheidung allein anhand des Preises sicherlich nicht zu befriedigenden Ergebnissen führen würde (vgl. Klemperer, 2004). Normalerweise würde sich dieses Problem in einem Markt durch Tab. 14.3  zentrale Probleme des Ausschreibungswettbewerbs (Quelle: Eigene Darstellung in Anlehnung an Borrmann und Finsinger (1999))

Probleme des Ausschreibungswettbewerbs Marktmechanismus nur auf der Angebotsseite Definition und Überprüfung der Qualität Beurteilung des Optimums Komplexität im Mehrproduktfall Absprachen der Anbieter/Submissionskartelle Der Fluch des Gewinners Unsicherheit

14 Regulierung

237

Angebot und Nachfrage von selbst lösen. Es ist also keineswegs sicher, dass die ausgeschriebene Dienstleistung wirklich mit den Präferenzen der Verbraucher übereinstimmt. Auf der Nachfrageseite kommt kein dezentraler Marktmechanismus zum Tragen. Somit wird man maximal Kostenminimierung unter Nebenbedingungen erreichen können. Die Qualität der Dienstleistung ist ein wesentliches Problem des Ausschreibungswettbewerbs, da die Annahme homogener Leistungen in der Praxis sicherlich kaum aufrechterhalten werden kann (vgl. Milgrom, 2004). Die Qualität eines Gutes wird allgemein als die Gesamtheit sämtlicher relevanter Merkmale eines Produktes beziehungsweise einer Dienstleistung definiert. Ein Qualitätsmerkmal ist genau dann relevant, wenn es den Nutzen mindestens eines Konsumenten beeinflusst (vgl. Borrmann und Finsinger, 1999). In Bezug auf den Ausschreibungswettbewerb liegt das Problem in der Qualitätswahl der Anbieter, die die Wahl zwischen verschiedenen Qualitätsniveaus haben. Die Qualität stellt somit für die Bieter eine wichtige Entscheidungsvariable dar. Mit steigender Qualität sind aber üblicherweise auch steigende Durchschnittskosten verbunden. Aus Sicht eines Anbieters bestehen somit Anreize die Qualität und somit die Kosten zu senken und bei gegebenen Endkundentarifen die Gewinne zu steigern. Würde man im Rahmen eines Ausschreibungswettbewerbs keine Mindestqualität spezifizieren, wäre ein funktionierender Ausschreibungswettbewerb kaum denkbar. Stattdessen würde sich das Qualitätsniveau durchsetzen, welches zu den niedrigsten Durchschnittskosten bereitgestellt werden kann. Somit würde mit großer Wahrscheinlichkeit ein wohlfahrtsökonomisch suboptimales Qualitätsniveau gewählt. Was kann eine ausschreibende Behörde tun, um dieses Problem zu lösen? Zunächst sollte die gewünschte Qualität nach verschiedenen Merkmalen differenziert in den Ausschreibungsunterlagen fix vorgegeben werden. Als Konsequenz daraus könnte dann anhand des Preises entschieden werden. Alternativ kann eine Mindestqualität festgelegt werden. Dann entsteht aber die Problematik, dass ein Überbieten des Qualitätsniveaus hinsichtlich einzelner Merkmale bei der Auswahl berücksichtigt werden muss. Es ist dann nicht klar, welche Anpassungen im Preis ermöglicht werden sollten. Dazu benötigt man eine Bewertungsfunktion, die Preis- und Qualitätsmerkmale gewichtet. Die Folge sind dann mehrdimensionale Gebote. Wird eine Bewertungsfunktion eingeführt, kann auch auf eine Definition einer Mindestqualität verzichtet werden, da die Kriterien zur Gewichtung von Qualitätsunterschieden bekannt sind (vgl. Borrmann und Finsinger, 1999). Diese Diskussion bezieht sich bislang nur auf die angebotene Qualität. Die Präferenzen der Verbraucher wurden dabei nicht berücksichtigt und eine solche Berücksichtigung ist nur sehr schwierig umzusetzen. Dazu könnten unter Umständen Befragungen der Bevölkerung beitragen. Abschließend gilt in Bezug auf die Qualität festzuhalten, dass die Überwachung eines bestimmten Qualitätsniveaus deutlich schwieriger als die Einhaltung eines vereinbarten Preises ist und somit immer Schwierigkeiten in Bezug auf die Festlegung und Überwachung eines geeigneten Qualitätsniveaus bleiben werden. Die Beurteilung des Optimums im Ausschreibungswettbewerb ist ebenfalls nicht trivial. Im Ein-Produktfall ohne Subventionen wird ein Gebot nicht unterhalb der Durchschnittskosten liegen. Durchschnittskostenpreise sind allerdings nur dann optimal, wenn

238

Ralf Dewenter und Ulrich Heimeshoff

sie mit den Grenzkosten übereinstimmen. Liegen Skalenvorteile vor, was in den relevanten Branchen sicherlich der Fall ist, liegen die Grenzkosten aber stets unterhalb der Durchschnittskosten. Somit liegt der Fokus des Ausschreibungswettbewerbs lediglich auf der Eliminierung von Monopolgewinnen und nicht auf dem Setzen von Grenzkostenpreisen beziehungsweise der Erlangung eines First-best Optimums. Darin unterscheidet sich dieses Verfahren aber nicht von verschiedensten anderen Regulierungsverfahren, die direkt in die Preissetzung eingreifen. Gewisse Verbesserungen in Bezug auf das Wohlfahrtsergebnis können durch die Verwendung mehrteiliger Tarife erzielt werden. Mehrteilige Tarife sind aus wohlfahrtsökonomischer Perspektive uniformen Tarifen bei Existenz von Skalenerträgen überlegen. Zur Beurteilung mehrteiliger Tarife und der entsprechenden Gebote der Unternehmen sind allerdings Kenntnisse der Nachfragefunktion erforderlich, was das Ausschreibungsverfahren zusätzlich erschwert. Das Ausschreibungsverfahren nimmt deutlich an Komplexität zu, wenn es sich um einen Mehrproduktfall handelt. Ist die Bieterkonkurrenz hinreichend groß, ist nach wie vor mit gegen Null gehenden Gewinnen zu rechnen. In diesem Fall muss allerdings die Produktqualität für jedes einzelne Produkt fix vorgegeben werden oder eine Mindestqualität wird definiert. Darüber hinaus ist die Annahme der konstanten Kosten- und Nachfragebedingungen hier noch schwieriger aufrechtzuerhalten (vgl. Borrmann und Finsinger, 1999). Das aus empirischer Sicht schwierigste Problem in Bezug auf Ausschreibungen ist die so genannte Submissionskollusion (vgl. Varian, 2011). Damit werden explizite und implizite Absprachen bei Ausschreibungen bezeichnet. Liegen solche Absprachen vor, sind Effizienzgewinne durch Absprachen nicht mehr möglich. Kollusive Praktiken bei Ausschreibungen sind keineswegs eine Ausnahme. Empirische Analysen zeigen, dass Märkte mit Ausschreibungen wesentlich häufiger von Kollusion betroffen sind als andere Märkte.7 Dies wird auch dadurch belegt, dass das Bundeskartellamt einen eigenen Leitfaden zur Aufdeckung von Absprachen im Rahmen von Ausschreibungen angefertigt hat (vgl. Bundeskartellamt, 2014) In diesem Kontext stellt sich die Frage warum das so ist und wie solche Absprachen aussehen können. Eine oft festgestellte Möglichkeit sieht so aus, dass sich alle Bieter oder eine bestimmte Bietergruppe ex Ante auf einen „Sieger“ beziehungsweise einen Gewinner der Ausschreibung verständigen. Die übrigen Mitglieder des Kartells bieten dann entweder nicht oder zu überhöhten Preisen. Der Gewinner sollte natürlich derjenige sein, der ohne Kollusion das günstigste Angebot eingereicht hätte, damit der erwartete Gewinn maximiert wird. Der Gewinner zahlt anschließend eine Kompensationszahlung an die anderen Anbieter. Warum treten Absprachen so häufig auf Märkten mit Ausschreibungen auf? Zunächst sind die ausgeschriebenen Leistungen genau spezifiziert und die Form des Angebots ist oftmals vorgeschrieben. Solche homogenen Leistungen und Angebote machen den Vergleich 7 Ein bekanntes Beispiel aus der jüngeren Zeit ist das Feuerwehrfahrzeugkartell (vgl. Bundeskartell­ amt, 2014)

14 Regulierung

239

zwischen den Kartellanten wesentlich einfacher als in anderen Märkten, da man sich über viele Aspekte, welche bei stärkerer Produktdifferenzierung und Abwesenheit von Formvorschriften für Angebote entstehen würden, nicht mehr einigen muss. Des Weiteren ist die Anzahl der Bieter meistens sehr überschaubar, da die Anzahl der Unternehmen die die ausgeschriebenen Leistungen erbringen können meistens klein ist. Darüber hinaus ist die Möglichkeit der Sanktion viel einfacher als auf anderen Märkten. Das gewinnende Gebot wird nach Erteilung des Zuschlags bekannt. Ein Kartell kann somit feststellen, ob eine anderes Kartellmitglied von der Absprache abgewichen ist oder nicht. Somit können Abweichler leicht identifiziert und sanktioniert werden (vgl. Varian, 2011). Dies führt zu weniger Abweichungen und besserer Kartellstabilität. Submissionskollusion gänzlich zu verhindern ist sicherlich nicht möglich. Es gibt allerdings einige Dinge, die zur Verringerung von Kollusion beitragen können. Zum einen sollten die Gebote, exklusive des gewinnenden Gebots, nicht bekannt gemacht werden. Durch die Geheimhaltung der meisten Gebote und der dazugehörenden Bieter wird Cheating erleichtert und die Kartellstabilität verringert. Der Gewinner wird allerdings durch die Zuteilung des Auftrags immer bekannt. Darüber hinaus sollte versucht werden, einen möglichst großen Bieterkreis zu bekommen. Dies erreicht man durch öffentliche Ausschreibung in möglichst großem Rahmen (z.B. europäische statt deutsche Ausschreibung). Eine Ausweitung des Bieterkreises wird allerdings dann schwierig, wenn die Verfügbarkeit bestimmter Technologien den Kreis der Bieter bereits stark einschränkt. Ein weiteres mit Ausschreibungen verbundenes Problem ist der so genannte „Fluch des Gewinners“ oder „Winner’s Curse“ (vgl. Nicholson und Snyder, 2007). Hier geht es darum, dass die künftige Nachfrage und künftige Kosten der Unsicherheit unterliegen (vgl. Varian, 2011). Die Anbieter weisen oft sehr ähnliche Kostenstrukturen auf. Bei intensivem Bieterwettbewerb und reiner Orientierung an den erwarteten Durchschnittskosten besteht nun die Gefahr, dass ausgerechnet der Bieter den Zuschlag bekommt, der sich bei seinen künftigen Durchschnittskosten am stärksten nach unten verschätzt hat. Dieses Problem wird in der Literatur als Winner’s Curse bezeichnet und kann dazu führen, dass ein beauftragtes Unternehmen im Nachhinein mehr Subventionen benötigt als ursprünglich geplant und zu einem ineffizienten Ergebnis des Ausschreibungswettbewerbs führt. Diesem Problem kann unter Umständen mit der Verpflichtung zu Abgabe von Angeboten mit Sicherheitsaufschlägen begegnet werden. Der Aufschlag muss umso größer sein, je größer die Anzahl der Bieter und je intensiver der Bieterwettbewerb ist. Dadurch könnte allerdings ein Vorteil für den bereits am Markt tätigen Anbieter entstehen, weil dieser Sicherheitsaufschläge aufgrund seiner Marktkenntnis besser kalkulieren kann als die potenziellen Neueinsteiger. Unsicherheit ist im Rahmen von Ausschreibungen ein generelles Problem, da bestimmte Variablen wie Preise und Qualitätsniveau über einen längeren Zeitraum festgelegt werden müssen und nur in Sonderfällen geändert werden können. Kosten- und Nachfrage müssen aber keineswegs während der Vertragslaufzeit konstant bleiben. Selbst wenn zum Zeitpunkt des Zuschlags ein Second-best Optimum erreicht wird, kann später signifikant

240

Ralf Dewenter und Ulrich Heimeshoff

davon abgewichen werden. In gewöhnlichen Märkten erfolgen solche Anpassungen über den Preismechanismus, was hier nicht ohne weiteres möglich ist (vgl. Borrmann und Finsinger, 1999). Aus diesem Grund sind bei Ausschreibungen sowohl Übergewinne als auch Verluste möglich. Als Lösungsmöglichkeit werden häufig bedingungsabhängige Verträge vorgeschlagen. In den Verträgen können bestimmte Schwellenwerte für Kosten und Nachfrage eingebaut werden, die nachträgliche Preisadjustierungen ermöglichen. In diesem Kontext ist allerdings zu beachten, dass die Nachprüfbarkeit von Kosten- oder Nachfrageänderungen schwer zu überprüfen sind. Sollte ein Unternehmen seinen Preis bei Nachfragesteigerungen absenken müssen, weil dies der vertraglichen Vereinbarung entspricht, wird er versuchen, die Nachfragesteigerung so gut wie möglich zu verschleiern. Zusammenfassend bleibt festzuhalten, dass es sich auch bei Verträgen im Zusammenhang mit Ausschreibungen immer um unvollständige Verträge handeln wird, die nicht alle Eventualitäten abdecken können (vgl. Williamson, 1985).

14.4.3 Staatsunternehmen/interne Subventionierung 14.4.3.1 Staatsunternehmen und Universaldienstverpflichtungen Eine Möglichkeit bei Vorliegen natürlicher Monopole die Bereitstellung eines Dienstes zu gewährleisten, ist die staatliche Bereitstellung, welche bis zur Liberalisierung und Privatisierung in Deutschland in den Bereichen Telekommunikation, Post und Bahn erfolgt. Die Anzahl der Staatsunternehmen ist seit der Liberalisierungswelle in den späten 1990er Jahren stark zurückgegangen. Dies hängt nicht nur mit der gewünschten Stimulierung des Wettbewerbs sondern auch mit der Tendenz staatlicher Unternehmen zu ineffizienter Produktion zusammen. In Zeiten schwieriger Bedingungen für öffentliche Haushalte, bestehen daher Anreize bestimmte Dienste nicht mehr selbst anzubieten. Von daher geht der Trend klar gegen eine staatliche Bereitstellung von Diensten in Netzindustrien. Ein wichtiger Aspekt staatlicher Unternehmen, aber auch regulierter Unternehmen, die Universaldienstverpflichtungen unterliegen, ist die so genannte interne Subventionierung als Finanzierungs- beziehungsweise Regulierungsinstrument (vgl. Knieps, 1987). Dazu ist zunächst zu klären, was unter Universaldienstverpflichtungen zu verstehen ist (vgl. Fredebeul-Krein, 1998). Eine Universaldienstverpflichtung beinhaltet die Verpflichtung für einen Netzbetreiber bestimmte Dienste im gesamten abgedeckten Gebiet bereitzustellen. Beispielsweise wird in Deutschland jedem Konsumenten ein definiertes Standardtelekommunikationsangebot zu einem bestimmten Preis, der nicht regional differenziert ist angeboten. Wie wir bereits im Abschnitt über Charakteristika von Netzindustrien diskutiert haben, zeichnen sich Netzindustrien durch Dichteeffekte aus. Es ist wesentlich preisgünstiger Telekommunikationsnetze in dicht besiedelten Gebieten zu bauen als in dünn besiedelten Gebieten. Aufgrund dessen ist ein einheitlicher Preis für einen Dienst nicht unbedingt in allen Marktgebieten kostendeckend. Stattdessen werden Verluste in Regionen mit hohen Kosten durch höhere

14 Regulierung

241

Deckungsbeiträge aus urbanen Regionen abgedeckt. Dieser Effekt wird als Quersubventionierung bezeichnet. Die langfristigen durchschnittlichen Zusatzkosten der Bereitstellung in Netzen sind umso günstiger, je näher die Haushalte beieinander liegen. Somit handelt es sich hier um Größen- und Verbundvorteile, welche von der räumlichen Dichte der Haushalte abhängen. Dieser Zusammenhang wird in der folgenden Grafik dargestellt. Je weiter ein Haushalt vom dicht besiedelten Zentrum entfernt ist, desto höher sind die Zusatzkosten ihn mit der jeweiligen Netzleistung zu bedienen. Die Gründe für interne Subventionierung liegen meistens in sozialen Gesichtspunkten. Sozialtarife und Universaldienstverpflichtungen dienen dazu, allen Konsumenten bestimmte Leistungen zur Verfügung zu stellen und unter Umständen für besonders bedürftige Menschen niedrigere Tarife anzubieten. Solche Dienstleistungen werden oft als Dienstleistungen von allgemeinem wirtschaftlichem Interesse bezeichnet und in den Artikeln 16 und 86 des EG Vertrages genannt. Eine exakte Definition existiert nicht, aber nach herrschender Meinung handelt es sich um Dienstleistungen, die mit Gemeinwohlverpflichtungen verbunden sind. Diese stammen zumeist aus den Bereichen Verkehr, Telekommunikation, Post und Energie. Die Aufrechterhaltung von Universaldienstverpflichtungen bleibt erklärtes Ziel der EU und dadurch ist auch Deutschland zur Sicherung dieser Universaldienste verpflichtet. Eine aus ökonomischer Sicht nicht zu beantwortende Frage ist, welcher Umfang defizitärer Leistungen notwendig ist. Dabei handelt es sich um politische Entscheidungen, bei denen Effizienz nicht im Vordergrund steht. Solche Universaldienstverpflichtungen werden regelmäßig durch interne Subventionierung finanziert. Im nächsten Abschnitt diskutieren wir das Konzept der internen Subventionierung und seine Operationalisierung.

Abb. 14.10  Märkte mit abnehmender Dichte (Quelle: Knieps (2007))

242

Ralf Dewenter und Ulrich Heimeshoff

14.4.3.2 Definition interner Subventionierung Netzunternehmen sind in der Regel Mehrproduktunternehmen oder Mehrproduktmonopolisten. Unterschiedliche Produkte oder Dienstleistungen erwirtschaften somit auch unterschiedlich hohe Deckungsbeiträge. Diesen Aspekt kann man sich zunutze machen, um Verluste durch potenziell nicht profitable Dienste auszugleichen. Vor der Liberalisierung und Privatisierung von Post- und Telekommunikationsdienstleistungen wurde der damaligen Deutschen Post oft der Vorwurf gemacht, Orts- durch Ferngespräche beziehungswiese Post- durch Telekommunikationsdienste zu subventionieren. Auch im Energiesektor steht oftmals der Vorwurf im Raum, dass Haushaltskunden und große Industriekunden Sonderabnehmer (i.d.R. mittelständische Unternehmen) quersubventionieren. Quersubventionierung kann also auch als Regulierungsinstrument eingesetzt werden, um ansonsten unprofitable Leistungen, welche aber staatlicherseits als unverzichtbar angesehen werden, anzubieten und deren Kosten zu decken. Damit ein Leistungsbündel S frei von interner Subventionierung ist, muss es zwei Bedingungen erfüllen (vgl. Knieps, 2007): 1. Kostendeckungsbedingung und 2. Zusatzkostentest. Ri bezeichnet den Erlös einer Leistung i des Gesamtprojektes R, welches durch den Erlösvektor R = (R1, …, Rn) charakterisiert wird. Die Kostendeckungsbedingung ist genau dann erfüllt wenn folgende Bedingung gilt: n

∑ R = K(N ), i=1

i

Ri ≥0, i =1,...,n.

Die Summe der Erlöse der Leistungen i müssen mindestens so hoch sein, wie die aus ihrer Bereitstellung entstehenden Kosten K(N). Zusätzlich müssen die Erlöse aber auch ihre Zusatzkosten decken. Dies ist genau dann gewährleistet, wenn gilt:

∑ R ≥ K(S), i∈S

i

∀S ⊂ N .

K(N) = K(N) – K(N – S) gibt die Zusatzkosten des Leistungsbündels S an, die entstehen, wenn alle übrigen Leistungen des Unternehmens N-S sowieso bereitgestellt werden. Die Zusatzkosten beinhalten sowohl die Einzelkosten, welche den Leistungen direkt zugerechnet werden können, als auch die zusätzlichen fixen Kosten, welche erforderlich sind, um die zusätzlichen Leistungen bereitzustellen. Diese Gemeinkostenproblematik nimmt bei der Regulierung von Netzindustrien eine zentrale Rolle ein. Dabei handelt es sich um eine implizite Besteuerung der Güter N-S, da diese nicht nur ihre eigenen unternehmensspezifischen Gemeinkosten und produktgruppenspezifischen Verbundkosten aufbringen, sondern auch an den Zusatzkosten der Produktgruppe S beteiligt sind.

14 Regulierung

243

14.4.3.3 Instabilität interner Subventionierung im Wettbewerb Interne Subventionierung ist nicht mehr dauerhaft möglich, wenn Wettbewerb auf verschiedenen Märkten herrscht und von der Regulierung ein Einheitspreis verlang wird. Dies ist oft der Fall, wenn bestimmte Dienste aus sozialpolitischen Erwägungen im Rahmen einer Universaldienstverpflichtung zu einem einheitlichen Preis bundesweit angeboten werden müssen. Dazu gehörte zu Zeiten der Deutschen Post die Verfügbarkeit einer Standardtelefonverbindung in ganz Deutschland. Es ist offensichtlich, dass es aufgrund der Dichtevorteile günstiger ist einen Telefonanschluss in Hamburg als auf der Zugspitze anzubieten. Der Einheitspreis ist auf der Zugspitze unter Umständen nicht profitabel. So lange ein Monopol für Telekommunikationsdienste besteht, ist dies nicht weiter problematisch. Wird der Markt hingegen liberalisiert und neue Konkurrenten steigen gerade in die profitablen dicht besiedelten Gebiete ein, fehlen die Überschüsse aus den profitablen Gebieten, um Verluste aus der Universaldienstverpflichtung zu tragen. In diesem Fall gilt:

∑ R ≤C(S), i∈S

i

∀S ∈ N .

Die Stabilitätsbedingung ist nicht mehr erfüllt, da die Erlöse aus den Leistungen des Bündels S ihre Kosten nicht decken. Langfristig ist dann interne Subventionierung nicht mehr möglich und der Zusatzkostentest wird verletzt:

∑ R ≤C(S). i∈S

i

Dadurch wird deutlich, dass interne Subventionierung im großen Maßstab erhebliche Marktmacht voraussetzt, da ansonsten die notwendigen Mittel zur Quersubventionierung nicht mehr in anderen Bereichen erwirtschaftet werden können.

14.4.4 Buchhalterische Entflechtung 14.4.4.1 Arten der Entflechtung Unter Entflechtung versteht man grundsätzlich die Trennung von Unternehmensteilen, um die Unabhängigkeit zwischen den verschiedenen Teilen herzustellen beziehungsweise zu stärken. Dies geschieht oftmals zwischen vertikal verflochtenen Unternehmensteilen. Beispielsweise könnte ein vertikal integriertes Bahnunternehmen sein Streckennetz sowohl seiner eigenen Personenverkehrstochter als auch Konkurrenzunternehmen zur Verfügung stellen. Die Frage ist wie stark die Anreize zur Diskriminierung in diesem Fall wären. Auch die genaue Abgrenzung der Kosten seitens der Regulierungsbehörde zur Festlegung von Netzzugangsentgelten könnte durch eine Entflechtung vereinfacht werden. Es gibt verschiedene Arten der Entflechtung, die sich in 1. Operationelle Entflechtung, 2. Informationelle Entflechtung, 3. Buchhalterische Entflechtung und

244

Ralf Dewenter und Ulrich Heimeshoff

4. Eigentumsrechtliche Entflechtung aufteilen lassen. Entflechtung soll dafür sorgen, dass Markmacht auf der Wertschöpfungsstufe des natürlichen Monopols nicht in nachgelagerte Märkte übertragen werden kann. Im Rahmen der operationellen Entflechtung muss sichergestellt werden, dass die Netzbetreiber hinsichtlich ihrer Organisation und ihrer Entscheidungsgewalt unabhängig von den Konzernmüttern sind. Dies ist im Hinblick auf Energienetze beispielsweise detailliert in Energiewirtschaftsgesetz geregelt. Informationelle Entflechtung bezieht sich hingegen auf den Informationsaustausch zwischen Konzernmutter und Tochtergesellschaften. Damit soll verhindert werden, dass Konzernunternehmen im nachgelagerten Markt Informationsvorsprünge durch die Kenntnisse des Netzunternehmens gegenüber ihren Konkurrenten erlangen. Organisatorisch wird dies auch als „Chinese Walls“ bezeichnet. Buchhalterische Entflechtung verpflichtet Unternehmen getrennte Konten für verschiedene Sparten zu führen. Dies erhöht die Transparenz der Kostenzuordnung und soll interne Subventionierung beziehungsweise Bevorzugung der eigenen nachgelagerten Tochterunternehmen bei Bezug von Netzleistungen verhindern. Außerdem ist die Kostenanalyse asu regulatorischen Zwecken zur Entgeltfestlegung für die Regulierungsbehörden wesentlich einfacher. Der schärfste Eingriff in den Konzern ist zweifellos die eigentumsrechtliche Entflechtung. Dabei würde die Netzsparte eines Energieunternehmens komplett von den Erzeugungs- und Vertriebssparten des Konzerns getrennt. Es ist umstritten, ob eine solche eigentumsrechtliche Entflechtung sowohl nach deutschem als auch europäischem Recht möglich ist. Dies wäre somit lediglich die Ultima Ratio zur Gewährleistung eines diskriminierungsfreien Zugangs zu einer Infrastruktur. Bislang fokussiert auch das europäische Recht stärker auf operationelle Entflechtung, wobei die Europäische Kommission eigentumsrechtliche Entflechtungen als theoretisches Optimum und Ultima Ratio ansieht (vgl. Lowe u.a., 2007).

14.4.4.2 Anwendung in der regulatorischen Praxis In der Praxis wird Entflechtung als regulatorische Maßnahme selten isoliert verwendet. Meistens dient die Entflechtung zur Erleichterung einer Netzzugangsregulierung, um beispielsweise die Transparenz der Kostenrechnung und Kostenzuweisung zu erhöhen. Dies ist insbesondere für die Regulierungsbehörden bei der Entgeltregulierung von Bedeutung. Darüber hinaus verhindert man mit verschiedenen Formen der Entflechtung, dass aufgrund des Wissenstransfers zwischen Netzunternehmen und Konzernmutter Wettbewerbsvorteile auf Seiten anderer Konzernsparten gegenüber ihren Konkurrenten entstehen. Insbesondere informationelle und buchhalterische Entflechtungen stellen vielmehr eine virtuelle als eine reale Trennung von Unternehmensteilen dar. Potenzielle Entflechtung ist nicht nur im Energiewirtschaftsgesetz verankert sondern beispielsweise auch im Gesetz gegen Wettbewerbsbeschränkungen (GWB) vorgesehen. Im § 41 III GWB sind Entflechtungen in einem gänzlich anderen Kontext nämlich der nachträglichen Trennung fusionierter Unternehmen, wenn die Fusion die entsprechenden Untersagungstatbestände

14 Regulierung

245

erfüllt, vorgesehen. Allerdings zeigt dieses Beispiel, dass das Instrument der Entflechtung zumindest im Instrumentarium der Wettbewerbspolitik nicht unbekannt ist.

14.5

Institutionen der Regulierung

14.5.1 Regulierungsbehörden In der normativen Theorie der Regulierung, welche sich primär mit Verfahren der Regulierung befasst, wird den Regulierungsbehörden, die diese Methoden umsetzen müssen, relativ wenig Beachtung geschenkt. Stattdessen gibt es inzwischen in der positiven Theorie der Regulierung unter anderem eine relativ große Literatur zur Ausgestaltung und Arbeitsweise von Regulierungsbehörden. Hier geht es auch insbesondere darum, was in konkreten regulatorischen Verfahren abweichend von der klassischen Theorie „schiefgehen“ kann. Diese Aspekte werden wir im folgenden Abschnitt 5.2 näher analysieren. Zunächst starten wir mit einer Bestandsaufnahme in Bezug auf die Kompetenzverteilung sowie der zurzeit existierenden Regulierungsbehörden in Deutschland. Ökonomische Regulierung ist längst keine rein nationale Aufgabe mehr, stattdessen verteilen sich regulatorische Kompetenzen auf nationale und supranationale Institutionen. Betrachtet man beispielsweise die Regulierung der Netzindustrien Energie und Telekommunikation in Europa, wird deutlich, dass es zunächst einmal einen Verordnungsrahmen von Seiten der EU Kommission gibt. Dieser Rahmen legt bestimmte grundlegende Vorgehensweisen bei der Regulierung fest. Die konkrete Regulierung eines Energienetzbetreibers in Deutschland wird allerdings nicht von der EU Kommission durchgeführt. Diese Kompetenzen sind auf einer niedrigeren Ebene, nämlich bei den Mitgliedsstaaten angesiedelt. Dies ist deshalb wichtig, um dem Subsidiaritätsprinzip, einem Eckpfeiler der EU, Rechnung zu tragen. Das Subsidiaritätsprinzip sieht vor, Kompetenzen immer auf der möglichst dezentralsten Ebene anzusiedeln. Dahinter steht die Idee, dass Wissen im Sinne von Hayek dezentral verteilt ist und Regulierungsbehörden vor Ort ein deutlich präziseres Bild der jeweiligen Industrie besitzen, als dies eine zentrale Regulierungsbehörde auf der europäischen Ebene jemals haben könnte. Allerdings ist in den letzten circa zehn Jahren eine vermehrte Verschiebung von Kompetenzen auf die europäische Ebene festzustellen. Der Regulierungsprozess sowie die Kompetenzverteilung zwischen der EU sowie den Mitgliedsstaaten werden im Folgenden Anhand der Telekommunikationsregulierung in der europäischen Union dargestellt. Das Regulierungsverfahren für Telekommunikationsmärkte in der EU lässt sich in drei Schritte aufteilen: 1. Marktdefinition 2. Marktanalyse 3. Auferlegung von Verpflichtungen.

246

Ralf Dewenter und Ulrich Heimeshoff

In Bezug auf die Kompetenzverteilung ist es interessant, dass die Marktdefinitionsals auch die Marktanalyseverfahren durch die nationalen Regulierungsbehörden durchgeführt werden. Dabei ist die EU Kommission allerdings einzubinden. Darüber hinaus verfügt die Kommission in beiden Phasen über ein Vetorecht gegenüber den Entscheidungen der nationalen Regulierungsbehörden. Dieses Vetorecht ist an zwei Bedingungen geknüpft. Die Marktdefinition muss erstens entweder von der Empfehlung der EU Kommission abweichen oder die Bestimmung beträchtlicher Marktmacht muss erhebliche Auswirkungen auf den Handel zwischen Mitgliedsstaaten haben. Zweitens müssen die auf der Marktdefinition bzw. Marktanalyse basierenden Maßnahmen ein Hemmnis für den Binnenmarkt darstellen oder Zweifel an ihrer Vereinbarkeit mit dem Gemeinschaftsrecht bestehen (vgl. Haucap und Kühling, 2007). In der Praxis hat sich gezeigt, dass die EU Kommission regelmäßig von ihrem Vetorecht Gebrauch macht und dadurch in eigentlich national durchzuführende Regulierungsverfahren eingreift. Hier stellt sich die Frage, welche vertikale Kompetenzverteilung tatsächlich effizient sein würde. Auf der anderen Seite kann eine zentrale Regulierungsbehörde beispielsweise auf Ebene der EU durchaus Vorteile haben, wenn vieles für eine zentrale Regelung spricht. Im Rahmen der jüngsten Wirtschafts- und Finanzkrise wurde zum Beispiel immer wieder die Problematik grenzüberschreitender, systemrelevanter Finanzinstitute aufgeworfen. Gerade bei der Regulierung solcher international tätiger Banken, die darüber hinaus über enge Verzahnungen im Finanzsektor verfügen, kann eine supranationale Regulierungsbehörde sinnvoll sein. Dieser sollte es leichter fallen, systemische Risiken, die grenzüberschreitend sind, abzuschätzen und adäquat zu regulieren.8 Bei der Regulierung der niederländischen Bank ABN Amro zeigten sich diese Probleme sehr deutlich. ABN Amro wurde im Jahr 2007 durch ein Konsortium um die Belgische Fortis Bank übernommen. Fortis wurde durch die belgische Nationalbank reguliert, obwohl durch die Akquisition ein erheblicher Teil des Geschäfts in den Niederlanden angesiedelt war. Als Fortis im Jahre 2008 im Zuge der Finanzkrise in existenzbedrohende Schwierigkeiten kam, gestaltete sich die Rettung schwierig, weil es nicht einen zuständigen Regulierer gab. Stattdessen fungierte die belgische Nationalbank als „Lead-Regulator“, aber hatte selbstverständlich nicht die alleinige Zuständigkeit (vgl. Dewatripont et al., 2010). Hier wäre eine Zentralisierung, die über Kooperationen der nationalen Regulierer hinausgeht, erstrebenswert. Eine gewisse supranationale Regulierungsfunktion nimmt der bei der Bank für Internationalen Zahlungsausgleich in Basel angesiedelte Baseler Ausschuss für Bankenaufsicht ein, die durch die so genannten Basel Accords (vgl. Dewatripont und Tirole, 1993), welche der Bankenregulierung zugrunde liegen, starken Einfluss auf die nationale Regulierung besitzt (vgl. Hartmann-Wendel et al., 2007).

8

Zur Definition und Messung systemischer Risiken vgl. Gai (2013).

14 Regulierung

247

14.5.2 Einflüsse auf Regulierungsbehörden In der klassischen Public Interest Theorie wird zumeist unterstellt, dass Regulierung kostenlos zu haben ist und der Regulierer keineswegs eigennutzorientiert ist und somit der regulatorische Prozess perfekt abläuft. Die neue politische Ökonomie hat bereits seit langem immer wieder gezeigt, dass dies jedoch für Bürokratien nicht gilt. Stattdessen maximieren auch Behördenleiter ihren individuellen Nutzen, was bei der Analyse von Regulierungsmethoden aber insbesondere bei der Ausgestaltung von Regulierungsbehörden berücksichtigt werden muss (vgl. Erlei et al., 2016). Wir greifen hier auf Ansätze zur Begründung von Regulierung zurück, die aber gleichzeitig einiges über potenzielle Einflüsse auf Regulierungsbehörden beitragen können (vgl. Noll, 1989). In der Public Interest Theorie war die Begründung regulatorischer Eingriffe am Marktversagen ausgerichtet. Es liegt Marktversagen vor, wodurch negative Wohlfahrtseffekte entstehen, die anschließend durch regulatorische Eingriffe beseitigt werden. Wenn auch kein first-best Szenario erreichbar ist, so können doch second-best Ergebnisse erzielt werden. Wie bereits Eingangs angemerkt, wurde über die Funktionsweise der Regulierungsbehörde und ihre Intentionen nicht nachgedacht. Die Organisation der Regulierung blieb gänzlich außen vor. Dies änderte sich erst in den 1970er Jahren mit Arbeiten, die zunächst von Wissenschaftlern der so genannten „Chicago School“ veröffentlicht wurden. Becker stellt in diesem Zusammenhang fest, dass genau dann von effizienten Regulierungsmaßnahmen abgewichen wird, wenn solche Regulierungsmaßnahmen der Aufteilung von Renten zwischen Interessensgruppen im Wege stehen (vgl. Becker, 1985). Regulierungsbehörden sind nicht frei von jeglichem Einfluss durch regulierte Unternehmen, Branchenverbände, Regierungen und vielen anderen Seiten. Nach Stiglers „Capture Theory“ ist es kein Zufall, dass es durchaus Fälle von industriefreundlichen Regulierungsbehörden gibt. Stigler (1971) geht davon aus, dass es einen Markt für Regulierung gibt und der Staat prinzipiell in der Lage ist, einzelnen Unternehmen oder Branchen Vorteile zu verschaffen. Da es sich um einen Markt handelt ist die Seite der Begünstigten auch bereit, für diese Vergünstigungen zu zahlen. Dazu sollte man sich verdeutlichen, dass Regulierung viele Ausprägungen haben kann. Beispielsweise kann Regulierung in Form von Auflagen, Preiskontrollen und Marktzutrittsbeschränkungen wirkungsvollen Schutz vor Wettbewerb bieten (vgl. Müller und Vogelsang, 1979). Gegenüber einem Kartell zur Maximierung der Gewinne und Abschreckung potenzieller Neueinsteiger bietet sich der große Vorteil, dass staatliche Regulierung langfristig stabil ist und es außerdem keine Trittbrettfahrerproblematik gibt. Die Nachfrageseite nach Regulierung sowie ihre Intentionen sind leicht zu erfassen. Wie sieht aber nun die Angebotsseite aus? Stigler unterstellt, dass Politiker an zusätzlichen Wählerstimmen für ihre Wiederwahl sowie an Geld für sich persönlich interessiert sind. Seine Vorhersage ist, dass genau die Branchen Regulierungen bekommen werden, die in der Lage sind viele Wählerstimmen bzw. Geldmittel zu mobilisieren. Dies wird natürlich nur dann passieren, wenn der zusätzliche Nutzen durch die Regulierung größer ist als potenzielle politische „Verluste“.

248

Ralf Dewenter und Ulrich Heimeshoff

Posner (1975) argumentiert in eine ähnliche Richtung. Er sieht in der Nachfrage nach Regulierung einen Wettbewerb um Monopolrenten. Dieser Wettbewerb in der Nachfrage nach regulatorischen Eingriffen ist aus seiner Sicht sehr kostenintensiv. Um Monopolrenten zu erlangen und zu behalten wenden Unternehmen ökonomische Ressourcen auf, die dadurch keinen produktiven Beitrag zu einer Erhöhung der Wohlfahrt liefern. In dieser Ineffizienz liegt aus Posners Perspektive ein Grund warum viele regulierte Industrien zu überhöhten Kosten arbeiten. Die empirische Überprüfung der Hypothesen von Stigler und Posner ist wegen der Schwierigkeit geeignete Daten zu bekommen und der problematischen Identifikation der Effekte bislang kaum erfolgt.9

14.5.3 Unabhängigkeit von Regulierungsbehörden Man muss nicht so weit gehen, wie Stigler und Posner, um zu realisieren, dass Regulierungsbehörden zweifellos vielen Einflussnahmen unterliegen können. Jedes Unternehmen bzw. jeder Branchenverband versucht durch Lobbyismus seine Ziele zu erreichen. Die relevante Frage ist, wie man eine Regulierungsbehörde ausgestaltet, um solche Einflüsse möglichst gering zu halten. In Deutschland ist die Regulierung unter anderem der Energie-, Telekommunikations- und Bahninfrastruktur bei der Bundesnetzagentur (BNetzA) angesiedelt. Hierbei handelt es sich um eine so genannte unabhängige Regulierungsbehörde (vgl. Schedt und Sülzle, 2007). Es handelt sich dabei um eine obere Bundesbehörde, die dienstlich und überwiegend fachlich dem Bundesministerium für Wirtschaft und Energie untersteht. Die Entscheidungsfindung erfolgt unabhängig vom Ministerium in so genannten Beschlusskammern, ein System welches auch im Bundeskartellamt Verwendung findet. Dort werden regulatorische Maßnahmen in Form von Verwaltungsakten in einem organisatorisch einem Gericht ähnlichen Rahmen beschlossen. Warum werden Regulierungsbehörden nicht direkt als Abteilungen des Bundesministeriums für Wirtschaft und Energie eingerichtet? Dazu ist es nützlich auf die oben diskutierten Theorien zurückzugreifen. Wenn man davon ausgeht, dass ein wesentlicher Mechanismus des Angebots von Regulierung Politiker und ihre Wiederwahlambitionen sind, ist es sicherlich sinnvoll eine Trennung zwischen dem eher politisch motivierten Ministerium und der Regulierungsbehörde zu schaffen. Als Leiter der Regulierungsbehörde fungiert ein „Bürokrat“ oder Behördenleiter, der nicht Politiker ist und somit auch kein Interesse an den Wahlchancen bestimmter Parteien hat. Dass es durchaus Verbindungen zwischen Regulierungsbehörden und den sie leitenden Personen sowie der Politik gibt soll hier gar nicht verschwiegen werden. Die Verbindungen sind aber hier wesentlich geringer als im Fall der Integration in das zuständige Fachministerium. Somit findet eine Trennung von politischer Entscheidungsfindung 9 Vgl. Joskow und Rose (1989) zu den Effekten ökonomischer Regulierung und insbesondere Abschnitt 3.4.

14 Regulierung

249

und politischen Interessen auf der einen Seite und regulatorischen Entscheidungen auf der anderen Seit statt. Auch Regulierungsbehörden können sicherlich durch Lobbyismus beeinflusst werden, aber dies wird nicht in dem Ausmaß stattfinden, wie es gegenüber Politikern möglich ist. Festzuhalten bleibt, dass bei der Ausgestaltung von Regulierungsbehörden insbesondere darauf Wert gelegt werden sollte, die jeweilige Behörde möglichst unabhängig vom Einfluss von Interessensgruppen zu machen. Der genaue Effekt von Interessensgruppen auf regulatorische Maßnahmen und ihre Effizienz ist allerdings empirisch noch sehr wenig untersucht worden.10

14.5.4 Vorteile unabhängiger Regulierungsbehörden Die Unabhängigkeit von Regulierungsbehörden bietet somit zwei wesentliche Vorteile gegenüber der Ansiedlung von Regulierungsabteilungen in Ministerien: 1. Einfachere Selbstverpflichtung der Regierung und 2. Senkung der regulatorischen Unsicherheit. Durch die Einrichtung unabhängiger Regulierungsbehörden wird der regulatorische Prozess vom politischen Prozess entkoppelt (vgl. Giladi, 2005a). Die Selbstverpflichtung der Regierung durch die Regulierung die Effizienz der regulierten Märkte zu steigern wird dadurch erheblich vereinfacht. Eine Regulierungsbehörde besitzt die Aufgabe bestimmte Märkte im Sinne der ökonomischen Effizienz bzw. der Verbraucher zu regulieren. Regierungen haben oftmals andere Interessen als die Effizienzsteigerung in regulierten Industrien, weil sie sich regelmäßig Wahlen stellen müssen. Delegieren Regierungen die Regulierungsaufgaben an unabhängige Behörden, verpflichten sie sich dem Regulierungsziel in stärkerem Maße, weil sie damit direkte Eingriffsmöglichkeiten aufgeben und sich aus dem operativen Regulierungsgeschäft zurückziehen. Der Regierung und dem Parlament verbleibt dann lediglich die Aufgabe grundsätzliche Entscheidungen im Rahmen der Gesetzgebung zu treffen. Darüber hinaus sind regulatorische Entscheidungen für die im Markt tätigen Unternehmen immer mit Risiken verbunden. Unternehmen in Netzindustrien treffen oftmals sehr langfristige Investitionsentscheidungen auf Basis existierender Regulierungsregime. Unsicherheit wirkt sich in der Regel negativ auf Investitionsvolumina aus (vgl. Dixit und Pindyck, 1994). Können sich Unternehmen nicht sicher sein, dass ihre Investitionen durch künftige regulatorische Entscheidungen nicht entwertet werden, ist davon auszugehen, dass sie von solchen Investitionen Abstand nehmen werden (vgl. Cambini und Rondi, 2010). Eine Vielzahl von empirischen Studien belegt, dass in Märkten mit unabhängigen Regulierungsbehörden die Investitionsanreize gesteigert werden (vgl. Sutherland et al., 2011). 10

Vgl. hierzu Noll (1989) dessen Fazit auch jetzt noch überwiegend gilt.

250

Ralf Dewenter und Ulrich Heimeshoff

Dahinter steht ein einfacher Mechanismus. Durch die Entkoppelung des politischen vom regulatorischen Prozess, sind regulatorische Entscheidungen deutlicher weniger von kurzfristigen politischen Meinungsschwankungen betroffen und Unternehmen können davon ausgehen, dass die grundsätzliche regulatorische Linie beibehalten wird. Dieser Aspekt stärkt das Vertrauen der regulierten Unternehmen in die Stabilität des Regulierungsrahmens und fördert die Investitionsanreize (vgl. Gilati, 2005b). Des Weiteren werden durch die Trennung der Regulierung vom politischen Prozess die Bedeutung und der Einfluss von Interessensgruppen im Sinne von North (1990) ebenfalls deutlich abgemildert und das „Capture-Problem“ nach Stigler verliert ebenfalls an Bedeutung. Im folgenden Abschnitt 14.6 betrachten wir die Umsetzung der Regulierung ausgewählter Netzindustrien in Deutschland.

14.6

Regulierung von Netzindustrien

14.6.1 Grundlegende Ausgestaltung der Regulierung Die Ausgestaltung der Regulierung in Deutschland wendet das Prinzip des so genannten disaggregierten Ansatzes an. Dieser Ansatz erkennt wie oben beschrieben an, dass nicht alle vertikalen Ebenen einer Netzindustrie natürliche Monopole darstellen. Stattdessen werden im disaggregierten Ansatz alle Wertschöpfungsstufen der Netzindustrien hinsichtlich ihrer Wettbewerbsfähigkeit analysiert (vgl. Knieps, 2007). Es besteht kein Zweifel, dass im Bereich der Energieerzeugung sowie des Vertriebs von Energie Wettbewerb möglich ist. Ein natürliches Monopol hingegen liegt auf der Ebene der Übertragungsnetze vor. Im Telekommunikationssektor besteht das natürliche Monopol im Ortsnetz, in dem parallele Infrastrukturen ineffizient wären. Betrachtet man den Bahnsektor, so wird deutlich, dass hier das natürliche Monopol im Bereich der Schienen- und Bahnhofsinfrastruktur liegt. Im Rahmen des disaggregierten Ansatzes werden diese Wertschöpfungsebenen, welche natürliche Monopole beinhalten, separat reguliert. Somit kann auf die unnötige Regulierung ganzer Sektoren verzichtet werden und wo Wettbewerb möglich ist, kann dieser seine Wirkungen entfalten. Um Wettbewerb auf den Wertschöpfungsstufen zu ermöglichen, benötigen Konkurrenten des oftmals vertikal integrierten ehemaligen Staatsmonopolisten Zugang zu dessen Infrastruktur. Um die Infrastruktur des etablierten Anbieters nicht zu entwerten und seine Investitionsanreize zu gewährleisten, müssen die Wettbewerber ein angemessenes Entgelt für die Nutzung dieser Infrastruktur zahlen. Diese Entgelte fallen in den Bereich des so genannten Access Pricing oder der Netzzugangsregulierung. Die Regulierungsbehörden müssen entscheiden, welche Höhe diese Entgelte haben sollen. Inzwischen existiert eine sehr umfangreiche Literatur zum Thema Netzzugangsentgelte, die an dieser Stelle nicht dargestellt werden kann (vgl. Dewenter und Haucap, 2007). Die BNetzA setzt insbesondere kostenbasiert Ansätze ein, bei denen die Entgelte kostenbasiert mit entsprechenden Aufschlägen ermittelt werden.

14 Regulierung

251

In den folgenden Abschnitten wird die jeweilige sektorspezifische Regulierung im Telekommunikations-, Energie- und Bahnsektor in ihren Grundzügen vorgestellt.

14.6.2 Telekommunikation Der Telekommunikationssektor ist derjenige, der als erster, vor allem in den USA und Großbritannien, liberalisiert wurde und Erfahrungen mit Netzzugangsregulierung machte. Telekommunikationsmärkte wurden umfassen geöffnet und es wurden zudem regulatorische Maßnahmen ergriffen, um Wettbewerbern der ehemaligen Staatsmonopolisten den Markteintritt zu ermöglichen (vgl. Laffont und Tirole, 2000). Es ist offensichtlich, dass ein Neueinsteiger nicht in der Lage ist, sofort eine komplette Telekommunikationsinfrastruktur aufzubauen. Darüber hinaus wäre dies in den monopolistischen Engpassbereichen auch ineffizient. Diese Überlegungen führen unmittelbar zu den grundlegenden Formen des Wettbewerbs auf Telekommunikationsmärkten, welche durch Dienstewettbewerb und Infrastrukturwettbewerb repräsentiert werden (vgl. De Bijl und Peitz, 2002). Der Dienstewettbewerb nimmt vor allem zu Beginn einer Liberalisierungsphase eine herausgehobene Stellung ein, da hier die Steigerung der Gesamtwohlfahrt durch schnelle und nachhaltige Preissenkungen oberste Priorität genießt. Reiner Dienstewettbewerb ist vor allem deshalb immens wichtig, weil neue Wettbewerber ohne Zugriff auf das Netz des ehemaligen Staatsmonopolisten kaum zum Markteintritt in der Lage wären, da der Aufbau einer eigenen Infrastruktur vor dem Hintergrund der „Ladder of Investment-Theory“ zu diesem frühen Zeitpunkt für die meisten Unternehmen unmöglich erscheint (vgl. Cave, 2004). Um auf den Markteintritt neuer Wettbewerber zurückzukommen, muss somit festgestellt werden, dass erst nachdem sich neue Wettbewerber des ehemaligen Monopolisten auf den Telekommunikationsmärkten etabliert haben, realistischer Weise die Möglichkeit besteht, Infrastrukturwettbewerb erfolgreich einzuführen, da langfristig zumindest in Teilbereichen Unabhängigkeit der neuen Wettbewerber vom Netz des etablierten Anbieters erreicht werden soll. Dies bedeutet keineswegs, dass Infrastrukturwettbewerb nicht auch von Beginn an möglich ist, da sich auch Großkonzerne, die in anderen Industrien erfolgreich tätig sind, für den Markteintritt im Bereich der Telekommunikation entscheiden. Diese Unternehmen besitzen durchaus die finanziellen Ressourcen, direkt eigene Infrastruktur aufzubauen. In Bezug auf den gewünschten Infrastrukturwettbewerb stellt sich allerdings die Frage, in welchen Bereichen der Netzinfrastruktur Duplikation ökonomisch sinnvoll ist, da die Intention der Regulierung naturgemäß auf Anreize für ökonomisch sinnvolle Infrastrukturinvestitionen abzielt. An dieser Stelle muss aber deutlich hervorgehoben werden, dass durch die Etablierung des Infrastrukturwettbewerbs der Dienstewettbewerb keineswegs obsolet wird. Stattdessen kann man davon ausgehen, dass bestimmte Teile der Netzinfrastruktur wie z.B. die Teilnehmeranschlussleitung durch die Wettbewerber des etablierten Anbieters nicht dupliziert werden, was aus ökonomischer Sicht auch keine effiziente Lösung darstellen würde. Somit bleibt festzuhalten, dass auch langfristig sowohl

252

Ralf Dewenter und Ulrich Heimeshoff

Dienste- als auch Infrastrukturwettbewerb nebeneinander existieren werden. In diesem Kontext sollte auch betont werden, dass Dienstewettbewerb ohne die entsprechende Infrastruktur überhaupt nicht möglich ist. Das Problem in diesem Zusammenhang ist darin zu sehen, dass beide Wettbewerbsformen simultan nicht mit den gleichen regulatorischen Instrumenten zu erreichen sind (vgl. Klodt, 2003). In den folgenden Abschnitten erläutern wir die Grundstruktur der Telekommunikationsregulierung in der EU und zeigen die Aufteilung zwischen der EU-Ebene sowie den nationalen Regulierern auf. Im Bereich der Telekommunikationsregulierung gibt es eine mehrstufige Form der Regulierung. Auf Ebene der EU wird ein Rahmenwerk vorgegeben, innerhalb dessen sich die Regulierungsbehörden bei der Ausgestaltung der Regulierung in den Mitgliedsstaaten bewegen müssen. Gemäß §§ 10 und 11 TKG der Empfehlung vom 17. Dezember 2007 über relevante Produkt- und Dienstemärkte des elektronischen Kommunikationssektors hat die EU-Kommission diejenigen Märkte definiert, die für eine Vorabregulierung in Betracht kommen. Diese sind: 1. Markt Nr. 1 (Zugang von Privat- und Geschäftskunden zum öffentlichen Telefonnetz an festen Standorten), 2. Markt Nr. 2 (Verbindungsaufbau im öffentlichen Telefonnetz an festen Standorten) und Markt Nr. 3 (Anrufzustellung in einzelnen öffentlichen Telefonnetzen an festen Standorten), 3. Markt Nr. 4 (Vorleistungsmarkt für den [physischen] Zugang zu Netzinfrastrukturen [einschließlich des gemeinsamen oder vollständig entbündelten Zugangs] an festen Standorten), 4. Markt Nr. 5 (Breitbandzugang für Großkunden), 5. Markt Nr. 6 (Abschluss-Segmente von Mietleitungen für Großkunden, unabhängig von der für die Miet- oder Standleitungskapazitäten genutzten Technik), 6. Markt Nr. 7 (Anrufzustellung in einzelnen Mobilfunknetzen), 7. Bereitstellung von terrestrischen Sendeanlagen für die Übertragung analoger UKWHörfunksignale gegenüber Inhalteanbietern und Markt für die UKW-Antennen(mit) benutzung. Dies ist ein Teil des ehemaligen Marktes 18 der alten Märkte-Empfehlung „Rundfunk-Übertragungsdienste zur Bereitstellung von Sendeinhalten für Endnutzer“. Die Nummerierung zeigt, dass es zu Beginn der Liberalisierung im Telekommunikationssektor wesentlich mehr potenziell regulierungsbedürftige Märkte gab. Diese wurden im Zuge des zunehmenden Wettbewerbs und technischen Fortschritts immer stärker abgebaut. Die obige Aufzählung zeigt deshalb nur die Märkte, welche nach wie vor von der EU Kommission als potenziell regulierungsbedürftig angesehen werden. Die Überprüfung der Regulierungsbedürftigkeit erfolgt dann durch die nationalen Regulierungsbehörden, welche für diese Märkte den so genannten 3-Kriterien-Test durchführen. Sind diese drei Kriterien kumulativ erfüllt, kommt auf dem jeweiligen Markt eine Form der Ex-Ante-Regulierung zum Einsatz. Die Bedingung der kumulativen Erfüllung der Bedingungen dient dazu, zu gewährleisten, dass Ex-Ante-Regulierung nur solange

14 Regulierung

253

bestehen bleibt, wie sie für die Sicherstellung des effektiven Wettbewerbs erforderlich ist. Die zu prüfenden Kriterien sind: 1. Es existieren beträchtliche Marktzutrittsbarrieren. 2. Es ist keine längerfristige Tendenz zu wirksamem Wettbewerb vorhanden. 3. Eine Ex-post-Kontrolle durch die Wettbewerbspolitik beziehungsweise das allgemeine Kartellrecht ist nicht ausreichend, um dem Marktversagen wirksam entgegenzutreten. Die nationalen Regulierungsbehörden müssen der Vorabeinschätzung der EU Kommission nicht folgen, aber eine Überprüfung der Märkte muss in jedem Fall durchgeführt werden. Abweichungen treten in der Praxis nur sehr selten auf und müssen sehr aufwändig begründet werden. Das Ziel ist die langfristige Deregulierung von so vielen Märkten wie möglich. Dies hängt allerdings auch stark von der künftigen technischen Entwicklung ab. Für diejenigen Märkte, welche einer Ex-Ante-Regulierung bedürfen, entscheiden die nationalen Regulierungsbehörden, welches Regulierungsverfahren verwendet werden soll. Im Telekommunikationssektor sind dies in der Regel Verfahren der kostenbasierten Regulierung oder Variationen der Price-Cap-Regulierung. Das bekannteste Regulierungsbeispiel im Telekommunikationssektor ist sicherlich die so genannte „letzte Meile“.11 Damit ist die Teilnehmeranschlussleitung gemeint, die die letzte Verbindung der Haushalte zum Telekommunikationsnetz darstellt. Hier handelt es sich zweifellos um ein natürliches Monopol, bei dem eine Duplikation aus ökonomischer Sicht ineffizient wäre. Aus diesem Grund wird nach dem Telekommunikationsgesetz (TKG) den Wettbewerbern der Deutschen Telekom AG (DTAG) der diskriminierungsfreie Zugang zur Teilnehmeranschlussleitung regulatorisch garantiert. In Abhängigkeit der vorhandenen eigenen Infrastruktur der Wettbewerber sind auch andere Zugangsformen zum Netz der DTAG möglich, aber der Zugang durch die Teilnehmeranschlussleitung spielt sicherlich zurzeit noch die größte Rolle. Die von den Wettbewerbern zu zahlenden Entgelte werden gemäß § 32 Abs. 1 Telekommunikationsgesetz wie folgt ermittelt „Die Kosten der effizienten Leistungsbereitstellung ergeben sich aus den langfristigen zusätzlichen Kosten der Leistungsbereitstellung und einem angemessenen Zuschlag für leistungsmengenneutrale Gemeinkosten, einschließlich einer angemessenen Verzinsung des eingesetzten Kapitals, soweit diese Kosten jeweils für die Leistungsbereitstellung notwendig sind. § 79 bleibt unberührt.“ In Bezug auf die dort zugrunde gelegten langfristigen zusätzlichen Kosten sei auf die Darstellung der Kostenstrukturen in Netzindustrien in Abschnitt 2.3 verwiesen. Es wird allerdings deutlich, dass es sich hierbei um eine kostenorientierte Regulierung der Netzzugangsentgelte handelt. Im folgenden Abschnitt stellen wir die Grundzüge der Regulierung von Energienetzen in Deutschland und der EU vor. 11 Für einen Überblick über die Telekommunikationsregulierung in Deutschland siehe Monopolkommission (2014) Kapitel 4.

254

Ralf Dewenter und Ulrich Heimeshoff

14.6.3 Energie Auch im Rahmen der Regulierung des Energiesektors kommt der disaggregierte Regulierungsansatz zur Anwendung, da nicht alle vertikalen Ebenen der Energiebranche natürliche Monopole darstellen und regulierungsbedürftig sind. Die Energiewirtschaft kann hinsichtlich ihrer Wertschöpfungskette im Wesentlichen in • Erzeugung, • Transport und Verteilung sowie • Versorgung eingeteilt werden (vgl. Erdmann und Zweifel, 2008). Unter Erzeugung versteht man die Erzeugung von Strom durch verschiedenste Arten von Kraftwerken beziehungsweise erneuerbare Energien. Transport und Verteilung umfasst die Netzinfrastruktur, durch die Energie (Strom, Gas) über lange Distanzen transportiert (Transport) und schließlich in Ortschaften an die Endverbraucher verteilt wird (Verteilung). Versorgung umfasst den Verkauf von Energie an die Endkunden (vgl. Ströbele et al., 2010). Wie bereits aus anderen Netzindustrien bekannt, stellt die Netzinfrastruktur den monopolistischen Engpassbereich oder das natürliche Monopol dar. Im Bereich der Erzeugung und Versorgung hingegen ist Wettbewerb möglich und bereits vorhanden. Aus diesem Grund muss den Wettbewerbern der vertikal integrierten Energiekonzerne der Zugang zur Netzinfrastruktur diskriminierungsfrei ermöglicht werden. Im Zuge der Entwicklung des gemeinsamen Marktes innerhalb der Europäischen Union (EU) stellt der grenzübergreifende Energiehandel auf dem europäischen Binnenmarkt ein wichtiges Ziel der EU Kommission dar. Problematisch bezüglich der Vorgabe eines regulatorischen Rahmens innerhalb dessen sich die Mitgliedsstaaten bewegen müssen war die sehr unterschiedliche Industriestruktur in den verschiedenen Mitgliedsländern. Aus diesem Grund wurden zwei unterschiedliche Möglichkeiten des Netzzugangs für Wettbewerber der großen Energiekonzerne durch die EU ermöglicht, aus denen die Mitgliedsstaaten eines implementieren konnten. Diese sind der • Verhandelte Netzzugang sowie der • Regulierter Netzzugang. In Deutschland entschied man sich zunächst zur Einführung des verhandelten Netzzugangs innerhalb der Novelle des Energiewirtschaftsgesetzes 1998 zur Umsetzung der EU-Richtlinie. Neben der kompletten Marktöffnung wurde der verhandelte Netzzugang durch Verbändevereinbarung implementiert (vgl. Kleest und Reiter, 2002). Die Verbändevereinbarung 1 galt von 1998 bis 1999 und die Verbändevereinbarung 2 von 1999 bis 2005. Dieses Modell sah vor, dass die Verbände der Netzbetreiber und die Verbände der Wettbewerber in Verhandlungen Konsens über die Höhe der Netzzugangsentgelte erzielen. Dieses Modell muss allerdings als gänzlich gescheitert angesehen werden.

14 Regulierung

255

Durch die große Marktmacht der vertikal integrierten Energiekonzerne blieben die Durchleitungsentgelte auf einem im europäischen Vergleich hohen Niveau. Daraus resultierten hohe Strompreise wodurch die Ziele der Liberalisierung zunächst deutlich verfehlt wurden. Infolge des gescheiterten verhandelten Netzzugangs verabschiedete die EU Kommission im Jahr 2003 die EU-Beschleunigungsrichtlinie 2003. Darin wurde die Wahlfreiheit des Regulierungsmodells abgeschafft und der regulierte Netzzugang zum alleinig möglichen Modell festgeschrieben. Darüber hinaus wurden die nationalen Regulierungsbehörden verpflichtet eine Anreizregulierung zu implementieren, um Ineffizienzen in der Netzinfrastruktur abzubauen. In Deutschland wird die Regulierung der Energieinfrastruktur im Strom- und Gassektor durch die BNetzA durchgeführt. Seit dem Jahr 2005 reguliert sie die Netzentgelte für den Netzzugang und führt Effizienzanalysen im Zuge der Anreizregulierung durch. Im ersten Schritt wurde ab 2005 eine Form der Ex-Post-Überwachung durchgeführt, bei der die Netzbetreiber ihre Tarife und Konditionen selbst festlegten und dann zur Prüfung an die BNetzA übermittelten. Die Tarife mussten in Form einer kostenorientierten Entgeltberechnung festgelegt werden. Dieses Konzept führte allerdings regelmäßig zu Unstimmigkeiten mit den Wettbewerbern und im Regulierungsverfahren und wurde aus diesem Grund reformiert. Seit 2009 verwendet die BNetzA eine Erlösobergrenzenregulierung und setzt für eine 5-Jahres-Periode im Voraus die maximal erlaubten Erlöse fest. Basis dafür sind die Kostendaten, die die Netzbetreiber der BNetzA übermitteln müssen. Darüber hinaus wurden verschärfte Dokumentations- und Berichtspflichten in Bezug auf die Netzqualität eingeführt. Insgesamt sollen stärkere Anreize zur Kostensenkung durch technischen Fortschritt in die Regulierung einfließen und eine Weitergabe der Effizienzgewinne an die Kunden erfolgen.12 Des Weiteren wird im Rahmen der Vertiefung des gemeinsamen Marktes innerhalb der EU das so genannte Market Coupling zwischen den Mitgliedsstaaten vorangetrieben. Nationale Netze werden durch Grenzkuppelstellen und Transportleitungen miteinander verbunden. Dadurch soll die Effizienz der Energiemärkte in Europa wesentlich gestärkt werden, weil künftig Überkapazitäten in einem Land in andere Länder fließen können, in denen zum selben Zeitpunkt Nachfrageüberhänge bestehen. Dabei wird ausgenutzt, dass sich die Spitzen- und Niedriglastzeiten zwischen den Mitgliedsstaaten unterscheiden und Unterschiede bei den Ferien sowie Feiertagen bestehen. Dadurch unterscheiden sich die Nachfragesituationen in den jeweiligen Ländern und es bietet sich die Möglichkeit, Überkapazitäten grenzübergreifend auszutauschen. Infolgedessen werden tendenziell sinkende Strompreise erwartet.

Vgl. https://www.bundesnetzagentur.de/cln_1412/DE/Sachgebiete/ElektrizitaetundGas/Unter­ neh­men_Institutionen/Netzentgelte/Anreizregulierung/Mechanismus_Anreizregulierung/mecha­ nis­mus_anreizregulierung-node.html;jsessionid=3D1E09A24C8A944FCAE6752521211E6D. 12

256

Ralf Dewenter und Ulrich Heimeshoff

Im Bereich der Regulierung des Energiesektors besteht somit neben der nationalen Netzzugangsregulierung eine starke internationale Komponente, die das Zusammenwachsen der nationalen Energiemärkte bewirken soll.

14.6.4 Bahninfrastruktur Im Bereich des Eisenbahnwesens kann zwischen der Infrastruktur und der Verkehrsleistung, welche auf dieser Infrastruktur erbracht wird, unterschieden werden. Während die Verkehrsleistung einen kompetitiven Sektor darstellt, handelt es sich bei der Infrastruktur um ein klassisches natürliches Monopol. Hier wäre eine Duplikation durch Wettbewerber ökonomisch ineffizient. Aus diesem Grund ist im Bereich der Schienen- und Bahnhofsinfrastruktur eine Öffnung für Wettbewerber der Deutschen Bahn AG (DB) sinnvoll und effizient. Die Infrastruktur der DB ist inzwischen im Zuge der Liberalisierung des Bahnsektors in Deutschland für Wettbewerber geöffnet worden. Dies bedeutet, dass Wettbewerber der DB ihre Schienenfahrzeuge im Personen- und Güterverkehr auf der Infrastruktur der DB einsetzen können (vgl. Haucap und Heimeshoff, 2009). Dafür sind von den jeweiligen Unternehmen Netzzugangsentgelte zu zahlen. Zur Berechnung der Netzzugangsentgelte sind im §14 Allgemeines Eisenbahngesetz (AEG) so genannte Entgeltgrundsätze festgelegt, welche von der DB eingehalten werden müssen. Die Einhaltung der Entgeltgrundsätze wird von der Bundesnetzagentur (BNetzA) überwacht (vgl. Kühling et al., 2007). Somit wird wie in anderen Netzindustrien ein diskriminierungsfreier Zugang der Infrastruktur der DB für Wettbewerber gewährleistet. Dabei besteht die Besonderheit, dass getrennte Zugangsentgelte für Schienen- und Bahnhofsinfrastrukturen berechnet werden müssen. Die Bahninfrastruktur ist in einer separaten DB Netz AG organisiert, welche wiederum zur DB Holding gehört. In Deutschland betreibt die DB Netz AG 96,8% der vorhandenen Netztrassenkilometer. Damit ist eine buchhalterische Entflechtung (siehe Ausführungen zu alternativen Regulierungsmethoden) der Infrastruktur gewährleistet, welche die Bestimmung und Überprüfung entscheidungs- und regulierungsrelevanter Kosten für die BNetzA vereinfacht. Somit wird neben der Regulierung der Zugangsentgelte auf eine relativ milde Form der Entflechtung zurückgegriffen, um die wirksame Durchsetzung des diskriminierungsfreien Netzzugangs zu gewährleisten. Damit sollen Quersubventionierungen innerhalb der DB Holding vermieden werden. Dennoch kann Diskriminierung nicht gänzlich ausgeschlossen werden, weil die DB Netz AG Subventionen zur Erhaltung der Infrastruktur vom Bund erhält und es zumindest theoretisch möglich ist, dass die DB diese primär für Strecken einsetzt, welche überwiegend von ihren eigenen Verkehrstöchtern verwendet werden. Etwa 80% der Betriebsleistung auf dem Schienennetz der DB werden von Konzerntöchtern erbracht. In diesem Zuge könnten die von den Wettbewerbern verwendeten Strecken zunehmend veralten.

14 Regulierung

257

Nach den Regeln des Eisenbahnregulierungsgesetzes aus dem Jahr 2016, welches die Regelungen des AEG ergänzt, werden durch die BNetzA Obergrenzen für die Trassenund Stationspreise festgelegt. Damit wird nicht nur wie bisher ein diskriminierungsfreier Zugang zur Infrastruktur der DB gewährleistet, sondern auch ein Abbau von Ineffizienzen beabsichtigt, da diese Form der Preisobergrenze im Kern eine Price-Cap-Regulierung darstellt, welche jeweils fünf Jahre gelten soll. Wie auch in anderen Netzindustrien, sollen somit auch im Bahnsektor Anreize geschaffen werden, um Ineffizienzen, welche durch die Monopolstellung aufgebaut wurden, abzubauen. Insgesamt hat die BNetzA sechs Körbe als Kombinationen der Marktsegmente 1. 2. 3. 4. 5. 6.

Schienenpersonennahverkehr, Schienenpersonenfernverkehr, Schienengüterverkehr, Infrastruktureinrichtungen Trassen, Serviceleistungen von Bahnhöfen und Sonstige Serviceleistungen

gebildet, womit dem Charakter eines Multiproduktmonopolisten Rechnung getragen wird. Für jeden Leistungskorb werden Preispfade für jedes Jahr innerhalb der fünfjährigen Regulierungsperiode gebildet. Diese Pfade beziehungsweise die damit verbundenen Preisobergrenzen stellen die Erwartung darüber dar, inwieweit die DB in der Lage sein wird, ihre Kosten im Regulierungszeitraum zu senken. Nach der Festlegung der Preisobergrenzen werden die konkreten Entgelte für die Infrastrukturleistungen der DB Netz AG in separaten Regulierungsverfahren genehmigt. Somit wurde im Bereich der Eisenbahnregulierung in Deutschland in Bezug auf die Infrastruktur eine Variation der Anreizregulierung implementiert, die darüber hinaus durch eine milde Form der Entflechtung der Infrastrukturgesellschaft flankiert wird.

258

Ralf Dewenter und Ulrich Heimeshoff

Literaturverzeichnis Averch, Harvey and Leland L. Johnson (1962): Behavior of the Firm Under Regulatory Constraint, in: American Economic Review, Vol. 52, 1052–1069. Barth, Anne-Kathrin und Ulrich Heimeshoff (2014): Der angemessene Kostenmaßstab für Terminierungsentgelte – “Pure LRIC” vs. „KeL“, in: List Forum für Wirtschafts- und Finanzpolitik, Vol. 40, 65-88. Baumol, William J. (1982): Contestable markets: An uprising in the theory of industry structure, in: American Economic Review, Vol. 72, 1-15. Baumol, William J. (1983): Some Subtle Pricing Issue in Railroad Regulation, in: International Journal of Transport Economics, Vol. 10, 341-55. Baumol, William, John Panzar und Robert Willig (1982): Contestable Markets and the Theory of Industry Strucure, Harcourt Brace Jovanovich, San Diego: CA. Becker, Gary (1985): Public Policies, Pressure Groups, and Dead Weight Costs, in: Journal of Public Economics, Vol. 98, 329-347. Belleflamme, P. und M. Peitz (2015): Industrial Organizations: Markets and Strategies, Cambridge University Press. Borrmann, Jörg (1999): Die Ausschreibung von Monopolstellungen - Probleme und Lösungsansätze, in: Zeitschrift für öffentliche und gemeinwirtschaftliche Unternehmen, Vol. 22, 256-272. Borrmann, Jörg und Jörg Finsinger (1999): Markt und Regulierung, Vahlen, München. Braeutigam, Ronald (1989): Optimal Policies for Natural Monopolies, in: Richard Schmalensee und Robert Willig (Hrsg.): Handbook of Industrial Organization, Vol. II, 1289-1348. Bundeskartellamt (2014): Wie erkennt man unzulässige Submissionsabsprachen?, Bonn. Cambini, Carlo und Laura Rondi (2010): Incentive Regulation and Investment: Evidence from European Energy Utilities, Vol. 38, Journal of Regulatory Economics, 1-26. Cave, Martin (2004): Making the ladder of investment operational, Coventry. De Bijl, Paul und Martin Peitz (2002): Regulation and Entry into Telecommunications Markets, Cambridge University Press, Cambridge. Demsetz, Harold (1968): Why Regulate Utilities?, in: Journal of Law and Economics, Vol. 11, 55-66. Demsetz, Harold (1969): Information and Efficiency: Another Viewpoint, in: Journal of Law and Economics, Vol. 12, 1-22. Dewatripont, Mathias und Jean Tirole (1993): The Prudential Regulation of Banks, MIT Press, Cambridge: MA. Dewatripont, Mathias, Jean-Charles Rochet und Jean Tirole (2010): Balancing the Banks, Global Lessons from the Financial Crisis, Princeton University Press, Princeton: NJ. Dewenter, Ralf und Jürgen Rösch (2015): Einführung in die neue Ökonomie der Medienmärkte, Eine wettbewerbsökonomische Betrachtung aus Sicht der Theorie der zweiseitigen Märkte, Springer Gabler, Wiesbaden.

14 Regulierung

259

Dewenter, Ralf und Justus Haucap (Hrsg.) (2007): Access Pricing, Theory and Practice, Elesevier, Amsterdam. Dixit, Avinash und Robert Pindyck (1994): Investment under Uncertainty, Princeton University Press, Princeton: NJ. Erdmann, Georg und Peter Zweifel (2008): Energieökonomik, Theorie und Anwendungen, Springer Verlag, Berlin, Heidelberg. Erlei, Mathias, Martin Leschke und Dirk Sauerland (2016): Institutionenökonomik, Schäffer Poeschel, Stuttgart, 2. Aufl. Fetzer, T., Peitz, M. und H. Schweitzer (2013): Flexible Geschäftsmodelle in der Telekommunikation und die Netzneutralitätsdebatte, Wirtschaftsdienst, Vol. ???, 695-701. Finsinger, Jörg und Ingo Vogelsang (1981): Alternative Institutional Frameworks for Price Incentive Mechanisms, in: Kyklos, Vol. 34, 388-404. Fredebeul-Krein, Markus (1998): Das Universaldienstkonzept der Europäischen Union in der Telekommunikation, in: Wirtschaftsdienst, Vol. 78, 461-467. Gai, Prasanna (2013): Systemic Risk, The Dynamics of Modern Financial Systems, Oxford University Press, Oxford. Gersdorf, Hubertus (2011): Netzneutralität: Regulierungsbedarf?, in: Zeitschrift für Wirtschaftspolitik, Vol. 60, 187-199. Gilardi, Fabrizio (2005a): The Institutional Foundations of Regulatory Capitalism: The Diffusion of Independent Regulatory Agencies in Western Europe, in: The ANNALS of the American Academy of Political and Social Science, Vol. 598, 84-101. Gilardi, Fabrizio (2005b): The Formal Independence of Regulators: A Comparison of 17 Countries and 7 Sectors, in: Swiss Political Science Review, Vol. 11, 139-167. Gilbert, R. J. und Newbery, D. (1994): The dynamic efficiency of regulatory constitutions, in: RAND Journal of Economics, Vol. 25, No. 4, Winter 1994. Hartmann-Wendels, Thomas, Andreas Pfingsten und Martin Weber (2007): Bankbetriebslehre, Springer, Berlin et al., 4. Aufl. Harvey Averch, Leland L. Johnson (1962):  Behavior of the Firm Under Regulatory Constraint, American Economic Review 52, Nr. 5, S. 1052–1069. Haucap, Justus und Jürgen Kühling (2007): Telekommunikationsregulierung: Brauchen wir noch mehr Zentralisierung?, in: Wirtschaftsdienst, Heft 10, 664-671. Haucap, Justus und Ulrich Heimeshoff (2009): Entgeltgrundsätze: Eine ökonomische Analyse einer Besonderheit im Eisenbahnsektor, in: Ronellenfitsch, Michael (Hrsg.): Aktuelle Probleme des Eisenbahnrechts XIV, Verlag Dr. Kovac, Hamburg. Hausman, Jerry (2000): Regulated Costs and Prices in Telecommunications, in: G. Madden and S.J. Savage (Hrsg.): The International Handbook of Telecommunications Economics, Volume II, Edward Elgar: Cheltenham, 199-233. Hayek, Friedrich A. (1945): The Use of Knowledge in Society, in: American Economic Review, Vol. 35, 519-530.

260

Ralf Dewenter und Ulrich Heimeshoff

Joskow, Paul und Nancy Rose (1989): The Effects of Economic Regulation, in: Richard Schmalensee und Robert Willig (Hrsg.): Handbook of Industrial Organization, Vol. II, 1449-1506. Kilger, Wolfgang (1985): Flexible Plankostenrechnung und Deckungsbeitragsrechnung, Gabler, Wiesbaden. Kleest, Joachim und Egon Reuter (2002): Verhandelter Netzzugang, Deutscher Universitätsverlag, Wiesbaden. Klemperer, Paul (2002): What Really Matters in Auction Design, in: Journal of Economic Perspectives, Vol. 16, 169-189. Klodt, Henning (2003): Das Telekommunikationsgesetz vor der Novellierung, in: Die Weltwirtschaft, Heft 2, S. 196–214. Knieps, Günter (1987): Zur Problematik der internen Subventionierung in öffentlichen Unternehmen, in: FinanzArchiv, Vol. 45, 268-283. Knieps, Günter (1999): Zur Regulierung monopolistischer Bottlenecks, Zeitschrift für Wirtschaftspolitik 48, 297-304. Knieps, Günter (2004): Versteigerungen und Ausschreibungen in Netzsektoren: Ein disaggregierter Ansatz, Schriftenreihe der Deutschen Verkehrswissenschaftlichen Geselschaft: Versteigerungen und Ausschreibungen in Verkehrs- und Versorgungsnetzen: Praxiserfahrungen und Zukunftsperspektiven, Reihe B, B 272, 11-28. Knieps, Günter (2007): Netzökonomie: Grundlagen, Strategien, Wettbewerbspolitik, Gabler, Wiesbaden. Knieps, Günter (2008): Wettbewerbsökonomie: Regulierungstheorie, Industrieökonomie, Wettbewerbspolitik, Springer, Berlin et al., 3. Aufl. Kruse, Jörn (2002): Deregulierung in netzbasierten Sektoren, in: H. Berg (Hrsg.), Deregulierung und Privatisierung: Gewolltes – Erreichtes – Versäumtes, Duncker & Humblot: Berlin, 71-88. Kruse, Jörn (2010): Priority and Internet Quality. In: Morten Falch and Jan Markendahl (Hrsg.), Promoting New Telecom Infrastructures. Markets, Policies and Pricing, Cheltenham and Northampton (Edward Elgar). Kühling Jürgen, Guido Hermeier und Ulrich Heimeshoff (2007): Entgeltregulierung nach AEG und EIBV, Verlagshaus Monsenstein und Vannerdat. Laffont, Jean-Jacques und Jean Tirole (2000): Competition in Telecommunications, MITPress: Cambridge, MA. Leibenstein, H. (1966): Allocative Efficiency vs. “XEfficiency”. American Economic Association , 392-415. Loeb, Martin, and Wesley A. Magat (1979): A Decentralized Method of Utility Regulation, Journal of Law and Economics 22, pp.399-404. Lowe, Philip, Ingrida Pucinskaite, William Webster und Patrick Lindberg (2007): Effective Unbundling of Energy Transmission Networks: Lessons From the Energy Sector Inquiry, in: Competition Policy Newsletter, Opinions and Comments, Number 1, 23-34.

14 Regulierung

261

Martin, Stephen (2002): Advanced Industrial Economics, Blackwell, Malden: MA, 2. Aufl. Milgrom, Paul (2004): Putting Auction Theory to Work, Cambridge University Press, Cambridge. Monopolkommission (2014): Telekommunikation 2013: Vielfalt auf den Märkten erhalten, Sondergutachten 66, Nomos Verlag, Baden Baden. Müller, Jürgen und Ingo Vogelsang (1979): Staatliche Regulierung, Regulated Industries in den USA und Gemeinwohlbindung in wettbewerblichen Ausnahmebereichen in der Bundesrepublik Deutschland, Nomos, Baden-Baden. Nicholson Walter und Christopher Snyder (2007): Theory and Applications of Intermediate Microeconomics, Thomson, Mason: OH, 10. Aufl. Noll, Roger (1989): Economic Perspectives on the Politics of Regulation, , in: Richard Schmalensee und Robert Willig (Hrsg.): Handbook of Industrial Organization, Vol. II, 1253-1287. North, Douglass C. (1990): Institutions, Institutional Change and Economic Performance, Cambridge University Press, Cambridge. Posner, Richard (1975): The Social Costs of Monopoly and Regulation, in: Journal of Political Economy, Vol. 83, 807-827. Richter, Rudolf und Eirik G. Furubotn (2003): Neue Institutionenökonomik, 3. Aufl., Mohr Siebeck, Tübingen. Sappington, David and David Sibley (1988): Regulating Without Cost Information: The Incremental Surplus Subsidy Scheme, International Economic Review 29, pp. 297-306 Schedle, Hans und Kai Sülzle (2007): Sektorspezifische Regulierung: Transitorisch oder ad infinitum? Eine internationale Bestandsaufnahme von Regulierungsinstitutionen, in: ifo Schnelldienst, 60. Jg., 31-34. Schumpeter. Joseph A. (1942): Capitalism, socialism and democracy. Harper, New York/ London. Schweitzer, Marcell und Hans-Ulrich Küpper (2008): Systeme der Kosten- und Erlösrechnung, Vahlen, München, 9. Aufl. Shleifer, Andre (1985): A Theory of Yardstick Competition, in: Rand Journal of Economics, Vol. 16, 319-327. Stigler, George (1971): The Theory of Economic Regulation, in: Bell Journal of Economics and Management Science, Vol. 2, 3-21. Ströbele, Wolfgang, Wolfgang Pfaffenberger und Michael Heuterkes (2010): Energiewirtschaft, Einführung in Theorie und Praxis, Oldenbourg, München, Wien, 2. Aufl. Sutherland, Douglas, Sónia Araújo, Balázs Égert und Tomasz Kozluk (2011): Public Policies and Investment in Network Infrastructure, in: OECD Journal: Economic Studies, Vol. 2011/1, 161-83. Train, Kenneth E. (1991): Optimal Regulation, MIT Press, Cambridge: MA. Varian, Hal (2011): Grundzüge der Mikroökonomik, Oldenbourg Verlag, München, Wien, 8. Aufl.

262

Ralf Dewenter und Ulrich Heimeshoff

Vaubel, Roland (1999): Enforcing Competition Among Governments: Theory and Application to the European Union, in: Constitutional Political Economy, Vol. 10, 327-338. Viscusi, W. K., Harrington, J. E., & Vernon, J. M. 1. (2005): Economics of regulation and antitrust (4th ed.). Cambridge, Mass.: MIT Press. Vogelsang, Ingo (2002): Incentive Regulation and Competition in Public Utility Markets: A 20-Year Perspective, in: Journal of Regulatory Economics, Vol. 22, 5-27. Vogelsang Ingo (2013): The Endgame of Telecommunications Policy? A Survey, Review of Economics, De Gruyter, vol. 64(3), pages 193-270, December. Vogelsang, Ingo und Jörg Finsinger (1979): A Regulatory Adjustment Process for Optimal Pricing by Multiproduct Monopoly Firms, in: The Bell Journal of Economics, Vol. 10, 157 – 171. von Weizsäcker, Carl Christian (1980a): A Welfare Analysis of Barriers to Entry, in: Bell Journal of Economics, Vol. 11, 399-420. von Weizsäcker, Carl Christian (1980b): Barriers to Entry, Springer, Berlin et al. Weizsäcker, Carl Christian von (1980a): A Welfare Analysis of Barriers to Entry, in: Bell Journal of Economics, Vol. 11, 399-420. Weizsäcker, Carl Christian von (1980b): Barriers to Entry, Springer, Berlin. Williamson, Oliver E. (1976): Franchise Bidding for Natural Monopolies in General and with Respect to CATV, in: Bell Journal of Economics, Vol. 7, 73-104. Williamson, Oliver E. (1985): The Economic Institutions of Capitalism, The Free Press, New York. Willig, Robert (1979): The Theory of Network Access Pricing, in H.B. Trebing (Ed.), Issues in Public Utility Regulation, Michigan State University Public Utilities Papers, Seiten?. Wrede, Matthias (2007): Yardstick Competition to Tame the Leviathan, in: European Journal of Political Economy, Vol. 17, 705-721.

Arbeitsmarktökonomik

15

Thomas Apolte

Gliederung 15.1 Beschäftigung und Arbeitslosigkeit: Messkonzepte und Messprobleme................................................................... 265 15.1.1 Grundlegende Messgrößen.................................................................. 265 15.1.2 Stromgrößen- und Bestandsgrößenbetrachtung............................... 268 15.2 Neoklassischer Ansatz der Arbeitsmarkttheorie............................................ 269 15.2.1 Arbeitsangebot....................................................................................... 269 15.2.2 Arbeitsmarktgleichgewicht in der kurzen Frist ................................ 273 15.2.3 Arbeitsmarktgleichgewicht in der langen Frist.................................. 274 15.3 Strukturelle und friktionelle Arbeitslosigkeit................................................. 277 15.3.1 Matching-Probleme............................................................................... 278 15.3.2 Natürliche Arbeitslosenquote.............................................................. 279 15.3.3 Suchtheorie des Arbeitsmarktes: Friktionelle Arbeitslosigkeit................................................................. 281 15.3.4 Strukturelle Arbeitslosigkeit und Humankapitalbildung................. 284 15.4 Lohnfindung und Arbeitsmarktgleichgewicht............................................... 287 15.4.1 Gewerkschaftstheorien und Lohnsetzungsfunktion......................... 287 15.4.1.1 Monopolgewerkschaftstheorie............................................. 289 15.4.1.2 Verhandlungstheorien.......................................................... 291 15.4.1.3 Theorie effizienter Kontrakte............................................... 292 15.4.1.4 Insider-Outsider-Theorie ..................................................... 294 15.4.2 Effizienzlohntheorie.............................................................................. 297 15.4.3 Preis- und Lohnsetzung im makroökonomischen Ansatz............... 301 15.5 Problembereiche der Arbeitsmarktpolitik...................................................... 305 15.5.1 Hysterese und Persistenz...................................................................... 305 15.5.2 Anpassungsflexibilität des Arbeitsmarktes......................................... 307 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 T. Apolte et al. (Hrsg.), Kompendium der Wirtschaftstheorie und Wirtschaftspolitik III, https://doi.org/10.1007/978-3-658-21775-4_15

263

264

Thomas Apolte

15.5.3 Lohnpolitik............................................................................................. 309 15.5.4 Zentralisierungsgrad von Lohnverhandlungen................................. 311 15.5.5 Sozialpolitik und Arbeitsmarkt............................................................ 312 15.6 Kommentierte Literaturhinweise..................................................................... 313 Literaturverzeichnis........................................................................................................ 315

15 Arbeitsmarktökonomik

15.1

265

Beschäftigung und Arbeitslosigkeit: Messkonzepte und Messprobleme

Arbeitsmarktstatistiken sind im Gegensatz zu den Statistiken der Volkswirtschaftlichen Gesamtrechnung international nicht normiert. Für die amtlichen Statistiken über den Arbeitsmarkt ist in der Bundesrepublik Deutschland vor allem die Bundesagentur für Arbeit (BA) zuständig. Aber auch andere nationale und internationale Institutionen wie die EU oder die OECD veröffentlichen Arbeitsmarktdaten. Dabei orientieren sie sich zumeist am Standard der Internationalen Arbeitsorganisation (International Labour Organization; ILO), einer Unterorganisation der Vereinten Nationen. Ziel ist es dabei, eine staatenübergreifend vergleichbare Datenbasis zu bieten.

15.1.1 Grundlegende Messgrößen Ausgangspunkt der folgenden Arbeitsmarktdaten ist die Wohnbevölkerung eines Landes (Abbildung 15.1). Hierbei handelt es sich um alle natürlichen Personen, die im jeweiligen Inland ihren Hauptwohnsitz haben. Von diesen scheiden als Erwerbstätige per Definition zunächst einmal alle Personen aus, deren Lebensalter unter 15 oder über 64 liegt (nach ILO-Definition: 15 bis 74). Der verbleibende Teil ist die Bevölkerung im erwerbsfähigen Alter. Auch von diesem Anteil der Bevölkerung steht ein Teil dem Arbeitsmarkt nicht zur Verfügung. Dabei handelt es sich um die so genannten Nichterwerbspersonen, die aus den unterschiedlichsten Gründen im Augenblick oder dauerhaft keine Erwerbstätigkeit wünschen. Die übrigen Personen im erwerbsfähigen Alter heißen Erwerbspersonen

Bevölkerung mit Wohnsitz im Inland… …im erwerbsfähigen Alter: 15 bis 64 (bzw. 74) Jahre Erwerbspersonen (Ns)

Erwerbstätige (N)

Selbstständige (Nselbst)

abhängig Beschäftigte (Na) militärischer Sektor (Nam)

ziviler Sektor (Naz)

Abb. 15.1  Bevölkerung und Erwerbstätigkeit

Arbeitslose (AL)

nicht registrierte registrierte Arbeitslose Arbeitslose (ALr) (ALnr)

…nicht im erwerbsfähigen Alter: 0 bis 14 und Nichtüber 64 erwerbs(bzw. 74) personen Jahre

266

Thomas Apolte

(Erwerbspersonenpotenzial), die sowohl im erwerbsfähigen Alter sind als auch eine Erwerbstätigkeit anstreben. Diese Personen sind entweder erwerbstätig oder arbeitslos. Die Erwerbstätigen sind entweder selbstständig oder abhängig beschäftigt. Ein Teil der Arbeitslosen ist bei der BA als arbeitslos gemeldet (registrierte Arbeitslose). Diese Personen liefern die statistische Grundlage für die offizielle Arbeitslosenstatistik der BA. Allerdings ist nicht jede arbeitslose Person auch als arbeitslos registriert. Umgekehrt gibt es Personen, die bei der BA als arbeitslos gemeldet sind, aber durchaus einer Erwerbstätigkeit nachgehen. Dies gilt insbesondere für jene registrierte Arbeitslose, die in der Schattenwirtschaft tätig sind. Dabei handelt es sich um Wert schöpfende wirtschaftliche Aktivitäten, die offiziell nicht registriert sind und sich der Steuer- und Abgabenpflicht entziehen (Cassel, 1989, S. 40f.; 1989a, S. 74ff.; Schneider, 2004, S. 78f.). Teilweise sind die Aktivitäten in der Schattenwirtschaft völlig legal – etwa im Falle der Heimwerkertätigkeit. Zu einem erheblichen Teil handelt es sich aber auch um illegale Tätigkeiten. Personen, die in der Schattenwirtschaft arbeiten, sind zwar nicht offiziell erwerbstätig. Doch auch wenn die wirtschaftliche und soziale Bedeutung der Schattenwirtschaft ambivalent ist, handelt es sich bei ihr um eine keineswegs zu vernachlässigende Größe, deren Wertschöpfung in Deutschland im Jahre 2014 nach Schätzungen des Instituts für Angewandte Wirtschaftsforschung der Universität Tübingen bei etwa 12,2 Prozent des Bruttoinlandsprodukts lag. Hinter der einfachen Struktur der Abbildung 15.1 verbergen sich allerdings gravierende Messprobleme. So gibt es nicht einmal auf nationaler Ebene einen allgemein verwendeten Standard, der definiert, welche Personen als arbeitslos gelten. In Anlehnung an §§ 16, 138 des Sozialgesetzbuches (SGB III) registriert die BA eine Person als arbeitslos, wenn sie: 1. 2. 3. 4. 5. 6.

ihren Wohnsitz im Inland hat; zwischen 15 und 64 Jahre alt ist; vorübergehend ohne Beschäftigung ist; jederzeit dem Arbeitsmarkt zur Verfügung steht; bei der BA als Arbeit suchend gemeldet ist; sowie eine Beschäftigung von mindestens 15 Stunden pro Woche für einen Zeitraum von mindestens drei Monaten anstrebt.

Allein das fünfte Kriterium bringt systematische Verzerrungen mit sich. Einerseits gibt es Personengruppen, die keinerlei Ansprüche auf staatliche Unterstützungsleistungen erworben haben. Der Anreiz, sich bei der BA als Arbeit suchend zu melden, ist vor allem dann gering, wenn die Betroffenen sich von der BA keine spürbare Unterstützung bei der Arbeitsplatzsuche versprechen. Auf der anderen Seite werden sich immer auch Personen mit dem Ziel arbeitslos melden, Transferzahlungen zu erhalten, obwohl sie nicht ernsthaft eine Arbeitsaufnahme anstreben. Im Gegensatz zur BA ermittelt das Statistische Bundesamt seine Zahlen nicht nach dem Kriterium der Registrierung als Arbeitslose, sondern auf der Basis des so genannten Mikrozensus. Dabei handelt es sich um eine einprozentige Stichprobe aus der Bevölkerung, die

15 Arbeitsmarktökonomik

267

auf einer Selbsteinschätzung der betroffenen Personen beruht. Da die Kriterien der ILO angelegt werden, spricht das Statistische Bundesamt in Abgrenzung zur BA von Erwerbslosigkeit. Als erwerbslos gilt laut ILO jeder Inländer zwischen 15 und 74 Jahren, der: 1. derzeit weniger als eine Stunde pro Woche einer Erwerbsarbeit nachgeht; 2. innerhalb von 14 Tagen für eine Erwerbsarbeit zur Verfügung steht; 3. innerhalb der letzten vier Wochen aktiv nach Arbeit gesucht hat (Rengers, 2004). Durch die unterschiedlichen Definitionen von Arbeitslosigkeit ergeben sich teilweise beträchtliche Unterschiede in den jeweiligen Kennzahlen. Dies verschärft sich noch, wenn nicht nur nach der Zahl der Arbeits- bzw. Erwerbslosen, sondern nach der Arbeits- bzw. Erwerbslosenquote gefragt wird, die grundsätzlich den Quotienten von Arbeits- bzw. Erwerbslosen zu Erwerbspersonen angibt. Grund dafür ist, dass auch die im Nenner erfasste Zahl der Erwerbspersonen sehr unterschiedlich definiert wird. Einen Überblick über unterschiedliche Definitionen gibt Tabelle 15.1. Die Arbeitslosenquote der BA verwendet im Nenner neben den registrierten Arbeitslosen (ALr) nur die abhängig Beschäftigten im zivilen Sektor (Naz), während im international üblichen Standard alle abhängig Beschäftigten (Na) und die Selbstständigen (Nselbst) berücksichtigt werden. Zusätzlich gibt es allerdings weitere Unterschiede bei der Berücksichtigung der Beschäftigten im militärischen Sektor (Nam), insbesondere bei kasernierten Soldaten. Die Tatsache, dass die BA neben den Arbeitslosen nur die abhängig Beschäftigten als Bezugsgröße im Nenner der Arbeitslosenquote verwendet, ist der Hauptgrund dafür, dass die in Deutschland gebräuchliche Arbeitslosenquote die Arbeitslosigkeit im Vergleich zu international üblichen Standards überzeichnet. Über die Zahl der Arbeitslosen hinaus existiert eine statistisch nur schwer erfassbare Zahl von Personen, die grundsätzlich eine Arbeitsaufnahme anstreben, in der jeweiligen Arbeitsmarktsituation aber keine Chance für sich sehen und sich von daher weder als arbeitslos registrieren lassen, noch aktiv nach einem Arbeitsplatz suchen. Die Existenz dieser als „Stille Reserve“ bezeichneten Personengruppe lässt sich aus konjunkturabhängig schwankenden Erwerbsquoten erkennen. Die Erwerbsquote ist definiert als die Zahl der Erwerbspersonen in Prozent der Bevölkerung im erwerbsfähigen Alter. In konjunkturell günstigen Zeiten steigt im Allgemeinen nicht nur die Zahl der Erwerbstätigen, sondern

Tab. 15.1  Definitionen von Arbeitslosen- bzw. Erwerbslosenquoten (Quellen: BA; EUROSTAT; OECD) BA Definition u

Quote im Jahre 2014 Deutschland

u BA = 6,4 %

EU

ALr Naz +ALr

u EU = 4,6 %

OECD

AL N selbst + Naz + AL

u OECD = 4,6 %

AL Ns

268

Thomas Apolte

auch die Erwerbsquote, woraus zu schließen ist, dass in solchen Zeiten über die bisherigen Erwerbstätigen und Arbeitslosen hinaus zusätzliche Personen als Anbieter am Arbeitsmarkt auftreten (Holst, 2000).

15.1.2

Stromgrößen- und Bestandsgrößenbetrachtung

Die Zahl der Arbeitslosen ist eine Bestandsgröße und sagt insofern nur etwas über die Situation am Arbeitsmarkt zu einem bestimmten Zeitpunkt aus. Sie sagt aber nichts über die innerhalb eines bestimmten Zeitraums ablaufenden Prozesse aus (Abb. 15.2). So betrug die Zahl der Arbeitslosen im Jahre 2015 zwar jahresdurchschnittlich 2,79 Mio. Doch über den Verlauf dieses Jahres wurden einerseits gut 7,52 Mio. Menschen als arbeitslos registriert. Andererseits haben knapp 7,60 Mio. Arbeitslose im Verlaufe des Jahres 2015 einen neuen Arbeitsplatz gefunden. Per Saldo ist die Zahl der Arbeitslosen damit um etwa 80.000 Personen gesunken. Die Stärke der Ströme sagt etwas über die Dynamik des Arbeitsmarktes aus. Je höher diese Zahlen sind, desto schneller wechseln Menschen einerseits von einer Beschäftigung in die Arbeitslosigkeit, andererseits aber auch wieder von der Arbeitslosigkeit zurück in die Beschäftigung. Daher können sich hinter Bestandsgrößen wie Arbeitslosenzahlen oder -quoten höchst unterschiedliche Problemlagen verbergen. Bei einer Arbeitslosenquote von zehn Prozent würde das im Extremfall bedeuten, dass zehn Prozent der Arbeitnehmer über ein ganzes Jahr hinweg arbeitslos gewesen sind. Es kann aber im anderen Extremfall

Abb. 15.2 Bestände und Ströme am Arbeitsmarkt (Quelle: BA)

15 Arbeitsmarktökonomik

269

auch bedeuten, dass jeder Arbeitnehmer einmal über einen Zeitraum von zehn Prozent des Jahres – also über 5,2 Wochen – arbeitslos gewesen ist (Landmann/Jerger, 1999, S. 36; Franz, 2013, S. 365f.). Damit ist zusätzlich zur Arbeitslosenquote zumindest die durchschnittliche Dauer der Arbeitslosigkeit zu berücksichtigen. Daten über die durchschnittliche Dauer der Arbeitslosigkeit sind aus statistischen Gründen aber nur näherungsweise zu ermitteln (Franz, 2013, S. 366f.). Gleichwohl weisen die verfügbaren Indikatoren auf einen deutlichen Anstieg der durchschnittlichen Dauer der Arbeitslosigkeit in Deutschland seit Mitte der 1970er Jahre hin. Dies bedeutet, dass die Chance eines Arbeitslosen, innerhalb einer bestimmten Frist wieder einen Arbeitsplatz zu finden, in den letzten Jahrzehnten erheblich gesunken ist. Das bis vor etwa zehn Jahren bestehende Problem der Arbeitslosigkeit in Deutschland lag daher weniger in einem zunehmenden Verlust an Arbeitsplätzen als vielmehr in einer abnehmenden Fähigkeit des Arbeitsmarktes, Arbeit Suchende in den Arbeitsprozess zu integrieren.

15.2

Neoklassischer Ansatz der Arbeitsmarkttheorie

Die neoklassische Arbeitsmarkttheorie abstrahiert zunächst einmal von Informationsproblemen, marktinhärenten Preisrigiditäten sowie von irrationalem Verhalten der Marktteilnehmer. Es wird vollständige Konkurrenz in dem Sinne unterstellt, dass weder ein einzelner Arbeitsanbieter, noch ein einzelner Arbeitsnachfrager in der Lage ist, die Preise am Arbeits- oder am Gütermarkt zu beeinflussen. Daher orientieren sich beide als Mengenanpasser an den gegebenen Daten. Weiterhin abstrahiert die neoklassische Arbeitsmarkttheorie von den internen Entscheidungsprozessen eines Haushalts und betrachtet diesen wie eine homogene Entscheidungseinheit. Schließlich wird in der neoklassischen Arbeitsmarkttheorie nur dasjenige Arbeitsangebot analysiert, welches sich an arbeitsteilige Märkte richtet. Die empirisch gesehen nicht unerhebliche Eigenproduktion der Haushalte bleibt insofern außen vor.

15.2.1 Arbeitsangebot Private Haushalte treten als Arbeitsanbieter mit dem Ziel auf, ihren Nutzen U zu maximieren (vgl. Beitrag 10). Die Argumente in ihrer Nutzenfunktion bestehen zum einen aus einem Bündel an Konsumgütern x, welches zum Preis von p am Gütermarkt erworben werden kann. Zum anderen stiftet der Genuss von Freizeit FZ einem repräsentativen Haushalt annahmegemäß einen positiven Nutzen. Daher kann der Genuss von Freizeit analog zum Genuss von Konsumgütern interpretiert werden. Die Nutzenfunktion lautet demnach in der einfachsten Form wie folgt: U = U(x, FZ),

(2.1)

270

Thomas Apolte

wobei sowohl x als auch FZ dem Gesetz vom abnehmenden Grenznutzen unterliegen. Jedes Arbeitsangebot bedeutet für den Haushalt einen Verzicht auf Freizeit, so dass zwischen der Arbeitszeit AZ, der Freizeit und der insgesamt zur Verfügung stehenden Zeit T die Beziehung AZ=T-FZ gilt. Sofern der Haushalt allein auf Arbeitseinkommen angewiesen ist, muss jeder Güterkauf durch Arbeit finanziert werden, so dass die folgende Budgetrestriktion gilt: p · x = w · AZ oder p · x = w · (T – FZ).

(2.2)

Dabei ist w der Nominallohn. Aus der Nutzenfunktion (2.1) ergibt sich eine Schar von Indifferenzkurven, von denen im linken Teil von Abb. 15.3 U1 und U2 eingezeichnet sind. Die Lage der Budgetrestriktion lässt sich erkennen, indem (2.2) nach x umgestellt wird:

x=

w w ⋅T− ⋅FZ. p p

(2.3)

Die Budgetgerade ist demnach negativ geneigt mit einer Steigung von –(w/p) und einem Achsenabstand von (w/p) · T. Ein Anstieg des Reallohns w/p vergrößert also sowohl den Achsenabstand als auch die negative Steigung. In diesem Sinne sind in Abb. 15.3 zwei Budgetgeraden B1 und B2 für zwei alternative Reallöhne (w/p)1 und (w/p)2 eingetragen. Ein Nutzenmaximum ergibt sich zum jeweiligen Reallohn da, wo die am weitesten außenliegende Indifferenzkurve U die jeweilige Budgetgerade tangiert. Im Falle des Reallohns (w/p)1 gilt dies im Punkt E1. Hier konsumiert der Haushalt die Gütermenge x1 sowie die Freizeitmenge FZ1 und realisiert ein Nutzenmaximum.

w/p

x ( w / p)1 ⋅ T x1 ( w / p) 2 ⋅ T x2

B1

B2

Ns

(w/p)1

E1 U1 E2

(w/p)2

U2

FZ1 FZ2 AZ Abb. 15.3  Arbeitszeit und Reallohn

24

FZ

AZ2

AZ1

AZ

15 Arbeitsmarktökonomik

271

Sinkt der Reallohn auf das Niveau (w/p)2, so dreht sich die Budgetgerade auf B2. Unter dieser Bedingung ergibt sich ein neues Nutzenmaximum im Tangentialpunkt E2. Bedeutsam für die Arbeitsangebotstheorie ist, dass mit dem niedrigeren Reallohnniveau (w/p)2 der Freizeitkonsum von FZ1 auf FZ2 ausgedehnt wurde. Dies ist wegen AZ=T-FZ gleichbedeutend mit einer Einschränkung des Arbeitsangebotes. Der sinkende Reallohn reduziert demnach das Arbeitsangebot. Diese Reaktion stimmt mit jener Angebotsreaktion überein, wie sie aus der Gütermarkttheorie bekannt ist. Sie ist im rechten Teil der Abbildung noch einmal abgetragen. Allerdings ist dieser positive Zusammenhang zwischen Reallohn und Arbeitsangebot keineswegs zwingend. Die Drehung der Budgetlinie löst nämlich zwei gegenläufige Effekte aus. Zunächst einmal verringert der gesunkene Reallohn den Preis für jede Freizeiteinheit, weil mit einer Stunde Freizeitverzicht nunmehr weniger Güter gekauft werden können. Sinkt aber der Preis der Freizeit, so steigt ihr Konsum, was gleichbedeutend mit einem Rückgang des Arbeitsangebotes ist. Bei sinkendem Reallohn wird Güterkonsum durch Freizeitkonsum substituiert. Dies ist der Substitutionseffekt, welcher sich an der Drehung der Budgetgerade zeigt. Dem Substitutionseffekt steht aber ein Einkommenseffekt gegenüber, weil der gesunkene Reallohn den maximal möglichen Konsum von Gütern verringert. Der Einkommenseffekt drückt sich durch die mit der Drehung verbundene Verlagerung der Budgetlinie nach innen aus. Er sorgt grundsätzlich dafür, dass der Konsum aller Güter sinkt, in diesem Falle also sowohl der Güterkonsum als auch der Konsum der Freizeit. Ein Rückgang des Freizeitkonsums ist aber gleichbedeutend mit einer Zunahme des Arbeitsangebotes, so dass der Einkommenseffekt bei sinkenden Löhnen ceteris paribus eine Zunahme des Arbeitsangebotes auslöst und umgekehrt. Die Nettowirkung von Substitutionseffekt und Einkommenseffekt ist unbestimmt, so dass auch ein negativer Zusammenhang zwischen Reallohn und Arbeitsangebot möglich ist. Daher ist man letztlich auf empirische Untersuchungen angewiesen, wenn man etwas über die Reaktion des Arbeitsangebotes auf Reallohnveränderungen erfahren will. Allerdings weisen empirische Untersuchungen darauf hin, dass die Reallohnelastizität des Arbeitsangebotes relativ gering ist (Franz, 2013, S. 72f.). Hauptgrund dafür dürfte die beschränkte Wahlmöglichkeit der Arbeitnehmer mit Blick auf ihre Arbeitszeit sein, so dass die Arbeitsangebotsentscheidung vielfach eher eine Frage des Entweder-Oder als eine Frage der individuell optimalen Freizeit-Konsum-Kombination ist. Letzteres bedeutet allerdings keineswegs, dass nicht für viele Arbeitnehmer in vielfältiger Hinsicht Möglichkeiten zur Variation der angebotenen Arbeitszeit bestehen, die sich im Rahmen der hier angestellten modelltheoretischen Analysen erfassen ließen. Trotz ihres hohen Abstraktionsniveaus können auf der Basis der neoklassischen Arbeitsangebotstheorie bereits wichtige Einsichten gewonnen werden. So lässt sich erkennen, welche unerwünschten Nebenwirkungen staatliche Eingriffe haben können. Zugleich lässt sich zeigen, wie staatliche Eingriffe konzipiert werden müssen, damit unter Wahrung der erwünschten Hauptwirkung unerwünschte Nebenwirkungen vermieden werden. Ein wichtiges Beispiel hierzu sind die Nebenwirkungen bestimmter staatlicher

272

Thomas Apolte

Transferleistungen an solche Personen, die aus eigener Kraft nicht in der Lage sind, ein politisch definiertes Mindesteinkommen zu erzielen. In Deutschland wird dies durch das ergänzende Arbeitslosengeld II gewährleistet. Dies wird gezahlt, wenn das Einkommen eines Einwohners das so genannte „sozio-kulturelle“ Existenzminimum unterschreitet (Beitrag 16). Wenn dieses minimale Einkommen mit Ya bezeichnet wird, so kann dafür bei gegebenen Preisen die Gütermenge xa = Ya/p erworben werden. Lange Zeit wurde im deutschen Grundsicherungssystem jede Differenz zwischen eigenen Einkommen und Ya durch staatliche Transferzahlungen TR ausgeglichen. Umgekehrt wurden die Unterstützungsleistungen annähernd vollständig um eigene Einkommen gekürzt. Diese Kürzung staatlicher Transfers um eigene Einkommen wird Transferentzug genannt. Werden die Transferzahlungen vollständig um eigene Einkommen gekürzt, so spricht man von einer Transferentzugsrate von 100 Prozent. Die Anreizwirkung einer Transferentzugsrate von 100 Prozent entspricht der Anreizwirkung einer Einkommensteuer von 100 Prozent. In diesem Falle gilt: Bei eigenen Einkommen oberhalb von Ya gibt es keine staatlichen Transferzahlungen mehr, und unterhalb von Ya kann wegen der ausgleichenden Transferzahlungen kein Einwohner fallen. Deshalb knickt die Budgetgerade bei einem Konsumniveau von xa = Ya/p nach rechts ab (Abb. 15.4). Ohne staatliche Transfers realisiert der Haushalt sein Optimum im Punkt E1 und bietet dabei eine Arbeitsmenge von AZ1=T-FZ1 an. Er konsumiert dabei eine Gütermenge, die mit x1 oberhalb des staatlich definierten Mindestkonsums von xa liegt. Die Tatsache, dass der Staat jedes Absinken des Konsumniveaus unter xa durch Transferzahlungen ausgleicht, verändert aber die optimale Kombination von Freizeit und Konsum. Denn der Haushalt kann durch Ausdehnen seines Freizeitkonsums auf T ein Nutzenniveau erreichen, welches auf der Indifferenzkurve U2 liegt und damit oberhalb von U1. Dadurch sinkt der Güterkonsum des Haushalts zwar von x1 auf xa; doch wird der Zuwachs im Freizeitkonsum in Höhe von T-FZ1 den damit verbundenen Nutzenverlust mehr als aufwiegen. Insgesamt kann

x

w ⋅T p x1 xa

U1 U 2

E1

E2 B

FZ1

T AZ

Abb. 15.4  Wirkung staatlicher Transferleistungen

FZ

15 Arbeitsmarktökonomik

273

der Haushalt dadurch ein höheres Nutzenniveau realisieren. Im Ergebnis wird ein Nutzen maximierender Haushalt auf jedwedes Arbeitsangebot verzichten. Dieses Ergebnis sollte indes nicht falsch interpretiert werden. Nicht jede staatliche Transferzahlung hat solche Folgen. Es kommt sehr auf die Ausgestaltung solcher Transfers an. Werden sie beispielsweise für alle erwerbsfähigen Haushalte als Zuschuss zu einer aufgenommenen Arbeit gewährt, so ändern sich die dadurch gesetzten Anreize.

15.2.2 Arbeitsmarktgleichgewicht in der kurzen Frist Nach der neoklassischen Theorie wählen Unternehmen die Einsatzmengen der Produktionsfaktoren Arbeit und Kapital so, dass der größtmögliche Gewinn erzielt wird (Beitrag 10). Hierzu sind zwei Fälle zu unterscheiden: In der kurzen Frist muss der Kapitalstock als konstant angesehen werden; in der langen Frist muss der Kapitalstock hingegen als variabel betrachtet werden. Zunächst sei in diesem Abschnitt die kurze Frist betrachtet. Bei fixem Kapitalstock gilt die Gewinnfunktion:

G = p ⋅ x ( K , N) − w ⋅ N − PK ⋅ K . (2.4) Dabei ist x die produzierte und abgesetzte Menge, N der Arbeitseinsatz – etwa gemessen an der Anzahl der Vollzeitarbeitsplätze – und PK ist ein Kapitalkostensatz. Da die eingesetzte Kapitalmenge kurzfristig konstant ist und das Unternehmen sämtliche Güter- und Faktorpreise P, w und PK als Datum nehmen muss, bleibt ihm als Aktionsparameter allein der Arbeitseinsatz. Die gewinnmaximale Höhe des Arbeitseinsatzes ergibt sich durch Ableitung von (2.4) nach N: w ∂x . (2.5) = p ∂N Die rechte Seite von (2.5) zeigt die Grenzproduktivität der Arbeit, die gleich dem Reallohnsatz sein muss und insofern die Nachfrage nach Arbeit repräsentiert. Weist die Produktionsfunktion eine abnehmende Grenzproduktivität auf, verläuft die Nachfragekurve nach Arbeit fallend, da sie dem Verlauf der Grenzproduktivität der Arbeit entspricht (Abb. 15.5; siehe auch Abschnitt 3.6.2). Zusätzlich zur Nachfragekurve ist in Abb. 15.5 eine positiv geneigte Arbeitsangebotskurve eingezeichnet, die das Verhalten der Haushalte im Sinne einer normalen Angebotsreaktion abbildet. Im Gleichgewicht beträgt der Reallohn (w/p)E und die Beschäftigungsmenge NE. Steigt der Reallohn auf (w/p)1, kommt es zu einem Angebotsüberschuss und damit zu Arbeitslosigkeit. Diese Arbeitslosigkeit wird sowohl durch einen Anstieg des Arbeitsangebotes als auch durch einen Rückgang der Arbeitsnachfrage gespeist. Wie stark die Reaktionen der Anbieter und Nachfrager ausfallen, ist eine empirische Frage.

274

Thomas Apolte

w/p Arbeitslosigkeit ( w / p)1

Ns

E

( w / p) E

Nd N1d

NE

N1s

N

Abb. 15.5  Arbeitsangebot und Arbeitsnachfrage

15.2.3 Arbeitsmarktgleichgewicht in der langen Frist In der langen Frist ist der Kapitalstock variabel. Dies ist deshalb von Bedeutung, weil Veränderungen des Beschäftigungsniveaus die Grenzproduktivität des Kapitals beeinflussen, so dass sich auch die gewinnmaximierende Kapitaleinsatzmenge verändert (Hamermesh, 1986; 1996, S. 22ff.; Landmann/Jerger, 1999, S. 204ff.; Cahuc/Zylberberg, 2014, S. 176f.). Genau dies geschieht in der langen Frist. Die Kapitaleinsatzmenge eines Unternehmens wird – analog zur Einsatzmenge des Faktors Arbeit – so lange ausgedehnt, bis die Grenzproduktivität des Kapitals ∂x/∂K dem realen Kapitalkostensatz PK/p entspricht. Daher ist die Kapitalnachfragekurve identisch mit dem Verlauf der Grenzproduktivität des Kapitals. Wichtig für das Verständnis ist dabei, dass die Grenzproduktivität des Kapitals von der Einsatzmenge der Arbeit abhängt: Ein Anstieg der eingesetzten Arbeitsmenge verschiebt die Grenzproduktivitätskurve des Kapitals nach außen. Analog dazu verschiebt ein Anstieg der Kapitaleinsatzmenge die Grenzproduktivitätskurve der Arbeit nach außen. In einer globalisierten Welt hat ein im Weltmaßstab kleines Land keinen Einfluss auf die internationalen Faktorpreise. Man spricht von der Annahme einer kleinen offenen Volkswirtschaft (Beitrag 8). Durch Variation der Kapitaleinsatzmenge passen die Unternehmen die Grenzproduktivität des Kapitals an den weltweit gegebenen Kapitalkostensatz PKw/p an (Landmann, 1989, S. 70ff.; Apolte, 1999, S. 26ff.). Veranschaulicht wird dies durch die Grenzproduktivitätskurve (∂x/∂K)1 in Abb. L-5 (links unten). In Verbindung mit PKw/p ergibt sich die optimale Kapitaleinsatzmenge K1. Rechts oben herrscht ein Arbeitsmarktgleichgewicht im Punkt E zum Reallohn (w/p)E. Das Verhältnis der Faktoreinsatzmengen K und N zueinander gibt die Kapitalintensität n=K/N rechts unten wieder. Jede Gerade steht für eine ganz bestimmte Kapitalintensität. Die Linie nopt=tan α repräsentiert jene Kapitalintensität, bei der ein Gewinnmaximum herrscht. Dies ist nicht unmittelbar

15 Arbeitsmarktökonomik

275

einsichtig und muss daher kurz erläutert werden. Hierzu sei die Gewinngleichung (2.4) in leicht veränderter Form geschrieben:

G = p ⋅ ρ(n ,1) ⋅ N − w ⋅ N − PK ⋅ n ⋅ N . (2.6) Mit der Produktionsfunktion ρ(n,1) wird die Produktion ρ: =x/N pro Kopf der Beschäftigten in Abhängigkeit von der Kapitalintensität n: =K/N beschrieben. Das Ergebnis wird dann mit der Zahl N der Beschäftigten multipliziert, so dass sich schließlich wieder die gesamte Produktion x = p · N ergibt. Die Produktionsfunktion pro Kopf ρ(n,1) lässt sich finden, indem man alle Ausgangsvariablen aus x(K, N) durch N teilt. Dieses Vorgehen ist immer dann zulässig, wenn es sich bei x(K, N) um eine linear-homogene Produktionsfunktion handelt. Für den Kapitaleinsatz in (2.6) wurde schließlich der Ausdruck n ·N = K eingesetzt. Durch Ableiten nach n und Gleichsetzen mit null ergibt sich die gewinnmaximierende Kapitalintensität wie folgt: ∂ρ PK . = ∂n p

(2.7)

Die Gleichung besagt, dass die Grenzproduktivität des Kapitals in Pro-Kopf-Einheiten ∂p/∂n gleich dem realen Kapitalkostensatz PK/p sein muss. Wenn die Pro-Kopf-Grenzproduktivität des Kapitals eine stetig fallende Funktion der Kapitalintensität n ist, gibt es genau eine Kapitalintensität nopt, die die Gewinnmaximierungsbedingung (2.7) erfüllt. Daher werden die Unternehmen bei gegebenen realen Faktorpreisen PK/p und w/p die Einsatzmengen von Kapital und Arbeit langfristig stets so kombinieren, dass genau diese Kapitalintensität nopt erreicht wird. Im Ausgangsgleichgewicht E ist diese Bedingung erfüllt. Wenn nun allerdings ein Reallohnanstieg auf (w/p)1 erzwungen wird, sinkt in der kurzen Frist die Beschäftigungsmenge entlang der kurzfristigen Arbeitsnachfragekurve N dk 1 auf N2 ab, und es entsteht Arbeitslosigkeit. Das gesunkene Beschäftigungsniveau führt bei zunächst noch konstantem Kapitaleinsatz zu einem Anstieg der Kapitalintensität über nopt hinaus auf nt, so dass die Gewinnmaximierungsbedingung (2.7) verletzt wird. Zugleich verschiebt sich wegen des auf N2 gesunkenen Beschäftigungsniveaus die Grenzproduktivitätskurve des Kapitals nach innen auf(∂x/∂K)2. Dadurch sinkt die Grenzproduktivität des Kapitals unter den realen Kapitalkostensatz PKw/p. Das Unternehmen kann nun einen Anstieg der Grenzproduktivität des Kapitals zurück auf PKw/p nur erwirken, indem es den Kapitalstock von K1 auf K2 abbaut. Dadurch wird im Gleichgewicht E2 zugleich wieder die gewinnmaximierende Kapitalintensität nopt erreicht. Allerdings führt der Kapitalabbau seinerseits wiederum zu einer Verschiebung der Nachfragekurve nach Arbeit auf N dk2, weil die kurzfristige Arbeitsnachfragekurve N dk1 nur in Verbindung mit dem ursprünglichen Kapitaleinsatz K1 gilt. Sofern die Tarifparteien keine Zugeständnisse beim Reallohn machen, sinkt die Beschäftigung abermals entlang der neuen kurzfristigen Arbeitsnachfragekurve N dk2, so dass es zu einer Abwärtsspirale von Beschäftigung und Kapitalstock kommt. Nur wenn – entweder aufgrund tarifpolitischer Einsicht oder auch im Wege einer Inflation – eine Reallohnsenkung auf das ursprüngliche Niveau (w/p)E erfolgt, wird sich im Punkt E2 ein

276

Thomas Apolte

w/p

AL

( w / p)1

Ns

ET

( w / p) E

E

E2

N dl N dk 2

K  ∂x     ∂x    ∂K  2   ∂K 1

N2

K

N1

N dk1 N

nt nopt

K1

ET

ET

E E2

K2 P  p

t K

  

P   p

w K

  

E E2

PK / p

α N2

N1

N

Abb. 15.6  Kurzfristige und langfristige Arbeitsnachfrage

neues langfristiges Gleichgewicht einspielen. Technisch gesehen nehmen die Arbeitsanbieter in der langen Frist zum gleichgewichtigen Reallohn (w/p)E jede Menge Arbeit ab. Sofern von einem beliebigen Punkt aus die angebotene Arbeitsmenge steigt, wird ein größerer Kapitalstock aufgebaut, so dass in der längeren Frist das zusätzliche Arbeitsangebot zum Lohnsatz (w/p)E aufgenommen werden kann. Sofern das Arbeitsangebot sinkt, passt sich der Kapitalstock entsprechend nach unten an. Für alle linear-homogenen Produktionsfunktionen verläuft die langfristige Arbeitsnachfragekurve N d1 vollständig lohnelastisch und damit horizontal (formaler Nachweis bei Landmann/Jerger, 1999, S. 208f.). Die langfristige Arbeitsnachfragekurve enthält zwei bedeutsame Implikationen. Die erste ist, dass Lohndruck Arbeitslosigkeit erzeugen kann, ohne dass es tatsächlich zu Reallohnsteigerungen kommt. So ist die Beschäftigungsmenge im Gleichgewicht E2 (Abb. 15.6) im Vergleich zum ursprünglichen Gleichgewicht um N1-N2 gesunken. Doch ist es trotz des

15 Arbeitsmarktökonomik

277

für den Beschäftigungsabbau ursächlichen Lohndrucks letztendlich nicht gelungen, den Reallohn derjenigen Arbeitnehmer zu erhöhen, die trotz des Beschäftigungsabbaus noch beschäftigt sind. Der Grund dafür ist die Kapitalvernichtung, die durch einen solchen Lohndruck ausgelöst wird. Eine solche Kapitalvernichtung muss übrigens als die tragische Fehlentwicklung im Prozess der Transformation des Wirtschaftssystems der ehemaligen DDR bezeichnet werden (Smolny, 2003; Apolte/Kirschbaum, 2004). Denn der ab Mitte 1990 einsetzende und bis in die zweite Hälfte der 1990er Jahre anhaltende drastische Anpassungswettlauf der ostdeutschen Löhne an das westdeutsche Niveau hat eine Arbeitslosigkeit verursacht, die nicht – wie das viele Beobachter gehofft hatten – durch einen Kapitalaufbau nach und nach wieder abgebaut werden konnte. Vielmehr hat die Lohnspirale dort einen dramatischen Desinvestitionsprozess in der Industrie ausgelöst. Die zweite Implikation der Theorie der langfristigen Arbeitsnachfrage ist, dass die Arbeitgeberseite der Tarifpartner mit zunehmender Kapitalmobilität ihre Konfliktbereitschaft gegenüber steigenden Lohnforderungen verlieren (Apolte, 1999, S. 32). Hierzu stelle man sich den folgenden Extremfall einmal vor: Einerseits sei das Kapital selbst kurzfristig vollständig mobil und andererseits verursachten Tarifkonflikte Kosten, etwa in Form streikbedingter Produktionsausfälle. In einem solchen Falle können die Unternehmen jederzeit abwandern, wenn steigende Löhne die Grenzproduktivität des Kapitals unter den weltweiten Kapitalkostensatz PKw drücken. Weil Tarifkonflikte Kosten verursachen, haben die Unternehmen umgekehrt keinerlei Anreiz, Widerstand gegen hohe Lohnforderungen zu leisten. Im Wissen um die drohende Abwanderung von Unternehmen mögen Gewerkschaften schon im Vorfeld auf hohe Lohnforderungen verzichten, so dass sie auch ohne eine kostspielige Tarifauseinandersetzung zu Lohnzurückhaltung veranlasst werden. Sollten sie aber dennoch hohe Löhne fordern, werden die Unternehmen diesen Forderungen keinen Widerstand entgegensetzen und stattdessen abwandern. Die reale Welt ist von einer vollständigen und vor allem kostenfreien Mobilität des Kapitals sicherlich (noch) weit entfernt. Gleichwohl ist die Konfliktbereitschaft der Unternehmen in Tarifverhandlungen bei zunehmender Kapitalmobilität bereits gesunken. Die Kosten überhöhter Lohnforderungen werden zunehmend in Form von Arbeitslosigkeit auf die Arbeitnehmer übertragen. Wenngleich bereits mit der einfach strukturierten neoklassischen Arbeitsmarkttheorie real beobachtbare Phänomene erklärt werden können, stößt man mit ihr schnell an Grenzen. Aus diesen Gründen wurde die Arbeitsmarkttheorie in den vergangenen Jahrzehnten in vielfältige Richtungen weiterentwickelt.

15.3

Strukturelle und friktionelle Arbeitslosigkeit

Arbeitsanbieter und Arbeitsnachfrager finden nicht automatisch zueinander. Die Suche nach geeigneten Arbeitsplätzen verursacht Kosten und erfordert Zeit. Die Höhe der Kosten und die Höhe der Erträge, die sich bei einem Erfolg der Suche eines Arbeitsplatzes für den Arbeitssuchenden ergeben, entscheiden über die Intensität und die Dauer, mit der die Arbeitssuche betrieben wird. Sofern die Suche zunächst erfolglos bleibt, entsteht so genannte friktionelle Arbeitslosigkeit oder Sucharbeitslosigkeit.

278

Thomas Apolte

Zu struktureller Arbeitslosigkeit kommt es dagegen, wenn erstens ein Teil der Arbeitsanbieter über eine am Markt nicht nachgefragte Qualifikationsstruktur verfügt und wenn zweitens die Lohnspreizung zwischen qualifizierter Arbeit einerseits und nicht oder fehlqualifizierter Arbeit andererseits unzureichend ist (Fröhling, 2003; Bauer, 2013). Eine Fehlqualifikation allein reicht hierzu allerdings nicht aus. Denn wenn die Lohnspreizung hinreichend groß werden kann, so würde der Lohn der fehlqualifizierten Arbeitsanbieter so weit fallen, bis sich ein Arbeitgeber findet, der sie beschäftigt.

15.3.1 Matching-Probleme Vor dem Hintergrund von struktureller und friktioneller Arbeitslosigkeit ergibt sich die Problematik des Matching am Arbeitsmarkt. Ein perfektes Matching liegt vor, wenn erstens die Qualifikationsstruktur der Arbeitsanbieter der nachgefragten Qualifikationsstruktur entspricht und wenn zweitens jeder Arbeitsanbieter den zu ihm passenden Arbeitsnachfrager findet. In einem solchen Falle ist jede noch verbleibende Arbeitslosigkeit auf einen Angebotsüberhang am Arbeitsmarkt zurückzuführen, so dass AL=Ns-Nd gilt. Wenn eine Arbeitslosigkeit hingegen nicht durch einen Angebotsüberhang Ns>Nd am Arbeitsmarkt verursacht ist, muss jedem Arbeitslosen eine offene Stelle gegenüberstehen, so dass AL=V gilt. Dabei ist V die Anzahl der offenen Stellen. In der Regel wird es allerdings kein perfektes Matching geben, so dass die zu beobachtete Arbeitslosigkeit sich aus einem Angebotsüberhang einerseits und einem Mismatch-Anteil andererseits zusammensetzt. Dann gilt: AL = (Ns – Nd) + V.

(3.1)

Demnach ist die Gesamtzahl der Arbeitslosen AL stets so groß wie der Angebotsüberhang plus der Zahl der offenen Stellen V, wobei die Zahl der offenen Stellen die MismatchArbeitslosigkeit anzeigt. Dividiert man (3.1) durch die Zahl der Arbeitsanbieter, so folgt daraus:

u = (1 −

Nd ) + v mit Ns

v :=

V . (3.2) Ns

Dabei bezeichnet v in Analogie zur Arbeitslosenquote die so genannte Vakanzquote, also das Verhältnis der Zahl der offenen Stellen zur Zahl der Arbeitsanbieter. Wenn v=0 ist, erklärt sich die Arbeitslosigkeit als ein reiner Angebotsüberhang. Sofern es umgekehrt keinerlei Angebotsüberhang am Arbeitsmarkt gibt, wird der Klammerausdruck in (3.2) zu null, und die Vakanzquote entspricht exakt der Arbeitslosenquote. Die bestehende Arbeitslosigkeit ist dann eine reine Mismatch-Arbeitslosigkeit. Dieser Fall wird durch Linie u(v)1 in Abb. 15.7 repräsentiert. Weil bei reiner Mismatch-Arbeitslosigkeit kein Angebotsüberhang am Arbeitsmarkt herrscht und insofern Nd=Ns gilt, verläuft u(v)1 als 45°-Linie durch den Ursprung. In diesem Falle ist jede Erhöhung der Arbeitslosenquote u mit einem gleich großen Zuwachs der Vakanzquote v verbunden.

15 Arbeitsmarktökonomik

279

u

u(v)2 D

u2

u(v)1

C

A

u1

45° v2 v1

B2 B1 v

Abb. 15.7  Die Beveridge-Kurve

Wenn hingegen ein Anstieg der Arbeitslosigkeit durch einen Angebotsüberhang verursacht wird, dann ist dieser Anstieg nicht mit einem Zuwachs der Vakanzquote verbunden. Mehr noch: Sofern der Angebotsüberhang – etwa aus konjunkturellen Gründen – auf einen Rückgang der Arbeitsnachfrage zurückzuführen ist, wird die Zunahme der Arbeitslosenquote mit einem Rückgang der Vakanzquote verbunden sein. Solche Austauschbeziehungen zwischen der Arbeitslosenquote u und der Vakanzquote v werden durch so genannte Beveridge-Kurven dargestellt, wie sie in Abb. 15.7 als B1 und B2 dargestellt sind. Die Zunahme eines Angebotsüberhangs am Arbeitsmarkt lässt sich dort etwa entlang der Kurve B1 von Punkt A zu Punkt C erkennen. Während die Arbeitslosigkeit im Punkt A reinen Mismatch-Charakter hat, weil dort u1=v1 gilt, ist die Zunahme der Arbeitslosigkeit von u1 auf u2 mit einem Rückgang der Vakanzquote von v1 auf v2 verbunden. Wenn von Punkt C aus nun die Mismatch-Arbeitslosigkeit ansteigt, so gelangt man grafisch entlang der Linie u(v)2 auf eine weiter außenliegende Beveridge-Kurve, beispielsweise zum Punkt D auf B2. Demnach gilt: Je weiter außen die relevante Beveridge-Kurve liegt, desto höher ist der Anteil der Mismatch-Arbeitslosigkeit.

15.3.2 Natürliche Arbeitslosenquote Die auch in konjunkturell ausgeglichenen Zeiten noch bestehende Arbeitslosigkeit wurde von Milton Friedman (1968) als „natürliche Arbeitslosigkeit“ bezeichnet. Er bezog sich dabei auf den von dem schwedischen Ökonomen Knut Wicksell (1898) so genannten „natürlichen Zins“, welcher sich nach dessen Theorie in konjunkturell ausgeglichenen Zeiten einstellen wird. Friedman fasste in der natürlichen Arbeitslosigkeit die strukturelle

280

Thomas Apolte

und die friktionelle Komponente der Arbeitslosigkeit zusammen. Hintergrund seiner Überlegungen war die Diskussion um die so genannte Phillips-Kurve in den 1960er Jahren (Abschnitt 6.2.1). Im Rahmen der ursprünglichen Interpretation der Phillips-Kurve wurde ein negativer Zusammenhang zwischen der Inflationsrate gP einerseits und der Arbeitslosenquote u andererseits gesehen, wie er in Abb. 15.8 als PKk wiedergegeben ist. Als empirische Basis für diese Behauptung diente ein ursprünglich von Alban W. Phillips (1958) beobachteter Zusammenhang zwischen dem Nominallohnwachstum einerseits und der Arbeitslosenquote andererseits über einen Zeitraum zwischen 1862 und 1958 in Großbritannien. Dabei wurde das Nominallohnwachstum in einem Aufsatz von Paul A. Samuelson und Robert M. Solow (1960) in Preisinflation übersetzt, indem diese eine Überwälzung der Lohnzuwächse auf die Absatzpreise annahmen. Als theoretische Begründung für einen solchen Zusammenhang wurde zunächst angenommen, dass eine über das gleichgewichtige Niveau hinausgehende gesamtwirtschaftliche Nachfrage einerseits zu Inflation führe, andererseits aber auch den Arbeitsmarkt entlaste. Umgekehrt führe ein Zurückbleiben der gesamtwirtschaftlichen Nachfrage hinter dem gleichgewichtigen Niveau einerseits zu Deflation und andererseits zu einer Belastung des Arbeitsmarktes, ausgedrückt in höheren Arbeitslosenquoten (Carlin/Soskice, 1990, S. 69ff.). Nach der heute vorherrschenden Auffassung kann die Phillips-Kurve zumindest längerfristig nicht stabil sein. Der Grund ist, dass ein negativer Zusammenhang zwischen Arbeitslosenquote und Inflationsrate preistheoretisch nur möglich ist, wenn die Erwartungen der Wirtschaftsakteure über künftige Inflationsraten statisch sind, so dass steigende Inflationsraten nicht zu steigenden Nominallohnzuwächsen als Ausgleich für den mit der Inflation verbundenen Reallohnverlust führen. Denn nur dann sinkt nämlich bei einem Anstieg der Inflationsrate der Reallohn, und entsprechend steigt auch nur dann die Beschäftigung entlang der Nachfragekurve nach Arbeit. Sofern die Arbeitnehmer

gP

PKk PKk‘

PKl

u Abb. 15.8  Die Phillips-Kurve

u'

u

15 Arbeitsmarktökonomik

281

aber steigende Inflationsraten erkennen und in Nominallohnforderungen umsetzen – was zumindest für die längere Frist realistisch ist –, wird der Phillips-Kurven-Zusammenhang durchbrochen. Die Phillips-Kurve wird daher zumindest in der längeren Frist zu einer senkrechten Geraden (siehe PKl in Abb. 15.8). Die sich dabei immer wieder einstellende Arbeitslosenquote ist die von Friedman so genannte natürliche Arbeitslosenquoteu, von deren Wert sich die aktuelle Arbeitslosenquote nur im Rahmen von inflationären oder deflationären Prozessen kurzfristig wegbewegen kann. Dies bedeutet allerdings nicht, dass die natürliche Arbeitslosenquote invariabel ist. Sie ist nur unabhängig von der Inflationsrate und ihrer Veränderung. Hingegen kann sie aufgrund von Veränderungen der Vermittlungseffizienz des Arbeitsmarktes unterschiedliche Größenordnungen annehmen. Hier setzte zu Beginn der 1970er Jahre das Interesse der Ökonomen in den westlichen Industrieländern an (Hall, 1970). Dieses Interesse verstärkte sich, nachdem die erste Ölkrise der Jahre 1974–1975 überwunden war. Denn obwohl im Anschluss daran wieder beträchtliche Wachstumsraten des Bruttoinlandsprodukts zu verzeichnen waren, sank die Arbeitslosenquote fast überall nicht wieder auf das Vorkrisenniveau zurück, sondern verblieb auf einem vergleichsweise hohen Niveau. Offensichtlich hatte sich die kurzfristige Phillips-Kurve nach rechts verschoben (siehe PKk’ in Abb. 15.8). Die strukturelle und friktionelle Arbeitslosigkeit war angestiegen (u).

15.3.3 Suchtheorie des Arbeitsmarktes: Friktionelle Arbeitslosigkeit Die friktionelle Arbeitslosigkeit resultiert aus der Tatsache, dass Informationen über existierende Arbeitsanbieter und Arbeitsnachfrager nicht kostenlos und nicht ohne Aufwendungen von Zeit zu haben sind. Ein Arbeitnehmer mag sich daher trotz eines bestehenden Arbeitsplatzangebotes dazu entschließen, das Angebot noch nicht anzunehmen und abzuwarten, weil er mit einem günstigeren Angebot rechnet, welches er aber nur innerhalb einer Zeitspanne finden kann und auch das nur mit einer bestimmten Wahrscheinlichkeit (McCall, 1970; Mortensen, 1970; Phelps, 1970). Das zugrundeliegende Kalkül ist keineswegs trivial, vor allem, wenn die Überlegungen in einem allgemeingültigen Rahmen gehalten werden sollen (Morgan/Manning, 1985). Um den formalen Aufwand zu begrenzen, wird hier ein stark vereinfachter Ansatz gewählt, der gleichwohl die wichtigsten Erkenntnisse der Suchtheorie des Arbeitsmarktes einfängt (siehe ausführlicher: Franz, 2013, S. 214ff.). Hierzu sei zunächst angenommen, dass der Arbeitnehmer entweder zur fixen Arbeitszeit AZ=1 arbeitet oder arbeitslos ist. Sofern er arbeitslos ist, erhält der Arbeitnehmer eine Periode lang staatliche Transferleistungen in Höhe von TR als Lohnersatzleistung. Der Arbeitnehmer ist bereit, sofort ein Arbeitsplatzangebot anzunehmen, wenn der gebotene Lohn mindestens dem Lohnsatz wR entspricht. Dieser Lohnsatz wird in der Arbeitsmarktliteratur Anspruchslohn genannt (Christensen, 2001; 2003). Der Anspruchslohn ist allerdings keine fixe Größe, sondern er hängt von verschiedenen Faktoren ab. Dabei handelt es sich einerseits um die allgemeinen Verhältnisse am Arbeitsmarkt, in Verbindung mit der

282

Thomas Apolte

persönlichen Qualifikation. Dieser Faktor bestimmt die Chancen des individuellen Arbeitnehmers, bestimmte Arbeitsplatzangebote überhaupt zu erhalten. Andererseits hängt die Höhe des Anspruchslohns aber auch von der Höhe staatlicher Lohnersatzleistungen TR im Falle von Arbeitslosigkeit ab. Schließlich wird ein Arbeitnehmer zusätzliche Suchkosten SK auf sich nehmen müssen, sofern er ein Angebot ablehnt, um nach einem attraktiveren Angebot Ausschau zu halten. Je höher diese Kosten sind, desto eher wird der Arbeitnehmer geneigt sein, ein vorliegendes Angebot anzunehmen. Damit sinkt ceteris paribus der Anspruchslohn. Angenommen, ein Arbeitnehmer könne sich mit einer Wahrscheinlichkeit Prob ein Angebot zu einem Lohnsatz wH>wR erhoffen, wenn er das in t=0 bestehende Angebot nicht annimmt, sondern bis t=1 weitersucht. Der Einfachheit halber sei angenommen, dass nach t=1 keine weiteren Angebote zu erwarten sind. Die Höhe des Anspruchslohns wR gibt unter diesen Bedingungen an, wie hoch der Lohnsatz des bestehenden Angebots mindestens sein muss, damit der Arbeitnehmer trotz der möglichen Aussicht auf ein höheres Lohngebot das bestehende Angebot sofort annimmt. Um die Höhe des Anspruchslohns zu berechnen, muss daher der Barwert aller künftigen Arbeitseinkommen aus dem bestehenden Angebot mit dem Barwert aller Einkommen verglichen werden, die anfallen würden, wenn der Arbeitnehmer noch eine weitere Periode nach einem attraktiveren Arbeitsplatz suchte. Der Barwert der jeweiligen Einkommen ist definiert als der auf die Gegenwart diskontierte Wert aller künftigen Einkommensströme. Der Barwert jener künftigen Einkommen, die fließen, wenn der Arbeitnehmer in t=0 ein Angebot zum Anspruchslohn wR akzeptiert, lautet:

wR 1+ r = ⋅ w R , t r t = 0 (1 + r ) ∞

YR = ∑

(3.3)

wenn, wie angenommen, die Arbeitszeit AZ=1 ist. Der Barwert aller zukünftigen Einkommen, die sich ergeben, wenn der Arbeitnehmer seine Arbeitsplatzsuche noch eine weitere Periode fortsetzt, muss als Erwartungswert E(YH) formuliert werden, weil der Arbeitnehmer das Angebot mit einem höheren Lohn wH nur mit der Wahrscheinlichkeit Prob erhalten wird. Wie angenommen, erhält der Arbeitnehmer nach t=1 keine staatlichen Unterstützungsleistungen mehr. Da er in t=1 ein Angebot zum Lohnsatz wH mit der Wahrscheinlichkeit Prob erhält, fällt er mit der Gegenwahrscheinlichkeit 1-Prob auf das ursprüngliche Angebot zum Lohnsatz wR zurück, welches er annehmen muss, wenn er nicht völlig einkommenslos bleiben will. Der Erwartungswert E(YH) lautet daher: ∞ wH wR +(1−Prob)⋅ ∑ + TR −SK t t t=1 (1+r) t=1 (1+r) ∞

E(Y H ) = Prob⋅ ∑ = Prob⋅

wH wR +(1−Prob)⋅ + TR −SK. (3.4) r r

Hierbei ist berücksichtigt, dass der Arbeitnehmer wegen seiner Arbeitslosigkeit in Periode t=0 einerseits Transferzahlungen TR erhält und dass er andererseits Suchkosten

15 Arbeitsmarktökonomik

283

SK aufwenden muss. Damit die sofortige Annahme des Jobangebotes zu wR mindestens so attraktiv ist wie das weitere Suchen, muss YR mindestens so hoch sein wie E(YH). Daher lässt sich der Anspruchslohn ermitteln, indem YR=E(YH) gesetzt und nach wR umgestellt wird. Daraus ergibt sich:

wR =

Prob⋅ w H +r ⋅(TR −SK) . (3.5) r +Prob

Hieraus lassen sich die Variablen ersehen, die einen Einfluss auf das Niveau des Anspruchslohns ausüben. Je höher der in t+1 zu erwartende Lohnsatz wH ist, je höher die Transferleistungen TR im Falle von Arbeitslosigkeit und je niedriger die Suchkosten SK sind, desto größer wird der Anspruchslohn ausfallen. Aber auch die Gegenwartspräferenz, ausgedrückt durch den Diskontsatz r, sowie die Wahrscheinlichkeit Prob eines attraktiveren Angebotes in t+1 beeinflussen die Höhe des Anspruchslohns, wie sich durch Ableiten von (3.5) nach den jeweiligen Variablen zeigen lässt. Alle Faktoren, die den Anspruchslohn erhöhen, führen zu einer längeren optimalen Suchdauer nach Arbeitsplätzen und damit zu einer höheren Sucharbeitslosigkeit. Die bisher vorgestellte Kalkulation betrifft die Suchanstrengungen der Arbeitnehmer. Aber auch von Seiten der Arbeitsnachfrager kann Sucharbeitslosigkeit ausgelöst werden. Dies gilt vor allem dann, wenn es Kosten verursacht, Informationen über die individuelle Qualifikation der Bewerber zu gewinnen, und wenn es kostspielig ist, Arbeitskräfte wieder zu entlassen. Jeder Arbeitnehmer hat einen Anreiz, einem potenziellen Arbeitgeber eine besonders hohe Qualifikation seiner Person zu signalisieren, um damit seine Einstellungschancen und seinen Einstiegslohn zu verbessern. Weil aber jeder Arbeitnehmer so verfahren wird, sind solche Qualitätssignale zunächst einmal grundsätzlich wertlos für einen Arbeitgeber. Daher ist der Arbeitgeber auf solche Qualitätssignale angewiesen, die eine strukturelle Glaubwürdigkeit besitzen (Spence, 1973). Am Arbeitsmarkt ist es einem Bewerber aber nicht immer möglich, strukturell glaubwürdige Qualitätssignale auszusenden. In einem solchen Falle müsste ein Arbeitgeber wahllos einen Bewerber aussuchen und mit der durchschnittlichen Produktivität als Erwartungswert für diesen Bewerber kalkulieren. Ist es ihm aber möglich, durch Aufwendungen von Kosten und Zeit zusätzliche Informationen über die Bewerber zu sammeln, so kann das für den Arbeitgeber mit einer Erhöhung des Barwerts künftiger Erträge aus einem Arbeitsverhältnis verbunden sein. Die Intensität und der Zeitaufwand der Informationsbeschaffung wird dabei unter anderem von der Höhe der Entlassungskosten abhängen, weil der Erwartungswert der künftigen Erträge aus einem Arbeitsverhältnis um so kleiner ist, je höher die Kosten einer verfehlten Auswahl eines Arbeitnehmers sind. Auch für die Seite der Arbeitsnachfrager lassen sich demnach Faktoren isolieren, die tendenziell zu einer Erhöhung der Sucharbeitslosigkeit führen.

284

Thomas Apolte

15.3.4 Strukturelle Arbeitslosigkeit und Humankapitalbildung Im Zuge des Strukturwandels kommt es fortlaufend zu Veränderungen in Höhe der Nachfrage nach bestimmten Qualifikationen am Arbeitsmarkt. Manche Qualifikationen werden vermehrt nachgefragt, andere dagegen weniger. Sofern der Staat nicht mit Hilfe von Erhaltungssubventionen eingreift, werden bestimmte Arbeitnehmergruppen in ihrem bisherigen Beruf keine Beschäftigung mehr ausüben können (Jones, 2000; Bauer, 2013). Sie stehen dann vor der Wahl, entweder eine andere Qualifikation zu erwerben, den Lohn und damit das Einkommen eines nicht-qualifizierten Arbeitnehmers zu akzeptieren oder Arbeitslosigkeit zu riskieren. Die Entscheidung eines Arbeitnehmers hängt von einer Reihe von Faktoren ab, die sich mit Hilfe der so genannten Humankapitaltheorie ermitteln lassen. Aufwendungen in die eigene Qualifikation sind in hohem Maße analog zu Investitionen in Sachkapital zu sehen. Deshalb sprechen Ökonomen von Investitionen in Humankapital. Investitionen in Humankapital sind mit unwiederbringlichen Fixkosten (sunk costs) verbunden. Denn eine erworbene Qualifikation kann man zwar am Markt verwerten, indem man damit Arbeitseinkommen erzielt, die oberhalb des Einkommens aus einer nicht-qualifizierten Arbeit liegen. Aber eine persönliche Qualifikation ist als Ganzes nicht fungibel, man kann sie nicht verkaufen, wenn sich die Nachfragestruktur am Arbeitsmarkt verändert haben sollte. Aus diesen Gründen ist eine individuelle Anpassung des Arbeitsangebotes an veränderte Nachfragebedingungen notwendigerweise mit der Abschreibung früher erworbenen Humankapitals verbunden und erfordert darüber hinaus neuerliche Investitionen in das eigene Humankapital. Die Situation eines vom Strukturwandel betroffenen Arbeitsmarktes ist in Abb. 15.9 aufgezeigt. Dabei sei das gesamtwirtschaftliche Güterpreisniveau auf eins normiert, so dass sich Reallohn und Nominallohn entsprechen. Vor dem Strukturwandel können qualifizierte

w Ns wH wR

AL

N1d

wL N d2 N Abb. 15.9  Strukturwandel und Arbeitslosigkeit

15 Arbeitsmarktökonomik

285

Arbeitnehmer bei Vollbeschäftigung einen Lohn in Höhe von wH erzielen. Durch den Strukturwandel verschiebt sich nun die Nachfragekurve von N d 1 nach N d 2 . Der gleichgewichtige Lohnsatz fällt auf das Niveau wL eines nicht-qualifizierten Arbeitnehmers. Sofern der im letzten Abschnitt ermittelte Anspruchslohn wR oberhalb des neuen gleichgewichtigen Lohnes liegt, entsteht strukturelle Arbeitslosigkeit in Höhe von AL. Da die Höhe des Anspruchslohnes unter anderem von der Höhe der staatlichen Transferleistungen abhängt, kommt es nun sehr darauf an, wie diese Transferleistungen ausgestaltet sind. Strukturwandel in einer Volkswirtschaft bedeutet aber nicht nur, dass die Nachfrage nach bestimmten Qualifikationen abnimmt, sondern dass zugleich die Nachfrage nach anderen Qualifikationen zunimmt. Ein Arbeitnehmer, der durch den Strukturwandel arbeitslos geworden ist, könnte demnach Zeit und Geld in eine neue Ausbildung investieren, um später wieder einen ähnlich gut bezahlten qualifizierten Arbeitsplatz zu erhalten. So lange es überhaupt noch Arbeitsplätze im Rahmen seiner bisherigen Qualifikation gibt, existiert eine positive Wahrscheinlichkeit Prob, dass der Arbeitnehmer künftig noch einmal ein Angebot zum Lohnsatz wR in seinem alten Beruf erhält. Für den Fall, dass der Arbeitnehmer sich auf eine solche Möglichkeit verlässt, kann der zu erwartende Barwert seines künftigen Einkommens bis zum Zeitpunkt n seines Renteneintritts folgendermaßen ermittelt werden: n n wR TR E(Y R )= Prob⋅ ∑ +(1−Prob)⋅ ∑ . (3.6) t t (1+r) (1+r) t=0 t=0 Alternativ dazu lautet der Barwert seines Einkommens bis zum Renteneintritt, wenn er bis zum Zeitpunkt m-1 in eine neue Ausbildung investiert und damit ab dem Zeitpunkt m wieder den höheren Lohn wH für qualifizierte Arbeitnehmer erzielt: m−1

YH = ∑ t=0

n TR −KQ wH + . ∑ t (3.7) (1+r)t t=m (1+r)

Dabei sind die Kosten der Ausbildung, die pro Periode bis zum Zeitpunkt m-1 anfallen, mit KQ bezeichnet. Außerdem ist angenommen, dass der Arbeitnehmer während der Zeit seiner Ausbildung staatliche Transfers in Höhe von TR erhält. Von unterschiedlichen Alterseinkünften ab dem Zeitpunkt n wird hier abstrahiert. Sofern YH>E(YR) ist, wird sich der Arbeitnehmer dazu entschließen, zunächst eine Umqualifizierung zu durchlaufen. Im anderen Falle wird er auf eine Umqualifizierung verzichten und auf einen Arbeitsplatz in seinem alten Beruf hoffen. Ein möglicher Verlauf der Einkommensströme von YH und E(YR) ist in Abb. 15.10 wiedergegeben. Der Einkommensstrom von E(YR) startet mit dem Wert Prob · wR + (1 – Prob) · TR für die Periode t=0 und steigt von dort aus degressiv bis zum Endwert E(YR) in t=n an. Der Einkommensstrom YH hingegen startet in der Periode t=0 mit dem Wert TR-KQ. Dieser Wert liegt je nach der Höhe der Ausbildungskosten KQ und der Wahrscheinlichkeit Prob unter oder über dem Startwert von E(YR). Bis zum Zeitpunkt t=m-1 wächst YH mit der gleichen Rate. Ab dem Zeitpunkt m steigt YH entsprechend steiler bis zum Endwert.

286

Thomas Apolte

Y YH E(YR)

Pr ob ⋅ w R + (1 − Pr ob) ⋅ TR TR − KQ 0

m

n

t

Abb. 15.10  Umqualifizierung und langfristiges Einkommen

Die Höhe der Endwerte entscheidet über die für den Arbeitnehmer zu bevorzugende Option. Welcher der Endwerte höher liegt, hängt von verschiedenen Faktoren ab. So verschieben steigende Ausbildungskosten den Verlauf von YH nach unten, so dass die Umqualifizierung weniger attraktiv erscheint. Die Zeitpunkte t=m und t=n sind ebenfalls entscheidend für die relative Attraktivität der beiden Optionen. Verschiebt sich aufgrund einer zunehmenden Ausbildungsdauer t=m nach rechts, so wird die Umqualifizierung weniger attraktiv. Verschiebt sich umgekehrt aufgrund einer verlängerten Lebensarbeitszeit t=n nach rechts, so wird die Umqualifizierung attraktiver. Daher gilt: Je länger und teurer eine Umqualifizierung ist und je kleiner die zeitliche Perspektive bis zum Renteneintritt, desto weniger wahrscheinlich ist es, dass ein Arbeitnehmer die Kosten und Mühen einer solchen Umqualifizierung auf sich nimmt. Vor diesem Hintergrund wird deutlich, dass die in vielen Ländern praktizierte Frühverrentung mit dem Ziel einer Entlastung des Arbeitsmarktes in Zeiten des Strukturwandels das genaue Gegenteil des damit Beabsichtigten bewirken kann. Denn unter bestimmten Bedingungen verringert eine solche Maßnahme die strukturelle Arbeitslosigkeit nicht, sondern erhöht sie sogar. Bei einem effektiven Renteneintrittsalter von teilweise unter 60 Jahren lohnen sich Aufwendungen in eine Umqualifizierung möglicherweise schon ab einem Alter von 50 Jahren nicht mehr. Daher können mit einer Herabsetzung des Renteneintrittsalters zwar Personen vor der statistisch ausgewiesenen Arbeitslosigkeit bewahrt werden. Faktisch sind sie es mit allen fiskalischen Konsequenzen aber doch, und der Preis dafür ist ein Teufelskreis der strukturellen Arbeitslosigkeit: Je weiter das Renteneintrittsalter der von struktureller Arbeitslosigkeit bedrohten Arbeitnehmer sinkt, desto früher lohnen sich Um- und Weiterqualifikationen nicht mehr und desto mehr Arbeitnehmer werden letztlich von struktureller Arbeitslosigkeit betroffen sein.

15 Arbeitsmarktökonomik

287

Neben den bisher genannten Variablen spielt auch die Lohndifferenz zwischen wL und w eine entscheidende Rolle. Die Höhe der staatlichen Transferleistungen wirkt allerdings in ambivalenter Weise auf die relative Attraktivität der beiden Optionen. Einerseits verschiebt sie den Verlauf von YH nach oben und lässt ihn bis zum Zeitpunkt t=m steiler verlaufen. Insofern erhöht ein Zuwachs von TR die Attraktivität einer Umqualifizierung. Auf der anderen Seite verschieben sie aber auch den Verlauf von E(YR) nach oben und lassen diese Linie bis t=n steiler verlaufen. Vom Standpunkt der Vermeidung struktureller Arbeitslosigkeit ist es insofern sinnvoll, Transfers im Falle einer Umqualifizierung relativ großzügig, im Falle struktureller Arbeitslosigkeit hingegen relativ knapp zu bemessen. Alternativ dazu kann der Staat sicherlich einen Teil der Ausbildungskosten KQ übernehmen. Solcherlei Überlegungen sagen freilich noch nichts über die gesamtwirtschaftliche Effizienz der betreffenden Transferpolitik aus. Dieses Kalkül gilt sinngemäß auch, wenn der Zeithorizont nicht bis zum Renteneintritt gilt. Aufgrund eines rascheren strukturellen Wandels kann die Abschreibungsrate des Humankapitals ansteigen, so dass bereits zu Beginn einer Ausbildung absehbar ist, dass die zu erwerbende Qualifikation nach einer gewissen Zeit in dieser Form von den Arbeitgebern nicht mehr nachgefragt werden wird. Die Entscheidung darüber, ob auch in einem solchen Falle Investitionen in die Modifizierung der Ausbildung oder gar in eine neue Ausbildung betätigt werden, unterliegt dann denselben Kriterien wie im Falle eines Horizonts, der bis zum Renteneintrittsalter reicht. H

15.4

Lohnfindung und Arbeitsmarktgleichgewicht

Eines der auffälligsten Merkmale von Arbeitsmärkten ist, dass sie vielfach über lange Zeit von sich aus nicht zur Markträumung zurückfinden. Zur Erklärung dieses Phänomens haben sich einige Theoriestränge herausgebildet, die in diesem Kapitel in ihren jeweiligen Grundzügen vorgestellt werden sollen.

15.4.1 Gewerkschaftstheorien und Lohnsetzungsfunktion In praktisch allen Industrieländern wird ein großer Bestandteil von Arbeitsverträgen nicht allein auf individueller Ebene zwischen einzelnen Arbeitgebern und Arbeitnehmern ausgehandelt. Vielmehr werden solche Vereinbarungen im Rahmen von Tarifverträgen zwischen einzelnen Arbeitgebern oder deren Verbänden auf der einen Seite und Gewerkschaften auf der anderen Seite verhandelt. Dies gilt nicht nur, aber insbesondere auch für die Höhe des Lohnsatzes. Die in dem Tarifvertrag festgelegten Vereinbarungen sind anschließend für jeden einzelnen Arbeitsvertrag im Geltungsbereich des betreffenden Tarifvertrags bindend. Die Unterschiede zwischen den Ländern in den jeweiligen institutionellen Strukturen der Arbeitsmärkte sind allerdings beträchtlich (Layard/Nickell/Jackman, 2005, S. 83ff.). So schwankt beispielsweise der Anteil der über kollektive Tarifverträge

288

Thomas Apolte

gebundenen Arbeitsverträge. Weiterhin finden sich erhebliche Unterschiede im Zentralisierungsgrad von Tarifverhandlungen. Während in manchen Ländern so genannte „Haustarifverträge“ dominieren, die nur für ein bestimmtes Unternehmen gelten, bestimmen in anderen Ländern Branchentarifverträge das Bild, die dann für alle Mitgliedsunternehmen eines regionalen Tarifverbandes und einer Branche verbindlich sind. Weil die Tarifverbände jeweils für eine bestimmte Region zuständig sind, spricht man in Deutschland auch von „Flächentarifverträgen.“ Unabhängig von diesen Unterschieden gibt es aber ein gemeinsames Merkmal kollektiver Tarifverträge. Sie schließen abweichende Absprachen zwischen individuellen Arbeitsanbietern und Arbeitsnachfragern aus. In der Regel werden dabei allerdings nur Mindestvereinbarungen tarifvertraglich festgelegt, über die die individuellen Vertragspartner am Arbeitsmarkt zwar hinausgehen dürfen, hinter denen sie aber nicht zurückbleiben dürfen, ohne den Tarifvertrag und damit in aller Regel auch geltendes Recht zu verletzen (sog. „Günstigkeitsklausel“, § 4 Abs. 3 Tarifvertragsgesetz). So kann in einem individuellen Arbeitsvertrag zwar ein höherer, keineswegs aber ein niedrigerer Lohn vereinbart werden als der, der tarifvertraglich festgelegt ist. Die ökonomische Wirkung ist, dass damit ein Lohnunterbietungsprozess stets am vereinbarten Tariflohn enden wird. Damit gibt es für einen Arbeitslosen keine Möglichkeit mehr, im Wege eines für den Arbeitgeber attraktiveren Lohngebotes um einen Arbeitsplatz zu werben. Einen Lohnunterbietungsprozess unterhalb bestimmter Mindestgrenzen zu unterbinden, ist sicherlich der ureigenste Sinn der kollektiven Lohnfindung, zumindest, wenn man es aus der Perspektive der Arbeitnehmerorganisationen betrachtet. Es wäre indes naiv zu glauben, dass solcherlei kollektivvertragliche Eingriffe in die Lohnfindung keine Nebenwirkungen in Form von Beschäftigungseinbußen hätten. Als Ausnahme von dieser Regel wird immer wieder der mögliche Fall eines Nachfragemonopols am Arbeitsmarkt angeführt, in dem eine kollektivvertraglich erwirkte Lohnerhöhung sogar zu einer Beschäftigungszunahme führen kann. Dies erklärt sich daraus, dass ein Nachfragemonopolist bewusst die nachgefragte Menge reduziert, um den Gleichgewichtspreis zu drücken. Daher sinken bei einem Nachfragemonopol am Arbeitsmarkt zugleich Beschäftigung und Reallohnsatz. Wird in einem solchen Falle der Reallohnsatz auf kollektivvertraglichem Wege auf das Niveau unter Polypolbedingungen angehoben, so wird die gleichgewichtige Beschäftigungsmenge auf ein gesamtwirtschaftliches Optimum ansteigen. Allerdings muss bezweifelt werden, dass heutige Arbeitsmärkte mit der Marktform des Nachfragemonopols zutreffend beschrieben werden können. Die Institutionen des Arbeitsmarktes mögen dies wegen der kollektiven Verhandlungen zwischen in der Regel je einem Arbeitgeberverband und einer Gewerkschaft zwar suggerieren. Doch stehen hinter den Verbänden zahlreiche Einzelunternehmen, die untereinander durchaus um Arbeitskräfte konkurrieren. Hinzu kommt, dass eine Lohnsteigerung über das polypolistische Gleichgewichtsniveau hinaus auch im Falle eines Nachfragemonopols Arbeitslosigkeit auslöst.

15 Arbeitsmarktökonomik

289

15.4.1.1 Monopolgewerkschaftstheorie Zunächst formuliert die Monopolgewerkschaftstheorie eine Zielfunktion, die die Gewerkschaften unter gegebenen Restriktionen maximiert. Im einfachsten Falle maximieren sie den Erwartungswert des Einkommens eines repräsentativen Arbeitnehmers. Dieser Erwartungswert setzt sich folgendermaßen zusammen: N w N s −N E(Y)= s ⋅ + ⋅TR. (4.1) N p Ns Dabei gibt N/Ns den Anteil der beschäftigen Arbeitnehmer an der Gesamtzahl der Arbeitsanbieter wieder. Dieses Verhältnis repräsentiert die Wahrscheinlichkeit, mit der ein zufällig ausgewählter Arbeitsanbieter eine Arbeitsstelle innehat. Entsprechend gibt (Ns-N)/Ns den Anteil der Arbeitslosen an der Gesamtzahl der Arbeitsanbieter und damit die Wahrscheinlichkeit wieder, arbeitslos zu sein. Zur Vereinfachung wird Ns als eine lohnunelastische Größe betrachtet. Wenn Gleichung (4.1) nach w/p aufgelöst und umgestellt wird, so ergibt sich für ein gegebenes erwartetes Einkommen E(Y):

w E(Y)−TR s = ⋅N + TR. p Ns

(4.2)

Gleichung (4.2) beschreibt Kombinationen von Reallohn w/p und Beschäftigungsniveau N, bei dem der Erwartungswert des Einkommens E(Y) konstant ist. Je niedriger der Reallohn ist, desto höher muss ceteris paribus das Beschäftigungsniveau sein, damit die Gleichung erfüllt bleibt. Die Gleichung (4.2) beschreibt insofern eine Indifferenzkurve zwischen Reallohn und Beschäftigungsniveau, die die übliche negative Steigung aufweist und konvex zum Ursprung verläuft (Abb. 15.11). Wichtig ist, dass sie bei steigendem N gegen die Höhe der Transfereinkommen TR konvergiert. Dies lässt sich unmittelbar aus (4.2) erkennen, weil der erste Term auf der rechten Seite bei steigendem N gegen null strebt.

w/p Nd

(w/p)M (w/p)v TR

E(Y) M

Ns

AL E

NM Nv Abb. 15.11  Lohnfindung im Monopolgewerkschaftsmodell

N

290

Thomas Apolte

Wie jeder Monopolist muss die Gewerkschaft bei der Maximierung von E(Y) die Nachfrage beachten, wiedergegeben durch die Arbeitsnachfragefunktion Nd. Diese Überlegung folgt der so genannten Right-to-manage-Annahme. Danach werden zunächst die Löhne gesetzt, und die Unternehmen haben sodann das Recht, entlang von Nd die zum gesetzten Lohn für sie optimale Beschäftigungsmenge zu bestimmen. Graphisch lässt sich das Maximum von E(Y) unter der Nebenbedingung der Arbeitsnachfragefunktion durch den Tangentialpunkt E der Indifferenzkurve E(Y) mit der Arbeitsnachfragekurve Nd bestimmten. Denn „nord-östlich“ von Nd kann kein Punkt realisiert werden, so dass die höchste erreichbare Indifferenzkurve E(Y)M ist, und zwar in der Kombination von (w/p)M mit NM. In einem Markt räumenden Gleichgewicht würde sich dagegen der Lohnsatz (w/p)v zur Beschäftigungsmenge Nv einstellen. Es kommt also durch den Lohnsatz (w/p)M, den die Gewerkschaften setzen, zu Arbeitslosigkeit in Höhe von AL. Die Lage des Tangentialpunktes E hängt unter anderem von jenen Größen ab, die die Lage und Steigung der Indifferenzkurve gemäß (4.2) bestimmen. Vor allem spielt auch die Höhe des Transfereinkommens TR eine Rolle, weil die Indifferenzkurven gegen TR konvergieren. Weiterhin führt eine Verschiebung der Arbeitsnachfragekurve zu einer Veränderung der Lage des Tangentialpunktes E. Hieraus lässt sich die so genannte Lohnsetzungskurve LS der Gewerkschaften graphisch herleiten (Abb. 15.12). Dies geschieht durch eine Verbindung der Tangentialpunkte der E(Y)-Kurven mit alternativen Nd-Kurven. Die Lohnsetzungskurve gibt an, zu welcher Beschäftigungsmenge die Gewerkschaften welchen Reallohnsatz w/p fordern. Da das Angebot annahmegemäß lohnunelastisch ist, kann vom Punkt Nv an nach links die Lohnsetzungskurve in Abhängigkeit von der Arbeitslosigkeit gelesen werden. Teilt man diese durch das Arbeitsangebot Ns, so ergibt sich eine Lohnsetzungskurve in Abhängigkeit von der Arbeitslosenquote u im rechten Teil der Grafik. Sie besagt schlicht, dass die Gewerkschaften bei abnehmender Arbeitslosenquote höhere Reallöhne fordern und umgekehrt.

w/p

w/p

Ns N d2 LS

N1d E1

N

E2

E(Y) 2 E(Y)1

ALNv

Abb. 15.12  Lohnsetzungskurve

N

LS

u

15 Arbeitsmarktökonomik

291

Die Monopolgewerkschaftstheorie wird vor allem deshalb kritisiert, weil sie ein zentrales Element der Realität außer Acht lässt: Gewerkschaften setzen Löhne nicht einfach, sie verhandeln darüber mit den Unternehmen oder Arbeitgeberverbänden. Aus diesem Grund wurden Modelle der Lohnverhandlungen entwickelt, die die Realität besser abbilden, gleichwohl aber analytisch auf dem Monopolgewerkschaftsmodell basieren.

15.4.1.2 Verhandlungstheorien Der Kern der ökonomischen Theorie der Lohnverhandlungen kann im Rahmen einer einfachen grafischen Darstellung aus der folgenden Gewinnfunktion eines repräsentativen Unternehmens abgeleitet werden, deren einziger Kostenfaktor die Lohnkosten sind: G = p ⋅ x ( N) − w ⋅ N .

(4.3)

Wegen einer polypolistischen Struktur am Gütermarkt ist der Absatzpreis p für das Unternehmen eine gegebene Größe. Stellt man diese Gleichung nach w/p um und setzt für den Gewinn eine gegebene Größe G ein, so erhält man eine Isogewinnkurve, die jene Kombinationen zwischen Reallohn w/P und Beschäftigungsmenge N angibt, bei denen der Gewinn konstant ist:

w p⋅x −G = . p p⋅N

(4.4)

Diese Funktion hat zunächst eine positive Steigung, die über den weiteren Verlauf dann allerdings negativ wird, wie sich durch Ableiten von (4.4) nach N ersehen lässt. In Abb. 15.13 sind zwei solcher Isogewinnkurven G1 und G2 eingetragen. Dabei ist zu beachten, dass der repräsentierte Gewinn G in der Grafik nach unten rechts hin ansteigt, so dass (G2 > G1) gilt. Neben den Isogewinnkurven ist die maximal erreichbare Indifferenzkurve

w/p Nd (w/p)M

EU EG

(w/p)A

E(Y) M G1 G2

NM

NA

Abb. 15.13  Verhandlungslösungen versus Monopolgewerkschaften

N

292

Thomas Apolte

der Gewerkschaften E(Y)M eingetragen. Der Tangentialpunkt EU mit der Nachfragekurve Nd gibt die schon bekannte Lösung des Monopolgewerkschaftsmodells wieder. Dieser Punkt markiert zugleich eine Obergrenze des Reallohnes (w/p)M, über den auch die Gewerkschaften selbst nicht hinausgehen würden. Die Lösung des Monopolgewerkschaftsmodells ist somit ein Spezialfall innerhalb der Verhandlungstheorie. Die Unternehmen werden nun versuchen, im Rahmen von Tarifverhandlungen einen geringeren Lohn mit dem Ziel auszuhandeln, ihren Gewinn zu erhöhen. Die Restriktion dabei ist die Nachfragekurve nach Arbeit Nd, weil auch hier die Right-to-manage-Annahme gilt. Neben der Obergrenze des Lohnes lässt sich auch eine Untergrenze markieren, unter die die Gewerkschaften sich unter keinen Umständen handeln lassen. Hierbei handelt es sich um den Alternativlohn (w/p)A, den die betroffenen Arbeitnehmer in einem anderen Arbeitsmarktsegment erzielten können. Das Verhandlungsergebnis lässt sich a priori nicht eindeutig bestimmen. Es wird aber immer zwischen den beiden Lohnsätzen (w/p)M und (w/p)A entlang der Arbeitsnachfragekurve Nd liegen. Diese beiden Grenzen werden in der Verhandlungstheorie als Fallback-Positionen bezeichnet, weil sie markieren, auf welche Position der jeweilige Partner beim Scheitern der Verhandlungen schlimmstenfalls zurückfallen kann. Durch die Lösung von spieltheoretischen Verhandlungsgleichgewichten auf der Basis der relativen Machtposition der beteiligten Verhandlungspartner lassen sich jene Faktoren isolieren, die das konkrete Verhandlungsergebnis determinieren (Binmore/Rubinstein/Wolinsky, 1986; Überblick bei Michaelis, 1998, S. 40ff.). Der Alternativlohn (w/p)A muss immer zu einem Einkommen oberhalb des staatlichen Transfereinkommens TR führen, damit überhaupt Arbeit angeboten wird. Daher steigt mit ansteigendem Transfereinkommen tendenziell auch der Alternativlohn. Insofern wirkt die Höhe des Transfereinkommens indirekt auf das Verhandlungsergebnis über den Lohnsatz ein, weil durch sie die Fallback-Position der Gewerkschaften beeinflusst wird.

15.4.1.3 Theorie effizienter Kontrakte Bereits lange vor der Entwicklung der modernen Gewerkschaftstheorie haben sich Ökonomen darüber gewundert, warum Gewerkschaften und Arbeitgeber hauptsächlich über die Höhe der Löhne, in der Regel aber nicht über die Höhe der Beschäftigung verhandeln (Leontief, 1946). Tatsächlich lassen sich – ausgehend von jeder beliebigen Verhandlungslösung aus Abb. 15.13 – Punkte finden, die eine Erhöhung der gewerkschaftlichen Zielgröße E(Y) und zugleich eine Erhöhung des Gewinns der Unternehmen erlauben. Daher sind Verhandlungslösungen, die keine Einigung über die Höhe der Beschäftigung beinhalten, aus einzelwirtschaftlicher Sicht ineffizient. Effiziente Kontrakte, die die Höhe der Beschäftigung mit einbeziehen, sind allerdings mit einer Abkehr von der Right-tomanage-Annahme verbunden, weil die Unternehmen die Höhe der Beschäftigung nach einer tarifpolitischen Einigung nicht mehr autonom festlegen dürfen. Formal bedeutet dies, dass die Verhandlungspartner Beschäftigungsmengen außerhalb der Arbeitsnachfragefunktion Nd akzeptieren müssen (Hall/Lilien, 1979; McDonald/Solow, 1981; Layard/Nickell, 1990).

15 Arbeitsmarktökonomik

293

Ausgangspunkt der Überlegung sei Punkt m der Abb. 15.14, welcher die Lösung des Monopolgewerkschaftsmodells repräsentiert (Michaelis, 1998, S. 96ff.). Zwischen den Linien E(Y)M und GM liegt eine (grau-schraffierte) Tauschlinse. Jeder Punkt innerhalb dieser Linse ist Pareto-superior zu Punkt m, denn er repräsentiert einen Gewinn, der größer als GM ist, und einen Erwartungswert des Arbeitnehmereinkommens, der größer als E(Y)M ist. Darüber hinaus repräsentieren alle Punkte entlang der Kontraktkurve KK ein ParetoOptimum. Denn entlang dieser Linie ist keine Gewinnerhöhung ohne eine Verringerung des Arbeitnehmereinkommens mehr möglich und umgekehrt. Ein Beispiel dafür ist Punkt e, bei dem sich die Linien E(Y)e und Ge tangieren. Hier einigen sich die Partner auf einen Reallohnsatz von (w/p)e und eine Beschäftigungsmenge von Ne. Damit zeigt die Theorie effizienter Kontrakte, dass Punkte jenseits der Nachfragekurve möglich sind, die aus der Sicht der Vertragspartner effizient sind. Dies bedeutet jedoch nicht, dass diese Punkte auch gesamtwirtschaftlich effizient sind. Für ein gesamtwirtschaftliches Pareto-Optimum wäre es erforderlich, dass das Grenzprodukt der Arbeit den Grenzopportunitätskosten des Freizeitverzichts entspricht. Diese Bedingung könnte auf einem Punkt entlang von KK bestenfalls zufällig erfüllt sein. In der Regel wird sie verfehlt werden. Dies dürfte aber nicht der eigentliche Grund dafür sein, dass bindende Tarifvereinbarungen, die die Höhe der Beschäftigung beinhalten, praktisch nicht zu beobachten sind. Daher mag man sich angesichts des Spielraums für Verbesserungen beider Seiten wundern, warum die Höhe der Beschäftigung zwar in der Rhetorik der Tarifverhandlungen eine Rolle spielt, diese aber nicht in rechtlich bindende Verträge eingeht. Ursächlich dafür dürfte vor allem sein, dass bindende Zusagen über eine bestimmte Beschäftigungshöhe in den geschäftlichen Wechsellagen innerhalb einer Tariflaufzeit für die Unternehmen zu

w/p E(Y) M E(Y) e M

(w/p)M (w/p)e

KK

e GM

Ge

Nd Nm Abb. 15.14  Effiziente Kontrakte

Ne

N

294

Thomas Apolte

riskant sind. Daher sind in der Realität allenfalls weniger verbindliche Zusagen zu beobachten. Diese werden der Öffentlichkeit zwar gern als Erfolg präsentiert, doch mangelt es ihnen wegen der Unverbindlichkeit bereits bei Vertragsabschluss an Glaubwürdigkeit. In Deutschland kommt hinzu, dass Tarifverträge zum größten Teil mit Arbeitgeberverbänden und nicht mit Unternehmen abgeschlossen werden. Unternehmen werden ihr Entscheidungsrecht über die Höhe der Beschäftigung aber nicht auf Arbeitgeberverbände übertragen, so dass unter diesen Bedingungen schon gezwungenermaßen ein Right-tomanage-Regime gelten muss.

15.4.1.4 Insider-Outsider-Theorie Die Insider-Outsider-Theorie unterstellt den Gewerkschaften, dass sie bei ihren Lohnforderungen ausschließlich das Interesse der so genannten Insider eines Betriebes berücksichtigen (Solow, 1985; Lindbeck/Snower, 1986; Überblick bei Lindbeck/Snower, 2001). Anders als die Bezeichnung der Theorie es vermuten lässt, werden die Arbeitnehmer nach dem Kriterium der Höhe ihres betriebspezifischen Humankapitals gedanklich nicht nur in zwei, sondern in drei Gruppen unterteilt. Den Status eines Insiders erhalten jene Arbeitnehmer, die seit längerer Zeit in einem Betrieb beschäftigt und eingearbeitet sind. Zwei Merkmale sind dazu konstituierend: Erstens wurden Kosten der Einarbeitung aufgewendet, also betriebsspezifisches Humankapital in die Insider investiert. Zweitens verursacht es Kosten, einen Insider zu entlassen, etwa aufgrund von Kündigungsschutzregeln. Neben den Insidern sind in einem Betrieb neu eingestellte Arbeitnehmer – so genannte New Entrants – beschäftigt, die noch nicht eingearbeitet sind und ohne Kosten entlassen werden können. Drittens schließlich gibt es die Outsider, das sind Arbeitnehmer, die noch nie oder seit längerer Zeit nicht in dem betreffenden Betrieb beschäftigt waren und infolge dessen über kein betriebsspezifisches Humankapital verfügen. Warum unterstellt wird, dass die Gewerkschaften ausschließlich das Interesse der Insider im Auge haben, wird unterschiedlich begründet (Lindbeck/Snower, 1986a; Ball, 1990). Wenn der überwiegende Teil der Gewerkschaftsmitglieder aus Insidern des Arbeitsmarktes besteht, folgt eine solche Orientierung aus dem Medianwähler-Ansatz (Abschnitt 13.3.3.3), weil das Mediangewerkschaftsmitglied in der Regel ein Insider ist. Andere Erklärungen setzen an spezifischen Regeln der Mitgliedschaft in Gewerkschaften an, die freilich von Land zu Land unterschiedlich sind. Mit der Insider-Outsider-Theorie versucht man vor allem, das Phänomen der Persistenz von Arbeitslosigkeit zu erklären (Solow, 1985; Gottfries/Horn, 1987). Als Persistenz bezeichnet man das Phänomen, dass sich die Arbeitslosigkeit nach einem exogenen Schock – etwa in Form einer Rohstoffverteuerung oder eines aggregierten Nachfrageausfalls – nur zögerlich auf ihr Ausgangsniveau zurückbewegt. Persistente Arbeitslosigkeit ist mit traditionellen Gleichgewichtstheorien nicht erklärbar, weil sich nach der Überwindung eines Schocks die gleiche Arbeitslosenquote einstellen müsste wie vor seinem Auftreten. Ausgangspunkt ist ein Unternehmen, dessen Belegschaft N sich aus Insidern (NI) sowie New Entrants (NE) zusammensetzt und das bei Abwesenheit exogener Schocks längerfristig insgesamt NL Arbeitnehmer beschäftigt. Bei seiner Gewinnmaximierung muss

15 Arbeitsmarktökonomik

295

es Einarbeitungskosten für New Entrants KE sowie Entlassungskosten KI für entlassene Insider kalkulieren, so dass die Gewinnfunktion die folgende Form hat, bei der wiederum ausschließlich Lohnkosten berücksichtigt werden:

G = p ⋅ x ( N I + N E ) − w I ⋅ N I − w E ⋅ N E − K I ⋅ ( N L − N I ) − K E ⋅ N E . (4.5) Sofern keine New Entrants eingestellt und keine Insider entlassen werden, entspricht diese Funktion der Gewinnfunktion (4.3). Die Bedingungen für ein Gewinnmaximum mit Blick auf NI und NE ergeben sich, wenn man die partiellen Ableitungen gleich null setzt. Etwas umgeformt lauten diese:

wI = p⋅

∂x ∂K I + ∂N I ∂N I

(4.6)

für die Insider und

wE = p⋅

∂x ∂K E − ∂N E ∂N E

(4.7)

für die New Entrants. Die beiden Gleichungen geben zugleich die Arbeitsnachfragekurven NId nach Insidern und NEd nach New Entrants wieder. Für die Insider gilt, dass der Nominallohnsatz um die Grenzentlassungskosten ∂K1/∂N1 höher ist als das Wertgrenzprodukt. Für die New Entrants hingegen ist der Nominallohnsatz um die Grenzkosten der Einarbeitung ∂KE/∂NE niedriger als das Wertgrenzprodukt. Diese Abweichungen vom Wertgrenzprodukt verleihen den Insidern Marktmacht gegenüber dem Unternehmen. Bei gleichem Wertgrenzprodukt können die Insider ihren Lohnsatz bis zur Summe von Grenzentlassungs- und Grenzeinarbeitungskosten über den Lohnsatz der New Entrants treiben, ohne befürchten zu müssen, entlassen und durch neu eingestellte Arbeitnehmer ersetzt zu werden. Dies erkennt man durch Subtraktion der Bedingung (4.7) von (4.6) und Gleichsetzen der beiden Wertgrenzprodukte:

wI = wE +

∂K I ∂K E + . ∂N I ∂N E

(4.8)

Die Insider-Outsider-Theorie lässt sich folgendermaßen zur Erklärung persistenter Arbeitslosigkeit heranziehen (Abb. 15.15). Mit Gründung eines Betriebes werden gemäß der Nachfragekurve NEd zunächst ausschließlich New Entrants in Höhe von NL eingestellt. Da diese zum Einstellungszeitpunkt noch nicht eingearbeitet sind und daher nicht mit Entlassungskosten drohen können, verfügen sie über keinerlei Marktmacht. Sie werden daher nach Maßgabe der Nachfragekurve NEd zum Anspruchslohn wR beschäftigt, welcher gerade den Grenzkosten des Freizeitverzichts entspricht. Nachdem die Einarbeitung erfolgt ist, werden alle Arbeitnehmer zu Insidern und können ihren Lohn entlang der Nachfragekurve N Id0 um die Grenzkosten der Einarbeitung und der Entlassung auf das Niveau w0I anheben (Gleichgewicht E0), ohne befürchten zu müssen, durch Outsider ersetzt zu werden. Wird der Betrieb nunmehr von einem negativen exogenen Schock getroffen,

296

Thomas Apolte

w

w1I

w 0I

E2 E1

E0

w eI wR

N 0Id N1Id NEd

N1I

NL

N

Abb. 15.15  Insider-Outsider-Theorie und Persistenz von Arbeitslosigkeit

sinkt das Wertgrenzprodukt der Arbeit, so dass sich die Nachfragekurve nach Insidern nach N Id1 verschiebt. Um den Beschäftigungsstand erhalten zu können, müsste der Lohnsatz nun auf weI sinken. Ob die Belegschaft eine Lohnsenkung akzeptiert, hängt von der Verteilung der Entlassungswahrscheinlichkeiten innerhalb des Betriebes für den Fall ab, dass der Lohnsatz auf dem alten Niveau verbleibt. Sind diese – beispielsweise aufgrund von Senioritätsregeln – ungleich verteilt, so wird der Lohnsatz nicht weit genug sinken, um das ursprüngliche Beschäftigungsniveau zu erhalten. Ist im Extremfall das Mediangewerkschaftsmitglied vollständig vor Entlassungen geschützt, so wird es keinerlei Lohnzugeständnisse geben, und der Nominallohn bleibt bei w0I . In diesem Fall werden Insider in Höhe von NL – N1I entlassen (Gleichgewicht E1). Dauern die unmittelbaren Wirkungen des exogenen Schocks lange genug an, so verlieren die Entlassenen ihr betriebsspezifisches Humankapital und damit ihren Status als Insider. Nachdem der exogene Schock überwunden ist, steigt das Wertgrenzprodukt wieder an, so dass sich die Arbeitsnachfragekurve der Insider wieder nach N Id0 zurück verschiebt. Sofern die zuvor entlassenen Arbeitnehmer ihr betriebsspezifisches Humankapital noch nicht verloren haben, können sie zum Lohnsatz w0I wieder eingestellt werden. Die verbliebenen Insider haben aber auch die Möglichkeit, die wieder angestiegene Nachfrage nach Arbeitskräften zu nutzen, um ihren Lohnsatz in die Höhe zu treiben. Hierzu müssen sie Neueinstellungen und damit eine Beschäftigung über N1I hinaus verhindern, so dass der gleichgewichtige Lohnsatz aufgrund des gestiegenen Wertgrenzprodukts auf w1I ansteigt. Der Beschäftigungsstand wird dann im Gleichgewicht E2 auf dem niedrigen Niveau N1I verharren. In diesem Sinne kann die Insider-Outsider-Theorie das Phänomen der Persistenz von Arbeitslosigkeit erklären.

15 Arbeitsmarktökonomik

297

Allerdings bleibt dabei die Frage offen, warum es – ausgehend von E2 – nicht zu einem Prozess der Lohnunterbietung kommt. Denn der Anspruchslohn wR liegt zur Beschäftigungsmenge N1I unterhalb der Nachfragekurve NEd. Im Rahmen der Insider-OutsiderTheorie wird diese Frage mit Hilfe einer Reihe von unterschiedlichen Argumenten beantwortet (Lindbeck/Snower 1986; 1998; 2001). Zunächst einmal können die Insider den Anspruchslohn durch politisches Lobbying für höhere Transferleistungen an Arbeitslose in die Höhe treiben. Eine andere Strategie wäre ein Mobbing gegen die New Entrants, welches diesen das Leben erschweren und auf diesem Wege ein Ansteigen des Anspruchslohns erreichen soll. Auf eine Herabsenkung der Produktivität der New Entrants zielt die Strategie, deren Einarbeitung zu sabotieren oder ihnen die Kooperation zu verweigern. Die Drohung mit solchen Verhaltensweisen ist aber zeitlich inkonsistent und damit unglaubwürdig, sofern auch die Produktivität der Insider davon negativ betroffen ist (Fehr, 1990). Unter diesen Bedingungen ist damit nicht mit solchen Verhaltensweisen zu rechnen. Schließlich wird unter Verweis auf soziologische Theorien argumentiert, dass es zumeist als „unschicklich“ oder „unsolidarisch“ gilt, sich durch Lohnunterbietung zu Lasten von beschäftigten Arbeitnehmern einen Arbeitsplatz zu sichern. Vielfach verbieten Tarifbestimmungen oder gesetzliche Regelungen Lohnunterbietungen sogar. Ziel von Insidern auf der politischen Ebene wäre es dann, solche Bestimmungen zu schaffen oder sich vor politischen Reformen zu schützen.

15.4.2 Effizienzlohntheorie Löhne oberhalb des markträumenden Niveaus können auch das Ergebnis unternehmerischen Kalküls sein, ohne dass es dazu gewerkschaftlicher Macht bedarf. Wenn Unternehmer aufgrund von Informationsasymmetrien die Produktivität ihrer Arbeitnehmer nicht genau einschätzen und kontrollieren können, dann kann es für sie optimal sein, die Leistung ihrer Arbeitnehmer durch eine gezielte Lohnerhöhung zu steuern. Die Effizienzlohntheorie basiert auf der Überlegung, dass Unternehmen ihre Mitarbeiter einer Verlustdrohung für den Fall aussetzen, dass diese aufgrund schlechter Leistungen ihren Arbeitsplatz verlieren. Eine solche Verlustdrohung mag aus der Erfahrung des Alltags heraus selbstverständlich sein – aus der Sicht der neoklassischen Theorie ist sie es hingegen nicht. Denn in einem Markt räumenden neoklassischen Gleichgewicht am Arbeitsmarkt kann jeder entlassene Arbeitnehmer jederzeit zum selben Lohn wie zuvor einen neuen Arbeitsplatz annehmen, so dass jede Entlassungsdrohung von Seiten des Unternehmens ins Leere gehen muss. Ein Unternehmen kann für sich genommen auch nicht mit Arbeitslosigkeit drohen, weil ein Unternehmen allein keine gesamtwirtschaftliche Arbeitslosigkeit erzeugen kann, um seine Arbeitnehmer zu härterer Arbeit anzuhalten. Es kann aber seinen individuellen Lohnsatz wi über das marktübliche Niveau w hinaus anheben. Dann nämlich erleidet ein Arbeitnehmer einen Einkommensverlust in Höhe von wi-w pro Arbeitszeiteinheit, wenn er aufgrund schwacher Leistungen entlassen wird und einen anderen Arbeitsplatz annehmen muss.

298

Thomas Apolte

Partialanalyse Im ersten Schritt der Überlegungen wird jede Arbeitszeiteinheit eines individuellen Unternehmens Ni mit einem Effizienzparameter ei gewichtet, so dass sich Effizienzeinheiten der Arbeit ei · Ni für jedes Unternehmen ergeben. Die Höhe von ei hängt zum einen vom so genannten Relativlohnsatz wi/w ab, welcher das Verhältnis des Lohnsatzes eines individuellen Unternehmens i zum allgemeinen Marktlohnsatz w widerspiegelt. Zum zweiten hängt ei positiv von der Arbeitslosenquote u ab. Je höher der Relativlohn und je höher die Arbeitslosenquote, desto größer ist der Erwartungswert des Einkommensverlustes, den ein Arbeitnehmer im Falle seiner Entlassung zu befürchten hat: w  e i = e i  i , u  . w  

(4.9)

Annahmegemäß sind die zweiten partiellen Ableitungen von (4.9) kleiner als null. Der Verlauf der Funktion (4.9) in Abhängigkeit von wi/w und u ist in Abb. 15.16 zu sehen. Beträgt die Arbeitslosenquote u=0, so schneidet die ei-Funktion die horizontale Achse bei wi/w=1. Bei steigender Arbeitslosenquote verschiebt sich die ei-Funktion nach oben. Die Kalkulation der Unternehmen lässt sich mit Hilfe einer Gewinnfunktion nachvollziehen, deren Arbeitsinput in Effizienzeinheiten ei · Ni gemessen wird, wobei zu berücksichtigen ist, dass der Effizienzparameter eine Funktion des Relativlohnes und der Arbeitslosenquote ist:

 w   G i = p ⋅ x i  e i  i , u  ⋅ N i  − w i ⋅ N i  w  

(4.10)

Da das Unternehmen kein Preisnehmer am Arbeitsmarkt ist, sondern bewusst versucht, den eigenen Lohnsatz wi oberhalb des Marktlohnsatzes zu setzen, muss es zunächst

ei

g Q

e im 1

α

1

(wi /w)m

Abb. 15.16  Effizienzlöhne in der Partialanalyse

w  e1i  i , u > 0  w  w  ei0  i , u = 0  w 

wi/w

15 Arbeitsmarktökonomik

299

eine Entscheidung über den Lohnsatz und anschließend eine Entscheidung über die Beschäftigungsmenge fällen. Der optimale Lohnsatz ergibt sich durch Ableiten von (4.10) nach wi:

N ∂G i ∂x i ∂e i = p⋅ ⋅ ⋅ i − Ni = 0 . ∂w i ∂ (e i ⋅ N i ) ∂ ( w i / w ) w

(4.11)

Die optimale Beschäftigungsmenge folgt aus der Ableitung von (4.10) nach Ni:

∂G i ∂x i = p⋅ ⋅ ei − w i = 0  ∂N i ∂ (e i ⋅ N i )

wi ∂x i = ⋅ e i e. (4.12) p ∂ (e i ⋅ N i )

Die individuelle Nachfragekurve des Unternehmens nach Arbeit zeigt die rechte Version von Gleichung (4.12). Danach hängt die Nachfrage von der Grenzproduktivität ∂xi/∂(ei · N), multipliziert mit dem Effizienzparameter ei, ab. Substituiert man die Grenzproduktivität aus (4.11) durch Gleichung (4.12), so folgt daraus die so genannte SolowBedingung (Solow, 1979):

∂e i w /w ei ∂e i = ⋅ i =1  ∂(w i / w ) ei w i / w ∂ ( w i / w ) . (4.13) Gleichung (4.13) besagt, dass der Relativlohn so weit angehoben werden muss, bis die Elastizität des Effizienzparameters ei in Bezug auf den Relativlohn gleich eins ist. Dieser Punkt lässt sich auch grafisch ersehen (Abb. L-15). Die Steigung ∂ei/∂(wi/w) der Effizienzparameterfunktion ei muss laut (4.13 rechts) gleich dem Verhältnis ei/(wi/w) sein. Dieses Verhältnis wird durch die Gerade g durch den Ursprung repräsentiert, da tan α = ei/(wi/w). Inhaltlich gibt dieses Verhältnis an, wie viele Effizienzeinheiten für eine Einheit Relativlohn realisiert werden. Der Tangentialpunkt Q mit der e 0i-Linie gibt den gewinnmaximalen Relativlohn (wi/w)m sowie die dazugehörige Höhe des Effizienzparameters emi für den Fall u = 0 an. Im Anschluss an diese Entscheidung bestimmt das Unternehmen mit Hilfe seiner individuellen Arbeitsnachfragekurve (4.12) die optimale Beschäftigungsmenge.

Allgemeines Gleichgewicht Auch bei identischen Unternehmen kann das beschriebene partielle Gleichgewicht nicht auf die Gesamtwirtschaft übertragen werden. Denn in einem allgemeinen Gleichgewicht identischer Unternehmen kann der Relativlohnsatz eines Unternehmens niemals von eins abweichen. In Abb. 15.17 (rechts unten) ist der Lohnsatz wi des Unternehmens i entlang eines Kontinuums von Marktlohnsätzen w abgetragen. Der einzige mit einem allgemeinen Gleichgewicht kompatible Relativlohnsatz ist (wi/w)  =  1. Der obere Teil der Grafik zeigt zunächst noch einmal das partielle Gleichgewicht im Punkt Q zum Relativlohnsatz (wi/w)m  >  1. Sofern das Unternehmen i gesamtwirtschaftlich unbedeutend ist und als einziges einen Effizienzlohn setzt, herrscht im Schnittpunkt der gesamtwirtschaftlichen Arbeitsnachfragekurve N d0 und der gesamtwirtschaftlichen Arbeitsangebotskurve Ns ein Markt räumendes Gleichgewicht zum Lohnsatz wm und zur Beschäftigungsmenge NE

300

Thomas Apolte

ei g Q

e im α w

ei0 (u = 0)

wi /w

1 (wi /w)m

w

Ns

w1

e1i (u > 0)

AL

E

wm N d0 NE

wi

N1d N

1 (wi /w)m

wi /w

Abb. 15.17  Effizienzlöhne im allgemeinen Gleichgewicht

(links unten). Setzen nun aber neben i auch alle anderen Unternehmen einen Effizienzlohn nach Maßgabe des Tangentialpunktes Q, so steigt das allgemeine Lohnniveau auf w1 an, und der Relativlohn des Unternehmens i sinkt zurück auf eins. Der Anstieg des allgemeinen Lohnniveaus verursacht indes Arbeitslosigkeit (u>0). Diese Arbeitslosigkeit verschiebt die ei-Linie rechts oben von e0i auf e1i . Im Ergebnis steigt der Effizienzparameter ei aber nicht über e mi hinaus, weil zugleich der Relativlohn von (wi/w)m auf eins sinkt. Die Drohung für die Arbeitnehmer bei schlechter Leistung besteht nun nicht mehr aus einem Rückfall von einem erhöhten auf den marktüblichen Lohnsatz. Vielmehr besteht sie nun aus einem Einkommensverlust durch Arbeitslosigkeit. Das Ausmaß der Arbeitslosigkeit im allgemeinen Gleichgewicht lässt sich im linken unteren Teil ersehen. Dort verschiebt sich die Arbeitsnachfragekurve auf N d1 . Grund ist der allgemeine

15 Arbeitsmarktökonomik

301

Anstieg des Effizienzparameters auf das Niveau von e mi , welcher die Grenzproduktivität der Arbeit erhöht. Dies kann aber nicht hinreichen, um den allgemeinen Lohnanstieg von wm nach w1 zu kompensieren. Denn würde es zum Ausgleich des Lohnanstiegs hinreichen, so gäbe es keine Arbeitslosigkeit. Gäbe es aber keine Arbeitslosigkeit, so könnte es im allgemeinen Gleichgewicht auch keinen Anstieg des Effizienzparameters auf e mi geben. Es entsteht also Arbeitslosigkeit in Höhe von AL. Effizienzlohntheorie und Insider-Outsider-Theorie sind in ähnlicher Weise geeignet zu erklären, warum auch ein länger anhaltender Zustand der Arbeitslosigkeit keine Markträumungsprozesse auslöst. In beiden Fällen sind Informationsasymmetrien und Transaktionskosten als tiefere Ursache des Problems auszumachen (Lindbeck/Snower, 1987).

15.4.3 Preis- und Lohnsetzung im makroökonomischen Ansatz In der makroökonomisch orientierten Arbeitsmarktliteratur werden kurzfristige Fluktuationen der Arbeitslosenquote auf Erwartungsirrtümer von Arbeitgebern und Arbeitnehmern oder Gewerkschaften zurückgeführt. Die langfristige Entwicklung der Arbeitslosigkeit wird in der neueren Arbeitsmarktliteratur dagegen vor allem durch den Verteilungskampf von Arbeitgebern und Gewerkschaften um das Sozialprodukt erklärt (Carlin/Soskice, 1990, S. 135ff.; Layard/Nickell/Jackman, 2005, S. 8ff.; Michaelis, 1998, S. 195ff.). Die von Friedman angeführten Faktoren der strukturellen und friktionellen Arbeitslosigkeit können nur einen Teil der empirisch beobachtbaren Fluktuationen der natürlichen Arbeitslosenquote seit Anfang der 1970er Jahre erklären (Hall, 1970, Solow, 1986; Landmann, 1989). Die Überlegungen knüpfen im Rahmen des so genannten LSEModells (London School of Economics; siehe Michaelis, 1998, S. 197) am Lohnsetzungsverhalten der Gewerkschaften und am Preissetzungsverhalten der Unternehmen an. Die Lohnsetzungsfunktion kann direkt aus Abb. 15.12 übernommen und mit der folgenden einfachen Geradengleichung beschrieben werden: w (4.14) LS: e = a + b ⋅ N . P Dabei wird der Nominallohnsatz w von den Gewerkschaften in Abhängigkeit von der Beschäftigung gesetzt. Auf das Preisniveau haben die Gewerkschaften hingegen keinen Einfluss, weil es von den Unternehmen mit dem Ziel der Gewinnmaximierung gesetzt wird. Daher können die Gewerkschaften lediglich eine Erwartungsgröße Pe über das Preisniveau berücksichtigen. Die Unternehmen bilden ihrerseits Erwartungen über den Nominallohnsatz we. Im Modell der vollständigen Konkurrenz sind Unternehmen allerdings Preisnehmer, so dass sich ein explizites Preissetzungsverhalten dort nicht modellieren lässt. Daher wird in den makroökonomischen Arbeitsmarktmodellen mit dem Modell der monopolistischen Konkurrenz gearbeitet. Die Unternehmen haben bei der Preissetzung zu berücksichtigen, dass ihre abgesetzte Menge x negativ vom Preis abhängt. Ein repräsentatives Unternehmen maximiert demnach die folgende Gewinnfunktion, die wiederum allein Lohnkosten berücksichtigt:

302

Thomas Apolte

G = p( x ( N) ⋅ x ( N) − w e ⋅ N .

(4.15)

Die Gewinnmaximierungsbedingung erster Ordnung mit Blick auf den Arbeitseinsatz ergibt sich durch die gleich null gesetzte erste Ableitung nach N:

∂G ∂p ∂x ∂x = ⋅ ⋅x + ⋅ p − we = 0  ∂N ∂x ∂N ∂N

    w e ∂x  1  = ⋅ 1+ . (4.16) ∂x p  p ∂N  ⋅  ∂p x  

Im Nenner des zweiten Klammerterms steht die Preiselastizität der Nachfrage ηp Im Falle monopolistischer Konkurrenz wird diese relativ groß sein, so dass sie realistischerweise als größer oder gleich eins angenommen werden kann. Daher ist der Klammerausdruck stets größer als null. Die Preissetzungsfunktion PS der Unternehmen kann nun vereinfacht geschrieben werden als: w e ∂x  1  = ⋅ 1− (4.17) PS: p ∂N  ηp  .  In Analogie zu LS steht der Aktionsparameter p des Unternehmens im Nenner der linken Seite. Da der Klammerausdruck größer als null und die Grenzproduktivität der Arbeit ∂x/∂N wegen des Gesetzes der abnehmenden Grenzproduktivität eine fallende Funktion von N ist, verläuft auch die Preissetzungsfunktion fallend bei steigendem Beschäftigungsniveau N (Abb. 15.18, links oben). Weil es sich um die Preissetzungsfunktion eines repräsentativen Unternehmens handelt und nicht nach unterschiedlichen Produkten am Gütermarkt differenziert wird, ist der Absatzpreis p identisch mit dem gesamtwirtschaftlichen Preisniveau P. Daher kann der Einzelpreis p durch das aggregierte Preisniveau P ersetzt werden, ohne dass sich etwas an dem fallenden Verlauf der Preissetzungsfunktion ändert. Neben der Preissetzungsfunktion PS findet sich im linken oberen Teil der Abb. 15.18 auch die Lohnsetzungsfunktion LS der Gewerkschaften sowie eine Arbeitsangebotsfunktion Ns der Arbeitnehmer, welche aus Gründen der Vereinfachung lohnunelastisch ist. Die gegenseitigen Erwartungen von Arbeitgebern und Gewerkschaften sind nur im Schnittpunkt von LS und PS miteinander kompatibel, weil nur dort die Bedingung:

w we = P Pe

(4.18)

erfüllt ist. In einem langfristigen Gleichgewicht werden die Gewerkschaften das aus dem Preissetzungsverhalten der Unternehmen folgende Preisniveau korrekt erwarten. Ebenso werden die Unternehmen langfristig den Lohnsatz korrekt erwarten. Daher wird sich in einem langfristigen Gleichgewicht das Beschäftigungsniveau NE einstellen. Wegen des lohnunelastischen Arbeitsangebots Ns lässt sich die langfristig stabile Zahl der Arbeitslosen als AL=Ns-NE ersehen. Daher lassen sich die Kurven LS und PS auch in ein Diagramm mit der Arbeitslosenquote u an Stelle der Beschäftigung N eintragen, indem AL durch Ns geteilt wird (Abb. 15.18 rechts).

15 Arbeitsmarktökonomik

w we , Pe P

303

Ns

LS

w we , Pe P

PS

(w/Pe)1 (we/P)1 PS NE N1 AL

LS N

u

gP

NAIRU

g 2P g

PK 2 (g eP = g 2P )

1 P

u1 NAIRU

u PK1 (g eP = 0)

Abb. 15.18  Preissetzung und Lohnsetzung

Im Schnittpunkt von LS und PS ergibt sich eine Arbeitslosenquote, die unter dem Akronym NAIRU (Non Accelerating-Inflation Rate of Unemployment) in die makroökonomische Literatur eingegangen und eng mit dem Konzept der natürlichen Arbeitslosenquote verwandt ist (Bell/Mankiw, 2002). Unter der NAIRU versteht man jene Arbeitslosenquote, die mit einer stabilen Inflationsrate vereinbar ist. Alle Arbeitslosenquoten unterhalb der NAIRU sind mit einer Akzeleration und alle oberhalb der NAIRU mit einer Dezeleration der Inflation verbunden. Den Grund dafür kann man leicht nachvollziehen, indem man Gleichung (4.18) nach P umstellt und in Wachstumsraten ausdrückt:

g P = g ep − (g w − g ew )  g P − g ep = g ew − g w . (4.19) Diese Gleichung gibt im Prinzip den Phillips-Kurven-Zusammenhang wieder (vgl. Beitrag 7). Ex post wird immer ein bestimmtes Reallohnniveau w/P realisiert, welches freilich von den erwarteten Größen we/P sowie w/Pe abweichen kann. Aus diesem Grunde ist jede Preissteigerung gP über das von den Gewerkschaften erwartete Maß g pe hinaus mit

304

Thomas Apolte

einer Lohnsteigerungsrate gw verbunden, die hinter dem von den Unternehmen erwarteten Maß g we zurückbleibt. Im Ergebnis sinkt bei einer unerwartet hohen Inflationsrate der Reallohn, so dass ein Punkt links von der NAIRU realisiert wird. Im unteren Teil der Graphik lässt sich dies noch einmal aus der Phillips-Kurve ersehen. Dort repräsentiert PK1 eine Phillips-Kurve, die die Erwartung der Gewerkschaften eines stabilen Preisniveaus widerspiegelt (g pe = 0). Steigt die Inflationsrate über null hinaus an, bleibt die Reallohnsteigerung hinter dem erwarteten Maß zurück, so dass bei einer positiven Inflationsrate entlang von PK1 eine Arbeitslosenquote unterhalb der NAIRU realisiert wird. Die gleiche Argumentation lässt sich für alle Punkte oberhalb der NAIRU anwenden, bei der die Anpassung der Erwartungen an den ex post realisierten Reallohn über eine Inflationsdezeleration erfolgt. Ob die inflationsstabile Arbeitslosenquote bei einer Inflationsrate von null oder einer davon abweichenden Inflationsrate realisiert wird, hängt von den Inflationserwartungen der Gewerkschaften ab. Bei einer Inflationserwartung g pe = g p2 verläuft die Phillips-Kurve als PK2 oberhalb von PK1. Stimmen Inflationserwartung und realisierte Inflationsrate überein, so ergibt sich wiederum die inflationsstabile Arbeitslosenquote NAIRU, allerdings nun zur Inflationsrate g p2 . Kurzfristige Fluktuationen der Arbeitslosenquote werden im Rahmen des LSE-Modells also als erwartungsinduzierte Abweichungen von der NAIRU interpretiert. Insofern entspricht die Analyse im Rahmen des LSE-Modells der traditionellen Phillips-Kurven-Analyse. Während diese aber kurzfristige Fluktuationen der Arbeitslosenquote allein durch Erwartungsirrtümer von Gewerkschaften oder Arbeitnehmern erklärt, erlaubt das LSEModell auch Erklärungen kurzfristiger Fluktuationen auf der Basis von Erwartungsirrtümern im Unternehmenssektor oder – allgemeiner gefasst – aufgrund von Preisrigiditäten (Illing, 1996; Müller, 1997; Layard/Nickell/Jackman, 2005, S. 19ff.). Denn es können auch die Unternehmen sein, die – gemessen an den gegenseitigen Erwartungen gemäß (4.19) – „falsche“ Preise setzen. Dies erweitert den Spielraum für empirisch gehaltvolle Erklärungen kurzfristiger Fluktuationen von Arbeitslosigkeit und Beschäftigung erheblich. In der langen Frist werden sich die gegenseitigen Erwartungen von Gewerkschaften und Arbeitgebern allerdings einander anpassen, sofern die Akteure nicht völlig statische Erwartungen bilden. Daher kann die langfristige Entwicklung der Arbeitslosenquote nur durch Veränderungen der NAIRU selbst erklärt werden. Formal folgt dies aus Verschiebungen der Lohn- und Preissetzungskurven, ausgelöst durch veränderte Ansprüche von Gewerkschaften und Arbeitgebern an das Sozialprodukt. So drückt sich eine aggressivere Lohnpolitik der Gewerkschaften in einer Rechtsverschiebung der Lohnsetzungskurve von LS1 nach LS2 aus (Abb. 15.19). In der Folge wird sich der Reallohn im langfristigen Gleichgewicht von (w/P)1 auf (w/P)2 erhöhen. Gleichzeitig wird die inflationsstabile Arbeitslosenquote von NAIRU1 auf NAIRU2 ansteigen. Die NAIRU steigt schließlich noch weiter, sollten die Unternehmen versuchen, die gestiegenen Löhne durch höhere Preise auf die Konsumenten zu überwälzen. Eine solche aggressivere Preissetzung verschiebt die Preissetzungskurve von PS1 auf PS2. In der Folge wird das Reallohnniveau zwar wieder auf (w/P)3 sinken. Die inflationsstabile Arbeitslosenquote wird aber weiter auf NAIRU3 ansteigen. Diesen verteilungskampfinduzierten Anstieg der

15 Arbeitsmarktökonomik

w we , Pe P (w/P)2

305

LS1

LS2 PS1

PS2

(w/P)3 (w/P)1

u NAIRU1 NAIRU2

NAIRU3

Abb. 15.19  Verteilungskampf und Veränderungen der NAIRU

Arbeitslosenquote kann die Politik nur verhindern, indem sie durch eine expansive Fiskaloder Geldpolitik die aktuelle Arbeitslosenquote unter die NAIRU drückt (Bell/Mankiw, 2002). Aber auch das kann ihr nur kurzfristig gelingen, so lange nämlich, wie sie damit Erwartungsirrtümer der Gewerkschaften oder Unternehmen auslösen kann.

15.5

Problembereiche der Arbeitsmarktpolitik

15.5.1 Hysterese und Persistenz Von Mitte der 1970er Jahre bis etwa 2005 war die Arbeitslosigkeit in Deutschland ähnlich wie in vielen anderen Ländern immer weiter angestiegen (Abb. 15.20). In konjunkturellen Abschwungphasen kam es zumeist zu einem sprunghaften Anstieg der Arbeitslosenquoten, welche sich im Zuge der darauffolgenden Erholung nur zögerlich zurückbildete. Die jeweils niedrigsten Werte lagen nach jedem Zyklus höher als die vorherigen. Es waren demnach nicht nur Fluktuationen der Arbeitslosenquote um die NAIRU zu beobachten, sondern – vor allem in Deutschland – auch ein immer weiterer Anstieg der NAIRU selbst. Erst seit ungefähr 2005 hat sich dieser Trend in Deutschland wieder umgekehrt. Der ständige Anstieg der inflationsstabilen Arbeitslosenquote wird in der Literatur mit dem aus der Elektromagnetik entliehenen Konzept der Hysterese beschrieben (Bell/ Mankiw, 2002). Die Analogie der magnetischen Hysterese zum Arbeitsmarkt besteht darin, dass ein exogener konjunktureller Schock zunächst Arbeitslosigkeit erzeugt, welche nach Abbau des Schocks aber nicht mehr vollständig verschwindet. Ein weiterer Konjunkturschock wird die Arbeitslosigkeit dann von dem höheren Ursprungsniveau aus erneut

306

Thomas Apolte

Abb. 15.20 Arbeitslosenquote der zivilen Erwerbspersonen in West- (bis 1989) und Gesamdeutschland (ab 1990) (Quelle: BA)

in die Höhe treiben und schließlich wiederum einen Rest hinterlassen, der sich zu der ersteren hinzuaddiert. In der Folge mehrerer Konjunkturzyklen wird das Bild der stufenweise ansteigenden Arbeitslosenquote aus Abb. 15.20 erzeugt. Man spricht in diesem Zusammenhang auch von „Pfadabhängigkeit“, weil die Höhe der Arbeitslosigkeit nach der Überwindung eines Konjunkturschocks davon abhängt, wie hoch die Arbeitslosigkeit vor Eintreten des Schocks war. Im Falle von Hysterese steigt mit jedem Konjunkturzyklus die NAIRU. Im Vergleich dazu spricht man von Persistenz der Arbeitslosigkeit, wenn die NAIRU selbst im Verlaufe eines Konjunkturzyklus zwar auf ihrem Ausgangsniveau verharrt, die Rückkehr der aktuellen Arbeitslosenquote auf das Niveau der NAIRU nach Abschluss des Konjunkturzyklus aber nur zögerlich erfolgt. Während Hysterese und Persistenz auf diese Weise theoretisch recht trennscharf unterscheidbar sind, trifft dies für die empirische Beobachtung dieser Phänomene allerdings nur sehr bedingt zu. Die Beschreibung der Entwicklung der Arbeitslosigkeit als Hysterese ist für sich genommen freilich nicht mehr als eine Analogie, denn sie erklärt die dahinterstehenden Probleme nicht. Deshalb ist man, wenn man die hysteretischen Eigenschaften des Arbeitsmarktes erklären will, doch wieder auf die ökonomischen Arbeitsmarkttheorien angewiesen. Die hysteretischen Eigenschaften sowie deren theoretische Erklärung markierten daher zusammen genommen bis 2005 Brennpunkte der Arbeitsmarktpolitik in Deutschland. Dabei ging es vor allem um die folgenden Fragen: Wie kann dafür gesorgt werden, dass Menschen, die im Zuge eines konjunkturellen Abschwungs arbeitslos geworden sind,

15 Arbeitsmarktökonomik

307

möglichst schnell im Zuge der konjunkturellen Erholung wieder in den Arbeitsmarkt zurückgeführt werden? Welche Rolle spielt die Lohnzurückhaltung, und welche Lohnpolitik sollten die Tarifpartner dabei verfolgen? Welche Rolle spielen Gewerkschaften, und wie sollten Lohnverhandlungen organisiert werden, damit die Lohnpolitik gleichermaßen die Interessen der Beschäftigten wie der Arbeitslosen berücksichtigt? Schließlich: Welche Rolle spielen die sozialen Sicherungssysteme, und wie können die Kosten des Sozialsystems so zugewiesen werden, dass dabei negative Beschäftigungseffekte und erst Recht hysteretische Entwicklungen der Arbeitslosigkeit vermieden werden? Vor allem in Deutschland haben diese Fragen wegen der inzwischen entspannten Arbeitsmarktsituation zunächst an Dringlichkeit verloren. In anderen europäischen Ländern sind sie aber nach wie vor aktuell.

15.5.2 Anpassungsflexibilität des Arbeitsmarktes Idealerweise sollten arbeitsmarktpolitische Aktivitäten auf sorgfältigen theoretischen und empirischen Analysen basieren. Dies ist im wirtschaftspolitischen Tagesgeschäft sicher nicht immer möglich, was neben der Eigendynamik des politischen Geschäfts nicht zuletzt auch daran liegt, dass die Wissenschaft häufig keine eindeutigen Empfehlungen aussprechen kann. Gleichwohl ist es wünschenswert, dass im Vorfeld arbeitmarktpolitischer Entscheidungen die Wirkungen und Nebenwirkungen geplanter Maßnahmen durchdacht und berücksichtigt werden. Insbesondere sollten die Nebenwirkungen verschiedener arbeitsmarktpolitischer Regulierungen bedacht werden, wozu die Arbeitsmarktökonomik Hilfestellung leisten kann (Jerger, 2002). So zeigt die Insider-Outsider-Theorie, dass Regulierungen zum Schutz des Einkommensniveaus und des Status beschäftigter Arbeitnehmer, so verständlich sie auch sind, die Chancen der Outsider auf einen Neu- oder Wiedereinstieg ins Berufsleben verringern. Dies gilt für Senioritätsregeln verschiedenster Art ebenso wie für Kündigungsschutzregeln. In die gleiche Richtung wirken Verbote, Arbeitslose und Neueinsteiger zu einem geringeren Lohn als demjenigen einzustellen, der für die seit längerem beschäftigten Arbeitnehmer gilt. Dass Gewerkschaften und Betriebsräte gegen einen Abbau solcher Regulierungen oft vehement protestieren, gehört zu ihrer Aufgabe, die darin besteht, die Interessen ihrer Klientel zu wahren. Gleichwohl ist der Schutz der beschäftigten Arbeitnehmer nur eine Wirkung, die in der Regel nicht ohne die Nebenwirkung verringerter Beschäftigungschancen der Outsider zu haben ist. Die prägnantesten Beispiele des Insiderschutzes finden sich in Deutschland wohl im öffentlichen Dienst, was sicher darauf zurückzuführen ist, dass die öffentlichen Arbeitgeber kein persönliches Eigeninteresse an der Begrenzung des Insiderschutzes haben. Die Folge ist, dass sich Insider ungewöhnlicher Privilegien erfreuen, während Outsider und New Entrants marginalisiert werden. So können Beschäftigte des öffentlichen Dienstes, die sich im Zuge einer Beurlaubung beruflich längst neu orientiert haben, die Option behalten, ihr Beschäftigungsverhältnis praktisch jederzeit wieder aufleben zu lassen. Die Folge

308

Thomas Apolte

ist, dass New Entrants oft über viele Jahre nur im Wege kurzfristiger Zeitverträge ohne jeden Kündigungsschutz die Stellen der beurlaubten Arbeitnehmer einnehmen können. Um den Missbrauch solcher Zeitverträge zu Lasten der New Entrants einzudämmen, hat der Gesetzgeber anschließend die erlaubte Zahl der aufeinander folgenden Zeitverträge begrenzt. Die Folge ist aber, dass die betroffenen Arbeitnehmer nach Ablauf des letzten erlaubten Zeitvertrages entlassen werden müssen – auch wenn dies nach einer jahrelangen Beschäftigung geschieht, während der sich bereits eine vertrauensvolle Zusammenarbeit entwickelt hat. Dies geschieht nicht nur zu Lasten der entlassenen Arbeitnehmer, sondern es mindert auch die gesamtwirtschaftliche Effizienz. Wenn Arbeitnehmer nach einer längeren Phase der Arbeitslosigkeit oder einer anderweitig bedingten beschäftigungslosen Zeit den Weg zurück in ein Beschäftigungsverhältnis suchen, so wird ihre berufliche Qualifikation in der Regel hinter jener zurückbleiben, die ein beschäftigter Arbeitnehmer bieten kann (Layard, 1997). Denn erstens gehen Fähigkeiten verloren, wenn sie nicht angewendet und trainiert werden. Zweitens verändern sich die geforderten Fertigkeiten mit der Zeit, so dass eine einmal erworbene Qualifikation in dieser Form nicht mehr nachgefragt wird. Drittens schließlich erfordert eine Beschäftigung in der Regel betriebsspezifisches Humankapital, also Fertigkeiten, die nur in dem jeweiligen Betrieb in dieser Form gefragt sind. Das betriebsspezifische Humankapital geht unmittelbar verloren, wenn ein Arbeitnehmer nicht in demselben Betrieb wiederbeschäftigt wird, in dem er auch zuletzt gearbeitet hat. Aus diesen Gründen haben Neueinsteiger immer einen Nachteil in der Qualifikation gegenüber bereits beschäftigten Arbeitnehmern. Sie benötigen damit einen Parameter, der es ihnen ermöglicht, mit Aussicht auf Erfolg in Konkurrenz zu den Insidern zu treten. Hierzu bleibt ihnen oft nur die Möglichkeit, Zugeständnisse beim Lohn zu machen. Es ist wiederum klar, dass Insider dies zu verhindern versuchen. Es geht aber kein Weg an der Einsicht vorbei, dass dies die Beschäftigungschancen der Outsider verringert. Ein weiterer Bereich sind Regelungen, die den Anspruchslohn der Arbeitnehmer anheben. Hierzu gehören vor allem solche staatlichen Transferzahlungen, deren Grundlage entfällt, sobald die Betroffenen eigene Einkommen erzielen. Solche Regelungen haben den Charakter eines hundertprozentigen Steuersatzes, so dass ein negativer Arbeitsanreiz gesetzt wird. Ein hoher Anspruchslohn hat aber den weiteren Effekt, dass er die FallbackPosition der Gewerkschaften bei Lohnverhandlungen in die Höhe treibt und damit das Verhandlungsergebnis nach oben hin beeinflusst. Als Folge davon steigt die Arbeitslosigkeit bei den wenig oder nicht qualifizierten Arbeitnehmern im Vergleich zu den höher qualifizierten. Daraus folgt keinesfalls die Empfehlung, untere Einkommen ins Bodenlose fallen zu lassen und den von Armut betroffenen Menschen durch staatliche Transfers nicht mehr zu helfen. Es kommt vielmehr darauf an, solche Transfer- und Entlohnungssysteme zu finden, die den erwünschten Schutz vor Armut erzeugen und dabei die unerwünschten Nebenwirkungen vermeiden (Kröger/Leschke, 2002; Sinn; u. a., 2003). Inzwischen sind mit den so genannten „Hartz-Gesetzen“ (offiziell: Gesetze für moderne Dienstleistungen am Arbeitsmarkt) wirksame Maßnahmen von Seiten der Politik ergriffen worden (Jacobi/ Kluve, 2007).

15 Arbeitsmarktökonomik

309

Schließlich empfiehlt es sich, mit Hilfe der allgemeinen Wirtschaftspolitik konjunkturelle Abschwünge zu vermeiden. Da dies freilich nur begrenzt möglich ist, sollten alle Aktivitäten darauf ausgerichtet sein, einen Abschwung zügig zu überwinden. Hierzu sind allgemein flexible Strukturen sowie ein innovationsfreundliches Klima ebenso Voraussetzung wie ein weitgehender Verzicht auf Erhaltungssubventionen (Abschnitt 16.3.1). Es gehört schließlich auch eine geeignete Geld- und Fiskalpolitik dazu, wenngleich zugestanden werden muss, dass auch die Ökonomen uneins darüber sind, welche die hierzu geeignete Strategie ist (Jerger, 1999; Beitrag 8). Wenn sich ein Abschwung indes lange hinzieht, so verlieren die Arbeitnehmer allgemeines und betriebsspezifisches Humankapital. Weiterhin passen die Unternehmen ihren Kapitalstock langfristig an die gesunkene Beschäftigung an, so dass ehemalige Arbeitsplätze endgültig wegfallen. Schließlich stärkt ein länger anhaltender Abschwung die Position der Insider gegenüber den Outsidern. Zusammen genommen verdichten sich mit zunehmender Länge eines Abschwungs die Ursachen für eine hysteretische Entwicklung der Arbeitslosigkeit. Je schneller umgekehrt ein Abschwung überwunden ist, desto größer ist die Chance, dass der Beschäftigungsstand von vor dem Abschwung wieder realisiert wird.

15.5.3 Lohnpolitik Debatten um die geeignete Lohnpolitik werden meist besonders kontrovers geführt. Gleichwohl wird von Seiten der Arbeitsmarktexperten heute kaum mehr bestritten, dass die Höhe der Löhne entscheidenden Einfluss auf Beschäftigung und Arbeitslosigkeit hat (Franz/Gerlach/Hübler, 2003). Daher stellt sich die Frage nach der geeigneten Lohnpolitik.

Produktivitätsorientierte Lohnpolitik Produktivitätsorientierte Lohnpolitik setzt an der Erkenntnis an, dass Unternehmen ihr Beschäftigungsniveau am Verhältnis von Grenzproduktivität ∂x/∂N zu Reallohnsatz w/P ausrichten. Da bei vollständiger Konkurrenz ∂x/∂N = w/P gilt, sind beschäftigungsneutrale Lohnzuwächse dann und nur dann möglich, wenn die Grenzproduktivität bei konstanter Beschäftigung steigt. Deshalb lautet die lohnpolitische Regel, dass Zuwächse des Reallohns immer den Zuwächsen der Grenzproduktivität entsprechen sollten, wenn es das Ziel ist, einen bestehenden Beschäftigungsstand zu erhalten. Bei der Anwendung dieser Regel ist allerdings Vorsicht geboten. Ein Zuwachs der Grenzproduktivität kann nämlich einerseits aus Faktoren wie dem technischen Fortschritt oder einem Anstieg des Kapitalstocks erwachsen (Abb. 15.21 links). In diesem Falle verschiebt sich die Kurve der Grenzproduktivität der Arbeit nach außen von (∂x/∂N)1 nach(∂x/∂N)2. Eine Reallohnerhöhung kann dann bei konstanter Beschäftigung N0 in Höhe des Produktivitätszuwachses erfolgen. Ein gleich hoher Zuwachs der Grenzproduktivität kann aber auch entlang einer unveränderten Grenzproduktivitätskurve im Wege eines Beschäftigungsabbaus von N0 nach N1 erfolgen (Abb. 15.21 rechts). Setzen die Gewerkschaften eine Lohnerhöhung von (w/P)1

310

Thomas Apolte

w/P (∂x / ∂N)1 (∂x / ∂N ) 2

w/P

Ns

(∂x / ∂N)1

( w / P) 2

( w / P) 2

( w / P)1

( w / P)1

N0

Nv

N

N1

N0

Ns

Nv

N

Abb. 15.21  Grenzproduktivität und Lohnniveau

auf (w/P)2 durch, ohne dass sich die Kurve der Grenzproduktivität verschoben hat, dann werden die Unternehmen die Beschäftigung so lange abbauen, bis die Grenzproduktivität auf das höhere Lohnniveau angestiegen ist. Damit schafft sich jede Lohnerhöhung das zu ihrer Finanzierung nötige Produktivitätsniveau selbst. Gelegentlich zu hörende Äußerungen, wonach das bestehende Lohnniveau angesichts der Entwicklung der Arbeitsproduktivität nicht zu hoch sei, sind daher im Prinzip immer zutreffend. Das Problem der Arbeitslosigkeit liegt aber nicht darin begründet, dass die bestehenden Arbeitsplätze ihre Kosten nicht erwirtschaften würden. Das Problem liegt vielmehr darin, dass zusätzliche Arbeitsplätze (etwa Nv-N1) ihre Kosten nicht erwirtschaften können. Eine letzte Lehre lässt sich aus dem Konzept der produktivitätsorientierten Lohnpolitik ziehen. Wenn die Grenzproduktivität beschäftigungsneutral ansteigt (Abb. L-20 links), so kann dieser Anstieg entweder zum Zwecke der Lohnerhöhung von (w/P)1 auf (w/P)2 genutzt werden oder zu einem Beschäftigungsaufbau von N0 auf Nv. Lassen es die Insider zu, dann bleibt der Reallohnsatz auf (w/P)1, so dass die Beschäftigung im Gewinnmaximum der Unternehmen auf Nv ansteigt. Dies wird als Politik der Lohnzurückhaltung bezeichnet und wird von verschiedenen wirtschaftspolitischen Gremien in Deutschland angesichts der hohen Arbeitslosigkeit seit Jahren gefordert. Bei einer Politik der Lohnzurückhaltung wächst der Reallohn über eine Folge von Jahren um eine kleinere Rate als der Zuwachs der Grenzproduktivität der Arbeit. Lassen die Insider eine Politik der Lohnzurückhaltung indes nicht zu und setzen den Zuwachs der Grenzproduktivität in voller Höhe in Reallohnsteigerung um, so wird es keinen Zuwachs der Beschäftigung geben. Steigt im Zuge der Globalisierung die Mobilität des Kapitals, so wird die Arbeitsnachfragekurve flacher. Hinzu kommt, dass die Unternehmen unter solchen Bedingungen

15 Arbeitsmarktökonomik

311

keinen Anreiz haben, überhöhten Lohnforderungen mit kostspieligen Auseinandersetzungen zu begegnen, weil sich mit zunehmender Kapitalmobilität die Option der Abwanderung verbilligt. Die Folgen einer verfehlten Lohnpolitik schlagen dann umso stärker in Form von Beschäftigungsverlusten durch.

Kaufkrafttheorie des Lohnes Die Politik der Lohnzurückhaltung wird vor allem auf der Basis der so genannten Kaufkrafttheorie des Lohnes kritisiert (Flassbeck/Maier-Rigaud, 2003). Demnach führt Lohnzurückhaltung zu einem Nachfrageausfall von Seiten der Arbeitnehmer, was konjunkturelle Schwächen verursacht. Das Kaufkraftargument ist bereits recht alt (siehe schon Kalecki, 1935), gleichwohl aber nicht stichhaltig. Dies lässt sich anhand einer einfachen Multiplikatoranalyse zeigen (Beitrag 7). Die gesamtwirtschaftliche Nachfrage Yd lässt sich schreiben als: Y d = C A (Y A ) + C K (Y − Y A ) + I

mit

Y K = Y − Y A . (5.1)

Dabei kennzeichnen CA und CK jeweils den Konsum der Arbeitnehmer und der Arbeitgeber, YA das Einkommen aus unselbständiger Arbeit, YK das Einkommen aus Unternehmertätigkeit und Vermögen sowie Y das Volkseinkommen. Durch Bildung des totalen Differentials ergibt sich dann: ⎛ ∂C A ∂C K ⎞ dY d = ⎜⎜ A − K ⎟⎟⎟⋅dY A +dI. (5.2) ∂Y ⎠⎟ ⎝⎜ ∂Y Ein Anstieg der Arbeitnehmereinkommen um dYA führt demnach nur dann zu einer Erhöhung der gesamtwirtschaftlichen Nachfrage, wenn die marginale Konsumquote ∂CA/∂YA der Arbeitnehmer größer ist als jene der Arbeitgeber (∂CK/∂YK). Dies berücksichtigt aber noch nicht, dass ein Rückgang der Arbeitgebereinkommen tendenziell einen Rückgang der Investitionsnachfrage nach sich zieht, weil gesunkene Arbeitgebereinkommen deren Ersparnisse und damit volkswirtschaftliche Investitionsmittel verringern. Berücksichtigt man weiter, dass steigende Reallöhne das gewinnmaximale Beschäftigungsvolumen der Unternehmen verringern und auf diesem Wege Arbeitslosigkeit erzeugen, so dürfte sich spätestens hier der ohnehin fragwürdige Nachfrageeffekt einer Reallohnerhöhung in sein Gegenteil verkehren. Denn durch Arbeitslosigkeit werden Einkommen ersatzlos vernichtet und führen so zu definitiven Nachfrageausfällen.

15.5.4 Zentralisierungsgrad von Lohnverhandlungen Neben der Frage der geeigneten Lohnpolitik werden auch die institutionellen Bedingungen der Lohnpolitik diskutiert. Dabei geht es darum, welche Form der Tariffindung einem hohen Beschäftigungsstand am zuträglichsten ist. Laut einer viel beachteten Studie (Calmfors/Driffill, 1988) sind Länder mit stark zentralisierten oder stark dezentralisierten

312

Thomas Apolte

Tarifverhandlungen beschäftigungspolitisch erfolgreicher als Länder mit mittlerem Zentralisierungsgrad („Hump-shape-Hypothese“). Die Autoren erklären den Erfolg der Länder mit dezentralisierten Strukturen mit der höheren Wettbewerbsintensität auf dem Arbeitsmarkt, die sich ergibt, wenn im Extremfall jeder Betrieb sein Lohnniveau vor dem Hintergrund seiner jeweiligen Geschäftslage finden und den Lohnsatz im Zweifel auch als Wettbewerbsparameter einsetzen muss. Den Erfolg der Länder mit zentralisierten Lohnverhandlungen erklärten sie damit, dass dadurch gesamtwirtschaftlich bedeutsame Tarifgemeinschaften entstehen, die aufgrund ihrer Größe in eine gesamtwirtschaftliche Verantwortung eingebunden werden (Olson, 1985). Treiben sie ihre Lohnforderungen zu hoch, so wächst im direkten Zusammenhang das gesamtwirtschaftliche Lohnniveau spürbar an, so dass auch die Entwicklung des gesamtwirtschaftlichen Beschäftigungsniveaus unmittelbar betroffen ist. Einen solchen unmittelbaren Einfluss haben kleine Tarifeinheiten nicht, und daher entsteht eine Externalität, in deren Konsequenz das gesamtwirtschaftliche Beschäftigungsniveau für die einzelnen Tarifeinheiten keine Rolle mehr spielt. Dezentrale Tarifeinheiten verursachen zwar eine solche Externalität, sie werden aber durch den Wettbewerb untereinander unter Kontrolle gehalten. Zentrale Tarifeinheiten schalten den Wettbewerb dagegen weitgehend aus, aber sie sind durch ihre Größe in eine gesamtwirtschaftliche Verantwortung eingebunden. Bei einem mittleren Zentralisierungsgrad hingegen fehlt sowohl der Wettbewerb als auch die gesamtwirtschaftliche Verantwortung. Die Diskussion um den Zentralisierungsgrad wird in Deutschland insbesondere im Zusammenhang mit dem Flächentarifvertrag geführt, welcher mit einem mittleren Zentralisierungsgrad verbunden ist. Angesichts zunehmender Heterogenität von Beschäftigungsverhältnissen ist seine Haltbarkeit in der Zukunft jedoch fraglich (Fitzenberger/ Kohn/Wang, 2011).

15.5.5 Sozialpolitik und Arbeitsmarkt Zwischen der Sozialpolitik und dem Arbeitsmarkt bestehen enge Verbindungen und Wirkungsverflechtungen, die hier nicht im Einzelnen analysiert werden können (siehe Apolte/Vollmer, 2002). Dabei geht es nicht allein um die Anreizwirkungen, die von staatlichen Transfers ausgehen können. Vielmehr dürfte auch das seit rund vier Jahrzehnten in praktisch allen OECD-Ländern dramatisch gestiegene Niveau der Sozialabgaben zu den zentralen Erklärungsfaktoren der im Trend gestiegenen Arbeitslosigkeit gehören (Kaltenborn; u. a., 2003). Dabei ist es nicht die Höhe der Ausgaben für Gesundheitsleistungen, Alterssicherung und sonstige soziale Leistungen allein, welche die Probleme verursacht. Vielmehr ist es die Tatsache, dass die damit verbundenen Abgaben häufig an den Faktor Arbeit gekoppelt werden. Der Bismarckschen Tradition folgend setzen gerade in Deutschland die meisten Abgaben paritätisch als Arbeitgeber- und Arbeitnehmerbeiträge am Lohn als Bemessungsgrundlage an. Diese auf den ersten Blick klare Lastenverteilung stellt sich bei näherem Hinsehen als ausgesprochen kompliziert heraus. Die Wirkungen

15 Arbeitsmarktökonomik

313

der Beiträge auf Lastverteilung und gesamtwirtschaftliche Effizienz ähnelt jenen der Besteuerung (Homburg, 2003; 4.2.1). In jedem Falle wird der Nettolohn sinken und der Bruttolohn steigen. Versuchen die Arbeitgeber nun, die steigenden Bruttolohnkosten durch Preiserhöhungen auf die Konsumenten zu überwälzen, so verschiebt sich die Preissetzungskurve in Abb. 15.19 nach rechts. Wenn die Arbeitnehmer zugleich versuchen, die Senkung ihres Nettolohns durch aggressivere Lohnpolitik zu verhindern, so verschiebt sich auch die Lohnsetzungskurve nach rechts. Im Ergebnis steigt die inflationsstabile Arbeitslosenquote NAIRU an, und zwar ohne dass dies mit einem Anstieg der Reallöhne verbunden sein müsste. Nur wenn Arbeitgeber und/oder Arbeitnehmer bereit sind, die mit den gestiegenen Sozialabgaben verbundene Verringerung ihres verfügbaren Einkommens auf sich zu nehmen, kann die NAIRU stabil bleiben. Mit zunehmender internationaler Kapitalmobilität allerdings werden die Kapitalgeber nur dann an einem Standort investieren, wenn sie dort die international übliche Kapitalrendite erzielen können. Versucht man in diesem Umfeld, steigende Sozialabgaben auf Unternehmen abzuwälzen, so kommt es zu einer Kapitalabwanderung, die bei starren Löhnen Arbeitslosigkeit verursacht (Apolte, 1999). Insofern werden zunehmende Sozialabgabelasten unter den Bedingungen der Globalisierung letztendlich den Arbeitnehmereinkommen angelastet. Um negative Beschäftigungswirkungen zu vermeiden, ist es daher angeraten, Sozialabgaben soweit wie möglich vom Produktionsfaktor Arbeit abzukoppeln.

15.6

Kommentierte Literaturhinweise

Das deutschsprachige Standardlehrwerk zur Arbeitsmarktökonomik von Wolfgang Franz (2013) eignet sich auch für Einsteiger. Stärker arbeitsmarktpolitisch orientiert mit einem knappen Überblick über die Arbeitsmarkttheorie ist Jürgen Zerche, Werner Schönig, David Klingenberger (2000). Einen Überblick über moderne Arbeitsmarkttheorien, der sich wegen seines weitgehenden Verzichts auf formale Modelle auch für Fachfremde sehr gut eignet, bieten Werner Sesselmeier u.a. (2010). Das Lehrbuch von Goerke, Holler (2013) liefert dagegen ausdrücklich einen modelltheoretisch orientierten Einblick in die Arbeitsmarkttheorie. Auf das Beschäftigungsproblem zugeschnitten und vorwiegend makroökonomisch orientiert ist das Lehrbuch von Oliver Landmann, Jürgen Jerger (1999), welches sich aufgrund seines moderaten formalen Niveaus und seiner ausführlichen Erläuterungen sehr gut für den Einstieg eignet, obwohl es leider nicht mehr neu aufgelegt wurde. Einen leicht verständlichen Überblick über die Arbeitsmarktökonomik in englischer Sprache bieten George J. Borjas (2015) sowie Ronald G. Ehrenberg, Robert S. Smith (2016). Eine umfassende Abhandlung praktisch aller Bereiche der modernen Arbeitsmarktökonomik findet sich in dem von Orley C. Ashenfelter und David Card (2010) herausgegebenen „Handbook of Labor Economics“.

314

Thomas Apolte

Ein makroökonomisch orientiertes Lehrbuch zum Thema Arbeitslosigkeit auf teilweise erheblichem formalem Niveau ist das von Richard Layard, Stephen Nickell, Richard Jackman (2005). In dieser Hinsicht vergleichbar und auf die Theorie des Arbeitsmarkts fokussiert ist Pierre Cahuc, andré Zylberberg (2014).

15 Arbeitsmarktökonomik

315

Literaturverzeichnis Allmendinger, J.; u.  a. (2003), Hg., Löhne und Beschäftigung, Mitteilungen aus der Arbeitsmarkt- und Berufsforschung, 36, Heft 4, Nürnberg (IAB). Apolte, Th. (1999), Chancen und Risiken nationaler Wirtschaftspolitik bei hoher Kapitalmobilität, in: Th. Apolte; R. Caspers; P. J. J. Welfens, Hg. (1999), S. 21–44. Apolte, Th.; D. Kirschbaum (2004), Erfahrungen mit der Politikberatung zu Beginn der deutschen Einheit, in: M. Leschke; I. Pies, Hg. (2004). Apolte, Th.; R. Caspers; P. J. J. Welfens (1999), Hg., Standortwettbewerb, wirtschaftspolitische Rationalität und internationale Ordnungspolitik, Baden-Baden (Nomos). Apolte, Th.; U. Vollmer (2002), Hg., Arbeitsmärkte und soziale Sicherungssysteme unter Reformdruck. Fehlentwicklungen und Lösungsansätze aus institutionenökonomischer Sicht, Stuttgart (Lucius und Lucius). Ashenfelter, O.; D. Card (2010), Handbook of Labor Economics, Amsterdam (North-Holland). Ashenfelter, O.; R. Layard (1986), Handbook of labor economics, Bd. 1, Amsterdam (North-Holland). Ball, L. (1990), Insiders and outsiders: A review essay, in: Journal of Monetary Economics, 26, S. 459–469. Ball, L; N. G. Mankiw (2002) The NAIRU in Theory and Practice, in: Journal of Economic Perspectives 16(4), S. 115-136. Bauer, A. (2013), Mismatch unemployment: evidence from Germany 2000-2010, IAB discussion paper 10/2013. Binmore, K.; A. Rubinstein; A. Wolinsky (1986), The Nash bargaining solution in economic modelling, in: Rand Journal of Economics, 17, S. 176–188. Borjas, G. J. (2015), Labor Economics, 7. A., New York (McGraw Hill). Brinkmann, G. (1999), Einführung in die Arbeitsökonomik, München (Oldenbourg). Cahuc, P.; A. Zylberberg (2014), Labor economics, 2. A. Cambridge, Mass. (MIT Press). Calmfors, L.; J. Driffill (1988), Bargaining structure, corporatism and macroeconomic performance, in: Economic Policy, 6, S. 14–61. Carlin, W.; D. Soskice (1990), Macroeconomics and the wage bargain, Oxford (Oxford University Press). Cassel, D. (1989), Schattenwirtschaft und Deregulierung. Wohlfahrtsstaatliche Reglementierungen der Wirtschaft als Ursache der Expansion des informellen Sektors und ordnungspolitische Gestaltungsaufgabe, in: H. St. Seidenfus, Hg. (1989), S. 37–90. Cassel, D. (1989a), Funktionen der Schattenwirtschaft im Koordinationsmechanismus von Markt- und Planwirtschaften, in: ORDO, 37, S. 73 – 104. Christensen, B. (2001), The determinants of reservation wages in Germany. Does a motivation gap exist? Kiel working paper Nr. 1024, Kiel (Institut für Weltwirtschaft) 2001. Christensen, B. (2003), Anspruchslohn und Arbeitslosigkeit in Deutschland, in: J. Allmendinger, Hg. (2003), S. 573–598.

316

Thomas Apolte

Ehrenberg, R. G.; R. S. Smith (2016), Modern labor economics. Theory and public policy, 12. A., Boston u. a. (Addison Wesley). Fehr, E. (1990), Cooperation, harassment and involuntary unemployment: comment, in: American Economic Review, 80, S. 624–636. Fitzenberger, B.; K. Kohn; Q. Wang (2011), The erosion of union membership in Germany: determinants, densities, decompositions, in: Journal of Population Economics 24(1), S. 141-165. Flassbeck, H.; R. Maier-Rigaud (2003), Auf der schiefen Bahn – Die deutsche Lohnpolitik verschärft die Krise, in: Wirtschaftsdienst, 83, S. 170–177. Franz, W. (2013), Arbeitsmarktökonomik, 8. A., Berlin u. a. (Springer). Franz, W.; K. Gerlach; O. Hübler (2003), Löhne und Beschäftigung: Was wissen wir mehr als vor 25 Jahren?, in: J. Allmendinger; u.a., Hg. (2003), S. 399–410. Friedman, M. (1968), The role of monetary policy, in: American Economic Review, 58, S. 1–15. Fröhling, A. (2003), Strukturelle Arbeitslosigkeit und Korporatismus. Eine theoriegeleitete empirische Analyse für 21 ausgewählte OECD-Staaten zum lohnbezogenen Einfluß von Korporatismus auf die NAIRU, Hamburg (Kovač). Gahlen, B.; H. Hesse (1996), Hg., Arbeitslosigkeit und Möglichkeiten zu ihrer Überwindung, Tübingen (Mohr). Goerke, L.; M. J. Holler (2013), Arbeitsmarktmodelle, Berlin u. a. (Springer). Gottfries, N.; H. Horn (1987), Wage formation and the persistence of unemployment, in: The Economic Journal, 97, S. 877–884. Hall, R. E. (1970), Why is unemployment so high at full employment?, in: Brookings Papers on Economic Activity (1970) 3, S. 369–402. Hall, R. E.; D. M. Lilien (1979), Efficient wage bargains under uncertain supply and demand, in: American Economic Review, 69, S. 868–879. Hamermesh, D. S. (1986), The demand for labor in the long run, in: O. Ashenfelter; R. Layard, Hg. (1986), S. 429–471. Hamermesh, D. S. (1996), Labor Demand, Princeton (University Press). Holst, E. (2000), Die Stille Reserve am Arbeitsmarkt. Größe – Zusammensetzung – Verhalten, Berlin (Bohn). Illing, G. (1996), Arbeitslosigkeit aus der Sicht der Neuen Keynesianischen Makroökonomie, in: B. Gahlen; H. Hesse, Hg. (1996), S. 275–301. Jacobi, L.; J. Kluve (2007), Before and after the Hartz Reforms: The Performance of Active Labour Market Policy in Germany, in: Zeitschrift für Arbeitsmarktforschung 1/2007, S. 45-64. Jerger, J. (1999), Nachfragesteuerung, Lohnbildung und Beschäftigung, Tübingen (Mohr Siebeck). Jerger, J. (2002), Arbeitsmarktregulierung und Beschäftigung: Zu den Effekten staatlich zugeteilter Verfügungsrechte an Arbeitsplätzen, in: Th. Apolte; U. Vollmer, Hg. (2002), S. 142–171.

15 Arbeitsmarktökonomik

317

Jones, R. W. (2000), Technical Progress, Price Adjustments, and Wages, in: Review of International Economics, 8, S. 497 – 503. Kalecki, M. (1935), The mechanism of the business upswing, in: M. Kalecki, Hg. (1971). Kalecki, M. (1971), Hg., Selected essays on the dynamics of the capitalist economy, Cambridge (Cambridge University Press). Kaltenborn, B.; u. a. (2003), Sozialabgaben und Beschäftigung, in: J. Allmendinger; u. a., Hg. (2003), S. 672–688. Kröger, M.; M. Leschke (2002), Pekuniäre Arbeitsanreize für Empfänger von staatlichen Lohnersatzleistungen in Deutschland: Status Quo und Alternativen, in: Th. Apolte; U. Vollmer, Hg. (2002), S. 114–139. Landmann, O. (1989), Verteilungskonflikte, Kapitalbildung und Arbeitslosigkeit, in: H. J. Ramser, Hg. (1989), S. 59–85. Landmann, O.; J. Jerger (1999), Beschäftigungstheorie, Berlin u. a. (Springer). Layard, R. (1997), How to prevent long-term unemployment, in: Beihefte der Konjunkturpolitik. Zeitschrift für angewandte Wirtschaftsforschung, 46, S. 9–25. Layard, R., S. Nickell (1990), Is unemployment lower if unions bargain over employment?, in: Quarterly Journal of Economics, 105, S. 733–787. Layard, R.; S. Nickell; R. Jackman (2005), Unemployment. Macroeconomic performance and the labour market, 2. A., New York (Oxford University Press). Leontief, W. (1946), The pure theory of the guaranteed annual wage contract, in: Journal of Political Economy, 54, S. 76–79. Leschke, M.; I. Pies (2004), Hg., Wissenschaftliche Politikberatung. Theorien, Konzepte, Institutionen, Stuttgart (Lucius & Lucius). Lindbeck A.; D. J. Snower (1987), Efficiency wages versus insiders and outsiders. Theories of involuntary unemployment, in: European Economic Review, 31, S. 401–416. Lindbeck, A.; D. J. Snower (1986), Involuntary unemployment as an insider-outsider dilemma, Seminar Paper No. 309, Institute for International Economic Studies, Stockholm (University of Stockholm). Lindbeck, A.; D. J. Snower (1986a), The insider-outsider theory of employment and unemployment, Cambridge, Mass. (MIT Press). Lindbeck, A.; D. J. Snower (1998), Cooperation, harassment, and involuntary unemployment: An insider-outsider approach, in: American Economic Review, 78, S. 167–189. Lindbeck, A.; D. J. Snower (2001), Insiders versus outsiders, in: Journal of Economic Perspectives, 15, S. 165–188. McCall, J. J. (1970), Economics of information and job search, in: Quarterly Journal of Economics, 84, S. 113–126. McDonald, I. M.; R. M. Solow (1981), Wage bargaining and employment, in: American Economic Review, 71, S. 896–908. Michaelis, J. (1998), Zur Ökonomie von Entlohnungssystemen, Tübingen (Mohr Siebeck). Morgan, P.; R. Manning (1985), Optimal search, in: Econometrica, 53, S. 923–944.

318

Thomas Apolte

Mortensen D. T. (1970), Job search, the duration of unemployment, and the Phillips curve, in: American Economic Review, 60, S. 847–862. Müller, J. (1997), Unvollkommene Güter- und Arbeitsmärkte in makroökonomischen Modellen, Hamburg (Verlag Dr. Kovač). Olson, M. (1985), Aufstieg und Niedergang von Nationen, Tübingen (Mohr). Phelps, E. S. (1970), Hg., Microeconomic foundations of employment and inflation theory, New York (W. W. Norton). Phelps, E. S. (1970), Money-wage dynamics and labour market equilibrium, in: E. S. Phelps, Hg. (1970). Phillips, A. W. (1958), The relation between unemployment and the rate of change of money wage rates in the United Kingdom, 1861–1957, in: Economica, 25, S. 283–200. Ramser, H. J. (1989), Hg., Beiträge zur angewandten Wirtschaftsforschung, Heidelberg (Springer). Rengers, M. (2004), Das international vereinbarte Labour-Force-Konzept, in: Wirtschaft und Statistik (12), S. 1369-1383. Samuelson, P. A.; R. M. Solow (1960), Analytical aspects of anti-inflationary policy, in: American Economic Review, 50, S. 177–194. Schneider, F. (2004), Stellt das Anwachsen der Schattenwirtschaft ein Problem für die Wirtschafts- und Finanzpolitik dar?, in: Perspektiven der Wirtschaftspolitik, 5, Festschrift für Bruno S. Frey. Seidenfus, H. St. (1989), Hg., Deregulierung – eine Herausforderung an die Wirtschaftsund Sozialpolitik in der Marktwirtschaft, Berlin (Duncker & Humblot). Sesselmeier, W.; L. Funk; B. Waas (2010), Arbeitsmarkttheorien. Eine ökonomischjuristische Einführung, Heidelberg (Physica). Sinn, H. W.; u.a. (2003), Welfare to work in Germany – A proposal on how to promote employment and growth, CESifo Research Reports No. 1, München (CESifo). Smolny, W. (2003), Beschäftigungsanpassung in Ost- und Westdeutschland. Eine makroökonometrische Analyse für die deutschen Bundesländer, in: J. Allmendinger; u. a., Hg. (2003), S. 428–438. Solow, R. M. (1979), Another possible source of wage stickiness, in: Journal of Macroeconomics, 1, S. 79–82. Solow, R. M. (1985), Insiders and outsiders in wage determination, in: Scandinavian Journal of Economics, 87, S. 411–428. Solow, R. M. (1986), Unemployment: Getting the questions right, in: Economica, 53, supplement. Spence, M. (1973), Job market signalling, in: Quarterly Journal of Economics, 87, S. 355–374. Wicksell, K. (1898), Geldzins und Güterpreise, Jena 1998. Zerche, J.; W. Schönig; D. Klingenberger (2000), Arbeitsmarktpolitik und -theorie. Lehrbuch zu empirischen, institutionellen und theoretischen Grundfragen der Arbeitsökonomik, München (Oldenbourg).

Sozialpolitik

16

Notburga Ott

Gliederung 16.1 Normative und methodologische Grundlagen.............................................. 321 16.1.1 Gesellschaftliche Grundwerte: Freiheit und Gleichheit.................... 322 16.1.2 Soziale Marktwirtschaft als Ordnungsrahmen.................................. 323 16.1.3 Der Sozialvertrag: Umverteilung oder Versicherung?...................... 324 16.2 Ökonomische Theorie staatlicher Sozialpolitik............................................. 326 16.2.1 Sozialstaatsprinzipien: Solidarität und Subsidiarität......................... 326 16.2.2 Ziele der Sozialpolitik: Verteilungsgerechtigkeit und Soziale Sicherung............................... 329 16.2.2.1 Theorien der Gerechtigkeit.................................................. 329 16.2.2.2 Kriterien der Gerechtigkeit.................................................. 330 16.2.2.3 Soziale Sicherung .................................................................. 334 16.2.3 Allokative Gründe staatlicher Sozialpolitik: Marktversagen........................................................................................ 337 16.2.3.1 Versagen von Versicherungsmärkten.................................. 337 16.2.3.2 Versagen von Kreditmärkten............................................... 339 16.2.3.3 Externalitäten......................................................................... 340 16.2.3.4 Risikoproduktivität................................................................ 341 16.2.4 Distributive Gründe staatlicher Sozialpolitik.................................... 341 16.3 Konzeption der Sozialpolitik in der Bundesrepublik Deutschland............. 343 16.3.1 Gestaltungsprinzipien und Institutionenwahl................................... 344 16.3.2 Träger der Sozialpolitik......................................................................... 346 16.3.3 Das System der Sozialen Sicherung in Deutschland......................... 347 16.3.3.1 Die Sozialversicherungen..................................................... 347 16.3.3.2 Leistungen.............................................................................. 348 16.3.4 Aktuelle Probleme und Herausforderungen...................................... 351 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 T. Apolte et al. (Hrsg.), Kompendium der Wirtschaftstheorie und Wirtschaftspolitik III, https://doi.org/10.1007/978-3-658-21775-4_16

319

320

Notburga Ott

16.4 Einzelbereiche der Sozialen Sicherung............................................................ 352 16.4.1 Alter......................................................................................................... 352 16.4.1.1 Grundprobleme der Alterssicherung.................................. 352 16.4.1.2 Alterssicherung in Deutschland.......................................... 355 16.4.2 Gesundheit.............................................................................................. 360 16.4.2.1 Grundprobleme des Gesundheitswesens........................... 360 16.4.2.2 Gesundheitspolitik in Deutschland..................................... 363 16.4.3 Familie..................................................................................................... 367 16.4.3.1 Grundprobleme der Familienpolitik................................... 367 16.4.3.2 Familienpolitik in Deutschland .......................................... 369 16.4.4 Grundsicherung..................................................................................... 373 16.5 Kommentierte Literaturhinweise..................................................................... 375 Literaturverzeichnis........................................................................................................ 377

16 Sozialpolitik

16.1

321

Normative und methodologische Grundlagen

Allgemein bezeichnet man mit Sozialpolitik das politische Handeln, das darauf abzielt, die wirtschaftliche und soziale Situation benachteiligter Grup­pen in der Gesellschaft zu verbessern. Erklärtes Ziel der neuzeitlichen staatlichen Sozialpolitik, die ihren Ursprung in Maßnahmen zur Verbesserung der sozialen Lage der Arbeiterschaft im 19. Jahrhundert hat, war es zunächst, allen gesellschaftlichen Gruppen ein menschenwürdiges Dasein zu ermöglichen. Mit den Wohlfahrtssteigerungen vor allem in der zweiten Hälfte des letzten Jahrhunderts wurden auch die sozialpolitischen Ziele ausgeweitet. Heute wird vor allem auch ein Ausgleich von Benachteiligungen angestrebt, die keine unmittelbare existenzielle Bedrohung darstellen. Leitend ist dabei das Ziel der Lebensstandardsicherung in Situationen, in denen der Einzelne dazu selbst nicht in der Lage ist. Die Absicherung von verschiedenen Lebensrisiken, die die wirtschaftliche und soziale Lage gravierend beeinträchtigen können, ist neben der Sicherung der reinen Existenzgrundlage zum Kern der Sozialpolitik geworden. Soziale Sicherungssysteme in entwickelten Industrienationen verfolgen alle diese Ziele, jedoch mit unterschiedlicher Gewichtung und unterschiedlichen Instrumenten. Die Kontroversen hinsichtlich der Begründung und Ausgestaltung der Systeme beziehen sich dabei vor allem auf zwei Bereiche. • Die eine Konfliktlinie betrifft das normative Verständnis von „Verteilungsgerechtigkeit“. Während einerseits darunter eine Angleichung im Lebensstandard und dabei insbesondere der Abbau von Einkommens- und Vermögensungleichheiten verstanden wird, wird von anderer Seite das Kriterium der Leistungsgerechtigkeit betont. Unterschiede bestehen dabei vor allem in der Bewertung, welche Folgen dem Einzelnen zugeschrieben werden können und sollen. Werden die Handlungsspielräume des Einzelnen als gering angesehen, weil manche Lebensrisiken als unabwägbar gelten oder dem Marktmechanismus vor allem aufgrund von Machtkonstellationen ein Verteilungsergebnis zugeschrieben wird, das weder unter Bedarfs- noch unter Leistungskriterien als gerecht angesehen wird, wird man eine nachträgliche Korrektur der Marktergebnisse durch Umverteilung anstreben. Vertraut man prinzipiell dem Markt als geeignetem Allokationsmechanismus, wird dagegen eher der Gedanke der Risikoabsicherung im Vordergrund stehen und entsprechend ein Versicherungssystem präferiert werden. In realen sozialen Sicherungssystemen finden sich Elemente beider Ansätze, indem sowohl Umverteilungs- als auch Versicherungsmechanismen zum Tragen kommen. Gesellschaftliche Bewertungskonflikte ergeben sich dabei vor allem daraus, dass soziale Leistungen nach dem Versicherungsprinzip auch Personen zukommen, die nach dem Bedarfsprinzip als weniger bedürftig gelten, was dann im Widerspruch zu den Zielen der Umverteilungspolitik steht. • Die andere Konfliktlinie betrifft die Rolle des Staates bei der Verfolgung der Sicherungsziele. Das Spektrum der Meinungen bewegt sich dabei zwischen den Grundanschauungen, dass die staatliche Aufgabe entweder in der direkten Produktion von sozialer Sicherheit oder aber in der Organisation einer hinreichenden Eigenvorsorge

322

Notburga Ott

bestehe (Krupp, 1988). Dabei sind unterschiedliche, durchaus kontroverse sozialpolitische Konzeptionen mit den jeweiligen Auffassungen hinsichtlich staatlicher Aufgaben vereinbar. So ist die Forderung nach Eigenverantwortlichkeit sowohl mit einem Minimalstaat wie auch mit hoher staatlich organisierter Risikoabsicherung kompatibel. Im Unterschied zu einer allgemeinen Grundsicherung, die durch steuerfinanzierte Transfers gewährleistet wird, bleibt bei einer staatlichen oder staatlich organisierten Versicherungslösung der Bezug zum Risiko und der individuellen Risikovorsorge jedoch weitgehend erhalten. Die Entwicklung in jüngerer Zeit ist stark von der Betonung der Eigenverantwortlichkeit und der Forderung nach einer entsprechenden Umgestaltung des sozialen Sicherungssystems geprägt. Ursächlich dafür ist die absehbare mangelnde Finanzierbarkeit der bisherigen Systeme, für die vor allem zwei Entwicklungen ausschlaggebend sind. Zum einen führt die aus dem Geburtenrückgang folgende Alterung der Gesellschaft zu einer extremen Belastung der jüngeren Generationen im Rahmen der umlagefinanzierten Sicherungssysteme mit der Gefahr der Aufkündigung des sogenannten Generationenvertrages. Zum anderen wird der Finanzierung sozialer Leistungen in Zeiten der Globalisierung durch die erhöhte Mobilität der Produktionsfaktoren die Finanzierungsbasis entzogen. Angesichts dieser Entwicklungen erscheint der Weg zu verstärkter Eigenvorsorge der einzig gangbare, will man nicht eine fehlende Sicherung bei elementaren Lebensrisiken für einen Großteil der Bevölkerung in Kauf nehmen. Umstritten ist dabei jedoch nach wie vor, ob und inwieweit sich diese Eigenvorsorge bei Rücknahme staatlicher Absicherung selbst organisiert und daher den Märkten überlassen werden kann oder andere staatliche Maßnahmen zur Sicherstellung eines hinreichend hohen Absicherungsniveaus notwendig sind.

16.1.1 Gesellschaftliche Grundwerte: Freiheit und Gleichheit Liberale Gesellschaften verfolgen den Grundsatz einer möglichst großen individuellen Freiheit. Wird unter Freiheit ein Zustand verstanden, in dem der Verwirklichung individueller Bedürfnisse nur durch die Freiheitsrechte anderer Schranken gesetzt sind, so werden hier üblicherweise zwei Aspekte – die formale und die materiale Freiheit –unterschieden. Die formale Freiheit, d.h. die Wahrung der individuellen Freiheit vor Übergriffen anderer und des Staates, wird durch die rechtsstaatliche Ordnung gewährleistet. Die materiale Freiheit bezieht sich dagegen auf die Möglichkeiten, im Rahmen der formalen Freiheit selbst gesetzte Ziele verwirklichen zu können. Hier setzt die Sozialpolitik an. Ihr Ziel ist es, den Gesellschaftsmitgliedern ein möglichst großes Maß an materialer Freiheit zu gewährleisten. Während hinsichtlich der formalen Freiheit der Grundsatz der Gleichheit, d.h. der gleichen Rechte und Pflichten aller Gesellschaftsmitglieder, weithin akzeptiert ist, stellt sich dieses Problem für die materiale Freiheit konfliktträchtiger dar. Bei knappen Gütern und Ressourcen bedeuten größere Möglichkeiten der Bedürfnisbefriedigung für die einen

16 Sozialpolitik

323

gleichzeitig eine Beschränkung der materialen Freiheit anderer Gesellschaftsmitglieder, weshalb hier letztlich individuelle Interessen einander entgegenstehen. Im Gegensatz zu allgemeinen Rechtsgrundsätzen stellt sich bei Verteilungsregeln das Verhältnis von Freiheit und Gleichheit insofern problematischer dar, als das Produktionsergebnis, d.h. die Menge der zu verteilenden Güter, von den individuellen Anstrengungen abhängt. Eine Gleichverteilung wird daher kaum Akzeptanz finden, wenn die Gesellschaftsmitglieder sich in unterschiedlichem Ausmaß an der Produktion wohlfahrtsstiftender Güter beteiligen. Denn eine Umverteilung der Ergebnisse stellt dann einen Eingriff in die Freiheitsrechte hinsichtlich der individuellen Ressourcenverwendung dar. Andererseits erfordern gerade diese Freiheitsrechte eine hinreichende Ressourcenausstattung, die letztlich durch Umverteilung zu gewährleisten ist. Hier gilt es, im Rahmen der Gesellschaftsordnung dauerhafte, stabile Regelungen zur Vermeidung ressourcenverschwendender Verteilungskämpfe zu finden.

16.1.2 Soziale Marktwirtschaft als Ordnungsrahmen Die gesellschaftspolitischen Vorentscheidungen, die den Rahmen für Sozialpolitik setzen, betreffen zum einen die Art und Weise der Gütererstellung (die Wirtschaftsordnung) und zum anderen die Mechanismen der gesellschaftlichen Entscheidungsfindung (die politische Ordnung). Liberale Gesellschaftsordnungen mit dem Grundsatz einer möglichst großen Entscheidungsfreiheit und Partizipation der Bürger gründen dabei auf einer demokratischen Verfassung und einer marktwirtschaftlichen Wirtschaftsordnung (vgl. Beitrag zur Theorie der Wirtschaftspolitik, Abschnitt 12.2). In Demokratien werden gesellschaftliche Entscheidungen üblicherweise mit Mehrheitsverfahren getroffen. Die Durchsetzung bestimmter Maßnahmen erfordert somit einen hinreichend großen Konsens bei den Mitgliedern der Gesellschaft (vgl. Beitrag Institutionen, Abschnitt 4.5.1). Dauerhaft stabile Lösungen, insbesondere bei Verteilungsfragen, ergeben sich dabei nur, wenn der weitaus größte Teil der Gesellschaft den Regelungen zustimmt. Je heterogener in pluralistischen Gesellschaften die individuellen Interessen sind und je weniger man daher von einem Wertekonsens ausgehen kann, umso wichtiger wird es, die Vorteilhaftigkeit der Maßnahmen für alle Gesellschaftsmitglieder im Sinne einer Pareto-Verbesserung gegenüber alternativen Regelungen aufzuzeigen. Bei Verteilungsfragen, wo es in den konkreten Einzelsituationen immer Verlierer geben wird, kann dies nur durch Regeln gelingen, die langfristig, d.h. bei wiederholter Anwendung, allen Vorteile bringen, und die dabei so transparent ausgestaltet sind, dass diese Vorteilhaftigkeit auch allen sichtbar wird. Marktwirtschaftliche Wirtschaftssysteme gehen von dezentralen Entscheidungen der Wirtschaftssubjekte aus. Die individuellen Interessen offenbaren sich dabei in den jeweiligen Marktaktivitäten. Unter bestimmten Bedingungen gewährleisten dann die Selbststeuerungsmechanismen des Marktes allokative Effizienz, d.h. die Vermeidung von Ressourcenverschwendung unter dem Gesichtspunkt einer möglichst hohen Bedürfnisbefriedigung

324

Notburga Ott

in der Gesellschaft. Staatliche Eingriffe in die Marktprozesse können jedoch geeignet sein, die allokative Effizienz zu erhöhen, wenn diese Bedingungen nicht erfüllt sind und daher ein sogenanntes „allokatives Marktversagen“ vorliegt (vgl. Beitrag 12 zur Theorie der Wirtschaftspolitik). Darüber hinaus ist es staatliche Aufgabe, die Rahmenbedingungen für die Interaktionsbeziehungen auf den Märkten durch eine entsprechende Rechtsordnung sicher zu stellen (vgl. die Beiträge zu Institutionen, Abschnitt 4.5.2 und zur Theorie der Wirtschaftspolitik, Abschnitt 12.2.2). Schließlich ist eine gesellschaftliche Entscheidung in der Verteilungsfrage immer gefordert, da man generell von einem sogenannten „dis­ tributiven Marktversagen“ sprechen kann, indem das Marktergebnis grundsätzlich auch von der Ausgangsverteilung der Ressourcen abhängt und unterschiedliche Ausgangsverteilungen zu unterschiedlichen Allokationen führen, die gleichwohl alle effizient sein können (vgl. Beitrag zur Theorie der Wirtschaftspolitik, Abschnitt 12.1.4.1). Sozialpolitik betrifft alle genannten staatlichen Gestaltungs- und Handlungsbereiche. Die Beurteilung der Verteilungsfrage sowie daraus folgende Umverteilungsmaßnahmen werden primär dem Bereich der Sozialpolitik zugeordnet. Mit dem Konzept der „Sozialen Marktwirtschaft“, das eine Synthese von wirtschaftlicher Freiheit und sozialem Ausgleich anstrebt, sind sozialpolitische Ziele und Aufgaben bereits im Ordnungsrahmen verankert (vgl. Beitrag Institutionen, Abschnitt 4.5.2). Nach Eucken (1952, 6.A. 1990, S. 315ff.) ist die „Politik zur Ordnung der Wirtschaft“ selbst grundsätzlich auch Sozialpolitik, da eine freiheitliche Wettbewerbsordnung die besten Voraussetzungen für Versorgung, Soziale Gerechtigkeit und Soziale Sicherheit schafft. Darüber hinaus ist jedoch noch eine spezielle Sozialpolitik notwendig, um „der Problematik sozialen Lebens durchgängig gerecht zu werden“. Wenngleich diese Sichtweise im Prinzip von allen Vertretern der Sozialen Marktwirtschaft geteilt wird, bestehen doch Unterschiede in der Beurteilung dessen, was an spezieller Sozialpolitik nötig ist. Sowohl eine minimale Absicherung elementarer Lebensrisiken, eine „Korrektur der Marktergebnisse“ durch Umverteilungspolitik wie auch eine umfassende, am Ziel der Lebensstandardsicherung ausgerichtete Risikoschutzpolitik sind mit dem Konzept der Sozialen Marktwirtschaft vereinbar. So sind auch im Grundgesetz Sozialstaatlichkeit und Sozialbindung des Eigentums zwar festgeschrieben (GG Art. 14, 15, 20, 28), jedoch nicht weiter spezifiziert. Das Konzept der Sozialen Marktwirtschaft allein ist damit für sozialpolitische Maßnahmen nur wenig richtungsweisend (Cassel/Rauhut, 1998). Dies gilt sowohl für die Arbeitsmarkt- und Sozialordnung, als auch für sozialpolitisch motivierte ablaufpolitische Eingriffe in den Markt. In Zeiten von Globalisierung und gesellschaftlichem Wandel mit zunehmender Pluralisierung der Lebensstile, in denen hinsichtlich sozialer Fragen nicht mehr von einem breiten Wertekonsens ausgegangen werden kann, werden sozialpolitische Maßnahmen begründungsbedürftig, um sie im demokratischen Entscheidungsprozess durchsetzen zu können. Hier gilt es dann, die konkreten Maßnahmen auf die gesellschaftlichen Grundwerte und die Prinzipien der Gesellschaftsund Wirtschaftsordnung zurückzuführen.

16 Sozialpolitik

325

16.1.3 Der Sozialvertrag: Umverteilung oder Versicherung? In jüngerer Zeit hat sich in der wissenschaftlichen Betrachtung der Sozialpolitik ein grundsätzlicher Wandel vollzogen. Es wird zunehmend die Frage gestellt, ob die traditionellen Verteilungs- und Sicherungsziele tatsächlich unabhängig sind oder sogar in Konflikt stehen, wie dies in der sozialpolitischen Debatte häufig angeführt wird. Die Widersprüchlichkeit wird darin gesehen, dass Umverteilung als eine einseitige Transaktion gilt, die ohne Gegenleistung erfolgt und daher nicht marktkonform ist, während bei Versicherungen Leistung und Gegenleistung in einem äquivalenten Verhältnis stehen, das dem Leistungsprinzip entspricht. Dieser Widerspruch lässt sich jedoch durch Betrachtung der Zeitkomponente u.U. auflösen. Versicherung bedeutet ex post immer Umverteilung – von den „Glücklichen“ zu den „Unglücklichen“, d.h. den vom Schaden nicht Betroffenen zu den Betroffenen. Umgekehrt hat eine angekündigte Umverteilung ex ante Informationsgehalt und damit eine die subjektive Unsicherheit reduzierende Wirkung (Pies, 2000, S. 105ff.). Häufig werden dabei jedoch nur die möglichen effizienzsenkenden Effekte betont. Als „equity-efficiency trade-off “ (Okun, 1975) ist der leistungsanreizsenkende Effekt von Umverteilungsregeln bekannt. Wenn leistungsstarke Individuen ex ante wissen, dass ihnen ex post von ihren Erträgen ein Teil genommen und zu leistungsschwachen transferiert wird, werden sie ihre Anstrengungen einschränken. Umgekehrt haben die Leistungsschwachen keinen Anreiz, ihre Anstrengungen zu erhöhen. Egalisierende Umverteilungsregeln setzen demnach Anreize, nach denen eine geringere Wohlfahrtsproduktion zu erwarten ist. Dies ändert sich in einer Welt mit Risiko. Versicherungen führen hier zu Effizienzsteigerungen (Abschnitt 16.2.2.3). Nun sind Versicherungen nichts anderes als die Ankündigung einer Umverteilung innerhalb der Risikogemeinschaft. Ex ante, also vor Bekanntwerden der Ergebnisse, führt eine solche Regel zu Nutzensteigerungen und wird von allen einstimmig befürwortet. Ex post hätten die Glücklichen jedoch durchaus ein Interesse daran, wenn der Risikoausgleich nicht stattfände. Der Versicherungsvertrag wird aber ex ante, zum Zeitpunkt der Unsicherheit, eingegangen, weshalb ein späteres Abweichen einen Vertragsbruch darstellt, der gesellschaftlich sanktioniert werden muss, damit auf Märkten solche nutzensteigernden Verträge überhaupt angeboten werden. Rationale Individuen werden solche Regeln befürworten. Dieses Ergebnis kann zusammen mit dem Rawlsschen Denkmodell der vorkonstitutionellen Gesellschaft (Abschnitt 16.2.2) zur Begründung sozialstaatlicher Aktivitäten herangezogen werden. Unter dem „Schleier des Nichtwissens“ sind noch sämtliche individuellen Merkmale, Risiken und Lebenschancen unbekannt, weshalb in dieser Situation alle einer Versicherung, die ein gewisses Einkommen garantiert, zustimmen werden. Sofern sich die Mitglieder dieser vorkonstitutionellen Gesellschaft auch des „equity-efficiency trade-offs“ bewusst sind, werden sie jedoch keine Gleichverteilungsregel wählen. Sozialpolitische Umverteilungsmaßnahmen können somit als ein Versicherungsvertrag auf konstitutioneller Ebene rekonstruiert werden. Da der Versiche­rungs­­vertrag ex ante geschlossen werden muss, also zu einem Zeitpunkt, zu dem die Individuen noch gar nicht real zustimmen können, folgt daraus ein staatlicher Versicherungszwang mit einem für alle

326

Notburga Ott

gleichem Risiko. Ein solcher Sozialvertrag, bei dem sich Umverteilungsmaßnahmen – ob im Rahmen von Sozialversicherungen oder durch steuerfinanzierte Transfers – generell als Versicherung von allgemeinen Lebens­risiken darstellen, ist allgemein zustimmungsfähig, da er in der ex ante-Situation für alle Nutzensteigerungen bringt (Rolf/Spahn/Wagner, 1988, 2). Dies ändert jedoch nichts an dem praktisch relevanten Problem, dass es auf der postkonstitutionellen Ebene, d.h. in konkreten Situationen, wenn viele Ereignisse bereits eingetreten und die Unsicherheiten über die eigene soziale Lage deutlich reduziert sind, aus individueller Sicht durchaus Anreize zum Abweichen von solchen prinzipiell zustimmungsfähigen Regeln gibt. Da sich sozialpolitische Maßnahmen in konkreten gesellschaftlichen Situationen immer als Umverteilung darstellen, die einen Teil der Bevölkerung kurzfristig zugunsten anderer schlechter stellen, steht die Sozialpolitik vor dem Problem, solche Umverteilungsregeln – selbst wenn diese in der Bevölkerung prinzipiell breite Akzeptanz finden – nur soweit umsetzen zu können, wie die einzelnen Umverteilungsmaßnahmen gewisse Größenordnungen nicht überschreiten. Was sozialpolitisch durchsetzbar ist und in der Bevölkerung als gerecht akzeptiert wird, hängt damit immer vom jeweiligen Ausgangszustand ab und muss in Politik und Öffentlichkeit permanent diskutiert und neu bestimmt werden. Gerade in diesem politischen Diskurs sind jedoch allgemeine Begründungen im Sinne eines konstitutionellen Sozialvertrages von großer Bedeutung. Durch das Aufzeigen der prinzipiellen Vorteilhaftigkeit von Regeln für alle Gesellschaftsmitglieder erhalten diese eine kommunizierbare Begründung, was den Konsensfindungsprozess einer Gesellschaft erleichtern sollte. Eine Sichtweise, Umverteilungsmaßnahmen dem Grunde nach als Versicherung anzusehen, hat dabei den Vorteil, dass der Gegensatz zwischen Umverteilungs- und Sicherungszielen prinzipiell aufgehoben ist und es damit leichter sein sollte, auf der instrumentellen Ebene ein konsistentes Konzept sozialpolitischer Maßnahmen zu entwickeln. Für die Akzeptanz in der Bevölkerung ist es dabei wichtig, dass Regelungen nicht nur prinzipiell dem Versicherungsgedanken entsprechen, sondern in der konkreten Ausgestaltung die dem Äquivalenzprinzip entsprechenden Leistungs- und Gegenleistungsströme so weit wie möglich auch institutionell zu verankern, um die Transparenz zu erhöhen und vor allem um die Institutionen ausbeutungssicher zu gestalten. Die Idee des Sozialvertrages eignet sich damit vor allem als Evaluierungsinstrument bei der Beurteilung und Gestaltung sozialpolitischer Institutionen.

16.2

Ökonomische Theorie staatlicher Sozialpolitik

16.2.1 Sozialstaatsprinzipien: Solidarität und Subsidiarität Zu den Grundprinzipien der Gesellschafts- und Wirtschaftsordnung gehören – die Sozialordnung betreffend – das Solidaritäts- und das Subsidiaritätsprinzip. Gemeinsam stellen sie eine Leitlinie für die soziale Verantwortungsstruktur in der Gesellschaft und damit auch für die Zuständigkeit und die Grenzen staatlichen Handelns dar. Am deutlichsten

16 Sozialpolitik

327

wird dies in der Ausformulierung dieser Prinzipien von Seiten der katholischen Soziallehre. Nell-Breuning (1968) bezeichnet dabei das Solidaritätsprinzip als Zuordnungsprinzip und das Subsidiaritätsprinzip als Zuständigkeitsprinzip, wobei die Zuständigkeiten aus der Zuordnung folgen. • Das Solidaritätsprinzip bezieht sich auf die Verbundenheit zwischen den Mitgliedern von Gruppen und Gemeinschaften bzw. zwischen sozialen Gruppen. Es kennzeichnet die Verantwortungsgemeinschaft, die durch wechselseitiges füreinander Einstehen gemeinsame Ziele verfolgt. Der Einzelne übernimmt Verantwortung für das Gemeinwohl und die Gemeinschaft für den Einzelnen. Wie die Beziehungen innerhalb einer Gemeinschaft gestaltet sind, soll dieser selbst überlassen bleiben. • Das Subsidiaritätsprinzip legt dagegen eine bestimmte Ordnung der Zuständigkeiten innerhalb der Gesellschaft fest. Dabei wird von einer Hierarchie der Gemeinschaften ausgegangen. Nach diesem Prinzip hat das Individuum bzw. die kleinere Gemeinschaft das Recht wie auch die Pflicht, diejenigen Aufgaben zu übernehmen, die es eigenverantwortlich lösen kann. Dies impliziert gewisse Abwehrrechte wie auch Ansprüche an Hilfe durch die nächstgrößere Gemeinschaft. Die Abwehrrechte des Individuums bzw. der kleineren Gemeinschaft beziehen sich auf seine Autonomie und Selbstverantwortung, indem eine größere Gemeinschaft keine Aufgabe an sich ziehen soll, die eine kleinere oder das Individuum aus eigener Kraft lösen kann. Umgekehrt hat die größere Gemeinschaft das Abwehrrecht gegenüber Aufgaben, die von kleineren Sozialgebilden übernommen werden können. Gleichzeitig beinhaltet das Subsidiaritätsprinzip auch die Verpflichtung einer Gemeinschaft zur Übernahme der Aufgaben, die nur sie lösen kann. Dies bedeutet insbesondere auch die Verantwortung der größeren Gemeinschaft für Bedingungen, die das Individuum bzw. die kleinere Gemeinschaft in die Lage eigenverantwortlichen Handelns versetzen – soweit sie diese Bedingungen beeinflussen kann. Das Subsidiaritätsprinzip drückt somit einen Vorrang für nichtstaatliche Lösungen aus, fordert aber gleichzeitig dort staatliche Eingriffe, wo die formale und materiale Freiheit soweit eingeschränkt sind, dass eigenverantwortliche Aufgabenerfüllung nicht mehr erwartet werden kann. Dabei sind Maßnahmen, die einer „Hilfe zur Selbsthilfe“ entsprechen, einer staatlichen Übernahme der Aufgaben vorzuziehen. In diesem Sinne wird die Beseitigung von Marktmängeln zu einer vorrangigen Aufgabe des Staates. Obwohl diese Prinzipien auf der Basis einer freiheitlichen Grundordnung bereits klare Richtlinien für staatliches Handeln setzen, sind sie dennoch zu unbestimmt, um allein aus ihnen konkrete sozialpolitische Maßnahmen ableiten zu können. So ist eine sehr weite Auslegung des Solidaritätsbegriffs als Maxime für staatliches sozialpolitisches Handeln kaum hilfreich. Mit dem Begriff der Solidarität werden häufig altruistische Motive und ein Gemeinsinn schlechthin verbunden. Dennoch dient die Bildung von Solidargemeinschaften überwiegend konkreten gemeinsamen Zielen, an denen jedes Mitglied ein individuelles Interesse hat, diese aber allein nicht erreichen kann. Letztlich begründet sich nur hierin die Ordnungsfunktion des Solidaritätsprinzips in einer freiheitlichen Gesellschaftsordnung,

328

Notburga Ott

die Gemeinschaften nur dann gemäß dem Subsidiaritätsprinzip die Zuständigkeit für bestimmte Aufgaben zuerkennen und auferlegen kann, wenn die Freiheit des Individuums gewahrt bleibt. Aus spieltheoretischer bzw. institutionenökonomischer Sicht lässt sich dieser Aspekt der Solidargemeinschaft als sogenannte Kooperationsgemeinschaft rekonstruieren, die durch teilweise Ressourcenzusammenlegung in einer auf längere Zeit angelegten Kooperationsbeziehung gemeinsame Güter produziert und gemeinsame Ziele verfolgt, von denen alle Mitglieder profitieren, wobei in Einzelsituationen durchaus individuelle Schlechterstellungen hingenommen werden. Allerdings darf bei dieser Auslegung des Solidaritätsprinzips nicht verkannt werden, dass sich viele soziale Gemeinschaften wie z.B. die Familie oder religiöse Gruppierungen nicht ausschließlich oder nicht einmal vorrangig als eine solche Kooperationsgemeinschaft verstehen, da sie darüber hinaus durch affektive Beziehungen oder ideologische Werthaltungen verbunden sind. Obwohl auch daraus eine ethisch begründete Verantwortung erwachsen kann, ist diese für eine gesellschaftliche Aufgabenzuschreibung bedeutungslos, da ihr keine rechtliche Verbindlichkeit zukommt. So kann der Staat zwar z.B. eheliche Unterhaltsverpflichtungen einfordern, nicht jedoch Liebe, Anerkennung und Wertschätzung in den zwischenmenschlichen Beziehungen. Daher sollte sich die Gesellschaft auch nicht darauf verlassen, dass eine emotionale oder ideologische Verbundenheit in sozialen Gemeinschaften ein hinreichendes Sicherungsniveau gewährleistet, sondern Vorkehrungen treffen, dass auch bei Fehlen solcher Motive keine Sicherungslücken entstehen. Auch das Subsidiaritätsprinzip erweist sich in der konkreten Anwendung als nicht ganz unproblematisch und bedarf ergänzender Kriterien. So entspricht das Denkmodell „konzentrisch ineinandergelagerter Lebenskreise“ nicht der Lebensrealität (Heinze/Klie/ Kruse, 2015, 134). Die verschiedenen Solidargemeinschaften in der Gesellschaft verfolgen jeweils sehr unterschiedliche Ziele. Insbesondere haben größere Gemeinschaften wie die Sozialversicherungen oder Interessenverbände häufig ein viel spezifischeres und engeres Ziel als die kleineren wie die Familie. Daher existieren verschiedene solcher Solidargemeinschaften nebeneinander, so dass nicht eindeutig bestimmt ist, welche nächsthöhere Gemeinschaft bei mangelnder Leistungsfähigkeit der kleineren zuständig wird. Letztlich muss man diese Frage an den von den jeweiligen Gemeinschaften verfolgten Zielen orientieren. So wird man innerhalb der Familie eine höhere Verantwortung in allen Lebensbereichen einfordern als z.B. innerhalb der Solidargemeinschaft der Rentenversicherten, der man die Kosten einer Erkrankung eines Mitglieds nicht aufbürdet, sondern der Krankenversicherung überträgt. Allerdings sind die Zuständigkeitsbereiche häufig nicht ganz so einfach zuzuordnen; so sind z.B. bei Arbeitslosigkeit in Deutschland sowohl die Arbeitsvermittlung, die Tarifpartner, die Kommunen wie auch die Wirtschaftspolitik des Bundes gefordert. Ein noch gravierenderes Problem ergibt sich dadurch, dass die Solidargemeinschaften der verschiedenen Ebenen nicht vorgegeben sind, sondern von den Mitgliedern der Gesellschaft selbst gebildet werden. Das Fehlen einer subsidiären Verantwortungsgemeinschaft mag dann nicht immer schicksalshaft sein, sondern auf Entscheidungen der Betroffenen beruhen, womit die größeren Solidargemeinschaften ausbeutbar werden und das

16 Sozialpolitik

329

Subsidiaritätsprinzip ins Gegenteil verkehrt wird. So erhalten z.B. in vergleichbarer Lage Personen ohne Kinder eher Leistungen der Sozialhilfe als Personen, die Kinder erzogen haben, deren Unterstützung nach dem Subsidiaritätsprinzip zunächst eingefordert wird. Während also letztere die Voraussetzungen für eine weitgehende Absicherung innerhalb der Familie mit erheblichen Kosten selbst geschaffen haben, wird die fehlende Eigenvorsorge der anderen nicht nur durch die Kostenersparnis, sondern auch durch höhere Leistungen der größeren Solidargemeinschaft belohnt. Ein so umgesetztes Subsidiaritätsprinzip schafft Anreize, die eigene Basis auszuhöhlen.

16.2.2 Ziele der Sozialpolitik: Verteilungsgerechtigkeit und Soziale Sicherung Als Ziele der Sozialpolitik werden üblicherweise Verteilungsgerechtigkeit und Soziale Sicherung genannt (zu einer ausführlichen Diskussion Schönig, 2002). Soweit diese Begriffe substanziell nicht näher spezifiziert sind, besteht darüber ein breiter Konsens in der Gesellschaft. Dass die Märkte kein Verteilungsergebnis erzeugen, das von der Mehrheit in der Gesellschaft als gerecht empfunden wird, und dass es Lebensrisiken gibt, die das Individuum allein nicht zu bewältigen vermag, scheint so offensichtlich, dass heute grundsätzlich eine gesellschaftliche Verantwortung zur Lösung bzw. Reduzierung der Probleme und ein entsprechendes staatliches Handeln befürwortet wird. Große Kontroversen gibt es jedoch hinsichtlich der Fragen, was als gerechtes Verteilungsergebnis angesehen werden soll und welche Risiken einer kollektiven Absicherung bedürfen. Daher sind bezüglich beider Ziele zusätzliche Kriterien nötig, um hier im demokratischen Entscheidungsprozess zu tragfähigen Lösungen zu gelangen.

16.2.2.1 Theorien der Gerechtigkeit In der Vergangenheit sind immer wieder Versuche unternommen worden, objektive Kriterien für eine gerechte Verteilung theoretisch abzuleiten. Die philosophischen Wurzeln reichen dabei bis weit in das Altertum zurück. In der Ökonomie wird dieser Frage vor allem in der Wohlfahrtstheorie nachgegangen. Die traditionelle utilitaristische Wohlfahrtsökonomik geht von dem Ziel des „größten Glücks der größten Zahl“ aus. Zur Bestimmung des gesellschaftlichen Optimums wird eine sogenannte Soziale Wohlfahrtsfunktion maximiert, die aus den individuellen Nutzenfunktionen der Gesellschaftsmitglieder abgeleitet wird (z.B. Summe der individuellen Nutzen). Notwendige Voraussetzung dafür ist eine interpersonelle Vergleichbarkeit der individuellen Nutzen sowie ein Gewichtungsmaßstab. Abgesehen davon, dass die interpersonelle Vergleichbarkeit in der Realität nicht gegeben ist, ist bei diesem Konzept die Verteilungsregel mit der funktionalen Form der Sozialen Wohlfahrtsfunktion bereits vordeterminiert und wird nicht endogen durch die Theorie erklärt. In der paretianischen Wohlfahrtsökonomik wird dagegen die Annahme der interpersonellen Vergleichbarkeit der Nutzen aufgegeben und lediglich ein ordinales Nutzenkonzept

330

Notburga Ott

verwendet. Zur Bestimmung des gesellschaftlichen Optimums wird ausschließlich das Pareto-Kriterium zugrunde gelegt, d.h. es werden Lösungen identifiziert, die Zustimmung aller erhalten können. Nach diesem Ansatz lassen sich aber nur noch die Kriterien für eine effiziente Allokation als notwendige Voraussetzung für das soziale Wohlfahrtsoptimum angeben, dieses selbst kann jedoch nicht eindeutig bestimmt werden (vgl. Beitrag zur Mikroökonomik, Abschnitt 1.3.2). Die Frage, welche der unendlich vielen effizienten Allokationen als gerechtes Verteilungsergebnis angesehen wird, bleibt auch hier als normative Frage der kollektiven Entscheidung überlassen. Die Zustimmung der Gesellschaftsmitglieder, d.h. das Pareto-Kriterium, steht auch bei den kontrakttheoretischen Gerechtigkeitstheorien der jüngeren Zeit im Mittelpunkt, indem sie der Frage nachgehen, unter welchen Bedingungen rationale Akteure einstimmig eine bestimmte Verteilungsregel befürworten (vgl. Beitrag Institutionen, Abschnitt 4.5.1). Mit dem Denkmodell des „Schleiers des Nichtwissens“ geht Rawls (1971) dabei von einer hypothetischen Situation aus, in der die Individuen ihren Platz in der Gesellschaft noch nicht kennen. Risikoaverse Individuen werden dann eine Verteilungsregel präferieren, in der sie im schlechtesten Fall möglichst gut gestellt sind (Maximin-Prinzip). Unterstellt man andere Annahmen hinsichtlich des Verhaltens bei Unsicherheit wie z.B. die Erwartungsnutzenmaximierung, erhält man ebenfalls ein einstimmiges Ergebnis, das gleichwohl zu einer anderen Verteilungsregel führt (Gärtner, 1985). Je nach Annahmen über die Art der Unsicherheit, die in verschiedenen Graden und Dimensionen – von Risiko bis Ignoranz oder Unsicherheit im engeren Sinne (Zweifel/Eisen, 2003, S. 1ff) – vorliegen kann, und über das jeweilige individuelle Entscheidungsverhalten lassen sich beliebig viele Verteilungsregeln als zustimmungsfähig identifizieren. Lässt man jedoch zu, dass sich die Individuen in ihrer Risikoeinstellung unterscheiden, ist Einstimmigkeit auch unter dem „Schleier des Nichtwissens“ nicht mehr gewährleistet (Ott, 2001, S. 173ff.). Darüber hinaus handelt es sich bei den Theorien der Gerechtigkeit überwiegend um statische Konzepte, die von einem zu verteilenden Produktionsergebnis ausgehen, ohne den Produktionsprozess selbst und seine Dynamik mit zu berücksichtigen. Aus den Theorien der Gerechtigkeit lassen sich somit keine für die praktische Sozialpolitik verwertbaren objektiven Verteilungsregeln ableiten.

16.2.2.2 Kriterien der Gerechtigkeit Die praktische Sozialpolitik wird sich in der Frage der Verteilungsgerechtigkeit an einigen Kriterien orientieren, hinsichtlich derer es zumindest dem Grunde nach einen relativ großen Konsens in der Gesellschaft gibt. Die Gerechtigkeitsfrage stellt sich dabei vor allem hinsichtlich der materialen Freiheit der Bürger. Hierbei geht es zunächst um die Frage, welche Ressourcen den Menschen zur Erreichung ihrer Ziele zur Verfügung stehen. Darüber hinaus ist es in einer Welt mit Unsicherheit von Bedeutung, wie die Chancen und Risiken verteilt sind. Entsprechend wird in der sozialpolitischen Diskussion zwischen Verteilungsgerechtigkeit im engeren Sinn, die sich wiederum auf Leistungs- oder Bedarfskriterien bezieht, und andererseits Chancen- bzw. Partizipationsgerechtigkeit unterschieden. Betrachtet man beide Begriffe in Bezug auf den Produktionsprozess wohlfahrtsstiftender

16 Sozialpolitik

331

Tab. 16.1  Gerechtigkeitskriterien in der praktischen Sozialpolitik

Partizipationsgerechtigkeit Möglichkeiten der Teilnahme am Produktionsprozess Startchancen­ Prozesschancen­ gerechtigkeit gerechtigkeit

Verteilungsgerechtigkeit Verteilung des Produktionsergebnisses Leistungs­­gerechtigkeit

Bedarfs­­gerechtigkeit

Güter, so bezieht sich die Verteilungsgerechtigkeit vor allem auf die Verteilung der Güter und Lasten und setzt damit am Produktionsergebnis an, während die Partizipationsgerechtigkeit die Möglichkeiten und Pflichten der Teilnahme an diesem Produktionsprozess betrifft. Partizipationsgerechtigkeit Ein hoher Stellenwert der Partizipationsgerechtigkeit im Sinne der gleichberechtigten Teilnahme sowohl am Wirtschaftsprozess als auch an allen anderen gesellschaftlichen Bereichen folgt sowohl direkt aus dem Grundsatz der möglichst großen individuellen Freiheit als auch aus den Ordnungsprinzipien Subsidiarität und Markt. So erfordert der Markt zum Entfalten seiner wohlfahrtsoptimierenden Eigenschaften einen funktionsfähigen Wettbewerb, d.h. vor allem auch freien und gleichberechtigten Marktzugang sowie das Fehlen von Marktmachtstellungen. Bei der Herstellung von Partizipationsgerechtigkeit geht es dann darum, zunächst einmal die Möglichkeiten der Partizipation zu konstituieren (Startchancengerechtigkeit) und eine gleichberechtigte Teilhabe am Produktionsprozess im Zeitablauf zu erhalten (Prozesschancengerechtigkeit). • Startchancengerechtigkeit bezieht sich dabei auf die Ressourcenausstattung, mit der sich die Individuen an den Marktprozessen beteiligen können, und umfasst sowohl Real- wie Humanvermögen. Primäre Ansatzpunkte sind daher das Erbrecht, die Familienpolitik und das Erziehungs- und Ausbildungswesen. Umstritten ist jedoch, was Chancengerechtigkeit bei der Humanvermögensausstattung bedeutet und wie sich diese erreichen lässt. Soll möglichst ein Ausgleich der von Natur aus unterschiedlichen Fähigkeiten erfolgen, also eine Angleichung der Humanvermögensausstattung angestrebt werden, oder dient eine Stärkung der individuellen Fähigkeiten im Sinne einer Spezialisierung eher der Förderung vergleichbarer Lebenschancen? Dieser Frage wird momentan weder in der allgemeinen sozialpolitischen noch in der familien- oder bildungspolitischen Diskussion ein hoher Stellenwert beigemessen, obwohl die daraus resultierenden Verteilungseffekte von erheblicher Bedeutung sind. • Prozesschancengerechtigkeit erfordert darüber hinaus die Herstellung gleicher Partizipationsmöglichkeiten bei gleicher Ressourcenausstattung sowie deren Wahrung im Zeitablauf. Dies bedeutet zum einen, dass die Beteiligungsmöglichkeiten weder formal noch faktisch von irrelevanten, d.h. für die jeweilige Aktivität unerheblichen, individuellen Merkmalen abhängen dürfen. Neben Diskriminierungsverboten, die jedoch

332

Notburga Ott

in der Praxis von nicht allzu großer Bedeutung sind, geht es hier vor allem um die Herstellung gleicher Chancen bei sogenannter statistischer Diskriminierung. An sich irrelevante Merkmale (z.B. Geschlecht) dienen dabei aufgrund eines statistischen Zusammenhanges als Signale für nicht beobachtbare Eigenschaften oder zu erwartende Entwicklungen (z.B. Erwerbsunterbrechungen), wodurch einzelwirtschaftliche Effizienzsteigerungen erzielt werden können. Personen mit diesen Merkmalen werden jedoch ungeachtet ihrer wahren Eigenschaften von manchen Verwertungsmöglichkeiten ihrer Ressourcen ausgeschlossen (Ott, 2017). Hier stellt sich dann die Frage, ob die Ungleichheit individueller Chancen zugunsten einer solchen Effizienzsteigerung auf den Märkten toleriert werden oder die Herstellung gleicher Chancen durch Marktregulierung wie z.B. Quotierungen versucht werden soll. Ein Abbau der Chancenungleichheit ist sicherlich dann geboten, wenn die durch Informationsmängel verursachten Ineffizienzen des Marktes mittels anderer marktkonformer Maßnahmen beseitigt oder reduziert werden können. So mag z.B. eine Verbesserung der Kinderbetreuungsmöglichkeiten die Planbarkeit der Erwerbsverläufe von Frauen denen der Männer angleichen und entsprechende statistische Diskriminierung produzierende Informationsmängel beseitigen. Zum anderen erfordert die Wahrung der Partizipationsmöglichkeiten im Zeitablauf den Ausgleich von Chancenminderungen, die nicht das Individuum zu verantworten hat, wie z.B. eine unvorhersehbare plötzliche Entwertung des Humanvermögens aufgrund neuer technologischer Entwicklungen. Nicht ganz so klar ist die Situation zu beurteilen, wenn eine Chancenminderung zwar absehbare Folge individueller Entscheidungen ist, sie jedoch auf Marktmängeln beruht und durch staatliches Handeln hätte vermieden werden können, oder wenn sie sogar direkte, aber nicht intendierte Folge staatlichen Handelns ist. Zu denken wäre hier beispielsweise an eine Minderung späterer Berufschancen von Frauen nach einer gesellschaftlich erwünschten und durch entsprechende Rahmenbedingungen erwirkte Einschränkung der Erwerbstätigkeit in der Familienphase. Ein Ausgleich solcher Chancenminderungen ist dann zur Vermeidung von Fehlanreizen geboten. Ansatzpunkte wären jeweils Umschulungs­maßnahmen und Wiedereingliederungshilfen. Verteilungsgerechtigkeit Die Verteilung des Produktionsergebnisses findet zunächst durch die Marktprozesse statt. Die Marktergebnisse werden jedoch nicht uneingeschränkt als gerecht angesehen, weshalb sie an zusätzlichen Gerechtigkeitskriterien gemessen werden und gegebenenfalls eine Korrektur durch Umverteilung erfolgt. • Nach dem Kriterium der Leistungsgerechtigkeit soll die Verteilung der Güter die erbrachte Leistung der Gesellschaftsmitglieder widerspiegeln, indem sie an der Produktionsleistung entsprechend ihres Beitrags zu dieser Produktion partizipieren. In einer Marktwirtschaft gilt dabei die Grundvermutung, dass die Bewertung der individuellen Leistung über die Preisbildung am Markt in angemessener Weise erfolgt. Dies ist jedoch nicht unumstritten, weil das Ergebnis nicht nur von der individuellen

16 Sozialpolitik

333

Anstrengung abhängt, sondern auch von der Funktionsfähigkeit der Märkte. Der Marktpreis kann nur dann als leistungsgerecht angesehen werden, wenn die Preisbildungsprozesse unverzerrt ablaufen. Marktmängel wie Marktmacht oder Externalitäten, aber auch mangelnde Anpassungsfähigkeit an Änderungen der Knappheitsrelationen, insbesondere wenn dazu hohe Humankapitalinvestitionen notwendig sind, führen dann zu einer nicht leistungsgerechten Entlohung. Gleichzeitig werden dadurch Anreize für ein individuelles Handeln gesetzt, das die in einer Gesell­schaft vorhandenen Ressourcen nicht effizient i.S. der Wohlfahrtsproduktion nutzt. Allokative Effizienz und Leistungsgerechtigkeit sind damit einander bedingende gesellschaft­liche Ziele. Wird allokative Effizienz aufgrund von Marktversagen nicht erreicht, begründet dies staatliche Maßnahmen, die damit gleichzeitig zur Leistungsgerechtigkeit beitragen. Darüber hinaus können selbst bei Fehlen von Marktmängeln Marktergebnisse nur dann als gerecht angesehen werden, wenn jeder gleiche Chancen hat, sich an der gesellschaftlichen Leistungs­er­stel­lung gleichberechtigt zu beteiligen. Partizipationsgerechtigkeit ist somit eine notwendige Voraussetzung dafür, dass das Marktergebnis als leistungsgerecht gelten kann. Erst dann lässt sich die Nutzung dieser Chancen der Eigenverantwortlichkeit der Individuen zurechnen. • In Gegensatz zur Leistungsgerechtigkeit wird häufig das Kriterium der Bedarfsgerechtigkeit gesetzt, was aber zumindest zum Teil nur einen vordergründigen Konflikt kennzeichnet. Die Bedarfsgerechtigkeit knüpft an den Bedürfnissen der Gesellschaftsmitglieder bzw. ihrem Bedarf gemäß dem Ziel der materiellen Freiheit an. Problematisch an einer Verteilung nach dem Bedarfsprinzip ist, dass damit der Anreiz, sich am Produktionsprozess zu beteiligen, reduziert wird. Daher wird dieses Prinzip auch nicht ausschließlich, sondern vor allem im Sinne einer Mindestbedarfssicherung verwendet. Da die individuellen Bedürfnisse jedoch nicht beobachtbar sind, stellt sich das Bewertungsproblem, was als gesellschaftlich anerkannter Mindestbedarf gelten soll, der für alle Gesellschaftsmitglieder zu gewährleisten wäre. Hier gibt es keine objektiven Maßstäbe, weshalb die entsprechenden Kriterien in einem gesellschaftlichen Diskussions- und Entscheidungsprozeß immer wieder neu ausgehandelt werden müssen. Umstritten ist auch, ob und in welchem Umfang eine auf die Verringerung von Einkommensunterschieden abzielende Bedarfsgerechtigkeit verfolgt werden soll. Eine Begründung hierfür ergibt sich vor allem aus versicherungstheoretischer Perspektive, da einerseits die Zufälle der Anfangsausstattung nicht völlig im Sinne der Startchancengerechtigkeit kompensiert werden können und andererseits bei Entlohnung mittels Marktpreisen der Ertrag der individuellen Anstrengung ebenfalls von Zufällen abhängig ist. Daraus folgende, vom Individuum nicht zu verantwortende Kostenunterschiede erfordern daher einen Ausgleich. Da in einer dynamischen Welt die Verteilung der Produktionsergebnisse wiederum Ausgangspunkt für die weitere Teilhabe am künftigen Produktionsprozess ist, erfordert jedoch auch das Kriterium der Prozesschancengerechtigkeit häufig eine Korrektur dieser Marktergebnisse unter zeitpunkt- oder phasenbezogenen Bedarfsgesichtspunkten, womit dann die Unterscheidung zwischen Verteilungs- und Partizipationsgerechtigkeit und damit auch zwischen Leistungs- und Bedarfsgerechtigkeit unscharf wird (Abschnitt 16.2.4).

334

Notburga Ott

16.2.2.3 Soziale Sicherung Auch der Begriff der Sozialen Sicherung bedarf einer Konkretisierung, um für die Gestaltung sozialpolitischer Maßnahmen richtungsweisend sein zu können. Er wird im Gegensatz zur privaten Sicherung abgegrenzt und bezeichnet die gesellschaftliche Absicherung individueller Risiken. Da Menschen im allgemeinen sichere Zustände unsicheren vorziehen, sind sie an Sicherungsmaßnahmen, d.h. an Maßnahmen zur Herstellung von Sicherheit, interessiert. Dies kann einerseits durch die Vermeidung und Verminderung der Risiken selbst (z.B. durch Unfallverhütungsmaßnahmen) oder durch Ausgleich bzw. Verminderung der Folgen von Risiken erfolgen, was üblicherweise als Versicherung bezeichnet wird. Das Interesse der Individuen an einer Versicherung lässt sich anhand der sogenannten Risikonutzenfunktion verdeutlichen. Unter einer Risikosituation sei hier entsprechend der Definition von Knight (1921) ein Zustand verstanden, in dem die möglichen künftigen Zustände vollständig bekannt sind und hinsichtlich ihres Eintretens bestimmte Wahrscheinlichkeiten zugeordnet werden können. Im einfachsten Fall (Abb. 16.1) ist das Individuum mit einer Situation konfrontiert, in der nur zwei Zustände mit gleicher Wahrscheinlichkeit eintreten können: Ausgehend von einem Anfangsvermögen A0 ist ein Verlust oder ein Gewinn in jeweils gleicher Höhe möglich. A1 und A2 bezeichnen die beiden möglichen Endvermögen und p die Eintrittswahrscheinlichkeit für A1. Der Erwartungswert entspricht dann in diesem Beispiel gerade dem Anfangsvermögen: EW = p ∙ A1 + (1 – p) ∙ A2 = A0

Abb. 16.1  Riskonutzenfunktion

16 Sozialpolitik

335

Risikoaverse Individuen bewerten einen Verlust schwerer als einen gleich hohen Gewinn. Dies entspricht dem Gesetz vom abnehmenden Grenznutzen (erstes Gossensches Gesetz, vgl. Beitrag zur Mikroökonomik, Abschnitt 1.2.1.2), wonach die Nutzendifferenz zwischen A0 und A1 größer ist als zwischen A0 und A2. Der erwartete Nutzen, der sogenannte Erwartungsnutzen EU = p ∙ U(A1) + (1 – p) ∙ U(A2) < U(EW) entspricht daher nicht dem Nutzen des Erwartungswertes, sondern liegt systematisch darunter. Unsicherheit führt somit zu Nutzeneinbußen. Ein sicheres Vermögen, das einen Nutzen in Höhe des Erwartungsnutzens stiftet, wird Sicherheitsäquivalent (AS) genannt und ist kleiner als der Erwartungswert (EW). Diese Differenz (EW – AS) stellt die Zahlungsbereitschaft des Individuums für die sichere Alternative dar. Eine Versicherung, deren Prämie nicht höher ist, wird daher nachgefragt werden. Versicherungen verteilen die Folgen von Risiken auf eine Gruppe von gleichartig gefährdeten Personen (i = 1...n). Da so gut wie nie alle Gefährdeten gleichzeitig vom Risiko betroffen sind, ist im allgemeinen der Gesamtschaden in der Gruppe kleiner als die maximale Schadenssumme. Der individuelle Anteil am Gesamtschaden (GS) fällt daher geringer aus als der potentielle individuelle Schaden (Si). Gemäß dem statistischen Gesetz der großen Zahl ist das Gesamtrisiko für eine solche Gruppe besser abschätzbar als für den Einzelnen, sofern Informationen über entsprechende Häufigkeiten innerhalb einer Gruppe aus Erfahrungswerten vorliegen. Bei hinreichend großen Gruppen kann das Gesamtrisiko als bekannt angesehen werden, was es dann erlaubt, den Schadensanteil jedes Mitglieds der Gefahrengemeinschaft vorweg als sogenannte aktuarisch faire Prämien (PRi) zu berechnen, wobei folgende Budgetbedingung der Versicherung erfüllt sein muss: n

n

i=1

i=1

GS = ∑ pi ⋅Si = ∑ PRi = Prämiensumme Für das Individuum entsteht dadurch Sicherheit, die es sich zum Preis der Prämie kaufen kann. Da risikoscheue Individuen ein Interesse an einer solchen Absicherung haben und daher eine entsprechende Zahlungsbereitschaft besteht, können die meisten individuellen Risiken durch private Versicherungslösungen abgedeckt werden. Neben den am Markt auftretenden Versicherungsunternehmen zählen dazu auch alle auf Freiwilligkeit beruhenden Solidargemeinschaften wie z.B. genossenschaftlich organisierte Gefahrengemeinschaften auf Gegenseitigkeit und vor allem die auf Primärbeziehungen basierenden sozialen Gemeinschaften wie die Familie. Je nach Größe der jeweiligen Risikogemeinschaft entsteht dabei mehr oder weniger Sicherheit, was insbesondere dann gilt, wenn Schadenswahrscheinlichkeiten und Schadenshöhe nur schlecht abschätzbar sind. Auch private Versicherungen sind somit kollektive Absicherungsformen, die umso mehr Sicherheit schaffen, je größer die Risikogemeinschaft ist. Eine soziale, d.h. gesellschaftliche Absicherung wird dann notwendig, wenn trotz entsprechender individueller Interessen solche privaten Versicherungslösungen auf

336

Notburga Ott

hinreichendem Sicherungsniveau nicht zustande kommen. Ursächlich dafür sind verschiedene Marktversagensphänomene auf Versicherungsmärkten, die zwar staatliches Eingreifen begründen, nicht aber unbedingt eine staatliche Monopolversicherung (Abschnitt 16.2.3.1). Eine so begründete Sozialversicherung unterscheidet sich damit von privaten Versicherungen nicht dadurch, dass sie eine kollektive Absicherungsform ist, sondern lediglich durch die fehlende spontane Bildung der Risikogemeinschaft auf Basis freiwilliger Interaktionen. Vielfach wird ein Unterschied zur privaten Versicherung auch darin gesehen, dass der Begriffsbestandteil „sozial“ als Forderung nach sozialem Ausgleich verstanden wird. Dadurch, dass die Sozialversicherung nicht wie die Privatversicherungen das individuelle Risiko zugrunde legt, findet eine Umverteilung von den Personen mit niedrigerem Risiko zu Personen mit höherem Risiko statt. Auch dies ist jedoch kein scharfes Abgrenzungskriterium. Auch private Versicherungen können nicht wirklich das individuelle Risiko zugrunde legen, sondern aufgrund von fehlender Information nur einen Teil der risikorelevanten Merkmale berücksichtigen. Innerhalb von so abgegrenzten Personengruppen mit gleichen Merkmalen findet auch hier eine Umverteilung von den niedrigeren zu den höheren Risiken statt. Darüber hinaus existieren in der deutschen Sozialversicherung jedoch auch echte Umverteilungskomponenten in Form von einkommensabhängigen Beiträgen und bei­trags­freier Absicherung von Familienmitgliedern, die jedoch mit dem Versicherungsprinzip an sich nichts zu tun haben. Schließlich wird gelegentlich als Begründung für eine soziale Absicherung angeführt, dass die Ursache für die heutigen Risiken gesellschaftlich bedingt sind und daher nach dem Verursacherprinzip auch gemeinschaftlich abgesichert werden müssten. Viele Risiken wie z.B. Naturkatastrophen und manche Krankheiten sind durch die modernen Produktions- und Lebensweisen verursacht. Zudem hat sich aufgrund der veränderten Arbeitsund Lebensbedingungen der Solidarschutz der Familien reduziert, indem die Verwertung von Humanvermögen praktisch nicht mehr in Selbstversorgungsgemeinschaften stattfindet, sondern von anonymen Märkten mit den entsprechenden neuen Risiken abhängt. So wenig diese Ursachen angezweifelt werden können, ergibt sich daraus doch keineswegs zwingend eine gesellschaftliche Verantwortung für die Absicherung der Risiken. Die durch die Produktionsweisen verursachten Risiken stellen Externalitäten dar und erfordern zwar durchaus staatliches Handeln, das aber vor allem auf eine entsprechende Beseitigung der Marktmängel gerichtet sein sollte (Abschnitt 16.2.3). Auch der Verlust von Sicherungsfunktionen in primären Kleingruppen stellt an sich keinen sozialen Ausgleichstatbestand dar. Hier stellt sich viel eher die Frage, ob nicht auch die Bildung größerer Risikogemeinschaften aus Gründen ihrer höheren Effizienz die Sicherungsfunktion der Familien abgelöst hat. Als Begründung für eine staatliche Organisation dieser größeren Versicherungsgemeinschaften bleibt letztlich doch nur Marktversagen.

16 Sozialpolitik

337

16.2.3 Allokative Gründe staatlicher Sozialpolitik: Marktversagen Hauptbegründung für staatliche Aktivitäten ist in einer marktwirtschaftlichen Ordnung das Versagen der Märkte im Sinne von ineffizienter Allokation. Dies gilt vorrangig auch für die Sozialpolitik. Die in diesem Zusammenhang wichtigsten Markt­versagensphänomene treten auf bei Externalitäten und Kollektivgütern sowie Informationsmängeln, die vor allem die Funktionsfähigkeit privater Versicherungsmärkte beeinträchtigen.

16.2.3.1 Versagen von Versicherungsmärkten Geht man von der Sichtweise der Sozialpolitik als Sicherungspolitik aus, liegt die hauptsächliche Begründung staatlichen Handelns im Versagen privater Versicherungsmärkte, die vor allem auf Informationsmängeln beruhen. Diese können hinsichtlich des abzusichernden Risikos oder hinsichtlich der Merkmale der Marktteilnehmer bestehen. Informationen hinsichtlich des abzusichernden Tatbestandes bestimmen seine sogenannte „Versicherbarkeit“. Damit Privatversicherungen, die den Schadensfall typischerweise durch vorab zu zahlende Prämien decken, diese kalkulieren können, müssen bestimmte Voraussetzungen erfüllt sein (Mugler, 1980). Üblicherweise werden hier eindeutige Identifizierbarkeit des Risikofalles, Zufälligkeit des Risikoeintritts, Abschätzbarkeit der Risikohöhe, Unabhängigkeit der Risikofälle sowie Abschätzbarkeit der Wahrscheinlichkeit des Schadenseintrittes genannt. Ist die Unsicherheit hinsichtlich eines oder mehrerer dieser Kriterien sehr groß, gelten diese Risikofälle als unversicherbar, da entsprechende Versicherungen auf privaten Märkten nicht angeboten würden. Dann wäre eine soziale Absicherung gefordert. Wie allerdings die Entwicklung auf den Versicherungsmärkten zeigt, sind dies keine sehr scharfen Abgrenzungskriterien. Auch Risiken mit geringer Abschätzbarkeit der Schadenshöhe und der Eintrittswahrscheinlichkeit wie Naturkatastrophen oder kumulierte Schäden wie bei Großunglücken lassen sich mit Instrumenten wie der Rückversicherung privatwirtschaftlich absichern (Eisen, 1988). Darüber hinaus gibt es auch noch andere private Absicherungsformen, die nicht auf einer vorab kalkulierbaren Prämie basieren, wie Versicherungen auf Gegenseitigkeit nach dem Genossenschaftsprinzip, die jedoch heutzutage das Instrument der Nachschusspflicht kaum mehr anwenden, und vor allem Familienverbände. Allerdings sind hier die Risikogemeinschaften häufig so klein, dass durch eine soziale Absicherung doch ein deutlich höheres Sicherungsniveau mit den erwünschten effizienzsteigernden Effekten erreicht werden kann. Des Weiteren ist ein Risiko von der Sache her dann nicht versicherbar, wenn es bereits eingetreten ist. Dies trifft für alle Schutztatbestände zu, die sich nur in der hypothetischen Situation hinter dem „Schleier des Nichtwissens“ als Risiko interpretieren lassen wie die von Natur aus gegebenen Fähigkeiten und Einschränkungen des einzelnen Individuums und das soziale und wirtschaftliche Umfeld im Elternhaus. Hier liegt ein generelles Versagen privater Versicherungsmärkte vor. Nur der Staat ist in der Lage, mittels einer Zwangsversicherung den Versicherungsbeginn quasi vor den Geburts- bzw. Zeugungszeitpunkt und damit vor den Risikofall zu legen.

338

Notburga Ott

Für das Versagen privater Versicherungsmärkte sind aber vor allem Informations­ asymmetrien hinsichtlich der Merkmale der Versicherungsnehmer verantwortlich. So besteht die Gefahr adverser Selektion (vgl. die Beiträge zur Mikroökonomik, Abschnitt 1.6.1.2 und zur Theorie der Wirtschaftspolitik, Abschnitt 12.5.1.4.1), wenn der Versicherer unterschiedliche Risiken nicht unterscheiden und daher nur eine durchschnittliche Prämie kalkulieren kann. Personen mit niedrigem Risiko würden eine solche Versicherung, die gemäß ihrem Risiko zu teuer ist, nicht nachfragen. Für die verbleibenden Versicherten mit höherem Risiko reichen aber die dann fehlkalkulierten Prämien zur Schadensdeckung nicht aus und die Versicherung kann am Markt nicht bestehen. Unter bestimmten Bedingungen, die vor allem von der Verteilung der Risiken in der Bevölkerung abhängen, ergeben sich auf den Märkten sogenannte trennende Gleichgewichte, bei denen die schlechten Risiken risikoäquivalent versichert sind, die guten Risiken aber nur eine Teilversicherung erhalten, damit die schlechten Risiken keinen Anreiz haben, sich als gute Risiken auszugeben. Doch auch diese Marktgleichgewichte kommen meist ohne eine gewisse staatliche Regulierung nicht zustande, da der Ausschluss der guten Risiken von der Vollversicherung einen Ausschluss von Mehrfachversicherung erfordert, den meist nur der Staat durchsetzen kann. Unter gewissen Bedingungen kann jedoch eine zusätzliche Mindestpflichtversicherung eine Effizienzsteigerung bewirken. Kommen auch mit Regulierung keine Marktgleichgewichte zustande, bleibt nur eine staatliche Absicherung der Risiken (Strassl, 1988, S.123ff.). Moral hazard (vgl. die Beiträge zur Mikroökonomik, Abschnitt 1.6.1.1 und zur Theorie der Wirtschaftspolitik, Abschnitt 12.5.1.4.1) besteht bei Versicherungen, wenn das Risiko vom Versicherten beeinflusst werden kann. In den meisten Fällen sind die individuellen Risiken auch vom Verhalten des Risikoträgers abhängig. Besonders deutlich ist dies z.B. im Gesundheitsbereich. Kann der Versicherer die Schadensverhütungsmaßnahmen nicht beobachten, besteht für die Versicherten kein Anreiz dazu. Grundsätzlich lässt sich Moral hazard mit Selbstbeteiligungslösungen eindämmen. Bei geeigneter Gestaltung der Tarife wird es zu Selbstselektion kommen, indem Individuen mit hohen Anstrengungen zur Schadensverhütung bereit sind, einen niedrigeren Deckungsgrad hinzunehmen. Dann sind effiziente Marktlösungen möglich (Strassl, 1988, S. 35ff.). Auch hier ist jedoch der Staat hinsichtlich der Durchsetzung des Verbots von Mehrfachversicherung gefordert. Anderenfalls lässt sich nur eine Einheitsprämie durchsetzen, was aufgrund des reduzierten Anreizes zur Schadensvermeidung zu steigenden Prämien führt. Personen mit hohen Anstrengungen zur Schadensverhütung werden die Versicherung dann verlassen und der Prozess der adversen Selektion setzt ein. In einer solchen Situation kann eine Sozialversicherung mit Einheitsprämien sogar effizienzsenkend sein, weil dadurch der Anreiz zur Eindämmung des Moral hazard auch bei den guten Risiken untergraben wird (Zweifel/ Eisen, 2000, S. 339f.). Schließlich kann auch eine staatliche allgemeine Mindestsicherung die Funktionsfähigkeit von Versicherungsmärkten einschränken. Durch eine Mindestsicherung ist jedes Risiko zumindest zum Teil abgedeckt. Da diese Teilversicherung zu Nullkosten zu haben ist, wird daher der Anreiz, sich auf privaten Märkten eine Vollversicherung zu kaufen,

16 Sozialpolitik

339

gemindert. Menschen mit geringerer Risikoscheu oder geringerem Einkommen werden eher geneigt sein, zugunsten eines höheren verfügbaren Einkommens auf eine Vollversicherung zu verzichten. Da die Mindestsicherungsleistung von allen getragen wird, entstehen negative externe Effekte, die nur durch einen Versicherungszwang vermieden werden können (Strassl, 1988, S. 200ff.).

16.2.3.2 Versagen von Kreditmärkten Das Versagen der Versicherungsmärkte führt auch zu sozialpolitisch relevanter Beeinträchtigung der Funktionsfähigkeit von Kreditmärkten. Allgemeine Einkommens- und Karriererisiken, die nicht auf spezifische Ursachen wie Krankheit, Unfall oder Vermögensverlust zurückzuführen sind, lassen sich auf privaten Versicherungsmärkten kaum absichern, da sie mit großen Moral-hazard-Problemen verbunden sind. Da daher die künftige Einkommensentwicklung potentieller Kreditnehmer nur schwer vorhersehbar ist, mangelt es – sofern keine anderen Sicherheiten vorhanden sind – an entsprechenden Kreditangeboten für größere intertemporale Einkommensumschichtungen. Dies führt in zweifacher Hinsicht zu Problemen, die aus allokativer und sozialpolitischer Zielsetzung staatlichen Handlungsbedarf begründen: • Grundsätzlich kann man davon ausgehen, dass Menschen im Lebenslauf ihren Lebensstandard zumindest zu halten wünschen und größere Schwankungen der Konsummöglichkeiten zu vermeiden suchen, weshalb Möglichkeiten zum Ausgleich von Einkommensschwankungen zu Wohlfahrtssteigerungen führen (Friedman 1957). Mangelnde Kreditmöglichkeiten beschränken diese, womit die Chancengerechtigkeit verletzt wird und Konsum- und vor allem Investitionsentscheidungen unter allokativ verzerrenden Rahmenbedingungen stattfinden. Ein Vorgriff auf späteres Einkommen wäre insbesondere dann zu ermöglichen, wenn typische phasenspezifische Belastungen so früh im Lebenslauf auftreten, dass sie nicht durch hinreichend langes Ansparen ausgeglichen werden können, wie dies vor allem für die Familienphase mit hohem zeitlichen und finanziellen Bedarf für Kinder gilt. • Auch Investitionen in Humanvermögen sind auf privaten Kreditmärkten nur begrenzt kreditfähig. Im Gegensatz zu anderen Vermögensarten weist Humanvermögen das Spezifikum der Nichtübertragbarkeit auf, womit das Objekt der Investition – das Humanvermögen einer Person – nicht selbst als Sicherheit dienen kann. Die aus dem Humanvermögen später zu erwartenden Erträge sind mit großen Unsicherheiten verbunden, die auf privaten Versicherungsmärkten nur begrenzt abgesichert werden können. Probleme ergeben sich daraus vor allem für die Finanzierung der in der Kindheit und Jugend stattfindenden primären Bildung von Humanvermögen, die den weitaus größten Anteil ausmacht. Kinder verfügen zu Lebensbeginn üblicherweise über keine Sicherheiten, zudem können sie keine rechtsver­bindlichen Rückzahlungsverpflichtungen eingehen. Sofern auch die Eltern die Mittel für eine optimale Humanvermögensbildung ihrer Kindern nicht aufbringen können oder wollen, ist es aus Gründen der Gewährung gleicher Entwicklungschancen Aufgabe des Staates, hier für einen Ausgleich der Startbedingungen zu sorgen

340

Notburga Ott

Mangelnde Möglichkeiten einer Kreditaufnahme erfordern jedoch nicht unbedingt staatliche Transfers. Es ist hinreichend, einen Zugang zu den Kreditmärkten zu schaffen. Da die Ursache zum fehlenden Marktzugang in der mangelnden Absicherung der Einkommensrisiken liegt, genügt vielfach eine solche Absicherung durch den Staat z.B. durch eine staatliche Bürgschaft.

16.2.3.3 Externalitäten Externe Effekte (vgl. den Beitrag zur Umweltökonomie, Abschnitt 5.5) sind in der Sozialpolitik vor allem im Zusammenhang mit der Humanvermögensbildung und -erhaltung relevant und betreffen vor allem die Gesundheits-, Familien- und Bildungspolitik. Da Menschen in sozialen Zusammenhängen leben, sind sie von den Fähigkeiten, Beeinträchtigungen und Verhaltensweisen ihrer Mitbürger permanent betroffen, ohne dass dies entsprechend entgolten wird. Nun sind sicher viele dieser Externalitäten nicht ausgleichsbedürftig, da sie klein sind, sich zwischen den Menschen gegenseitig ausgleichen und sich häufig auch positive und negative Externalitäten die Waage halten. Relevant werden sie jedoch, wenn sie gewisse Größenordnungen erreichen, wie z.B. der positive externe Nutzen im Rahmen umlagefinanzierter Sicherungssysteme oder die gesellschaftlichen Kosten von Kriminalität. Internalisierungsstrategien mittels Transferzahlungen eignen sich dabei allerdings nur für positive Externalitäten. Hier stellen sie sich aber in der Wahrnehmung der Bürger als Umverteilungsmaßnahmen dar, wie z.B. die Diskussion um die Familienpolitik zeigt. Negative Externalitäten von defizitärer Humanvermögensbildung und -erhaltung sind dagegen kaum mit Transfers oder Haftungsregeln zu vermeiden und erfordern anderweitige staatliche Maßnahmen (Ott, 2000, S.192f.). Auch die oben erwähnten von der Gesellschaft verursachten Risiken sind Externalitäten, die aber nicht einzelnen Individuen zugeschrieben werden können. Häufig handelt es sich um öffentliche Güter, von denen gleichzeitig für einige Bürger zusätzliche Risiken entstehen, wie beispielsweise von für die Schifffahrt sinnvollen Flussbegradigungen eine erhöhte Überschwemmungsgefahr ausgeht. Eine Kompensation im Schadensfalle ist dann eine angemessene Internalisierungsstrategie und stellt weder eine Umverteilungsmaßnahme noch eine Sozialversicherung dar. Ein weiteres Problem bei den angemessenen Internalisierungsstrategien tritt dadurch auf, dass in den sozialpolitischen Bereichen Externalitäten technologischer und pekuniärer Art häufig nicht zu unterscheiden sind bzw. gleichzeitig auftreten. Als Beispiel seien Impfungen genannt. Die verringerte Ansteckungsgefahr Dritter ist eine technologische Externalität; der Erhalt der Gesundheit, der sich in der Produktivität des Arbeitnehmers auswirkt, löst über die Entlohung auch der anderen Produktionsfaktoren gleichzeitig eine pekuniäre Externalität aus. Aus allokativer Sicht bedürfen pekuniäre Externalitäten keiner Kompensation, da sie letztendlich nur Ausdruck des Preismechanismus des Marktes sind und die veränderten Knappheitsrelationen widerspiegeln. Aus sozialpolitischer Sicht mögen sie jedoch kompensationswürdig sein, wenn andere Marktmängel vorliegen, die eine hinreichend schnelle Anpassung an die neuen Knappheitsverhältnisse verhindern.

16 Sozialpolitik

341

Die bereits erwähnte durch technischen Fortschritt erlittene Humanvermögensentwertung stellt eine solche pekuniäre Externalität dar, für die aufgrund der nur langsamen Anpassungsmöglichkeiten von menschlichen Fähigkeiten aus Gründen der Chancengerechtigkeit eine Kompensation z.B. durch staatliche Finanzierung von Umschulungsmaßnahmen geboten ist. Aus individueller Sicht stellt sich dieser pekuniäre Effekt als ein mit der Ausbildung eingegangenes Risiko dar, weshalb sich die Maßnahme auch als Versicherungsleistung interpretieren lässt und insofern systemgerecht in der Arbeitslosenversicherung angesiedelt ist. Gleichzeitig haben die dadurch erleichterten Anpassungsmechanismen an neue Marktgegebenheiten Eigenschaften eines öffentlichen Gutes, was dann einerseits die Mischfinanzierung aus Steuermitteln und andererseits die Ausgestaltung als Sachleistung rechtfertigt, wobei allerdings zu fragen wäre, wer die Entscheidung über die Art der Umschulung treffen soll.

16.2.3.4 Risikoproduktivität Schließlich ist noch zu berücksichtigen, dass die Absicherung von Risiko auf gesamtwirtschaftlicher Ebene produktiv wirkt (Sinn, 1986). In einer unsicheren Welt erhöht die individuelle Risikoabsicherung nicht nur den individuellen Nutzen, sondern auch die Wagnisbereitschaft der Menschen. Riskante, innovative Marktaktivitäten und langfristige Investitionen werden umso eher eingegangen, je besser die damit verbundenen Risiken abgesichert sind. Das soziale Sicherungssystem hat damit einen über die individuelle Wohlfahrtssteigerung hinausgehenden gesamtwirtschaftlichen Effekt, indem die Innovationskraft und Produktivität der Volkswirtschaft steigt.

16.2.4 Distributive Gründe staatlicher Sozialpolitik Die bisher zur Begründung staatlicher Aktivitäten heran gezogene Marktversagenstheorie ist letztlich eine statische Theorie, die einen sehr eingeschränkten Effizienzbegriff verwendet. In dynamischer Sicht ist das Effizienzkriterium jedoch nicht mehr so eindeutig abgrenzbar. Was kurzfristig, aus statischer Sicht, effizient ist, kann langfristig aufgrund gewisser Strukturkonservativität Effizienzsteigerungen verhindern. Wie bereits mehrfach deutlich geworden ist, wird in der Sozialpolitik bei Berücksichtigung des Zeitaspektes die Unterscheidung zwischen Umverteilung und Effizienz unklar, indem Maßnahmen, die in der praktischen Politik als reine Umverteilung ausgestaltet sind und sich ausschließlich an Kriterien der Verteilungsgerechtigkeit orientieren, durchaus effizienzsteigernde Wirkungen entfalten – sie allerdings nur in einer hypothetischen Situation als Marktversagensphänomene im engeren Sinn interpretiert werden können. In der praktischen Politik können also Maßnahmen nicht immer entsprechend der Marktversagenstheorie ausgestaltet werden. Sie werden sich daher an den Prinzipien der Solidarität und Subsidiarität sowie den Verteilungskriterien orientieren. Bedarfs- und Leistungsgerechtigkeit sind Verteilungsprinzipien, die in allen entwickelten Ge­sell­schaften immer gemeinsam Anwendung finden. Bei reiner Anwendung des

342

Notburga Ott

Bedarfs­prin­zips fehlen die zur effizienten Ressourcen­nutzung notwendigen Leistungsanreize. Umgekehrt ist eine gesell­schaft­­liche Verteilung ausschließlich nach dem Prinzip der Leistungs­ge­rech­­tig­keit nicht möglich, da eine wirkliche Chancengleichheit nicht generell herstellbar ist. Allerdings zeigt sich bereits hier ein ge­wis­ser Trade off. Je mehr durch Herstellung von Partizipationsgerechtigkeit die Individuen in die Lage ver­setzt werden, leistungsgerechte Entgelte ihrer Anstrengungen und ihres Ressour­cen­ein­sat­zes zu erzielen, desto geringer wird die Notwendigkeit zur bedarfs­orientierten Umver­tei­lung sein. Sowohl die Frage nach der gerechten Ausgangsverteilung, die vor allem die Humanvermögensbildung betrifft, als auch die nach der Prozesschancengerechtigkeit muss allerdings letztendlich doch wieder an Bedarfsgesichtspunkten gemessen werden. Dabei kann es sich jedoch nicht nur um Mindestbedarfe handeln. Andererseits kann hier auch nicht einfach das Kriterium der Gleichheit zugrunde gelegt werden, da die Ausgangssituation stark von den naturgegebenen Fähigkeiten bestimmt ist, die nicht vollständig kompensiert werden können. Noch stärker gilt dies bei der Prozesschancengerechtigkeit, wenn durch die individuellen Lebensplanungen die Fähigkeiten und Ressourcen im Sinne von Spezialisierung weiter ausdifferenziert sind. Hier gilt es im einzelnen genau zu überprüfen, welche Bedarfe gedeckt sein müssen und welche Bedingungen notwendig sind, um annähernd gleichwertige Chancen zu gewährleisten, und wie die individuellen Ressourcen dabei zugerechnet werden können. Dabei ergibt sich noch ein weiteres Problem. Will man im Sinne der Bedarfsgerechtigkeit Bedarfe feststellen, muss eine zeitliche Abgrenzung vorgenommen werden. Es stellt sich dabei die Frage, ob eine Zeitpunkt- bzw. Periodenbetrachtung zu­grunde gelegt werden soll (Bedarf in einem Monat oder einem Jahr) oder ob für die Frage nach der bedarfsgerechten Verteilung ein Vergleich der „Lebens­wohl­fahrt“ verschiedener Individuen notwendig ist. Je nach Abgrenzung kommt man zu unterschiedlichen Bedarfen. Dies hat Konsequenzen für das Verhältnis von Bedarfs- und Leistungsgerechtigkeit. Da der existenzielle Grundbedarf von Menschen nicht beliebig in die Zukunft verschoben werden kann, ist eine mangelnde Bedarfs­deckung im­mer kurzfristig brisant und kann nicht später im Lebensverlauf durch höheren Wohlstand kom­pen­siert werden. Daher kommt für eine bedarfsorientierte Umver­tei­lung nur eine Periodenbe­trach­tung in Frage, d.h. eine an kürzeren Lebensphasen orientierte Betrachtung. Eine solche bedarfsorientierte Umverteilung innerhalb abgegrenzter Perioden ist nun aus dynamischer Sicht, d.h. über die Perioden hinweg, wiederum anders zu beurteilen. Aus Sicht der jeweils Betroffenen lassen sich Umverteilungsregelungen vielfach als eine Umverteilung innerhalb ihres Lebensverlaufes interpretieren, da sie in einigen Perioden als Zahler und in anderen Perioden als Empfänger beteiligt sind. So stellt sich z.B. der Empfang von Bildungsleistungen, die aus Steuermitteln finan­ziert werden, als ein Vorgriff auf späteres Einkommen dar, der mittels späte­rer Steuerzahlungen wieder zurückbezahlt wird. Sofern solche gegenläufigen phasen­spe­zifischen Zahlungsströme zwischen Individuen und Gemein­schaft als explizite Kredit­be­ziehung ausgestaltet werden, entsprechen sie dem Prinzip der Leistungsgerechtigkeit und erüb­rigen anderenfalls ge­währte bedarfsorientierte Transfers. Da eine Umverteilung nach dem Bedarfskriterium im allgemeinen

16 Sozialpolitik

343

größere Verteilungskonflikte in der Gesellschaft verursacht als eine Verteilung nach dem Kriterium der Leistungsgerechtigkeit, sollten Maßnahmen möglichst nach dem Kriterium der Leistungsgerechtigkeit begründet und konsequent ausgestaltet werden, um Verteilungskonflikte gering zu halten.

16.3

Konzeption der Sozialpolitik in der Bundesrepublik Deutschland

Theoretisch abgeleitete Kriterien sind vor allem zur Analyse und Bewertung bestehender sozialpolitischer Regelungen wichtig und können richtungsweisend für sozialpolitische Reformen sein. Die konkrete Gestaltung realer Sicherungssysteme muss sich jedoch auch an dem jeweiligen sozialen und gesellschaftlichen Kontext orientieren, d.h. was unter gegebenen sozialen und politischen Bedingungen an Regelungen in einer Gesellschaft durchsetzbar ist. Die Einführung und Entwicklung sozialer Sicherungssysteme muss daher aus dem historischen Zusammenhang heraus verstanden werden (Grossekettler 2002). Die heutige Sozialpolitik in Deutschland hat ihre Ursprünge in der Bismarckschen Sozialgesetzgebung. Als Reaktion auf die Arbeiterfrage des 19. Jahrhunderts wurde eine Arbeiterschutzpolitik betrieben, die neben Arbeitsschutzgesetzen die Einführung von Versicherungssystemen beinhaltete, die an den Risiken der Lohnarbeit ansetzten. Zwischen 1883 und 1889 wurden Kranken-, Unfall-, Invaliditäts- und Rentenversicherungssysteme geschaffen. Diese wurden im Laufe der Zeit auf weitere Personengruppen ausgeweitet und durch die Arbeitslosenversicherung im Jahre 1927 sowie die Pflegeversicherung im Jahre 1995 ergänzt. Die Armenhilfe wandelte sich zur Sozialhilfe und wurde durch weitere bedarfsgeprüfte Transfers wie Wohnungsgeld und Arbeitslosenhilfe ausgebaut. Vor allem in der zweiten Hälfte des 20. Jahrhunderts wurden verschiedene familienpolitische Leistungen eingeführt. Bis heute ist die deutsche Sozialpolitik durch diese historisch gewachsene Bedeutung der Absicherung spezifischer Risiken gekennzeichnet. Die Armutsvermeidung bleibt dieser nachgelagert, indem Sozialhilfe nur dann gewährt wird, wenn das Existenzminimum durch kein anderes Sicherungssystem gewährleistet ist. Daneben existieren noch verschiedene Transferzahlungen vor allem im Bereich der Familienpolitik, die weder einer direkten Risikoabsicherung noch der reinen Existenzsicherung dienen. Eine weitere Einkommens­ umverteilung findet durch das Steuersystem statt, indem die Finanzierung öffentlicher Aufgaben nach dem Leistungsfähigkeitsprinzip erfolgt. Die Umsetzung sozialpolitischer Ziele erfolgt sowohl durch Regulierungen als auch durch Transferleistungen. So werden über das System der Alterssicherung Renten und Pensionen ausgezahlt, gleichzeitig werden durch die Regelungen der Anspruchsvoraussetzungen Rahmenbedingungen geschaffen, die das Erwerbsverhalten gravierend beeinflussen. Teilweise werden die Leistungen wie z.B. im Gesundheitsbereich direkt vom Staat zur Verfügung gestellt, teilweise als monetäre Transfers. Die monetären Leistungen der Arbeitslosenversicherung sind Teil einer umfassenden Arbeitsmarktpolitik. Schließlich

344

Notburga Ott

wird durch Regulierungen vor allem im Bereich von personenbezogenen Dienstleistungen und versicherungsrechtliche Vorschriften durch steuerliche Begünstigung auch Einfluss auf die Produktpalette privater Versicherungs- und Gütermärkte genommen. Zum System der sozialen Sicherung im engeren Sinne zählen dabei allerdings nur diejenigen Maßnahmen, die nicht ausschließlich regulierenden Charakter haben, sondern mit monetären oder realen Leistungen verbunden sind, die in gewissen Umfang solidarisch finanziert sind.

16.3.1 Gestaltungsprinzipien und Institutionenwahl Die konkrete Ausgestaltung der einzelnen Leistungen des sozialen Sicherungssystems erfordert Festlegungen bezüglich Finanzierung, Leistungsanspruch und Leistungshöhe. Dabei werden grundsätzlich drei Gestaltungsprinzipien – das Versicherungs-, das Versorgungs- und das Fürsorgeprinzip – unterschieden. • Nach dem Versicherungsprinzip werden Risiken abgesichert, die eindeutig identifizierbar sind und deren Schaden hinreichend gut abschätzt werden kann. Die Finanzierung der Schadensdeckungssumme erfolgt über Beiträge. Diese begründen im Schadensfall einen Leistungsanspruch. Die Höhe der Leistungen hängt gemäß dem Äquivalenzprinzip wiederum von den Beiträgen ab. In der Sozialversicherung werden dabei für die Beitragsbemessung keine unterschiedlichen Risiken zugrunde gelegt, was dann einen einheitlichen Leistungsanspruch begründet. Nach dem Versicherungsprinzip sind in Deutschland Krankheit, Unfall, Pflegebedürftigkeit, Arbeitslosigkeit und Alter abgesichert. Im Falle der Altersicherung bezieht sich das Äquivalenzprinzip jedoch nicht auf eine Beitragsäquivalenz i.S. einer aktuarisch fairen Prämie, sondern auf eine sogenannten Teilhabe-Äquivalenz an der gesellschaftlichen Wohlfahrtsproduktion (Abschnitt 16.4.1.2). Das Versicherungsprinzip ist in der deutschen Sozialversicherung zudem durch Umverteilungskomponenten vor allem bei der Beitragsgestaltung durchbrochen (Abschnitt 16.2.2.3). • Nach dem Versorgungsprinzip entstehen Leistungsansprüche aufgrund besonderer Leistungen für die Gesellschaft oder aufgrund erlittener Benachteiligungen und Schäden. Die Finanzierung erfolgt aus Steuermitteln. Die Leistungshöhe wird durch den zugrunde liegenden Sachverhalt bestimmt. In Deutschland findet das Versorgungsprinzip z.B. bei der Beamten- und der Kriegsopferversorgung aber auch beim sogenannten Familienlastenausgleich Anwendung. In anderen Ländern wie z.B. Großbritannien und Schweden wird das Versorgungsprinzip in der Form der allgemeinen Staatsbürgerversorgung aus Steuermitteln in weit größerem Umfang angewandt und ist dort zum tragenden Element des sozialen Sicherung worden. • Leistungen nach dem Fürsorgeprinzip setzen keine Vorleistungen von Seiten des Leistungsempfängers voraus. Anspruchsgrund ist allein die Hilfebedürftigkeit ohne Rücksicht auf deren Ursache. Die Bedürftigkeit wird in jedem Einzelfall geprüft. Damit wird dem Subsidiaritätsprinzip Rechnung getragen, wonach erst alle anderen Quellen der

16 Sozialpolitik

345

Unterhaltssicherung ausgeschöpft werden müssen, bevor die Solidarität der Allgemeinheit in Anspruch genommen werden darf. Die Leistungen werden ebenfalls steuerfinanziert. Die Höhe der Leistungen richtet sich nach der Bedürftigkeit im Einzelfall. Die wichtigsten Leistungen nach dem Fürsorgeprinzip sind die Maßnahmen der Grundsicherung (SGB II und SGB XII). Obwohl die einzelnen sozialpolitischen Sicherungstatbestände vorrangig nach einem dieser Prinzipien behandelt werden, sind sie jedoch kaum in Reinform umgesetzt. In fast allen sozialpolitischen Institutionen finden sich Elemente aller Prinzipien. So entsprechen z.B. die beitragsfreie Versicherung von Familienangehörigen in der Krankenversicherung und die Ersatzzeiten in der Rentenversicherung dem Versorgungsprinzip, die frühere Rente nach Mindesteinkommen und die Härteklausel bei der Arzneimittelselbstbeteiligung dagegen dem Fürsorgeprinzip. Die Arbeitslosenhilfe dagegen ist generell sowohl nach Versicherungs- als auch Fürsorgeprinzip gestaltet. Diese Vermischung der Prinzipien ist vor allem historisch bedingt und spiegelt vielfach eine punktuelle Berücksichtigung spezifischer Interessen wider. Insbesondere beeinträchtigt sie die Transparenz der sozialpolischen Maßnahmen sowohl in Bezug auf den jeweiligen Begründungszusammenhang als auch auf die Verteilungswirkungen. Neben diesen Festlegungen, die das Verhältnis der Leistungsansprüche zu den Leistungen der Anspruchsberechtigten betreffen, müssen Entscheidungen über die Art der Leistungserstellung getroffen werden. Letztlich handelt es sich um die „make or buy“Entscheidung, d.h. um die Frage, ob zur Absicherung der individuellen Risiken monetäre Leistungen genügen oder ob die Sicherungslücken aufgrund von Marktmängeln bei der Produktion bestimmter Güter entstehen und daher zusätzlich eine staatliche Regulierung der Leistungserstellung erforderlich ist. Hierbei handelt es sich überwiegend um Probleme der Qualitätssicherung bei personenbezogenen Diensten, bei denen vor allem aufgrund des uno-actu-Prinzips, d.h. der Beteiligung des Klienten an der Produktion, und der relativ seltenen Inanspruchnahme die Qualitätsbeurteilung der Leistungsanbieter durch den Nachfrager stark beeinträchtigt ist und daher wettbewerbliche Steuerungsmechanismen allein nicht ausreichen. Sofern hierdurch Absicherungsmängel entstehen, die durch staatliche oder staatlich gelenkte Produktion gedeckt werden, spricht man von „sozialen Diensten, die vor allem im Bereich der Beratung (Informationsvermittlung), der Betreuung, der Humanvermögensbildung und im Pflege- und Gesundheitsbereich eine Rolle spielen. Neben der Regulierung privater Anbieter und der direkten Leistungsbereitstellung durch staatliche Institutionen erfolgt hier eine Leistungserstellung vor allem auch durch gemeinnützige Organisationen in freier Trägerschaft, den sogenannten Nonprofit-Organisationen (NPOs), sowie von Mischformen privater, öffentlicher und gemeinnütziger Anbieter. Dem Staat obliegt es, hier die geeignete Institutionenwahl zu treffen, wobei gemäß dem Subsidiaritätsprinzip und aus Gründen der effizienten Leistungserstellung die Kundennähe der Organisation eine besondere Bedeutung erhält (Badelt, 1998, S. 98ff.).

346

Notburga Ott

16.3.2 Träger der Sozialpolitik Die deutsche Sozialpolitik ist durch eine Vielzahl von Trägern und Akteuren gekennzeichnet. Die Gesetzgebungs- und Regelungskompetenzen liegen dabei ausschließlich bei den Gebietskörperschaften, einschließlich jener auf internationaler und supranationaler Ebene. An der Umsetzung und Durchführung der Maßnahmen sind jedoch auch viele andere Institutionen und Organisationen, insbesondere intermediäre Instanzen und privatwirtschaftliche Anbieter beteiligt. • Auf nationaler Ebene liegt beim Bund vor allem die Zuständigkeit für die sozialpolitische Gesetzgebung. Bundestag und Bundesrat entscheiden über die Regelungen des Arbeits- und Sozialrechts und legen die Instrumente für die ausführenden Organisationen der Sozialpolitik, insbesondere der Sozialversicherungsträger fest. Darüber hinaus obliegt der Bundesregierung die Gestaltung der Arbeitsmarkt-, Einkommens-, Familien- und Gesundheitspolitik. In einzelnen Bereichen können auch die Länder ergänzend gesetzgeberisch tätig werden. Dies betrifft vor allem die Familien-, Gesundheit-, Bildungs- und Wohnungspolitik. In den Aufgabenbereich der Kommunen fällt neben den von Bund und Land vorgegebenen Pflichtaufgaben wie der Sozialhilfe die Verantwortung für die Wohlfahrtspflege und die Soziale Infrastruktur wie das örtliche Gesundheitswesen und Kinderbetreuungseinrichtungen. • Zunehmend wird die nationale Sozialpolitik auch von inter- und supranationalen Abkommen und Verträgen beeinflusst. An internationalen Institutionen sind vor allem die Internationale Arbeitsorganisation (ILO), die Weltgesundheitsorganisation (WHO) und das internationale Kinderhilfswerk (UNICEF) zu nennen, deren Grundsätze bei der Gestaltung nationaler Sozialpolitik zu beachten sind. Innerhalb der Europäischen Union liegt die Gestaltung der Sozialpolitik grundsätzlich im Kompetenzbereich der Mitgliedstaaten. Allerdings ergibt sich durch die Freizügigkeit im Personenverkehr ein gewisser Koordinierungsbedarf, damit insbesondere bei Wanderarbeitnehmern weder Sicherungslücken noch Mehrfachabsicherung entstehen. Die Verordnungen (EWG) Nr. 1408/71 sowie (EG) Nr. 883/2004 und (EG) Nr. 987/2009 regeln die Zuständigkeit der Mitgliedsstaaten sowie die Versicherungspflicht und die Leistungsansprüche der Wanderarbeitnehmer. Insbesondere der Grundsatz der Portabilität von Leistungen innerhalb der EU beschränkt den nationalen Gestaltungsspielraum vor allem bei Sachleistungen. • Die Organisation und Verwaltung der sozialen Sicherungssysteme erfolgt in Deutschland durch die Sozialversicherungsträger. Hierbei handelt es sich um Körperschaften des öffentlichen Rechts, die sich selbst verwalten. Sie erbringen gemäß § 12 Satz 1 Sozialgesetzbuch (SGB) I die Sozialleistungen der Sozialversicherung. Sie sind für jeweils ein spezifisches Risiko (Krankheit, Alter, Arbeitslosigkeit, etc.) zuständig und sind teilweise regional und berufsständig gegliedert. • Die sozialen Dienstleistungen im Rahmen der kommunalen Sozialpolitik werden vorrangig von Institutionen in frei-gemeinnütziger Trägerschaft (Nonprofit

16 Sozialpolitik

347

Organisationen) bereitgestellt, überwiegend durch die Verbände der freien Wohlfahrtspflege. Sie sind vor allem im Gesundheits- und Pflegebereich sowie in der Jugend-, der Alten- und Familienhilfe tätig, indem sie Krankenhäuser, Sozialstationen, Jugendheime, Kindergärten, Behindertenwerkstätten, Beratungsstellen u.v.a.m. betreiben. • Die Produktion und Bereitstellung von Sachleistungen der Sozialversicherungen erfolgt überwiegend durch private Leistungsanbieter. Zwischen diesen und den Sozialversicherungen besteht ein Vertragsverhältnis, wonach im Rahmen des Sachleistungsprinzips, wie es vor allem für die Krankenversicherung typisch ist, die Leistungsanbieter für die Sicherstellung des Angebotes verantwortlich sind. • Schließlich übernehmen auch die Betriebe sozialpolitische Aufgaben. Teilweise sind sie dazu verpflichtet wie im Falle der Lohnfortzahlung bei Krankheit oder der bezahlten Freistellung bei Erkrankung von Kindern. Darüber hinaus werden aber vielfach auch freiwillige sozialpolitische Leistungen angeboten wie Kinderbetreuungseinrichtungen oder eine betriebliche Alterssicherung.

16.3.3 Das System der Sozialen Sicherung in Deutschland Das System der Sozialen Sicherung in Deutschland umfasst die Sozialversicherungen und die entsprechenden Absicherungen im öffentlichen Dienst, die Mindestsicherung, die sozialen Hilfen und Dienste, die familienpolitischen Transferzahlungen und steuerliche Erleichterungen.

16.3.3.1 Die Sozialversicherungen Die deutsche Sozialversicherung gliedert sich in 5 Zweige: die Renten-, die Arbeitslosen-, die Kranken-, die Pflege- und die betriebliche Unfallversicherung. Grundsätzlich sind alle Arbeitnehmer, deren Einkommen die Geringfügigkeitsgrenze (2018: 450 €/Mon.) übersteigt, in diesen Systemen versicherungspflichtig. Die Beiträge entsprechen einem bestimmten Prozentsatz des Einkommens. Allerdings werden sie nur bis zu einer festgelegten Einkunftsgrenze erhoben, der darüber liegende Teil des Einkommens bleibt beitragsfrei. Eine Ausnahme bildet die Kranken- und Pflegeversicherung, bei der die Versicherungspflicht für Personen mit einem Einkommen über der Versicherungspflichtgrenze (2018: 4.940 €/Mon.) entfällt. Die Beiträge werden grundsätzlich jeweils zur Hälfte vom Arbeitgeber und Arbeitnehmer getragen, mit Ausnahme der betrieblichen Unfallversicherung, die ausschließlich der Arbeitgeber trägt, sowie der kassenindividuellen Zusatzbeiträge in der Krankenversicherung, die vom Arbeitnehmer zu entrichten sind. Neben den versicherten Arbeitnehmern sind deren nichterwerbstätige Ehepartner und Kinder in der Renten-, Kranken- und Pflegeversicherung beitragsfrei mitversichert. Die Finanzierung der Sozialversicherungen erfolgt nach dem Umlageverfahren. Dabei werden die Ausgaben aus dem laufenden Beitragsaufkommen gedeckt, d.h. die Beitragssätze werden nach den in der jeweiligen Periode fälligen Leistungsansprüchen bemessen.

348

Notburga Ott

Abb. 16.2  Finanzierungssystem der Sozialversicherung (Stand 2018), in Anlehnung an Zerche/ Gründger (1996)

16.3.3.2 Leistungen Die Leistungen des Systems der sozialen Sicherung werden im Sozialbudget ausgewiesen. Dieses betrug im Jahr 2017 rd. 966 Mrd. Euro. Dies entspricht 29,6% des Bruttoinlandsprodukts. Der größte Anteil des Sozialbudgets wird mit jeweils mehr als einem Drittel für die Funktionen Alter und Hinterbliebene sowie Krankheit und Invalidität aufgewendet (Abbildung 16.3). Die Familienförderung folgt mit etwa 11% und der Bereich Beschäftigung mit etwa 3%. Alle weiteren Aufgaben nehmen nur einen geringen Teil des Sozialbudgets ein. 58,3% des Sozialbudgets sind Einkommensleistungen, d.h. Geldleistungen mit Lohnersatzfunktion. Die Sachleistungen (37,5%) sind dagegen zweckgebunden und umfassen sowohl Waren und Dienstleistungen sowie Barerstattungen. Sie fallen überwiegend im Gesundheitswesen an. Die allgemeinen Dienste und Leistungen, die nicht unmittelbar bestimmten Personen zugerechnet werden können, machen nur gut 4% des Sozialbudgets aus. Die wichtigsten Geld- und Sachleistungen sind in Tabelle 16.2 ausgewiesen.

16 Sozialpolitik

349

Sozialbudget 2017

Krankheit und Invalidität 44%

Alter und Hinterbliebene 39%

sonstiges 1% Wohnen 2%

Beschäftigung 3%

Familie 11%

Quelle: BUNDESMINISTERIUM FÜR ARBEIT UND SOZIALES (2018), S. 13; eigene Darstellung

Abb. 16.3  Sozialbudget 2017 nach Funktionen

Tab. 16.2  Wichtigste Leistungen des sozialen Sicherungssystems

Sicherungsinstitution

Leistungsauslösender Tatbestand

Leistungen (G = Geldleistung, S = Sachleistung)

Sozialhilfe (SGB XII)

Unzureichendes Einkommen

Gesetzliche Rentenversicherung (SGB VI) Beamtenversorgung berufsständische Altersversicherungssysteme

Alter Berufs- und Erwerbs­unfähigkeit

Hilfe zum Lebensunterhalt (G) Grundsicherung im Alter und bei Erwerbsminderung (G) Hilfe in anderen Lebenslagen (G) Rente wegen Alters (G) medizinische Rehabilitation (S) Teilhabe am Arbeitsleben (S) Rente wegen verminderter Erwerbstätigkeit (G) Witwen- und Witwerrente (G) Erziehungsrente (G) Waisenrente (G) Krankenbehandlung (S) Arzneimittel (S) Krankengeld (G) Haushaltshilfen (S)

Tod eines Angehörigen Krankenversicherung (SGB V) Krankheit Gesundheitswesen

Pflegeversicherung (SGB XI)

Pflegebedürftigkeit

Öffentlicher Gesundheitsdienst (S) Pflegehilfe (S) Pflegemittel (S) Pflegegeld (G)

350

Notburga Ott

Tab. 16.2  Wichtigste Leistungen des sozialen Sicherungssystems (Fortsetzung)

Sicherungsinstitution

Leistungsauslösender Tatbestand

Leistungen (G = Geldleistung, S = Sachleistung)

Unfallversicherung (SGB VII)

Arbeitsunfall Berufskrankheit

Heilbehandlung (S) Teilhabe am Arbeitsleben (S) Teilhabe am gemeinschaftl. Leben (S) Verletztengeld und-rente (G) Pflegegeld (G) Übergangsgeld (S) Hinterbliebenenrente (G) Beihilfe (G) Arbeitslosengeld (G) Übergangsgeld (G) Insolvenzgeld (G) Beratung und Vermittlung (S) Aus- und Weiterbildung (S) Eingliederungszuschüsse (G) Arbeitslosengeld II (G) Sozialgeld (G) Leistungen für Bildung und Teilhabe (G,S) Einstiegsgeld (G) Eingliederungshilfen (S) Wohngeld (G) Eigenheimförderung (G)

Tod eines Angehörigen Arbeitsförderung (SGB III)

Arbeitslosigkeit

Grundsicherung für Arbeitsuchende (SGB II)

Arbeitslosigkeit und unzureichendes Einkommen

Wohnungspolitik

Familienpolitik

- Sozialversicherungs­leistungen

Jugend- und Bildungspolitik

Sozialer Wohnungsbau (S) Kindergeld (G) Elterngeld (G) Kinderzuschlag (G) Kinderbetreuungs­ einrichtungen (S) Erziehungszeiten in der GRV Mutterschaftsleistungen beitragsfreie Krankenversicherung Zuschläge beim Arbeitslosengeld Zuschläge im öffentlichen Dienst Kinder- und Jugendhilfe (S) Ausbildungsförderung (G) Öffentliches Bildungssystem (S)

16 Sozialpolitik

351

16.3.4 Aktuelle Probleme und Herausforderungen Das soziale Sicherungssystem ist in der jüngeren Vergangenheit zunehmend unter Druck geraten. Die Sozialabgaben haben mit gut 40% (Arbeitgeber- und Arbeitnehmeranteil) mittlerweile eine Höhe erreicht, die als leistungsmindernd angesehen wird. Das Hauptproblem ist dabei die Alterung der Gesellschaft. Aufgrund des seit den 1970er Jahren anhaltenden Geburtenrückgangs nimmt der Anteil der Bevölkerung im erwerbsfähigen Alter ab. Der Anteil der Älteren in der Bevölkerung steigt in den näch­sten Jahrzehnten noch stark an, während der Anteil der Kinder und Jugendlichen nach Schätzungen kaum zunehmen wird (Abb. 16.4). Als Folge davon werden in den umlagefinanzierten Sicherungssystemen, bei denen die Leistungen vor allem im Alter anfallen wie in der Renten-, Kranken- und Pflegeversicherung, die Beiträge weiter steigen. Prognosen gehen bis zum Jahr 2060 von einer Steigerung der Sozialabgaben auf über 50% aus (Werding 2018) Die hohen Sozialabgaben setzen Anreize zu Ausweichtendenzen in der Bevölkerung durch Abwandern in die Schattenwirtschaft, Aufnahme von nicht versicherungspflichtiger Beschäftigung oder Verlagerung der Tätigkeit ins Ausland. Steigende Anforderungen an Flexibilität am Arbeitsmarkt und an (auch internationale) Mobilität leisten diesen Tendenzen Vorschub. Gleichzeitig geht das Sicherungsniveau der verschiedenen Sicherungsbereiche zurück und immer mehr Personen fallen in das unterste Netz des Sicherungssystems. Die Ausgestaltung der Regelungen scheint zunehmend der Vielfalt der Lebensverhältnisse in

Abb. 16.4  Entwicklung und Prognose des Jugend- und Altenquotienten

352

Notburga Ott

der Bevölkerung nicht mehr gerecht zu werden. Zudem bleiben aufgrund mangelnder Transparenz die Sicherungs- und Umverteilungswirkungen sowohl in Teilbereichen als auch hinsichtlich des Gesamtsystems weitgehend im Dunkeln. Die Akzeptanz des Sicherungssystems in Bevölkerung beginnt zu sinken. Angesichts dieser Entwicklungen ist eine Reform der sozialen Sicherung in Deutschland dringend erforderlich.

16.4

Einzelbereiche der Sozialen Sicherung

16.4.1 Alter Die Absicherung der Existenzgrundlage und des Lebensstandards im Alter, d.h. in der Lebensphase, in der die eigene Arbeitskraft nicht mehr oder nur noch in geringerem Maße zum Einkommenserwerb eingesetzt werden kann, ist eines der Hauptziele sozialer Sicherung. In allen industrialisierten Ländern wird hierfür ein Großteil der Sozialausgaben verwendet. In Deutschland nimmt die Alters- und Hinterbliebenensicherung mit 39% den zweitgrößten Anteil am Sozialbudget ein. Die Einführung kollektiver Alterssicherungssysteme ging einher mit starken Veränderungen der gesellschaftlichen Produktionsweise und Arbeitsteilung, die insbesondere auch mit einer Lockerung familialer Beziehungen und einem Rückgang der Kinderzahlen verbunden waren (Werding, 1998, S. 195 ff.). Die staatlichen Alterssicherungssysteme lösten in diesem Prozess zunehmend die bis dahin übliche Alterssicherung innerhalb des größeren Familienverbandes ab. Der Blick auf jene traditionelle Altersicherung zeigt die grundsätzlichen Voraussetzungen wie auch die möglichen Probleme einer Altersicherung auch auf kollektiver Ebene.

16.4.1.1 Grundprobleme der Alterssicherung Traditionell wurden die Alten im Rahmen des erweiterten Familienverbandes von den jeweils nachwachsenden Generationen versorgt, die wiederum die Basis ihrer wirtschaftlichen Aktivitäten von den vorhergehenden Generationen erhalten haben: Grund und Boden, Sach- sowie Humankapital (Sieder 1987). Bereits innerhalb des Familienverbandes bestand damit schon immer ein impliziter „Generationenvertrag“, der durchaus dem Äquivalenzprinzip entsprach. Die Leistung der Eltern war über den Lebenszyklus verteilt – Erziehung und Ausbildung in der Kindheit, Übertragung von Boden und Sachvermögen erst während der Versorgung im Alter (Altenteil) oder danach (Erbschaft) – so dass die Anreize, die Gegenleistung der Versorgung im Alter nicht zu erbringen, eher klein waren, zumindest wenn Güter zum Vererben vorhanden waren. Entsprechende soziale Normen haben die Einhaltung des Generationenvertrages noch verstärkt. Die erweiterte Familie, d.h. die Einbeziehung vor allem von Onkeln, Tanten und Geschwistern in die Generationenbeziehungen, fungierte dabei gleichsam als Versicherungsgemeinschaft, die auch bei Kinderlosigkeit, mangelnder Fähigkeit der Kinder zur Altersversorgung, verfrühter Erwerbsunfähigkeit sowie überlangen Alters eine Versorgung im Alter sicher stellte.

16 Sozialpolitik

353

Die gleichen Risiken werden auch heute in den kollektiven Alterssicherungssystemen abgesichert. Die größere Risikogemeinschaft vermag es dabei, ein höheres Maß an Sicherheit zu schaffen als es die Familie kann. Dies gilt insbesondere für die sich mit der Industrialisierung herausbildende Kleinfamilie. Grundsätzlich werden zwei Alternativen der Gestaltung eines gesellschaftlichen Alterssicherungssystems unterschieden. • Im Umlageverfahren werden die Renten der nicht mehr im Erwerbsleben stehenden Personen durch die jeweils wirtschaftlich aktiven Generationen aufgebracht. Deren Beiträge bzw. Steuerzahlungen werden direkt zur Finanzierung der Renten verwendet. Die Vorleistung der rentenbeziehenden Generation ist, dass sie ihrerseits in ihrer aktiven Phase die Renten der vorangegangenen Generation finanziert hat. Die Bestimmung der Rentenhöhe wie auch der konkreten Anspruchsvoraussetzungen erfolgt jedoch nach zusätzlichen Kriterien und ist nur insoweit Teil des Generationenvertrages, als alle Generationen nach den gleichen Kriterien behandelt werden sollen. Im internationalen Vergleich finden sich daher auch sehr unterschiedliche umlagefinanzierte Rentensysteme. Eine gesellschaftliche Alterssicherung nach dem Umlageverfahren kann nur von Seiten des Staates angeboten werden, denn sie erfordert einen Generationenvertrag, zu dem die nachfolgende Generation im Grunde schon verpflichtet wird, bevor sie selbst entscheidungsfähig ist. Dies kann letztlich nur durch den Staat legitimiert werden. • Nach dem Kapitaldeckungsverfahren werden die Beiträge der wirtschaftlich aktiven Generation zum Aufbau eines Kapitalstocks verwendet, der zuzüglich der Zinserträge zur Finanzierung der späteren Renten verwendet wird. Ein solches Verfahren unterscheidet sich von einem privaten Vorsorgesparen lediglich durch einen Risikoausgleich zwischen unterschiedlich langen Lebensdauern und gegebenenfalls durch Umverteilungskomponenten. Eine solche kapitalgedeckte Alterssicherung wird allerdings auch auf privaten Versicherungsmärkten angeboten (Lebensversicherung, private Rentenversicherung, etc.). Staatliche Maßnahmen sind daher nur insoweit notwendig wie aufgrund unzureichender Informationen oder dem Vertrauen auf die staatliche Grundsicherung mit einer nicht ausreichenden Altersvorsorge gerechnet werden muss. In der Literatur werden Vor- und Nachteile von Umlage- und Kapitaldeckungsverfahren ausführlich diskutiert. Eine generelle Überlegenheit eines Systems kann dabei nicht nachgewiesen werden. Bei schrumpfender Bevölkerung erweist sich das Umlageverfahren allerdings als nachteilig, da hier von Generation zu Generation eine immer kleinere Anzahl von Erwerbspersonen die Rentenansprüche der jeweils umfangreicheren Rentnergeneration zu befriedigen hat. Die Beiträge werden so bemessen, dass die laufenden Einnahmen die laufenden Ausgaben gerade decken: b ⋅ Y⋅B = AR ⋅R ⇒ b =

AR R ⋅ Y B

354

Notburga Ott

wobei b den Beitragssatz, Y das durchschnittliche Prokopfeinkommen, AR die durchschnittliche Rente, B die Anzahl der Beitragszahler und R die Anzahl der Rentner bezeichnen. Ein steigender Rentnerquotient (R/B) führt dann entweder zu einem steigenden Beitragssatz (b) oder einer Absenkung des Rentenniveaus (AR/Y). Der Vorteil des Kapitaldeckungsverfahrens wird darin gesehen, dass dadurch gesamtwirtschaftlich ein höherer Kapitalstock aufgebaut wird, der die Produktivität der Volkswirtschaft erhöht. Da im Umlageverfahren die durch Beitragszahlungen erwobenen Rentenansprüche aus individueller Sicht eigenen Vorsorgeaufwendungen gleich­kommen, fällt dort die private Ersparnis geringer aus, was umso mehr der Fall sein dürfte, je mehr das verfügbare Einkommen durch hohe Beitragszahlungen beschnitten wird. Beim Kapitaldeckungsverfahren wird eine solche Verdrängung privater Ersparnis durch den Aufbau des Kapitalstocks der Rentenversicherung kompensiert. Eine schrumpfende Bevölkerung hat jedoch auch im Kapitaldeckungsverfahren negative Auswirkungen. Das sich ändernde Verhältnis der Produktionsfaktoren Kapital und Arbeit schlägt sich in niedrigeren Zinsen und damit einer niedrigeren Rendite der Rentenbeiträge nieder. Ein entsprechendes Absinken des Rentenniveaus ist die Folge. In einer geschlossenen Volkswirtschaft wäre der altersstrukturbedingte Renditeverlust beim Umlage- und Kapitaldeckungsverfahren identisch. Durch eine Kapitalanlage auf internationalen Märkten lassen sich jedoch mit dem Kapitaldeckungsverfahren auch höhere Renditen erwirtschaften, da weltweit der Faktor Arbeit keineswegs knapp ist. Allerdings unterliegen sie den Risiken internationaler Finanzmärkte, denen seit der Finanzkrise 2008 wieder mehr Aufmerksamkeit geschenkt wird. Aufgrund der Vorteilhaftigkeit des Kapitaldeckungsverfahrens bei schrumpfender Bevölkerung wurde in der Vergangenheit vielfach ein Wechsel von umlagefinanzierten zu kapitalgedeckten Systemen empfohlen. Ein Übergang vom Umlage- zum Kapitaldeckungsverfahren ist jedoch vor allem unter dem Gesichtspunkt der intergenerativen Verteilungsgerechtigkeit äußerst problematisch, da die in der Umstellungsphase aktiven Generationen doppelt belastet werden. Einerseits haben sie die bestehenden Rentenansprüche der vorhergehenden Generation einzulösen und gleichzeitig muss einen Kapitalstock als Basis für die eigenen Renten aufgebaut werden. Daher und auch aufgrund der Kapitalmarktrisiken werden heute überwiegend Mischsysteme empfohlen. Vergleicht man beide Verfahren mit dem Modell der familialen Alterssicherung, so zeigt sich ein weiteres Problem, das bislang in der Diskussion jedoch weitgehend vernachlässigt wird. Sowohl Umlage- als auch Kapitaldeckungsverfahren brauchen eine nächste Generation mit entsprechender wirtschaftlicher Leistungsfähigkeit und auch der Bereitschaft, die Rentenansprüche aus dem jeweiligen System zu befriedigen. Die wirtschaftliche Leistungsfähigkeit basiert dabei auf dem Sach- und dem Humankapital, die zu einem großen Teil als komplementär angesehen werden müssen. Während im traditionellen familialen Generationenvertrag starke Anreize für die Elterngeneration zur Bildung von Sach- und Humankapital bestehen, da sie direkt von einer erhöhten Produktivität ihrer Kinder profitieren, gilt dies für die kollektiven Systeme nicht in gleichem Maße. Beim Umlageverfahren bestehen – zumindest soweit die Beiträge aus

16 Sozialpolitik

355

dem Erwerbseinkommen finanziert werden – keinerlei endogenen Anreize, in eine der beiden Kapitalformen zu investieren. Die auf Beitragszahlungen basierenden Rentenansprüche verringern die Notwendigkeit individueller Vorsorge nicht nur hinsichtlich privater Vermögensbildung, sondern auch hinsichtlich einer späteren Unterstützung durch eigene Kinder. Beim Kapitaldeckungsverfahren wird zwar systemimmanent ein Kapitalstock gebildet, Investitionen in Humankapital finden jedoch auch hier nicht statt. Der in Industriestaaten zu beobachtende Geburtenrückgang dürfte auch auf die durch kollektive Sicherungssysteme gesunkene Bedeutung von eigenen Kindern für die Alterssicherung zurückzuführen sein. Diese mangelnden Anreize für Investitionen in die nächste Generation führen nicht nur zu Ineffizienzen, sondern gefährden den Generationenvertrag in seiner Basis. Zum einem ergeben sich vor allem beim Umlageverfahren Verteilungsprobleme zwischen Kindererziehenden und Kinderlosen. In dem Maße, in dem Kinderlosigkeit überwiegend nicht mehr ungewollt eintritt, sondern eine bewusste Entscheidung ist, wird dann eine Versicherung gegen fehlende oder mangelnde Altersunterstützung durch eigene Kinder anfällig für Moral hazard. Personen, die keine Kosten der Kindererziehung tragen, erhalten gleichwohl eine ungekürzte Alterssicherung. Dieses Problem tritt beim Kapitaldeckungsverfahren allerdings nicht bzw. nicht direkt auf, da hier die Renten­zahlungen aus dem akummulierten Kapitalstock finanziert werden und nicht aus dem Erwerbseinkommen, d.h. den Humankapitalerträgen der nächsten Generation, die daher prinzipiell in einem familialen „Generationenvertrag“ zur zusätzlichen Alterssicherung der Eltern verwendet werden können. Gleichwohl treten jedoch Verteilungsprobleme anderer Art auf (Abschnitt 16.4.3). Zum anderen ergeben sich Verteilungsprobleme zwischen den Generationen. In dem Maße, in dem die nachfolgenden Generationen keine vergleichbaren Renditen auf ihre Rentenbeiträge zu erwarten haben wie die vorhergehenden Generationen, bestehen Anreize zum Aufkündigen des bestehenden Generationenvertrags. Dies mag kollektiv geschehen, indem im politischen Entscheidungsprozess eine gleichmäßigere Verteilung der altersstrukturbedingten Lasten zwischen den Generationen durch Absenkung des Rentenniveaus und Erhöhung des Rentenzugangsalters durchgesetzt wird. Angesichts der Wählermehrheiten in einer alternden Gesellschaft ist allerdings zu befürchten, dass solche Änderungen nicht weit genug gehen, um eine faire Verteilung zwischen den Generationen herzustellen. Daher besteht ein hoher individueller Anreiz für die jüngeren Generationen, sich der Sozialversicherung und damit den Rentenzahlungen an die vorherige Generation zu entziehen und stattdessen privat vorzusorgen.

16.4.1.2 Alterssicherung in Deutschland Die Alterssicherung in Deutschland besteht aus mehreren unabhängigen Systemen, die sich hinsichtlich Organisation, versichertem Personenkreis, Finanzierung, Leistungsvoraussetzungen und Rentenniveau unterscheiden. Einen Überblick gibt Abb. 16.5. Als die „drei Säulen der Alterssicherung“ werden die gesetzliche Regelsysteme, die betrieblichen Zusatzversicherungen und die private Altersvorsorge bezeichnet.

356

Notburga Ott

Öffentlicher Dienst

Privatwirtschaft

Abhängig Beschäftigte Beamte Regelsysteme

Zusatzsysteme Private Vorsorge

Beamtenversorgung

Arbeiter u. Angestellte

Selbständige Handwerker

Künstler Sonstige

Gesetzliche Rentenversicherung (GRV) Deutsche Rentenversiche- Handrung Bund werkerversicherung Zusatzversorgung (VBL)

Künstlersozialversicherung

Betriebl. Altersversorgung

freiwillig oder pflichtversichert

Freie Berufe

Landwirte

Berufsständische Versorgungswerke

Altershilfe für Landwirte

staatlich Förderung bestimmter Vorsorgeformen („Riester“-Rente, nur Pflichtversicherte) Lebensversicherungen, private Rentenversicherungen, Ersparnisse ( zum Teil steuerlich gefördert: sog. „Basis“-Rente)

Abb. 16.5  Alterssicherung verschiedener Bevölkerungsgruppen

Die gesetzlichen Regelsysteme knüpfen an der Erwerbstätigkeit und dem Erwerbs­ einkommen an. Es handelt sich dabei durchweg um Pflichtversicherungen für be­stimmte Berufsgruppen, die nahezu alle Erwerbstätigen erfassen. Ebenfalls versichert sind Personen, die Lohnersatzleistungen aus anderen Sicherungssystemen erhalten. Nicht selbst versichert sind andere nicht erwerbstätige Personen, die jedoch überwiegend (nicht erwerbstätige Ehepartner und Kinder) einen über den jeweiligen Unterhaltspflichtigen abgeleiteten Sicherungsanspruch haben. Das wichtigste System ist die gesetzliche Rentenversicherung (GRV), in der über 80% der Bevölkerung versichert sind. Die Beamtenversorgung umfasst etwa 4% (Bundesministerium für Arbeit und Soziales 2016). Eine betriebliche Zusatzversicherung gibt es nur für abhängig beschäftige Arbeiter und Angestellte. Diese ist jedoch nur im öffentlichen Dienst obligatorisch. In der Privatwirtschaft beruht sie auf betrieblichen oder tarifvertraglichen Vereinbarungen. Arbeitnehmer haben jedoch ein Recht auf Entgeltumwandlung. Zudem werden bestimmte private Vorsorgeformen staatlich gefördert, teilweise durch steuerliche Abschreibemöglichkeiten (sog. „Basis“-Rente) und für Pflichtversicherte in der GRV und Beamte durch Zuschüsse (sog. „Riester“-Rente). Die gesetzliche Rentenversicherung ist nach dem Umlageverfahren konzipiert. Die laufenden Rentenzahlungen, die gesetzlich festgelegt sind, werden aus den laufenden Beitragseinnahmen finanziert, die gegebenenfalls anzupassen sind. Lediglich eine Nachhaltigkeitsrücklage von derzeit 0,2 bis 1,5 Monatsausgaben ist zulässig. Die Beiträge werden mit einem proportionalen Faktor vom Einkommen bis zur Beitragsbemessungsgrenze erhoben. Bei Eintreten verschiedener Sicherungstatbestände werden dann Rentenzahlungen geleistet, wobei folgende Rentenarten unterschieden werden:

16 Sozialpolitik

357

• Altersrenten: Die Regelaltersrente erhalten Personen, die die Regelaltersgrenze erreicht haben und eine allgemeine Wartezeit (Beitragszeiten, Kindererziehungszeiten, Ersatzzeiten, u.a.) von fünf Jahren erfüllen. Die Regelaltersgrenze beträgt im Jahr 2018 65 Jahre + 7 Monate und wird bis zum Jahr 2031 stufenweise bis zum 67. Lebensjahr angehoben. Darüber hinaus werden bei jeweils anderen Anspruchsvoraussetzungen Altersrenten für langjährig Versicherte, für Schwerbehinderte, Berufs- und Erwerbsunfähige, für besonders langjährig Versicherte, sowie wegen Arbeitslosigkeit, nach Altersteilzeitarbeit und für Frauen, die vor 1952 geboren sind, gewährt • Hinterbliebenenrenten: Bei Tod eines Versicherten erhalten Ehepartner unter Anrechnung eigener Einkünfte eine Witwen- bzw. Witwerrente in Höhe von 55% der Rente des Versicherten (bzw. 25 %, sofern der hinterbliebene Ehepartner beim Todesfall jünger als 45 Jahre ist und kein Kind zu versorgen ist). Geschiedenen Ehepartnern, die ein eigenes Kind oder ein Kind des Versicherten erziehen, wird unter bestimmten Voraussetzungen bei Tod des früheren Ehepartners eine Erziehungsrente gezahlt. Kinder, die das 18. Lebensjahr noch nicht vollendet haben oder in Ausbildung sind, haben bei Tod eines versicherten Elternteils Anspruch auf eine Waisenrente. • Erwerbsminderungsrenten: Bei Eintritt einer teilweisen oder vollen Erwerbsminderung wegen gesundheitlicher Einschränkungen und einer teilweisen Erwerbsminderung wegen Berufsunfähigkeit werden Erwerbsminderungsrenten gezahlt, die jedoch teilweise nur befristet gewährt werden. Die Höhe der Rente steht grundsätzlich in Relation zur Höhe und Dauer der eigenen Beiträge. Hierdurch soll im Rahmen des Umlageverfahrens eine sogenannte TeilhabeÄquialenz gewährleistet werden. In dem Maße, in dem sich eine Person an der Finanzierung der Renten der vorherigen Generation mit eigenen Beiträgen beteiligt hat, soll sie selbst an den Rentenzahlungen der nachfolgenden Generation partizipieren. Die persönliche Rente berechnet sich nach der Rentenformel Monatsrente = EP ∙ ZF ∙ RA ∙ AR • EP bezeichnet dabei die persönlichen Entgeltpunkte. Deren Höhe ergibt sich aus der Dauer der Beitragsleistungen und dem Verhältnis des Einkommens des Versicherten zum Durchschnittseinkommen aller Versicherten. Zusätzliche Entgeltpunkte werden aber auch für Zeiten gewährt, in denen der Versicherte selbst keine Beiträge entrichtet hat, z.B. Kindererziehungs-, Berufsausbildungs- und Pflegezeiten, sowie Anrechnungs-, Zurechnungs- und Ersatzzeiten, die für bestimmte besondere Situationen zuerkannt werden. • ZF bezeichnet den Zugangsfaktor, der im Allgemeinen bei 1 liegt. Bei vorzeitigem oder späterem Rentenbeginn als dem regulären Rentenzugangsalter werden jedoch pro Monat früheren oder späteren Rentenbeginns Ab- und Zuschläge in Höhe von 0,3 % bzw. 0,5 % zugerechnet.

358

Notburga Ott

• RA bezeichnet den Rentenartfaktor, der bei Hinterbliebenenrenten und Renten wegen teilweiser Erwerbsminderung oder Berufsunfähigkeit kleiner als 1 ist. • AR bezeichnet den aktuellen Rentenwert. Dies ist der Betrag, der einer monatlichen Rente eines Versicherten mit einer durchschnittlichen Beitragszahlung für ein Kalenderjahr entspricht. Mit ihm wird das Rentenniveau, d.h. die Höhe der Renten im Vergleich zu den Löhnen festgelegt. Er wird jährlich neu bestimmt. Die Anpassung erfolgt seit der Rentenreform 2004 entsprechend einer „modifizierten Bruttoanpassung mit Nachhaltigkeitsfaktor“, d.h. die Renten steigen entsprechend der durchschnittlichen Bruttolöhne korrigiert um die Veränderung des Beitragssatzes zur Rentenversicherung und um die Veränderung des zahlenmäßigen Verhältnisses von Rentenbeziehern und Beitragszahlern. Dies führt dazu, dass das Brutto-Rentenniveau (vor Steuern) von derzeit 52,4 % auf etwa 43 % in 2030 absinken wird. Das Prinzip der Beitragsäquivalenz wird in der gesetzlichen Rentenversicherung mehrfach durchbrochen, wenn Renten ohne Beitragszahlungen aufgrund von Tatbeständen gewährt werden, die dem Grunde nach kein in der Rentenversicherung abzusicherndes Risiko darstellen, aber aus historischen, politischen oder verwaltungstechnischen Gründen über die Rentenversicherung abgewickelt werden, wie z.B. Kriegsfolgelasten oder Renten wegen Arbeitslosigkeit. Bei der Diskussion dieser als versicherungsfremd bezeichneten Leistungen steht allerdings nicht die Frage nach der Art des Risikos und seiner ursachenbezogenen systemlogischen Verankerung im Vordergrund, sondern die nach seiner Finanzierung. Da nicht die gesamte Bevölkerung in der GRV versichert ist, widerspricht eine Finanzierung allgemeingesellschaftlicher Aufgaben durch die Beitragszahler der Leistungsgerechtigkeit. Die Bundeszuschüsse dienen der Finanzierung solch versicherungsfremder Leistungen, was in der Vergangenheit häufig nur teilweise eingelöst wurde. Durch die deutliche Erhöhung der Bundeszuschüsse um die Jahrtausendwende wurde dieses Problem verringert, wenngleich nach wie vor umstritten ist, was eigentlich zu den versicherungsfremden Leistungen in der Rentenversicherung gezählt werden soll (Deutscher Bundestag 2016). Unabhängig von dieser an der Gruppe der Beitragszahler anknüpfenden Problematik wird das Prinzip der Beitragsäquivalenz auch durch familienbezogene Elemente durchbrochen. Angesichts der oben diskutierten Vernachlässigung der Investitionen in das Humanvermögen der nachfolgenden Generation ist ohnehin zu fragen, ob eine lediglich an den monetären Beiträgen anknüpfende „Äquivalenz“ dem Problem angemessen ist und dem Äquivalenzprinzip im Sinne der Leistungsgerechtigkeit entspricht. Sowohl die Hinterbliebenenrenten als auch die Kindererziehungszeiten verfolgen im Kern das Ziel eines Ausgleichs von Kindererziehungskosten. Die gegenwärtige Form der Witwen- und Witwerrente garantiert über den Tod des Versicherten hinaus eine zweite Rente für den überlebenden Ehepartner, sofern dieser kein oder nur ein geringes Einkommen hat. Ehepaare, bei denen aufgrund geringerer Erwerbsbeteiligung ein Partner nur geringe eigene Rentenanwartschaften hat, erhalten somit mit der gleichen Beitragszahlung eine höhere Absicherung und im Durchschnitt auch höhere Leistungen als Unverheiratete. Sofern die

16 Sozialpolitik

359

geringere eigene Rente durch Kindererziehung bedingt ist, mag diese Umverteilung als Kompensation für die Externalitäten der Kindererziehung angemessen sein. Faktisch wird jedoch auch die kinderlose Ehe begünstigt, in der ein Partner aus anderen Gründen ein geringes eigenes Einkommen hat, was Möglichkeiten für Moral hazard schafft. Dem Problem angemessen wäre ein Rentensplitting, d.h. eine gleichmäßige Aufteilung der während der Ehe anfallenden Rentenanwartschaften auf beide Ehepartner, die dann jeweils einen hälftigen Rentenanspruch begründen. Mit der Rentenreform 2001 wurde ein solches Rentensplitting als Wahlmöglichkeit eingeführt, was für bestehende Ehen aus Gründen des Bestandsschutzes sinnvoll ist. Allerdings gibt es keine Begründung, das Rentensplitting für künftige Ehen nicht als obligatorische Regelung einzuführen und damit Lücken, die Anreize für Moral hazard bieten, zu schließen. Mit den Kindererziehungszeiten wird explizit das Ziel verfolgt, die Bedeutung der Kindererziehung für die Rentenversicherung im Sinne einer Beitragsleistung anzuerkennen. Pro Kind werden drei Jahre Kindererziehungszeiten beitragsfrei angerechnet, die Beiträge dafür übernimmt der Bund. Mit der Rentenreform 2001 wurde zusätzlich eine kindbezogene Höherbewertung von Beitragszeiten, eine Begünstigung bei Erziehung mehrerer Kinder sowie eine Kinderkomponente bei der Hinterbliebenenrente eingeführt. Diese Maßnahmen sind von der Zielrichtung her dem Problem angemessen, sie können jedoch bestenfalls als ein Anfang einer konsequenten Berücksichtigung der Leistungen für die nachfolgende Generation im Rahmen des Generationenvertrages angesehen werden. Mit den Rentenreformen 2001 und 2004 wurde zudem eine Förderung der zweiten und dritten Säule der Alterssicherung eingeführt. Private und betriebliche Altersvorsorge wird staatlich gefördert. Förderungsberechtigt sind alle Pflichtmitglieder der gesetzlichen Rentenversicherung sowie Beamte, Richter und Soldaten. Personen, die 4% ihres Einkommens in Anlageformen mit bestimmten Eigenschaften ansparen, erhalten eine staatliche Zulage, die aus Steuermitteln finanziert wird. Darüber hinaus haben alle Arbeitnehmer ein Anrecht auf Umwandlung eines Teils ihres Einkommens in Beiträge zur betrieblichen Altervorsorge, die ebenfalls steuerlich begünstigt ist. Mit diesen Maßnahmen soll ein Einstieg in eine kapitalfundierte Altersvorsorge auf freiwilliger Basis erfolgen und ein Ausgleich für die Absenkung des Rentenniveaus geschaffen werden. Da diese private Vorsorge jedoch nicht verpflichtend ist, bleibt zu befürchten, dass insbesondere niedrigere Einkommensschichten nicht in hinreichendem Maße Eigenvorsorge betreiben und daher im Alter doch auf Grundsicherung angewiesen sein werden. Auch die Art der Förderung aus Steuermitteln ist nicht ganz unproblematisch, da sie eine Umverteilung nur zugunsten der Förderberechtigten impliziert, die nicht die gesamte Bevölkerung umfassen. Generell lässt sich feststellen, dass mit den Rentenreformen 2001 und 2004 zwar Maßnahmen ergriffen wurden, die tendenziell in die richtige Richtung weisen – Senkung des Rentenniveaus, Einstieg in die Kapitaldeckung, Berücksichtigung von Kindererziehung, Reform der Hinterbliebenenversorgung, Nachhaltigkeitsfaktor bei der Rentenanpassung – jedoch durchweg zu kurz greifen, um falsche Anreizwirkungen zu verhindern. Insbesondere zeichnet sich bereits jetzt schon ab, dass die der Reform zugrunde liegenden Annahmen über Bevölkerungsentwicklung, Erwerbsverhalten und Wirtschaftsentwicklung zu

360

Notburga Ott

optimistisch waren und mit den bisherigen Maßnahmen weder Beitragssatz noch Rentenniveau stabil gehalten werden können.

16.4.2 Gesundheit In allen entwickelten Wohlfahrtstaaten ist nach wie vor ein Grundkonsens zu konstatieren, wonach der Staat allen Gesellschaftsmitgliedern eine ausreichende Versorgung mit Gesundheitsleistungen zu gewährleisten hat. Dieser gutspezifische Egalitarismus, der mit einem meist nicht näher spezifizierten „Grundgutcharakter“ des Gutes Gesundheit sowie mit Verfahrenspräferenzen bei der Leistungserstellung von Gesundheitsleistungen begründet wird, sieht sich in den letzten Jahrzehnten nicht nur durch neuere Entwicklungen des medizinisch-technischen Fortschritts, sondern auch durch die budgetären Restriktionen des öffentlichen Gesundheitssektors in Frage gestellt. Staatliche Maßnahmen werden auch hier zunehmend begründungsnotwendig.

16.4.2.1 Grundprobleme des Gesundheitswesens Die Märkte für Gesundheitsleistungen unterscheiden sich in vieler Hinsicht von anderen Märkten, was mit der Besonderheit des Gutes „Gesundheit“ zusammenhängt, dem die Nachfrage nach Gesundheitsleistungen dient. Unter Gesundheit wird nach der Definition der Weltgesundheitsorganisation (WHO) „ein umfassendes körperliches, seelisches und soziales Wohlbefinden“ verstanden, was darauf hinweist, dass der Prozess zur Erlangung von Gesundheit vielschichtig und komplex ist und nicht allein von medizinischen Gesundheitsleistungen abhängt. Diese sind daher als Investitionen in das Gut Gesundheit zu betrachten, wobei sowohl hinsichtlich der Produktionsfunktion als auch der Produktionsbedingungen ein hohes Maß an Ungewissheit herrscht. Die Besonderheiten des Gutes Gesundheit führen zu Marktversagensphänomenen, die eine staatliche Einflussnahme begründen mögen. • Vielfach wird von einer eingeschränkten Konsumentensouveränität bei Gesundheitsleistungen ausgegangen. Dies wird mit der fehlenden oder beschränkten Entscheidungsfähigkeit des Patienten in akuten und lebensbedrohlichen Situationen begründet. In solchen Situationen sind sie gegenüber der anderen Marktseite geschwächt (Lock-in-Effekt), was auf Seiten der Leistungsanbieter Möglichkeiten und Anreize zum Ausnutzen der Situation zum eigenen Vorteil schafft (Hold-up-Problem). Darüber hinaus ergeben sich ähnliche Probleme auch durch Informationsmängel bei Gesundheitsleistungen. Die Qualität der medizinischen Leistung kann vom Patienten häufig nicht angemessen beurteilt werden, da erstens Gesundheitsleistungen meist nur unregelmäßig nachgefragt werden, so dass ein Qualitätsvergleich mit anderen Anbietern kaum möglich ist, und zweitens der Zusammenhang zwischen Behandlung und Gesundheitszustand nicht eindeutig identifiziert werden kann. Daher kann überwiegend der Leistungsanbieter Umfang und Art der medizinischen Leistung bestimmen.

16 Sozialpolitik

361

Sofern Leistungsanbieter ihre Kapazitäten auszulasten versuchen, kann es zur sogenannten „angebotsinduzierten Nachfrage“ kommen. Bei solchen für Prinzipal-AgentBeziehungen typischen Informations­asymmetrien besteht zusätzlicher Regulierungsbedarf, damit die Situation nicht einseitig ausgenutzt werden kann. Hier gilt es, mit Regelungen zur Qualitätssicherung und geeigneten Vergütungssystemen, die auch den Behandlungserfolg berücksichtigen, eine effektive Qualitäts- und Kostenkontrolle zu erreichen. • Die Inanspruchnahme von Gesundheitsleistungen ist mit positiven Externalitäten verbunden. Impfungen und Behandlungen von Infektionskrankheiten verringern die Wahrscheinlichkeit der Erkrankung anderer Gesellschaftsmitglieder, zudem entwickelt sich die Medizin als Erfahrungswissenschaft mit jedem Behandlungsfall weiter. Diese externen Effekte begründen eine gewisse Umverteilung im Gesundheitssystem, indem alle zur Finanzierung dieser Aufgaben mit herangezogen werden. Sofern in der Bevölkerung ein gewisser Altruismus herrscht, indem Leid und Krankheit zu Mitgefühl führen, reduziert zudem die Behandlung von Krankheiten solch psychische Externalitäten. Deren Internalisierung lässt sich mit einer Versicherungspflicht erreichen. • Medizinische Leistungen haben darüber hinaus den Charakter eines Optionsgutes. Der Bedarf ist zum Großteil nicht vorhersehbar, hat aber bei Eintritt häufig eine hohe Dringlichkeit. Insofern ist zur Absicherung gesundheitlicher Risiken eine gewisse Reservehaltung von Kapazitäten notwendig. Prinzipiell kann deren Finanzierung über Versicherungen erfolgen, da ihre Bereithaltung die Sicherheit der Versicherten erhöht und daher eine gewisse Zahlungsbereitschaft dafür besteht. Sofern jedoch die Reservekapazitäten die Eigenschaften eines öffentlichen Gutes aufweisen, weil aus ethischen Gründen Nichtversicherte von deren Nutzung nicht ausgeschlossen werden können, ist eine staatliche Zwangsabgabe über Steuermittel oder eine Pflichtversicherung sinnvoll. Neben diesem in den Gutseigenschaften begründeten staatlichen Regulierungsbedarf erfordern Marktmängel auf den Versicherungsmärkten staatliche Eingriffe. Gerade bei Gesundheitsrisiken treten die klassischen Informationsprobleme mit ihren negativen Folgen für Versicherungsmärkte auf (Abschnitt 16.2.3.1). • Da der Gesundheitszustand der Versicherten von den Versicherern nur unzureichend beobachtet werden kann, ist grundsätzlich mit adverser Selektion zu rechnen. Über die empirische Evidenz lässt sich jedoch nur wenig sagen, vor allem weil die Krankenversicherungsmärkte in allen Gesellschaften stark reglementiert sind. Das Angebot unterschiedlicher Versicherungsverträge auf stark wettbewerblichen Märkten wie in den USA deutet jedoch darauf hin, dass hier kein Zusammenbrechen des Marktes zu befürchten ist, sondern sogenannte trennende Gleichgewichte mit unterschiedlichen Prämien und Selbstbehalten möglich sind. Um eine Patientenselektion auf der Anbieterseite zu verhindern, ist jedoch ein Kontrahierungszwang notwendig.

362

Notburga Ott

• Moral Hazard-Probleme treten bei Krankenversicherungen in zweifacher Hinsicht auf. Zum einen kann der Versicherte das Erkrankungsrisiko durch seine Lebensweise und präventive Maßnahmen stark beeinflussen (ex ante Moral hazard), zum anderen hängen im Krankheitsfall die Kosten der Behandlung ebenfalls vom Verhalten des Patienten ab (ex post Moral hazard). Beide Arten des Moral hazard können durch geeignete Selbstbeteiligungsregelungen verringert werden. Ein gewisses Maß an Selbstbeteiligung ist hinsichtlich des Erkrankungsrisikos jedoch bereits durch die physischen und psychischen Krankheitskosten gegeben. • Schließlich gilt es gerade im Gesundheitsbereich ein Trittbrettfahrerverhalten durch fehlende freiwillige Versicherung zu verhindern. Ist aufgrund ethischer Grundsätze eine „Mindestversorgung“ mit Gesundheitsleistungen auf hohem Niveau gewährleistet, so bestehen vergleichsweise starke Anreize, selbst keine Vorsorge zu betreiben. Eine adäquate Lösung ist eine Versicherungspflicht verbunden mit einer Subventionierung der Prämien für Einkommensschwache. Nicht zuletzt ist eine gesellschaftliche Absicherung von Gesundheitsrisiken ein Gebot der Chancengerechtigkeit. Gesundheitliche Beeinträchtigungen sind vielfach auf genetische Ungleichheiten und sehr frühe Schädigungen zurückzuführen, weshalb hier bereits die Startchancengleichheit verletzt ist. Insofern ist gerade im Gesundheitsbereich eine soziale Ausgestaltung der Versicherung als Zwangsversicherung mit Einheitsprämie im Sinne einer Versicherung unter dem Schleier des Nichtwissens angebracht. In dem Maße, in dem jedoch in Zukunft auch die genetische Ausstattung nur noch teilweise von Zufällen abhängen wird, wird die Sozialpolitik im Gesundheitsbereich vor völlig neue Herausforderungen gestellt. Diesen Anforderungen an die Regulierung der Märkte für Gesundheitsleistungen und Krankenversicherungen kann mit unterschiedlichen Instrumenten und Organisationsformen begegnet werden. Historisch haben sich im Kern drei Typen von Gesundheitssystemen herausgebildet. • Nationale Gesundheitsdienste – wie z.B. in Großbritannien (National Health Service) – sind staatliche Gesundheitssysteme, die überwiegend aus Steuermitteln finanziert werden. Der Leistungskatalog und die Preise werden durch staatliche Institutionen festgelegt. Diese planen und verwalten überwiegend auch das Angebot, das allen Bürgen offen steht. Die Arztwahl des Patienten ist jedoch im allgemeinen eingeschränkt und wird meist durch einen Primärarzt gesteuert. Die Leistungen werden entweder direkt durch staatliche Organisationen angeboten oder von unter Vertrag stehenden privaten Leistungserbringern. Die Vergütung erfolgt dann meist über Einzelleistungen oder Kopfpauschalen. Teilweise handelt es sich bei den privaten Leistungsanbietern um sogenannte Managed care-Organisationen, die die Bereitstellung und Finanzierung von Gesundheitsleistungen insgesamt übernehmen, wodurch innerhalb des staatlichen Systems ein interner Markt entsteht. Nationale Gesundheitsdienste gelten als kosteneffektiv. Das Leistungsspektrum ist jedoch überwiegend auf eine Grundversorgung

16 Sozialpolitik

363

beschränkt. Daher hat sich in den meisten Ländern mit nationalem Gesundheitsdienst parallel ein privater Gesundheitsmarkt entwickelt. • Sozialversicherungssysteme – wie z.B. in Frankreich und Deutschland – haben eine in der Regel obligatorische soziale Krankenversicherung, die ein umfassendes Spektrum medizinischer Leistungen abdeckt und durch Beiträge, meist in Form von Lohnoder Einkommensprozenten finanziert wird. Das ambulante Angebot ist überwiegend privat, das stationäre dagegen zu einem Großteil öffentlich. Das Leistungsangebot ist meist gesetzlich festgelegt, die Preise werden dagegen zwischen den Krankenversicherungen und den Leistungsanbietern kollektiv ausgehandelt. Die Vergütung erfolgt überwiegend nach Einzelleistungen. • Bei marktwirtschaftlich organisierten Gesundheitssystemen – wie z.B. in den USA – ist der Einfluss des Staates am geringsten. Die Vorsorge erfolgt über private Versicherungen auf freiwilliger Basis; es besteht keine Versicherungspflicht oder nur für Basisleistungen in geringem Umfang. Das Leistungsangebot wird von privaten und Non-Profit-Organisationen bereitgestellt, die untereinander in Wettbewerb stehen. Die Finanzierung erfolgt zum Teil durch direkte Nachfrage der Konsumenten, ansonsten durch die jeweiligen Versicherungen, die mit den Leistungserstellern Vertragsbeziehungen eingehen und dabei die Preise und das Leistungsspektrum aushandeln. Bei den traditionellen Indemnity-Versiche­rungen werden die Leistungsersteller nach Einzelleistungen vergütet. Die sogenannten Health Maintenance Organizations (HMO) sind dagegen Managed care Organisation und Versicherung in einem. Die fixen Versicherungsprämien der Versicherten stellen die Vergütung der HMO dar. Die Ärzte sind Angestellte oder Miteigentümer der HMO und am finanziellen Erfolg der HMO beteiligt. Dem Versicherten wird eine vorab definierte umfassende Versorgung garantiert, seine Wahlfreiheit ist jedoch auf die HMO-Ärzte beschränkt. Marktwirtschaftlich organisierte Systeme gelten als effizient und innovativ, sie führen jedoch zu einer starken Ungleichverteilung in der Gesundheitsversorgung der Bürger.

16.4.2.2 Gesundheitspolitik in Deutschland Die Krankenversicherung in Deutschland ist geprägt durch eine Vielzahl verschiedener Versicherungsträger, die historisch gewachsen ist. Im Jahr 2015 waren knapp 88% der Bevölkerung Mitglieder der gesetzlichen Krankenversicherung, 11,5% waren privat versichert und lediglich 0,01 % hatten keine Absicherung. Träger der gesetzlichen Krankenversicherung (GKV) sind derzeit 11 Orts-, 88 Betriebs-, 6 Innungs- und 1 landwirtschaftliche Krankenkassen, 6 Ersatzkassen, die Seekrankenkasse und die Bundesknappschaft. Ursprünglich waren die verschiedenen Kassen nur bestimmten Berufgruppen zugänglich, mittlerweile besteht jedoch weitgehende Wahlfreiheit. Die Finanzierung der GKV erfolgt über einen Gesundheitsfonds, der mit der Gesundheitsreform 2007 eingeführt wurde. In diesen wird der bundeseinheitliche Beitragssatz von derzeit 14,6% (Arbeitgeber- und Arbeitnehmeranteil) aller Versicherten eingezahlt. Den Kassen wird aus dem Fonds für jeden Versicherten eine nach dem Krankheitsrisiko gewichtete Pauschale zugewiesen und damit ein Risikostrukturausgleich sicher gestellt. Je

364

Notburga Ott

nach Leistungsfähigkeit und Wirtschaftlichkeit können die Kassen von ihren Mitgliedern Zusatzbeiträge erheben (derzeit durchschnittlich 1,1%), womit ein Wettbewerb zwischen den Kassen zur effizienten Leistungserstellung entstehen soll. Zudem können sie besondere Tarife mit eingeschränkter Arztwahl (Hausarzttarif) oder Selbstbehalt anbieten. Die privaten Krankenversicherungen (PKV), die derzeit von ca. 49 Gesellschaften angeboten werden, sind in dieses System nicht einbezogen. Hier wird nach wie vor eine einkommensunabhängige, nach individuellem Risiko berechnete Versicherungsprämie erhoben. Pflichtversichert in der GKV sind alle Arbeitnehmer mit einem Einkommen unter der Versicherungspflichtgrenze bzw. Jahresarbeitsentgeltgrenze (2018: 59.400 €), sowie Rentner, Studenten, Arbeitslose, Landwirte, Künstler und Publizisten. Versicherte der GKV, bei denen die Versicherungspflicht entfällt oder die Familienmitversicherung ausläuft haben jedoch die Möglichkeit der freiwilligen Weiterversicherung. Selbständige, Beamte und Arbeitnehmer mit einem höheren Einkommen waren bis 2009 nicht versicherungspflichtig; bei ihnen wurde davon ausgegangen, dass sie in hinreichendem Maße Eigenvorsorge betreiben. Nachdem aber der Anteil der nicht Versicherten deutlich angestiegen war, wurde mit der Gesundheitsreform 2007 eine allgemeine Versicherungspflicht eingeführt. Dafür wurde für alle nicht in der GKV pflichtversicherten Personen ein Beitrittsrecht zur PKV in den so genannten Basistarif geschaffen, den jede private Versicherung mit dem Leistungsumfang der GKV und einer risikounabhängigen Prämie, die den Höchstbetrag in der GKV nicht übersteigt, anbieten muss. Obwohl durch die Einführung dieser allgemeinen Versicherungspflicht eine gewisse Eindämmung der Risikoselektion zu erwarten ist, wurden damit längst nicht alle Fehlanreize beseitigt, die durch die unterschiedlichen Regelungen in GKV und PKV entstehen. So sind in der GKV unterhaltsberechtigte Familienangehörige beitragsfrei mitversichert, in der PKV jedoch nicht. Hierdurch entsteht in gewissem Umfang adverse Selektion, da Personen mit einem Einkommen oberhalb der Jahresentgeltgrenze und Familie einen Anreiz haben, in der gesetzlichen Krankenversicherung zu verbleiben, während die ohne familiäre Unterhaltsverpflichtungen in die Privatversicherung wechseln. Auch wenn ein höherer Bundeszuschuss aus Steuermitteln zur Abdeckung dieser Leistungen an die GKV gezahlt wird, und sich somit nicht mehr in höheren Beiträgen in der GKV niederschlagen, bleibt dennoch eine Gerechtigkeitslücke bestehen, da Versicherten in der PKV diese Leistungen der Gesellschaft vorenthalten bleiben. Der Leistungskatalog der gesetzlichen Krankenversicherung wird gesetzlich festgelegt und umfasst Leistungen zur Behandlung von Krankheiten, zu ihrer Früherkennung und zur Krankheitsverhütung, Mutterschaftshilfe und Mutterschaftsgeld, sowie Einkommenshilfen in Form von Krankengeld, das nach Wegfall der Lohnfortzahlung durch den Arbeitgeber ab der 7. Krankheitswoche gezahlt wird. Die Gesundheitsleistungen werden von den Leistungsanbietern (Ärzten, Krankenhäuser, Apotheken) an die Patienten abgegeben, sie erhalten die Vergütung dafür aber von den Krankenkassen. Die Vergütungssysteme sind ebenfalls gesetzlich festgelegt, die jeweiligen Preise werden jedoch von den Leistungsanbietern bzw. ihren Verbandsvertretern und den Kassen ausgehandelt.

16 Sozialpolitik

365

Die Struktur der ambulanten und stationären Versorgung der GKV ist in Abb. 16.6 dargestellt. Die Leistungs- und Finanzierungsströme sind vielfach nicht direkt gegenseitig aufeinander bezogen, sondern über mehrere Instanzen verteilt. Solche Strukturen beinhalten oft vielfache Moral hazard-Anreize. Die Versicherten erwerben mit ihrem Versicherungsbeitrag einen Anspruch auf medizinische Versorgung, der durch Vorlegen der Versichertenkarte geltend gemacht wird. Sie haben daher keinen Anreiz, die dadurch entstehenden Kosten, die ihnen zudem meist gar nicht bekannt sind, zu senken. Selbstbeteiligungsregelungen gibt es kaum. Zuzahlungen müssen lediglich bei Arzneimitteln, bei Heil- und Hilfsmitteln, beim Zahnersatz und beim Krankenhausaufenthalt geleistet werden. Diese sind jedoch stark pauschaliert und hängen nur begrenzt von der Höhe der entstandenen Kosten ab, so dass sie kaum geeignet sind, Moral hazard einzudämmen. Lediglich bei Folgekosten für medizinisch nicht indizierte Eingriffe (z.B. Schönheitsoperationen) wurde mit der Gesundheitsreform 2007 eine systematische Selbstbeteiligung eingeführt. Die Patienten haben generell die freie Wahl der Leistungsanbieter, jedoch weder die Information noch Anreize, die Wirtschaftlichkeit zu prüfen, sofern sie nicht von sich aus den Hausarzt-, Selbstbehalt- oder Kostenerstattungstarif gewählt haben.

Abb. 16.6  Die Struktur der Gesundheitsversorgung in der GKV, Quelle: Althammer/Lampert (2014), S.267

366

Notburga Ott

Die niedergelassenen Ärzte erhalten die Vergütung ihrer Leistungen für gesetzlich Versicherte durch die Kassenärztliche Vereinigung. Diese bekommt von den gesetzlichen Krankenkassen eine Gesamtvergütung, die in der Vergangenheit ausschließlich durch ein Punktesystem für Einzelleistungen, den einheitlichen Bewertungsmaßstab (EBM), auf die Kassenärzte verteilt wurde. Nun birgt die Vergütung von Einzelleistungen generell die Gefahr des Moral hazard durch Erbringung von medizinisch nicht notwendigen Leistungen. Mit der Gesundheitsreform 2007 wurde ebenfalls eine Änderung dieses Entlohnungssystems eingeführt, wonach heute ein Mischsystem von Versichertenpauschalen und Einzelleistungsvergütung für bestimmte Leistungen dem Bewertungsmaßstab zugrunde liegt. Zudem werden Leistungen ab einem sog. Regelleistungsvolumen geringer entlohnt. Hiermit erhofft man sich eine effizientere Anreizstruktur. Außerhalb der GKV können die niedergelassenen Ärzte Leistungen für die Versorgung von Privatpatienten oder Zusatzleistungen für gesetzlich Versicherte, die sogenannten Individuellen Gesundheitsleistungen (IGeL), auf privater Basis entsprechend der Gebührenordnung für Ärzte (GOÄ) abrechnen. Im stationären Bereich erfolgt die Vergütung durch die Krankenkassen weitgehend über ein Fallpauschalensystem. Mit einem System sogenannter „Diagnosis Related Groups“ (DRG) werden Patientenfallgruppen definiert, für deren Behandlung pauschalierte Sätze von den Krankenkassen an die Krankenhäuser gezahlt werden. Zur Klassifikation werden neben der Hauptdiagnose auch Nebenerkrankungen und Komplikationen und die Behandlungsart berücksichtigt. Das DRG-System wurde in Deutschland im Jahr 2004 eingeführt und wird seitdem durch das Institut für das Entgeltsystem im Krankenhaus (InEK) jährlich auf Basis der angefallenen Abrechnungsdaten evaluiert und weiterentwickelt. Mit diesem System verspricht man sich eine stärkere Leistungsorientierung und Effizienz im stationären Bereich. Während die früher geltende Abrechnung nach Tagessätzen ein Anreiz zur Verlängerung der Verweildauer setzte, besteht nun der gegenläufige Anreiz zu möglichst kurzen Verweildauern und damit die Gefahr von Qualitätsmängeln (sogenannte „blutige Entlassung“), weshalb die jüngeren Gesundheitsreformen vor allem auf Qualitätssicherung zielen. Auch bei den Arzneimitteln gibt es erhebliche Steuerungsdefizite. Aufgrund von Marktmacht und Informationsasymmetrien ist der Wettbewerb auf den Arzneimittelmärkten eingeschränkt. Bei unvollkommener Information neigen Patienten und Ärzte dazu, das teurere Arzneimittel zu nehmen, von dem dann eine bessere Wirkung erwartet wird, aber auch weil diese Mittel aufgrund der verstärkten Informationen der Hersteller besser bekannt sind. Selbstbeteiligungsregelungen wie die nach Packungsgröße pauschalierten Zuzahlungen der Patienten und eine mittlerweile wieder abgeschaffte Arzneimittelbudgetierung für Ärzte haben an diesem Verhalten nur wenig geändert. Etwas erfolgreicher war die Einführung der Festbetragsregelung, nach der bei teuren Arzneimitteln der den Festbetrag übersteigende Betrag vom Versicherten zu tragen ist, die aber durch Neueinführungen z.B. von Scheininnovationen der Hersteller immer wieder unterlaufen werden kann. Zudem können seit 2004 die Krankenkassen mit der Pharmaindustrie sog.

16 Sozialpolitik

367

Rabatt-Verträge schließen, womit die Versicherten nur Anspruch die Medikamente dieses Herstellers haben, sofern nicht dringende medizinische Gründe dagegen sprechen. Die vielfältigen Gesundheitsreformen der letzten Jahre haben die Finanzierungsprobleme des Gesundheitswesens nicht lösen können. Nach wie vor muss von erheblichen Ineffizienzen durch falsch gesetzte Anreize ausgegangen werden. Manch vielversprechende Reformansätze wurden in der Vergangenheit aufgrund des Einflusses der Interessenverbände nicht konsequent genug umgesetzt, so dass sie ihre intendierte Wirkung verfehlen mussten. Insbesondere mit der Gesundheitsreform 2007 wurden in vielen Bereichen sehr gravierende Änderungen beschlossen, die überwiegend in die richtige Richtung weisen, aber teilweise doch sehr halbherzig angegangen wurden. Neben den schon genannten Maßnahmen wurden dabei und in den nachfolgenden Reformbemühungen vor allem hinsichtlich der Qualitätssicherung durch unabhängige Institutionen, der Verzahnung von ambulanter und stationärer Versorgung und der Förderung integrierter Versorgung weitergehende, dennoch nur zögerliche Entscheidungen getroffen. Inwieweit all diese Regelungen zur Effizienzsteigerung im Gesundheitswesen tatsächlich beitragen werden, wird die Zukunft zeigen.

16.4.3 Familie Die Familienpolitik nimmt im Rahmen der Sozialpolitik eine besondere Stellung ein. Im Gegensatz zu den anderen Sicherungsbereichen lässt sich hier nicht ein klar abgegrenztes Risiko identifizieren, das durch spezifische Versicherungsinstitutionen abgesichert werden kann. Das Leben mit Kindern bringt vielfältige Risiken und Belastungen in den unterschiedlichen Lebensbereichen mit sich. Solange das Leben mit Kindern gesellschaftliche Normalität und für nahezu alle Gesellschaftsmitglieder Bestandteil ihres Lebens war, waren von diesen Belastungen auch alle etwa gleichermaßen betroffen. Familienpolitik konnte sich daher auf eine phasenspezifische Unterstützung beschränken, um diese besonderen Belastungen im Lebenslauf abzumildern. Da die Entscheidung für Kinder jedoch mittlerweile zu einer bewussten Wahlentscheidung der Eltern geworden ist und etwa ein Drittel der Bevölkerung kinderlos bleibt, führen allgemeine Familientransfers zu einer Umverteilung zwischen Familien und Kinderlosen, hinsichtlich der mittlerweile kein breiter gesellschaftlicher Konsens mehr besteht. Familienpolitik ist daher zunehmend begründungsbedürftig geworden.

16.4.3.1 Grundprobleme der Familienpolitik Bei der Begründung familienpolitischer Maßnahmen stellt sich die Kernfrage, ob und inwieweit Kinder eine Privatangelegenheit der Eltern sind und daher diese die Kosten zu tragen haben oder ob die gesamte Gesellschaft für die nächste Generation und ihre Humanvermögensbildung aufzukommen hat. Grundsätzlich muss eine liberale Gesellschaftsordnung davon ausgehen, dass die Entscheidung für Kinder von den Eltern freiwillig und unter Kenntnis der auf sie zukommenden Kosten getroffen wird. Insofern ist ex ante die

368

Notburga Ott

Entscheidung für ein Kind mit anderen privaten Kosten verursachenden Entscheidungen – wie der Nachfrage nach einem Konsumgut oder einer Investitionsentscheidung – vergleichbar (Becker 1981). Staatlicher Handlungsbedarf besteht dann nur, soweit Marktversagen vorliegt oder die Chancengerechtigkeit für Eltern verletzt ist. Ex post, d.h. nach der Geburt bzw. dem Zeitpunkt, an dem der gesellschaftliche Schutz des Lebens beginnt, werden jedoch den Kindern als eigenständigen Mitgliedern der Gesellschaft eigene, von den Eltern unabhängige Rechte zugestanden. Staatliche Aufgabe ist es dann auch, über das Kindeswohl zu wachen und für eine angemessene Existenzgrundlage und Chancengerechtigkeit zu sorgen. Da diese Kindesrechte Vorrang vor den Interessen der Eltern haben, ist deren Verfügungsgewalt eingeschränkt, was wiederum bei der Beurteilung familienpolitischer Maßnahmen berücksichtigt werden muss. Zur Beantwortung der Frage, inwieweit familienpolitischer Handlungsbedarf besteht, ist es sinnvoll, die Frage nach den Leistungsbeziehungen zwischen Eltern, Kindern und übrigen Gesellschaftsmitgliedern zu stellen. • Das Interesse von Eltern an ihren Kindern und deren Humanvermögensbildung ist vor allem durch den individuellen Wunsch nach einem Zusammenleben mit Kindern bestimmt. Insofern handelt es sich dabei um eine private Entscheidungen entsprechend der eigenen Präferenzen, deren Kosten prinzipiell selbst zu tragen sind. Politischer Handlungsbedarf besteht jedoch dann, wenn aufgrund von Marktmängeln oder staatlichen Eingriffen diese Kosten übermäßig hoch ausfallen. Nun verhindern erstens mangelnde Zugangsmöglichkeiten zu Kreditmärkten häufig wohlfahrtssteigernde intertemporale Einkommensumschichtungen. Denn eine angemessene Vorverlagerung eines im Lebenslauf steigenden Einkommens scheitert auf privaten Kreditmärkten an der hohen, nicht versicherbaren Unsicherheit künftiger Einkommensverläufe. Zweitens entstehen für die Eltern überhöhte phasenspezifische Belastungen, da fehlende Kinderbetreuungsmöglichkeiten und starre zeitliche Restriktionen am Arbeitsmarkt vielfach eine den individuellen Präferenzen entsprechende Zeitaufteilung zwischen Familien- und Erwerbstätigkeit verhindern. Drittens erschweren gesellschaftliche Rahmenbedingungen, die Kindern die notwendigen außerfamiliären Sozialisationserfahrungen zu weiten Teilen vorenthalten, die Aufgabe der Eltern, den angestrebten Erziehungserfolg zu erreichen. Sie bürden diesen damit häufig sehr hohe, teilweise bis zur Überforderung reichende Anstrengungen auf. • Von Seiten der Kinder besteht ein Interesse an einer Humanvermögensbildung, die ihnen eine möglichst gute Basis zur Verwirklichung ihrer Lebenspläne bietet. Da allerdings erst mit der Bildung dieses Humanvermögens die Voraussetzungen für eigenverantwortliches Handeln geschaffen wird, können Kinder die Entscheidungen über die Investitionen in ihr Humanvermögen größtenteils nicht selbst treffen, was in dreifacher Weise einen staatlichen Handlungsbedarf begründet. Erstens bedürfen diese Investitionen in Humanvermögen Zuwendungen von anderer Seite, da Kinder zu Beginn ihres Lebens üblicherweise über kein Vermögen verfügen. Private Kreditmärkte versagen dabei in doppelter Weise: aufgrund der mangelnden Versicherbarkeit

16 Sozialpolitik

369

von Einkommensrisiken und aufgrund einer mangelnden Verpflichtungsübernahme durch die Kinder. Stehen zweitens derartige Kredite nicht oder nur unzureichend zur Verfügung, sind Kinder auf Zuwendungen von anderer Seite, üblicherweise ihrer Eltern, angewiesen. Sofern jedoch die Eltern die Mittel für eine optimale Humanvermögensbildung ihrer Kindern nicht aufbringen können oder wollen, ist es aus Gründen der Gewährung gleicher Entwicklungschancen Aufgabe des Staates, hier für einen Ausgleich der Startbedingungen zu sorgen. Drittens gewährleisten die elterlichen Erziehungs- und Sozialisationsleistungen, die diese aufgrund ihrer eigenen Interessen erbringen, nicht zwingend eine optimale Humanvermögensbildung im Sinne möglichst guter Lebenschancen der Kinder. Auch hier erfordert es das staatliche Wächteramt, Bedingungen zu schaffen, die Kindern einen hinreichenden Entwicklungsspielraum gewährleisten. • Das Interesse der Gesellschaft ist durch externe Effekte begründet, denn von den sozialen und wirtschaftlichen Fähigkeiten der nächsten Generation profitieren alle Gesellschaftsmitglieder. Besonders deutlich ist dies bei der umlagefinanzierten Alterssicherung, bei der alle Rentenansprüche – auch die der Kinderlosen – durch die nächste Generation eingelöst werden müssen (Abschnitt 16.4.1.1). Doch auch darüber hinaus besteht ein Interesse der Gesellschaft an Investitionen in die nächste Generation und ihr Humanvermögen. Sie dienen dem Bestand, der wirtschaftlichen Leistungsfähigkeit sowie der Sozialkultur der Gesellschaft und stellen quasi ein „öffentliches Gut“ dar. Die Verantwortung dafür sollte daher auch von allen gemeinsam getragen werden. Dies gilt nicht nur hinsichtlich einer finanziellen Beteiligung, sondern vor allem auch hinsichtlich der Sicherstellung eines Sozialisationsumfeldes, das kindlicher Entwicklung umfassend gerecht wird. Wie bei allen öffentlichen Gütern ist jedoch mit der bekannten „Free-rider-Problematik“ zu rechnen. Individuell besteht kein Anreiz, sich finanziell oder direkt an der Humanvermögensbildung der Kinder anderer Leute zu beteiligen. Letztere findet daher nur soweit statt, soweit Kinder in die Sozialbeziehungen und Institutionen einbezogen sind, die für die eigenen Lebensumstände von Bedeutung sind. Je mehr diese Beziehungen in modernen Gesellschaften so organisiert werden, dass Kinder systematisch ausgeschlossen sind, geht ein wesentlicher Bestandteil kindlicher Sozialisation verloren, der durch andere Formen gesellschaftlicher Unterstützung familialer Erziehung über­nommen werden muss – wenn auch in Zukunft die Sozialisation und Humanvermögensbildung der nächsten Generationen erfolgreich verlaufen soll. Staatliche Aufgabe ist es dabei, einerseits entsprechende öffentliche Institutionen bereitzustellen und andererseits neue informelle Beziehungsnetze durch die Schaffung eines entsprechenden rechtlichen und infrastrukturellen Rahmens zu fördern.

16.4.3.2 Familienpolitik in Deutschland Die Familienpolitik in Deutschland umfasst eine Vielzahl unterschiedlicher Maßnahmen, die Geld- und Sachleistungen, steuerliche Vergünstigungen und Sozialversicherungsleistungen sowie arbeitsrechtliche Regelungen beinhalten. Die wichtigsten sind das Kindergeld, das derzeit pro Kind und Monat 194 € (für das dritte 200 € und ab dem vierten 225

370

Notburga Ott

€) beträgt, die Kindererziehungszeiten in der Rentenversicherung (Abschnitt 16.4.1.2), die beitragsfreie Krankenversicherung, der Kinderzuschlag für einkommensschwache Familien und das Elterngeld. Das Elterngeld ist eine Lohnersatzleistung von 65% - 100% des entfallenden Einkommens, mindestens jedoch 300 € und maximal 1800 € je Monat, wenn sich ein Elternteil in Elternzeit befindet. Das Elterngeld wird für 14 Monate gewährt, wobei ein Elternteil höchstens 12 Monate in Anspruch nehmen darf. Bei Teilzeitarbeit kann das Elterngeld in halber Höhe für 28 Monate bezogen werden. Die Elternzeit ist ein Anspruch auf Freistellung oder Reduzierung der Arbeitszeit zur Kindererziehung für maximal drei Jahre, wobei ein Jahr bis zum achten Lebensjahr des Kindes verschoben werden kann. Die Elternzeit kann auch von beiden Eltern gemeinsam in Anspruch genommen werden. Die Abgrenzung, was als familienpolitische Maßnahme angesehen werden soll, ist nicht unumstritten. Einen Überblick über die staatlichen Leistungen für die nächste Generation zeigt Tabelle 16.3. Hierin enthalten sind auch Unterhaltsleistungen (Kinderfreibeträge und Kindergeld, Sozialhilfe, Unterhaltsvorschuss, Waisenrenten) und die Ausgaben für Bildung (Schulen, Hochschulen). Traditionell wird die Bildungspolitik nicht zur Familienpolitik gezählt. Da zumindest die Erstausbildung der Humanvermögensbildung in dem hier betrachteten Sinn dient, lässt sie sich jedoch konzeptionell nicht von den Leistungen der Familie zur Humanvermögensbildung trennen. Das öffentliche Bildungsangebot dient dem Ziel der Chancengerechtigkeit der Kinder. Nicht zur Familienpolitik im engeren Sinne zählen allerdings die Leistungen zur Sicherung des Existenzminimums, da sie sich aus den Rechten der Kinder ableiten. Die Sicherstellung des sozio-kulturellen Existenzminimums wird in unserer Gesellschaft Tab. 16.3  Leistungen für Familien 2012 Leistungsart Steuerliche Maßnahmen (Kindergeld, Kinderfreibeträge, Kinderbetreuungskosten, Betreuung-, Erziehungsund Ausbildungsfreibetrag, Eigenheimförderung, u.a.)

Mrd. € 44.890

Geldleistungen (Kindergeld, Kinderzuschlag, Elterngeld, Unterhaltsvorschuss, Wohnraumförderung, Grundsicherung, Bildungs- und Teilhabepaket, Mutterschaft, BAFöG, Kinderzuschläge im öff. Dienst, u.a.) Sozialversicherungsleistungen (Beitragsfreie Kranken-, Pflege- und Unfallversicherung, Mutterschaft, Waisenrenten, Kinderkomponenten beim Arbeitslosengeld, Kinderkomponenten in der Rentenversicherung, Leistungen bei Behinderung)

24.994

Sachleistungen / Realtransfers (Kindertageseinrichtungen, Schülerbeförderung, Jugendhilfe)

31.196

Bildung (Schule, Hochschule)

83.517

Insgesamt Quelle: BMFSFJ (2015); Stat. Bundesamt (2015)

27.414

212.011

16 Sozialpolitik

371

jedem Bürger bei mangelnder Fähigkeit oder Möglichkeit zur Selbstversorgung gewährt. Entsprechende Leistungen für Kinder gehören daher zu den allgemeinen sozialpolitischen Aufgaben und stellen keine Förderung der Familie dar. Dies gilt insbesondere für die Kinderfreibeträge im Steuersystem und das Kindergeld. Unsere Gesellschaft überträgt die Pflicht zur Existenzsicherung der Kinder zunächst den Eltern – als eine Folge ihrer freien Entscheidung. Daraus ergibt sich dann das Gebot zur steuerlichen Freistellung des kindlichen Existenzminimums, da dieses Einkommen für die Eltern nicht frei verfügbar ist und daher ihre Leistungsfähigkeit im Sinne unserer Steuergesetzgebung nicht erhöht. Da das Kindergeld nach dem sogenannten Optionsmodell vorrangig eine Steuerrückzahlung darstellt, die der verfassungsrechtlich gebotenen steuerlichen Freistellung des Existenzminimums für Kinder dient, erhalten nur Familien, deren Steuerrückzahlung durch den Kinderfreibetrag geringer ist als das Kindergeld, einen echten Transfer, der als familienpolitische Leistung anzusehen ist (Wissenschaftlicher beirat, 2001, S. 180ff.). Die wenig transparente Ausgestaltung dieser doppelten Funktion des Kindergeldes lässt die Förderung von Familien umfangreicher erscheinen, als sie tatsächlich ist, und verschärft den Verteilungskonflikt zwischen Kinderlosen und Kindererziehenden unnötig. Bei den familienpolitischen Leistungen handelt es sich überwiegend um monetäre Transferzahlungen oder Vergünstigungen bei staatlichen Abgaben. Finanziert werden sie aus dem Steueraufkommen und zum Teil aus dem Beitragsaufkommen der Sozialversicherungen. Die familienpolitischen Leistungen lassen sich damit überwiegend als Umverteilungsmaßnahmen charakterisieren. Soweit es sich dabei um ein „Entgelt“ für externe Effekte handelt, ist dies durchaus sachgerecht, sollte dann aber entsprechend transparent ausgewiesen und nicht mit anderen Maßnahmen verquickt werden. Den anderen Zielsetzungen sind derartige Umverteilungsmaßnahmen jedoch weniger angemessen. Ein Großteil der Maßnahmen setzt starke Anreize zur Unterbrechung oder Einschränkung der Erwerbstätigkeit. Manche Leistungen werden nur bei Nichterwerbstätigkeit oder reduzierter Erwerbsarbeit gewährt (Elterngeld, beitragsfreie Krankenversicherung). Trotz eines Rechts auf einen Kindertagesplatz ab dem 2 Lebensjahr sind es jedoch überwiegend mangelnde oder unpassende Kinderbetreuungsmöglichkeiten, die eine Erwerbstätigkeit in gewünschtem Umfang verhindern. Im Kindergarten- und Schulbereich fehlt es immer noch an Ganztagsbetreuung mit hinreichend langen und flexiblen Öffnungszeiten; im Kleinkindbereich gibt es generell noch zu wenige Betreuungsplätze. Da es überwiegend Frauen sind, die auch aufgrund dieser Anreizeffekte die Kindererziehung übernehmen, ergeben sich daraus für sie besondere Risiken. Der Humankapitalverlust während einer längeren Erwerbsunterbrechung hat auch Folgen für die Zeit nach Wiedereintritt. Zudem führt das zu erwartende diskontinuierliche Erwerbsverhalten zu Benachteiligung von Frauen am Arbeitsmarkt. Die familienpolitischen Regelungen tragen daher zu einer Verletzung der Chancengerechtigkeit für Frauen bei (Ott, 2002). Der größte Teil der Transferleistungen dient dazu, die Folgen mangelnder intertemporaler Ressourcenumschichtung auszugleichen. Kinder erhalten durch das öffentlich finanzierte Bildungssystem und die Ausbildungsförderung die Möglichkeit einer ihren Fähigkeiten entsprechenden Ausbildung, auch wenn ihre Eltern die Mittel dafür nie aufbringen

372

Notburga Ott

könnten. Eltern erhalten in Zeiten der Kindererziehung Kindergeld und verschiedene andere Vergünstigungen sowie bei Unterbrechung bzw. erheblicher Reduzierung der Erwerbstätigkeit Elterngeld und Vergünstigungen in der Sozialversicherung. Mit eigenen Steuerzahlungen und Sozialabgaben, die zu einem Großteil erst in späteren Lebensphasen anfallen, tragen sie wiederum dazu bei, dass anderen Kindern und Eltern gleiches gewährt wird. Diese auf individueller Ebene gegenläufigen Zahlungsströme im Lebensverlauf erfüllen dem Prinzip nach eine Kreditfunktion, die jedoch weder sachgerecht nach dem Äquivalenzprinzip ausgestaltet noch transparent und verpflichtend ist. Damit entstehen Anreize, sich der „Rückzahlung“ für erhaltene Leistungen zu entziehen, wie dies in Zeiten von größerer Mobilität und Flexibilisierung am Arbeitsmarkt z.B. durch Auswanderung oder durch Vermeiden der Pflichtversicherung immer leichter möglich wird. Darüber hinaus besteht eine solch mangelnde Rückzahlung auch – bedingt durch die Ausgestaltung des Rentensystems – für private Leistungen von Eltern für ihre Kinder. Diese investieren mit ihren Erziehungsleistungen und monetären Aufwendungen in das Humanvermögen ihrer Kinder, was auch mit entsprechenden „Renditeerwartungen“ in Form von Unterstützung im Alter verbunden ist. Während jedoch private Investitionen in Finanz- und Sachkapital auch zu privaten Erträgen führen, werden die Erträge der Humankapitalinvestitionen zu einem Großteil kollektiviert, indem die nächste Generation die Rentenansprüche aus der gesetzlichen Rentenversicherung und die Pensionsansprüche der öffentlich Bediensteten einzulösen hat. Die Höhe der Rentenansprüche basiert dabei auf Leistungen an die vorherige und nicht auf Leistungen an die nachfolgende Generation. Dadurch entstehen externe Effekte der Kindererziehung, die ein entsprechendes „Freerider-Verhalten“ nahe legen. Verzichtet man auf private Leistungen an Kinder und erwirbt hohe Ansprüche im Rentensystem, die dann von der nächsten Generation beglichen werden, ist dies zwar ein systemgerechtes Verhalten, das jedoch faktisch eine Umverteilung zulasten der Kindererziehenden bedeutet. Eine Lösung für diese Problematik besteht darin, den bestehenden Zwei-Generationen­ vertrag in der Alterssicherung zu einem Drei-Generationenvertrag zu ergänzen. Ein solcher Vorschlag wurde bereits von den Vätern unseres Rentensystems vorgelegt (z.B. Schreiber, 1964), jedoch nicht umgesetzt. Dieser geht von der Eigenverantwortung jeder Generation für sich selbst aus. Danach sind alle Leistungen an die Kindergeneration – seien sie privat oder kollektiv – als Kredit anzusehen, der in Form einer Altersversorgung zurückbezahlt wird. Ein solches System könnte man als „Humankapitalgedecktes Rentensystem“ bezeichnen (Werding, 2014). Aufgrund der nicht versicherbaren Einkommensund Karriererisiken werden sich derartige Beziehungen nicht ausschließlich über private Kreditmärkte von selbst organisieren. Daher ist es staatliche Aufgabe, diese intergenerativen Kreditbeziehungen zu organisieren und damit die kollektive Verantwortung einer Generation für die Wertschöpfungsmöglichkeiten der nächsten Generation als Basis der eigenen Alterssicherung deutlich zu machen.

16 Sozialpolitik

373

16.4.4 Grundsicherung Die Grund- oder Mindestsicherung ist die unterste Sicherungsebene des sozialen Netzes. Sie wird gemäß dem Subsidiaritätsprinzip nur dann gewährt, wenn alle anderen Einkommensquellen – eigenes Einkommen, Sozialversicherungsleistungen, familiale Hilfe – zur Sicherung des sozialen Existenzminimums nicht ausreichen. Dann allerdings hat jedes Mitglied unserer Gesellschaft einen Anspruch darauf, unabhängig von den Ursachen seiner Bedürftigkeit. Gemäß dem Subsidiaritätsprinzip ist es vorrangiges Ziel der Mindestsicherung, die Selbsthilfekräfte zu stärken. Nach § 1 SGB XII soll sie „den Leistungsberechtigten die Führung eines Lebens ... ermöglichen, das der Würde des Menschen entspricht. Die Leistung soll sie so weit wie möglich befähigen, unabhängig von ihr zu leben;“ Die Bezieher von Leistungen der Grund- und Mindestsicherung sind damit verpflichtet, ihre Ressourcen, d.h. ihr Einkommen, ihre Arbeitskraft und auch ihr Vermögen, zur Existenzsicherung einzusetzen. Die Grundsicherung wurde in Deutschland zum 1.1.2005 neu geordnet. Entsprechend der unterschiedlichen Ressourcen und Fähigkeiten der Betroffenen, selbst für ihre Existenzsicherung zu sorgen, gelten für unterschiedliche Bevölkerungsgruppen unterschiedliche Regelungen: die Grundsicherung für Arbeitsuchende (SGB II), die Grundsicherung bei Alter und Erwerbsminderung (SGB XII, Kap. 4) sowie die Hilfe zum Lebensunterhalt (SGB XII, Kap. 3) und in besonderen Lebenslagen (SGB XII, Kap. 5-9) im Rahmen der allgemeinen Sozialhilfe (SGB XII). Die Grundsicherung für Arbeitsuchende wird allen Hilfebedürftigen gewährt, die erwerbsfähig sind. Ausgenommen sind nur Personen wegen Krankheit oder Behinderung, wegen Alters und wegen Erziehung von Kindern unter drei Jahren. Erwerbsfähige Personen sind grundsätzlich verpflichtet, jede Arbeit, die ihnen gesundheitlich zumutbar ist, anzunehmen. Dazu werden ihnen von Seiten der Agentur für Arbeit entsprechende Eingliederungshilfen angeboten. Personen, die mit erwerbsfähigen Personen in einer Bedarfsgemeinschaft leben, fallen auch unter die Grundsicherung für Arbeitsuchende. Allen anderen Personen wird bei Bedürftigkeit Sozialhilfe gewährt. Dabei erhalten ältere Personen ab 65 Jahren sowie dauerhaft erwerbsgeminderte Personen die Grundsicherung bei Alter und Erwerbsminderung. Hier gelten besondere Regelungen hinsichtlich des Unterhaltsrückgriffes gegenüber Kindern und Eltern, der erst bei einem Jahreseinkommen über 100.000 € zum tragen kommt. Darüber hinaus gibt es verschiedene Hilfen bei besonderen Bedarfssituationen. Diese können sowohl Bezieher der „Hilfe zum Lebensunterhalt“ als auch Personen, die grundsätzlich selbst für ihren Unterhalt sorgen können, erhalten. Diese Hilfen sind • • • •

Hilfen zur Gesundheit Eingliederungshilfe für behinderte Menschen Hilfe zur Pflege Hilfe zur Überwindung besonderer sozialer Schwierigkeiten

374

Notburga Ott

• Hilfe in anderen Lebenslagen (Weiterführung des Haushalts, Altenhilfe, Blindenhilfe, Hilfe in sonstigen Lebenslagen, Bestattungskosten) In der Sozialhilfe wird als regelmäßige Unterstützung die „Hilfe zum Lebensunterhalt“ geleistet, die sich aus den Regelsätzen für die verschiedenen Haushaltsmitglieder zusammensetzt sowie die Kosten für Unterkunft und Heizung umfasst. Die Regelsätze sind je nach Alter der Haushaltsmitglieder unterschiedlich hoch und werden von den Bundesländern festgelegt. Sie orientieren sich an den Ausgaben unterer Einkommensgruppen. Mehrbedarfszuschläge erhalten Alleinerziehende, werdende Mütter, Behinderte und Erwerbsunfähige. Daneben können einmalige Leistungen für die Erstausstattung des Haushalts, für eine Bekleidungserstausstattung sowie orthopädische Schuhe und therapeutische Geräte bezogen werden. Bei der Grundsicherung für Arbeitssuchende wird eine vergleichbare „Regelleistung zur Sicherung des Lebensunterhalts“ gewährt, wobei der Regelsatz vom Bundesministerium für Arbeit und Soziales festgelegt wird. Für erwerbsfähige Leistungsberechtigte ist dies das „Arbeitslosengeld II“, für nichterwerbsfähige Angehörige das „Sozialgeld“. Die Bewilligung der Unterstützungsleistung erfolgt grundsätzlich nach einer Bedürftigkeitsprüfung. Jede Grundsicherung wird erst gezahlt, wenn das eigene Einkommen und Vermögen zur Bedarfsdeckung nicht ausreicht. Dabei wird das gesamte Einkommen und Vermögen der Bedarfsgemeinschaft einschließlich bestehender Unterhaltsansprüche zugrunde gelegt. Ausgenommen davon sind bestimmte Schonbeträge beim Vermögen wie Hausrat oder „angemessenes“ Hausgrundstück, sowie kleinere Barbeträge. Zudem werden beim Einkommen Sozialversicherungsbeiträge und bestimmte Transferzahlungen wie Eltern- oder Arbeitsförderungsgeld nicht berücksichtigt. Bei erwerbstätigen Personen bleiben zusätzlich die Werbungskosten und ein Teil des Erwerbseinkommens anrechnungsfrei. Grundsätzlich ist bei der Festsetzung der Regelsätze das sogenannte Lohnabstandsgebot zu wahren, d.h. die Regelsätze plus die durchschnittlichen Beträge für Unterkunft und Heizung sollen unter den durchschnittlichen Nettoarbeitsentgelten der unteren Lohn- und Gehaltsgruppen liegen. Andererseits sind die Regelsätze am sozio-kulturellen Existenzminimum zu bemessen und können daher nicht beliebig abgesenkt werden. Daher ist insbesondere für größere Haushalte und für Alleinerziehende der Lohnabstand nur sehr gering (Martens 2006). Bei geringen Löhnen kann daher oft durch Erwerbsarbeit das verfügbare Einkommen kaum erhöht werden. Problematisch dabei ist die Einkommensanrechung, die zu einer extrem hohen Grenzbelastung von Erwerbseinkommen führt. Bei der Hilfe zum Lebensunterhalt und Grundsicherung im Alter und bei Erwerbsminderung wird generell 30% des Erwerbseinkommens nicht angerechnet, beim Arbeitslosengeld II bis zu einem Erwerbseinkommen von 800 €/Mon. 20%, mindestens jedoch 100 €, und darüber hinaus bis zu einem Einkommen von 1200 €/Mon. (bzw. 1500 €/Mon. bei Kindern im Haushalt) noch 10 %. Dies bedeutet, dass der Transferentzug bei Erwerbstätigkeit überwiegend mehr als ¾ des Einkommens

16 Sozialpolitik

375

ausmacht. Wenn aber durch Erwerbstätigkeit nicht ein Einkommen, das deutlich über dem Transferanspruch liegt, erwirtschaftet werden kann, bestehen kaum Anreize zur Aufnahme einer Erwerbstätigkeit. Obwohl durch die sogenannte Hartz IV-Gesetzgebung gerade Arbeitsanreize geschaffen werden sollten, begünstigt diese Ausgestaltung der Grundsicherung nach wie vor ein Moral hazard-Verhalten, die Leistungen des Sicherungssystems trotz eigener Fähigkeit zur Existenzsicherung in Anspruch zu nehmen. Darüber hinaus ergeben sich problematische Effekte für den Arbeitsmarkt, indem geringe Löhne mangels entsprechender Arbeitsanbieter nicht durchgesetzt werden können, was wiederum Auswirkungen auf die Entwicklung von Bereichen mit niedriger Produktivität hat. Zur Vermeidung der negativen Arbeitsanreize wäre eine geringere Einkommensanrechnung notwendig, damit sich jede Erwerbsanstrengung auch in einem höheren verfügbaren Einkommen niederschlägt (Sinn u.a. 2006). Allerdings sind es nicht nur die Einkommensanrechnungen, die eine Erwerbsarbeit von Empfängern der Grundsicherung vereiteln. Vielfach kann eine Erwerbsarbeit wegen Kindererziehung und -betreuung nicht aufgenommen werden. Vor allem bei Alleinerziehenden führt dies häufig zum Sozialhilfebezug. Statt im Sinne des Gebots der „Hilfe zur Selbsthilfe“ mit Kinderbetreuungseinrichtungen den Müttern eine Erwerbstätigkeit zu ermöglichen, werden mit Mehrbedarfszuschlägen noch stärkere Anreize zur Nichterwerbstätigkeit und längerfristigen Sozialhilfebezug geschaffen. Hierdurch wird die Chancengerechtigkeit verletzt: die der Mütter aufgrund der langfristigen Folgen für die weitere berufliche Karriere und die der Kinder, deren Entwicklungschancen bei längerfristigem Sozialhilfebezug beeinträchtigt sind. Schließlich führt die strikte Einforderung des eigenen Ressourceneinsatzes dort zu Benachteiligungen, wo aufgrund von Mängeln in anderen Sicherungssystemen spezifische Risiken nicht adäquat abgesichert sind und daher die Betroffenen auf Sozialhilfe oder Arbeitslosengeld II angewiesen sind. Dies gilt insbesondere dann, wenn für die Betroffenen eine Aus- oder Weiterbildung die besten Zukunftschancen eröffnen würde, die aber aufgrund mangelnder Finanzierung nicht durchgeführt werden kann, wenn z.B. die Voraussetzungen für BAFöG-Leistungen oder die Maßnahmen der Arbeitsförderung nicht erfüllt sind. Eine Ausbildung ist jedoch bei der Grundsicherung im Normalfall nicht gestattet, da die Arbeitskraft vorrangig zum Einkommenserwerb eingesetzt werden muss. Hier gilt es, im gesamten Sicherungssystem derartige Mängel zu beseitigen, um der Mindestsicherung nur die Fälle zuzuführen, für die sie ursprünglich gedacht war.

16.5

Kommentierte Literaturhinweise

Eine umfassende und detaillierte Darstellung der Sozialpolitik in Deutschland geben die Lehrbücher von Althammer/ Lampert (2014), Ribhegge (2004) und Bäcker u.a. (2010). Die historische Entwicklung ist ebenfalls bei Althammer/ Lampert (2014) und ausführlich in Frerich/Frey (1996) zu finden. Die Probleme für das soziale Sicherungssystem durch die demographische Alterung der Gesellschaft sind im Bericht der

376

Notburga Ott

Enquete-Kommission „Demographischer Wandel“ (Deutscher Bundestag, 2002) ausführlich dargelegt. Der Sammelband von Becker u.a. (2002) gibt einen Überblick über weitere aktuelle Probleme und Herausforderungen. Ansatzpunkte einer ökonomischen Theorie der Sozialpolitik sind bei Barr (2004) und Culyer (1991) zu finden. Deutschsprachige Lehrbücher sind Badelt/Österle (1998) und Breyer/Buchholz (2007). Verschiedene Aspekte des Sozialvertrages aus der versicherungstheoretischen Perspektive enthält der Sammelband von Rolf u.a. (1988). Einen Überblick über Gerechtigkeitsvorstellungen in der historischen Entwicklung und in unterschiedlichen Disziplinen gibt Kramer (1992). Die Wohlfahrtsökonomik und die Theorie des Merkversagens sind bei Külp/Knappe (1984) und Sohmen (1976) beschrieben. Einen detaillierten Einstieg in die Versicherungstheorie geben Zweifel/Eisen (2003). Die Probleme des Versagens von Versicherungsmärkten und die Wirkungen staatlicher Eingriffe behandelt Strassl (1988). Die ökonomische Theorie der Alterssicherung wird ausführlich von Breyer (1990) und Homburg (1988) dargestellt. Die Fragen der Gesundheitsökonomik behandeln Breyer/Zweifel/Kifmann (2013), Schulenburg/Greiner (2013) und Hajen/Peatow/Schumacher (2017), die auch ausführlich auf das deutsche Gesundheitswesen eingehen. Dieses wird vor allem von Simon (2017) im Detail analysiert. Eine ökonomische Begründung der Familienpolitik findet sich bei Cabrillo (1999) und beim Wissenschaftlicher Beirat für Familienfragen (2001), der auch eine Bewertung der deutschen Familienpolitik vornimmt.

16 Sozialpolitik

377

Literaturverzeichnis Althammer, J; H. Lampert (2014), Lehrbuch der Sozialpolitik, 9.A., Berlin Heidelberg (Springer Gabler). Apolte, T.; U. Volmer (2002), Hg., Arbeitsmärkte und Soziale Sicherung. Schriften zu Ordnungsfragen der Wirtschaft, Stuttgart (Lucius & Lucius). Bäcker, G; R. Bispinck; K. Hofemann; G. Naegele (2010), Sozialpolitik uns Soziale Lage in Deutschland, Bd. 1 und 2, 5.A., Wiesbaden (Springer VS-Verlag). Badelt, C.; A. Österle (1998), Grundzüge der Sozialpolitik. Allgemeiner Teil: Sozialökonomische Grundlagen, Wien (Manz). Barr, N. (2004), The Economics of the Welfare State, 4.A., Oxford (University Press). Becker, G. S. (1981), A Treatise on the Family, Cambridge (Harvard University Press). Becker, I; N. Ott; G. Rolf (2002), Hg., Soziale Sicherung in einer dynamischen Gesellschaft, Frankfurt/New York (Campus). Breyer, F. (1990), Ökonomische Theorie der Alterssicherung, München (Vahlen). Breyer, F.; P. Zweifel; M. Kifmann (2013), Gesundheitsökonomie, 6.A. Berlin Heidelberg (Springer). Breyer, F; W. Buchholz (2007), Ökonomie des Sozialstaats, 2.A., Berlin Heidelberg (Springer) Bundesministierum für Arbeit und Soziales (2018), Sozialbudget 2017, Berlin. Bundesministierum für Arbeit und Soziales (2016), Ergänzender Bericht der Bundesregierung zum Rentenversicherungsbericht 2016 gemäß § 154 Abs. 2 SGB VI (Alterssicherungsbericht 2016), Berlin. Bundesministerium für Familie, Senioren, Frauen und Jugend (2015), Familienreport 2014. Leistugen, Wirkungen, Trends, Berlin. Cabrillo, F. (1999), The economics of the family and family policy, Northampton (Edward Elgar). Cassel, D. (1998), Hg., 50 Jahre Soziale Marktwirtschaft. Ordnungstheoretische Grundlagen, Realisierungsprobleme und Zukunftsperspektiven einer wirtschaftspolitischen Konzeption, Stuttgart (Lucius & Lucius). Cassel, D.; S. Rauhut (1998), Soziale Marktwirtschaft  : Eine wirtschaftspolitische Konzeption auf dem Prüfstand, in: D. Cassel, Hg. (1998), S. 3-31. Culyer, A.J. (1991), The political Economy of Social Policy, Worcestwer (Gregg Revivals) Deutscher Bundestag (2016), Nicht beitragsgedeckte versicherungsfremde Leistungen der gesetzlichen Rentenversicherung als Ausdruck des Solidarprinzip, WD 6 - 3000 - 085/16 Eisen, R. (1988), „Versicherungsprinzip und Umverteilung – Einige theoretische Überlegungen zu den Grenzen des versicherbaren, in: G. Rolf u.a., Hg. (1988), S. 117-128. Eucken, W. (1952), Grundsätze der Wirtschaftspolitik, 6.A., Tübingen (Mohr) 1990.

378

Notburga Ott

Frerich, J; M. Frey (1996), Handbuch der Geschichte der Sozialpolitik in Deutschland, Bd. 1-3, 2.A., München (Oldenbourg). Friedman, M. (1957), A theory of the consumption function, Princeton (Princeton University). Gärtner, W. (1985), Einige Theorien der Verteilungsgerechtigkeit im Vergleich, in: G.  Enderle, Hg.: Ethik und Wirtschaftswissenschaft, Berlin (Duncker & Humblot), S. 112-142. Grossekettler, H. (2002), Ursprünge und Entwicklungslinien sozialer Sicherungssysteme in Deutschland, in: T. Apolte; U. Volmer, Hg. (2002), S. 47-81. Hajen, L.; H. Peatow; H. Schumacher (2017), Gesundheitsökonomie: Strukturen – Methoden – Praxisbeispiele, 8. A., Stuttgart (Kohlhammer). Harsanyi, J.C. (1953), Cardinal utility in welfare economics and in the Theory of risk-ta­ king, in: Journal of Political Economy, 61, S. 434-435. Heinze, R. G.; Th. Klie; A. Kruse (2015), Subsidiarität revisited, in: Sozialer Fortschritt, 64, S. 131-138. Homburg, S. (1988), Theorie der Alterssicherung, Berlin (Springer). Jens, B; A. Habisch; E. Stutzer (2000), Hg., Familienwissenschaftliche und familienpolitische Signale, Grafschaft (Vector-Verlag). Knight, F.H. (1921), Risk, Uncertainty and Profit, Boston and New York (Houghton Mifflin). Külp, B.; E. Knappe (1984), Wohlfahrtsökonomik, Bd. I: Die Wohlfahrtskriterien, 2.A., Düsseldorf (Werner-Verlag). Kramer, R. (1992), Soziale Gerechtigkeit – Inhalt und Grenzen, Berlin (Duncker & Humblot). Krupp, H.-J. (1988), Zur Begründung und Praxis des Wohlfahrtsstaates, in: G. Rolf; P. Spahn; G. Wagner, Hg. (1988, 1), S. 491-511. Lampert, H.; A. Bossert (2001), Die Wirtschafts- und Sozialordnung der Bundesrepublik Deutschland im Rahmen der Europäischen Union, 14.A., München (Olzog). Martens, R. (2006), Der Abstand zwischen Arbeitslosengeld II bzw. Sozialgeld und unteren Arbeitnehmereinkommen: Ergebnisse für die ab 2007 geplante Regelsatzverordnung der Bundesregierung und den Paritätischen Vorschlag eines fairen und sozial gerechten Regelsatzes 2006. Paritätischer Wohlfahrtsverband, Berlin. Mugler, J. (1980), Risikopolitische Strategien im Grenzbereich des Versicherbaren, in: Zeitschrift für die gesamte Versicherungswissenschaft, 69, 1980, S. 71-87. Nell-Breuning, O. von (1968), Baugesetze der Gesellschaft, Freiburg (Herder) 1968. Okun, A. (1975), Equality and Efficiency. The big Tradeoff, Washington D.C. (Brookings). Ott, N. (2000), Ökonomische Effizienz und Familienlastenausgleich – eine konzeptionelle Klärung, in: A. Jens u.a., Hg. (2000), S. 185-200. Ott, N. (2001), Unsicherheit, Unschärfe und rationales Entscheiden - Die Anwendung von Fuzzy-Methoden in der Entscheidungstheorie, Heidelberg-Berlin (Physica).

16 Sozialpolitik

379

Ott, N. (2002), Institutionelle Determinanten des Erwerbsverhaltens von Frauen, in: T. Apolte; U. Volmer, Hg. (2002), S. 199-223. Ott, N. (2017), Diskriminierung (Ökonomisch), in: Görres-Gesellschaft zur Pflege der Wissenschaft (Hrsg.): Staatslexikon, 8. A. , Freiburg u. a. (Verlag Herder), Sp. 1430-1432. Peters, S.; N. Bensel, (2000), Hg., Frauen und Männer im Management – Diversity in Diskurs und Praxis. Wiesbaden (Gabler). Pies, I. (2000), Ordnungspolitik in der Demokratie. Tübingen (Mohr). Rawls, J. (1971), A theory of justice, Cambridge Mass. (Harvard University Press). Ribhegge, H. (2004), Sozialpolitik, München (Vahlen). Rolf, G.; P. Spahn; G. Wagner (1988, 1), Sozialvertrag und Sicherung, Zur ökonomischen Theorie staatlicher Versicherungs- und Umverteilungssysteme, Frankfurt/New York (Campus). Rolf, G.; P. Spahn; G. Wagner (1988, 2), Wirtschaftstheoretische und Sozialpolitische Fundierung staatlicher Versicherungs- und Umverteilungspolitik, in: G. Rolf; P. Spahn; G. Wagner, Hg. (1988, 1), S. 13-42. Rosenschon, A. (2006), Finanzpolitische Maßnahmen zugunsten von Familien – Eine Bestandsaufnahme für Deutschland. Kieler Arbeitspapier Nr. 1273, Institut für Weltwirtschaft, Kiel. Schönig, W. (2001), Rationale Sozialpolitik. Die Produktion von Sicherheit und Gerechtigkeit in modernen Gesellschaften und ihre Implikationen für die ökonomische Theorie der Sozialpolitik. Berlin (Duncker & Humblot). Schreiber, W. (1964), Kindergeld im sozio-ökonomischen Prozeß, Stuttgart (Kohlhammer). Schulenburg, J.-M. v. d.; W. Greiner (2013), Gesundheitsökonomik, 3.A., Tübingen (Mohr Siebeck). Sieder, R. (1987), Sozialgeschichte der Familie, Frankfurt (Suhrkamp). Simon, M. (2017), Das Gesundheitssystem in Deutschland. Eine Einführung in Struktur und Funktionsweise. Bern (Hogrefe). Sinn, H.-W. (1986), Risiko als Produktionsfaktor, in: Jahrbücher für Nationalökonomik und Statistik, 201, 1986, S. 557-571. Sinn, H.-W.; Ch. Holzner; W. Meister; W. Ochel; M. Werding (2006), Aktivierende Sozialhilfe 2006: Das Kombilohn-Modell des ifo Instituts, in: ifo Schnelldienst 2/2006. Sohmen, E. (1976), Allokationstheorie und Wirtschaftspolitik, Tübingen (Mohr). Statistisches Bundesamt (2015), Bildungsfinanzbericht 2015. Ausgaben für Bildung (Tabellenteil). Wiesbaden. Strassl, W. (1988), Externe Effekte auf Versicherungsmärkten. Eine allokationstheoretische Begründung staatlicher Regulierung.Tübingen (Mohr). Werding, M. (1998), Zur Rekonstruktion des Generationenvertrages. Tübingen (Mohr). Werding, M. (1999), Umlagefinanzierung als Humankapitaldeckung: Grundrisse eines erneuerten „Generationenvertrages“, in: Jahrbücher für Nationalökonomie und Statistik, 218, S. 491-511.

380

Notburga Ott

Werding, M. (2018), Demographischer Wandel, soziale Sicherung und öffentliche Finanzen: Langfristige Auswirkungen und aktuelle Herausforderungen, BertelsmannStiftung: Gütersloh. Werding, M. (2014), Familien in der gesetzlichen Rentenversicherung: Das Umlageverfahren auf dem Prüfstand, Bertelsmann-Stiftung: Gütersloh. Wissenschaftlicher Beirat für Familienfragen beim Bundesministerium für Familien, Senioren, Frauen und Jugend (2001): Gerechtigkeit für Familien – Zur Begründung und Weiterentwicklung des Familienlasten- und Familienleistungsausgleichs. Schriftenreihe des BMFSFJ, Bd. 202, Stuttgart. Wissenschaftlicher Beirat beim Bundesministerium für Wirtschaft (1998), Grundlegende Reform der Gesetzlichen Rentenversicherung, Bonn Zweifel, P.; R. Eisen (2003), Versicherungsökonomie. 2.A., Berlin u.a. (Springer).

Stichwortverzeichnis

A

D

Adverse Selektion 82, 83, 84 Allmendegüter 66, 67, 69, 70, 73 Allokation –– effiziente 118, 121, 124 Antitrustrecht 141 Äquivalenzprinzip 25 Ausbeutungsmissbrauch 168 Ausnahmebereiche –– wettbewerbliche 171 Ausschliefllichkeitsvereinbarungen 169

dead weight loss 122 Deregulierung 172, 175

B Bahninfrastruktur 256 Behinderung 140, 168 Behinderungsmissbrauch 140, 168 Bundeskartellamt 142, 177 Bürokratie 42

C Chicago School 127 Contestable Markets 129, 173 Cost-Plus-Regulierung 223

E efficiency defense 158 Efficient Component Pricing Rule 224 Effizienz –– ˆkonomische 127 –– dynamische 118, 132 –– produktive 127 –– statische 118 Effizienzwirkungen 157 Einrichtung –– wesentliche 174 Einrichtungen –– wesentliche 170 Energie 191 Entflechtung 243 essential facilities –– s. Einrichtungen, wesentliche 170 essential facility –– s. Einrichtung, wesentliche 174 Experimentelle Ökonomik 136 Experimentierungsprozess 132

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 T. Apolte et al. (Hrsg.), Kompendium der Wirtschaftstheorie und Wirtschaftspolitik III, https://doi.org/10.1007/978-3-658-21775-4

381

382 Stichwortverzeichnis

Experimentierungsprozesse –– marktliche 134 Externalitäten 33, 69, 70, 71, 72, 73, 74 Externe Effekte 33, 69, 70, 73

F Finsinger-Vogelsang Mechanismus 230 foreclosure effect 165 Fortschritt –– technischer 118 Franchise Bidding 233 Freiburger Schule 119 FuE-Kooperation 149 Fusionskontrolle 161, 163

G Gefangenendilemma 15, 16, 21, 66 Gemeinkosten 242 Gesetz gegen –– Wettbewerbsbeschr‰nkungen (GWB) 142, 151, 163, 167, 168 Governance-Ansatz 130

H Harvard School 124 Hauptsatz der Wohlfahrtsökonomik 9, 11, 13, 98 Herfindahl-Hirschman-Index 154 Hit-and-run-entry 129 Hold-up-Problem 131 Hypothetischer Monopoltest 153

I Industrieökonomik 125, 134 Ineffizienz –– allokative 127 Informationsasymmetrien 42, 49, 84

Innovation 118, 159 Innovationen 124 –– Produktinnovationen 131 –– Verfahrensinnovationen 131 Innovationsökonomik 134 –– evolutionsˆkonomische 133 Integration –– vertikale 131, 164 Interdependenzkosten 21, 22 Interessengruppen 41, 50, 51, 52, 55, 60, 62, 87

K Kampfpreise 135 Kampfpreisstrategie 169 Kartelle 145 –– Rationalisierungskartelle 148 –– Spezialisierungskartelle 148 Kartellverbot 150 –– Ausnahmen vom 150 Keynesianismus 103, 105, 112 Konsumentenwohlfahrtstandard 136, 158 Konzentration 140 Konzeptionen 120 Kooperation 149 Kopplung 135 Kopplungsbindungen 169 Kosten –– versunkene 173 Kosten, entscheidungsrelevante 205

L leverage effect 164 Liberalismus –– klassischer 117, 120 Lieferverweigerung 171 Lizenzverweigerung 171 Loeb-Magat Mechanismus 228

Stichwortverzeichnis

M Markt –– relevanter (s. Marktabgrenzung) 152 Marktabgrenzung –– r‰umliche 153 –– sachliche 152 Marktaustrittsschranken 130 Marktbeherrschung 155, 161, 163, 167 Marktergebnisse 125, 141 Marktmacht 123, 126, 152, 172 Marktmachtgewinne 126 Marktstruktur 125, 141 Marktverhalten 125, 141 Marktversagen 11, 36, 38, 63, 64, 66, 67, 69, 83, 85, 86, 87, 104, 111 Marktversagenstheorie 119 Marktwirtschaft 3, 8, 27, 36, 37, 97, 102, 104, 110, 112 Marktzutrittsschranken 126 –– private 128 –– strategische 130 –– strukturelle 126 Medianwähler 47 mehrseitige Märkte 135 Ministererlaubnis 163 Mischgüter 66 Missbrauchsverbot 167 Monetarismus 103 Monopol 121 –– nat¸rliches 172 Monopolkommission 154 Monopol, natürliches 195 Monopolresistenz 193 Moral hazard 30, 43, 84

N Natürliche Monopole 87, 92, 94, 95 Neo-Schumpeter-Hypothesen 159 Netzeffekte 210

383

Netzindustrien 191 Netzwerkeffekt –– direkter 135 –– indirekter 136 Netzwerkökonomie 135 Nutzenunkenntnis 37, 81, 85

O Öffentliche Güter 63, 66, 67, 73 Oligopol 123 –– marktbeherrschendes 157 Ordnungspolitik 3, 26, 119 Ordoliberalismus 119 Österreichische Marktprozesstheorie 132

P Pareto-Effizienz 9, 79 Pareto-Optimum 10, 11, 71, 98 Paternalismus 87 Per-se-Regeln 179 Plattformm‰rkte 135 Post-Chicago Economics 134, 136 Post-Chicago-Economics 165 predatory pricing –– s. Kampfpreisstrategie 169 Preisabsprachen 145 Preisbindung –– vertikale 166 Preiskartell 145 Preismissbrauch 168 Preisregulierung 192 Price-Cap Regulierung 225 Prinzipal-Agenten-Theorie 42, 97 Private Güter 43, 63, 67 Prozesspolitik 3 Public Choice 40, 50, 102, 111, 113

384 Stichwortverzeichnis

R

U

Rabattsysteme 170 Ramsey-Preise 94, 216 Rate-of-Return Regulierung 221 Regulierung 193 –– bottleneck-Regulierung 174 –– capture-Theorie 175 –– mark-up-Regulierung 174 –– price-cap-Regulierung 174 –– rate-of-return-Regulierung 174 Rule of Reason 179

Universaldienstverpflichtung 240 Unmöglichkeitstheorem 46 Unteilbarkeiten 172 Unternehmenskonzentration 152 –– horizontale 140, 154 –– Messung der 154 Unternehmer 131

S Sappington-Sibley Mechanismus 230 Selbststeuerungseigenschaften des –– Preissystems 117 –– Wettbewerbs 118 Skalenerträge 211 Skalenvorteile 158 Soziale Gerechtigkeit 102 Staatsquote 7 Staatsversagen 128 Stabilisierungspolitik 3, 102, 103, 104, 105, 106, 108 Struktur-Verhalten-Ergebnis-Paradigma –– (SVE-Paradigma) 125 subadditive Kostenfunktion 172 Subsidiaritätsprinzip 25, 109, 111, 112 sunk costs 129 Synergievorteile 158

T Technologietransfer-Vereinbarungen 149 Telekommunikation 191 Transaktionskosten 164 Transaktionskostenökonomik 130

V Verbundkosten 207 Verbundvorteile 158, 211 Vereinbarungen –– horizontale 145, 150 –– vertikale 165 Vergleichsmarktkonzept 168 Verhaltensabstimmung 139 Verhaltensökonomik 136 Verhaltensweisen –– abgestimmte 145 Vogelsang-Finsinger Mechanismus 230

W Wettbewerb 120 –– aktueller 129 –– als Entdeckungsverfahren 132 –– dynamischer 131 –– funktionsf‰higer 124, 127 –– potenzieller 129 –– vollkommener 120, 121, 124 Wettbewerbsbeschr‰nkungen –– private 139 –– staatliche 138 Wettbewerbsfreiheit 133 Wettbewerbspolitik 119, 176 –– diskretion‰re 141 –– Formen der 141

Stichwortverzeichnis

–– internationale 179 –– regelorientierte 141 Wettbewerbsprinzip 117, 176 Wettbewerbsprozess 131 Wettbewerbsrecht –– deutsches 142 –– europ‰isches 143 Wirkungen –– koordinierte 157 –– nichtkoordinierte 156 Workable Competition 124

385

Y Yardstick Competition 232

Z Zeitinkonsistenz 28, 38 Zusammenschluss –– horizontale 155 –– konglomerater 140 –– vertikale 164 –– vertikaler 140