Kompendium der Wirtschaftstheorie und Wirtschaftspolitik I: Mikroökonomik [1. Aufl.] 978-3-658-21776-1;978-3-658-21777-8

Das Kompendium liefert einen umfassenden Überblick über die zentralen Bereiche der Volkswirtschaftslehre. Die einzelnen

1,706 33 15MB

German Pages XV, 718 [729] Year 2019

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Kompendium der Wirtschaftstheorie und Wirtschaftspolitik I: Mikroökonomik [1. Aufl.]
 978-3-658-21776-1;978-3-658-21777-8

Table of contents :
Front Matter ....Pages I-XV
Mikroökonomik (Mathias Erlei)....Pages 1-148
Industrieökonomik (Ulrich Schwalbe)....Pages 149-369
Internationaler Handel (Heinz-Dieter Smeets)....Pages 371-455
Institutionen (Mathias Erlei)....Pages 457-559
Umweltökonomik (Roland Menges)....Pages 561-706
Back Matter ....Pages 707-718

Citation preview

Thomas Apolte Mathias Erlei Matthias Göcke Roland Menges Notburga Ott André Schmidt Hrsg.

Kompendium der Wirtschaftstheorie und Wirtschaftspolitik I Mikroökonomik

Kompendium der Wirtschaftstheorie und Wirtschaftspolitik I

Thomas Apolte · Mathias Erlei · Matthias Göcke · Roland Menges · Notburga Ott · André Schmidt (Hrsg.)

Kompendium der Wirtschaftstheorie und Wirtschaftspolitik I Mikroökonomik

Hrsg. Thomas Apolte Center for Interdisciplinary Economics (CIW) University of Münster Münster, Deutschland Matthias Göcke Justus-Liebig-Universität Gießen Gießen, Deutschland Notburga Ott Lehrstuhl für Sozialpolitik und Institutionenökonomik Ruhr-Universität Bochum Bochum, Deutschland

Mathias Erlei Institut für Wirtschaftswissenschaft Technische Universität Clausthal Clausthal-Zellerfeld, Deutschland Roland Menges Institut für Wirtschaftswissenschaft Technische Universität Clausthal Clausthal-Zellerfeld, Deutschland André Schmidt Universität Witten/Herdecke Witten, Deutschland

ISBN 978-3-658-21777-8  (eBook) ISBN 978-3-658-21776-1 https://doi.org/10.1007/978-3-658-21777-8 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Springer Gabler © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Lektorat: Annika Hoischen Springer Gabler ist ein Imprint der eingetragenen Gesellschaft Springer Fachmedien Wiesbaden GmbH und ist ein Teil von Springer Nature Die Anschrift der Gesellschaft ist: Abraham-Lincoln-Str. 46, 65189 Wiesbaden, Germany

Vorwort

Ende der siebziger Jahre beschloss eine Gruppe befreundeter Ökonomen, ein Übersichtswerk zur modernen Volkswirtschaftslehre anzufertigen. Jeder übernahm mindestens ein Themengebiet und schrieb ein Manuskript dazu, das anschließend Seite für Seite im Kollegenkreis im Hinblick auf Verständlichkeit und Relevanz besprochen wurde. Das Ergebnis war „Vahlens Kompendium der Wirtschaftstheorie und Wirtschaftspolitik“, das sich schnell zu einem Standardwerk der deutschen Lehrbuchökonomik etablierte. Es brillierte durch seine Verständlichkeit und seine Kürze, denn jedem Thema wurde nur ein sehr begrenzter Raum gegeben, sodass der Leser mit begrenztem Zeitaufwand eine fundierte Einführung in das jeweilige Teilgebiet erhielt. Generationen von Volks- und Betriebswirten nutzten die Bände des Kompendiums zur Vorbereitung auf ihre finalen, themenübergreifenden Diplomprüfungen. Mit der Bologna-Reform und dem Entfallen der abschließenden Diplomprüfungen änderte sich der volkswirtschaftliche Lehrbuchmarkt grundlegend. Gefragt sind nunmehr Texte, die vorrangig als Begleitmaterial für eine spezielle Lehrveranstaltung mit abschließender Modulprüfung dienen. Das nun vorliegende, teilweise von einem neuen Stab an Autoren erstellte neue Kompendium, hat sich an diese Erfordernisse angepasst: So wurde die Seitenrestriktion für die Autoren gelockert, sodass sich jeder Beitrag auch als Skript für eine gleichlautende Vorlesung eignet. Alte Themen wurden aufgegeben, neue – stärker an den Curricula der Hochschulen ausgerichtete – Beiträge wurden hinzugefügt. Beibehalten wurde jedoch der Entstehungsprozess: Jeder Beitrag wird einer detaillierten und kritischen Diskussion unterworfen, bevor er zur Veröffentlichung angenommen wird. Dies, so hoffen wir, stellt sicher, dass die Studierenden nach wie vor ein Gesamtwerk vorfinden, dessen Verständlichkeit und Präzision das vieler anderer Werke übertrifft. Mit der Neukonzipierung einher geht der Wechsel des Verlags. Der Springer Verlag bietet dem Werk ideale Voraussetzungen für eine insbesondere auch digitale Verbreitung der Inhalte.

V

VI Vorwort

Zum Abschluss ein paar Worte des Dankes: Wir danken dem Vahlen Verlag für die gelungene Zusammenarbeit in den vergangenen 30 Jahren und den großzügigen Verzicht auf die Verlagsrechte an den Texten der neunten Auflage. Dem Springer Verlag – vor allem den Mitarbeiterinnen Stefanie Brich, Isabella Hanser und Annika Hoischen – sei gedankt für die Hilfe und die Geduld im Entstehungsprozess des neuen Kompendiums. Unseren Mitarbeitern danken wir für zahlreiche kritische Hinweise. Zu guter Letzt danken wir all denjenigen Studierenden, die sich auch im 21. Jahrhundert noch die Mühe machen, wissenschaftliche Texte zu lesen. August 2018

Die Herausgeber

Inhalt

Band I 1.

Mikroökonomik Mathias Erlei

2.

Industrieökonomik Ulrich Schwalbe

3.

Internationaler Handel Dieter Smeets

4.

Institutionen Mathias Erlei

5.

Umweltökonomik Ronald Menges

Band II 6.

Wirtschaftskreislauf und gesamtwirtschaftliches Rechnungswesen  Matthias Göcke

7.

Makroökonomik Matthias Göcke

8.

Instabilitäten: Konjunktur, Inflation, Finanzkrisen Uwe Vollmer VII

VIII Inhalt

9.

Wachstum und Entwicklung Dieter Bender & Michael Frenkel

10. Geld und Kredit Uwe Vollmer 11. Währung und internationale Finanzmärkte Heinz-Dieter Smeets

Band III 12. Theorie der Wirtschaftspolitik André Schmidt 13. Wettbewerbspolitik Wolfgang Kerber 14. Regulierung Ralf Dewenter & Ulrich Heimeshoff 15. Arbeitsmarkt Thomas Apolte 16. Sozialpolitik Notburga Ott

Inhaltsübersicht

Vorwort........................................................................................................................................... V Symbolverzeichnis........................................................................................................................XI 1.

Mikroökonomik....................................................................................................... 1 Mathias Erlei

2.

Industrieökonomik.............................................................................................. 149 Ulrich Schwalbe

3.

Internationaler Handel......................................................................................... 371 Dieter Smeets

4.

Institutionen......................................................................................................... 457 Mathias Erlei

5.

Umweltökonomik................................................................................................. 561 Ronald Menges

Stichwortverzeichnis..................................................................................................................707

IX

Symbolverzeichnis

In das Verzeichnis wurden Symbole aufgenommen, die in mehreren Beiträgen eine einheitliche Bedeutung haben. Symbole, die spezifische Sachverhalte ein­zelner Beiträge kennzeichnen, sind an Ort und Stelle definiert. Dies gilt auch für die Fälle, in denen sich eine abweichende Verwendung desselben Symbols in verschiede­nen Beiträgen nicht vermeiden ließ.

1. Allgemeine Regeln für Zeichen, Subskripte und Superskripte: Definitionsgleichungen bzw. Identitäten sind durch „:=“ gekennzeichnet (z. B.: S:= Y – C). Ableitungen nach der Zeit werden durch einen Punkt über dem Symbol für die zeitabhängige Größe markiert (z. B.: dP/dt:= P! ); partielle Ableitungen einer Funktion F(x, y, ...) in Bezug auf ihre Argumente werden in der Reihenfolge der Funktionsargumente mit Fx, Fy ... bezeichnet. * : Optimalgröße, Gleichgewichtsgröße – gekennzeichnet durch * (z. B.: x* := optimale Menge) – : exogene Größen – generell gekennzeichnet durch einen Querstrich über dem Symbol (z. B.: M:= exogen gegebenes Geldangebot) : Kennzeichnung eines positiven Einfluss einer Variablen in einer Funktion : Kennzeichnung eines negativen Einfluss einer Variablen in einer Funktion (z.B.: L(Y, i) positiver Einfluss des Einkommens Y und negativer Effekt des Zins i auf die Liquiditätsnachfrage L) A : ausländische Variable – hochgestelltes oder tiefgestelltes A (z.B.: YA := ausländisches Einkommen) b : Bruttogröße – hochgestelltes b (z. B.: Ib := Bruttoinvestitionen)

XI

XII Symbolverzeichnis

: Nachfragegrößen – hochgestelltes d (z. B.: Md := Geldnachfrage) e : Erwartungsgrößen – hochgestelltes e (z. B.: pe := erwarteter Preis) : Gleichgewicht – tiefgestelltes g g (z. B.: Yg := Gleichgewichts-Einkommen) g : Wachstumsraten: generell durch g, speziell g mit Suffix (z. B.: gY:= Wachstumsrate des Einkommens) : Variable für Haushalt – tiefgestelltes H H (z.B.: SH := Sparen der Haushalte) n : nominelle Größe bzw. Nettogröße – gekennzeichnet durch hochgestelltes n (z. B.: en := nomineller Wechselkurs bzw. In := Nettoinvestitionen) r : reale Größe – hochgestelltes r (z. B.: er := realer Wechselkurs) : private Größe – tiefgestelltes pr pr (z.B.: Cpr := privater Konsum) s : Angebotsgrößen – hochgestelltes s (z.B.: Ms := Geldangebot) : staatliche Variable – gekennzeichnet durch tiefgestelltes St St (z.B.: ISt := staatliche Investitionen) : Zeitindex – gekennzeichnet durch tiefgestelltes t t (z.B.: Yt := Einkommen in Periode t) : Unternehmensvariable – tiefgestelltes U U (z.B.: IU := Investitionen der Unternehmen) d

2. Großbuchstaben:

A Vermögen („Assets“) A Faktorproduktivität AD gesamtwirtschaftliche Nachfragekurve („Aggregate Demand“) AS gesamtwirtschaftliche Angebotskurve („Aggregate Supply“) AB Außenbeitrag HA (heimische) Absorption BD staatliches Budgetdefizit B Geldbasis, Zentralbankgeld BIP Bruttoinlandsprodukt BNE Bruttonationaleinkommen

Symbolverzeichnis

C Ausgaben für Konsumgüter D Abschreibungen FD Auslandsverschuldung („Foreign Debt“) DE Einlagen (Depositen) DK Durchschnittskosten DS (Auslands)Schuldendienst („Debt Service“) Ex Exporte FDI ausländische Direktinvestition (foreign direct investment) FS Finanzierungssaldo G Güterkäufe des Staates GD verzinsliche Staatsschuld („Government Debt“) GE Grenzerlös GK Grenzkosten H Humankapitalbestand HB Handelsbilanzsaldo I Ausgaben für Investitionsguter (netto), Nettoinvestition Im Importe K Kapitalstock, Sachkapitalbestand K Kosten KB Kapitalbilanz oder Kapitalbilanzsaldo KEx Kapitalexport KIm Kapitalimport KR Kreditvolumen L Liquiditätspräferenz, Geldnachfrage (= Md) LB Leistungsbilanz, Leistungsbilanzsaldo LSK nominelle Lohnstückkosten M Geldmenge M1 Bargeldumlauf und täglich fällige Einlagen M2 M1 + Festgelder + Kündigungsgelder M3 M2 + (insbes.) Geldmarktfondsanteile, Geldmarktpapiere Md Geldnachfrage (= L) Ms Geldangebot N Beschäftigung des Faktors Arbeit, Bevölkerungszahl Nd Arbeitsnachfrage Ns Arbeitsangebot NNE Primäreinkommen = Nettonationaleinkommen zu Marktpreisen

XIII

XIV Symbolverzeichnis

NA Nettovermögen („Net Assets“) P Güterpreisniveau, Preisindex PIm Preisniveau der Importgüter PEx Preisniveau der Exportgüter P K Preis pro Einheit Realkapital R Währungsreserven S Sparen bzw. Ersparnis T Steuern und Abgaben an den Staat Tind „Indirekte Steuern“ U Nutzen Ü Übertragungen V Umlaufgeschwindigkeit des Geldes W Vermögen („Wealth“) Y Volkseinkommen, Produktionsmenge, Nationaleinkommen Yd gesamtwirtschaftliche Güternachfrage Ys gesamtwirtschaftliches Güterangebot L Y Lohneinkommen G Y Gewinn und Kapitaleinkommen Ypot Produktionspotential YV verfügbares Einkommen Z Zahlungsbilanz, (negativer) Devisenbilanzsaldo Z Subventionen

3. Kleinbuchstaben: c marginale Konsumquote e Wechselkurs ex Exportvolumen g Wachstumsrate einer Größe (die als Subskript aufgeführt wird) gK Wachstumsrate des Kapitalstocks gN Wachstumsrate der Arbeit bzw. der Bevölkerung gP Inflationsrate gY Wachstumsrate des Sozialprodukts i Zinssatz (nominal) im Importvolumen k Sachkapital pro Arbeiter, Kapitalintensität (K/N) m marginale Importquote

Symbolverzeichnis

p Preis eines Gutes q Faktorpreis r Realzinssatz s marginale Sparquote tot Terms of trade u Arbeitslosenquote w Lohnsatz v Faktoreinsatz x Mengeneinheiten eines gehandelten Gutes xd Angebotsmenge, Angebotsfunktion xs Nachfragemenge, Nachfragefunktion y Pro-Kopf-Produktion, Pro-Kopf-Einkommen (Y/N) z Zollsatz

4. Griechische Buchstaben:

μ μ σ ∆

Multiplikator Mittelwert Standardabweichung Differenz-Operator (z.B. ∆xt := xt – xt–1)

XV

1

Mikroökonomik Mathias Erlei

Gliederung 1.1 Der mikroökonomische Ansatz ......................................................................... 3 1.1 Angebots- und Nachfrageverhalten................................................................. 8 1.1.1 Haushalte ............................................................................................ 8 1.1.1.1 Budgetrestriktion ............................................................ 9 1.1.1.2 Präferenzen und Nutzenfunktionen ............................ 10 1.1.1.3 Güternachfrage ............................................................... 20 1.1.1.4 Substitutions- und Einkommenseffekt ........................ 27 1.1.1.5 Faktorangebot ................................................................. 29 1.1.1.6 Entscheidungen bei Unsicherheit.................................. 36 1.1.2 Unternehmen ..................................................................................... 44 1.1.2.1 Produktionsfunktion und Kostenfunktion.................. 45 1.1.2.2 Güterangebot und Faktornachfrage.............................. 59 1.2 Preisbildung und Marktgleichgewichte .......................................................... 65 1.2.1 Partialmarktgleichgewicht bei vollkommener Konkurrenz......... 66 1.2.2 Allgemeine Walrasianische Gleichgewichte .................................. 74 1.2.3 Zum Aussagegehalt der Konkurrenzgleichgewichte .................... 83 1.2.3.1 Erklärungsdefizite........................................................... 84 1.2.3.2 Erklärungserfolge – die Theorie als analytisches Instrument............................................ 85 1.2.4 Monopol ............................................................................................. 89 1.3 Strategische Interaktion: Grundzüge der nichtkooperativen Spieltheorie ........................................................................ 96 1.3.1 Spiele und Strategien ........................................................................ 97 1.3.2 Nash-Gleichgewichte........................................................................ 101 1.3.3 Teilspielperfektheit............................................................................. 105 © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 T. Apolte et al. (Hrsg.), Kompendium der Wirtschaftstheorie und Wirtschaftspolitik I, https://doi.org/10.1007/978-3-658-21777-8_1

1

2

Mathias Erlei

1.3.4 Zum Aussagegehalt der Gleichgewichtskonzepte ......................... 108 Marktgleichgewichte bei strategischer Interdependenz ............................... 112 1.4.1 Cournot-Duopol ............................................................................. 114 1.4.2 Oligopol und Markteintritte ............................................................ 118 1.4.3 Stackelberg-Duopol ...................................................................... 120 1.4.4 Bertrand-Duopol............................................................................ 125 1.4.5 Verhandlungen als bilaterale Monopole ........................................ 127 1.4.5.1 Das Nash-Demand-Spiel............................................... 128 1.4.5.2 Das Rubinstein-Spiel .................................................... 129 1.6 Institutionenökonomische Ansätze ................................................................... 132 1.4.6 Asymmetrische Informationen........................................................ 133 1.4.6.1 Moralisches Wagnis........................................................ 133 1.4.6.2 Adverse Selektion............................................................ 135 1.4.6.3 Moralisches Wagnis in Teams........................................ 136 1.4.7 Transaktionskosten ........................................................................... 137 1.4.7.1 Kosten der Marktbenutzung.......................................... 140 1.4.7.2 Kosten der Organisationsbenutzung............................ 141 1.4.7.3 Optimale Organisationsform......................................... 143 1.5 Kommentierte Literaturhinweise .................................................................... 144 1.4

Literaturverzeichnis........................................................................................................ 146

1 Mikroökonomik

1.1

3

Der mikroökonomische Ansatz

Gegenstand der Mikroökonomik ist die Analyse menschlichen Verhaltens im wirtschaftlichen und nichtwirtschaftlichen Bereich einer Gesellschaft. In dieser Hinsicht unterscheidet sie sich also kaum von Zweigen der Psychologie, Soziologie, Politologie oder Geschichtswissenschaft. Das Spezifische am mikroökonomischen Ansatz besteht darin, dass eine bestimmte Methode der Analyse verwendet wird, die eng mit den Begriffen „Knappheit“ und „Homo oeconomicus“ verbunden ist. Zentraler Ausgangspunkt der ökonomischen Analysetechnik ist das Vorliegen von Knappheiten. Hierunter versteht man das Auseinanderfallen von Erwünschtem und Verfügbarem, oder anders formuliert: Die Mittel der Bedürfnisbefriedigung sind nicht so reichhaltig vorhanden, dass alle Bedürfnisse abschließend befriedigt werden können. Knappheiten existieren in vielfältiger Form. So reicht oftmals die Menge eines Produktes nicht aus, um allen Konsumwünschen zu genügen oder es existieren Engpässe im Bereich Qualität. Knappheiten unterschieden sind nach Ort und Zeit. So ist Sand in der Wüste sicher keine knappe Ressource, genauso wenig wie (derzeit) Luft zum Atmen. Beide eignen sich als „freie Güter“ nicht zum Objekt einer ökonomischen Untersuchung. Demgegenüber sind Gesundheit, Freizeit und auch zwischenmenschliche Liebe sehr wohl knappe Güter, die einer ökonomischen Analyse prinzipiell zugänglich sind. Tatsächlich existieren durchaus erfolgreiche ökonomische Arbeiten in diesen Gebieten. Während die Knappheit den Gegenstandsbereich der Ökonomik begrenzt, dient der Begriff Homo oeconomicus als Aushängeschild für die ökonomische Analysemethode. Diese Methode beinhaltet die Einhaltung von zumindest vier Grundsätzen der Vorgehensweise: • • • •

den Methodologischen Individualismus, die strikte Trennung von stabilen Präferenzen und Restriktionen, die Eigennutzannahme, die Rationalitätsannahme.

Diese im Folgenden etwas näher zu betrachtenden Prinzipien begründen zusammen das „ökonomische Verhaltensmodell“. Der Methodologische Individualismus fordert, dass alles Handeln in einer Gesellschaft auf Entscheidungen von Individuen zurückzuführen ist. Dies gilt nicht nur für einfache Konsumentscheidungen von Individuen, sondern auch für Verhaltensweisen von Familien, Vereinen, Unternehmen oder Parlamenten: Gruppen bzw. Organisationen an sich können nicht handeln, es sind immer die darin agierenden Menschen, die Entscheidungen treffen. Wird etwa berichtet, der Bundestag habe ein bestimmte Gesetzesvorlage verabschiedet, so fordert der Methodologische Individualismus, dass eine wissenschaftliche Erklärung der Parlamentsentscheidung immer auf das Abstimmungsverhalten der einzelnen beteiligten Parlamentarier zurückzuführen ist. Schon an dieser Stelle sei eingeräumt, dass der Grundsatz des Methodologischen Individualismus in der ökonomischen Theorie nicht immer streng eingehalten wird. So wird das Verhalten von

4

Mathias Erlei

Unternehmen und Haushalten häufig so modelliert, als ob nur ein einziger Akteur beteiligt wäre. Dies wird jedoch bewusst in Kauf genommen, um die Modelle möglichst einfach zu halten. Die Wirkungsrichtung der Analyse – vom einzelwirtschaftlichen Verhalten hin zum gesellschaftlichen Phänomen – unterscheidet die ökonomische Theorie nicht unerheblich von Teilen der anderen Sozialwissenschaften. Das Prinzip der Trennung von Präferenzen und Restriktionen besagt, dass die Vorlieben (Präferenzen) der Individuen strikt von ihrem Handlungsspielraum (ihren begrenzt verfügbaren Handlungsalternativen, ihren Restriktionen) unterschieden werden müssen, da sie im ökonomischen Modell eine völlig unterschiedliche Behandlung erfahren. Dies sei anhand eines Beispiels erläutert: Zu erklären sei etwa eine Veränderung im Konsumverhalten, die darin besteht, dass ein Haushalt seinen Alkoholkonsum drastisch einschränkt. Grundsätzlich können zur Erklärung dieser Verhaltensänderung sowohl die Präferenzen als auch die Restriktionen herangezogen werden. Ursache könnten die Präferenzen sein, wenn er plötzlich die Freude am Alkoholkonsum verloren hätte und deshalb seinen Alkoholkonsum verringert. Gleichermaßen können aber auch Änderungen in den Restriktionen, zum Beispiel die Einführung einer drastischen Alkoholsteuer, die wiederum den Preis für alkoholische Getränke erhöht und die Konsummöglichkeiten des Haushalts einschränkt, den verringerten Konsum erklären. Die Erklärung über die Präferenzen weist jedoch einen erheblichen Nachteil auf: Sie kann im Allgemeinen nicht widerlegt werden, da die Präferenzen der Menschen nicht direkt erfassbar sind. Im Grunde genommen kann jede Form menschlichen Verhaltens durch Präferenzen bzw. Präferenzänderungen „erklärt“ werden: Begeht zum Beispiel ein Kamikaze-Flieger Selbstmord, so mag dies theoretisch das Ergebnis einer Präferenz für die eigene Selbstaufopferung oder ein abenteuerliches Fluggefühl sein. Das kann so sein, es kann aber auch ganz anders sein. Da solche Aussagen nicht widerlegt werden können – wer kennt schon das Innenleben des Kamikaze-Fliegers am Tag seines Todes? – entziehen sie sich der empirischen Überprüfung und degenerieren zu einer reinen „Geschichtenerzählerei“. Dies Problem besteht nicht für eine Erklärung über die Restriktionen: Die Einführung einer Alkoholsteuer oder eine Preiserhöhung lässt sich durchaus erfassen, so dass der Erklärungsversuch auch widerlegbar ist: Sinken etwa die Alkoholpreise im Anschluss an die Einführung der Alkoholsteuer, so wäre das Erklärungsmodell über die Restriktionen widerlegt. Diese Überlegungen verdeutlichen die ungleiche Behandlung von Präferenzen und Restriktionen im ökonomischen Verhaltensmodell. Die nicht messbaren Präferenzen werden als stabile Größe mit intuitiv nachvollziehbaren Eigenschaften angenommen, während die grundsätzlich erfassbaren Handlungsmöglichkeiten (die Restriktionen) eines Individuums herangezogen werden, um Veränderungen im Verhalten zu erklären. Das dritte Prinzip der mikroökonomischen Analyse ist die Eigennutzannahme. Sie besagt, dass menschliches Verhalten durch Handlungen gekennzeichnet ist, die der Erhöhung des jeweils eigenen Wohlbefindens dienen. Damit bleibt allerdings noch zu klären, wodurch das eigene Wohlbefinden bestimmt wird. In einer engen Definition, wie sie oftmals für die Analyse des Verhaltens auf wettbewerblichen Märkten verwendet wird, wird das Wohlbefinden (der Eigennutz) ausschließlich durch den Güterkonsum des

1 Mikroökonomik

5

betrachteten Individuums erzeugt. Ein solches streng eigennütziges Wirtschaftssubjekt mag merkwürdig kalt, vielleicht sogar abstoßend wirken. Es kennt weder Missgunst noch Altruismus, Gerechtigkeit oder Mitleid und ist am Wohlergehen anderer Menschen vollkommen desinteressiert. Man mag allerdings auch die Gegenfrage stellen: Wie viele dieser Neigungen spielen beim täglichen Einkauf im Supermarkt oder beim Handel an der Börse eine wichtige Rolle? In jedem Fall lässt sich schon an dieser Stelle feststellen, dass der streng eigennützige Homo oeconomicus auf Wettbewerbsmärkten zu einer durchaus bewährten Erklärung der Marktergebnisse beiträgt. In anderen Anwendungsbereichen werden weitere Definitionen des Eigennutzes verwendet. Es kann kaum bezweifelt werden, dass in nicht-anonymen Kleingruppen Gesichtspunkte wie Fairness oder Reziprozität (das ist ein Verhalten nach dem Prinzip „Wie-dumir-so-ich-dir“) als Bestimmungsfaktoren des eigenen Wohlbefindens eine wichtige Rolle spielen. Man beachte dabei allerdings, dass es unzulässig ist, innerhalb eines Erklärungsansatzes die Präferenzstruktur zu wechseln, da anderenfalls der oben erläuterte Grundsatz stabiler Präferenzen verletzt wird. Schließlich bleibt als viertes Prinzip noch die Rationalitätsannahme, die besagt, dass Wirtschaftssubjekte vernunftbegabte Menschen sind und dass sie die Fähigkeit besitzen, ihre Ziele wirksam zu verfolgen. Über das ihnen unterstellte Ausmaß an Rationalität bestehen unterschiedliche Vorstellungen. Geht man von einer vollkommenen Rationalität aus, dann können Individuen die für sie besten Handlungsalternativen immer und fehlerfrei erkennen und entsprechende Entscheidungen treffen. Rationale Konsumenten wählen – unter Berücksichtigung der ihnen gegebenen Handlungsspielräume – die ihren Vorlieben und Neigungen entsprechenden Güter, rationalen Unternehmern gelingt es, gewinnmaximierende Produktionsmengen und Faktoreinsatzkombinationen zu verwirklichen. Bei vollkommener Rationalität werden keine Entscheidungen getroffen, die später bereut werden. Für eine Vielzahl von einfachen Entscheidungsproblemen ist eine solche Betrachtung vergleichsweise problemlos. Bei komplexen Entscheidungen hingegen drängen sich Zweifel über die Angemessenheit der Annahme vollkommener Rationalität auf. Führt man eine Wirtschaftlichkeitsbetrachtung der Informationsbeschaffung und Informationsverarbeitung durch, so kommt man schnell zu dem Ergebnis, dass es zu teuer ist, alle für ein Entscheidungsproblem verfügbaren Informationen zu sammeln und auszuwerten. Als Ausweg bietet sich eine prozessuale Rationalität an, die nach bestimmten Regeln (oder Routinen) die Informationsbeschaffung und Informationsverarbeitung durchführt. Mit einer derartig begrenzten Rationalität verzichtet das entscheidende Individuum bewusst darauf, beste Entscheidungen zu treffen und beschränkt sich auf gute (zufriedenstellende) Entscheidungen. Die damit verbundenen Nachteile werden durch Zeit- und Kosteneinsparungen bei der Entscheidungsfindung selbst mehr als kompensiert. Dies sei anhand eines Beispiels erläutert: Mit der nach den Turnierregeln zulässigen Bedenkzeit ist es einem Schachspieler nur in Ausnahmefällen – etwa bei einem in sehr wenigen Zügen erreichbaren Schachmatt – möglich, objektiv optimale Züge zu ermitteln. Deshalb orientieren sich erfolgreiche Spieler an bewährten Daumenregeln, die ihnen helfen, die Wirksamkeit von Zügen verlässlich

6

Mathias Erlei

abzuschätzen. Der Versuch, objektiv beste Züge zu machen, würde in einem sportlichen Desaster enden, da fast alle Partien – selbst gegen Anfänger – wegen Zeitüberschreitung verloren gingen. Folglich ist es für Schachspieler rational, begrenzt rationale Entscheidungen zu treffen. Die meisten der in diesem Kapitel behandelten Modelle unterstellen strenge Eigennützigkeit und vollkommene Rationalität der Akteure. Diese Annahmen sind im Hinblick auf real existierende Menschen ohne jeden Zweifel nicht erfüllt, so dass sich die Frage stellt, ob bzw. inwieweit man mit unzutreffenden Annahmen eine gute, funktionstüchtige Theorie formulieren kann. Zur Rechtfertigung dieser Vorgehensweise gibt es zumindest vier Ansätze (vgl. Schlicht, 2003, S. 292 ff.; Popper, 1967, S. 350 ff.): Der erste Rechtfertigungsansatz betrachtet den Homo oeconomicus als nützliche Approximation. Der Homo oeconomicus wird dabei als näherungsweise realistische Darstellung des Menschen angesehen, die es erlaubt, die bedeutendsten Regelmäßigkeiten im Wirtschaftsleben zu verstehen. Problematisch an dieser Sicht ist der Umstand, dass der Homo oeconomicus nicht dazu in der Lage ist, das tatsächliche Verhalten vollständig zu erklären. Damit wird es erforderlich zu ermitteln, unter welchen Bedingungen das Modell einsetzbar ist. Dazu bedarf es dann allerdings einer übergeordneten, neuen Theorie. Mit dem Homo oeconomicus als Als-ob-Konstruktion verzichtet man zweitens darauf, eine vollständige Übereinstimmung zwischen Homo oeconomicus und wirklichen Menschen aufzubauen. Im Gegenteil: Es wird bewusst auf Realitätsnähe verzichtet und argumentiert, dass die Rahmenbedingungen wirtschaftlicher Aktivität – insbesondere intensiver Wettbewerb – zu einem Verhalten der Akteure führt, das aussieht als ob sie Homines oeconomici wären. Unternehmen mit zu hohen Kosten werden vom Markt verdrängt, ebenso wie Unternehmen, die zu hohe Preise fordern. Der Wettbewerb als Selektionsprozess lässt nur diejenigen Unternehmen überleben, die dem Modell des streng eigennützigen, rationalen Akteur nahe kommen. Diese Sichtweise, wie sie insbesondere von Armen Alchian (1950) und Milton Friedman (1953) vorgetragen wurde, stellt ganz auf den instrumentellen Charakter der Theorie ab: wie gut kann sie zur Vorhersage der Auswirkungen von Ereignissen oder Maßnahmen verwendet werden? Während die ersten beiden Rechtfertigungsansätze vorrangig auf die empirische Bewährtheit der Theorie ausgerichtet sind, betont der dritte, durch Carl Menger (1883) und Max Weber (1921) eingeführte Ansatz – der Homo oeconomicus als Idealtyp – die Ergänzungsbedürftigkeit des ökonomischen Verhaltensmodells. Der idealtypische Homo oeconomicus beschreibt, wie bestimmte Ereignissen ablaufen würden, wenn die Akteure vollkommen rationale, streng eigennützige Wesen wären. Er beinhaltet somit ein Gedankenspiel, das natürlich einen gewissen Bezug zum tatsächlichen Geschehen aufweisen soll. Zur Erklärung der Realität müssen dann weitere Effekte hinzugefügt werden, z.B. „alle irrationalen, affektuell bedingten, Sinnzusammenhänge des Sichverhaltens, die das Handeln beeinflussen [...] Die Konstruktion des streng zweckrationalen Handelns also dient [...] als Typus (‚Idealtypus’) um das reale, durch Irrationalitäten aller Art (Affekte, Irrtümer) beeinflußte Handeln als ‚Abweichung’ von dem bei rein rationalem Verhalten zu gegenwärtigenden Verlaufe zu verstehen.“ (Weber, 1921, S. 2 f.).

1 Mikroökonomik

7

Bei einer idealtypischen Vorgehensweise ist die Realitätsnähe des Idealtypus von untergeordneter Bedeutung, da die idealtypischen Entscheidungen primär als Orientierungspunkt dienen, von denen das reale Verhalten mehr oder weniger stark abweicht. Gleichwohl ist es von Bedeutung, dass die Eigenschaften des Idealtypus einen spürbaren Bezug zum Realtypus, also dem real existierenden Menschen, aufweisen. Wäre dies nicht der Fall, so wäre es geboten, nach einem alternativen Idealtypus an Stelle des Homo oeconomicus zu suchen. Der Sozialphilosoph und Wissenschaftstheoretiker Karl Popper (1967) formulierte den vierten Rechtfertigungsansatz, den man unter dem Stichwort „Situationsanalyse“ zusammenfassen kann. Popper geht davon aus, dass menschliches Handeln vorrangig zweckgerichtet ist. Wenngleich die Annahme rationalen Handelns aus empirischer Sicht schlicht falsch ist, kommt sie „der Wahrheit in der Regel hinreichend nahe“. Ziel der sozialwissenschaftlichen Analyse müsse es sein, das einer Situation entsprechende (zweckmäßige) Handeln zu erfassen. Entscheidend hierbei ist, dass es die Handlungssituation ist, die das zweckmäßige Verhalten zur Folge hat. Es ist also das Handeln zu erklären, dass der untersuchten Situation angemessen erscheint, und die Handelnden des Modells führen mithin nur aus, was in der Situation bereits enthalten ist. Wirtschaftliches Verhalten folgt der „Logik der Situation“. Erweist sich eine Theorie als ungeeignet, so soll dafür nach Popper nicht das Rationalitätsprinzip verantwortlich gemacht werden, sondern die Modellierung die Handlungssituation: „Der Versuch, das Rationalitätsprinzip durch ein anderes zu ersetzen, scheint zu totaler Willkür in unserem Bauen von Modellen zu führen“ (S. 355 f.). Die in den folgenden Abschnitten dargestellten Modelle gehen zumeist von einem streng eigennützigen, vollkommen rationalen Homo oeconomicus aus. Wenn dem Leser die Akzeptanz dieser oder mancher anderer darin enthaltenen Annahmen allzu schwer erscheinen sollte, mag er sich auf die soeben vorgestellten Überlegungen besinnen, um zu erkennen, inwieweit realitätsferne Modellannahmen einen wichtigen Beitrag zum Verständnis der Wirklichkeit liefern können. Mikroökonomische Modelle sind Gleichgewichtsmodelle. Um Auswirkungen von Änderungen in den Restriktionen zu untersuchen, verwendet man die Methode der komparativen Statik. Diese beinhaltet ein Vorgehen, bei dem der Einfluss exogener Variablen auf das Modellgleichgewicht erfasst wird. Exogene Variablen sind solche, die dem Modell vorgegeben werden, endogene Variablen hingegen werden innerhalb des Modells bestimmt. Ein Beispiel: Untersucht man etwa den Markt für Mineralöl, so wird man üblicherweise den Bestand an weltweiten Rohölvorräten, die Lohnsätze am Arbeitsmarkt, den Zinssatz, die Preise beliebiger anderer Güter und die Förder- und Veredelungstechnologien als „von außen vorgegeben“, also als exogen unterstellen. Im Gegensatz dazu werden die am Tagesmarkt gehandelten Mineralölmengen, deren Preise und Qualitäten innerhalb des Modells bestimmt, sie sind damit endogene Variablen. Ausgehend von bestimmten Werten der exogenen Variablen lässt sich dann ein Marktgleichgewicht berechnen. Die Methodik der komparativen Statik setzt an einem beliebigen solchen Gleichgewicht an und ändert den Wert einiger (zumeist nur einer) exogenen Variablen, während die Werte für alle anderen exogenen Variablen konstant gehalten werden. Auf diese Weise

8

Mathias Erlei

lässt sich nun das neue Gleichgewicht ermitteln und mit dem alten Gleichgewicht vergleichen: deshalb der Begriff komparative Statik. Da hier zwei statische Gleichgewichtszustände verglichen werden, der dynamische Anpassungsprozess hingegen ausgeblendet wird, spricht man von einer komparativ statischen Analyse. Bis auf die veränderte exogene Variable werden alle anderen exogenen Variablen konstant gesetzt. Diese Ceteris-paribusKlausel („ceteris paribus“ bedeutet „alles andere unverändert“) genannte Vorgehensweise versucht, den Einfluss der geänderten Variable(n) vom Einfluss der anderen exogenen Variablen isoliert zu erfassen. Sie ist insbesondere dann mit nicht vernachlässigbaren Ungenauigkeiten verbunden, wenn zwischen einigen konstant gehaltenen, exogenen Variablen und den endogenen Variablen erhebliche Interdependenzen bestehen.

1.2

Angebots- und Nachfrageverhalten

Auf Märkten treffen Angebot und Nachfrage aufeinander. Diese sind das Ergebnis individueller Entscheidungen, und eine Rekonstruktion dieser Entscheidungsprozesse mit Hilfe des Homo-oeconomicus-Konstruktes ist das Ziel dieses zweiten Abschnitts. Man unterscheidet darin die Entscheidungssubjekte „Haushalte“ und „Unternehmen“, die nacheinander betrachtet werden. Erstere sind typischerweise Nachfrager nach (Konsum-) Gütern, also Produkte und Dienstleistungen, und Anbieter von Produktionsfaktoren (Arbeit und Kapital). Von einem (Produktions-) Faktor spricht man, wenn er als Input in den Produktionsprozess eingeht, um einen Güteroutput zu erzeugen. Unternehmen sind Anbieter von Gütern und Nachfrager von Faktoren.

1.2.1

Haushalte

Zahlreiche Einflussfaktoren bestimmen die Nachfrage eines Haushalts. Der Preis des betrachteten Gutes spielt offenbar eine Rolle, genauso wie die Preise anderer Güter, die der Haushalt an dessen Stelle erwerben könnte. Einkommen, Vermögen und Kreditmöglichkeiten beschränken die Menge an Gütern, die ein Haushalt kaufen kann. Geschmack, Vorlieben, Modezyklen und viele andere Umweltbedingungen beeinflussen die Bedürfnisintensität, die die Haushaltsmitglieder für bestimmte Güter empfinden. Das Entscheidungsproblem der Haushalte wird zunächst in stark vereinfachter Form betrachtet: Der Einfluss des Vermögens und der Kreditmöglichkeiten auf die Güternachfrage wird zunächst ebenso vernachlässigt wie intertemporale Aspekte, die etwa in Form der Ersparnisbildung zum Ausdruck kommen. Weiterhin wird vernachlässigt, dass Haushalte häufig mehrere Mitglieder haben. Der Haushalt wird also mit einem Individuum gleichgesetzt.

1 Mikroökonomik

9

1.2.1.1 Budgetrestriktion Zunächst ist die Budgetrestriktion zu beschreiben. Der Haushalt verfüge über ein (hier noch) exogen vorgegebenes Einkommen y, aus dem er alle seine Ausgaben finanzieren muss. Da vom Sparen abstrahiert wird, besteht das Optimierungsproblem des Haushalts darin, sein Einkommen optimal auf die verschiedenen Güter zu verteilen. Bei N verschiedenen, beliebig teilbaren Gütern werden die möglichen Konsumausgaben durch die Budgetrestriktion (BR) beschränkt: y = p1x1 + p2x2 + ... pixi + ... pnxn, die sich im für die graphische Darstellung geeigneten Zwei-Güter-Fall zu y p y = p1x1 + p2x2 bzw. x1 = − 2 x2 (BR) p1 p1 vereinfacht. Die Variable xi beschreibt die Menge, die der Haushalt vom Gut i erwirbt und konsumiert, und die Variable pi den entsprechenden Preis. Abbildung 1.1 zeigt drei verschiedene Budgetrestriktionen. Die Achsenschnittpunkte zeigen jeweils die Menge an, die der Haushalt maximal vom jeweiligen Gut kaufen kann. Dazwischen verläuft die Budgetgerade linear fallend mit der Steigung –p2/p1. Erhöht sich das Einkommen des Haushalts, verschiebt sich die Budgetgerade parallel nach außen. Steigt einer der beiden Preise, so dreht sich die Budgetgerade um den Achsenabschnitt beim anderen Gut nach innen.

x1

y′ p1 y p1 y↑

y p1′

p1 ↑

y p2 Abb. 1.1  Budgetrestriktionen

y′ p2

x2

10

Mathias Erlei

Die Fläche unterhalb (und einschließlich) der Budgetgerade bildet den Konsummöglichkeitenraum des Individuums ab. Sofern die Konsumwünsche größer als die Konsummöglichkeiten sind, die Haushalte also noch nicht gesättigt sind, werden die Haushalte stets ihr gesamtes Einkommen ausgeben und so einen Punkt auf der Budgetgeraden realisieren. Die Preise werden vom Haushalt als Datum betrachtet. Dem liegt die Idee zugrunde, dass der einzelne Haushalt zu klein und unbedeutend ist, um den Marktpreis spürbar zu beeinflussen. Allerdings kann er, gerade weil er so klein ist, beliebige Mengen am Markt kaufen. Somit bleibt ihm nur, seine eigenen Mengen optimal zu wählen, um sein daraus resultierendes Wohlbefinden zu maximieren. Aus diesem Grund wird die Annahme der von einzelnen Haushalten (und Unternehmen) nicht beeinflussbaren Preise auch als Mengenanpasser-Verhalten bezeichnet. Dieses wird für den gesamten Bereich der Haushaltsund Unternehmenstheorie sowie auch die folgende Gleichgewichtsanalyse bei vollkommener Konkurrenz unterstellt.

1.2.1.2 Präferenzen und Nutzenfunktionen „Wirtschaft ist die Kunst, das Beste aus seinem Leben zu machen.“ Dieses von George Bernard Shaw entliehene Zitat verdeutlicht das Problem eines jeden Menschen. Unklar bleibt jedoch, anhand welchen Maßstabs „das Beste“ ermittelt werden kann. In einem ersten Schritt könnte man vielleicht sagen, das Beste sei, was das Wohlbefinden des Individuums oder seine Lebenszufriedenheit auf das höchstmögliche Niveau anhebe. Doch ergibt sich damit nur dasselbe Problem auf einer höheren Ebene: Woran erkennt und misst man das Wohlbefinden, die Lebenszufriedenheit bei sich selbst oder gar bei anderen Menschen? Bislang gibt es für diese Frage keine überzeugende Antwort. Die ökonomische Wissenschaft umgeht das Messproblem durch die Nutzentheorie, die es in zwei Varianten gibt. In der älteren Form, der kardinalen Nutzentheorie, werden allgemeine Grundsätze über die Bestimmungsfaktoren des Wohlbefindens, das jetzt Nutzen genannt wird, formuliert und mit der Annahme verbunden, dass jeder Einzelne – bewusst oder unbewusst – genau weiß, wie seine Konsumentscheidung auf sein Wohlbefinden (Nutzen) wirkt. In der kardinalen Nutzentheorie wird für jeden Menschen so etwas wie ein subjektiv oder objektiv quantifizierbarer Nutzen unterstellt. Auch lassen sich Nutzendifferenzen zwischen verschiedenen Entscheidungen bilden und sinnvoll interpretieren. Höchst umstritten ist allerdings, ob Nutzen zwischen Individuen vergleichbar oder gar verrechenbar sind. Dies würde die überragende Mehrheit der Ökonomen wohl strikt verneinen. Die Alternative zur kardinalen besteht in der ordinalen Nutzentheorie. In dieser wird nicht mehr versucht, den Nutzen der Individuen quantitativ zu erfassen, sondern es wird nur noch auf vergleichende Bewertungen von Konsummöglichkeiten abgestellt. Damit können zwar Rangfolgen in der Bewertung des Konsums von Gütern aufgestellt werden, doch sagen diese nichts mehr über die zugrunde liegende Nutzendifferenz aus. Beide Nutzenkonzepte haben praktisch keinerlei direkten prognostischen Wert. Wer wann welches Wohlbefinden erlebt oder ob ein Haushalt seinen Nutzen maximiert, kann

1 Mikroökonomik

11

nicht beobachtet werden. Bei den verwendeten Nutzenkonzepten handelt es sich mithin um analytische Konstrukte. Diese haben sich allerdings als äußerst fruchtbar erwiesen. Kardinale Nutzentheorie Mit der kardinalen Theorie verbindet man vor allem die Gossenschen Gesetze. Sie wurden erstmalig von Hermann Heinrich Gossen (1854) formuliert, gelangten aber erst durch die Arbeiten von Menger, Jevons und Walras zu Bedeutung. Das erste Gossensche Gesetz, auch als Gesetz vom abnehmenden Grenznutzen bezeichnet, lautet in Gossens eigenen Worten: „Die Größe ein und desselben Genusses nimmt, wenn wir mit der Bereitung des Genusses ununterbrochen fortfahren, fortwährend ab, bis zuletzt Sättigung eintritt.“ Gemeint ist damit Folgendes: Betrachtet sei der Konsum eines bestimmten Gutes, zum Beispiel Brot, innerhalb eines bestimmten Zeitraums, etwa einer Woche. Dann hängt das Wohlbefinden (Nutzen) der betroffenen Person von der Menge des konsumierten Gutes ab, und zwar in der Weise, dass der Verzehr der ersten Gütereinheit, der ersten Scheibe, den höchsten Nutzen verschafft, die zweiten einen etwas geringeren, die dritte einen weiter verringerten Nutzen usw. Irgendwann wird der Punkt erreicht, an dem das zusätzliche Wohlbefinden einer weiteren Scheibe Brot auf null absinkt – man spricht dann von der Sättigungsmenge – und darüber hinaus sogar negativ wird. Der Zusammenhang zwischen Nutzen und der Konsummenge kann in einer sogenannten Nutzenfunktion abgebildet werden. Nimmt man etwa an, der Nutzen sei durch eine quadratische Funktion der folgenden Art beschrieben: U = ax – bx2, mit a, b > 0. Dann zeigt Abbildung 1.2 den Verlauf einer solchen Nutzenfunktion U. Es lässt sich erkennen, dass der Nutzen mit steigender Konsummenge zunächst ansteigt, die Steigung aber permanent abnimmt. Ab xS, der Sättigungsmenge, sinkt der Nutzen sogar mit weiter steigender Konsummenge. Der Grenznutzen dU/dx beschreibt den zusätzlichen Nutzen einer weiteren (infinitesimal kleinen) Konsumeinheit und entspricht der ersten Ableitung der Nutzenfunktion nach der Konsummenge. Der fallende Verlauf der Grenznutzenkurve dU/dx entspricht dem abnehmenden (zusätzlichen) Genuss bei fortwährend ausgedehntem Konsum, wie man ihn im ersten Gossenschen Gesetz unterstellt. Ordinale Nutzentheorie Natürlich ist es eine gewagte, nichtverifizierbare Annahme, Individuen eine kardinale Nutzenfunktion zuzuschreiben. Wer wäre schon dazu in der Lage anzugeben, wie genau die Nutzenunterschiede zwischen zwei unterschiedlichen Konsummengen sind. Selbst eine Aussage vom Typ: „Diese Konsummenge bereitet mir einen doppelten Nutzen wie jene Konsummenge“, dürfte den meisten Menschen unmöglich sein. Man ist zumeist allenfalls

12

Mathias Erlei

U,

dU dx

U

dU dx

xS

x

Abb. 1.2  Nutzen und Grenznutzen

dazu in der Lage zu sagen, welche Konsummenge oder welche Kombinationen von Gütern man vorzieht, und selbst dies ist nicht immer einfach. Diesem Einwand Rechnung tragend hat sich in der modernen Mikroökonomik die ordinale Nutzentheorie durchsetzen können. In dieser wird unterstellt, dass die Individuen die Nutzen verschiedener Bündel von Konsumgütern in eine Rangfolge bringen können. Ein Konsumbündel X besteht aus der Kombination der Mengen xi, die von jedem der i = 1, ..., N Güter konsumiert werden. Sie werden in Form eines Vektors zusammengefasst: X = (x1, x2, ..., xn). Man schreibt X1 ≻ X2 (bzw. X1 ≻ X2), wenn der betrachtete Haushalt das Konsumbündel 1 dem Konsumbündel 2 vorzieht (bzw. es mindestens gleich schätzt) und X1 ~ X2, wenn er keines der Bündel vorzieht, beide Bündel gleich bewertet, also indifferent ist. Die ordinale Nutzentheorie stellt einige Anforderungen an die Präferenzordnung der Haushalte, um eine sinnvolle Analyse gewährleisten zu können. Diese sind: (1) Die schwache Präferenzordnung ( ≻ ) ist vollständig: Für jedes Paar von Güterbündeln (X1, X2) ist zumindest eine der folgenden Bedingungen erfüllt: X1 ≻ X2 oder X2 ≻ X1. Dieser Anforderung gemäß kann jedes Individuum zwei Bündel miteinander vergleichen und bewerten. (2) Die schwache Präferenzordnung ist transitiv: Wenn X1 ≻ X2 und X2 ≻ X3, dann folgt daraus X1 ≻ X3. Wenn also ein Bündel 1 einem anderen Bündel 2 vorgezogen wird und dieses zweite Bündel wiederum einem dritten, dann wird auch das erste Bündel höher eingeschätzt als das dritte.

1 Mikroökonomik

13

(3) Die Indifferenz ist reflexiv (X1 ~ X1 für alle möglichen Güterbündel), symmetrisch (X1 ~ X2 => X2 ~ X1) und transitiv (X1 ~ X2 und X2 ~ X3 => X1 ~ X3). Hier wird postuliert, dass zwei identische Bündel auch gleich bewertet werden, dass die Reihenfolge der Auflistung der Bündel keine Rolle spielt und die Transitivität auch für die Indifferenzrelation erfüllt ist. (4) Wenn X0 ~ X1, X1 ≻ X2 und X2 ~ X3 => X0 ≻ X2 und X1 ≻ X3. Wenn Bündel 1 dem Bündel 2 strikt vorgezogen wird und außerdem Bündel 0 und Bündel 1 (bzw. Bündel 2 und Bündel 3) gleich bewertet werden, dann überträgt sich die strikte Ungleichheitsrelation auch auf die nicht in der Ungleichheitsrelation angeführten Bündel 0 und 3. Außerdem wird versucht, plausible Regelmäßigkeiten in der Bewertung von Güterbündeln durch entsprechende Annahmen abzubilden. Für ökonomische Untersuchungen sind regelmäßig nur solche Güter von Interesse, die knapp sind, d.h. deren zusätzlicher Konsum bei den Haushalten zu einer Erhöhung des Wohlbefindens führt. Es liegt also noch keine Sättigung vor. Vergleicht der Haushalt zwei Güterbündel miteinander und weist eines der Bündel von jeder Güterart eine mindestens genauso hohe Menge, für wenigstens eine Güterart eine strikt größere Menge auf, dann zieht der Haushalt das Bündel mit der reichhaltigeren Güterausstattung dem anderen Bündel vor. Etwas schwieriger ist es, Aussagen über Bündel zu treffen, bei denen einige Güterarten reichhaltiger, andere jedoch in geringerer Menge vorhanden sind. Für diese Fälle wird im Folgenden unterstellt, die Präferenzen erfüllen die Eigenschaft der Konvexität. Diese ist dadurch gekennzeichnet, dass man zwei Güterbündel miteinander vergleicht und anschließend Linearkombinationen aus beiden bildet, d.h. man nimmt a·100% aller Güter des einen Bündels und fügt ihnen (1 – a)·100% aller Güter des anderen Bündels hinzu. Dann muss für derartig konstruiertes Güterbündel gelten, dass es mindestens so hoch bewertet wird wie das nicht bevorzugte der ursprünglichen zwei Bündel. Formal lautet dies: Die Präferenzen sind konvex, wenn für jedes Paar Güterbündel X und X´ mit X  ≻  X´ und für jede Zahl a  ∈ [0,1] gilt, dass aX + (1 – a)X´ ≻ X´. Konvexität beinhaltet, dass Haushalte eine Vorliebe für gemischte Güterbündel aufweisen. Graphisch lässt sich dies am Verlauf von Indifferenzkurven im 2-Güter-Fall illustrieren. Eine Indifferenzkurve ist der geometrische Ort aller Gütermengenkombinationen, die dem Haushalt das gleiche Wohlbefinden (Nutzen) bereiten, d.h. die graphische Abbildung aller Gütermengenkombinationen, für die gilt Xi ~ Xj. Abbildung 1.3 zeigt einen möglichen Verlauf einer solchen Indifferenzkurve. Die durchgezogene Kurve U stellt eine Indifferenzkurve dar. Alle Güterbündel, die nord-östlich von U liegen, werden bevorzugt (Annahme der Nichtsättigung!). Güterbündel, die süd-westlich zur Indifferenzkurve liegen, weisen dementsprechend einen geringeren Nutzen auf. Wählt man willkürlich zwei Bündel auf U, X1 und X2, aus und ermittelt die Menge aller Linearkombinationen aus diesen beiden Bündeln, so ergibt sich die gestrichelte Gerade zwischen den beiden Bündeln. Wie nun ersichtlich ist, wird die Annahme der Konvexität erfüllt, da alle Punkte auf der Geraden nord-östlich von U oder auf U (die beiden Punkte X1 und X2) liegen.

14

Mathias Erlei

x1

X1

X2 U

x2 Abb. 1.3  Mögliche Indifferenzkurve für konvexe Präferenzen

Eine Indifferenzkurve zeigt auch an, auf wie viele Einheiten eines Gutes der Haushalt zu verzichten bereit ist, wenn er dafür eine zusätzliche Mengeneinheit des anderen Gutes erhält. Dieses Austauschverhältnis bezeichnet man als Grenzrae der Substitution, die in Abbildung 1.4 abgebildet ist. Ausgangspunkt ist ein Güterbündel, in dem nur eine geringe Menge des Gutes 2 enthalten ist. Um eine weitere Menge des wenig verfügbaren Gutes 2 zu erhalten, ist der Haushalt bereit, auf eine deutlich höhere Menge des reichhaltiger vorhandenen Gutes 1 zu verzichten (–Δx1). Bei einer mittleren Ausstattung mit beiden Gütern ist die Menge, die der Haushalt für eine zusätzliche Einheit von Gut 2 opfern würde, bereits deutlich geringer. Verfügt der Haushalt schon über sehr viele Einheiten des Gutes 2, ist nun also Gut 1 das relativ knapp vorhandene Gut, dann wird er nur noch sehr wenig von Gut 1 für eine weitere Einheit von Gut 2 abgeben. Der Zusammenhang, dass der Haushalt entlang einer Indifferenzkurve mit zunehmender Ausstattung eines Gutes (hier x2) immer weniger Einheiten des anderen Gutes dafür aufzugeben bereit ist, wird als abnehmende Grenzrate der Substitution bezeichnet. Ein konvexer Verlauf der Indifferenzkurve geht immer einher mit einer abnehmenden Grenzrate der Substitution. Der in Abbildung 1.4 dargestellte Verlauf der Indifferenzkurve bildet den „Normalfall“ konvexer Präferenzen. Zwei Extremfälle konvexer Präferenzen finden sich in Abbildung 1.5. Die durchgezogene Indifferenzkurve beschreibt den Fall vollkommener Substitutionalität, bei dem die Grenzrate der Substitution konstant ist. Dies trifft für Güter zu, die als uneingeschränkt austauschbar gelten. Man mag hier vielleicht an zwei fast identische Produkte verschiedener Hersteller denken, zum Beispiel Benzin der Unternehmen Aral oder Shell. Die andere Indifferenzkurve verläuft rechtwinklig und zeigt somit an, dass eine Substitution überhaupt nicht möglich ist, da beide Produkte sich (hier vollkommen) ergänzen. Ein Alltagsbeispiel für solche streng komplementären Güter ist etwa mit den Gütern

1 Mikroökonomik

15

Abb. 1.4  Abnehmende Grenzrate der Substitution

„Skibretter“ und „Skibindung“ gegeben. Der rechtwinklige Verlauf der Indifferenzkurve beinhaltet, dass – ausgehend vom Eckpunkt der Indifferenzkurve – trotz der einseitigen Erhöhung einer Gütermenge eine entsprechende Güterausstattung nicht vorgezogen wird. Bei strengen Komplementen benötigt man beide Produkte, so wie eine Skibindung ohne Skibretter nutzlos ist. Man beachte, dass auch die beiden Extremfälle mit einer Konvexität der Präferenzen vereinbar sind. Der Umgang mit einer ordinalen Präferenzordnung kann wesentlich vereinfacht werden durch die Einführung einer Nutzenindexfunktion. Eine Nutzenindexfunktion U(x1, x2, ..., xn) ordnet jedem möglichen Konsumbündel eine Indexzahl zu, so dass bevorzugte Bündel immer eine höhere Indexzahl aufweisen als die weniger erwünschten Bündel:

Abb. 1.5  Vollkommene Substitutionalität und Komplementarität

16

Mathias Erlei

X1 ≻ X2 => U(X1) > U(X2) und X1 ~ X2 => U(X1) = U(X2) für alle möglichen Konsumbündel. Man beachte, dass der Nutzenindex im Gegensatz zum kardinalen Nutzen nur die Rangfolge der Bewertung der Bündel zum Ausdruck bringt, nicht jedoch das damit verbundene Niveau des Wohlbefindens. Trotz dieser Unterschiede zwischen der kardinalen Nutzenfunktion und einer ordinalen Nutzenindexfunktion wird aus Gründen der besseren Lesbarkeit im Folgenden nur der kürzere Begriff Nutzenfunktion verwendet. Mit Hilfe der Nutzenfunktion lässt sich die Grenzrate der Substitution (GRS) auf einfachem Weg analytisch erfassen. Auf einer Indifferenzkurve werden alle Güterbündel als gleichwertig eingestuft, i.e. U(x1, x2) = U oder über das totale Differential dU =

∂U ∂U dx1 + dx2 = 0 ∂x1 ∂x2

Eine Umstellung dieser Gleichung führt zu ∂U dx1 ∂x2 =− = GRS12 . ∂U dx2 ∂x1 Diese GRS – im Folgenden werden die Subskripte nicht mehr angeführt – erklärt die Substitution von Gut 1 durch Gut 2 bei gleichbleibendem Nutzen. Diese entspricht dem negativen inversen Verhältnis der Indexgrenznutzen, d.h. der ersten Ableitungen der Nutzenfunktion nach den jeweiligen Gütern. Im Folgenden wird der Indexgrenznutzen schlicht als Grenznutzen bezeichnet. Die Formulierung über die Infinitesimalrechnung impliziert jedoch eine extrem kleine Einheit der Veränderung von x2, streng genommen muss ihr Grenzwert gegen null streben. Damit entspricht die GRS der Steigung der Indifferenzkurve. Eine monotone Transformation der Nutzenfunktion, also eine solche Transformation, die die Rangfolge der Nutzenindizes unverändert lässt – z.B. eine Multiplikation mit einer positiven Konstante oder der Logarithmus der ursprünglichen Nutzenfunktion –, hat keinen Einfluss auf die GRS. Entspricht etwa die neue Nutzenfunktion V dem Logarithmus der alten Nutzenfunktion U, also es gilt V = ln(U(x1,x2)), so folgt ⎛ dV ∂U ⎞⎟ ⎛ 1 ∂U ⎞⎟ ⎜⎜ ⎜⎜ ⎟⎟ ⎟ ∂U ⎜⎝ dU ∂x ⎟⎠ ⎜⎝U ∂x ⎟⎟⎠ dx1 ∂x2 2 2 GRS = =− =− =− . ⎛ dV ∂U ⎞⎟ ⎛ 1 ∂U ⎞⎟ ∂U dx2 ⎜⎜ ⎜ ∂x ⎟ ⎟⎟ ⎜⎜ 1 ⎜⎝ dU ∂x ⎟⎟⎠ ⎝U ∂x1 ⎟⎠ 1 Ein Beispiel für eine Nutzenfunktion, die konvexe Präferenzen abbildet, ist die CobbDouglas-Funktion (CDF) U = x1α x2–α. Aus dieser ergibt sich die folgende Formel zur Bestimmung der GRS

1 Mikroökonomik

GRS = −

∂U ∂U

∂x2 ∂x1

17

=−

(1−α)x1α x2−α (1−α)x1 = . αx1α−1 x1−α αx2 2

Die entsprechenden Indifferenzkurven sind gegeben durch x1 =

U

1

α

(1−α)

x2

α

.

Abbildung 1.6 zeigt eine graphische Darstellung der Nutzenfunktion (links) und des Verlaufs einiger Indifferenzkurven für α = ½ (rechts). Haushaltsoptimum Der ökonomische Ansatz unterstellt, dass der Haushalt als Homo Oeconomicus zielsicher das Konsumbündel auswählt, das sein individuelles Wohlbefinden maximiert. Gegeben die Nutzenfunktion des Haushalts und seine Budgetrestriktion entspricht das ausgewählte Bündel der Lösung seines individuellen Nutzenmaximierungskalküls Maximiere U(x1, x2, ..., xn) über die Variablen x1, x2, ..., xn unter Berücksichtigung der Nebenbedingung y = p1x1 + p2x2 + ... + pnxn, die seinen Konsummöglichkeitenraum einschränkt. In der modernen Volkswirtschaftslehre ist es üblich, solche Optimierungskalküle mithilfe der Lagrange-Technik zu lösen. Dabei wird das Optimierungsproblem in einer einzigen Gleichung, die es anschließend zu maximieren gilt, zusammengefasst. Diese sogenannte Lagrange-Funktion besteht aus der ursprünglichen Zielfunktion, die (additiv) ergänzt wird um einen oder mehrere Terme, die jeweils eine bestimmte einzuhaltende Nebenbedingung repräsentieren. x1

U=4 U=2

x2 x1

Abb. 1.6  Cobb-Douglas-Nutzenfunktion

U=1

x2

18

Mathias Erlei

Dazu werden die Nebenbedingungen so umgestellt, dass auf der rechten Seite der Gleichung nur noch eine Null steht und alle anderen Terme entsprechend auf der linken Seite der Bedingungen zu finden sind. In dem hier zu lösenden Nutzenmaximierungs-Kalkül wird also folgende Schreibweise der Nebenbedingung vorgenommen: y – p1x1 – p2x2 – ... – pnxn = 0. Die linke Seite der Nebenbedingung wird anschließend mit einem sogenannten Lagrange-Multiplikator – im Folgenden oftmals mit λ bezeichnet – multipliziert. Dieses Produkt wird der Zielfunktion additiv hinzugefügt. Führt man dieses Verfahren für alle Nebenbedingungen durch, so erhält man die Lagrange-Funktion, die in dem hier zu lösenden Optimierungsproblem wie folgt lautet: L = U(x1, x2, …, xn) + λ[y – p1x1 – p2x2 – … – pnxn]. Die Lagrange-Funktion wird anschließend über alle Entscheidungsvariablen x1, ..., xn sowie über alle Lagrange-Multiplikatoren – in unserem Beispiel also nur über λ – maximiert. Dazu bildet man die partiellen Ableitungen der Lagrange-Funktion nach den Entscheidungsvariablen sowie den Lagrange-Multiplikatoren und setzt diese gleich null. Die entsprechenden Gleichungen bilden die Bedingungen erster Ordnung für ein Maximum der Lagrange-Funktion, mit deren Hilfe – durch Auflösen des entsprechenden Gleichungssystems nach den Entscheidungsvariablen und den Lagrange-Multiplikatoren – die möglichen Kandidaten für ein Maximum ermittelt werden können. Damit tatsächlich ein Maximum vorliegt, müssen noch weitere Bedingungen erfüllt sein – die sogenannten Bedingungen zweiter Ordnung. Alle in diesem Text formulierten Optimierungsprobleme sind so strukturiert, dass sie die entsprechenden Bedingungen erfüllen. Da zudem die Bedingungen zweiter Ordnung für das weitere Verständnis von nachrangiger Bedeutung sind, werden sie im Folgenden vernachlässigt. Der Leser sei hier auf die entsprechende Lehrbuchliteratur (z. B. Chiang 1967) verwiesen. Somit ergeben sich aus der Lagrange-Funktion die folgenden n+1 Bedingungen erster Ordnung für ein Nutzenmaximum: ∂L ∂U = −λpi = 0, i = 1,...,n und ∂x1 ∂x1 ∂L = y − p1 x1 − p2 x2 −...− pn xn = 0. ∂λ Aus den ersten N Gleichungen folgt ∂U ∂U ∂U ∂x1 ∂x2 ∂xn = = ...= == λλ p1 p2 pn In der kardinalen Nutzentheorie werden diese Gleichungen als zweites Gossensches Gesetz bezeichnet und liefern zugleich eine anschauliche Interpretation. Die Terme ∂U/∂xi/pi entsprechen dem sogenannten Grenznutzen des Geldes. Der Zähler entspricht dem bereits bekannten Grenznutzen und dieser wird durch den Preis des jeweiligen Gutes dividiert. Der Bruch lässt sich dann als der zusätzliche Nutzen interpretieren, der durch

1 Mikroökonomik

19

die letzte für Gut i ausgegebene Geldeinheit erzielt wird. Das zweite Gossensche Gesetz besagt, dass die Grenznutzen des Geldes im Optimum für alle Güter gleich hoch sein müssen. Dieses Genussausgleichgesetz ist intuitiv leicht erfassbar: Das Einkommen wird durch die Budgetrestriktion zum bindenden Engpass und muss damit möglichst wirkungsvoll eingesetzt werden. Wäre jedoch der Grenznutzen des Geldes zwischen zwei Gütern unterschiedlich, also etwa der Grenznutzen des Geldes für Gut 1 größer als der für Gut 2, dann kann der Haushalt seinen Nutzen durch Umschichtung seiner Geldausgaben erhöhen. Dazu kürzt er seine Ausgaben für Gut 2 um eine Geldeinheit, was eine Nutzeneinbuße in Höhe des entsprechenden Grenznutzen des Geldes verursacht, und gibt diese Geldeinheit anschließend für den Kauf von Gut 1 aus, was ihm einen Nutzenzuwachs in Höhe dieses Grenznutzen des Geldes einbringt. Da der Grenznutzen des Geldes bei Gut 1 höher ist, resultiert netto ein Nutzenzuwachs. Solange also die Grenznutzen des Geldes unterschiedlich hoch sind, wird der Haushalt als Homo oeconomicus sein Budget umschichten und damit seinen Nutzen steigern. Im Optimum sind solche Nutzenzuwächse nicht mehr realisierbar und es gilt das zweite Gossensche Gesetz. In der ordinalen Nutzentheorie existiert keine derartig anschauliche Interpretation, da Differenzen im ordinalen Nutzenindex die Grenznutzeninterpretation nicht mehr zulassen. Statt dessen kann das Optimum mit Hilfe der Grenzrate der Substitution veranschaulicht werden. Wählt man von den ersten N Bedingungen erster Ordnung zwei beliebige – etwa die Gleichungen für xj und xk – aus und eliminiert man λ, so ergibt sich die folgende Eigenschaft für das Haushaltsoptimum: ∂U ∂U

∂x j ∂xk

=

pj . pk

Damit muss im Optimum gelten, dass das Verhältnis der Indexgrenznutzen dem Güterpreisverhältnis entspricht. Das Verhältnis der Grenznutzen entspricht dem negativen Kehrwert der Grenzrate der Substitution, so dass im Haushaltsoptimum schließlich die Grenzrate der Substitution gleich dem negativen, inversen Güterpreisverhältnis ist, so dass ∂U ∂U ∂U p jp j ∂x j p ∂x dxdx dx∂x k k kj j GRS GRS== = GRS = −−= = == − . . = j. ∂U ∂U ∂U dxdx dx j pkpk pk j j ∂x∂x ∂xk k k Abbildung 1.7 zeigt die graphische Darstellung des Haushaltsoptimums. Das Ziel der Nutzenmaximierung ist gleichbedeutend damit, dass der Haushalt versucht, auf eine Indifferenzkurve zu kommen, die möglichst weit außen liegt, aber zugleich mit der Budgetgeraden vereinbar ist. Dies wird genau dann erreicht, wenn eine konvexe Indifferenzkurve die Budgetgerade tangiert, was im Punkt (x1*, x2*) der Fall ist.

20

Mathias Erlei

Abb. 1.7  Haushaltsoptimum

1.2.1.3 Güternachfrage In diesem Abschnitt wird – ausgehend vom soeben abgeleiteten Haushaltsoptimum – die Frage nach den Determinanten der Güternachfrage erneut aufgenommen. Dazu werden im Folgenden der Einfluss des eigenen Preises, anderer Preise und des Einkommens auf die Güternachfrage besprochen. Als Erstes wird der Einfluss des Einkommens auf die Güternachfrage betrachtet. Wie bereits erläutert, bewirkt eine Erhöhung (Senkung) des Einkommens eine Parallelverschiebung der Budgetgeraden nach außen (innen). Dieser Fall ist im linken Quadranten der Abbildung 1.8 für drei verschiedene Einkommen dargestellt. Außerdem wurden noch die entsprechenden Haushaltsoptima einschließlich der jeweiligen Indifferenzkurven eingetragen.

Abb. 1.8  Einkommen-Konsum- und Engel-Kurve (superiore Güter)

1 Mikroökonomik

21

Die abgebildeten Optima sind nur drei willkürlich herausgegriffene Fälle. Für jedes beliebige Einkommen y lässt sich eine Budgetgerade mit entsprechendem Optimum konstruieren. Die Verbindung aller dieser Optima bildet die sogenannte Einkommen-Konsum-Kurve (E-K-K), die im linken Quadranten beispielhaft eingezeichnet ist. Jeder Budgetgeraden aus dem linken Quadranten wird im rechten Quadranten das entsprechende Einkommen zugeordnet. Durch Übertragung der x1-Menge in den jeweiligen Haushaltsoptima in den rechten Quadranten, kann der Zusammenhang zwischen dem Einkommen und der Nachfrage nach Gut 1 graphisch dargestellt werden. Führt man diesen Prozess für alle denkbaren Einkommen durch, so ergibt sich als Verbindungslinie die Engel-Kurve. In Abbildung 1.8 verlaufen beide Kurven steigend. Dass dies nicht zwangsläufig so sein muss, zeigt Abbildung 1.9, in der die Einkommens-Konsum- und die Engel-Kurve für inferiore Güter dargestellt werden. Der zentrale Unterschied zu Abbildung 1.8 liegt darin, dass die Hauhaltsoptima jetzt an anderen Stellen eingezeichnet wurden. Diese sind mit den bisher angeführten Annahmen ebenso gut vereinbar wie die Optima in Abbildung 1.8. Prinzipiell sind also beide Verläufe vorstellbar. Um die Fälle voneinander zu unterscheiden, werden Güter mit steigenden Einkommens-Konsum- und Engel-Kurven als superiore, solche mit fallenden Verläufen als inferiore Güter bezeichnet. Welchen Verlauf die Engel-Kurve für ein Gut exakt aufweist, hängt von der konkreten Ausformulierung der Nutzenfunktion ab. Inferiore Güter werden also mit steigendem Einkommen weniger nachgefragt. Typischerweise sind dies Güter des alltäglichen Bedarfs, die erst mit einem höheren Einkommen durch anspruchsvollere Produkte ersetzt werden. Man denke hier etwa an ein einfaches Reisgericht, das bei höherem Einkommen gelegentlich durch ein Gourmet-Menu ersetzt wird.

Abb. 1.9  Inferiore Güter

22

Mathias Erlei

Die Unterscheidung der beiden Güterarten ist auch anhand der Einkommenselastizität möglich. Sie beschreibt, um wie viel Prozent die nachgefragte Menge nach Gut i steigt, wenn das Einkommen um ein Prozent zunimmt: ηy =

∂xi y ∂y xi

⎡ ∂xi xi ⎤ ⎢= ⎥. ⎢ ∂y y ⎥ ⎣ ⎦

Der zweite Bruch auf der rechten Seite der Gleichung ist immer positiv, der erste hingegen kann positiv oder negativ ausfallen. Ist die Elastizität positiv (negativ), handelt es sich um ein superiores (inferiores) Gut. Für den Sonderfall ηy > 1 hat sich der Begriff Luxusgut etabliert, da solche Güter mit höherem Einkommen überproportional nachgefragt werden. In der Ökonomik spielen Preise eine zentrale Rolle. Der Wirkung von Preisen auf die Güternachfrage lässt sich unterscheiden in den Einfluss des Preises für das betrachtete Gut und in den Einfluss anderer Preise. Die Bedeutung des Eigenpreises wird in Abbildung 1.10 illustriert. Im oberen Quadranten wurde diesmal nicht das Einkommen, sondern der Preis des Gutes 1 (hier: auf der Abszisse!) variiert. Eine Erhöhung (Senkung) von p1 führt zu einer Drehung der Budgetgeraden um den Ordinatenabschnitt nach innen (außen). Wieder sind drei exemplarische Optima eingezeichnet und eine Verbindungslinie, die die Menge der Haushaltsoptima für alle denkbaren Preise des Gutes 1 darstellt. Diese Kurve bezeichnet man auch als Preis-Konsum-Kurve (P-K-K). Jeder Budgetgeraden des oberen Quadranten lässt sich ein Preis des Gutes 1 zuordnen, was im unteren Quadranten erfolgt. Überträgt

Abb. 1.10  Marshallsche Nachfragekurve (Normalfall)

1 Mikroökonomik

23

man die entsprechenden Nachfragemengen x1 in den unteren Quadranten und ordnet sie dem jeweils zugeordneten Preis zu, erhält man die (Marshallsche) Nachfragekurve x1(p1). Die Marshallsche Nachfragekurve in Abbildung 1.10 weist den normalen fallenden Verlauf auf, der impliziert, dass mit sinkendem Preis des Gutes eine größere Menge des Gutes nachgefragt wird. Diese Aussage dürfte sicher auf die meisten Güter zutreffen, ist aber nicht zwangsläufig aus den bisher präsentierten Annahmen abzuleiten. Wenn die Haushaltsoptima wie in Abbildung 1.11 liegen, ist grundsätzlich auch ein steigender Verlauf der Nachfragekurve möglich. Man spricht in diesem Fall von einem sogenannten Giffen-Gut. Ob ein Gut ein normales oder ein Giffen-Gut ist, verbleibt letztlich eine empirische Frage. Ein typisches Giffen-Gut wäre etwa ein billiges Grundnahrungsmittel in einer sehr armen Gesellschaft. Wenn bei diesem eine Preissenkung erfolgt, ist es denkbar, dass die eingesparten Ausgaben dafür genutzt werden, die eine oder andere Mahlzeit mit hochwertigeren Nahrungsmitteln auszustatten und damit den Konsum des Grundnahrungsmittels einzuschränken. Die Unterscheidung in ein normales und ein Giffen-Gut ist wieder anhand einer Elastizität möglich, hier der Preiselastizität der Nachfrage: ηy =

∂xi pi . ∂ pi xi

Abb. 1.11  Nachfrage nach einem Giffen-Gut

24

Mathias Erlei

Die Preiselastizität der Nachfrage gibt an, um wie viel Prozent die Nachfrage nach Gut i variiert, wenn der Preis des Gutes i um ein Prozent steigt. Ist diese negativ (positiv), handelt es sich um ein normales Gut (Giffen-Gut). Es bleibt noch zu erwähnen, dass die Preiselastizität entlang einer Nachfragekurve im Regelfall nicht konstant ist. Nimmt man etwa die einfache lineare Nachfragefunktion x = a – bp, ergibt sich die in Abbildung 1.12 abgebildete Struktur der Elastizitäten. An der Stelle x = 0 wird der Nenner der Elastizitätsformel null, so dass die Elastizität nur als Grenzwert bestimmbar ist und gegen minus unendlich strebt. Beim Abszissenschnittpunkt bei p = 0 wird der Zähler null, und genau auf der Hälfte der beiden Punkte nimmt die Elastizität den Wert –1 an. Damit bleibt noch der Einfluss der Preise anderer Güter auf die Nachfrage eines Gutes zu untersuchen. Das Vorgehen entspricht demjenigen, das schon bei der Eigenpreisabhängigkeit erläutert wurde. Der einzige Unterschied besteht darin, dass jetzt im Mengendiagramm der Preis des anderen Gutes variiert wird. Abbildung 1.13 zeigt die Ableitung einer Preis-Konsum- und einer Nachfragekurve für zwei Substitute, also zwei Güter, die sich potentiell ersetzen können. In solchen Fällen führt die Preiserhöhung bei Gut 2 dazu, dass der Haushalt das teurer gewordene Gut 2 durch Gut 1 ersetzt. Typische Substitute dienen derselben Bedürfnisbefriedigung wie etwa Cord- und Jeanshosen beide als Beinkleider dienen oder Kaffee und Tee einander als anregende Getränke ersetzen können.

p a b

η→–∞

η=–1

1a 2b

η=0 1 a 2 Abb. 1.12  Preiselastizität der Nachfrage

a

x

1 Mikroökonomik

25

x2 x 2 (p02 )

P-K-K x2 = x2(x1*,p2)

x 2 (p'2 ) x 2 (p''2 )

x1 p2 p''2

x1 = x1(p2)

p'2 p02

x1

Abb. 1.13  Substitute

Auch hier ist der Verlauf der Nachfragekurve nicht zwingend. Eine andere Anordnung der Optima im oberen Quadranten kann zu einer fallenden Nachfragekurve x1(p2) führen. Dieser Fall wird in Abbildung 1.14 dargestellt. Warum aber sollte die Nachfrage nach Gut 1 sinken, wenn Gut 2 teurer wird? Dies ist dann plausibel, wenn die beiden Güter einander ergänzen. Man denke etwa an Druckpapier und Druckerpatronen. Steigt der Preis für Druckpatronen an, so werden Haushalte tendenziell weniger Seiten am PC ausdrucken wollen, was letztlich auch einen Rückgang der Nachfrage nach Druckpapier zur Folge hat. Güter, die in einem derartigen Verhältnis zueinander stehen, werden als Komplemente bezeichnet. Die Kreuzpreisabhängigkeiten lassen sich wieder anhand von Elastizitäten formulieren. Die Kreuzpreiselastizität der Nachfrage wird definiert als ηij =

∂xi p j . ∂ p j xi

Sie gibt an, um wie viel Prozent die Nachfrage von Gut i variiert, wenn der Preis eines anderen Gutes j um ein Prozent erhöht wird. Ist sie größer (kleiner) als null, sind die Güter Substitute (Komplemente). Mit den inzwischen beschriebenen drei verschiedenen Elastizitäten lassen sich sieben Güterkategorien unterscheiden. Tabelle 1.1 fasst diese noch einmal zusammen.

26

Mathias Erlei

Abb. 1.14  Komplemente Tab. 1.1  Nachfrageelastizitäten und Güterkategorien Elastizität

Definition

Preiselastizität der Nachfrage

η=

∂xi p ∂ p xi

Einkommenselastizität der Nachfrage

ηy =

∂xi y ∂y xi

Kreuzpreiselastizität der Nachfrage

ηij =

∂xi p j ∂ p j xi

Güterkategorie  0 → Giffen-Gut  0 → superiores Gut > 1 → Luxusgut > 0 → Substitute 0. dN ∂U ∂x dU = 0 =

Die GRS zwischen Konsum und Arbeit ist hier positiv, da Arbeit als Ungut angesehen wird, also als etwas, was einen negativen Nutzen, den Verlust an Freizeit, verursacht. Die positive GRS besagt mithin, dass eine steigende Arbeitszeit N nur dann mit gleichem Nutzen vereinbar ist, wenn zugleich auch der Güterkonsum x steigt. Dies berücksichtigend lässt sich aus den ersten beiden Bedingungen erster Ordnung auch die folgende Gleichung ableiten

1 Mikroökonomik

31

⎡ dx ⎤ ∂U ∂F w ⎢GRS = =⎥ = . ⎢⎣ dN ⎥⎦ ∂U p ∂x Die GRS muss folglich dem inversen Preisverhältnis entsprechen. Das Preisverhältnis w/p bezeichnet man auch als Reallohn. Der Reallohn gibt an, wie hoch der Marktlohn in Gütereinheiten (und nicht in Geldeinheiten) ist. Dies wird schnell ersichtlich, wenn man sich die Dimensionen des Reallohnes vergegenwärtigt. w hat die Dimension Geldeinheit pro Arbeitseinheit (€/h), p die Dimension Geldeinheiten pro Gütereinheit (€/Brot). Teilt man w durch p, ergibt sich die Dimension Gütereinheit pro Arbeitseinheit (Brote/h). Der Reallohn gibt somit die reale Kaufkraft des Lohnsatzes wieder. Abbildung 1.16 zeigt die graphische Darstellung dieses Ergebnisses. Die Budgetgerade, aufgelöst nach x, entspricht x  =  (w/p)N, die Indifferenzkurven verlaufen konvex steigend. Je höher eine Indifferenzkurve liegt, desto höher ist auch der ihr zugeordnete Nutzen(-index). Die höchste mit der Budgetgeraden vereinbare Indifferenzkurve tangiert diese, was exakt einer Identität von GRS und inversem Preisverhältnis entspricht. Aus diesen Überlegungen lässt sich grundsätzlich auch eine Arbeitsangebotsfunktion ableiten. Im oberen Quadranten von Abbildung 1.17 sind drei verschiedene Größen für w/p eingezeichnet. Mit steigendem Lohnsatz wird die jeweilige Budgetgerade steiler. Ausgehend von den eingezeichneten Haushaltsoptima werden die Arbeitsangebotsmengen in den unteren Quadranten übertragen. Auf Höhe der jeweils entsprechenden Reallöhne (w/p) werden schließlich die Punkte der Arbeitsangebotskurve eingezeichnet. Führt man diesen Prozess für alle Reallöhne durch und verbindet die resultierenden Punkte, so erhält man die Arbeitsangebotskurve (vgl. auch Kapitel 15 (Band 3)).

Abb. 1.16  Arbeitsangebot und Güterkonsum

32

Mathias Erlei

Abb. 1.17  Arbeitsangebotsfunktion

Auch hier muss allerdings eingeräumt werden, dass der Verlauf der Angebotskurve nicht eindeutig ist. Ordnet man die Haushaltsoptima etwa so an, dass sie von links-oben nach rechts-unten verlaufen, dann ergibt sich eine fallende Angebotskurve. Ursache hierfür ist wieder, dass Substitutions- und Einkommenseffekt in unterschiedlichen Richtungen verlaufen können. Der Substitutionseffekt ist erneut eindeutig. Mit steigendem Lohnsatz steigt das Arbeitsangebot. Beim Einkommenseffekt ist es jedoch in keiner Weise unplausibel anzunehmen, dass eine Erhöhung des Einkommens – etwa durch einen exogenen Vermögenszuwachs, der die Budgetrestriktion parallel nach außen verschiebt – zu einer Reduzierung des Arbeitsangebotes führt. Damit wirken die beiden Effekte in unterschiedlicher Richtung und es kann nur empirisch geklärt werden, welcher Effekt dominiert. Die Arbeitsangebotskurve dürfte im Regelfall einen Verlauf haben, wie er in Abbildung 1.18 dargestellt ist. Liegt der Lohnsatz nahe beim Existenzminimum, so wird der Haushalt praktisch seine gesamte verfügbare Zeit zur Arbeit verwenden (müssen). Steigt in einer solchen Situation der Lohnsatz an, ist davon auszugehen, dass die betroffene Person eine extrem hohe Vorliebe für die bislang nicht vorhandene Freizeit hat, i.e. der Einkommenseffekt wird den Substitutionseffekt klar dominieren. Ab einem bestimmten Niveau der verfügbaren Freizeit nimmt dann die relative Bedeutung der Konsumgüterversorgung wieder zu, so dass schließlich die Angebotskurve einen „normalen“ Verlauf annimmt. Steigt der Lohnsatz immer weiter an, dann wird die Güterversorgung irgendwann so reichhaltig ausfallen, dass zusätzlicher Freizeitnutzen zunehmend an Bedeutung gewinnt und schließlich – über den Einkommenseffekt – dominant wird.

1 Mikroökonomik

33

Abb. 1.18  Eine plausible Arbeitsangebotsfunktion

Kapitalangebot Das Kapitalangebot der Haushalte ist das Ergebnis einer intertemporalen Konsumoptimierung. Haushalte bieten Kapital an, d.h. sie sparen Teile ihres Einkommens, um es verzinslich anzulegen und sich dadurch in der Zukunft einen höheren Konsum leisten zu können. Um das Kapitalangebot bestimmen zu können, ist ein Mehrperioden-Modell erforderlich. Dieses wird aus Gründen der Übersichtlichkeit auf zwei Perioden beschränkt. Auch für den Kapitalmarkt wird im Folgenden von einem Mengenanpasserverhalten aller Beteiligten ausgegangen, d.h. einzelne Akteure sehen sich außerstande, den Marktpreis spürbar zu beeinflussen. Aus dieser Annahme ergibt sich aus der Sicht des Individuums ein exogen gegebener Zinssatz r und damit ein Diskontfaktor von 1/(1 + r). Ein Einkommen erzielt das betrachtete Individuum nur in Periode 1, der Erwerbsphase. In Periode 2, der Pensionierungsphase, lebt der Haushalt nur von seinen Kapitaleinkünften. Es gebe wieder nur ein Konsumgut, das man sich wohl besser als Konsumbündel vorstellt. Es wird angenommen, dass der Preis p in beiden Perioden konstant bleibt. Der Haushalt hat damit zwei Budgetrestriktionen, eine für Periode 1 und eine für Periode 2. In Periode 1 kann er sein Einkommen entweder für unmittelbaren Konsum ausgeben oder es sparen (s): y1 = px1 + s. Das Einkommen in Periode 2 entspricht dem verzinsten Sparbetrag aus Periode 1, also (1 + r)s, und kann nur für Konsumzwecke ausgegeben werden. Damit wird von der Möglichkeit abstrahiert, Geld zu vererben oder als Sicherheit für eine möglicherweise längere Lebenszeit aufzubewahren. Für Periode 2 gilt damit (1 + r) s = px2. Löst man die erste Restriktion nach s auf, setzt den entsprechenden Term in die zweite Restriktion ein und löst nach y auf, ergibt sich die zusammengefasste Budgetrestriktion (bei eliminiertem s): px y1 = px1 + 2 . 1+ r

34

Mathias Erlei

In diesem Modell zieht der Haushalt seinen Nutzen ausschließlich aus dem Konsum in den beiden Perioden, U = U(x1, x2). Daraus ergibt sich der über x1, x2 und λ zu maximierende Lagrange-Ansatz ⎡ px ⎤ L = U ( x1 , x2 ) +λ ⎢ y1 − px1 − 2 ⎥ . ⎢⎣ 1+ r ⎥⎦ Die Bedingungen erster Ordnung für ein Nutzenmaximum lauten ∂L ∂U = −λp = 0 ∂x1 ∂x1 ∂L ∂U λp = − =0 ∂x2 ∂x2 1+ r ∂L px = y1 − px1 − 2 = 0. ∂λ 1+ r Aus den ersten beiden Bedingungen ergibt sich durch Elimination von λ ∂U ∂U ∂x1 ∂x2 = . (1+ r)p p Diese Bedingung lässt sich aus Sicht der kardinalen Nutzentheorie wieder als Gleichheit der Grenznutzen des Geldes in allen Verwendungsrichtungen interpretieren. Zwar ist der Güterpreis in beiden Perioden derselbe, doch muss er für Periode 1 um die entgangene Verzinsung korrigiert werden: Für jede in Periode 1 nicht ausgegebene Geldeinheit verfügt der Haushalt in Periode 2 über (1 + r) Geldeinheiten und kann somit eine größere Anzahl von Gütern erwerben. Für die Interpretation der Bedingungen aus der Perspektive der ordinalen Nutzentheorie muss wieder auf die Grenzrate der Substitution zurückgegriffen werden: dU = 0 =

∂U ∂U dx1 + ∂x1 ∂x2

⇔ GRS =

∂U dx1 ∂x2 =− . ∂U dx2 ∂x1

Die ersten beiden Bedingungen erster Ordnung könne auch wie folgt zusammengefasst werden: ∂U dx1 1 ∂x2 =− =− . ∂U dx2 1+ r ∂x1 In Worten: Die Grenzrate der Substitution entspricht im Haushaltsgleichgewicht dem negativen inversen Preisverhältnis p/((1+r)p). Graphisch interpretiert impliziert dies erneut, dass die im Optimum geltende Indifferenzkurve die Budgetgerade tangiert. Diese Konstellation wird in Abbildung 1.19 dargestellt.

1 Mikroökonomik

35

Abb. 1.19  Kapitalangebot

Die Achsenabschnitte der Budgetgeraden zeigen, wie viel der Haushalt maximal von Gut 1 bzw. Gut 2 konsumieren kann. Aufgrund der Verzinsung des angesparten Kapitals fällt dieser maximale Konsum in Periode 2 größer aus als in Periode 1. Die entsprechende Steigung der Budgetgeraden beträgt –1/(1 + r). Das Sparen in Periode 1 beläuft sich auf s = y1 – px1. Teilt man beide Seiten der Gleichung durch p, ergibt sich das reale Sparen, also das in Gütereinheiten berechnete Sparen. Dieses ist in Abbildung 1.19 auf der Ordinate eingezeichnet worden. Auf der Abszisse ist das reale (Kapital-) Einkommen (1 + r)s/p abgetragen. Wie zuvor lässt sich auch hier auf graphischem Weg eine Kapitalangebotsfunktion ableiten. Dazu variiert man den Zinssatz r. Da hier unterstellt wird, dass nur in Periode 1 ein Einkommen erzielt wird, dreht sich die Budgetgerade mit steigendem Zins im Punkt y

Abb. 1.20  Kapitalangebotsfunktion

36

Mathias Erlei

auf der Ordinate nach rechts; ihre Steigung –1/(1 + r) nimmt somit betragsmäßig ab. Wie üblich werden anschließend die resultierenden Haushaltsoptima eingezeichnet und die resultierenden Sparvolumina ermittelt. Diese werden sodann in einem eigenen Quadranten den Zinssätzen zugeordnet, so dass eine Kapitalangebotsfunktion resultiert. Abbildung 1.20 zeigt ein solches Vorgehen. Weil die Haushaltsoptima im linken Quadranten von links oben nach rechts unten angeordnet sind, ergibt sich ein steigender Verlauf der Angebotskurve. Grundsätzlich ist es auch möglich, dass die Optima von links unten nach rechts oben angeordnet werden könnten. In einem solchen Fall ergäbe sich eine fallende Kapitalangebotsfunktion. Wie schon zuvor ist auch hier der Substitutionseffekt eindeutig in dem Sinn, dass eine Zinserhöhung zu einem Anstieg des Sparen führt. Der Einkommenseffekt kann wiederum beide Richtungen aufweisen, zumeist wird aber als plausibel angesehen, dass eine Einkommenserhöhung c.p. zu einer Kosumsteigerung in beiden Perioden führt. Dies impliziert, dass der Einkommenseffekt positiv wäre, also das Sparen abnimmt. Substitutions- und Einkommenseffekt wirken also in entgegengesetzten Richtungen, womit sich die empirische Frage nach der relativen Größe der Effekte stellt, die in der Regel zugunsten des Substitutionseffekts ausfällt.

1.2.1.6 Entscheidungen bei Unsicherheit In den bis hier vorgestellten Modellen wurde davon ausgegangen, dass die Folgen einer Entscheidung eindeutig vorgegeben sind. In vielen anderen Entscheidungsproblemen trifft das jedoch nicht zu. Man denke etwa an den Nutzen, den man aus einem Kinobesuch zieht. Wenn man den Film noch nicht kennt, ist es kaum möglich, schon vorab eine eindeutige Nutzeneinschätzung abzugeben. Oder noch viel schwieriger: Wenn man Aktien kauft, ist es kaum möglich vorherzusagen, wie hoch die Rendite des Erwerbs nach sechs Monaten ist. Es lassen sich beliebig viele weitere Beispiele anführen, bei denen die individuellen Nutzeneinschätzungen – selbst in Form einer ordinalen Rangbildung – nicht eindeutig vorhersagbar sind. Die Ursache für die Schwierigkeit in der Bewertung liegt vor allem im Zufall begründet. Niemand kann mit Sicherheit prognostizieren, wie hoch der Wechselkurs des US-Dollar in drei Monaten sein wird. Zu viele Faktoren nehmen Einfluss auf Wechselkurs- oder Aktienkursentwicklungen. Auch sind nicht alle Kinofilme gleichermaßen unterhaltsam. Wann immer der Zufall einen Einfluss auf die Umweltzustände oder auf die Bewertung von Umweltzuständen ausübt, ist es nicht mehr möglich, einen eindeutigen Zusammenhang zwischen Entscheidung und anschließendem Nutzen aufzubauen. Dennoch ist die Einschätzung der Folgewirkungen einer Entscheidung nicht völlig willkürlich. Es gibt Erfahrungstatbestände, die es dem Individuum ermöglichen, grobe Schätzungen über die Folgewirkungen vorzunehmen. Geht man etwa in einen Kinofilm, so mögen der Regisseur des Films oder einige der Hauptdarsteller gute Orientierungsgrößen für den folgenden Filmgenuss sein. Auch kann man über Wechsel- und Aktienkurse Erwartungen bilden. Wie die konkrete Erwartungsbildung vonstattengeht, ist ein komplizierter und bis heute nur in Ansätzen erfasster Prozess. Im Folgenden wird nur eine

1 Mikroökonomik

37

spezielle Form der Zukunftsunsicherheit berücksichtigt, in der es möglich ist, allen denkbaren Umweltzuständen und ihrer jeweiligen Bewertung Eintrittswahrscheinlichkeiten zuzuordnen. Man spricht in diesem Fall von Risiko im Gegensatz zur Unsicherheit i.e.S., bei der es nicht möglich ist, solche Eintrittswahrscheinlichkeiten zu bestimmen. Beim Risiko werden des Weiteren zwei Fälle unterschieden, nämlich die des Vorliegens von subjektiven bzw. objektiven Eintrittswahrscheinlichkeiten. Objektive Eintrittswahrscheinlichkeiten liegen zum Beispiel beim Wurf eines Würfels vor. Jede Zahl kann mit gleicher Wahrscheinlichkeit gezogen werden, so dass jedes Ereignis – also die Zahlen von 1 bis 6 – mit einer Wahrscheinlichkeit von 1/6 eintritt. Von subjektiven Eintrittswahrscheinlichkeiten spricht man, wenn die objektiv zutreffenden Wahrscheinlichkeiten nicht bekannt sind, der Haushalt sich aber subjektive Erfahrungswerte zu Hilfe zieht und daraus subjektive Wahrscheinlichkeiten generiert, die von den objektiven abweichen können. Erwartungsnutzen Wann immer jedoch Eintrittswahrscheinlichkeiten angegeben werden können – gleichgültig ob objektiv oder nicht – kann das Konzept des Erwartungsnutzen angewandt werden. Der Erwartungsnutzen – auch als „von-Neumann-Morgenstern-Nutzen“, „Risikonutzen“ oder als „Bernoulli-Prinzip“ bezeichnet – bewertet Entscheidungen anhand ihres erwarteten Nutzens, d.h. dem mathematischen Erwartungswert des Nutzens. Dies sei anhand eines einfachen Entscheidungsproblems erläutert. Ein Tourist plant eine Wanderung durch den schönen Harz und überlegt, ob er sich gegen möglichen Regen schützen soll, indem er entweder einen Regenschirm oder einen Regenmantel mitnimmt. Es sei unterstellt, der Wetterdienst gebe die Eintrittswahrscheinlichkeit für Niederschlag mit WR = ¼ an, was eine Gegenwahrscheinlichkeit dafür, dass es nicht regnet von WS = ¾ impliziert. Die Nutzeneinschätzungen des Haushalts seien mit Tabelle 1.2 gegeben. Jede Alternative im Entscheidungsproblem unseres Wanderers weist Ähnlichkeiten mit dem Erwerb eines Loses im Rahmen einer Lotterie auf. Die handelnde Person entscheidet sich für das Ziehen eines Loses (= die Alternative), weiß aber nicht mit Sicherheit, welche Eigenschaft das Los letztlich haben wird. Wählt das Individuum die Alternative „kein Regenschutz“, dann entspricht das einer Lotterie, in der mit einer Wahrscheinlichkeit WS ein Nutzen von +10 und mit einer Wahrscheinlichkeit von WR ein Nutzen von –10 gezogen wird. Die Bewertung der verschiedenen Handlungsalternativen entspricht damit

Tab. 1.2  Nutzeneinschätzungen unter Unsicherheit und Güterkategorien

Sonnenschein

Regen

Kein Regenschutz

+10

-10

Schirm

+8

-2

Regenmantel

+4

0

38

Mathias Erlei

der Bewertung der unterschiedlichen daraus resultierenden Lotterien. Das Konzept des Erwartungsnutzens beschreibt eine mögliche Form der Bewertung der Lotterien und definiert sich wie folgt: EU = f(x1, …, xm, W1, …, Wm) m

= ∑ WiU(xi ) i=1

mit M als der Anzahl aller möglichen Losausprägungen, und Wi als den entsprechenden Eintrittswahrscheinlichkeiten. In unserem einfachen Beispiel beträgt m = 2, die Ausprägungen sind x1 = Sonnenschein und x2 = Regen. Damit betragen die Erwartungsnutzen für die drei Handlungsalternativen • Kein Regenschutz:

3 1 EU = 10 + (−10) = 5; 4 4

• Schirm:

EU =

• Regenmantel:

EU =

3 1 8 + (−2) = 5,5; 4 4 3 1 4 + (0) = 3. 4 4

Da der Erwartungsnutzen bei der Wahl eines Schirms den höchsten Wert annimmt, würde ein seinen Erwartungsnutzen maximierender Homo oeconomicus unter diesen Bedingungen einen Schirm mitnehmen. Natürlich lässt sich das Erwartungsnutzenkonzept auch für stetige Zufallsgrößen definieren. Es sei f(xi) die Wahrscheinlichkeitsdichte der Zufallsvariablen x an der Stelle x = xi, dann ergibt sich als Formel für die Bestimmung des Erwartungsnutzens ∞

EU = ∫ f (xi )U(xi )dxi . −∞

Das Erwartungsnutzenkonzept ist keine willkürliche Festlegung für den Umgang mit Unsicherheit, sondern es lässt sich aus verschiedenen axiomatischen Systemen (= Anforderungen an ein Entscheidungskonzept) ableiten. Im Folgenden wird ein ausgewähltes Axiomensystem zur Anforderung an die Bewertung von Lotterien (= Handlungsalternativen) skizziert. Die Axiome sind: (1) Asymmetrie: Die strikte Präferenzordnung ist asymmetrisch, wenn es kein Lotteriepaar p und q gibt, für die gilt p ≻ q und q ≻ p. Das heißt, es darf nicht vorkommen, dass Lotterie p der anderen Lotterie q vorgezogen wird und gleichzeitig Lotterie q höher eingeschätzt wird als Lotterie p. (2) Negative Transitivität: Wenn für die strikte Präferenzordnung p ≻ q gilt, dann muss für eine beliebige dritte Lotterie r mindestens eine der zwei folgenden Bedingungen erfüllt sein: (a) p ≻ r oder (b) r ≻ q. Dies lässt sich leichter anhand einer Graphik (Abb. 1.21) vorstellen.

1 Mikroökonomik

39

Abb. 1.21  Negative Transitivität

Auf der Abszisse wird die Wertschätzung abgetragen. Da p ≻ q, liegt p rechts von q. Eine dritte Lotterie r muss nun so anzuordnen sein, dass sie entweder (a) links von p oder (b) rechts von q oder beides ist. (3) Unabhängigkeit: Für zwei Lotterien p und q gelte p ≻ q. α sei eine Zahl aus dem offenen Intervall (0,1) und r sei eine beliebige dritte Lotterie. Dann muss gelten: αp + (1 – α)r ≻ αq + (1 – α)r. Das bedeutet, dass im Vergleich zweier Lotterien (hier p und q) andere Lotterien keine Rolle spielen. (4) Archimedisches Axiom: Für drei Lotterien p, q und r gelte p ≻ q ≻ r. Dann existieren zwei Zahlen α und β aus dem offenen Intervall (0,1), so dass αp + (1 – α)r ≻ q ≻ βp + (1 – β)r. Dieses Axiom vergleicht eine gemischte Lotterie mit einer „reinen“ Lotterie. Die gemischte Lotterie liefert mit einer Wahrscheinlichkeit von α (bzw. β) die beste und mit der verbleibenden Gegenwahrscheinlichkeit die schlechteste der drei Lotterien. Dann gibt es eine hinreichend hohe Wahrscheinlichkeit α (hinreichend kleine Wahrscheinlichkeit β) dafür, die beste Lotterie zu erhalten, dass die gemischte Lotterie (die reine Lotterie) vorgezogen wird. Man kann nun zeigen, dass folgender Satz gilt (für eine Beweisskizze siehe David Kreps, 1990, Kapitel 3): Satz über Erwartungsnutzenfunktionen: Eine Präferenzordnung über Lotterien erfüllt die obigen Axiome dann und nur dann, wenn eine Nutzenfunktion U existiert, so dass die Präferenzordnung über das Erwartungsnutzenkonzept beschrieben werden kann. Außerdem kann gezeigt werden, dass jede lineare Transformation einer solchen Nutzenfunktion V  =  a  +  bU mit b  >  0 die Präferenzen gleichermaßen repräsentiert. Man beachte, dass – im Gegensatz zur ordinalen Nutzentheorie – hier nur eine Teilmenge aller positiv monotonen Transformationen der Nutzenfunktion, nämlich die positiv linearen, zulässig sind. So führt etwa eine Logarithmierung der Nutzenfunktion zu einer anderen Präferenzordnung und ist damit nicht zulässig. Damit wird deutlich, dass die ordinale Nutzentheorie, die jede positiv monotone Transformation zulässt und ausschließlich auf die Rangfolge der Zustände abstellt, im Erwartungsnutzenkonzept nicht mehr angewandt werden kann, da sie zu allgemein ist. Andererseits ist die kardinale Nutzentheorie spezieller als das hier verwendete Nutzenkonzept, da sie keinerlei Transformationen zulässt. Das Konzept des Erwartungsnutzens nimmt somit eine Mittelposition zwischen kardinalem und ordinalem Nutzenkonzept ein, ist mit kardinalem Nutzen jedoch stets vereinbar.

40

Mathias Erlei

Risikoneigungen Im Folgenden wird der Erwartungsnutzen von Einkommensbeträgen (y) untersucht. Es wird unterstellt, dass die Ausprägungen der Lotterielose jeweils in Geldeinheiten definiert sind und Nutzenfunktionen des Typs U = U(y) mit dU/dy > 0 gelten. Der Erwartungsnutzen ist dann definiert als EU = ∑iWiU(yi). Dies sei anhand einer sehr einfachen Lotterie dargestellt. Die Lotterie y beinhalte nur zwei mögliche Ergebnisse y2 > y1, die beide mit der Wahrscheinlichkeit Wi = 0,5 eintreten. Der Erwartungswert des Einkommens lautet dann E(y) = (y2 + y1)/2. Der Erwartungsnutzen beträgt im Unterschied dazu EU(y) = (U(y1) + U(y2))/2. Abbildung 1.22 zeigt diesen Fall für eine konkave Nutzenfunktion U(y). Der Erwartungsnutzen kann graphisch ermittelt werden, indem man die beiden Punkte (y1,U(y1)) und (y2,U(y2)) durch eine Gerade miteinander verbindet. Da beide Punkte dieselbe Eintrittswahrscheinlichkeit haben, lässt sich der Erwartungsnutzen exakt in der Mitte der Gerade ablesen, und zwar genau an der Stelle E(y). Es ist zu beachten, dass der Erwartungsnutzen der Lotterie einen geringeres Niveau aufweist als derjenige einer sicheren Auszahlung von E(y). Das zeigt, der Haushalt erleidet durch die Zufallsstreuung eine Nutzeneinbuße. Man spricht in diesem Fall von einem risikoaversen Haushalt. Risikoaversion liegt immer dann vor, wenn die Nutzenfunktion konkav verläuft. Abbildung 1.22 zeigt noch zwei weitere Größen an. Der Geldbetrag SÄ, das sogenannte Sicherheitsäquivalent, entspricht demjenigen sicheren Geldbetrag, den der Haushalt genauso hoch bewertet wie die betrachtete Lotterie: U(SÄ) = EU(y). Dieser Betrag ist kleiner als der mathematische Erwartungswert der Lotterie E(y), was erneut verdeutlicht, dass der Haushalt bereit ist, auf Geld zu verzichten, wenn dafür die Unsicherheit abgebaut wird. Die Differenz zwischen der erwarteten Auszahlung E(y) und dem Sicherheitsäquivalent bezeichnet man als Risikoprämie: RP = E(y) – SÄ. Grundsätzlich ist auch denkbar, dass die Nutzenfunktion konvex oder linear verläuft. Die beiden Fälle sind in Abbildung 1.23 dargestellt.

U U(y)

U(y2) U(E(y)) EU(y) U(y1) Risikoprämie

y1 SÄ Abb. 1.22  Risikoaversion

E(y)

y2

y

1 Mikroökonomik

41

Abb. 1.23  Risikofreudigkeit und -neutralität

Im linken Quadranten übersteigt der Erwartungsnutzen die erwartete Auszahlung aus der Lotterie E(y). Ein Individuum mit solchen Präferenzen, bei denen die Risikoprämie negativ ist, wird als risikofreudig bezeichnet. Im rechten Quadranten entsprechen sich EU(y) und U(E(y)) exakt. Solche Präferenzen mit einer Risikoprämie von null werden als risikoneutral bezeichnet. Offensichtlich spielt die Krümmung der Nutzenfunktion eine wichtige Rolle bei der Bestimmung der Risikoneigung. Üblicherweise verwendet man die 2. Ableitung einer Funktion als Indikator für die Krümmung. Deshalb könnte man sie als Indikator für die Risikoneigung des Individuums vorschlagen. Es zeigt sich jedoch, dass dies kein glücklicher Vorschlag ist, da die zweite Ableitung der Nutzenfunktion bei (erlaubten) positiv linearen Transformationen variiert. Um diesen Effekt auszugleichen, korrigiert man die zweite Ableitung mittels Division durch die erste Ableitung der Nutzenfunktion, was zum Arrow-Pratt-Maß der (absoluten) Risikoaversion führt: r(y) = −

∂ 2U ∂U

∂y 2 ∂y

.

Erwartungswert-Varianz-Nutzenfunktion Zufallsvariablen werden oftmals anhand der Kennzahlen Erwartungswert und Varianz beschrieben. Jede hier von uns betrachtete Lotterie beinhaltet eine Zufallsvariable. Aus diesem Grund bietet es sich an, Nutzenfunktionen unter Unsicherheit mittels dieser Kennzahlen zu erfassen. Dies führt zur Erwartungswert-Varianz-Nutzenfunktion, in der der Erwartungsnutzen als Funktion der erwarteten Auszahlung E(y) und der Varianz der Auszahlung σy2 definiert wird: EU = EU(E(y), σy2). Für zwei spezielle Nutzenfunktionen üblichen Typs ist dies exakt möglich, für andere Funktionen nur als Näherungswert. Der erste Sonderfall ist eine quadratische Nutzenfunktion des Typs U = y – by2, für die sich der Erwartungsnutzen wie folgt berechnet:

42

Mathias Erlei

EU = E(y) – bE(y2) EU = E(y) – bE([E(y) + (y – E(y))]2) EU = E(y) – bE[E(y)2 + 2E(y)(y – E(y)) + (y – E(y))2] EU = E(y) – b(E(y))2 – bσy2. Die Erwartungswert-Varianz-Nutzenfunktion entspricht somit genau dem Erwartungsnutzen der quadratischen Nutzenfunktion. Quadratische Nutzenfunktionen dieses Typs sind jedoch in vielen Kontexten fragwürdig, da sie zu einem negativen Grenznutzen einer zusätzlichen Geldeinheit führen. Eine alternative Nutzenfunktion, die diese unerwünschte Eigenschaft vermeidet, ist die folgende: U = –e–ry, mit y als normalverteilter Zufallsvariable des Geldbetrags. Die Ermittlung des Erwartungsnutzens führt zu ∞

⎡ r ⎤ −r ⎢ E ( y)− σy2 ⎥ ⎢⎣ 2 ⎥⎦

EU! = − ∫ e−ry f (y)dy = −e

.

−∞

Eine positive monotone Transformation der Erwartungsnutzenfunktion führt zu r EU = E(y)− σy2 , 2 der Erwartungswert-Varianz-Nutzenfunktion und beschreibt dieselben Präferenzen. Auch für die exponentielle Nutzenfunktion ist die Erwartungswert-Varianz-Nutzenfunktion somit exakt. Abschließend soll erwähnt werden, dass die Erwartungswert-VarianzNutzenfunktion auch als Approximation der Erwartungsnutzenfunktion für andere Nutzenfunktionen dienen kann (siehe z.B. Milgrom/Roberts, 1992, S. 246f.). Eine Anwendung: die Nachfrage nach Vermögenstiteln Betrachtet sei ein Haushalt, dem als Vermögensanlageobjekte zwei alternative Vermögenstitel zur Verfügung stehen: ein risikofreier Vermögenstitel, der eine sichere (erwartete) Rendite von Er = rS einbringt und eine Varianz von null aufweist, sowie ein riskanter Anlagetitel, der sowohl eine höhere erwartete Rendite Er = rr als auch Varianz σr2 aufweist. Die Covarianz zwischen den Objekten beträt null. Bezeichnet man den Anteil der sicheren Titel am Vermögen mit a und damit den verbleibenden Anteil der riskanten Aktiva entsprechend mit (1 – a), dann betragen die erwartete Rendite rP und die Varianz des Portfolios σP2 rP = ars + (1 – a)rr σp2 = a2σs2 + (1 – a)2σr2 = (1 – a)2σr2.

1 Mikroökonomik

43

Löst man die Renditegleichung nach a auf und setzt dies in die zweite Gleichung ein und löst die Gleichung nach rP auf, so erhält man Rendite-Risiko-Restriktion r −r rp = rS + r S σ p . σr Zusammen mit der Erwartungswert-Varianz-Nutzenfunktion r EU = rp − σ 2p , 2 bei der der Parameter r (ohne Subskript) für die Risikoaversion des Haushalts steht, lässt sich das Optimierungsproblem formulieren: Der Haushalt maximiert seinen Erwartungsnutzen unter Berücksichtigung der Rendite-Risiko-Restriktion: ⎡ ⎤ r r −r L = rp − σ 2p +λ ⎢ rS + r S σ p − rp ⎥ . ⎢ ⎥ 2 σr ⎣ ⎦ Diese Lagrange-Funktion ist über die Variablen rP , σP und λ zu maximieren. Die Bedingungen erster Ordnung lauten ∂L = 1−λ = 0 ∂rP ∂L r −r = −rσP +λ r S = 0 ∂σP σr ∂L rr − rS = rS +λ σP − rP = 0. ∂λ σr Auflösen nach rP und σP ergibt die Lösung rP = rs + σP =

1 (rr − rs )2 r σr2

1 rr − rs . r σr

Das Optimum lässt sich auch im rP-σP-Diagramm graphisch darstellen. Die fett eingezeichnete Gerade entspricht der Rendite-Risiko-Restriktion. Die konvex verlaufenden Kurven sind Indifferenzkurven des Haushalts. Je höher diese liegen, desto höher ist auch das Nutzenniveau des Haushalts. Folglich wird der Anleger versuchen, diejenige Indifferenzkurve zu wählen, die am höchsten liegt und zugleich noch mit der Restriktion vereinbar ist. Dies ist dort der Fall, wo die bestmögliche Indifferenzkurve die Restriktion tangiert, wie es im Punkt (rP*, σP*) in Abb. 1.24 der Fall ist.

44

Mathias Erlei

U1 U0 rp

Steigung:

rr − rs σr rp*

U2 rs

s p*

sp

Abb. 1.24  Optimale Portfoliostruktur

1.2.2

Unternehmen

Nachdem die Grundzüge der Haushaltstheorie, aus der die Güternachfrage und das Faktorangebot abgeleitet werden, dargestellt wurden, wird nun die Unternehmensseite analysiert. Die gesellschaftliche Funktion von Unternehmen besteht darin, Güter und Dienstleistungen zu produzieren und sie den Haushalten anzubieten. Zur Produktion benötigen die Unternehmen Faktoreinsätze, die sie an den Faktormärkten nachfragen. Wie schon in der Haushaltstheorie, wird auch das Verhalten von Unternehmen am Homo-oeconomicus-Modell ausgerichtet. Im Unternehmenssektor bedeutet dies zunächst, dass Unternehmen als gewinnmaximierende Einheiten auftreten, die – zumindest bei vollkommener Konkurrenz – reine Mengenanpasser sind, also deren Angebot oder Nachfrage keinen spürbaren Einfluss auf die Marktpreise ausüben. Die Unternehmen werden als Entscheidungseinheit angesehen, d.h. sie werden wie ein Individuum behandelt. Es ist offensichtlich, dass hier ein gewisser Bruch zum methodologischen Individualismus vorliegt, also dass in vielen Fällen Unternehmen eben nicht aus einer einzigen Person bestehen. Eine Analyse, die sich dem methodologischen Individualismus – konsequent angewendet – verpflichtet fühlt, müsste eigentlich das Verhalten der Unternehmen aus dem Zusammenspiel der einzelnen darin enthaltenen Individuen ableiten. In der Tat ist dies Gegenstand moderner Entwicklungen der Unternehmenstheorie. Trotzdem wird im Folgenden weitgehend von dieser methodischen Norm abgewichen und das Unternehmen als Einheit betrachtet. Für eine einfache Einführung in eine allgemeine Gleichgewichtstheorie ist dieses Vorgehen praktisch unverzichtbar, und es wird hoffentlich sichtbar werden, dass trotz dieser zweifellos vorhandenen Schwäche ein äußerst nützliches Instrumentarium gewonnen wird.

1 Mikroökonomik

45

1.2.2.1 Produktionsfunktion und Kostenfunktion In der neoklassischen Unternehmenstheorie wird das Unternehmen durch eine Produktionsfunktion (technische Zusammenhänge) und die Gewinnmaximierungshypothese (Zielsetzung) beschrieben. Diese und die vorgegebenen Marktpreise bestimmen die Verhaltensweisen. Eine Produktionsfunktion ordnet einem bestimmten Vektor von Faktoreinsätzen (v1, v2, ..., vn) die maximal erzielbare Produktionsmenge x eines Gutes zu. Eine Produktionsfunktion beschreibt also, welcher Output aus dem Einsatz einer bestimmten Kombination verschiedener Produktionsfaktoren höchstens erzielbar ist, sie bestimmt also den Output, der erzielt wird, wenn keine Verschwendung von eingesetzten Faktoren erfolgt. In formaler Schreibweise lautet sie x = x(v1, v2, ..., vn). Grundsätzlich kann eine Produktionsfunktion beliebig viele Formen annehmen. Im Folgenden werden nur stark vereinfachte Formen von Produktionsfunktionen berücksichtigt, die typischerweise nur zwei Produktionsfaktoren enthalten und die nach bestimmten Substitutionseigenschaften der Faktoren unterschieden werden. Grundsätzlich unterscheidet man Produktionsfunktionen mit substitutiven und solche mit komplementären Faktoren. Substitutive Faktoren können einander im Produktionsprozess ersetzen, so wie man mitunter menschliche Arbeitskraft durch Maschinen ersetzt. Vollkommen substitutive Faktoren kann man in einem konstanten Verhältnis austauschen. Es liegt eine Alternativsubstitution vor, wenn es möglich ist, einen der Faktoren vollständig durch einen anderen zu ersetzen, und periphere Substitution, wenn dies nicht möglich ist. Vollkommen substitutive Faktoren genügen natürlich immer auch dem Kriterium der Alternativsubstitution. Komplementäre Faktoren sind solche, die einander ergänzen, aber einander nicht ersetzen können. So kann etwa der vermehrte Einbau von Gaspedalen in einem Automobil nicht das Bremspedal ersetzen. Von strenger Komplementarität spricht man, wenn die Faktoren in einem festen Einsatzverhältnis stehen. So steht beispielsweise das Verhältnis von Bremspedalen zu Rädern in der PKW-Produktion üblicherweise in einem festen Verhältnis von 1:4. Die Produktionsfunktion ist das Analogon zur Nutzenfunktion in der Haushaltstheorie. Nimmt man etwa die im linken Quadranten von Abb. 1.6 dargestellte Nutzenfunktion, ersetzt die Gütermengen x1 und x2 durch die Faktormengen v1 und v2 sowie den Nutzen durch die Outputmenge x, so erhält man die graphische Abbildung einer Produktionsfunktion. Eine mögliche ist die der Cobb-Douglas-Funktion, die schon in der Nutzentheorie vorgestellt wurde. Produktionstheoretische Grundbegriffe Im Folgenden gilt es zunächst einmal, die wichtigsten Grundbegriffe der Produktionstheorie einzuführen. Dem aufmerksamen Leser sollten dabei viele Parallelen zur Haushaltstheorie auffallen. Diese dienen als Legitimation dafür, nur sehr knappe Erläuterungen zu liefern.

46

Mathias Erlei

Eine partielle Produktionsfunktion ist dadurch gekennzeichnet, dass alle bis auf einen Produktionsfaktor konstant gesetzt werden: x = x(v1, v2). Sie beschreibt, in welchem Verhältnis der Output zur Variation des einen betrachteten Produktionsfaktors bei konstantem Einsatz des anderen Faktors steht. Unter der Durchschnittsproduktivität des Faktors i (DPi) – auch als Durchschnittsertrag bezeichnet – versteht man das Verhältnis von Output zu partiellem Faktoreinsatz, also DPi = x/vi. Die Grenzproduktivität eines Faktors i (GPi) – auch als Grenzertrag bezeichnet – beinhaltet, um wie viele Einheiten der Output ansteigt, wenn der Einsatz des betrachteten Faktors um eine (infinitesimal kleine) Einheit erhöht wird: ∂x GPi = ≥0 ∂vi Im Bereich eines Gewinnmaximums gilt – wie noch gezeigt wird – typischerweise, dass die Kurve des GPi fallend verläuft oder formal ausgedrückt ∂2x/∂v 2i < 0. Die Produktionselastizität eines Faktors i erfasst, um wie viel Prozent der Output zunimmt, wenn der Einsatz des Faktors i um ein Prozent erhöht wird: ∂x vi αi = . ∂vi x Die Kreuzgrenzproduktivität beschreibt, wie das Grenzprodukt eines Faktors i reagiert, wenn der Faktor j um eine (infinitesimal kleine) Einheit verändert wird. Typischerweise unterstellt man, dass die Kreuzgrenzproduktivität nicht kleiner als null ist, in substitutionalen Produktionsfunktionen geht man zumeist von einem strikt positiven Wert aus: KGP =

∂2 x ≥ 0. ∂vi ∂v j

Für die graphische Darstellung ist die Einführung der sogenannten Isoquante hilfreich. Eine Isoquante ist der geometrische Ort aller Faktorkombinationen, die zum gleichen Produktionsniveau (Output) führen: x = x(v1, v2). Abbildung 1.25 zeigt zwei mögliche Isoquanten für zwei unterschiedliche Produktionsmengen x < x. Um den Unterschied zur Haushaltstheorie kenntlich zu machen, bezeichnet man das Austauschverhältnis der Faktormengen als technische Grenzrate der Substitution. Die Ableitung erfolgt völlig analog zur Haushaltstheorie: dx = 0 =

∂x ∂x dv1 + dv2 ∂v1 ∂v2

∂x dv1 ∂v2 ⇒ GRS = 0− . ∂x dv2 ∂v1 Will man wissen, wie sich der Output ändert, wenn alle Produktionsfaktoren gleichzeitig (und in gleicher Richtung) variiert werden, verwendet man die Niveauproduktionsfunktion. Sie nimmt als Ausgangspunkt einen beliebig gewählten Faktoreinsatzvektor

1 Mikroökonomik

47

v1

x2

x1

v2 Abb. 1.25  Isoquanten

(v1, v2) und erlaubt fortan nur noch proportionale Änderungen des Faktoreinsatzes, d.h. alle Faktoren müssen um denselben Prozentsatz steigen oder fallen: x = x(kv1, kv2)= x(k). Die Variable k bestimmt somit das Niveau der Faktoreinsätze. Die Skalenelastizität erfasst nun, um wie viel Prozent der Output variiert, wenn alle Faktoreinsätze um ein Prozent steigen: λ=

dx(k) k . dk x(k) k=1

Ist diese Elastizität größer (kleiner) als eins, so spricht man von steigenden (sinkenden) Skalenerträgen, ist sie exakt eins, so handelt es sich um konstante Skalenerträge. Abbildung 1.26 zeigt die entsprechenden Verläufe von Niveauproduktionsfunktionen. Steigende (konstante; sinkende) Skalenerträge sind also mit einem konvexen (linearen; konkaven) Verlauf der Niveauproduktionsfunktion verbunden. Eine eng verwandte Kenngröße für Produktionsfunktionen ist der Homogenitätsgrad. Eine Produktionsfunktion ist homogen vom Grad r, wenn sie folgende Bedingung erfüllt: x(kv1, kv2)= krx(kv1, kv2). Für den Fall, dass obige Umformung möglich ist, kann unmittelbar eine Aussage über die Skalenerträge abgeleitet werden: Ist r > 1, liegen steigende, bei r = 1 konstante und bei r 1

x(k ) η

x ,k =1

x(k ) η

x k =1

1

x ,k

 1 die Achsen schneiden, d.h. eine Alternativsubstitution möglich ist. Die Isoquanten nähern sich den Achsen asymptotisch an, wenn σ = 1. Für σ  0 gegenübersehen, wobei X = x1 + x2 das Gesamtangebot beider Firmen bezeichnet.

2 Industrieökonomik

199

Unternehmen 2, der Stackelberg-Folger, wählt also seinen Output gemäß seiner Reaktionsfunktion. Dies weiß Unternehmen 1, der Stackelberg-Führer, wenn es in der ersten Periode seine Mengenentscheidung trifft und wird dieses Wissen bei der Wahl seiner Produktionsmenge berücksichtigen. Er sieht sich daher dem folgenden Optimierungsproblem gegenüber. a−c 1 ⎞ ⎤ ⎡ ⎛ max π i (x1 ) = p(x1 − x 2r (x1 ))x1 − cx1 = ⎢a − b ⎜ x1 + − x1 ⎟ x1 − cx1 . ⎝ xi 2b 2 ⎠ ⎥⎦ ⎣

Man beachte, dass das Optimierungsproblem des Stackelberg-Führers nur vom seiner Produktionsmenge abhängt, da die Angebotsmenge des Stackelberg-Folgers nicht unabhängig ist, sondern aufgrund seiner Reaktionsfunktion durch die Menge x1 determinert wird. Die Bedingung erster Ordnung für ein Gewinnmaximum lautet ∂π 1 (⋅) a−c = a − 2bx1 + + bx1 − c = 0. ∂x1 2

Hieraus ergibt sich x1s =

a−c 3 * = x1 > x1* . 2b 2

Im Vergleich zur Menge im Cournot-Nash-Gleichgewicht wird der StackelbergFührer einen höheren Output herstellen. Ein Vergleich mit dem Modell des Monopols zeigt, das der Stackelberg-Führer die gleiche Angebotsmenge wählt wie ein Monopolist. Da die Angebotsmengen strategische Substitute sind, wird der Stackelberg-Folger auf den höheren Output des Stackelberg-Führers mit einer im Vergleich zum CournotNash-Gleichgewicht geringeren Angebotsmenge reagieren. Einsetzen der Menge x1s ergibt die Angebotsmenge des Stackelberg-Folgers x 2s =

a−c 3 * = x 2 < x 2* . 4b 4

Graphisch kann die Situation wie folgt verdeutlicht werden. Unternehmen 2 wird immer eine beste Antwort auf das Angebot des Stackelberg-Führers wählen, d.h. es wird sich immer auf seiner Reaktionsfunktion befinden. Unternehmen 1, der StackelbergFührer kann nun aber, da er seinen Output zuerst festlegen kann, einen Punkt auf der Reaktionsfunktion des Unternehmens 2 wählen. Er maximiert seinen Gewinn also auf der Reaktionsfunktion des Unternehmens 2. Um den Punkt auf der Reaktionsfunktion zu ermitteln, der den Gewinn des Stackelberg-Führers maximiert, wird das Konzept der Isogewinnkurve eingeführt. Eine Isogewinnkurve gibt alle Mengenkombinationen der beiden Unternehmen an, die zum gleichen Gewinn für ein Unternehmen führen. Für Unternehmen 1 besteht sie aus allen (x1, x2)-Kombinationen, die die Gleichung π1 = ax1 – bx1x2 – bx21 – cx1

200

Ulrich Schwalbe

Abb. 2.16  Isogewinnkurve für Unternehmen 1

erfüllen und für Unternehmen 2 aus allen für die gilt π2 = ax2 – bx1x2 – bx22 – cx2. Abbildung 2.16 zeigt Isogewinnkurven für Unternehmen 1 für verschiedene Gewinnniveaus.34 Höhere Gewinne für Unternehmen 1 liegen unterhalb der Isogewinnkurve, oberhalb der Isogewinnkurve sind die Gewinne geringer. Dies folgt daraus, dass für jeden Output von Unternehmen 1 bei einer Senkung des Outputs durch Unternehmen 2 über die PreisAbsatz-Funktion der Preis steigt, so dass Unternehmen 1 einen höheren Gewinn erzielt. Erhöht hingegen Unternehmen 2 sein Angebot, so sinkt der Preis und damit der Gewinn für Unternehmen 1. Die Isogewinnkurve von Unternehmen 1 nimmt ihr Maximum auf der eigenen Reaktionsfunktion an, denn diese Funktion gibt die beste, d.h. gewinnmaximale Antwort auf jede beliebige Angebotsmenge des Unternehmens 2 an. Daher muss der Gewinn zurückgehen, wenn eine Menge x1 gewählt wird, die nicht auf der Reaktionsfunktion liegt. Die von Stackelberg-Lösung kann mithilfe der Isogewinnkurve wie in Abbildung 2.17 gezeigt dargestellt werden. Eine Isogewinnkurve ergibt sich, wenn man die Gleichung nach x2 auflöst und als Funktion von x1 auffasst. 34

2 Industrieökonomik

201

Abb. 2.17  Die von Stackelberg-Lösung

Die niedrigste erreichbare Isogewinnkurve für Unternehmen 1 ist diejenige, die die Reaktionsfunktion des Unternehmens 2 gerade tangiert. Höhere Isogewinnkurven sind nicht gewinnmaximierend und niedrigere sind nicht erreichbar. Das von StackelbergGleichgewicht ist grafisch der Tangentialpunkt einer Isogewinnkurve des StackelbergFührers an der Reaktionsfunktion des Stackelberg-Folgers. Man sieht unmittelbar, dass sich der Stackelberg-Führer gegenüber dem Cournot-Nash-Gleichgewicht verbessert, während der Stackelberg-Folger einen niedrigeren Gewinn realisiert. Die gesamte Angebotsmenge im Stackelberg-Gleichgewicht beträgt: XXss == xx1s1s+ **xx2s2s ==

3(a−−c) c) 2(a 2(a−−c) c) aa−−cc aa−−cc 3(a ++ == >> == XX**.. 2b 4b 4b 3b 2b 4b 4b 3b

Dementsprechend ist der gleichgewichtige Marktpreis im Stackelberg-Modell geringer als im Cournot-Nash-Gleichgewicht ps =

a + 3c a + 2c < = p* . 4 3

Anhand der folgenden Überlegung kann man sich leicht davon überzeugen, dass der Gewinn des Stackelberg-Führers höher sein muss als im Cournot-Modell, denn er könnte ja die gleiche Menge anbieten wie im Cournot-Nash-Gleichgewicht. Darauf würde der Stackelberg-Folger entsprechend seiner Reaktionsfunktion ebenfalls mit der

202

Ulrich Schwalbe

Cournot-Menge antworten. Beide Unternehmen erhielten dann den gleichen Gewinn wie im Cournot-Nash Gleichgewicht. Im Stackelberg-Modell hingegen wählt Unternehmen 1 aber eine andere, größere Menge. Der einzige Grund hierfür kann nur darin liegen, dass es dadurch einen höheren Gewinn realisiert. Dies sieht man auch unmittelbar, wenn man den Gewinn des Stackelberg-Führers ermittelt: π 1s =

(a − c)2 (a − c)2 > = π 1* . 8b 9b

Für den Stackelberg-Folger hingegen gilt π 2s =

(a − c)2 (a − c)2 < = π 2* . 16b 9b

Der Gewinn des Stackelberg-Führers ist also höher als im Cournot-Nash-Gleichgewicht während der Gewinn des Stackelberg-Folgers geringer ist. Man spricht in diesem Fall daher von einem „First-Mover Advantage“ des Stackelberg-Führers. Die Möglichkeit, seine Angebotsmenge bindend festzulegen, bevor der Stackelberg-Folger über sein Angebot entscheidet, verschafft ihm einen strategischen Vorteil gegenüber seinem Konkurrenten. Man kann daher in diesem Zusammenhang die Frage stellen, warum ein Unternehmen nicht auch im Cournot-Modell damit drohen würde, die Menge des Stackelberg-Führers anzubieten, um sich einen höheren Gewinn zu verschaffen. Allerdings würde eine solche Drohung vom anderen Unternehmen nicht ernst genommen werden: Angenommen, Unternehmen 1 würde mit der größeren Menge des Stackelberg-Führers drohen und damit rechnen, dass Unternehmen 2 dann gemäß seiner Reaktionsfunktion mit einer entsprechend geringeren Menge antwortet, dann wäre die Stackelberg-Menge keine beste Antwort auf diese Menge des Stackelberg-Folgers, sondern der Stackelberg-Führer würde dann eine etwas höhere Menge anbieten. Anders ausgedrückt: Ohne Selbstbindungsmöglichkeit des Stackelberg-Führers wäre die Stackelberg-Lösung kein Nash-Gleichgewicht. Dies kann man anhand der Graphik in Abbildung 2.18 illustrieren. Würde das Unternehmen 1 mit einer Angebotsmenge x1s drohen ohne sich an diese Menge fest binden zu können, und würde Unternehmen 2 der Menge x 2s , seiner besten Antwort auf x1s , reagieren, dann hätte Unternehmen 1 einen Anreiz, von x1s abzuweichen und seine beste Antwort auf x 2s zu wählen, die kleinere Menge x1′ . Hierauf würde dann Unternehmen 2 mit einer etwas größeren Menge x 2′ antworten usw. Dieser Prozess konvergiert dann zum Cournot-Nash-Gleichgewicht.35 Während bislang immer unterstellt wurde, dass die Unternehmen die angebotenen Mengen als strategische Variable einsetzen, werden in den nächsten Abschnitten Modelle oligopolistischen Verhaltens präsentiert, in denen die Unternehmen als wesentliche

Natürlich findet eine solcher Anpassungsprozess nicht tatsächlich statt, sondern stellt lediglich ein Gedankenexperiment dar, um deutlich zu machen, dass ohne eine Möglichkeit des StackelbergFührers, sich an eine Angebotsmenge fest binden zu können, das einzige Gleichgewicht das Cournot-Nash-Gleichgewicht ist. 35

2 Industrieökonomik

203

Abb. 2.18  Ohne Selbstbindung ist die von Stackelberg-Lösung kein Gleichgewicht

strategische Variable die Preise ihrer Produkte einsetzen. Dies ist für zahlreiche Märkte, z.B. bei Konsumgütern, der Fall.

2.3.4

Preiswettbewerb mit homogenen Gütern – Das Modell von Bertrand

Das Modell von Bertrand stammt aus dem Jahre 1883 und findet sich in einer Rezension des Buches von Cournot (1838). Das einfachste Modell entspricht in seiner Struktur weitgehend dem Modell von Cournot. Es wird von zwei Unternehmen ausgegangen, die mit gleichen und konstanten Grenzkosten ein homogenes Produkt herstellen. Die Kostenfunktionen sind daher gegeben durch Ki(xi) = cxi, i = 1,2 mit c ≥ 0. Die Preis-Absatz-Funktion für das homogene Produkt ist gegeben durch p(x) = a – bX, a, b > 0, wobei mit X = x1 + x2 das Gesamtangebot beider Firmen bezeichnet ist. Im Folgenden wird untersucht, welches Nash-Gleichgewicht sich auf dem Markt einstellt, wenn die Firmen

204

Ulrich Schwalbe

die Preise für ihr Produkt setzen und die abgesetzte Menge durch die Nachfragefunktion bestimmt wird. Im Cournot-Modell wurde angenommen, dass sich ein einheitlicher Preis einstellt, der durch die Preis-Absatz-Funktion determiniert ist. Im BertrandModell wählt jedoch jedes Unternehmen einen eigenen Preis für sein Produkt. Es werden dabei zwei Annahmen über das Verhalten der Konsumenten für alle möglichen Preiskombinationen getroffen. Erstens, die Konsumenten kaufen immer beim billigsten Anbieter. Zweitens, wenn beide Unternehmen den gleichen Preis verlangen, teilt sich die Nachfrage hälftig auf die beiden Unternehmen 1 und 2. Die insgesamt nachgefragte Menge ergibt sich aus der Nachfragefunktion, die wir durch Invertieren der Preis-Absatz-Funktion erhalten. X( p) =

a−b , p

a,b > 0.,

⎧ wobei p der niedrigste Damit fallsp pp≥ aoder oder >p pp3−idie Nachfrage für Unternehmen i ⎪⎧⎪ ⎪⎪⎧⎪ 0 00Angebotspreis i ≥ ist. ilautet falls falls oderpi pp> i i ≥ aa 3−i3−i i > ⎪⎪ ⎪⎪ ⎪⎧⎪ ⎪⎧⎪ 0 0 falls fallspi p≥ oderpi p> p3−i oder p3−i i ≥ aa i > ⎪⎪ ⎪⎪ a − p a − p a − p ⎪ ⎨⎪ pp3−i )) = fallsp pp= pp < i = xi xx( iip((i pp, iip,,3−i )= == a aa . = falls pp3−i =p < < ⎨⎪⎪ ⎨⎪⎪⎪ 2b falls i i = p3−i 3−i 3−i 2b ⎪⎪ ⎪⎪⎪⎪a 2b a −p p − aa − p3−i )= fallspi p= p3−i==p < p< xi x( ip(i p, ip,3−i )= p3−i a a} ⎪⎨⎪ ⎪⎪⎨⎪a − i = −p pp falls falls min pp3−i 2b i < 2b falls fallspi pp< min a,p3−i {a,{{a, }} ⎪⎪ ⎪⎪ 2b i < min 3−i ⎪ ⎪⎩⎪a 2b a 2b −p p ⎪⎪⎩ ⎪⎩ − fallspi p< min p3−i falls {a,{a,p3−i }} i < min ⎪⎪ ⎪⎪ 2b2b Diese Art der ⎪⎩ ⎪⎩ Nachfragefunktion enthält eine so genannte Rationierungsregel, die angibt, wie bei gleichen Preisen die Nachfrage auf die beiden Unternehmen aufgeteilt wird. Im hier betrachteten Fall bekommt jedes Unternehmen genau die Hälfte der Gesamtnachfrage. Das Bertrand-Nash-Gleichgewicht in diesem Spiel ist gegeben durch eine Kombination von Preisen ( p1* , p2* ), sodass keines der beiden Unternehmen einen Anreiz hat, einseitig von seinem Preis p1* ,abzuweichen. Die bei diesen Preisen abgesetzten Mengen p2* * * ( x1 , x2 ) sind durch die Nachfragefunktion und die Rationierungsregel bestimmt. Bei gegebener Strategie des anderen Unternehmens kann also im Bertrand-Nash Gleichgewicht kein Unternehmen profitabel von der Gleichgewichtsstrategie abweichen. Im Weiteren wird unterstellt, dass die Unternehmen keinerlei Kapazitätsbeschränkungen unterliegen und immer in der Lage sind, die gesamte Marktnachfrage zu befriedigen.36 Ein wichtiger Aspekt des Bertrand-Modells im Unterschied zum Cournot-Modell besteht in der Unstetigkeit in den Auszahlungsfunktionen bzw. im Gewinn. Im Punkt p1 = p2, in dem jedes Unternehmen die Hälfte der Nachfrage erhält, liegt eine Unstetigkeitsstelle in der Auszahlungsfunktion vor: Bei einem auch nur etwas höheren Preis eines Unternehmens fällt der Marktanteil auf 0. Eine geringe Senkung des Preises hingegen erhöht den Marktanteil sprunghaft auf 100%. Dabei wird unterstellt, dass die Unternehmen ihre Preise stetig ändern können, d.h. dass es keine kleinste Geldeinheit gibt und die Firmen jede nichtnegative reelle Zahl als Preis setzen können. Für den Fall symmetrischer 36 In den Abschnitten 3.5.1 bis 3.5.3 werden Erweiterungen des Modells auf asymmetrische Firmen, differenzierte Produkte und Kapazitätsbeschränkungen diskutiert.

2 Industrieökonomik

205

Unternehmen ist das Bertrand-Nash-Gleichgewicht wie folgt charakterisiert. Wenn die Unternehmen mit gleichen und konstanten Grenzkosten produzieren (c1 = c2 = c) die gleiche Kostenstruktur aufweisen und a > c gilt, dann ist das eindeutige Bertrand-NashGleichgewicht durch p1b = p2b = c gegeben. Die im Bertrand-Nash-Gleichgewicht abgesetzten Mengen sind x1b = x 2b =

a−c . 2b

Im Bertrand-Nash-Gleichgewicht resultiert sich also das gleiche Marktergebnis wie bei vollkommenem Wettbewerb. Um sich die Gründe für dieses kompetitive Ergebnis zu verstehen, beachte man, dass sich jedes Unternehmen immer einen Gewinn von null sichern kann (etwa durch ein Überbieten des Konkurrenten), so können die Gewinne im Gleichgewicht nicht negativ sein. Daher muss für i = 1,2 gelten, dass pi > c ist. Der niedrige der beiden Preise im Gleichgewicht wird niemals über dem Monopolpreis liegen, da das Unternehmen bei diesem Preis ja die gesamte Nachfrage erhält und unter diesen Umständen der Monopolpreis gewinnmaximierend ist. Als nächstes wird gezeigt, dass im Bertrand-Nash-Gleichgewicht beide Unternehmen den gleichen Preis setzen werden. Angenommen, dies sei nicht der Fall, d.h. es gelte ohne Beschränkung der Allgemeinheit, dass p1b > p2b ist. Falls p2b > c ist, könnte Unternehmen 1 seinen Preis auf p1 mit p2b > p1 > c setzen, den gesamten Markt bekommen und einen positiven Gewinn (statt Nullgewinn) machen, sich also verbessern. Falls p2b = c ist, könnte Unternehmen 2 seinen Preis etwas erhöhen und dennoch unter dem Preis von Unternehmen 1 bleiben. Damit würde es einen positiven Gewinn (statt Nullgewinn) machen, könnte sich also verbessern. Daraus folgt, dass p1b = p2b gelten muss. Angenommen, es wäre p1b = p2b > c. Dies kann jedoch kein Gleichgewicht sein, denn in diesem Fall kann ein Unternehmen seinen Preis etwas senken, kann sich die gesamte Nachfrage (statt der Hälfte) aneignen und erzielt so einen höheren Gewinn. Wenn also die beiden Unternehmen die gleiche Kostenstruktur haben, dann ergeben sich im Bertrand-Nash-Gleichgewicht – genau wie bei vollständiger Konkurrenz – für beide Unternehmen Preise gleich den Grenzkosten und die angebotene Menge ist die gleiche wie bei vollkommenem Wettbewerb. Die ökonomische Erklärung ist die folgende: Wenn beide Unternehmen Preise oberhalb der Grenzkosten setzen, dann könnte ein Unternehmen den gesamten Markt erhalten, wenn es den Preis nur um einen beliebig kleinen Betrag unterbieten würde. Der Erlös pro Stück würde sich daher nicht (bzw. fast nicht) verändern, aber die abgesetzte Menge würde sprunghaft ansteigen. Diese sprunghafte Änderung erzeugt zwischen den Unternehmen einen so starken Wettbewerbsdruck, dass bereits zwei Unternehmen auf dem Markt ausreichend sind, das gleiche Resultat hervorzubringen wie vollkommener Wettbewerb. Dieses Ergebnis des Bertrand-Modells ist bemerkenswert und steht in deutlichem Kontrast zu den Ergebnissen der Analyse des Mengenwettbewerbs. Dort hatte sich gezeigt, dass bei zwei Unternehmen im Markt das

206

Ulrich Schwalbe

Gleichgewicht höhere Preise und geringere Mengen implizierte als bei vollkommenem Wettbewerb. Erst bei zunehmender Zahl der Unternehmen ergab sich eine schrittweise Entwicklung mit sinkendem Preis und steigender Menge bis hin zum Resultat bei vollkommenem Wettbewerb als Grenzwert eines Oligopols mit unendlich vielen Unternehmen. Während es für das Marktergebnis beim Monopol keinen Unterschied macht, ob der Preis festgelegt wird und sich die entsprechende Nachfrage realisiert wird oder ob eine Angebotsmenge auf den Markt gebracht wird und sich der Preis so anpasst, dass der Markt geräumt wird, ergibt sich für ein Modell mit mehr als einem Unternehmen ein deutlich anderes Bild: Schon bei zwei Unternehmen führt Preiswettbewerb zum gleichen Marktergebnis wie die vollkommene Konkurrenz, während Mengenwettbewerb unter ansonsten gleichen Bedingungen zu einer geringeren Menge und zu höheren Preisen als bei vollkommenem Wettbewerb. In den folgenden Abschnitten werden einige Erweiterungen und Modifikationen des Bertrand-Modells vorgestellt.

2.3.5

Erweiterungen des Bertrand-Modells

In den folgenden Abschnitten werden einige wesentlich Erweiterungen des Grundmodells des Preiswettbewerbs in einem duopolistischen Markt vorgestellt.

2.3.5.1 Das Bertrand-Modell mit asymmetrischen Firmen Die Analyse des Oligopols bei Preiswettbewerbs mit homogenen Gütern, das BertrandModell, hat deutlich gemacht, dass bei symmetrischen Firmen bereits zwei Unternehmen ausreichen, um das gleiche Marktergebnis herbeizuführen wie bei vollkommenem Wettbewerb. Der Grund liegt in der Unstetigkeit in der Nachfragereaktion: Selbst kleinste Preisunterschiede führen dazu, dass alle Nachfrager beim günstigeren Anbieter kaufen und der Gewinn eines Unternehmens sprunghaft ansteigt, wenn der Wettbewerber unterboten wird. Der Wettbewerbsdruck im Bertrand-Modell ist daher deutlich höher als im Cournot-Modell, in dem eine kleine Mengenänderung nur zu einer geringen Änderung des Gewinns führt. Allerdings können im Bertrand-Modell Probleme auftreten, wenn sich die Unternehmen bezüglich ihrer Grenzkosten unterscheiden. Dies kann anhand des folgenden Beispiels illustriert werden. Ausgangspunkt sei eine Situation mit den Firmen 1 und 2 mit gleichen Grenzkosten c1 = c2 = c und Unternehmen 1 eine Prozessinnovation tätigt, die seine Grenzkosten auf ein Niveau c1 < c1 senkt. In dieser Situation sind zwei Szenarien denkbar: Erstens kann der Fall auftreten, in dem der Monopolpreis des Unternehmens 1 unterhalb von c2 liegt. In dieser Situation würde Unternehmen 1 den Monopolpreis verlangen und Unternehmen 2 müsste den Markt verlassen, da es diesen Preis nicht profitabel unterbieten kann. Eine solche Prozessinnovation wird als „drastische“ Innovation bezeichnet. Zweitens könnte der Monopolpreis, den Unternehmen 1 verlangen könnte, oberhalb von c2 liegen. In diesem Fall könnte Unternehmen 2 den Monopolpreis gewinnbringend unterbieten, und dieser Preis wäre

2 Industrieökonomik

207

kein Gleichgewicht. In dieser Situation stellt sich darüber hinaus die Frage, ob es in diesem Modell überhaupt ein Gleichgewicht gibt. Häufig wird argumentiert, dass Unternehmen 1 in dieser Situation einen Preis verlangen sollte, der „knapp“ oder „minimal“ unterhalb der Grenzkosten c2 liegt. Wenn jedoch die Preise stetig verändert werden können, dann hat dieses Problem keine Lösung, da es keinen größten Preis gibt, der unterhalb der Grenzkosten c2 liegt.37 Anders ausgedrückt: Es existiert in diesem Fall kein Gleichgewicht. Das Problem kann dadurch gelöst werden, dass man annimmt, Preise können nur diskret verändert werden, d.h. es wird davon ausgegangen, dass es eine kleinste Geldeinheit gibt, die mit ε bezeichnet wird. In diesem Fall wäre die Strategienkombination (c2 – ε, c2) ein Nash-Gleichgewicht, denn kein Unternehmen könnte durch eine Preisänderung bei gegebenem Preis des anderen Unternehmens seinen Gewinn erhöhen. Allerdings tritt nun das Problem auf, dass alle Strategienkombinationen (c2 – (ε + aε), c2 – aε) mit a ∈! und c2 – (ε + aε) ≥ c1 Nash-Gleichgewichte wären. Anders ausgedrückt: Alle Preiskombinationen, die zwischen den Grenzkosten c1 und c2 liegen und Firma 1 die Firma 2 genau um eine Geldeinheit unterbietet, sind ebenfalls Nash-Gleichgewichte.38 Dies zeigt, dass das Bertrand-Modell mit homogenen Gütern eine Reihe von Problemen aufweist, die ihre Ursache vor allem in der unstetigen Reaktion der Nachfrage bei Preisunterbietungen haben, d.h. der Annahme, dass Nachfrager selbst bei kleinsten Preisänderungen bereit sind den Anbieter zu wechseln. Ein solches Verhalten ist in der Realität jedoch nur in Ausnahmefällen zu beobachten. In aller Regel sind die Produkte zumindest für einige Konsumenten nicht homogen, so dass kleinere Preisunterschiede sie nicht zu einem Wechsel des Anbieters veranlassen. Im folgenden Abschnitt wird daher das Bertrand-Modell auf den realistischeren Fall differenzierter Produkte erweitert.

2.3.5.2 Das Bertrand-Modell mit differenzierten Produkten Im Folgenden wird ein Modell des Preiswettbewerbs mit differenzierten Gütern betrachtet, das in der Literatur auch als Bertrand-Modell mit differenzierten Gütern oder Launhardt-Hotelling Modell bezeichnet wird. Um die Vergleichbarkeit mit dem CournotModell mit differenzierten Gütern in Abschnitt 2.3.1.3 zu gewährleisten, werden die selben Preis-Absatz-Funktionen verwendet. Da im Weiteren Preisstrategien betrachtet werden, erweist es sich als sinnvoll, die Preis-Absatz-Funktionen zu invertieren, um die Nachfragefunktionen zu erhalten. Die Nachfragefunktionen, d.h. die invertierten Preis-Absatz-Funktionen sind x1(p1, p2) = α – βp1 + γp2 und x2(p1, p2) = α – βp2 + γp1 mit α=

a(b − d) , b2 − d 2

β=

b , b2 − d 2

γ=

d . b2 − d 2

Dies ist nicht anderes als die bekannte Tatsache, dass es keine kleinste positive reelle Zahl gibt. Man kann jedoch zeigen, dass alle Gleichgewichte bis auf das mit (c2 – ε, c2) nicht „TremblingHand“ perfekt, also nicht robust gegenüber kleinen Perturbationen in der Strategienwahl, sind. 37 38

208

Ulrich Schwalbe

Aus dem Maximierungsproblem des Oligopolisten i max π i ( p1 , p2 ) = (α − β pi + γ p j )pi , pi

i, j = 1,2

i≠ j

und den Bedingungen 1. Ordnung für ein Gewinnmaximum ∂π (⋅) = α − 2β pi + γ p j = 0, ∂ pi

i, j = 1,2

i≠ j

ergeben sich die Reaktionsfunktionen pir ( p j ) =

α + γ pj , 2β

i, j = 1,2

i≠ j.

Die Reaktionsfunktionen sind in Abbildung 2.19 dargestellt.

Abb. 2.19 Reaktionsfunktionen und Nash-Gleichgewicht im Bertrand-Modell mit differenzierten Gütern

Während bei Mengenwettbewerb die Reaktionsfunktionen einen fallenden Verlauf haben, d.h. die Mengen strategische Substitute sind, weisen die Reaktionsfunktionen bei Preiswettbewerb eine positive Steigung auf. Die Preise sind daher so genannte strategische Komplemente: Wenn ein Unternehmen den Preis seines Produktes senkt (erhöht), sollte das andere den Preis seines Produktes ebenfalls verringern (erhöhen). Das Nash-Gleichgewicht in diesem Modell ergibt sich, analog zum Cournot-Modell, als Schnittpunkt der Reaktionsfunktionen (Vgl. Abb. 2.19).39 Im Gleichgewicht sind die Preise, Mengen und Gewinne gegeben durch 39

Durch die Annahme b > |d| ist sichergestellt, dass ein solcher Schnittpunkt existiert.

2 Industrieökonomik

pib =

α a(b − d) = , 2β − γ 2b − d

xib =

αβ ab(b − d) = , 2β − γ (2b − d)(b 2 − d 2 )

π ib =

α 2β a 2b(b − d) = . 2 (2β − γ ) (2b − d)2 (b + d)

209

Diese Ergebnisse zeigen, dass mit geringer werdendem Differenzierungsgrad die Gewinne sinken. Im Grenzfall d = b ist der Gewinn, genau wie im Bertrand-Modell mit homogenen Gütern, gleich null. Da mit steigender Differenzierung (d → 0) die Monopolmacht eines Unternehmens wächst, nehmen auch die Gewinne zu. Die Unterschiede zwischen den Ergebnissen des Cournot- und des BertrandModells, die im Fall homogener Güter signifikant waren, werden bei differenzierten Gütern zwar geringer, verschwinden aber nicht vollständig. Es werden daher im Folgenden die gleichgewichtigen Preise, Mengen und Gewinne im Cournot- und Bertrand-Modell mit differenzierten Gütern verglichen. Ein Vergleich der Preise ergibt pi* − pib =

a a(b − d) a − = 2 . b 2b + d 2b − d 4 2 −1 d

Aus b ≥ |d| folgt, dass die Gleichgewichtspreise bei Mengenwettbewerb höher sind als bei Preiswettbewerb. Daraus ergibt sich unmittelbar, dass es sich bei den Mengen im Gleichgewicht umgekehrt verhalten muss. Diese Differenz wird jedoch mit zunehmendem Differenzierungsgrad immer geringer und verschwindet im Grenzwert (d → 0) völlig. Dieser Extremfall differenzierter Produkte entspricht zwei völlig unabhängigen Märkten, auf denen jeweils ein Unternehmen Monopolist ist. Im Monopol führen aber Preis- und Mengensetzung zum gleichen Resultat. Ein Vergleich der Gewinne in beiden Modellen ergibt π i* − π ib =

a 2b a 2b(b − d) 2a 2bd 3 − = > 0, 2 2 (2b + d) (2b − d) (b + d) (b + d)(d 2 − 4b 2 )2

d.h. bei Mengenwettbewerb werden höhere Gewinne erzielt als bei Preiswettbewerb. Um dies zu verdeutlichen, wird eine hypothetische Mengenerhöhung eines Unternehmens betrachtet. Bei einer Mengenerhöhung im Cournot-Modell geht das abweichende Unternehmen davon aus, die Menge des anderen Unternehmens bliebe konstant. Dies würde jedoch zu einem geringeren Marktpreis führen, so dass eine Mengenerhöhung nicht lohnend ist. Im Bertrand-Modell hingegen geht jedes Unternehmen davon aus, dass das andere seinen Preis konstant hält. Daher erscheint eine Outputerhöhung im BertrandModell stets attraktiver als bei Mengenwettbewerb, so dass Preiswettbewerb unter sonst gleichen Bedingungen zu niedrigeren Preisen, größeren Mengen und geringeren Gewinnen führt als Mengenwettbewerb.

210

Ulrich Schwalbe

2.3.5.3 Bertrand-Modell mit Kapazitätsbeschränkungen Wie im Fall des Preiswettbewerbs von zwei Unternehmen mit unterschiedlichen Grenzkosten kann Problem hinsichtlich der Existenz eines Gleichgewichtes auftreten, wenn die Firmen Kapazitätsbeschränkungen unterliegen, d.h. dass sie maximal nur bis zu einer Kapazitätsgrenze, aber nicht darüber hinaus produzieren können. Dies kann anhand eines einfachen Beispiels illustriert werden. Angenommen, die Nachfragefunktion sei gegeben durch x(p) = 1000 – p und die Unternehmen 1 und 2 produzieren mit Grenzkosten in Höhe von 280 bis zu einer maximalen Kapazität von 360 Einheiten. Darüber hinaus steigen die Grenz- und Stückkosten ins unendliche. Würden beide Unternehmen einen Preis in Höhe der Grenzkosten verlangen, dann würde die Menge von 720 Einheiten nachgefragt werden. Diese Menge könnte mit den Kapazitäten der beiden Unternehmen hergestellt werden. Allerdings sind nun Preise in Höhe der Grenzkosten kein Gleichgewicht mehr, denn jede Firma hat einen Anreiz, unilateral von diesem Preis abzuweichen und einen höheren Preis zu verlangen. Ohne Kapazitätsbeschränkungen würde nun die gesamte Nachfrage vom Unternehmen mit dem geringeren Preis gedeckt werden. Dies ist nun aber aufgrund der Kapazitätsbeschränkung nicht möglich. Würde z.B. Firma 1 einen höheren Preis verlangen, verbliebe ihr eine Restnachfrage in Höhe von xr(p) = 640 – p. Gegenüber dieser Restnachfrage ist Firma 1 Monopolist und würde den gewinnmaximierenden Preis in Höhe von 460 verlangen. Bei diesem Preis würde sie die Menge von 180 Einheiten verkaufen und pro Einheit einen Gewinn von 180 erwirtschaften. In diesem Zusammenhang ist die Frage zu erörtern, welche Konsumenten das Gut zum niedrigeren Preis bei Firma 2 bzw. zum höheren Preis bei Firma 1 kaufen, d.h. wie die Mengen auf die Nachfrager aufgeteilt bzw. rationiert werden. Häufig wird eine effiziente Rationierung unterstellt, d.h. die Konsumenten mit der höchsten Zahlungsbereitschaft erhalten das Gut von der Firma mit dem niedrigeren Preis. Dies kann dadurch gerechtfertigt werden, dass sich die gleiche Allokation ergeben würde, wenn zwischen den Konsumenten kostenlose Arbitrage möglich wäre oder wenn alle Konsumenten identisch sind und jeder Konsument die gleiche maximale Zahl von Einheiten des Gutes kaufen kann. Neben der effizienten Rationierung werden in der Literatur auch andere Formen der Rationierung betrachtet, wie z.B. die proportionale oder die stochastische Rationierung. Im Folgenden wird davon ausgegangen, dass eine effiziente Rationierung erfolgt. In der beschriebenen Situation könnte Firma 1 also profitabel von einem Preis in Höhe der Grenzkosten abweichen. Allerdings würde nun Firma 2 diesen Preis unterbieten können und bei einem etwas geringeren Preis, z.B. 459,99, ihre gesamte Kapazität in Höhe von 360 Einheiten absetzen und einen (fast) doppelt so hohen Gewinn realisieren wie Firma 1.40 Dieser Preis würde wiederum von Firma 1 unterboten werden, so dass auch dies kein Gleichgewicht ist. Würde ein Unternehmen jedoch einen Preis in Höhe von 370 oder weniger verlangen, dann könnte sich das andere Unternehmen besser stellen, wenn es einen Preis von 460 fordert. Bei einem Preis von 370 und einer abgesetzten Menge von 360 wäre 40 In diesem Beispiel wird angenommen, dass die Preise nur in diskreten Schritten z.B. von 1 Cent geändert werden können.

2 Industrieökonomik

211

der Gewinn der gleiche wie bei einem Preis von 460 und 180 verkauften Einheiten: 370 ∙ 360 – 280 ∙ 360 = 460 ∙ 180 – 280 ∙ 180 = 32400. Dieses Beispiel zeigt, dass wegen der Kapazitätsbeschränkungen kein Gleichgewicht existiert.41 Auf diese Tatsache hat bereits Edgeworth (1897) aufmerksam gemacht. Er ging bei seiner Überlegung von einem Prozess des gegenseitigen Unterbietens aus, der beim Monopolpreis beginnt und sich dann bis zu einem Preis fortsetzt, bei dem es für ein Unternehmen wieder profitabel wird, den hohen Preis zu setzen. Man spricht daher bei solchen Prozessen auch von Edgeworth-Zyklen.42

2.3.6

Sequentieller Preiswettbewerb

Im von Stackelberg-Modell, wie es in Abschnitt 3.4. dargestellt ist, wird von einer sequentiellen Entscheidungsstruktur ausgegangen, in der ein Unternehmen, der Stackelberg-Führer, eine Mengenentscheidung getroffen hat, und erst danach, in Kenntnis der Mengenentscheidung des Stackelberg-Führers, der Stackelberg-Folger seine Menge wählt. Es hat sich gezeigt, dass die Möglichkeit der Selbstbindung an eine bestimmte Menge dem Stackelberg-Führer einen größeren Gewinn im Vergleich zum simultanen Mengenwettbewerb ermöglicht, d.h. er verfügt über einen „First-Mover-Advantage“. Diese Entscheidungsstruktur wird im Folgenden auf den Preiswettbewerb übertragen.43 Das Unternehmen 1 sei der Preisführer, der zuerst einen Preis nennt und Unternehmen 2 der Preisfolger, der in Kenntnis des von Unternehmen 1 gesetzten Preises, seinen Preis festlegt. Im Weiteren wird diese Situation an einem einfachen numerischen Beispiel illustriert, wobei die Werte α = 28, β = 2 und γ = 1 verwendet werden. Die Nachfragefunktionen lauten in diesem Fall x1(p1, p2) = 28 – 2p1 + p2 und x2(p1, p2) = 28 – 2p2 + p1. Bei simultanem Preiswettbewerb ergeben sich die Preise, Mengen und Gewinne als p = 9,33, xib = 18,66 und πib = 174,22. b i

Genauer gesagt: Kein Gleichgewicht in reinen Strategien. Es kann jedoch gezeigt werden, dass Gleichgewichte in gemischten Strategien, d.h. Wahrscheinlichkeitsverteilungen auf der Menge der reinen Strategien, existieren. 42 Zu Edgeworth-Zyklen vgl. z.B. Maskin/Tirole (1988). Im Zusammenhang mit der Sektoruntersuchung des Kraftstoffmarktes, die das Bundeskartellamt durchgeführt hat und die ein zyklisches Preissetzungsverhalten der Mineralölkonzerne festgestellt hat, sind Edgeworth-Zyklen intensiv diskutiert worden. 43 Hierbei wird von einem Modell mit differenzierten Produkten ausgegangen, da bei homogenen Produkten und symmetrischen Firmen kein Unterschied zwischen simultaner und sequentieller Preissetzung vorliegt. In beiden Fällen wird im Gleichgewicht der Preis gleich den Grenzkosten gesetzt. Bei Preisen oberhalb der Grenzkosten würde der Preisfolger den Preisführer immer unterbieten, so dass diese Preise kein Gleichgewicht bilden. 41

212

Ulrich Schwalbe

Wenn Unternehmen 1 als Preisführer agiert, wird es, analog zum StackelbergModell, die Reaktionsfunktion des Preisfolgers, die gegeben ist durch p2r ( p1 ) =

28 + p1 , 4

bei seiner Preissetzung berücksichtigen. Das Optimierungsproblem des Preisführers lautet daher: 28 + p1 ⎞ ⎛ max π ( p1 ) = ⎜ 28 + 2p1 + ⎟ p1 . ⎝ p1 4 ⎠

Aus der Bedingung 1. Ordnung ∂π ( p1 ) = 70 − 7 p1 = 0 ∂ p1

folgt unmittelbar der gewinnmaximale Preis des Preisführers p1l = 10. Einsetzen dieses Wertes in die Reaktionsfunktion des Preisfolgers ergibt seinen den optimalen Preis p2f = 9,5. Der Preisfolger wird also den Preisführer etwas unterbieten. Die von den Firmen im Gleichgewicht angebotenen Mengen betragen x1l = 17,5 und x 2f = 19 und die resultierenden Gewinne sind π1l = 175 und π2f = 180,5. Im Vergleich zum simultanen Preiswettbewerb sind bei sequentiellem Preiswettbewerb sowohl die Preise des Preisführers also auch des –folgers höher, die Mengen geringer und die Gewinne größer. Dabei realisiert der Preisfolger jedoch einen höheren Gewinn als der Preisführer, d.h. es gibt hier, im Unterschied zum von Stackelberg-Modell, einen „Second-Mover Advantage“. Dies liegt daran, dass der Preisfolger in der Lage ist, den Preisführer etwas zu unterbieten und sich dadurch einen größeren Marktanteil und einen höheren Gewinn zu sichern. Dies wird vom Preisführer antizipiert und er wird von vornherein einen etwas höheren Preis verlangen als bei simultanem Preiswettbewerb. Die Preise beider Unternehmen liegen also näher an den Monopolpreisen als im Falle einer simultanen Preissetzung. Dies zeigt, dass in Märkten mit Preiswettbewerb und differenzierten Gütern die Firmen ein Interesse daran haben, ein Unternehmen als Preisführer zu etablieren. Allerdings möchte jedes Unternehmen aufgrund des „Second-Mover Advantage“ lieber Preisfolger sein. Es kann jedoch gezeigt werden, dass Asymmetrien zwischen den Unternehmen, z.B. hinsichtlich der Kosten oder der Information über die Nachfrage, das Auftreten eines Preisführers modellendogen erklären können.44

2.3.7

Cournot vs. Bertrand

Die meisten Industrien sind jedoch weder durch reinen Preis- oder Mengenwettbewerb gekennzeichnet, denn für viele Unternehmen sind beide Größen wichtige Wettbewerbsparameter, so dass nicht unmittelbar klar ist, ob zur Analyse einer gegebenen Industrie besser Vgl. z.B. die Arbeiten von Amir/Grilo (1999), Amir/Stepanova (2006) und van Damme/ Hurkens (2004).

44

2 Industrieökonomik

213

das Cournot- oder das Bertrand-Modell herangezogen werden sollte. Allerdings hat je nach Gegebenheit der Preis oder die Menge eine größere Bedeutung. So kann z.B. in der Landwirtschaft die Menge nicht schnell variiert werden, da diese von der Aussaat abhängig ist. Ähnliches gilt auch für Pauschalreisen, wo zusätzliche Flug- und Hotelkapazitäten nicht kurzfristig verändert werden können. Allerdings kann der Preis sehr schnell geändert werden – man denke z.B. an Last-Minute-Angebote von Reiseveranstaltern. In solchen Industrien ist daher die Kapazitäts- bzw. Mengenentscheidung die zentrale, so dass zur Analyse solcher Industrien eher ein Cournot-Modell herangezogen werden sollte. In anderen Bereichen, in denen z.B. umfangreiche Kataloge gedruckt und verbreitet werden, wie z.B. im Versandhandel oder auch in der Möbelindustrie, sind Preisänderungen nur mit großer Zeitverzögerung möglich, während die Menge vergleichsweise schnell angepasst werden kann. Dies gilt z.B. in der Softwareindustrie aber auch in Industrien, in denen zusätzliche Produkte umgehend bei den Herstellern geordert werden oder weitere Unternehmen mit der Herstellung der Produkte beauftragt werden können. In solchen Fällen hat der Preis die größere Bedeutung für das Unternehmen und zur Untersuchung sollte eher das Bertrand-Modell verwendet werden. Allgemein sollte die Wahl des Modells durch den Parameter bestimmt werden, der weniger schnell variiert werden kann. Häufig treten auch Situationen auf, in denen die Unternehmen in einem ersten Schritt ihre Kapazität, d.h. ihre Produktionsmenge wählen und dann in einem zweiten Schritt den Preis für ihr Produkt festsetzen. Diese Kombinationen von Mengen- und Preiswettbewerb wurde erstmals von Kreps/Scheinkman (1983) untersucht. Sie zeigen in ihrem Modell, dass im Falle eines zweistufigen Wettbewerbs, bei dem in der ersten Stufe die Menge und in der zweiten Stufe der Preis gewählt wird, unter bestimmten Bedingungen das gleiche Ergebnis resultiert wie im Cournot-Modell. Dies kann intuitiv wie folgt erklärt werden: Die Firmen wissen, dass sie in der zweiten Stufe die Preise so festlegen werden, dass sie den Output, den sie mit der in der ersten Stufe gewählten Kapazität herstellen können, auch absetzen können. Ein geringerer Preis wäre nicht sinnvoll, da sie keine größere Menge verkaufen können und eine Preissenkung lediglich ihren Gewinn schmälern würde. Ein höherer Preis ist ebenfalls nicht sinnvoll, da dann die Kapazität in der ersten Stufe offensichtlich nicht optimal, d.h. zu groß gewählt worden ist. Der Preis wird also von den Firmen immer so gesetzt, dass gerade die gesamte produzierte Menge abgesetzt wird. Die Unternehmen übernehmen also quasi eine Rolle, die der des Marktes im Cournot-Modell entspricht. Dies jedoch führt dazu, dass im Grunde zwischen den Firmen nur ein Mengenwettbewerb besteht, d.h. eine Situation, die der im Cournot-Modell entspricht. Daher stimmt das Ergebnis eines zweistufigen Modells mit Mengenwahl in der ersten und Preissetzung in der zweiten Stufe mit dem des Cournot-Modells überein.45

45 Allerdings hängt dieses Ergebnis auch von dem unterstellten Rationierungsmechanismus ab, wie z.B. Davidson/Denekere (1986) deutlich machen.

214

2.3.8

Ulrich Schwalbe

Standorte als differenzierte Produkte: Die Modelle von Hotelling und Salop

Ein alternativer Ansatz zur Modellierung horizontal differenzierter Produkte wurde bereits 1929 von Hotelling vorgeschlagen.46 Er geht von einer räumlichen Situation aus, z.B. einer Straße, an der sich die Unternehmen ansiedeln können. Die Konsumenten leben entlang dieser Straße, wobei in aller Regel davon ausgegangen wird, dass es ein Kontinuum von Konsumenten mit Maß 1 gibt, das gleichverteilt entlang dieser Straße ist. Beim Kauf des Produktes eines Unternehmens fallen bei den Konsumenten Transportkosten an, die mit der Entfernung zwischen dem Wohnort und dem Unternehmen wachsen. Die von den Unternehmen hergestellten Güter können daher als (räumlich) differenzierte Produkte aufgefasst werden. Statt einer räumlichen Interpretation kann die Straße auch als die Menge der möglichen Produkteigenschaften aufgefasst werden (z.B. der Kohlensäuregehalt eines Mineralwassers oder der Kakaogehalt von Schokolade). Die Ansiedlung eines Unternehmens entspräche in dieser Interpretation der Wahl einer bestimmten Produktcharakteristik (siehe Produkteigenschaften). Die Präferenzen der Konsumenten werden entlang dieser „Straße“ im Standardmodell als gleichverteilt unterstellt und die Transportkosten entsprechen dem Nutzenverlust, den ein Konsument erleidet, wenn er ein Produkt kauft, das seinen Präferenzen nicht voll entspricht. In der folgenden Darstellung wird die räumliche Interpretation des Modells verwendet. Eine Übertragung auf die andere ist problemlos möglich. Im Folgenden werden 2 Szenarien untersucht: 1. Standortwettbewerb bei gegebenen Preisen und 2. Standort- und Preiswettbewerb in einem sequentiellen Spiel.

2.3.8.1 Standortwahl bei gegebenen Preisen Es wird eine Situation betrachtet, in der zwei Unternehmen A und B, z.B. zwei Buchhandlungen, ihre Standorte auf der „Straße“, dem Einheitsintervall [0,1], wählen. Die Standorte seien mit lA und lB bezeichnet. Da die Buchhandlungen der Buchpreisbindung (pA = pB = p) unterliegen, ist der Standort ihr einziger Wettbewerbsparameter. Es wird aus Vereinfachungsgründen angenommen, dass die Unternehmen kostenlos produzieren können. Es wird ein Kontinuum an Konsumenten s unterstellt, dessen Masse auf 1 normiert wird. Die Konsumenten sind gleichmäßig auf dem Einheitsintervall verteilt. Um eine Einheit des einzigen Gutes im Modell zu kaufen, muss ein Konsument s zusätzlich zum Preis p, den er für eine Einheit des Gutes an das verkaufende Unternehmen bezahlt, Transportkosten in Höhe von τ pro Entfernungseinheit aufwenden. Es wird angenommen, dass jeder Konsument höchstens eine Einheit des Produktes kaufen möchte und dass alle Konsumenten einen hinreichend großen Reservationsnutzen haben, so dass auch alle Nachfrager eine Einheit kaufen, d.h. der Markt wird vollständig versorgt. Der Nutzen, den ein Konsument am Standort s erzielt, ist gegeben durch ui(s) = – p – τ|s – li|, 46

Hotelling (1929).

i = A, B.

2 Industrieökonomik

215

Haben sich die Unternehmen an den Standorten lA < lB angesiedelt, dann gibt es einen Konsumenten s, der indifferent zwischen einem Kauf bei A oder B ist. Für diesen Konsumenten gilt l l +l +l +l l != !B)!(s uuA (s uA!(s )!= )−=−p−p−p−τ−τs!τ− s! − s!lA−lAl=A=−=−p−p−p−τ−τs!τ− s! − s!lB−lB= lB=u=u u ⇒ )!⇒ )⇒ s! s!=s!==A A A B B. B. . A)(s B (s B (s 222

Alle Konsumenten links von s kaufen bei Firma A und alle Konsumenten rechts davon bei Firma B. Die Nachfragen, denen sich die beiden Firmen gegenübersehen sind daher l l +l +l+l lB l l +l +l+l l x xAx(l (lA(l,l ,l )B = ) )==A A A B Bund und x xB (l xB (l ,l ,l )B = ) )=1− =1− 1−A A A B B. B. . und AA AA B ,l B BA(l AA B ,l B 2 22 2 22

Die Gewinne der Unternehmen hängen von der Standortwahl ab: Siedelt sich das Unternehmen A links von Unternehmen B an, erhält es p(lA + lB)/2, rechts von Unternehmen B erhält es p(1 – (lA + lB))/2. Siedeln sich beide Unternehmen am gleichen Standort an, so teilen sich die Unternehmen den gesamten Markt und jedes erhält p/2. Man kann sich leicht überlegen, dass das einzige Gleichgewicht bei einer Ansiedlung beider Unternehmen in der Mitte der Straße liegt. Bei Standortkombinationen, bei denen ein Unternehmen einen anderen Standort gewählt hat, wird sich das andere unmittelbar neben dieses Unternehmen platzieren, so dass es mehr als die Hälfte des Marktes bekommt. Interpretiert man die Standortwahl als differenzierte Güter, so gilt in diesem Gleichgewicht das „Prinzip der minimalen Differenzierung“. Eine solche Standortwahl ist jedoch wohlfahrtsökonomisch ineffizient, da die Transportkosten im Vergleich zur wohlfahrtsmaximalen Lösung zu hoch sind. Die Konsumenten an den Enden der Straße müssten eine Strecke von 1/2 zurücklegen. Würden sich die beiden Unternehmen jedoch an den Standorten 1/4 und 3/4 ansiedeln, dann wäre die maximale Distanz, die jeder Konsument zurücklegen müsste, 1/4 und die Transportkosten wären geringer.

2.3.8.2 Standortwahl und Preissetzung Im Folgenden wird eine Situation betrachtet, in der die Unternehmen in einem ersten Schritt ihren Standort wählen und anschließend den Preis für ihr Produkt festlegen. Ein solches zweistufiges Spiel wird mittels Rückwärtsinduktion gelöst. Betrachtet wird daher eine Situation, in der die Unternehmen sich bereits an den Standorten lA und lB mit lA < lB angesiedelt haben und nun mittels Preisen pA und pB konkurrieren. Um die Nachfragefunktionen für die beiden Unternehmen zu ermitteln, wird ein indifferenter Konsument betrachtet, der sich am Standort s befindet. Für diesen Konsumenten gilt uA(s) = –pA – τ|s – lA| = –pB – τ|s – lB| = uB(s). Daraus folgt ss! =

pB − p A l B − l A . + 2τ 2

216

Ulrich Schwalbe

Die Nachfragefunktionen, denen sich die beiden Unternehmen gegenübersehen, sind also x A ( p A , pB ) =

pB − p A l A + l B p − p 2 + l A + lB + und x B ( pA , pB ) = A B + . 2τ 2 2τ 2

Um das Gleichgewicht zu ermitteln, werden die Maximierungsprobleme der Firmen A und B gelöst. max π A ( pA , pB ) =

pA pB − pA2 l +l + pA A B , 2τ 2

max π B ( pA , pB ) =

pA pB − pB2 2 + l A + lB + pB . 2τ 2

pA

pB

Die Bedingungen erster Ordnung47 lauten ∂π A pB − 2pA lA + lB ∂π p − 2pB 2 − lA − lB = + = 0 und B = A + = 0. ∂ pA 2τ 2 ∂ pB 2τ 2 Lösen des Gleichungssystems ergibt die Preise pA* =

τ (2 + lA + lB ) τ (4 − (lA + lB )) und pB* = . 3 3

Die Mengen bei diesen Preisen sind x A* =

2 + l A + lB 4 − (lA + lB ) und x B* = . 6 6

Und die Gewinne ergeben sich als: π A* =

τ (2 + lA + lB )2 τ (4 − (lA + lB ))2 und π B* = . 18 18

Wenn beide Unternehmen sich in der Mitte der Straße ansiedeln würden (lA = lB = 1/2), dann würde der Markt gleichmäßig auf die beiden Unternehmen aufgeteilt und die Preise sind pA* = pB* = 0, da es sich nun um homogene Produkte handelt und das Resultat des Bertrand-Modells bei homogenen Gütern gilt. Die Gewinne zeigen, dass die Unternehmen ein Interesse daran haben, ihre Standorte einander anzunähern. Angenommen, die Firmen hätten sich an den äußeren Rändern der Straße angesiedelt, d.h. lA = 0 und lB = 1. Offensichtlich hätte Firma 1 ein Interesse daran, einen Standort weiter rechts zu wählen und Firma 2 würde gern einen Standort weiter links wählen. Dies liegt daran, dass jede Firma versucht, ihren Marktanteil auf Kosten des Wettbewerbers zu vergrößern. Haben sich die Firmen jedoch sehr dicht nebeneinander angesiedelt, dann werden sie anfangen den vom jeweils anderen Unternehmen gesetzten Preis zu unterbieten. Dies führt dazu, dass – ähnlich wie beim Edgeworth-Zyklus, der im Rahmen des Bertrand-Modells mit Kapazitätsschranken beschrieben wurde – kein Gleichgewicht existiert. Dies hat seinen Grund in der Annahme linearer Transportkosten: Bei einer hinreichend großen 47

Die Bedingungen 2. Ordnung sind offensichtlich erfüllt.

2 Industrieökonomik

217

Preisdifferenz kaufen alle Konsumenten bei einer Firma, so dass eine Unstetigkeit, d.h. ein Sprung in der Gewinnfunktion auftritt. Formal bedeutet dies, dass das Optimierungsproblem nicht „well-behaved“ ist, d.h. die Gewinnfunktion nicht die erforderliche Eigenschaft der Quasi-Konkavität aufweist. Daher ist durch die Bedingungen erster Ordnung nicht notwendig ein Optimum charakterisiert. Nur wenn zwischen den Firmen ein hinreichend großer Abstand herrscht, dann ist durch die oben ermittelten Preise und die zugehörigen Mengen und Gewinne ein Gleichgewicht für diese Standorte charakterisiert. Da allerdings die Firmen die Tendenz haben, ihre Standorte einander anzunähern, d.h. in den Bereich zu kommen, in dem die Preise kein Gleichgewicht bilden, kann der Schluss gezogen werden, dass in einem Modell mit simultaner Preis- und Standortwahl bei linearen Transportkosten kein Gleichgewicht existiert. Wird jedoch davon ausgegangen, dass die Transportkosten quadratisch sind, d.h. steigen die Transportkosten mit zunehmender Entfernung überproportional an, dann kann gezeigt werden, dass ein eindeutiges Gleichgewicht existiert, das die Eigenschaft der „maximalen Differenzierung“ aufweist, d.h. die Firmen siedeln sich an den Rändern der Straße an. Dies kann wie folgt gezeigt werden: Für einen indifferenten Konsumenten am Standort s mit quadratischen Transportkosten gilt nun uA(s) = –pA – τ|s – lA|2 = –pB – τ|s – lB|2 = uB(s). Daraus ergibt sich die Nachfrage nach dem Produkt des Unternehmens A bei Preisen pA und pB als p − pA l +l s! = x A ( pA , pB ) = B + A B 2τ (lA − lB ) 2 und die entsprechende Nachfrage nach dem Produkt des Unternehmens B als xB(pA, pB) = 1 – xA(pA, pB). Die Gewinne für die beiden Unternehmen betragen πA = pA xA(pA, pB) und πB = pB(1 – xA(pA, pB)). Aus den Bedingungen erster Ordnung der Gewinnmaximierungsprobleme ergeben sich die Preise pA* =

τ (2 + lA + lB )(lB − lA ) τ (4 − (lA + lB ))(lB − lA ) und pB* = . 3 3

Die Preise werden mit geringerem Abstand immer niedriger und nehmen den Wert 0 an, wenn die Firmen sich am gleichen Ort niederlassen. Dies gilt auch für die Gewinne, die gegeben sind durch π A* =

τ (2 + lA + lB )(lB − lA ) τ (4 − (lA + lB ))(lB − lA ) und π B* = . 18 18

218

Ulrich Schwalbe

In diesem Modell ist es für die Unternehmen profitabler, ihre Produkte möglichst stark zu differenzieren, d.h. einen möglichst großen Abstand zueinander zu wahren, da die Mobilität der Konsumenten aufgrund der quadratischen Transportkosten vergleichsweise gering ist und die Firmen auf diese Weise ihre Marktmacht erhöhen können. Es liegt hier also der Fall maximaler Differenzierung vor.48 Eine wohlfahrtökonomische Analyse zeigt jedoch, dass auch dieses Ergebnis bei Standortwahl und Preissetzung zu einem ineffizienten Ergebnis führt. Die gesamten Transportkosten, die den Konsumenten entstehen, wenn sich die beiden Unternehmen an den Enden der Straße angesiedelt haben, sind gegeben durch 1 2

11 22

3 2τ τ l τ l 2τ 1 min 2 ∫∫ 2 ∫τ (sl τ sA2 −dss)=2 ds ⇔ = min . − A + A ⇒ lA* = , lB* = . 0 00 τ 4 4 24 12τ 4 2

Die optimalen Standorte sind diejenigen, die die Transportkosten minimieren. Unterstellt man eine symmetrische Lösung, d.h. lA = 1 – lB, dann ergeben sich diese Standorte als Lösung des Optimierungsproblems 1 111 1 11

lAτllAAlτAτllτAAlττA2τllA2Al2τA2τllτA2A2ττ* ** *1** 111*11** *3** 33333 2 2 22 2 2 22 min min min min min 2min 2222∫τ∫222∫2(sl τ∫ττ(sl (sl (sl −(sl (sl s) −−AA−2s) − s) − ds s)2s) s) ds ds ⇔ dsds ds ⇔ ⇔ min ⇔ ⇔ ⇔ min min min min −min −−−−−+ +++++⇒⇒ ,==lB,, ,l=lB,Bl,Bl=l=BB=. ==.. . .. ⇒ l⇒ ⇒ l=lAAlAl=l= Aττ A AA A⇒ AA= ∫ ∫ ∫ τ ττ τ ττ0 000 0 00 τ ττ τ ττ 4 4444 4 44444 4 44444 42 22222

Es zeigt sich, dass die Produktdifferenzierung im Vergleich zur wohlfahrtsoptimalen Lösung „zu groß“ ist, d.h., Konsumenten würden einen geringeren Grad an Produktdifferenzierung bevorzugen, weil die Ersparnis an Transportkosten größer ist als stärker differenzierte Produkte.

2.3.8.3 Räumlicher Wettbewerb auf dem Einheitskreis. Bisher wurde im Hotelling-Modell davon ausgegangen, dass die Zahl der Unternehmen exogen gegeben ist, d.h. dass ein Markteintritt aufgrund z.B. von institutionellen Marktzutrittsschranken nicht möglich ist oder die Kosten hierfür prohibitiv sind. Fragen des Marktein- oder -austritts wurden in diesem Modellrahmen nicht analysiert. Um die Frage der Bestimmung der Firmenanzahl bzw. der Feststellung der in einem Markt angebotenen Produktvarianten zu untersuchen, wird in diesem Abschnitt das Modell von Salop (1979) vorgestellt, das als Alternative zum Hotelling-Modell aufgefasst werden kann und das ebenfalls häufig zur Modellierung räumlichen Wettbewerbs herangezogen wird. Im Unterschied zur linearen „Hotelling-Straße“ wird im Salop-Model von einer kreisförmigen Struktur ausgegangen. Dadurch kann die im Hotelling-Modell bestehende Asymmetrie zwischen Unternehmen an den Endpunkten, die nur Konsumenten auf einer Seite bedienen können und den anderen Firmen entlang der Straße, die sowohl rechts und

Wäre die Standortwahl der Unternehmen nicht auf das Einheitsintervall beschränkt, würden die Unternehmen einen endlichen Abstand zueinander wählen, da aufgrund der quadratisch steigenden Transportkosten eine Grenze der Preiserhöhungsmöglichkeiten gegeben ist. 48

2 Industrieökonomik

219

links von ihrem Standort Kunden haben, vermieden werden.49 Die kreisförmige Struktur kann räumlich interpretiert werden, z.B. als eine Insel mit einem Berg im Zentrum, sodass Ansiedlungen nur auf der Peripherie möglich sind. Aber auch eine zeitliche Interpretation ist möglich: In diesem Fall repräsentiert der Kreis z.B. das Zifferblatt einer Uhr und die Unternehmen, wie z.B. Fluggesellschaften, Fernbuslinien etc. müssen die Abfahrtszeiten ihrer Transportmittel wählen. Wie im Hotelling-Modell wird von einem Kontinuum von Konsumenten s mit Maß 1 ausgegangen, das auf dem Einheitskreis gleichverteilt ist. Es entstehen jedem Konsumenten lineare Transportkosten in Höhe von pro Entfernungseinheit. Jeder Konsument kauft maximal eine Einheit des Produktes, für das er den geringsten Gesamtpreis (Preis des Produktes plus Transportkosten) zahlen muss. Um die Frage der Anzahl der Unternehmen zu untersuchen, wird von einer im Prinzip unendlichen Anzahl symmetrischer Unternehmen ausgegangen, die mit gleichen und konstanten Grenzkosten produzieren können. Zusätzlich zu den Herstellungskosten entstehen jedem Unternehmen fixe Markteintrittskosten in Höhe von f. Jede Firma kann sich höchstens an einem Standort ansiedeln bzw. eine Produktvariante anbieten. Der Gewinn einer Firma i ist daher geben durch ⎧⎪ ( p − c)x − f falls x > 0 ⎪ i i i πi (xi ) = ⎨ . ⎪⎪ 0 falls xi = 0 ⎪⎩ Es wird ein zweistufiges Spiel betrachtet, in dem in der ersten Stufe die Unternehmen simultan darüber entscheiden, ob sie in den Markt eintreten oder nicht und in der zweiten Stufe entscheiden sie über den Preis. Dabei wird unterstellt, dass die in den Markt eintretenden Firmen, deren Anzahl mit n bezeichnet wird, nicht über ihren Standort entscheiden, sondern ihnen automatisch Standorte in gleichem Abstand voneinander zugewiesen werden. Auf diese Weise wird die maximale Produktdifferenzierung exogen festgelegt. Diese zwar unrealistische Annahme erlaubt es, sich auf die Frage der gleichgewichtigen Anzahl von Firmen bei freiem Marktzutritt zu konzentrieren. Angenommen, n Firmen sind in den Markt eingetreten, so dass der Abstand zwischen zwei benachbarten Unternehmen 1/n beträgt. Aufgrund der Symmetrieannahme hinsichtlich der Verteilung der Unternehmen wird im Weiteren von einem symmetrischen Gleichgewicht ausgegangen, d.h., im Gleichgewicht verlangen alle Firmen den gleichen Preis p.

Diese Asymmetrie ist auch die Ursache dafür, dass die Analyse des linearen Hotelling-Modell mit mehr als zwei Unternehmen vergleichsweise komplex ist, da im Gleichgewicht auch asymmetrische Allokationen auftreten können. 49

220

Ulrich Schwalbe

Betrachtet wird das Unternehmen i, das den Preis pi verlangt. Ein Konsument s, dessen Standort sich in einem Abstand von Firma i zwischen 0 und 1/n befindet, ist indifferent zwischen dem Kauf des Produktes bei Firma i und ihrem unmittelbaren Nachbarn, wenn die folgende Bedingung erfüllt ist: pi + τs = pi-1 + τ(1/n – s) bzw. pi + τs = pi+1 + τ(1/n – s). Für den indifferenten Konsumenten gilt daher p p − −p p 1 1 p p − −p p 1 1 bzw. s! =s! = i −1i −1 i +i + bzw. bzw. s! =s! = i +1i +1 i +i + . . 2τ2τ 2n2n 2τ2τ 2n2n Da pi-1 = pi+1 = p, ergibt sich als Nachfrage für Firma i pp−− ppii 11 xxii((ppii,,p) p)== 2s 2s!s! == ++ ,, nn ττ da sowohl Konsumenten rechts und links vom Standort der Firma i das Produkt i nachfragen. Gegeben diese Nachfrage, lautet das Maximierungsproblem für Firma i ⎛ p − pi 1 ⎞ max π i ( pi , p) = ( pi − c)⎜ + ⎟− f. ⎝ τ pi n⎠ Die Bedingung erster Ordnung für ein Gewinnmaximum lautet ∂π i p − 2pi + c 1 = + = 0. ∂ pi τ n Setzt man für ein symmetrisches Gleichgewicht pi = p, so ergibt sich als Gleich­gewichtspreis τ p=c+ . n

Dieses Ergebnis entspricht im Prinzip dem des linearen Hotelling-Modells. Um nun die Anzahl der Unternehmen im Gleichgewicht zu ermitteln, wird davon ausgegangen, dass Markteintritte solange stattfinden, bis der Gewinn jedes Unternehmens auf null gesunken ist. Die Null-Gewinn-Bedingung lautet 1 τ ( p − c) − f = 2 − f = 0. n n

Somit ergibt sich als Anzahl der Firmen bzw. Produktvarianten im Gleichgewicht τ n* = . f Der Gleichgewichtspreis und die Gleichgewichtsmenge sind gegeben durch 1 p* = c + τ f und x * = . n

2 Industrieökonomik

221

Im Gleichgewicht setzen die Unternehmen zwar Preise oberhalb der Grenzkosten, erwirtschaften jedoch nur einen Gewinn von null. Im Folgenden werden auch für dieses Modell räumlichen Wettbewerbs die Wohlfahrtseigenschaften untersucht. Dabei steht die Frage im Vordergrund, ob es im Gleichgewicht zu viel oder zu wenig Produktdifferenzierung gibt. Hierzu werden in einem ersten Schritt die aggregierten Transportkosten T(n) ermittelt. So befinden sich alle Konsumenten, die z.B. bei Firma 1 kaufen, in einem Intervall mit der Länge 1/2n um diese Firma. Von diesen Intervallen gibt es insgesamt 2n. Die aggregierten Transportkosten betragen daher 1 11 2n2n 2n

11

⎡ ⎡s 2s 2⎤ 2n ⎤ 2n τ τ T(n) T(n)==2nr 2nr∫ sds==2nr 2nr⎢ ⎢ ⎥ ⎥ == . . ∫0∫00 sds 4n ⎣ ⎣22⎦0⎦0 4n

Um die wohlfahrtsoptimale Zahl von Unternehmen zu ermitteln, wird die Summe aus den aggregierten Transportkosten und den gesamten Fixkosten, die die aktiven Firmen aufwenden müssen, minimiert:50 min nf + n

τ . 4n

Die Bedingung erster Ordnung lautet f−

τ = 0. 4n 2

Die optimale Anzahl von Firmen bzw. Produktvarianten beträgt daher 1 τ n** = < n* . 2 f Es zeigt sich, dass in einem Markt mit freiem Marktzutritt zu viele verschiedene Produktvarianten angeboten werden. Einerseits führt der Markteintritt dazu, dass die Konsumenten eher die von ihnen präferierte Produktvariante erhalten, d.h. die Transportkosten sinken. Andererseits steigen die Stückkosten, da aufgrund der größeren Anzahl von Unternehmen im Markt insgesamt mehr Fixkosten aufgewendet werden. Der Anreiz für den übermäßigen Markteintritt resultiert in erster Linie daher, dass ein neu eintretendes Unternehmen den etablierten Firmen Nachfrage abnehmen und gleichzeitig einen Preis oberhalb der Grenzkosten setzen kann.

50 Da die Konsumenten nur eine Einheit des Produktes nachfragen und alle Konsumenten im Markt das Produkt nachfragen, ist der Preis für die Gesamtwohlfahrt unerheblich – die Höhe des Preises determiniert lediglich die Verteilung zwischen Konsumenten- und Produzentenrente. Dies wäre nicht mehr der Fall, wenn es nur wenige Unternehmen im Markt gibt und der Preis plus Transportkosten für einige Konsumenten höher wäre als deren Reservationspreis. In diesem Fall wäre der Markt nicht mehr vollständig abgedeckt.

222

2.3.9

Ulrich Schwalbe

Das Modell der monopolistischen Konkurrenz

Das Modell der monopolistischen Konkurrenz geht auf Chamberlin (1933) und Robinson (1933) zurück und betrachtet den Fall differenzierter Produkte, wobei jedoch, anders als in den bisher betrachteten Modellen, die Zahl der Produkte nicht exogen vorgegeben ist, sondern innerhalb des Modells bestimmt wird. Ausgangspunkt ist ein Markt mit vielen Anbietern und auf dem freier Marktzutritt möglich ist. 51 Im ursprünglichen Modell wird unterstellt, dass es einen repräsentativen Konsumenten gibt, dessen Nutzen mit der Zahl der angebotenen Varianten eines Gutes zunimmt. Durch diese Annahme soll erfasst werden, dass verschiedene Konsumenten im Allgemeinen unterschiedliche Präferenzen für die Varianten eines Gutes haben. Weiterhin wird angenommen, dass alle Firmen Zugang zur gleichen Technologie haben. Ein wesentlicher Unterschied zwischen dem Modell der monopolistischen Konkurrenz und den bisher dargestellten Modellen oligopolistischen Wettbewerbs liegt darin, dass im Rahmen der monopolitischen Konkurrenz davon ausgegangen wird, dass sich die Unternehmen nicht strategisch verhalten. Die angebotenen Produkte sind keine vollständigen, jedoch enge Substitute. Als Beispiel könnten in diesem Kontext Fernsehzeitschriften oder Mineralwasser genannt werden. Alternativ kann man sich eine Produktdifferenzierung vorstellen, die durch das Image oder durch die Reputation eines Unternehmens erreicht werden kann. Im Ergebnis führt demnach eine Preiserhöhung nicht unbedingt zu einem erheblichen Abwandern der Nachfrager zu den Konkurrenten und ebenso führt eine Preissenkung nicht unbedingt dazu, dass zahlreiche zusätzliche neue Nachfrager hinzugewonnen werden können. In dieser Hinsicht besteht also eine Analogie zu einem monopolistischen Unternehmen. Eine gewinnmaximierende Firma setzt daher eine Produktionsmenge xk, bei der, wie im Monopol, Grenzerlös und Grenzkosten übereinstimmen (vgl. Abb. 2.20a). Anders als im Modell der vollständigen Konkurrenz realisieren die Unternehmen hier positive Gewinne. Da allerdings der Marktzutritt annahmegemäß frei ist, also keine Marktzutrittsschranken vorhanden sind, locken die realisierten Gewinne weitere Anbieter an, die ebenfalls Zugang zu der von den anderen Firmen verwendeten Technologie haben. Es treten also immer weitere Unternehmen in den Markt ein, die jeweils eigene, differenzierte Produkte anbieten. Somit steigt die Anzahl an verfügbaren Produkten, die Nachfrage für jedes spezielle Produkt nimmt ab, so dass sich die Preis-Absatz-Funktion für jeden einzelnen Anbieter nach links verschiebt (vgl. Abb. 2.20b). Markteintritte werden so lange stattfinden, bis die Durchschnittskostenkurve die Preis-Absatzfunktion der einzelnen Anbieter tangiert. Der Preis pl entspricht den Durchschnittskosten DK(xl) und die Unternehmen realisieren, wie im Modell der vollständigen Konkurrenz, keine positiven Gewinne.

Tatsächlich handelt es sich hierbei weniger um ein Modell der Oligopoltheorie, sondern mehr um ein Konzept des vollkommenen Wettbewerbs, bei dem die Annahme aufgehoben wird, dass vollständig homogene Produkte angeboten werden. Daher bezeichnet man diese Marktform auch als heterogenes Polypol. 51

2 Industrieökonomik

223

Abb. 2.20  Monopolistische Konkurrenz

Allerdings liegt der Gleichgewichtspreis bei monopolistischer Konkurrenz oberhalb der Grenzkosten, da die Preis-Absatz-Funktion die Durchschnittskostenkurve nicht im Minimum tangiert sondern links davon, d.h. im Bereich fallender Durchschnittskosten. Dort liegen die Grenzkosten jedoch unterhalb der Durchschnittskosten. Weil die einzelnen Unternehmen ihren Gewinn nach wie vor gemäß der Regel „Grenzerlös gleich Grenzkosten“ maximieren, bieten sie eine geringere Menge zu höheren Preisen an, als dies bei vollständiger Konkurrenz der Fall wäre. Es entsteht somit bei jeder Firma ein Wohlfahrtsverlust in Höhe der Fläche ACD in Abb. 2.20b. Diese Ineffizienz resultiert daraus, dass die Unternehmen nicht im Minimum ihrer Durchschnittskosten, d.h. im Punkt B produzieren und eine geringere als die optimale Betriebsgröße aufweisen. Dies bedeutet, dass es insgesamt zu viele Unternehmen im Markt gibt, denn wäre jedes Unternehmen etwas größer, dann könnte es mit geringeren Stückkosten operieren. Allerdings würde dann auch eine geringere Anzahl differenzierter Produkte angeboten werden. Dies wiederum läge jedoch nicht im Interesse des repräsentativen Konsumenten, der einen Nutzen daraus zieht, dass es möglichst viele verschiedene Produkte gibt. In einem Markt mit monopolistischer Konkurrenz gibt es also einen „tradeoff “ zwischen der Produktionseffizienz einerseits und den Wahlmöglichkeiten der Konsumenten andererseits.

224

Ulrich Schwalbe

2.3.10 Empirische und experimentelle Evidenz Zu oligopolistischen Marktstrukturen gibt es zahlreiche empirische Untersuchungen, die sich auf unterschiedliche Aspekte konzentrieren. Hierzu gehören zum einen Marktzutrittsschranken, denn wenn die Oligopolisten höhere Gewinne erzielen als bei Wettbewerb, dann haben potentielle Wettbewerber einen Anreiz an diesen Gewinnen zu partizipieren und in den Markt einzutreten. Durch die Feststellung der Höhe der Marktzutrittsschranken kann daher die Stärke des potentiellen Wettbewerbs gemessen werden. Zum anderen ist der Konzentrationsgrad ein Maß für die Stärke des aktuellen Wettbewerbs. Das Konzept der Marktzutrittsschranke wird in der Industrieökonomik jedoch kontrovers diskutiert und es hat sich bislang noch keine allgemein akzeptierte Definition herausgebildet.52 Allerdings stimmen die meisten Definitionen darin überein, dass ein Marktzutritt umso schwieriger ist, je größer die Kosten sind, die versenkt werden müssen, um in den Markt einzutreten. Dabei kann es sich bei diesen Kosten auch um versunkene Kosten handeln, deren Höhe das Unternehmen selbst festlegen kann, wie z.B. Werbeausgaben oder Ausgaben für Forschung und Entwicklung. Man spricht in diesen Fällen von endogenen versunkenen Kosten. So hat Sutton (1991, 1999) in zwei umfangreichen Studien ermittelt, dass es einen engen Zusammenhang zwischen endogenen versunkenen Kosten und der Konzentration in einem Markt gibt.53 Hohe endogene versunkene Kosten führen zu einer hohen optimalen Betriebsgröße und daher zu erhöhter Konzentration. Diese wiederum ist empirisch mit geringen Marktzutritts- und Marktaustrittsraten verbunden. Je höher die versunkenen bzw. fixen Kosten, desto größer ist in der Regel die mindestoptimale Betriebsgröße eines Unternehmens. Ein hoher Fixkostenanteil führt auch bei größeren Produktionsmengen zu fallenden Durchschnittskosten, d.h. es liegen zunehmende Skalenerträge vor und die mindestoptimale Betriebsgröße ist groß im Verhältnis zum gesamten Marktvolumen. Ein neu in den Markt eintretendes Unternehmen müsste, um konkurrenzfähig zu bleiben, ebenfalls eine solche Betriebsgröße erreichen, was jedoch zu so niedrigen Preisen führen würde, dass ein Marktzutritt nicht profitabel wäre. Empirische Untersuchungen über den Anteil der Fixkosten an den Gesamtkosten für verschiedene Industrien finden sich in Asplund (2000), Ramey/ Shapiro (2001) sowie Cooper/Haltiwanger (2006). Neben hohen Fixkostenanteilen können auch Spezialisierungsvorteile, technische Bedingungen, wie z.B. bei Tankern oder bei Pipelines, bei denen das Transportvolumen stärker wächst als der Materialeinsatz, sowie probabilistische Effekte, wenn auch bei einem großen Unternehmen nur eine Reservemaschine vorgehalten werden muss, um eventuelle Ausfälle kompensieren zu können, zu zunehmenden Skalenerträgen und damit zu einer signifikanten mindestoptimalen Betriebsgröße. Eine Übersicht über Schätzungen der mindestoptimalen Betriebsgröße und empirische Analysen geben Scherer (1973, 1974), Weiss (1976) und Pratten (1988). Ein anderer Ansatz zur Feststellung der mindestoptimalen Betriebsgröße 52 53

Vgl. zum Konzept der Marktzutrittsschranke McAffee/Mialon/Williams (2004). Vgl. Sutton (1991, 1999).

2 Industrieökonomik

225

ist der von Stigler (1958) vorgeschlagene „Survivor Approach“, der auf der folgenden Idee basiert: Unternehmen in einem Markt werden entsprechend ihrer Größe gruppiert und ihr Anteil am Gesamtoutput wird ermittelt. Falls der Anteil einer der Gruppen fällt, dann sind diese Unternehmen ineffizient und je schneller dieser Anteil geringer wird, desto ineffizienter sind diese Unternehmen. Empirische Anwendungen dieser Methodologie finden sich z.B. in Burns (1983) und Keeler (1989). Ökonometrische Analysen der mindestoptimalen Betriebsgröße am Beispiel homogener Massengüter wie Öl, Papier, Stahl sowie Textilien gibt Keay (2003), der nachweist, dass in diesen Industrien zunehmend Skalenerträge in erheblichem Umfang vorhanden sind. Insgesamt zeigen alle genannten Ansätze, dass in den meisten Märkten die mindestoptimale Betriebsgröße im Verhältnis zum Marktvolumen vergleichsweise gering ist, vorausgesetzt, es handelt sich nicht um „kleine“ Märkte. Zu den endogenen versunkenen Kosten gehören auch die Ausgaben für Werbung und Marketing, die ebenfalls zunehmende Skalenerträge aufweisen und dadurch eine Marktzutrittsschranke bilden können. So bleiben z.B. die Kosten der Produktion eines Werbespots konstant, unabhängig davon, ob er regional, national oder international gesendet wird. Diese zunehmenden Skalenerträge können dazu beitragen, die Zahl der Unternehmen im Gleichgewicht zu reduzieren. Dabei ist jedoch zu berücksichtigen, dass durch Werbung in der Regel auch die Nachfrage erhöht wird, d.h. die Nachfragefunktion verschiebt sich nach außen, was wiederum das Marktvolumen vergrößert. Eine weitere Wirkung von Werbung kann darin bestehen, bei den Abnehmern eine Markenloyalität zu erzeugen, die den Marktzutritt eines neuen Unternehmens in den Markt erschwert.54 Eine weitere Marktzutrittsschranke könnte aufgrund asymmetrischer Information in unvollkommen funktionierenden Kapitalmärkten gegeben sein. Wenn die Bank über den potentiellen Wettbewerber nur unvollkommen informiert ist, dann könnte dieses Unternehmen einer Kreditrationierung unterliegen und nicht die für einen erfolgreichen Marktzutritt erforderlichen Finanzmittel erhalten.55 Weitere empirische Untersuchungen oligopolistischer Märkte haben sich auf den Zusammenhang zwischen dem Konzentrationsgrad in einer Industrie und der Profitabilität der Unternehmen bzw. dem Marktpreis befasst.56 Diese Analysen beziehen sich daher vor allem auf den aktuellen Wettbewerb in solchen Märkten und stehen in einem engen Zusammenhang mit dem in Abschnitt 1 angesprochenen Structure-Conduct-Performance Ansatz. Einen Überblick über zahlreiche Studien, die sich vergleichend mit mehreren Branchen befassen, geben Schmalensee (1989) sowie Martin (2001, Kap. 5 und 6). Im Wesentlichen kommen diese Untersuchungen zu dem Resultat, dass zwischen Profitabilität und Konzentration, wenn überhaupt, nur eine schwache, statistisch nicht signifikante Beziehung besteht, die darüber hinaus im Zeitablauf instabil ist. Wenn multivariate Analysemethoden eingesetzt werden, kann häufig keine solche Beziehung nachgewiesen 54 55 56

Vgl. Waldman/Jensen (2012), S. 114f. Vgl. Stiglitz/Weiss (1981). Für eine Darstellung der methodischen Grundlagen vgl. Bresnahan (1989).

226

Ulrich Schwalbe

werden.57 Hingegen zeigen Untersuchungen des Zusammenhangs zwischen den Werbeausgaben im Verhältnis zum Umsatz und der Profitabilität im produzierenden Gewerbe einen positiven Zusammenhang.58 Ein ähnlicher Zusammenhang besteht zwischen Ausgaben für Forschung und Entwicklung und Profitabilität. Bei sehr hoher Konzentration kann dieser Zusammenhang jedoch verschwinden oder sich sogar umkehren.59 Empirische Schätzungen des Zusammenhangs zwischen Profitabilität und Konzentration weisen jedoch eine Reihe konzeptioneller Probleme auf. Das wesentlichste besteht darin, dass die Profitabilität nur anhand des buchhalterischen Gewinns ermittelt wird, der jedoch keinen eindeutigen Rückschluss auf den ökonomischen Gewinn zulässt. Weiterhin können hohe Gewinne in konzentrierten Industrien auch auf koordiniertes Verhalten der Unternehmen zurückzuführen sein.60 Außerdem könnten eine hohe Konzentration und hohe Gewinne in einem Markt darauf zurückzuführen sein, dass die großen Unternehmen effizienter waren und bessere Produkte als ihre Konkurrenten anbieten konnten. In diesem Fall würden die große Konzentration und die Profitabilität mit einer höheren Konsumentenrente einhergehen als eine geringe Konzentration. Daher wird vermutet, dass Untersuchungen des Zusammenhangs zwischen der Höhe der Preise und der Konzentration die genannten Probleme zumindest teilweise vermeiden können. So sind Preise in der Regel deutlich einfacher zu ermitteln als die Gewinne. Auch würden höhere Preise tendenziell auf eine geringere Konsumentenrente hindeuten. Ein Überblick über Preis-Konzentrations-Studien vor 1989 gibt Weiss (1989). Diese Studien zeigen überwiegend, dass ein deutlicher und positiver Zusammenhang zwischen Preishöhe und Konzentration besteht. Studien, die das gleiche Produkt in unterschiedlichen räumlichen Märkten untersuchen, haben nachgewiesen, dass in Märkten mit hoher Konzentration die Preise höher sind als in Märkten mit niedriger.61 Diese Ergebnisse konnten auch durch aktuellere Untersuchungen gestützt werden. Eine große Zahl von Untersuchungen unterschiedlichster Industrien wie Mineralöl, Banken, Zement und wissenschaftliche Zeitschriften haben gezeigt, dass die Preise im Schnitt umso höher sind, je größer der Konzentrationsgrad der Industrien ist.62 Neben den empirischen Analysen oligopolistischer Märkte sind auch zahlreiche experimentelle Untersuchungen der verschiedenen Oligopolmodelle vorgenommen wurden. In einem frühen Experiment zum linearen Cournot-Modell mit homogenen Produkten hatten mehrere Spielerpaare Mengenentscheidungen für mehrere Perioden zu treffen. Es

Vgl. Schmalensee (1989), S. 976. Vgl. ebenda S. 978 und die dort angegebene Literatur. 59 Vgl. Hirschey (1985). 60 Vgl. hierzu Abschnitt 5. 61 Vgl. Waldman/Jensen (2012), S. 188. 62 Für Mineralöl vgl. Geithman/Marvel/Weiss, für Banken vgl. Hannan (1991), Hannan/Liang (1993), für Zement vgl. Rosenbaum (1994), für wissenschaftliche Zeitschriften vgl. Dewatripont et al. (2007). 57 58

2 Industrieökonomik

227

zeigte sich, dass die Ergebnisse in einem engen Bereich um das Cournot-Ergebnis lagen.63 Dieses Resultat wurde in einem weiteren Experiment bestätigt, in dem in jeder Periode neue Spielerpaare gebildet wurden. Hier ergab sich, dass bereits nach wenigen Perioden das Ergebnis dem symmetrischen Nash-Gleichgewicht nahekam. Das Cournot-Modell beschreibt daher die experimentellen Resultate recht genau. Als wesentliches Ergebnis der Oligopoltheorie wurde gezeigt, dass Bertrand-Modelle ceteris paribus zu Marktergebnissen führen, die wettbewerblicher sind, d.h. niedrigere Preise und größere Mengen aufweisen als Cournot-Modelle.64 Der Grund dafür liegt darin, dass die Nachfrage bei Preiswettbewerb deutlich elastischer reagiert als bei Mengenwettbewerb. Dies wurde durch ein Experiment von Huck/Normann/Oechsler (2000) bestätigt. In einem Modell mit vier Verkäufern und horizontal differenzierten Produkten ergab sich, dass unter sonst gleichen Bedingungen über die Nachfrage und die Kosten bei Mengenwettbewerb die angebotene Menge deutlich geringer und die Preise höher sind als bei Preiswettbewerb. Die Ergebnisse im Experiment mit Mengenwettbewerb lagen im Wesentlichen in einem engen Bereich um das theoretisch prognostizierte Cournot-Nash-Gleichgewicht, während sie sich im Experiment mit Preiswettbewerb um das Gleichgewicht im Bertrand-Modell konzentrierten. Allerdings gab es in den letzten Jahren einige Experimente, die weniger klare Resultate ergaben und darauf hindeuten, dass die Preise bei Bertrand-Wettbewerb sogar höher sein können als bei CournotWettbewerb.65Insgesamt gesehen stimmen die Ergebnisse des Cournot- und des Bertrand-Modells mit den experimentellen Untersuchungen recht gut überein. Experimente zum Modell von Kreps/Scheinkman, in dem die Akteure in einem ersten Schritt die Menge bzw. die Produktionskapazität und in einem zweiten den Preis wählen, haben gezeigt, dass Erfahrung und Lernen ein wesentlicher Faktor sind. Erfahrene Anbieter, die häufiger an einem solchen Spiel teilgenommen haben, wählen tendenziell Mengen, die näher an der Menge im Cournot-Nash-Gleichgewicht liegen als unerfahrene Akteure, die das Spiel noch nicht oder nur selten gespielt haben. Letztere wählen häufig höhere Kapazitäten.66 Auch setzen erfahrene Spieler den Preis eher in Höhe des markträumenden Preises als unerfahrene, wenn die Kapazitäten eine Reihe von Perioden nicht geändert werden können.67 Wenn die Akteure in einem Experiment ihre Entscheidungen nicht simultan, sondern sequentiell treffen, dann zeigen Experimente, in denen die Rollen als Mengen- bzw. Preisführer und Mengen- bzw. Preisfolger exogen zugeordnet werden und die Aktion des ersten Spielers beobachtbar ist, dass bei Mengenwettbewerb die Ergebnisse eher dem Gleichgewicht im von Stackelberg-Modell als im Cournot- oder Bertrand-Modell Holt (1985) Vgl. Abschnitt 3.5.2. 65 Vgl. Altavilla/Luini/Sbriglia (2006) oder Davis (2011). 66 Vgl. Muren (2000); Anderhub et al. (2003); Goodwin/Mestelman (2010); Hampton/ Sherstyuk (2012); Le Coq/Sturluson (2012). 67 Anderhub et al. (2003). 63 64

228

Ulrich Schwalbe

nahekommen. So kommen Huck/Müller/Normann (2001) zu dem Ergebnis, dass bei sequentieller Mengensetzung die Angebotsmenge insgesamt größer ist als bei simultanem Mengenwettbewerb. Bei sequentiellem Preiswettbewerb mit differenzierten Gütern zeigen die Experimente von Kübler/Müller (2002), dass die Preise in diesem Fall höher sind als bei simultanem Preiswettbewerb. Die Resultate ändern sich jedoch etwas, wenn die Aktion des ersten Spielers vom zweiten nicht genau beobachtet werden kann oder wenn eine solche Beobachtung mit Kosten verbunden ist. Durch eine solche Anordnung kann ein Übergang von einem Spiel mit sequentieller zu einem mit simultaner Strategienwahl nachgebildet werden. Es zeigt sich, dass experimentell die Ergebnisse bei sequentieller Strategienwahl häufiger auftreten als bei simultaner, wenn die Beobachtung nicht allzu ungenau wird oder die Kosten der Beobachtung nicht zu hoch sind.68 Allerdings haben zahlreiche Experimente darauf hingedeutet, dass sich auch höhere Preise bzw. geringere Mengen ergeben als durch das Gleichgewicht im Cournot- bzw. Bertrand-Modell prognostiziert wird. Dies könnte daran liegen, dass die Akteure lernen ihr Verhalten zu koordinieren und sich gemeinsam so zu verhalten wie ein Kartell. Auf experimentelle Untersuchungen zum koordinierten Verhalten und zur Kartellbildung wird in Abschnitt 2.4.4 näher eingegangen.

2.4

Kartelle und kollusives Verhalten

2.4.1

Kurz- und langfristige Sicht

Bisher wurde bei der Analyse der Oligopolmodelle in Abschnitt 3 implizit unterstellt, dass die Unternehmen auf dem Markt lediglich einmal miteinander konkurrieren. Dies ist jedoch eine höchst unrealistische Annahme, da Firmen im Wettbewerb wiederholt aufeinandertreffen. Diese wiederholte Interaktion erlaubt es ihnen, sowohl auf das Verhalten der Konkurrenten in der Vergangenheit zu reagieren als auch zu versuchen, durch ihr Verhalten heute das zukünftige Verhalten der Wettbewerber zu beeinflussen. Im Folgenden sollen daher die Oligopolmodelle auf den realistischeren Fall erweitert werden, in dem die Unternehmen wiederholt aufeinandertreffen. Ein solches, realistischeres Szenario erlaubt eine fundierte Analyse der Stabilität von Kartellen und der Voraussetzungen für ihre Entstehung. Ein Verständnis dieser Aspekte ist von zentraler Bedeutung für die Entwicklung wettbewerbspolitischer Maßnahmen zur Aufdeckung und Verhinderung von Kartellen, die regelmäßig zu erheblichen volkswirtschaftlichen Schäden führen. Darüber hinaus ermöglicht die Untersuchung von Oligopolmodellen mit wiederholter Interaktion auch die Erklärung von kollusivem Verhalten, das wettbewerbsrechtlich zwar unproblematisch ist, aber ähnliche Auswirkungen haben kann wie ein explizites Kartell. Würden die Unternehmen auf einem Markt nur ein einziges Mal zusammentreffen, dann könnte weder eine explizite Kartellvereinbarung zustande kommen, noch wäre ein 68

Vgl. Huck/Müller (2000) und Morgan/Várdy (2004).

2 Industrieökonomik

229

stillschweigendes kollusives Verhalten der Unternehmen zu erwarten. Zwar gibt es für die Unternehmen einen erheblichen Anreiz, eine Kartellvereinbarung zu treffen, gemäß der sich die Firmen gemeinsam so verhalten wie das ein Monopolist tun würde, d.h. sie bieten die Monopolmenge an oder fordern den Monopolpreis fordern und erwirtschaften so den höheren Monopolgewinn. Allerdings würde sich bei einer einmaligen Interaktion eine Kartellvereinbarung als instabil erweisen, da jedes Unternehmen einen erheblichen Anreiz hat, von der Vereinbarung abzuweichen.69 Dies kann anhand eines Duopols mit identischen Firmen, die ein homogenes Gut herstellen und mittels ihrer Angebotsmengen konkurrieren, d.h. anhand eines Cournot-Duopols, deutlich gemacht werden. Angenommen, die beiden Duopolisten entschließen sich, ein Kartell zu bilden, um den Gesamtgewinn für beide Unternehmen zu maximieren. Das Gewinnmaximum wird erreicht, wenn die Gesamtmenge X = x1 + x2 so gewählt wird, dass die Summe der Gewinne π(x1, x2) = p(x1, x2)(x1 + x2) – c1(x1) – c2(x2) maximal wird. Dabei bezeichnet p(x1, x2) die Preis-Absatz-Funktion und c1(x1) die Kostenfunktion des Unternehmens i, i = 1,2. Die Bedingungen erster Ordnung für ein Maximum sind im Falle der linearen Preis-Absatz-Funktion p(x1, x2) = a – b(x1 + x2) und linearen Kosten ci(xi) = cxi gegeben durch a – 2b(xi + xj) – c = 0,

i, j = 1,2;

i ≠ j.

Die Bedingungen erster Ordnung für das Kartell unterscheiden sich von denen im Cournot-Nash-Gleichgewicht, da ein Kartell die Auswirkung einer Mengenerhöhung auf die jeweils andere Firma berücksichtigen wird. Da der maximale Gewinn in einem Markt durch ein Monopol realisiert wird, verhält sich das Kartell, d.h. beide am Kartell beteiligten Firmen gemeinsam so wie ein Monopolist. Man spricht daher bei einem Kartell auch von einem Kollektivmonopol. Da aber eine Kartellvereinbarung vor Gericht nicht durchsetzbar ist, stellt sich die Frage, ob sich eine Firma an eine solche Vereinbarung halten wird oder ob sie einen Anreiz hat, davon abzuweichen. Damit ersteres der Fall ist, müsste gelten, dass eine Firma durch einseitiges Abweichen ihren Gewinn nicht erhöhen kann. Die Kartellvereinbarung müsste also ein Nash-Gleichgewicht darstellen, d.h., die hergestellten Mengen müssten wechselseitig beste Antworten sein. Löst man die Bedingungen erster Ordnung, so ergibt sich die im Kartell von jeder Firma hergestellte Menge (bei symmetrischer Lösung im Kartell): x1c = x 2c =

a−c . 4b

69 Ein analoges Argument gilt auch für den Fall, in dem die Unternehmen eine feste und allgemein bekannte Anzahl von Perioden interagieren.

230

Ulrich Schwalbe

Setzt man diese Mengen in die Reaktionsfunktionen der Cournot-Duopolisten ein, dann ergibt sich als beste Antwort auf die Kartellmenge des anderen Unternehmens die Menge: a−c a − bx 2c − c a − b 4b − c 3(a − c) * x1 = = = ≠ x1c . 2b 2b 8b Dies zeigt, dass die zwischen den Duopolisten vereinbarte Kartellmenge kein NashGleichgewicht ist. Jede der beiden Firmen hat einen Anreiz, von der Vereinbarung abzuweichen. Die strategische Situation in einem solchen Kartell entspricht daher einem Gefangenendilemma. Beide Firmen könnten sich besserstellen, wenn sie sich auf die Monopolmenge einigen würden. Allerdings hat jede Firma, wenn sich die andere an ihren Teil der Kartellvereinbarung hält, einen Anreiz davon abzuweichen, da sie dadurch einen noch höheren Gewinn realisieren kann. Dies würden sich die beiden Unternehmen jedoch von vornherein überlegen und daher wird es erst gar nicht zu einer Kartellvereinbarung kommen. Die individuelle Rationalität der Akteure führt also zu einem Ergebnis, das für beide Unternehmen schlechter ist, nämlich zum Cournot-Nash-Gleichgewicht mit höheren Mengen, niedrigeren Preisen und geringeren Gewinnen. Dies könnte zu der Ansicht verleiten, dass ein Kartell von sich aus instabil ist und eine Wettbewerbspolitik, die darauf abstellt, Kartelle zu beseitigen oder ihre Entstehung zu verhindern, überflüssig ist. Nach dieser Meinung wäre es bereits ausreichend, dass solche wettbewerbsbeschränkenden Vereinbarungen vor Gericht nicht durchsetzbar, d.h. nichtig sind, um Kartelle zu verhindern, da diese an ihren inneren Widersprüchen zerbrechen würden. Darüber hinaus gehende Sanktionen wie Bußgelder oder Haftstrafen seien daher unnötig.70 Dies steht allerdings im Widerspruch zu der Tatsache, dass häufig Kartellabsprachen aufgedeckt und bestraft werden. Allerdings basiert diese Analyse auf der Annahme, dass die Unternehmen lediglich einmal aufeinandertreffen, so dass keine Möglichkeit besteht, auf das vergangene Verhalten des Konkurrenten in der Zukunft zu reagieren oder durch eigenes heutiges Verhalten das künftige des Wettbewerbers zu beeinflussen. Dies ändert sich jedoch, wenn die Unternehmen wiederholt aufeinandertreffen. Um das strategische Verhalten von Firmen zu analysieren, die im Wettbewerb häufig aufeinandertreffen, kann die Theorie der wiederholten Spiele heranzuziehen. Ein wiederholtes Spiel ist dadurch charakterisiert, dass ein bestimmtes Spiel, das so genannte Stufenspiel, mehrfach hintereinander gespielt wird. Im Kontext eines Oligopolmodells bedeutet dies, dass die Unternehmen in jeder Periode eine Entscheidung über die anzubietende Menge oder den zu setzenden Preis zu treffen haben. Eine Strategie in einem wiederholten Spiel gibt dann die Wahl einer Aktion in jeder Periode an. Dabei wird sie in der Regel die Wahl der Aktion heute von den Aktionen der anderen Spieler (und auch der eigenen Aktionen) in der Vergangenheit abhängig machen. Im Rahmen eines Cournot-Duopols könnte eine solche Strategie vorschreiben, die Wahl der Menge in einer bestimmten Periode vom Angebotsverhalten des anderen Unternehmens in den 70

Vgl. Armentano (1990), S. 271ff.

2 Industrieökonomik

231

Vorperioden abhängig zu machen. Allgemein kann in einem wiederholten Spiel die Wahl der Aktion in einer Periode t von den Aktionen aller Spieler in allen vorherigen Perioden 1, 2, …, t–1 abhängen. Die strategischen Möglichkeiten in einem wiederholten Spiel sind daher weitaus umfangreicher und komplexer als in einem einmaligen, d.h., die Unternehmen verfügen in einem wiederholten Spiel über deutlich größere Strategiemengen und auch die Auszahlungsfunktionen unterscheiden sich von denen im einmaligen Spiel. Aber auch ein wiederholtes Spiel kann prinzipiell in der gleichen Weise beschrieben werden wie ein einmaliges: Die Strategie eines Unternehmens im Rahmen eines Cournot-Modells muss beim wiederholten Spiel für jede Periode ein bestimmtes Mengensetzungsverhalten vorschreiben, das von den Mengen abhängen kann, die von allen Unternehmen in jeder Periode bis zu diesem Zeitpunkt angeboten wurden. Insbesondere kann eine Strategie eine „Belohnung“ des gewünschten Verhaltens eines Konkurrenten bzw. die „Bestrafung“ eines unerwünschten Verhaltens vorsehen, wobei unter einer Bestrafung keine vertraglich festgelegte Geldstrafe zu verstehen ist, sondern eine Reaktion auf unerwünschtes Verhalten, z.B. in Form eines aggressiven Wettbewerbs. Es zeigt sich, dass es für die möglichen Lösungen eines wiederholten Spiels von entscheidender Bedeutung ist, ob das Spiel eine endliche und allen Unternehmen bekannte Anzahl von Runden gespielt wird oder ob es keine „letzte Runde“ gibt. Angenommen, es gäbe eine letzte Periode. In diesem Fall kann das wiederholte Spiel, ähnlich wie beim von Stackelberg-Modell, mit Hilfe der Rückwärtsinduktion gelöst werden, indem man mit der letzten Periode beginnt und sich dann Schritt für Schritt zur ersten Periode „vorarbeitet“. Im hier betrachteten Beispiel, in dem es im Stufenspiel nur ein Nash-Gleichgewicht gibt werden sich die beiden Firmen in der letzten Runde offensichtlich nicht an die Kartellabsprache halten, denn ein Abweichen kann künftig nicht mehr bestraft werden, da es keine weiteren Interaktionen gibt. Also werden beide Unternehmen in der letzten Runde das einzige Nash-Gleichgewicht des Stufenspiels spielen, d.h. im hier betrachteten Fall die Mengen im Cournot-Nash-Gleichgewicht wählen. Diese Strategien sind wechselseitig beste Antworten und keines der Unternehmen hat einen Anreiz, in der letzten Periode eine andere als diese Menge zu wählen. Betrachtet man nun die vorletzte Periode, dann gibt es auch in diesem Stufenspiel einen Anreiz, von einer Kartellvereinbarung abzuweichen, denn in der darauffolgenden Runde kann keine Bestrafung erfolgen, da beide Unternehmen die Mengen im Cournot-Nash-Gleichgewicht wählen. Eine analoge Überlegung gilt also auch für die drittletzte Periode, da in den beiden letzten Runden das CournotNash-Gleichgewicht gespielt wird usw. Das einzige Ergebnis im endlich oft wiederholten Spiel ist die Wiederholung des Cournot-Nash-Gleichgewichtes des Stufenspiels in jeder Runde. Anders ausgedrückt: Wird das Spiel nur endlich oft wiederholt, dann ist ein Kartell nicht stabil.71 Auch in endlich-oft wiederholten Spielen kann es jedoch zumindest in einigen Perioden auch zu einem koordinierten Verhalten kommen, wenn es z.B. mehrere Nash-Gleichgewichte mit unterschiedlichen Auszahlungen gibt oder wenn ein Spieler keine vollständige Information über bestimmte Aspekte, wie die Rationalität des Gegenspielers, hat. 71

232

Ulrich Schwalbe

Um die Existenz stabiler Kartellvereinbarungen zu erklären, muss also davon ausgegangen werden, dass es im wiederholten Spiel keine letzte Periode gibt, d.h., dass die Unternehmen potentiell unendlich oft interagieren. Dies könnte man mit einer (aufgrund der Abschreibungen) potentiell unendlichen Lebensdauer der Firmen rechtfertigen oder mit der Annahme, dass nach jeder Runde eine positive Wahrscheinlichkeit für ein weiteres Aufeinandertreffen im Markt besteht. Wenn es aber keine feststehende und allgemein bekannte letzte Periode gibt, dann kann ein abweichendes Verhalten in der Zukunft immer auch bestraft werden. Dies ist der zentrale Unterschied zum endlich oft wiederholten Spiel, der zu einer Vielzahl weiterer möglicher Gleichgewichte führt. Wenn sich ein Spiel über mehrere, möglicherweise unendlich viele Perioden erstreckt, dann fallen Auszahlungen auch in der Zukunft an und es ist festzulegen, wie ein Unternehmen, das heute über seine Strategie entscheidet, diese zukünftigen Auszahlungen bewertet. Dabei wird, wie in der Wirtschaftstheorie allgemein üblich, unterstellt, dass ein Unternehmen in der Zukunft anfallende Zahlungen auf den Gegenwartszeitpunkt diskontiert. Hierzu betrachten wir eine Folge von Perioden t = 0, 1, 2, .... Je nach Kontext kann es sich dabei um Tage, Wochen, Monate oder Jahre handeln. In jeder dieser Perioden muss jedes Unternehmen darüber entscheiden, welche Menge es auf den Markt bringt. Der Gewinn eines Unternehmens i in einer Periode t sei durch πit bezeichnet. Der Diskontfaktor ist gegeben durch 0 < δ = 1/(1 + r) < 1, wobei r den Marktzinssatz bezeichnet, der aus Gründen der Vereinfachung als konstant angenommen wird. Der Gegenwartswert der zukünftigen Gewinne kann dann geschrieben werden als: ∞ πt v=∑ i . t=0 1− δ Damit eine Kartellvereinbarung stabil ist, müssen die Unternehmen jeweils über wirksame Möglichkeiten verfügen, ein Abweichen von der Kartellvereinbarung z.B. durch ein aggressives Wettbewerbsverhalten, zu sanktionieren. Die Drohung mit einer solchen Bestrafung muss jedoch auch glaubwürdig sein, d.h., es muss im Interesse des sanktionierenden Unternehmens liegen, die Drohung gegebenenfalls auch tatsächlich wahr zu machen. Andernfalls würden die Gegenspieler diese Drohung nicht ernst nehmen und ein Abweichen von der Kartellvereinbarung könnte dadurch nicht verhindert werden. Die spieltheoretische Literatur hat eine Vielzahl möglicher Strategien vorgeschlagen, mit deren Hilfe eine Kartellvereinbarung stabilisiert werden kann. Die einfachste dieser Strategien ist die so genannte „Grim-Trigger-Strategie“, die wie folgt charakterisiert werden kann. Angenommen, die Firmen einigen sich darauf, den Kartelloutput ( x1c , x 2c ) zu produzieren. Die Gewinne, die mit diesen Mengen verknüpft sind, werden mit πic bezeichnet. Beim Abweichen von der Kartellvereinbarung wird eine Firma i mit der gewinnmaximalen Menge entsprechend ihrer Reaktionsfunktion xir  (∙) reagieren, d.h., a r c sie wählt eine Menge xi = xi (x j ) . Die Menge xia maximiert den Gewinn von Firma i, gegeben, dass sich Firma j an die Kartellvereinbarung hält. Der Gewinn beim Abweichen von der Kartellvereinbarung sei mit πia bezeichnet. Würden die Unternehmen keine Kartellvereinbarung treffen, dann würden sie in jeder Periode die Cournot-Nash-Menge xi*

2 Industrieökonomik

233

wählen. Der resultierende Gewinn beträgt in diesem Falle πi* . Wie man sich leicht überlegt, besteht zwischen den drei Gewinnen die folgende Relation: πia > πic > πi* . Um zu zeigen, dass in einem unendlich oft wiederholten Spiel auch andere Gleichgewichte existieren können als die Wiederholung des Gleichgewichtes des Stufenspiels, eine Kartellvereinbarung also stabil sein kann, wird mithilfe bestimmter Strategien ein Gleichgewicht konstruiert, das in jeder Periode das kollusive Verhalten vorsieht. Es handelt sich dabei um die oben bereits erwähnten „Grim-Trigger-Strategien“, die z.B. für Unternehmen i formal wie folgt beschrieben werden kann. Wenn in jeder Periode c t = 1, 2, ..., τ beide Firmen i und i die Mengen xic und x j gewählt haben, dann wird c Firma i in Periode τ + 1 die Menge xi wählen. Hat eine der Firmen in einer der Peric oden t = 1, 2, ..., τ jedoch eine andere Menge als xic bzw. x j gewählt, ist also von der Kartellvereinbarung abgewichen, dann wird Firma i in allen folgenden Perioden τ + 1, τ + 2, ... die Cournot-Nash-Menge xi* wählen. Ein einmaliges Abweichen einer Firma von der Kartellvereinbarung löst also eine permanente und unwiderrufliche Bestrafung in Form einer Rückkehr zum Cournot-Nash-Gleichgewicht des Stufenspiels aus (Nash-Reversion). Angenommen, beide Unternehmen verwenden derartige Trigger-Strategien und in einer Periode τ überlegt sich die Firma i, ob sie von der Kartellvereinbarung abweichen a r c und die Menge xi = xi (x j ) wählen soll. In diesem Fall erhält sie sofort den zusätzlichen a Gewinn πi . Nach diesem einmaligen Abweichen erhält die Firma aber künftig in jeder Periode nur den geringeren Gewinn in Höhe von πi* . Die Überlegung der Firma kann nun wie folgt formalisiert werden: Wenn sie nicht von der Kartellabsprache abweicht, dann erhält sie in jeder Periode den Kartellgewinn πic . Auf den Gegenwartszeitpunkt diskontiert ist das die Auszahlung ∞ πc v c = ∑δ t π ic = i . 1− δ t=0 Würde das Unternehmen i jedoch in Periode 0 von der Kartellvereinbarung abweichen, dann erhält es einmalig den höheren Gewinn aus dem Abweichen von der Kartellvereinbarung πia , aber für die weitere Zukunft nur noch den niedrigeren Gewinn im CournotNash-Gleichgewicht πic .72 Die gesamte Auszahlung beim Abweichen beträgt daher ∞ δπ c v a = π ia + ∑δ t π i* = π ia + i . 1− δ t=0 Damit sich ein Abweichen nicht lohnt, muss also gelten, dass π ic δπ c ≥ π ia + i . 1− δ 1− δ

72 Wenn ein Unternehmen von der Kartellvereinbarung abweicht, dann ist es am besten, wenn es dies sofort tut.

234

Ulrich Schwalbe

Umformen ergibt π a −π c δ ≥ ia i* . πi −πi Da πia – πic < πia – πi* ist die rechte Seite immer kleiner als eins. Kurzfristig könnte der Gewinn um den Betrag πia – πic erhöht werden, aber langfristig würde er nach einem Abweichen von der Kartellvereinbarung um πic – πi* sinken. Wenn also der kurzfristige Gewinn aus dem Abweichen kleiner ist als der dauerhafte Verlust durch das Zusammenbrechen der Kartellvereinbarung, dann lohnt sich ein Abweichen nicht. In einem zweiten Schritt muss nun noch gezeigt werden, dass eine Firma i – gegeben die Trigger–Strategie der anderen Firma – kein Interesse daran hat, jemals wieder von der Cournot–Menge xic abzuweichen. Spieltheoretisch gesprochen ist zu zeigen, dass die Trigger-Strategie auch außerhalb des Gleichgewichtspfades optimal ist. Wenn nun eine Firma abgewichen ist, dann wird diese Firma von der nächsten Periode an gemäß der Trigger-Strategie immer den Cournot–Output xic produzieren. Die beste Antwort darauf c für die andere Firma j ist jedoch, ebenfalls immer die Cournot–Menge x j zu produzieren, also genau das, was die Trigger-Strategie für sie vorschreibt. Anders ausgedrückt, die beiden Trigger-Strategien bilden ein teilspielperfektes Nash–Gleichgewicht. Diese Überlegung zeigt, dass in einem Modell, in dem die Oligopolisten potentiell unendlich oft interagieren, auch andere Gleichgewichte möglich sind als in jeder Periode das CournotNash-Gleichgewicht zu spielen. Konkret kann es in diesem Fall zur Bildung eines Kartells kommen, in dem beide Firmen die halbe Monopolmenge produzieren. Ob ein Kartell stabil ist, hängt dabei wesentlich vom Diskontfaktor ab. Wenn die Zukunft für das Unternehmen von erheblicher Bedeutung ist, δ also in der Nähe von 1 liegt, dann hat der einmalige Gewinn aus dem Abweichen im Vergleich zum dauerhaften Verlust aufgrund des Zusammenbrechens der Kartellvereinbarung keine große Bedeutung. Liegt δ aber nahe bei 0, dann hat die Zukunft kein großes Gewicht und ein Abweichen würde sich lohnen, d.h. in diesem Fall wäre das Kartell nicht stabil. Es gilt also insgesamt, dass für einen hinreichend großen Diskontfaktor ein Kartell stabil sein kann.73 Dieser Zusammenhang zwischen Diskontfaktor und Kartellstabilität kann auch direkt mittels des Zinssatzes formuliert werden: π c −π * r ≤ ia ic . πi −πi Diese Bedingung ist umso eher erfüllt, je niedriger der Zinssatz ist: Bei einem Zinssatz nahe Null wäre ein Kartell stabil. Der Zinssatz kann also als implizites Maß für die Stabilität eines Kartells aufgefasst werden.

73 Dies ist ein spezieller Fall eines von mehreren in der Spieltheorie bekannten Folk-Theoreme, die zeigen, dass in wiederholten Spielen und unter bestimmten Bedingungen an den Diskontfaktor zahlreiche weitere Nash-Gleichgewichte existieren. Es kann gezeigt werden, dass alle Auszahlungen, die individuell rational und erreichbar sind, als teilspielperfekte Nash-Gleichgewichte in einem wiederholten Spiel erreicht werden können. Vgl. hierzu Friedman (2000).

2 Industrieökonomik

2.4.2

235

Bedingungen für stabile Kartelle und kollusives Verhalten

Die oben dargestellte Analyse ist unabhängig davon, ob die Unternehmen eine explizite Kartellvereinbarung getroffen haben oder ob sie ohne eine direkte Absprache allein durch das Beobachten des Marktgeschehens, stillschweigend zu einem kollusiven Verhalten gelangt sind. In beiden Fällen sind die zentralen Voraussetzungen eine potentiell unendliche Zahl von Interaktionen, die Existenz eines wirksamen und glaubwürdigen Sanktionsmechanismus sowie ein hinreichend hoher Diskontfaktor. Wenn diese Bedingungen nicht erfüllt sind, dann ist auf dem betreffenden Markt weder mit dem Auftreten von Kartellen noch mit einer stillschweigenden Kollusion der Unternehmen zu rechnen. Allerdings gibt es eine Reihe von Faktoren, die zum einen Unternehmen und zum anderen die strukturellen Marktbedingungen betreffen, die eine Kartellbildung bzw. ein kollusives Verhalten erleichtern und begünstigen. Hierzu zählen die Anzahl der im Markt aktiven Unternehmen, ihre Symmetrie bezüglich der verwendeten Technologie, der Größe, der angebotenen Produkte sowie der Organisationsform, aber auch strukturelle Verbindungen zwischen den Unternehmen. Bezüglich des Marktes sind Aspekte wie die Markttransparenz, Marktzutrittsschranken, Multi-Markt-Kontakte der Unternehmen, die Preiselastizität der Nachfrage, Nachfragemacht, die typischen Transaktionen auf dem Markt sowie die Stabilität des Marktes z.B. in Hinblick auf Konjunkturschwankungen oder Innovationen. Weitere Aspekte, die für die Analyse von Kartellen und kollusivem Verhalten wesentlich sind, betreffen die verschiedenen Instrumente, mit denen Unternehmen eine Übereinstimmung über das Verhalten erzielen. In diesem Zusammenhang sind vor allem Preissetzungsregeln wie Meistbegünstigungsklauseln oder Preisgarantien zu nennen. Gibt es im Markt nur eine geringe Zahl von Unternehmen, so dürfte es sich als einfacher erweisen, zwischen diesen wenigen Akteuren eine Übereinstimmung zu erzielen, als wenn das Verhalten einer größeren Zahl von Unternehmen zu koordinieren ist. Eine Koordination dürfte darüber hinaus umso leichter zu bewerkstelligen sein, wenn die Unternehmen ähnliche Vorstellungen hinsichtlich der jeweiligen Quoten bzw. des kollusiven Preises hegen, was umso eher der Fall sein dürfte, wenn die Unternehmen jeweils eine ähnliche Größe aufweisen, mit der gleichen Technologie produzieren und eine vergleichbare Organisationsstruktur und Rechtsform aufweisen. Ebenso ist eine Verhaltenskollusion für die Unternehmen einfacher, wenn der Preis bzw. die Menge nur eines Produktes oder weniger Produkte zu koordinieren ist, als wenn von jedem Unternehmen ein umfangreiches Sortiment unterschiedlicher Produkte hergestellt wird. Kollusion bei homogenen Massengütern ist daher eher zu erwarten als bei horizontal oder vertikal differenzierten Produkten. Ebenso wird ein kollusives Verhalten erleichtert, wenn zwischen den Unternehmen strukturelle Verbindungen, wie z.B. wechselseitige Beteiligungen oder Mitgliedschaften in den Aufsichtsräten der anderen Unternehmen, bestehen. Zum einen erhöht dies die Transparenz und zum anderen sinken, z.B. bei wechselseitigen Beteiligungen, die Anreize, von der Vereinbarung abzuweichen, da man sich dadurch auch selbst schädigt. Hinsichtlich der marktbezogenen Kriterien ist vor allem die Markttransparenz ein wichtiger Aspekt. Die Möglichkeit, ein Abweichen von einer expliziten oder impliziten

236

Ulrich Schwalbe

Vereinbarung beobachten und sanktionieren zu können, ist eine zentrale Voraussetzung für die Stabilität eines solchen Arrangements. Wenn ein Unternehmen erwägt, von der Vereinbarung abzuweichen, so muss es damit rechnen, dass dieses Abweichen beobachtet und entsprechend sanktioniert wird. Kann es hingegen davon ausgehen, dass sein Abweichen nicht entdeckt wird, z.B. wenn lediglich eine Preissenkung beobachtet wird, die Ursache dafür jedoch nicht festgestellt werden kann, so steigt der Anreiz abzuweichen und eine kollusive Vereinbarung wird weniger wahrscheinlich bzw. es wird keine vollständige Verhaltenskoordination erreicht (Green/Porter (1984)). Treffen die Unternehmen auf mehreren, z.B. räumlich getrennten Märkten aufeinander, so können derartige MultiMarkt-Kontakte ein kollusives Verhalten erleichtern, da ein Abweichen eines Unternehmens auf einem Markt durch eine Sanktion auf einem anderen Markt beantwortet werden kann. Voraussetzung ist dabei, dass die Unternehmen auf den verschiedenen Märkten unterschiedlich große Marktanteile haben, in Bezug auf alle Märkte zusammen jedoch eine ähnliche Größe aufweisen. Zeichnet sich die Nachfrage auf dem betreffenden Markt durch eine geringe Preiselastizität aus, so steigt der Anreiz, ein Kartell zu bilden, denn in diesem Fall kann eine signifikante Preiserhöhung ohne größere Mengeneinbußen durchgesetzt werden, was mit erheblichen Gewinnsteigerungen verbunden ist. Auf die Stabilität des Kartells hat die Preiselastizität keinen eindeutigen Einfluss, denn diese beeinflusst sowohl den Anreiz, von einem Kartell abzuweichen, als auch die Sanktionsmöglichkeiten in gleicher Weise. Ein Kartell ist auch dann nur schwer zu etablieren bzw. aufrechtzuerhalten, wenn es Nachfrager gibt, die über signifikante Nachfragemacht verfügen, denn diese Abnehmer haben ein Interesse daran, Kartellbildungen zu verhindern. Dies können sie zum Beispiel dadurch erreichen, dass sie Aufträge vergeben, die einen großen Anreiz bieten, von etwaigen Kartellvereinbarung abzuweichen. Tendenziell sind daher Märkte mit einer großen Zahl kleiner Transaktionen anfälliger für Kartellbildungen und kollusives Verhalten. Eine Kartellbildung ist auch auf solchen Märkten eher zu erwarten, die durch eine gewisse Stabilität oder durch wachsende Nachfrage gekennzeichnet sind. Bei erheblichen Konjunkturschwankungen, Fluktuationen der Nachfrage oder bei häufigen drastischen Innovationen müssen hingegen ständig Anpassungen der Kartellvereinbarung erfolgen, was in aller Regel ein explizites und auch implizites kollusives Verhalten erschwert. Kartellbildungen und kollusives Verhalten werden erleichtert, wenn es Methoden und Instrumente gibt, die es den Firmen ermöglichen, sich leicht auf bestimmte Quoten oder Preise zu verständigen. Die einfachste Form sind explizite Kartellvereinbarungen, bei denen sich die Mitglieder des Kartells direkt über die Quoten oder Preise verständigen. Die Organisationsstruktur eines Kartells kann dabei sehr unterschiedliche Formen annehmen. Von gestalteten Kartellen mit regelmäßigen Treffen und häufigem Informationsaustausch über Strukturen mit nur bilateralen Kontakten zwischen den Kartellmitgliedern mit eher sporadischen Kontakten bis zu so genannten Radnaben-Kartellen (Hub-Spoke) werden verschiedene Kartellorganisationen beobachtet. Bei Radnaben-Kartellen fungiert ein Unternehmen als Organisator, das selbst nicht auf dem gleichen Markt tätig ist, wie z.B. ein Zulieferer oder ein Wirtschaftsprüfungsunternehmen.

2 Industrieökonomik

237

Neben expliziten Vereinbarungen kann der öffentliche Informationsaustausch, z.B. durch Ankündigungen von Preiserhöhungen, eine Verhaltenskoordination erleichtern. Eine andere Möglichkeit zur Verhaltenskoordination ist dann gegeben, wenn ein Unternehmen die Rolle eines Preisführers übernimmt, an dessen Preis sich die anderen Firmen anpassen. Dadurch wird ein Fokalpunkt gesetzt, an dem sich alle Unternehmen orientieren können. Ähnliches gilt auch für so genannte Preisregeln, wie z.B. Meistbegünstigungsklauseln, die den Abnehmern garantieren, dass anderen oder späteren Käufern keine günstigeren Konditionen gewährt werden oder Preisgarantien, die versprechen, keine höheren Preise zu verlangen als die Konkurrenz. So fungiert eine Meistbegünstigungsklausel als Selbstbindungsmechanismus, nicht von einem höheren Preis abzuweichen, da eine Preissenkung sehr kostspielig wäre, weil ein geringerer Preis automatisch allen anderen Abnehmern gewährt werden müsste. Preisgarantien dienen gleichzeitig als Instrument zu Erhöhung der Markttransparenz, als Sanktionsinstrument und als Signal gegenüber den Wettbewerbern, einen höheren Preis zu verlangen.74 Ein „idealer Markt“, auf dem die Voraussetzungen für eine Kartellbildung oder für kollusives Verhalten erfüllt sind, wäre ein stabiler und transparenter Markt mit hohen Marktzutrittsschranken, in dem wenige, ähnliche Unternehmen wiederholt interagieren, ein homogenes Produkt herstellen, ein glaubwürdiger Bestrafungsmechanismus existiert, Transaktionen häufig stattfinden, und es viele kleine Nachfrager mit unelastischer Nachfrage gibt. Märkte, die diese Bedingungen wohl recht gut erfüllen, sind Märkte für homogene Massengüter wie Zement, Glas, Papier oder auch Kraftstoffe. Diese Märkte sind daher aus den oben genannten Gründen als vergleichsweise „kartellaffin“ einzuschätzen. Wenn darüber hinaus Informationen zwischen den Unternehmen ausgetauscht werden und es Mechanismen zur Verhaltenskoordination gibt, dann ist in einem solchen Markt explizites oder stillschweigendes kollusives Verhalten zu erwarten.

2.4.3

Externe und interne Stabilität eines Kartells

Ein alternativer Ansatz zur Erklärung von Kartellen, der sich grundlegend vom Modell wiederholter Interaktionen zwischen den Firmen unterscheidet, wurde von Selten (1973) vorgelegt, der sich insbesondere mit der Frage der internen und der externen Stabilität eines Kartells befasst. Dabei ist ein Kartell intern stabil, wenn keines der Kartellmitglieder einen Anreiz hat, aus einem bestehenden Kartell auszubrechen. Die externe Stabilität eines Kartells ist gewährleistet, wenn kein weiteres Unternehmen dem Kartell beitreten möchte. Im Unterschied zu dem bisher betrachteten Ansatz wiederholter Interaktion wird in diesem Modell von einer einmaligen Interaktion ausgegangen, die als ein dreistufiges Spiel modelliert wird. In der ersten Stufe des Spiels treffen die Unternehmen in einem Markt eine Entscheidung darüber, ob sie sich an einem Kartell beteiligen oder nicht. In der anschließenden zweiten 74 Zur Wirkungsweise von Meistbegünstigungsklauseln und Tiefpreisgarantien vgl. z.B. Schwalbe/ Zimmer (2012), S.368-372.

238

Ulrich Schwalbe

Stufe des Spiels legen die Unternehmen, die sich am Kartell beteiligt haben, fest, welche Outputmengen die einzelnen Kartellmitglieder jeweils produzieren sollen, d.h. es werden verbindliche Quoten vereinbart, die von den Unternehmen, die sich nicht am Kartell beteiligt haben, beobachtet werden. Damit diese Quoten glaubwürdig sind, muss sichergestellt sein, dass die Unternehmen nicht davon abweichen und eine andere als die vereinbarte Menge herstellen, d.h. die Quotenfestlegung muss eine bindende Vereinbarung sein. Die Annahme, dass derartige Vereinbarungen zwischen den Unternehmen möglich sind, ist ein wesentlicher Unterschied zu dem in Abschnitt 4.2. beschriebenen Ansatz, in dem keine verbindlichen Absprachen möglich waren. In der abschließenden dritten Stufe des Spiels wählen die Unternehmen, die sich nicht am Kartell beteiligt haben, ihren Output gegeben der vom Kartell vereinbarten Produktionsmenge. Das Kartell hat also gegenüber den Nichtmitgliedern die Rolle eines Stackelberg-Führers. Schließlich wird die von allen Unternehmen hergestellte Gesamtmenge auf den Markt gebracht und zum markträumenden Preis verkauft. Das dreistufige Spiel wird mittels Rückwärtsinduktion gelöst. In der dritten Stufe maximieren die nicht am Kartell beteiligten Unternehmen ihren Gewinn, gegeben die Produktionsmenge des Kartells. Angenommen, eine Anzahl k ≤ n von Unternehmen hat sich entschieden, ein Kartell zu bilden und die restlichen m = n – k Unternehmen beteiligen sich nicht am Kartell. Diese m Unternehmen sehen sich einer Residualnachfrage gegenüber, die durch die Funktion p(Xm) = a – bXm – bXk gekennzeichnet ist. Dabei bezeichnet Xm die Gesamtmenge, die von den Firmen hergestellt wird, die nicht am Kartell beteiligt sind und Xk den gesamten Output der kartellierten Unternehmen. Das Gewinnmaximierungsproblem eines der nichtkartellierten Unternehmen, das die Menge xm herstellt, ist gegeben durch max π m (xm ) = (a − bXm − bX k )xm − cxm . xm

Die Bedingung erster Ordnung für ein Gewinnmaximum ergibt sich als a – b(2xi + Xm–i – bXk) – c = 0,

i = 1, ..., n,

wobei Xm–i den Output aller anderen nichtkartellierten Firmen außer der Firma i bezeichnet. Da alle Unternehmen mit den gleichen Grenzkosten produzieren, gilt Xm–i = (m – 1)xi. Einsetzen in die Bedingung erster Ordnung ergibt die Reaktionsfunktion eines nichtkartellierten Unternehmens i a−c Xk xm = Rm (x −m ) = − . (m +1)b (m +1) Der gewinnmaximale Output eines nichtkartellierten Unternehmens ist also eine Funktion der vom Kartell hergestellten Menge Xk. Die Gesamtmenge, die von den m nichtkartellierten Unternehmen hergestellt wird, beträgt daher

2 Industrieökonomik

Xm =

239

m ⎛ a−c ⎞ − Xk ⎟ . ⎜ ⎠ m +1 ⎝ b

Das Kartell wird bei der Entscheidung, welche Menge es in der zweiten Stufe des Spiels herstellen soll, die Angebotsmenge der nichtkartellierten Firmen berücksichtigen. Unter Berücksichtigung dieser Angebotsmenge kann die inverse Nachfragefunktion, der sich das Kartell gegenübersieht, geschrieben werden als m ⎛ a−c b ⎛ ⎞ ⎞ a + mc p(X k ) = a − b ⎜ X k + − Xk ⎟ ⎟ = − X . ⎜ ⎠ ⎠ m +1 m +1 k ⎝ m +1 ⎝ b Die Bedingung erster Ordnung für den gewinnmaximalen Kartelloutput lautet a + mc 2b − X k − c = 0. m +1 m +1

Das Kartell sollte also insgesamt die Menge Xk =

a−c 2b

produzieren. Der Kartelloutput ist also sowohl unabhängig von der Zahl der Firmen im Kartell als auch von der Zahl der nichtkartellierten Unternehmen. Wie auch im von Stackelberg-Modell wählt der Stackelberg-Führer, im hier betrachteten Fall also das Kartell, die gleiche Menge wie ein Monopolist. Allerdings hängt der Output eines Kartellmitglieds von der Zahl der Kartellmitglieder ab. Da es insgesamt k Unternehmen im Kartell gibt, produziert jedes Kartellmitglied die Menge a−c a−c xk = = . 2kb 2b(n − m) Je mehr Unternehmen im Kartell sind, desto geringer ist die Quote jedes Kartellmitglieds. Einsetzen der Kartellmenge in die Gesamtmenge der nichtkartellierten Unternehmen ergibt m ⎛ a−c⎞ Xm = ⎜ ⎟. m +1 ⎝ 2b ⎠ Einsetzen der Produktionsmengen des Kartells und der nichtkartellierten Firmen in die Preis-Absatz-Funktion ergibt den Marktpreis c(2m +1) p = a+ 2(m +1) und damit eine Gewinnmarge a−c p−c = . 2(m +1) Die Gewinne eines kartellierten und eines nichtkartellierten Unternehmens sind dann jeweils (a − c)2 (a − c)2 π k (k,m) = und π m (m) = . 4bk(m +1) 4b(m +1)2

240

Ulrich Schwalbe

Um im Folgenden festzustellen, wie viele Firmen sich am Kartell beteiligen bzw. Kartellaußenseiter bleiben, ist zu überprüfen, ob ein Kartell die Bedingungen der internen und externen Stabilität erfüllt. Die interne Stabilität besagt, dass es für ein Kartellmitglied nicht profitabel sein darf, das Kartell zu verlassen und stattdessen als Kartellaußenseiter zu fungieren. Die externe Stabilität besagt, dass kein Kartellaußenseiter einen höheren Gewinn realisieren darf, wenn er dem Kartell beitritt. Für den Fall eines umfassenden Kartells ist lediglich die interne Stabilität zu prüfen. Hier muss gelten, dass π k (n,0) =

(a − c)2 (a − c)2 > = π m (1). 4bn 16b

Diese Bedingung ist offensichtlich nur dann erfüllt, wenn es in dem Markt höchstens vier Unternehmen gibt. Sobald n > 4, kann es in dem Markt kein umfassendes Kartell geben, d.h. das Kartell wird nur eine partielle Marktabdeckung aufweisen. In einem solchen Fall ist der Anteil eines Kartellmitglieds am Kartellgewinn so gering, dass sich der Ausstieg aus dem Kartell lohnt. Allgemein sind die Bedingungen für interne und externe Stabilität gegeben durch (a − c)2 (a − c)2 π k (k,m) = ≥ = π m (m +1) 4bk(m +1) 4b(m + 2)2 und π k (k +1,m −1) =

(a − c)2 (a − c)2 ≤ = π m (m). 4bm(k +1) 4b(m +1)2

Aus den beiden Ungleichungen folgt die Bedingung (m + 2)2 (m +1)2 ≥k≥ −1. m m

bzw. m + 3+

1 1 ≥ k ≥ m +1+ . m +1 m

Da m und k ganzzahlig sind, können bei m nichtkartellierten Unternehmen nur Kartelle mit m + 3 bzw. m + 2 Unternehmen die Bedingungen für die interne und externe Stabilität erfüllen. Wenn sich die nichtkartellierten Unternehmen als Cournot-Oligopolisten verhalten, dann müssen hinreichend viele nichtkartellierte Firmen existieren, so dass deren Gewinn so gering ist, dass es für ein Kartellmitglied nicht interessant ist, das Kartell zu verlassen. Andererseits dürfen die Kartellgewinne nicht so hoch sein, dass sie den nichtkartellierten Firmen einen Anreiz geben, sich dem Kartell anzuschließen. So wäre z.B. in einem Markt mit 10 Unternehmen nur ein Kartell mit 6 Mitgliedern intern und extern stabil. Bei 15 Unternehmen im Markt hat das einzige intern und extern stabile Kartell 9 Mitglieder (S. Shaffer (1990)).

2 Industrieökonomik

2.4.4

241

Empirische und experimentelle Evidenz

Es liegen zahlreiche empirische Untersuchungen zu Kartellen, ihren Auswirkungen auf das Marktergebnis, ihrem Verhalten, ihrer Struktur, der Dauer sowie den Determinanten ihres Erfolges oder ihres Scheiterns vor.75 Während einige Untersuchungen sich zumeist mit spezifischen Kartellen befassen und diese im Detail untersuchen, wie z.B. dem Stahlkartell (Hexner (1943)), dem Vitaminkartell (Connor (2007)), dem Lysin-Kartell (Eichenwald (2000)), dem Magnesium-Kartell (Stocking/Watkins (1946)) oder dem StromkabelKartell (Hahn/Normann (2001)), sind auch eine Reihe von Analysen vorgenommen worden, die empirische Regularitäten und Determinanten der verschiedenen Aspekte analysieren. Die erste Arbeit in dieser Richtung wurde von Hay/Kelley (1974) vorgelegt, die 49 Kartelle untersuchten, wobei die Ermittlung der Bestimmungsfaktoren für die Kartelle im Vordergrund standen. Sie kamen zu dem Ergebnis, dass die wesentlichen Faktoren für eine Kartellbildung eine geringe Anzahl von Unternehmen im Markt, ein hoher Konzentrationsgrad und die Homogenität der Produkte sind. In ca. 80% der Fälle waren zehn oder weniger Unternehmen am Kartell beteiligt, die durchschnittliche Anzahl lag bei 7,25. Andere Faktoren, wie z.B. eine geringe Preiselastizität der Nachfrage oder Großaufträge scheinen nur einen geringen Einfluss aufzuweisen.76 Eine grundlegende Untersuchung der Bestimmungs- und Erfolgsfaktoren von Kartellen ist die Arbeit von Levenstein/Suslow (2006). In ihrer Meta-Analyse von 21 empirischen Kartellstudien kommen sie zu dem Ergebnis, dass eine hohe Konzentration die Stabilität von Kartellen erhöht, Kartelle jedoch auch in Industrien mit vergleichsweise geringer Konzentration existieren können, wenn sie das Organisationsproblem z.B. durch Verbände, lösen können. Wenn jedoch die Nachfrage starken Schwankungen unterliegt oder ein starkes Wachstum aufweist, dann sind Kartelle in der Regel instabiler. Wenn es sich jedoch um vorhersehbare konjunkturelle Schwankungen handelt, dann haben diese nur einen geringen Einfluss auf die Kartellstabilität. In ihrer Untersuchung gehen Levenstein/ Suslow auch auf die interne Kartellorganisation ein und machen deutlich, dass Kartelle in vielen Fällen Strukturen entwickeln, die es den Mitgliedern erlauben, Informationen weiterzugeben, gemeinsame Entscheidungen zu treffen und Sanktionsmechanismen zu etablieren. Eine weitere Untersuchung, die sich ebenfalls mit der internen Organisationsstruktur von Kartellen befasst, wurde von Harrington (2006) vorgelegt. Anhand von 20 europäischen Kartellfällen untersucht er die Funktionsweise von Kartellen. Seine Studie zeigt, dass die Unternehmen die Organisation des Kartells so gestalten, dass die Möglichkeiten und Anreize zu einem Abweichen von der Kartellvereinbarung durch Kontroll- und Sanktionsmechanismen weitest möglich reduziert werden. Um solche komplexen Arrangements zu erreichen, haben einige Kartelle aufwendige Strukturen mit intensiver Kommunikation und häufigen Treffen geschaffen. Allerdings gab es trotz dieser Bemühungen regelmäßig 75 76

Im Folgenden wird nur auf einige der zentralen Untersuchungen eingegangen. Vgl. Hay/Kelly (1974), S. 20-26.

242

Ulrich Schwalbe

Abweichungen von der Kartellvereinbarung. Die meisten dieser Kartelle sind jedoch nicht aufgrund interner Probleme zusammengebrochen, sondern aufgrund einer Aufdeckung seitens der Kartellbehörden. Die vorliegenden empirischen Untersuchungen zu den Auswirkungen von Kartellen insbesondere auf die Preise zeigen zumeist vergleichbare Resultate. In einer Studie von Posner (2001) werden 12 Kartellfälle herangezogen und er schätzt den Median der kartellbedingten Preiserhöhung auf 28%. Eine Studie der OECD, die auf Fällen aus den Jahren 1996 bis 2000 basiert, zeigt einen Median der kartellbedingten Preiserhöhung zwischen 16% bis 18%. Eine Meta-Studie von Werden (2004), die auf 13 Untersuchungen beruht, findet einen Median der Preiserhöhung von 15%. Die umfangreichste Studie zu kartellbedingten Preiserhöhungen wurde von Connor/Lande (2008) vorgelegt, die insgesamt 670 Kartellfälle aus ca. 200 verschiedenen Studien heranziehen. Sie kommen auf einen Median der Preiserhöhung von 20% des Kartellpreises und einem durchschnittlichen Wert von 23%. Ausgehend von dieser Studie wurde auch die Verteilung der kartellbedingten Preiserhöhungen ermittelt, wobei nur Kartelle betrachtet wurden, die nach 1960 entstanden und darüber hinaus noch weitere Bedingungen erfüllen, so dass noch 114 Kartellfälle übrigblieben.77 Bei diesen Fällen lag der Median der Preiserhöhung bei 18% und der Durchschnitt bei 20%. Allerdings zeigte sich eine erhebliche Varianz der kartellbedingten Preiserhöhungen. In 7% der Fälle zeigte sich keinerlei messbare Preiserhöhung, während sie in einigen Fällen auch über 50% des Kartellpreises liegen kann, d.h. der Kartellpreis war doppelt so hoch wie bei Wettbewerb.78 Experimentelle Studien zu Kartellen haben deutlich gemacht, dass die Kommunikation zwischen den Kartellmitgliedern von wesentlicher Bedeutung ist. Dies gilt unabhängig davon, ob es sich um ein Preis- oder Quotenkartell handelt oder ob, wie im HotellingModell, der Standort die zentrale strategische Variable ist.79 Ein weiterer Aspekt, der in den letzten Jahren untersucht wurde, ist die Auswirkung der Kommunikation in Abhängigkeit von der Zahl der Unternehmen im Markt. In einem Bertrand-Oligopol mit unterschiedlicher Firmenanzahl zeigte sich, dass der Gewinnzuwachs, der durch explizite Vereinbarungen im Vergleich zu einer stillschweigenden Koordination erzielt werden kann, am größten bei einer mittleren Firmenzahl ist. In einem Duopol ist eine Kommunikation nicht notwendig und die Unternehmen können auch ohne explizite Vereinbarung ein kartellähnliches Ergebnis erzielen. In Märkten mit vielen Firmen kommt auch mit Kommunikation zwischen den Firmen keine Kollusion zustande (Fonseca/Normann (2012)). Ein weiteres Experiment untersucht, ob Kartelle eher zustande kommen, wenn in jedem Unternehmen die Entscheidung darüber von einzelnen Akteuren getroffen wird oder von Gruppen. Es zeigt sich jedoch, dass die Häufigkeit, mit der Kartelle sich bilden unabhängig

77 78 79

Vgl. Oxera (2009). Vgl. ebenda. Vgl. Brown-Kruse/Schenk (2000).

2 Industrieökonomik

243

davon ist, ob die Entscheidungen von Individuen oder Gruppen getroffen wird. Allerdings setzen Individuen höhere Preise als Gruppen.80 Experimentelle Untersuchungen von kollusivem Verhalten ohne explizite Kartellvereinbarungen (Tacit Collusion) gehen in der Regel davon aus, dass eine solche zumindest partielle Verhaltenskoordination vorliegt, wenn die Angebotsmengen geringer sind als im Nash-Gleichgewicht des statischen Spiels (Holt (1995)). Von wesentlicher Bedeutung für das Auftreten einer stillschweigenden Verhaltenskoordination sind strukturelle Bedingungen auf dem jeweiligen Markt. Die experimentellen Ergebnisse zeigen, dass eine Verhaltenskoordination häufig nur dann zustande kommt, wenn es sich um ein Duopol handelt. Bei drei Unternehmen wird sie selten beobachtet und bei vier oder mehr fast nie. Dies gilt sowohl für Mengen- als auch für Preiswettbewerb.81 Ein weiterer wesentlicher Faktor für ein kollusives Verhalten ist die Markttransparenz. Je geringer die Markttransparenz, d.h. die Möglichkeit, die Handlungen der anderen Unternehmen zu beobachten, desto schwieriger ist es, eine Verhaltenskoordination zu etablieren (Feinberg/Snyder (2002), Aoyagi/Fréchette (2009)). In einem Markt mit drei Unternehmen und Mengenwettbewerb ist kollusives Verhalten häufiger anzutreffen, wenn die Unternehmen die individuellen Angebotsmengen kennen als wenn sie über das Gesamtangebot informiert sind. Auch Asymmetrien zwischen den beteiligten Unternehmen bezüglich der Kostenfunktion erschweren eine Verhaltenskoordination (Mason/Phillips/Nowell (1992), Mason/Phillips (1997)). Weitere Experimente haben gezeigt, dass auch die Homogenität der Produkte einen Einfluss auf die stillschweigende Kollusion hat. In einem Markt mit Preiswettbewerb fand sich bei differenzierten Produkten eine weniger ausgeprägte Verhaltenskoordination als im Falle homogener Produkte (Bruttel (2009)). Hinsichtlich der Nachfrageseite hat sich ergeben, dass, in Übereinstimmung mit den theoretischen Resultaten, bei im Zeitablauf wachsender Nachfrage kollusives Verhalten eher beobachtet wird als bei zurückgehender Nachfrage (Abbink/Brandts (2009)). Instrumente zur Verhaltenskoordination wie z.B. Preisgarantien, können, wie die experimentelle Evidenz nahelegt, kollusives Verhalten erleichtern. So wird in einem Duopol mit Preiswettbewerb und differenzierten Gütern das kollusive Gleichgewicht erreicht, wenn Firmen Preisgarantien verwenden. Ohne dieses Instrument resultierte hingegen das nichtkooperative Gleichgewicht (Fatas/Manez (2007)). Dieses Ergebnis gilt in ähnlicher Weise auch bei homogenen Gütern (Mago/Pate (2009)). Insgesamt scheinen die experimentellen Ergebnisse überwiegend nicht in offenkundigem Widerspruch zu den theoretischen und empirischen Resultaten zu stehen.

Vgl. Gillet/Schram/Sonnemans (2011). Für Mengenwettbewerb vgl. z.B. Huck/Normann/Oechsler (2004); für Preiswettbewerb siehe Abbink/Brandts (2005, 2008) und Orzen (2008). 80

81

244

Ulrich Schwalbe

2.5

Fusionen

2.5.1

Fusionsarten und Motive

Während Kartelle und Kollusionen zwar ein abgestimmtes Verhalten der beteiligten Unternehmen implizieren, bleiben die Unternehmen wirtschaftlich und rechtlich eigenständige Einheiten, die von ihren Entscheidungsrechten prinzipiell Gebrauch machen können, ohne die Auswirkungen auf andere Unternehmen zu berücksichtigen. Im Unterschied dazu handelt es sich bei Fusionen um Zusammenschlüsse von Unternehmen sowohl im wirtschaftlichen als auch im rechtlichen Sinne. Bei Fusionen kommt es zu einer Integration der Verfügungs- und Entscheidungsrechte und damit zu einer Veränderung in der Struktur der Eigentums- bzw. Verfügungsrechte, die zu einer Harmonisierung der Interessen der ehemals unabhängigen Unternehmen führt. Eine Fusion kann erfolgen, indem ein Unternehmen ein anderes aufkauft, z.B. im Zuge einer (freundlichen oder feindlichen) Übernahme, oder auch indem zwei Unternehmen sich darauf einigen, sich zusammen­zuschließen. In der Regel wird, je nachdem, auf welchen Marktstufen bzw. auf welchen Märkten die beteiligten Unternehmen tätig sind, zwischen verschiedenen Fusionstypen unterschieden. Es handelt sich dabei um horizontale, vertikale und konglomerate Unternehmenszusammenschlüsse, die anhand von Abbildung 2.21 erläutert werden können. Dabei stellen die Verbindungslinien zwischen den Unternehmen Kunden-Lieferanten-Beziehungen dar. Ein horizontaler Zusammenschluss liegt dann vor, wenn die beteiligten Unternehmen, im gleichen sachlich und räumlich relevanten Markt und damit auch auf der gleichen Stufe in der Wertschöpfungskette tätig sind. Horizontale Fusionen betreffen daher Unternehmen, die vor dem Zusammenschluss in einem Wettbewerbsverhältnis zueinander gestanden haben. Beispiele für horizontale Fusionen sind die Zusammenschlüsse der

I n d u s tr ie A

I n d u s tr ie B v e r tik a le In te g ra tio n

Z u lie f e re r

K o n g lo m e r a te H e r s te lle r

H ä n d le r

h o r iz o n ta le r Z u s a m m e n s c h lu s s

Abb. 2.21  Die verschiedenen Fusionsarten

v e r tik a le r u n d h o r iz o n ta le r Z u s a m m e n s c h lu s s

2 Industrieökonomik

245

Mineralölfirmen BP und Aral oder Shell und DEA, der Brauereien Carlsberg und Holsten oder den Berliner Tagesszeitungen Tagesspiegel und Berliner Zeitung. Bei einem Großteil der wettbewerbspolitisch bedeutsamen Fusionen oder Fusionsvorhaben handelt es sich um horizontale Zusammenschlüsse, da hierbei der Wettbewerb zwischen zwei unmittelbaren Konkurrenten beeinflusst wird. Bei vertikalen Zusammenschlüssen, die häufig auch als vertikale Integration bezeichnet werden, handelt es sich hingegen um Fusionen von zwei oder mehr Unternehmen, die auf vor- und nachgelagerten Wertschöpfungsstufen tätig sind. Ein solcher Zusammenschluss betrifft also keine Unternehmen, die auf dem gleichen Markt konkurrieren, sondern Firmen, die typischerweise in einer Kunden-Lieferanten-Beziehung stehen oder zumindest stehen könnten. Konglomerate Zusammenschlüsse schließlich sind solche, bei denen sich zwei oder mehr Unternehmen aus unterschiedlichen Märkten zusammenschließen, ohne dass zwischen ihnen eine Konkurrenz- oder Lieferbeziehung besteht. Als wettbewerblich problematisch können sich insbesondere konglomerate Zusammenschlüsse von Unternehmen erweisen, die auf „benachbarten“ Märkten tätig sind, z.B. wenn die Unternehmen komplementäre Güter herstellen. In diesem Abschnitt werden horizontale Zusammenschlüsse analysiert, da diese einen großen Teil aller Fusionen ausmachen. Vertikale Zusammenschlüsse bzw. Zusammenschlüsse von Herstellern komplementärer Güter und ihre Auswirkungen auf das Marktergebnis und den Wettbewerb werden gesondert in Kapitel 7 diskutiert. Bei der Analyse von Fusionen stellt sich zuerst die Frage, aus welchen Gründen sich Unternehmen zusammenschließen und weshalb sie nicht weiterhin ihre Unabhängigkeit wahren bzw. selbstständig agieren. Zwei grundlegende Motive können angeführt werden: Erstens führt ein Zusammenschluss von Unternehmen dazu, dass der direkte Wettbewerb zwischen den Fusionspartnern ausgeschaltet wird, sodass die Wettbewerbsintensität auf dem Markt reduziert und die Marktmacht des fusionierten Unternehmens gesteigert wird. Durch die Zunahme der Konzentration im Markt und die damit verbundene Verringerung des Wettbewerbsdrucks erhoffen sich die Unternehmen höhere Preise, geringere Angebotsmengen und höhere Gewinne. Diese Wirkungen auf die Preise und Mengen des fusionierten Unternehmens sowie der Wettbewerber werden in der wettbewerbspolitischen Literatur als „nichtkoordinierte Effekte“ bzw. „unilaterale Effekte“ bezeichnet. Im Unterschied zu Kartellen bzw. kollusivem Verhalten werden durch den Zusammenschluss die Interessen der beteiligten Unternehmen dauerhaft harmonisiert, so dass das Problem eines Abweichens von einem kollusiven Gleichgewicht aufgrund der fehlenden wirtschaftlichen Unabhängigkeit entfällt. Darüber hinaus können sich durch einen Zusammenschluss zweier Unternehmen am Markt auch die Möglichkeiten verbessern, ein stabiles Kartell mit dem am Markt verbleibenden Unternehmen zu bilden oder zu einer stillschweigenden Kollusion zu gelangen. Wie in Abschnitt 2.4 dargelegt wurde, ist sowohl die Zahl der Firmen im Markt als auch die Symmetrie bezüglich der Größe eine entscheidende Determinante der Stabilität eines Kartells bzw. eines kollusiven Gleichgewichts. Je geringer die Zahl der Firmen, desto eher ist ein Kartell stabil. Da die Zahl der Firmen nach einem Zusammenschluss abnimmt, steigt dementsprechend die Möglichkeit zu einer

246

Ulrich Schwalbe

Verhaltenskoordination. Wenn darüber hinaus auch die Symmetrie der Unternehmen größer wird, dann führt auch dies zu verbesserten Kollusionsmöglichkeiten. Solche Auswirkungen eines horizontalen Zusammenschlusses werden in der Wettbewerbspolitik als „koordinierte Effekte“ bezeichnet.82 Das zweite zentrale Motiv für einen Zusammenschluss ist die Realisation von Synergieeffekten bzw. von Effizienzgewinnen, die durch eine Fusion realisiert werden können. So kann eine Fusion bei zunehmenden Skalenerträgen die kurzfristigen Durchschnittskosten verringern, weil z.B. eine Duplizierung von Fixkosten vermieden wird. So reicht für das fusionierte Unternehmen eine Marketing-, Personal- und EDV-Abteilung in der Regel aus. Wenn das fusionierte Unternehmen in der Lage ist, kostengünstiger zu produzieren, verfügt es gegenüber seinen Konkurrenten über eine verbesserte Wettbewerbsposition, könnte seine Produkte zu günstigeren Preisen anbieten, oder wäre in der Lage, qualitativ bessere Güter anzubieten und dadurch höhere Gewinne zu erzielen, sodass aus diesem Grunde Anreize zu einer Fusion bestehen. Damit es jedoch zu Preissenkungen, d.h. zu Erhöhungen der Konsumentenwohlfahrt kommt, ist es erforderlich, dass sich die Effizienzgewinne in Form von geringeren Grenzkosten niederschlagen. Dieser Gedanke ist der Kern der sogenannten Effizienzverteidigung im Rahmen der Fusionskontrolle. Demnach sollen Zusammenschlüsse auch dann genehmigt werden, wenn sie zwar zu Marktmacht führen, damit einhergehende allokative Effizienzverluste jedoch durch produktive Effizienzgewinne mehr als kompensiert werden. Selbst eine Monopolisierung eines Marktes kann statisch betrachtet wohlfahrtsfördernd sein, wenn nur die Kostenersparnisse hinreichend hoch sind. In einem solchen Fall kann sich ein Zusammenschluss positiv auf den Wettbewerb und das Marktergebnis auswirken. Ähnliches gilt auch in dem Fall, in dem ein Unternehmen z.B. aufgrund von Anreizproblemen zwischen Eigentümern und Management ineffizient arbeitet und von einem anderen übernommen und reorganisiert wird. In diesem Fall könnte ein funktionierender Markt für externe Unternehmenskontrolle zu einer Effizienzerhöhung in Form von Kostensenkungen führen.83 Die Frage nach den Auswirkungen von Synergieeffekten bzw. Effizienzgewinnen wurde von Williamson (1968) untersucht, der davon ausgeht, dass bei einem Zusammenschluss nicht nur die Marktmacht des fusionierten Unternehmens zunimmt, sondern dass gleichzeitig Effizienzgewinne in Form einer Verringerung der Grenzkosten auftreten. Ausgehend von einem Bertrand-Duopol mit einem homogenen Gut, das den Markt zu Preisen in Höhe der Grenzkosten versorgt, wird ein Zusammenschluss der beiden Unternehmen zu einem Monopol betrachtet. Wenn die Fusion der beiden Unternehmen zu einer Senkung der Grenzkosten führt, so resultiert einerseits ein Vgl. dazu Kapitel 5.4. Bestehende Ineffizienzen spielen in der Praxis tatsächlich eine wichtige Rolle als Motiv für die Übernahme anderer Unternehmen, da der Übernahmeprozess selbst eine kostspielige Angelegenheit ist (vgl. Holmstrøm/Tirole (1989)). Zudem gibt es ein Trittbrettfahrerproblem bei der Kontrolle des Manage­ments, das umso größer ist je breiter der Anteilsbesitz gestreut ist. 82 83

2

Industrieökonomik

247

produktiver Effizienzgewinn, andererseits ergibt sich jedoch durch die Monopolisierung auch ein allokativer Effizienzverlust. Diese beiden Wohlfahrtseffekte sind bei einer Gesamtbeurteilung der Fusion gegeneinander abzuwägen. Die beiden Effekte werden in Abbildung 2.22 dargestellt. Vor dem Unternehmenszusammenschluss bieten zwei Unternehmen jeweils ein homogenes Gut an und konkurrieren mittels Preisen. Beide Unternehmen verwenden die gleiche Technologie und produzieren mit konstanten Grenzkosten von cw. Die Unternehmen sehen sich der Preis-Absatz-Funktion p(x) = a – bx gegenüber. Im BertrandNash-Gleichgewicht ergibt sich ein Marktpreis pw = cw. Der Wettbewerb zwischen den beiden Unternehmen führt dazu, dass die Gewinne der Unternehmen auf null sinken. Die Produzentenrente ist in diesem Fall daher gleich null, während die Konsumentenrente in Abbildung 5.2 durch die Fläche mit den Eckpunkten acpw gegeben ist. Diese Fläche entspricht der volkswirtschaftlichen Rente bzw. der Wohlfahrt, die bei einem Preis in Höhe der Grenzkosten maximal ist. Durch einen Zusammenschluss realisieren die Unternehmen Effizienzgewinne in Form einer Senkung der Grenzkosten auf das Niveau cm. Das fusionierte Unternehmen ist nun Monopolist auf dem Markt und wählt seine Angebotsmenge derart, dass die Bedingung „Grenzerlös gleich Grenzkosten“ erfüllt ist. Der resultierende Monopolpreis beträgt pm und der Monopolist realisiert nun einen Gewinn in Höhe von pmbdcm, der der Produzentenrente entspricht. Durch die Monopolisierung sinkt jedoch die Konsumentenrente auf abpm. Nach dem Zusammenschluss ist die Wohlfahrt insgesamt gesunken: Betrug sie

Abb. 2.22 Der Williamson Trade-off

248

Ulrich Schwalbe

vor dem Zusammenschluss acpw, so ist sie nach dem Zusammenschluss auf abdcm gesunken. Die Differenz ist der Wohlfahrtsverlust in Höhe von bce. Die Fusion führt also dazu, dass die Konsumentenwohlfahrt um pmbccw zurückgeht. Diesem Rückgang der Konsumentenrente steht jedoch eine Zunahme der Produzentenrente in Höhe von pmbecw gegenüber. Insgesamt betrachtet kommt es durch die Fusion einerseits zu einem produktiven Effizienzgewinn in Höhe der Fläche pwedcm, während andererseits ein allokativer Effizienzverlust in Höhe von bce entsteht. Um die Gesamtwirkung einer Fusion auf die Wohlfahrt beurteilen zu können, ist es daher erforderlich, mögliche produktive Effizienzgewinne gegen allokative Effizienzverluste abzuwägen. Drei Fälle sind denkbar: 1. Die Effizienzgewinne sind nicht ausreichend, um die allokativen Effizienzverluste aufgrund der erhöhten Marktmacht auszugleichen. 2. Die Effizienzgewinne führen zu einer Erhöhung der Gesamtwohlfahrt, bei gleichzeitigem Rückgang der Konsumentenrente. 3. Sowohl Produzenten- als auch Konsumentenrente steigen. Diese Fälle seien an folgendem Beispiel erläutert. Die inverse Nachfragefunktion für ein Produkt sei gegeben durch p(x) = 10 – x, die konstanten Grenzkosten der Produktion betragen cw = 7. Die beiden Unternehmen auf dem Markt stehen im Preiswettbewerb. In diesem Fall ergibt sich im Bertrand-Nash-Gleichgewicht ein Marktpreis in Höhe der Grenzkosten, d.h. pw = 7, und die Konsumentenrente beträgt 4,5. Da die Produzentenrente bei Bertrand-Wettbewerb gleich null ist, entspricht die Konsumentenrente von 4,5 auch der volkswirtschaftlichen Rente bzw. der Gesamtwohlfahrt. Welche Auswirkungen hätte eine Fusion auf die Konsumenten- und Produzentenrente, wenn durch den Zusammenschluss die Grenzkosten auf cm = 6,8 gesenkt werden könnten? Im Monopol beträgt der Preis in diesem Fall pm = 8,4 und die vom Monopol abgesetzte Menge ist xm = 1,6. Somit ergibt sich als Produzentenrente ein Monopolgewinn in Höhe von 2,56 und eine Konsumentenrente von 1,28, sodass die Wohlfahrt auf 3,84 gesunken ist. Würden die Effizienzgewinne die Grenzkosten auf den Wert cm = 5 reduzieren, dann ergäbe sich ein Monopolpreis von pm = 7,5 und es würde die Menge xm = 2,5 abgesetzt werden. Die Produzentenrente beträgt in diesem Fall 6,25 und die Konsumentenrente 3,125. Die volkswirtschaftliche Rente ist somit von 4,5 auf 9,375 gewachsen, allerdings hat die Konsumentenrente um 1,375 abgenommen. Würde der Zusammenschluss sogar zu einer Senkung der Grenzkosten auf den Wert cm = 3 führen, dann ergäbe sich ein Monopolpreis von pm = 6,5 und die angebotene Menge würde auf xm = 3,5 steigen. Die Produzentenrente betrüge 12,25 und die Konsumentenrente 6,125. Eine solche Senkung der Grenzkosten würde selbst bei einer Monopolisierung des Marktes dazu führen, dass sowohl Konsumenten als auch Produzenten bessergestellt würden. Eine derartige Senkung der Grenzkosten entspricht einer so genannten drastischen Prozessinnovation, d.h., selbst bei einer Monopolisierung des Marktes nimmt die Angebotsmenge zu und der Preis sinkt. Man kann sich leicht überlegen, dass die

2 Industrieökonomik

249

Grenzkosten höchstens 4 betragen dürfen, damit die Konsumenten im Vergleich zu einer Situation ohne Zusammenschluss nicht schlechter gestellt werden. Für eine Besserstellung der Konsumenten durch die Fusion sind also erhebliche Effizienzgewinne nötig. Die Grenzkosten müssen in diesem Beispiel um über 40% fallen, damit die Konsumenten von dem Zusammenschluss profitieren. Darüber hinaus ist zu beachten, dass es sich um eine kurzfristige Analyse handelt. Mittel- oder langfristig kann die Monopolisierung des Marktes negative Auswirkungen z.B. hinsichtlich der Produktionseffizienz des Unternehmens oder der Innovationstätigkeit haben. Hier könnte eingewandt werden, dass Williamson in seiner Analyse einen Extremfall betrachtet, der für die Realität nicht typisch ist. Analog können dieselben Überlegungen auch für Fälle angestellt werden, in denen die fusionierenden Unternehmen zwar keine Monopolstellung erlangen, aber ihre Marktmacht zunimmt, so dass es zu einer Preiserhöhung kommt. Ebenso lassen sich Überlegungen anstellen für den Fall, dass eine marktbeherrschende Stellung nicht geschaffen, sondern „nur“ verstärkt wird. In jedem Fall sind die volkswirtschaftlichen Kostenersparnisse dem allokativen Effizienzverlust, der durch eine Preiserhöhung induziert wird, gegenüberzustellen.84 Allerdings sind für eine realistische wohlfahrtsökonomische Bewertung einer Fusion auch immer die Transaktionskosten der Fusion selbst zu berücksichtigen. Bei einem Zusammenschluss entstehen in aller Regel zunächst Kosten durch die Abwicklung der Übernahme selbst. Insbesondere bei so genannten feindlichen Übernahmeversuchen entstehen Kosten sowohl beim übernehmenden Unternehmen als auch beim potentiellen Übernahmekandidaten, da beide Seiten versuchen werden, die Anteilseigner durch Werbemaßnahmen von ihrer jeweiligen Strategie zu überzeugen. Hinzu kommen Beratungsund Abwicklungskosten, einem wesentlichen Geschäftsbereich von Investment-Banken. Darüber hinaus fallen nach einer Fusion oft Integrations- und Reorganisationskosten bei den betroffenen Unternehmen an, so dass es unter Umständen eine geraume Zeit dauern kann, bis tatsächlich Kosteneinsparungen realisiert werden können und positive Auswirkungen etwaiger Synergien spürbar werden. Des Weiteren ist zu bedenken, dass der TradeOff zwischen erhöhter Marktmacht und größerer Effizienz einen rein statischen Zusammenhang abbildet, sodass etwaige dynamische Effizienzwirkungen nicht analysiert werden und somit unbeachtet bleiben. Für die Beurteilung von Fusionen sind jedoch gerade auch dynamische Effizienzaspekte bedeutsam. Neben den beiden zentralen Fusionsmotiven der Marktmachterhöhung bzw. der Effizienzsteigerung werden in der Literatur noch weitere Gründe für Zusammenschlüsse angeführt, deren Bedeutung jedoch vergleichsweise gering einzuschätzen ist. Hierzu gehören Motive wie Risikodiversifizierung, des „Empire-Building“ sowie die aus der Verhaltensökonomik stammenden Hinweise auf „Overconfidence“ bzw. „Overoptimism“ seitens des Managements.85

84 85

Siehe dazu auch die Debatte zwischen DePrano/Nugent (1969) und Williamson (1969). Vgl. hierzu Abschnitt 8.2.

250

Ulrich Schwalbe

So wird darauf hingewiesen, dass Unternehmenszusammenschlüsse auch dazu dienen, das Unternehmensrisiko durch Diversifikation zu streuen, analog zur üblichen PortfolioOptimierung auf Finanzmärkten. Wenn das Unternehmen in mehreren Branchen bzw. auf mehreren Märkten aktiv ist, so ist unwahrscheinlich, dass alle Branchen und Märkte gleichermaßen von Krisen betroffen sind. So werden regionale Krisen oft nur bestimmte regionale Märkte betreffen und Branchenkrisen sich in der Regel nicht auf alle Industrien auswirken. Damit sich durch eine Fusion eine Reduktion des Unternehmensrisikos ergibt, dürfen die marktspezifischen Risiken nicht perfekt positiv miteinander korreliert sein. Je stärker die betroffenen Branchen positiv zusammenhängen, desto geringer wird die Risikosenkung durch eine Fusion zweier Unternehmen aus diesen Branchen sein. Anzumerken ist außerdem, dass Fusionen nicht unbedingt notwendig sind, um das Risiko der Anteilseigner eines Unternehmens zu reduzieren. Denn die Anteilseigner können ihr Investitionsrisiko selbst durch eine Streuung ihrer Besitztümer (z.B. durch Aktien-Fonds) selbst steuern und die Abhängigkeit ihrer Investition vom Erfolg eines Unternehmens so reduzieren. In jüngerer Zeit hat das Motiv der Risikostreuung durch Diversifikation bei Fusionen nur noch eine vergleichsweise geringe Rolle gespielt. Ganz im Gegenteil besinnen sich heute immer mehr Unternehmen auf ihre sog. Kernkompetenzen und lagern alle Aktivitäten aus, für die sie keine Kernkompetenz besitzen (Outsourcing), um so ihre Kosten zu senken. Ein weiteres wichtiges Motiv für Fusionen sind Wachstumsziele des Managements, das sich häufig nicht aus einem unternehmerischen Gewinnmaximierungsziel ableiten lässt. Ist ein Unternehmen durch eine Trennung von Eigentum und Management gekennzeichnet, besteht zwischen Eigentümern und Managern eines Unternehmens oft ein PrinzipalAgent-Problem, da die Eigentümer die Handlungen des Managements nicht permanent überwachen und kontrollieren können und häufig die notwendigen Informationen zur Einschätzung des Managements fehlen. Da die Manager in der Regel nicht nur den Erfolg des Unternehmens bzw. das Wohl der Anteilseigner im Sinn haben, sondern ihre eigenen Interessen verfolgen, werden Manager unter Umständen zu Fusionen und Übernahmen neigen, um ihr eigenes Prestige zu maximieren, ihren „Herrschaftsbereich“ auszuweiten oder ihr Einkommen zu maximieren, wenn das von der Unternehmensgröße abhängt.86 Ansätze aus der Verhaltensökonomik haben auch auf einen übertrieben Optimismus bzw. eine Selbstüberschätzung der Manager hingewiesen, die Fusionen anstreben, weil sie den Fusionserfolg weitaus günstiger einschätzen als er objektiv zu beurteilen wäre.87

Zur Strategie des „Empire Building“, vgl. z.B. Shleifer/Vishny (1988). Zusätzlich können noch weitere Gründe für Fusionen in Frage kommen, wie z.B. der drohende Bankrott eines Unternehmens, das Ausscheiden des Eigentümers, der keinen Nachfolger findet sowie steuerliche oder außenhandelspolitische Erwägungen wie das Überspringen von Handelsbarrieren. 86 87

2 Industrieökonomik

2.5.2

251

Fusionen in Märkten mit Mengenwettbewerb

Im Folgenden sollen diese allgemeinen Überlegungen im Rahmen eines Modells eines oligopolistischen Marktes mit Mengenwettbewerb konkretisiert werden. Hier sind vor allem die klassischen Modelle von Salant/Switzer/Reynolds (1983) sowie Farrell/Shapiro (1990) zu nennen, die in diesem Abschnitt kurz dargestellt werden. Diese Modelle erläutern zum einen die Anreize für eine Fusion in einem oligopolistischen Markt mit Mengenwettbewerb und zum anderen die erforderlichen Effizienzgewinne, damit ein solcher Zusammenschluss wohlfahrtserhöhend ist. Wie Salant/Switzer/Reynolds (1983) gezeigt haben, ist der Zugewinn an Marktmacht in vielen Fällen nicht groß genug, um hinreichend starke Anreize für eine Fusion zu bieten. Betrachten wir hierzu einen Markt mit n > 2 Unternehmen, die ein homogenes Produkt herstellen und sich als Cournot-Wettbewerber verhalten, d.h. eine simultane Mengenentscheidung treffen. Alle Unternehmen haben dieselbe lineare Kostenfunktion K(xi) = cxi,

∀ i = 1, ..., n,

wobei xi den Output der Firma i bezeichnet. Die Nachfrage ist gegeben durch die lineare Preis-Absatz-Funktion p(x) = a – bX = a – b(xi + x–i). Dabei bezeichnet X den aggregierten Output, der von den n Unternehmen hergestellt wird und x–i den Output aller Unternehmen außer Unternehmen i, d.h. n

x −i = −xi + ∑ xi . i=1

Der Gewinn des Unternehmens i kann geschrieben werden als πi(xi, x–i) = xi(a – b(xi + x–i) – c). Im Cournot-Modell wählen die Unternehmen ihre Produktionsmengen simultan, um ihren Gewinn zu maximieren. In Abschnitt 3.1.2 wurde bereits gezeigt, dass der Gewinn eines Unternehmens im Cournot-Nash-Gleichgewicht mit n Unternehmen gegeben ist durch (a − c)2 π i* (x * ) = . b(n +1)2 Angenommen, m Unternehmen entschließen sich zu fusionieren, wobei 2 ≤ m < n unterstellt ist, da eine Fusion zum Monopol im Weiteren nicht näher untersucht wird.88 Eine solche Fusion führt zu einer Industrie mit n – m + 1 identischen Firmen. Ohne Beschränkung der Allgemeinheit sei angenommen, dass das fusionierte Unternehmen aus 88

Man kann sich leicht davon überzeugen, dass eine Fusion zum Monopol immer profitabel ist.

252

Ulrich Schwalbe

den Firmen 1 bis m besteht, das im Weiteren einfach mit m bezeichnet wird. Dieses Unternehmen wählt seinen Output xm, um seinen Gewinn zu maximieren. Dieser Gewinn ist gegeben durch πm(xm, x–m) = xm(a – b(xm + x–m) – c) wobei x–m den aggregierten Output der n – m Unternehmen bezeichnet, die sich nicht am Zusammenschluss beteiligt haben. Jedes dieser Unternehmen wählt seinen Output, um seinen Gewinn zu maximieren, der gegeben ist durch πi(xi, x–i) = xi(a – b(xi + x–i) – c). Der Term x–i bezeichnet die Summe der Outputs xi der n – m Unternehmen, die nicht fusionieren, ohne Firma i plus dem Output xm des fusionierten Unternehmens. Die Gleichung impliziert, dass das fusionierte Unternehmen nach dem Zusammenschluss einem beliebigen anderen Unternehmen in dieser Industrie gleicht. Anders ausgedrückt: Der gesamte Output des fusionierten Unternehmens wird, aufgrund der gleichen und konstanten Grenzkosten, in einer Firma produziert, d.h. die anderen Firmen werden geschlossen. Dies bedeutet, dass alle diese n – m + 1Unternehmen, da sie identische Kostenfunktionen haben, im Gleichgewicht denselben Output herstellen und somit auch den gleichen Gewinn machen. Im Cournot-Nash-Gleichgewicht nach der Fusion sind der Output xm* und der Gewinn πm* des fusionierten Unternehmens genau gleich dem Output und dem Gewinn eines Unternehmens, das sich nicht an dem Zusammenschluss beteiligt hat. Diese sind für alle i = m + 1, ..., n a −ac− c −2c)2 (a (a − c) xm* x=m* x=i* x=i* = und und π m*π=m* π=i*π=i* = . . und b(nb(n −m −+ m2) + 2) b(nb(n −m −+ m2) + 22)2 Nun kann der Gewinn eines nichtfusionierten Unternehmens vor und nach dem Zusammenschluss ermittelt werden. Da die Zahl m der fusionierenden Unternehmen mindestens 2 ist, wird der Gewinn eines nichtfusionierenden Unternehmens aufgrund der Fusion steigen: (a − c)2 (a − c)2 < . 2 b(n +1) b(n − m + 2)2 Wie verhält es sich bei den fusionierenden Unternehmen? Die Gewinne dieser m Unternehmen vor dem Zusammenschluss betrugen insgesamt m(a m(a − c)−2c)2 mπmi* π=i* . . 2 2 b(nb(n +1)+1) Nach der Fusion ist der Gewinn des fusionierten Unternehmens (a −(ac)−2 c)2 π im π=im . . b(nb(n − m−+m2)+2 2)2

2 Industrieökonomik

253

Damit der Gewinn des fusionierten Unternehmens größer als der aggregierte Gewinn der m Unternehmen vor dem Zusammenschluss ist, muss folgende Bedingung erfüllt sein: (a − c)2 m(a − c)2 > . 2 b(n − m + 2) b(n +1)2 Dies erfordert (n + 1)2 > m(n – m + 2)2. In einem Oligopol mit 3 Firmen (n = 3), von den 2 (m = 2) fusionieren, wäre diese Bedingung nicht erfüllt. Daher wären, was die Profitabilität betrifft, die beiden Firmen nach der Fusion schlechter gestellt als vorher. Dieses überraschende Ergebnis lässt sich erklären, wenn man den gemeinsamen Output dieser beiden Unternehmen betrachtet. Ursprünglich produzierten diese Unternehmen zwei Drittel des gesamten Outputs in der Industrie mit drei Firmen. Nach der Fusion werden jedoch die beiden Unternehmen ihren Output reduzieren, da jede von ihnen die negativen Auswirkungen, die ihr Output auf den Erlös der anderen hat, berücksichtigen wird. Da die Mengen im Cournot-Modell strategische Substitute sind, wird das nicht fusionierte Unternehmen auf diese Outputreduktion mit einer Erhöhung seiner Angebotsmenge reagieren. Dies führt dazu, dass die fusionierte Firma in einem Duopol nur noch die Hälfte des Gesamtoutputs produziert und nicht mehr zwei Drittel wie die beiden Firmen vor dem Zusammenschluss. Zweitens ist der Gesamtoutput der Industrie nach der Fusion zurückgegangen. Insgesamt produzieren die fusionierten Unternehmen also einen geringeren Teil des kleiner gewordenen Gesamtoutputs der Industrie.89 Zwar ist die Preis-Kosten Marge gestiegen, aber das ist nicht ausreichend, um die Reduktion des Outputs zu kompensieren. Die Fusion führt also nicht zu zusätzlichen Gewinnen für die beiden Unternehmen, die an dem Zusammenschluss beteiligt sind. Der Nettoeffekt der Fusion auf die Gewinne ist negativ und das umso mehr, je kostspieliger die Planung und Durchführung der Fusion ist. Der eigentliche Gewinner der Fusion ist das dritte Unternehmen, das nicht an der Fusion teilgenommen hat. Dieses Unternehmen produziert nun die Hälfte des Gesamtoutputs und nicht nur ein Drittel wie vor dem Zusammenschluss. Zwar ist der Gesamtoutput geringer, aber die Zunahme im Marktanteil des Unternehmens dominiert, so dass sein Output insgesamt wächst. Darüber hinaus hat der verringerte Gesamtoutput den Effekt, den Preis zu erhöhen. Das Unternehmen produziert eine größere Menge zu einem höheren Preis, so dass sein Gewinn zunimmt. Eine Fusion erhöht die Profitabilität der daran beteiligten Firmen also selbst dann nicht, wenn diese Firmen 50% der Industrie ausmachen. Dies sieht man daran, dass bei einer Fusion der Hälfte aller Firmen in einer Industrie (m = n/2) die Bedingung für die Profitabilität einer Fusion 4m2 + 4m + 1 > m3 + 4m2 + 4m erfüllt sein müsste. Da jedoch m ≥ 2 gilt, kann die linke Seite der Ungleichung nicht größer sein als die rechte. Andererseits ist es nur schwer vorstellbar, dass der Zusammenschluss von 50% Prozent aller Firmen ohne eine genaue Untersuchung durch die Kartellbehörden genehmigt würde.

Diese Änderungen der Angebotsmenge und des Marktpreises werden als die „nichtkoordinierten Effekte“ einer Fusion bezeichnet. Nichtkoordiniert deshalb, weil die Oligopolisten auch nach dem Zusammenschluss ihr Verhalten nicht koordinieren, sondern sich wettbewerblich verhalten. 89

254

Ulrich Schwalbe

Man kann für verschiedene Zahlen von Unternehmen im Markt, d.h. verschiedene Werte von n berechnen, wie viele dieser Unternehmen sich zusammenschließen müssten (), damit die Fusion für die fusionierenden Unternehmen profitabel wäre. Die in der folgenden Tabelle zusammengefassten Beispiele belegen, dass Zusammenschlüsse derartig vieler Firmen eher unrealistisch sind (für weniger als sechs Firmen ist keine Fusion unterhalb der Fusion aller Unternehmen zum Monopol profitabel). n

6

7

8

9

10

20

30

40

50

100

150

200



5

6

7

8

9

17

26

36

45

92

140

188

%

83,33

85,7

87,5

88,8

90

85

86,66

90

90

92

93,33

94

Dieses Ergebnis wird in der Literatur auch als „Merger Paradox“ bezeichnet. Das Paradoxon besteht darin, dass die meisten horizontalen Fusionen im Rahmen eines Cournot-Modells unprofitabel sind, während dennoch häufig horizontale Fusionen stattfinden. Es ist jedoch fraglich, ob die von Salant/Switzer/Reynolds getroffene Annahme, dass aus einem symmetrischen Cournot-Oligopol mit n Firmen ein symmetrisches Cournot-Oligopol mit n – 1 Firmen wird, sinnvoll ist. Wie wir wissen, ist die Annahme des Cournot-Wettbewerbs insbesondere dann sinnvoll, wenn Unternehmen zunächst über ihre Kapazitäten entscheiden und anschließend mit ihren Preisen konkurrieren, wobei die Kapazitäten in der zweiten Stufe des Spiels gegeben sind (vgl. Kreps/Scheinkman (1983)). Gerade bei einer Fusion von zwei Unternehmen in einem Markt mit nur drei Firmen ist daher nicht davon auszugehen, dass das entstehende Unternehmen nach der Fusion sich in einer symmetrischen Position gegen­über dem Außenseiter befindet. In der Regel wird sich das Unternehmen hinsichtlich seiner Technologie, seines Kapitalbestandes oder seiner Wettbewerbsposition von dem verbleibenden unabhängigen Unternehmen unterscheiden. Im Folgenden werden drei alternative Modellierungen solcher Unterschiede zwischen dem fusionierten und den unabhängigen Unternehmen näher untersucht. Wenn die Unternehmen nach dem Zusammenschluss die Fixkosten der Produktion, z.B. durch Einsparung einer Personal-, Marketing- oder IT-Abteilung, reduzieren können, ändert sich möglicherweise das Kalkül der fusionierenden Parteien. Wie im folgenden Beispiel gezeigt wird, kann eine Fusion für die beiden Parteien profitabel sein, wenn die Fixkosten hinreichend stark gesenkt werden können. Es wird ein Oligopol mit 3 identischen Unternehmen betrachtet, bei deren Produktionsprozess neben den variablen Kosten auch Fixkosten in Höhe von f > 0 anfallen. Der Gewinn eines Unternehmens i, i = 1, 2, 3 vor dem Zusammenschluss beträgt πi =

(a − c)2 − f. 16b

Es wird angenommen, dass die Unternehmen 1 und 2 sich zusammenschließen möchten. Vor der Fusion beträgt der Gesamtgewinn der beiden Fusionspartner π 1+2 =

(a − c)2 −2f . 8b

2 Industrieökonomik

255

Nach dem Zusammenschluss gibt es im Markt nur noch zwei Unternehmen und der Gewinn des unabhängigen Unternehmens steigt auf πi =

(a − c)2 − f. 9b

Der Gewinn des fusionierten Unternehmens beträgt aufgrund der Fixkostenersparnis π 12 =

(a − c)2 − f. 9b

Ein Zusammenschluss der Unternehmen 1 und 2 ist profitabel, wenn die folgende Bedingung erfüllt ist: (a − c)2 (a − c)2 b(a − c)2 −f> − 2 f bzw. f > . 9b 8b 72

Die Fixkosteneinsparung muss also hinreichend hoch sein, damit der Gewinnrückgang aufgrund der geringen Absatzmenge kompensiert wird und der Zusammenschluss sich lohnt. Hinsichtlich des Marktergebnisses gibt es jedoch keinen Unterschied zum vorher betrachteten Fall ohne Fixkosteneinsparungen: Es wird eine geringere Menge zu einem höheren Preis angeboten und die Konsumentenrente geht zurück. Im folgenden Abschnitt werden die Auswirkungen von Effizienzgewinnen in Form einer Senkung der variablen Kosten bei den fusionierenden Unternehmen im Rahmen eines Cournot-Oligopols mit drei Unternehmen betrachtet. Ausgangspunkt ist ein Modell eines Cournot-Oligopols mit asymmetrischen Unternehmen. Das Unternehmen 1 ist durch die Kostenfunktion c1(x1) = βcx1

mit β > 1

gekennzeichnet. Die Kostenfunktionen der Unternehmen 2 und 3 sind jeweils c1(x1) = cx1,

i = 2,3.

Die Produktionsmengen der Unternehmen vor einem Zusammenschluss sind a −a3−β3cβ+c2c + 2c − 2c a −a2c + β+cβ c und und . . x1* x=1* = und x 2* x=2* x=3* x=3* = 4b4b 4b4b Der Marktpreis bei diesen Mengen beträgt p* =

a + 2c + β c 4

und die Gewinne belaufen sich auf π 1 (x * ) =

(2 − 3β c + 2c)2 (2 − 2c + β c)2 und π 2 (x * ) = π 3 (x * ) = . 16b 16b

Wenn der Kostennachteil der Firma 1 zu groß ist, d.h., wenn β einen sehr hohen Wert annimmt, dann wäre der Gewinn des Unternehmens negativ und die angegebenen Mengen bilden kein Cournot-Nash-Gleichgewicht. Daher wird unterstellt, dass die Bedingung

256

Ulrich Schwalbe

1< β
⎢ + ⎥. 9b 16b 16b ⎣ ⎦

Diese Bedingung zusammen mit der, dass Firma 3 im Gleichgewicht eine positive Menge herstellt, impliziert a + 2c a +14c >β > . 3c 15c

Der Kostennachteil der ineffizienten Firma darf einerseits nicht so groß sein, dass das Unternehmen von vornherein nicht im Markt aktiv wäre und andererseits muss die Grenzkostensenkung durch die Fusion hinreichend hoch sein, damit der Zusammenschluss profitabel ist. Allerdings führt auch in diesem Fall ein Zusammenschluss zu einer Verringerung der Konsumentenrente, da der Preis nach dem Zusammenschluss höher ist als vor der Fusion, denn p** − p* =

a + 2c a + 2c + β c a + 2c − 3β c − = . 3 4 12

2 Industrieökonomik

257

Dieser Ausdruck ist positiv, wenn β < (a + 2c)/3c. Diese Bedingung ist jedoch qua Annahme erfüllt. In einem zentralen Beitrag zu Fusionen in einem Markt mit Mengenwettbewerb haben Farrell/Shapiro (1990) auch die Frage untersucht, unter welchen Bedingungen ein Zusammenschluss zu einer Erhöhung nicht nur der Produzentenrente, sondern auch der Konsumentenrente führt und die Bedingungen sind äußerst restriktiv. In einem allgemeinen Oligopolmodell bei Mengenwettbewerb zeigen sie, dass ohne Synergieeffekte ein Zusammenschluss immer zu einer Preiserhöhung und damit zu einer Verringerung der Konsumentenwohlfahrt führt. Damit die Preise fusionsbedingt fallen, es also zu einer Erhöhung der Konsumentenwohlfahrt kommt, müssen die Effizienzgewinne so groß sein, dass die Gewinnmarge, d.h. die Differenz zwischen Preis und Grenzkosten des fusionierten Unternehmens größer ist als – bei gleichem Output – die Summe der Gewinnmargen der Fusionspartner vor dem Zusammenschluss.90 Eine weitere Möglichkeit, eine Asymmetrie zwischen dem fusionierten Unternehmen und den nicht am Zusammenschluss beteiligten Firmen zu erfassen, besteht darin, dem fusionierten Unternehmen eine gewisse Dominanz gegenüber den unabhängigen Firmen einzuräumen. Dies kann so dargestellt werden, dass das fusionierte Unternehmen nach der Fusion die Rolle eines Stackelberg-Führers übernimmt und der Außenseiter die des Stackelberg-Folgers. Wie sich leicht zeigen lässt, ist eine Fusion zweier Unternehmen in einem DreierCournot-Oligopol immer attraktiv für die Unternehmen, wenn sie dadurch zu einem dominanten Unternehmen werden und die Stackelberg-Führer-Position einnehmen können. In einem Markt mit n + 1 Unternehmen vor dem Zusammenschluss produziert jedes Unternehmen eine Menge von a−c xi* = . b(n + 2) Der Gesamtoutput, der Marktpreis und der Gewinn jedes Unternehmens sind vor der Fusion (n +1)(a − c) a + (n +1)c (a − c)2 X* = , p(X * ) = , π i (X * ) = . b(n + 2) n+2 b(n + 2)2 Schließen sich nun zwei von diesen Unternehmen zusammen und übernehmen die Rolle eines Stackelberg-Führers, dann produziert dieses Unternehmen die Menge x k** =

a−c . 2b

Dies ist das übliche Ergebnis: Der Stackelberg-Führer produziert die gleiche Menge wie ein Monopolist.91 Die verbleibenden n – 1 Unternehmen stehen untereinander im Mengenwettbewerb und jede dieser Firmen produziert die Menge 90 91

Vgl. Farrell/Shpiro (1990), S. 112. Vgl. Kapitel Mikroökonomie.

258

Ulrich Schwalbe

xi** =

a−c . 2bn

Die Gesamtmenge, die von diesen Firmen hergestellt wird, ist daher x −**k =

(n −1)(a − c) . 2bn

** Die Gesamtmenge nach der Fusion, X** = x k** + x−k und der Marktpreis sind

X ** =

(2n −1)(a − c) a + (2n −1)c , p(X ** ) = . 2bn 2n

Der Gewinn des fusionierten Unternehmens sowie die Gewinne der nichtfusionierten Firmen betragen π k (X ** ) =

(a − c)2 (a − c)2 , π i (X ** ) = . 4bn 4bn 2

Der Stackelberg-Führer profitiert vom Zusammenschluss, wenn die Bedingung (a − c)2 2(a − c)2 > 4bn b(n + 2)2 erfüllt ist. Dies ist offensichtlich immer dann der Fall, wenn (n + 2)2 > 8n bzw. wenn es in der Industrie vor dem Zusammenschluss mindestens drei Unternehmen gegeben hat. Anders als im Modell von Salant/Switzer/Reynolds (1983), in dem die Unternehmen, die sich selbst nicht an der Fusion beteiligen, vom Zusammenschluss profitieren, geht der Gewinn der nichtfusionierten Unternehmen zurück, wenn sie zu Stackelberg-Folgern werden, da (a − c)2 (a − c)2 > bzw. 3n 2 > 4n + 4 b(n + 2)2 4bn 2 für n ≥ 3. Empirisch korrespondiert dies mit der oft zu beobachtenden Tatsache, dass die nicht an einer Fusion beteiligten Unternehmen sich vehement gegen Fusionsbestrebungen bei der Konkurrenz zur Wehr setzen und dementsprechend versuchen, die Kartellbehörden durch Eingaben zu beeinflussen. Aus wohlfahrtsökonomischer Perspektive wäre eine solche Fusion allerdings positiv zu werten, da die am Markt verkaufte Menge zunimmt, denn (2n −1)(a − c) (n +1)(a − c) 2.2. XX**** = > = X * bzw. bzw.n > n> b(n + 2) 2bn Da die nicht an der Fusion beteiligten Unternehmen einen geringeren Gewinn erwirtschaften als vor der Fusion, stellt sich die Frage, ob sie auf einen Zusammenschluss nicht reagieren werden, indem sie selbst einen Fusionspartner finden. Es könnte also durch die erste Fusion in einem Markt eine Fusionswelle ausgelöst werden. Durch eine zweite Fusion würde die Zahl der Unternehmen abnehmen, es gäbe nun zwei StackelbergFührer und n – 2 Stackelberg-Folger. Auch in diesem Fall würden sich die fusionierenden

2 Industrieökonomik

259

Unternehmen besserstellen können.92 Man kann zeigen, dass es für zwei Unternehmen immer vorteilhaft ist, sich zusammenzuschließen und so in die Gruppe der StackelbergFührer zu wechseln. Allerdings führen zusätzliche Fusionen schließlich dazu, dass der Gesamtoutput zurückgeht. Während er nach den ersten Zusammenschlüssen noch steigt, wird nach Erreichen eines bestimmten Konzentrationsgrades der Gesamtoutput wieder geringer. Sobald die Gruppe der Stackelberg-Führer größer ist als ein Drittel aller Firmen im Markt, dann sinkt der Gesamtoutput, der Marktpreis steigt und die Konsumentenwohlfahrt nimmt ab.

2.5.3

Fusionen auf Märkten mit Preiswettbewerb

Während Anreize zu Fusionen auf Märkten mit Mengenwettbewerb nur dann bestehen, wenn die Unternehmen durch den Zusammenschluss Effizienzgewinne in Form von Kosteneinsparungen realisieren können oder durch das Erreichen einer dominanten Position gegenüber den Wettbewerbern ihre Marktmacht erhöhen, stellt sich das Anreizproblem auf Märkten mit Preiswettbewerb (und differenzierten Gütern) deutlich anders dar. Der Grund liegt vor allem darin, dass es sich bei Mengen um strategische Substitute handelt, während Preise strategische Komplemente sind. Ein Zusammenschluss auf einem Markt mit Mengenwettbewerb führt, durch die Ausschaltung des Binnenwettbewerbs zwischen den fusionierenden Unternehmen, zu einer Verringerung ihres Angebots und damit zu einer Preiserhöhung. Die anderen, nichtfusionierten Unternehmen reagieren auf diese Preiserhöhung mit der Ausweitung ihrer Angebotsmengen, die tendenziell preissenkend wirkt und die Fusionsanreize reduziert. Der ursprüngliche Effekt einer fusionsbedingten Angebotsverringerung und der damit verbundenen Preiserhöhung wird durch die Angebotserhöhung der nichtfusionierten Unternehmen etwas gemildert, allerdings nicht vollständig kompensiert, sodass insgesamt eine Mengenreduktion und eine Preiserhöhung erfolgt. Bei Preiswettbewerb hingegen stellen sich die Anreizprobleme für die fusionierenden Unternehmen etwas anders dar. Im Unterschied zu Mengen handelt es sich bei Preisen um strategische Komplemente, d.h., erhöht ein Unternehmen den Preis seines Produktes, dann können die anderen Firmen ebenfalls ihre Preise erhöhen, ohne mit einem Nachfragerückgang rechnen zu müssen. Auch in einem Markt mit Preiswettbewerb führt ein Zusammenschluss von zwei Unternehmen zu einem Wegfall des Binnenwettbewerbs und das fusionierte Unternehmen hat einen Anreiz, die Preise seiner Produkte heraufzusetzen. Dadurch wird ein Teil der Nachfrage auf die Produkte der anderen, nichtfusionierten Unternehmen umgelenkt, die dadurch einen Anreiz haben, ihre Preise ebenfalls zu erhöhen, wodurch wiederum ein Teil der zusätzlichen Nachfrage auf das fusionierte Unternehmen zurückgelenkt wird. Die ursprüngliche Preiserhöhung seitens des fusionierten Unternehmens wird also durch die Preiserhöhungen der anderen, nicht fusionierten 92

Vgl. Doughety (1990)

260

Ulrich Schwalbe

Unternehmen verstärkt. Die Preise aller Unternehmen steigen und nähern sich aufgrund der Fusion den Preisen an, die ein Monopolist jeweils für die Produkte setzen würde. Dies impliziert, dass ein fusionierendes Unternehmen in einem Markt mit Preiswettbewerb und differenzierten Produkten von einem Zusammenschluss immer profitieren wird. Ein unprofitabler Zusammenschluss wie in Märkten mit Mengenwettbewerb kann in einem Markt mit Preiswettbewerb nicht auftreten. Was die Auswirkungen von Fusionen auf Märkten mit Mengen- bzw. mit Preiswettbewerb auf die Konsumentenwohlfahrt betrifft, so lässt sich hierüber jedoch keine allgemeine Aussage treffen. Zwar wird in einem Markt mit Preiswettbewerb die preiserhöhende Wirkung eines Zusammenschlusses durch die Reaktionen der anderen Firmen noch verstärkt, während sie in einem Markt mit Mengenwettbewerb durch die Mengenerhöhung der nicht an der Fusion beteiligten Unternehmen gemildert wird, aber bei der Beantwortung dieser Frage sind zwei Aspekte zu berücksichtigen. Erstens ist der Ausgangspunkt in den beiden Situationen ein anderer: Märkte mit Preiswettbewerb sind in aller Regel kompetitiver als Märkte, in denen die Menge der zentrale Wettbewerbsparameter ist.93 Daher liegt ceteris paribus der Gleichgewichtspreis vor dem Zusammenschluss in einem Markt mit Preiswettbewerb unter dem Gleichgewichtspreis bei Mengenwettbewerb. Zweitens ist a priori nicht klar, welche Preiserhöhungen in den beiden Märkten allein durch die Fusion ausgelöst werden, d.h. wie groß die unilateralen Effekte des Zusammenschlusses sind. So könnte auf einem Markt mit Preiswettbewerb eine geringe Preiserhöhung, die durch die Reaktion der anderen Unternehmen sogar noch etwas verstärkt wird, insgesamt geringer ausfallen als die Preiserhöhung, die durch die Mengenreduktion der fusionierten Unternehmen herbeigeführt, aber durch die Mengenexpansion der anderen Unternehmen partiell kompensiert wird. Dies ist z.B. dann der Fall, wenn die Produkte der beiden fusionierenden Unternehmen nur entfernte Substitute sind. Eine wettbewerbliche Beurteilung der Wohlfahrtseffekte einer Fusion ist daher in jedem Einzelfall zu prüfen.

2.5.4

Koordinierte Effekte horizontaler Fusionen

Sowohl bei den Fusionen bei Mengen- als auch bei Preiswettbewerb wurde davon ausgegangen, dass sich die Unternehmen nach dem Zusammenschluss weiterhin nichtkooperativ verhalten, d.h., dass sich der Charakter des Wettbewerbs durch die Fusion nicht ändert. Es kann jedoch der Fall eintreten, dass aufgrund der Fusion die strukturellen Bedingungen auf dem Markt sich derart verändern, dass eine Fusion eine grundlegende Änderung im Charakter des Wettbewerbs auslöst, wenn sich durch den Zusammenschluss für alle Unternehmen im Markt Möglichkeiten ergeben, ihr Verhalten zu koordinieren oder eine bestehende Verhaltenskoordination zu verbessern oder zu stabilisieren, d.h. sich so zu verhalten wie ein Kartell dies tun würde. In diesem Fall ist der Wettbewerb zwischen den Unternehmen weitgehend ausgeschaltet und es ergibt sich Marktergebnis, das dem bei 93

Vgl. hierzu Abschnitt 3.2.2.

2 Industrieökonomik

261

einem Monopol oder einem Kartell entspricht. Die Änderungen der Preise und Mengen und damit auch der Konsumentenrente sowie der Wohlfahrt, die durch einen solchen „Regimewechsel“ im Charakter des Wettbewerbs entstehen, werden als koordinierte Effekte bezeichnet. Diese Effekte können aufgrund einer Fusion auftreten, wenn der Zusammenschluss z.B. die Symmetrie der Unternehmen erhöht, er zur Schaffung eines glaubwürdigen Sanktionsmechanismus beiträgt, oder ein so genanntes Maverickunternehmen, d.h. ein Unternehmen das durch sein Verhalten eine Koordination bislang verhindert hat, beseitigt. Durch diese Auswirkungen könnten nach dem Zusammenschluss die Voraussetzungen für eine Verhaltenskoordination gegeben sein. Das hätte zur Folge, dass nun koordinierte Gleichgewichte existieren, die es vor dem Zusammenschluss nicht gegeben hat. Auf dieser Überlegung basieren auch die wenigen theoretischen Arbeiten, die koordinierte Effekte von Fusionen untersuchen. Wenn nach einem Zusammenschluss, z.B. aufgrund größerer Symmetrie der Unternehmen, die Bedingung für die Existenz koordinierter Gleichgewichte leichter gewährleistet werden kann, dann, so wird argumentiert, ist eher mit dem Auftreten koordinierter Effekte zu rechnen.94 Anders ausgedrückt: Sinkt durch den Zusammenschluss der kritische Diskontfaktor, wie er in Abschnitt 4.1. hergeleitet wurde, der notwendig ist, um das Kartellergebnis zu stützen, dann steigt die Gefahr, dass durch die Fusion koordinierte Effekte ausgelöst werden. Die theoretischen Analysen basieren daher auf dem Vergleich der Mengen möglicher Gleichgewichte vor und nach der Fusion. Existieren nach dem Zusammenschluss Gleichgewichte mit Verhaltenskoordination, die es davor nicht gegeben hat, so besteht die Möglichkeit des Auftretens koordinierter Effekte. Eine Prognose über das Auftreten koordinierter Effekte nach einem Zusammenschluss ist daher schon aus konzeptionellen Gründen deutlich schwieriger als die Ermittlung der nichtkoordinierten Effekte einer Fusion. In der Praxis werden hierzu die so genannten „Airtours-Kriterien“ herangezogen.95 Bei diesen Kriterien handelt es sich um Markttransparenz, das Vorliegen eines wirksamen und glaubwürdigen Sanktionsmechanismus sowie keine Reaktionen potentieller Konkurrenten oder Abnehmer zu erwarten sind, die die Verhaltenskoordination in Frage stellen.

Bei den Arbeiten, die hier zu nennen sind, handelt es sich um Davidson/Deneckere (1984); Kühn/Motta, (2000); Vasconcelos (2005); Compte/Jenny/Rey (2002) sowie Kühn (2004, 2008). „Previous research has done very little to provide theoretical or empirical underpinnings for dealing with the issue of coordinated effects of mergers.“ Kühn (2004), S. 4. 95 Benannt nach der Entscheidung des Europäischen Gerichtshofes erster Instanz in der Sache Airtours/First Choice, bei der es um den Zusammenschluss von zwei Reiseveranstaltern ging, und die die Europäische Kommission den Zusammenschluss aufgrund der Möglichkeit koordinierter Effekte untersagt hat. Der Gerichtshof hat die Fusion dann jedoch freigegeben und darauf verwiesen, dass die Kommission wesentliche Aspekte, die für koordinierte Effekte von Bedeutung sind, nicht oder nicht richtig berücksichtigt hat. 94

262

2.5.5

Ulrich Schwalbe

Empirische und experimentelle Evidenz

Die in den vorangegangenen Abschnitten dargelegten theoretischen Resultate zum Thema Fusionen sollen im Folgenden mit den Ergebnissen empirischer und experimenteller Untersuchungen kontrastiert werden. Der Großteil der empirischen Analysen von Fusionen hat sich vor allem mit den Auswirkungen von Zusammenschlüssen auf die Kapitalrentabilität oder den Aktienkurs der beteiligten Unternehmen befasst.96 Anhand dieser beiden Kriterien können lediglich nur etwa 50% bis 60% aller Fusionen als unternehmerischer Erfolg gewertet werden.97 Kleinert/Klodt (2000) kommen in einer Untersuchung europäischer Fusionen sogar auf eine Erfolgswahrscheinlichkeit von 60%, wobei ihrer Untersuchung zufolge vor allem die kleineren Fusionen erfolgreich sind, während bei den sog. Megafusionen mit einem Wert von über 5 Mrd. $ mehr Fehlschläge als Erfolge zu verbuchen sind.98 Die wohl bekannteste Studie ist die von Ravenscraft/Scherer aus dem Jahre 1987, die eine große Zahl US-amerikanischer Fusionsfälle in der verarbeitenden Industrie betrachtet. Wie die Studie ergab, waren die untersuchten Übernahmeziele im Durchschnitt mit einer Kapitalrendite von 20% wesentlich profitabler als der Industriedurchschnitt, der bei ca. 11% Kapitalrendite lag, was zumindest gegen das Corporate-Control-Motiv als Fusionsursache spricht. Zugleich hat die Studie von Ravenscraft/Scherer jedoch auch ergeben, dass Fusionen sich im Durchschnitt negativ auf die Unternehmensgewinne der übernommenen Firma auswirken. Ohne auf die einzelnen Studien im Detail einzugehen,99 lässt sich konstatieren, dass Unternehmenszusammenschlüsse im Durchschnitt bestenfalls eine moderate Auswirkung auf die Gewinne der fusionierten Unternehmen zu haben scheinen. In der Tat lassen sich viele Fusionen finden, die einen Rückgang des Unternehmensgewinns zur Folge hatten. Die Ursachen für diesen empirischen Befund sind nicht eindeutig auszumachen. Zum einen können die Ursachen in den verwendeten statistisch-empirischen Methoden liegen, zumal häufig unterschiedliche Methoden gewählt worden sind. Zum anderen können die Unterschiede auch durch die möglicherweise starken Effekte, die eine Fusion auf die unbeteiligten Unternehmen in dieser Industrie ausüben kann, verursacht sein. Gemessen an der Gewinnentwicklung der an einer Fusion nicht beteiligten Unternehmen ist ein Zusammenschluss relativ gesehen ein Fehlschlag.100 Studien, die statt der Gewinne die Aktienkursentwicklung der betroffenen Unternehmen als Indikator für den Erfolg oder Misserfolg einer Fusion verwenden, kommen zumeist zu dem Ergebnis, dass die Aktienkurse der Unternehmen sich nach einer Fusion positiv entwickeln. Dies steht zunächst im Widerspruch zum oben genannten Ergebnis: Warum 96 97 98 99 100

Vgl. z.B. Ravenscraft/Scherer (1987) sowie Muller (1996) Vgl. auch Gugler et al. (2003). Kleinert/Klodt (2000). Für einen detaillierten Überblick siehe Röller/Stennek/Verboven (2000). Vgl. dazu auch Fridolfsson/Stennek (2005).

2 Industrieökonomik

263

sollte der Aktienkurs steigen, wenn doch die Unternehmensgewinne sinken? Zum einen ist wiederum möglich, dass methodologische Probleme bei der Verwendung der Aktienkurse die scheinbar paradoxen Ergebnisse herbeiführen. Zum anderen zeigen Fridolfsson/ Stennek, dass ein solches Resultat möglich ist, wenn Fusionen dadurch motiviert sind, die Übernahme des Unternehmens durch einen dritten Konkurrenten zu verhindern. Röller/Stennek/Verboven schließen ihre Untersuchung daher wie folgt: „To sum up, these theories give a rather pessimistic picture of mergers. They may be motivated by hubris, or empire building, or an attempt to pre-emt other mergers. According to these interpretations of the available evidence, both market power and cost savings may be secondary motives for mergers. Nevertheless, even if the motives are different, the mergers still affect both market power and costs.“101 Die Auswirkungen einer Fusion auf Marktmacht und unternehmerische Effizienz zu ermitteln, ist allerdings nicht unproblematisch.102 Prinzipiell gibt es zwei mögliche Ursachen, warum sich die Kapitalrentabilität und/oder der Aktienkurs nach einer erfolgreichen Fusion überdurchschnittlich entwickelt: Zum einen kann das fusionierte Unternehmen an Marktmacht gewonnen haben, was prinzipiell negative Konsequenzen für die Konsumentenwohlfahrt und die gesamtwirtschaftliche Effizienz hätte. Zum anderen aber kann die Wertsteigerung auch in einer unternehmerischen Kostenersparnis bzw. Effizienzsteigerung begründet liegen, was prinzipiell auch die gesamtwirtschaftliche Effizienz verbessern würde. Außerdem sind auch Kombinationen von Marktmachtgewinn einerseits und Effizienzsteigerung andererseits denkbar. Das empirische und wettbewerbspolitische Problem besteht nun darin, diese beiden Effekte voneinander zu unterscheiden. Einige wenige Studien haben versucht, sich dieses Problems anzunehmen. So wurde in einigen Studien versucht, die Auswirkungen von Fusionen auf Preise, Marktanteile oder die Aktienkurse unbeteiligter Konkurrenzunternehmen direkt zu ermitteln, um so Rückschlüsse auf Effizienzgewinne und Marktmacht zu ermöglichen.103 Insbesondere die letzte Methode kann dabei prinzipiell aufschlussreich sein. Steigen die Aktienkurse der unbeteiligten Konkurrenzunternehmen nach einer Fusion, so ist davon auszugehen, dass der Wettbewerb auf dem Markt durch eine Fusion geschwächt wird. Allerdings ist die empirische Evidenz auch hier keinesfalls eindeutig. Es scheint so, also ob die Aktienkurse dritter Unternehmen durch eine Fusion langfristig kaum beeinflusst werden,104 wobei wiederum statistisch-methodologische Probleme die Aussagekraft der durchgeführten Studien schwächen.105 Darüber hinaus wäre diese Methode zur Röller/Stennek/Verboven (2006), S. 121. Zwar deutet die Empirie darauf hin, dass Zusammenschlüsse im Durchschnitt oft nicht erfolgreich sind. Ungeachtet dessen gibt es aber bei Betrachtung der Einzelfälle sehr wohl erfolgreiche Fusionen. 103 Vgl. ausführlich Röller/Stennek/Verboven (2006). 104 Vgl. Eckbo (1983), Eckbo/Wier (1985) sowie Stillman (1983). 105 Vgl. Fridolfsson/Stennek (2000). 101 102

264

Ulrich Schwalbe

Beurteilung von Fusionen ohnehin für die praktische Wettbewerbspolitik wenig brauchbar, da ein Zusammenschluss ja ex ante untersagt oder genehmigt werden muss, d.h. bevor die Aktienkursentwicklung nach der Fusion bekannt ist. Die letzte Gruppe von empirischen Studien untersucht direkt den Einfluss von Fusionen auf die Produktivität von Unternehmen. Tatsächlich lassen sich empirisch Zusammenschlüsse identifizieren, die nicht nur zu Kostensenkungen bzw. Produktivitäts­ steigerungen geführt haben, sondern bei denen diese produktiven Effizienzgewinne auch in Form von Preissenkungen an die Konsumenten weitergegeben wurden. Aufgrund der geringen Zahl von Untersuchungen lassen sich jedoch keine allgemeinen Aussagen treffen. Insgesamt ist die empirische Evidenz zu den Auswirkungen von Fusionen keineswegs eindeutig.106 Während es relativ wenig Studien über Auswirkung auf Preise, Marktanteile und Produktivität gibt und die geringe Zahl der dazu vorliegenden Untersuchungen auch nicht zu eindeutigen Ergebnissen kommen, gibt es vergleichsweise zahlreiche Studien über die Auswirkungen von Fusionen auf Gewinne und Aktienkurse. Die Aussagekraft dieser Studien ist jedoch aufgrund von methodologischen Problemen stark eingeschränkt. Zudem bezieht sich die überwiegende Zahl der Untersuchungen auf die verarbeitende Industrie in den USA in den 1960er und 1970er Jahren. Diese Ergebnisse dürften nur bedingt auf andere Branchen und Märkte zu übertragen sein. Trotz all dieser Vorbehalte kommen Röller/Stennek/Verboven jedoch zu dem Schluss, dass eine gewisse Evidenz dafür spricht, dass einige Zusammenschlüsse Marktmacht begründen oder verstärken, es jedoch auch Indizien gibt, die auf produktive Effizienzgewinne hindeuten, die teilweise auch über Preissenkungen an Konsumenten weitergegeben werden. Die Auswirkungen von Fusionen sind auch in einer Reihe von Laborexperimenten überprüft worden.107 Allerdings deuten diese Experimente darauf hin, dass nicht alle der theoretischen Ergebnisse zu Fusionen experimentell bestätigt werden konnten. So haben einige experimentelle Studien gezeigt, dass mit abnehmender Firmenzahl in einem Markt mit Mengenwettbewerb die Angebotsmenge insgesamt zurückgeht und der Marktpreis steigt. Dabei kann zusätzlich zu den nichtkoordinierten Effekten jedoch auch eine aufgrund der geringeren Firmenzahl einfachere Verhaltenskollusion zu diesen Ergebnissen beitragen.108 Dies gilt insbesondere auch in Märkten mit Preiswettbewerb. So kamen Dufwenberg/Gneezy (1999) zu dem Ergebnis, dass die Resultate in einem Experiment mit drei Spielern sich signifikant von denen mit nur zwei Akteuren unterschieden. Im letzteren Fall gab es deutlich höhere Preise und geringere Mengen als im Bertrand-Nash-Gleichgewicht. Was jedoch das Merger Paradoxon betrifft, so konnte dies experimentell nicht bestätigt werden. In einer Untersuchung kamen Huck et al. (2007), dass zwischen den Vgl. Röller/Stennek/Verboven (2000). Eine Übersicht zu experimentellen Studien zu Unternehmenszusammenschlüssen geben Götte/ Schmutzler (2009). 108 Vgl. Abschnitt 3.7 und die dort angegebene Literatur. 106 107

2 Industrieökonomik

265

Unternehmen nach dem Zusammenschluss eine deutliche Asymmetrie besteht. Das fusionierte Unternehmen produziert, anders als theoretisch prognostiziert, eine größere Menge, während die unabhängigen Unternehmen mit ihrer besten Antwort auf diese Menge reagieren. Die Gewinne der fusionierten Firmen in einem Markt mit ursprünglich drei oder vier Unternehmen bleiben, nach einem kurzfristigen Anstieg direkt nach dem Zusammenschluss, in etwa gleich, während die Gewinne der anderen Unternehmen signifikant zunehmen. Als Ursache für diese Resultate führen Huck et al. Anspruchsniveaus der Akteure an, die durch Gewinne in der Zeit vor dem Zusammenschluss gebildet wurden und die nun nach der Fusion einen erheblichen Einfluss auf des Verhalten ausüben. Ein Experiment in einem von Stackelberg-Modell kam zu dem Ergebnis, dass in deutlichem Kontrast zur theoretischen Vorhersage, der Gewinn des Stackelberg-Führers nicht zunahm während die Gewinn der anderen Unternehmen erheblich stiegen.109 Der Gesamtoutput auf dem Markt nahm signifikant ab, was zu einer Preiserhöhung und zu einer Verringerung der Konsumentenrente führte. Im Rahmen von Experimenten zu Fusionen in Märkten mit differenzierten Produkten und Preiswettbewerb kamen Davis/Wilson (2006) zu dem Ergebnis, dass die theoretischen Vorhersagen experimentell recht gut bestätigt werden konnten. So führt ein Zusammenschluss zu höheren Preisen. Allerdings können diese Ergebnisse variieren, wenn unterschiedliche Marktbedingungen und/oder unterschiedliche Arten von Firmen zugelassen werden. Davis/Wilson zeigen darüber hinaus, dass auch Effizienzgewinne in Form von verringerten Grenzkosten tendenziell dazu führen, marktmachtbedingte Preiserhöhungen zu reduzieren.

2.6

Missbräuchliches Verhalten

In Abschnitt 2 wurde deutlich gemacht, dass ein Unternehmen, das in einem Markt eine Monopolposition innehat oder sich nur wenigen, kleineren Wettbewerbern gegenübersieht, in aller Regel deutlich höhere Gewinne realisiert als bei intensivem Wettbewerb. Daher ist zu erwarten, dass andere Unternehmen in diesen Markt eintreten möchten, um an diesen Gewinnen zu partizipieren. Diese Konkurrenz würde jedoch dazu führen, dass die Profite des etablierten Unternehmens zurückgehen, wie das z.B. anhand des Cournot-Modells in Abschnitt 3 erläutert wurde. Das marktmächtige Unternehmen könnte daher versucht sein, nicht nur durch wettbewerbskonformes Verhalten, d.h. durch attraktive Produkte, die es den Konsumenten zu günstigen Preisen und Konditionen anbietet, seine Position abzusichern, sondern dabei auch wettbewerbswidrige Verhaltensweisen zu verwenden, indem es aktuelle Konkurrenten vom Markt vertreibt oder zumindest verhindert, dass Wettbewerber wachsen. Daneben könnte es versuchen, den Markteintritt potentielle Konkurrenten durch den Aufbau von Marktschranken von vornherein zu verhindern.

109

Vgl. Huck (2009).

266

Ulrich Schwalbe

In den meisten Rechtsordnungen wird ein solcher Missbrauch einer marktbeherrschenden Stellung, oder der Versuch, eine derartige Stellung durch den Einsatz wettbewerbswidriger Strategien zu erreichen, vom Wettbewerbsrecht untersagt. Allerdings ist nicht immer eindeutig, ob es sich bei einem bestimmten Verhalten bzw. einer bestimmten Geschäftspraktik um den Missbrauch einer marktbeherrschenden Stellung handelt oder ob überzeugende Argumente dafür sprechen, dass es sich um „Competition on the Merits“, also um Leistungswettbewerb handelt. In der Praxis stellt sich daher häufig das Problem, zwischen diesen beiden Möglichkeiten zu unterscheiden: Ist eine Preissenkung eines marktbeherrschenden Unternehmens nach dem Eintritt eines Wettbewerbers eine normale Reaktion auf den intensiveren Wettbewerb oder handelt es sich um den rechtswidrigen Versuch, den Konkurrenten durch einen Kampfpreis wieder vom Markt zu vertreiben? Hat der Marktbeherrscher eine große Produktionskapazität deswegen aufgebaut, um eine glaubwürdige Drohung gegenüber potentiellen Konkurrenten zur Verfügung zu haben oder hat er die Nachfrageentwicklung falsch eingeschätzt? In der Regel bedürfen diese Fragen in jedem Einzelfall einer genauen ökonomischen Analyse, um festzustellen, ob es sich um den Missbrauch einer marktbeherrschenden Stellung oder um Leistungswettbewerb handelt. Der folgende Abschnitt gibt einen kurzen Überblick über die verschiedenen in der Praxis häufig beobachteten Formen missbräuchlichen Verhaltens. Sowohl in der industrieökonomischen Literatur als auch in der wettbewerbsrechtlichen Praxis wird zwischen zwei grundlegenden Formen missbräuchlichen Verhaltens unterschieden: Zum einen der Ausbeutungsmissbrauch (exploitative Abuse) und zum anderen der Behinderungsmissbrauch (exclusionary Abuse). Ausbeutungsmissbrauch tritt vor allem in Form überhöhter Preise auf, die ein marktbeherrschendes Unternehmen von seinen Abnehmern aufgrund seiner Marktstellung verlangen kann. Hier sind im Wesentlichen die gleichen Aspekte von Bedeutung, wie sie bei der monopolistischen Preissetzung in Abschnitt 2 diskutiert wurden. Ausbeutungsmissbrauch wird auch häufig dann vermutet, wenn das Unternehmen eine Preisdiskriminierung betreibt, d.h., wenn bestimmte Gruppen von Abnehmern systematisch höher Preise zahlt als andere Gruppen. Wie in Abschnitt 2.1 jedoch dargelegt wurde, kann eine solche Preisdiskriminierung auch wohlfahrtserhöhend sein, wenn z.B. bei einem Einheitspreis bestimmte Nachfragergruppen nicht mehr versorgt würden. In der Praxis erweist es sich in der Regel als schwierig, einen Ausbeutungsmissbrauch nachzuweisen. Da die wesentlichen Aspekte bereits in Abschnitt 2 angesprochen wurden, wird im Folgenden nur der Behinderungsmissbrauch näher analysiert. Die verschiedenen Formen des Behinderungsmissbrauchs können zum einen danach unterschieden werden, ob sie dazu dienen, einen bereits im Markt befindlichen Wettbewerber wieder vom Markt zu verdrängen oder potentielle Konkurrenten erst gar nicht in den Markt eintreten zu lassen. Eine weitere Unterscheidung bezieht sich auf die dabei eingesetzten Instrumente: Handelt es sich um den Preis des eigenen Produktes oder werden andere Wettbewerbsparameter hierzu verwendet. Schließlich kann ein Marktmachtmissbrauch dadurch erfolgen, dass die Kosten des aktuellen oder potentiellen Wettbewerbers

2 Industrieökonomik

267

erhöht („Raising Rivals’ Cost“) oder dass seine Erlöse verringert werden („Reducing Rivals’ Revenue“). Zuerst werden verschiedene Formen missbräuchlichen Verhaltens diskutiert, bei denen der Preis bzw. die Preisgestaltung die entscheidende Größe ist. Im Anschluss wird untersucht, unter welchen Bedingungen ein etabliertes Unternehmen durch den Aufbau von Überkapazitäten den Marktzutritt potentieller Wettbewerber verhindern oder zumindest erschweren kann. Der letzte Abschnitt behandelt die Frage der Übertragung bestehender Marktmacht von einem Markt auf einen anderen.

2.6.1

Kampfpreise, Limit Pricing und Rabattsysteme

2.6.1.1 Kampfpreise Unter Kampfpreisen versteht man eine aggressive Preissetzung eines marktbeherrschenden Unternehmens mit dem Ziel, den Marktaustritt eines Wettbewerbers herbeizuführen. Damit es sich um einen Kampfpreis im eigentlichen Sinne handelt, muss dieser einzig zu dem Zweck so niedrig gesetzt worden sein, um den oder die Konkurrenten zu einem Verlassen des Marktes zu zwingen, und nicht aus anderen Gründen, wie z.B. aufgrund eines höheren Wettbewerbsdrucks. Da das Unternehmen, das einen Kampfpreis setzt und während dieser Phase zumeist mit Verlusten arbeitet, ist es für eine erfolgreiche Kampfpreissetzung erforderlich, dass nach erfolgtem Marktaustritt des Wettbewerbers diese Verluste durch Monopolpreise in absehbarer Zeit wieder kompensiert werden können, d.h. ein so genanntes „Recoupment“ ist wesentlicher Bestandteil einer Kampfpreisstrategie. Dies ist in der Regel nur dann der Fall, wenn durch eine Kampfpreissetzung bzw. die Errichtung von Marktzutrittsschranken auch künftige Markteintritte verhindert werden können. 2.6.1.2 Die Kritik an der Kampfpreisstrategie Allerdings wurde erhebliche Kritik am Konzept der Kampfpreissetzung als rationale Strategie eines marktbeherrschenden Unternehmens geübt. So hat McGee in einem vielbeachteten Aufsatz zu zeigen versucht, dass dem etablierten Unternehmen andere, überlegene Strategien zur Verfügung stehen, mit der es das gleiche Ziel erreichen kann.110 Das Konzept der Kampfpreissetzung basiere daher vor allem auf einem Denkfehler und würde in der Praxis keine Rolle spielen. Das Argument von McGee kann anhand des folgenden Beispiels illustriert werden. Ausgangspunkt ist das Modell eines Stackelberg-Duopols, in dem Unternehmen 1, der Stackelberg-Führer, einen Kampfpreis setzt und Unternehmen 2, der StackelbergFolger, vom Markt vertrieben werden soll. Beide Unternehmen produzieren mit den gleichen konstanten Grenzkosten c. Die Preis-Absatz-Funktion auf dem Markt ist gegeben durch p(x1 + x2) = a – b(x1 + x2), 110

Vgl. McGee (1958).

a, b > 0

268

Ulrich Schwalbe

wobei x1 und x2 das Angebot des Stackelberg-Führers bzw. des Stackelberg-Folgers bezeichnen. Wie in Abschnitt 3.x bereits dargestellt, maximiert der Stackelberg-Führer seinen Gewinn unter Berücksichtigung der Reaktionsfunktion des Stackelberg-Folgers. Diese Reaktionsfunktion ist die gleiche wie im Cournot-Modell und ist gegeben durch x 2r (x1 ) =

a−c 1 − = x1 . 2b 2

Das Maximierungsproblem des Stackelberg-Führers ist dann a−c 1 ⎞ ⎤ ⎡ ⎛ max π 1 (x1 ) = ⎢a − b ⎜ x1 + − x1 ⎟ x1 − cx1 . ⎝ x1 2b 2 ⎠ ⎥⎦ ⎣ Aus der Bedingung erster Ordnung ∂π 1 (⋅) a−c = a − 2bx1 + + bx1 − c = 0 ∂x1 2 ergibt sich die Menge des Stackelberg-Führers. x1s =

a−c . 2b

Das Angebot des Stackelberg-Folgers folgt durch Einsetzen dieser Menge in die Reaktionsfunktion und beträgt x 2s =

a−c . 4b

Einsetzen dieser Mengen in die Preis-Absatz-Funktion ergibt den Marktpreis ps =

a + 3c . 4

Die Gewinne des Stackelberg-Führers und des Stackelberg-Folgers betragen π 1s =

(a − c)2 (a − c)2 und π 2s = . 8b 16b

Der Vergleich mit dem Monopolgewinn πm =

(a − c)2 , 4b

der doppelt so hoch ist wie der des Stackelberg-Führers, zeigt, dass der StackelbergFührer einen Anreiz hat, den Wettbewerber vom Markt zu vertreiben und eine Monopolstellung zu erhalten. Der Stackelberg-Führer könnte versuchen, durch eine Angebotsmenge, die so groß ist, dass der Marktpreis auf die Höhe der Grenzkosten gedrückt wird, den Konkurrenten vom Markt zu verdrängen. Würde der Stackelberg-Folger seine Produktion nicht einstellen, dann würde der Preis unter die Grenzkosten fallen und der Stackelberg-Folger (und auch der Stackelberg-Führer) würden Verluste erleiden. Daher müsste der Folger den Markt verlassen oder würde erst gar nicht in den Markt eintreten. Während dieser Zeit ist der Gewinn des Stackelberg-Führers gleich null – bei einer noch größeren

2 Industrieökonomik

269

Menge würde ein Preis unterhalb der Grenzkosten resultieren und der Gewinn wäre negativ. Wenn nach der Periode der Kampfpreissetzung kein weiterer Marktzutritt mehr erfolgt, dann könnte der Stackelberg-Führer auch in der Zukunft den Monopolgewinn realisieren. Abgesehen davon, dass ein solches Gleichgewicht nicht teilspeilperfekt ist, wäre ein solches Verhalten des Stackelberg-Führers auch aus einem anderen Grunde nicht zu erwarten, denn es steht ihm eine andere Strategie zur Verfügung, die ihm einen höheren Gewinn garantiert. Bei der dargestellten Strategie realisiert der Stackelberg-Führer in Periode 1 einen Gewinn von null und in Periode 2 einen Gewinn in Höhe des Monopolgewinns. McGee weist darauf hin, dass durch eine Übernahme des Stackelberg-Folgers das fusionierte Unternehmen in beiden Perioden einen Gewinn in Höhe des Monopolgewinns realisieren kann. Daher wäre es dem Stackelberg-Führer möglich, den Folger in der ersten Periode aufzukaufen und für das Unternehmen einen Preis bis zur Hälfte des Monopolgewinns zu zahlen, also deutlich mehr als der Stackelberg-Folger an Gewinn erwirtschaften würde. Laut McGee ist daher eine Kampfpreissetzung eine strikt dominierte Strategie und würde von einem rationalen Unternehmen nicht angewendet werden. Dieses Argument unterstellt jedoch zum einen, dass eine Übernahme rechtlich unproblematisch ist und nicht von den Wettbewerbsbehörden untersagt würde. In diesem Fall wäre eine Übernahme nicht möglich und ein Verdrängungswettbewerb käme wieder als Alternative in Betracht, um sich den Monopolgewinn zu sichern. Zum anderen verliert das Argument von McGee an Überzeugungskraft, wenn es mehrere potentielle Wettbewerber gibt. Wenn das etablierte Unternehmen regelmäßig Konkurrenten zu attraktiven Bedingungen aufkauft, dann könnte ein solches Verhalten Markteintritte sogar provozieren.

2.6.1.3 Kampfpreise und finanzielle Beschränkungen Eine Kampfpreissetzung kann sich jedoch als rationale Strategie erweisen, wenn das Unternehmen, das aus dem Markt verdrängt werden soll, finanziellen Restriktionen unterliegt und Verluste nur über einen begrenzten Zeitraum tragen kann. Dies kann anhand des folgenden Beispiels deutlich gemacht werden. Angenommen, das etablierte Unternehmen verfügt – zumindest im Vergleich zum Unternehmen, das aus dem Markt gedrängt werden soll, über weitaus höhere finanzielle Mittel. Letzteres hat nur finanzielle Reserven in Höhe von 30 Tsd. €. Weiterhin sei angenommen, dass jeder Monat einer Kampfpreissetzung diesem Unternehmen Kosten in Höhe von 10 Tsd. € verursacht. Die Kosten einer Kampfpreissetzung für das etablierte Unternehmen liegen bei 20 Tsd. €. Diese Kosten sind in jeder Periode die gleichen. Allerdings kann der Wettbewerber aufgrund seiner finanziellen Beschränkung einen Preiskrieg maximal für drei Perioden durchhalten, da er danach über keine finanziellen Reserven mehr verfügt und bankrott ist. Weiterhin seien mit πm und πd die auf den Gegenwartszeitpunkt diskontierten Ströme der Monopolgewinne bzw. Duopolgewinne über einen unendlichen Zeitraum bezeichnet. Wenn der Konkurrent den Markt verlässt, dann erhält das etablierte Unternehmen von diesem Zeitpunkt an den Monopolgewinn, wobei noch die Kosten der Kampfpreisstrategie abgezogen werden müssen. Das etablierte Unternehmen kann entweder einen

270

Ulrich Schwalbe

Markteintritt zulassen oder einen Kampfpreis setzen. Der Wettbewerber kann entweder im Markt bleiben oder den Markt verlassen. Diese Situation kann durch das folgende Spiel in Extensivform (Abbildung 2.23) dargestellt werden. Dabei bezeichnen z und k die Strategien des etablierten Unternehmens (I), den Eintritt zuzulassen (zulassen) oder ihn zu bekämpfen (kämpfen). Durch b und v sind die beiden Strategien des Wettbewerbers (E) bezeichnet, im Markt zu bleiben, oder den Markt zu verlassen. Das Spiel beginnt am linken Entscheidungsknoten des Spielbaums, an dem sich das etablierte Unternehmen entscheiden muss, einen möglichen Markteintritt des Wettbewerbers zuzulassen oder ihn zu bekämpfen. Ein solches sequentielles Spiel kann durch Rückwärtsinduktion gelöst werden. Da nach einer Kampfpreissetzung von drei Perioden der Wettbewerber den Markt verlassen muss, wird das etablierte Unternehmen zu Beginn der dritten Periode wieder einen Kampfpreis setzen, um sich die Monopolgewinne für alle folgenden Perioden zu sichern. Da der Wettbewerber dies antizipiert, wird er den Markt zu Beginn der zweiten Periode eines Preiskrieges verlassen, Mit dem gleichen Argument würde der Wettbewerber in der ersten Periode aus dem Markt ausscheiden, um seine Verluste um 10 Tsd. € zu reduzieren. Für das etablierte Unternehmen stellt sich die Frage, ob es lohnender ist, für eine Periode einen Kampfpreis zu setzen als einen Markteintritt zuzulassen und dann nur den geringeren Duopolgewinn zu erhalten. Dies ist dann der Fall, wenn die Bedingung πm – πd > 20 Tsd. € erfüllt ist, was in der Regel der Fall sein dürfte, denn die Kosten einer Kampfpreissetzung entstehen nur ein Mal, während die Gewinne über einen langen Zeitraum anfallen. In diesem Fall ist es für das etablierte Unternehmen lohnend, den Wettbewerber durch eine Kampfpreisstrategie vom Markt zu vertreiben. Es stellt sich hier jedoch die Frage, warum ein Wettbewerber überhaupt erst in den Markt eingetreten ist. Die Ursache dafür könnte daran liegen, dass sich die Bedingungen auf dem Markt in unvorhergesehener Weise geändert haben oder dass das Unternehmen die Bedingungen auf dem Markt zu optimistisch eingeschätzt hat. Eine weitere Frage, die in diesem Kontext zu stellen wäre, betrifft die Möglichkeiten des Wettbewerbers, sich auf dem Kapitalmarkt zu finanzieren, so dass die Restriktion hinsichtlich der Finanzmittel

Abb. 2.23 Extensivform des Spiels „Kampfpreissetzung bei finanzieller Beschränkung“

2 Industrieökonomik

271

nicht mehr bindend sein würde. So wären Investoren bereit, das Unternehmen für einige Perioden zu finanzieren, wenn sie sich im Anschluss daran einen Anteil an den zukünftigen Duopolgewinnen sichern könnten. Aber auch in einer solchen Situation könnte das etablierte Unternehmen versuchen, die Finanzierungsmöglichkeiten des Wettbewerbers zu beeinflussen, insbesondere dann, wenn die Bank nur unvollständig über die Profitabilität des Wettbewerbers informiert ist und das etablierte Unternehmen die Möglichkeit hat, z.B. durch Setzen eines Kampfpreises die erwarteten Gewinne des Wettbewerbers zu reduzieren. In diesem Fall kann das etablierte Unternehmen durch Kampfpreise dafür sorgen, dass der Wettbewerber keine Finanzierung durch die Bank erhält und daher den Markt verlassen muss.111 Auch wenn Kreditgeber aufgrund von asymmetrischer Information nur dann bereit sind, Kredite in ausreichender Höhe zu vergeben, wenn das Unternehmen eine gewisse Größe bzw. einen gewissen Kapitalbestand aufgebaut hat, dann kann das etablierte Unternehmen durch eine Kampfpreisstrategie verhindern, dass der Wettbewerber eine hinreichende Größe erreicht. Im folgenden Abschnitt wird eine mit den Kampfpreisen eng verwandte missbräuchliche Verhaltensweise diskutiert, die dazu dienen soll, einen potentiellen Wettbewerber durch das Setzen eines niedrigen Preises von vornherein von einem Markteintritt abzuhalten. Diese Strategie wird als Limit Pricing bezeichnet und gehört zur Gruppe der Signalisierungsmodelle von Kampfpreisen.

2.6.1.4 Limit Pricing Solche Signalisierungsmodelle von Kampfpreisen gehen zumeist davon aus, dass aktuelle oder potenzielle Wettbewerber nicht vollständig über die Kosten des etablierten Unternehmens informiert sind. In diesem Fall könnte ein Unternehmen durch das Setzen eines sehr niedrigen Preises einem aktuellen Konkurrenten signalisieren, dass es, z.B. aufgrund einer Innovation, mit sehr geringen Kosten produzieren kann, so dass ein weiterer Wettbewerb nicht möglich oder für den Konkurrenten zumindest nicht lohnend ist. Dies würde den Wettbewerber dazu veranlassen, den Markt zu verlassen. Außerdem könnte dieser niedrige Preis ein Signal für andere Unternehmen sein, dass sich ein Marktzutritt aufgrund einer überlegenen Technologie des etablierten Unternehmens nicht lohnt. Auf diese Weise könnte selbst ein etabliertes Unternehmen mit geringer Effizienz und hohen Kosten durch eine erfolgreich durchgeführte Kampfpreisstrategie sich eine Reputation als äußerst effizientes und wettbewerbsstarkes Unternehmen verschaffen. Dies könnte sogar zur Abschreckung von Unternehmen führen, die effizienter sind als das etablierte. Dies hätte negative Wirkungen auf die Wohlfahrt, da effizientere Wettbewerber vom Markt ferngehalten würden und insgesamt ein geringerer Wettbewerb auf dem Markt herrschen würde als volkswirtschaftlich wünschenswert wäre. Asymmetrische Information über die Kosten des etablierten Unternehmens könnten von letzterem auch dazu verwendet werden, durch das Setzen von Kampfpreisen die Einschätzung zukünftiger Erträge des Wettbewerbers

111

Vgl. Bolton/Scharfstein (1990).

272

Ulrich Schwalbe

zu verringern, um ihn dann zu günstigen Bedingungen übernehmen zu können. Auf diese Weise könnte das etablierte Unternehmen eine strategische Marktzutrittsschranke errichten. Es stellt sich jedoch die Frage, ob ein solches Limit Pricing eine glaubwürdige Drohung darstellt. Im Fall vollkommener Information wäre dies nicht der Fall und der Wettbewerber würde in den Markt eintreten, wenn er nach dem Markteintritt positive Gewinne realisieren kann. Entscheidend für ihn ist nicht, was das etablierte Unternehmen vor dem Markteintritt tut, sondern sein Verhalten nach erfolgtem Marktzutritt. Bei unvollständiger Information seitens des Wettbewerbers z.B. über die Kosten des etablierten Unternehmens kann Limit Pricing jedoch eine sinnvolle Strategie sein, um einen Markteintritt zu verhindern, da es als Signal über die Effizienz des etablierten Unternehmens fungiert. Dies wird anhand des Modells von Milgrom/Roberts (1982) erläutert. In diesem Modell wird von asymmetrischer Information über die Grenzkosten des etablierten Unternehmens 1 ausgegangen, dessen Grenzkosten entweder hoch oder niedrig sein können. Der Preis des Unternehmens 1 vor dem Eintritt des Wettbewerbers vermittelt jedoch Information über dessen Grenzkosten. Falls das etablierte Unternehmen niedrige Grenzkosten hat, signalisiert es dies durch einen niedrigeren als den Monopolpreis, den Limit Price. Aber ein solches Signal muss glaubwürdig sein, d.h. der Limit Price muss so niedrig sein, dass ein Unternehmen mit hohen Grenzkosten einen solchen Preis niemals setzen würde. Betrachtet werden zwei Perioden, t = 1,2. In Periode 1 ist die etablierte Firma Monopolist und setzt einen Preis p1. Unternehmen 2, der potentielle Konkurrent, beobachtet p1 und entscheidet dann, ob es in Periode 2 in den Markt eintreten soll oder nicht. Tritt Firma 2 ein, entsteht ein Cournot–Duopol. Anderenfalls bleibt Firma 1 Monopolist. Es besteht jedoch asymmetrische Information über die Kosten der etablierten Firma. Unternehmen 1 kennt seine eigenen Kosten, aber Firma 2 ist nur unvollständig darüber informiert. Sie weiß nur, dass die Kosten mit Wahrscheinlichkeit x niedrig sind und mit Wahrscheinlichkeit (1 – x) hoch sind. Tritt Unternehmen 2 in Periode 2 in den Markt ein, wird es unmittelbar nach Eintritt über die Kosten der Firma 1 informiert. Es wird angenommen, dass der Wettbewerber, Unternehmen 2, nach einem Markteintritt nur dann einen positiven Gewinn realisieren kann, wenn die Grenzkosten der Firma 1 hoch sind. Trifft es jedoch auf ein Unternehmen mit geringen Grenzkosten, würde es einen Verlust machen, d.h. es gilt D2( c1h ) > 0 > D2( c1l ) wobei D2( c1i ) den Duopolgewinn von Firma 2 in Abhängigkeit der Kosten der Firma 1 vom Typ i = h, n bezeichnet. Dabei bedeutet h, dass es sich um das Unternehmen mit hohen Kosten handelt und n, dass die Kosten niedrig sind. Bei vollständiger Information würde Firma 2 also nur dann eintreten, wenn Firma 1 hohe Kosten hätte. Wenn das etablierte Unternehmen niedrige Grenzkosten hätte, dann wäre es für beide Firmen von Vorteil, wenn diese Tatsache der Firma 2 glaubhaft mitgeteilt werden könnte:

2 Industrieökonomik

273

Firma 2 würde dann nicht eintreten und Firma 1 bliebe weiterhin Monopolist. Dies könnte es z.B. dadurch erreichen, dass sie einen niedrigeren Preis setzt, als es eine Firma mit hohen Kosten jemals tun würde. Allerdings stellt sich das Problem, dass das etablierte Unternehmen auch im Falle hoher Kosten einen Anreiz hätte, Firma 2 davon zu überzeugen, dass es niedrige Grenzkosten hat, um den Wettbewerber von einem Markteintritt abzuschrecken und Monopolist zu bleiben. Sei pmi der gewinnmaximierende Monopolpreis der Firma 1 vom Typ i = h, n und sei M1i ( pmi ) der entsprechende Monopolgewinn. Natürlich gilt pmh > pmn , d.h. der Monopolpreis von Firma 1 ist höher genau dann, wenn die Grenzkosten höher sind. Um dem potentiellen Wettbewerber zu signalisieren, dass das etablierte Unternehmen niedrige Grenzkosten hat, reicht der Preis pml nur dann aus, wenn Unternehmen 1 mit hohen Grenzkosten keinen Anreiz hat, ebenfalls diesen Preis zu verlangen, um dadurch niedrige Grenzkosten vorzutäuschen. Um deutlich zu machen, unter welchen Bedingungen ein Limit Pricing eine sinnvolle Strategie sein kann, wird angenommen, dass die folgende Beziehung zwischen den Monopol- und Duopolgewinnen der etablierten Firma besteht M1h ( pmn ) + δ M1h > M1h + δ D1h ⇒ M1h – M1h ( pmn ) < δ( M1h – D1h ), wobei δ ∈ (0,1) den Diskontfaktor, M1h den Monopolgewinn von Unternehmen 1 mit hohen Kosten bezeichnet und D1i den Duopolgewinn von Unternehmen 1 vom Typ i = h, n. Unter dieser Annahme würde es sich für eine Firma 1 vom Typ h lohnen, den niedrigen Preis einer Firma vom Typ n zu imitieren. Zwar entsteht in der ersten Periode ein Verlust von M1h – M1h ( pmn ), da Firma 1 nicht den für sie gewinnmaximalen Preis pmh setzt. Aber in der zweiten Periode ist die Firma Monopolist, und der Verlust aus Periode 1 wird durch den zusätzlichen Gewinn der zweiten Periode überkompensiert. Damit haben beide Typen von Firma 1 einen Anreiz, den niedrigen Preis pml zu setzen, um geringe Kosten zu signalisieren. Dies ist jedoch auch dem potentiellen Wettbewerber bekannt und das Signal ist daher nicht glaubwürdig. Um durch einen niedrigeren Preis pa < pmn niedrige Kosten glaubhaft zu signalisieren, müssen die folgenden zwei Bedingungen erfüllt sein. Erstens müsste ein solcher Preis pa so niedrig sein, dass es sich für eine Firma vom Typ h nicht lohnen würde, diesen zu imitieren, d.h. M1h (pa) + δ M1h ≤ M1h + δ D1h ⇒ M1h – M1h (pa) ≥ δ( M1h – D1h ). Der Verlust aus der Eintrittsabschreckung in Periode 1, den Firma 1 vom Typ h erleidet, übersteigt ihren zusätzlichen Gewinn aus der Abschreckung in Periode 2. Zweitens muss der Preis hoch genug sein, damit für Firma 1 vom Typ n die Abschreckung lohnt: M1n (pa) + δ M1n ≥ M1n + δ D1n ⇒ M1n – M1n (pa) ≤ δ( M1n – D1n ).

274

Ulrich Schwalbe

Der Verlust aus der Eintrittsabschreckung in Periode 1, der Firma 1 vom Typ n entsteht, wird durch den zusätzlichen Gewinn aus der Abschreckung in Periode 2 überkompensiert. Sind diese Bedingungen nicht erfüllt, dann kann Unternehmen 1 vom Typ h den Eintritt der Firma 2 nicht verhindern. Daher setzt das etablierte Unternehmen mit hohen Grenzkosten in der ersten Periode ihren Monopolpreis und erhält in Periode 2 den entsprechenden Duopolgewinn D1h . Sind diese Bedingungen hingegen erfüllt, dann verlangt Firma 1 mit niedrigen Grenzkosten in der ersten Periode den niedrigeren Preis pa < pmn und Firma 2 tritt nicht in den Markt ein. In diesem Fall existiert ein Intervall von Preisen pa, die als glaubwürdiges Signal für niedrige Kosten des etablierten Unternehmens fungieren. Ein solches Gleichgewicht wird als separierendes Gleichgewicht bezeichnet, da sich die Typen h und n des Unternehmens 1 durch das Signal pa unterscheiden lassen.112 In einem separierenden Gleichgewicht wird der Wettbewerber nicht über die Kosten der Firma 1 getäuscht. Der Markteintritt wird jedoch nur dann erfolgreich abgeschreckt, wenn Firma 1 tatsächlich niedrige Kosten hat. Dieses Ergebnis entspricht dem bei vollkommener Information, denn Firma 2 tritt nur dann in den Markt ein, wenn das etablierte Unternehmen mit hohen Grenzkosten produziert. Firma 1 vom Typ n realisiert in der ersten Periode einen niedrigeren Gewinn als bei vollständiger Information, denn Typ n muss ein Limit Pricing betreiben, um dem potentiellen Wettbewerber glaubhaft seine niedrigen Kosten zu signalisieren. Die Konsumenten profitieren vom Limit Pricing der Firma 1, da sie im Falle von Typ n einen niedrigeren Preis als den Monopolpreis zahlen müssen.113 Diese Überlegungen machen deutlich, dass bei Vorliegen unvollständiger Information über die Kosten des etablierten Unternehmens das Setzen eines Limit Price zu einer Abschreckung des Markteintritts führen kann.

2.6.1.5

Feststellung von Kampfpreisen: Die Areeda-Turner Regel und moderne Konzepte In der Praxis stellt sich häufig das Problem, zu beurteilen, ob in einem gegebenen Fall tatsächlich ein Kampfpreis oder ein Limit Price gesetzt wurde. Wenn ein marktbeherrschendes Unternehmen nach dem Markteintritt eines Konkurrenten mit einer Preissenkung reagiert, dann kann es sich dabei um ein normales wettbewerbliches Verhalten handeln, da dieses Unternehmen aufgrund des erhöhten Wettbewerbsdrucks gezwungen ist, niedrigere Preise zu verlangen. Es kann sich jedoch auch um einen Kampfpreis handeln, mit dem der Wettbewerber dazu veranlasst werden soll, aus dem Markt auszutreten. Um zwischen diesen beiden Möglichkeiten zu unterscheiden, ist auf die grundlegenden 112 Dabei wird das Unternehmen 1 vom Typ l den höchsten Preis pa setzen, der eine Signalisierung ermöglicht, da es so die Kosten des Signals minimiert. Man spricht in diesem Fall von einem „LeastCost Equilibrium“. 113 Wenn der erwartete Gewinn eines potentiellen Wettbewerbers negativ ist, dann kann neben dem Fall des separierenden Gleichgewichts auch der eines Pooling-Gleichgewichts auftreten, in dem beide Typen des Unternehmens 1 den gleichen Preis setzen und der potentielle Wettbewerber aus diesem Preis keinen Rückschluss auf den Typ des Unternehmens 1 ziehen kann.

2 Industrieökonomik

275

Voraussetzungen für eine erfolgreiche Kampfpreisstrategie abzustellen. Zum einen basiert sie darauf, Preise zu verlangen, die, wenn der Konkurrent über eine ähnliche Technologie verfügt wie das etablierte Unternehmen, unterhalb der Grenzkosten liegen, so dass das marktbeherrschende Unternehmen kurzfristige Verluste hinnehmen muss. Zum anderen müssen diese Verluste aufgrund der Kampfpreise durch erhöhte Preise nach dem Ausscheiden des Konkurrenten wieder kompensiert werden. Zur Feststellung, ob von einem Unternehmen kurzfristige Verluste zum Zweck der Verdrängung eines Konkurrenten vom Markt hingenommen werden, sind von der Literatur eine Reihe von Tests vorgeschlagen worden, von denen der bekannteste die AreedaTurner-Regel ist. Nach dieser Regel ist ein Preis ein Kampfpreis, wenn er unterhalb der kurzfristigen Grenzkosten des etablierten Unternehmens liegt. Da diese im Allgemeinen nur schwer ermittelt werden können, wird zumeist von den variablen Stück- oder Durchschnittskosten ausgegangen. Bei einem solchen Preis könnte ein Unternehmen noch nicht einmal seine variablen Kosten decken, von den fixen Kosten zu schweigen. Allerdings ist dieser Test aus mehreren Gründen problematisch: So hat der zugrundeliegende Zeitraum für die Ermittlung der Kosten eine große Bedeutung, denn je länger dieser ist, desto mehr Kostenbestandteile sind variabel und desto höher sind die variablen Stückkosten. Bei einer sehr kurzfristigen Betrachtung hingegen sind fast alle Kostenbestandteile fix und die variablen Stückkosten sind sehr gering. Die zulässigen Preise sind also vom zugrundeliegenden Zeitraum abhängig. Ein ähnliches Problem tritt auch dann auf, wenn aufgrund konjunktureller Schwankungen die Grenzkosten, die für die Preissetzung entscheidend sind, von den variablen Stückkosten abweichen. Bei geringer Nachfrage während einer Rezession können die Grenzkosten deutlich unter den variablen Stückkosten liegen. In einem solchen Fall würde die Areeda-Turner-Regel zur Feststellung von Kampfpreisen führen, obwohl sich das Unternehmen gewinnmaximierend und wettbewerblich verhält. Weiterhin gibt es eine Reihe von Gründen für ein Unternehmen, Preise zu setzen, die unterhalb der variablen Stückkosten liegen, wie z.B. bei Vorliegen von Netzeffekten, wenn durch sehr niedrige Einführungspreise (unter Umständen sogar Preisen von Null) eine kritische Masse an Nutzern erzielt werden soll, zum Erreichen von Lernkurveneffekten, bei verderblichen Gütern, oder im Fall eines Unternehmens, das komplementäre Güter herstellt und durch einen niedrigen Preis bei einem Gut die Nachfrage nach dem anderen stimulieren möchte. Die Areeda-Turner-Regel ist also weder notwendig noch hinreichend für die Feststellung von Kampfpreisen. Andere Konzepte zur Feststellung möglicher Kampfpreise basieren auf den durchschnittlichen Zusatzkosten (Average Incremental Cost). Die Überlegung ist dabei die folgende: Durch niedrige Kampfpreise wird eine größere Menge des Produktes am Markt abgesetzt werden, wofür zusätzliche Kosten aufgewendet werden. Diese Kosten unterscheiden sich von den variablen Stückkosten, da sie nur die aufgrund des erhöhten Outputs entstandenen zusätzlichen Kosten enthalten und darüber hinaus auch etwaige zusätzliche Fixkosten berücksichtigen. Liegt der Preis unterhalb dieser durchschnittlichen Zusatzkosten, dann könnte es sich um einen Kampfpreis handeln. Berücksichtigt man neben den Kosten auch die Erlöse, dann würde ein Test auf die zusätzlichen Gewinne des Unternehmens

276

Ulrich Schwalbe

abstellen. Da bei einer Kampfpreisstrategie kurzfristige Verluste durch spätere Gewinne kompensiert werden sollen, könnte eine derartige Strategie vorliegen, wenn eine Preissenkung dazu führt, dass die zusätzlich verkauften Einheiten nur mit Verlust verkauft werden können. In diesem Fall würden die Gewinne des Unternehmens durch die Preissenkung verringert werden. Hier stellt sich allerdings das in der Praxis kaum lösbare Problem, die Gewinnänderung zu ermitteln und mit dem hypothetischen Resultat zu vergleichen, das sich ohne einen Marktzutritt ergeben hätte.

2.6.1.6 Missbräuchliche Rabattsysteme Ähnliche Auswirkungen wie das Setzen von Kampfpreisen können auch durch bestimmte Rabattsysteme hervorgerufen werden.114 Hierzu gehören Gesamtumsatz- und Treuerabatte, denn diese erhöhen die Wechselkosten der Abnehmer und können dazu beitragen, Marktzutrittsschranken aufzubauen. Gesamtumsatzrabatte werden den Abnehmern von einem Unternehmen in Abhängigkeit von ihrem dort in einem bestimmten Zeitraum getätigten Umsatz gewährt. Bei Treuerabatten, die auch als nichtinkrementelle oder bedingte Rabatte bezeichnet werden, handelt es sich um Vergünstigungen, die ein Unternehmen gewährt, um seine Kunden dazu zu veranlassen, seinen Bedarf an einem bestimmten Gut bei diesem Unternehmen zu decken. Treuerabatte werden gewährt, wenn der Kunde eine bestimmte Menge des Gutes abnimmt, wobei der Rabatt nicht nur auf die zusätzlichen Einheiten gewährt wird, sondern auch auf alle bereits erworbenen Einheiten. Beide Formen von Rabatten können aufgrund von Kostenvorteilen (z.B. zunehmenden Skalenerträgen beim Hersteller oder Transportkostenersparnissen) gewährt werden. Aber auch nachfrageseitige Bedingungen, wie z.B. unterschiedliche Preiselastizitäten, können solche Rabatte rechtfertigen, ohne dass eine Verdrängungs- oder Behinderungsabsicht vorliegen muss. Bei einem Unternehmen mit großem Fixkostenanteil liegen die Durchschnittskosten über den Grenzkosten. In diesem Fall könnte das Unternehmen durch die Gewährung eines Treuerabatts eine zusätzliche Produktionsmenge verkaufen, ohne gleichzeitig den Preis für alle Einheiten zu verringern, was die Profitabilität erheblich einschränken würde. Auch können Treuerabatte in vertikalen Strukturen als Anreizinstrument fungieren, um z.B. Einzelhändler zu erhöhten Verkaufsanstrengungen zu veranlassen. Hier führen Treuerabatte zu einer erhöhten Effizienz und sind nicht notwendig missbräuchlich, selbst wenn sie von einem marktbeherrschenden Unternehmen gewährt werden. Wenn sich ein Kunde kurz vor Erreichen der Rabattschwelle befindet, dann können derartige Rabatte zu extrem niedrigen oder gar negativen Preisen für die zum Erreichen der Rabattschwelle notwendigen Einheiten führen. Ein solcher Rabatt kann daher eine erhebliche Sogwirkung entfalten, die es anderen, auch gleich effizienten Wettbewerbern sehr schwer macht, mit diesen geringen Preisen zu konkurrieren.

114 Zu den verschiedenen Rabattsystemen und ihren ökonomischen Wirkungen vgl. Inderst/ Schwalbe (200x).

2 Industrieökonomik

277

Entscheidend dafür, ob negative wettbewerbliche Wirkungen vorliegen, sind der Anteil an der insgesamt nachgefragten Menge, der in jedem Fall beim rabattgewährenden Unternehmen erworben würde, bzw. der Anteil, der ohne das Rabattsystem auch von anderen Unternehmen bedient werden kann. Dieser Anteil wird als der „bestreitbare“ Teil der Nachfrage bezeichnet. Weiterhin sind die Höhe des Rabatts, die Lage und die Höhe der Rabattschwellen sowie der relevante Zeitraum, innerhalb dessen der Rabatt gewährt wird, von wesentlicher Bedeutung. Ist der „bestreitbare“ Teil der Nachfrage, d.h. der Teil, der von anderen Unternehmen als dem rabattgewährenden bedient werden kann, gering, sind die Rabatte erheblich und ist der Zeitraum kurz, dann kann ein solches Rabattsystem negative wettbewerbliche Wirkungen entfalten, die denen einer Kampfpreissetzung nahekommen können. Führen derartige Rabatte also zu Preisen, die unterhalb der Grenz- oder durchschnittlichen Zusatzkosten liegen, dann könnte durch diese Form der Preisgestaltung ein Behinderungsmissbrauch gegeben sein. Dies gilt auch, wenn bei einem Gesamtumsatzrabatt sowohl Produkte involviert sind, für die das Unternehmen marktbeherrschend ist, als auch solche, bei denen es Wettbewerb ausgesetzt ist. In einer solchen Situation könnten durch einen Gesamtumsatzrabatt Marktschließungseffekte herbeigeführt werden.

2.6.2

Strategische Marktzutrittsschranken: Überschusskapazitäten

Neben den Behinderungsstrategien, die in erster Linie den Preis als strategisches Instrument einsetzen, können marktbeherrschende Unternehmen versuchen, einen Markteintritt als unattraktiv erscheinen zu lassen, indem sie eine große Produktionskapazität aufbauen, und damit drohen, eine so große Menge eines Gutes zu produzieren, so dass dessen Marktpreis auf das Niveau der Grenzkosten sinkt und eine weitere Produktion den Preis unter die Grenzkosten drücken würde. In diesem Fall könnte ein weiteres Unternehmen im Markt nur mit Verlusten arbeiten und würde daher von vornherein nicht in den Markt eintreten. Im Folgenden werden zwei Modelle vorgestellt, die erläutern, wie durch den Aufbau von Überkapazitäten unter bestimmten Voraussetzungen Markteintritte abgeschreckt werden können. Das erste Modell geht davon aus, dass dem Wettbewerber Eintrittskosten in Form versunkener Kosten entstehen, die das etablierte Unternehmen bereits aufgewendet hat, sodass dadurch eine Asymmetrie zwischen den Unternehmen besteht. Im zweiten Modell hingegen wird die Möglichkeit einer Eintrittsabschreckung durch den Aufbau von Kapazitäten für den Fall untersucht, in dem sich das etablierte Unternehmen durch den Aufbau von Produktionskapazitäten einen Vorteil bei den variablen Herstellungskosten verschaffen kann.

2.6.2.1 Kapazitätswahl mit Eintrittskosten Wir betrachten ein zweistufiges Spiel, in dem das etablierte Unternehmen in Stufe 1 seine Produktionskapazität k1 ∈ [0, ∞) und damit auch Produktionsmenge wählt. In Stufe 2 entscheidet Firma 2, ob sie in den Markt eintritt (k2 > 0) oder nicht (k2 = 0). Hinsichtlich ihrer Technologien sind beide Firmen identisch und es wird aus Vereinfachungsgründen

278

Ulrich Schwalbe

angenommen, dass die variablen Produktionskosten gleich null sind. Firma 2 hat jedoch, z.B. für Marktstudien etc. Eintrittskosten in Höhe von E zu zahlen. Die Preis-Absatz Funktion ist gegeben durch p(k1, k2) = 1 – k1 – k2. Die Gewinne für die Firmen 1 und 2 sind dann π1(k1, k2) = (1 – k1 – k2)k1 und

⎧⎪ (1− k1 − k2 )k1 − E π 2 (k1 ,k2 ) = ⎨ 0 ⎩⎪

bei Eintritt sonst

⎫⎪ . ⎬ ⎭⎪

In der zweiten Stufe nimmt Firma k1 = k1 als gegeben und wählt k2, um ihren Gewinn zu maximieren. Dabei können zwei Fälle auftreten: Firma 2 tritt in den Markt ein und zahlt die Eintrittskosten E, oder sie tritt nicht ein. Im ersten Fall wählt sie eine Kapazität k2, die die Bedingung erster Ordnung für ein Gewinnmaximum erfüllt. ∂π 1 (k1 ,k2 ) 1− k1 = 1− 2k2 − k1 = 0 ⇒ k2 = . ∂k1 2

In diesem Fall ist also das Unternehmen 1 Stackelberg-Führer gegenüber Unternehmen 2, das als Stackelberg-Folger agiert. Einsetzen dieser Menge in den Gewinn von Firma 2 ergibt 2

π2 =

⎛ 1− k1 ⎞ 1− k1 ⎛ 1− k1 ⎞ −E=⎜ 1− k1 − − E. 2 ⎜⎝ 2 ⎟⎠ ⎝ 2 ⎟⎠

Dieser Ausdruck ist positiv, wenn k1 0 sind. Tritt Firma 2 nicht in dem Markt ein, so gilt x2 = 0. Aufgrund der Unstetigkeit in der Grenzkostenfunktion von Firma 1 ergibt sich auch für eine gegebene Kapazität k1 eine Sprungstelle in ihrer Reaktionsfunktion für die zweite Stufe des Spiels, wie Abbildung 2.30 zeigt

284

Abb. 2.29 Grenzkostenfunktion bei Kapazität k1

Abb. 2.30 Unstetigkeit in der Reaktionsfunktion des etablierten Unternehmens

Ulrich Schwalbe

2

Industrieökonomik

285

Für Produktionsmengen x1 ≤ k1 sind die Grenzkosten ist c1 = 0 und es gilt die obere Reaktionsfunktion. Für Produktionsmengen x1 > k1 betragen die Grenzkosten c1 = c > 0 und es gilt die untere Reaktionsfunktion, denn für jede Menge x2 des Wettbewerbers wird jetzt eine geringere Menge angeboten, da die Grenzkosten höher sind: Bei steigenden Grenzkosten verschiebt sich die Reaktionsfunktion nach unten. Da Firma 2 immer mit den gleichen Grenzkosten c2 = c > 0 produziert, weist ihre Reaktionsfunktion x 2r (x1) keine Sprungstelle auf, sondern hat den üblichen Verlauf wie in Abbildung 2.31 dargestellt.

Abb. 2.31 Reaktionsfunktion der Firma 2

Betrachten wir Reaktionsfunktion von Firma 1 für sehr niedrige und sehr hohe Kapazitätsniveaus k1. Im ersten Fall liegt k1 links vom Schnittpunkt der unteren Kurve mit x 2r (x1), der Mengenkombination (x1, x2), die bei geringer Kapazität das Nash-Gleichgewicht G1 bilden würde. In diesem Fall wäre die gewählte Kapazität zu niedrig und Firma 1 könnte sich besser stellen, wenn sie stattdessen die Kapazität aufbauen würde, die dem Schnittpunkt G1 entspricht. Im zweiten Fall, bei einer sehr großen Kapazität k1 liegt diese rechts vom Schnittpunkt G2 der oberen Kurve mit x 2r (x1), dem Nash-Gleichgewicht bei hoher Kapazität. Die gewählte Kapazität wäre zu hoch, denn im Gleichgewicht G2 würde diese Kapazität nicht vollständig genutzt. Die Kapazität, die dem Gleichgewicht G2 entspricht, würde ausreichen. Eine größere Kapazität würde im Gleichgewicht nicht genutzt werden und stellt damit keine glaubwürdig Drohung dar.

286

Ulrich Schwalbe

Glaubwürdig sind daher nur solche Kapazitäten, die, wie in Abbildung 2.32 dargestellt zwischen den beiden Schnittpunkten der Reaktionskurven liegen:

Abb. 2.32 Bereich glaubwürdiger Kapazitäten 1

Die etablierte Firma kann durch Investition in Überkapazitäten im Sinne von Kapazitäten, die im Gleichgewicht nicht genutzt werden, einen Markteintritt nicht abschrecken. Derartige Überschusskapazitäten stellen daher keine glaubwürdige Drohung dar. Die gleichgewichtigen Mengenkombinationen, die zu den beiden Kapazitäten der Firma 1 gehören, werden im Folgenden mit (T1, T2) bzw. mit (V1, V2) bezeichnet. Wenn Firma 2 in den Markt eintritt, dann produziert Firma 1 mindestens T1 und höchstens V1. Dies ist aus Abbildung 2.33 ersichtlich. Man kann das Intervall der Mengen, die von Firma 1 in einem Gleichgewicht produzieren würde, weiter verkleinern, wie die folgende Überlegung zeigt. Wenn Firma 2 selbst dann nicht in den Markt eintritt, wenn Firma 1 den Output T1 produziert, dann ist ein Markteintritt bei höheren Angebotsmengen erst recht nicht lohnend. In diesem Fall bliebe Firma 1 Monopolist und würde den Monopoloutput M1 produzieren, den gewinnmaximalen Output für x2 = 0. Dies gilt aber auch dann, wenn der Wettbewerber in den Markt eintritt. Das etablierte Unternehmen, das ja seine Kapazität in Periode 1, also vor dem Eintritt des Wettbewerbers wählen kann, würde die Menge des Stackelberg-Führers produzieren. Wie in Abschnitt 2.3.3 gezeigt wurde wird ein Stackelberg-Führer die gleiche Menge produzieren wie ein Monopolist. Dies macht deutlich, dass die optimale Kapazitätswahl von Firma 1 zwischen M1 und V1 liegen muss, wie in Abbildung 2.34 dargestellt ist

2

Industrieökonomik

Abb. 2.33 Bereich glaubwürdiger Kapazitäten 2

Abb. 2.34 Bereich der optimalen Kapazitätswahl von Firma 1

287

288

Ulrich Schwalbe

Welche Kapazität Firma 1 wählt, hängt davon ab, in welchen Bereichen der Reaktionsfunktion R2 der Break-even-Output B des Wettbewerbers liegt. Es können insgesamt vier verschiedene Fällt auftreten, wie Abbildung 2.35 zeigt.

Abb. 2.35 Vier Bereiche des Break-even Output von Firma 2

Ist der Break-even-Output des Wettbewerbers größer als T2, liegt also links von T auf seiner Reaktionsfunktion (im Bereich Bl), dann ist ein Markteintritt niemals profitabel und Firma 2 würde nicht in den Markt eintreten und das etablierte Unternehmen produziert die Monopolmenge M1. Ist der Break-even-Output von Firma 2 kleiner als T2 aber größer als M2, liegt also im Bereich BS, würde Firma 1 ebenfalls die Monopolmenge bzw. die Angebotsmenge des Stackelberg-Führers produzieren und auch dann käme es zu keinem Markteintritt. Dieser Fall entspricht dem des blockierten Eintritts – das etablierte Unternehmen ändert sein Verhalten aufgrund der Existenz eines potentiellen Konkurrenten nicht. Die Monopolmenge reicht zur Eintrittsabschreckung aus. Ist der Break-even-Output des Wettbewerbers kleiner als V2, dann kann er kann bereits mit einer geringen Angebotsmenge im Duopol positive Gewinne erwirtschaften Liegt dieser Output im Bereich Bh, dann kann ein Markteintritt nicht verhindert werden. In diesem Fall wird das etablierte Unternehmen als Stackelberg-Führer agieren und den gewinnmaximalen Output M1 produzieren. Eine größere Menge als M1 zu produzieren, ist aufgrund der dadurch reduzierten Preise nicht profitabel. Der Wettbewerber wird zwar am Markteintritt nicht gehindert, aber in seiner Größe beschränkt, denn er muss die Position des Stackelberg-Folgers einnehmen.

2 Industrieökonomik

289

Im letzten Fall liegt der Break-even-Output des Wettbewerbers zwischen M2 und V2, z.B. im Punkt B*. In diesem Fall muss Firma 1 entscheiden, ob sie den Eintritt zulässt und die Menge des Stackelberg-Führers M1 produziert (und der Wettbewerber entsprechend die Menge M2), oder ob Firma 1 eine Kapazität von B1* installiert und den Eintritt dadurch abschreckt. Dies hängt von den Gewinnen des etablierten Unternehmens in den beiden Situationen ab. Ist der Gewinn bei B1* größer als bei M1, dann wird eine größere Kapazität eingesetzt als ohne das Vorhandensein eines potentiellen Konkurrenten, um ihn von einem Markteintritt abzuschrecken. Andernfalls produziert er den Monopoloutput, der Wettbewerber tritt in den Markt ein und es resultiert das von Stackelberg-Gleichgewicht. Diese Überlegungen machen deutlich, dass auch in diesem Modell die Existenz eines potentiellen Wettbewerbers zu einer Verhaltensänderung beim etablierten Unternehmen führen kann. Unter bestimmten Bedingungen wird ein etabliertes Unternehmen, um durch die Abschreckung eines Markteintritts seine Monopolstellung abzusichern, eine größere Kapazität aufbauen als ohne potentiellen Wettbewerb. Was jedoch die Wohlfahrtseffekte betrifft, so ist hier keine eindeutige Aussage möglich. Zwar würde bei einer Eintrittsabschreckung kein aktueller Wettbewerb stattfinden, aber aufgrund des Drucks durch den potentiellen Wettbewerb ist das etablierte Unternehmen gezwungen, eine größere Kapazität und damit Angebotsmenge zu wählen als ohne diesen Wettbewerbsdruck. Der Nettoeffekt sowohl auf die Konsumenten- als auch auf die volkswirtschaftliche Rente kann, abhängig von der konkreten Preis-Absatz-Funktion sowie den Kostenfunktionen, negativ aber auch positiv sein.

2.6.3

Kopplungsbindungen und die Übertragung von Marktmacht

In diesem Abschnitt wird eine weitere Form des Behinderungsmissbrauchs untersucht, die vor allem dann auftreten kann, wenn ein Unternehmen mehrere unterschiedliche Produkte herstellt und auf einem Markt über Marktmacht verfügt. Dieses Unternehmen könnte versuchen, durch eine Kopplungsbindung diese Marktmacht auf andere Märkte zu übertragen, indem er die Produkte nicht mehr einzeln, sondern nur noch zusammen als Bündel anbietet. In Abschnitt 2.2 wurde eine solche Strategie bereits im Zusammenhang mit der Preisdiskriminierung untersucht Im vorliegenden Fall ist der Zweck eines solchen Bundlings jedoch ein anderer: Wenn die Konsumenten gezwungen sind, beim Erwerb des monopolisierten Gutes das andere Gut automatisch ebenfalls zu erwerben, dann fallen diese Kunden als potentielle Nachfrager bei den anderen Herstellern des wettbewerblich hergestellten Gutes weg. Dies könnte letztlich dazu führen, dass diese Unternehmen aufgrund des Nachfragerückgangs gezwungen sind, den Markt zu verlassen. Die Kopplungsbindung hätte dann dazu geführt, dass Marktmacht von einem Markt auf einen anderen übertragen wurde. Dieses plausible Argument wurde jedoch von der Chicago-School, deren Vertreter die Ansicht vertraten, dass ein Marktsystem der am besten geeignete Mechanismus sei, eine effiziente Allokation zu gewährleisten, heftig kritisiert, mit dem Hinweis, dass ein

290

Ulrich Schwalbe

Monopolgewinn nur einmal gemacht werden könne.115 Dieses Argument sei an folgendem Beispiel erläutert. Angenommen, die Konsumenten sind bereit, für zwei Produkte A und B, die im gleichen Verhältnis konsumiert werden, zusammen maximal 10 € zu bezahlen. Gut B wird auf einem Wettbewerbsmarkt zu einem Preis von 2 € in Höhe der Grenzkosten angeboten. Unternehmen kann für das Produkt A, das mit Grenzkosten von 4 € produziert wird, einen Monopolpreis von 8 € verlangen und damit die gesamte Zahlungsbereitschaft der Konsumenten für die beiden Güter abschöpfen. Der Gewinn des Monopolisten beträgt in diesem Fall 4 €. Würde das Unternehmen das Gut B an das Gut A koppeln und beide Güter nur noch zusammen verkaufen, dann könnte es für beide Güter einen Gesamtpreis von 10 € verlangen. Abzüglich der Grenzkosten von 4 € für Gut A und 2 € für Gut B verbliebe ihm auch mit einer Kopplungsbindung der gleiche Gewinn von 4 €. Offensichtlich gibt es keinen Grund für eine solche Kopplungsbindung. Ein Monopolgewinn kann nur einmal realisiert werden und Monopolmacht kann nicht in andere Märkte übertragen werden. Wenn also Kopplungsbindungen beobachtet werden, dann, so die Vertreter der Chicago-School, hat dies vor allem Effizienzgründe, wie z.B. die Verringerung von Transaktionskosten etc. Allerdings basiert diese Argumentation auf einer Reihe restriktiver Annahmen. So wird erstens unterstellt, dass der Monopolist in der Lage ist, die gesamte Zahlungsbereitschaft der Käufer des monopolistischen Gutes abzuschöpfen. Zweitens wird angenommen, dass die Güter in einem festen Verhältnis konsumiert werden. Schließlich wird drittens davon ausgegangen, dass auf dem Zielmarkt, auf den die Monopolmacht übertragen werden soll, vollkommener Wettbewerb herrscht. Diese Annahmen sind jedoch in vielen Fällen nicht erfüllt, sodass durch eine Kopplungsbindung Marktmacht von einem Markt auf einen anderen übertragen werden kann. Wenn z.B. ein Monopolist nicht in der Lage ist, die gesamte Zahlungsbereitschaft für sein Monopolprodukt A abzuschöpfen, also keine vollkommene Preisdiskriminierung betreiben kann, dann kann sich eine Kopplungsbindung als sinnvoll, d.h. gewinnerhöhend erweisen, selbst wenn diese Güter unabhängig voneinander sind, d.h. weder als Komplemente noch Substitute betrachtet werden können. Angenommen, das Produkt B wird auf einem Wettbewerbsmarkt zu einem Preis in Höhe der Grenzkosten angeboten und der Monopolist für Gut A erwägt, dieses Produkt an das Gut B zu koppeln, wobei er sowohl für Gut A also auch für Gut B einen bestimmten Preis festlegt. Der Monopolist könnte den Preis des Gutes B über den Wettbewerbspreis anheben, was zu einer Verringerung der Konsumentenrente bei den Käufern führen würde, die das Gut vom monopolitischen Unternehmen kaufen. Alternativ könnten die Konsumenten das Gut B zum günstigeren Wettbewerbspreis erwerben, müssten dann aber auf das Gut A verzichten. Wenn jedoch die Konsumentenrente, die die Nachfrager beim Erwerb des Gutes A erhalten, größer ist als der Verlust an Konsumentenrente, den sie beim Kauf des Gutes B zu einem höheren Preis als dem Wettbewerbspreis erleiden, dann könnten sie sich durch den Erwerb des Bündels besserstellen im Vergleich zur Situation, in der sie nur das Gut B 115

Vgl. z.B. Director/Levi (1956).

2 Industrieökonomik

291

zum niedrigeren Wettbewerbspreis kaufen. Dies macht deutlich, dass ein Unternehmen, das ein Monopol auf ein Gut hat, in vielen Fällen in der Lage ist, durch eine Kopplungsbindung diese Marktmacht, zumindest partiell zu übertragen und dadurch insgesamt höhere Gewinne erzielen kann. Dies wäre im dargestellten Fall mit einem gesamtwirtschaftlichen Wohlfahrtsverlust verbunden.

2.6.4

Empirische und experimentelle Evidenz

2.6.4.1

Empirische Evidenz zu Kampfpreisen, Limit Pricing und missbräuchlichen Rabattsystemen Frühe Untersuchungen zu Kampfpreisen, wie z.B. McGee (1958, 1964), Adelman (1966) oder Elzinga (1970) kamen zu dem Ergebnis, dass sich Kampfpreise empirisch nicht nachweisen lassen.116 Neuere Ansätze kommen bezüglich der Wirksamkeit von Kampfpreisen jedoch zu anderen Resultaten.117 So zeigt Burns (1986) mittels Regressionsanalysen, dass die American Tobacco Company im Zeitraum von 1891-1906 erfolgreich Kampfpreise einsetzte, um Wettbewerber entweder vom Markt zu vertreiben oder sie zu günstigeren Konditionen übernehmen zu können. So hat eine Reputation für Kampfpreissetzung dazu geführt, das die Preise für Übernahmekandidaten um ca. 20\% gefallen sind. Weiman/ Levin (1994) fanden Evidenz dafür, dass die Telefongesellschaft Southern Bell Company im Zeitraum von 1894 bis 1912 unmittelbar vor einem drohenden Marktzutritt niedrige Preise verlangte und nach erfolgtem Markteintritt die Preise sogar noch weiter reduziert hat. Eine Untersuchung von Scott Morton (1997) hat ergeben, dass Zusammenschlüssen von Linienreedereien, so genannte Schiffahrtskonferenzen, nach einem Markteintritt eines Wettbewerbers in mehreren Fällen Kampfpreise gesetzt haben, durch die das eintretende Unternehmen gezwungen war, den Markt wieder zu verlassen. Ein direkter Vergleich von Grenzkosten und Preisen für die Zuckerindustrie zu Beginn des 20. Jahrhunderts, der von Genesove/Mullin (2006) durchgeführt wurde, hat deutlich gemacht, dass in bestimmten Zeiträumen Preise unterhalb der Grenzkosten verlangt wurden und dass in diesen Perioden die Gewinnmargen geringer waren als bei Wettbewerb. Weiterhin ergab sich, dass es nach solchen Perioden vermehrt zu Übernahmen von Wettbewerbern zu vergleichsweise niedrigen Preisen kam. Empirische Analysen von Limit Pricing als Instrument der Markteintrittsabschreckung stehen vor dem Problem, dass die vorhandenen Daten nur Unternehmen enthalten, die in der entsprechenden Industrie tätig waren, also einmal in den Markt eingetreten sind. Empirisch ist daher der Nachweis einer wirkungsvollen Markteintrittsabschreckung schwierig, wenn Daten über erfolgte Marktzutritte verwendet werden. Diese Probleme gelten in gleicher Weise auch für empirische Untersuchungen anderer Instrumente der Markteintrittsabschreckung. Zu Limit Pricing sind vor allem Fallstudien vorgelegt worden 116 117

Zu den frühen Untersuchungen zu Kampfpreisen vgl. Koller (1971). Eine Übersicht über die empirischen Untersuchungen zu Kampfpreisen gibt Kobayashi (2010).

292

Ulrich Schwalbe

wie z.B. Blackstone (1972). Allerdings zeigt sich, dass die theoretischen Modelle der Eintrittsabschreckung wesentliche Aspekte unberücksichtigt lassen. So weist Geroski (1995) darauf hin, dass in vielen Fällen nicht der Preis das entscheidende Instrument war, sondern andere Marketingmaßnahmen. Daher haben auch Untersuchungen, die versucht haben, die Verwendung von Limit Pricing empirisch nachzuweisen, wie z.B. Hannan (1979), Masson/Shaanan (1982), Sengupta/Leonard/Vango (1983), Yamawaki (1985) oder Lieberman (1988) zu keinen eindeutigen Resultaten geführt. Neuere Untersuchungen insbesondere im Bereich der Luftfahrtindustrie, wie z. B. Goolsbee/Syverson (2008) oder Gedge/Roberts/Sweeting (2014) kommen jedoch zu dem Ergebnis, dass es deutliche Evidenz für die Verwendung von Limit Pricing Strategien in diesem Sektor gibt. Zu den Wirkungen von Rabattsystem sind bislang kaum empirische Untersuchungen vorgelegt worden. In einer aktuellen Analyse zum US-amerikanischen Markt für Schokoriegel zeigen Conlon/Mortimer (2015), dass Treuerabatte sowohl effizienzerhöhende Wirkungen haben, aber gleichzeitig auch zu einer Marktverschließung führen. Insgesamt hat die empirische Untersuchung gezeigt, dass jedoch die positiven Effekte überwiegen und die Wohlfahrt durch diese Rabattsystem zugenommen hat.

2.6.4.2

Empirische Evidenz zu Überschusskapazitäten und Kopplungsbindungen Empirische Untersuchungen der Frage, ob Überschusskapazitäten als Instrument der Markteintrittsabschreckung fungieren können, stehen vor ähnlichen Problemen wie sie bei der Überprüfung von Limit Pricing auftreten. Aus diesem Grunde konnten frühe Untersuchungen nicht überzeugend nachweisen, dass Überschusskapazitäten als wirksames Instrument zur Markteintrittsabschreckung fungieren können (Lieberman (1987). Aktuellere Studien haben versucht, diese Probleme dadurch zu lösen, indem sie versuchen, zwischen den strategischen Reaktionen der etablierten Unternehmen auf einen drohenden Markteintritt und den Reaktionen auf einen erfolgten Markteintritt zu unterscheiden (Dafny (2005), Conlin/Kadiyali (2006), Cookson (2015), Ellison/ Ellison (2011)). So zeigen z.B. Conlin/Kadiyali, dass im texanischen Hotelmarkt der Aufbau von Überschusskapazitäten als Instrument zur Markteintrittsabschreckung eingesetzt wird. Dabei findet man ein solches Verhalten eher bei größeren als bei kleineren Unternehmen und es tritt stärker in konzentrierten Märkten auf. Cookson kommt im Rahmen einer Untersuchung des amerikanischen Marktes für Spielcasinos zu dem Ergebnis, dass bestehende Casinos auf einen potentiellen Markteintritt eines Konkurrenten mit einer Vergrößerung der eigenen Kapazitäten reagieren. Zu den Gründen weshalb Unternehmen Kopplungsbindungen verwenden und zu den Auswirkungen dieser Strategien wurde von Evans/Salinger eine Reihe von empirischen Untersuchungen durchgeführt (Evans/Salinger (2005, 2006, 2008)). Im Fokus standen dabei Produkte wie rezeptfreie Schmerzmittel, Erkältungsmedizin, Adapter für Netzstecker sowie Sonderausstattungen bei Mittelklasse-Kraftfahrzeugen. Se kommen zu dem Ergebnis, dass Kopplungsbindungen, insbesondere auf Wettbewerbsmärkten vor allem deswegen verwendet werden, weil dadurch Kosten eingespart werden können.

2 Industrieökonomik

293

Kopplungsbindungen führen also in diesen Fällen zu erhöhter Effizienz. Evans/Salinger fanden keine Anzeichen dafür, dass in den betrachteten Fällen Kopplungsbindungen eingesetzt wurden, um bestehende Marktmacht auf einen anderen Markt zu übertragen.

2.6.4.3 Experimentelle Evidenz zu missbräuchlichen Praktiken Experimente zu Kampfpreisen, die einen Wettbewerber vom Markt vertreiben oder einen Marktzutritt verhindern sollen, wurden von Issac/Smith im Rahmen eines Ansatzes mit zwei Unternehmen bereits 1985 durchgeführt. Dabei unterschieden sich die beiden Unternehmen hinsichtlich ihrer Größe, wobei das letztere über größere finanzielle Ressourcen verfügte. Darüber hinaus traten bei einem Marktzutritt versunkene Kosten auf und es gab Beschränkungen hinsichtlich des Wiedereintritts in den Markt. Obwohl die Bedingungen für Kampfpreise sehr günstig waren, zeigten die Ergebnisse der Experimente, dass es nicht zu Kampfpreissetzungen kam. In einer Erweiterung dieses Ansatzes hat Harrison (1988) ein Experiment durchgeführt, in dem ein monopolistisches Unternehmen potentiellen Wettbewerbern auf mehreren Märkten gegenüber stand. Hier ergab sich eine wenn auch schwache Evidenz für die Verwendung von Kampfpreisstrategien. In einer Wiederholung der Experimente von Harrison konnten Gomez/Goeree/Holt (2008) keine Evidenz für Kampfpreise nachweisen. Zum Modell von Kreps/Wilson (1982) zu Limit Pricing wurde Experimente sowohl von Jung/Kagel/Levin (1994) als auch Cooper/Garvin/Kagel (1997a, 1997b) durchgeführt. In den Experimenten von Jung/Kagel/Levin zeigte sich, dass schwache etablierte Unternehmen häufig Limit-Preise setzten und dadurch einen Markteintritt verhindern konnten. Zwar waren einige der Resultate nicht konsistent mit dem Modell von Kreps/ Wilson, aber es ergaben sich erhebliche Reputationseffekte. Durch die Experimente von Cooper/Garvin/Kagel wurden diese Resultate bestätigt: auch hier zeigte sich, dass strategisches Setzen niedriger Preise zur Eintrittsabschreckung auftrat. Experimente zu den wettbewerblichen Wirkungen missbräuchlicher Rabattsysteme haben gezeigt, dass diese Rabattsysteme dazu beitragen, die Loyalität zu einem Produkt zu erhöhen und dadurch auch Marktverschließungseffekte herbeiführen können (Beckenkamp/Maier-Rigaud (2006), Morell/Gloeckner/Towfigh (2009) und Bruttel (2013)). Die erste experimentelle Untersuchung des Dixit-Modells zu Überschusskapazitäten als Instrument zur Markteintrittsabschreckung wurde von Mason/Nowell (1998) vorgelegt. In ihrer Studie zeigte sich, dass Investitionen in Überschusskapazitäten häufig eingesetzt wurden und dies im Zeitablauf sogar noch zunahm. Ein gewisser Anteil der Teilnehmer hat jedoch von ihrem Anzugsvorteil, zuerst in Kapazitäten investieren zu können, keinen Gebrauch gemacht. Eine weitere Untersuchung von Brandts/Chabrales/ Charness (2007) zeigt, dass auch in dem Fall, in dem das eintretende Unternehmen sich vor dem Marktzutritt zumindest teilweise an den Aufbau von Produktionskapazitäten binden kann. Theoretisch würde im Gleichgewicht ein Unternehmen als Monopolist agieren und das andere die Produktion einstellen, wobei eine Vorwärtsinduktion das Gleichgewicht prognostiziert, in dem das eintretende Unternehmen den Markt monopolisiert. Im

294

Ulrich Schwalbe

Experiment stellte sich jedoch heraus, dass das etablierte Unternehmen drei mal häufiger den Markt monopolisiert als das eintretende Unternehmen. Experimentelle Untersuchungen zu den Wirkungen von Kopplungsbindungen, insbesondere zu den Möglichkeiten, Marktmacht von einem Markt auf einen anderen Markt zu übertragen, sind eine Reihe von Experimenten durchgeführt worden (Caliskan et al. (2007), Muris/Smith (2008) sowie Hinloopen/Müller/Normann (2014)), in denen die theoretischen Voraussetzungen für die Möglichkeiten einer solchen Marktmachtübertragung nachgebildet wurden. Die Ergebnisse sind jedoch ambivalent. Während die Experimente von Caliskan et al. sowie von Muris/Smith zum dem Ergebnis kamen, dass Kopplungsbindungen keine negativen Auswirkungen auf den Wettbewerb und die Wohlfahrt hatten, zeigte das von Hinloopen/Müller/Normann durchgeführte Experiment im Rahmen eines Cournot-Modells, dass Kopplungsbindungen in der Tat als ein Selbstbindungsmechanismus fungieren können, der es ermöglicht, Marktmacht von einem Markt auf einen anderen zu übertragen.118 Insgesamt gesehen zeigen sowohl die empirischen als auch die experimentellen Untersuchungen zu missbräuchlichem Verhalten marktbeherrschender Unternehmen, hinsichtlich der Auswirkungen dieser Praktiken, wie sie in den theoretischen Modellen hergeleitet wurden, eine gemischte Evidenz.

2.7

Vertikale Fusionen und Restriktionen

Üblicherweise werden Güter nicht nur von einem Unternehmen hergestellt und direkt an die Endverbraucher verkauft, sondern eine Vielzahl von Unternehmen auf miteinander verbundenen Wirtschaftsstufen ist an diesem Prozess beteiligt. Rohstoffproduzenten und Hersteller von Maschinen und Vor- bzw. Zwischenprodukten liefern ihre Güter und Leistungen an die Konsumgüterproduzenten, die ihre Güter meist über Groß- und Einzelhändler an die Endverbraucher verkaufen. In einer solchen Wertschöpfungskette leisten die Unternehmen auf jeder Stufe einen Beitrag zu der letztlich dem Verbraucher angebotenen Gesamtleistung. Auf jeder Wirtschaftsstufe stehen die Unternehmen jeweils in horizontalem Wettbewerb miteinander, zum einen als Anbieter ihrer Leistungen an die nachgelagerte Wirtschaftsstufe (Downstream) und zum anderen als Nachfrager der Leistungen der vorgelagerten Stufe (Upstream). Dieser Abschnitt beschäftigt sich mit der Frage, welche Ursachen und welche Auswirkungen Unternehmenszusammenschlüsse und vertragliche Vereinbarungen zwischen Firmen verschiedener Wirtschaftsstufen, d.h. vertikale Fusionen und Vereinbarungen haben wie diese wohlfahrtsökonomisch zu beurteilen sind. Im ersten Teil werden die Auswirkungen vertikaler Zusammenschlüsse näher analysiert, wobei Der experimentelle Ansatz von Muris/Smith wurde jedoch von Greenlee/Reitman/Sibley, den Autoren eines theoretischen Modells zur Übertragung von Marktmacht durch Kopplungsbindungen deutlich kritisiert (Greenlee/Reitman/Sibley (2011)). 118

2 Industrieökonomik

295

insbesondere auf die effizienzerhöhenden und die wettbewerbsbeschränkenden Effekte eingegangen wird. Hier wird auf das Problem der doppelten Marginalisierung eingegangen und es werden Marktverschließungseffekte vertikaler Zusammenschlüsse diskutiert. Im Anschluss daran werden weitere vertikale Vereinbarungen wie z.B. Preisbindungen, Ausschließlichkeitsbindungen und missbräuchliche Praktiken wie z.B. die Preis-KostenSchere analysiert.

2.7.1

Doppelte Marginalisierung

Ein zentrales Problem in vertikalen Strukturen, in denen sowohl auf der Upstream- als auch auf der Downstream-Ebene unvollkommener Wettbewerb herrscht, ist das des doppelten Preisaufschlags bzw. der doppelten Marginalisierung. Ein Unternehmen, das den Preis für sein Produkt autonom festlegt, berücksichtigt nicht, dass dies Auswirkungen auf das Unternehmen auf der anderen Stufe der Wertschöpfungskette hat. Am einfachsten kann man dieses Problem anhand zweier aufeinander folgender Monopole deutlich machen. Gegeben sei ein monopolistischer Upstream-Anbieter, der Hersteller, der ein Produkt an einen monopolistischen Händler verkauft. Der Hersteller produziert das Gut mit konstanten Grenzkosten c und verkauft es dem Händler zum Großhandelspreis r. Der Händler verkauft das Produkt an den Endverbraucher zum markträumenden Preis p. Aus Vereinfachungsgründen wird angenommen, dass dem Händler keine weiteren Kosten entstehen. Die Nachfrage der Konsumenten ist beschrieben durch die lineare Preis-Absatz Funktion p(x) = a – bx mit a > c. Da der Händler eine bestimmte Menge des Gutes zum Großhandelspreis r kauft und diese Menge an die Konsumenten zum Endpreis p weiterverkauft, kann der Gewinn des Händlers geschrieben werden als πd(x, r) = (p(x) – r)x = (a– bx)x – rx. Die gewinnmaximale Menge des Händlers xd folgt aus der Bedingung erster Ordnung des Gewinnmaximierungsproblems und beträgt xd =

a−r . 2b

Einsetzen in die Preis-Absatz-Funktion ergibt den markträumenden Endverkaufspreis pd =

a+r . 2b

296

Ulrich Schwalbe

Dies ergibt einen Gewinn für den Händler in Höhe von πd =

(a + r)2 . 4b

Der Preis, den der Händler setzt, hängt vom Großhandelspreis r ab, den der Hersteller verlangt. Damit beeinflusst der Großhandelspreis r auch die Menge, die der Händler absetzt und die der Menge entspricht, die der Hersteller dem Händler verkaufen kann. Zum Endverbrauchspreis pd = (a + r)/2 verkauft der Händler die Menge xd = (a – r)/2b des Gutes. Diese Menge entspricht aber auch der Menge, die der Hersteller an den Händler verkauft hat. Daher gibt die Funktion xd = (a – r)/2b gleichzeitig die Nachfragefunktion an, der sich der Hersteller gegenübersieht, wenn er den Großhandelspreis r verlangt. Die inverse Nachfragefunktion, der sich der Hersteller gegenübersieht entspricht also der Grenzerlösfunktion des Händlers bei einem Großhandelspreis r, und ist gegeben durch r(x) = a – 2bx. Mit der Grenzerlösfunktion des Händlers r(x) = a – 2bx kann nun der gewinnmaximale Preis bestimmt werden, den der Hersteller für sein Produkt verlangt. Bei diesem Preis gilt „Grenzerlös gleich Grenzkosten“. Die Grenzerlösfunktion des Herstellers ist GEu = a – 4bx Gleichsetzen mit den Grenzkosten c des Herstellers ergibt die gewinnmaximale Menge. Damit ist auch der gewinnmaximale Großhandelspreis gegeben. Die optimale Menge und der optimale Preis sind dann xu =

a−c a+c und ru = . 4b 2

Wenn der Hersteller den Großhandelspreis ru = (a + c)/2 verlangt, dann wird der Händler einen Preis in Höhe von pd = (3a + c)/4 verlangen. Der Händler setzt dann die Menge xd = (a - c)/4b ab. Dies entspricht genau der vom Hersteller erwarteten Menge bei diesem Großhandelspreis. Sein Gewinn ist gegeben durch πu = (a - c)2/8b und der Gewinn des Händlers beträgt πd = (a - c)2/16b. Der gesamte Gewinn beider Firmen ist πu + πd = 3(a - c)2/16b. Graphisch ist diese Situation in Abbildung 2.36 dargestellt. Beide Unternehmen nutzen ihre jeweilige monopolistische Position auf dem Upstreambzw. dem Downstream-Markt, um einen Preisaufschlag auf ihre Grenzkosten durchzusetzen. Allerdings berücksichtigen sie dabei nicht, dass z.B. ein hoher Großhandelspreis einen noch höheren Einzelhandelspreis und damit eine sehr geringe Absatzmenge zur Folge hat. Es liegt hier ein pekuniärer externer Effekt vor, der als „doppelter Preisaufschlag“ oder „doppelte Marginalisierung“ bezeichnet wird, da von beiden Unternehmen der Preis nach der Regel „Grenzerlös gleich Grenzkosten“ gesetzt wird. Betrachten wir nun die Auswirkungen eines vertikalen Zusammenschlusses der beiden Unternehmen. In diesem Fall ist der Hersteller nicht mehr unabhängig ist, sondern nur noch der Produktionsbetrieb eines integrierten Unternehmens. Das Gut wird weiterhin mit konstanten Grenzkosten c hergestellt. Die einzige strategische Frage, die sich dem

2

Industrieökonomik

297

Abb. 2.36 Doppelte Marginalisierung

integrierten Unternehmen nun stellt ist die, welchen Preis die Firma von den Konsumenten verlangen soll. Dies macht aus dem integrierten Unternehmen ein einfaches Monopol, das seinen Gewinn maximieren möchte. Dieser Gewinn ist gegeben durch π1 = (p(x) – c)x – cx = (a– bx)x – cx. Aus der Bedingung erster Ordnung für das Gewinnmaximierungsproblem des integrierten Unternehmens ergibt sich die gewinnmaximale Menge x1 =

a−c 2b

und durch Einsetzen Gleichgewichtspreis p1 =

in

die

inverse

Nachfragefunktion

der

entsprechende

a + c 3a + c < = pd . 2 4

Der gewinnmaximale Einzelhandelspreis, den die integrierte Firma verlangt, ist geringer als der eines unabhängigen Händlers. Daher wird das fusionierte Unternehmen eine größere Menge verkaufen als die beiden unabhängigen Firmen. Darüber hinaus erwirtschaftet das integrierte Unternehmen einen höheren Gewinn als die beiden unabhängigen Firmen zusammen. Der Gewinn des integrierten Unternehmens beträgt π1 =

(a − c)2 . 4b

298

Ulrich Schwalbe

Der Gewinn des unabhängigen Herstellers und des unabhängigen Händlers betragen zusammen πu +πd =

3(a − c)2 . 16b

Graphisch kann man sich dieses Ergebnis anhand der Abbildung 2.37 verdeutlichen.

Abb. 2.37 Gewinne vor und nach einer vertikalen Fusion

Durch den vertikalen Zusammenschluss des Herstellers und des Händlers ist der Gesamtgewinn beider Unternehmen deutlich gestiegen. Der Grund dafür ist die Internalisierung des pekuniären externen Effekts bzw. die Vermeidung der doppelten Marginalisierung. Während bei unabhängigen Unternehmen ein doppelter Preisaufschlag stattfand, der zu einem extrem hohen Endverkaufspreis und einer sehr geringen Absatzmenge geführt hat, findet nach dem Zusammenschluss nur noch ein Preisaufschlag statt, der Endverkaufspreis sinkt, die abgesetzte Menge steigt und auch der Gewinn des integrierten Unternehmens wächst. Wohlfahrtsökonomisch gesehen hat der Zusammenschluss der beiden Monopolisten jedem genutzt: Sowohl Konsumenten- als auch Produzentenrente sind gestiegen, d.h. der Zusammenschluss hat zu einer Pareto-Verbesserung geführt. Das Problem der doppelten Marginalisierung ist strategisch äquivalent zum Fall zweier monopolistischer Hersteller komplementärer Güter, wie man sich anhand eines einfachen stilisierten Beispiels deutlich machen kann. Um einen Computer nutzen zu können, ist sowohl Hardware als auch Software erforderlich. Beide Güter sind daher vollständige Komplemente. Unabhängige monopolistische Hard- und Softwarehersteller werden

2 Industrieökonomik

299

bei ihrer Preisgestaltung nicht berücksichtigen, dass ein hoher Preis für Hardware bzw. Software auch dazu führt, dass nur wenig Software bzw. Hardware verkauft wird, d.h. es liegen pekuniäre externe Effekte zwischen den beiden Unternehmen vor. Durch einen Zusammenschluss würde diese Externalitäten internalisiert und die Auswirkungen der Preisgestaltung auf das jeweils andere Unternehmen würden berücksichtigt. Es würde für beide Produkte geringere Preise verlangt, größere Mengen würden verkauft und auch die Gewinne der Unternehmen würden zunehmen. Diese positive Änderung des Marktergebnisses durch einen Zusammenschluss von Herstellern komplementärer Güter wird in der Literatur als „Cournot-Effekt“ bezeichnet. Allerdings ist zu beachten, dass dieses Ergebnis wesentlich davon abhängt, dass die beiden beteiligten Firmen über Marktmacht verfügen und Preise oberhalb der Grenzkosten setzen können. Würde auf der Upstream- oder Downstream-Ebene stattdessen entweder vollkommener Wettbewerb oder einen Bertrand-Wettbewerb herrschen, dann gäbe es keine Vorteile durch eine vertikale Integration. So führt z.B. Preiswettbewerb auf der Upstream-Ebene dazu, dass das Produkt zu Großhandelspreis in Höhe der Grenzkosten verkauft wird, d.h. es gilt dann r = c. Vollkommender Wettbewerb auf der DownstreamEbene eliminiert den Preisaufschlag der Händler und für den Einzelhandelspreis gilt pd = r. In beiden Fällen resultiert das gleiche Marktergebnis wie im oben dargestellten Fall der integrierten Monopolisten. Ein weiterer wichtiger Aspekt des Modells besteht darin, dass der Händler mit einem festen Faktoreinsatzverhältnis operiert. Für jede Einheit Output verwendet der Händler genau eine Einheit des Inputs. Im hier verwendeten Beispiel ist eine solche Annahme sinnvoll, denn für jede Einheit, die der Händler verkauft, benötigt er genau eine Einheit des Gutes vom Hersteller. In anderen Situationen wäre diese Annahme jedoch zu restriktiv. Wenn es sich zum Beispiel beim Upstream-Unternehmen um einen Stahlproduzenten handelt und bei der Downstream-Firma um einen Automobilhersteller, dann führt die Entscheidung des Stahlproduzenten, für eine Einheit Stahl einen bestimmten Preis r zu verlangen, unter Umständen dazu, dass der Automobilhersteller Stahl durch Aluminium oder Fiberglas substituiert, die vielleicht auf Wettbewerbsmärkten angeboten werden. In einem solchen Fall sind die positiven Effekte eines Zusammenschlusses des Stahlproduzenten mit dem Automobilhersteller nicht offensichtlich.

2.7.2

Vertikale Zusammenschlüsse bei mehreren Upstream- und Downstream-Firmen – Marktverschließungseffekte

Im folgenden Abschnitt wird die Analyse auf den Fall erweitert, in dem es auf beiden Ebenen der Wertschöpfungskette jeweils mehrere Unternehmen gibt. In einer solchen Situation kann ein vertikaler Zusammenschluss von zwei Unternehmen unter Umständen negative Auswirkungen auf die verbleibenden unabhängigen Upstream- und DownstreamUnternehmen haben. Dabei wird der einfachste Fall betrachtet, in dem es jeweils zwei Unternehmen auf jeder Stufe der Wertschöpfungskette gibt, die Unternehmen A und B auf

300

Ulrich Schwalbe

der Upstream-Ebene und die Unternehmen 1 und 2 downstream. Graphisch kann man eine Industrie mit zwei Upstream- und zwei Downstream-Unternehmen wie im linken Diagramm in Abbildung 2.38 darstellen.

Abb. 2.38 Industriestruktur vor und nach einem vertikalen Zusammenschluss

Schließen sich nun die Firmen A und 1 zu einem integrierten Unternehmen A1 zusammen, so ändert sich die Industriestruktur wie im rechten Diagramm der Abbildung 2.38 dargestellt. Es verbleiben nun nur noch die beiden unabhängige Unternehmen B und 2, deren Wettbewerbsposition unter bestimmten Bedingungen durch das integrierte Unternehmen negativ beeinflusst werden kann. So könnte das integrierte Unternehmen sich entschließen, Inputs nur zu einem überhöhten Preis an 2 zu verkaufen oder das Unternehmen 2 überhaupt nicht zu beliefern. Dies würde dazu führen, dass Firma 2 seinen gesamten Inputbedarf bei Firma B (oder gegebenenfalls weiteren Upstream-Firmen) decken muss. Wenn diesen Unternehmen den Input nicht in vollem Umfang, der erforderlichen Qualität oder, z.B. aufgrund abnehmender Skalenerträge in der Produktion, nur zu höheren Preisen liefern könnten, dann hat sich die Wettbewerbsposition des unabhängigen Unternehmens 2 auf dem Downstream-Markt gegenüber dem integrierten Unternehmen A1 verschlechtert. Im Extremfall könnte dies dazu führen, dass das Unternehmen 2 den Markt verlassen muss. Man spricht in diesem Fall von einer Marktverschließung (Foreclosure) in Form einer Input-Foreclosure. Alternativ könnte das integrierte Unternehmen sich weigern, Inputs vom unabhängigen Upstream-Unternehmen B zu kaufen und stattdessen all seine Inputerfordernisse unternehmensintern zu decken. Dies würde für B, wenn Unternehmen 1 vor dem Zusammenschluss ein wichtiger Abnehmer für B war, den Wegfall eines Großkunden bedeuten und das Unternehmen in Schwierigkeiten bringen. Diese Art

2 Industrieökonomik

301

der Marktverschließung wird in der Literatur als Customer-Foreclosure bezeichnet. Dabei kann natürlich auch der Fall eintreten, dass das integrierte Unternehmen beider Arten der Marktverschließung gleichzeitig anwendet. Im Folgenden werden diese Überlegungen zur Marktverschließung anhand einfacher Modelle mit einem Duopol sowohl upstream als auch downstream verdeutlicht. Dabei ist von wesentlicher Bedeutung, welche Art von oligopolistischem Wettbewerb auf dem Upstream- bzw. Downstream-Markt herrscht. Wie bereits in Abschnitt 3 dargelegt, resultieren in einem oligopolistischen Markt sehr unterschiedliche Ergebnisse, je nachdem, ob dort eher Preiswettbewerb (Bertrand) oder Mengenwettbewerb (Cournot) herrscht. So kann man sich leicht davon überzeugen, dass bei Bertrand-Wettbewerb mit homogenen Gütern auf beiden Märkten die Gewinne vor und nach dem Zusammenschluss gleich Null sind – ein vertikaler Zusammenschluss hätte dann keinerlei Auswirkungen auf das Marktergebnis. Um das Modell etwas interessanter zu machen, wird im Weiteren unterstellt, dass der Upstream-Markt durch Bertrand-Wettbewerb gekennzeichnet ist, während im Downstream-Markt Cournot-Wettbewerb herrscht.119 Dabei wird von einer linearen Preis-Absatzfunktion für das Endprodukt ausgegangen, die gegeben ist durch p(X) = a – x1 – x2, wobei X = x1 + x2. Die beiden Downstream-Firmen 1 und 2 produzieren mit konstanten Grenzkosten c1 und c2 und konkurrieren mit ihren Angebotsmengen. Die Grenzkosten sind dabei durch den Preis für eine Einheit des in der Produktion eingesetzten Inputs gegeben. Aus der Analyse des Cournot-Modells mit heterogenen Firmen ist bekannt, dass die Mengen im Cournot-Nash Gleichgewicht gegeben sind durch x1* =

a − 2c1 + c2 a − 2c2 + c1 und x 2* = . 3 3

Die Gesamtmenge im Downstream-Markt und das entsprechende Preisniveau sind X * = x1* + x 2* =

2a − c1 − c2 a + c1 + c2 und p* = a − bX * = . 3 3

und der Gleichgewichtspreis beträgt p* = a − X * =

a + c1 + c2 . 3

Im Upstream-Markt gilt im Bertrand-Nash-Gleichgewicht, dass die Unternehmen den Preis gleich den Grenzkosten setzen. Dabei wird vereinfachend angenommen, dass die Grenzkosten gleich null sind. Dann erhalten wir für den Upstream-Markt die gleichgewichtigen Preise und Gewinne pA = pB = 0 und πA = πB = 0. Vgl. Salinger (1988) sowie Ordover/Saloner/Salop (1990). Die folgende Darstellung folgt Shy (1995), S.176ff.

119

302

Ulrich Schwalbe

Da die Grenzkosten der Downstream-Unternehmen dem Preis des Zwischenprodukts als ihrem Input entsprechen, sind auch sie gleich Null. Daher folgt für den Downstream-Markt x1* = x 2* =

a a2 und π A = π B = . 3 9

Im Folgenden werden die Auswirkungen eines Zusammenschlusses von zwei Unternehmen, dem Upstream-Unternehmen A und dem Downstream-Unternehmen 1 zum integrierten Unternehmen A1 untersucht und wir unterstellen eine Input-Foreclosure, d.h. wir gehen davon aus, dass das integrierte Unternehmen den Input nicht an das unabhängige Downstream-Unternehmen 2 verkauft. Daher ist das Upstream-Unternehmen B gegenüber dem Downstream-Unternehmen 2 nun Monopolist für den Input und maximiert seinen Gewinn, indem es den Preis c2 für sein Zwischenprodukt setzt; dieser Preis entspricht den Grenzkosten des DownstreamUnternehmens 2. Der Gewinn des Upstream-Unternehmens B ist daher der Preis c2 multipliziert mit der verkauften Menge des Input, die durch die Nachfrage des DownstreamUnternehmens bestimmt ist. Das Maximierungsproblem von Unternehmen B lautet also max π B = c2 x 2 = c2

c2 (a − 2c2 + c1 ) . 3

Aus den Bedingungen 1. Ordnung und der Tatsache, dass weiterhin c1 = 0 gilt, folgt a a − 4c2 = 0 ⇒ c2 = . 4

Einsetzen von c1 = 0 und c2 = a/4 in die hergeleiteten Gleichungen für die gleichgewichtigen Mengen und den Gleichgewichtspreis im Downstream-Markt, ergibt x A1 =

5a a 7a 5a , x2 = , X = , p = . 12 6 12 12

Die Gewinne der drei Unternehmen sind dann π A1 = px A1 =

25a 2 a2 a2 , π B = , π 2 = ( p − c2 )x 2 = . 144 24 36

Dies zeigt, dass im hier betrachteten Modell der Zusammenschluss einer Upstreamund einer Downstream-Firma den Output des integrierten Unternehmens erhöht und den der unabhängigen Downstream-Firma reduziert. Der Grund für den reduzierten Output sind die höheren Kosten, die die Downstream-Firma zu tragen hat, da es seinen Input von einem Monopolisten beziehen muss. Das fusionierte Unternehmen A1 bietet daher gemäß seiner Reaktionsfunktion eine größere Menge an. Würde im Upstream-Markt jedoch Wettbewerb herrschen, dann bliebe der Inputpreis auch nach dem Zusammenschluss unverändert und das unabhängige Unternehmen würd weiterhin die gleiche Menge produzieren.

2 Industrieökonomik

303

Es stellt sich nun die Frage, wie sich die Gewinne der Firmen durch den Zusammenschluss verändert haben. Ein Vergleich der Gewinne der beiden Firmen A und 1 vor dem Zusammenschluss mit dem Gewinn des integrierten Unternehmens A1 ergibt π A + π1 =

a 2 25a 2 < = π A1 . 9 144

Für das integrierte Unternehmen hat sich der Zusammenschluss also gelohnt. Für die Gewinne der beiden unabhängigen Unternehmen B und 2 vor und nach dem Zusammenschluss gilt hingegen πB +π2 =

a 2 a 2 10a 2 a 2 + = < , 24 36 144 9

wobei a2/9 den Gewinn beider Firmen vor der Fusion angibt. Vor dem Zusammenschluss hatte das Unternehmen B einen Gewinn von null, nach dem Zusammenschluss ist sein Gewinn aufgrund seiner Monopolposition gegenüber Unternehmen 2 jedoch gestiegen. Der Gewinn für Firma 2 hat jedoch aufgrund des geringeren Marktanteils deutlich abgenommen, sodass der Gesamtgewinn beider Firmen zusammen gesunken ist. Das Modell macht deutlich, dass ein Zusammenschluss eines Upstream- und eines Downstream-Unternehmens nicht notwendig zu einer vollständigen Marktverschließung führen muss. Allerdings hat sich die Wettbewerbsposition des unabhängigen DownstreamUnternehmens deutlich verschlechtert, da es den Input nun zu ungünstigeren Bedingungen beziehen muss. Die folgende Überlegung macht jedoch deutlich, dass ein vertikaler Zusammenschluss in bestimmten Fällen auch dazu führen kann, dass Wettbewerber den Markt verlassen müssen. Betrachten wir als Beispiel einen KFZ-Hersteller, der mit dem Produzenten von Getrieben fusioniert. Die Fusion kann zu einer Marktverschließung in der Form führen, dass andere Getriebehersteller sind nicht mehr in der Lage, an diesen KFZ-Hersteller zu verkaufen (Customer Foreclosure). Die andere Form der Marktverschließung kann darin bestehen, dass das integrierte Unternehmen keine Getriebe mehr an andere Automobilhersteller liefert oder dies nur zu höheren Preisen tut (Input Foreclosure). Derartige Marktschließungseffekte vertikaler Zusammenschlüsse können dazu führen, dass sich der Wettbewerb sowohl im Downstream- als auch im Upstream-Markt verringert und dadurch die Effizienzgewinne aufgrund der Vermeidung der doppelten Marginalisierung eliminiert. Dies kann anhand des folgenden Modells illustriert werden.120 Auf dem UpstreamMarkt sind nu Firmen tätig und auf dem Downstream-Markt nd Unternehmen. Von diesen Firmen seien n vertikal integriert, so dass es nu – n unabhängige Upstream-Unternehmen Anbieter und nd – n unabhängige Downstream-Firmen gibt.

120

Zu diesem Modell vgl. Pepall/Richards/Norman (2014), S. 435ff.

304

Ulrich Schwalbe

Jede der Upstream-Firmen produziert bei der Herstellung ihres Produktes mit konstanten Grenzkosten cu. Eine Einheit davon wird benötigt, um eine Einheit des Endproduktes herzustellen. Bei der Produktion in den Downstream-Unternehmen fallen zusätzlich Grenzkosten in Höhe von cd pro Einheit an. Die Produkte der Downstream-Firmen sind identisch und sowohl upstream als auch downstream konkurrieren die Unternehmen mit ihren Angebotsmengen. Die Nachfrage nach dem Endprodukt sei beschrieben durch die Preis-Absatz-Funktion p(X) = a – bXd, wobei Xd das Gesamtangebot auf dem downstream-Markt bezeichnet. Der Gewinn für jede der integrierten Downstream-Firmen, i ∈ {1, ..., n} beträgt π di = (pd – cu – cd)x di = (a – bXd – cu – cd)x di . Der Gewinn für eine unabhängige Downstream-Firma, j ∈ {n + 1, ..., nd} ist π dj = (pd – pu – cd)x dj = (a – bXd – pu – cd)x dj . Schließlich ist der Gewinn einer unabhängigen Upstream-Firma k ∈ {n + 1, ..., nu} π ku = (pu(Xu) – cu)π ku , wobei pu(Xu) den Preis bezeichnet, den eine unabhängige Upstream-Firma für ihr Produkt bekommt. Diese Gleichungen machen deutlich, dass die integrierten Firmen einen Vorteil genießen, denn sie erhalten den Input zu Grenzkostenpreisen cu, während die unabhängigen Unternehmen den höheren Preis pu zahlen müssen. Weiterhin folgt unmittelbar, dass die integrierten Firmen keine Inputs von unabhängigen Upstream-Firmen beziehen werden, denn der Cournot-Wettbewerb der unabhängigen Upstream-Firmen führt zu einem Preis, der über den Grenzkosten liegt, d.h. es gilt pu > cu gilt. Wenn das jedoch der Fall ist, dann wird eine Downstream-Abteilung einer integrierten Firma den Input lieber von der eigenen Upstream-Abteilung beziehen als auf dem Markt zum höheren Preis pu kaufen. Außerdem werden integrierte Unternehmen das Upstream-Produkt nicht an unabhängige Downstream-Firmen verkaufen werden, denn wenn eine unabhängige DownstreamFirma im Markt aktiv ist, ergibt sich aufgrund des Cournot-Wettbewerbs für sie ein positiver Gewinn. Dies impliziert, dass pd – pu – cd > 0 gilt. Wenn nun im Gleichgewicht, die Upstream- Abteilung einer integrierten Firma einen Teil ihres Outputs an unabhängige Downstream- Unternehmen verkaufen würde, dann bekäme sie pro Einheit eine Marge von pu – cd. Würde sie hingegen diesen Output nicht auf dem Markt anbieten, sondern ihrer downstream-Abteilung zur Verfügung stellen, dann würde sich der Preis des Endproduktes nicht ändern, da weiterhin die gleiche Menge angeboten würde. Dies bedeutet jedoch, dass das integrierte Unternehmen für jede Einheit den Gewinn pd – cu – cd für jede Einheit erhält, die sie intern in der Produktion einsetzt. Wenn die obige Bedingung pd – pu – cd > 0 erfüllt ist, dann übersteigt dieser Gewinn denjenigen, den sie

2 Industrieökonomik

305

machen würde, wenn sie an eine unabhängige Downstream-Firma verkaufen würde. Also wird unter den gegebenen Annahmen ein integriertes Unternehmen ihr Zwischenprodukt nicht an unabhängige Downstream-Firmen verkaufen. In diesem Modell kommt es also sowohl zu einer Customer-Foreclosure als auch zu einer Input-Foreclosure. Allerdings ist das nicht unbedingt gleichbedeutend damit, dass eine solche Marktverschließung nachteilig für die Konsumenten und die unabhängigen Unternehmen ist. Um die Auswirkungen einer solchen Marktverschließung aufgrund einer vertikalen Integration auf die Konsumentenwohlfahrt zu ermitteln, wäre der Gleichgewichtspreis des Endproduktes zu berechnen. Da diese Analyse vergleichsweise komplex ist, beschränken wir uns an dieser Stelle auf eine intuitive Erklärung. Eine vertikale Integration reduziert die Zahl der unabhängigen Upstream-Firmen und gleichzeitig die Zahl der unabhängigen Abnehmer auf dem Downstream-Markt. Beide Faktoren verringern den Wettbewerb in dem Markt, in dem das Zwischenprodukt gehandelt wird, da, wie in Abschnitt 2.3 gezeigt wurde, in einem Cournot-Modell die Wettbewerbsintensität mit abnehmender Firmenzahl geringer wird. Andererseits verkaufen die unabhängigen Upstream-Firmen an Downstream-Unternehmen, die im Vergleich zu den Downstream Abteilungen der integrierten Firmen einen Kostennachteil haben, denn sie zahlen einen Preis pu > cu. Das beschränkt den Spielraum der unabhängigen Downstream-Firmen. Wenn es nach einem vertikalen Zusammenschluss noch genug unabhängige UpstreamFirmen gibt, dann sind die wettbewerbsbeschränkenden Auswirkungen einer Marktverschließung aufgrund einer weiteren vertikalen Fusion eher unbedeutend. Sie können diese Wirkungen sogar überkompensieren, wenn z.B. das Problem der doppelten Marginalisierung vermieden wird und es zu einem größeren Angebot und damit zu geringeren Preisen kommt. Anders ausgedrückt: Wenn es nach einem vertikalen Zusammenschluss noch eine größere Zahl unabhängiger Upstream-Firmen gibt, so ist es wahrscheinlich, dass eine solche Fusion keine negativen Auswirkungen auf die Konsumenten haben wird. Allerdings berücksichtigt die Analyse mögliche strategische Reaktionen der Upstreamund der Downstream-Firmen nicht, deren Märkte durch vertikale Fusionen betroffen sind. Eine mögliche Reaktion auf eine vertikale Fusion besteht z.B. darin, ebenfalls nach einem möglichen Partner für einen solchen Zusammenschluss zu suchen. Das könnte letztlich dazu führen, dass sich der Wettbewerbsdruck im Downstream-Markt erhöht, da die Kosten der Downstream-Firmen aufgrund der Vermeidung des doppelten Preisaufschlags geringer sind. Dies wird im Folgenden anhand des Modells von Ordover/Saloner/Salop (1990) dargestellt. Auch in diesem Modell wird davon ausgegangen, dass es zwei Upstream- und zwei Downstream- Unternehmen gibt, die wieder mit A und B bzw. mit 1 und 2 bezeichnet werden.121 Die beiden Upstream-Firmen produzieren ein homogenes Gut, das die beiden Downstream-Firmen zur Herstellung differenzierter Güter verwenden. Eine Einheit des 121

Die Darstellung orientiert sich an Pepall/Richards/Norman (2014), S. 441ff.

306

Ulrich Schwalbe

Gutes wird zur Herstellung einer Einheit des Endproduktes benötigt. Außer den Kosten für den Input entstehen den Downstream-Firmen keine weiteren Kosten. Auf beiden Märkte konkurrieren die Unternehmen mit Preisen. Vor einem vertikalen Zusammenschluss entspricht der Preis auf dem Upstream-Markt den Grenzkosten der Unternehmen A und B, die durch cu bezeichnet werden. Die Nachfrage nach den beiden Downstream-Produkten 1 und 2 sei gegeben durch xi(pi, pj) = a – pi – b(pi – pj),

i, j = 1,2, i ≠ j, 0 < b < ∞.

Diese Nachfragefunktion impliziert, dass Firma i nicht alle Kunden verliert, selbst wenn sie einen höheren Preis verlangt als der Wettbewerber. Das Marktergebnis vor einem vertikalen Zusammenschluss ist dadurch gekennzeichnet, dass der Upstream-Preis den Grenzkosten cu der Upstream-Firmen entspricht, d.h. es gilt pu = cu, wobei angenommen wird, dass a > cu gilt, da es ansonsten zu keinen Transaktionen auf dem Markt kommen würde. Das Gewinnmaximierungsproblem der Downstream-Firma i ist gegeben durch πi(pi, pj) = (pi – pu)(a – pi – b(pi – pj)), i, j = 1,2, i ≠ j. Aus den Bedingungen erster Ordnung für ein Gewinnmaximum ergeben sich die Reaktionsfunktionen a + (1+ b)c u b j = 1,2, pi ( p j ) = + p j , i, j =i,1,2, i ≠ ij.≠ j. 2(1+ b) 2(1+ b) Im Gleichgewicht ergeben sich die Preise p1* = p2* =

a + (1+ b)c u 2+b

und die Mengen x1* = x 2* =

(1+ b)(a − c u ) . 2+b

Die Gewinne der beiden Downstream-Unternehmen betragen dann (1+ b)(a − c u )2 π 1* = π 2* = . (2 + b)2 Da im Upstream-Markt aufgrund des Preiswettbewerbs und der Homogenität der Produkte das gleiche Marktergebnis resultiert wie bei vollkommenem Wettbewerb, stellt sich das Problem der doppelten Marginalisierung nicht. Die beiden Downstream-Firmen erzielen daher den gleichen Gewinn wie ein integriertes Unternehmen. Wenn sich nun das Upstream-Unternehmen A und das Downstream-Unternehmen 1 zu einer Firma A1 zusammenschließen, dann könnte auch – wie im Modell von Salinger – das integrierte Unternehmen seine Lieferungen an das Downstream-Unternehmen 2 einstellen. Dies wiederum hat zur Folge, dass im Rahmen dieses Modells Unternehmen B gegenüber der Downstream-Firma 2 eine Monopolstellung erlangt. Zwischen diesen beiden Unternehmen tritt nun das Problem der doppelten Marginalisierung wieder auf. Wenn das

2 Industrieökonomik

307

Unternehmen B vom Downstream-Unternehmen einen Großhandelspreis in Höhe von w verlangt, dann sind die Reaktionsfunktionen für die Firmen 1 und 2 gegeben durch a + (1+ b)c u b a + (1+ b)w b p1r ( p2 ) = + p2 , p2r ( p1 ) = + p1 . 2(1+ b) 2(1+ b) 2(1+ b) 2(1+ b) Die Gleichgewichtspreise sind dann (2 + 3b)a + 2(1+ b)2 c u + b(1+ b)w p1** = , (2 + b)(2 + 3b) p2** =

(2 + 3b)a + 2(1+ b)2 w + b(1+ b)w . (2 + b)(2 + 3b)

Liegt der Großhandelspreis w über den Grenzkosten cu, dann ist auch der Preis des unabhängigen downstream-Unternehmens 2 höher als der der Firma 1. Die von Firma 2 im Gleichgewicht abgesetzte Menge ist dann (1+ b)(2 + 3b)a + (1+ b)2 bc u (2(1+ b)+ b(2 + b)) q2** = − (1+ b) w, (2 + b)(2 + 3b) (2 + b)(2 + 3b) die vom Großhandelspreis, den die Firma B verlangt, abhängt. Gegeben diese Nachfrage, wird Firma B also einen Großhandelspreis in Höhe von (2 + 3b)a + (2 + b)(1+ 2b)c u w ** = 2(2(1+ b)+ b(2 + b)) verlangen, wenn es seinen Gewinn maximieren möchte. Wenn die Grenzkosten cu geringer sind als a, wie oben angenommen wurde, dann gilt auch w** > cu. Auch in diesem Modell führt, wie im Modell von Salinger, ein vertikaler Zusammenschluss dazu, dass sich für das unabhängige Downstream-Unternehmen 2 die Kosten für den Input erhöhen und damit auch der Endverkaufspreis seines Produktes steigt. dies wiederum erlaubt es der integrierten Firma, den Endverkaufspreis für ihr Produkt ebenfalls heraufzusetzen. Die vertikale Fusion führt also insgesamt dazu, dass die Konsumenten für beide Produkte höhere Preise zahlen und die Konsumentenrente dadurch abnimmt. Allerdings ist damit zu rechnen, dass die beiden unabhängigen Firmen B und 2, zwischen denen eine doppelte Marginalisierung auftritt, einen Anreiz haben, sich ebenfalls zusammenzuschließen, um dieses Problem zu vermeiden und um im Wettbewerb gegen das integrierte Unternehmen nicht benachteiligt zu sein. Dies wiederum würde dazu führen, dass der Wettbewerb zwischen den beiden integrierten Firmen zu dem gleichen Marktergebnis führt wie ohne jegliche Integration. Es stellt sich daher die Frage, ob das integrierte Unternehmen verhindern kann, dass es zu einem Zusammenschluss der Unternehmen B und 2. kommt. So könnte es, statt die Lieferungen an Unternehmen 2 völlig einzustellen, dieses Unternehmen weiterhin beliefern, allerdings zu einem Preis w > cu, der so gewählt wird, dass Unternehmen 2 keinen Grund mehr hat, mit B zu fusionieren. Zwar ist Unternehmen 2 dann gegenüber dem integrierten Unternehmen im Nachteil, aber ein Preis w, der niedriger ist als w** zwingt auch Unternehmen B dazu, einen Preis zu nehmen, der mindestens w beträgt. Dadurch wird Firma 2 mehr verkaufen und einen höheren

308

Ulrich Schwalbe

Gewinn erwirtschaften. Aber Ordover/Salinger/Salop zeigen, dass es zwischen cu und w** immer Werte von w gibt, so dass die Gewinne der beiden unabhängigen Unternehmen B und 2 größer sind als in dem Fall, in dem zwei integrierte Firmen miteinander konkurrieren. Dadurch kann das integrierte Unternehmen A1 also vermeiden, dass es zu einem Zusammenschluss zwischen B und 2 kommt und sich die gleichen Preise ergeben wie ohne jeglichen Zusammenschluss. Nach dem Zusammenschluss zwischen A und 1 kommt es also zu einer partiellen Marktverschließung, jedoch nicht dazu, dass das integrierte Unternehmen seine Lieferungen an Firma 2 völlig einstellt. Durch den im Vergleich zu den Grenzkosten höheren Inputpreis w und dem entsprechend erhöhten Preis p2 hat das Unternehmen 2 einen wettbewerblichen Nachteil und verliert einen Teil seiner Nachfrage. Dies ermöglicht es der integrierten Firma A1, seinen Preis p1 ebenfalls heraufzusetzen und einen größeren Gewinn zu realisieren als bei Wettbewerb zwischen zwei integrierten Firmen.

2.7.3

Vertikale Zusammenschlüsse und kollusives Verhalten

Neben den Marktverschließungseffekten, die durch eine vertikale Fusion herbeigeführt werden können, kann ein solcher Zusammenschluss auch dazu führen, dass zwischen den Unternehmen auf der Upstream-Ebene ein koordiniertes Verhalten der Unternehmen, d.h. eine stillschweigende Kollusion ermöglicht oder erleichtert wird. Koordinierte Effekte vertikaler Zusammenschlüsse wurden erstmals von Nocke/White (2007) untersucht. In ihrer Analyse werden zwei entgegengesetzt wirkende Effekte identifiziert, die durch eine vertikale Fusion ausgelöst werden und einen Einfluss auf die Koordinationsmöglichkeiten auf der Upstream-Ebene haben können. Es handelt sich erstens um einen verringerten Anreiz der unabhängigen Upstream-Firmen, von einer Verhaltenskoordination abzuweichen, wenn sie aufgrund einer Marktverschließung ihre Produkte nicht mehr an das integrierte Unternehmen verkaufen können. In diesem Fall stehen ihnen weniger Absatzmöglichkeiten zur Verfügung, über die sie ihre Produkte absetzen können, so dass sich dadurch ihr Gewinn aus einem Abweichen vom koordinierten Gleichgewicht verringern würde. Dieser Effekt wird als „Outlets-Effekt“ bezeichnet. Dieser Effekt wirkt positiv auf die Möglichkeit einer Verhaltenskoordination. Zweitens tritt ein so genannter „Bestrafungseffekt“ (Punishment-Effect) auf, der dem Outlets-Effekt entgegenwirkt. Der Wirkungsmechanismus dieses Effekts kann wie folgt erklärt werden: Da das integrierte Unternehmen ohne Koordination sowohl auf der Upstream- als auch auf der Downstream-Ebene positive Gewinne realisieren würde, ein unabhängiges Upstream-Unternehmen jedoch nur einen positiven Gewinn auf der Upstream-Ebene, trifft eine Bestrafung das integrierte Unternehmen weniger hart als ein unabhängiges. Daher steigt der Anreiz für das integrierte Unternehmen, von einer Verhaltenskoordination abzuweichen. Ob nun durch eine vertikale Fusion eine Koordination upstream erleichtert oder erschwert wird, hängt davon ab, welcher der beiden Effekte überwiegt. Im Modell wird nachgewiesen, dass in aller Regel der Outlets-Effekt stärker ist

2 Industrieökonomik

309

als der Bestrafungseffekt, so dass in diesem Ansatz eine vertikale Fusion zu einer Verbesserung der Koordinationsmöglichkeiten auf der Upstream-Ebene führt. Dies kann an folgendem numerischen Beispiel deutlich gemacht werden. Es wird von einer Industrie ausgegangen, die aus fünf symmetrischen Upstream- und fünf symmetrischen Downstream-Unternehmen besteht. Die Upstream-Unternehmen können mittels zweiteiliger Tarife die gesamten Gewinne der Downstream-Unternehmen abschöpfen. Der maximale Gewinn, der in dieser Industrie durch kollusives Verhalten erzielt werden kann, betrage 100. Jedes Upstream-Unternehmen erzielt also einen Gewinn von 20. Ohne Kollusion führt der Wettbewerb im Upstream-Markt dazu, dass der Gewinn jedes Unternehmens 0 beträgt und die Downstream-Unternehmen jeweils einen Gewinn von 10 realisieren. Dies entspricht der Auszahlung, die im Fall eines Abweichens vom koordinierten Gleichgewicht anfallen würde. Die Bedingung für ein koordiniertes Gleichgewicht ist also 100 − 20 = 0,8 ≥ δ . 100 − 0

Wenn sich nun ein Upstream- und ein Downstream-Unternehmen zusammenschließen, und das integrierte Unternehmen vom koordinierten Gleichgewicht abweicht, dann ändert sich diese Bedingung. Es wird angenommen, dass das integrierte Unternehmen im nichtkoordinierten Gleichgewicht, d.h. ohne Kollusion, aufgrund seiner DownstreamAbteilung einen Gewinn von 10 realisieren kann. Da die Gewinne aus einem Abweichen nun größer sind als ohne vertikale Integration, wird ein Abweichen attraktiver und ein kollusives Gleichgewicht somit weniger wahrscheinlich. Wenn die Gewinne des integrierten Unternehmen bei Kollusion nun 30 betragen, wobei 20 aus dem Verkauf der eigenen Downstream-Abteilung an die Abnehmer stammen und 10 aus dem Verkauf der Upstream-Abteilung an die vier unabhängigen Downstream-Unternehmen, dann wäre ein koordiniertes Gleichgewicht stabil, wenn die Bedingung 100 − 30 = 0,78 ≥ δ 100 −10

erfüllt ist. In diesem Fall lohnt sich ein Abweichen für das integrierte Unternehmen nicht. Es stellt sich jedoch die Frage, ob ein unabhängiges Upstream- oder DownstreamUnternehmen einen Anreiz zum Abweichen vom koordinierten Gleichgewicht hat. Dabei wird unterstellt, dass das integrierte Unternehmen seine Produktionsmenge unverändert lässt. Dies ist dann der Fall, wenn die Downstream Preise gleichzeitig mit den UpstreamAngeboten gesetzt werden. Ein unabhängiges Upstream-Unternehmen kann sich durch ein Abweichen vom koordinierten Gleichgewicht bestenfalls einen Gewinn von 80 sichern, da es nicht an das integrierte Unternehmen verkaufen kann, denn das würde sonst seine Vorteile aus der Integration einbüßen. Dies ist der so genannte Outlets-Effekt, da das unabhängige Upstream-Unternehmen nun nur noch an vier und nicht wie vor dem Zusammenschluss an fünf Downstream-Firmen verkaufen kann. Der diesem Effekt entgegenwirkende Bestrafungseffekt resultiert daraus, dass der restliche Gewinn in Höhe von 70 (100-30) nun zwischen den vier Upstream-Firmen aufgeteilt wird, d.h. jede erhält

310

Ulrich Schwalbe

einen Gewinn von 17,5. Die Bestrafung wird also weniger wirksam. Ein unabhängiges Upstream-Unternehmen hat also keinen Anreiz, vom koordinierten Gleichgewicht abzuweichen, wenn die Bedingung 80 −17,5 = 0,78125 ≥ δ 80 − 0

gilt. Der Wert des kritischen Diskontfaktors ist nach dem vertikalen Zusammenschluss gesunken, sodass ein koordiniertes Verhalten nach der Fusion eher zu erwarten ist.

2.7.4

Preis-Kosten-Schere und wesentliche Einrichtungen

Während in Abschnitt 2.7.2 untersucht wurde, welche unmittelbaren Auswirkungen ein vertikaler Zusammenschluss auf die unabhängigen Upstream- und Downstream Unternehmen hat, wird im Folgenden eine Strategie eines solchen Unternehmens betrachtet, die die wettbewerbliche Position der unabhängigen Downstream-Unternehmen schwächen und sie letztlich zum Marktaustritt veranlassen soll. Ein solches Verhalten tritt insbesondere dann auf, wenn das integrierte Unternehmen einen Input bereitstellt, der notwendig ist, um auf dem Downstream-Markt überhaupt aktiv werden zu können. Solche Inputs werden in der Literatur als wesentliche Einrichtungen (Essential Facilities) bezeichnet. Anders als z.B. im Modell von Ordover/Saloner/Salop gibt es in diesem Fall keinen alternativen Anbieter für den Input. Der Begriff der Preis-Kosten-Schere bezieht sich darauf, dass das integrierte Unternehmen eine Kombination von Input- und Outputpreisen verwendet, die dazu führt, dass die Gewinne der unabhängigen Unternehmen verringert werden oder sie sogar gezwungen sind, den Markt zu verlassen. Zur Überprüfung, ob in einem gegebenen Fall tatsächlich eine Preis-Kosten-Schere vorliegt, wird in der Praxis häufig ein Test verwendet, der von den Kosten abhängt, die berücksichtigt werden und der von der Europäischen Kommission wie folgt beschrieben wird: „Eine Preis-Kosten-Schere kann durch den Nachweis belegt werden, dass die nachgeordnete Sparte des Betreibers mit beträchtlicher Marktmacht selbst nicht wirtschaftlich arbeiten könnte, wenn der Preis zugrunde gelegt würde, der den Wettbewerbern für die Nutzung der vorgeordneten Einrichtungen berechnet wird (Test des „gleich effizienten Wettbewerbers“).“122 Zu Erklärung von Preis-Kosten-Scheren werden in der Literatur zwei Ansätze vorgeschlagen: Zum einen die Theorien, die eine Preis-Kosten-Schere aus dem Gewinnmaximierungsverhalten eines integrierten Unternehmens erklären, das die Kontrolle über einen essentiellen Input hat. Zum anderen die Erklärungsansätze, die ein solches Verhalten als Versuch bewerten, die Konkurrenten auf der Downstream-Ebene vom Markt zu

122

Europäische Kommission (2010), Rdnr. 26.

2 Industrieökonomik

311

verdrängen. Im Folgenden werden zwei einfache Modelle präsentiert, die diese beiden unterschiedlichen Erklärungsansätze illustrieren.123 Der erste Ansatz basiert auf der Überlegung, dass es für das integrierte Unternehmen optimal ist, auf der Upstream-Ebene einen Preis für den Input zu verlangen, der über den Grenzkosten liegt, um durch die Verkäufe des Inputs an die Wettbewerber auf der Downstream-Ebene eine positive Gewinnmarge zu erzielen. Gleichzeitig werden auf der Downstream-Ebene von den Konsumenten Preise derart verlangt, dass sich das integrierte Unternehmen auch einen Teil der Konsumentenrente aneignen kann. Ausgangspunkt ist ein vertikal integriertes Unternehmen V, das der einzige Anbieter eines Inputs ist und sich im Downstream Markt einem Wettbewerber W gegenübersieht. Beide Unternehmen bieten auf dem Downstream-Markt ein homogenes Produkt an und Konkurrenten mittels Preisen. Die Konsumenten kaufen bei dem Unternehmen mit dem niedrigeren Preis. Im weiteren wird davon ausgegangen, dass der Wettbewerber W über eine Technologie verfügt, die das Produkt mit geringeren Grenzkosten herstellen kann und es wird unterstellt, dass das integrierte Unternehmen V für jede Einheit des Outputs genau eine Einheit des Inputs verwenden muss. Der Wettbewerber W benötigt für eine Einheit des Outputs k Einheiten des Inputs. Der Gewinn des integrierten Unternehmens beträgt also πM = (pV – cVd – cu)xV + (w –cu)kxW, wobei pM den Outputpreis des integrierten Unternehmens bezeichnet, cd und cu die Grenzkosten der Herstellung des Inputs bzw. des Outputs bezeichnen, w den Preis für den Input und xV und xW die von V und W verkauften Mengen. Für einen gegebenen Preis w muss das integrierte Unternehmen überlegen, ob es den Preis des Wettbewerbers pW etwas unterbieten soll, um auf dem downstream Markt den Gewinn (pW – ε – cVd – cu)x(pW) zu erzielen, wobei x(pW) die bei einem Preis von pW nachgefragte Menge bezeichnet oder ob er stattdessen den Input verkaufen soll, um daraus einen Gewinn in Höhe von (w –cu)kx(pW) zu realisieren. Ein Unterbieten des Preises pw lohnt sich für das integrierte Unternehmen, wenn die Bedingung pW > cVd – cu + (w –cu)k gilt. Andernfalls überlässt V dem Wettbewerber W den Downstream-Markt, d.h., wenn der geringste Preis, den V noch unterbieten würde, zu einem positiven Gewinn für W führt, d.h. wenn gilt cVd + cu + (w –cu)k > wk + cWd , wobei cWd die Grenzkosten der Herstellung 123

Der folgende Abschnitt orientiert sich an Jullien/Rey/Saavedra (2014).

312

Ulrich Schwalbe

für den unabhängigen downstream-Wettbewerber bezeichnet. Der Ausdruck auf der linken Seite der Ungleichung kann als Opportunitätskosten interpretiert werden, da neben den direkten Kosten auch die Verluste auf dem Inputmarkt berücksichtig sind, die durch die Aktivität des integrierten Unternehmens auf dem Downstream-Markt entstehen. Diese Bedingung kann auch geschrieben werden als cu + cVd > cu k + cWd , d.h., der Downstream-Markt wird dem Wettbewerber überlassen, wenn er effizienter ist als das integrierte Unternehmen. Im Weiteren wird davon ausgegangen, dass dies das relevante Szenario ist und dass im relevanten Bereich von w der Monopolpreis des Wettbewerbers W bei den Kosten wk + cWd höher ist als die Opportunitätskosten cVd + cu + (w –cu)k des integrierten Unternehmens V. Der Wettbewerber kann sich also auf dem Downstream-Markt nicht wie ein Monopolist verhalten, sondern unterliegt einer wettbewerblichen Beschränkung durch das integrierte Unternehmen. In diesem Fall entspricht der Marktpreis im Gleichgewicht den Opportunitätskosten des integrierten Unternehmens, d.h. es gilt p(w) = cVd – cu + (w –cu)k. Der Gewinn des integrierten Unternehmens V im Gleichgewicht beträgt dann πV* = (p(w) – cVd – cu)x(p(w)) = (w – cu)kx(p(w)), wobei x(p) = x(p(w)) die beim Preis p(w) vom Wettbewerber W im Downstream-Markt abgesetzte Menge bezeichnet. Geht man von der Preis-Absatz-Funktion, d.h. der inversen Nachfrage P(x) = x–1(p) aus, dann kann der Gewinn des integrierten Unternehmens auch geschrieben werden als πV = (P(x(w)) – cVd – cu) x(w). Da das integrierte Unternehmen die Menge des hergestellten Outputs über die Wahl des Inputpreises w indirekt steuern kann, findet sich Firma V in der gleichen Situation wie ein Monopolist, der den Gesamtgewinn der Industrie maximiert. Daraus ergibt sich, dass das Marktergebnis das gleiche ist wie in einer Situation ohne jeden Wettbewerb. Für den Preis im Gleichgewicht gilt p* = pm = arg max( p − cVd − c u )x( p), p

wobei „arg max“ angibt, an welcher Stelle, d.h. bei welchem Preis der Gewinn maximiert wird. Für die gleichgewichtige Menge gilt x* = xm = x(pm).

2 Industrieökonomik

313

Die Gewinne der beiden Firmen im Gleichgewicht sind dann πV* = (pm – cVd – cu)xm und πV* = ( cVd – cWd – cu – kcu)xm. Das integrierte Unternehmen erzielt seine Gewinne ausschließlich auf dem InputMarkt und übt seine Marktmacht dadurch aus, dass einen entsprechend hohen Inputpreis verlangt. Zwar ist es weiterhin auf dem Output-Markt aktiv, erzielt dort aber keinen Gewinn. Seine Aktivität dient vor allem dazu, um den unabhängigen Wettbewerber durch niedrige Preise zu disziplinieren, um auf diesem Markt für niedrige Preise und große Absatzmengen zu sorgen. Würde V seine Aktivitäten auf dem Absatzmarkt völlig einstellen, dann könnte W auf diesem Markt als Monopolist agieren, einen höheren Preis verlangen, geringere Mengen absetzen und entsprechend weniger Inputs bei V nachfragen. Ob in diesem Modell von einer Preis-Kosten-Schere gesprochen werden kann, hängt davon ab, welche Produktionstechnologien die Unternehmen einsetzen. Geht das Verhalten vom Unternehmen mit der effizientesten Technologie aus, dann würde keine PreisKosten-Schere vorliegen, da in der beschriebenen Situation ein solches Unternehmen immer profitabel produzieren könnte. Im Unterschied dazu würde V den Test des „gleich effizienten Wettbewerbers“ nicht bestehen, weil dieser voraussetzt, dass V auf dem Absatzmarkt profitabel agieren könnte, wenn es den Input zum Preis w kaufen müsste. Eine PreisKosten-Schere läge immer dann vor, wenn die Bedingung p > w + cVd erfüllt ist, wenn also der Preis auf dem Absatzmarkt geringer ist als wenn die integrierte Firma V den Input zu einem Preis w erwerben müsste. Insgesamt lässt sich also feststellen, dass es im Fall von Preiswettbewerb mit einem homogenen Gut zu einer Preis-KostenSchere kommt, wenn der Wettbewerber W den Input effizienter nutzt als das integrierte Unternehmen V. Wie oben erwähnt wurde, gibt es neben der Erklärung einer Preis-Kosten-Schere als gewinnmaximierendes Verhalten eines integrierten Unternehmens eine zweite Erklärung, die auf missbräuchliches Verhalten dieses Unternehmens abstellt. Dieser zweite Ansatz basiert auf der Annahme, dass das integrierte Unternehmen versucht, durch eine solche Strategie Wettbewerber vom Markt zu verdrängen, um sich auch im Downstream-Markt eine Monopolstellung zu sichern. Ein solcher Ansatz muss sich jedoch der Kritik der Chicago-Schule stellen, dass ein Monopolgewinn nur ein Mal gemacht werden kann, eine Übertragung von Marktmacht auf einen anderen Markt also keine zusätzlichen Gewinne erbringen kann und daher eine solche Strategie von einem rationalen gewinnmaximierenden Unternehmen nicht verwendet würde.

314

Ulrich Schwalbe

Das Argument eines „einzigen Monopolgewinns“ kann man sich wie folgt verdeutlichen: Der Monopolgewinn des integrierten Unternehmens resultiert ausschließlich aus der Nachfrage nach dem Endprodukt.124 Die vollständige Kontrolle über die wesentliche Einrichtung ermöglicht es dem Monopolisten, seinen Gewinn auf beiden Märkten upstream und downstream zu maximieren, wenn er für den Input den Preis so setzt, dass die monopolistische Gewinnmarge resultiert. Es besteht daher für das Unternehmen kein Anreiz, zu versuchen seine Marktmacht auf einen anderen Markt zu übertragen. Dies kann an folgendem numerischen Beispiel mit zwei komplementären Gütern A und B erläutert werden. Angenommen, die Zahlungsbereitschaft der Konsumenten für das „Systemgut“ AB, das aus je einer Einheit des Gutes A und einer Einheit des Gutes B besteht, beträgt insgesamt 10. Gut B wird auf einem Wettbewerbsmarkt zu einem Preis in Höhe der Grenzkosten von 2 angeboten. Die Grenzkosten der Herstellung einer Einheit des monopolistischen Gutes A betragen 4. Der Monopolist würde also für Gut A einen Preis von 8 verlangen und die gesamte Konsumentenrente abschöpfen. Der Gewinn des Monopolisten beträgt dann 4 pro Stück. Könnte der Monopolist den Wettbewerber vom Markt verdrängen und beide Güter als Monopolist anbieten, dann betragen die Gesamtkosten der Herstellung einer Einheit 6. Der maximale Preis zu dem er beide Güter zusammen verkaufen könnte, beträgt 10 und sein maximaler Gewinn ist dann 4. Dies zeigt, dass der Monopolist seinen Gewinn durch eine Verdrängung des Wettbewerbers nicht erhöhen kann und daher auch kein Interesse daran hat, den Konkurrenten durch missbräuchliches Verhalten vom Markt zu verdrängen. Diese Aussage hängt jedoch von einer Reihe restriktiver Annahmen ab, die in der Praxis jedoch häufig nicht erfüllt sind: So wird unterstellt, dass der Monopolist sich die gesamte Konsumentenrente aneignen kann, was in der Regel nicht möglich ist. Auch die Unterstellung, dass auf dem Markt für Produkt B vollkommener Wettbewerb herrscht, ist nicht immer zutreffend. Außerdem könnte der Monopolist einem Selbstbindungsproblem unterliegen: Wenn er einem unabhängigen Downstream-Unternehmen Zugang zu einer wesentlichen Einrichtung gewährt, dann hat er auch einen Anreiz, nach Vertragsschluss, diesen Zugang auch weiteren Downstream-Firmen zu gewähren, die dann miteinander konkurrieren, wodurch die Gewinne auf dem Downstream-Markt verringert werden. Wenn dies die unabhängigen Firmen antizipieren, dann wird der Eigentümer der wesentlichen Einrichtung weniger verkaufen und sein Gewinn geht zurück. Der Besitzer der wesentlichen Einrichtung würde sich daher gern daran binden, nur eine begrenzte Menge an „Zugang“ zu seiner wesentlichen Einrichtung zu verkaufen. Wenn er jedoch einem downstream Unternehmen diese Menge verkauft hat, dann besteht ein Anreiz, im Rahmen bilateraler Verhandlungen auch weiteren Firmen Zugang zu gewähren. Dies würde jedoch letztlich dazu führen, dass sich der zunehmende Wettbewerb auch auf dem Markt für die wesentliche Einrichtung auswirkt und die Gewinne des Monopolisten verringert.

124 Ein analoges Argument gilt auch für den Fall komplementärer Güter, bei dem der Monopolgewinn aus der Nachfrage nach dem „Systemgut“ resultiert.

2 Industrieökonomik

315

In einem wichtigen Beitrag haben Hart/Tirole (1990) auf dieses Problem aufmerksam gemacht. Angenommen, es gibt zwei identische unabhängige Downstream-Unternehmen W1 und W2, die ein homogenes Produkt herstellen und mittels Mengen konkurrieren. Die Grenzkosten der beiden Unternehmen seien mit c bezeichnet. Die Preis-Absatz-Funktion sei gegeben durch p = p(x) . Der Eigentümer der wesentlichen Einrichtung V würde an die unabhängigen Downstream-Unternehmen die Monopolmenge xm verkaufen, um den Gesamtgewinn und damit die gesamte Rente, die zur Verteilung zwischen den Unternehmen zur Verfügung steht, zu maximieren. So könnte er z.B. jedem der beiden Unternehmen die Hälfte der Monopolmenge, xm/2 zu einem Preis in Höhe des Monopolpreises pm = p(xm) abzüglich der Grenzkosten c anbieten. Wenn er an W1 die Menge xm/2 zu einem Preis w = pm – c verkauft hat, dann würde er gern an W2 auch noch eine Menge x, die den gemeinsamen Gewinn von V und W2 maximiert und die in aller Regel größer ist als xm/2, verkaufen. Da jedoch W1 ein solches opportunistisches Verhalten, das zu einem Preis führt, der unterhalb des Preises pm liegt, antizipiert, wird W1 einer solchen Vereinbarung nicht zustimmen und nur einen Preis für den Zugang zur wesentlichen Einrichtung akzeptieren, der geringer ist als pm. Hart/Tirole zeigen, dass der monopolistische Eigentümer der wesentlichen Einrichtung für den Zugang Preise verlangt, die letztlich dazu führen, dass das Marktergebnis im Cournot-Duopol reproduziert wird. Als Fazit lässt sich festhalten, dass der Besitzer einer wesentlichen Einrichtung seine Monopolmacht auch durchsetzen kann, indem er den Wettbewerb auf dem DownstreamMarkt beschränkt. Es geht bei dieser Wettbewerbsbeschränkung nicht darum, Monopolmacht auf einen anderen Markt zu übertragen, sondern vielmehr darum, diese Monopolmacht überhaupt vollständig ausüben zu können. Dies kann z.B. durch eine vertikale Integration erreicht werden, bei der das integrierte Unternehmen die unabhängigen Downstream-Firmen vom Zugang zur wesentlichen Einrichtung ausschließt. Ein solcher Fall könnte z.B. dann vorliegen, wenn diese Unternehmen weniger effizient sind als die eigene Downstream-Abteilung. Andernfalls kann es auch zu einer partiellen Marktverschließung kommen.

2.7.5

Vertikale Restriktionen: Preisbindung

Da in der Regel an der Herstellung der meisten Güter zahlreiche Unternehmen auf verschiedenen Stufen einer Wertschöpfungskette beteiligt sind, müssen die Aktivitäten der einzelnen Stufen koordiniert werden, um eine effiziente Bereitstellung der Produkte an die Endverbraucher sicherzustellen. Aufgrund der dezentralen Entscheidungen innerhalb einer Wertschöpfungskette können zum einen unerwünschte externe Effekte sowohl zwischen den einzelnen Stufen (vertikale Externalitäten), wie z.B. das Problem der doppelten Marginalisierung, das in Abschnitt 2.7.1 dargestellt wurde, als auch zwischen Unternehmen auf der gleichen Ebene (horizontale Externalitäten) auftreten. Zum anderen können die Verhaltensanreize der Unternehmen auf den unterschiedlichen Stufen nicht übereinstimmen, sodass dadurch erhebliche Effizienzverluste auftreten können. Diese Probleme

316

Ulrich Schwalbe

haben einerseits zur Folge, dass Produkte nicht in der für die Endverbraucher optimalen Weise angeboten werden. Andererseits können Koordinationsprobleme innerhalb einer Wertschöpfungskette dazu führen, dass die Unternehmen nicht wirksam und effektiv mit den Herstellern und Händlern in anderen Wertschöpfungsketten konkurrieren können.125 Es ist daher für Hersteller und Händler von wesentlicher Bedeutung, diese Probleme durch den Einsatz geeigneter Koordinationsinstrumente zu vermeiden oder zumindest zu reduzieren. In der Regel steht den Unternehmen hierzu eine Reihe von Instrumenten zur Verfügung, die sich hinsichtlich ihrer Effekte aber auch hinsichtlich der Wirkungsstärke unterscheiden: Zwischen den beiden Extremen eines vertikalen Zusammenschlusses und dem Verkauf eines Zwischenproduktes an ein Unternehmen auf der nächsten Stufe der Wertschöpfungskette gibt es zahlreiche Instrumente mit unterschiedlichen Koordinationswirkungen, die sich grob in preisliche bzw. nicht-preisliche Instrumente unterteilen lassen. So gehören zu den preislichen Koordinationsinstrumenten die Preisbindung, Höchst- oder Mindestpreise, sowie Preisempfehlungen und Rabattsysteme. Zu den nichtpreislichen Koordinationsinstrumenten sind zum Beispiel exklusive Vertriebssysteme oder Gebietsvereinbarungen zu zählen. Diese beiden Formen vertikaler Restriktionen werden in diesem und dem folgenden Abschnitt näher untersucht. Allerdings ist zu beachten, dass bestimmte Formen der Preisgestaltung innerhalb einer Wertschöpfungskette, insbesondere die Preisbindung, in aller Regel auch Auswirkungen auf den Wettbewerb zwischen verschiedenen Wertschöpfungsketten, d.h. auf den Interbrand-Wettbewerb, haben können. So könnte eine Preisbindung, durch die Hersteller dem Händler vorschreibt, welchen Preis er für das Produkt vom Abnehmer verlangen darf, dazu führen, dass die Hersteller und/oder die Händler sich kollusiv verhalten und sowohl der Intra- als auch der Interbrand-Wettbewerb ausgeschaltet werden. Den positiven effizienzerhöhenden Wirkungen einer besseren Koordination innerhalb einer Wertschöpfungskette stehen die wettbewerbsbeschränkenden Effekte, die zwischen Wertschöpfungsketten auftreten können, entgegen. Im Folgenden werden zuerst die effizienzerhöhenden Auswirkungen von Preisbindungen untersucht und anschließend werden die wettbewerbsbeschränkenden Wirkungen betrachtet. Hierbei wird vor allem auf die Preisbindung als Instrument zur Vermeidung der doppelten Marginalisierung sowie der Sicherstellung optimaler Serviceleistungen im Handel eingegangen. Wettbewerbsbeschränkende Wirkungen von Preisbindungen können insbesondere dadurch entstehen, dass kollusives Verhalten auf der Hersteller- aber auch der Händlerebene erleichtert wird.

Im Folgenden werden die Überlegungen anhand der einfachsten Struktur einer Wertschöpfungskette dargelegt. Es wird von insgesamt drei Stufen ausgegangen: das oder die Upstream-Unternehmen („Hersteller“), das oder die Downstream-Unternehmen („Händler“) sowie die Endabnehmer („Konsumenten“). 125

2 Industrieökonomik

317

2.7.5.1 Preisbindung zur Vermeidung der doppelten Marginalisierung In Abschnitt 2.7.1. wurde bereits darauf hingewiesen, dass aufgrund einer doppelten Marginalisierung erhebliche Ineffizienzen in Form einer sehr geringen Angebotsmenge zu einem deutlich überhöhten Preis auftreten können. Befürworter einer Preisbindung weisen darauf hin, dass durch eine solche vertikale Beschränkung das Problem des doppelten Preisaufschlags verhindert werden kann. Dieses Argument kann man sich wie folgt verdeutlichen. Wie in Abschnitt 2.7.1 gezeigt wurde, resultiert bei unabhängigem Verhalten von zwei aufeinander folgenden Monopolen ein Preis ru für das Zwischenprodukt, den der Hersteller vom Händler verlangt, wobei gilt ru = (a + c)/2. Daraus resultiert ein Preis für das Endprodukt in Höhe von pd = (3a + c)/4 und es wird bei diesem Preis die Menge xd = (a – c)/4b abgesetzt. Der Gewinn des Herstellers beträgt πu = (a – c)2/8b und der Gewinn des Händlers πd = (a – c)2/16b. Der gesamte Gewinn beider Firmen ist πu + πd = 3(a – c)2/16b. Nach einem Zusammenschluss wird das integrierte Unternehmen I für das Produkt einen Preis in Höhe von a+c ppI1 = 2 setzen und sein Gewinn ist (a + c)2 ππ1I = . 4b Durch eine Preisbindung kann das Problem gelöst werden, wenn der Hersteller dem Händler vorschreibt, keinen höheren Preis zu verlangen als pI = (a + c)/2. Da dieser Preis dem für das Zwischenprodukt entspricht, würde sich in diesem Fall der Hersteller den gesamten Monopolgewinn aneignen.126 Damit der Händler eine solche Preisbindung akzeptiert, müsste er jedoch vom Hersteller eine Ausgleichszahlung erhalten, die mindestens so hoch ist wie sein Gewinn bei unabhängigem Verhalten und ohne Preisbindung. Es ist jedoch darauf hinzuweisen, dass zur Vermeidung der doppelten Marginalisierung keine Preisbindung, d.h. keine Vorgabe eines Festpreises erforderlich ist, sondern ein kartellrechtlich unbedenklicher Höchstpreis hierfür völlig ausreichend ist, denn zur Vermeidung der doppelten Marginalisierung kommt es vor allem darauf an, dass der Preis für das Endprodukt diesen Wert nicht überschreitet. 126 Alternativ ist auch denkbar, dass der Hersteller den Händler verpflichtet, die Mindestmenge x1 = (a – c)/2b abzunehmen, was zum gleichen Ergebnis führen würde. Ebenso könnte der Hersteller einen zweiteiligen Tarif verwenden und dem Händler das Produkt zu einem Preis in Höhe der Grenzkosten verkaufen und sich seinen Gewinn durch eine feste Zahlung des Händlers an den Hersteller sichern.

318

Ulrich Schwalbe

2.7.5.2 Preisbindung zur Sicherstellung optimaler Serviceleistungen im Handel In den bisherigen Analysen wurde zumeist davon ausgegangen, dass die einzige Aufgabe des Handels darin besteht, das vom Hersteller produzierte Gut an den Endverbraucher zu verkaufen. Allerdings werden vom Handel auch zahlreiche Serviceleistungen erbracht, die weit über den einfachen Weiterverkauf hinausgehen. Hier sind vor allem Beratungsleistungen bei komplexen technischen Produkten aus dem Bereich der Unterhaltungselektronik zu nennen, aber auch bei anderen Produkten wie Autos, Sportschuhen oder Computern sind solche Beratungsleistungen wichtig. Neben der Beratungsfunktion vollbringt der Handel weitere Serviceleitungen wie die Bereitstellung einer angenehmen Einkaufsumgebung, die angemessene Präsentation der Produkte usw. Die Hersteller haben ein großes Interesse daran, dass durch den Handel diese Serviceleistungen erbracht werden, aber dies verursacht dem Handel erhebliche Investitionskosten, z.B. in Form von Schulungen für das Verkaufspersonal etc. Weiterhin ist zu berücksichtigen, dass die Bereitstellung dieser Leistungen vom Hersteller nur schwer zu beobachten ist. Hieraus können zwei wesentliche Probleme resultieren. Einerseits kann ein Hersteller in der Regel nur durch die Festlegung eines Einkaufspreises nicht sicherstellen, dass die optimale Menge an Serviceleistungen erbracht wird – es bedarf hierfür eines zweiten Instruments. Andererseits besteht zwischen den Händlern ein Trittbrettfahrer-Problem in der Form, dass Kunden die Beratungsleistungen eines Händlers in Anspruch nehmen, das Produkt jedoch bei einem anderen Anbieter, z.B. einem reinen online-Händler, erwerben, der diese Beratungsleistungen nicht anbietet, daher niedrigere Kosten hat und das Produkt zu einem günstigeren Preis anbieten kann. Ein solches Trittbrettfahrerverhalten kann dazu führen, dass diese Beratungsleitungen nicht mehr angeboten werden, was nicht im Interesse des Herstellers liegt. Im Folgenden werden diese beiden Aspekte näher erläutert. Im Modell von Winter (1993) wird von einem Hersteller h und zwei Einzelhändlern i = 1,2 ausgegangen. Die Hersteller produziert ein Gut mit konstanten Grenzkosten c, das er an die beiden Einzelhändler zu einem Einkaufspreis w und einem Festbetrag verkauft. Die Händler befinden sich an unterschiedlichen Standorten auf dem Intervall [0,1] und konkurrieren mittels Preisen p1 und p2. Daneben entstehen den Händlern Kosten für Serviceleitungen in Höhe von k(si). Die Konsumenten unterscheiden sich sowohl hinsichtlich ihres Standortes und hinsichtlich der Opportunitätskosten ihrer Zeit, das präferierte Produkt zu suchen, was als Unterschiede bezüglich Präferenzen für die Serviceleistungen der Händler interpretiert werden kann. Die Nachfrage für das Gut beim Händler i kann daher geschrieben werden als xi(p1, p2, s1, s2). Der Gewinn eines Händlers ist dann gegeben durch πi(p1, p2, s1, s2) = (p1 – w)xi(p1, p2, s1, s2) – k(si). Der Gewinn des Herstellers ergibt sich dann als πh(w, p1, p2, s1, s2) = (w – c)(x1 + x2).

2 Industrieökonomik

319

Der Gesamtgewinn der Industrie ist dann ∏( p1 , p2 ,s1 ,s2 ) = ∑ [( pi − c)xi ( p1 , p2 ,s1 ,s2 )k(si )]. i=1,2

Damit kann der Gewinn des Händlers i geschrieben werden als πi(p1, p2, s1, s2) = Π(p1, p2, s1, s2) – (w – c)xi (p1, p2, s1, s2) – (pj – c) xj (p1, p2, s1, s2) + k(sj). Ein gewinnmaximierender Händler wählt einen Preis und ein Serviceangebot so, dass gilt ∂x j ∂π i ∂∏ ∂x = − (w − c) i − ( p j − c) =0 ∂ pi ∂ pi ∂ pi ∂ pi ∂x j ∂π i ∂∏ ∂x = − (w − c) i − ( p j − c) = 0. ∂si ∂si ∂si ∂si

Die Preise p1* und p2* sowie die Serviceangebote s1* und s2* , die den Gesamtgewinn der Industrie maximieren, sind gegeben, wenn ∂Π/∂pi = 0 und ∂Π/∂si = 0. Bei der individuellen Gewinnmaximierung eines Händlers treten zwei Effekte auf, die zu einem Abweichen von den Preisen und Serviceleistungen führen können, die für die Industrie insgesamt gewinnmaximal sind. So tritt zum einen eine vertikale Externalität zwischen Hersteller und Händler auf, die aufgrund einer doppelten Marginalisierung entsteht und die durch den zweiten Term auf der rechten Seite der Gleichungen erfasst wird. Dies führt zu einem zu hohen Preis und einer ineffizient geringen Menge. Hinsichtlich der Serviceleistungen berücksichtigt der Händler nicht, dass durch sein Serviceangebot auch der Gewinn des Herstellers positiv beeinflusst wird. Er hat daher einen Anreiz, nur ineffizient geringe Serviceleistungen anzubieten. Neben der vertikalen Externalität entsteht aufgrund des unvollkommenen Wettbewerbs zwischen den Händlern auch ein horizontaler externer Effekt, der durch den dritten Term in den Gleichungen beschrieben ist. So berücksichtigen die Händler nicht, dass ein höherer Preis einen positiven Effekt auf den Gewinn des jeweils anderen Händlers hat. Dies führt zu Preisen, die im Vergleich zum gemeinsamen Gewinnmaximum zu gering sind. Die zweite horizontale Externalität beschreibt die Auswirkungen einer Erhöhung des Serviceangebotes des Händlers i auf den Gewinn des Händlers j. Diese kann die Nachfrage für den Händler j positiv oder negativ beeinflussen, je nachdem, ob zusätzlicher Service die Nachfrage bei beiden Händlern erhöht oder nur bei Händler i auf Kosten der Nachfrage bei Händler j. Wenn der Hersteller einen Einkaufspreis in Höhe von ∂x j / ∂ pi w * = c − ( p* − c) ∂xi / ∂ pi setzt, dann kann er die horizontale und vertikale Externalität hinsichtlich der Preissetzung der Händler verhindern. Allerdings ist durch diesen Einkaufspreis nicht sichergestellt, dass auch die externen Effekte bei den Serviceleistungen ausgeglichen werden. dies ist nur dann der Fall, wenn die Bedingung ε ip ε si = ε mp ε sm

320

Ulrich Schwalbe

r erfüllt ist, wobei ε p die Preiselastizität der Nachfrage nach dem Preis für den Händler i angibt. Nur wenn diese Preiselastizität im Verhältnis zur Preiselastizität der Marktnachfrage gleich dem Verhältnis der entsprechenden Elastizitäten mit Bezug auf das Serviceangebot ist, dann könnte durch den Einkaufspreis w* sowohl die optimale Preissetzung als auch das optimale Serviceangebot gewährleistet werden. Dies ist jedoch in dem hier dargestellten Modell nicht der Fall, wie man sich wie folgt deutlich machen kann. Die marginalen Konsumenten, d.h. diejenigen, die gerade indifferent zwischen Kauf und Nichtkauf des Produktes bei einem bestimmten Händler sind, setzen sich aus zwei Typen zusammen. Zum einen die Konsumenten, die bei einer Preiserhöhung von Händler i bei Händler j kaufen würden und diejenigen, die bei einer Preiserhöhung bei Händler i das Produkt gar nicht mehr erwerben würden. Ein vertikal integriertes Unternehmen, das den Gesamtgewinn der Industrie maximieren wollte, würde bei seiner Preissetzung nur die marginalen Konsumenten berücksichtigen, die an der Schwelle zwischen Kauf und Nichtkauf stehen, während die unabhängigen Händler beide Typen marginaler Konsumenten bei ihren Preis- und Serviceentscheidungen berücksichtigen würden. Allerdings sind in der Regel die Konsumenten, die einen geringen Wert auf den Service legen und für die der Preis von größerer Bedeutung ist, weiter von den Händlern entfernt, d.h., sie haben höhere Opportunitätskosten der Zeit. Dies bedeutet, dass in diesem Modell durch geringere Preise mehr Konsumenten attrahiert werden können als durch besseren Service. Relativ zu den effizienten Preisen und Serviceangeboten werden die Händler also zu geringe Preise und einen ineffizient geringen Service anbieten. Dieses Problem kann durch einen Mindestpreis p* vermieden werden, den ein Händler nicht unterschreiten darf. Dadurch ist sichergestellt, dass die Preissetzung in effizienter Weise erfolgt. Durch einen entsprechenden Einkaufspreis w, der unterhalb der Grenzkosten liegt, kann der Hersteller dafür sorgen, dass die Händler einen Anreiz haben, das effiziente Niveau an Serviceleistungen anzubieten und kann – durch einen Festbetrag, den der Händler an den Hersteller zahlt – gleichzeitig dafür sorgen, dass sich der Hersteller den gesamten Gewinn der Industrie sichert. Eine Preisbindung kann daher effizienzsteigernd wirken. Das gleiche Resultat kann auch durch Alleinvertriebsvereinbarungen erreicht werden, die jedem Händler eine bestimmte Region als exklusives Verkaufsgebiet zusichert, in der als Monopolist agieren kann. Dadurch sind der Wettbewerb und damit auch die horizontalen Externalitäten zwischen den Händlern ausgeschaltet. Der Hersteller kann die Probleme der doppelten Marginalisierung in den beiden Regionen durch entsprechende zweiteilige Tarife verhindern und das für die Industrie effiziente Ergebnis erreichen. Ein weiterer Aspekt bezüglich des Angebotes von Serviceleistungen durch den Handel besteht, wie oben bereits erwähnt, in einer zusätzlichen Externalität, die durch das Serviceangebot ausgelöst wird: Die Händler, die ein solches Angebot bereitstellen, haben höhere Kosten und in der Regel auch höhere Preise als Händler, die keine solchen Leistungen anbieten. Kunden können daher erst die Beratungsleistungen eines Händlers in Anspruch nehmen und dann das Produkt zu einem günstigeren Preis bei einem anderen Händler erwerben, der diese Leistungen nicht anbieten. Es gibt daher einen starken Anreiz

2 Industrieökonomik

321

für Händler, nicht oder nur in ineffizient geringem Maße in solche Aktivitäten zu investieren und es ist damit zu rechnen, dass langfristig diese Serviceleistungen nicht mehr angeboten werden. Dies liegt jedoch häufig nicht im Interesse des Herstellers, der wünscht, dass die Händler einen entsprechenden Service anbieten. Hier könnte eine Preisbindung zur Bereitstellung eines effizienten Serviceangebotes beitragen. Da Händler nun nicht mehr mittels Preiswettbewerb Kunden abwerben können, gibt es für einen Konsumenten keinen Grund mehr, zu einem anderen Händler zu wechseln, der er auch dort den gleichen Preis bezahlen müsste. allerdings ist nicht sichergestellt, dass eine Preisbindung automatisch auch zu einem besseren Service führt. Die Gewinnmarge eines Händlers ist umso höher, je geringer die Kosten und damit auch das Serviceniveau ist. Daher muss der Hersteller neben der Preisbindung auch das von den Händlern angebotene Serviceniveau überwachen.

2.7.5.3 Preisbindung zur Stützung koordinierten Verhaltens Durch die Verwendung von Preisbindungen wird jedoch nicht nur die Effizienz innerhalb einer vertikalen Struktur beeinflusst, sondern sie hat immer auch Auswirkungen auf den Wettbewerb zwischen verschiedenen Wertschöpfungsketten, den so genannten Interbrand-Wettbewerb. So kann die Wettbewerbsintensität auf der Ebene der Hersteller oder der Händler reduziert werden, d.h. es kann ein kollusives bzw. kartellähnliches Verhalten auf der Hersteller- oder Händlerebene resultieren. Preisbindung und kollusives Verhalten auf der Herstellerebene Mathewson/Winter (1998) haben darauf hingewiesen, dass eine Preisbindung ein kollusives Verhalten der Hersteller ermöglichen oder zumindest erleichtern kann, weil sie die Markttransparenz erhöht und ein Abweichen von einer Verhaltenskollusion somit leichter entdeckt werden kann.127 Wenn die Hersteller eines bestimmten Produktes nicht beobachten können, welche Vereinbarungen zwischen den Herstellern ähnlicher Güter und ihren Händlern getroffen werden, so können sie aus den Preisen, die die Endverbraucher zahlen, in aller Regel keinen Rückschluss auf die Großhandelspreise ziehen. Mit anderen Worten: Der Markt weist eine nur geringe Transparenz auf, was ein kollusives Verhalten der Hersteller erschwert. Eine Preisbindung würde nun dazu führen, dass die Hersteller die Endverbraucherpreise unmittelbar kontrollieren und ein Abweichen vom kollusiven Verhalten leichter aufdecken können. Dies wiederum bedeutet eine erhöhte Markttransparenz, die ein kollusives Verhalten der Hersteller erleichtern kann. Preisbindungen und Kollusion auf der Händlerebene Durch eine Preisbindung wird ein Abweichen von einem kollusiven Verhalten durch einen geringeren Preis verhindert und so ein Kartell der Händler stabilisiert oder erst ermöglicht. In vielen Fällen wird dabei von den Händlern ein gemeinsamer Zulieferer als „Kartellwächter“ etabliert, der in der Position ist, ein Abweichen von der 127

Vgl. Mathewson/Winter (1998) Für eine formale Darstellung vgl. Jullien/Rey (2007)

322

Ulrich Schwalbe

Verhaltenskollusion einfach festzustellen, da das abweichende Unternehmen eine größere Menge des Produktes benötigt. Dieses Abweichen kann er verhindern, indem er die zusätzliche Menge nicht oder nur zu einem höheren Preis liefert. Darüber hinaus kann er die anderen Händler über das Abweichen informieren und das abweichende Unternehmen, z.B. durch Nichtbelieferung, sanktionieren. Um die Funktion des Kartellwächters zu übernehmen, muss dem „Common Agent“ ein entsprechender Anreiz geboten werden. Dies könnten z.B. höhere Großhandelspreise sein, die von den Händlern aus den aufgrund der Verhaltenskollusion erhöhten Gewinnen gezahlt werden können. Auf diese Weise kann eine Preisbindung als Ersatz für ein Händlerkartell in Form eines Radnaben-Kartells fungieren. Alternativ könnte die Mitwirkung eines Zulieferers sichergestellt werden, wenn ein marktmächtiger Händler glaubhaft damit drohen kann, gegebenenfalls nicht mehr beim Zulieferer zu kaufen. Allerdings ist darauf hinzuweisen, dass nach unserer Kenntnis bislang noch keine rigorose formale Analyse dieses Ansatzes vorgelegt wurde und dass bisher nur vergleichsweise wenige Fälle bekannt sind, die die Theorie des Händlerkartells stützen.

2.7.5.4 Preisbindungen und „Interlocking Relationships“ Bestehen zwischen mehreren Herstellern und mehreren Händlern wechselseitige Lieferund Abnahmebeziehungen, spricht auch von einer „Double Common Agency“ die auch als „Interlocking Relationship“ bezeichnet wird.128 Im Falle von zwei Wertschöpfungsketten A und B mit jeweils einem Hersteller und einem Händler, d.h. in einem bilateralen Oligopol, liefern die beiden Hersteller jeweils an die beiden Händler und beide Händler beziehen jeweils von beiden Herstellern. Im Rahmen eines verhandlungstheoretischen Modells mit differenzierten Unternehmen sowohl auf der Hersteller- als auch der Händlerebene zeigen Dobson/Waterson (2007), dass im Falle wechselseitiger Beziehungen eine Preisbindung die Anreize der Händler verringert, besonders hart mit den Herstellern über die Großhandelspreise zu verhandeln. Der Grund liegt vor allem darin, dass aufgrund der Preisbindung ein Händler seinen Konkurrenten nicht unterbieten kann und daher eine Erhöhung seiner Marktanteile auf Kosten des Wettbewerbers nicht möglich ist. Dies wiederum hat zur Folge, dass auch der Wettbewerb zwischen den beiden Herstellern reduziert wird. Anders ausgedrückt: Auf beiden Stufen der Wertschöpfungsketten, zwischen denen wechselseitige Liefer- und Abnahmebeziehungen bestehen, kann durch eine Preisbindung der Wettbewerbsdruck zwischen den Unternehmen reduziert werden. Wie groß die Verringerung der Wettbewerbsintensität ist, hängt vor allem von der relativen Verhandlungsmacht der Händler bzw. der Hersteller sowie vom Differenzierungsgrad der Unternehmen ab. Allerdings kann in diesem Modell eine Preisbindung auch wohlfahrtserhöhende Wirkungen aufweisen, wenn die Händler sich stark unterscheiden und nur eine geringe Verhandlungsmacht gegenüber den Herstellern haben, da aufgrund der Vermeidung der doppelten Marginalisierung 128 Vgl. hierzu die Arbeiten von Dobson/Waterson (2007) bzw. Rey/Vergé (2004) und Rey/ Vergé (2010).

2 Industrieökonomik

323

erhebliche Wohlfahrtsgewinne entstehen. Ist jedoch der Interbrand-Wettbewerb gering und verfügen die Händler über eine große Verhandlungsmacht gegenüber den Herstellern, dann können sich im Gleichgewicht Preise in Höhe des Monopolpreises ergeben, d.h. die Konsumentenrente nimmt ab. Dies gilt insbesondere dann, wenn der IntrabrandWettbewerb ohne eine Preisbindung intensiv wäre. Dieses Modell wurde von Rey/Vergé (2010) auf zweiteilige Tarife erweitert, um dadurch das Problem der doppelten Marginalisierung auszublenden. Ohne eine Preisbindung würde im Gleichgewicht aufgrund des Inter- und des Intrabrand-Wettbewerbs ein vergleichsweise wettbewerbliches Ergebnis resultieren. Während ohne Preisbindung eine Änderung des Großhandelspreises zu einer Änderung der Einzelhandelspreise führt, ist dies aufgrund der Preisbindung nun nicht mehr der Fall. Das für die Hersteller gewinnmaximale Gleichgewicht impliziert Großhandelspreise in Höhe der Grenzkosten, denn dann hat keiner der Hersteller einen Anreiz, den anderen zu unterbieten.129 Die Einzelhandelspreise werden von den Herstellern mittels Preisbindung auf das Monopolpreisniveau festgelegt und die entstehenden Monopolgewinne können durch die entsprechende Wahl des Fixums des zweiteiligen Tarifs zwischen Herstellern und Händlern aufgeteilt werden. Insgesamt kommen Rey/Vergé (2010) zu dem Ergebnis, dass bei Wettbewerb auf der Hersteller- und der Händlerebene und wechselseitigen Liefer- und Abnahmebeziehungen eine Preisbindung dazu führen kann, dass sowohl der Intra- als auch der Interbrand-Wettbewerb völlig ausgeschaltet wird, d.h. es kann sich das gleiche Resultat einstellen wie bei einem Kartell sowohl auf der Hersteller- als auch auf der Händlerebene. Insgesamt gesehen zeigt sich, dass Preisbindungen sowohl effizienzerhöhende als auch wettbewerbsbeschränkende Wirkungen aufweisen können. Ein pauschales per-se Verbot scheint daher aus ökonomischer Sicht problematisch.

2.7.6

Vertikale Restriktionen: Alleinvertriebs- und Alleinbezugsvereinbarungen

Es wurde bei der Diskussion der Preisbindung bereits darauf hingewiesen, dass ähnliche Ergebnisse, wie z.B. bei der Sicherstellung effizienter Serviceleistungen durch den Handel auch durch Alleinvertriebsvereinbarungen mit Gebietsschutz erzielt werden können. Hier wird einem Händler in einer bestimmten Region vom Hersteller zugesichert, dass er der alleinige Verkäufer des Produktes des Herstellers ist, d.h., es wird ihm gleichsam eine Monopolstellung eingeräumt. Bei einer Alleinbezugsvereinbarung verpflichtet sich der Händler, keine Substitute zum Produkt des Herstellers anzubieten, d.h., er verzichtet darauf, seinen Kunden andere, substitutive Güter anbieten zu können. Die Chicago-School hat dabei die Ansicht vertreten, dass solche Arrangements zwischen Herstellern und Neben diesem Gleichgewicht gibt es noch eine Vielzahl weiterer Gleichgewichte, in denen die Hersteller jedoch geringere Gewinne erzielen. Das gewinnmaximale Gleichgewicht ist eindeutig, wenn die Händler Verkaufsanstrengungen oder Serviceleistungen erbringen müssen. 129

324

Ulrich Schwalbe

Händlern aus Effizienzgründen getroffen werden. Neuere Untersuchungen hingegen haben deutlich gemacht, dass auch Alleinvertriebs- und Alleinbezugsvereinbarungen negative wettbewerbliche Wirkungen entfalten können. So kann eine Alleinvertriebsvereinbarung dem Zweck dienen, den Wettbewerb zwischen Herstellern zu beschränken. Alleinbezugsvereinbarungen können als Instrument fungieren, den Marktzutritt auch eines effizienteren Unternehmens zu verhindern. Diese wettbewerbsbeschränkenden Wirkungen werden im Folgenden anhand zweier Modelle diskutiert.

2.7.6.1 Alleinvertriebsvereinbarungen zur Beschränkung des Wettbewerbs Es wird ein Markt mit zwei Herstellern h1 und h2 betrachtet, deren Produkte in den beiden Regionen r ∈ {a, b} verkauft werden. In jeder Region gibt es einen Einzelhändler für jedes Produkt. Der Einzelhändler für Produkt i in Region r wird mit eir bezeichnet. Es wird angenommen, dass den Händlern keine Transportkosten entstehen, wenn sie das Produkt in der jeweils anderen Region anbieten. Die Konsumenten sind indifferent, ob sie das Produkt i des Herstellers hi, i = 1,2 bei einem Einzelhändler eia oder eib kaufen. Allerdings sind die Produkte 1 und 2 für die Konsumenten nur unvollständige Substitute. Aus Vereinfachungsgründen wird unterstellt, dass die Kosten der Hersteller gleich null sind und den Händlern lediglich Kosten durch den Bezug der Produkte in Höhe des Einkaufspreises wi entstehen. Die Nachfrage nach den beiden Gütern 1 und 2 in einer Region r ist gegeben durch xi = a – pi + bpj,

i = 1,2 und i ≠ j und 0 < b < 1.

Ohne Alleinvertriebsvereinbarungen würden die Händler in den beiden Regionen konkurrieren und im Gleichgewicht würden Preise für die beiden Produkte resultieren, die den jeweiligen Grenzkosten entsprechen, d.h. es würde gelten p1 = w1 und p2 = w2. Der Gewinn den jeder Hersteller in diesem Fall realisiert, beträgt πi = awi – wi2 + bwiwj, i = 1,2 und i ≠ j. Die Reaktionsfunktionen der beiden Hersteller sind dann w1 =

a + bw 2 a + bw1 und w 2 = . 2 2

Die Gleichgewichtspreise betragen dann w * = w1* = w 2* =

a 2−b

und die Gewinne der beiden Hersteller im Gleichgewicht sind gegeben durch 2 a ⎞ π * = π 1* = π 2* = ⎛⎜ . ⎟ ⎝ 2−b⎠ Im Folgenden wird nun angenommen, dass jeder Hersteller mit den jeweiligen Einzelhändlern eine Alleinvertriebsvereinbarung abschließt, die dafür sorgt, dass z.B.

2 Industrieökonomik

325

Einzelhändler eia nur in Region a aktiv ist und das Produkt nicht mehr auch in Region b anbietet. Dieser Händler hat dann in der jeweiligen Region eine Monopolstellung bezüglich des Produktes i und konkurriert in dieser Region nur noch mit dem Produkt j. Da ein Händler aufgrund seiner Monopolstellung nun einen positiven Gewinn realisiert, wird er bereit sein, eine solche Alleinvertriebsvereinbarung zu schließen. Ein Händler maximiert nun in jeder Region r seinen Gewinn r

πir = ( pir – wi)(a – pir + b p j ), i = 1,2 und i ≠ j. Die Bedingungen erster Ordnung sind dann ∂π ir a(2 + b)+ ab + bw * + 2wi = . ∂ pir 4 − b2 Dabei geht jeder Händler davon aus, dass in einem symmetrischen Gleichgewicht der konkurrierende Händler in der gleichen Region den gleichen Einkaufspreis w* zahlen muss. Für die Preise pir gilt dann pir =

a(2 + b)+ ab + bw * + 2wi . 4 − b2

Geht man von einer symmetrischen Lösung mit w1 = w2 = w** aus, dann resultieren die Preise pir =

a + w ** . 2−b

Da nun Hersteller und Händler jeweils eine Monopolstellung innehaben, tritt das Problem der doppelten Marginalisierung auf und der Verkaufspreis der beiden Güter ist höher als ohne diese Vereinbarung und die Einzelhändler können einen positiven Gewinn realisieren. Gegeben dieses Preissetzungsverhalten der Händler, maximiert der Hersteller i seinen Gewinn πi = wi(a – pir (wi, w**) + bpjr (w**, w**)),

i = 1,2.

Die Bedingungen erster Ordnung für ein Gewinnmaximum lauten: ∂π i ∂ pr (w ,w ** ) = a − pir (wi ,w ** )− wi i i + bprj (w ** ,w ** ) = 0, i = 1,2. ∂wi ∂wi Da im symmetrischen Gleichgewicht wi = w** gilt und ∂ pir (wi, w**)/∂wi = 2/(4 – b2) ist, resultiert als gleichgewichtiger Einkaufspreis w ** =

a(2 + b) . 4 − b − b2

Einsetzen in die Gleichung für den Preis ergibt die gleichgewichtigen Verkaufspreise a(6 − b 2 ) p** = . (2 − b)(4 − b − b 2 )

326

Ulrich Schwalbe

Die Gewinne eines Herstellers im Gleichgewicht sind bei diesen Preisen gegeben durch a 2 2(2 − b) π ** = . (2 − b)(4 − b − b 2 ) Für einen Hersteller besteht ein Anreiz, trotz des Problems der doppelten Marginalisierung, das zu geringeren Absatzmengen führt, eine Alleinvertriebsvereinbarung anzubieten, wenn die Bedingung 2 a 2 2(2 − b) ⎛ a ⎞ * π ** = > ⎜ ⎟ =π (2 − b)(4 − b − b 2 )2 ⎝ 2 − b ⎠ erfüllt ist. Dies ist dann der Fall, wenn 0.784 < b < 1 gilt, d.h. wenn die beiden Produkte hinreichend enge Substitute sind. In diesem Fall führt die Beschränkung des Wettbewerbs durch Alleinvertriebsvereinbarungen zu einem höheren Gewinn sowohl für die Hersteller als auch die Händler. Die Hersteller profitieren davon, dass die Nachfrage nach ihren Produkten weniger stark vom Preis abhängt als im Fall ohne Alleinvertriebsvereinbarungen und die Händler von ihren Monopolpositionen bezüglich der Produkte eines Herstellers in den jeweiligen Regionen Da im Ergebnis die Verkaufspreise höher sind als ohne solche Vereinbarungen, nehmen sowohl die Konsumentenrente als auch die gesamte volkswirtschaftliche Rente ab.

2.7.6.2 Alleinbezugsvereinbarungen zur Abschreckung von Markteintritten Wenn ein etablierter Hersteller eines bestimmten Produktes mit einem Händler eine Alleinbezugsvereinbarung abgeschlossen hat, so impliziert dies, dass andere Produzenten ihre Produkte nicht mehr über diesen Händler vertreiben können. In diesem Sinne werden andere Produzenten von dem Vertriebsweg über diesen Händler ausgeschlossen. Daher stellt sich zunächst die Frage, inwieweit andere Produzenten noch genügend Möglichkeiten haben, ihre Produkte durch weitere Händler zu vertreiben, d.h., ob der Händler mit dem Alleinbezugsrecht über Marktmacht verfügt oder nicht. Aber selbst dann, wenn die anderen Produzenten auf diesen Händler angewiesen wären, ist zu untersuchen, ob durch einen solchen Exklusivbezug ein Wettbewerbsproblem auftreten würde. So argumentierten Vertreter der Chicago School, dass ein gewinnmaximierender Händler keinen Anreiz hat, einen etablierten Produzenten gegenüber einem anderen, neu in den Markt eintretenden Produzenten zu bevorzugen. Im Wettbewerb der Produzenten um eine solchen Exklusivvertrag würde sich der effizienteste Hersteller durchsetzen, weil dieser dem Händler das attraktivste Angebot für eine solche exklusive Vertragsbeziehung machen könnte. Daher sei es nicht möglich, dass ein etabliertes Unternehmen mittels eines Exklusivvertrages ein effizienteres Unternehmen vom Markt ausschließt. Insofern würden Exklusivvereinbarungen nicht zu wohlfahrtsschädlichen Marktausschließungseffekten führen. Dieses Argument kann anhand eines Marktes mit einem etablierten Unternehmen I, einem potentiellen Wettbewerber E, der in den Markt eintreten möchte, illustriert werden.130 Beide Unternehmen stellen das gleiche homogene Produkt her, wobei das etablierte 130

Die Argumentation folgt der Darstellung von Belleflamme/Peitz (2015), 464f.

2 Industrieökonomik

327

Unternehmen mit Grenzkosten in Höhe von cI produziert. Der potentielle Wettbewerber verfügt über eine effizientere Technologie und produziert mit Grenzkosten in Höhe von cE < cI. Allerdings muss der potentielle Wettbewerber bei einem Markteintritt noch versunkene Kosten in Höhe von e aufwenden. Die Nachfrage nach dem Produkt sei gegeben durch x(p). Es wird angenommen, dass ein Markteintritt des potentiellen Wettbewerbers effizient ist, d.h. die Bedingung (cI – cE)x(p) > e ist erfüllt. Weiterhin gibt es einen monopolistischen Händler, der in der Lage ist, sich die gesamte Konsumentenrente der Endabnehmer zu sichern. Das etablierte Unternehmen könnte nun dem Händler gegen eine Bezahlung in Höhe von b eine Alleinbezugsvereinbarung anbieten. Es stellt sich die Frage, ob der Händler diese Vereinbarung annehmen würde. Die maximale Zahlung, die das etablierte Unternehmen anbieten könnte, wäre der Monopolgewinn πI = (pI – cI)x(pI), den es behalten würde, wenn es durch eine Alleinbezugsvereinbarung den Markteintritt verhindern könnte. Dabei bezeichnet pI den Monopolpreis, den das etablierte Unternehmen verlangen würde. Bei einem Markteintritt des potentiellen Wettbewerbers würde er aufgrund seiner geringeren Effizienz keinen Gewinn erwirtschaften können. Der potentielle Wettbewerber hingegen könnte einen Gewinn in Höhe von πE = (cI – cE)x(cI) realisieren.131 Würde der Händler die Alleinbezugsvereinbarung akzeptieren, dann macht er einen Verlust, denn er muss den höheren Monopolpreis pI zahlen statt des geringeren Preises cI. Dieser Verlust des Händlers ist gegeben durch die Konsumentenrente, die er sich aufgrund des höheren Preises nicht mehr aneignen kann und der geschrieben werden kann als p1

V = ∫ x( p)dp. c1

Dieser Verlust umfasst annahmegemäß die Konsumentenrente in diesem Intervall und ist damit größer als der Monopolgewinn, da der Wohlfahrtsverlust im Monopolgewinn nicht enthalten ist. Es gilt daher b ≤ πI < V. Daher könnte das etablierte Unternehmen dem Händler keine ausreichend hohe Kompensation durch seinen Verlust anbieten, um den Markteintritt eines effizienteren Wettbewerbers zu verhindern. Wenn es daher, so die Chicago-Schule, zu Alleinbezugsvereinbarungen kommt, dann geschieht dies aus Effizienzgründen, nicht aber, um den Wettbewerb zu beschränken. Allerdings basiert dieses Modell auf restriktiven Annahmen, wie z.B. einem monopolistischen Händler, der in der Lage ist, sich die gesamte Konsumentenrente anzueignen. Wenn diese Bedingungen jedoch nicht erfüllt sind, d.h. wenn es mehrere Händler gibt oder wenn nicht alle Tauschgewinne zwischen Händler und Endabnehmer ausgeschöpft werden, können Alleinbezugsvereinbarungen wettbewerbsbeschränkende Auswirkungen haben. Um dies deutlich zu machen, wird von einer Industrie mit einem etablierten Hersteller, der mit Grenzkosten in Höhe von cI produziert, sowie einem etablierten Händler, der mit

131 Dabei wird angenommen, dass bei gleichem Preis der Händler vom effizienteren Unternehmen kauft.

328

Ulrich Schwalbe

Grenzkosten ci operiert, ausgegangen.132 Es wird angenommen, dass auf dem Markt für das Endprodukt 100 Einheiten abgesetzt werden, solange der Preis unterhalb einer Obergrenze p liegt. Die Unternehmen werden daher das Produkt zu einem Preis p = p verkaufen und der Gesamtgewinn der Industrie beträgt πI + πi = 100(p – cI – ci). Angenommen, in den Markt könnte ein weiterer Hersteller eintreten, der mit Grenzkosten in Höhe von cE = cI – ε produziert, d.h. effizienter ist als der etablierte Hersteller. Weiterhin wird unterstellt, dass auch ein weiterer Händler in den Markt eintreten kann, der jedoch weniger effizient ist als der etablierte Händler und mit Grenzkosten von ce = ci + λ operiert. Dabei wird unterstellt, dass der Effizienznachteil des alternativen Händlers nicht sehr groß ist, d.h. es gilt λ < p – cI – ci. Ohne eine Alleinbezugsvereinbarung würde der etablierte Händler vom neu in den Markt eingetretenen Hersteller beziehen. Die Gesamtkosten der beiden Unternehmen betragen dann cI – ε + ci. Dem etablierten Hersteller bleibt nun nur noch die Möglichkeit, seine Produkte über den neu in den Markt eingetretenen Händler zu verkaufen. Diesen beiden Unternehmen entstehen zusammen Kosten in Höhe von cI = ci + λ. Da die beiden anderen Unternehmen aufgrund ihres Kostenvorteils und der Homogenität der Produkte immer günstiger anbieten kann als der etablierte Hersteller zusammen mit dem ineffizienten Händler, können diese beiden Unternehmen keinen positiven Gewinn erwirtschaften. Allerdings impliziert die Existenz dieser beiden Unternehmen eine Obergrenze für den Preis, den die beiden anderen Unternehmen verlangen können. Der Verkaufspreis kann jetzt nicht mehr p betragen, sondern höchstens noch p = cI + ci + λ. Der Gewinn der effizienten Kombination von Hersteller und Händler kann einen Gewinn in Höhe von πE + πi = 100(cI + ci + λ – (cI – ε) – ci) = 100(ε + λ). Geht man davon aus, dass der Gewinn entsprechend der Effizienzvorteile gegenüber dem alternativen, weniger effizienten Unternehmen erzielt, dann erhält der Hersteller den Gewinn in Höhe von 100ε und der Händler den Gewinn von 100λ. Nach einem Markteintritt wäre der Gewinn der beiden etablierten Unternehmen, 0 für den Hersteller und 100 für den Händler, geringer, denn es gilt 100λ < 100( p – cI – ci). Daraus wird deutlich, dass es einen starken Anreiz für den etablierten Hersteller und dem etablierten Händler gibt, eine Alleinbezugsvereinbarung zu treffen, da in diesem Fall der Gewinn jeder der beiden Firmen höher als bei einem Markteintritt. Dies würde dazu führen, dass die beiden alternativen Unternehmen effektiv vom Markt ferngehalten werden.

132

Das folgende Modell ist eine vereinfachte Darstellung des Modells von Comanor/Rey (2000).

2 Industrieökonomik

329

Ein weiteres Beispiel für die wettbewerbsbeschränkenden Wirkungen von Alleinbezugsvereinbarungen basiert auf der Überlegung, dass es für einen neu eintretenden Produzenten häufig nicht ausreicht, sein Produkt nur über einen Händler zu vertreiben. Aufgrund der Notwendigkeit, mit einer Mindestmenge in den Markt einzutreten, z.B. wenn er mit zunehmenden Skalenerträgen produziert, muss er gleichzeitig über mehrere Händler vertreiben, benötigt also ein flächendeckendes Händlernetz.133 In diesem Fall tritt nun folgendes zusätzliche Problem auf: Für den einzelnen Händler ist das Ablehnen eines Exklusivvertrags mit dem etablierten Hersteller und der dann notwendige Bezug von dem neu eintretenden Produzenten keine Alternative, wenn nicht gleichzeitig auch eine Mindestanzahl von Händlern vom neu eintretenden Produzenten bezieht. Nur wenn sich mehrere Händler zusammenschließen und gemeinsam mit den beiden Produzenten verhandeln, kann dieses Problem überwunden werden. Wenn die Händler sich nicht koordinieren können oder dürfen, ist davon auszugehen, dass durch Exklusivverträge mit dem etablierten Produzenten ein neu eintretender Produzent selbst dann vom Markt ausgeschlossen bleiben kann, wenn er effizienter produziert und damit zu niedrigeren Preisen anbieten kann als der etablierte Produzent. Bei einer solchen nicht unrealistischen Konstellation könnten Exklusivvereinbarungen zu wettbewerbsschädlichen Marktausschließungseffekten führen. Dieses Problem kann aber dann gemildert werden, wenn zwischen den wiederverkaufenden Händlern ein starker Wettbewerb herrscht. In diesem Fall kann ein niedrigerer Einkaufspreis, den ein neu in den Markt eintretender Produzent von seinen Abnehmern verlangt, diesen Händlern einen Wettbewerbsvorsprung gegenüber denen verschaffen, die mit einem Exklusivvertrag an den etablierten Produzenten gebunden sind. Dies hat zur Folge, dass erstere ihren Gewinn auf Kosten der letzteren erhöhen können.

2.7.7

Empirische und experimentelle Evidenz

2.7.7.1 Empirische Evidenz zur doppelten Marginalisierung Empirische Evidenz für das Vorliegen eines doppelten Preisaufschlages wurde in mehreren Untersuchungen für eine Reihe von Industrien nachgewiesen. So konnte nachgewiesen werden, dass bei Flügen, die sich aus mehreren Teilstrecken zusammensetzen und die von unabhängigen Airlines angeboten werden, in der Regel höhere Preise verlangt werden, als wenn der Flug von einer Airline oder unter einer Code-Sharing Vereinbarung angeboten wird. (Brueckner/Picard (2013); Brueckner/Proost (2010)). Im englischen Biermarkt haben sich nach einer Empfehlung der „Monopolies and Merger Commission“ zahlreiche Brauereien von ihren angeschlossenen Pubs getrennt, woraufhin die Preise für Bier deutlich angestiegen sind. Diese Entwicklung ist mit der Theorie vereinbar, denn bei einer vertikalen Trennung sind die Preis höher als bei vertikaler Integration (Slade (1998)). Ein weiteres Beispiel für das Vorliegen einer doppelten Marginalisierung bietet das US-amerikanische Kabelfernsehen. Hier koexistieren vertikal integrierte Unternehmen, die ihre 133

Rasmusen/Ramseyer/Wiley (1991).

330

Ulrich Schwalbe

eigenen Sendungen produzieren und über ihr Kabelnetz vertreiben mit reinen Kabelnetzbetreibern. Wird als Indikator für einen doppelten Preisaufschlag die Anzahl der Kunden herangezogen, so zeigt sich, dass die integrierten Unternehmen über eine deutlich größere Zahl von Kunden verfügen als die Unternehmen, die keine eigenen Sendungen produzieren. Dies entspricht dem Ergebnis, das bei einem doppelten Preisaufschlag zu erwarten wäre (Waterman/Weiss (1996)).

2.7.7.2 Empirische Evidenz zur Marktverschließung Bislang wurden nur vergleichsweise wenige empirische Untersuchungen zu Marktverschließungseffekten vorgelegt. Eine frühe Studie von Rosengren/Meehan (1994) findet in ihren Untersuchungen keine Evidenz von Marktverschließungseffekten aufgrund vertikaler Zusammenschlüsse. Neuere Untersuchungen hingegen gelangen zu Ergebnissen, die mit den theoretischen Analysen eher in Einklang stehen. So weist Chipty (2001) für den Bereich des Kabelfernsehens in den USA nach, dass vertikal integrierte Netzbetreiber rivalisierende Anbieter vom Markt verdrängen, d.h. Marktanteile verschieben sich zu den integrierten Firmen. Snyder stellt in mehreren Event-Studien zu unterschiedlichen Industrien, wie die Öl- oder Bierindustrie fest, dass die öffentliche Ankündigung eines vertikalen Zusammenschlusses oder auch das Rückgängig machen von Fusionen durch die Wettbewerbsbehörde Auswirkungen auf den Aktienkurs von unabhängigen DownstreamUnternehmen hat (Snyder (1994, 1995a, 1995b)). So deutet ein Rückgang des Aktienkurses eines nichtintegrierten Unternehmens auf eine Ankündigung einer Fusion zweier anderer Unternehmen auf das Vorliegen von Marktverschließungen hin. Seine Untersuchung des britischen Biermarktes, insbesondere der vertikalen Integration von Brauereien und Pubs zeigen, dass die Maßnahmen der „Monopolies and Merger Commission“ zur Desintegration zu einer Steigerung des Aktienkurses von Guinness, einem nichtintegrierten Unternehmen, geführt haben, was auf das Vorliegen von Foreclosure hindeutet. Seine Untersuchung des Erdölmarktes, d.h. von Produktion und Raffinierung (Snyder (1995a, 1995b)), zeigen einen kleinen Rückgang des Aktienkurses unabhängiger Unternehmen aufgrund der Ankündigung eines vertikalen Zusammenschlusses von Wettbewerbern. Eine weitere Untersuchung von Marktverschließungseffekten wurde im Zusammenhang mit der Übernahme zahlreicher Eisenerzminen durch das Unternehmen US Steel in den Jahren 1905-1906 vorgelegt (Mullin/Mullin (1997)). Sie betrachten die Auswirkungen einer vertikalen Integration auf Eisenbahnunternehmen, die größten Abnehmer der Produkte. Hier werden Marktverschließungseffekte anhand von Preiserhöhungen der Futures der betreffenden Produkte bzw. durch einen Rückgang der Aktienkurse der Eisenbahnunternehmen erfasst. Es zeigt sich, dass die Rückwärtsintegration von US Steel in die Eisenerzproduktion für die Eisenbahnunternehmen vorteilhaft gewesen ist. Dies deutet darauf hin, dass die vertikale Integration in diesem Fall vor allem durch Effizienzgewinne getrieben war.

2 Industrieökonomik

331

2.7.7.3 Empirische Evidenz zur Preisbindung Bisher sind nur vergleichsweise wenige empirische Untersuchungen zu den Wirkungen von Preisbindungen durchgeführt worden.134 Die erste ausführliche Studie zu den Wirkungen von Preisbindungen stammt von Overstreet (1983), der 68 Fälle von Preisbindungen betrachtet, die von der FTC in den Jahren 1965 bis 1982 untersucht und entschieden wurden, wobei er davon ausgeht, dass diese Fälle repräsentativen Charakter haben.135 Er gelangt zu dem Ergebnis, dass in einer Reihe von Fällen Effizienzgründe ein Motiv für die Verwendung von Preisbindungen waren. Die Daten lassen nicht den Schluss zu, dass generell ein kollusives Verhalten auf der Hersteller- noch auf der Händlerebene vorgelegen hat. Eine Kollusion auf Herstellerebene scheint umso weniger wahrscheinlich, je geringer die Verbreitung von Preisbindungen im Markt ist und je unterschiedlicher die Händler sind. Insgesamt lässt sich aus den Daten nicht schließen, dass Preisbindungen vorrangig wettbewerbsbeschränkende Wirkungen aufweisen. Eine Untersuchung von Gilligan (1986) anhand der Entwicklung der Aktienkurse nach Beschwerden über Preisbindungen bei der FTC und dem Department of Justice aus den Jahren 1962 bis 1982 weist darauf hin, dass Preisbindungen aus unterschiedlichen Motiven eingesetzt werden und ein breites Spektrum allokativer Wirkungen zeitigen. Dabei sind die strukturellen Eigenschaften der Unternehmen, der Industrie und der Märkte von wesentlicher Bedeutung. So begünstigt eine hohe Konzentration auf der Händlerebene eine Verhaltenskollusion, da ein Abweichen vom kollusiven Gleichgewicht leichter aufgedeckt werden kann. Darüber hinaus wird das Erreichen einer Übereinkunft vereinfacht. Auch auf der Herstellerebene ist ein höheres Konzentrationsniveau ein Indikator für kollusive Wirkungen von Preisbindungen. Allerdings können Preisbindungen zu einer Effizienzerhöhung innerhalb einer Wertschöpfungskette führen, weil durch sie Anreizprobleme zwischen Herstellern und Händlern vermieden werden können. Dies gilt umso mehr, je weniger Alterativen zur Preisbindung zur Verfügung stehen und je größer die Marktanteile des Herstellers sind. Ippolito (1991) versucht in ihrer Analyse von 203 Fällen von Preisbindungen (davon 153 Fälle mit Fest- und Mindestpreisbindungen) aus den Jahren 1975-1982 festzustellen, welche der theoretischen Aussagen über die Wirkungen von Preisbindungen gestützt werden können oder verworfen werden müssen. Von den Fällen betreffen nur 7,2% eine Kollusion auf der Händlerebene und nur 5,9% eine Kollusion auf der Ebene der Hersteller, so dass die Herbeiführung einer Verhaltenskollusion nicht der vorrangige Zweck gewesen sein dürfte. Ein deutlich größerer Anteil der Fälle deutet auf effizienzerhöhende Motive bei der Verwendung von Preisbindungen hin: So betreffen 47,1% der Fälle ‚komplexe‘ Güter, so dass hier die Sicherstellung spezieller Pre-Sales Serviceleistungen als Erklärung für die Preisbindung herangezogen werden könnte. Bei weiteren 20% handelt es sich um Güter wie z.B. Modeartikel, Zu nennen sind die Untersuchungen von Overstreet (1983), Gilligan (1986), Ippolito (1991), Kleit (1993), Hersch (1994) sowie Ippolito/Overstreet (1996). 135 Weiterhin gibt Overstreet (1983) einen Überblick über frühere Untersuchungen von Preisen bei Preisbindungen, über Einzelfallstudien sowie über ältere Studien der FTC zur Preisbindung. 134

332

Ulrich Schwalbe

für die das Qualitätszertifizierungsargument Gültigkeit haben könnte. Schließlich beziehen sich 3,9% der Fälle auf den Markteintritt eines neuen Anbieters, so dass insgesamt ca. 80% aller Fälle mit der Rolle von Preisbindungen zur Vermeidung von Trittbrettfahrerproblemen und der Sicherstellung der gewünschten Verkaufsanstrengungen der Händler vereinbar sind. Insgesamt gelangt Ippolito zu dem Ergebnis, dass Preisbindungen eher die Funktion haben, die Effizienz zu erhöhen als ein kollusives Verhalten zu ermöglichen. In einer Fallstudie über die Cornish Glass Works, einem Hersteller von Glaswaren, untersuchen Ippolito/Overstreet (1996) die verschiedenen Ansätze zur Erklärung von Preisbindungen. Da die im Unternehmen hergestellten Produkte von vergleichsweise geringer Komplexität sind und die Marke seit langem eingeführt ist, scheinen die Argumente eines speziellen Pre-Sales Service oder einer Qualitätszertifizierung hier nicht einschlägig. Aufgrund der Tatsache, dass Wettbewerber keine Preisbindung eingesetzt haben, dass der Absatz nach Untersagung der Preisbindung zurückgegangen ist und auch aufgrund der Entwicklung der Aktienkurse, kommen Ippolito/Overstreet zu dem Ergebnis, dass die Daten darauf hindeuten, dass in diesem Fall keine wettbewerbsbeschränkenden Wirkungen vorlagen, sondern die Preisbindung dazu diente, Anreizprobleme zwischen dem Hersteller und den Händlern zu lösen. Drei neuere Studien stammen Frankreich, wo im Jahre 1997 durch das Galland-Gesetz ein wirksames Verbot des Verkaufs unter Einstandspreisen eingeführt wurde. Dieses Verbot hat Unternehmen im Prinzip die Möglichkeit gegeben, durch die Wahl des Großhandelspreises einen Mindestpreis festzulegen. Die ersten beiden Untersuchungen stammen von Bonnet/Dubois (2010a, 2010b). Die erste zeigt unter Verwendung von Scannerdaten aus den Jahren 1998-2001 anhand des Marktes für Mineralwasser, dass die Preisgestaltung in diesem Markt am besten durch zweiteilige Tarife zwischen Herstellern und Händlern in Verbindung mit einer Preisbindung erklärt werden kann, d.h. den Arrangements, wie sie im Modell von Rey/Vergé (2004) theoretisch beschrieben werden. Sie kommen im Rahmen einer Simulation zu dem Ergebnis, dass die Einzelhandelspreise ohne die Mindestpreise um mehr als 7% fallen würden und die Konsumentenrente um 0,8% zunehmen würde. In der zweiten Studie wird die Annahme in der ersten Untersuchung, dass die Gewinnmarge auf der Händlerebene gleich null ist, gelockert und die Marge wird endogenisiert. Im Ergebnis werden die Resultate der ersten Untersuchung bestätigt. Anhand von Lebensmittelpreisen in großen französischen Supermarktketten in den Jahren 1994-1998 zeigen Biscourp/Boutin/Vergé (2008), dass vor Inkrafttreten des Galland-Gesetzes eine positive Korrelation zwischen der Höhe der Einzelhandelspreise und dem Konzentrationsgrad in räumlichen Märkten bestand, die aber nach 1997 nicht mehr nachweisbar war. Dies deutet drauf hin, dass der nach 1997 zu beobachtende Preisanstieg auf das Verbot des Verkaufes unter Einstandspreisen zurückgeführt werden kann. Insgesamt zeigt sich, dass die empirischen Untersuchungen nicht zu einem eindeutigen Resultat hinsichtlich der Wirkungen von Preisbindungen gelangen.136 Während einige 136 Kritisch insbesondere bezüglich der frühen Untersuchungen könnte angemerkt werden, dass der ökonometrische Standard dieser Arbeiten nicht sonderlich hoch ist.

2 Industrieökonomik

333

Untersuchungen darauf hindeuten, dass Preisbindungen dazu eingesetzt werden, um kollusives Verhalten zu stützen, gelangen andere zu dem Ergebnis, dass effizienzerhöhende Wirkungen der ausschlaggebende Grund für den Einsatz von Preisbindungen sind. Insoweit spiegeln die empirischen Resultate die theoretischen Ergebnisse wider.

2.7.7.4 Empirische Evidenz zu Ausschließlichkeitsbindungen Zu den Auswirkungen von Vertikalvereinbarungen, insbesondere zu Ausschließlichkeits­ bindungen sind eine Reihe von empirischen Untersuchungen durchgeführt worden. So gibt es eine Reihe von Untersuchungen von Alleinvertriebsvereinbarungen mit Gebietsschutz (Exclusive Territories) in der Bierindustrie (Jordan/Jaffee (1987), Sass (2005), Sass/Saurman (1993, 1996)), die zu dem Ergebnis gelangten, dass derartige Vereinbarungen zwar zu höheren Preisen für die Konsumenten führen, gleichzeitig aber auch der Absatz zugenommen hat, was darauf zurückgeführt wird, dass die Serviceleistungen zugenommen haben. Insgesamt zeigten die Untersuchungen, dass die Wirkungen von Alleinvertriebsvereinbarungen mit Gebietsschutz im Biermarkt auf die Wohlfahrt entweder neutral oder sogar positiv waren. Für den Bereich der Automobilindustrie untersuchen Brenkers/Verboven (2006), welche Auswirkungen die in der Europäischen Union eingeführte Liberalisierung des selektiven und exklusiven Vertriebssystems hatte. Nach dem Auslaufen der Gruppenfreistellungsverordnung im September 2002 hat die Europäische Kommission vorgeschlagen das System dahingehend zu flexibilisieren, dass ein Automobilhersteller entweder ein selektives oder ein exklusives Vertriebssystem verwenden kann, nicht jedoch ein selektives und exklusives Vertriebssystem. Selektives Vertriebssystem bedeutet, dass der Hersteller seinen Vertragshändlern untersagen darf, Fahrzeuge z.B. an freie Kfz-Händler, Supermärkte etc. weiterzuverkaufen. Er darf einem Händler jedoch kein Verkaufsgebiet zuweisen. Bei einem exklusiven Vertriebssystem kann der Hersteller einem Händler zwar ein bestimmtes Verkaufsgebiet zuweisen, dieser kann Fahrzeuge jedoch auch an nicht autorisierte Wiederverkäufer weiterverkaufen. Vor 2002 konnten Autohersteller den Händlern den Weiterverkauf an freie Händler etc. untersagen und konnten ihnen ein exklusives Verkaufsgebiet gewähren, was zu Problemen der doppelten Marginalisierung und zu einer Verringerung des Interbrand-Wettbewerbs geführt hat. Als zentrale Ergebnisse hat die Untersuchung von Brenkers/Verboven gezeigt, dass selbst bei hinreichendem nationalem Intrabrand-Wettbewerb eine Liberalisierung vor allem zu einer Verbesserung des internationalen Intrabrand-Wettbewerb und zu einer Verringerung der internationalen Preisdiskriminierung führt. Dies könnte zu einer Erhöhung der Gesamtwohlfahrt im Umfang von 3 Mrd. Euro führen. Ist hingen der nationale Intrabrand-Wettbewerb durch das bestehende System deutlich beschränkt, dann sind die Wohlfahrtsgewinne deutlich höher, denn die internationale Preisdiskriminierung wird verringert und der IntrabrandWettbewerb wird intensiviert. Eine branchenübergreifende Untersuchung von Azoulay/Shane (2001) zeigt, dass bei neu gegründeten Franchise-Unternehmen diejenigen eine größere Überlebenswahr­ schein­lichkeit haben, die Alleinvertriebsvereinbarungen mit Gebietsschutz verwenden als

334

Ulrich Schwalbe

diejenigen, die keine derartigen Vereinbarungen treffen. Ohne Alleinvertriebsvereinbarungen mit Gebietsschutz ist es für ein neu gegründetes Unternehmen in der Regel schwierig, Franchisenehmer zu finden, so dass eine höhere Wahrscheinlichkeit besteht, dass diese Unternehmen aus dem Markt ausscheiden müssen. Auch diese Untersuchung kommt zu dem Ergebnis, dass die Auswirkungen dieser Vereinbarungen auf die Wohlfahrt aufgrund der Marktzutritte und des damit verbundenen Wachstums eher positiv einzuschätzen sind. Alleinbezugsvereinbarungen wurden vor allem im Biermarkt untersucht. Da sowohl im dem Fall, in dem eine Alleinbezugsvereinbarung effizienzerhöhende, aber auch wettbewerbsbeschränkende Wirkungen aufweist, Kostenvorteile für den Vertreiber entstehen, können die Auswirkungen solcher Vereinbarungen anhand der Kostenänderung beim Vertreiber abgeschätzt werden. Die Parameter des Modells wurden anhand von Scannerdaten über den Umsatz sowie mittels Daten über Verkaufsgebiete geschätzt. Die empirischen Ergebnisse haben gezeigt, dass Brauereien, die Alleinbezugsvereinbarung getroffen haben, im Vergleich zu ihren Wettbewerbern in der Regel mit Händlern mit geringeren Kosten zusammenarbeiten. Allerdings deuten die Untersuchungen auch darauf hin, dass man dieses Resultat nicht auf Marktverschließungseffekte zurückführen kann, sondern dass dafür eher Effizienzgründe verantwortlich sind. Ein Eingriff in den Markt in Form einer Untersagung solcher Vereinbarungen hätte daher eher wohlfahrtssenkende Wirkungen. Eine Untersuchung des US-amerikanischen Biermarktes aus dem Jahr 2005 hat ergeben, dass Alleinbezugsvereinbarungen tendenziell in größeren Märkten auftreten, in denen es vergleichsweise schwierig ist, einen Markteintritt zu verhindern oder das Wachstum von Konkurrenten zu beschränken. Darüber hinaus sind solche Vereinbarungen häufig mit größeren Verkaufsmengen sowohl der exklusiv angebotenen Biere als auch von Bier insgesamt verbunden. Auch diese Untersuchung kommt daher zu dem Ergebnis, dass Alleinbezugsvereinbarungen zumindest in der Bierindustrie nicht aus Gründen der Marktverschließung getroffen werden, sondern dass Effizienzgründe, wie z.B. die Verringerung von Anreizproblemen zwischen Herstellern und Händlern, die treibende Kraft hinter diesen Vereinbarungen sein dürften.

2.7.7.5 Experimentelle Evidenz zur doppelten Marginalisierung Zu zahlreichen Aspekten vertikaler Zusammenschlüsse und vertikaler Restriktionen sind auch Untersuchungen im Rahmen der experimentellen Wirtschaftsforschung vorgenommen worden. So hat Durham (2000) eine Untersuchung vorgelegt, in der das Vorliegen einer vertikalen Externalität zwischen Upstream- und Downstream-Unternehmen nachgewiesen werden konnte, wobei auf beiden Märkten von einer monopolistischen Marktstruktur ausgegangen wurde. Ohne vertikale Integration lagen die Preise deutlich über dem Niveau bei Wettbewerb auf dem Downstream-Markt. In beiden Fällen entsprachen die im Experiment beobachteten Preise den theoretisch prognostizierten. Darüber hinaus wurde deutlich, dass aufgrund der Externalität das Upstream-Unternehmen einen Anreiz hatte, Einfluss auf das Verhalten der Downstream-Firma zu nehmen.

2 Industrieökonomik

335

In einem weiteren Experiment untersuchen Ho/Zhang (2004), ob durch zweiteilige Tarife das Problem der doppelten Marginalisierung verhindert werden kann. Es werden zwei Varianten zweiteiliger Tarife betrachtet: zum einen ein Festbetrag und einen Preis pro Einheit und zum anderen ein Mengenrabatt, der bei gleicher Menge zu den gleichen Gesamtkosten führt wie der traditionelle zweiteilige Tarif. Überraschenderweise zeigte das Experiment, dass weder ein herkömmlicher zweiteiliger Tarif noch ein entsprechender Mengenrabatt zu einer Lösung des Problems der doppelten Marginalisierung geführt hat. Beide Varianten haben nicht zu einem effizienten Resultat geführt und waren vom Ergebnis her nicht von einfachen linearen Preisen zu unterscheiden. Allerdings erwies sich der herkömmliche zweiteilige Tarif dem Mengenrabatt etwas überlegen und führte sowohl zu einer leicht erhöhten Effizienz als auch zu etwas höheren Gewinnen beim Upstream-Unternehmen.

2.7.7.6 Experimentelle Evidenz zur Marktverschließung Eine experimentelle Untersuchung des Modells von Ordover/Saloner/Salop (1990), das in Abschnitt 7.2. dargestellt wurde, ist von Normann (2011) durchgeführt worden. Im Rahmen eines Duopolmodells wurde untersucht, welche Auswirkungen die Existenz eines integrierten Unternehmens auf das Marktergebnis hat. Die Ergebnisse haben deutlich gemacht, dass ein vertikaler Zusammenschluss zu einer Verringerung des Wettbewerbs führt und auch, dass eine vertikal integrierte Firma höhere Preise verlangt als unabhängige Unternehmen. Die Ergebnisse sind zwar statistisch signifikant aber nur von geringem Ausmaß. Das Experiment hat auch ergeben, dass es nicht zu einer vollständigen InputForeclosure kommt, d.h. dass das integrierte Unternehmen weiterhin Inputs an die unabhängigen Downstream-Unternehmen verkauft. 2.7.7.7

Experimentelle Evidenz zu Ausschließlichkeitsvereinbarungen

Die Auswirkungen von Ausschließlichkeitsvereinbarungen wurden experimentell von Landeo/Spier (2009) experimentell analysiert. Sie überprüfen die theoretischen Voraussagen des Modells von Rasmusen/Ramseyer/Wiley (1991) und des darauf basierenden Modells von Segal/Whinston (2000). Sie gehen von einem zweistufigen Spiel mit drei Spielern, einem Upstream-Monopol und zwei Downstream-Abnehmern, aus. In der ersten Stufe des Spiels bietet der Monopolist den Abnehmern eine Zahlung als Gegenleistung für eine Alleinbezugsvereinbarung an. Die Abnehmer entscheiden in der zweiten Stufe, ob sie das Angebot annehmen. Kann der Monopolist zwischen den Käufern nicht unterscheiden und muss daher beiden Abnehmern das gleiche Angebot machen, resultiert ein Koordinationsspiel und es gibt sowohl Gleichgewichte mit Alleinbezug und Gleichgewichte mit Markteintritt. Kann er hingegen zwischen den Abnehmern diskriminieren und einem ein besseres Angebot machen, so existiert nur das Gleichgewicht mit einer Alleinbezugsvereinbarung. In diesem Fall kann der Monopolist durch eine „divide et impera“-Strategie die negative Externalität zwischen den Abnehmern ausnutzen und einen Marktzutritt verhindern.

336

Ulrich Schwalbe

Sie kommen zu dem Ergebnis, dass in diesem einfachen experimentellen Design eine Marktverschließung aufgrund eines Koordinationsproblems selbst dann auftritt, wenn der Monopolist zwischen den Abnehmern nicht diskriminieren kann. Eine Kommunikation ohne Bindungswirkung zwischen den Abnehmern führt in der Regel dazu, dass die Angebote des Monopolisten großzügiger werden und die Wahrscheinlichkeit eines Markteintritts zunimmt. Kann der Monopolist den Abnehmern unterschiedliche Angebote machen, dann nimmt die Wahrscheinlichkeit einer Marktverschließung zu auch wenn die Abnehmer kommunizieren können. Die Modelle von Rasmusen/Ramseyer/Wiley und Segal/Whinston wurden anhand weiterer Untersuchungen von Smith (2011) sowie von Boone/Müller/Suetens (2012) experimentell untersucht. Im Rahmen eines zweistufigen Spiels mit mehreren Spielern untersucht Smith den Einfluss der Anzahl der Abnehmer, insbesondere des Anteils der Abnehmer, die notwendig für eine Marktverschließung sind, sowie die Auswirkungen von Kommunikation ohne Bindungswirkung für den Fall, in dem der Monopolist den Abnehmern das gleiche Angebot machen muss. Die Ergebnisse zeigen, dass die Anzahl der Abnehmer für das Auftreten einer Marktverschließung keinen nachweisbaren Einfluss hat. Allerdings hat der Anteil der Abnehmer, der für eine Marktverschließung erforderlich ist, einen wesentlichen Einfluss: Je höher dieser Anteil, desto geringer ist die Wahrscheinlichkeit einer Marktverschließung. Dies gilt auch, wenn eine nicht-bindende Kommunikation zwischen den Abnehmern möglich ist. In dem von Boone/Müller/Suetens (2012) durchgeführten Experiment wird die Erweiterung des Modells von Rasmusen/Ramseyer/Wiley durch Segal/Whinston (2000) untersucht. Dabei wird vor allem auf die Auswirkungen sequentieller Angebote durch den Monopolisten, nicht-beobachtbarer Verträge zwischen Monopolist und Abnehmer sowie die Möglichkeit des Monopolisten verschiedenen Abnehmern unterschiedliche Angebote zu machen, abgestellt. Auch ihre Ergebnisse deuten darauf hin, dass die Wahrscheinlichkeit einer Marktverschließung steigt, wenn der Monopolist die Möglichkeit hat, zwischen den Abnehmern zu diskriminieren und seine Angebote nacheinander zu machen. Insgesamt zeigt sowohl die empirische als auch die experimentelle Evidenz, dass Vertikalvereinbarungen unterschiedliche Wirkungen aufweisen können. Während in einigen Fällen die wettbewerbsbeschränkenden Effekte überwiegen, sind die Auswirkungen in anderen Situationen effizienzerhöhend. Ein pauschales Verbot oder eine generelle Erlaubnis vertikaler Vereinbarungen kann daher weder aus den theoretischen, den empirischen oder den experimentellen Ergebnissen abgeleitet werden.

2 Industrieökonomik

2.8

Neuere Entwicklungen in der Industrieökonomik

2.8.1

Netzwerkeffekte und zweiseitige Märkte

337

Eine Reihe von Märkten, wie z. B. im Bereich der Kommunikation oder der digitalen Ökonomie ist durch so genannte Netzwerkeffekte charakterisiert. Diese liegen dann vor, wenn es für einen Akteur besser ist, einem größeren Netzwerk anzugehören, d.h., ein Produkt weist positive Netzeffekte auf, wenn der Nutzen eines Akteurs wächst, wenn die Zahl der Nutzer, die das gleiche Produkt oder damit kompatible Produkte verwenden, zunimmt.137 In der Regel wird zwischen direkten und indirekten Netzwerkeffekten unterschieden. Direkte Netzwerkeffekte treten vor allem in Kommunikationsmärkten auf, in denen eine größere Teilnehmerzahl die Kommunikationsmöglichkeiten erhöht und damit das Netzwerk für andere Nutzer attraktiver macht. In solchen Märkten, wie zum Beispiel Telefon, Fax, E-Mail etc. liegen daher zunehmende Skalenerträge durch die Nachfrageseite vor. System bemerkte hingegen sind dadurch gekennzeichnet, dass komplementäre Komponenten zu einem System zusammengefügt werden, wie zum Beispiel bei Betriebssystemen für Computer und Anwendungsprogrammen, Blue-Ray DVDs und damit kompatible DVD Spieler. Hier erhöht eine größere Zahl von Benutzern eines bestimmten Betriebssystems den Anreiz für Programmierer, Anwendungsprogramme für dieses Betriebssystem bereitzustellen. Eine große Zahl von Anwendungsprogrammen erhöht wiederum den Anreiz der Nutzer, das Betriebssystem zu verwenden, für das eine große Auswahl an Software zur Verfügung steht. Ein spezieller Fall indirekter Netzwerkeffekte liegt bei so genannten Plattformmärkten bzw. zweiseitigen Märkten vor, wie z.B. Kreditkartenzahlungssystemen, Partnerbörsen, Online-Auktionen oder werbefinanzierten Medien. Auf diesen Plattformen treffen unterschiedliche Marktseiten aufeinander, wie beispielsweis Kreditkarteninhaber und Geschäfte, die Kreditkarten akzeptieren, Partner suchende Männer und Frauen oder werbetreibende Unternehmen und an den Inhalten interessierte Leser bzw. Zuschauer. In diesen Fällen führt eine größere Anzahl von Akteuren aus einer Gruppe, die die Plattform verwenden, zu einem größeren Nutzen für die Akteure der anderen Gruppe. In den folgenden Abschnitten werden Märkte mit Netzeffekten und zweiseitige Märkte näher analysiert. Märkte mit Netzwerkeffekten sind in der Regel dadurch gekennzeichnet, dass es im Markt nur eine geringe Zahl von Netzwerken, im Extremfall sogar nur ein Netzwerk gibt. Der Grund dafür liegt darin, dass die Attraktivität eines Netzwerkes mit der Zahl der Nutzer zunimmt. Hat sich also erst einmal eine kritische Masse von Konsumenten für ein bestimmtes Netzwerk entschieden, so wird dieses Netzwerk auch für neue Teilnehmer attraktiver. Darüber hinaus sind solche Märkte durch Wechselkosten seitens der Nutzer charakterisiert. Dies bedeutet, dass ein Wechsel von einem Netzwerk zu einem anderen meist mit Kosten verbunden ist. Dabei kann es sich um monetäre Kosten handeln, wie zum Beispiel bei einem Anschluss an einem neuen Telefonnetz aber auch um es Investitionen, wie z.B. das Erlernen des Umgangs mit einem bestimmten Betriebssystem oder einer 137

Zu Märkten mit Netzwerkeffekten vgl. z.B. Belleflamme/Peitz (2015), 573-641.

338

Ulrich Schwalbe

bestimmten Anwendungssoftware aber auch Investitionen in komplementäre Güter. Auch eine größere Teilnehmerzahl kann die Wechselkosten erhöhen, da ein Nutzer, zum Beispiel durch den Wechsel zu einem anderen Telefonnetz, eine größere Zahl potentieller Kommunikationspartner verliert. Daher sind Netzwerke häufig durch so genannte „Lock-in“ Effekte gekennzeichnet. Sind Konsumenten jedoch erst einmal in einem Netzwerk gefangen, dann kann der Netzwerkbetreiber von den Nutzern höhere Preise verlangen. Derartige Märkte sind also durch eine Tendenz zu hoher Konzentration und hohen Preisen gekennzeichnet und es ist zu erwarten, dass der Wettbewerb zwischen Netzwerken gerade in der Anfangsphase besonders intensiv ist, um später, wenn eine genügend große Zahl von Konsumenten sich dem Netzwerk angeschlossen hat, den Lock-in durch höhere Preise auszunutzen. Daher sind für den Hersteller eines Produktes mit Netzeffekten die Verkäufe an die ersten Konsumenten, die so genannten „Early Adopters“ von wesentlicher Bedeutung. Sehen potentieller Nutzer des Netzwerkgutes, dass bereits eine signifikante Gruppe von Konsumenten das Netzwerkgut erworben hat, dann erwarten sie, dass das Netzwerk weiter wachsen wird, denn seitens der Konsumenten werden zukünftige Verkäufe durch die Zahl vergangener Käufe bestimmt. Es liegen also positive externe Effekte der ersten Konsumenten auf spätere Kunden vor. Umgekehrt bedeutet eine große Zahl frühzeitiger Verkäufe in der Anfangsphase eine steigende Kundenzahl in der Zukunft. Diese Eigenschaften eines Marktes mit Netzwerkeffekten führen dazu, dass sich der Wettbewerb hier tendenziell als ein Wettbewerb mehrerer Unternehmen um einen Markt und nicht als Wettbewerb in einem Markt vollzieht. Bei Wettbewerb zwischen verschiedenen Herstellern von Produkten mit Netzwerkeffekten ist daher die strategische Wahl der Kompatibilität der Produkte ein zentraler Wettbewerbsparameter. So werden neu in einen Markt mit Netzwerkeffekten eintretende Unternehmen ein Interesse daran, ihr Produkt mit dem bereits etablierten kompatibel zu gestalten, um Zugang zum existierenden große Netzwerk zu bekommen, da die Wechselkosten zwischen kompatiblem Produkten in der Regel sehr gering sind. Im Gegensatz dazu haben die im Markt befindlichen Unternehmen einen Anreiz, die Wechselkosten hoch zu halten, um ihre Kunden zu behalten. Daher haben diese Unternehmen kein Interesse an der Kompatibilität der Produkte. Es können daher in aufgrund von Lock-in Effekten und Wechselkosten in Märkten mit Netzeffekten ineffiziente Gleichgewichte auftreten, denn das Produkt das sich durchgesetzt hat, ist nicht notwendigerweise auch das beste.138 Im Folgenden wird das Preissetzungsverhalten eines monopolistischen Unternehmens in einem Markt mit Netzwerkeffekten und der Wettbewerb in einem solchen Markt anhand einfacher Modelle untersucht.

2.8.1.1 Preissetzung eines monopolistischen Netzwerkbetreibers Es wird ein monopolistischer Netzwerkbetreiber betrachtet, der von den Nutzern eine Anschlussgebühr A verlangt.139 Als Beispiel kann sich einen Telefonnetzbetreiber vorstellen, 138 139

Vgl. Arthur (1989). Vgl. Rohlfs (1974) sowie Peppal/Richards/Norman (2014), S. 613-630.

2 Industrieökonomik

339

der nur eine Flatrate verlangt, d.h. Einzelgespräche kosten nichts, da die Grenzkosten pro Gespräch nahe null sind. Es gibt ein Kontinuum von N Konsumenten. Der Anteil der Konsumenten, die an das Netzwerk angeschlossen sind, sei mit f bezeichnet. Die Zahlungsbereitschaft eines Konsumenten i ist durch θi bezeichnet. Die Zahlungsbereitschaften für das Netzwerk seien auf dem Intervall [0, N] gleichverteilt. Es wird angenommen, dass der Nutzen aus dem Netzwerk mit dem Anteil der an das Netzwerk angeschlossenen Konsumenten zunimmt. Der Wert des Netzwerks für einen Konsumenten i kann dann geschrieben werden als θif. Die Nachfrage eines Konsumenten i nach dem Netzwerkprodukt x ist gegeben durch ⎧⎪ 0 falls θ f < A, ⎪ i xid = ⎨ ⎪⎪ 1 falls θi f ≥ A. ⎪⎩ Bei einer gegebenen Anschlussgebühr A ist die Nachfrage nach dem Netzwerkprodukt determiniert durch den marginalen Konsumenten, d.h. den Konsumenten der gerade indifferent zwischen dem Anschluss und dem Nicht-Anschluss an das Netzwerk. Die Zahlungsbereitschaft dieses Konsumenten sei durch θ! bezeichnet. Für diesen Konsumenten gilt θ! f = A bzw. θ! = A/f. Alle Konsumenten mit einer Zahlungsbereitschaft θi ≥ θ! treten dem Netzwerk bei, während die Konsumenten mit θi < θ! auf einen Anschluss verzichten. Aufgrund der Gleichverteilung der Zahlungsbereitschaften beträgt der Anteil der Konsumenten, die nicht an das Netzwerk angeschlossen sind θ! /N = A/Nf. Der Anteil der Konsumenten, die an das Netzwerk angeschlossen sind, ergibt sich dann als θ! A f = 1− = 1− . Nf N Daraus ergibt sich die inverse Nachfragefunktion, der sich der Monopolist gegenübersieht: A(f) = Nf(1 – f) = Nf – Nf 2. Graphisch kann die inverse Nachfragefunktion wie in Abbildung 2.39 gezeigt dargestellt werden. Für eine gegebene Anschlussgebühr treten bei einer solchen inversen Nachfragefunktion in der Regel zwei Gleichgewichte auf. So wären z.B. bei einer Anschlussgebühr von A = 22,5 die Anteile von f1* = 1/3 und f 2* = 2/3 gleichgewichtige Netzwerkgrößen. Allerdings ist das Gleichgewicht f1* nicht stabil, denn würde die Netzwerkgröße etwas unter den Wert von 1/3 sinken, dann verringert sich der Wert des Netzwerkes für alle Konsumenten. Einige Konsumenten würden daraufhin das Netzwerk verlassen, was den Wert weiter reduziert, bis schließlich niemand mehr an diesem Netzwerk teilnimmt, d.h. bis f = 0 erreicht ist. Würde die Netzwerkgröße hingegen etwas über den Wert von 1/3 ansteigen, dann würde dies den Wert des Netzwerkes für alle Konsumenten erhöhen und weitere Konsumenten würde dem Netzwerk beitreten. Dies wiederum erhöht den Wert des Netzwerkes weiter usw. Dieser Prozess würde sich solange fortsetzen, bis das Netzwerk eine Größe von f 2* erreicht hätte. Der Wert f1* wird daher auch als kritische Masse bezeichnet.

340

Ulrich Schwalbe

Abb. 2.39 Gleichgewichte auf einem Markt mit Netzwerkeffekten

Bislang wurde die Analyse für einen gegebenen Wert der Anschlussgebühr A durchgeführt. Im Folgenden wird nun untersucht, wie ein gewinnmaximierender monopolistischer Netzwerkbetreiber die Anschlussgebühr setzen würde. Es wird dabei aus Vereinfachungsgründen unterstellt, dass dem Monopolisten für die Bereitstellung keine Kosten entstehen. Der Gewinn des Netzbetreibers ist gegeben durch π(A( f )) = NA( f ) f = N 2f 2(1 – f ). Der Monopolist wählt den gewinnmaximierenden Anteil der Konsumenten, die sich an das Netzwerk anschließen. Aus der Bedingung erster Ordnung dπ (⋅) = N 2 f (2 − 3 f ) = 0 df ergibt sich dieser Anteil als f * = 2/3. Eingesetzt in die inverse Nachfragefunktion ergibt sich die gewinnmaximale Anschlussgebühr als A* = 0,222N. Im Optimum ist der marginale Konsument durch eine Zahlungsbereitschaft θ! = 0,222N ∙ 3/2 = 0,333N gekennzeichnet. Bei der Netzwerkgröße von f * entspricht die optimale Anschlussgebühr dem Wert des Netzwerkes für den marginalen Konsumenten, d.h. θ! f* = 0,222N.

2 Industrieökonomik

341

Allerdings führt auch ein Wettbewerb um den Markt nicht immer dazu, dass der Markt zu einer monopolistischen Struktur konvergiert. In einer Reihe von Märkten mit Netzeffekten können jedoch verschiedene Netzwerke koexistieren wie z.B. im Mobilfunk. Hier sind die verschiedenen Produkte miteinander kompatibel. Allerdings treten zusätzliche Probleme auf, wenn zwischen den Produkten Inkompatibilitäten auftreten. Dies war z.B. bei den Videoformaten VHS und Betamax der Fall oder auch bei Blue-Ray DVDs und High- Definition DVDs. Bei Inkompatibilitäten stellt sich daher häufig die Frage, welche der verschiedenen Technologien sich als Standard im Markt durchsetzt. Diese Frage wird im Weiteren anhand einer einfachen duopolistischen Marktstruktur erläutert.

2.8.1.2 Systemwettbewerb und Standardsetzung Im Folgenden werden verschiedene Szenarien betrachtet.140 Es wird dabei unterstellt, dass den beiden Unternehmen 1 und 2 zwei mögliche Technologien a (alt) und n (neu) zur Verfügung stehen, die miteinander nicht kompatibel und jeweils mit unterschiedlichen Auszahlungen für die Unternehmen verbunden sind. Wählen die Unternehmen unterschiedliche, d.h. inkompatible Technologien, dann sind die Auszahlungen geringer, da aufgrund der kleineren Netzwerke nur geringe Netzwerkeffekte auftreten. Wählen die Unternehmen hingegen gleiche, d.h. kompatible Technologien, dann sind die Netzeffekte größer. In der folgenden Auszahlungsmatrix wird die Situation betrachtet, in der die Technologie n Pareto-besser ist. Die Strategien des Unternehmens i seien mit ai bzw. ni bezeichnet. Firma 2

Firma 1

a2

n2

a1

5,5

3,3

n1

3,3

6,6

Technologie n ist Pareto-besser als die Technologie a. In dieser Situation gibt es zwei Nash-Gleichgewichte (a1, a2) und (n1, n2). Allerdings würde keines der beiden Unternehmen einseitig von der alten Technologie auf die neue, bessere Technologie übergehen. In einer solchen Situation ist eine exzessive Trägheit der alten Technologie zu erwarten, d.h. die neue, bessere Technologie wird zu spät oder im Extremfall, gar nicht eingeführt. Einerseits führen kompatible Systeme dazu, dass die Netzwerkeffekte besonders stark sind. Andererseits sind kompatible Produkte auch sehr enge Substitute, so dass zwischen den Unternehmen ein intensiver Preiswettbewerb zu erwarten ist, der zu niedrigen Gewinnen für die Unternehmen führt. Daher könnte es für die Unternehmen von Interesse sein, inkompatible Technologien zu wählen. Dadurch entfallen zwar die positiven

140

Die folgende Darstellung basiert auf Pepall/Richards/Norman (2014), 613-630.

342

Ulrich Schwalbe

Netzwerkeffekte, aber auch der Preiswettbewerb ist deutlich geringer, so dass die Gewinne der Unternehmen trotz der Inkompatibilität höhere Gewinne realisieren. Ein solches Szenario wird im Folgenden betrachtet, in der die beiden Unternehmen 1 und 2 zwischen zwei Technologien a und b wählen können. Dabei sind die Auszahlungen für die beiden Unternehmen höher, wenn sie inkompatible Technologien wählen, wobei jedes Unternehmen eine Präferenz für einen anderen Standard hat: Unternehmen 1 bevorzugt Technologie a und Unternehmen 2 präferiert Technologie b. Dies wäre z.B. dann der Fall, wenn die Effizienzgewinne bei Verwendung eines einheitlichen Standards durch die negativen Auswirkungen eines intensiven Preiswettbewerbs zwischen den Technologien wettgemacht würden. Jedes Unternehmen hofft, dass sich seine Technologie am Markt als Standard etablieren wird. Die strategische Situation ist in der folgenden Auszahlungsmatrix zusammengefasst. Firma 2

Firma 1

a2

b2

a1

3,2

8,5

b1

5,8

2,3

Beide Unternehmen würden inkompatible Technologien entscheiden und es kommt zu einem Standard-Krieg Um dazu beizutragen, dass sich die jeweils präferierte Technologie als Standard etabliert, stehen den Unternehmen verschiedene Möglichkeiten zur Verfügung. So kann ein Unternehmen versuchen, möglichst schnell eine große Anzahl von Konsumenten dazu zu bewegen, die eigene Technologie zu wählen, d.h. möglichst rasch eine große installierte Basis aufzubauen. Der daraus resultierende Vorteil ist umso größer, je stärker die Netzwerkeffekte ausgeprägt sind. Durch die Wechselkosten sind die Konsumenten an das Netzwerk gebunden und es wird gleichzeitig für weitere Konsumenten attraktiver. Dies könnte z.B. durch extrem niedrige Einführungspreise (Penetration Pricing) erreicht werden. Wenn das Unternehmen sich sogar dauerhaft an niedrige Preise binden kann, dann wissen die Konsumenten, dass auch eventuelle Folgeprodukte preisgünstig sind, was wiederum die Bereitschaft erhöht, die Technologie zu erwerben. Dies ist insbesondere dann eine glaubwürdige Strategie, wenn das Unternehmen mit zunehmenden Skalenerträgen und sinkenden Durchschnittskosten produziert. Das Produkt wird auch dann attraktiver, wenn anderen Unternehmen, z.B. durch die Bereitstellung relevanter Informationen, ein Anreiz gegeben wird, komplementäre Produkte herzustellen. So kann z.B. der Hersteller eine Spielekonsole die Attraktivität seines Produktes erhöhen, wenn es eine große Auswahl an Spielen für diese Konsole gibt. Da in Märkten mit Netzwerkeffekten die Erwartungen der Konsumenten eine wesentliche Rolle spielen, kann das Unternehmen versuchen, durch frühzeitige

2 Industrieökonomik

343

Produktankündigungen die Erwartungen der Konsumenten dahingehend zu beeinflussen, dass diese damit rechnen, diese Technologie werde sich als Standard durchsetzen. Unternehmen stehen als eine Reihe von Möglichkeiten zur Verfügung, die eigene Technologie als Standard auf dem Markt zu etablieren. Allerdings ist nicht sichergestellt, dass sich auch das beste der konkurrierenden Systeme am Markt durchsetzen wird. Es kann, z.B. durch bestimmte Entwicklungen in der Anfangsphase des Wettbewerbs dazu kommen, dass sich eine inferiore Technologie durchsetzt. Es liegt in solchen Situationen daher eine Pfadabhängigkeit vor, d.h. die historische Entwicklung hat einen wesentlichen Einfluss auf den resultierenden Standard, nicht nur die Qualität des Systems. Es können jedoch auch Situationen auftreten, in denen der Preiswettbewerb zwischen den Unternehmen im Vergleich zu den Netzwerkeffekten nur eine sehr untergeordnete Rolle spielen, so dass die Unternehmen ein Interesse haben, einen gemeinsamen Standard zu etablieren und nicht zu versuchen, die eigene, mit der des Konkurrenten inkompatible Technologie als Standard durchzusetzen. Aber auch in dieser Situation sind verschiedene Szenarien denkbar. Dies wird im Folgenden wieder anhand eines einfachen Duopolspiels verdeutlicht, in dem die Unternehmen zwischen den beiden inkompatiblen Technologien a und b wählen können. Das erste Szenario ist durch die folgende Auszahlungsmatrix gekennzeichnet. Firma 2

Firma 1

a2

b2

a1

10,10

2,3

b1

3,2

8,8

Beide Unternehmen präferieren Technologie a als Standard Zwar gibt es in dieser Situation zwei Nash-Gleichgewichte (a1, a2) und (b1, b2), aber das Gleichgewicht (a1, a2) ist Pareto-superior, so dass zu erwarten ist, dass sich die Technologie a als Standard etablieren wird. Beide Unternehmen haben ein Interesse, kompatible Technologien zu verwenden und stimmen auch hinsichtlich des zu wählenden Standards überein. Es kann jedoch auch die Situation eintreten, in der die Unternehmen darin übereinstimmen, einen gemeinsamen Standard zu etablieren, jedoch unterschiedliche Ansichten darüber bestehen, welcher der beiden Standards zu wählen sei. Dies ist durch die folgende Auszahlungsmatrix beschrieben

344

Ulrich Schwalbe

Firma 2

Firma 1

a2

b2

a1

10,10

2,3

b1

3,2

8,8

Beide Unternehmen wollen einen gemeinsamen Standard, präferieren jedoch unterschiedliche Technologien In einer solchen Situation ist damit zu rechnen, dass jedes Unternehmen versucht, durch eine Selbstbindung an die präferierte Technologie das bevorzugte Gleichgewicht zu realisieren. Hierzu könnten z.B. Investitionen in Produktionskapazitäten, in produktspezifische Forschung und Entwicklung oder durch aufwendige Werbemaßnahmen dienen. Eine weitere Möglichkeit besteht darin, dem Konkurrenten einen Lizenzvertrag zu einem günstigen Preis anzubieten. Eine weitere Situation, die im Kontext der Standardsetzung auftreten kann, liegt häufig dann vor, wenn zwischen den konkurrierenden Unternehmen deutlich Unterschiede, z.B. hinsichtlich der installierten Basis bestehen. Angenommen, das Unternehmen 1 ist bereits seit längerer Zeit auf dem Markt aktiv und verfügt bereits über eine große installierte Basis, während das Unternehmen 2 erst in den Markt eintreten möchte und noch keine installierte Basis aufbauen konnte. Eine solche Situation kann durch die folgende Auszahlungsmatrix charakterisiert werden. Firma 2

Firma 1

a2

b2

a1

11,6

12,0

b1

13,0

10,6

Beide Unternehmen wollen einen gemeinsamen Standard, präferieren jedoch unterschiedliche Technologien In dieser Situation existiert kein Nash-Gleichgewicht in reinen Strategien. Unternehmen 1 bevorzugt inkompatible Systeme, damit das Unternehmen 2 keinen Marktanteil bekommt und daher nicht in den Markt eintreten kann. Das Unternehmen 2 hingegen präferiert kompatible Systeme, da es sich so Zugang zur installierten Basis des Unternehmens 2 verschaffen und die bestehenden Netzwerkeffekte ausnutzen kann. Beide Unternehmen haben also entgegengesetzte Interessen. Als etabliertes Unternehmen musste Firma 1 sich auf eine Technologie festlegen. Es wird angenommen, dass es sich um die Technologie a handelt, d.h. Unternehmen 1 hat also a1 gewählt. In vielen Fällen kann Unternehmen 1

2 Industrieökonomik

345

diese Entscheidung nicht mehr rückgängig machen, denn ein Übergang auf die Technologie b ist häufig mit erheblichen Kosten verbunden. Unternehmen 2 wird nun entsprechend seiner Präferenzen mit der kompatiblen Technologie in den Markt eintreten, d.h. a2 wählen. Unternehmen 1 hat jedoch ein Interesse daran, dies zu verhindern, was es dadurch erreichen kann, dass es seine Technologie patentieren lässt und seine Eigentumsrechte an dieser Technologie aggressiv verteidigt und die Technologie mit einer Reihe schlafender Patente umgibt, die es potentiellen Wettbewerbern schwer machen, das Patent zu umgehen. Eine weitere Möglichkeit sind permanente technische Modifikationen, die zum einen kostspielig sind und zum anderen jedoch bei der installierten Basis zu einem Verlust an Goodwill führen können.

2.8.2

Zweiseitige Märkte

Einen speziellen Typ von Märkten mit indirekten Netzwerkeffekten bilden die so genannten zweiseitigen Märkte, die in der industrieökonomischen Literatur in den letzten Jahren eine erhebliche Aufmerksamkeit gefunden haben.141 Auf zweiseitigen Märkten wird eine reale oder virtuelle Plattform zur Verfügung gestellt, auf der die Mitglieder verschiedener Konsumentengruppen zusammentreffen und Transaktionen durchführen können. Durch die gemeinsame Plattform werden die Transaktionskosten zwischen den Gruppen minimiert, so dass die Interaktion zwischen den Mitgliedern dieser Gruppen vereinfacht oder überhaupt erst ermöglicht wird. Eine gemeinsame Eigenschaft zweiseitiger Märkte bzw. Plattformmärkten besteht darin, dass die Größe einer Gruppe von Konsumenten, z.B. die Zahl der Verkäufer, die auf einer Online-Auktionsplattform aktiv sind, eine positive Wirkung auf den Nutzen der Mitglieder der anderen Gruppe, d.h. der Käufer hat und umgekehrt. Anders ausgedrückt, zwischen diesen Gruppen bestehen indirekte Netzeffekte in Form von positiven oder negativen Externalitäten. Eine solche Plattform ermöglicht es den Konsumentengruppen, diese Externalitäten zu internalisieren, so dass zumindest für eine Marktseite zusätzlicher Nutzen geschaffen werden kann, was ohne den zweiseitigen Markt nicht möglich wäre. Zweiseitige Märkte haben unterschiedliche Funktionen. Sie können Transaktionen zwischen den Mitgliedern der verschiedenen Gruppen erleichtern, wie z.B. bei Kreditkartenzahlungssystemen, bei denen eine größere Zahl von Kreditkarteninhabern die Nachfrage von Geschäften nach Kreditkartenterminals erhöht. Auch werbefinanzierte Medien können als zweiseitige Märkte aufgefasst werden, wie z.B. Zeitungen und Zeitschriften, die ihren Lesern Informationen und redaktionelle Beiträge verkaufen und Werbefläche für Werbung treibende Unternehmen anbieten. Je größer die Leserschaft einer Zeitschrift,

141 Gute Einführungen in die Theorie und Empirie zweiseitiger Märkte geben z.B. Evans et al. (2011) und Peitz (2006).

346

Ulrich Schwalbe

desto attraktiver wird es für ein Unternehmen, dort zu werden. Weitere Beispiele für zweiseitige Märkte sind Tauschbörsen wie z.B. Ebay oder Partnervermittlungen, und SoftwarePlattformen wie Smartphones oder Spielekonsolen. Um seinen Gewinn zu maximieren, wird der Betreiber einer zweiseitigen Plattform bei seiner Preissetzung die indirekten Netzwerkeffekte berücksichtigen und die jeweils richtigen Größen der Konsumentengruppen zu ermitteln, die die Zahl der Transaktionen auf dieser Plattform maximiert. Eine Auktionsplattform ist für potentielle Käufer nicht sonderlich attraktiv, wenn dort nur eine kleine Gruppe von Verkäufern aktiv ist und umgekehrt. Daher muss der Betreiber einer solchen Plattform eine entsprechende Preisstruktur, d.h. Preise für die unterschiedlichen Gruppen derart wählen, so dass die Größe dieser Gruppen, die die Plattform nutzen, optimal ist. Daher ist nicht nur das Preisniveau für die Plattform von Bedeutung, sondern die Preisstruktur hat einen wesentlichen Einfluss auf die Zahl der Transaktionen. Auf einem zweiseitigen Markt führt eine Änderung der Preisstruktur zu einer Änderung in der Größe der verschiedenen Gruppen. Erhöht sich der Preis für eine Gruppe, dann verringert sich die Nachfrage dieser Gruppe, was jedoch aufgrund der Netzwerkexternalitäten regelmäßig einen negativen Effekt auf die andere Gruppe hat, denn wenn weniger Mitglieder der ersten Gruppe die Plattform nutzen, wird sie auch für die Mitglieder der anderen Gruppe weniger attraktiv. Die optimale Preisstruktur für einen monopolistischen Plattformbetreiber wird im Folgenden anhand des einfachen Beispiels illustriert.

2.8.2.1 Preissetzung eines monopolistischen Plattformbetreibers Auf einem zweiseitigen Markt können zwei Gruppen von Akteuren, Käufer (K) und Verkäufer (V), interagieren.142 Jeder Käufer fragt bei jedem Verkäufer die gleiche Menge nach und der Verkäufer kann den Verkaufspreis gegenüber den Käufern einseitig festlegen. Die Nachfrage jedes Käufers ist gegeben durch x(p). Jeder Verkäufer stellt sein Produkt mit konstanten Grenzkosten von c her. Der Gewinn eines Verkäufers beträgt pro Käufer π = (pm – c) x(pm). Die Konsumentenrente eines Käufers beim Preis pm beträgt u. Der monopolistische Plattformbetreiber setzt für jede der beiden Gruppen V und K eine fixe Teilnahmegebühr Tk und Tv. Der gesamte Nettogewinn eines Verkäufers, der die Plattform nutzt, beträgt gv = πnk – Tv, wobei nk die Anzahl der auf der Plattform aktiven Käufer bezeichnet. Die gesamte NettoKonsumentenrente für einen Käufer, der die Plattform nutzt, beträgt gk = unv – Tk, wobei nv die Anzahl der Verkäufer auf der Plattform angibt. Je größer der Nettogewinn bzw. die Netto-Konsumentenrente, desto größer ist die Zahl der Akteure, die die Plattform nutzen. Dies wird durch die beiden monoton steigenden Funktionen nv = Nv(gv) und nk = Nk(gk) beschrieben.

142 Die Darstellung orientiert sich an Armstrong (2006) bzw. Belleflamme/Peitz (2015), S. 662-666.

2 Industrieökonomik

347

Dem Plattformbetreiber entstehen für jeden Verkäufer und jeden Käufer Kosten in Höhe von cv bzw. ck. Der Gewinn des Plattformbetreibers ist ∂∏(⋅) (gv, gk) = nv(Tv '– Cv) + nk(Tk – Ck) =' Nv(gv)(Nk(gk)π – gv – Cv) + Nk(gk)(Nv(gv)u – gk – Ck). = (Tv − Cv )N v (g v )− N v (g v )+ uN v (g v )N k (g k ) = 0 ∂g v Die Bedingungen erster Ordnung sind ∂∏(⋅) = (Tv − Cv )N v' (g v )− N v (g v )+ uN v' (g v )N k (g k ) = 0 ∂g v ∂∏(⋅) = (Tk − Ck )N k' (g k )− N k (g k )+ π N k' (g k )N v (g v ) = 0. ∂g k

Auflösen nach Tv und Tk ergibt die gewinnmaximalen Teilnahmegebühren N (g ) N (g ) Tv* = Cv − nku + v' v und Tk* = Ck − nvπ + k' k . N v (g v ) N k (g k ) Die optimalen Teilnahmegebühren entsprechen also den Kosten pro Verkäufer bzw. Käufer abzüglich des Nutzens bzw. Gewinns, der auf der anderen Marktseite entsteht und zuzüglich eines Betrages, der davon abhängt, wie stark die Nutzung der Plattform auf Änderungen des Nettogewinns bzw. der Netto-Konsumentenrente reagiert. Der erste Term macht deutlich, dass die Netzwerkeffekte vom Plattformbetreiber internalisiert werden. Berücksichtigt man, dass für eine gegebene Zahl von Teilnehmern auf der jeweils anderen Marktseite, die Elastizitäten der Nachfrage nach der Teilnahme geschrieben werden können als N ' (g ) N ' (g ) ε v (Tv |nv ) = Tv v v und ε k (Tk |nk ) = Tk k k , N v (g v ) N k (g k ) dann gilt für die optimalen Teilnahmegebühren Tv − (Cv − nku) 1 = , Tv ε v (Tv |nv ) Tk − (Ck − nvπ ) 1 = . Tk ε k (Tk |nk )

Diese Analyse zeigt, dass die Teilnahmegebühren, die von den Mitgliedern der beiden Gruppen verlangt werden, stark davon abhängen, wie groß die indirekten Netzwerkeffekte sind, die eine Gruppe auf die andere ausübt. Diejenige Gruppe, die die größeren indirekten Netzwerkeffekte verursacht, zahlt in der Regel einen geringeren Preis als die mit den kleineren Netzwerkeffekten.143 Zwar sind die Möglichkeiten des Plattformbetreibers, die Preise zu erhöhen durch die Wechselwirkungen der beiden Gruppen beschränkt, aber sie können dazu führen, dass der Preis auf der einen Marktseite deutlich höher liegt als die Grenzkosten, während er für die Mitglieder der anderen Gruppe geringer ist als die Grenzkosten und sogar negativ werden kann.

143

Vgl. z.B. Rochet/Tirole (2006).

348

Ulrich Schwalbe

2.8.2.2 Preisbildung bei Wettbewerb zwischen Plattformen Wenn den Akteuren nicht nur eine Plattform zur Verfügung steht, um Transaktionen durchzuführen, sondern mehrere Plattformen konkurrieren, dann wird der Wettbewerb zwischen den Plattformen dazu führen, dass die Teilnahmegebühren geringer sind als im Fall des monopolistischen Plattformbetreibers. Dies liegt vor allem daran, dass z.B. durch einen Verkäufer, der zum Konkurrenten wechselt, zum einen dessen Teilnahmegebühr wegfällt, zum anderen aber auch eine negative Wirkung auf die Käufer entsteht, denn durch die geringere Anzahl von Verkäufern wird die Plattform weniger attraktiv und der Plattformbetreiber muss auch mit einer geringeren Zahl von Käufern rechnen, die seine Plattform nutzen, während die konkurrierende Plattform aufgrund des zusätzlichen Verkäufers auch für Käufer attraktiver wird. Dies führt zu einem intensiven Wettbewerb zwischen den Plattformen und dadurch zu geringeren Teilnahmegebühren. Ein weiterer Faktor, der einen wesentlichen Einfluss auf die Preisbildung in zweiseitigen Märkten hat, ist die Möglichkeit der Kunden, eine oder mehrere Plattformen zu nutzen, d.h. ein so genanntes Single-Homing oder Multi-Homing zu betreiben. Ein solches Multi-Homing liegt z.B. dann vor, wenn ein Unternehmen Werbung in mehreren Zeitungen schaltet. In einer solchen Situation konzentriert sich der Wettbewerb vor allem auf die Akteure, die nur eine Plattform nutzen, während die Kunden, die Multi-Homing betreiben, für die Plattformen nur von untergeordneter Bedeutung sind, denn der Verlust eines Multi-Homing Kunden ist nicht automatisch der Gewinn dieses Kunden durch eine andere Plattform. Der Wettbewerb um die Kunden, die Single-Homing betreiben, ist also sehr intensiv, was dazu führt, dass diese Akteure nur eine geringe oder sogar eine negative Teilnahmegebühr zahlen.

2.8.3

Wettbewerbspolitik in Märkten mit Netzeffekten und in zweiseitigen Märkten

Wie die Untersuchung gezeigt hat, kann auf Märkten mit Netzwerkeffekten eine Reihe von Wettbewerbsproblemen auftreten. Bei zweiseitigen Märkten kommen noch spezifische zusätzliche Probleme hinzu. So tendieren diese Märkte aufgrund der Netzwerkeffekte zu einer hohen Konzentration und im Extremfall wird der gesamte Markt nur von einem monopolistischen Unternehmen versorgt. Weiterhin kann es dazu kommen, dass sich aufgrund von Pfadabhängigkeiten eine ineffiziente Technologie als Standard durchsetzt. Schließlich kann auch die Situation eintreten, dass die Unternehmen einen geringeren Kompatibilitätsgrad ihrer Produkte wählen als von einem wohlfahrtsökonomischen Standpunkt sinnvoll wäre. Dies könnte sogar dazu führen, dass die Produkte nicht angeboten werden, weil ohne gemeinsamen Standard keine kritische Masse an Konsumenten erreicht werden kann. Allerdings sind die Möglichkeiten, wettbewerbspolitisch in solche Märkte einzugreifen, relativ beschränkt. Aufgrund von Pfadabhängigkeiten steht für wirtschaftspolitische Eingriffe nur ein recht kleines Zeitfenster zur Verfügung. Wird dieses verpasst, dann sind

2 Industrieökonomik

349

Eingriffe in den Marktprozess kaum mehr möglich. Auch haben staatliche Institutionen keine ausreichenden Informationen, um zu beurteilen, welche der Technologien die überlegene ist. Weiterhin sind Märkte mit Netzwerkeffekten zumeist durch einen Wettbewerb um den Markt und weniger durch Wettbewerb im Markt gekennzeichnet. Dies führt häufig zu hoch konzentrierten Marktstrukturen mit hohen Marktanteilen und Gewinnen, die allerdings auch aus wohlfahrtsökonomischer Sicht nicht notwendig negativ zu beurteilen sind. Bei hinreichend starken Netzwerkeffekten kann ein einziges, monopolistisches Netzwerk trotz höherer Preise zu einer höheren Konsumentenwohlfahrt führen als in einer Situation mit Wettbewerb zwischen mehreren Netzwerken. Auswirkungen von Fusionen sind in solchen Märkten daher mit besonderer Sorgfalt zu untersuchen. Auch bei der Standardfindung gibt es Möglichkeiten wirtschaftspolitischer Eingriffe, z.B. durch die staatliche Festlegung eines Standards. Dies verhindert zwar Standard-Kriege zwischen Unternehmen, aber die kooperative Festlegung eines Standards kann geraume Zeit in Anspruch nehmen. Ohne staatliche Eingriffe hingegen besteht die Gefahr, dass sich nicht die beste Technologie, sondern eine zwar profitable, aber ineffiziente Technologie durchsetzt. Eine kooperative Standardsetzung ist jedoch vorzuziehen, wenn ansonsten keines der Produkte eingeführt wird, da keine hinreichend große kritische Masse an Konsumenten erreicht wird. Auch das Verhalten von Unternehmen in Märkten mit Netzwerkeffekten und insbesondere in zweiseitigen Märkten ist wettbewerbspolitisch mit besonderer Sorgfalt zu beurteilen. Wie in einseitigen Märkten mit Netzwerkeffekten sind zweiseitige Märkte durch einen hohen Konzentrationsgrad und große Marktanteile von Plattformbetreibern gekennzeichnet. Da auf diesen Märkten jedoch die Preisstruktur entscheidend ist, können die optimalen Preise für eine Marktseite unter den Grenzkosten liegen oder sogar negativ sein, während sie für die andere über den Grenzkosten liegen. Daraus darf jedoch nicht der Schluss gezogen werden, dass ein Behinderungsmissbrauch in Form von Kampfpreisen oder ein Ausbeutungsmissbrauch vorläge.144 Weder spiegelt die Preisstruktur die Kostenstruktur wider noch liegt ein Fall von Quersubvention vor.145 Ein ähnliches Ergebnis würde auch dann resultieren, wenn im Markt eine größere Zahl von Plattformbetreibern aktive wäre.

2.8.4

Verhaltensökonomische Ansätze in der Industrieökonomik

Die Verhaltensökonomik hat sich in den letzten Jahren zu einem der dynamischsten Gebiete der modernen Wirtschaftstheorie entwickelt und eine Reihe von Ansätzen und Konzepten hat sich auch für die Industrieökonomik als relevant herausgestellt. Angeregt durch eine Reihe von Ergebnissen experimenteller Untersuchungen, geht die Verhaltensökonomik nicht mehr von vollständig rational handelnden Akteuren aus, sondern 144 145

Vgl. OECD (2012) sowie Wright (2004).. Wright (2004).

350

Ulrich Schwalbe

berücksichtigt Verhaltensweisen, die vom orthodoxen Rationalkalkül abweichen. Dabei handelt es sich zum einen um Ansätze, die sich primär mit beschränkt rationalem Verhalten auf der Nachfragerseite und deren Auswirkungen auf Marktergebnisse, aber auch auf das Verhalten von gewinnmaximierenden Unternehmen gegenüber begrenzt rationalen Konsumenten befassen. Hierzu sind bereits zahlreiche Beiträge erschienen.146 Deutlich weniger Arbeiten sind hingegen bezüglich begrenzt rational handelnder Unternehmen vorgelegt worden.147 Hinsichtlich begrenzt rationalen Verhaltens auf der Nachfrageseite sind die Arbeiten zu nennen, die untersuchen, welche Auswirkungen auftreten, wenn Konsumenten ihre zukünftigen Präferenzen nicht richtig einschätzen, d.h. im Zeitablauf inkonsistente Präferenzen aufweisen. Dies ist z.B. dann der Fall, wenn sie die Wahrscheinlichkeit oder das Ausmaß künftiger Änderungen ihrer Präferenzen falsch einschätzen. In diesen Fällen würden marktmächtige Unternehmen diese Zeitinkonsistenz, die sich z.B. in einem übermäßigen Optimismus hinsichtlich ihrer künftigen Präferenzen, in ihrer Preissetzung berücksichtigen und könnten auf diese Weise ihre Gewinne erhöhen. Auch Wettbewerb zwischen den Unternehmen kann nicht in jedem Fall dafür sorgen, dass eine Ausbeutung solcher „naiver“ Konsumenten vermieden wird (DellaVigna/Malmendier (2004), Eliaz/Spiegler (2006, 2008)). Andere Aspekte begrenzter Rationalität betreffen den Umgang mit komplexen Entscheidungssituationen. So könnten begrenzt rationale Konsumenten aus wenigen Beobachtung am Markt falsche Rückschlüsse, z.B. auf die Qualität der Produkte, ziehen, was wiederum von den Unternehmen ausgenutzt werden kann (Kahneman/Tversky (1971,1974), Spiegler (2006)). Auch komplexe Formen der Preissetzung, wie das so genannte „Add-on-Pricing“, bei dem nicht gleich der Gesamtpreis genannt wird, sondern zu einem anfangs genannten Preis noch weitere Zusatzkosten hinzukommen, können von Unternehmen eingesetzt werden, um das begrenzt rationale Verhalten von Konsumenten zum eigenen Vorteil auszunutzen. Dies ist z.B. bei Hotelzimmern der Fall, bei dem neben dem Preis für Übernachtungen noch Kosten für Frühstück, Parken, Internetzugang etc. hinzukommen (Gabaix/Laibson (2006)). Ähnliches gilt bei der Preissetzung von Fluggesellschaften. Auch die Abhängigkeit von Präferenzen und Entscheidungen der Konsumenten von bestimmten Ausgangs- oder Referenzsituationen wurde von der industrieökonomischen Literatur untersucht. So spielt z.B. die Verlustaversion eine wichtige Rolle bei der Erklärung der Wirkungen von unverbindlichen Preisempfehlungen (Puppe/Rosenkranz (2009)). Darüber hinaus kann eine Verlustaversion von Unternehmen bei ihrer Preissetzung ausgenutzt werden, um die Gewinne zu erhöhen (Köszegi/Heidhues (2005,2008)). Begrenzte Rationalität tritt jedoch nicht nur bei Konsumenten auf, sondern auch bei Unternehmen bzw. den Managern, die die Unternehmensentscheidungen treffen. So könnte eine begrenzte Rationalität dazu führen, dass ein Unternehmen sich nicht Eine detaillierte Übersicht über diese Literatur gibt Spiegler (2011). Für eine Übersicht über die Arbeiten zu begrenzt rationalem Verhalten von Unternehmen vgl. Huck/Armstrong (2010). 146 147

2 Industrieökonomik

351

gewinnmaximierend verhält, sondern stattdessen das anscheinend erfolgreiche Verhalten anderer Unternehmen imitiert oder sich mit einem befriedigenden Ergebnis (Satisficing) begnügt. Weiterhin könnte zwar ein Optimierungsverhalten seitens des Unternehmens vorliegen, aber die verfolgten Ziele sind nicht der Gewinn, sondern z.B. der relative Gewinn im Vergleich zu den Wettbewerbern. Auch eine falsche Selbsteinschätzung von Managern in die eigene Entscheidungsfähigkeit (Overconfidence) kann zu Ergebnissen führen, die nicht gewinnmaximierend sind, wie z.B. Investitions- oder Fusionsentscheidungen (Malmendier/Tate (2005, 2008)). Auch „soziale Präferenzen“ können ein Unternehmensverhalten implizieren, das sich von dem bei vollständiger Rationalität unterscheidet. So kann z.B., bei kollusivem Verhalten eine Sanktionierung eines Unternehmens erfolgen, das einen „unfairen“ Anteil am Gesamtgewinn erhalten hat (Iriş/Santos-Pinto (2013)). Aber kollusive Verhaltensweisen könnten sich auch als stabiler erweisen, wenn zwischen den beteiligten Akteuren persönliche Bekanntschaften bestehen (Leslie (2004)). Allerdings sind die Auswirkungen begrenzter Rationalität auf das Marktergebnis nicht eindeutig. In einigen Fällen kann der Wettbewerb intensiviert werden, z.B. im Rahmen eines Cournot-Oligopols mit imitativem Verhalten (Vega-Redondo (1997)), in anderen, wie in einem Bertrand-Modell, kann ein „Satisficing“ Verhalten dazu führen, dass die Wettbewerbsintensität reduziert wird (Ellison (2006), S. 170f.). Inzwischen gibt es auch intensive und teils recht kontroverse Diskussionen, inwieweit die oben genannten verhaltensökonomischen Erkenntnisse über Abweichungen vom Rationalverhalten in die praktische Wettbewerbspolitik einbezogen werden sollten. So stellt sich die Frage, inwieweit Firmen im Wettbewerb bestimmte Verhaltensanomalien (Biases) der Konsumenten bewusst ausnutzen bzw. ihre eingeschränkten Beurteilungsfähigkeiten die Wirksamkeit des Wettbewerbs generell beeinträchtigen können. Diskutiert wird bspw., ob kognitive Probleme von Konsumenten eventuell zu einer anderen wettbewerbspolitischen Beurteilung von Kopplungsgeschäften (Tying/Bundling), Preisen mit Zusatzkosten (Add-on-Pricing) oder Wettbewerbsproblemen auf Folgemärkten (Aftermarkets) führen können. Es werden aber auch mögliche Effekte nichtrationalen Verhaltens von Firmen im Wettbewerb diskutiert, bspw. im Zusammenhang mit Überschätzungseffekten bei Markteintritten, bei Entscheidungen für vertikale Preisbindung, der Relevanz von Fixkosten bei Preissetzungsverhalten oder für die Frage der Stabilität von koordiniertem Verhalten. Viele dieser Effekte sind aber bisher nur unzureichend empirisch bestätigt. Eine weitere Problematik besteht darin, dass oftmals unklar ist, ob und wie sich Abweichungen vom Rationalverhalten durch die weiteren Marktreaktionen überhaupt auf die Marktergebnisse auswirken. Offen ist auch, ob die Einziehung von verhaltensökonomischen Erkenntnissen eher zu mehr oder zu weniger wettbewerbspolitischen Eingriffen in die Märkte führen könnte, insbesondere da auch die Entscheidungen von Wettbewerbsbehörden von solchen Rationalitätsproblemen betroffen sein können. Trotz dieser Vorbehalte kann aber davon ausgegangen werden, dass die Verhaltensökonomik und die experimentelle Ökonomik in Zukunft eine zunehmend wichtige Rolle auch in der praktischen Wettbewerbspolitik spielen könnten.

352

2.9

Ulrich Schwalbe

Kommentierte Literaturhinweise

Die moderne Industrieökonomik basiert im Wesentlichen auf den Methoden der Mikroökonomik sowie der Spieltheorie und stellt daher an denjenigen der sich mit dieser Thematik näher auseinandersetzen, die Originalliteratur lesen und vielleicht selbst auf diesem Gebiet arbeiten möchte, gewisse formale Ansprüche. Für die formalen Grundlagen seien die Bücher von Sydsætter/Hammond (2008) sowie von Sydsætter et al. (2008) empfohlen, die die wesentlichen mathematischen Methoden vermitteln. Eine gute Alternative stellt das Lehrbuch von Simon/Blume (1994) dar. Die mikoökonomischen Grundlagen vermitteln z.B. die Lehrbücher von Goolsbee/ Levitt/Syverson (2014), Perloff (2014) oder Pindyck/Rubinfeld (2013). Für den fortgeschrittenen Leser kommen auch die Lehrbücher von Jehle/Reny (2011), Riley (2011) und natürlich der „Klassiker“ MasColell/Whinston/Green (1995) in Frage, die auch kompakte Einführungen in die Spieltheorie enthalten. Spezielle Lehrbücher, die die Grundlagen der Spieltheorie vermitteln, ohne die die moderne Industrieökonomik nicht denkbar ist, sind Osborne (2004) und – mit zahlreichen Anwendungen auch auf industrieökonomische Aspekte – Harrington (2009). Ein umfangreiches Lehrbuch zur Spieltheorie auf formal anspruchsvollem Niveau ist der Band von Maschler/Solan/Zamir (2013). Speziell für die Theorie wiederholter Spiele sei die Monographie von Mailath/Samuelson (2006) empfohlen, die sich allerdings eher an den mathematisch geschulten Leser wendet. Da in den letzten Jahren auch empirische Methoden in der Industrieökonomik zunehmend an Bedeutung gewinnen, sind Kenntnisse ökonometrischer Verfahren für das Verständnis vieler Arbeiten unabdingbar. Eine sehr gut lesbare Einführung in die Ökonometrie gibt Wooldridge (2016). Sepziell zu den empirischen Verfahren, die in der Industrie- und der Wettbewerbsökonomik verwendet werden, bietet der Band von Davis/ Garcés (2010) einen umfassenden Überblick mit zahlreichen Beispielen. Eine gut lesabre Einführung in die Verhaltensökonomik gibt Angner (2016). Zu den methodischen Grundlagen der experimentellen Ökonomik sei auf den von Frechétte/Schotter (2015) herausgegebenen Band hingewisen, der zahlreiche Aufsätze zu grundlegenen konzeptionellen Fragen der Verhaltensökonomik enthält. Zur Industrieökonomik gibt es eine Reihe umfassender Lehrbücher mit unterschiedlichem Schwierigkeitsgrad. Eine aktuelle Einführung, die auch ohne tiefere mathematische Kenntnisse leicht lesbar ist, bieten Carlton/Perloff (2007) mit zahlreichen Anwendungen und Beispielen. Auf etwas höherem formalen Niveau, aber immer noch sehr verständlich sind die Lehrbücher von Pepall/Richards/ Norman (2014) sowie von Martin (2010), das auch eine Einführung in die eng mit der Industrieökonomik verbundene Wettbewerbstheorie und -politik enthält. Auch das bereits ältere Lehrbuch von Church/Ware (2000) hat, neben einem umfassenden Überblick über die zentralen Ansätze und Modelle der Industrieökonomik einen ausführlichen Teil zu den grundlegenden Konzepten der Wettbewerbstheorie und der Wettbewerbspolitik. Formal anspruchsvollere Darstellungen der Industrieökonomik sind Pepall/Richards/Norman

2 Industrieökonomik

353

(2011) sowie Bellfalmme/Peitz (2015). Insbesondere das letztgenannte Lehrbuch, das insbesondere für Masterstudenten geschrieben wurde, diskutiert eine Vielzahl der neuesten industrieökonomischen Fragestellungen und Themen, wie z.B. zweisitige Märkte, Patente oder neue Methoden der Preisdiskrimierung. Nicht zuletzt sei auch auf den inzwischen bereits etwas in die Jahre gekommenen Klassiker der theoretischen Industrieökonomik hingewiesen, das Lehrbuch von Tirole (1989), das aber auch heute noch mit Gewinn zu lesen ist. Speziell mit Fragen der Oligopoltheorie befasst sich die Arbeit von Vives (1999). Die drei Handbücher zur Industrieökonomik (Handbook of Industrial Organization) enthalten ausführliche Überblicksartikel zu einzelnen Teilbereichen der Industrieökonomik. Allerdings sind die Beiträge in den ersten beiden Bänden, die von Schmalensee/Willig bereits 1989 herausgegeben wurden, nicht mehr auf dem aktuellen Stand der Forschung. Die Artikel im dritten Band aus dem Jahr 2007, der von Armstrong/Porter herausgegeben wurde, enthalten jedoch noch wesentliche Beiträge. Anwendungen industrieökonomischer Modelle und Konzepte auf wettbewerbsökonomische Fragen, wie z.B. Kartellbildung, Fusionskontrolle sowie missbräuchliches Verhalten marktbeherrschender Unternehmen bieten die Lehrbücher von Motta (2004) sowie von Schulz (2003).

354

Ulrich Schwalbe

Literaturverzeichnis Abbink, K., J. Brandts (2005), Price Competition under Cost Uncertainty, Economic Inquiry, 43, 636-648. Abbink, K., J. Brandts (2008), Pricing in Bertrand Competition with Increasing Marginal Cost, Games and Economic Behavior, 63, 1-31. Abbink, K., J. Brandts (2009), Collusion in Growing and Shrinking Markets: Empirical Evidence from Experimental Duopolies, in: Hinloopen, J., H.T. Normann (Hrsg.), Experiments for Antitrust Policies, Cambridge University Press, Cambridge, 34-60. Adelman, M. A. (1966), A&P: A Study in Price-Cost Behavior and Public Policy, Harvard University Press, Cambridge, Mass. Altavilla, C., L. Luini, P. Sbriglia (2006), Social Learning in Market Games, Journal of Economic Behavior and Organization, 61, 632-652. Amir, R., I. Grilo (1999), Stackelberg vs. Cournot Equilibrium, Games and Economic Behavior, 26, 1-21. Amir, R., A. Stephanova (2006), Second-Mover Advantage and Price Leadership in Bertrand Duopoly, Games and Economic Behavior, 55, 1-21. Anderhub, V., W. Güth, U. Kamecke, H.-T. Normann (2003), Capacity Choices and Price Competition in Experimental Markets, Experimental Economics, 6, 27-52. Angner, E. (2016), A Course in Behavioral Economics, 2. Aufl. Macmillan, London. Aoyagi, M., G.R. Fréchette (2009), Collusion as Public Monitoring Becomes Noisy: Experimental Evidence, Journal of Economic Theory, 134, 1135-1165. Armstrong, M. (2006), Recent Developments in the Theory of Price Discrimination, in: Blundell, N., T. Persson (Hrsg.), Advances in Economics and Econometrics: Theory and Applications: Ninth World Congress, Cambridge University Press. Armstrong, M., R. Porter (Hrsg.), Handbook of Industrial Organization, Vol. 3, NorthHolland, Amsterdam. Arthur, B. (1989), Increasing Returns, and Lock-In by Historical Events, Economic Journal, 99, 116-131. Asplund, M. (2000), What Fraction of a Capital Investment Is Sunk Costs?, Journal of Industrial Economics, 48, 287-304. Asplund, M., R. Erikson, N. Strand (2008), Price Discrimination in Oligopoly: Evidence from Regional Newspapers, Journal of Industrial Economics, 56, 333-346. Aumann, R. J. (1967), A Survey of Cooperative Games without Side Payments, in Shubik, M. (Hrsg.), Essays in Mathematical Economics in Honor of Oskar Morgenstern, Princeton University Press, Princeton, NJ, 3–27. Aumann, R. J., L. Shapley (1974), Values of Non-Atomic Games, Princeton University Press, Princeton, NJ. Aumann, R. J., M. Maschler (1995), Repeated Games with Incomplete Information, MIT Press, Cambridge, Mass.

2 Industrieökonomik

355

Azoulay, P., S. Shane (2001), Entrepreneurs, Contracts, and the Failure of Young Firms, Management Science, 47, 337-58. Beckenkamp, M., F. Maier-Rigaud (2006), An Experimental Investigation of Article 82 Rebate Schemes, Competition Law Review, 2, 1-31. Belleflamme, P., M. Peitz (2015), Industrial Organization – Markets and Strategies, 2. Aufl., Cambridge University Press, Cambridge. Bertrand, J. (1883), Théorie des Richesses: revue de Théories mathématiques de la richesse sociale par Léon Walras et Recherches sur les principes mathématiques de la théorie des richesses par Augustin Cournot, Journal des Savants, 499-508. Bester, H. (2007), Theorie der Industrieökonomik, Springer, Heidelberg. Biscourp, P., X. Boutin, Th. Vergé (2008), The Effects of Retail Regulations on Prices: Evidence from the Loi Galland, Insee Document de Travail, G 2008-2. Blackstone, E.A. (1972), Limit Pricing and Entry in the Copying Machine Industry, Quarterly Review of Economics and Business,12, 57–65. Bolton, P., D.S. Scharfstein (1990), A Theory of Predation Based on Agency Problems in Financial Contracting, American Economic Review, 80, 93-106. Bonnet, C., P. Dubois (2010a), Inference on Vertical Contracts between Manufacturers and Retailers Allowing for Nonlinear Pricing and Resale Price Maintenance, RAND Journal of Economics, 41, 139-164 Bonnet, C., P. Dubois (2010b), Non Linear Contracting and Endogenous Buyer Power between Manufacturers and Retailers : Empirical Evidence on Food Retailing in France, TSE Working Paper Series, 10-189. Boone, J., W. Müller, S. Suetens (2012), Naked Exclusion in the Lab: The Case of Sequential Contracting, Journal of Industrial Economics, 62, 137-166. Borenstein, S. (1991), The Dominant-Firm Advantage in Multi-Product Industries: Evidence from the U.S. Airlines, Quarterly Journal of Economics, 106, 1237-1266. Brandts, J., A. Chabrales, G. Charness (2007), Forward Induction and Entry Deterrence: an Experiment, Economic Theory, 33, 183-209. Brenkers, R., F. Verboven (2006), Liberalizing A Distribution System: The European Car Market, Journal of the European Economic Association, 4, 216-251. Bresnahan, T. (1989), Empirical Studies of Industries with Market Power, in: Schmalensee, R., R. Willig (Hrsg.), Handbook of Industrial Organization, Vol. 2, North-Holland, Amsterdam, 1011-1057. Bresnahan, T., R. Schmalensee, (1987). The Empirical Renaissance in Industrial Economics: An Overview, Journal of Industrial Economics, 35, 371–378. Brown-Kruse, J., D.J. Schenk (2000), Location, Co-operation and Communication: An Experimental Examination, International Journal of Industrial Organisation, 18, 59-80. Brueckner, J.K., P.M. Picard (2013), Airline Alliances, Carve-Outs and Collusion, Review of Network Economics, 12, 211-227. Brueckner, J. K., S. Proost (2010), Carve-Outs under Airline Antitrust Immunity, International Journal of Industrial Organization, 28, 657-668.

356

Ulrich Schwalbe

Bruttel, L. (2009), Group Dynamics in Experimental Studies – The Bertrand Paradox Revisited, Journal of Economic Behavior and Organization, 69, 51-63. Bruttel, L. (2013), Is there an Exclusionary Effect of Retroactice Price Reduction Schemes?, Research Paper Series No. 84, Thurgau Institute of Economics and Department of Economics at the University of Konstanz. Bulow, J.I. (1982), Durable Goods Monopolies, Journal of Political Economy, 90, 314-332. Burns, M.R. (1983), Economies of Scale in Tobacco Manufacture, 1897-1910, Journal of Economic History, June 1983, 461-474. Burns, M.R. (1986), Predatory Pricing and the Acquisition Costs of Competitors. Journal of Political Economy, 94, 266-96. Caliskan, A., D. Porter, S. Rassenti, V. Smith, B.J. Wilson (2007), Exclusionary Bundling and the Effects of a Competitive Fringe, Journal of Institutional and Theoretical Economics (JITE), 163, 109-132. Carlton, D.W., J.M. Perloff (2007), Modern Industrial Organization, 4th ed., Prentice Hall, Upper Saddle River, N.J. Chamberlin, E. (1933), The Theory of Monopolistic Competition, Harvard University Press, Cambridge. Mass. Chipty, T. (2001), Vertical Integration, Market Foreclosure, and Consumer Welfare in the Cable Television Industry, American Economic Review, 91, 428-453. Church. J. R. Ware (2000), Industrial Organization: A Strategic Approach, Irwin McGraw Hill, Boston. Clerides, S. (2002), Book Value: Intertemporal Pricing and Quality Discrimination in the US Market for Books, International Journal of Industrial Organization, 20, 1385-1408. Coase, R. (1972), Durability and Monopoly, Journal of Law and Economics, 15, 143–49. Comanor, W.S., P. Rey (2000), Vertical Restraints and the Market Power of Large Distributors, Review of Industrial Organization, 17, 135-53. Compte, O., F. Jenny, P. Rey (2002), Capacity Constraints, Mergers and Collusion, European Economic Review, 46, 1-29. Conitzer, V., C. Taylor, L. Wagman (2010), Online Privacy and Price Diskrimination, Duke University, ERID Working Paper 79. Conlin, M., V. Kadiyali (2006), Entry Deterring Capacity in the Texas Lodging Industry, Journal of Economics and Management Strategy, 15, 167-185. Conlon, C.T., J.H. Mortimer, (2015), Efficiency and Foreclosure Effects of All-Units Discounts: Empirical Evidence, Discussion Paper, Department of Economics, Columbia University. Connor, J.M. (2007), Global Price Fixing, 2. Auflage, Springer, Heidelberg. Connor, J.M., R.H. Lande (2008), Cartel Overcharges and Optimal Cartel Fines, in: S.W. Waller (Hrsg.), Issues in Competition Law and Policy, Vol. 3, ABA Section of Antitrust Law, Chicago.

2 Industrieökonomik

357

Cookson, J.A. (2015), Anticipated Entry and Entry Deterrence: Evidence from the American Casino Industry, Discussion Paper, Leeds School of Business, University of Colorado at Boulder Cooper, R.W., J. Haltiwanger (2006), On the Nature of Capital Adjustment Costs, Review of Economic Studies, 73, 611-633. Cooper, D.J., S. Garvin, J.H. Kagel (1997a), Signaling and Adaptive Learning in an Entry Limit Pricing Game, RAND Journal of Economics, 28, 662-688. Cooper, D.J., S. Garvin, J.H. Kagel (1997b), Adaptive Learning vs. EquilibriumRefinements in an Entry Limit Pricing Game, Economic Journal, 107, 553-575. Cournot, A.A. (1838), Recherches sur les Principes Mathématiques de la Théorie des Richesses, Hachette, Paris. Dafny, L.S. (2005), Games Hospitals Play: Entry Deterrence in Hospital Procedure Markets, Journal of Economics and Management Strategy, 14, 513-542. van Damme, E., S. Hurkens (2004), Endogenous Price Leadership, Games and Economic Behavior, 47, 404-420. Davidson, C., R.J. Deneckere (1984), Horizontal Mergers and Collusive Behavior, International Journal of Industrial Organization, 2, 117-132. Davidson, C., R.J. Deneckere (1986), Long-Run Competition in Capacity, Short-Run Competition in Price, and the Cournot Model, RAND Journal of Economics, 17, 404-415. Davis, D.D. (2011), Behavioral Convergence Properties of Cournot and Bertrand Markets: An Experimental Analysis, Journal of Economic Behavior and Organization, 80, 443–458. Davis, D.D., B.J. Wilson (2006), Equilibrium Price Dispersion, Mergers and Synergies: An Experimental Investigation of Differentiated Product Competition, International Journal of the Economics of Business, 13, 169-194. Davis, P., E. Garcés (2010), Quantitative Techniques for Competition and Antitrust Analysis, Princeton University Press, Princeton. DellaVigna, S., U. Malmendier (2004), Contract Design and Self-Control: Theory and Evidence, Quarterly Journal of Economics, 119, 353-402. DeGreyse, H., S. Ongena (2005), Distance, Lending Relationships, and Competition, Journal of Finance, 60, 231-266. DePrano, M.E., J.B. Nugent (1969), Economics as an Antitrust Defence: Comment, American Economic Review 59, 947-953. Dewatripont, M., V. Ginsburgh, P. Legros, A. Walckiers (2007), Pricing of Scientific Journals and Market Power, Journal of the European Economic Association, 5, 400-410. Director, A., E. Levi (1956), Law and the Future: Trade Regulation, Northwestern University Law Review, 51, 281-296. Dixit, A. (1979), A Model of Duopoly Suggesting a Theory of Entry Barriers, Bell Journal of Economics, 10, 20-32.

358

Ulrich Schwalbe

Dobson, P.W., M. Waterson (2007), The Competition Effects of Industry-Wide Price Fixing in Bilateral Oligopoly, International Journal of Industrial Organization, 25, 935-962 Doughety, A.F. (1990), Beneficial Concentration, American Economic Review, 80, 1231-1237. Dufwenberg, M., U. Gneezy (1999), Price Competition and Market Concentration: An Experimental Study, International Journal of Industrial Organization, 18, 7-22. Durham, Y. (2000), An Experimental Examination of Double Marginalization and Vertical Relationships, Journal of Economic Behavior and Organization, 42, 207–229. Eckbo, B.E. (1983), Horizontal Mergers, Collusion, and Stockholder Wealth, Journal of Financial Economics 11, 241-273. Eckbo, B.E., P. Wier (1985), Antimerger Policy under the Hart-Scott-Rodino Act: A Reexamination of the Market Power Hypothesis, Journal of Law and Economics 28, 119-149. Edgeworth, F. Y. (1897), La Teoria Pura del Monopolio, Giornale Degli Economisti, 40, 13–31. Eichenwald, K. (2000), The Informant, Brooklyn Books, New York. Eliaz, K., R. Spiegler (2006), Contracting with Diversely Naive Agents, Review of Economic Studies, 73, 689-714. Eliaz, K., R. Spiegler (2008), Consumer Optimism and Price Discrimination, Theoretical Economics, 3, 459-497. Ellison, G. (2006), Bounded Rationality in Industrial Organization, in: Blundell, R., W. Newey, T. Persson (Hrsg.), Advances in Economics and Econometrics: Theory and Applications, Ninth World Congress, Cambridge University Press, Cambridge, 142-174. Ellison, G., S.F. Ellison (2011), Strategic Entry Deterrence and the Behaviour of Pharmaceutical Incumbents Prior to Patent Expiration, American Economic Journal: Microeconomics, 3, 1-36. Elzinga, K.G. (1970), Predatory Pricing: The Case oft he Gunpowder Trust, Journal of Law and Economics, 13, 223-240. Europäische Kommission (2010), Empfehlung der Kommission vom 20. September 2010 über den regulierten Zugang zu Zugangsnetzen der nächsten Generation (NGA), Amtsblatt der Europäischen Union, L251/35. Evans, D.S., M. A. Salinger (2005), Why Do Firms Bundle and Tie? Evidence from Competitive Markets and Implications for Tying Law, Yale Journal on Regulation, 22, 37-89. Evans, D.S., M. A. Salinger (2006), Curing Sinus Headaches and Tying Law: An Empirical Analysis of Bundling Decongestants and Pain Relievers, in: Choi, J. P. (Hrsg.), Recent Developments in Antitrust: Theory and Evidence, MIT Press, Cambridge, Mass., 91-124. Evans, D. S., M. A. Salinger (2008), The Role of Cost in Determining When Firms Offer Bundles and Ties, Journal of Industrial Economics, 56, 143-168.

2 Industrieökonomik

359

Evans, D.S., R. Schmalensee, M.D. Noel, H.H. Chang, D.D. Garcia-Swartz (2011), Platform Economics: Essays on Multi-Sided Businesses, Competition Policy International. Fama, E. (1980), Agency Problems and the Theory of the Firm, Journal of Political Economy 88, 288-307. Farrell, J. und C. Shapiro (1990), Horizontal Mergers: An Equilibrium Analysis, American Economic Review 80, 107-126. Fatas, E., J. Mañez (2007), Are Low-Price Promises Collusion Guarantees? An Experimental Test of Price Matching Policies, Spanish Economic Review, 9, 9-77. Feinberg, R., Ch. Snyder (2002), Collusion with Secret Price Cuts: An Empirical Investigation, Economics Bulletin, 3, 1-11. Fonseca, M.A., H.-T. Norman (2012), Explicit vs. Tacit Collusion – The Impact of Communication in Oligopoly Experiments, European Economic Review 56, 1759-1772. Frechétte, G.R., A. Schotter (Hrsg.) (2015), Handbook of Experimantal Economic Methodology, Oxford University Press, Oxford. Fridolfsson, S.O., J. Stennek (2005), Why Mergers Reduce Profits and Raise Share Prices: A Theory of Pre-emptive Mergers, Journal of the European Economic Association, 3, 1083-1114. Fridolfsson, S.O., J. Stennek (2000), Why Event Studies do not Detect Anti-Competitive Mergers, Discussion Paper 542, Research Institute of Industrial Economics: Stockholm. Friedman, J.W. (2000), A Guided Tour of the Folk Theorem, in: Norman, G., J.-F. Thisse (Hrsg.), Market Structure and Competition Policy, Cambridge University Press, Cambridge, 51-69. Fudenberg, D., M.J. Villas-Boas (2007), Behavior-Based Price Discrimination, in: Peitz, M., J. Waldfogel (Hrsg.), The Oxford Handbook of the Digital Economy, Oxford University Press, Oxford, 254-272. Gabaix, X., D. Laibson (2006), Shrouded Attributes, Consumer Myopia, and Information Suppression in Competitive Markets, Quarterly Journal of Economics,121, 505-540. Gedge, C., J.W. Roberts, A. Sweeting (2014). A Model of Dynamic Limit Pricing with an Application to the Airline Industry. NBER Working Paper Working Paper 20293. Geithman, F.E., H.P. Marvel, L.W. Weiss (1981), Concentration, Price, and Critical Concentration Ratios, Review of Economics and Statistics, 63, 346-363. Genesove, D., W.P.Mullin (2006), Predation and its Rate of Return: The Sugar Industry, 1887–1914, RAND Journal of Economics, 37, 47-69. Geroski, P. (1995), What Do we Know about Entry?, International Journal of Industrial Organization 13, 421-440. Gillet, J., A. Schram, J. Sonnemans (2011), Cartel Formation and Pricing: The Effect of Managerial Decision-Making Rules, International Journal of Industrial Organization 29, 126-133. Gilligan, T.W. (1986), The Competitive Effects of Resale Price Maintenance, RAND Journal of Economics, 17, 544-556;

360

Ulrich Schwalbe

Götte, L., A. Schmutzler (2009), Merger Policy: What can we Learn from Experiments?, in: Hinloopen, J., H.-T. Normann (Hrsg.), Experiments and Competition Policy, Cambridge University Press, Cambridge, 185-216. Gomez, R., J.K. Goeree, Ch.A. Holt (2008), Predatory Pricing: Rare Like a Unicorn?, in: Ch. R. Plott, V.L. Smith (Hrsg.), Handbook of Experimental Economics Results, Vol. 1, North-Holland Elsevier, Amsterdam, 178-184. Goodwin, D., S. Mestelman (2010), “A Note Comparing the Capacity Setting Performance of the Kreps-Scheinkman Duopoly Model with the Cournot Duopoly Model in a Laboratory Setting, International Journal of Industrial Organization, 28, 522-525. GoolsBee, A., S. Levitt, Ch. Syverson (2014), Mikroökonomik, Schäffer Pöschel, Stuttgart. Goolsbee, A., Ch. Syverson (2008), How Do Incumbents Respond to the Threat of Entry? Evidence from the Major Airlines, Quarterly Journal of Economics, 123, 1611-1633. Green, E.J., R.H. Porter (1984), Noncooperative Collusion under Imperfect Price Information, Econometrica, 52, 87-100. Greenlee, P., D.S. Reitman, D.S. Sibley (2011), Comment on Muris and Smith, “Antitrust and Bundled Discounts: An Experimental Analysis”, Antitrust Law Journal, 77, 669-681. Grossman, S., O. Hart (1980), Takeover Bids, the Free Rider Problem, and the Theory of the Corporation, Bell Journal of Economics 11, 42-64. Grossman, S., O. Hart (1986), The Costs and Benefits of Owenership A Theory of Vertical and Lateral Integration, Journal of Political Economy 94, 691-719. Gugler, K., D. Mueller, B.B. Yurtoglu, C. Zulehner (2003), The Effects of Mergers: An International Comparison, International Journal of Industrial Organization 21, 625-653. Gul, F., H. Sonnenschein, R. Wilson (1986), Foundations of Dynamic Monopoly and the Coase Conjecture, Journal of Economic Theory 39, 155-190. Hahn, V., H.T. Normann (2001), Der Fall des Kabelherstellerkartells : Zur Bedeutung von Wettbewerbsrecht und Marktkräften, Schmollers Jahrbuch: Zeitschrift für Wirtschaftsund Sozialwissenschaften 121, 407-426. Hampton, K., K. Sherstyuk (2012), Demand Shocks, Capacity Coordination, and Industry Performance: Lessons from an Economic Laboratory, RAND Journal of Economics, 43, 139-166. Hannan, T.H. (1979), Limit Pricing and the Banking Industry, Journal of Money Credit and Banking 10, 438-446. Hannan, T.H. (1991), Foundations of the Structure-Conduct-Performance Paradigm in Banking, Journal of Money, Credit and Banking, 23, 68-84. Hannan, T.H., J.N. Liang (1993), Inferring Market Power from Time-Series Data : The Case of the Banking Firm, International Journal of Industrial Organization, 11, 205-218. Harrison, G.W. (1988), Predatory Pricing in a Multiple Market Experiment. A Note, Journal of Economic Behavior and Organization 9, 405–417.

2 Industrieökonomik

361

Harrington, J.E. (2006), How do Cartels Operate, Foundations and Trends in Microeconomics, Vol. 5, Now Publishers, Boston. Harrington, J.E. (2009), Games, Strategies, and Decision Making, Woth Publishers, New York Harsanyi, J. (1967), Games with Incomplete Information Played by Bayesian Players, Management Science, 14, 159-182, 320-334, 486-502. Hart, O., J. Tirole (1990), Vertical Integration and Market Foreclosure, Brookings Papers on Economic Activity: Microeconomics, Special Issue, 205-276. Hay, G.A., D. Kelley (1974), An Empirical Survey of Price Fixing Conspiracies, Journal of Law and Economics 17, 13-39. Hersch, P.L. (1994), The Effects of Resale Price Maintenance on Shareholder Wealth: The Consequences of Schwegmann, Journal of Industrial Economics, 42, 205-216 Hexner, E.P. (1943), The International Steel Cartel, University of North Carolina Press, Chapel Hill. Hinloopen, J., W. Müller, H.T. Normann (2014), Output Commitment through Product Bundling: Experimental Evidence, European Economic Review, 65, 164-180. Hirschey, M. (1985), Market Structure and Market Value, Journal of Business 58, 89–98. Ho, T., J. Zhang (2004), Designing Pricing Contracts for Boundedly Rational Customers: Does the Framing of the Fixed Fee Matter?, Management Science, 54, 686-700. Holmes, T.J. (1989), The Effects of Third-Degree Price Discrimination in Oligopoly, American Economic Review, 79, 244-250. Holmström, B.R., J. Tirole (1989), The Theory of the Firm, in: R. Schmalensee, R.D.  Willig (Hrsg.), Handbook of Industrial Organization, Vol. 1, North Holland, Amsterdam, 61-133. Holt, C. H. (1985), An experimental Test of the Consistent-Conjectures Hypothesis, American Economic Review, 75, 314-25. Holt, C. H. (1995), Industrial Organization. A Survey of Laboratory Research. Kagel, J.H., A.E. Roth (Hrsg.), Handbook of Experimental Economics, Princeton University Press, Princeton, 349-443. Hotelling, H. (1929), Stability in Competition, Economic Journal 39, 41-57. Huck, S., M. Armstrong (2010), Behavioral Economics as Applied to Firms: A Primer, Competition Policy International 6, 1-45. Huck, S., K. Konrad, W. Müller, H.T. Normann (2007), The Merger Paradox and why Aspiration Levels Let it Fail in the Laboratory, Economic Journal 117, 1073-1095. Huck, S., W. Müller (2000), Perfect versus Imperfect Observability – An Experimental Test of Bagwell’s Result, Games and Economic Behavior, 31, 174-190. Huck, S., W. Müller, H.T. Normann (2001), Stackelberg Beats Cournot: On Collusion and Efficiency in Experimental Markets, Economic Journal, 111, 749-765. Huck, S., H.T. Normann, J. Oechsler (2000), Does Information about Competitors’ Actions Increase or Decrease Competition in Experimental Oligopoly Markets?, International Journal of Industrial Organization 18, 39-57.

362

Ulrich Schwalbe

Huck, S., H.T. Normann, J. Oechsler (2004), Two are Few and Four are Many: Number Effects in Experimental Oligopolies, Journal of Economic Behavior and Organization, 53, 435-446. Isaac, R.M., V. L. Smith (1985), In Search of Predatory Pricing, Journal of Political Economy, 93, 320-345. Inderst, R., U. Schwalbe (2009), Effekte verschiedener Rabattformen – Überlegungen zu einem ökonomisch fundierten Ansatz, Zeitschrift für Wettbewerbsrecht 7, 65-84. Ippolito, P.M. (1991), Resale Price Maintenance: Empirical Evidence from Litigation, Journal of Law and Economics, 34, 263-294; Ippolito, P.M., T.R. Overstreet (1996), Resale Price Maintenance: An Economic Assessment of the Federal Trade Commission’s Case Against the Corning Glass Works, Journal of Law and Economics, 39, 285-328. Iriş, D., L. Santos-Pinto (2013), Tacit Collusion under Fairness and Reciprocity, Games, 4, 50-65. Jehle, Jensen, M., W. Meckling (1976), Theory of the Firm: Managerial Behavior, Agency Costs, and Capital Structure, Journal of Financial Economics 3, 305-360. Jordan, W.J., B.L. Jaffee (1987), The Use of Exclusive Territories in the Distribution of Beer: Theoretical and Empirical Observations, Antitrust Bulletin 32, 137-164. Jullien, B., P. Rey (2007), Resale Price Maintenance and Collusion, RAND Journal of Economics, 38, 983-1001. Jullien, B., P. Rey, C. Saavedra (2014), The Economics of Margin Squeeze, CEPR Discussion Paper No. 9905. Jung, Y.J., J.H. Kagel, D. Levin (1994), On the Existence of Predatory Pricing: An Experimental Study of Reputation and Entry Deterrence in the Chain-Store Game, RAND Journal of Economics 25, 72-93. Kahneman, A., D. Tversky (1971), Belief in the Law of Small Numbers, Psychological Bulletin 76, 105–110. Kahneman, A., D. Tversky (1974), Judgment under Uncertainty: Heuristics and Biases Science 185, 1124–1131. Keay, I. (2003), An Empty Promise: Average Cost Savings and Scale Economies Among Canadian and American Manufacturers, 1910-1988, Southern Economic Journal 70, 374-388. Keeler, T.E. (1989), Deregulation and Scale Economies in the US Trucking Industry: An Econometric Extension oft he Survivor Principle, Journal of Law and Economics 32, 229-253. Kleinert, J., H. Klodt (2000), Megafusionen – Trends, Ursachen und Implikationen, Kieler Studien 302, Mohr Verlag: Tübingen. Kleinert, J., H. Klodt (2002), Die fünfte Fusionswelle: Ausmaße und Hintergründe, in: P. Oberender (Hrsg.), Megafusionen: Motive, Erfahrungen und wettbewerbspolitische Probleme, Duncker & Humblot, Berlin, 9-19.

2 Industrieökonomik

363

Kleit (1993), Efficiencies without Economists: The Early Years of Resale Price Maintenance, Southern Economic Journal 59, 597-619. Koller, R.III (1971), The Myth of Predatory Pricing: An Empirical Study, Antitrust Law and Economics Review 4, 105-123. Kreps, D.M., R. Wilson (1982), Reputation and Imperfect Information, Journal of Economic Theory 27, 253-279. Kreps, D.M., J.A. Scheinkman (1983), Quantity Precommitment and Bertrand Competition Yield Cournot Outcomes, Bell Journal of Economics 14, 326-337. Kobayashi , B.H. (2010), The Law and Economics of Predatory Pricing, in: Hylton, K.H. (Hrsg.), Antitrust Law and Economics, Edward Elgar, Cheltenham, 116-156. Köszegi, B., P. Heidhues (2005), The Impact of Consumer Loss Aversion on Pricing, CPER Discussion Paper No. 4849. Köszegi, B., P. Heidhues (2008), Competition and Price Variation When Consumers Are Loss Averse, American Economic Review, 98, 1245-68. Kübler, D., W. Müller (2002), Simultaneous and Sequential Price Competition on Heterogeneous Duopoly Markets: Experimental Evidence, International Journal of Industrial Organization 20, 1437-1460. Kühn, K.U. (2004), The Coordinated Effects of Mergers in Differentiated Products Industries, John M. Ohlin Center for Law and Economics, Discussion Paper #04-20,University of Michigan Kühn, K.U. (2008), The Coordinated Effects of Mergers, in: Buccirossi, P. (Hrsg.), Handbook of Antitrust Economics, MIT Press, Cambridge, Mass., 105-144. Kühn, K.U., M. Motta, (2000), The Economics of Joint Dominance and the Coordinated Effects of Merger, mimeo, University of Michigan. Landeo, C.M., K.E. Spier (2009), Naked Exclusion: An Experimental Study of Contracts with Externalities, American Economic Review, 99, 1850-1877. Le Coq, C., J.T. Sturluson (2012), Does Opponents’ Experience Matter? Experimental Evidence from a Quantity Precommitment Game, Journal of Economic Behaviour and Organization 84, 265-277. Lerner, A. (1934), The Concept of Monopoly and the Measurement of Monopoly Power, Review of Economic Studies. 1, 1934, 157–175 Leibenstein, H. (1966), Allocative Efficiency vs. „X-Efficinecy“, American Economic Review, 56, 392-415. Leslie, P. (2004), Price Discrimination in Broadway Theatre, RAND Journal of Economics 35, 520-541. Levenstein, M.C., V.Y. Suslow (2006), What Determines Cartel success?, Journal of Economic Literature 44, 43-95. Lieberman, M. (1987), Excess Capacity as a Barrier to Entry: An Empirical Appraisal, Journal of Industrial Economics 35, 607-627. Lieberman, M. (1988), Entry, Pricing, and Vertical Integration in the Chemical Processing Industries Mimeo. (Stanford University).

364

Ulrich Schwalbe

Mago, S., J. Pate (2009), An Experimental Examination of Competitor-Based Price Matching Guarantees, Journal of Economic Behavior and Organization 70, 342-360. Mahmood, A. (2014), How Do Customer Characteristics Impact Behavior-Based Price Discrimination? An Experimental Investigation, Journal of Strategic Marketing 22, 530-547. Mailath, G.J., L. Samuelson (2006), Repeated Games and Reputation: Long-Run Relationships, Oxford University Press, Oxford. Malmendier, U., G. Tate (2005), CEO Overconfidence and Corporate Investment, Journal of Finance 60, 2661-2700. Malmendier, U., G. Tate (2008), Who Makes Acquisitions? CEO Overconfidence and the Market’s Reaction, Journal of Financial Economics 89, 20-43. Manne, H.G. (1965), Mergers and the Market for Corporate Control, Journal of Political Economy 73, 110-120. Marris, R. (1964), The Economic Theory of Managerial Capitalism, Free Press: Glencoe, IL. Martin, S. (2001), Industrial Organization: A European Perspective, Oxford University Press, Oxford. Martin, S. (2001), Industrial Organization in Context, Oxford University Press, Oxford. Maschler, M., E. Solan, S. Zamir (2013), Game Theory, Cambridge University Press, Cambridge. Maskin, E., J. Tirole (1988), A Theory of Dynamic Oligopoly, II: Price Competition, Kinked Demand Curves, and Edgeworth Cycles, Econometrica 56, 571-599. Mason, Ch., O.R. Phillips, C. Nowell (1992), Duopoly Behavior in Asymmetric Markets: An Experimental Evaluation, Review of Economics and Statistics 74, 662-670. Mason, Ch., C. Nowell (1998), An Experimental Analysis of Subgame Perfect Play: The Entry Deterrence Game, Journal of Economic Behavior and Organization, 37, 443-462. Mason, Ch., O.R. Phillips (1997), “Information And Cost Asymmetry In Experimental Duopoly Markets, Review of Economics and Statistics, 79, 290-299, Masson, R., J. Shaanan, 1986, Excess capacity and limit pricing: An empirical test, Economica 53, 365-378. Mathewson, F., R. Winter (1998), The Law and Economics of Resale Price Maintenance, Review of Industrial Organization 13, 57-84 McAffee, P.R., H.M. Mialon, M.A. Williams (2004), What Is a Barrier to Entry?, American Economic Review 94, 461-465. McGee, J.S. (1958), Predatory Price Cutting: The Standard Oil (N. J.) Case, Journal of Law and Economics, 1, 137-169. McGee, J.S. (1964), Government Intervention in the Spanish Sugar Industry, Journal of Law and Economics, 7, 121-172. McManus, B. (2004), Nonlinear Pricing in an Oligopoly Market: The Case of Speciality Coffee, RAND Journal of Economics 38, 512-532. Milgrom, P., J. Roberts (1982), Limit Pricing and Entry under Incomplete Information: An Equilibrium Analysis, Econometrica 50, 443-459.

2 Industrieökonomik

365

Morell, A., A. Glöckner, E. Towfigh, E. (2009). Sticky Rebates: Loyalty Rebates Impede Rational Switching of Consumers, Journal of Competition Law and Economics 11, 431-461. Morgan, J., F. Várdy (2004), An Experimental Study of Commitment in Stackelberg Games with Observation Costs, Games and Economic Behavior, 49, 401-423. Motta, M. (2004), Competition Policy, Cambridge University Press, Cambridge. Mueller, D.C. (1996), Antimerger Policy in the United States: History and Lessons, Empirica, 23, 229-253. Mullin, J.C., W.P. Mullin (1997), United States Steel’s Acquisition of the Great Northern Ore Properties: Vertical Foreclosure or Efficient Contractual Governance?, Journal of Law, Economics, and Organization, 13, 74-100. Muris, T., V.L. Smith (2008), Antitrust and Bundling Discounts: An Experimental Analysis, Antitrust Law Journal 75, 399-432. Nash, J. (1950), Equilibrium Points in N-Person Games, Proceedings of the National Academy of Sciences Vol. 38, 48-49. Nash, J. (1953), Two-Person Cooperative Games, Econometrica 21, 128-140. von Neumann, J., O. Morgenstern (1944), Theory of Games and Economic Behaviour, Princeton University Press, Princeton. Nocke, V., L. White (2007), Do Vertical Mergers Facilitate Upstream Collusion?, American Economic Review 97, 1321-1339. Normann, H.T. (2011), Vertical Mergers, Foreclosure And Raising Rivals’ Costs – Experimental Evidence, Journal of Industrial Economics, 59, 506-527. Normann, H.T., B.J. Ruffle, Ch. M. Snyder (2007), Do Buyer-Size Discounts Depend on the Curvature of the Surplus Function? Experimental Tests of Bargaining Models, RAND Journal of Economics, 38, 747-767. Oecd (2012), Market Definition, OECD Best Practice Roundtables in Competition Policy. Ordover, J.A., G. Saloner, S.C. Salop (1990), Equilibrium Vertical foreclosure, American Economic Review 80, 127-142. Orzen, H. (2008), Counterintuitive number effects in experimental oligopolies, Experimental Economics, 11, 390-401. Osborne, M.J. (2004), An Introduction to Game Theory, Oxford University Press, Oxford. Overstreet, T.R. (1983), Resale Price Maintenance: Economic Theories and Empirical Evidence, Bureau of Economics Staff Report to the Federal Trade Commission; Oxera (2009), Quantifying Antitrust Damages. Towards Non-Binding Guidance for Courts, Publications Office of the European Union, Luxemburg. Peitz, M. (2006), Marktplätze und indirekte Netzwerkeffekte, Perspektiven der Wirtschaftspolitik 7, 317-333. Pepall, L., D. Richards, G. Norman (2011), Contemporary Industrial Organization – A Quantitative Approach, Wiley, Hoboken, NJ. Pepall, L., D. Richards, G. Norman (2014), Industrial Organization – Contemporary Theory and Empirical Applications, 5. Aufl. Wiley, Hoboken, NJ.

366

Ulrich Schwalbe

Perloff, J.M. (2014), Microeconomics: Theory and Application with Calculus, 3.Aufl. Pearson, Harlow. Pigou, A.C. (1920), The Economics of Welfare, Macmillan, London. Pindyck, R.S., D.L. Rubinfeld (2014), Mikroökonomie, 8. Auflage, Pearson, München. Posner, R.A. (2001), Antitrust Law, 2. Aufl., University of Chicago Press, Chicago. Pratten, C. (1988), A Survey of the Economies of Scale, in: Commission of the European Communities, Research on the “Cost of Non-Europe”, Vol. 2: Studies on the Economics of Integration, Luxembourg. Puppe, C., S. Rosenkranz (2011), Why Suggest Non-Binding Retail Prices?, Economica 78, 317-329. Ramey, V.A., M.D. Shapiro (2001), Displaced Capital: A Study of Aerospace Plant Closings, Journal of Political Economy, 109, 958-992. Rasmusen, E.B., J.M. Ramseyer, J.S. wiley (1991), Naked Exclusion, American Economic Review 81, 1137-1145. Ravenscraft D.J., F.M. Scherer (1987), Life After Takeover, Journal of Industrial Economics 36, 147-156. Rey, P., T. Vergé (2004), Bilateral Control with Vertical Contracts, RAND Journal of Economics 35, 728-746. Rey, P., T. Vergé (2010), Resale Price Maintenance and Interlocking Relationships, Journal of Industrial Economics, 58, 928-961. Robinson, J. (1933), The Economics of Imperfect Competition, Macmillan, London. Rochet, J.C., J. Tirole (2006), Two Sided Markets: A Progress Report, RAND Journal of Economics, 37, 645-667. Röller, L.H., J. Stennek, F. Verboven (2006), Efficiency Gains form Mergers, in: Ilkovitz, L., R. Miklejohn, (Hrsg.), European Merger Control: Do we Need an Efficiency Defense?, Edward Elgar, Cheltanham, 84-201. Rohlfs, J. (1974), A Theory of Interdependent Demand for a Telecommunications Service, Bell Journal of Economics and Management Science 5, 16-37. Rosenbaum, D.I. (1994), Efficiency v. Collusion: Evidence Cast in Cement, Review of Industrial Organization 9, 379-392. Rosengren, E.S., J.W. Meehan (1994), Empirical Evidence on Vertical Foreclosure, Economic Inquiry 32, 303-17. Salant, S.W., S. Switzer, S., R.J. Reynolds (1983), Losses from Horizontal Merger: The Effects of an Exogeneous Change in Industry Structure on Cournot-Nash-Equilibrium, Quarterly Journal of Economics 98, 185-199. Salinger, M.A. (1988), Vertical Mergers and Market Foreclosure, Quarterly Journal of Economics 103, 345-356. Salop, S.C. (1979), Monopolistic Competition with Outside Goods, Bell Journal of Economics 10, 141-156. Sass, T.R. (2005), “The Competitive Effects of Exclusive Dealing: Evidence from the U.S. Beer Industry, International Journal of Industrial Organization 23, 203-225.

2 Industrieökonomik

367

Sass, T.R., D.S. Saurman (1993), Mandated Exclusive Territories and Economic Efficiency: An Empirical Analysis of the Malt-Beverage Industry, Journal of Law and Economics 36, 153-77. Sass, T.R., D.S. Saurman (1996), Efficiency Effects of Exclusive Territories: Evidence from the Indiana Beer Market, Economic Inquiry, 34: 597-615. Scharfstein, D. (1980), The Disciplinary Role of Takeovers, Review of Economic Studies 55, 185-199. Scherer, F.M. (1973), The Determinants of Industry Plant Sizes in Six Nations, Review of Economics and Statistics 55, 135-175. Scherer, F.M. (1974), Industrial Pricing: Theory and Evidence, Rand McNally & Co., Chicago. Schmalensee, R. (1989), Inter-Industry Studies of Structure and Performance, in Schmalensee, R., R. Willig (Hrsg.), Handbook of Industrial Organization, Vol. 2, North-Holland, Amsterdam, 951-1009. Schmalensee, R., R. Willig (Hrsg.), Handbook of Industrial Organization, Vol. 1 und 2, North-Holland, Amsterdam. Schulz, N. (2003), Wettbewerbspolitik, Mohr-Siebeck, Tübingen. Schwalbe, U., D. Zimmer (2012), Kartellrecht und Ökonomie, 2. Aufl. Verlag Recht und Wirtschaft, Frankfurt/Main. Scott Morton, F.M. (1997), Entry and Predation: British Shipping Cartels 1879-1929, Journal of Economics and Management Strategy 6, 679-724. Segal, I.R., M.D. /Whinston (2000), Naked Exclusion: Comment, American Economic Review 90, 296-309. Selten, R. (1965), Spieltheoretische Behandlung eines Oligopolmodells mit Nachfrageträgheit, Zeitschrift für die gesamte Staatswissenschaft 121, 301–324, 667-689. Selten, R. (1973), A Simple Model of Imperfect Competition where 4 are Few and 6 are Many, International Journal of Game Theory 2, 141-201. Selten, R. (1975), Reexamination of the Perfectness Concept for Equilibrium Points in Extensive Games, International Journal of Game Theory 4, 25-55. Sengupta, J., J. Leonard, J. Vango (1983), A Limit Pricing Model for the US Computer Industry, Applied Economics 15, 297-308. Shepard, A. (1991), Price Discrimination and Retail Configuration, Journal of Political Economy 99, 30-53. Shaffer, S. (1990), Stable Cartels with a Cournot Fringe, Southern Economic Journal 61, 744-754. Shapiro, C., H. Varian (1999), Information Rules: A Strategic Guide to the Network Economy, Harvard Business Press, Harvard. Shapley, L. (1953), A Value for n-Person Games, in: Kuhn, H.W., A.W. Tucker (Hrsg.), Contributions to the Theory of Games, Vol 2, Princeton University Press, Princeton, 307-317.

368

Ulrich Schwalbe

Shapley, L. (1967), On Balanced Sets and Cores, Naval Research Logistics Quarterly 14, 453-460. Shapley, L. (1974), Values of Non-Atomic Games, Princeton University Press, Princeton (with. R. Aumann) Shleifer, A., R.W. Vishny (1988), Value Maximization and the Acquisition Process, Journal of Economic Perspectives 2, 7-20. Shy, O. (1995), Industrial Organization, MIT Press, Cambridge, Mass. Simon, C.P., L. Blume (1994), Mathematics for Economists, Norton, New York. Slade, M.E. (1998), Beer and the Tie: Did Divestiture of Brewer-Owned Public Houses Lead to Higher Beer Prices?, Economic Journal, 108, 565-602. Smith, A.M. (2011), An Experimental Study of Exclusive Contracts, International Journal of Industrial Organization 29, 4-13. Snyder, Ch.M. (1994), Vertical Foreclosure in the British Beer Industry, in: Buyers, Suppliers, Competitors: The Interaction between a Firm’s Horizontal and Vertical Relationship, PhD Thesis, Department of Economics, MIT. Snyder, Ch.M. (1995a), Empirical Studies of Vertical Foreclosure, Industry Economics Conference Papers and Proceedings, University of Melbourne and Bureau of Industry Economics, 95/23:98-127. Snyder, Ch.M. (1995b), Interfirm Effects of Vertical Integration: Event Studies of the US Oil Industry, mimeo, George Washington University. Spiegler, R. (2011), Bounded Rationality and Industrial Organization, Oxford University Press, Oxford. von Stackelberg, H. (1934), Marktform und Gleichgewicht, Springer, Heidelberg. Stigler, G. (1958), The Economies of Scale, Journal of Law and Economics 1, 54-71. Stiglitz, J.E., A. Weiss (1981), Credit Rationing in Markets with Imperfect Information, American Economic Review 71, 393-410. Stillman, R. (1983), Examining Antitrust Policy towards Horizontal Mergers, Journal of Financial Economics 11, 225-240. Stocking, G.W., M.W. Watkins (1946), Cartels in Action, Twentieth Century Fund, New York. Stokey, N.L. (1981), Rational Expectations and Durable Goods Pricing, Bell journal of Economics 12, 112-128. Stole, L. (2007), Price Discrimination and Imperfect Competition, in: Armstrong, M., R. Porter (Hrsg.), Handbook of Industrial Organization, Vol. 3, North-Holland, Amsterdam, 2223-2299. Sutton, J. (1990), Explaining Everything, Explaining Nothing? Game Theoretic Models in Industrial Organization, European Economic Review, 34, 505-512. Sutton, J. (1991), Sunk Costs and Market Structure, MIT Press, Cambridge, Mass. Sutton, J. (1999), Technology and Market Structure, MIT Press, Cambridge, Mass. Sydsætter, K., P. Hammond (2008), Essential Mathematics for Economic Analysis, 3. Aufl. Prentice Hall, Harlow.

2 Industrieökonomik

369

Sydsætter, K., P. Hammond, Seierstad, A., A. Strøm (2008), Further Mathematics for Economic Analysis, Prentice Hall, Harlow. Tirole, J. (1989), Theory of Industrial Organization, MIT Press, Cambridge, Mass. Vasconcelos, H. (2005), Tacit Collusion, Cost Asymmetries and Mergers, RAND Journal of Economics 36, 39-62. Vega-Redondo, F. (1997), The Evolution of Walrasian Behavior, Econometrica 65, 375-384. Verboven, F. (2002), Quality-Based Price Discrimination and Tax Incidence: Evidence from Gasoline and Diesel Cars, RAND Journal of Economics 33, 275-297. Vives, X. (1999), Oligopoly Pricing: Old Ideas and New Tools, MIT Press, Cambridge, Mass. Waldman, D.E., E.J. Jensen (2012), Industrial Organization: Theory and Practice, Pearson, Harlow. Wang, Z. (2010), Supermarket and Gasoline: An Empirical Study of Bundled DiscountsSSRN Working Paper Series, Oct 2010. Waterman, D., A. Weiss (1996), The Effects of Vertical Integration between Cable Television Systems and Pay Cable Networks, Journal of Econometrics 72, 357-395. Weiman, D.F., R.C. Levin (1994), Preying for Monopoly? The Case of Southern Bell Telephone Company, 1894-1912, Journal of Political Economy 102, 103-126. Weiss, L.W. (1976), Optimasl Plant Size and the Extent of Suboptimal Capacity, in: Masson, R.T., P.D. Qualls (Hrsg.), Essays in Honor of Joe S. Bain, Ballinger, Cambridge. Weiss, L.W. (1989), Concentration and Price, MIT Press, Cambridge, Mass. Werden, G. J. (2004), The Effect of Antitrust Policy on Consumer Welfare: What Crandall and Winston Overlook, AEI-Brookings Joint Center for Regulatory Studies, Related Publication 04–09. Williamson, O. (1968), Economies as an Antitrust Defence: The Welfare Trade-Offs, American Economic Review 58, 18-36. Williamson, O. (1969), Economies as an Antitrust Defence: Reply, American Economic Review 59, 954-959. Winter, R.A. (1993), Vertical Control and Price vs. Nonprice Competition, Quarterly Journal of Economics 108, 61-76. Wooldridge, J.M. (2016), Introductory Econometrics: A Modern Approach, SouthWestern, Mason, OH. Wright, J. (2004), . One-Sided Logic in Two-Sided Markets, Review of Network Economics, 3, 1-21. Yamawaki, H., 1985, Dominant Firm Pricing and Fringe Expansion: The Case of the US Iron and Steel Industry, 1907-30, Review of Economics and Statistics 67, 429-437.

3

Internationaler Handel Dieter Smeets

Gliederung 3.1

3.2

3.3

Internationaler Handel im Überblick.............................................................. 373 3.1.1 Internationale Handelsverflechtungen............................................ 373 3.1.2 Inter- und intra-sektoraler Handel.................................................. 376 Bestimmungsgründe und Wirkungen des internationalen (Frei-) Handels........................................................................ 377 3.2.1 Inter-sektoraler Handel.................................................................... 378 3.2.1.1 Partialanalytische Betrachtung...................................... 378 3.2.1.2 Allgemeines Gleichgewicht für ein Land..................... 383 3.2.1.3 Allgemeines Gleichgewicht für zwei Länder............... 386 3.2.1.4 Bedeutung des Wechselkurses....................................... 388 3.2.1.5 Faktorproduktivität......................................................... 390 3.2.1.6 Faktorausstattung............................................................ 395 3.2.1.7 Nachfragedifferenzen...................................................... 403 3.2.1.8 Unterschiedliche Wettbewerbsverhältnisse................. 404 3.2.2 Intra-sektoraler Handel..................................................................... 405 3.2.2.1 Horizontale Differenzierung.......................................... 405 3.2.2.2 Vertikale Differenzierung............................................... 408 3.2.3 Weitere Erklärungsansätze................................................................ 409 Staatliche Eingriffe in den internationalen Handel....................................... 410 3.3.1 Handelspolitische Instrumente und ihre Wirkungen................... 410 3.3.1.1 Zölle................................................................................... 410 3.3.1.2 Produktionssubventionen.............................................. 414 3.3.1.3 Exportsubventionen........................................................ 415 3.3.1.4 Kontingente und Exportselbstbeschänkungsabkommen......................... 417

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 T. Apolte et al. (Hrsg.), Kompendium der Wirtschaftstheorie und Wirtschaftspolitik I, https://doi.org/10.1007/978-3-658-21777-8_3

371

372

Dieter Smeets

3.3.1.5 Handelspolitische Instrumente im Vergleich.............. 418 3.3.1.6 Effektive Protektion......................................................... 420 3.3.2 Protektionismusargumente............................................................... 421 3.3.2.1 Traditionelle Argumente................................................ 422 3.3.2.2 Erziehungszoll.................................................................. 423 3.3.2.3 Fair trade........................................................................... 427 3.3.2.4 Strategische Handelspolitik............................................ 429 3.3.3 Politische Ökonomie des Protektionismus..................................... 432 3.4 Internationale Handelsordnung......................................................................... 436 3.3.4 Organisatorischer und rechtlicher Rahmen................................... 436 3.3.5 Stand der multilateralen Liberalisierung........................................ 443 3.3.5.1 Warenhandel.................................................................... 443 3.3.5.2 Dienstleistungshandel..................................................... 444 3.3.5.3 Anhaltende Reformdiskussion (Doha-Runde)........... 445 3.3.6 Weltwirtschaftliche versus regionale Integration........................... 447 3.4 Kommentierte Literaturhinweise..................................................................... 450 Literaturverzeichnis........................................................................................................ 451

3  Internationaler Handel

3.1

373

Internationaler Handel im Überblick

Unter außenwirtschaftlichen oder internationalen Wirtschaftsbeziehungen fasst man alle grenzüberschreitenden Güter- und Faktorbewegungen zusammen. In Abhängigkeit von der Mobilität der Produktionsfaktoren und der Höhe der Translokationskosten (Transport-, Informationskosten, usw.) ergeben sich verschiedene Kombinationen, die wiederum den Rahmen verschiedener Teilgebiete internationaler Wirtschaftsbeziehungen widerspiegeln. So gehen zum Beispiel die Außenhandelstheorie und -politik, die im Mittelpunkt dieses Beitrags stehen, von vollkommener internationaler Faktorimmobilität aus, während Güter – zumindest teilweise – als international handelsfähig angenommen werden. Die Außenhandelstheorie beschäftigt sich dabei insbesondere mit den Bestimmungsgründen (Ursachen) und den Wirkungen des internationalen Handels. Bei den Wirkungen geht es wiederum primär um die Wohlstandsentwicklung, um strukturelle Anpassungen und um mögliche Rückwirkungen der Güterbewegungen auf die Faktorpreise. Die Außenhandelspolitik hingegen beschäftigt sich mit den staatlichen und überstaatlichen Maßnahmen und Beziehungen, die einen Einfluss auf die Gestaltung dieser Aktivitäten haben können. Häufig geschieht dies, um auf indirektem Weg Ziele der nationalen Wirtschaftspolitik zu realisieren. Fragt man nach den Besonderheiten grenzüberschreitender Aktivitäten gegenüber nationalen Transaktionen, so wird in der Literatur insbesondere auf folgende Faktoren verwiesen: • Sprach- und Mentalitätsunterschiede, • in der Regel eine geringere internationale als intranationale Mobilität der Produktionsfaktoren, • größere räumliche Entfernungen, • Unterschiede in den nationalen Wirtschaftsverfassungen, Wirtschaftsordnungen und Wirtschaftspolitiken. In der Praxis lassen sich aber häufig nur graduelle und keine grundsätzlichen Unterschiede dieser Faktoren beobachten. Daher erscheint es sinnvoll, nicht von einer „besonderen” Außenwirtschaftstheorie auszugehen, sondern von einer allgemeinen Wirtschaftstheorie, die hier auf spezielle Sonderfälle angewandt wird.

3.1.1

Internationale Handelsverflechtungen

Der internationale (Waren-) Handel hat nach dem 2. Weltkrieg einen ungeahnten Aufschwung erlebt. So sind die Weltexporte allein zwischen 1995 und 2014 von 5.168 Mrd. US-$ auf 19.002 Mrd. US-$ gestiegen (zu diesen und den weiteren Zahlenangaben dieses Abschnitts siehe WTO, 2015). Wie sich dieser Handel in und zwischen regionalen Ländergruppen vollzieht, spiegelt Abbildung 3.1 wider. Dabei fallen die hohen intraregionalen

374

Dieter Smeets

Verflechtungen in Nordamerika, Europa und Asien auf, die in der Regel ein Vielfaches des interregionalen Handels ausmachen. Ein Teil dieser Entwicklung ist zweifelsfrei auf regionale Handelszusammenschlüsse zurückzuführen (siehe Abschnitt 3.4.3). So entsprechen die Länder Nordamerikas in der hier vorgenommenen Abgrenzung zugleich den Mitgliedern der NAFTA, die 2015 rund 50 Prozent des Handels untereinander betrieben. Für die 28 Mitgliedsländer der EU als Teil Europas betrug dieser Anteil sogar 63 Prozent des gesamten Handels, der MERCOSUR Südamerikas kam zur gleichen Zeit auf einen IntraBlock-Handel von 14 Prozent und der ASEAN Zusammenschluss in Asien auf 24 Prozent. Diese Zahlen zeigen ferner, dass neben formalen handelspolitischen Zusammenschlüssen insbesondere auch die räumliche Nähe eine bedeutende Rolle für die internationalen Handelsbeziehungen zu spielen scheint (siehe Abschnitt 3.2.1.1). Deutschland wiederum wickelte 2015 58 Prozent sowohl seiner Exporte als auch seiner Importe mit den übrigen Mitgliedsländern der EU ab. Dies veranschaulicht auch Abbildung 3.2, in der die wichtigsten Handelspartner Deutschlands zusammengefasst sind. Betrachtet man hingegen die Warenstruktur des internationalen Handels, so entfallen von den Weltexporten des Jahres 2014 9,5 Prozent auf landwirtschaftliche Produkte, 20,5 Prozent auf Fuels and Mining und 66,2 Prozent auf Industrieprodukte. Die Warenstruktur des deutschen Außenhandels, die in ähnlicher Form auch in der EU und in anderen (Industrie-) Ländern zu beobachten ist, zeigt Abbildung 3.3. Der internationale Handel hat sich dabei zunehmend von dem traditionellen Muster des vertikalen Tauschs (Rohstoffe gegen Fertigprodukte) entfernt. Stattdessen ist es zunehmend zum wechselseitigen Tausch von Industrieerzeugnissen (Tausch von Produkten derselben Industrie) gekommen. Auf diese Entwicklung vom inter-sektoralen (-industriellen) zum intra-sektoralen (-industriellen) Handel wird im nächsten Abschnitt eingegangen.

Abb. 3.1 Intra- und interregionaler Welthandel 2015 [WTO (2015)]

3  Internationaler Handel

375

Abb. 3.2  Deutschlands Außenhandelspartner (2016) [Quelle: Statistisches Bundesamt (2016a)]

Neben dem Warenhandel erlangen aber auch die handelsfähigen Dienstleistungen zunehmend an Bedeutung. Ihr Anteil am gesamten Güterexport betrug 2014 etwa 20 Prozent. Von diesen Dienstleistungen entfielen wiederum 19,3 Prozent auf Transportdienste,

376

Dieter Smeets

Abb. 3.3  Deutschlands Außenhandelsstruktur (2016) [Quelle: Statistisches Bundesamt (2016b)]

25,1 Prozent auf Tourismus und der Rest auf sonstige handelsfähige Dienstleistungen. Ein erheblicher Teil der Dienstleistungen lässt sich aber nach wie vor als international nicht handelsfähig klassifizieren. Jensen und Kletzer (2005) gehen in diesem Zusammenhang davon aus, dass in den USA etwa 61 Prozent der Beschäftigten in Wirtschaftsbereichen arbeiten, die als nicht handelsfähig eingestuft werden können (siehe zum Entstehen nicht handelsfähiger Güter Abschnitt 3.2.1.1.).

3.1.2

Inter- und intra-sektoraler Handel

Am Beispiel des deutschen Außenhandels (s. Abbildung 3.3) kann man erkennen, dass in vielen Warengruppen sowohl Exporte als auch Importe vorkommen. Eine solche Struktur des Außenhandels bezeichnet man als intra-sektoralen Handel. Dominiert hingegen der Export oder der Import in einer Gütergruppe, so spricht man von inter-sektoralem Handel. Zur empirischen Erfassung der Handelsstruktur verwendet man den folgenden auf Grubel und Lloyd (1975) zurückgehenden Index: (1) Exijk = Exportwert des Landes i nach Land j in der Produktgruppe k Imijk = Importwert des Landes i aus Land j in der Produktgruppe k

3  Internationaler Handel

377

Entsprechen sich Importe und Exporte in einer Produktgruppe (Exijk = Imijk), nimmt der Bruch in (1) den Wert Null und damit der Index IIT den Wert 1 an. Dies bedeutet, dass der intra-sektorale Handel einen Anteil von 100% ausmacht, während kein inter-sektoraler Handel in dieser Produktgruppe vorliegt. Treten in einer Produktgruppe hingegen nur Importe oder nur Exporte auf, so nimmt der Bruch in (1) den Wert 1 und damit der Index den Wert 0 an. In diesem Fall liegt kompletter (100%iger) inter-sektoraler Handel vor. Die Grenze zwischen inter- und intra-sektoralem Handel ist fließend, so dass die jeweilige Höhe als Anteil des intra-sektoralen Handels am Gesamthandel einer Produktgruppe ausgedrückt wird. Das Ausmaß dieser beiden Formen des internationalen Handels hängt dabei von der Abgrenzung der Produktgruppen (Sektoren) ab. Je enger die Produktgruppen gefasst werden, desto niedriger fällt (ceteris paribus) der Anteil des intra-sektoralen Handels aus. Darüber hinaus kann auch die Auswahl der Handelspartner den Anteil beeinflussen. Am Beispiel der Bundesrepublik Deutschland lässt sich die Entwicklung des intrasektoralen Handels wie folgt beschreiben (Smeets, 1999): Ausgehend von einem Anteil des intra-sektoralen Handels von etwa 30 Prozent bei Berücksichtigung aller SITC Warengruppen und gegenüber allen Ländern zu Beginn der 1960er Jahre ist er bis Anfang der 1990er Jahre auf einen Wert von etwa 50 Prozent angestiegen. Die zunehmende Bedeutung des intra-sektoralen Handels geht dabei insbesondere auf die hohen Zuwächse bis Mitte der 1970er Jahre zurück. Gleichzeitig weist der intra-sektorale Handel gegenüber der Kern-EU (den sechs EWG-Gründungsmitgliedern) ein deutlich höheres Niveau auf als gegenüber den späteren „EU-Newcomern” und dem „Rest der Welt”. Ferner ist das Niveau des intrasektoralen Handels im Bereich der Industrieprodukte höher als etwa bei den Rohstoffen und Agrarprodukten. Ähnliche Entwicklungen lassen sich auch in anderen (europäischen) Ländern beobachten (Brülhart und Hine, 1999). All diese Zahlen verdeutlichen, dass der intra-sektorale Handel (in Europa) insbesondere im Bereich der Industrieprodukte einen hohen Stellenwert besitzt und daher bei der Erklärung des internationalen Handels entsprechende Berücksichtigung finden muss.

3.2

Bestimmungsgründe und Wirkungen des internationalen (Frei-) Handels

Die Vielfalt möglicher Bestimmungsgründe der Warenstruktur von Exporten und Importen schließt eine monokausale Erklärung von Außenhandelsströmen aus. Um die Auswirkung spezifischer Einflussfaktoren auf den Handel zu analysieren, müssen daher mehrere Typen von Erklärungsmodellen entwickelt werden, die jeweils nur einen Teilbereich internationaler Handelsbeziehungen erfassen, ohne beanspruchen zu können, die Gesamtheit der Weltarbeitsteilung zu erklären.

378

Dieter Smeets

3.2.1

Inter-sektoraler Handel

3.2.1.1 Partialanalytische Betrachtung Den Ausgangspunkt der folgenden Analyse bildet die in Abbildung 3.4 zusammengefasste partialanalytische Betrachtungsweise des internationalen Handels, die von vollkommener Konkurrenz und homogenen (End-)Produkten ausgeht. Dabei stehen sich am Weltmarkt „das” Inland und „das” Ausland gegenüber. Ohne Außenhandel – also in der AutarkieSituation – werden beide Märkte, an denen sich jeweils die inländische Nachfrage (DD) und das inländische Angebot (SS) gegenüberstehen, durch die Autarkiepreise (P1A; P2A) geräumt. Zur Vereinfachung wird zunächst ein Wechselkurs (e) in der Mengennotierung mit dem Wert eins angenommen, sodass sich die Preise in inländischer (P1) und ausländischer Währung (P2) unmittelbar miteinander vergleichen lassen. Ausgehend von diesen Autarkiepreisen werden Überschuss- (Export-) Angebots- (EA) und Überschuss(Import-) Nachfragekurven (IN) für beide Länder abgeleitet, die sich als Differenz zwischen dem inländischen Angebot und der inländischen Nachfrage in Abhängigkeit vom Preis ergeben. Kommt es zum Außenhandel zwischen beiden Ländern, so führt der Austausch zu einem einheitlichen Weltmarktpreis bei Freihandel PFH, der sich aufgrund der Annahme homogener Produkte in beiden Ländern einstellt. Der im Vergleich zum Autarkiepreis (P1A) im Inland gesunkene Preis (PFH) führt dazu, dass die Inlandsproduktion sinkt, während die Nachfrage steigt. Die beim Freihandelspreis auftretende Überschussnachfrage wird in Form von Importen aus dem Ausland gedeckt. Unter den gegebenen Preisrelationen (P1A > P2A) wird das Inland in der betrachteten Produktgruppe also zum Importland. Im Ausland führt der im Vergleich zum Autarkiepreis (P2A) gestiegene Preis (PFH) zu einem Angebotsüberschuss, der in Form von Exporten in das Inland fließt. In der hier betrachteten 2-Länder-Welt müssen die Importe des Inlands stets den Exporten des Auslands entsprechen und umgekehrt. Abbildung 3.4 zeigt ferner, dass unter den hier zugrundeliegenden Bedingungen in einer Produktgruppe (bei einem Gut) immer Weltmarkt

Inland (1) SS1

P1

P2 EA2

b

P1A

G

c

a

PFH

Ausland (2)

P1 = P2/e

SS2 e

d

PFH

f P2A

DD1

0

x2

x1 x3

im1

DD2

IN1 x

0

x4

Welthandel ex2 = im1

Abb. 3.4  Partialanalytisches Außenhandelsgleichgewicht

x

0

x6

x5

ex2

x7

x

3  Internationaler Handel

379

nur Exporte oder Importe – also inter-sektoraler Handel – zustande kommen können. Dasjenige Land, das den niedrigeren Autarkiepreis bei einem Produkt aufweist, wird zum Exportland. In den Bereichen hingegen, wo der Autarkiepreis höher liegt als im Ausland, wird ein Land zum Importland. Spezielle Formen dieser Partialanalyse liegen zum Beispiel dann vor, wenn eine Produktgruppe im Inland nicht verfügbar ist. In diesem Fall existiert im Inland keine Angebotskurve (SS1), so dass die inländische Nachfrage (DD1) und die Importnachfrage (IN1) zusammenfallen. Eine weitere Sondersituation ergibt sich unter der Annahme, dass es sich bei dem betrachteten Inland um ein kleines Land handelt. Ein solches Land vermag auf der einen Seite keinen Einfluss auf das große Ausland auszuüben und muss daher den Weltmarktpreis akzeptieren (price-taker). Auf der anderen Seite kann es zum Weltmarktpreis jede gewünschte Menge aus dem Ausland importieren, so dass die Exportangebotskurve des Auslands zu einer Horizontalen in Höhe des Weltmarktpreises (PFH) wird. Berücksichtigt man in der bisherigen Analyse Kosten der Raumüberwindung wie etwa Transportkosten (Translokationskosten), so lässt sich dies in Abbildung 3.5 als ein „Sprung” in der Exportangebotskurve des Auslands interpretieren. Die Translokationskosten entsprechen dabei der Differenz zwischen den Preisen P2A und PFH. Während es ohne solche Belastungen des Handels zu einem Gleichgewicht im Punkt G – mit einem Import des Inlands in Höhe der Strecke 0x1 = im1 – kommen würde, führen Translokationskosten in der hier angenommenen Höhe zu einem Rückgang des Handels (Imports) auf die

P

EA1

EA21 P1

Translokationskosten

EA2

A

PFH1

G

PFH P2A

IN1

IN2 x

0

x2 im1

Abb. 3.5  Translokationskosten

x1

x

380

Dieter Smeets

Strecke 0x2. Bei Translokationskosten in Höhe der Preisdifferenz P1A – P2A oder größer würde sich die Exportangebotskurve EA21 so weit nach oben verschieben, dass kein internationaler Handel mehr zustande kommt und das betreffende Gut zu einem international nicht handelsfähigen Gut wird. Hohe Translokationskosten wirken sich z.B. im Bereich der traditionellen Dienstleistungen (Friseur, Theater, usw.) besonders gravierend aus. Da die Höhe der Translokationskosten im Zeitablauf – etwa aufgrund technischen Fortschritts – keineswegs konstant ist, wird deutlich, dass sich die Grenze zwischen den international handelsfähigen und den nicht handelsfähigen Gütern im Zeitablauf durchaus verschieben kann. So ist gerade das gegenwärtig viel diskutierte Phänomen der Globalisierung auch darauf zurückzuführen, dass der Anteil handelsfähiger Güter aufgrund gesunkener Translokationskosten und damit der Konkurrenzdruck aus dem internationalen Bereich zugenommen hat. Die praktische Bedeutung von Translokationskosten wurde im Rahmen empirischer Studien mit Hilfe des sogenannten Gravitationsmodells eindrucksvoll belegt. In einer einfachen Version zeigt Gleichung (2) das Grundmodell: Tij = A ∙ Yi ∙ Yj/Dij (2) Danach läst sich der Handel zwischen zwei Ländern i und j (Tij) auf die Größe der beiden Länder, gemessen am BIP (Yi und Yj), und die Distanz zwischen ihnen (Dij) zurückführen. A stellt eine Konstante dar. Man geht ferner davon aus, dass das Produkt der BIPs positiv, die Distanz hingegen negativ auf das Handelsvolumen wirkt. Gravitationsschätzungen bestätigen diese Vermutung und kommen regelmäßig zu dem Ergebnis, dass ein einprozentiger Anstieg der Distanz zwischen zwei Ländern zu einem Rückgang ihres Handels zwischen 0,7 und 1 Prozent führt. Dieser Rückgang des Handels ist aber nur zum Teil auf Translokaktionskosten im engeren Sinne zurückzuführen. Als weitere wichtige Faktoren haben sich zum Beispiel handelsbeschränkende Maßnahmen, persönliche Geschäftskontakte und das Vorliegen nationaler Grenzen herausgestellt. So haben neuere Studien zum amerikanisch-kanadischen Handel gezeigt, dass bei gleicher Entfernung der Handel zwischen kanadischen Provinzen ein Vielfaches des Handels mit gleich weit entfernten amerikanischen Bundesstaaten beträgt (Wall, 2000). Translokationskosten können somit nicht nur die Existenz nicht handelsfähiger Güter erklären, sondern auch eine Antwort auf die Frage liefern, wer in einer Welt mit mehr als zwei Transaktionspartnern mit wem (in welchem Umfang) Handel treibt. Geht man nun zunächst davon aus, dass keine relevanten Translokationskosten existieren und identische Angebots-, Nachfrage-, Markt- und Größenverhältnisse in beiden Ländern vorliegen, dann stimmen die Autarkiepreise in beiden Ländern überein und die Überschusskurven schneiden sich auf der Preisachse des Weltmarktdiagramms, so dass kein internationaler Handel zustande kommt. Anders ausgedrückt bedeutet dies: Der Außenhandel lebt von den Unterschieden zwischen den Ländern. Unterschiede können dabei insbesondere auftreten als:

3  Internationaler Handel

381

• Kostenunterschiede: Dasjenige Land, das ein Produkt mit niedrigeren Kosten produzieren kann, wird zum Exportland für das betreffende Gut. Als Ursache für die Kostensituation in den beteiligten Ländern hat Ricardo die Produktivität der Faktoren (insbesondere die Arbeitsproduktivität) betont, während HECKSCHER, OHLIN und SAMUELSON die mengenmäßige Ausstattung mit Produktionsfaktoren in den Mittelpunkt ihrer Überlegungen stellen. Bei RICARDO wird ein Land in einem Produktionsbereich dann zum Exportland, wenn es – im Vergleich zum Ausland – die höhere Arbeitsproduktivität aufweist. Aufgrund der höheren Produktivität können mehr Produkte erstellt werden, die den (Autarkie-) Preis sinken lassen. Heckscher, Ohlin und Samuelson gehen hingegen davon aus, dass ein Land in denjenigen Produktionsbereichen Preisvorteile haben wird und damit zum Exportland wird, in die der reichlich vorhandene und damit billige Produktionsfaktor in überwiegendem Maße einfließt. • Nachfrageunterschiede: Fragen die Wirtschaftssubjekte des Inlands ein Gut stärker nach als das Ausland, so liegt der Autarkiepreis im Inland höher als im Ausland und das Inland wird zum Importland, weil es einen Teil der höheren Nachfrage aus dem Ausland befriedigt. • Unterschiedliche Wettbewerbsverhältnisse: Besteht im Inland – unter sonst gleichen Bedingungen – in der Autarkiesituation eine Monopolstellung während im Ausland wettbewerbliche Verhältnisse (vollkommene Konkurrenz) herrschen, so wird der (COURNOT-) Preis im Inland höher ausfallen als der entsprechende Auslandspreis bei Konkurrenz. Kommt es zum internationalen Handel, kann die Monopolstellung im Inland aufgebrochen werden und ein Konkurrenzgleichgewicht bei internationalem Handel zustande kommen. • Nichtverfügbarkeit: Nichtverfügbarkeit in einem Land lässt sich als unendlich großer Kostennachteil interpretieren und somit als Sonderfall von Punkt 1. Nichtverfügbarkeit kann kurzfristig, z.B. aufgrund von Missernten, zustande kommen. Längerfristige Nichtverfügbarkeit hat häufig fehlende natürliche Ressourcen zur Ursache. Mittelfristige Nichtverfügbarkeit lässt sich durch den dynamischen Wettbewerbsprozess (technology-gap) begründen. Solange nämlich ein Unternehmen eine temporäre Monopolstellung aufgrund von technischen Innovationen besitzt, kann in anderen Ländern Nichtverfügbarkeit auftreten. Erst durch nachziehende Imitatoren im In- oder Ausland kann diese Situation überwunden werden. Durch den Übergang von der Autarkiesituation zum internationalen Freihandel treten bei inter-sektoralem Handel verschiedene Wirkungen in den beteiligten Volkswirtschaften auf, die Abbildung 3.6 veranschaulicht. Im Mittelpunkt dieser Überlegungen stehen gewöhnlich die Wohlfahrtswirkungen. Begrenzt man die Analyse zunächst auf den Importbereich des Inlands, so ergibt sich dort durch den internationalen Güteraustausch ein Wohlfahrtsgewinn, der gewöhnlich an der Entwicklung der Produzenten- und der Konsumentenrente gemessen wird. Durch die Preissenkung und den damit verbundenen Produktionsrückgang im Inland sinkt die Produzentenrente um die Fläche (1). Dem steht jedoch ein größerer Anstieg (1)+(2) der Konsumentenrente gegenüber, so dass sich

382

Dieter Smeets

Abb. 3.6  Wohlfahrtseffekte des internationalen Handels (Partialanalyse)

ein Nettowohlfahrtsgewinn im Inland ergibt, den die Fläche (2) widerspiegelt. Die Überlegungen zur Wohlfahrtsentwicklung machen zugleich deutlich, dass es im Bereich der Importgüter die inländischen Konsumenten sind, die durch den Übergang zum Freihandel gewinnen, während dies aufgrund der erhöhten Auslandskonkurrenz zu Lasten der inländischen Produzenten geschieht. Im Ausland steigt der Gleichgewichtspreis und die Produktion wird ausgeweitet, so dass dort die Produzenten in erster Linie Nutznießer des Freihandels werden. Die Produzentenrente erhöht sich um die Fläche (3) + (4), während die Konsumentenrente um die Fläche (3) sinkt. Der verbleibende Nettowohlfahrtsgewinn des Auslands entspricht der

3  Internationaler Handel

383

Fläche (4). Der Nettowohlfahrtsgewinn des Inlands und des Auslands bilden zusammen den Gewinn der Weltwirtschaft, der nach Umfang [(2) + (4) im Weltmarktdiagramm] und Verteilung dem Weltmarktdiagramm in Abbildung 3.6 entnommen werden kann. Die bisherige Analyse verdeutlicht die (Wohlfahrts-) Wirkungen einer unilateralen (einseitigen) Liberalisierung des Inlands. Bereits eine solche unilaterale Liberalisierung führt folglich zu einer Wohlfahrtssteigerung im Inland wie im Ausland. Noch größer sind die Wohlfahrtsgewinne für alle Beteiligten allerdings bei einer multilateralen (hier: zweiseitigen) Liberalisierung. Dann ergeben sich nämlich die zuvor erläuterten Wirkungen auch im Exportbereich des Inlands, der nun dem Importbereich des Auslands entspricht. Die Wohlfahrtsgewinne für beide Länder und die Weltwirtschaft ergeben sich dann als die jeweilige Summe der (positiven) Veränderungen im Import- und im Exportsektor. Neben den positiven Wohlfahrtseffekten erzwingt der internationale Handel aber auch strukturelle Anpassungsprozesse. Im Bereich der Importgüter geht die Inlandsproduktion aufgrund der erhöhten Auslandskonkurrenz von x1 auf x2 zurück. Zugleich ermöglicht der internationale Handel jedoch, dass die Tauschmöglichkeiten erhöht werden, weil ein Konsum außerhalb der inländischen Produktionsgrenzen möglich wird (x3). Verbesserte Absatzchancen eröffnen sich dem Inland hingegen im Bereich der Exportgüter durch die Öffnung der Auslandsmärkte. Hierin kommt zunächst einmal zum Ausdruck, dass der internationale Handel zu einer Spezialisierung in diejenigen Bereiche führt, in denen ein Land über Preisvorteile verfügt. Der Kern des damit verbundenen Anpassungsprozesses besteht nun darin, die im Bereich der Importgüter nicht mehr benötigten Produktionsfaktoren (x1 → x2) möglichst schnell und friktionslos in die Exportbereiche zu integrieren, in denen eine erhöhte Nachfrage nach Produktionsfaktoren auftritt. Die beiden Hauptprobleme in diesem Zusammenhang bilden die räumliche und sachliche Mobilität der Produktionsfaktoren. Je weniger die vorhandenen und gewünschten Anforderungsprofile hinsichtlich Ausbildung, Einsatzort, usw. zusammenfallen, desto schwieriger wird die Reallokation der Produktionsfaktoren. Bei intra-sektoralem Handel erwartet man oftmals geringere Anpassungsprobleme, da Import- und Exportbereich ähnliche Produktgruppen umfassen. Demgegenüber erwartet man bei inter-sektoralem Handel aufgrund sehr unterschiedlicher Import- und Exportbereiche (z. B. Schuhe und Computer) wesentlich größere Probleme bei der Reallokation der Produktionsfaktoren.

3.2.1.2 Allgemeines Gleichgewicht für ein Land Die bisherige partialanalytische Vorgehensweise hat gezeigt, wie der internationale Handel eines (homogenen) Gutes auf die Produktion sowie den Konsum der beiden betrachteten Länder wirkt und welche Wohlfahrtswirkungen damit verbunden sind. Damit bleiben aber zunächst einige wichtige Fragen ausgeklammert: So wird nicht erläutert, welche Kosten und Nutzen mit Güterexporten verknüpft sind, die zur „Bezahlung“ der zuvor betrachteten Importe notwendig sind. Ferner sind keine Aussagen darüber möglich, warum die Autarkiepreise auseinanderfallen und damit in den früheren Beispielen der Freihandelspreis unter dem Autarkiepreis des Inlands liegt, das daraufhin zum Importland bei dem betrachteten Gut wird. Antworten auf diese Frage liefern dieser und der nächste Abschnitt.

384

Dieter Smeets

Den Ausgangspunkt für die weiteren Überlegungen bildet die im oberen Teil von Abbildung 3.7 wiedergegebene Totalanalyse des Inlands, die zugleich aber auch die Verknüpfung zur bisherigen Partialanalyse (siehe unterer Teil von Abbildung 3.7) veranschaulicht. Die Produktionsmöglichkeitenkurve MM’ zeigt die Angebotsbedingungen für die beiden Güter 1 und 2 im Inland vor dem Hintergrund einer gegebenen Ausstattung mit Produktionsfaktoren. Die Gerade B0B0’ spiegelt das relative Preisverhältnis der beiden Güter wider (relativer Preis des Gutes 2 = P2/P1) und die gesamtwirtschaftlichen Indifferenzkurven (I) die Präferenzen der Wirtschaftssubjekte. Die Preise der beiden Güter entsprechen dabei den Opportunitätskosten. Der Preis des Gutes 2 ergibt sich folglich aus der Menge des Gutes 1, die mit den zur Herstellung des Gutes 2 eingesetzten Produktionsfaktoren hätte produziert werden können. Dies entspricht der Strecke 0B0’ in Abbildung 3.7. Analog ergibt sich der Preis des Gutes 1 als die Strecke 0B0. Die Steigung der Budgetgeraden (Tangens des Winkels α) spiegelt daher das relative Preisverhältnis P2/P1 wider. In der Autarkiesituation kommt in Abbildung 3.7 das Gleichgewicht im Punkt G zustande, in dem die Produktions- und Konsumentenentscheidungen für beide Güter übereinstimmen. Im unteren Teil der Abbildung entspricht dies dem Punkt G’, bei dem der heimische Markt für Gut 2 geräumt ist. Nimmt man an, dass der relative Preis des Gutes 2 im großen Ausland niedriger ist als im kleinen Inland (tg β < tg α), so dreht sich die Budgetgerade B0B0’ nach Aufnahme von

Abb. 3.7  Internationaler Güteraustausch

3  Internationaler Handel

385

Außenhandel etwa auf B1B1’. Dies führt wiederum dazu, dass sich die Produktion zu Gunsten des relativ teureren Gutes und zu Lasten des relativ billigeren Gutes verschiebt (Punkt P, der hier und in den kommenden Abbildungen den „Produktionspunkt“ und nicht einen Preis bezeichnet), während die Nachfrager genau umgekehrt reagieren (Punkt K, der hier und in den kommenden Abbildungen für „Konsumpunkt“ steht). Daraus ergibt sich bei Gut 2 eine Überschussnachfrage (ÜN), bei Gut 1 ergibt sich hingegen ein Überschussangebot (ÜA). Bei freiem internationalen Handel kann die Überschussnachfrage bei Gut 2 durch (mengenmäßige) Importe aus dem Ausland (ÜN = im) gedeckt werden, während im Gegenzug das Überschussangebot bei Gut 1 an das Ausland exportiert wird (ÜA = ex). Gut 2 wird gegen Gut 1 gehandelt. Die Importsituation bei Gut 2 zeigt erneut auch die partialanalytische Betrachtung im unteren Teil der Abbildung 3.7 ohne zugleich aber die weiterführenden Überlegungen der Totalanalyse einzubeziehen. Der Exportwert (Ex) aufgrund der exportierten Menge (PE) von Gut 1 entspricht dabei genau dem Importwert (Im) aufgrund der importierten Menge (EK) von Gut 2: Relativer Preis Gut 2 =

Preis Gut 2 Preis Gut 1

=

0B1‘ 0B1

=

PE EK

=

ex im

(3)

woraus folgt, dass im Preis Gut 2 = ex ∙ Preis Gut 1 → Ex = Im

(4)

Darüber hinaus zeigt Abbildung 3.7, dass bei internationalem Freihandel auf der einen Seite der Konsum nicht länger durch die heimische Produktion restringiert wird und auf der anderen Seite ein Wohlfahrtszuwachs entsteht, der darin zum Ausdruck kommt, dass sich im neuen Gleichgewichtspunkt K im Vergleich zur Autarkiesituation (G) eine weiter vom Ursprung entfernte Indifferenzkurve (I1) erreicht wird. Diese Wohlfahrtseffekte lassen sich mit Hilfe von Abbildung 3.8 noch genauer analysieren. In der partialanalytischen Betrachtung des letzten Abschnitts standen der Produktions- und der Konsumeffekt im Vordergrund. In Abbildung 3.8 entspricht der Produktionseffekt der verringerten Produktionsmenge (x20x2P) bei Gut 2 und der gestiegenen Produktionsmenge (x10x1P) bei Gut 1. Im Gegensatz dazu ergibt sich der Konsumeffekt als Anstieg des Konsums bei Gut 2 (x20x2K) und als Rückgang des Konsums bei Gut 1 (x10x1K), die jeweils zusammen die Export- bzw. Importmenge bei den beiden Gütern ergeben. Die Totalanalyse erlaubt es nun, den Wohlfahrtsanstieg auf Tausch- und Spezialisierungsgewinne zurückzuführen. Wie bereits in Abbildung 3.7 gezeigt, verschiebt der Übergang von der Autarkie- zur Freihandelssituation das Gleichgewicht in der betrachteten Volkswirtschaft von G nach K. Diese Gesamtbewegung lässt sich jedoch auf zwei Effekte zurückführen: Geht man zunächst davon aus, dass – trotz des geänderten relativen Preisverhältnisses – die Produktion weiterhin im Punkt G erfolgt, dann entspricht dies einer Verlagerung der Geraden B1 nach links auf B2 durch den alten Gleichgewichtspunkt G. Die Nachfrager realisieren zugleich ein neues Gleichgewicht im Punkt H. Da dieser Punkt H auf einer höheren Indifferenzkurve (I2) liegt, spiegelt der damit verbundene Wohlfahrtsgewinn den Gewinn durch den internationalen Austausch von Gütern (Tauschgewinn) wider.

386

Dieter Smeets

x1 M‘ x1P ÜA = ex

P

x10 x1K

E

I0

K

G

I1 I2

H

B1 B2

M x2P

x20

x2K

x2

ÜN = im

Abb. 3.8  Wohlfahrtseffekte (Totalanalyse)

Die Bewegung zum endgültigen Gleichgewicht (H → K) zeigt hingegen den Wohlfahrtsgewinn durch eine nochmals weiter vom Ursprung entfernte Indifferenzkurve (I1), der durch die Verlagerung der Produktion von G nach P (Spezialisierungsgewinn) ermöglicht wird.

3.2.1.3 Allgemeines Gleichgewicht für zwei Länder Die nun folgende Analyse soll erläutern, wie die – bisher stets als gegeben angenommenen – Weltmarkt- oder Freihandelspreise zustande kommen. Mit Hilfe von Abbildung 3.9 soll gezeigt werden, dass sich hierin unterschiedliche Kosten- und Preisrelationen widerspiegeln. Dort wird davon ausgegangen, dass in den betrachteten Ländern unterschiedliche Produktions- aber gleiche Nachfrageverhältnisse herrschen. Die Produktionsmöglichkeitenkurve des Inlands entspricht M’M, die des Auslands K’K. Da die Strecke 0M’ größer ist als 0K’ und die Strecke 0K größer ist als 0M, lässt sich schließen, dass das Inland besser geeignet ist, Gut 1 zu produzieren, während die Produktionsvorteile des Auslands bei Gut 2 liegen. Beide Länder sollen identische Nachfragepräferenzen aufweisen, was in der einheitlichen Indifferenzkurve I0 zum Ausdruck kommt. Die internen Autarkie-Gleichgewichte ergeben sich in Analogie zum letzten Abschnitt in den Punkten P für das Inland und P* für das Ausland. Die entsprechenden Budgetgeraden, deren Steigung die Preisverhältnisse angeben, wurden der Übersichtlichkeit halber nicht eingezeichnet. Kommt es zwischen diesen beiden Ländern zum Freihandel, so müssen sich einheitliche Preise einstellen, die zudem alle Märkte räumen. Das heißt, der Export des einen Landes muss bei beiden Gütern stets dem Import des anderen Landes entsprechen. Die Handelsdreiecke der beiden Länder müssen also identisch (kongruent) sein. Diese

3  Internationaler Handel

387

Abb. 3.9  Unterschiede in den Produktionsbedingungen

Bedingung kann aber nur erfüllt werden, wenn der relative Preis der Güter am Weltmarkt zwischen den relativen Autarkiepreisen liegt. Das einheitliche Preisverhältnis entspricht in Abbildung 3.9 der Steigung der Geraden B1. Sie verläuft flacher als die entsprechende (nicht eingezeichnete) Budgetgerade durch den Punkt P und steiler als die entsprechende (nicht eingezeichnete) Budgetgerade durch den Punkt P*. Das Weltpreisverhältnis ist also niedriger als in der Autarkiesituation des Auslands. Da der Übergang zum Freihandel den relativen Preis des Gutes 2 im Inland sinken lässt, verlagert sich die Produktion von P nach G, während der Konsum sich von P nach D verschiebt. Daraus ergibt sich wiederum das schon bekannte Handelsdreieck GED. Das Inland fragt ED Einheiten von Gut 2 in Form von Importen aus dem Ausland nach im Austausch mit EG Einheiten des Gutes 1, die dem Ausland in Form von Exporten bereitgestellt werden. Die vom Inland exportierte Menge des Gutes 1 muss wiederum im Gleichgewicht dem Import des Auslands bei diesem Gut entsprechen (EG = DE*). Auf der anderen Seite müssen die importierte Menge und die exportierte Menge beider Länder bei Gut 2 ebenfalls übereinstimmen (ED = E*G*). Die Aufnahme des internationalen Handels führt in beiden Ländern zu einem gleich hohen Wohlfahrtsgewinn, weil die einheitliche Indifferenzkurve (I1) im Gleichgewichtspunkt D weiter vom Ursprung entfernt liegt als die ursprüngliche (I0). Die Wohlfahrtsgewinne können aber auch für beide Länder unterschiedlich hoch sein. Das käme im Gegensatz zu Abbildung 3.9 durch zwei parallel verlaufende Budgetgeraden zum Ausdruck, die wiederum durch die Produktionspunkte verlaufen, aber zur Tangente an zwei unterschiedlichen Indifferenzkurven würden.

388

Dieter Smeets

Abschließend veranschaulicht Abbildung 3.9 nochmals das Prinzip der relativen (komparativen) Vorteile. Wenn die Produktionsmöglichkeitenkurven und die Indifferenzkurven in beiden Ländern übereinstimmen würden, fielen die Punkte P und P* sowie die relativen Preise beider Länder bereits in der Autarkiesituation zusammen. Die Marktöffnung durch Freihandel hätte keine Wirkungen, weil sich die relativen Preise nicht verändern würden. Es gäbe auch keine Vorteile in Form von Tausch- und Spezialisierungsgewinnen. Im umgekehrten Fall vereinheitlicht der internationale Handel – wie zuvor gezeigt – die relativen Preise und jedes Land spezialisiert sich auf die Produktion desjenigen Gutes, bei dem es einen relativen Kostenvorteil besitzt. Terms of trade Der Kehrwert des einheitlichen Preisverhältnisses, das die Steigung der Geraden B1 in Abbildung 3.9 wiedergibt, zeigt zugleich auch die „terms of trade“ (tot) des Inlands. Sie entsprechen dem relativen Preis(index) der Exportgüter im Verhältnis zum Preis(index) der Importgüter (DE/GE in Abbildung 3.9). Man spricht in diesem Zusammenhang auch von den tot auf Güterbasis (commodity tot). Sie bestimmen jenes Importvolumen, welches im Austausch gegen eine Einheit der Exportproduktion erworben werden kann. Sinken die tot, so spricht man von einer Verschlechterung des internationalen Tauschverhältnisses, da nun pro Exporteinheit weniger Importeinheiten dem im Inland verfügbaren Güterangebot hinzugefügt werden können oder pro Importeinheiten mehr Exporteinheiten zu Lasten des verfügbaren Inlandsangebots abgezweigt werden müssen. Die reale Importkapazität einer Exporteinheit wird also zurückgehen und die volkswirtschaftlichen Opportunitätskosten einer Importeinheit werden steigen. Genauso wird eine tot-Verbesserung das verfügbare Gesamtangebot ausweiten, ohne dass die Faktorausstattung der Volkswirtschaft gestiegen ist. Verliefe zum Beispiel B1 in Abbildung 3.9 flacher, so hätten sich die tot zu Gunsten des Inlands und zu Lasten des Auslands verändert. Die tot bestimmen folglich die Verteilung der Wohlfahrtsgewinne zwischen den beteiligten Ländern. Eine flacher verlaufende Budgetgerade B1 führt etwa dazu, dass das Inland eine weiter vom Ursprung entfernte Indifferenzkurve erreicht und somit einen höheren Wohlfahrtsgewinn auf sich ziehen kann. Im Ausland ergibt sich hingegen die umgekehrte Situation.

3.2.1.4 Bedeutung des Wechselkurses Bei gegebenen Kosten-, Nachfrage-, Wettbewerbs- und Größenverhältnissen in beiden Ländern stellt der Wechselkurs einen weiteren bedeutenden Einflussfaktor für Ausmaß und Richtung des internationalen Handels dar. Der Wechselkurs setzt komparative Preisvorteile in absolute Preisvorteile um. Diese Aussage lässt sich mit Hilfe eines einfachen Zahlenbeispiels belegen. Die Preise pro Mengeneinheit im In- (P1) und Ausland (P2) seien: P11 = 50 € , P12 = 150 €, P21 = 90 $, P22 = 180 $.

(5)

3

Internationaler Handel

389

Daraus ergeben sich die komparativen Preisverhältnisse 50 90 < 150 180



P11 P12 < P21 P22

(6)

Geht man davon aus, dass sich die Länder gemäß der komparativen Preisverhältnisse spezialisieren [zu einer formalen Ableitung siehe Gleichung (12)], dann ist zu erwarten, dass Land 1 Gut 1 und Land 2 Gut 2 exportiert, Abbildung 3.10 zeigt jedoch, dass Land 1 bei einem Wechselkurs von 1 € = 1  $ bei beiden Gütern einen absoluten Preisvorteil hat und somit beide Güter exportieren würde. Dies scheint zunächst im Widerspruch zur Aussage über die komparativen Preisvorteile zu stehen. Geht man jedoch von flexiblen Wechselkursen aus, die ausschließlich durch güterwirtschaftliche Transaktionen bestimmt werden, dann führt diese Situation zu einer Überschussnachfrage nach Euro, die den Wechselkurs steigen lässt. Erreicht er zum Beispiel einen Wert von 1 € = 1,33 $, dann hat Land 1 den absoluten Preisvorteil bei Gut 1, Land 2 den absoluten Preisvorteil bei Gut 2 und es kommt zum gegenseitigen Handel gemäß der komparativen Preisvorteile sowie zu einer ausgeglichenen Handels- und Dienstleistungsbilanz. Steigt der Wechselkurs weiter auf 1 € = 2  $, dann erzielt Land 2 einen absoluten Preisvorteil bei beiden Gütern. Aus diesen Zusammenhängen lässt sich ableiten, dass komparative Preisvorteile in der Autarkiesituation dann eine hinreichende Bedingung für das Zustandekommen gegenseitigen Außenhandels bilden, wenn sich der Wechselkurs in der Mengennotierung zwischen den relativen Autarkiepreisen einpendelt. P

2

1

P

1

1

=

P

90$ 1, 80 ($ / =

)

>

e

50

>

2

2

P

1

180$ 1, 20 ($ / = =

)

(7)

150

2

Komparative Preisvorteile werden unter den oben genannten Rahmenbedingungen folglich dann automatisch in absolute Preisvorteile übertragen, wenn der Wechselkurs zwischen 1 € = 1,20  $ und 1 € = 1,80  $ zustande kommt. Liegt der Wechselkurs unter 1,20 $/€, so besitzt das Inland bei beiden Gütern einen absoluten Preisvorteil, liegt er über 1,80 $/€, liegt der absolute Preisvorteil bei beiden Gütern beim Ausland.

Abb. 3.10 Einfluss des Wechselkurses

390

Dieter Smeets

3.2.1.5 Faktorproduktivität Die bisherigen Überlegungen haben gezeigt, dass Unterschiede in den Produktionsbedingungen eine Ursache für internationalen Handel darstellen. In diesem und dem folgenden Abschnitt wird daher gezeigt, welche Effekte von den Produktionsbedingungen auf die Produktionsmöglichkeitenkurven und damit auf den internationalen Handel ausgehen. In diesem Abschnitt stehen zunächst unterschiedliche Technologien (Faktorproduktivitäten) als Ursache für komparative Kostenvorteile im Mittelpunkt. Die Überlegungen gehen zurück auf David Ricardo (1846) und basieren auf der klassischen Arbeitswertlehre. Aufgrund der komplementären Beziehungen zwischen Arbeit und Kapital lassen sich die Zusammenhänge ausschließlich mit Hilfe der Arbeitskräfteerfordernisse erläutern. Zwei Länder, England und Portugal, produzieren je zwei Güter, Wein und Tuch. In beiden Ländern stehen insgesamt je 24.000 Arbeitseinheiten zur Verfügung. In England sind zur Produktion einer bestimmten Einheit Wein 120 Arbeitseinheiten (AE) notwendig, in Portugal aber nur 80 AE. Demgegenüber bedarf es zur Produktion einer bestimmten Einheit Tuch in England 100 AE, während in Portugal 90 AE benötigt werden. Daraus ergeben sich die in Abbildung 3.11 zusammengestellten Opportunitätskosten für je eine Mengeneinheit Wein (MEW) und Tuch (MET) in den beiden Ländern England und Portugal. Das Beispiel zeigt zunächst, dass Portugal bei der Produktion beider Güter einen absoluten Vorteil besitzt, weil es vergleichsweise weniger Arbeitseinheiten aufwenden muss. Nach Ricardo kommt es jedoch nicht auf die absolute sondern auf die relative (komparative) Kostensituation an. Demnach soll sich jedes Land auf die Produktion desjenigen Gutes spezialisieren, bei dem es einen komparativen Kostenvorteil hat – die Opportunitätskosten der Produktion also niedriger ausfallen. Das führt in unserem Beispiel dazu, dass England sich auf die Produktion von Tuch und Portugal auf die Produktion von Wein spezialisiert.

Abb. 3.11  Absolute und relative Kosten

3  Internationaler Handel

391

Diese Überlegungen lassen sich weiter mit Hilfe der entsprechenden Produktionsmöglichkeitenkurven veranschaulichen (Abbildung 3.12). Bei der gegebenen Ausstattung mit Arbeitseinheiten lassen sich die Produktionsmöglichkeitenkurven für die Autarkiesituation in England (TKEA) und Portugal (TKPA) ableiten. Bei den gegebenen Faktorproduktivitäten können in England maximal 200 ME Wein oder 240 ME Tuch produziert werden. In Portugal sind es maximal 300 ME Wein oder 267 ME Tuch. Auch hier kann man den absoluten Kostenvorteil Portugals bei beiden Gütern erkennen. Es wird aber auch deutlich, dass der absolute Nachteil Englands bei Tuch geringer ist als bei Wein. Im Gegensatz zum letzten Kapitel verlaufen die Produktionsmöglichkeitenkurven hier linear, da annahmegemäß beide Länder jeweils nur über einen Produktionsfaktor (Arbeit) verfügen. Formal lassen sich diese Zusammenhänge wie folgt herleiten: Der Volkswirtschaft steht eine gegebene Menge an Arbeitskräften N zur Verfügung, die zur Produktion der Güter 1 (N1) und 2 (N2) eingesetzt werden. N = N1 + N2 (8) Eine gegebene Zahl von Arbeitskräften (a1) wird benötigt, um eine Einheit vom Gut 1 zu produzieren, und eine andere Anzahl (a2), um Gut 2 zu produzieren. 1/a1 und 1/a2 entsprechen daher den Faktorproduktivitäten bezogen auf die jeweiligen Güter. Bezeichnet man die Produktion der beiden Güter mit x1 und x2, dann ergibt sich: N1 = a1x1 N2 = a2x2 (9)

Abb. 3.12  Produktionsmöglichkeiten im Ricardo-Fall

392

(10 )

Dieter Smeets

Fügt man diese Ausdrücke in 8 ein und löst nach x1 (Wein) auf, erhält man die Gleichung für die Produktionsmöglichkeitenkurve: N a  x 1 = −  2  x 2 (10) a1  a1  Wenn Arbeit der einzige Produktionsfaktor ist, können Kosten nur in Form von Löhnen (w) anfallen. Wenn der Faktoreinsatz konstant ist, stimmen ferner marginale und durchschnittliche Kosten überein. Da die Preise unter wettbewerblichen Marktbedingungen den marginalen Kosten entsprechen, ergibt sich daraus für die Preise der beiden Güter (P1; P2): P1 = wa1 P2 = wa2 (11) Da die Arbeitskräfte zwischen den inländischen Sektoren frei wandern können, gibt es nur einen einheitlichen Lohn. Für die relativen Preise ergibt sich dann: P1 wa 2 a 2 = = (12) P2 wa1 a1 Der relative Preis des Gutes 2 (Tuch) ist folglich gleich dem Einsatzverhältnis des Faktors Arbeit bzw. dem reziproken Verhältnis der Faktorproduktivitäten und entspricht somit der Steigung der Produktionsmöglichkeitenkurve. Ergänzt man diese angebotsseitige Analyse um volkswirtschaftliche Indifferenzkurven, so lässt sich ferner die optimale Produktionskombination bestimmen, wie dies in Abbildung 3.13 exemplarisch für England geschieht. In der Autarkiesituation werden die zur Verfügung stehenden Produktionsfaktoren in England demnach genutzt, um in diesem Beispiel 120 ME Tuch und 100 ME Wein zu produzieren.

Abb. 3.13  Produktionsentscheidung

3  Internationaler Handel

393

Nach Aufnahme des internationalen Handels muss es auch hier zu einem einheitlichen relativen Preisverhältnis kommen, das zwischen den relativen Preisen in der Autarkiesituation liegt und hier mit 1 angenommen werden soll. Unter dieser Annahme muss England nur noch eine ME Tuch aufgeben, um eine ME Wein zu erhalten. Dies führt zu einer Drehung der englischen Produktionsmöglichkeitenkurve in Abbildung 3.14a nach rechts außen von MM’ auf MM’’. Im neuen Gleichgewicht spezialisiert sich England vollkommen auf die Tuchproduktion und produziert die Menge 0M. Davon werden 110 MET im Inland nachgefragt, das Überschussangebot in Höhe von 130 ME (TM) wird nach Portugal exportiert und im Gegenzug werden 130 ME Wein (ET) aus Portugal importiert. Das Handelsdreieck entspricht folglich dem Dreieck ETM. Die analogen Überlegungen für Portugal veranschaulicht Abbildung 3.14b. Wichtig ist, dass sich auch hier das Preisverhältnis von 1 einstellt und damit die Produktionsmöglichkeitenkurven MM’’ und KK’’ parallel – aber auf unterschiedlichen Niveaus – verlaufen. Portugal spezialisiert sich vollkommen auf die Weinproduktion und importiert Tuch aus England. Da beide Länder nach Aufnahme des internationalen Handels eine weiter vom Ursprung entfernte Indifferenzkurve (I1) erreichen zeigt sich, dass eine (vollkommene) Spezialisierung gemäß der komparativen Kostenvorteile in beiden Ländern zu Wohlfahrtsgewinnen führen kann. Dieses Ergebnis muss aber nicht in jedem Fall auftreten. Die bisherige Analyse hat gezeigt, dass die Nachfragebedingungen vor Aufnahme des Handels im Ricardianischen Modell keinen Einfluss auf die relativen Preise ausüben. Sie entscheiden zunächst einmal „nur“ über die Aufteilung der Produktion. Die Preise und damit die Handelsstruktur wird ausschließlich durch die Arbeitsbedingungen bestimmt. Die Nachfragebedingungen beeinflussen jedoch nach Aufnahme des internationalen Handels die terms of trade und damit die Verteilung der Wohlfahrtsgewinne. Abbildung 3.15 erweitert abschließend das einfache Ricardo-Modell zu einem MehrGüter-Modell. Es wird davon ausgegangen, dass in den beiden Ländern England und Portugal in der Autarkiesituation vier Güter, nämlich Wein, Getreide, Tuch und Stahl produziert werden. Wenn Arbeit der einzige Inputfaktor ist, dann ergibt sich daraus:

Abb. 3.14  Internationaler Handel im Ricardo-Fall

394

Dieter Smeets

Produktionskosten England Produktionskosten Portugal

=

AE England AE Portugal



Lohnsatz England Lohnsatz Portugal

(13)

Die Steigung der Produktionsstrahle in Abbildung 3.15 entspricht dann dem Verhältnis der Arbeitseinsätze (AE) zueinander. Wenn die Produktionskosten (PK) in England bei einem Gut höher sind als in Portugal, so wird dieses Gut von Portugal produziert und umgekehrt. Die horizontale Linie in Abbildung 3.15, die ein Kostenverhältnis von eins widerspiegelt, ist daher von zentraler Bedeutung, weil ihre Schnittpunkte mit den Güterstrahlen die Handelsstruktur bei gegebenem Lohnsatzverhältnis bestimmt. Bei einem Lohnsatzverhältnis w1 sind die Produktionskosten für Wein in beiden Ländern gleich hoch, während die Produktionskosten für Getreide, Tuch und Stahl in England niedriger sind als in Portugal. Daher wird England alle vier Güter produzieren, während sich Portugal auf die Produktion von Wein spezialisieren wird. Dies impliziert zugleich, dass Portugal Wein exportiert im Austausch gegen Getreide, Tuch und Stahl. England importiert Wein, obgleich eine bestimmte Menge im Inland angebaut wird. Die analog umgekehrte Situation würde sich aus der Sicht Portugals beim Lohnsatzverhältnis w3 einstellen. Bei einem Lohnsatzverhältnis w2 würde England Tuch und Stahl produzieren und exportieren, während Portugal sich auf die Produktion von Wein und Getreide spezialisiert und diese Güter exportiert. Diese Überlegungen zeigen zugleich, dass das Lohnsatzverhältnis nur zwischen w1 und w3 schwanken kann. Anderenfalls würde es zu keinem Handelsaustausch kommen.

Abb. 3.15  Mehrproduktfall

3  Internationaler Handel

395

3.2.1.6 Faktorausstattung Im Gegensatz zum Ricardianischen Modell des letzten Abschnitts soll im Folgenden von einheitlichen Faktorproduktivitäten (Technologien) ausgegangen werden. Vielmehr steht nun die mengenmäßige Ausstattung mit Produktionsfaktoren als Ursache des internationalen Handels im Mittelpunkt. Das Modell wurde in den 1920er Jahren von Eli Heckscher und Bertil Ohlin entwickelt und von Paul Samuelson später verfeinert. Es basiert auf zwei Annahmen: • Güter unterscheiden sich nach ihren Faktorerfordernissen. Danach lassen sich arbeitsund kapitalintensive Produkte unterscheiden. • Länder sind in unterschiedlichem Ausmaß mit Faktoren ausgestattet. Danach lassen sich Kapital- und Arbeitsländer unterscheiden. Vor diesem Hintergrund haben Heckscher und Ohlin abgeleitet, dass sich Kapitalländer auf die Produktion von kapitalintensiven Gütern spezialisieren und diese exportieren werden, während sie im Gegenzug arbeitsintensive Güter aus dem (Arbeits-) Ausland importieren. Dieses Ergebnis soll mit Hilfe der folgenden Überlegungen erläutert werden. Dabei wird zur Vereinfachung davon ausgegangen, dass die Nachfragebedingungen in beiden Ländern übereinstimmen und dass jede Outputeinheit der gleichen Faktorausstattung bedarf. Abbildung 3.16a zeigt zunächst die Produktionsmöglichkeitenkurve K’EN und deren Herleitung. Wenn sich ein Land einem unbegrenzten Bestand an Kapital gegenübersähe, würde sein Output von den Arbeitserfordernissen und vom Angebot an Arbeit abhängen – wie im Ricardianischen Modell. Die Volkswirtschaft würde sich auf der Arbeitsbegrenzung NN’ bewegen. Wenn alle Arbeitskräfte in der Produktion von Gut 2 eingesetzt würden, könnte maximal die Menge 0N produziert werden. Bei ausschließlicher Produktion von Gut 1 ergäbe sich die Menge 0N’. Stünde der Volkswirtschaft der Faktor Arbeit in unbegrenztem Ausmaß zur Verfügung, dann würde der Output von den Kapitalerfordernissen und der Ausstattung mit Kapital abhängen. Dies spiegelt die Kapitalbeschränkung KK’ in Abbildung 3.16a wider. Wenn Kapital und Arbeit nicht unbegrenzt zur Verfügung stehen, dann ergibt sich die Produktionsmöglichkeitskurve K’EN als Kombination der beiden Faktorbegrenzungen N’N und K’K. Wird in der Volkswirtschaft die Menge x12 des Gutes 1 produziert, so wird der Output durch die Kapitalbegrenzung bestimmt. Dies führt zugleich dazu, dass die Produktion des Gutes 2 auf x22 beschränkt wird. Die Volkswirtschaft setzt in G2 ihren gesamten Kapitalbestand ein, während ein Teil des Faktors Arbeit nicht beschäftigt wird. Umgekehrt stellt sich die Situation im Punkt G1 dar. Dort werden die Mengen x21 und x11 produziert bei Vollauslastung des Faktors Arbeit. Nun ist ein Teil des Faktors Kapital nicht ausgelastet. Im Schnittpunkt E beider Faktorrestriktionen liegt hingegen der Vollbeschäftigungsoutput vor. Da die Arbeitsrestriktion steiler verläuft als die Kapitalrestriktion wird das Gut 1 kapitalintensiv und das Gut 2 arbeitsintensiv produziert.

396

Dieter Smeets

Abb. 3.16  Faktorausstattung

Was passiert vor diesem Hintergrund, wenn der Bestand an Kapital ansteigt? In Abb. 3.16b verschiebt dies die Kapitalrestriktion nach rechts auf K1K1’ und es kommt zu einem neuen Vollbeschäftigungsoutput in E*. Dieses Ergebnis wird als Rybcynski-Theorem bezeichnet und besagt, dass bei vollbeschäftigten Faktoren und gegebenen Faktorerfordernissen der Anstieg eines Faktors dazu führt, dass der Output desjenigen Gutes steigt, in das dieser Faktor reichlich eingeht (hier das kapitalintensive Gut 1) und der Output des anderen Gutes (Gut 2) sinkt. Formal lassen sich diese Zusammenhänge wie folgt herleiten: Geht man analog zu Gleichung (9) davon aus, dass Arbeit (N) und Kapital (K) in einem bestimmten Verhältnis (a beim Faktor Arbeit, b beim Faktor Kapital) in die Produktion der beiden Güter 1 und 2 eingehen und die beiden Faktoren vollbeschäftigt sein sollen, dann ergeben sich die folgenden Zusammenhänge: N = N1 + N2 = a1x1 + a2x2 (14) K = K1 + K2 = b1x1 + b2x2 (15) Löst man diese beiden Gleichungen nach x1 auf, dann erhält man die in Abbildung 3.16 dargestellten Faktorrestriktionen: (16 )

x1 =

N  a2  −  x 2 a 1  a 1 

und

x1 =

K  b2  −   x 2 (16) b1  b1 

Wenn die Arbeitsrestriktion steiler verläuft als die Kapitalrestriktion, wie in Abbildung 3.16, resultiert das gemäß (16) aus a2/a1 > b2/b1. a2/a1 > b2/b1 entspricht aber auch b1/a1 >

3  Internationaler Handel

(17 )

(18 )

397

b2/a2. b1/a1 ist dabei das Kapital-Arbeits-Verhältnis (k1), das notwendig ist, um eine Einheit des Gutes 1 zu produzieren. Analoges gilt für die Produktion von Gut 2. b b > k 2 = 2 (17) k1 = 1 a2 a1 Die Arbeitsrestriktion verläuft also dann steiler als die Kapitalrestriktion, wenn Gut 1 kapitalintensiver produziert wird als Gut 2 (k1 > k2). Löst man die Kapital- und Arbeitsrestriktion nach x1 und x2 auf, so ergibt dies: b N − a 1K a K − b2 N (18) x2 = 1 und x1 = 2 a 2 b1 − a 1 b 2 a 2 b1 − a 1 b 2 (a2b1) > (a1b2) gilt dann, wenn (b1/a1) > (b2/a2). Da diese Bedingung – wie oben gezeigt – hier zutrifft, ist der Nenner der Brüche in beiden Fällen positiv. Daraus folgt wiederum die Aussage des Rybczynski-Theorems, dass ein Anstieg der Kapitalausstattung (K steigt) den Output des Gutes 2 sinken lässt, während der Output des Gutes 1 zunimmt. Die Wirkungen unterschiedlicher Faktorausstattungen auf den internationalen Handel zeigt abschließend Abb. 3.17. Die identischen Nachfragebedingungen kommen in den einheitlichen Indifferenzkurven Io, I1, und I2 zum Ausdruck. Das Arbeitsland sieht sich der Faktorrestriktion KEN gegenüber, während das Kapitalland durch die Restriktion K’E*N’ gekennzeichnet ist. In der Autarkiesituation produziert und konsumiert das Arbeitsland in seinem Vollbeschäftigungspunkt E, das Kapitalland im Punkt P. Das Arbeitsland produziert mehr von Gut 2 (dem arbeitsintensiven Gut) als das Kapitalland. Das Kapitalland hingegen produziert mehr von Gut 1 (dem kapitalintensiven Gut). Der relative Preis des Gutes 2 entspricht im Arbeitsland der Steigung der Tangente an die Indifferenzkurve Io im Punkt E (= Steigung der Geraden KE), im Kapitalland Io im Punkt P (= Steigung der Geraden E*N’). Da die beiden Preisverhältnisse nicht übereinstimmen, bietet sich die Gelegenheit zum internationalen Handel. Durch den Handel gleicht sich das Preisverhältnis an und entspricht in Abb. 3.17 der Steigung der (parallelen) Geraden DE und D*E*. Im Arbeitsland bleibt die Produktion im Punkt E erhalten, während sich der Konsum nach D verlagert. Dadurch entsteht das Handelsdreieck GDE: Das Arbeitsland produziert das arbeitsintensivere Gut 2 und exportiert es im Umfang der Strecke GE. Im Ausgleich dazu wird das kapitalintensive Gut 1 im Umfang der Strecke GD importiert. Im Kapitalland verlagert sich die Produktion auf Punkt E* und die Nachfrage auf Punkt * D . Daraus ergibt sich das Handelsdreieck G*E*D*. Das Kapitalland produziert in großem Umfang das kapitalintensive Gut 1 und exportiert es im Umfang der Stecke E*G*. Dafür wird das arbeitsintensive Gut 2 im Umfang der Strecke G*D* importiert. Beide Länder erreichen durch den internationalen Handel Indifferenzkurven, die weiter vom Ursprung entfernt sind und damit Wohlfahrtsgewinne widerspiegeln – das Arbeitsland erreicht die Indifferenzkurve I1, das Kapitalland die höhere Indifferenzkurve I2. Da die Produktion im Arbeitsland im Punkt E nach Aufnahme des Handels erhalten bleibt, treten dort keine Spezialisierungs- sondern „nur“ Tauschgewinne auf. Im Gegensatz dazu setzt sich der Wohlfahrtszuwachs im Kapitalland durch Spezialisierungs- und Tauschgewinne zusammen.

398

Dieter Smeets

Abb. 3.17  Faktorausstattung und internationaler Handel

Leontief-Test Die Auseinandersetzung um die Fähigkeit des Faktorproportionen-Theorems, reale Außenhandelsstrukturen erklären und ihre Veränderung prognostizieren zu können, erfuhr durch die bahnbrechende empirische Untersuchung von Wassiliy Leontief (1953) ihren entscheidenden Anstoß. Aufgrund einer Input-Output-Studie für die Vereinigten Staaten des Jahres 1947 wurden Arbeits- und Kapitaleinsatz pro 1 Mio. US-$ der amerikanischen Export- und Importkonkurrenzprodukte ermittelt. Auch wenn wegen fehlender ausländischer Input-Output-Tabellen der Faktorgehalt US-amerikanischer Importe nicht unmittelbar bestimmt werden konnte, erschien der Rückgriff auf Importsubstitute als legitime Testbasis, da das Heckscher-Ohlin-Theorem identische Produktionsfunktionen und eindeutige Faktorintensitätsunterschiede beider Gruppen von Außenhandelsgütern unterstellte. Der Quotient der so errechneten Kapital- und Arbeitskoeffizienten sollte auf diese Weise den Rückschluss auf die Kapitalintensitäten amerikanischer Export- und Importprodukte ermöglichen. Selbst wenn die empirische Messung des relativen Faktorreichtums und damit die Erstellung einer soliden Testbasis häufig Schwierigkeiten bereiten dürfte, bestand dieses Problem im Fall der Vereinigten Staaten nicht, die unbestritten als kapitalreichstes Land der Welt eingestuft werden konnten. Gemäß FaktorproportionenTheorem müssten die Vereinigten Staaten somit kapitalintensive Güter exportieren und arbeitsintensive Produkte einführen. Das Ergebnis des Leontief – Tests widersprach aber dieser Hypothese, da die Kapitalintensität der amerikanischen Exporte geringere Werte aufwies als die Kapitalintensität der heimischen Importsubstitute. Die USA exportierten

3  Internationaler Handel

399

somit arbeitsintensive Produkte und importierten kapitalintensive Erzeugnisse (Leontief – Paradoxon), so dass ihre Außenhandelsstruktur im Widerspruch zur Prognose des Heckscher-Ohlin-Theorems stand. Die Testergebnisse zeigen, dass das HeckscherOhlin-Theorem in seiner einfachen Form nicht hinreichend empirisch abgesichert ist. Es ist somit zu prüfen, ob Verfeinerungen und Modifikationen der FaktorproportionenTheorie komparativer Kostenunterschiede zu Hypothesen führen, die im empirischen Bewährungstest erfolgreicher sind. Neo-Faktorproportionen-Theorem Versuche zur Erklärung und Lösung des Leontief – Paradoxon führten in zwei beachtenswerte Richtungen. Es wurde der Nachweis erbracht, dass • das Heckscher-Ohlin-Theorem auch aus logischen Gründen versagen und das Leontief- Paradoxon Bestätigung finden muss, wenn die in beiden Ländern identischen Produktionsfunktionen umschlagende Faktorintensitäten implizieren (nach Überschreiten eines bestimmten Lohn-Zins-Verhältnisses wird das bislang arbeitsintensivere zum kapitalintensiven Produkt) und somit die Produkte nicht mehr widerspruchsfrei in arbeits- oder kapitalintensive Erzeugnisse eingeteilt werden können, • das Leontief-Paradoxon gelöst werden und das Faktorproportionen-Theorem in erweiterter Form seine Bestätigung finden kann, wenn für die Produktionsfaktoren Arbeit oder Kapital die Homogenitätsannahme aufgehoben wird. Die zweite Alternative soll im Folgenden näher erläutert werden, da hiermit entscheidende Impulse für die weitere Entwicklung der Außenhandelstheorie verbunden waren. Das Zwei-Faktoren-Modell der Faktorproportionen-Theorie kann auf zweierlei Weise realitätsgerechter modifiziert werden. Entweder wird das bislang homogene Arbeitspotential in verschiedene Kategorien von Arbeitskräften unterschiedlichen Qualifikationsniveaus (z. B. fachlich ausgebildete, angelernte oder ungelernte Arbeitskräfte) aufgespalten, oder der Kapitalbegriff wird um das durch Ausbildung der Arbeitskräfte aufgebaute Humankapital erweitert. Die Produktion verschiedener Güter (z. B. neuentwickelte Computergenerationen im Vergleich zu Textilerzeugnissen) erfordert in der Regel auch in unterschiedlicher Intensität eingesetzte Mengen an qualifizierten Arbeitskräften (Wissenschaftler, Ingenieure, Facharbeiter, Manager) und an gering ausgebildetem Personal. Ein als arbeitsreich einzustufendes Land kann nun gerade mit Arbeitskräften höheren Qualifikationsniveaus vergleichsweise knapp ausgestattet sein, während ein kapitalreiches Land auch relativ reichlich über qualifizierte Arbeitskräfte verfügen mag. Unter dieser Bedingung ist davon auszugehen, dass Arbeitskräfte mit hohem Ausbildungsniveau im arbeitsreichen Land relativ hoch entlohnt werden, weil sie dort knapper als im kapitalreichen Land sind. Dann werden aber auch Produkte, deren Erzeugung den relativ hohen Einsatz qualifizierter Arbeitskräfte erfordern, im arbeitsreichen Land nur relativ teuer hergestellt werden können. Das arbeitsreiche

400

Dieter Smeets

Land besitzt komparative Kostennachteile, das kapitalreiche Land komparative Kostenvorteile in der Erzeugung qualifikationsintensiver Güter. Damit folgt das internationale Spezialisierungsmuster nunmehr einem modifizierten Faktorproportionen-Theorem: Kapitalreiche Länder, die auch relativ reichlich mit ausgebildeten Arbeitskräften höherer Qualifikationsniveaus ausgestattet sind, werden vor allem jene Güter exportieren, deren Erzeugung den Faktor qualifizierte Arbeit intensiv nutzt, während ihre Importprodukte in den Ursprungsländern mit einem relativ hohen Anteil gering ausgebildeter Arbeitskräfte erstellt werden. So können etwa die US-amerikanischen Exportindustrien als relativ qualifikationsintensiv gelten, da sie ein höheres Lohnniveau aufweisen, als dem gesamtwirtschaftlichen Durchschnittslohn entspricht, und weil sie einen größeren Anteil jener Sektoren umfassen, die in hohem Maße qualifiziert ausgebildete Arbeitskräfte beschäftigen. Die durch den Leontief-Test ausgewiesene relativ hohe Arbeitsintensität amerikanischer Exporte spiegelt also in Wirklichkeit deren hohe Qualifikationsintensität wider, während die Importe im Interpretationsrahmen eines Drei-Faktoren-Modells (einfache Arbeit, Ausbildung, Kapital) als (unqualifiziert) arbeitsintensiv einzustufen sind. Empirische Untersuchungen von Außenhandelsstrukturen konnten die durch das Neo-Faktorproportionen-Theorem beschriebenen Strukturdeterminanten als signifikante Einflussfaktoren bestätigen (Steinherr/Runge, 1978; Stern, 1976; Wolter, 1977). Während dieses Erklärungsmuster zur Analyse des Handels zwischen Industrie- und Entwicklungsländern recht brauchbar ist, zeigen sich seine Grenzen, wenn die Handelsbeziehungen zwischen hochentwickelten Industrieländern erklärt werden sollen. Die in dieser Gruppe zusammengefassten Länder sind sich in Produktionsfunktionen, Faktorausstattungen und Pro-Kopf-Einkommen relativ ähnlich, so dass die Ursachen komparativer Kostenunterschiede nicht signifikant zur Geltung kommen. Jedoch wird zwischen diesen Ländern fast die Hälfte des Welthandels abgewickelt. Die Beobachtung, dass die Außenhandelsbeziehungen zwischen Ländern mit ähnlichen Angebotsbedingungen am intensivsten sind, steht im Gegensatz zur Theorie komparativer Kostenunterschiede, nach der die Außenhandelsbeziehungen um so intensiver sind, je stärker sich die Länder in ihren relativen Angebotsbedingungen unterscheiden. Außerdem dominiert zwischen hochentwickelten Industrieländern der intra-industrielle Außenhandel (s. Abschnitt 3.2.2.), während die Modelle komparativer Kostenunterschiede inter-sektorale Handelsbeziehungen erklären (s. Abschnitt 3.2.1.1.). Faktorpreis-Ausgleichs-Theorem Der internationale Handel wirkt aber nicht nur auf die Gütermärkte. Samuelson und andere haben gezeigt, dass es nach dem Übergang vom Autarkiezustand zum Freihandel im Modellrahmen von Heckscher und Ohlin zu einem (tendenziellen) Ausgleich der Faktorpreise kommt, und zwar auch dann, wenn die Faktoren international vollkommen immobil sind. Diese Ausgleichstendenz setzt allerdings insbesondere voraus, dass in beiden Ländern (Regionen) gleiche Technologien und (zwei) homogene Produktionsfaktoren vorhanden

3  Internationaler Handel

401

sind, mit denen ausschließlich handelsfähige Güter produziert werden. Vor diesem Hintergrund werden die Einkommen des bei Autarkie relativ knappen Produktionsfaktors nach Aufnahme des internationalen Handels sinken, während die Einkommen des reichlich vorhandenen Produktionsfaktors steigen werden. Diese Entwicklung kommt dadurch zustande, dass sich die betrachteten Länder nach Aufnahme des internationalen Handels (zunehmend) auf die Produktion derjenigen Güter spezialisieren werden, in die der reichlich vorhandene Produktionsfaktor in starkem Maße eingeht. Die Einzelheiten dieses Anpassungsprozesses verdeutlicht Abbildung 3.18, in der sich ein reichlich mit Kapital ausgestattetes Land (Kapital-Land; Industrieland) und ein reichlich mit (ungelernter) Arbeit ausgestattetes Land (Arbeits-Land, Entwicklungs- oder Schwellenland) gegenüberstehen.

Kapital-Land

Arbeits-Land Reichliche Ausstattung mit Arbeit geringe Ausstattung mit Kapital

Reichliche Ausstattung mit Kapital geringe Ausstattung mit Arbeit

Autarkie Geringe GP des Kapitals Hohe GP der Arbeit

Geringe GP der Arbeit Hohe GP des Kapitals

Niedriger Zins / Hoher Lohn

Niedriger Lohn / Hoher Zins

Kapitalintensive Produkte reichlich und billig Arbeitsintensive Produkte knapp und teuer

Arbeitsintensive Produkte reichlich und billig Kapitalintensive Produkte knapp und teuer

Aussenhandel Export kapitalintensiver Produkte

Export arbeitsintensiver Produkte

Tausch- und Spezialisierungsgewinne Spezialisierung und Mehrproduktion kapitalintensiver Produkte Rückgang der Produktion arbeitsintensiver Produkte

Spezialisierung und Mehrproduktion arbeitsintensiver Produkte Rückgang der Produktion kapitalintensiver Produkte

Mehrnachfrage nach Kapital Mindernachfrage nach Arbeit

Mehrnachfrage nach Arbeit Mindernachfrage nach Kapital

Zins steigt / Lohn sinkt

Lohn steigt / Zins sinkt

Ausgleich der Faktorpreise Abb. 3.18  Faktorpreis-Ausgleichs-Theorem

402

Dieter Smeets

Will man diese Überlegungen auf die aktuellen Probleme in (vielen) Industrieländern übertragen, die man häufig auf den intensivierten internationalen Handel (Globalisierung) zurückführt, gilt es insbesondere den restriktiven Modellrahmen zu beachten. So weisen viele Volkswirtschaften trotz zunehmender Globalisierung noch einen umfangreichen Sektor nicht handelsfähiger Güter auf. Der inter-sektorale Handel zwischen den hier betrachteten Typen von Volkswirtschaften umfasst nur einen begrenzten Anteil des internationalen Handels. Man kann in den relevanten Ländern kaum von gleicher Technologie ausgehen, obwohl sich das entsprechende Wissen weltweit immer schneller verbreitet. Arbeit ist auch nicht gleich Arbeit. Für hochwertiges Humankapital kann man eher analoge Wirkungen als beim Sachkapital erwarten. Für einfache Arbeit wird es aber in den Industrie-(Kapital-)Ländern eher schwieriger. Diese grundsätzliche Tendenz kann noch dadurch verstärkt werden, dass das Kapital an Mobilität gewonnen hat und somit die angebotsseitigen Marktwirkungen zunehmend an Bedeutung gewinnen. Der Druck auf den Faktor (ungelernte) Arbeit würde sich dadurch in den Industrieländern erhöhen. Formal lassen sich diese Zusammenhänge wie folgt herleiten: Geht man davon aus, dass die Preise der beiden Güter im langfristigen Wettbewerbsgleichgewicht den Stückkosten – bestehend aus Lohn (w) und Zins (r) – entsprechen, dann gilt P1 = a1w + b1r und P2 = a2w + b2r.

(19)

Kombiniert man diese beiden Gleichungen und löst nach w bzw. r auf, ergibt sich:

w=

P2 b1 − P1b2 b1a 2 + b2a1

und

r=

P1a 2 − P2a1 b1a 2 − b2a1 (20)

In Zusammenhang mit Gleichung (18) wurde bereits gezeigt, dass die Nenner – im Weiteren als σ bezeichnet – positiv sind, wenn Gut 1 kapitalintensiver produziert wird als Gut 2. Daraus lassen sich dann der Reallohn und der reale Zins – gemessen in Preisen des Gutes 2 – ableiten. w b2 ⎛ b1 P1 ⎞ r a 2 ⎛ P1 a1 ⎞ = ⎜ − ⎟ = − und p2 σ ⎝ b2 P2 ⎠ p2 σ ⎜⎝ P2 a 2 ⎟⎠ (21) Gleichung (21) verdeutlicht die Aussagen des Stolper-Samuelson-Theorems, wonach ein Anstieg von P1/P2 – dem relativen Preis des kapitalintensiven Gutes – den realen Preis des Kapitals (Realzins) anhebt, während der Reallohn sinkt. Im Handelsgleichgewicht gilt der relative Güterpreis P1/P2 für beide Länder. Unter den vorher erläuterten Annahmen und einheitlichen Produktionsverfahren in beiden Ländern führt dies dazu, dass der Realzins und der Reallohn in beiden Ländern übereinstimmen. Dies entspricht der Grenzsituation des Faktorpreis-Ausgleichs-Theorems. Die bisherigen Überlegungen haben gezeigt, dass internationale Kostenunterschiede unter Freihandelsbedingungen nur dann zu Außenhandelsbeziehungen führen, wenn sie mit komparativen Kostendifferenzen verbunden sind. Diese prägen Richtung und Struktur eines für alle Länder vorteilhaften Außenhandels. Wegen der Koexistenz mehrerer

3  Internationaler Handel

403

wesentlicher Ursachen eines durch komparative Kostendifferenzen gesteuerten Außenhandels erscheint es zweckmäßig, die international gehandelten Güter in die Kategorie der Ricardo-Güter und der Heckscher-Ohlin-Güter einzuteilen (Hirsch, 1974), und zunächst die internationalen Handelsströme für beide Produkttypen getrennt zu erklären. RicardoGüter sind durch internationale Unterschiede ihrer natürlichen Produktionsbedingungen gekennzeichnet, so dass diese Kategorie vor allem den internationalen Handel mit Rohstoffen und landwirtschaftlichen Produkten umfassen wird. Heckscher-Ohlin-Güter werden mit in allen Ländern verfügbaren gleichartigen Standardtechnologien erzeugt und unterscheiden sich im Verhältnis zueinander lediglich durch unterschiedliche Faktorintensitäten (z.B. arbeitsintensive oder kapitalintensive Güter). Diese Kategorie wird einen Teil des internationalen Handels mit industriellen Zwischenprodukten und Fertigwaren erklären können. Mit einer solchen Kategorienbildung ist allerdings noch keineswegs die Gesamtheit internationaler Handelsbeziehungen erfasst. Es stellt sich vielmehr die Frage, welche Zusammenhänge für den übrigen Teil des nicht durch komparative Kostenunterschiede bestimmten Außenhandel von Bedeutung sind.

3.2.1.7 Nachfragedifferenzen Ursache für eine profitable Aufnahme des internationalen Handels können jedoch nicht nur Unterschiede in den Produktionsbedingungen sein, sondern auch Nachfragedifferenzen. Abbildung 3.19 erläutert diesen Fall. In beiden Ländern herrschen gleiche Produktionsbedingungen, die in einer einheitlichen Produktionsmöglichkeitenkurve MM’ zum Ausdruck kommen. In der Autarkiesituation werden die Nachfragepräferenzen des Inlands durch die Indifferenzkurve I0 wiedergegeben, während für das Ausland die Indifferenzkurve I1 gilt. P und P* stellen die Produktions- und Konsumpunkte bei Autarkie dar. Nach Aufnahme des internationalen Handels kommt es zu einem einheitlichen Preisverhältnis, das durch die Steigung der Budgetgeraden B1 repräsentiert wird. Sie verläuft steiler als die entsprechende (nicht eingezeichnete) Budgetgerade durch P und flacher als die entsprechende (nicht eingezeichnete) Budgetgerade durch P*. In beiden Ländern wird der Produktionspunkt G realisiert. Dem stehen die Konsumpunkte K im Inland und K* im Ausland gegenüber. In der Kombination entstehen daraus das Handelsdreieck KEG für das Inland und GE*K* für das Ausland. Die Handelsdreiecke verlaufen dabei rein zufällig durch die Punkte P und P*. Das Inland importiert die Strecke EK des Gutes 1 im Austausch gegen EG Exporte des Gutes 2, während das Ausland die Strecke GE* des Gutes 1 exportiert und dafür die Strecke E*K* des Gutes 2 importiert. Die im- und exportierten Mengen der beiden Länder müssen dabei natürlich wieder übereinstimmen. Auch hier sind es also wieder unterschiedliche Preisrelationen in der Autarkiesituation, die zum internationalen Handel und zu Wohlfahrtsgewinnen führen, denn im Handelsgleichgewicht (Punkte K und K*) erreichen beide Länder eine weiter vom Ursprung entfernte Indifferenzkurve.

404

Dieter Smeets

Abb. 3.19  Unterschiedliche Nachfragepräferenzen

3.2.1.8 Unterschiedliche Wettbewerbsverhältnisse Bisher wurde stets davon ausgegangen, dass im In- und Ausland auf allen Märkten wettbewerbliche Verhältnisse herrschen. Gibt man diese Annahme auf, entsteht ein weiterer Grund für Preisdifferenzen und damit für internationalen Handel. Geht man, wie in der partialanalytischen Betrachtung in den Abbildungen 3.20a und 3.20b, davon aus, dass ein homogenes Produkt in der Autarkiesituation im Inland von einem Monopolisten produziert wird, der den Monopolpreis P1M erhebt, im Ausland hingegen wettbewerbliche Marktverhältnisse herrschen, die zu einem Preis von PFH führen, dann lässt sich durch einen freien internationalen Handel das inländische Monopol aufbrechen. In beiden Ländern setzt sich annahmegemäß der Freihandelspreis PFH durch und beschert den Konsumenten im Inland einen niedrigeren Preis. Für den internationalen Handel können sich jedoch zwei unterschiedliche Situationen ergeben. Liegt der Freihandelspreis unter dem Wettbewerbspreis im Inland P1W, wie in Abbildung 3.20a, so wird das Inland zum Importland bei dem betrachteten Produkt. Da die Grenzkostenkurve GK1 der inländischen Angebotskurve bei Wettbewerb entspricht, wird zum Freihandelspreis im Inland die Menge x1 produziert, während die Menge x2 nachgefragt wird. Die Differenz (x2 – x1) wird aus dem Ausland importiert. Liegt der Wettbewerbspreis im Inland hingegen unterhalb des Freihandelspreises, wie in Abbildung 3.20b, dann wird das Inland zum Exportland bei dem betrachteten Gut. Nun fragen die Konsumenten beim Freihandelspreis PFH die Menge x1 nach, während im Inland die Menge x2 produziert wird. Die Differenz wird in diesem Fall an das Ausland exportiert. In beiden Fällen erhalten die inländischen Konsumenten durch den internationalen Freihandel eine größere Gütermenge zu einem niedrigeren Preis als in der Autarkiesituation.

3  Internationaler Handel

405

Abb. 3.20  Monopol im Inland

3.2.2

Intra-sektoraler Handel

Intra-sektoraler Handel wird in erster Linie durch die Produktdifferenzierung begründet. Dabei unterscheidet man zwischen horizontaler und vertikaler Differenzierung.

3.2.2.1 Horizontale Differenzierung Bei horizontaler Differenzierung, die im Folgenden zunächst betrachtet werden soll, werden Merkmalsausprägungen von Gütern unterschiedlich kombiniert. Betrachtet man z.B. bei einem Automobil die beiden Merkmalsausprägungen “Geschwindigkeit” und “Sicherheit” so lassen sich verschiedene Typen als unterschiedlich gewichtete Kombinationen dieser Merkmalsausprägungen interpretieren. Berücksichtigt man darüber hinaus auch die Nachfragepräferenzen, dann lassen sich die produzierten Typen (IP und AP) den inländischen Nachfragern (d) gegenüberstellen. Diese Situation veranschaulicht Abbildung 3.21 in einfacher Weise. Geht man zunächst von der Autarkie-Situation aus, dann wird deutlich, dass lediglich die Nachfrager 1 bis 4 im Inland einen Typ finden (IP1 bis IP4), der hundertprozentig ihren Präferenzen entspricht. Alle anderen Nachfrager (d5 bis d8) müssen sich mit second-best Lösungen zufriedengeben. So werden die Nachfrager 5 und 8 den Typ 2 (IP2) wählen, weil dieser ihren Präferenzen am nächsten kommt, Nachfrager 6 den Typ 4 und Nachfrager 7 ist möglicherweise indifferent zwischen den Typen 1 und 4. Dieses Bild ändert sich, wie Abbildung 3.21 zeigt, wenn internationaler Handel möglich ist. Neben den im Inland produzierten Typen (IP1 bis IP4) stehen dann nämlich auch im Ausland produzierte Typen (AP1 bis AP4) zur Verfügung. Durch die verbesserte Wahlmöglichkeit lassen sich die Präferenzen der Nachfrager nun besser befriedigen. So entspricht der Auslandstyp 1 (AP1) genau den Präferenzen des Nachfragers 8 und die Nachfrager 7 und 5 finden in den Auslandstypen 4 und 2 ebenfalls Merkmalskombinationen, die ihren Präferenzen näherkommen, als dies in der Autarkiesituation der Fall war. Eine vergleichbare Situation ergibt sich im Ausland.

406

Dieter Smeets

Abb. 3.21  Produktdifferenzierung und internationaler Handel

Auf der Nachfrageseite führt der internationale Austausch in Form des intra-sektoralen Handels demgemäß zu einer größeren Produktvielfalt, die zugleich eine bessere Befriedigung der Nachfragepräferenzen gewährleistet. Diese Vorteile lassen sich mit den verbesserten Tauschmöglichkeiten beim inter-sektoralen Handel vergleichen. Neben den handelsbedingten Vorteilen auf der Nachfrageseite kann es jedoch auch zu angebotsseitigen Vorteilen kommen. Führt z.B. der internationale Handel zu Anpassungsprozessen, weil Produzenten aus dem Markt austreten müssen, dann wird sich die Zahl der in jedem Land produzierten Produktvarianten vermindern. Dies eröffnet dann aber auch die Möglichkeit, dass die verbliebenen Anbieter – aufgrund der auf sie entfallenden größeren Nachfrage – economies of scale ausnutzen können, die Preissenkungen hervorrufen. Dieser Vorteil des intra-sektoralen Handels ist vergleichbar mit den Spezialisierungsgewinnen beim inter-sektoralen Handel. Diese Grundüberlegungen lassen sich mit Hilfe eines Modells monopolistischer Konkurrenz (Krugman, 1979, 1980; Helpman/Krugman, 1989) weiter verdeutlichen. Dabei werden zwei in den Produktionsbedingungen identische Länder betrachtet. Im Autarkiezustand sind beide Binnenmärkte für heimische Anbieter offen, für ausländische Anbieter aber geschlossen. Jede inländische Firma bietet eine andere Variante eines Produktes an. Freier Marktzugang für inländische Anbieter führt demgemäß in Abb. 3.22 zu einem Chamberlain-Marktgleichgewicht im Tangentialpunkt G der Preis-Absatz-Funktion der Produktvariante i (dd1A) und der Kurve sinkender Durchschnittskosten DK, in dem zu einem Autarkiepreis P1A die Absatzmenge x1 verkauft wird. Resultiert der Anpassungsprozess, der über die Auflösung von Monopolrenten zu diesem Gleichgewicht geführt hat, aus dem Markteintritt von insgesamt n1A inländischen Unternehmen, so werden in diesem Zustand n1A Varianten des Gutes 1 angeboten. Es gelte die Symmetrieannahme gleicher

3  Internationaler Handel

407

Durchschnittskosten und übereinstimmender Marktanteile aller Hersteller, so dass alle Firmen die gleiche Kostenfunktion wie die hier repräsentative Firma aufweisen, und sich der gleichen Preis-Absatz-Funktion dd1A gegenübersehen. Von allen Produktvarianten wird die Stückzahl x1 zum gleichen Preis P1A umgesetzt und die Gesamtproduktion des Gutes beläuft sich auf eine Stückzahl von n1Ax1. Die Marktbedingungen im Ausland seien symmetrisch, wobei im Autarkiegleichgewicht n2A Firmen die entsprechenden Produktvarianten zu einem Preis P2A verkaufen. Um Autarkiepreisunterschiede als Außenhandelsursache auszuschalten, werde P1A = P2A angenommen. Mit dem Übergang zu Freihandel werden die beiden bislang abgeschotteten Märkte für die jeweils ausländischen Anbieter geöffnet, so dass die Produktvielfalt durch die ausländischen Varianten vergrößert wird. Die Konkurrenz ausländischer Erzeugnisse zieht Inlandsnachfrage von heimischen Produkten ab und die durch größere Produktvielfalt verbesserten Substitutionsmöglichkeiten machen die Nachfrage preiselastischer. Die veränderte Konkurrenzsituation zwingt einen Teil der Anbieter zum Marktaustritt, während die übrigen Anbieter ihre Absatzverluste im Inlandsmarkt durch Exporte ausgleichen und die Produktion ausweiten können. Produktionswachstum führt bei steigenden Skalenerträgen zu sinkenden Stückkosten, und der Wettbewerbsprozess zwingt zur Anpassung der Preise an die gesunkenen Durchschnittskosten. Das langfristige ChamberlainGleichgewicht des Freihandelszustandes liegt im Tangentialpunkt E der aus Inlands- und Auslandsnachfrage zusammengesetzten Preis-Absatz-Funktion ddFH1 + ddFH2 und der Durchschnittskostenkurve der repräsentativen inländischen Unternehmung. Zum Gleichgewichtspreis PFH < P1A wird die inländische Produktionsmenge x2 angeboten. Davon wird

Abb. 3.22  Internationaler Handel bei monopolistischer Konkurrenz

408

Dieter Smeets

x3 im Inland abgesetzt und ex1 = x2 – x3 = BE ausgeführt. Eine symmetrische Gleichgewichtssituation ergibt sich im Ausland. Da alle international gehandelten Produkttypen i und j zur gleichen Produktgruppe gehören, kommt im Freihandelsgleichgewicht eine intra-industrielle Handelsstruktur als Folge interner Skalenvorteile und strategischer Produktdifferenzierung zustande, ohne dass komparative Kostenunterschiede vorliegen. Durch Eingliederung in eine intra-industrielle internationale Arbeitsteilung kann jedes Land die Anzahl der dort gefertigten Produktvarianten reduzieren (Spezialisierungsgewinne aus Skaleneffekten) und dennoch den Konsumenten zugleich eine größere Vielfalt von Produktvarianten bereitstellen – dies entspricht Wohlfahrtsgewinnen aus größerer Produktdifferenzierung. Damit ergeben sich in beiden Ländern positive Wohlfahrtswirkungen, weil eine größere Produktvielfalt zu niedrigeren Preisen angeboten wird.

3.2.2.2 Vertikale Differenzierung Bei vertikaler Differenzierung betrachtet man hingegen einen Produkttyp der unterschiedliche qualitative Ausprägungen aufweist. Die Nachfrage nach diesen unterschiedlichen “Qualitäten” ist wiederum vom Einkommen abhängig. Auf diesen Zusammenhang hatte Linder bereits Anfang der 60er Jahre hingewiesen (Linder, 1961; Arad/Hirsch, 1981). Wirtschaftssubjekte mit niedrigem Einkommen werden das betrachtete Produkt in den einfachen Qualitätsausprägungen nachfragen, während Wirtschaftssubjekte mit hohem Einkommen sich für die höherwertigen Ausprägungen entscheiden werden. Auf der Produktionsseite geht man hingegen davon aus, dass die verschiedenen Qualitätsausprägungen unterschiedliche Faktorintensitäten bei der Produktion erfordern. Während für hohe Qualität eine kapitalintensive Produktion angenommen wird, geht man bei den niedrigen Qualitätsausprägungen von einer arbeitsintensiven Produktion aus. Betrachtet man nun zwei Länder mit unterschiedlicher Faktorausstattung, dann wird das reichlich mit Kapital ausgestattete Land aufgrund der niedrigen Zinsen (Entlohnung nach der Grenzproduktivität) Kostenvorteile bei den höheren Qualitäten haben. Hohe Lohnkosten machen dieses Land bei der Produktion niedriger Qualitäten hingegen wettbewerbsunfähig. Umgekehrt verhält es sich im anderen, reich mit (wenig ausgebildeter) Arbeit ausgestatteten Land. Mit abnehmender Produktqualität steigt dort der Kostenvorteil, weil in die Produktion zunehmend der reichlich vorhandene und damit billige Faktor Arbeit einfließt. Zunehmende Qualität erhöht hingegen die Notwendigkeit zum Einsatz des teuren Faktors Kapital und lässt die Wettbewerbsfähigkeit dieses Landes sinken. Das reichlich mit Kapital ausgestattete Land wird sich folglich auf die Produktion höherer Qualitäten spezialisieren, während das reichlich mit (wenig ausgebildeter) Arbeit ausgestattete Land niedrige Qualitäten produzieren wird. Beide Länder exportieren die von ihnen produzierten und importieren die im jeweiligen Land nicht produzierten Produktqualitäten. Damit kommt ein intra-sektoraler Handel zustande, der im Kern durch das traditionelle Argument der unterschiedlichen Faktorausstattungen begründet wird. Hiermit lässt sich insbesondere der empirisch nachgewiesene – nicht unerhebliche – intra-sektorale Handel zwischen Ländern unterschiedlicher Entwicklungsstufen begründen.

3  Internationaler Handel

3.2.3

409

Weitere Erklärungsansätze

Dynamische Ansätze zur Erklärung des internationalen Handels lassen sich teilweise als Zusammenspiel der oben bereits erläuterten Bestimmungsgründe „Nichtverfügbarkeit” und (wechselnde) „Kostenvorteile” interpretieren. Dabei setzt man Produktlebenszyklus und Faktorausstattung in Beziehung. Der Produktlebenszyklus möge aus drei Phasen bestehen: Die Phase der Produktentwicklung und Einführung (neues Produkt), die Ausreifungsphase und die Standardisierungsphase. Geht man nun davon aus, dass neue Produkte wahrscheinlich primär von reichlich mit Kapital ausgestatteten Ländern entwickelt werden, dann sind sie es, die – auch weltwirtschaftlich gesehen – zunächst eine (temporäre) Monopolstellung einnehmen und damit zum Exportland werden. Da diese Produkte in den anderen Ländern (zunächst) nicht produziert werden (zur Verfügung stehen), werden sie zu Importländern. Mit zunehmender Standardisierung wird sich die Produktion jedoch in solche Länder verlagern, die reichlicher mit (wenig ausgebildeter) Arbeit ausgestattet sind. Die günstigere Lohnsituation wird dazu führen, dass die (früheren) Importländer ihre Produktion bei zunehmenden Kostenvorteilen ausdehnen und letztlich selbst zu Exportländern werden. Das anfängliche Exportland entwickelt sich hingegen mit zunehmender Standardisierung zum Importland. Seine „Aufgabe” ist es nun, neue Produkte zu entwickeln und dadurch auf einem anderen Markt wieder zum Exportland zu werden. Die hier beschriebene Entwicklung verdeutlicht zugleich die erheblichen Anpassungsprozesse insbesondere für die Kapitalländer, die sich gegenwärtig in vielen Industrieländern beobachten lassen. Die zuvor erläuterten Bestimmungsgründe des internationalen (inter- und intra-sektoralen) Handels fasst Abbildung 3.23 abschließend noch einmal zusammen.

Abb. 3.23  Internationaler Handel

410

Dieter Smeets

3.3

Staatliche Eingriffe in den internationalen Handel

3.3.1

Handelspolitische Instrumente und ihre Wirkungen

Handelspolitische Instrumente lassen sich nach verschiedenen Gesichtspunkten klassifizieren. Eine Möglichkeit besteht darin, zwischen den “klassischen” oder “traditionellen” Instrumenten und dem “neuen Protektionismus” zu unterscheiden. Zu den klassischen Instrumenten gehören Zölle (tarifäre Handelshemmnisse) und mengenmäßige Einfuhrbeschränkungen (Kontingente). Alle übrigen Maßnahmen zur Beschränkung des internationalen Handels lassen sich im Kern auf diese beiden Instrumente zurückführen. Bei den Zöllen unterscheidet man zwischen Wertzöllen, spezifischen Zöllen sowie Mischzöllen. Wertzölle werden als Prozentsatz vom Einfuhrwert ausgedrückt, während spezifische Zölle pro Mengeneinheit des Einfuhrgutes erhoben werden. Bei einem Wertzoll bleibt den ausländischen Anbietern demnach ein begrenzter Spielraum, um über niedrigere Preise den (drohenden) Nachfragerückgang teilweise aufzufangen. Bei einem spezifischen Zoll führen niedrigere Preise nicht zu einem Sinken der Zollschuld. Mischzölle verbinden diese beiden Zollformen, indem z.B. ein Wertzoll festgelegt wird und gleichzeitig eine Mindestabgabe je Mengeneinheit vorgeschrieben wird. Bei den Kontingenten unterscheidet man zwischen Mengen- und Wertkontingenten. Beim Mengenkontingent ist die maximale Importmenge fixiert und die inländischen Anbieter kennen exakt das Ausmaß der künftigen Auslandskonkurrenz. Beim Wertkontingent verbleibt den ausländischen Anbietern ein begrenzter Spielraum zur Mengenreaktion, wenn sie den Preis senken. Bei Mengenkontingenten ist von Seiten der ausländischen Anbieter häufig die umgekehrte Reaktion zu beobachten, dass man nämlich versucht, bei gegebener Menge über eine höhere Qualität („upgrading”) den Wert der Exporte zu steigern. Daneben gibt es zahlreiche Formen des so genannten neuen Protektionismus, zum Teil auch als nicht tarifäre Handelshemmnisse bezeichnet, zu denen insbesondere folgende Maßnahmen gehören: • • • •

Subventionen, diskriminierende Zollwertermittlung, technische Vorschriften (Normen und Standards), Exportselbstbeschränkungsabkommen.

Während es sich bei den ersten drei Maßnahmen um zollähnliche Instrumente handelt, zählen die Exportselbstbeschränkungsabkommen zu den kontingentähnlichen Instrumenten.

3.3.1.1 Zölle Ausgangspunkt der folgenden Überlegungen bildet die Freihandelssituation mit einem homogenen Gut. In Abbildung 3.24 sieht sich das (kleine) Inland unter diesen Bedingungen

3  Internationaler Handel

411

Abb. 3.24  Zollwirkungen (kleines Inland)

einem gegebenen Freihandelspreis seiner Importe in Höhe von PFH gegenüber. Im Inland führt dies zu einer Produktion in Höhe von x4 und zu einer Nachfrage in Höhe von x2. Die Überschussnachfrage im Inland (x4x2) wird durch Importe aus dem Ausland gedeckt, die wiederum der am Weltmarkt umgesetzten Menge x3 entsprechen (x4x2 = 0x3). Erhebt nun – ausgehend von dieser Freihandelssituation – das kleine Inland einen spezifischen Zoll in Höhe von T, so steigt der Preis im Inland für die importierten Güter um den Zoll an (PFH → P1T). Dieser Preisanstieg, der komplett zu Lasten des Inlands geht, führt nun zu den folgenden Zollwirkungen: • Produktions- oder Schutzeffekt. Die Produktion im Inland steigt von x4 auf x1 an. Die (Preis-) Wettbewerbsfähigkeit der inländischen Anbieter wird künstlich durch den Zoll gefördert, so dass ein Schutz vor der Auslandskonkurrenz zustande kommt. • Verbrauchseffekt. Aufgrund des gestiegenen Preises sinkt die Gesamtnachfrage nach den Produkten von x2 auf x5. • Handelseffekt. Durch die erhöhte Produktion (x4x1) und die gesunkene Nachfrage (x2x5) sinkt zugleich auch die importierte Menge des Inlands auf x1x5, was sich zugleich in einem verminderten Handel am Weltmarkt widerspiegelt (x1x5 = 0x6). Bei gegebenem Exportwert aufgrund der partialanalytischen Betrachtungsweise ergibt sich der Importwert als Produkt aus der Importmenge und dem Importpreis, was den Flächen x4BKx2 (= den Flächen 6+7+8) bzw. 0P2ALx3 (= den Flächen 7+9 im Weltmarktdiagramm) entspricht.

412

Dieter Smeets

• Einnahmeeffekt. Auf die verbleibende Importmenge (x1x5) erhebt der inländische Staat den Zoll T, so dass sich Zolleinnahmen ergeben, die dem grau unterlegten Rechteck (3) im Inlandsdiagramm und im Weltmarktdiagramm entsprechen. • Zahlungsbilanz-(Handelsbilanz-)Effekt. Durch die Reduktion der Importmenge auf x1x5 bei gleichzeitig unverändertem Importpreis (PFH) sinkt der Importwert von x4BKx2 (entspricht den Flächen 6+7+8) auf x1DGx5 (entspricht der Fläche 7). Bei gegebenem Exportwert bedeutet dies zumindest kurzfristig eine Verbesserung der Handelsbilanz. Der Importpreis bleibt deshalb unverändert, da die Güter weiterhin zum Weltmarktpreis PFH importiert werden, während der erhöhte Preis im Inland (P1T) erst durch die Zollbelastung (T) zustande kommt. Mittel- und längerfristig ist die Verbesserung der Handelsbilanz allerdings nicht gewährleistet. Erhebt das Ausland z.B. Vergeltungszölle auf die Exporte des Inlands, so sinken auch die Exporte und der Handelsbilanzvorteil reduziert sich oder kehrt sich sogar um. Ähnliche Wirkungen wären zu erwarten, wenn es im Ausland zu einem Einkommensrückgang käme. Dies würde auch die Nachfrage des Auslands nach den Inlandsgütern (Exporte) vermindern. Solche Wirkungen sind allerdings definitionsgemäß bei einem kleinen Inland ausgeschlossen, da es das Auslandseinkommen nicht zu beeinflussen vermag. • Wohlfahrts-(Renten-)Effekt. Der Anstieg des Preises im Inland führt dazu, dass die Produzentenrente um die Fläche (1) steigt, während die Konsumentenrente um die Flächen (1)+(2)+(3)+(4) sinkt. Das entspricht einem Bruttowohlfahrtsverlust in Höhe der Fläche (2)+(3)+(4). Dem steht jedoch die Zolleinnahme des Staates in Höhe der Fläche (3) gegenüber, so dass ein Nettowohlfahrtsverlust verbleibt, den die beiden Dreiecke (2) und (4) widerspiegeln. Die Summe dieser beiden Dreiecke entspricht wiederum der Fläche (5) im Weltmarktdiagramm. Das Rechteck (3) repräsentiert dort die Zolleinnahmen. Da unter der Annahme eines kleinen Inlands durch die Zollerhebung im großen Ausland keine Preiseffekte zustande kommen (P2A = PFH = unverändert) ergeben sich dort auch keine Wohlfahrtsverluste. Der Nettowohlfahrtsverlust des Inlands entspricht somit der Nettowohlfahrtsentwicklung in der Weltwirtschaft. Oder anders ausgedrückt: Die Zolllast wird ausschließlich vom kleinen Inland getragen. Neben den Wohlfahrtseffekten sind im Inland aber auch Umverteilungseffekte zu verzeichnen. Innerhalb des privaten Sektors kommt es zu einer Umverteilung zu Lasten der Konsumenten und zu Gunsten der Produzenten. Ferner tragen die Konsumenten die Zolleinnahmen des Staates über die höheren Preise. Die erhöhte Produktion im Inland bedeutet zugleich eine internationale Fehlallokation der Produktionsfaktoren, weil im Inland mehr produziert wird, obgleich diese Güter bei Freihandel günstiger aus dem Ausland bezogen werden könnten. • Terms-of-Trade-Effekt. Die terms-of-trade entsprechen dem Verhältnis von Exportpreisen (PEX) zu Importpreisen (PIM) in einheitlicher Währung zueinander (PEX/PIM). Die terms-of-trade bilden einen Indikator für internationale Verteilungseffekte. Steigen die terms-of-trade, so hat sich die Verteilung zu Gunsten des Inlands verändert, und umgekehrt. Da die Exportpreise in der partialanalytischen Betrachtung gegeben sind und die Importpreise sich durch die Zollerhebung des kleinen Inlands nicht ändern,

3  Internationaler Handel

413

bleiben auch die terms-of-trade konstant. Es kommt in diesem Fall zu keinen internationalen Umverteilungseffekten, was bereits die Wohlfahrtsanalyse verdeutlicht hat. • Wettbewerbseffekt. Die bisherige Analyse ging stets von der Annahme vollkommener Konkurrenz auf beiden Märkte aus. Die früheren Überlegungen (Abschnitt 3.2.1.8) haben jedoch bereits gezeigt, dass Freihandel die Marktmacht von Monopolisten wirkungsvoll begrenzen kann. Im Umkehrschluss bedeutet dies wiederum, dass handelsbeschränkende Maßnahmen – wie in diesem Fall Zölle – Preissetzungsspielräume für marktbeherrschende Unternehmen eröffnen. Im Rahmen einer dynamischen Analyse kann man ferner den Wettbewerbsprozess als eine Abfolge von Innovationen und Imitationen interpretieren. Kreative Pionierunternehmer im schumpeterschen Sinne erlangen im In- oder Ausland temporäre Monopolstellungen, die im Laufe der Zeit durch nachziehende Imitatoren abgebaut werden. Die damit verbundene Erosion der Monopolrenten bedeutet zugleich einen Anreiz, über neue Innovationen den Prozess erneut anzustoßen. Diese automatische Eigendynamik der Innovationen kann allerdings beeinträchtigt werden, wenn handelsbeschränkende Maßnahmen den Wettbewerb mit dem Ausland teilweise oder ganz unterbinden. Handelt es sich beim Inland hingegen nicht um ein kleines Land, sondern stehen sich zwei etwa gleich große Länder gegenüber, dann können sich erhebliche Änderungen bei den Zollwirkungen ergeben. Hiervon ist in erster Linie der Wohlfahrtseffekt betroffen, der im weiteren Verlauf erläutert werden soll. Die neue Annahme drückt sich zunächst darin aus, dass die Exportangebotskurve des Auslands (EA2) in Abbildung 3.25 nicht länger als Horizontale in Höhe des Weltmarktpreises verläuft, sondern nun mit steigenden Preisen zunimmt und umgekehrt. Erhebt das Inland unter diesen Bedingungen wiederum einen spezifischen Zoll in Höhe von T, so verschiebt sich die Exportangebotskurve auf EA2T. Die Größe des Inlands führt in diesem Fall dazu, dass der Preis im Ausland von PFH auf P2T sinkt, während er im Inland von PFH auf P1T steigt. Dies macht deutlich, dass sich die zollbedingte Preissteigerung auf beide Länder verteilt. Das Ausland ist dabei zu Preissenkungen bereit, weil es zumindest einen Teil der sinkenden Nachfrage aus dem Inland zu kompensieren versucht. Damit trägt das Inland aber auch nicht länger allein die preisbedingte Zolllast, sondern diese Last verteilt sich nun auf das Inland und das Ausland. Der Nettowohlfahrtsverlust der Weltwirtschaft ergibt sich in Abbildung 3.25 analog zu den vorherigen Überlegungen als die Dreiecke (6)+(7). Dieser Nettowohlfahrtsverlust verteilt sich nun jedoch wie folgt auf das Inland und das Ausland: Der Bruttowohlfahrtsverlust des Inlands ergibt sich durch den Preisanstieg als das Trapez (3)+(6). Diesem Bruttowohlfahrtsverlust sind jedoch die Zolleinnahmen gegenüberzustellen, die sich aus dem Zollaufschlag auf den neuen Importpreis (P2T) ergeben, multipliziert mit der verbliebenen Importmenge x4x5. Die Zolleinnahmen entsprechen somit den Rechtecken (3)+(5). Diese Zolleinnahmen trägt das Inland über die höheren Preise in Höhe des Rechtecks (3), während das Ausland den verbleibenden Teil, das Rechteck (5), durch die eigenen Preiszugeständnisse übernimmt. Die Entwicklung der Nettowohlfahrt des Inlandes ist damit unbestimmt. Ist die Fläche der Dreiecke (2) und (4) größer als die Fläche (5), dann erleidet das Inland

414

Dieter Smeets

Abb. 3.25  Zollwirkungen (großes Inland)

auch in diesem Fall einen Nettowohlfahrtsverlust. Fallen die zusätzlichen Zolleinnahmen (5) allerdings größer aus als die Wohlfahrtsverluste, die den beiden Dreiecken (2) und (4) entsprechen, dann führt die Zollerhebung zu einem Nettowohlfahrtsgewinn des Inlands. Abbildung 3.25 macht aber auch deutlich, dass dieser mögliche Nettowohlfahrtsgewinn voll zu Lasten des Auslands geht. Dort führt nämlich die Preissenkung zu einer Zunahme der Konsumentenrente, der jedoch eine größere Abnahme der Produzentenrente gegenübersteht. Daraus ergibt sich ein Nettowohlfahrtsverlust des Auslands in Höhe der Flächen (5)+(7) im Weltmarktdiagramm. Die Umverteilung zu Lasten des Auslands und zu Gunsten des Inlands lässt sich auch aus der terms-of-trade Entwicklung ablesen. Bei gegebenem Exportpreis und gesunkenem Importpreis steigen die terms-of-trade und signalisieren damit die verbesserte inländische Verteilungssituation. Die terms-of-trade geben jedoch keinen Aufschluss darüber, ob es im Inland zu einem Nettowohlfahrtsgewinn oder -verlust kommt.

3.3.1.2 Produktionssubventionen In Abbildung 3.26 käme eine allgemeine Produktionssubventionierung mit gleichem Schutzeffekt wie der Zoll T darin zum Ausdruck, dass sich die Angebotskurve (SS1) parallel nach rechts verschiebt, bis sie durch den Punkt D verläuft. Im Gegensatz zur Zollerhebung steigt der Preis im Inland nun allerdings nicht – er entspricht vielmehr weiterhin dem Freihandelspreis PFH. Dadurch kommt in diesem Fall auch kein Verbrauchseffekt zustande. Die Nachfrage entspricht weiterhin der Menge x2 in Abbildung 3.26. Dies hat zur Folge, dass die Importe nur in Höhe der erhöhten Inlandsproduktion (Schutzeffekt

3  Internationaler Handel

415

Abb. 3.26  Exportsubvention (großes Inland)

= x4x1) von x4x2 auf x1x2 sinken und damit die primäre Verbesserung der Handelsbilanz geringer ausfällt. Im Gegensatz zum Zoll tritt nun auch kein Einnahmeeffekt auf, der Staat hat vielmehr einen zusätzlichen Finanzierungsbedarf aufgrund der Subventionierung. Die Höhe der Subventionen kann wiederum aus Abbildung 3.26 abgelesen werden. Damit die inländischen Anbieter die Menge x1 kostendeckend anbieten können, muss bei der herrschenden Kostensituation, die die Angebotskurve SS1 repräsentiert, eine Subvention in Höhe des Rechtecks (1)+(2) gezahlt werden. Dem steht auf der anderen Seite ein Anstieg der Produzentenrente aufgrund der erhöhten Produktion in Höhe von (1) gegenüber. Daraus resultiert ein Nettowohlfahrtsverlust in Höhe des Dreiecks (2). Der Wohlfahrtsverlust fällt in diesem Falle geringer aus als bei der Zollerhebung. Es kommt nämlich „nur” zur internationalen Fehlallokation, ohne dass zugleich die Konsumenten unmittelbar durch höhere Preise belastet werden. Bei den verbleibenden Effekten treten keine Änderungen gegenüber den früher erläuterten Zollwirkungen auf. Dabei werden allerdings diejenigen Wirkungen vernachlässigt, die von der Aufbringung der Subventionen ausgehen.

3.3.1.3 Exportsubventionen Im Unterschied zu allgemeinen Produktionssubventionen, bei denen die Subventionsausgaben von der Produktionsmenge abhängen, fördern Exportsubventionen gezielt die Exporte, deren Höhe dann die Subventionsausgaben bestimmen. Die damit verbundenen Wirkungen für ein großes Land veranschaulicht Abbildung 3.26. Den Ausgangspunkt bildet die Freihandelssituation, in der das Inland zum Freihandelspreis PFH die Menge

416

Dieter Smeets

Abb. 3.27  Kontingentswirkungen (kleines Inland)

x1x2 = 0x6 an das Ausland exportiert. Strebt ein großes Land die Förderung seiner Exporte mit Hilfe von Subventionen an, so erhöht sich der Exportstückerlös und die inländischen Anbieter werden das Exportangebot zu Lasten der Angebotsmenge im heimischen Markt ausweiten (EA1 → EA1S). Dies lässt den Preis im Inland auf P1S steigen, während er im Ausland aufgrund des gestiegenen Angebots auf P2S sinkt – folglich sinken die tot aus der Sicht des Inlands. Um dadurch induzierte Reimporte zu vermeiden, muss man sie entweder von staatlicher Seite verbieten oder mit der Pflicht zur Rückerstattung der Subventionen verbinden. Die exportierte Menge steigt durch die Subvention um x1x4 (Konsumeffekt) und x5x2 (Produktionseffekt), was wiederum der Strecke x3x6 entspricht. Im Inland führt das zu einem Anstieg der Produzentenrente um die Flächen (1)+(2)+(3), bei gleichzeitiger Minderung der Konsumentenrente um (1)+(2). Der Saldoeffekt entspricht dann der Fläche (3)=(7)+(8). Durch den gesunkenen Weltmarktpreis bedarf es Exportsubventionen in Höhe des Rechtecks VWLK, die der Fläche (5)+(6)+(7)+ (8)+(9)+(10) im Weltmarktdiagramm der Abbildung 3.26 entsprechen. Im Ausland steigt hingegen die Konsumentenrente, während die Produzentenrente sinkt, da heimische Produktion durch die (künstlich) begünstigten Importe zurückgedrängt wird. Der positive Saldoeffekt entspricht den Flächen (9)+(10). Daraus ergibt sich zunächst ein Wohlfahrtsverlust für die Weltwirtschaft, der den Dreiecken (5)+(6) entspricht. Hinzu kommt das Rechteck (11), das den noch nicht erfassten Teil der verminderten Produzentenrente im Ausland widerspiegelt. Mit diesem Wohlfahrtsverlust geht eine erhebliche Umverteilung im Inland zugunsten der exportierenden Produzenten und zulasten der Konsumenten einher sowie zwischen dem Inland, das die Subventionen zahlt und dem Ausland, das die Güter entsprechend günstiger erhält.

3  Internationaler Handel

417

Im Falle eines kleinen Inlands sinkt der Weltmarktpreis (PFH) nicht, so dass der Nettowohlfahrtsverlust des Inlands und der Weltwirtschaft den Flächen (2)+ (4)=(5) entspricht. Exportsubventionen können im Extremfall dazu führen, dass Länder Güter exportieren, die sie unter „normalen“ Umständen importieren würden. Ein anschauliches Negativbeispiel dafür ist die Gemeinsame Agrarpolitik der EU.

3.3.1.4 Kontingente und Exportselbstbeschänkungsabkommen Bei den Kontingenten unterscheidet man nach der Bemessungsgrundlage zwischen Mengen- und Wertkontingenten. Bei den Mengenkontingenten – die hier im Folgenden betrachtet werden – wird eine Importmenge fixiert, während beim Wertkontingent der Importwert festgelegt wird. Während beim Mengenkontingent aufgrund der Mengenvorgabe der Marktprozess vollkommen außer Kraft gesetzt wird, bleibt er beim Wertkontingent zumindest teilweise erhalten, da Preis- oder Mengenreaktionen möglich sind. Nach dem Geltungsbereich unterscheidet man zwischen Globalkontingent, das gegenüber allen Ländern gilt, und spezifischem Kontingent. Letzteres gilt nur gegenüber einzelnen Ländern oder Ländergruppen. Um die Herkunft zu belegen, bedarf es dann in aller Regel Ursprungsnachweisen. Versucht man nun mit Hilfe eines Mengenkontingents einen gleich hohen Schutz- und – zur einfacheren Vergleichbarkeit – Handelseffekt im Inland hervorzurufen wie bei der Zollerhebung, so bedarf es einer Quotierung (Q) in Höhe der Menge x6 in Abbildung 3.27. Die Gesamtangebotskurve im Inland (SS1 + Q) verläuft in diesem Fall durch die Punkte D und H. Eine solche Verminderung der Einfuhrmenge lässt den Preis im Inland auf P1T steigen und entspricht damit zunächst der Situation bei Zollerhebung. Die Produktion im Inland steigt auf die Menge x1 an, während sich die Nachfrage auf die Menge x5 vermindert. Es verbleibt ein Import (x1x5) in Höhe der festgesetzten Quote Q (0x6). Unterschiede treten bei diesem handelspolitischen Instrument in erster Linie beim Einnahmeeffekt auf, der Kontingentsrente. Diese Kontingentsrente entspricht vom Umfang her den Zolleinnahmen (Rechteck (3) in beiden Diagrammen). Sie kommt zustande, weil die Quotierung einen „Keil” zwischen den Auslands- (P2A = PFH) und den Inlandspreis (P1T) treibt. Die so geschaffene Gewinnmöglichkeit kann jedoch verschiedenen Gruppen in den beteiligten Volkswirtschaften zufließen: 1. Die Kontingentsrente fließt den inländischen Importeuren zu, die die Güter billig im Ausland einkaufen (P2A = PFH) und sie dann aufgrund der mengenmäßigen Verknappung im Inland teurer weiterverkaufen (P1T). Bei der Verteilung der Quote auf die Importeure stehen dem Staat in diesem Falle folgende typische Verfahren zur Verfügung: –– Einzelantragsverfahren: Importeure beantragen die Zuteilung eines Teils der (ausgeschriebenen) Quote. Nach außen ist dieses Verfahren undurchsichtig und wenig kontrollierbar. Es bestehen Ermessensspielräume bei den Entscheidungsträgern, die zur Korruption führen können.

418

Dieter Smeets

–– ‚Windhund‘-Verfahren: Hierbei wird nach der Methode „wer zuerst kommt, mahlt zuerst” verteilt. Probleme können durch unterschiedliche Informationsstände hervorgerufen werden. Auch hier werden möglicherweise Informationsvorsprünge erkauft. –– Verteilung nach Referenzperiode: Die Quote wird nach früheren Marktanteilen verteilt. Dies führt zu einem Abschließungseffekt des Marktes. Newcomer haben keine Möglichkeit, Anteile an der Quote zu erhalten. –– Repartierung: Jeder Interessent hat die Möglichkeit, sich um einen Teil der Quote zu bewerben, die in diesem Fall anteilmäßig – je nach Zeichnung – zugeteilt wird. Dies führt häufig zur Überzeichnung etwa durch die Gründung von Briefkastenfirmen. Man kann dieser Entwicklung aber – begrenzt – entgegenwirken, indem zum Beispiel zeichnungsabhängige Depotbeträge bis zur Zuteilung bei der Zentralbank zinslos hinterlegt werden müssen. 2. Die Kontingentsrente fließt dem inländischen Staat zu. Dies kann der Staat z.B. dadurch erreichen, indem er das Kontingent versteigert. Die Importeure werden dabei einen maximalen Preis von P1T – PFH bieten. Eine zweite Möglichkeit, die Kontingentsrente abzuschöpfen, hat der Staat, wenn er zusätzlich zum Kontingent einen (redundanten) Zoll in Höhe von T auf das Produkt erhebt. 3. Die Kontingentsrente fällt dem Ausland zu. Mit einer solchen Verteilung ist insbesondere dann zu rechnen, wenn die Quote vom Ausland zu überwachen ist. Eine solche Situation findet man häufig bei Exportselbstbeschränkungsabkommen. Schließen sich die ausländischen Anbieter zu einem Exportkartell zusammen, liegt es nahe, den Exportpreis von PFH auf P1T heraufzusetzen. Fließt die Kontingentsrente den inländischen Importeuren und/oder dem inländischen Staat zu, so ändert sich an der Wohlfahrtsentwicklung im Verhältnis zur Zollerhebung nichts. Es bleibt bei der Umverteilung im Inland zu Lasten der Konsumenten und zu Gunsten der Unternehmen und/oder des Staates. Fließt die Kontingentsrente hingegen ganz oder teilweise dem Ausland zu, so erhöht sich der Netto-Wohlfahrtsverlust des Inlands um diesen Anteil. Bei einem kompletten Abfluss an das Ausland ergäbe sich in Abbildung 3.28 ein Nettowohlfahrtsverlust des Inlands in Höhe der Flächen (3) und (5). Der Nettowohlfahrtsverlust der Weltwirtschaft würde hingegen weiterhin dem Dreieck (5) entsprechen, da das Rechteck (3) lediglich einen Umverteilungsbetrag zwischen dem Inund dem Ausland darstellt.

3.3.1.5 Handelspolitische Instrumente im Vergleich Betrachtet man vor dem Hintergrund der bisherigen (statischen) Analyse die Wohlfahrtsentwicklung alternativer handelspolitischer Instrumente in einem kleinen Inland, so nimmt der Wohlfahrtsverlust in der Reihenfolge der aufgeführten Instrumente zu: 1. Subventionen, 2. Zölle, Kontingente,

3  Internationaler Handel

419

3. Exportselbstbeschränkungsabkommen von Seiten des Auslands. Die Einschätzung der Wohlfahrtsverluste bei Zöllen und Kontingenten ändert sich allerdings, wenn man Datenänderungen berücksichtigt und damit die Analyse quasidynamisiert. Geht man von einer Senkung des Auslands- (Weltmarkt-)Preises aus, so ergeben sich folgende Wirkungen: Ausgehend von der Freihandelssituation (PFH) zeigt Abbildung 3.28, dass ein Zoll in Höhe von T zu einem Nettowohlfahrtsverlust im kleinen Inland in Höhe der Summe der Dreiecke (1) und (3) führt. Sinkt der Weltmarktpreis auf PFH1 und wird auf diesen neuen Preis wieder der Zollsatz T aufgeschlagen, so steigt der Preis im Inland auf PT2 = PFH. Dies führt zu einem Nettowohlfahrtsverlust, den die beiden Dreiecke (4) und (8) widerspiegeln. In der Summe ist der Nettowohlfahrtsverlust in beiden Fällen gleich hoch. Dieses Ergebnis kommt deshalb zustande, weil die Preissenkung im Ausland an das Inland weitergegeben wird. Die Inlandsproduktion sinkt folglich von x3 auf x1 während die Nachfrage von x4 auf x2 steigt. Folglich steigt die Importmenge von x3x4 auf x1x2 und damit auch die Zolleinnahmen. Betrachtet man hingegen die gleiche Entwicklung bei Kontingentierung, so ergibt sich gemäß Abbildung 3.28 zunächst das Gesamtangebot im Inland (x4) aus der heimischen Produktion (x3) und der Importquote (x3x4). Daraus resultiert ein Nettowohlfahrtsverlust im Inland, der den Dreiecken (1) und (3) entspricht. Sinkt nun der Auslandspreis, so geht davon keine Wirkung auf das Inland aus, da das Gesamtangebot (x4) und damit auch der Preis im Inland (PT1) unverändert bleibt. Dies veranschaulicht den „Abschließungseffekt” des (Mengen-) Kontingents, der den Marktmechanismus vollkommen außer Kraft setzt. Hierdurch steigt der Nettowohlfahrtsverlust bei Kontingentierung auf die beiden Dreiecke (1+4+5) und (3+7+8).

Abb. 3.28  Wirkung von Datenänderungen (Sinkender Freihandelspreis)

420

Dieter Smeets

Unter Berücksichtigung dieser quasi-dynamischen Effekte kommt es also zu einer neuen Reihung der handelsbeschränkenden Instrumente nach Maßgabe der Nettowohlfahrtsentwicklung im Inland. In der Reihenfolge zunehmender Nettowohlfahrtsverluste ergibt sich danach: 1. 2. 3. 4.

Subventionen, Zölle, Kontingente, Exportselbstbeschränkungsabkommen.

3.3.1.6 Effektive Protektion Die bisherige Analyse ging stets davon aus, dass nur Endprodukte einem Schutz durch handelspolitische Instrumente unterworfen werden. Berücksichtigt man hingegen, dass sich handelspolitische Beschränkungen auch auf importierte Vorprodukte richten können, so müssen die hiervon ausgehenden zusätzlichen Wirkungen einbezogen werden. Dabei gilt es zunächst einmal, den Einfluss handelsbeschränkender Maßnahmen auf importierte Vorprodukte aufzuzeigen. Die Wirkungen solcher Maßnahmen lassen sich – über die früher bereits erläuterten Preissteigerungen im Inland – als Kostenanstieg bei der Produktion entsprechender Endprodukte interpretieren, die in einer Linksverschiebung der inländischen Angebotskurve (SS1) nach oben zum Ausdruck kommt. Die Verschiebung der Angebotskurve fällt dabei umso größer aus, je stärker die Vorprodukte geschützt sind (TV) und je höher der Anteil (aij) ist, mit dem die Vorprodukte (j) in das Endprodukt (i) eingehen. Diese Überlegungen verdeutlicht Abbildung 3.29 und verbindet sie mit der vorher durchgeführten Wirkungsanalyse handelsbeschränkender Maßnahmen auf Endprodukte. Dabei wird wiederum von der Annahme eines kleinen Inlands ausgegangen. Der Nettoeffekt dieser beiden Wirkungen wird als effektive Protektion bezeichnet. Führt das Inland – ausgehend von einer Freihandelssituation (PFH, x1) – einen (Zoll-) Schutz auf Endprodukte (TE) ein, so steigt, wie zuvor ausführlich erläutert, der Preis im Inland um den Zoll (PFH → PTE) und ruft einen positiven Schutzeffekt in Höhe von x2 – x1 hervor. Wird nun zugleich eine handelspolitische Belastung importierter Vorprodukte vorgenommen, so verschiebt sich die Angebotskurve der inländischen Anbieter nach oben (SS1 → SS1TV). Die Belastung der Vorprodukte allein kommt in Abbildung 3.29 als die Preisdifferenz PTV – PFH zum Ausdruck. Bei gegebenem Schutz auf die Endprodukte verbleibt eine Gesamtwirkung (effektive Protektion), die der Preisdifferenz PTE – PTV entspricht und zu einer Minderung des gesamten Schutzeffektes führt (x1x3 < x1x2). Bleiben die Endprodukte unbelastet (PFH), würde ein Schutz auf importierte Vorprodukte zu einem negativen Schutzeffekt (x1 → x4) führen, was man als negative effektive Protektion bezeichnet. Sie kommt in der negativen Preisdifferenz P1TV – PFH zum Ausdruck. Die effektive Protektion kann man somit auch als das Zusammenspiel von Produktions-„Subventionen” in Form des Schutzes der Endprodukte und Produktions-„Besteuerung” in Form des Schutzes der Vorprodukte interpretieren. Formal lässt sich vor dem Hintergrund dieser Überlegungen das Ausmaß der effektiven Protektion (EP) wie folgt ermitteln:

3  Internationaler Handel

421

Abb. 3.29  Effektive Protektion

(17)

Der effektive Schutz der Branche i ist folglich umso größer, • je höher der Schutz auf die Endprodukte (TE) ausfällt, • je weniger die importierten Vorprodukte geschützt werden (TV) und • je geringer der Anteil (aij) ist, mit dem die geschützten Vorprodukte j in die Produktion der Branche i eingehen. Steigen die Nominalzollsätze auf Endprodukte (relativ) stärker als die Nominalzollsätze auf Vorprodukte, dann steigt zugleich auch die effektive Protektion. Diese in der Vergangenheit zu beobachtende Entwicklung bezeichnet man als Zolleskalation. Hierdurch kommt es zu einem nachhaltigen Schutz der verarbeitenden Industrie, der häufig von Entwicklungsländern beklagt wird.

3.3.2

Protektionismusargumente

Aufgrund der bisherigen Überlegungen ist Freihandel – auf uni- wie auf multilateraler Ebene – protektionistischen Handelspraktiken eindeutig überlegen. Das gilt insbesondere für solche Ansätze, die von konstanten Skalenerträgen sowie vollkommener Konkurrenz

422

Dieter Smeets

ausgehen. Gleichwohl werden immer wieder Argumente gegen Freihandel und damit für Protektionismus vorgebracht, die im Folgenden diskutiert werden sollen. Dabei wird allerdings nur auf ökonomisch begründete Argumente eingegangen, nicht aber auf politischstrategische Argumente, wie z.B. die Gewährleistung einer bestimmten (Mindest-) Versorgung – etwa in der Landwirtschaft.

3.3.2.1

Traditionelle Argumente

Beschäftigungsargument Zu den traditionellen Protektionismusargumenten gehört in erster Linie das Beschäftigungsargument. Die Analyse der Wirkungen handelsbeschränkender Maßnahmen hat gezeigt, dass der Schutzeffekt eine höhere Produktion im Inland gewährleistet bzw. einen Rückgang der Produktion zu unterbinden vermag. Hiermit können zugleich auch positive Beschäftigungseffekte verbunden sein, die den negativen Wohlfahrtseffekten gegenüberstehen. Dieses Argument übersieht allerdings, dass positive Beschäftigungseffekte – so sie denn überhaupt zustande kommen – nur im geschützten Sektor oder den geschützten Sektoren auftreten. In den sonstigen – nicht geschützten – Sektoren können hingegen erhebliche Verdrängungseffekte auftreten, die dort die Beschäftigung senken. Solche Verdrängungseffekte können z.B. durch Vergeltungs- (Retorsions-) Maßnahmen des Auslands ausgelöst werden, die den Export und damit die Beschäftigung in diesen Bereichen mindern. Handelt es sich bei dem geschützten Sektor um einen „gewichtigen” Produktionsbereich, so könnte die kurzfristige Verbesserung der Handelsbilanz c.p. zu einer Aufwertung der heimischen Währung führen. Als Folge könnte es zu einer verschlechterten (Preis-) Wettbewerbsfähigkeit der Exporteure kommen, die wiederum negativ auf die Beschäftigung in diesen Bereichen wirken könnte. Bei festen Wechselkursen hingegen lassen sich im geschützten Bereich vor dem Hintergrund künstlich hochgehaltener Preise möglicherweise höhere Lohnsteigerungen durchsetzen. Werden diese Forderungen in den Exportbereichen aufgegriffen, kommt es dort zu Kostensteigerungen, die ebenfalls negativ auf die Beschäftigung wirken. Ferner kommt in dem Beschäftigungsargument ein deutliches Misstrauen gegenüber den Marktmechanismen zum Ausdruck. Ein Problem bedeutet ein möglicher Beschäftigungsrückgang im – von der Auslandskonkurrenz unter Druck geratenen – Importsektor nämlich nur dann, wenn diese Arbeitnehmer nicht schnell wieder an anderer Stelle beschäftigt werden können. Dies ist aber letztlich eine Frage insbesondere der Flexibilität an den Arbeitsmärkten – und zwar nicht nur hinsichtlich der Löhne sondern auch hinsichtlich der sachlichen und räumlichen Mobilität. Sollte diese Flexibilität nicht in hinreichendem Maße vorhanden sein, so müsste eine first-best Wirtschaftspolitik für bessere Bedingungen an den Arbeitsmärkten sorgen und nicht auf protektionistische Maßnahmen zurückgreifen.

3  Internationaler Handel

423

Zahlungsbilanzschutz Ein weiteres Protektionismusargument bildet der Zahlungsbilanzschutz. Dieses Argument greift in erster Linie bei festen Wechselkursen und man verfolgt damit das Ziel, einen (weiteren) Abfluss an Devisenreserven zu unterbinden. Auch bei diesem Argument bleibt jedoch die Entwicklung in den nicht geschützten Sektoren außer Acht. Gehen die Exporte aufgrund der oben bereits erläuterten Argumente ebenfalls zurück, so ziehen protektionistische Maßnahmen keineswegs zweifelsfrei eine Verbesserung der Leistungsbilanz nach sich. Es ist vielmehr damit zu rechnen, dass neben dem Importwert auch der Exportwert sinkt. Auch in diesem Fall muss aber darüber hinaus bezweifelt werden, dass Protektionismus das first-best Instrument der Wirtschaftspolitik darstellt, um den Bestand der Devisenreserven zu schützen. In aller Regel sind interne Ursachen – wie etwa hohe Inflationsraten oder politische Unsicherheit – ausschlaggebend für den Devisenabfluss, der dann ursachenadäquat etwa durch eine stabilitätsorientierte Geldpolitik oder eine Wechselkursanpassung zu stoppen wäre. Einnahmeinstrument Importzölle waren und sind ferner ein wesentliches Element staatlicher Einnahmepolitik. So machten z.B. Importzölle vor dem 1. Weltkrieg rund 50% der Einnahmen des Deutschen Reiches aus und noch heute finanziert sich die EU zu rund 20% aus Importabgaben. In der EU steht dabei allerdings nicht der Einnahmeeffekt, sondern primär der Schutzeffekt im Vordergrund. Auch in vielen Entwicklungsländern wird auf Importzölle als Einnahmequelle zurückgegriffen, weil kein funktionsfähiges Steuerwesen zur Verfügung steht. Dieses Argument hat – neben anderen – auch dazu beigetragen, dass Entwicklungsländer im Rahmen des GATT von Zollsenkungen befreit wurden. Auch hier muss man jedoch deutlich sehen, dass das Ziel der Einnahmeerzielung durch erhebliche Wohlfahrtsverluste im Inland und in der Weltwirtschaft „erkauft” wird, denn auch hier bilden protektionistische Maßnahmen nicht das first-best wirtschaftspolitische Instrument. Optimalzoll Das Argument der internationalen Umverteilung in Form des Optimalzolls ist bereits an anderer Stelle erläutert worden (siehe Abschnitt 3.3.1.1.). Dabei wurde klar, dass es sich hierbei um eine typische „beggar-my-neighbour”-Politik handelt. Es wird nämlich nicht nur die Weltwohlfahrt gemindert, sondern aus einem kleineren „Kuchen” schneidet sich nun das Inland ein größeres „Stück” heraus und zwar zu Lasten von entsprechenden Einbußen des Auslands. Darüber hinaus ist kaum damit zu rechnen, dass die für eine solche Politik notwendige Nachfragemacht häufig vorliegt.

3.3.2.2 Erziehungszoll Der Erziehungszollgedanke – oder das ‚infant-industry-argument’, wie es im angelsächsischen Sprachraum heißt – gilt seit den Arbeiten von Mill und List als das wichtigste Argument für einen allerdings nur vorübergehenden Außenhandelsschutz. Bisher bildete der

424

Dieter Smeets

Erziehungszollgedanke in erster Linie die Grundlage einer Politik der Importsubstitution als außenhandelspolitische Strategie der wirtschaftlichen Entwicklung. So gestattet auch Artikel XVIII:2 des GATT-Vertrages Entwicklungsländern, „ihre Zolltarife so elastisch zu gestalten, dass sie den für die Errichtung eines bestimmten Wirtschaftszweiges erforderlichen Zollschutz gewähren können…“. Notwendige, nicht aber hinreichende Voraussetzung für die Einführung eines Erziehungszolls sind über einen längerfristigen Zeitraum sinkende Durchschnitts- und Grenzkosten eines industriellen Sektors, deren Folge mit organisatorischen oder technologischen Lernprozessen verbundene Produktivitätssteigerung (betriebsinterne und -externe Lerneffekte) und mit wachsenden Märkten erschlossenen Massenproduktionsvorteile (betriebsinterne und -externe Skaleneffekte) sind. Im Ausland sei dieser Schutz soweit ausgereift, dass das Potential an Lern- und Skaleneffekten vollständig ausgeschöpft und ein minimales Durchschnittskostenniveau DK2 = PFH erreicht ist. Das geringer entwickelte Inland hingegen strebt den Aufbau eines Importsubstitutionssektors an. Die damit verbundenen Effekte veranschaulicht Abb. 3.30. Zum herrschenden Weltmarktpreis des Importguts in Höhe von PFH ist eine inländische Importsubstitutionsbranche nicht konkurrenzfähig, da in der Ausgangsperiode die Durchschnittskosten DK1kurzfr. über den Durchschnittskosten DK2 ausländischer Anbieter liegen. Die gesamte Inlandsnachfrage DD1 wird aus Importen (x1) gedeckt. Eine profitable Inlandsproduktion ist nicht möglich, da PFH = DK2 < DK1. Unter diesen Ausgangsbedingungen kann Protektion eine wirksame Starthilfe bieten, indem während der Ausgangsperiode ein Zoll in Höhe von P1T – PFH auf das Importprodukt gelegt wird. Zum neuen gestiegenen Inlandspreis P1T wird die Inlandsnachfrage nunmehr durch die Inlandsproduktion

Abb. 3.30  Erziehungszoll

3  Internationaler Handel

425

(x2) und die – im Verhältnis zu x4 – gesunkenen Importe (x3 – x2) bedient. Diese Importsubstitution ist zwar mit den bereits analysierten volkswirtschaftlichen Kosten verbunden. Da aber das Niveau der inländischen Kosten im Zeitablauf durch Lerneffekte (Abwärtsverschiebung von DK1, E → F) und Skaleneffekte (Expansion DK1kurzfr., F → G) sinkt, sind die Kosten des Protektionismus ebenso wie der Importzoll selbst eine abnehmende Funktion der Zeit. Sind im zollgeschützten Wachstumssektor hinreichende Kostensenkungen wirksam geworden, bedarf die weitere Entwicklung der heranwachsenden Industrie keiner ‚infant industry protection’ mehr, um die Früchte des temporären Zollsschutzes ernten zu können. Dieser Ertrag kann – wie in Abb. 3.30 unterstellt – nach Ablauf der Schutzzoll-Phase daraus resultieren, dass die inländischen Produktionskosten ein stabiles Niveau unterhalb von DK2 erreichen: Produktive Fertigkeiten und unternehmerische Leistungsfähigkeit sind gereift, technisch-organisatorische Verbesserungsmöglichkeiten ausgeschöpft und weitere Skaleneffekte nicht mehr zu erwarten. Komparative Kostenvorteile sind entstanden, weil sich nach erfolgreicher Übernahme der neuen Produktion der Lohnkostenvorsprung des Inlandes durchgesetzt hat. Führt der Wachstumsprozess somit zu einer inländischen Durchschnittskostenkurve DK1langfr., so wird die Inlandsnachfrage in vollem Umfang x4 aus Inlandsproduktion gedeckt, während der zum Preis P1 verbleibende Angebotsüberschuss x5 – x4 die Auslandsnachfrage DD2 abdeckt und somit Absatz auf Exportmärkten findet. Der temporäre Erziehungszoll erweist sich hier als auslösender Impuls eines Strukturwandels der internationalen Arbeitsteilung gemäß der Produktzyklushypothese (Abschnitt 3.3.3). Er ermöglicht nach Abschluss aller Anpassungsprozesse (in dem hier analysierten Fall), dass • die vor Einführung eines Zolls in der Ausgangssituation importierte Menge x1 nunmehr aus kostengünstigerer Inlandsproduktion bereitgestellt wird, • die gleiche Menge bei Verzicht auf den Erziehungszoll nur zum Preis PFH > P1 hätte importiert werden können, • Exporterlöse von (x5 – x4) P1 entstehen, deren Realwert (gemessen in Importeinheiten) eine Ausweitung der Importmöglichkeiten und somit eine weitere Verbesserung der Versorgungsposition anzeigt. Zölle können also als temporäre Erziehungszölle komparative Kostenunterschiede dauerhaft verändern. Notwendige Bedingung eines wohlfahrtsfördernden Erziehungszolls ist jedoch, dass der abdiskontierte Wert zukünftiger gesellschaftlicher Erträge den Gegenwartswert der zollinduzierten gesellschaftlichen Kosten überschreitet. Dies ist jedoch keine hinreichende Bedingung, um einen Erziehungszoll einzuführen. Anreize zur Investition in neue Produkte oder wachsende Märkte sind auch ohne temporären Zollschutz wirksam, wenn der potentielle Investor sich die aus Lern- und Skaleneffekten resultierenden Erträge privatwirtschaftlich aneignen kann (interne Ersparnisse): Wollen inländische Produzenten in den Markt eintreten, so müssen sie zunächst zu Weltmarktpreisen unterhalb der eigenen Durchschnittskosten verkaufen. Der Gegenwartswert dieser vorübergehenden Verluste

426

Dieter Smeets

entspricht dann den Kosten einer Investition in neue Produkte und neues technisches Wissen (technische Verbesserungen, qualifizierte Arbeitskräfte), die sich privatwirtschaftlich auch ohne Erziehungszoll als rentabel erweisen. Sollte es innovationsbereiten privaten Investoren allerdings nicht oder nur teilweise gelingen, sich den entsprechenden gesellschaftlichen Ertrag anzueignen, so können die Investitionsanreize entscheidend geschwächt werden. Ein typisches Beispiel hierfür ist die Ausbildung eines Stamms qualifizierter Facharbeiter, die später von anderen Unternehmen abgeworben werden können. In diesem Fall kämen die imitierenden Unternehmer in den Genuss der Gewinne aufgrund der neuen Produktion, ohne zugleich auch die Anlaufkosten in Form der Ausbildung tragen zu müssen. Kein Unternehmen wäre unter diesen Bedingungen bereit, in den Markt einzutreten, da es vorteilhafter wäre, anderen Unternehmen die Anlaufkosten zu überlassen und selbst eine ‚free-rider-position’ einzunehmen. Doch auch an diesem eigentlich so typischen Fall kamen Zweifel auf (Johnson, 1970). Auf der Basis des Coase-Theorems argumentiert man nämlich, dass wirtschaftliche Einheiten stets versuchen, externe Effekte so weit wie möglich zu internalisieren. In diesem Fall bedeutet dies, dass die Unternehmer etwa durch Fusion versuchen, brancheninterne Ersparnisse auf sich zu vereinigen. Ein weiteres Argument für einen zeitlich begrenzten Zollschutz stellen Marktunvollkommenheiten dar, denen sich das (die) inländische(n) Unternehmen gegenübersieht (-sehen). Diese Marktunvollkommenheiten beziehen sich in erster Linie auf den privaten Informationsstand sowie auf die Kapitalmärkte. Unvollkommene private Information kommt darin zum Ausdruck, • dass private Unternehmer weniger Wert auf die zukünftigen Gewinne legen als die Gesellschaft, dass sie die Risiken überschätzen oder darin, • dass private Unternehmen zukünftig sinkende Kosten weniger gut voraussehen als staatliche Instanzen. Unvollkommene Kapitalmärkte hingegen führen dazu, dass sich Anfangsverluste gar nicht oder nicht in ausreichendem Maße finanzieren lassen. Gründe hierfür können sein: • Investitionen in Humankapital (Ausbildung) sind schwieriger zu finanzieren als solche in Realkapital, da es möglicherweise an Sicherheiten mangelt. • Der Kapitalmarkt stellt eine nur wenig ausgebaute Form der Kapitalbeschaffung dar. Es dominiert die Selbstfinanzierung, bei der etablierte Unternehmen Vorteile gegenüber kleinen und am Markt neuen Unternehmen besitzen. • Der Zeitraum der notwendigen Lernprozesse kann so lange andauern, dass es sich als unmöglich herausstellt, den somit verbundenen hohen und langfristigen Kapitalbedarf zu decken.

3  Internationaler Handel

427

Doch auch in all den zuvor erläuterten Fällen unvollkommener privater Information und unvollkommener Kapitalmärkte hat es sich – soweit diese Argumente überhaupt stichhaltig sind – als vorteilhaft herausgestellt, den Schutz der inländischen Industrie mit Hilfe von Subventionen statt durch Zölle zu gewährleisten (Corden, 1974).

3.3.2.3 Fair trade Unter diesem Stichwort werden protektionistische Vergeltungsmaßnahmen für (angeblich) unfaire Handelspraktiken des Auslands gefordert. Die Forderung, preisgünstige Importe zu unterbinden, macht zunächst noch einmal den Interessenkonflikt im Inland deutlich. Während die Produzenten unter den Druck der Auslandskonkurrenz geraten und möglicherweise vom Markt ausscheiden müssen, profitieren die Nachfrager von den preisgünstigen Importen. Ferner kann man beobachten, dass die Forderungen nach fairem oder ausgewogenem Handel folgende Charakteristika aufweisen: • Der internationale Handel wird nicht mehr in seiner Gesamtheit (multilateral), sondern bilateral oder sogar sektoral betrachtet. • Es handelt sich um eine “aggressive” Strategie, die ausländische Konkurrenz gezielt fernhalten soll. Eine solche aggressive Strategie ist äußerst bedenklich, weil sich zeigen lässt, dass handelspolitische Vergeltungsstrategien langfristig den internationalen Handel nahezu zum Erliegen bringen, wenn man diesen handelspolitischen Streit mit mengenmäßigen Beschränkungen austrägt. Typische Anwendungsbeispiele in diesem Zusammenhang sind Anti-Dumping- und Subventionsausgleichs-Maßnahmen. Unter Dumping versteht man den Export einer Ware aus einem Land auf den Markt eines anderen Landes zu einem Preis unter ihrem „normalen“ („fairen“) Wert. Beim hier zu erläuternden Preisdumping ist dieser Tatbestand dann erfüllt, wenn der im Inland geforderte Preis einer gleichartigen Ware höher ist als der im Ausfuhrland geforderte Preis. Um eine solche Preisdifferenzierung vornehmen zu können, bedarf es zweier Voraussetzungen: • Das Unternehmen muss in der Lage sein, eine aktive Preispolitik zu verfolgen – der Preis bildet also einen Aktionsparameter. Die Branche muss daher durch unvollständigen Wettbewerb gekennzeichnet sein. • Die Möglichkeit der Arbitrage wird durch natürliche Gegebenheiten (Translokationskosten), staatliche Maßnahmen (handelsbeschränkende Einfuhrmaßnahmen) oder eigene Handlungen des exportierenden Unternehmens (Ausschließlichkeitsverträge) unterbunden. Dabei ist zu beachten, dass eine bestimmte Marktstruktur möglicherweise durch Tatbestände, die den Reimport verhindern, überhaupt erst gewährleistet wird.

428

Dieter Smeets

Abb. 3.31  Dumping

Vor diesem Hintergrund zeigt der linke Teil der Abbildung 3.31 das Verhalten eines inländischen marktmächtigen Unternehmens, das ohne Außenhandel die gewinnoptimale Angebotsmenge x1 zum Preis P1M im Inland anbieten würde (Cournotpreisbildung). Kann das Unternehmen bei freiem internationalen Handel und segmentierten In- und Auslandsmärkten jede beliebige Menge des Gutes zum Preis P2 ins Ausland verkaufen, so wird es eine gewinnmaximierende Preisdifferenzierung betreiben. Insgesamt wird es dabei die Menge x3 produzieren. Davon wird die Menge x2 zum Preis P1 im Inland und die Menge x3 – x2 zum Preis P2 im Ausland angeboten. Handelt es sich beim Ausland um ein kleines Land, so wird die inländische Nachfragekurve (DD1) bei segmentierten Märkten unbeeinflusst bleiben und bei einheitlicher (Monopol-) Preisbildung zu keinem Außenhandel (SS2 = DD2 → x4) führen, was der rechte Teil von Abbildung 3.31 zeigt. Durch die Preisdifferenzierung kommt es jedoch zu Importen des Auslandes (x6 – x5) und es werden die bekannten Anpassungserfordernisse im Produktionsbereich ausgelöst. Ein Teil der unter (Dumping-)Konkurrenz geratenen Produzenten wird vom Markt ausscheiden müssen. Die Vorteile einer solchen Strategie kommen wiederum den Konsumenten im Ausland zugute, denen eine größere Menge (x6) zu einem niedrigeren Preis (P2) zur Verfügung steht. Im Extremfall erwartet man, dass das dumpende Inlandsunternehmen seinen im Ausland geforderten Preis auf P2U senkt, um so alle ausländischen Produzenten vom Markt zu verdrängen und auch dort eine Monopolposition zu erringen, die dann eine Preisanhebung – zu Lasten der ausländischen Konsumenten – auf den Cournot-Preis ermöglicht. Dies ist der Fall des sogenannten „räuberischen“ Dumpings (predatory pricing).

3  Internationaler Handel

429

Die Einschätzung des Dumpings als unfaire Maßnahme resultiert primär aus der Vorstellung des zuvor erläuterten „räuberischen“ Dumpings, das jedoch bisher in keinem Fall empirisch nachgewiesen werden konnte. Abgesehen davon, dass bei freien Märkten die im Monopolfall entstehenden Extragewinne wieder heimische Anbieter in den Markt locken müssten, ist Dumping in der Regel Ausdruck unternehmerischen Gewinnstrebens, das nicht als unfair eingestuft werden kann. Hierzu gehören insbesondere: Gewinnmaximierung durch räumliche Preisdifferenzierung, zeitlich befristete Einführungspreise, „Investitionen“ in Marktanteile und damit verbundene economies of scale oder Lernkurveneffekte. Die Wirkungen von Exportsubventionen wurden bereits in Abschnitt 3.3.1.3. analysiert. Begegnet man solchen künstlich verbilligten Exporten mit entsprechenden Ausgleichszöllen, so verschiebt sich die IN2-Kurve im rechten Teil von Abbildung 3.31 nach links unten und der alte Handelszustand mit Blick auf Menge (x6) und Preis (PFH) wird wiederhergestellt. Was bleibt, sind entsprechende Transferzahlungen vom Inland (Subvention) an das Ausland (Zolleinnahmen).

3.3.2.4 Strategische Handelspolitik Aus einer Vielzahl von neueren Protektionismusargumenten, die auf der Basis unvollkommener Märkte abgeleitet werden, sei an dieser Stelle stellvertretend das so genannte „rentshifting” erläutert. Hierbei geht es darum, durch handelspolitische Instrumente – in erster Linie Subventionen – Marktanteile und damit Monopolrenten vom Ausland auf das Inland zu verlagern oder den Markteintritt heimischer Firmen zu fördern. Gelingt es, durch eine solche Politik Monopolrenten einer ausländischen Unternehmung zugunsten einer inländischen Unternehmung umzuleiten, wird dies als Wohlfahrtsverbesserung für das protektionistische Inland interpretiert, wenn die Gewinn- und Wertschöpfungssteigerungen im Inland den Subventionsaufwand oder die Protektionskosten übersteigen (Brander, Spencer, 1985; Siebert, 1988). Im Vordergrund stehen dabei industriepolitische Überlegungen: So sind es häufig hochentwickelte Industrieländer, die die internationale Wettbewerbsposition exportorientierter heimischer Industriezweige – insbesondere im Hochtechnologiebereich – zu fördern trachten (z. B. Luft- und Raumfahrt, Mikroelektronik). Der Nachweis wohlfahrtssteigernder Wirkungen strategischer Handelspolitik wurde erstmals mit Hilfe eines internationalen Mengendyopols erbracht (Brander, Spencer, 1985). Analog zum Modell eines nationalen Mengendyopols wird angenommen, dass eine inländische (1) und eine ausländische Unternehmung (2) ihre jeweilige Gesamtproduktion eines homogenen Gutes in einen Drittmarkt exportieren, auf dem sie die einzigen Anbieter sind. Beide Unternehmen planen die gewinnmaximale Absatzmenge bei gegebener erwarteter Absatzmenge des Konkurrenten. Den Ausgangspunkt der Überlegungen bildet – wie Abbildung 3.31 zeigt – die Gleichgewichtssituation (D) in einem Cournot-Oligopol, bei dem sich ein Monopolist des Inlands und des Auslands gegenüberstehen. In diesem Punkt besteht ein Cournot-NashGleichgewicht, weil nur hier die gewinnmaximale Angebotsmenge jedes Anbieters die Erwartungen des Konkurrenten über sein Angebotsverhalten tatsächlich bestätigt und somit kein Anreiz besteht, von diesem Punkt abzuweichen. Unter der Annahme gleicher

430

Dieter Smeets

(Nachfrage- und Kosten-) Bedingungen in beiden Ländern bei Autarkie teilen sich beide Anbieter den (Drittlands-) Markt (x11 = x21). Erhält nun der inländische Monopolist eine Subvention, so lässt sich dies als eine Kostenminderung interpretieren, die die Reaktionsfunktion dieses Anbieters nach rechts verschiebt (R1 → R1S). Durch diese künstliche Verbesserung der Kostensituation kann der inländische Monopolist einen größeren Marktanteil auf sich ziehen (x11 → x14) und damit seine Monopolrente anheben. Dies geschieht jedoch – wie Abbildung 3.32 ebenfalls veranschaulicht – auf Kosten des ausländischen Monopolisten, der Marktanteile und Monopolrenten verliert. Das hier dargestellte Brander-Spencer-Modell demonstriert, dass Marktunvollkommenheiten Anreize zu strategischer Handelspolitik schaffen. Die wohlfahrtssteigernde Wirkung einer strategischen Subventionierung beruht auf der Umlenkung von Monopolrenten. Diese werden erzielt, solange der Marktpreis über den Grenz- und Durchschnittskosten liegt. Sie können nur bestehen bleiben, wenn Marktzutrittshemmnisse verhindern, dass neue Anbieter durch die überhöhten Gewinne angelockt werden. Bei freiem Marktzugang würde die Konkurrenz neuer Anbieter den Marktpreis senken und die Monopolgewinne wegschmelzen, so dass die Voraussetzungen für die im Brander-Spencer-Ansatz nachgewiesenen Wohlfahrtseffekte nicht mehr erfüllt sind. Die optimale Subventionshöhe ist erreicht, wenn die Reaktionskurve der inländischen Firma so weit nach rechts verschoben wird, dass jener Gleichgewichtspunkt auf der Reaktionskurve des ausländischen Konkurrenten erreicht wird, dem die gewinnmaximale Produktions- und Exportmenge des inländischen Dyopolisten zugeordnet ist. Diese Stackelberg-Unabhängigkeitsposition kann ohne Subventionierung von keiner der beiden Firmen erobert werden, wenn beide danach streben und somit einander die

Abb. 3.32  Strategische Handelpolitik

3  Internationaler Handel

431

Stackelberg-Führungsposition verweigern. Inländische Subventionierungspolitik kann dagegen die inländische Firma in die Stackelberg-Unabhängigkeitsposition schieben, wenn die ausländische Regierung nicht das gleiche Ziel verfolgt. Die Theorie strategischer Handelspolitik rückt die Auswirkungen protektionistischer Maßnahmen auf internationalen Oligopolmärkten ins Blickfeld und vermittelt dabei neue Erkenntnisse. Eine Basis für ein neues Protektionismusargument, das an die Stelle des Erziehungszollargumentes treten könnte, bietet sie nicht. Eine sinnvolle Begründung für strategische Handelspolitik könnte es nämlich nur geben, wenn • Markteintrittshemmnisse inländische Monopolrenten schützen, • von der geförderten inländischen Industrie positive externe Effekte ausgehen und • strategische Reaktionen der ausländischen Handelspolitik unterbleiben. Die unzureichende Erfüllung dieser Voraussetzungen stellt die Handelspolitik vor kaum lösbare Probleme. So scheitert die Selektion erfolgversprechender Industrien an mangelnden Informationen der Entscheidungsträger über externe Effekte, Marktstruktur und Marktverhalten der Unternehmen und Auswirkungen der Instrumente auf andere Sektoren. Auch ist mit protektionistischen Aktionen oder Reaktionen des Auslandes zu rechnen. Ein solcher strategischer Handelskrieg der Regierungen wird aber in der Regel beiden Ländern Wohlfahrtsverluste einbringen. Betreibt auch die ausländische Regierung eine Subventionspolitik, die auf die Eroberung der Stackelberg-Position gerichtet ist, so führt die Bowley-Dyopolposition zum Gleichgewichtspunkt C, in dem in beiden Ländern die Subventionsausgaben die induzierten Gewinnverlagerungen übersteigen. Eine umfangreiche Diskussion in der Literatur hat jedoch ergeben, dass die Argumente der strategischen Handelspolitik nur dann zutreffen, wenn das Ausland keine Vergeltungsmaßnahmen ergreift, wenn die hier zugrunde gelegten Reaktionshypothesen zutreffen und wenn Monopolrenten durch Markteintrittsbarrieren vor Konkurrenz dauerhaft geschützt werden. In anderen Modellen bedarf es eingehender Informationen hinsichtlich der Kostenstrukturen und der Kostenentwicklung bei den in- und ausländischen Anbietern. Da all diese Bedingungen in der Praxis kaum erfüllt sein werden, liefern die Modelle der strategischen Handelspolitik auch keine tragfähigen Argumente für Protektionismus. Darüber hinaus ist zu bedenken, dass es sich in der Regel bei all diesen Argumenten um eine „beggar-my-neighbour”-Politik handelt, die eigene Vorteile zu Lasten des Auslands verspricht. Abschließend soll erläutert werden, dass ein solches „rent-shifting” mit großer Wahrscheinlichkeit zu den oben angesprochenen Vergeltungsmaßnahmen bzw. einem Subventionswettlauf führen wird. Abbildung 3.33 zeigt eine – aus einem entsprechenden Oligopolmodell mit symmetrischen Ländern ableitbare – Auszahlungs-(pay-off) Matrix, die die Renten-(Gewinn-)Änderungen im In- und Ausland bei alternativen Verhaltensmaßnahmen beinhaltet. Verzichten beide Länder auf Subventionierung, so kommt es zu keinem „rent-shifting” und die Gewinnsituation in beiden Ländern bleibt unverändert. Subventioniert das Inland, ohne dass das Ausland mit Subventionen antwortet, so kann das Inland

432

Dieter Smeets

Abb. 3.33  Rent Shifting

einen zusätzlichen Gewinn von 50 Einheiten auf sich ziehen, während das Ausland eine Gewinneinbuße von 175 Einheiten erleidet. Entschließt sich das Ausland zu subventionieren, ohne dass das Inland zu Vergeltungsmaßnahmen greift, tritt das umgekehrte Ergebnis ein. Kommt es hingegen zum Subventionswettlauf, unterstützen also beide Länder ihre Anbieter nach dem Motto „wie du mir, so ich dir”, dann erleiden beide Länder einen Verlust in Höhe von 48 Einheiten. Betrachtet man die jeweiligen Ergebnisse, so wird deutlich, dass es für beide Länder rational ist, in jedem Fall zu subventionieren. Unabhängig davon, wie das andere Land reagiert, fällt das Ergebnis dann am günstigsten aus, wenn man selbst auch subventioniert. Dieser Ausgang entspricht dem Gefangenen-Dilemma, also einem Spiel, bei dem die Beteiligten sich nicht absprechen können und ein rationales, am Eigennutz orientiertes Verhalten der Beteiligten zu einem gesamtwirtschaftlich suboptimalen Ergebnis führt. Um diesen Ausgang der Protektionsspirale zu vermeiden, ist es notwendig, dass man verbindliche Absprachen vornimmt. Einigen sich beide Länder darauf, nicht zu subventionieren, so stellen sich beide besser als vorher (0 > -48). Dies verdeutlicht die Bedeutung verbindlicher Rahmendaten für den internationalen Handel, die im nächsten Kapitel erläutert werden.

3.3.3

Politische Ökonomie des Protektionismus

Die Bestandsaufnahme protektionistischer Maßnahmen hat ergeben, dass der internationale Warenhandel immer noch weit vom theoretischen Ideal des Freihandels entfernt ist. Die Ursachen für diese Entwicklung sollen im Folgenden mit Hilfe polit-ökonomischer Überlegungen analysiert werden, die Abbildung 3.34 (siehe ähnlich Rodrik, 1995) veranschaulicht. In diesem allgemeinen Rahmen bilden die privaten Wirtschaftssubjekte die Nachfrageseite nach protektionistischen Maßnahmen, denen auf der Angebotsseite die (wirtschafts-) politischen Instanzen gegenüberstehen. Den Ausgangspunkt der Nachfrageseite

3  Internationaler Handel

433

Abb. 3.34  Protektionismusinteressen

bilden dabei die individuellen Präferenzen, die sich aus den Wirkungen des Freihandels bzw. der Protektion für die Wirtschaftssubjekte als Bezieher von Einkommen und als Konsumenten ergeben. In einem weiteren Schritt ist zu klären, wie die individuellen Präferenzen durch Interessengruppen oder politische Parteien zu einer politischen Nachfrage nach bestimmten handelspolitischen Maßnahmen aggregiert und kanalisiert werden. Auf der Angebotsseite beginnt die Analyse – spiegelbildlich – mit den Präferenzen der Politiker. Streben sie nach Wiederwahl, wollen sie nahestehende Gruppen begünstigen oder gar die nationale oder internationale Wohlfahrt maximieren? In welcher Form sich diese Interessen durchsetzen lassen, hängt aber wiederum eng mit den nationalen und internationalen Rahmenbedingungen zusammen. Hierzu zählen auf der einen Seite zum Beispiel die nationalen Entscheidungsbefugnisse und auf der anderen Seite internationale Abkommen wie zum Beispiel die Vorschriften der WTO (World Trade Organisation). Vor dem Hintergrund dieses allgemeinen polit-ökonomischen Rahmens lassen sich zwei Fälle unterscheiden: • Die protektionistischen Maßnahmen sind Ausdruck eines primär staatlichen Schutzbegehrens. In diesem Falle versucht der Staat, mit Hilfe handelsbeschränkender Maßnahmen seine wirtschaftspolitischen Interessen durchzusetzen. In dem hier vorgegebenen Rahmen zählen dazu in erster Linie die TRIMS (Trade related investment measures) sowie der Entwicklungsprotektionismus. Das Angebot an und die Nachfrage

434

Dieter Smeets

nach Protektionismus gehen primär vom Staat aus, so dass sich die Überlegungen in Abbildung 3.34 auf die Angebotsseite reduzieren. Individuelle Präferenzen sowie die Koordination der privaten Interessen spielen in diesem Fall eine untergeordnete Rolle. • Die protektionistischen Maßnahmen sind Ausdruck eines primär privaten Schutzbegehrens. In diesem Fall sind es die einzelwirtschaftlichen Interessen (individuelle Präferenzen), die den Ausgangspunkt der Überlegungen bilden. Dabei ist zunächst jedoch unklar, welche Interessen sich im politischen Prozess durchsetzen werden. Kommt es zu einer Nachfrage nach Protektionismus, so steht ihr möglicherweise ein Angebot an Protektionismus von Seiten der Politiker entgegen. Geht man vor dem Hintergrund der zuvor angestellten Wohlfahrts- und Verteilungswirkungen des Freihandels davon aus, dass die Wirtschaftssubjekte ihre eigenen Ziele (materielle Wohlfahrt) verwirklichen wollen, dann lassen diese Modellüberlegungen entsprechende Rückschlüsse auf die individuelle Nachfrage nach Protektionismus zu. In einer 23 Länder umfassenden Querschnittsanalyse haben Mayda und Rodrick (2001) empirische Evidenz sowohl für die Schlussfolgerungen aus dem Stolper-Samuelson-Modell als auch aus einem Modell mit spezifischen Faktoren gefunden. Im Einzelnen ergaben sich folgende Befragungsergebnisse: • Wirtschaftssubjekte mit hochwertigem Humankapital (gemessen am Ausbildungsstand) sind gegen Protektionismus. Allerdings nur in denjenigen Ländern, die reichlich mit Humankapital ausgestattet sind. In denjenigen Ländern, in denen Humankapital knapp ist, haben sie sich gegen Freihandel ausgesprochen. Dieses Ergebnis bewerten Mayda und Rodrik als Beleg für das Stolper-Samuelson-Theorem, da sich die Einstellung der Befragten an der Faktorausstattung orientiert (vgl. zu ähnlichen Ergebnissen für die USA auch Coughlin, 2002). Eventuell spiegelt sich in diesem Ergebnis aber auch ein politisches Interesse für Protektionismus in Entwicklungsländern wider. • Arbeitnehmer in importkonkurrierenden Sektoren sprechen sich eindeutig und nachdrücklich für protektionistische Maßnahmen aus. • Wirtschaftssubjekte mit einem Einkommen, das über dem Landesdurchschnitt liegt, sind für Freihandel. Wirtschaftssubjekte mit einem Einkommen unter dem Landesdurchschnitt präferieren hingegen Protektion. Dieses Ergebnis spricht dafür, dass der Bildungsstand einen signifikanten Einfluss auf die Einstellung zum Protektionismus hat, weil die Vorteile des Freihandels besser eingeschätzt werden können (Coughlin, 2002). • Wirtschaftssubjekte, die sich als mobil bezeichneten, sind für Freihandel. Solche, die sich als immobil bezeichneten, sind für Protektionismus. • Wirtschaftssubjekte, die für Protektionismus sind, haben enge Bindungen an ihre Nachbarschaft und Umgebung (räumliche Immobilität), ein hohes Maß an Nationalstolz und glauben, dass nationale Interessen bei kontroversen Entscheidungen Vorrang haben sollten.

3  Internationaler Handel

435

• Darüber hinaus haben andere Studien ergeben (Coughlin, 2002), dass sich ein großer Teil der amerikanischen Bevölkerung gegen Freihandel und für Mindeststandards beim Umweltschutz und den Arbeitsbedingungen ausspricht. Diese Einstellung deutet jedoch nicht zwangsläufig auf ein altruistisches Verhalten hin. Vielmehr sind hinter dieser Einschätzung persönliche Interessen zu vermuten. Höhere Standards im Ausland bedeuten nämlich höhere Kosten und damit Abschwächung der Auslandskonkurrenz in den entsprechenden Sektoren. Letztlich wirken solche Standards wie protektionistische Maßnahmen. All dies erklärt aber noch nicht, warum sich die protektionistischen Interessen häufig auch im politischen Prozess durchsetzen. Grund hierfür kann zum einen sein, dass sich bestimmte Interessen nicht organisieren (lassen). Zum anderen kann eine gezielte Informationspolitik dazu führen, dass sich Interessengruppen Gehör verschaffen. Die erste Begründung wird primär im Zusammenhang mit den Konsumenten und Exporteuren vorgebracht. Die Konsumenten haben möglicherweise gar kein Interesse, sich gegen protektionistische Maßnahmen zu organisieren, weil einzelne Wirtschaftssubjekte durch protektionsbedingte Preissteigerungen in geschützten Güterbereichen nur marginal betroffen werden. Doch selbst wenn die „Grenze der Fühlbarkeit“ überschritten würde, ließen sich die Freihandelsinteressen wohl kaum effektiv bündeln, da es sich bei den Konsumenten um eine große anonyme Gruppe handelt, die zudem mit einem erheblichen Free-rider-Problem zu kämpfen hat. Während die Vorteile für den geschützten Bereich klar zutage treten, wird der Exportsektor eher indirekt beeinflusst – es sei denn, es kommt zu gezielten Vergeltungsmaßnahmen. Aus diesem Grunde könnte auch das Interesse der Exporteure, sich gegen Protektionismus zu organisieren, begrenzt sein. Hinzu kommt, dass ihnen die Möglichkeit zur Verfügung steht, ihre Produktionsstätten ins Ausland zu verlegen. Darüber hinaus stehen in der Regel die privaten Kosten des Freihandels im Mittelpunkt der öffentlichen Diskussion, da sie – etwa in Form geschlossener Unternehmen und arbeitsloser Arbeitnehmer – einfacher zu vermitteln sind als die Vorteile des Freihandels (Cass, 2000). Krüger (1990) spricht in diesem Zusammenhang von einem „identity bias“. Ferner werden dem Freihandel von Interessengruppen immer höhere Kosten in Form von Umweltbelastungen und Arbeitsschutzverletzungen angelastet. Man denke in diesem Zusammenhang nur an die Nichtregierungsorganisationen (NGO), die z. B. bei der WTO-Ministerkonferenz in Seattle lautstark und zum Teil gewaltsam auf sich aufmerksam gemacht haben. Als Reaktion auf diese Vorfälle wurden 647 dieser – äußerst heterogenen – Organisationen offiziell in Doha zugelassen. Der zunehmende Einfluß solcher Interessengruppen auf die multilaterale Handelsdiplomatie wird jedoch zu einer immer stärkeren Politisierung der Entscheidungsprozesse führen. Insgesamt sprechen diese Überlegungen dafür, dass die Kosten des Protektionismus eher unter- und die Kosten des Freihandels eher überbewertet werden und daraus ein „protection-bias“ resultiert (Coughlin, 2002).

436

3.4

Dieter Smeets

Internationale Handelsordnung

Nahezu alle Ökonomen sind sich einig, dass internationaler Freihandel zu einer effizienten Ressourcenallokation führt und die Wohlfahrt der beteiligten Länder optimiert (Mayda/ Rodrik, 2001). Die Vorteile des internationalen Handels lassen sich dabei insbesondere zurückführen auf: • • • • • •

Spezialisierungs- und Tauschgewinne gemäß komparativer Kostenvorteile, Skalenvorteile aufgrund größerer Märkte, zunehmende Produktvielfalt und bessere Befriedigung der Nachfragepräferenzen, Ideenaustausch durch Kommunikation und Wanderung, Technologietransfer durch Investitionen und Güteraustausch sowie erhöhte Innovationsanreize.

An dieser grundsätzlichen Einschätzung haben auch die Modelle der strategischen Handelspolitik nichts geändert. Krugman (1987) begründet allerdings das Freihandelsprinzip nicht mehr mit der Markteffizienz sondern damit, dass die Wirtschaftspolitik – insbesondere aufgrund von Informationsmängeln – genau so unvollkommen ist wie die Märkte, in die sie eingreifen will. Da man die Wirkungen folglich nicht hinreichend abzuschätzen vermag, bildet das Freihandelsprinzip auch für ihn als „rule of thumb“ immer noch das überlegene Konzept der Handelspolitik. Diese theoretischen Erkenntnisse werden ferner durch zahlreiche empirische Studien eindrucksvoll gestützt.

3.4.1

Organisatorischer und rechtlicher Rahmen

Im Mittelpunkt des Welthandelssystems steht die World Trade Organisation (WTO), deren Aufbau und Ziele Abbildung 3.35 veranschaulicht. Die WTO umfasste zu Beginn des Jahres 2017 164 Mitglieder (WTO, Members and Observers), was einem Anteil am Welthandel von etwa 95 Prozent entspricht. Die WTO wurde im Jahre 1994 als Ergebnis der Uruguay-Runde gegründet, basiert aber auf dem bereits im Jahre 1947 gegründeten Allgemeinen Zoll- und Handelsabkommen (GATT). Das GATT bildet auch weiterhin einen wichtigen Pfeiler in der WTO, das nun allerdings um das Abkommen über Dienstleistungen (GATS) und das Abkommen über den Schutz von geistigen Eigentumsrechten (TRIPS) erweitert wurde. Darüber hinaus wurde im Rahmen des GATT noch ein Abkommen über handelsrelevante Auslandsinvestitionen (TRIMS) geschlossen. Die WTO vereinigt unter einem Dach die zuvor erläuterten multilateralen Abkommen, die für alle Mitgliedsländer verbindlich sind, sowie einige plurilaterale Abkommen, die jeweils nur für die Unterzeichnerstaaten verbindlich sind.

3  Internationaler Handel

437

Auf der administrativ organisatorischen Ebene wird die WTO von folgenden Gremien verwaltet: • Ministerkonferenz: Alle 2 Jahre tagen die Vertreter der Mitgliedstaaten im Rahmen dieses Gremiums. • Allgemeiner Rat: Er setzt sich aus den Delegierten der einzelnen Mitgliedstaaten zusammen. Der allgemeine Rat tagt monatlich und bewältigt die anfallenden Arbeiten zwischen den regulären Ministerkonferenzen. Aufgrund seiner Entscheidungsbefugnis ist er das wichtigste Organ der WTO. • Generaldirektor: Er ist Vorsitzender des Sekretariats und führt die Beschlüsse der Ministerkonferenz und des Allgemeinen Rats aus. Seine Wahl erfolgt durch den Ministerrat. • Sekretariat: Ihm obliegt die Vorbereitung und Durchführung von Verhandlungen der WTO–Mitgliedstaaten und von Beratungen der Handelspartner, die Analyse und Darstellung der Welthandelsentwicklung sowie die Organisation von Schiedsgerichtsverfahren bei Streitigkeiten. • Räte: Sie haben für die Umsetzung der einzelnen Verträge zu sorgen. Grundsätze Die allgemeinen Ziele der WTO ergeben sich aus der Präambel: “Die Parteien dieses Abkommens [kommen überein], dass ihre Handels- und Wirtschaftsbeziehungen auf die Erhöhung des Lebensstandards, auf die Verwirklichung der Vollbeschäftigung, auf ein hohes und ständig steigendes Niveau des Realeinkommens und der wirksamen Nachfrage sowie auf die Steigerung der Produktion und des Handels mit Waren und Dienstleistungen gerichtet sein sollen, ...”

Diese allgemeinen Ziele versucht man mit Hilfe der folgenden Grundsätze zu realisieren: • Meistbegünstigung (Art. I): Die Verpflichtung zur Meistbegünstigung besagt, dass ein handelspolitisches Zugeständnis, das einem anderen Land eingeräumt wird, automatisch auch allen (anderen) WTO-Mitgliedern eingeräumt werden muss. Die in der WTO verankerte unbedingte Meistbegünstigung besagt zudem, dass diese Zugeständnisse grundsätzlich ohne Gegenleistungen weitergegeben werden müssen. Die Meistbegünstigung soll einen Schutz für kleine Länder bieten, die nicht über die nötige Verhandlungsmacht verfügen, um entsprechende Zugeständnisse zu erkämpfen. Der Meistbegünstigungsgrundsatz überführt die Macht der größeren Staaten in ein sich gegenseitig ausgleichendes System, das die Rahmenbedingungen für den internationalen Handel stabilisiert. Es erleichtert ferner neuen Wettbewerbern, Zugang zu den internationalen Märkten zu finden. Auf der anderen Seite stellt die Meistbegünstigung aber auch eine gewisse Sicherheit für die Exporteure dar, dass einmal erlangte Vorteile nicht durch später geschlossene bilaterale Abkommen zwischen dem

438

Abb. 3.35  Aufbau der WTO

Dieter Smeets

3  Internationaler Handel

439

Importland und Drittländern künstlich zu ihren Ungunsten unterlaufen werden. Dies schließt allerdings nicht aus, dass Exportanteile aufgrund verminderter internationaler Wettbewerbsfähigkeit verloren gehen. • Nichtdiskriminierung: Während die Meistbegünstigung die Nichtdiskriminierung verschiedener Handelspartner (Ausländer) auf der horizontalen Ebene vorschreibt, bezieht sich die Gleichbehandlung von In- und Ausländern auf das vertikale Handelsverhältnis. Dieses auch als „national-treatment” bezeichnete Vorgehen ist allerdings zu unterscheiden vom Ursprungslandprinzip der EU. Während beim Ursprungslandprinzip jeweils nur die z.B. rechtlichen Rahmenbedingungen relevant sind, wird man beim „national-treatment” zwar den Anbietern im Importland gleichgestellt, muss sich jedoch auf die dort herrschenden Bedingungen einstellen, was zusätzliche Kosten bedeuten kann. • Reziprozität: Reziprozität besagt, dass im Rahmen der Zollrunden Handelszugeständnisse durch entsprechende Gegenleistungen “entgolten” werden sollen. Diese Vorschrift transformiert die unbedingte Meistbegünstigung in eine bedingte, da nun Gegenleistungen für Handelszugeständnisse gefordert werden. Begründet wird die Reziprozität durch ökonomische Ausgewogenheit in der internationalen Verteilung (terms-of-trade) und der Handelsbilanzentwicklung. Darüber hinaus dient sie aber auch der politischen Rechtfertigung. Denn nationale Regierungen agieren gewöhnlich nicht im luftleeren Raum ökonomischer Theorien, denen zufolge sie die Effizienz und die inländische Wohlfahrt maximieren. Vielmehr unterliegen sie in erheblichem Umfang dem Einfluss von Interessenvertretern, den so genannten „pressure-groups”. Ein Abbau nationaler Handelsschranken lässt sich unter diesen Bedingungen nur dann rechtfertigen, wenn dem dadurch steigenden Auslandsdruck im Bereich der Importsubstitute entsprechende Gewinnaussichten im Exportbereich durch die Zugeständnisse des Auslands gegenüberstehen. • Abbau handelsbeschränkender Maßnahmen (Art. XXVIII): Bereits mit der Einführung des GATT im Jahre 1947 kam es gemäß Art. XI zu einem grundsätzlichen Verbot quantitativer Restriktionen. Zugleich wurde ein schrittweiser Zollabbau (Art. XXVIII) vorgesehen. Diese zweigeteilte Vorgehensweise ist vor dem Hintergrund der früher angestellten Überlegungen zu den Wohlfahrtsentwicklungen handelsbeschränkender Maßnahmen zu sehen. Da quantitative Restriktionen (Mengenkontingente) die Wohlfahrt in besonderem Maße mindern, war es naheliegend, diese unverzüglich zu verbieten. Die Zölle im Industriebereich wiederum wurden im Laufe der Zeit von 40 Prozent auf nunmehr etwa 4 Prozent im Durchschnitt reduziert. Die Zollrunden der Vergangenheit und deren Ergebnisse veranschaulicht Abbildung 3.36.

440

Dieter Smeets

Abb. 3.36  Stufen des Zollabbaus im Industriebereich

Ausnahmeregelungen Obgleich die zuvor erläuterten Protektionismusargumente wenig überzeugend waren, haben einige von ihnen in Form von Ausnahmeregelungen vom Freihandelspostulat Eingang in die internationale Handelsordnung gefunden. Hierzu gehören insbesondere: • Anti-Dumping und Anti-Subventions-Maßnahmen (Artikel VI GATT), • Maßnahmen zum Schutz der Zahlungsbilanz, oder besser: der Devisenreserven (Artikel XII GATT), • Maßnahmen zur Förderung des industriellen Aufbaus in Entwicklungsländern (Artikel XVIII GATT) und • Maßnahmen im Rahmen der spezifischen Schutzklausel (Artikel XIX GATT). Anti-Dumping-Maßnahmen sowie Maßnahmen im Rahmen der spezifischen Schutzklausel stellen zulässige Reaktionen auf Preiskonkurrenz aus dem Ausland dar. Dabei richten sich Maßnahmen gemäß der spezifischen Schutzklausel (Art. XIX) gegen faire Auslandskonkurrenz etwa aufgrund komparativer Kostenvorteile, die sich im Rahmen von Zollsenkungsrunden durchgesetzt haben. Mit Hilfe temporärer, degressiv gestaffelter handelsbeschränkender Maßnahmen sollen die notwendigen Anpassungsprozesse gestreckt und damit die Kosten reduziert werden. Dumping und Subventionen gelten hingegen als unfairer Handel, den man unterbinden will. Anpassungsprozesse betrachtet man als unnötig, da der Preisvorteil des Auslands nur auf unfairen Praktiken beruht. Einen ausführlichen Überblick über diese Schutzklauseln im weitesten Sinne liefert zum Beispiel der WTO World Trade Report (2009).

3  Internationaler Handel

441

Vor dem Hintergrund dieser Beurteilung wurden auch die Eingreifschwellen unterschiedlich gesetzt. Während zum Beispiel bei Dumpingeinfuhren „nur“ ein „erheblicher Schaden“ der heimischen Industrie vorliegen oder drohen muss, erfordert die spezifische Schutzklausel das Vorliegen einer „ernsthaften Schädigung“ inländischer Produzenten infolge einer unvorhergesehenen Entwicklung oder infolge von GATT-Vereinbarungen. Diese unterschiedlichen Vorschriften machen deutlich, warum sich Anti-Dumping Maßnahmen so großer Beliebtheit erfreuen. Sie bilden ein legales Schutzinstrument, dessen Voraussetzungen vergleichsweise einfach erfüllt werden können und dessen Einsatz nur geringe Kosten und Gefahren für die eigene Volkswirtschaft mit sich bringt. In den Jahren von 1995 bis 2016 wurden insgesamt 5286 Anti-Dumping-Verfahren angestrengt (WTO, Anti-dumping). Während Ende der 1980er Jahre davon allerdings fast 90 Prozent auf die USA, Australien, Kanada und die EU entfielen, hat sich deren Anteil in dem oben genannten Zeitraum auf etwa 31 Prozent reduziert. Hierin kommt zum Ausdruck, dass mittlerweile auch Schwellen- und Entwicklungsländer die Möglichkeit des Artikels VI GATT zunehmend nutzen. Neben dem Preisdumping wurden in den zurückliegenden Jahren zunehmend – vermeintlich – neue Formen des Dumpings wie das Öko- und Sozial-„Dumping“ diskutiert. Über das Ziel des Umweltschutzes besteht heute kaum mehr Dissens. Auch die Präambel der WTO verweist ausdrücklich auf den Schutz der natürlichen Lebensgrundlagen hin. Damit wird aber nicht zugleich auch gesagt, dass handelspolitische Maßnahmen ein sinnvolles Instrument zum Schutz der Umwelt darstellen. Umwelteinflüsse, die nicht grenzüberschreitenden Charakter haben, können für die Handelspolitik dann relevant werden, wenn sie zum (Öko-) Dumping führen. Dabei wird (angeblich) zu einem Preis unter dem „normalen“ Wert exportiert – und zwar nur deshalb, weil die Umweltbelastung nicht hinreichend Berücksichtigung findet. Stattdessen geht man davon aus, dass die Umweltstandards des importierenden Landes das „richtige“ Niveau aufweisen. Eine solche (Zwangs-) Harmonisierung ist aber aus ökonomischer Sicht nicht zu rechtfertigen. Die optimale Umweltqualität eines Landes ist dann erreicht, wenn die Gesamtkosten der Umweltbelastung als Summe der externen Kosten der Umweltschäden und der Kosten der Schadensbeseitigung ihr Minimum erreichen. Da diese Kosten und deren Bewertung von Land zu Land differieren, kommt es auch zu unterschiedlichen wohlfahrtsmaximalen Lösungen des Umweltproblems. Einseitige Maßnahmen gegenüber Ländern mit (umweltbedingten) Kostenvorteilen bergen somit die Gefahr des protektionistischen Missbrauchs in sich. Handelt es sich um grenzüberschreitende Umwelteinflüsse, so besteht zweifelsfrei ein Handlungsbedarf auf internationaler Ebene. Die Handelspolitik ist aber mit Sicherheit nicht das first-best-Instrument, um diese Probleme effektiv zu lösen. Aus diesem Grunde sollten entsprechende Regelungen von einer eigenständigen multilateralen Umweltorganisation erarbeitet werden. Für Sozialstandards gilt im Wesentlichen eine ähnliche Argumentation wie beim Ökodumping. Dabei muss man allerdings zwischen „Grundrechten“ von Arbeitnehmern und Löhnen sowie Lohnnebenkosten unterscheiden. „Grundrechte“, wie das Verbot von Kinderarbeit, Koalitionsrecht, usw. sind in den einschlägigen Bestimmungen der

442

Dieter Smeets

Internationalen Arbeitsorganisation (ILO) niedergelegt und dort auch gut aufgehoben. Fordern Importländer hingegen eine Angleichung von Löhnen (Mindestlöhne) und Lohnnebenkosten (Urlaubsregelungen, Sicherheitsstandards, Versicherungsleistungen, usw.) in den Exportländern, so werden auf diese Weise systematisch komparative Kostenvorteile zunichte gemacht. Niedrige Lohnkosten sind in diesem Falle kein Ausdruck von SozialDumping, sondern das Ergebnis der reichlichen Ausstattung mit dem Faktor Arbeit oder dessen höhere Produktivität. Spätestens mit dem Übergang wichtiger Industrieländer zu einem System flexibler Wechselkurse im Jahre 1973 hat der Zahlungsbilanzschutz gemäß Artikel XII GATT für diese Ländergruppe weitgehend an Bedeutung verloren. Die Möglichkeit des Zahlungsbilanzschutzes führt letztlich dazu, notwenige Anpassungsmaßnahmen in Form der Geld- oder Wechselkurspolitik zu verschleppen. Artikel XII des GATT bietet somit keine ursachenadäquate Therapie sondern lediglich ein begrenztes Kurieren am Symptom – dem Verlust an Währungsreserven. Im Jahre 2015 hatten lediglich zwei Staaten handelsbeschränkende Maßnahmen zum Zwecke des Schutzes von Devisenreserven ergriffen (WTO, Balance of Payments). Die Entwicklungsländer (Art. XVIII; Teil IV GATT) sind sowohl vom Freihandelspostulat (z. B. Erziehungszölle) als auch von der Reziprozität ausgenommen. Dies soll ihnen per Saldo die wirtschaftliche Entwicklung erleichtern. Darüber hinaus enthält Artikel XXIV eine weitere Ausnahme von der Meistbegünstigung. Er erlaubt die Gründung von Zollunionen, obwohl der dort vereinbarte Abbau handelsbeschränkender Maßnahmen nur den Mitgliedsländern zugute kommt und damit diskriminierend gegenüber Drittländern wirkt. Man erwartet allerdings, dass die positiven Wohlfahrtseffekte durch die Handelsausweitung (handelsschaffende Effekte) in der Union die negativen Wohlfahrtseffekte gegenüber Drittländern (handelsumlenkende Effekte) überkompensieren. Man betrachtet somit regionale Freihandelszonen als einen richtigen Schritt auf dem Weg zu weltweitem Freihandel (siehe hierzu ausführlich Abschnitt 3.4.3.5.). Streitschlichtungsverfahren Das für alle Bereiche des WTO-Abkommens neu geregelte Streitschlichtungsverfahren führte zur Einrichtung eines ständigen Streitschlichtungsorgans [Dispute Settlement Body (DSB)] und Berufungsorgans (Appelate Body). Können handelspolitische Konflikte zwischen den Streitparteien nicht bilateral im Verhandlungswege gelöst werden, so kann eine klagende Vertragspartei die Einrichtung einer Untersuchungskommission (Panel) beantragen. Wird dieser Antrag im DSB nicht einstimmig abgelehnt, so wird ein Panel beauftragt, den Streitfall zu prüfen und eine Streitbeilegungsempfehlung abzugeben. Musste diese im GATT-Regelwerk noch einstimmig angenommen werden, gilt sie nunmehr als angenommen, wenn der Panel-Entscheid im DSB nicht einstimmig abgelehnt oder vor der Berufungsinstanz angefochten wird. Im zweiten Fall gilt die Entscheidung des Berufungsorgans als angenommen, wenn sie vom DSB nicht einstimmig abgelehnt wird. Setzt die beklagte Partei die Streitschlichtungsempfehlung nicht um, kann die geschädigte Partei

3  Internationaler Handel

443

Kompensationen verlangen und wird im Verweigerungsfall ermächtigt, Sanktionen zu verhängen. Die Prozesse zur Lösung von Handelskonflikten sind durch diese Institutionalisierung gestärkt worden. Zweifelhaft bleibt jedoch, ob im Falle nachgewiesener Verletzungen von Handelsregeln tatsächlich wirksame Sanktionsmechanismen ausgelöst werden oder überhaupt vorhanden sind, wenn kleine Länder keine glaubwürdigen Sanktionspotenziale besitzen, weil die Gegenpartei weiß, dass handelspolitische Sanktionen nur ihren Urhebern schaden werden.

3.4.2

Stand der multilateralen Liberalisierung

3.4.2.1 Warenhandel Industriegüter Die größten Erfolge beim Abbau des tarifären Protektionismus sind im Bereich des Industriegüterhandels erreicht worden. Zu einem großen Teil sind diese Fortschritte – wie bereits Abbildung 3.36 gezeigt hat – früheren Zollsenkungsrunden im GATT zu verdanken. In der Ende 1993 abgeschlossenen Uruguay-Runde haben sich die entwickelten Länder verpflichtet, ihre Zölle auf Industrieimporte um 40 Prozent von durchschnittlich 6,3 auf 3,8 Prozent zu senken (Diese und die weiteren Zahlenangaben zu den Ergebnissen der Uruguay-Runde entstammen GATT, 1994). Der Anteil der zollfreien Importe erhöhte sich dabei von 20 auf 44 Prozent. Im Gegensatz dazu stieg der Anteil der zollfreien Importe aus der Sicht der Entwicklungsländer von 39 auf 42 Prozent nur wenig. Hinzu kommt, dass der weit überwiegende Anteil zollfreier Importe dieser Ländergruppe auf Hong Kong und Singapur entfallen. Der Importanteil, der mit einem Zoll von über 15 Prozent belastet bleibt, hat sich hingegen nur geringfügig von 43 auf 38 Prozent reduziert. Nach Umsetzung der Uruguay-Beschlüsse überschreitet die Zollbelastung durch die entwickelten Länder bei den Industriegütern nur in den Bereichen Textilien und Bekleidung; Leder, Gummi und Schuhwaren sowie Transportausstattung die 5-Prozent-Grenze. Die höchste Protektionsrate verbleibt dabei auf Textilien und Bekleidung mit 12,1 Prozent. Die hier betrachteten Nominalzollsätze vermitteln allerdings nur einen ersten Eindruck vom Ausmaß und von der Entwicklung des Schutzes. Einen exakteren Beurteilungsmaßstab bietet das früher erläuterte Konzept der effektiven Protektion (Abschnitt 3.3.1.6.). Betrachtet man die Entwicklung während der Uruguay-Runde, so deuten die stärkeren Zollsenkungen bei den Fertigprodukten im Verhältnis zu den Halbfertigwaren und Rohstoffen allerdings auch auf eine Minderung der Zolleskalation hin. Bis zur Uruguay-Runde war der Welttextilhandel durch ein umfassendes Markt-ordnungssystem in Form eines multilateralen Geflechts von Exportselbstbeschränkungsabkommen unter dem Dach des GATT beschränkt. Das zunächst 1974 nur für einige Jahre geplante Multifaserabkommen (MFA) entwickelte sich zu einer Dauereinrichtung. Erst mit dem WTO-Textilabkommen gelang es, die quasi-legalisierten Grauzonenmaßnahmen in Form von Exportselbstbeschränkungsabkommen stufenweise abzubauen.

444

Dieter Smeets

Agrarhandel Obwohl auch im Agrarbereich Zölle auftreten, wurden Schutzbegehren typischerweise durch nicht tarifäre Handelshemmnisse wie quantitative Restriktionen, Mindestpreise, variable Importbelastungen und Importlizenzen befriedigt. In der Uruguay-Runde wurde nun beschlossen, all diese nicht tarifären Handelshemmnisse in äquivalente Zölle umzuwandeln (Tariffication). Anschließend wurden diese Zölle durch die entwickelten Länder bis zum Jahr 2000 um 36 Prozent reduziert. Die Entwicklungsländer mussten hingegen eine Reduktion von 24 Prozent bis zum Jahr 2004 vornehmen, von der wiederum die am wenigsten entwickelten Länder komplett ausgenommen wurden. Neben dem Zollabbau wurden ein erleichterter Marktzugang sowie eine Reduktion von nationalen und Export-Subventionen beschlossen. In den entwickelten Ländern wurden nationale Subventionen an Landwirte bis zum Jahr 2000 um 20 Prozent gesenkt, allerdings bezogen auf das Niveau der Jahre 1986-1988. Für die Entwicklungsländer galt eine Reduktion von 13 Prozent bis 2004. Auch von diesen Beschlüssen wurden die ärmsten Länder ausgenommen. Exportsubventionen der entwickelten Länder wurden bis 2000 um 36 Prozent und die Menge der subventionierten Exporte um 21 Prozent reduziert – bezogen auf die entsprechenden Bedingungen in den Jahren 1986-1990. TRIMS Unter handelsbezogenen Investitionsmaßnahmen (Trade Related Investment Measures = TRIMS) versteht man Investitionsauflagen, die von Regierungen mit der Absicht geschaffen werden, ausländische Investoren zur Verfolgung inländischer wirtschaftspolitischer Zielsetzungen zu veranlassen. Local-content-Auflagen, die zu den bekanntesten TRIMS gehören, sind mit nicht tarifären Einfuhrbeschränkungen vergleichbar, die deshalb eingeführt werden konnten, weil das GATT vor der Uruguay-Runde Direktinvestitionen nicht erfasste. Exportauflagen entsprechen hingegen indirekten Exportsubventionen, die die Auslandsinvestoren finanzieren müssen (Frenkel/Radek, 1996; Bender, 1999). Das TRIMSAbkommen der Uruguay-Runde hat diejenigen Investitionsauflagen verboten, die unvereinbar sind mit dem Gebot der Inländerbehandlung und mit dem Verbot mengenmäßiger Handelsbeschränkungen. Dies umfasst zwar die Local-content-Vorschriften, nicht jedoch Exportauflagen, die somit weiter zu protektionistischen Zwecken genutzt werden können.

3.4.2.2 Dienstleistungshandel Im Rahmen der Uruguay-Runde wurde erstmals ein eigenständiges Dienstleistungsabkommen (General Agreement on Trade in Services = GATS) geschlossen, das die folgenden Kernelemente enthält: • Definition der im GATS erfassten Dienstleistungen, • die Prinzipien einer nicht-diskriminierenden Handelspolitik (Meistbegünstigung und Inländerbehandlung), • Verbot einiger spezifischer Marktzugangsbeschränkungen und • Verpflichtung zu späteren Liberalisierungsverhandlungen.

3  Internationaler Handel

445

Positiv ist in diesem Zusammenhang die umfassende Definition der Dienstleistungen zu bewerten. Neben den grenzüberschreitenden Dienstleistungen werden auch diejenigen Dienstleistungen erfasst, bei denen die Anbieter (z.B. Banken und Versicherungen) oder die Nachfrager (z.B. Tourismus) die Grenze überschreiten. Ausgenommen sind lediglich staatliche Dienstleistungen. Obgleich durch das GATS die grundsätzlichen Voraussetzungen für eine reziproke Öffnung der Dienstleistungsmärkte geschaffen wurden, dominieren die Ausnahmen. Die Meistbegünstigung gilt zum Beispiel nur für jene Dienstleistungen, die ein Mitgliedsland nicht auf einer sogenannten Negativliste ausgeschlossen hat. Freier Marktzugang und Inländerbehandlung wird hingegen nur bei denjenigen Dienstleistungen wirksam, die in einer sogenannten Positivliste erfasst werden. Ferner ist zu bedenken, dass die Inländerbehandlung den ausländischen Anbietern immer noch zusätzliche Kosten aufbürdet, so lange die entsprechenden Regulierungen von denjenigen im Sitzland des Anbieters abweichen (Smeets/Hofner/Knorr, 1990). Damit ist zwar mit dem GATS ein Liberalisierungsrahmen für den Dienstleistungshandel geschaffen worden, aufgrund der zahlreichen länder- und sektorspezifischen Ausnahmeregelungen ist aber für die nahe Zukunft nicht mit einem größeren Maß an Liberalisierung zu rechnen. Da internationale Dienstleistungen häufig mit Direktinvestitionen verknüpft sind, wäre insbesondere eine Ausweitung des TRIMS-Abkommens auf den Dienstleistungsbereich erstrebenswert.

3.4.2.3 Anhaltende Reformdiskussion (Doha-Runde) Vom 9. bis 13. November 2001 trafen sich die Mitglieder der WTO auf ihrer vierten Ministerkonferenz nach dem Abschluss der Uruguay-Runde im Golfstaat Katar, um eine neue multilaterale Liberalisierungsrunde ins Leben zu rufen. Die dort begonnenen Verhandlungen werden als Doha-Runde oder auch Doha-Entwicklungsagenda (Doha Development Agenda, DDA) bezeichnet. Im Vordergrund steht dabei einerseits die Fortsetzung der Liberalisierungsverhandlungen für die Bereiche Landwirtschaft und Dienstleistungen sowie andererseits die Aufnahme neuer Verhandlungen zur Senkung von Zöllen auf Waren und zur Schaffung von Transparenz im öffentlichen Beschaffungswesen. Insgesamt soll in starkem Maße Rücksicht auf die Wünsche der Entwicklungsländer genommen werden. Insbesondere wohl auch deshalb, weil sie ca. drei Viertel der 164 WTO-Mitglieder stellen und sich zunächst eher gegen eine neue Welthandelsrunde ausgesprochen hatten. Mit der Initiative „anything but arms“, in deren Rahmen eine weitgehende Marktöffnung für die 49 ärmsten Staaten der Welt erfolgte, hat die EU – aus ihrer Sicht – eine Art Vorleistung erbracht. Ferner hat sich die EU bereit erklärt, den Entwicklungsländern bei der Umsetzung der Verpflichtungen aus der nächsten Verhandlungsrunde großzügigere Regeln als den Industrieländern zu gewähren. Nicht in die Deklaration aufgenommen wurden hingegen die – ebenfalls von der EU favorisierten – Bereiche „Handel und Investitionen“ sowie „Umwelt- und Sozialstandards“. Die Vorstellungen der EU verdeutlichen zugleich, dass sie eine umfassende Handelsrunde anstrebt(e). Verschiedentlich wird argumentiert, der Einschluss möglichst vieler Themenbereiche könne sich positiv auf eine neue Handelsrunde auswirken, da hierdurch

446

Dieter Smeets

gegenseitige Liberalisierungszugeständnisse erleichtert würden (Paketlösung). Insbesondere die EU erhofft wohl, auf diese Weise Gegenleistungen für (unvermeidbare) eigene Zugeständnisse im Agrarbereich zu erhalten. Im Gegensatz dazu streben die USA eine Beschränkung auf vier Verhandlungspunkte an. Dabei geht es insbesondere um die weitere Erleichterung beim gegenseitigen Marktzugang für Industrieprodukte, Agrargüter und Dienstleistungen. Daneben sollen die Regeln beim öffentlichen Beschaffungswesen vereinheitlicht werden. Keine Verhandlungsnotwendigkeit sieht man hingegen im Bereich der Arbeitnehmerrechte und des Umweltschutzes. Man hat sich ferner gegen eine Revision der Anti-Dumping Regeln und gegen eine beschleunigte Liberalisierung im Textilbereich ausgesprochen. Eine immer größere Bedeutung erlangen in diesem Zusammenhang die äußerst heterogenen Nichtregierungsorganisationen (NGO), die zunehmend lautstark und zum Teil gewaltsam auf sich aufmerksam machen. Als Reaktion auf solche Vorfälle wurden 647 dieser Organisationen offiziell in Doha zugelassen. Der zunehmende Einfluss solcher Interessengruppen auf die multilaterale Handelsdiplomatie wird jedoch zu einer immer stärkeren Politisierung der Entscheidungsprozesse führen. Dabei kann es nicht zu den Aufgaben der WTO gehören, etwa zwischen den divergierenden Interessen der NGOs aus Industrieländern und den Entwicklungsländern zu vermitteln. Die anfängliche Euphorie über den erfolgreichen Beginn der neuen Welthandelsrunde wich im Laufe der Verhandlungen jedoch schnell der Ernüchterung. Es wurden zahlreiche Fristen nicht eingehalten, die besonders für die Entwicklungsländer von entscheidender Bedeutung waren. So führten die Beratungen zur Sonderbehandlung der Entwicklungsländer („Special and Differential Treatment“) zu keinem Ergebnis und Ende März 2003 gelang es den WTO-Mitgliedern nicht, sich auf neue Modalitäten bezüglich der Landwirtschaft zu verständigen. In Schlüsselbereichen der Doha Development Agenda drohte somit eine Blockade durch die Entwicklungsländer. Vom 21. bis 30. Juli 2008 fand daher in Genf auf Einladung von WTO-Generaldirektor Pascal Lamy ein Treffen von 30 WTOHandelsministern statt. Ziel war es, eine Einigung in den Kernfragen der Doha-Runde bei Agrar-, Industriegütern (Non Agricultural Market Access, NAMA) sowie Dienstleistungen zu erreichen, um die Grundlagen für einen Abschluss der Runde noch im Jahr 2008 sicherzustellen. Trotz intensiver Verhandlungen und substantieller Fortschritte in zahlreichen Bereichen gelang es letztlich nicht, eine Einigung zu erzielen. Am 29. Juli 2008 wurde das Ministertreffen erfolglos abgebrochen. In besonderem Maße zu diesem Abbruch beigetragen hat zum einen der Streit über die Agrarsubventionen der entwickelten Länder, welche sich entgegen der Forderungen der Entwicklungs- und Schwellenländer nicht bereit erklärten, ihre Subventionen zu kürzen, um Exporteuren von Landwirtschaftsprodukten aus Entwicklungs- und Schwellenländern zu fördern. Zum anderen konnten sich die entwickelten Länder und die Entwicklungsund Schwellenländer nicht auf eine Senkung der Industriezölle, welche eine der zentralen Forderungen der entwickelten Länder war, einigen. Besonders im Bereich des besonderen Schutzmechanismus (Special Safeguard Mechanism, SSM) für Entwicklungsländer konnte man sich nicht auf eine einheitliche Position einigen.

3  Internationaler Handel

447

Im Jahre 2010 erklärten die G20-Staaten, dass sie die Doha-Runde möglichst im Jahr 2011 abschließen wollten. Da sich am grundlegenden Konflikt, welcher 2008 zum Scheitern der Gespräche führte, jedoch nichts geändert hatte, kam erneut keine Einigung zustande. Besonders die USA pochten auf einen besseren Zugang zu den Agrar- und Industriegütermärkten in China, Indien und Brasilien, welchen diese ohne Gegenleistungen jedoch nicht gewährleisten wollten. Diese vor allem politischen Differenzen konnten bis heute nicht beigelegt werden, weswegen die Doha-Runde trotz zahlreicher Bekundungen in der Zwischenzeit heute als gescheitert angesehen werden kann. Im Dienstleistungssektor stehen Forderungen der Industrieländer, Unternehmensbeteiligungsgrenzen für ausländische Investoren abzusenken, den Forderungen der Entwicklungsländer entgegen, den Marktzugang für die temporäre Beschäftigung von natürlichen Personen zu vereinfachen. Da eine Einigung noch nicht in Sicht ist, weichen viele Länder auf bilaterale Abkommen zur Liberalisierung des Dienstleistungshandels aus. In Umweltverhandlungen gibt es zwar Einigkeit darüber, dass Umweltgüter stärker liberalisiert werden sollen als Industriegüter, aber umstritten bleibt sowohl der konkrete Ansatz zur Vereinfachung des Marktzugangs als auch die Festlegung auf bestimmte Umweltgüter. Ein erster – wenn auch begrenzter – Erfolg in den multilateralen Verhandlungen wurde am 7. Dezember 2013 in Bali erreicht. Das Bali-Paket, das insgesamt zehn Einzelvereinbarungen enthält, deckt allerdings nur einen kleinen Teil der Doha-Entwicklungsagenda ab. Sein Hauptinhalt ist der Abbau von Bürokratie im grenzüberschreitenden Handel. Im Agrarsektor beschränkt sich die Einigung auf eine Überarbeitung des bisherigen Managements von Importzollkontingenten. Ferner wurde von Indien durchgesetzt, dass die Ausnahmeregelung, die eine Subventionierung von Grundnahrungsmitteln erlaubt, zeitlich unbegrenzt gelten soll. Der Abbau von tarifären und nicht tarifären Beschränkungen für mindestens 97 Prozent der Produkte aus den Entwicklungsländern wurde allerdings lediglich angemahnt, aber nicht konkret umgesetzt.

3.4.3

Weltwirtschaftliche versus regionale Integration

Staaten können die Verwirklichung des Freihandelsziels auf weltwirtschaftlicher Ebene unter Beteiligung möglichst aller Welthandelsländer (Multilateralismus), auf regionaler Ebene unter Beteiligung einer begrenzten Gruppe von Beitrittsstaaten eines Freihandelsabkommens (Regionalismus) oder bilateral zwischen zwei Länder(gruppe)n anstreben. Der Multilateralismus findet seinen Niederschlag in der im Kapitel 4.1 behandelten Welthandelsorganisation (WTO). Mit der re­gionalen und bilateralen Integration verfolgt man – abgesehen von politischen Motiven – die Steigerung der Wohlfahrt der Teilnehmerländer durch den Abbau der zwischen ihnen bestehenden Hindernisse für den freien Wirtschaftsverkehr. Hierunter fallen je nach der Integrationstiefe Freihandelszonen, die gewöhnlich den innergemeinschaftlichen Güterhandel von Zöllen und eventuell auch von nichttarifären Handelshemmnissen bei weiterhin individuellen Außenzöllen befreien. Vertiefte Integrationsabkommen

448

Dieter Smeets

ergänzen die Liberalisierung des internen Güterhandels durch eine gemeinsame Handelspolitik mit einheitlichen Außenzöllen gegenüber Drittländern (Zollunion) oder vereinbaren eine Zollunion mit freier Mobilität der Produktionsfaktoren Kapital und Ar­beit im Unionsraum (Gemeinsamer Markt). Aus der Sicht der Integrationsländer verspricht ein solches Vorgehen eine räumlich zwar begrenzte Marktöffnung, die dafür aber stärker auf die na­tionalen Interessen zugeschnitten ist, als dies in einem multilateralen Rah­men kurzoder mittelfristig durchzusetzen wäre (Borrmann u.a., 1995). Gegenüber dem theoreti­ schen Ideal weltweiten Freihandels stellt die regionale Integration somit eine second-best Lösung dar. Gleichwohl scheint es im Sinne der bisherigen Überlegungen naheliegend, in einer Welt, in der handelsbeschränkende Maßnahmen existieren, jeden – wenn auch nur regionalen – Abbau von Handels­hemmnissen als eine Verbesserung der Wohlfahrtssituation anzusehen. Diese generelle Schlussfolgerung wurde jedoch von Jacob Viner (1950) widerlegt. Er wies nach, dass Schritte, die lediglich auf den Idealzustand (weltweiter Freihandel) zuführen, ihn selbst aber nicht erreichen, die Wohlfahrtssituation sogar verschlechtern können. Im Mittelpunkt der Viner’schen Analyse stehen handelsschaffende (trade creation), handelsumlenkende (trade diversion) und handelsunterdrückende (trade suppres­ sion) Effekte. Vor diesem Hintergrund ist auch die Ausnahmeregelung des Art. XXIV Ziffer  4 des GATT-Vertrags (vgl. auch Abschnitt 3.4.1.) zu sehen. Obgleich regionale Libe­ ralisierungszusammenschlüsse nämlich gegen den GATT-Grundsatz der Meistbegünstigung verstoßen, heißt es dort: „Die Vertragsparteien erken­nen an, dass es wünschenswert ist, durch freiwillige Vereinbarungen zur Förderung der wirtschaftlichen Integration der teilnehmenden Länder eine größere Freiheit des Handels herbeizuführen. Sie erkennen ferner an, dass es der Zweck von Zollunionen und Freihandelszonen sein soll, den Handel zwischen den teilnehmenden Gebieten zu erleichtern, nicht aber den Han­del anderer Vertragsparteien mit diesen Gebieten Schranken zu setzen“. Unter diesen Voraussetzungen geht man davon aus, dass sich Regionalismus und Multilateralismus gegenseitig fördern (Komplementaritätsthese). Dies führt dann auch dazu, dass die positiven handelsschaffenden Effekte die negativen handelsumlenkenden Effekte übersteigen und der regionale Zusammenschluss zu einem Wohlfahrtsgewinn für das Integrationsgebiet führt, der allerdings geringer ausfällt als bei weltweitem Freihandel. Schotten sich die Integrationsgebiete allerdings gegeneinander ab, so wird globaler Freihandel eher durch regionalen Freihandel ersetzt (Substitutionsthese) und es droht die Gefahr von Wohlfahrtsverlusten. Wichtige regionale Handelszusammenschlüsse, deren aktuelle Mitgliedsländer sowie deren Gründungszeitpunkt fasst Abbildung 3.37 zusammen. Da die seit 2001 andauernde Doha-Runde mit Ausnahme der 2013 auf Bali erzielten Ergebnisse keine weitere multilaterale Liberalisierung des Handels er-bracht hat, gewannen bilaterale und regionale Handelsabkommen zunehmend an Bedeutung. Aus der Sicht der EU standen dabei in der jüngeren Vergangenheit insbesondere die (geplanten) Freihandelsabkommen mit Kanada, Japan und den USA im Vordergrund.

3  Internationaler Handel

449

Abb. 3.37  Wichtige regionale Handelszusammenschlüsse

Das Comprehensive Economic and Trade Agreement (CETA) zwischen der EU und Kanada wurde seit 2009 verhandelt und am 30. Oktober 2016 von den europäischen und kanadischen Gremien unterzeichnet. Vollkommen in Kraft treten wird das Abkommen allerdings erst nach der Ratifizierung durch die nationalen Parlamente der EU. Im Rahmen von CETA werden nahezu alle Zölle abgeschafft sowie nichttarifäre Handelshemmnisse angeglichen, wodurch vor allem der Handel mit Industriegütern gefördert werden soll. Für Diskussionen und Kritik an CETA sorgte unter anderem der Investorenschutz, der von privaten Schiedsgerichten gewährleistet werden soll. In der öffentlichen Diskussion noch stärker im Fokus steht bzw. stand das Transatlantic Trade and Investment Partnership (TTIP) zwischen der EU und den USA, über dessen Inhalte seit 2013 verhandelt wurde. Auch im Rahmen von TTIP sollen Zölle sowie nichttarifäre Handelshemmnisse abgebaut sowie Standards zum Beispiel in den Bereichen Umwelt, Lebensmittel und Gesundheit angeglichen werden. Auch in diesem Fall stellte sich der oben erwähnte Investorenschutz als ein entscheidender Streitpunkt zwischen den Verhandlungs-parteien heraus (Vgl. hierzu etwa KLODT, 2015). Aus wirtschaftlicher Sicht würde durch TTIP die größte Freihandelszone weltweit entstehen. In den 15 zurückliegenden Verhandlungsrunden konnte allerdings in vielen Bereichen keine Einigung erzielt

450

Dieter Smeets

werden, so dass bereits im Sommer 2016 von einem Scheitern der Verhandlungen gesprochen wurde. Endgültig ausgesetzt wurden die Verhandlungen nach der Wahl Donald Trumps zum US-Präsidenten Ende 2016. Auch unter dem Eindruck des (vorläufigen) Scheiterns von TTIP befindet sich die EU momentan verstärkt mit anderen Handelspartnern in Gesprächen über weitere Freihandelsabkommen. Vor diesem Hintergrund ist das Freihandelsabkommen zwischen der EU und Japan, das Ende 2017 abgeschlossen wurde, von besonderer Bedeutung, da Japan einen der wichtigsten Absatzmärkte europäischer Unternehmen in Asien darstellt. Darüber hinaus führt die EU Gespräche mit Australien, Neuseeland, Chile, den Staaten der südostasiatischen Freihandelszone sowie mit Mexiko.

3.5

Kommentierte Literaturhinweise

Sowohl die theoretischen als auch die wirtschaftspolitischen Grundlagen internationaler Handelsbeziehungen werden umfassend dargestellt in den Lehrbüchern von Klaus Rose und Karlhans Sauernheimer (1964, 14. A. 2006), Horst Siebert und Oliver Lorz (1973, 9. A. 2014), Gustav Dieckheuer (1990, 5. A. 2001), Brenton, Paul; Scott, Henry; Sinclair, Peter (1997), Feenstra, Robert C. (2004), Paul Krugman, Maurice Obstfeld und Marc Melitz (2015) sowie Van Marewijk (2017). Die neueren Ansätze der Außenhandelstheorie, die sich mit den Wirkungen der Welthandelsliberalisierung und des Protektionismus bei unvollständiger Konkurrenz auseinandersetzen, werden in den Beiträgen von Elhanan Helpman und Paul Krugman (1989, 5. Auflage 1999) sowie von Dieter Bender (1994) vorgestellt. Theoretisch anspruchsvolle Übersichtsartikel zur Handelstheorie und –politik enthalten die von Ronald W. Jones und Peter B. KeNen (1984), Levy-Livermore, Amnon (1998), Choi, E. Kwan; Harrigan, James (2005), Kerr, William A.; Gaisford, James D. (2007) sowie von Bernhofen, Daniel et al. (2011) herausgegebenen Sammelbände. Einen ausführlichen Überblick über das GATT sowie über die im WTO-Abkommen geregelte Welthandelsordnung vermitteln die Bücher von Richard Senti (1986 und 2000) und der von Michael Frenkel und Dieter Bender (1996) herausgegebene Sammelband. Gute Überblicke über die Funktionsweise und Probleme der Welthandelsordnung geben auch die Publikationen der WTO. Dazu gehören insbesondere der World Trade Report, der zum Beispiel in seinem Bericht 2009 eine umfangreiche Analyse der Schutzklauseln durchführt, der Annual Report sowie der World Trade Statistical Review, der ausführliches Zahlenmaterial zur Entwicklung des internationalen Handels bereitstellt.

3  Internationaler Handel

451

Literaturverzeichnis Arad, R.; Hirsch, S. (1981), Determination of trade flows and choice of trade partners: reconciling the Heckscher-Ohlin and the Burenstam-Linder models of international trade, in: Weltwirtschaftliches Archiv, 117, S 276-297. Baldwin, Robert (1982), The political economy of protectionism, in: Bhagwati, Jagdish (1982), Hg., Import competition and response, Chicago und London, S.263-286. Bender, Dieter (1994), Neuere Entwicklungen der Theorie internationaler Handelsbeziehungen. Anstöße zur Neuorientierung der Handelspolitik? In: Jahrbuch für Sozialwissenschaft, 45, S. 1-49. Bender, Dieter (2007), Internationaler Handel, in: Apolte, Thomas u.a. (2007), Vahlens Kompendium der Wirtschaftstheorie und Wirtschaftspolitik, Band 1, München (Vahlen), S. 475-560. Bernhofen, Daniel et al. (2011), Hg., Palgrave Handbook of International Trade, Hampshire (Palgrave Macmillan). Bhagwati, Jagdish (1980), Hg., Import Competition and Response, Chicago und London (The University of Chicago Press). Brander, J.; Spencer, B. J. (1985), Export subsidies and international market share rivalry, in: Journal of International Economics, 18, S. 83-100. Brenton, Paul; Scott, Henry; Sinclair, Peter (1997), International Trade: A European Text, Oxford u.a. (Oxford University Press). Brülhart, Marius; Hine, Robert (1999), Hg., Intra-Industry Trade and Adjustment – The European Experience, Houndmills u.a. (Macmillan). Bundesministerium für Wirtschaft und Energie (2017a), Aktuelle Freihandelsverhandlungen, URL: https://www.bmwi.de/Redaktion/DE/Artikel/ Aussenwirtschaft/freihandelsabkommen-aktuelle-verhandlungen.html (Zuletzt abgerufen am 21.06.2017). Bundesministerium für Wirtschaft und Energie (2017b), CETA – Das europäisch-kanadische Wirtschafts- und Handelsabkommen, URL: https://www.bmwi.de/Redaktion/ DE/Dossier/ceta.html (Zuletzt abgerufen am 21.06.2017). Bundesministerium für Wirtschaft und Energie (2017c), Die WTO-Abkommen, URL: https://www.bmwi.de/Redaktion/DE/Artikel/Aussenwirtschaft/wto-abkommen. html (Zuletzt abgerufen am 21.06.2017). Bundesministerium für Wirtschaft und Energie (2017d), Transatlantische Handelsund Investitionspartnerschaft (TTIP), URL: https://www.bmwi.de/Redaktion/DE/ Dossier/ttip.html (Zuletzt abgerufen am 21.06.2017). Bundesministerium für Wirtschaftliche Zusammenarbeit und Entwicklung (2017), WTO – Doha-Runde, URL: http://www.bmz.de/de/themen/welthandel/welthandelssystem/WTO/doha_runde.html (Zuletzt abgerufen am 21.06.2017). Bundeszentrale für Politische BILDUNg (2018), Hg., Aus Politik und Zeitgeschichte – Freihandel, 68. Jg., 4-5, Bonn.

452

Dieter Smeets

Cass, Ronald (2000), The trade debate`s unlevel playing field, Cato Journal, Bd. 19, S.449-457. Caves, Richard; JONES, RONALD (1973), World Trade and Payments, Boston (Little, Brown and Co.). Choi, E. Kwan; HarTigan, James (2005), Hg., Handbook of International Trade, Volume II: Economic and Legal Analyses of Trade Policy and Institutions, Malden (Blackwell). Corden, Max (1971), The Theory of Protection, Oxford u.a. (Oxford University Press). Corden, Max (1974), Trade Policy and Economic Welfare, Oxford (Clarendon Press). Coughlin, Cletus (2002): The controversy over free trade – the gap between economists and the general public, in: FRB of St. Louis Review, Bd. 84, S. 1-21. Dieckheuer, Gustav (1990), Internationale Wirtschaftsbeziehungen, München und Wien (Oldenbourg). Europäische Kommission (2015), TTIP auf einen Blick – eine Übersicht und eine Einführung in die einzelnen Kapitel des Handelsabkommens in leicht verständlicher Sprache, URL: http://trade.ec.europa.eu/doclib/docs/2015/july/tradoc_153636.pdf (Zuletzt abgerufen am 21.06.2017). European Parliament (2016), The Trans-Pacific Partnership (TPP): Potential regional and global impacts, URL: http://www.europarl.europa.eu/RegData/etudes/BRIE/2016/582028/EPRS_BRI(2016)582028_EN.pdf (Zuletzt abgerufen am 21.06.2017). Feenstra, Robert C. (2004), Advanced International Trade: Theory and Evidence, New Jersey (Princeton University Press). Frenkel, Michael; Bender, Dieter (1996), Hg., GATT und neue Welthandelsordnung, Wiesbaden (Gabler). Göcke, Matthias; Köhler, Thomas (2002), Außenwirtschaft, Heidelberg (Physica-Verlag). Greenaway, David (1983), International Trade Policy – From Tariffs to the New Protectionism, London und Basingstoke (Macmillan). Greenaway, David (1985), Hg., Current Issues in International Trade – Theory and Policy, Houndmills u.a. (Macmillan). Greenaway, David; Milner, Chris (1986), The Economics of Intra-Industry Trade, Oxford (Basil Blackwell). Greenaway, David; Tharakan, P.K.M. (1986), Hg., Imperfect Competition and International Trade, Sussex (Wheatsheaf Books). Grubel, H. G.; Lloyd, P. J. (1975), Intra-industry trade: The theory and measurement of international trade in differentiated products, New York (Halstead). Haberler, Gottfried (1970), Der internationale Handel, Berlin u.a. (Springer). Helpman, Elhanan; Krugman, Paul (1989), Trade Policy and Market Structure, Cambridge (MIT Press).

3  Internationaler Handel

453

Hirsch, Sven (1974), Hypothesen über den Handel zwischen Entwicklungs- und Industrieländern, in: Giersch, Herbert; Haas, H. D. (1974), Hg., Probleme der weltwirtschaftlichen Arbeitsteilung, Berlin (Duncker & Humblot), S. 69-88. Jackson, John (1990), Restructuring the GATT System, London (Pinter). Jensen, J. Bradford; Kletzer, Lori G. (2005), Tradable Services: Understanding the Scope and Impact of Services Outsourcing, Institute for International Economics, Washington, Working Paper 05-9. Johnson, Harry G. (1970), International Trade and Economic Growth – Studies in Pure Theory, London (George Allen & Unwin). Jones, Ronald W.; Kenen, Peter B. (1984), Hg., Handbook of International Economics: Volume 1 – International Trade, Oxford (North-Holland). Kenen, Peter (1989), The International Economy, Englewood Cliffs (Prentice-Hall). Kerr, William A.; Gaisford, James D. (2007), Hg., Handbook on International Trade Policy, Cheltenham (Edward Elgar). Klodt, Henning (2015), TTIP: Chance Handel – Risiko Investorenschutz. Kiel Policy Brief, Nr. 84, Kiel. Krueger, Anne (1990), Asymmetries in policy between exportables and import-competing goods, in: R. Jones, Ronald; A. Krueger, Anne (1990), Hg., The political economy of international trade, Oxford, S.161-178. Krugman, Paul (1979), Increasing returns, monopolistic competition and international trade, in: Journal of International Economics, 9, S. S. 469-479. Krugman, Paul (1980), Scale economies, product differentiation, and the pattern of trade, in: American Economic Review, 70, S. S. 950-959. Krugman, Paul (1987), Hg., Strategic Trade Policy and the New International Economics, Cambridge (MIT Press). Krugman, Paul (1987), Is free trade passe? in: Journal of Economic Perspectives, S.131-144. Krugman, Paul (1992), Geography and Trade, Cambridge (MIT Press). Krugman, Paul; Obstfeld, Maurice; Melitz, Marc (2015), Internationale Wirtschaft – Theorie und Politik der Außenwirtschaft, Hallbergmoos (Pearson Deutschland). Leontief, W. (1953), Domestic production and foreign trade: The American capital position re-examined, wieder abgedruckt in: Bhagwati, Jagdish (1969), Hg., International Trade, Harmondsworth (Penguin), S. 93-139. Levy-Livermore, Amnon (1998), Hg., Handbook on the Globalization of the World Economy, Cheltenham (Edward Elgar). Linder, S. B. (1961), An essay on trade and transformation, New York (Wiley). Mayda, Anna; Rodrik, Dani (2001), Why are some people (and countries) more protectionist than others? NBER Working Paper No. 8461, Cambridge, MA. Meade, James (1955), The Theory of Customs Union, Amsterdam (North Holland). Oppermann, Thomas; Molsberger, Josef (1990), Hg., A New GATT for the Nineties and Europe ´92, Baden-Baden (Nomos).

454

Dieter Smeets

Rodrik, Dani (1995), Political economy of trade policy, in: Grossman, Gene; Rogoff, Kenneth (1995), Hg., Handbook of international economics, Bd. III, S. 14571494. Rübel, Gerhard (2008), Grundlagen der Realen Außenwirtschaft, München (Oldenbourg). Schüller, Alfred; Thieme, H. Jörg (2002), Hg., Ordnungsprobleme der Weltwirtschaft, Stuttgart (Lucius & Lucius). Senti, Richard (1986), GATT – Allgemeines Zoll- und Handelsabkommen als System der Welthandelsordnung, Zürich (Polygraphischer Verlag). Senti, Richard (2000), WTO – System und Funktionsweise der Welthandelsordnung, Zürich (Schulthess). Siebert, Horst (1988), Strategische Handelspolitik. Theoretische Ansätze und wirtschaftspolitische Empfehlungen, in: Aussenwirtschaft, 43, S. 549-584. Siebert, Horst (1997), Weltwirtschaft, Stuttgart (Lucius & Lucius). Siebert, Horst; Lorz, O. (2007), Außenwirtschaft, Stuttgart (Lucius & Lucius). Smeets, Heinz-Dieter (1987), Importschutz und GATT, Bern und Stuttgart (Haupt). Smeets, Heinz-Dieter (1996), Grundlagen der regionalen Integration: Von der Zollunion zum Binnenmarkt, in: Ohr, Renate (1996), Hg., Europäische Integration, Stuttgart u.a. (Kohlhammer), S. 47-75. Smeets, Heinz-Dieter (1999), Germany, in: Brülhart, Marius; Hine, Robert (1999), Hg., Intra-Industry Trade and Adjustment – The European Experience, Houndmills u.a. (Macmillan), S. 1991-211. Smeets, Heinz-Dieter (2002), Protektionismus im Güterhandel, in: Schüller, Alfred; Thieme, H. Jörg (2002), Hg., Ordnungsprobleme der Weltwirtschaft, Stuttgart (Lucius & Lucius), S. 129-156. Smeets, Heinz-Dieter (2015), A free trade agreement between the EU and Japan – what is to be expected? Asia Europe Journal, 13, S. 57-73. Smeets, Heinz-Dieter; Hofner, Günter; Knorr, Andreas (1990), A Multilateral Framework of Principles and Rules for Trade in Services, in: Oppermann, Thomas; Molsberger, Josef (1990), Hg., A New GATT for the Nineties and Europe ´92, Baden-Baden (Nomos), S. 191-211. Statistisches Bundesamt (2016a), Außenhandel – Handelspartner, URL: https://www. destatis.de/DE/ZahlenFakten/GesamtwirtschaftUmwelt/Aussenhandel/Aussenhandel. html (Zuletzt abgerufen am 04.01.2018). Statistisches Bundesamt (2016b), Außenhandel nach Güterabteilungen, URL: https:// www.destatis.de/DE/ZahlenFakten/GesamtwirtschaftUmwelt/Aussenhandel/ Tabellen/EinfuhrAusfuhrGueterabteilungen.html (Zuletzt abgerufen am 04.01.2018). Steinherr, Alfred; Runge, J. (1978) The evolution of West Germany’s structure of foreign trade from 1962 to 1972, in: Zeitschrift für die gesamte Staatswissenschaft, 134, S. 301-326.

3  Internationaler Handel

455

Stern, Richard (1976), Some evidence on the factor content of West Germany’s foreign trade, in: Journal of Political Economy, 84, S. 131-142. Takac, Wendy (1978), The nonequivalence of tariffs, import quotas and voluntary export restraints, in: Journal of International Economics, 5, S. 565-573. Tharakan, P.K.M. (1983), Hg., Intra-Industry Trade, Amsterdam u.a. (North Holland). Van Marrewijk, Charles (2004), International Trade and the World Economy, Oxford (Oxford University Press). Van Marrewijk, Charles (2017), International Trade, Oxford (Oxford University Press). Viner, Jacob (1950), The Customs Union Issue, New York (Carnegie Endowment for International Peace). Vousden, Neil (1990), The economics of trade protection, Cambridge (Cambridge University Press). Wolter, F. (1977), Factor proportions, technology and West German industry’s international trade patterns, in: Weltwirtschaftliches Archiv, 113, S. 250-267. WTO (2015), International Trade Statistics 2015, URL: https://www.wto.org/english/res_e/ statis_e/its2015_e/its15_world_trade_dev_e.htm (Zuletzt abgerufen am 04.01.2018). WTO (ohne Jahr), Anti-dumping, Genf, URL: https://www.wto.org/english/tratop_e/adp_e/ adp_e.htm (Zuletzt abgerufen am 21.01.2018). WTO (ohne Jahr), Balance of payments, Genf, URL: https://www.wto.org/english/tratop_e/ bop_e/bop_e.htm (Zuletzt abgerufen am 21.01.2018). WTO (ohne Jahr), Members and Observers, Genf, URL: https://www.wto.org/english/the wto_e/whatis_e/tif_e/org6_e.htm (Zuletzt abgerufen am 21.01.2018). WTO (ohne Jahr), WTO legal texts, Genf, URL: https://www.wto.org/english/docs_e/legal_e/ legal_e.htm (Zuletzt abgerufen am 21.01.2018). WTO (ohne Jahr), WTO Trade Topics, Genf, URL: https://www.wto.org/english/tratop_e/ tratop_e.htm (Zuletzt abgerufen am 21.01.2018). WTO (verschiedene Jahrgänge), Annual Report, Genf, URL: https://www.wto.org/eng lish/res_e/reser_e/annual_report_e.htm (Zuletzt abgerufen am 21.01.2018). WTO (verschiedene Jahrgänge), World Trade Report, Genf, URL: https://www.wto.org/eng lish/res_e/reser_e/wtr_e.htm (Zuletzt abgerufen am 21.01.2018). WTO (verschiedene Jahrgänge), World Trade Statistical Review, Genf, URL: https://www. wto.org/english/res_e/statis_e/wts_e.htm (Zuletzt abgerufen am 21.01.2018). WTO (verschiedene Jahrgänge), WTO working papers, Genf, URL: https://www.wto.org/eng lish/res_e/reser_e/wpaps_e.htm (Zuletzt abgerufen am 21.01.2018). Berensmann, K.; Schlotthauer, N. (1998), Asiatische Währungs- und Finanzkrise: Ursachen, Auswirkungen und Lösungsansätze, Köln (Deutscher Instituts-Verlag) 1998. Bilson, J. F. (1978), The monetary approach to the exchange rate: Some em­pirical evidence, in: International Monetary Fund Staff Papers, 25, S. 46-75. Smeets, H.-D. (1989), Finanzmarktintegration und währungspolitische Koor­dination, in: J. W. Gaddum und H.-D. Smeets (1989), Hg., Währungspoli­tik und staatliche Regulierung, Tübingen (Mohr) 1989, S. 21-41.

4

Institutionen Mathias Erlei

Gliederung 4.1 4.2 4.3

4.4

4.5

Einleitung ........................................................................................................... 459 Institutionen als Regeln und Regelsysteme .................................................... 460 Transaktionskosten und einzelwirtschaftliche Institutionen....................... 462 4.3.1 Asymmetrische Informationen ....................................................... 463 4.3.1.1 Moralisches Wagnis mit versteckter Handlung........... 463 4.3.1.2 Die Mehraufgaben-Prinzipal-Agent-Theorie.............. 471 4.3.1.3 Adverse Selektion ........................................................... 474 4.3.2 Spezifische Investitionen................................................................... 479 4.3.3 Reputationsmechanismen ................................................................ 492 Theorie der Unternehmung ............................................................................. 498 4.4.1 Transaktionskostentheorie................................................................ 499 4.4.1.1 Transaktionskosten der Marktbenutzung ................... 500 4.4.1.2 Transaktionskosten der Organisationsbenutzung...... 502 4.4.1.3 Marktbenutzung- und Organisationsbenutzungskosten im Vergleich............ 504 4.4.1.4 Die Transaktionskostentheorie als Theorie der Unternehmung........................................... 506 4.4.2 Die Unternehmung als Anreizsystem ............................................ 506 4.4.3 Die ressourcenbasierte Theorie der Unternehmung..................... 510 4.4.4 Der Entrepreneur-Ansatz der Unternehmung .............................. 513 Institutionelle Umwelt – gesellschaftliche Institutionen .............................. 516 4.5.1 Ökonomische Theorie der Verfassung ........................................... 519 4.5.2 Wirtschaftsordnungen ...................................................................... 526 4.5.3 Ökonomische Analyse des Rechts .................................................. 534 4.5.4 Theorie der institutionellen Entwicklung ...................................... 539

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 T. Apolte et al. (Hrsg.), Kompendium der Wirtschaftstheorie und Wirtschaftspolitik I, https://doi.org/10.1007/978-3-658-21777-8_4

457

458

Mathias Erlei

4.6 4.7

4.5.5 Neue Politische Ökonomik .............................................................. 546 Weiterentwicklungen ........................................................................................ 551 Kommentierte Literaturhinweise..................................................................... 555

Literaturverzeichnis........................................................................................................ 556

4 Institutionen

4.1

459

Einleitung

Seit vielen Jahrzehnten stellt das Modell des Allgemeinen Walrasianischen Gleichgewichts (vgl. Beitrag 1 zur Mikroökonomik) den theoretischen Referenzpunkt der Wirtschaftsanalyse dar. Zum einen dient es als Nachweis der Möglichkeit eines paretoeffizienten Zustands, selbst wenn sich alle Beteiligten eigennützig verhalten: Marktprozesse, die weder zentral koordiniert werden noch durch selbstloses Verhalten der Individuen gekennzeichnet sind, können demnach zu optimalen gesamtwirtschaftlichen Gleichgewichten führen. Darüber hinaus können Verteilungsprobleme durch Änderungen der Ausgangsbedingungen (Anfangsausstattungen) gelöst werden. Zum anderen dienen Verletzungen des Annahmenkatalogs des Allgemeinen Gleichgewichts dazu, Ursachen für Marktversagenstatbestände aufzudecken und staatliches, wirtschaftspolitisches Handel zu legitimieren. Negative externe Effekte bilden somit die Basis der modernen Umweltökonomik, Nicht-Exkludierbarkeit und Nicht-Rivalität im Konsum zeigen die Notwendigkeit einer Bereitstellung öffentlicher Güter durch den Staat. Unflexible Preise können Auslöser für konjunkturelle Abschwünge und Anlass für konjunkturpolitische Maßnahmen sein. Das Allgemeine Walrasianische Gleichgewicht ist als Referenzpunkt in der modernen Ökonomik beinahe schon allgegenwärtig. Für ein Verständnis der Voraussetzungen und der Wirkungsweise des Marktprozesses fehlen diesem Modell jedoch viele Aspekte. Ein bedeutender, wenn nicht gar der wichtigste, ist das Fehlen von Institutionen. Das Walrasianische Gleichgewicht beschreibt eine Welt des friktionslosen Tausches: Niemand stiehlt, niemand übt Gewalt aus, niemand betrügt. Alle halten sich strikt an die Regeln des freiwilligen und ehrlichen Tausches zu wettbewerblichen Marktpreisen. Wäre die Welt der Wirtschaft damit hinreichend beschrieben, so bliebe zu erklären, warum man noch immer Zentralverwaltungs- oder gar anarchistische oder Bürgerkriegs-Wirtschaften auf der Welt findet. Auch bleibt ungeklärt, wozu es überhaupt komplexer Verträge bedarf und warum es Unternehmen, in denen die Handlungen der Akteure zentral koordiniert und über Befehle durchgesetzt werden. Die Welt der Wirtschaft ist natürlich viel komplexer als es im Walrasianischen Gleichgewicht zum Ausdruck kommt. Die Institutionenökonomik wechselt die Betrachtungsperspektive: An Stelle der Welt des einfachen Tausches setzt sie ein Denken in Eigentumsrechten und Verträgen. Eigentumsrechte sind der Ausgangspunkt der Institutionenökonomik. Hierbei sind zunächst die Begriffe Eigentum und Besitz voneinander abzugrenzen. Während der Besitz nur die faktische Verfügbarkeit und Kontrolle über eine Ware beschreibt, beinhaltet das Eigentum den „institutionalisierten Besitz“ ((Hodgson 2015, S. 102), der mit einem durch die Gesellschaft anerkannten Recht auf die Kontrolle der Ware einhergeht. Dieses Recht ist darüber hinaus durch Einrichtungen des Rechtssystems – Polizei, Gerichte, Rechtsprechung – durchsetzbar. Eigentum und Eigentumsrechte sind somit ein gesellschaftliches Phänomen, das ohne kollektives Handeln nicht denkbar ist. Eigentumsrechte sind notwendigerweise an die Existenz eines Rechtssystems und gesellschaftlicher Institutionen gekoppelt.

460

Mathias Erlei

Natürlich wird in den Märkten des Wirtschaftssystems getauscht. Doch wird nicht der Besitz von Waren getauscht, sondern deren Eigentumsrechte! Damit wird unmittelbar klar, dass es ein Marktsystem ohne einen Staat, der Eigentumsrechte schützt, gar nicht geben kann. Häufig wird eine Einteilung der Eigentumsrechte in vier Gruppen vorgenommen: das Recht, eine Ware zu nutzen (usus), das Recht auf die Erträge aus der Nutzung einer Ware (usus fructus), das Recht, die physischen Eigenschaften einer Ware zu verändern (abusus) und das Recht, die Eigentumsrechte an einer Ware zu verkaufen. Jede dieser vier Gruppen von Rechten kann des Weiteren beliebig aufgeteilt und verfeinert werden. Auch kann die Gesellschaft (der Staat) bestimmte Teilrechte entziehen. So darf zum Beispiel der Eigentümer eines Autos dieses zum Fahren benutzen. Allerdings darf er nicht mit einer Geschwindigkeit von 100 km/h durch eine Fußgängerzone fahren. Eigentumsrechte können also äußerst differenziert ausformuliert werden. Dieses kann über den Staat erfolgen – etwa in Geschwindigkeitsbeschränkungen beim Autofahren – oder auch über private Verträge, in denen der Nutzung einer Ware Beschränkungen auferlegt werden. Den Tausch von Eigentumsrechten bezeichnet man als Transaktion. Ein solcher Tausch von Eigentumsrechten ist im Allgemeinen mit Reibungsverlusten – sogenannten Transaktionskosten – verbunden. Diese können in der Suche nach Tauschpartnern, Kosten des Verhandelns, Kosten des Aufsetzens eines Vertrags und vor allem in Kosten der Durchsetzung der Vertragsvereinbarungen bestehen. Aus Transaktionskosten entstehen Ineffizienzen, hier verstanden als Abweichungen vom Idealzustand der friktionslosen Tauschwelt des Allgemeinen Walrasianischen Gleichgewichts. Diese Ineffizienzen können jedoch durch eine geschickte Gestaltung von Institutionen zumindest verringert werden, sodass schnell erkennbar wird, dass das Institutionendesign auf gesellschaftlicher wie auf privatrechtlicher Basis grundlegender Bestandteil eines erfolgreich arbeitenden Marktsystems ist. Im folgenden Abschnitt wird zunächst geklärt, was unter Institutionen zu verstehen ist. Abschnitt 3 behandelt anschließend die mikroökonomischen Grundlagen des Zusammenhangs zwischen Transaktionskosten und Institutionendesign. In diesem Rahmen wird vorrangig die Theorie asymmetrischer Informationen sowie die Theorie unvollständiger Verträge skizziert. Aufbauend auf dem in Abschnitt 3 erzielten Grundverständnis wird im vierten Abschnitt die ökonomische Theorie der Unternehmung dargestellt. Abschnitt 5 beschäftigt sich dann mit der institutionellen Umgebung, also den Institutionen, die vom politischen Sektor bestimmt und den Individuen als Gesetze und Regeln vorgegeben sind.

4.2

Institutionen als Regeln und Regelsysteme

Zur weiteren Analyse soll im Folgenden unterschieden werden in (Spiel-)Regeln, (Spiel-) Züge und die handelnden Personen. Die Regeln legen fest, welche Handlungen der Personen zulässig sind und welche nicht. Unter den zulässigen Aktionen wählen die agierenden Personen bestimmte Maßnahmen (Spielzüge) aus. Übertragen auf das Beispiel des Fußballsports beinhaltet dies, dass alle Handlungen (Spielzüge) durch Personen (Spieler)

4 Institutionen

461

vorgenommen werden. Der Bereich der möglichen Handlungsoptionen wird allerdings durch die Regeln des Fußballsports vorgegeben. Spielregeln werden allerdings erst dadurch wirksam, dass es irgendeine Form eines Mechanismus zur Durchsetzung der Regeln gibt. Im Fußball sorgt der Schiedsrichter dafür, dass Handspiele geahndet und bestraft werden. Erst die Androhung und Durchsetzung der Strafe bewegt die Spieler dazu, Regelbrüche zu vermeiden und nur solche Spielzüge zu wählen, die regelkonform zum Sieg führen können. In diesem Sinne seien Institutionen im Folgenden als Regeln bzw. Regelsysteme inklusive ihrer Durchsetzungsmechanismen definiert. Von den Institutionen sind noch die Organisationen zu unterscheiden. Organisationen können als soziale Strukturen verstanden werden, die sowohl Institutionen (Spielregeln) als auch Spieler umfassen. Die Organisationsregeln legen dabei üblicherweise fest, welche Verhaltensweisen innerhalb der Organisation zulässig sind und wie Handlungen mit Personen außerhalb der Organisation bzw. anderen Organisationen stattfinden können. Aus analytischen Motiven werden Organisationen wie zum Beispiel Unternehmen mitunter auch als reine „Spieler“ – unter Vernachlässigung der internen Struktur – behandelt. Grundsätzlich gilt jedoch für praktisch alle Organisationen, dass sie Institutionen (ein Regelsystem) für interne und externe Transaktionen aufweisen. In der Wirtschaft und Gesellschaft gibt es eine Vielzahl von Institutionen. Auf der untersten Ebene befinden sich bilaterale private Verträge. Jeder privatrechtliche Vertrag beinhaltet ein zuvor festgelegtes Regelsystem mit Rechten und Pflichten. Der Kauf eines Autos etwa beinhaltet für den Käufer die Pflicht, eine bestimmte Menge des gesetzlichen Zahlungsmittels an den Verkäufer zu übereignen. Im Gegenzug erhält er Eigentumsrechte am Auto sowie zumeist weitere Leistungen wie zum Beispiel Servicezusagen und Garantierechte. Für die Wahrung der Garantierechte verpflichtet sich der Käufer wiederum, das Auto nur sachgemäß zu nutzen … Die nächst höhere Ebene eines privatrechtlichen Vertrags besteht im Beitritt zu einer Organisation. Damit ist üblicherweise die Anerkennung des Regelsystems der Organisation verbunden, die erneut eine Vielzahl von Rechten und Pflichten beinhaltet. Innerhalb der Organisation, also unter Anerkennung der Institutionen der Organisation, erfolgen oftmals weitere Vertragsabschlüsse bzw. Transaktionen. Private Institutionen können des Weiteren zwei grundsätzlich unterschiedliche Arten aufweisen: Sie können formale oder informelle Institutionen sein. Formale Institutionen sind durch eine Kodifizierung, also die schriftliche Hinterlegung der Vereinbarungen gekennzeichnet. Diese dienen der Verifikation der Vereinbarung und ermöglichen eine Durchsetzung über das allgemeine Rechtssystem der Gesellschaft. Informelle Institutionen werden nicht kodifiziert und entsprechen im Wesentlichen stillschweigenden Vereinbarungen. Man spricht in diesem Zusammenhang auch häufig von impliziten Verträgen. Eine zentrale Eigenschaft informeller Institutionen besteht darin, dass eine Durchsetzung durch das allgemeine Rechtssystem nicht möglich ist. Eine Durchsetzung erfolgt nicht selten dadurch, dass im Fall von Regelverletzungen die Kooperationsbeziehung abgebrochen wird. Beispiel für informelle Institutionen sind allgemeine, nicht kodifizierte Verhaltensnormen, die oftmals unter dem Begriff der Kultur zusammengefasst werden. So erwartet

462

Mathias Erlei

man etwa im deutschen Kulturkreis bei einer Begegnung den Austausch eines Grußes und ein höfliches Auftreten. Bleibt dieses aus, so ist es sinnlos, die Polizei um Hilfe zu suchen. Stattdessen kann man den Normenverletzer von bestimmten privaten Kooperationen, Vergnügungen und Organisationen ausschließen, oder man kann sich auch Ihnen gegenüber unhöflich verhalten. Diese Strafandrohungen können hinreichend dafür sein, dass sich die meisten Personen an die informellen Regeln halten. Informelle Institutionen müssen somit selbstdurchsetzend sein, das heißt, es muss im Eigeninteresse aller Beteiligten liegen, sich an die Regeln zu halten. Die höchste Ebene der formalen Institutionen besteht in Gesellschaftsverträgen. Hierunter versteht man Verordnungen, Gesetze und – auf höchster Ebene – die Verfassung einer Gesellschaft. Das Privatrecht (inklusive Rechtsprechung) liefert dabei eine Grundlage für die Durchsetzung privatrechtlicher Vereinbarungen. Das Strafrecht (inklusive Rechtsprechung) dient als Durchsetzungsmechanismus von Gesetzen, die das friedliche Miteinander der Individuen regeln, und das öffentliche Recht (inklusive Rechtsprechung) verfolgt das Ziel, die Regeln für das Verhalten der Politiker, Bürokraten und Gebietskörperschaften durchzusetzen. In der ökonomischen Literatur wird oftmals der Unterschied zwischen privat gestalteten Institutionen („private governance“) und den aus Sicht des Individuums vorgegeben gesellschaftlichen Institutionen („institutional environment“) betont (z.B. Williamson 1996, S. 326). Erstere sind Instrumente, derer sich die privaten Akteure bedienen, um die Anreize der beteiligten Parteien derart zu kanalisieren, dass Fehllenkungen von Ressourcen vermieden werden. Letztere bilden den Rahmen innerhalb dessen sich die privaten Entscheidungsträger bewegen können. Die positive Theorie der Entstehung der gesellschaftlichen Institutionen wird vor allem im Bereich der Neuen Politischen Ökonomie („Public Choice“) diskutiert. Die normative Untersuchung der Wirkung von gesellschaftlichen Institutionen erfolgt vorrangig im Bereich der Ökonomischen Analyse des Rechts („Law and Economics“) und in der Verfassungsökonomik („Constitutional Economics“). Im folgenden dritten Abschnitt dieses Beitrags werden die mikroökonomischen Grundlagen von Mess- und Transaktionskosten dargestellt. Diese werden im Hinblick auf private Verträge dargestellt, bilden aber auch die Grundlage für Anreizprobleme auf gesellschaftlicher Ebene. Aus methodischer Sicht werden Grundkenntnisse der Mikroökonomik, insbesondere der Spieltheorie, vorausgesetzt, wie Sie im Beitrag 1 dieses Kompendiums dargestellt werden.

4.3

Transaktionskosten und einzelwirtschaftliche Institutionen

Kosten der Anbahnung, des Verhandelns und Aufsetzens sowie der Durchsetzung von Verträgen existieren in großer Vielfalt. Während reine Such- oder Zeitkosten jedoch keine grundlegenden Anreizprobleme, sondern vorrangig Restriktionen darstellen, werden in der Literatur mehrere Varianten von Transaktionskosten unterschieden, die ohne institutionelle Vorkehrungen zu systematischen Fehllenkungen von Ressourcen führen würden.

4 Institutionen

463

Üblicherweise wird in die Problembereiche „asymmetrische Informationen“ und „spezifische Investitionen“ unterschieden. In der ersten Kategorie verfügen zwei potentielle Tauschpartner über unterschiedliche Informationsausstattungen, was potentiell zu Fehlverhalten und Ineffizienzen führen kann. Bei den asymmetrischen Informationsausstattungen wird zudem unterschieden in das „moralische Wagnis“, bei der sich die Informationsasymmetrie erst im Anschluss an den Vertragsabschluss einstellt, und die „adverse Selektion“, bei der die unterschiedlichen Informationen schon vor Vertragsabschluss bestehen. Das Informationsproblem in der zweiten Kategorie, also dem Fall der spezifischen Investitionen, liegt darin begründet, dass es im Allgemeinen nicht möglich ist, vollständige Verträge zu verfassen. Darunter versteht man solche Vereinbarungen, die für alle denkbaren Eventualitäten eine konkrete Verhaltensweise vorgeben. Bleiben Verträge jedoch unvollständig, so ergibt sich für wenigstens eine Marktseite die Möglichkeit die Vertragsbedingungen – und damit auch die Verteilung der Tauschgewinne – nach erfolgten Investitionen neu zu verhandeln. Im Folgenden werden diese beiden Problembereiche einer kurzen Analyse unterzogen. Anschließend werden Reputationsmechanismen als Lösungskonzept diskutiert, um abschließend die wichtigsten Ansätze des Wesens der Unternehmung vorzustellen.

4.3.1

Asymmetrische Informationen

Die Theorien zur Analyse von Transaktionen, bei denen die verfügbaren Informationen verteilt sind, werden üblicherweise unter dem Label „Prinzipal-Agent-Problem“ zusammengefasst. Die Ungleichverteilung besteht in den zentralen Modellen dieses Theoriekomplexes darin, dass eine der Parteien über Informationen verfügt, die der anderen fehlen. Dies liefert Ansatzpunkte, den Transaktionspartner zum eigenen Vorteil zu täuschen. Unterstellt man, dass die schlechter informierte Partei dieses Problem erkennt und das Verhalten der Gegenseite antizipiert, so ergeben sich oftmals – wie im Folgenden gezeigt wird – ineffiziente Gleichgewichte. Die beiden wichtigsten Varianten des Prinzipal-Agent-Problems sind das „moralisches Wagnis mit versteckter Handlung“ (Moral Hazard) und die „adverse Selektion“. Der Unterschied zwischen beiden Varianten besteht darin, zu welchem Zeitpunkt die Informationsasymmetrie entsteht. Im Modell der adversen Selektion herrscht die unterschiedliche Informationsausstattung bereits vor dem Abschluss des Vertrags vor, im Modell des moralischen Wagnisses entsteht sie erst bei oder während der Durchführung der Transaktion.

4.3.1.1 Moralisches Wagnis mit versteckter Handlung Das Problem moralischen Wagnisses lässt sich als dreistufiges Spiel darstellen. In Stufe 1 des Spiels unterbreitet der Prinzipal dem Agenten ein Vertragsangebot, in Stufe 2 entscheidet der Agent, ob er das Angebot annimmt und in Stufe 3 erfüllt der Agent seine vertraglichen Verpflichtungen. Dabei wird angenommen, dass der Agent zwischen verschiedenen Weisen der Vertragserfüllung wählen kann. Zum Beispiel könnte er seine Verpflichtungen

464

Mathias Erlei

mit großem Engagement (bzw. großer Anstrengung) und großer Gründlichkeit vornehmen oder er könnte sein Aufgaben lustlos und oberflächlich erfüllen. Das moralische Wagnis kommt dadurch zustande, dass der Prinzipal die Verhaltensweise des Agenten, seine Anstrengung, nicht beobachten bzw. nicht verifizieren kann. Ist es nicht möglich, das Agentenverhalten zu beobachten, so kann der Prinzipal weder direkt erkennen noch aus dem Ergebnis schließen, wie sich der Agent verhalten hat. Fehlende Verifizierbarkeit meint, dass es dem Prinzipal zwar möglich sein kann, das Agentenverhalten zu erkennen, doch ist es ihm nicht möglich, es gerichtsfest nachzuweisen. Dies hat zur Folge, dass Vertragsvereinbarungen, die auf dem Agentenverhalten basieren, vor Gericht nicht durchgesetzt werden können und somit zu unverbindlichen Versprechen degenerieren. Ein sehr einfaches Modell mit moralischem Wagnis könnte zum Beispiel wie in Abbildung 4.1 dargestellt aussehen. Das Baumdiagramm ist wie folgt zu lesen: Zu Beginn des Spiels, im Knotenpunkt P, macht der Prinzipal ein Vertragsangebot, das nur aus einer vereinbarten Entlohnung y besteht. Die Entlohnung kann frei gewählt werden und beliebige Zahlen annehmen. In der Graphik wird dies dadurch zum Ausdruck gebracht, dass neben der horizontalen Kante noch weitere von P1 ausgehen. Der die Pfeile verbindende Bogen deutet die Stetigkeit der Variable y an. Anschließend, im Knoten A2, entscheidet der Agent, ob er annimmt oder ablehnt. Im letzteren Fall erhalten beide Spieler einen Nutzen in Höhe von null, was durch den Nullvektor zum Ausdruck gebracht wird. Nimmt der Agent das Angebot hingegen an, so muss er entscheiden, ob er seine Vertragsverpflichtung mit hoher Anstrengung „effort“) eh = 5 oder mit geringer Anstrengung en = 1 ausübt. Unterstellt man, dass der durch den Einsatz des Agenten erzielte Output gemäß einer Produktionsfunktion x = 10 ∙ ei bestimmt wird und der Marktpreis pro Outputeinheit p = 1 beträgt, so ergibt sich ein Nutzen des Prinzipals in Höhe von px – y = 10eh – y im Fall einer hohen Agenten-Anstrengung und ein Nutzen von px – y = 10en – y, falls der Agent nur das geringe Anstrengungsniveau wählt. Nimmt man des Weiteren an, dass der Einsatz des Agenten bei diesem eine Nutzeneinbuße (Kosten) in Höhe von K = ei verursacht, so beträgt der endgültige Agentennutzen bei hoher Anstrengung y – K = y – eh. Bei geringer Anstrengung entsteht ein Agentennutzen von y – K = y – en.

Abb. 4.1  Ein Moralisches-Wagnis-Spiel

4 Institutionen

465

Das Gleichgewicht dieses Spiels ermittelt man, indem man die Aktionen des Spiels von hinten nach vorne untersucht. Im letzten Knoten A2 entscheidet der Agent über die Wahl seines Einsatzes e. Da die Lohnzahlung bei beiden Anstrengungen y beträgt, seine Anstrengungskosten bei hoher Anstrengung aber größer sind, wird der Agent in diesem Spiel stets ein niedriges Anstrengungsniveau en vorziehen. Falls er den Vertrag angenommen hat, wird sein Nutzen somit y – 1 betragen. Im Knoten A1 wird er nunmehr seinen Nutzen bei Vertragsannahme mit dem Nutzen bei Ablehnung vergleichen. Dementsprechend nimmt er das Vertragsangebot definitiv an, wenn y – 1 > 0 ist. Bei einem Lohnsatz von eins ist der Agent indifferent. Wir unterstellen im Folgenden, dass der Agent im Fall einer Indifferenz das Vertragsangebot stets annehmen würde. Seine Bedingung für die Vertragsannahme lautet damit y ≥ 1. Ist diese Bedingung nicht erfüllt, so wird er ablehnen. Damit bleibt nur noch die Analyse des Vertragsangebots. Der Prinzipal erkennt, dass der Agent nur Verträge mit einer hinreichend hohen Entlohnung annehmen wird und dass der Agent stets die Anstrengung en wählen wird. Sein Nutzen beträgt damit für alle Löhne oberhalb von oder gleich eins 10 – y. Sein Nutzenmaximum liegt dann bei der Randlösung y = 1. Das Gleichgewicht des Spiels besteht somit aus einem Vertragsangebot y = 1, der Annahme des Vertrags sowie einer Anstrengung von en = 1. Die entsprechenden Gleichgewichtsnutzen betragen UP = 10 – 1 = 9 und UA = 1 – 1 = 0. Wie man leicht erkennen kann, ist dieses Gleichgewicht ineffizient. Würde nämlich zum Beispiel ein Lohnsatz von 20 und ein hohes Anstrengungsniveau gewählt, so ergäben sich Nutzen von UP = 30 und UA = 15. Beide Parteien könnten einen höheren Nutzen erzielen. Dieses effiziente Verhalten basiert jedoch auf einer uneigennützigen Verhaltensweise des Agenten, der eine für sich nutzenmindernde hohe Anstrengung liefert, ohne dass damit seine Entlohnung zunähme. Unterstellt man dem Agenten ein rationales, eigennütziges Verhalten, so wird er bei fixer Entlohnung niemals die höhere Anstrengung wählen. Effiziente Verhaltensweisen erfordern somit ein irrationales oder uneigennütziges Verhalten und entsprechen damit nicht den Anforderungen an ein Gleichgewicht. Das hier betrachtete Vertragsdilemma lässt sich jedoch sehr einfach auflösen. Lässt sich zum Beispiel der durch den Agenten erzielte Output (nicht seine Anstrengung!) messen, so könnte der Prinzipal einen komplexeren Vertrag anbieten, der den Agentenlohn vom gemessenen Output abhängig macht. So könnte er dem Agenten zum Beispiel einen zusätzlichen Erlösanteil α anbieten. Das Einkommen des Agenten betrüge dann y + αpx. Löst man das Spiel jetzt wieder rückwärts, so ergeben sich folgende Ergebnisse: Der Agent wird dann eine hohe Anstrengung liefern, wenn y + α50 – 5 ≥ y + α10 – 1 bzw. in vereinfachter Form α ≥ 0,1. Letzteres kann man als Anreiz­in­ten­si­täts­be­dingung bezeichnen. Die Bedingung für die Vertragsannahme lautet in diesem Fall: y + 50α – 5 ≥ 0. Da der Agent annahmegemäß den Vertrag auch bei Gleichheit der beiden Seiten der Ungleichung annimmt, ist es für den Prinzipal immer sinnvoll, den festen Lohn y so weit zu senken, bis y + 50α – 5 = 0 bzw. y = 5 – 50α. Der Prinzipal maximiert dann seinen Nutzen UP = (1 – α)50 – y unter Berücksichtigung der Vertragsannahmebedingung. Jedes

466

Mathias Erlei

Vertragsangebot mit α ≥ 0,1 und y = 5 – 50α maximiert dann den Nutzen des Prinzipals. Ein Beispiel: Wenn α = 0,1 und y = 0, dann wird der Agent den Vertrag annehmen und eine hohe Anstrengung liefern. Die Gleichgewichtsnutzen betragen dann UP = 40 und UA = 0. Dieses Gleichgewicht ist zudem effizient, da im untersuchten Spiel die Summe der Nutzen 40 nicht überschreiten kann. Gleiches gilt jedoch auch für die Verträge (α = 0,5; y = – 20), (α = 1; y = – 45) und viele weitere. Verträge mit ergebnisorientierter Entlohnung erreichen deshalb effiziente Zustände, weil das Setzen von Leistungsanreizen – hier: die Variable α – den Agenten zu höheren Leistungen anspornt und damit das ursprüngliche Dilemma auflöst. Das Modell des moralischen Wagnisses wird üblicherweise in etwas erweiterter Form dargestellt: Es wird noch der Einfluss des Zufalls und der Risikoaversion einbezogen. Ein entsprechendes Spiel (für allgemeinere Darstellungen vgl. Erlei u.a. 2016 und Holmstrom;Milgrom 1987) in der extensiven Form findet sich in Abbildung 4.2. Der zentrale Unterschied zum vorherigen Spiel besteht darin, dass nach der Anstrengungsentscheidung in Knoten A2 noch ein Zufallseinfluss eingefügt wird. Der Zufall wird durch den künstlichen Spieler „Natur“ (N) modelliert, der mit vorgegeben Wahrscheinlichkeiten die jeweiligen Kanten auswählt. Die Wahl der großen Anstrengung eh beeinflusst hier nur die Wahrscheinlichkeiten des Eintretens eines guten bzw. schlechten Ergebnisses. Konkret bedeutet es, dass bei Wahl der hohen Anstrengung der hohe Output mit einer Wahrscheinlichkeit 0,8 bzw. 80 Prozent folgt. Im Gegensatz dazu wird der hohe Output bei geringer Anstrengung (en = 1) nur mit einer Wahrscheinlichkeit von 20 Prozent realisiert. Im Folgenden sei unterstellt, dass der Prinzipal risikoneutral, der Agent hingegen risikoavers sei. Diese Annahme kann in vielen Kontexten oftmals dadurch gerechtfertigt werden, dass der Prinzipal (als Arbeitgeber oder Auftraggeber) häufig über bessere Möglichkeiten der Risikostreuung verfügt und dass es gerade die Unternehmer sind, die sich auf das Tragen von Risiken spezialisieren. Der risikoneutrale Prinzipal maximiert demnach den Erwartungswert seiner monetären Gewinne. Für den Agenten unterstellen wir im Folgenden eine Erwartungswert-Varianz-Nutzenfunktion (μ-σ-Prinzip) folgenden Typs: r EU A = E [ y + α px − e ] − σ 2 . 2

Abb. 4.2  Ein Moralisches-Wagnis-Spiel mit Zufallseinfluss und Risikoaversion

4 Institutionen

467

Der Erwartungsnutzen EUA setzt sich somit aus zwei Komponenten zusammen. Dem Erwartungswert des Nettoeinkommens (y + αx – e) und der Nutzeneinbuße, die der Agent dadurch erleidet, dass sein Einkommen zufallsbeeinflusst schwankt. Diese Nutzeneinbuße bezeichnet man üblicherweise als Risikokosten. Das Risiko wird dabei durch die Varianz des Einkommens gemessen und mit einem Faktor r/2 multipliziert, der die subjektive Gewichtung der Risikokosten – also der Wohlbefindenseinbuße durch Übernahme des Risikos – darstellt. Der Erwartungswert des Nettoeinkommens bei hoher Anstrengung beträgt: Eh[y + αpx – e] = 0,8 ∙ (y + 50α – 5) + 0,2(y + 10α – 5) = 42α + y – 5. Bei niedriger Anstrengung beträgt er En[y + αpx – e] = 0,2 ∙ (y + 50α – 1) + 0,8(y + 10α – 5) = 18α + y – 1. Für den Fall einer hohen Anstrengung lässt sich die Varianz der Agentengewinne wie folgt bestimmen: σh2 = 0,8 ∙ (y + 50α – 5 – Eh[y + αpx – e])2 + 0,2 ∙ (y + 10α – 5 – Eh[y + αpx – e])2 σh2 = 0,8 ∙ (y + 50α – 5 – 42α – y + 5)2 + 0,2 ∙ (y + 10α – 5 – – 42α – y + 5)2 σh2 = 256α2. Genau dieselbe Varianz ergibt sich auch für ein geringes Maß an Anstrengung (en = 1). Nun kann man die betrachteten Elemente in die Erwartungswert-Varianz-Nutzenfunktion einsetzen, sodass r EU A = ph (50α + y − e)+ (1− ph )(10α + y − e)− σ 2 = 10α + y − e + 40α ph −128ra 2 2 ⎧⎪ 0,8 falls e = 5 ⎫⎪ . ⎬ mit ph = ⎨ 0,2 falls e = 1 ⎭⎪ ⎩⎪ Die Erwartungsnutzen- bzw. Gewinnfunktion des risikoneutralen Prinzipals (r = 0) lautet: EUP = ph((1 – α)50 – y) + (1 – ph)(1 – α)10 – y) = ph(1 – α)40 – y) + (1 – α)10 – y. Nun kann das Spiel durch Rückwärtsinduktion gelöst wären: Im Knoten A2 hat der Agent den Vertrag bereits angenommen. Er wählt den hohen Einsatz e = 5, wenn EUA(e = 5) ≥ EUA(e = 1) 10α + y – 5 + 32α – 128rα2 ≥ 10α + y – 1 + 8α – 128rα2 24α ≥ 4 bzw. α ≥ 1⁄₆. (1)

468

Mathias Erlei

Diese Ungleichung wird als Anreizintensitätsbedingung bezeichnet. Ist sie erfüllt, so wird der Agent im Fall der Vertragsannahme eine hohe Anstrengung liefern. Da die Wahl der Anstrengung keinen Einfluss auf die Risikokosten aufweist, ist die Entscheidung für oder gegen den hohen Einsatz unabhängig vom Risiko und der Risikoaversion. Der Agent wird das Vertragsangebot jedoch nur dann annehmen, wenn sein Erwartungsnutzen größer als null, also seinem Nutzen bei Ablehnung des Vertrags, ist. Die Vertragsannahmebedingung lautet folglich 10α + y – e + 40αph – 128rα2 ≥ 0

⎧ 2 ⎪ 18α + y −1−128rα ⎪ 0 ≤ ⎨ ⎪ 42α + y − 5 −128rα 2 ⎪⎩

⎫ 1 ⎪ ⎪ 6 . (2) ⎬ 1 ⎪ wenn α ≥ ⎪⎭ 6 wenn α
⁴⁵⁄₈) wählt er hingegen eine fixe Entlohnung des Agenten. Tabelle 4.1 zeigt die Gleichgewichte für ausgewählte Werte der Risikoaversion r. Dabei wird deutlich, dass die Prinzipal-Gewinne mit steigendem r sinken.

Tab. 4.1  Gleichgewichte bei unterschiedlichen Risikoparametern r

α*

y*

e*

EUP

EUA

0 ¹⁸⁄₃₂ ⁴⁵⁄₈ ⁴⁵⁄₈ 100

1⁄₆ 1⁄₆ 1⁄₆ 0 0

–2 0 18 1 1

5 5 5 1 1

37 35 17 17 17

0 0 0 0 0

470

Mathias Erlei

Woran liegt das? Es liegt daran, dass das Setzen eines hinreichenden Anreizes (α = 1⁄₆) zwei Effekte aufweist: • Zum einen motiviert es den Agenten, eine hohe Anstrengung zu wählen. Dadurch steigt die Wahrscheinlichkeit, einen hohen Output zu erzielen, um 60 Prozent. Die zusätzlichen Anstrengungskosten betragen 4. Der erwartete Effizienzgewinn beträgt damit 0,6 ∙ (50 – 10) – 4 = 20. Dieser Effekt ist völlig unabhängig von der Risikoaversion des Agenten r. • Zum anderen verschiebt das Setzen des Leistungsanreizes einen Teil des Risikos vom risikoneutralen Prinzipal zum risikoaversen Agenten. Damit erhöhen sich dessen Risikokosten, für die er natürlich kompensiert werden muss, wenn er den Vertrag annehmen soll. Je höher die Risikoaversion des Agenten, desto höher sind die entsprechenden Risikokosten RK = 128rα2. Bei einem r von ⁴⁵⁄₈ gleichen sich die Effizienzgewinne durch höheren Einsatz und die zusätzlichen Risikokosten exakt aus. Der Prinzipal ist in diesem Fall indifferent zwischen dem Setzen oder Nichtsetzen von Anreizen. Bei einer noch höheren Risikoaversion des Agenten würden die Risikokosten durch Anreizsetzung stärker ansteigen als die Wirkung der höheren Anstrengung. Ein zweiter Punkt, der in Tabelle 4.1 auffällt, ist die einseitige Verteilung der Transaktionsgewinne zugunsten des Prinzipals. Der Agent erzielt immer nur seinen Reservationsnutzen, das heißt das Nutzenniveau, das er auch bei Ablehnung des Vertrags exakt realisieren könnte. Die Ursache hierfür liegt darin begründet, dass in der hier angeführten Modellierung der Prinzipal dem Agenten ein „Take-it-or-leave-it“-Angebot macht. Dadurch dass der Agent keine eigenen Angebote unterbreiten kann, liegt alle Verhandlungsmacht beim Prinzipal, der diese – ganz Homo oeconomicus – vollständig ausnutzt. In anderen Modellierungen könnten man die Rollen des Vertragsangebotes und dessen Annahme auch austauschen oder man könnte viele Prinzipale einem einzigen Agenten wettbewerbliche Angebote unterbreiten lassen (vgl. Erlei u.a. 2016, S. 111 ff.). Dabei zeigt sich jedoch, dass die Anreizsetzung in den Modellvariationen unverändert bleibt. Nur das outputunanbhängige Festentgelt y würde bei größerer Verhandlungsmacht des Agenten ansteigen. Last but not least soll das Gleichgewichtsverhalten noch mit dem theoretischen Wohlfahrtsmaximum – verstanden als Summe von EUP und EUA – verglichen werden. Dieses ist dadurch gekennzeichnet, dass der Prinzipal das vollständige Risiko trägt, der Agent aber einen hohen Einsatz liefert. Mit anderen Worten: Es müsste gelten, dass α = 0 und e = 5. Der Agentennutzen betrüge dann y – 5, der Prinzipalnutzen EUP = 0,8 ∙ 50 + 0,2 ∙ 10 – y = 42 – y. In der Summe ergäbe sich eine Wohlfahrt von W = EUP + EUA = 37. Tabelle 4.1 zeigt, dass dieses Ergebnis jedoch nur bei einem risikoneutralen Agenten (r = 0) erreicht werden kann. In allen anderen Fällen wird im Gleichgewicht kein Wohlfahrts- bzw. Paretooptimum erreicht. Der Grund hierfür ist, dass der Agent ohne Anreize – und damit ohne Übernahme von Risiko – der Versuchung unterliegen wird, nur

4 Institutionen

471

das geringe Anstrengungsniveau zu wählen. Mit Anreizen – und Risiko beim risikoaversen Agenten – entstehen jedoch zusätzliche Ineffizienzen durch die vom Ideal abweichende Verteilung des Risikos. Das Problem moralischen Wagnisses kann bei Risikoaversion des Agenten somit nicht ideal gelöst werden, es wird nur eine „Second-best-Lösung“ erreicht.

4.3.1.2 Die Mehraufgaben-Prinzipal-Agent-Theorie In diesem Abschnitt soll noch eine weitere Variante des Problems moralischen Wagnisses betrachtet werden: die Mehraufgaben-Prinzipal-Agent-Theorie (Holmstrom/Milgrom 1991, 1994). Sie basiert auf dem ersten Modell (mit Anreizentlohnung), erweitert dies jedoch durch die Einführung einer zweiten Aufgabe des Agenten. Abbildung 4.3 gibt die Struktur dieses Spiels wieder. Die Grundidee des Ansatzes besteht darin, dass der Agent zwei Aufgaben erfüllen muss und dass darüber hinaus seine größere Anstrengung nur dann eine wirkliche Wertsteigerung verursacht, wenn beide Aufgaben mit hoher Anstrengung erledigt werden. Man mag hier beispielsweise an einen Richter denken, der nicht nur eine große Anzahl von Fällen bearbeiten soll, sondern alle Fälle auch gründlich und unparteiisch abarbeiten soll. Der Wert des Outputs sei durch die Formel (x −10)(x 2 −10) V= 1 (x1 + x 2 − 20)+ 20 1600 bestimmt. Während der Wert V nicht vor Gericht nachgewiesen werden könne, mögen x1 und x2, die einzelnen Leistungskomponenten mengenmäßig erfass- und verifizierbar sein. Wie zuvor mögen diese Outputs durch die Produktionsfunktion xi = 10ei für i ∈ {1, 2} gegeben sein. Eine Anreizentlohnung kann mithin nur über die Einzelleistungen x1 und x2 durchgeführt werden. Die Nutzenfunktion des Agenten laute EUA = y + a1x1 + a2x2 – e1 – e2 EUA = y + (10a1 – 1)e1 + (10a2 – 1) e2.

Abb. 4.3  Der Mehraufgaben-Prinzipal-Agent-Spiel

472

Mathias Erlei

Die Erwartungsnutzen- bzw. Gewinnfunktion des Prinzipals lautet EUP = V – y – α1x1 – α2x2 EUP =

(x1 −10)(x 2 −10) (x1 + x 2 − 20)+ 20 − y −10α 1e1 −10α 2e2 . 1600

Setzt man die entsprechenden Werte für e1 und e2 in die Nutzenfunktionen ein, so ergeben sich die in Abbildung 3 dargestellten Auszahlungen. Wie zuvor wird auch dieses Spiel rückwärts gelöst. Für die Knoten A3 und A4 lautet die Bedingung für einen hohen Einsatz des Agenten, dass 40α2 ≥ 4 bzw. α2 ≥ ¹⁄₁₀, wie man durch einfaches Vergleichen der Agenten-Nutzen bei hohem und niedrigem Einsatz erkennen kann. Unabhängig davon, welche durch α2 induzierte Anstrengung in A3 und A4 folgt, ergibt sich für Knoten A2 die Bedingung α1 ≥ ¹⁄₁₀ für die Leistung eines hohen Einsatzes. Die optimale Wahl der Anstrengung aus Sicht des Agenten lautet folglich

⎧ ⎫ 1 ⎪ 5 wenn ai ≥ ⎪ ⎪ ⎪ 10 ei* = ⎨ . ⎬ (4) 1 ⎪ 1 wenn ai < ⎪ ⎪⎩ ⎪⎭ 10 Die Vertragsannahmebedingung lautet: EUA = y + (10α1 – 1)e1* + (10α2 – 1)e2* ≥ 0 y ≥ –(10α1 – 1)e1* – (10α2 – 1)e2*

bzw. (5)

Bevor der aus Sicht des Prinzipals optimale Vertrag bestimmt wird, können noch einige Vereinfachungen vorgenommen werden. Zum einen wird ein gewinnmaximierender Prinzipal den fixen Bestandteil der Agentenentlohnung y immer so weit absenken, bis y exakt der rechten Seite der Vertragsannahmebedingung entspricht, sodass die Vertragsannahmebedingung auch als Gleichung geschrieben werden kann. Darüber hinaus ist es für beide Seiten unerheblich, ob αi genau ¹⁄₁₀ oder höher ist. Ab αi = ¹⁄₁₀ wird der jeweils hohe Einsatz gewählt. Ein Erhöhung der Anreizintensitäten würde dann nur zu einer sich aus der Vertragsannahmebedingung ergebenden Senkung von y führen. Analog würden Werte von 0 < αi < ¹⁄₁₀ stets zur Wahl von ei = 1 führen, und jede Erhöhung von αi über null würde exakt durch ein Sinken von y ausgeglichen. Damit genügt es, die folgenden Gewinnvergleiche auf die Anreizintensitäten null und ¹⁄₁₀ zu beschränken. Bietet etwa der Prinzipal einen Vertrag mit α1 = α2 = ¹⁄₁₀ an, so folgt eine hohe Anstrengung der Agenten bei beiden Aufgaben. Über die Vertragsannahmebedingung erhält man

1 ⎞ 1 ⎞ ⎛ ⎛ y = − ⎜ 10⋅ −1⎟ e1* − ⎜ 10⋅ −1⎟ e2* = 0. ⎝ 10 ⎠ ⎝ 10 ⎠

4 Institutionen

473

Einsetzen in die Gewinnformel aus Abbildung 3 ergibt EUP = 100 – ⁵⁰⁄₁₀ – ⁵⁰⁄₁₀ – 0 = 90. In gleicher Weise lassen sich die in Tabelle 4.2 zusammengefassten Gewinne berechnen. Es ist ersichtlich, dass der Prinzipal seinen Gewinn maximiert, wenn er den Vertrag α1 = α2 = ¹⁄₂₀ mit y = 0 anbietet. Das resultierende Gleichgewicht ist effizient. Interessant wird das Modell eigentlich erst, wenn man eine kleine Annahmenänderung vornimmt. Deshalb wird im Folgenden unterstellt, nur ein Output (hier: x1) sei messbar, während der andere (x2) nicht messbar und demzufolge auch nicht vor Gericht verifizierbar sei. Damit kann eine Anreizentlohnung für Aufgabe 2 nicht mehr durchgeführt werden. Welche Konsequenz hat dies für das Gleichgewicht? In diesem Fall ist die rechte Spalte in Tabelle 4.2 nicht mehr realisierbar. Vergleicht man die verbleibenden Zellen, so wird deutlich, dass jetzt auch die Anreizentlohnung für Aufgabe 1 nicht mehr sinnvoll ist. Zwar erhöht sich damit die Anstrengung des Agenten bei Aufgabe 1, doch ist dies für den Prinzipal ohne höhere Anstrengung in Aufgabe 2 nutzlos. Dem fehlenden Nutzen ist aber der erhöhte Agentenaufwand (e2 = 5) gegenüberzustellen, sodass deutlich wird, dass ein umfassenderer Verzicht auf Anreize die effiziente Lösung darstellt! Dies ist auch intuitiv plausibel. Nimmt man etwa das oben genannte Beispiel des Richters, der möglichst viele Fälle (e1) bearbeiten soll, aber zugleich jeden Fall mit großer Sorgfalt bearbeiten soll (e2), so wird einsichtig, dass der Gesellschaft nicht damit gedient ist, wenn er viele Fälle (e1 = 5) schlampig (e2 = 1) bearbeitet. Erweitert man das hier vorgestellte Modell um Zufallseinflüsse, Risikoaversion des Agenten und eine stetige Anstrengung ei, so lassen sich noch einige weitere Ergebnisse ableiten (vgl. Erlei u.a. 2016, S. 113 ff.): (a) Grundsätzlich muss gelten, dass alle Aufgaben des Agenten gleichermaßen attraktiv entlohnt werden – ansonsten droht die Vernachlässigung der weniger gut bezahlten Aktivitäten; (b) Steigt der Zufallseinfluss (das Risiko) bei einer der Aufgaben, so sinkt die optimale Anreizintensität für alle Aufgaben des Agenten; (c) ein geringes (hohes) Risiko bei einer nicht verifizierbaren, auf Vermögensobjekte bezogenen Aufgabe kann als Argument für eine vertikal desintegrierte (integrierte) Organisation verstanden werden. Bei geringem Risiko kann sich auch ein risikoaverser Agent als Eigentümer der Produktionsmittel eignen, und die hohe Anreizintensität des Marktes bewegt ihn zu einer effizienten Produktion. Wird das Risiko jedoch zu groß, wird der risikoneutrale Prinzipal als besserer Risikoträger benötigt und die vertikale Integration (mit dem Prinzipal als Eigentümer der Vermögensobjekte und Träger des Risikos) wird effizient. Tab. 4.2  Gewinnvergleich im Mehraufgaben-Modell

α2

0

¹⁄₁₀

0

y=2 EUP = 18

y=1 EUP = 14

¹⁄₁₀

y=1 EUP = 14

y=0 EUP = 90

α1

474

Mathias Erlei

4.3.1.3 Adverse Selektion Beim moralischen Wagnis entsteht die Informationsasymmetrie zwischen Prinzipal und Agent erst nach Abschluss des Vertrags, zum Beispiel in Form eines nicht verifizierbaren Arbeitseinsatzes. Im Gegensatz dazu beschreibt das Problem der adversen Selektion (Akerlof 1970) Anreizprobleme, bei denen die Informationsasymmetrie schon vor der Kontaktaufnahme zwischen den Transaktionspartnern besteht. Wie im Folgenden gezeigt wird, kann dies zu Ineffizienzen führen, die zumindest teilweise durch Berücksichtigung weiterer Informationen oder Maßnahmen beseitigt werden können. Das Grundproblem lässt sich anhand eines sehr einfachen Vertragsproblems darstellen. Ein Agent könnte einem Prinzipal eine Leistung, zum Beispiel ein gebrauchtes Auto oder Arbeitszeit, gegen ein Entgelt y verkaufen. Es sei angenommen, dass zwei unterschiedliche Typen von Agenten existieren. Typ 1 hat geringe Opportunitätskosten (c1 = 3) des Verkaufs seiner Leistung – der Gebrauchtwagen weise etwa eine geringe Qualität auf oder ein gering qualifizierter Arbeitnehmer kann außerhalb der Transaktion nur ein geringes Einkommen erzielen. Agenten des Typs 2 mögen hingegen hohe Opportunitätskosten (c2 = 13) des Verkaufs ihrer Leistung haben (hohe Qualität des Gebrauchtwagens bzw. gute Einkommensmöglichkeiten. Die objektive Wahrscheinlichkeit, dass der Agent einen bestimmten Typ annimmt, betrage für beide Typen 0,5. Gleichzeitig sei die gehandelte Leistung des Typs 1 für den Prinzipal von geringerem Wert (p1 = 5) sein als die des Agenten vom Typ 2 (p2 = 15). In dieser Situation ist es in jedem Fall effizient zu handeln, die der Wert der Leistung für den Prinzipal in jedem Fall höher ist als die Opportunitätskosten für den Agenten: p1 > c1 und p2 > c2. Ein Problem entstehe nun dadurch, dass der Agent seine Opportunitätskosten zwar kenne, der Prinzipal jedoch nicht. Würde der Prinzipal bei fehlendem Wissen über den Typ des Agenten ein Kaufangebot y unterbreiten, das der Agent anschließend annehmen oder ablehnen kann, ergibt sich wie in Abb. 4.4 dargestelltes Spiel.

Abb. 4.4  Ein einfaches Spiel mit adverser Selektion

4 Institutionen

475

Die gestrichelte Linie zwischen den Knoten P1 und P2 soll andeuten, dass der Prinzipal nicht weiß, an welchem dieser Knoten er sich bei der Wahl von y befindet. Die beiden Zahlen 0,5 an den Kanten, die vom Knoten N ausgehen, geben erneut die jeweiligen Eintrittswahrscheinlichkeiten an. Das Spiel ist sehr einfach zu lösen: Der Agent wird das Angebot im Knoten A2 annehmen, wenn y ≥ 13. In Knoten A1 muss das Gebot des Prinzipals größer oder gleich 3 sein. Dies erkennend muss der Prinzipal nun sein optimales Angebot bestimmen. Für alle y ≥ 13 weiß er, dass sowohl Typ-1- als auch Typ-2-Agenten das Angebot annehmen. Da beide gleich wahrscheinlich sind, ist die erwartete Qualität, die er in diesem Fall erhält, (15 + 5)/2 = 10. Das bedeutet, dass er einen negativen erwarteten Gewinn erleiden würde. Bleibt sein Angebot y jedoch strikt unterhalb von 13, so erkennt er, dass nur Agenten vom Typ 1 sein Angebot annehmen werden. Der erwartete Wert der zu erwerbenden Leistung beträgt somit p1 = 5. Somit wird er keinesfalls mehr als 5 bieten. Da er jedoch in der komfortablen Lage ist, ein „Take-it-or-leave-it“-Angebot machen zu können, wird er seinen erwarteten Gewinn maximieren, indem er einen Preis in Höhe von 3 bietet. Sein erwarteter Gewinn beträgt in diesem Fall EUP = 0,5(5 – 3) = 1. Der Agent wird einen Nutzen von null erzielen. Das Gleichgewicht dieses Spiels ist ineffizient, da in allen Fällen, in dem der Agent vom Typ 2 ist, keine Transaktion stattfinden wird. Die theoretisch möglichen Transaktionsgewinne von (15-13) = 2 gehen in diesen Fällen verloren. Um diese Ineffizienz zumindest partiell zu beseitigen, werden im Allgemeinen zwei Strategien diskutiert: Filterung und Signalisierung. In beiden Fällen werden zusätzliche Aktionen (bzw. Signale) zur Abwicklung der Transaktion vorgenommen. Beim Signalisieren erfolgt dieses Signal bereits vor dem Unterbreiten des Angebots durch den Prinzipal, beim Filtern erfolgt es hingegen erst nach der Annahme des Angebots durch den Agenten. Es sei zunächst die Filter-Lösung betrachtet. Die Grundidee des Filterns besteht darin, dass der Prinzipal dem Agenten nicht ein einziges Angebot unterbreitet, sondern mehrere. Diese unterscheiden sich im Hinblick auf eine nach der Annahme vorzunehmende Handlung durch den Agenten. Wenn diese Handlung für die beiden Agententypen unterschiedliche Konsequenzen aufweist, besteht die u.U. Möglichkeit, die Verträge so zu gestalten, dass durch die Zusatzhandlung die verschiedenen Agententypen unterschiedliche Verträge wählen, sodass auch Transaktionen mit Agenten vom Typ 2 zustande kommen können. In Anlehnung an das Gebrauchtwagenbeispiel sei angenommen, dass die Autos des Typs 2 jährlich eine Reparatur mit Kosten in Höhe von R = 6 aufweisen, während Autos vom Typ 1 drei entsprechende Reparaturen (Kosten: 3R = 18) benötigen. In diesem Fall kann der Prinzipal für Typ 2-Autos eine Ergänzung des Kaufvertrags um die Reparaturleistungen des Folgejahres (RLF) abschließen. Er könnte zum Beispiel die folgenden zwei Verträge anbieten: (1) Für einen Kaufpreis von y = y1 wird ein Auto ohne Reparaturleistung gekauft. (2) Für einen Kaufpreis von y = y2 + 6 wird ein Auto inklusive der Reparaturleistungen für das folgende Jahr gekauft. Das Spiel in dieser erweiterten Form lässt sich wie in Abb. 4.5 darstellen.

476

Mathias Erlei

Abb. 4.5  Ein Filter-Modell

Die Gewinne des Prinzipals setzen sich jeweils aus dem Wert des Autos (5 oder 15), dem Wert der Reparaturleistung (18 bzw. 6), dem Preis für die Reparaturleistung (0 oder –6) und dem eigentlichen Güterpreis (y1 bzw. y2). Bei den Agenten werden zusätzlich die Opportunitätskosten des Leistungsverkaufs (3 bzw. 13) berücksichtigt. Im Knoten A2 wählt der Agent Vertrag 1, falls y1 > y2 und y1 ≥ 13. Er wählt Vertrag 2 (mit RLF), wenn y2 ≥ y1 und y1 ≥ 13. Er lehnt die Verträge ab, falls beide Preise unterhalb von 13 liegen. Im Knoten A1 wählt der Agent Vertrag 1, wenn y1 – 3 ≥ y2 – 15 und y1 ≥ 3. Er wählt Vertrag 2, falls y2 – 15 > y1 – 3 und y2 ≥ 15. Er lehnt beide Verträge ab, falls y1 < 3 und y2 < 15. Der Prinzipal muss zwei Verträge entwickeln. Im ersten Vertrag (ohne RLF) entspricht das Kalkül im Wesentlichen dem, was schon im einfachen Spiel mit adverser Selektion besprochen wurde. Wenn y1 größer oder gleich 13 ist, würden zwar beide Agententypen den Vertrag annehmen können, der erwartete Nutzen des Prinzipals wäre jedoch negativ und ein Wert von y1 = 0 wäre eine eindeutig überlegene Alternative. Preise unterhalb von 13 würden allenfalls durch Typ 1-Agenten angenommen werden, sodass der erwartete Wert aus Sicht des Prinzipals 5 ist. Da jedoch allenfalls Typ 1-Agenten annehmen würden wäre es aus Sicht des Prinzipals sinnvoll, keine Angebote oberhalb von y1 = 5 vorzuschlagen. Damit scheidet die Konstellation y1 > y2 und y1 ≥ 13 als Gleichgewichtskandidat aus. Vertrag 2 enthält die Reparaturleistung und verursacht bei Typ 1-Agenten Kosten in Höhe von 18 abzüglich der dafür vorgesehenen Kompensation in Höhe von 6. Ein Typ 1-Agent würde solch einen Vertrag allenfalls annehmen, wenn y2 ≥ 15 mit Nullgewinnen für den Prinzipal. Dies würde den Prinzipal jedoch schlechter stellen als ein einheitlicher Vertrag y1 = y2 =3. Dementsprechend muss y2 kleiner als 15 sein, sodass Typ 1-Agenten diesen regelmäßig ablehnen werden. Wenn der Vertrag 2 (mit RLF) einen Beitrag liefern soll, dann müsste er folglich speziell für den Typ 2-Agenten konzipiert sein. Für diese stellt die Reparaturleistung weder einen Gewinn noch einen Verlust dar, da die anfallenden Kosten

4 Institutionen

477

exakt identisch sind mit der Kompensation für die Reparaturleistung. Typ 2-Agenten werden nur Verträge mit y2 ≥ 13 annehmen. Prinzipale werden keine höheren Entgelte anbieten als ihre Wertschätzung für Typ 2-Leistungen (15). Aus dem bislang Besprochenen folgt, dass 3 ≤ y1 ≤ 5 und 13 ≤ y2 ≤ 15. Außerdem wird y2 mit einer zusätzlichen Reparaturleistung RLF zum Preis von 6 gekoppelt. Ein seinen Gewinn maximierender Prinzipal wird nur die minimal erforderlichen Entgelte anbieten, sodass y1 = 3 und y2 = 13 (zuzüglich RLF-Vereinbarung) für ihn optimal sind. Typ 1-Agenten werden wegen der Kosten der RLF-Zusatzvereinbarung Vertrag 1 wählen. Typ 2-Agenten werden Vertrag 2 wählen. Damit kommt stets ein Tausch zustande, das Gleichgewicht des Spiels ist effizient. Die Strategie des Filterns – der Selbstselektion der Agenten – durch geschickte Konstruktion eines Menüs von Vertragsangeboten bildet somit eine Möglichkeit zur Bewältigung des Problems der adversen Selektion. In dem hier diskutierten Beispiel war dies vollständig möglich, in anderen Situationen resultieren jedoch nicht selten „Second-best“-Lösungen (vgl. Erlei u.a. 2016, S. 137 ff.). Eine zweite Herangehensweise an das Problem der adversen Selektion besteht im Signalisieren. Hierunter wird verstanden, dass der Agent schon vor Aufnahme der Vertragsverhandlungen Handlungen vornimmt, die für den Prinzipal ein Signal für den Typen des Agenten sind. Dies soll im Folgenden anhand einer Erweiterung des einfachen adverse-Selektions-Spiels, interpretiert als Aufnahme eines Beschäftigungsverhältnisses, veranschaulicht werden. Ein Typ 1-Agent wird somit als potentieller Mitarbeiter mit relativ geringer Produktivität und geringen Opportunitätskosten verstanden, während Typ 2-Agenten eine hohe Produktivität und hohe Opportunitätskosten aufweisen. Das Ausgangsspiel (vgl. Abbildung 4) wird nun in der Form erweitert, dass alle Agenten die Möglichkeit haben, ein Studium (oder eine Schulung) zu absolvieren. Außerdem wird unterstellt, dass sich die Nutzen-Kosten-Relationen dieses Studiums für die beiden unterschiedlich sei. Hier sei angenommen, dass Agenten vom Typ 2 ohne Nutzeneinbuße vornehmen könne: Die verlorenen Einkommen werden kompensiert durch die Freude am Lernen. Für Typ 1-Agenten (mit der deutlich geringeren Produktivität) seien die Kosten des Studiums jedoch sehr hoch. Zum einen benötigen sie mehr Zeit, um das Examen zu bestehen und zum anderen empfinden sie deutlich weniger Freude am Lernen. Es sei angenommen, die Nutzeneinbuße eines Studiums (übertragen in Geldeinheiten) betrage für Typ 1-Agenten 11 Einheiten. Hieraus ergibt sich das in Abb. 4.6 gezeigte Spiel. Die gestrichelten Linien zwischen den Knoten P1 und P4 sowie zwischen P2 und P3 deuten wiederum an, dass die Prinzipale nicht wissen, in welchem der miteinander verbundenen Knoten sie sich befinden. Man beachte außerdem, dass das Studium – im Gegensatz zur Realität – hier keinerlei Änderungen in der Produktivität der Agenten bewirkt. Das Studium in diesem Spiel hat nur eine einzige Funktion: Es dient als Signal für den Prinzipal. Zur Lösung des Spiels muss man sich wieder rückwärts durch den Spielbaum arbeiten. In den Knoten A5 und A6 werden die Typ 2-Agenten die Vertragsangebote dann annehmen, wenn yi ≥ 13. In den Knoten A3 und A4 nehmen die Typ 1-Agenten an, wenn die Entlohnung mindestens 3 beträgt. Dies gilt auch für Knoten A3, da ein Ablehnen mit einem negativen Nutzen von –11, die Kosten des Studiums, verbunden wären.

478

Mathias Erlei

Abb. 4.6  Ein Signalisierungsspiel

Wie sehen nun die optimalen Entlohnungsangebote yS und yKS aus? Es ist klar, dass ein Angebot yKS ≥ 13 von allen Typen angenommen wird, sodass ein der erwartete Wert der Leistung des Agenten geringer ausfällt als die Entlohnung. Werte von yKS zwischen 5 und 13 werden nur Typ 1-Agenten annehmen und erneut wäre dies für den Prinzipal ein Verlustgeschäft. Folglich muss wiederum gelten: 3 ≤ yKS ≤ 5. Böten die Prinzipale den Agenten mit Studium Löhne yS ≥ 13, so würden erneut alle Typen annehmen, was ein Problem wäre. Es gibt jedoch eine Ausnahme: Wenn nur Typ 2-Agenten ein Studium aufnehmen würden, könnte sich diese Strategie rechnen. Nimmt man beispielsweise an, es gelte 13 ≤ yS ≤ 14 , so zeigt sich, dass es für keinen Typ 1-Agent lohnt, ein Studium aufzunehmen. Der erwartete Gewinn wäre negativ, während die Wahrnehmung eines Angebots 3 ≤ yKS ≤ 5 nichtnegative Gewinne einbringt. Würde allerdings gelten, dass yS ≥ 14, dann könnte es sich auch für die Typ 1-Agenten lohnen, ein Studium aufzunehmen. Da die Prinzipale allgemein bestrebt sind, ihre individuellen Gewinne zu maximieren, ist es naheliegend, die unteren Grenzen der betrachteten Entlohnungsintervalle einer genaueren Untersuchung zu unterziehen. Ein Kandidat für ein Gleichgewicht ist somit durch die folgenden Elemente gekennzeichnet: • Typ 1-Agenten studieren nicht. • Typ 2-Agenten studieren. • Die Entlohnungsangebote betragen yS = 13 für Agenten mit Studium un yKS = 3 für Agenten ohne Studium. • Typ 1-Agenten akzeptieren alle Verträge für die gilt: yi ≥ 3. • Typ 2-Agenten akzeptieren alle Verträge, für die gilt: yi ≥ 13.

4 Institutionen

479

Eine kurze Überprüfung zeigt, dass kein Spieler und kein Typ eines Spielers sich durch Wechsel seiner Verhaltensweise – gegeben die Strategien der anderen Spieler bzw. Typen – besserstellen kann: Es liegt also ein Gleichgewicht vor. Durch das Signalisieren gelingt es den Typ 2-Agenten eine Transaktion anzubahnen, die Ineffizienz aus dem einfachen Spiel mit adverser Selektion wird beseitigt.

4.3.2

Spezifische Investitionen

Im vorangehenden Abschnitt wurde deutlich, dass das Timing verschiedener aufeinander bezogener Aktionen oftmals grundlegend für die Entstehung ökonomischer Probleme ist. Dies gilt auch für diesen Abschnitt. Doch wird hier der Gesichtspunkt asymmetrischer Informationen ersetzt durch Probleme, die im Zusammenhang mit spezifischen Investitionen stehen. Spezifische Investitionen sind solche, die ihren vollen Wert nur in der angestrebten Verwendungsweise behalten, eingesetzt in anderen Kontexten aber zumindest einen Teil ihres Wertes einbüßen. Spezifische Investitionen führen – wie im Folgenden noch gezeigt wird – zu Abhängigkeiten. Solche Abhängigkeiten können ausgenutzt werden – im Allgemeinen zu Lasten der abhängigen Personen. Ein solches Ausnutzen der Abhängigkeit wird in der Literatur oftmals (ein wenig theatralisch) als Hold-up (Raubüberfall) bezeichnet. Hinreichend weitsichtige Investoren antizipieren diese Probleme und investieren deshalb nicht oder zumindest in weniger spezifische, wenngleich auch weniger produktive Vermögensobjekte. Diese Form der Fehl- oder Unterinvestition steht im Zentrum der Problematik spezifischer Investitionen und bildet das sogenannte „Hold-up-Problem“. Wären Geschäftspartner allerdings dazu in der Lage, vor Durchführung einer spezifischen Investition sämtliche Eventualitäten zu berücksichtigen und alle effizienten Reaktionen darauf in einem Vertrag gerichtsfest festzulegen, dann gäbe es kein grundlegendes Problem mit spezifischen Investitionen. Aus diesem Grund bildet die Annahme, dass es unmöglich sei, „vollständige Verträge“ – also solche, die genau festlegen wie unter sämtlichen möglichen Gegebenheiten zu handeln ist – abzuschließen (vgl. Hart 1995, S. 29 ff.). Dieser Ausgangsidee entsprechend wird die entsprechende Literatur auch als „Theorie unvollständiger Verträge“ bezeichnet. Die wichtigsten Modelle dieser Forschungsrichtung weisen eine einheitliche Grundstruktur im Timing der anstehenden Handlungen auf, die in Abbildung 4.7 dargestellt wird. Im Anfangsvertrag können Regelungen im Hinblick auf das Eigentum an den Kapitalgütern vereinbart werden oder Verfahren zur Lösung späterer Konflikte. Der Vertrag muss unvollständig bleiben, das heißt viele wichtige Regelungen können erst später, wenn die konkreten Gegebenheiten des Marktes bekannt sind, festgelegt werden. Nach Abschluss des Anfangsvertrages erfolgen die spezifischen Investitionen bzw. die Entscheidung darüber. Später – das Unwissen über die konkreten Handelsbedingungen ist durch das Wissen um die konkrete aktuelle Lage verschwunden – müssen weiter gehende Vereinbarungen

480

Mathias Erlei

Abb. 4.7  Zeitlicher Ablauf der Handlungen bei spezifischen Investitionen

getroffen werden, die eine Anpassung an die nun bekannten Rahmenbedingungen festlegen. Erst eine Einigung auf dieser Ebene ermöglicht im Allgemeinen die Realisierung von Handelsgewinnen, die dann auf der letzten Stufe realisiert werden. Aus spieltheoretischer Sicht erfolgen die relevanten menschlichen Spielzüge nur in den Zeitpunkten 1, 2 und 4. Die entsprechenden spieltheoretischen Abbildungen des Holdup-Problems weisen dementsprechend zumeist zwei oder drei Stufen auf. Die spezifischen Investitionen bilden natürlich stets eine Stufe, ebenso wie die Neuverhandlungen. Der Anfangsvertrag wird oftmals aus der Analyse des eigentlichen Spiels ausgeblendet. Dahinter steht die implizite Annahme, dass die verschiedenen institutionellen Varianten des Hold-up-Problems miteinander verglichen werden und dasjenige Design mit dem besten Gleichgewicht gewählt wird. Bevor das eigentliche Hold-up-Spiel in seiner Gänze betrachtet wird, soll vorab die Modellierung der Neuverhandlungen angesprochen werden. Es gibt nicht das eine Verhandlungsspiel, sondern eine Vielzahl von Modellen aus der kooperativen Spieltheorie, der nichtkooperativen Spieltheorie und anderen, nicht spieltheoretischen Bereichen der Ökonomik. Selbstverständlich führen die unterschiedlichen Modelle nicht zu einheitlichen Ergebnissen. Insofern basiert die Theorie unvollständiger Verträge immer auf einem wackeligen Fundament, wenn es ein bestimmtes Verhandlungsmodell verwendet. Dennoch gibt es eine Verhandlungslösung, die sich im Rahmen dieser Literatur weitgehend etabliert hat: die Nash-Verhandlungslösung. Sie wurde als Beitrag der kooperativen Spieltheorie von John Nash (1950) axiomatisch abgeleitet und später in mehreren Beiträgen der nicht-kooperativen Spieltheorie als Gleichgewicht von Verhandlungsspielen gefunden. Darüber hinaus weist sie ein hohes Maß an intuitiver Plausibilität auf. Man beachte, dass die Nash-Verhandlungslösung vom Nash-Gleichgewicht zu unterscheiden ist. Das NashGleichgewicht ist ein Gleichgewichtskonzept für beliebige nicht-kooperative Spiele, während die Nash-Verhandlungslösung eine Lösung eines speziellen kooperativen Verhandlungsspiels darstellt. Zwar wurde inzwischen gezeigt, dass manche nicht-kooperativen Verhandlungsspiele die Nash-Verhandlungslösung als Nash-Gleichgewicht aufweisen, doch gibt es viele andere Verhandlungsspiele, deren Nash-Gleichgewicht nicht mit der Nash-Verhandlungslösung vereinbar sind. Die hier verwendete Variante der Nash-Verhandlungslösung bildet eine Verhandlung ab, in der die beteiligten Verhandlungsseiten einen Handelsgewinn T realisieren können. Dazu müssen sie sich jedoch zuvor auf eine Aufteilung einigen. Schließlich werden auch

4

Institutionen

481

die Auszahlungen bei Nichteinigung – sogenannte Drohpunkte – explizit abgebildet. Die Nash-Verhandlungslösung teilt die Handelsgewinne so auf, dass zunächst jede Verhandlungsseite ihre Gewinne gemäß eigenem Drohpunkt zugeteilt bekommt. Der dann noch verbleibende Rest des Handelsgewinns wird gleich unter den Verhandlungsseiten aufgeteilt. Unterstellt man etwa ein Verhandlungsspiel zwischen zwei Personen, deren Gewinne bei Nichteinigung (Drohpunkte) mit Ni bzw. Nj gegeben sind und ein Gewinn bei Einigung in Höhe von T aufgeteilt werden kann, so betragen die Gewinne gemäß Nash-Verhandlungslösung:

Ui = Ni +

T − Ni − N j 2

=

T + Ni − N j 2

.

Für alle folgenden Modelle dieses Abschnitts unterstellen wird einen Verhandlungsverlauf, der zu dieser Aufteilung der Verhandlungsgewinne führt. Als Erstes wird das einfachst mögliche Hold-up-Spiel mit beiderseitigen spezifischen Investitionen untersucht. Dies lässt sich wie in Abb. 4.8 darstellen. Hinter diesem Spielbaum steht ein Modell in dem ein Verkäufer V und ein Käufer K zu Beginn des Spiels gleichzeitig eine spezifische Investition v ∈ {0,20} bzw. k ∈ {0,20} durchführen kann. Es ist wichtig zur Kenntnis zu nehmen, dass hier und im Folgenden immer angenommen wird, dass die Investitionen ausschließlich durch die einzelnen Spieler vorgenommen werden können. Mit anderen Worten: Nur der Verkäufer kann die Investition v tätigen und nur der Käufer kann die Investition k realisieren. Die Verkäufer Investition hat Auswirkungen auf dessen Produktionskosten, die durch C(v) = 50 – 1,5v bestimmt sind.

Abb. 4.8 Das einfache Hold-up-Spiel (Basis-Modell)

482

Mathias Erlei

Der Käufer investiert in den Wert des verhandelten Produkt, der sich aus der folgenden Formel bestimmt: W(k) = 50 + 1,5k. Können sich die Spieler nicht einigen, so wird angenommen, dass die Investitionen vollkommen spezifisch sind und auf den vollkommen wettbewerblichen Märkten nur ein Gewinn (Drohpunkt) von null erzielt werden kann. Um das Spiel übersichtlich zu halten, wird im hier verwendeten Spiel implizit unterstellt, dass die zu Beginn des Spiels vorherrschende Zukunftsunsicherheit zwar die konkreten, später durchzuführenden Handlungen, nicht aber die Auszahlungen beeinflusst. Aus der Neuverhandlung, in der die Kosten der spezifischen Investition bereits als versunken angesehen werden, ergeben sich folgende Gewinne (ohne Berücksichtigung der Investitionsausgaben): W − C 50 +1,5k − 50 +1,5v 1,5(k + v) U VNV = U KNV = = = (6) 2 2 2 Von diesen Überschüssen aus der Einigung in den Neuverhandlungen müssen jedoch noch die Investitionskosten abgezogen werden, sodass

UV =

1,5(k + v) 3 1 − v = k − v (7) 2 4 4

UK =

1,5(k + v) 3 1 − k = v − k. (8) 2 4 4

Man beachte, dass die Gewinne mit den Investitionen der anderen Seite zunehmen, mit den eigenen Investitionen jedoch abnehmen. Ursache hierfür ist, dass der Investor jeweils die vollständigen Kosten der Investition selbständig tragen muss, aber die Hälfte des Produktivitätsgewinns in den Neuverhandlungen an die Verhandlungsgegenseite gehen. Setzt die Investitionsentscheidungen entlang des Spielbaums in diese Gleichungen ein, erhält man die Auszahlungen aus Abbildung 4.8. Das Gleichgewicht dieses Spiels können wir nicht durch Rückwärtsinduktion ermitteln, da die Investitionsentscheidungen gleichzeitig erfolgen. Man muss deshalb nach Kombinationen des Investitionsverhaltens suchen, die wechselseitig optimale Investitionsentscheidungen (gegeben die jeweilige Investition des anderen Spielers) sind. Nimmt man etwa an, der Käufer möge investieren, k = 20 bzw. der Käufer wählt immer die ansteigende Kante, dann ist es für den Verkäufer optimal, nicht zu investieren. Analog ist es für den Verkäufer optimal, nicht zu investieren, wenn der Käufer nicht investiert, das heißt wenn der Käufer immer die fallende Kante wählt. Dementsprechend ist es für den Verkäufer immer optimal, nicht zu investieren, unabhängig davon, ob der Käufer investiert oder nicht. In gleicher Weise lässt sich zeigen, dass es auch für den Käufer immer besser ist nicht zu investieren. Es ist somit für beide Spieler einzelwirtschaftlich optimal, nicht zu investieren. Damit liegt das Gleichgewicht im Punkt (v = 0, k = 0) und beide Spieler realisieren einen Gewinn von null. Es ist offensichtlich, dass das Gleichgewicht nicht effizient ist, da bei (v = 20, k = 20) beide Spieler einen höheren Gewinn erzielen. Dieses Paretooptimum ist aber kein Gleichgewicht, da beide Spieler einen Anreiz haben, einseitig von diesem kooperativen Verhalten abzuweichen, um damit einen noch höheren Gewinn zu erzielen.

4

Institutionen

483

Im Grundmodell der Theorie unvollständiger Verträge kann diese Ineffizienz durch Umverteilung der anfänglichen Eigentumsrechte (Anfangsvertrag) zumindest teilweise behoben werden. Unterstellt man etwa, dass der Verkäufer die für die Transaktion relevanten Vermögensobjekte des Käufers erwirbt, um das Endprodukt dann abschließend selbst zu vermarkten. In diesem Fall ist er – im Gegensatz zum Käufer – nicht mehr auf Nachverhandlungen angewiesen, er kann auch ohne ihn agieren und die Früchte seiner Investition ernten. Sein Drohpunkt entspricht dann dem Gesamtgewinn im Neuverhandlungsspiel. Die Gewinnfunktionen lauten dann UK = –k

3 1 3 1 U V = 50 + k − 50 + v = k + v. 2 2 2 2

(9) (10)

Durch die neuen Eigentumsverhältnisse ändern sich die Auszahlungen im Hold-upSpiel. Das Spiel mit den modifizierten Auszahlungen findet sich in Abbildung 4.9. Unabhängig davon, ob der Verkäufer investiert oder nicht, verursachen Investitionen beim Käufer nur Kosten, aber keine Erlöse. Deshalb ist es für ihn wieder optimal, nicht zu investieren: k = 0. Hierauf aufbauend zeigt der Spielbaum, dass die optimale Reaktion des Verkäufers hierauf die Durchführung der Investition (v = 20) ist. Dieses Gleichgewicht erzeugt Gewinne in Höhe von UV = 10 und UK = 0. Zwar ist dieses Ergebnis immer noch schlechter als das Paretooptimum im einfachen Hold-up-Spiel ohne Integration, es ist aber besser als das Gleichgewicht im Ausgangsspiel. Mit anderen Worten: Die Verschiebung der Eigentumsrechte löst das Unterinvestitionsproblem nur partiell.

Abb. 4.9 Das Hold-up-Spiel bei Verkäufer-Integration

484

Mathias Erlei

Im Fall der Käufer-Integration ergibt sich ein spiegelbildliches Gleichgewicht. Besitzt der Käufer alle Verfügungsrechte an den Vermögensobjekten, so ist er nach erfolgten Investitionen nicht mehr auf eine Einigung mit dem Verkäufer angewiesen. Der Verkäufer hingegen hat keinen Einfluss mehr auf die Entscheidungen und kann auch keine weitere Beteiligung an den Überschüssen erwarten: UV = –v (9)

1 ⎛ 3 ⎞ 1 3 U K = 50 + k − ⎜ 50 − v ⎟ = k + v. (10) ⎝ ⎠ 2 2 2 2 In diesem Fall wird der Käufer investieren, der Verkäufer aber nicht. Die Gewinne im Spiel betragen UK = 10 und UV = 0. Erneut löst die vertikale Integration das Unterinvestitionsproblem nur partiell. Zum Schluss mag man sich fragen, wie der Transfer der Eigentumsrechte vorstellbar ist. Dies kann man sich durch eine dem hier betrachteten Spiel vorgelagerte Verhandlungsstufe über den Handel der Vermögensobjekte vorstellen. Da durch die Integration – hier: egal in welcher Richtung – eine Erhöhung der Gesamtgewinne von null auf zehn erfolgt, könnten sich die beteiligten Parteien zum Beispiel darauf einigen, dass die Vermögensobjekte für einen Preis von fünf zu einer der Parteien übertragen werden. In diesem Fall würde der Gesamtgewinn wieder gleich zwischen beiden Seiten verteilt. Diese Gewinnverteilung entspräche dann der Nash-Verhandlungslösung. Grundsätzlich könnten aber auch andere Preise für den Verkauf der Vermögensobjekte, solange sie nur zwischen null und zehn liegen, das Problem gleichermaßen lösen. Das hier betrachtete „Property Rights-Modell“ kann nun in mindestens zwei Richtungen variiert werden. (1) Man könnte zum Beispiel die Kosten- und Wertfunktion in allgemeinerer Form aufstellen: W(k) = 50 + ωk und C(v) = 50 – γv. Wäre jetzt die Wirkung der Käuferinvestition k größer als die der Verkäuferinvestition, ω > γ, dann führt die Käuferintegration zu einem höheren Gleichgewichtsgewinn als die Verkäuferintegration. Entsprechend sollte man annehmen, dass sich Käufer und Verkäufer darauf einigen, alle Vermögensobjekte an den Käufer zu geben. Im umgekehrten Fall, also ω < γ, wäre die Verkäuferintegration vorzuziehen. (2) Von der Unverzichtbarkeit des Humankapitals des Käufers spricht man, wenn seine Beteiligung während des gesamten Transaktionsprozesses – unabhängig von der Integrationsform – unverzichtbar ist. In diesem Fall bleibt eine Verkäuferintegration wirkungslos, da dieser nach wie vor auf den Käufer angewiesen bleibt. Dies hat zur Folge, dass nur noch eine Käuferintegration die Investitionsanreize in der gewünschten Richtung beeinflusst, selbst wenn die quantitative Bedeutung der Verkäuferinvestition größer wäre. Die Unverzichtbarkeit des Käufers bewirkt somit die Vorzugswürdigkeit der Käuferintegration. Umgekehrt führt natürlich auch die Unverzichtbarkeit des Verkäufers zur Verkäufer-Integration. In einem allgemeineren Hold-up-Modell mit stetigen Investitionsmöglichkeiten für Käufer und Verkäufer können noch weitere Ergebnisse des Property-Rights-Ansatzes

4

Institutionen

485

abgeleitet werden (vgl. Hart 1995). Diese sollen hier jedoch nicht weiter verfolgt werden. Stattdessen sei das Augenmerk nun auf eine andere Lösungsstrategie des Unterinvestitionsproblems gerichtet: das geschickte Design von Verträgen. Als erstes sei ein Optionsvertrag (vgl. u.a. Nöldeke;Schmidt 1995) zwischen dem Käufer und Verkäufer betrachtet. Im Folgenden sei angenommen, der Käufer verkaufe dem Verkäufer vor Beginn des Spiels eine Verkaufsoption. Diese gebe dem Verkäufer das Recht, sein Produkt zum Ausübungspreis von pA = 60 an den Käufer abzugeben. Der Preis, den der Verkäufer für die Option zahlen muss, sei pO = 10. Dadurch verändert sich das verbleibende Hold-up-Spiel wie in Abbildung 4.10. Nach erfolgten Investitionen muss der Verkäufer in Stufe 3 des Spiels entscheiden, ob der die Option ausüben will oder ob er sie verfallen lässt und stattdessen Neuverhandlungen über die Vertragsbedingungen beginnen möchte. Die Auszahlungen in allen Fällen des Verfallenlassens und Neuverhandelns entsprechen den Auszahlungen des Basis-Hold-upSpiels, korrigiert um den Preis pO = 10, den der Verkäufer dem Käufer vor Durchführung der Investitionen zahlt.

Abb. 4.10 Das Hold-up-Spiel mit Verkaufsoption

486

Mathias Erlei

Die Auszahlungen in den Fällen des Ausübens der Option bestimmen sich wie folgt: UVOA = –pO + pA – C(v) – v = –10 + 60 – (50 – 3⁄₂v) – v UVOA = 1⁄₂ v. (11) UKOA = –pO + W(k) – pA – k = 10 + (50 – 3⁄₂k) – 60 – k UVOA = 1⁄₂ k. (12) In Stufe 3 des Spiels wird der Verkäufer die Option in drei von vier Fällen ausüben. Nur bei v = 0 und k = 20 sind seine Auszahlungen höher, wenn er die Option verfallen lässt. Der Käufer wird in jedem Fall investieren (k = 20). Sollte etwa der Verkäufer nicht investieren (v = 0), so würde er bei k = 0 seine Option ausüben. Der Käufer müsste dann das Produkt für pA = 60 kaufen, obwohl es nur einen Wert von 50 aufweist. Investiert der Käufer hingegen, so beträgt der Wert des Produkts 80. Dies verleitet den Verkäufer dazu, die Option verfallen zu lassen und Neuverhandlungen zu starten. Hierin erzielt der Verkäufer einen Preis von C + (W – C)/₂ = 65, der 15 Geldeinheiten unter dem Wert liegt. Zwar kann diese Differenz die Investitionskosten k = 20 nicht ganz decken, doch fällt der Verlust durch die Investition (5) geringer aus als der des teuren Kaufs bei geringem Wert (10). Korrigiert man noch die Auszahlungen um den Kaufpreis der Option pO, so ergeben sich die Auszahlungen aus Abbildung 10. In der oberen Hälfte des Spielbaums (v = 20) wird der Verkäufer die Option immer ausüben, sodass der Käufer von seiner Investition in jedem Fall profitiert (UKOA = k/₂). Der Käufer wird also investieren, gleichgültig ob der Verkäufer investiert oder nicht. Der Verkäufer, der dies erkennt, antizipiert somit den weiteren Spielverlauf perfekt. Sollte der Verkäufer nicht investieren, so weiß er, dass der Käufer investiert und er selbst später in Neuverhandlungen einen Gewinn von 5 verwirklichen kann. Dies vergleicht er mit dem Spielverlauf für v = 20: Hier wird der Käufer wiederum investieren, der Verkäufer selbst aber seine Option ausüben, so dass er einen Gewinn von 10 realisiert. Aus diesem Grund zieht er es vor, selbst zu investieren. Das Gleichgewicht des Hold-up-Spiels mit Optionsvertrag lautet damit: Beide Spieler investieren, der Verkäufer übt die Option aus und beide erzielen einen Gewinn von 10. Das Ergebnis ist effizient, denn es entspricht den höchstmöglichen Auszahlungen des BasisSpiels. Ein geschickt aufgesetzter Optionsvertrag kann somit das Hold-up-Problem in der hier dargestellten Form vollständig lösen! Der Optionsvertrag ist nicht die einzige vertragliche Lösung des Hold-up-Problems. Einige der wichtigsten dieser Ansätze basieren darauf, dass für die Neuverhandlungen ein anderes Verhandlungsspiel als die Nash-Verhandlungslösung unterstellt bzw. von den Spielern bewusst gestaltet wird. Die meisten dieser Lösungen verlieren jedoch ihre Wirksamkeit, wenn man die Art der zugrunde liegenden Investition ändert. Bislang wurde von sogenannten „eigennützigen Investitionen“ ausgegangen. Damit ist gemeint, dass die Investition eines Spielers die Parameter seiner eigenen Zielfunktion beeinflussen. Verwendet man jedoch „kooperative Investitionen“, also Investitionen, deren

4 Institutionen

487

Wirkung auf die Produktivität des anderen Spielers abzielen, funktionieren die meisten Lösungsvorschläge nicht mehr. Um dies zu verdeutlichen, sei das oben diskutierte Basis-Modell wie folgt modifiziert: Die Wert- bzw. Kostenfunktion seien jetzt: W(v) = 50 + 1,5v und C(k) = 50 + 1,5k. Mit anderen Worten: Die Investition k des Käufers (bzw. v des Verkäufers) beeinflusst nunmehr die Kosten C des Verkäufers (bzw. den Wert W des Käufers). Lässt man ansonsten das Basis-Spiel unverändert, so ergeben sich im Anschluss an die Neuverhandlungen dieselben Auszahlungen wie oben. Das Gleichgewicht des Spiels ist dasselbe wie oben, sodass das Hold-up-Problem scheinbar völlig unverändert ist. Dass dies jedoch nicht zutrifft, zeigt die Anwendung der Optionslösung auf das neue Hold-up-Problem. Die Nutzen der Spieler im Fall der Optionsausübung betragen dann: UVOA = –pO + pA – C(k) – v = –10 + 60 – (50 – 3⁄₂k) – v UVOA = 1⁄₂ k – v. (13) UKOA = pO + W(v) – pA – k = 10 + (50 – 3⁄₂v) – 60 – k UVOA = 1⁄₂ v – k. (14) Falls die Option verfällt, bleiben die Auszahlungen wie im zuvor besprochenen Holdup-Spiel mit Optionsvertrag. Hieraus ergibt sich das Spiel (mit modifizierten Auszahlungen) wie in Abb. 4.11. Der Verkäufer wird in diesem Spiel die Option in drei von vier Fällen ausüben. Nur bei v = 20 und k = 0 wird er in Neuverhandlungen eintreten. Dies hat zur Folge, dass der Käufer in keinem Fall investieren wird – unabhängig von der Investitionsentscheidung des Verkäufers. Schließlich wird auch der Verkäufer nicht investieren, da sein Gewinn nach v = 0, k = 0 und der Optionsausübung größer (UV = 0) ist als nach v = 20, k = 0 und den folgenden Neuverhandlungen (UV = –20). Im Gleichgewicht werden folglich beide Spieler nicht investieren und die Option wird ausgeübt werden. Damit befindet man sich wieder im Unterinvestitionsgleichgewicht des Basis-Spiels, die Optionsverträge sind bei kooperativen Investitionen somit wirkungslos. In einem wesentlich allgemeineren Ansatz zeigen Che und Hausch (2000), dass es den Parteien bei kooperativen Investitionen und der Möglichkeit von Neuverhandlungen nicht möglich ist, ein besseres Gleichgewicht als das Unterinvestitionsgleichgewicht des Spiels ohne weitere Vertragsklauseln zu erreichen. Alle Bemühungen, das Hold-up-Problem durch bilaterale Vertragsklauseln zu lösen, sind damit zum Scheitern verurteilt. Ein Ausweg aus dem Hold-up-Problem auch für kooperative Investitionen liefert allerdings die Theorie des Mechanism Design. Durch Konstruktion eines raffinierten Mechanismus (Maskin 2002), der aus einer Mischung von Investitionsentscheidungen, verifizierbaren Aussagen, Strafzahlungen an Dritte sowie Handelsentscheidungen besteht, lässt sich für beliebige Hold-up-Spiele sicherstellen, dass vollkommen rationale, materiell-eigennützige Spieler effiziente Investitionsentscheidungen treffen. Die Grundidee des Mechanismus lässt sich für das oben betrachtete Hold-up-Spiel wie folgt skizzieren. Der

488

Mathias Erlei

Abb. 4.11 Hold-up-Spiel mit Verkaufsoption und kooperativen Investitionen

Mechanismus besteht aus drei Stufen: (1) In Stufe 1 führen Verkäufer und Käufer ihre Entscheidung über kooperative Investitionen durch. (2) In Stufe (2) tätigt jeder Spieler eine verifizierbare (z.B. schriftliche) Aussage über das Investitionsverhalten des anderen. (3) Abschließend folgt eine Serie von Aussagen und Handlungen, die den Wahrheitsgehalt der in Stufe (2) gemachten Aussagen überprüfen soll. Im Folgenden sei zunächst Stufe 3 etwas ausführlicher betrachtet. In Stufe 3 darf genau ein Spieler die Überprüfung des Wahrheitsgehalts der Aussage des anderen fordern. Zunächst darf der Verkäufer eine Überprüfung der Käuferaussage beantragen. Nur falls der Verkäufer hierauf verzichtet, kann der Käufer anschließend die Aussage des Verkäufers überprüfen lassen. Fordert der Verkäufer die Überprüfung des anderen, so muss der Käufer sofort eine (hinreichend hohe) Strafzahlung an den Verkäufer leisten. Es sei hier angenommen, die Strafzahlung im Hinblick auf das in diesem Abschnitt betrachtete Hold-up-Spiel sei f = 100. Anschließend muss der Käufer entscheiden, ob er das Produkt des Verkäufers zu einem vorab festgelegten Preis kauft. Nehmen wir an, dieser Preis sei pK = 65. Vollkommen rationale und nur auf ihren materiellen Eigennutz bedachte Käufer werden das Handelsobjekt nur dann kaufen, wenn der Wert hoch ist, wenn also W(v) = 50 + 1,5v = 80. Ist der

4 Institutionen

489

Wert nur 50 (weil v = 0), so wird er vom Kauf Abstand nehmen. Geht man davon aus, dass alle beteiligte Spieler vollkommen rational und nur am materiellen Eigennutz ausgerichtet handeln, so lässt sich von der Kaufentscheidung auf den Wert des Produkts und damit auch auf die wahren Investitionen des Verkäufers rückschließen. Mit anderen Worten: Wenn der Käufer kauft, dann ist der wahre Wert 80 und der Verkäufer hat investiert. Kauf er hingegen nicht, so ist der wahre Produktwert nur 50 und der Verkäufer hat nicht investiert. Nach der Kaufentscheidung ist das Spiel für den Käufer beendet. Nun kann man den auf diese Weise ermittelten wahren Produktwert mit dem Wert in der Aussage des Käufers vergleichen. Ist der wahre Wert hoch und hat der Käufer zuvor behauptet, der Verkäufer habe investiert, so hat er die Wahrheit gesagt. Ebenso hätte er die Wahrheit gesagt, wenn er nicht gekauft und zuvor v = 0 gemeldet hätte. In den beiden anderen Fällen – „Kauf “ in Verbindung mit der Aussage „v = 0“ oder „Kein Kauf “ in Verbindung mit der Aussage „v = 20“ – hätte der Käufer offenbar gelogen. So kann man also ableiten, ob der Käufer mit seiner Aussage gelogen hat oder nicht. Diese Erkenntnis hat nun Auswirkungen auf den Verkäufer, der die Überprüfung gefordert und damit die Aussage des Käufers angezweifelt hatte. Sollte sich herausstellen, dass der Käufer gelogen hat, so war die Überprüfung seiner Aussage angemessen und es passiert nichts weiter, das Spiel ist zu Ende. Sollte der Käufer jedoch die Wahrheit ausgesagt haben, so muss nun der Verkäufer eine Strafzahlung in Höhe von 2f = 200 an eine dritte Person (ein Notar, eine Schiedsgerichtsstelle, …) leisten. Er wird somit für die ungerechtfertigte Überprüfung bestraft. Man beachte, dass die Strafe doppelt so hoch ist, wie die Strafzahlung, die er zuvor vom Käufer erhalten hat (und die er auch behalten darf!). In einer Welt der vollkommenen und allseitigen Rationalität wird der Verkäufer eine Überprüfung somit nur dann fordern, wenn der Käufer zuvor gelogen hat. Wie oben erwähnt, kann der Käufer eine Überprüfung nur fordern, wenn der Verkäufer darauf zuvor verzichtet hat. Kommt es jedoch zu einer Überprüfungsforderung seitens des Käufers läuft das Spiel analog ab. Zunächst muss der angezweifelte Verkäufer eine Strafe in Höhe von f = 100 zahlen. Anschließend hat er die Möglichkeit das Produkt zu einem vorab festgelegten Preis pv zu verkaufen. Im hier verwendeten Spiel eignet sich ein Preis pv = 35. Verkauft der Verkäufer sein Produkt zu diesem Preis, so signalisiert er seine niedrigen Kosten C(k) = 50 – 1,5k = 20. Anderenfalls hat er hohe Kosten (C(k) = C(0) = 50 ). Mit diesem Wissen um das wahre Investitionsverhalten des Käufers kann jetzt die Aussage des Verkäufers überprüft werden. Hat der Verkäufer zuvor eine wahre Aussage gemacht, muss nun der die Überprüfung fordernde Käufer eine Strafe in Höhe von 2f = 200 zahlen. Anderenfalls muss er nichts zahlen und das Spiel ist beendet. Auch hier gilt, dass es sich für Käufer nur dann lohnt, eine Überprüfung zu fordern, wenn der Verkäufer zuvor gelogen hat. Zusammenfassend soll festgehalten werden, dass Käufer und Verkäufer im Überprüfungsmechnismus den wahren Zustand (Kosten bzw. Produktwert) zu erkennen geben und dass eine Überprüfung nur dann gefordert wird, wenn der jeweils andere Spieler zuvor eine falsche Aussage gemacht hat. Verzichten beide Spieler auf die Überprüfung des anderen, so wird der Handel mit einem Preis durchgeführt, der sich aus der Formel pKÜ = 50 + 1,5 v! + 50 – 1,5 k! – T

490

Mathias Erlei

ermittelt. Die Variablen v! und k! stehen hier für die Aussagen über das Investitionsverhalten. T ist eine konstante, möglicherweise negative Geldzahlung vom Käufer an den Verkäufer, die sicherstellt, dass beide Parteien im Gleichgewicht nichtnegative Gewinne erzielen. Im hier verwendeten Modell eignet sich zum Beispiel eine Geldzahlung in Höhe von T = 50, sodass pKÜ = 50 + 1,5 v! – 1,5 k! . Nach dieser Analyse des Überprüfungsmechanismus kann jetzt die Analyse der Stufen (1) und (2) erfolgen. Da der Überprüfungsmechanismus Falschaussagen aufdeckt und sie sehr hoch bestraft, lohnt es sich für beide Seiten nicht, falsche Aussagen über das Verhalten des anderen zu machen. Dies sei am Beispiel des Käufers illustriert: Behauptet der Käufer fälschlicherweise, sein gegenüber habe nicht investiert, würde der Verkäufer eine Überprüfung fordern, die zu einem Gewinn des Käufers in Höhe von UK = W(v) – PK – f – k = 80 – 65 – 100 – k = –85 – k < 0. Würden hingegen beide die Wahrheit sagen, so erhielte der Käufer UK = W(v) – pKÜ – k. Mit einem Handelspreis von pKÜ = 50 + 1,5v – 1,5k = 80 – 1,5k ergibt sich ein Gewinn von UK = 0,5k ≥ 0. Dieser Gewinn ist eindeutig höher als im Fall der Falschaussage, sodass der Käufer korrekt berichten wird. Analog ergibt sich, dass auch der Verkäufer nicht lügen wird, da die hinreichend hohe Strafzahlung alle denkbaren strategischen Motive dominiert. Bei wahrheitsgemäßer Berichtserstattung und deshalb ausbleibenden Überprüfungen beträgt der Handelspreis pKÜ = 50 + 1,5v – 1,5k. Hieraus ergeben sich Gewinne von UVwahr = –pKÜ – C(k) – v = 50 + 1,5v – 1,5k – (50 – 1,5k) – v UVwahr = 0,5v. (15) UKwahr = W(v) – pKÜ – k = 50 + 1,5v – (50 – 1,5v – 1,5k) – k UVwahr = 0,5k. (16) Für die Stufen 2 und 3 wurde somit gezeigt, dass beide Seiten wahre Aussagen über das Investitionsverhalten des jeweils anderen machen werden und es dann nicht zu einer Überprüfung der Aussagen kommen wird. Damit antizipieren Käufer und Verkäufer, dass ihre Gewinne durch die beiden Funktionen Uiwahr bestimmt werden. Da die Gewinne mit den jeweils eigenen Investitionen steigen, lohnt es sich für beide Seiten zu investieren. Im Gleichgewicht gilt somit: • • • •

Die Investitionen sind effizient: v = k = 20. Die Aussagen von Verkäufer und Käufer sind wahr: v! = v und k! = k Beide Spieler verzichten auf eine Überprüfung der Aussagen des jeweils anderen. Die Gleichgewichtsgewinne betragen UV = UK = 10.

4 Institutionen

491

Der dreistufige Mechanismus – bestehend aus den Investitionen, den Aussagen über die Investitionen des anderen und dem Überprüfungsmechanismus – erzielt somit ein effizientes Gleichgewicht und löst das Hold-up-Problem vollständig. Maskin und Tirole (1999) und Maskin und Moore (1999) zeigen, dass mit dieser Art von Mechanismus das Hold-up-Problem als Folge unvollständiger Verträge ganz allgemein gelöst wird. Verlagerungen von Eigentumsrechten an den Vermögensobjekten, wie sie zu Beginn des Kapitels als Lösungsvorschläge gedient haben, sind im Vergleich zum Mechanismus-DesignAnsatz suboptimal. Folglich können sie in einer Welt der vollkommenen Rationalität, einem ausschließlich am materiellen Eigennutz ausgerichtetem Handeln und der restlichen Annahmen des Property-Rights-Modells nicht mehr als Folge der Unvollständigkeit von Verträgen erklärt werden. Was bedeutet das für die Theorie der unvollständigen Verträge bzw. das Hold-up-Problem im Allgemeinen? Es ist offensichtlich, dass der hier beschriebene Mechanismus sehr kompliziert ist. Mit hoher Wahrscheinlichkeit ist er für die Anwendung in der Praxis viel zu kompliziert. Das zeigt allerdings bestenfalls, dass die Annahme unbegrenzter Rationalität für das hier betrachtete Problem unangemessen ist. Oliver Williamson, der das Hold-up-Problem (mit anderen Bezeichnungen) in der Literatur populär gemacht hat, hat von Anfang an betont, wie wichtig der Aspekt der begrenzten Rationalität für die Frage der Absicherung spezifischer Investitionen ist. Hier zeichnet sich ein großes Feld offener Forschungsfragen ab. Auch Maskin (2002, S. 732), einer der Erfinder des Mechanismus’, scheint dies zu bestätigen: „This suggests that ‘bounded rationality’ could be a potentially fruitful explanation of incompleteness.” Unglücklicherweise gibt es nur derzeit kein allgemein akzeptiertes Modell des begrenzt rationalen Verhaltens. Doch auch ohne explizites Modell der begrenzten Rationalität liefert die PropertyRights-Theorie wertvolle Beiträge zum Verstehen des Hold-up-Problems. Während man sich zum Beispiel das Variieren von Eigentumsrechten an Vermögensobjekten sehr gut als praktische Lösung vorstellen kann, fällt dies beim Mechanism-Design-Ansatz erheblich schwerer. In diesem Sinn kann man auch die folgende Aussage Maskins (2002, S. 732) einordnen: „[…] this foundational diffculty does not imply that we should ignore the valuable contributions that the incomplete contracts literature has made.” Schließlich existieren weitere Annahmen, über deren Variation das Ausgangsproblem wiederbelebt werden könnte: So unterstellt die Theorie unvollständiger Verträge effiziente Verhandlungen. Lässt man etwa Verhandlungskosten als zusätzliche Quelle von Ineffizienzen zu, kann sich sofort ein anderes Bild ergeben. Auch mag man bezweifeln, dass der Mechanismus, dessen Wirkung auf Strafzahlungen an Dritte beruht, tatsächlich stabil gegen Neuverhandlungen ist. So könnte ein Spieler vor der Zahlung des Strafgeldes an den Dritten vorschlagen, die Zahlungen stattdessen zwischen Käufer und Verkäufer aufzuteilen. Sobald jedoch eine solche Option möglich wird, ändern sich die Anreize im Spiel und es entstehen gegebenenfalls neue Gleichgewichte.

492

4.3.3

Mathias Erlei

Reputationsmechanismen

Die im vorangehenden Kapitel besprochene einfache Hold-up-Interaktion bildet eine sogenannte Dilemmastruktur. Damit ist gemeint, dass individuell rationales Verhalten im Gleichgewicht zu einem kollektiv irrationalen (ineffizienten) Ergebnis führt. Die verschiedenen im obigen Abschnitt diskutierten Lösungsvorschläge bilden Versuche, durch formale Vereinbarungen, die Dilemmastruktur zu überwinden. Neben solchen formalen Lösungsansätzen existiert unter Umständen auch die Möglichkeit, das Problem auf informellem Weg zu lösen: durch Reputationsgleichgewichte. Reputationsgleichgewichte können sich in Interaktionen bilden, die nicht einmalig, sondern wiederholt ausgeübt werden. Durch die Wiederholung der Interaktion ergibt sich grundsätzlich die Möglichkeit, nicht-kooperatives Verhalten aus der Vergangenheit durch ausgewählte zukünftige Gegenreaktionen zu bestrafen. Die Strafandrohung verändert das Entscheidungskalkül der Beteiligten, sodass kooperatives Verhalten auch einzelwirtschaftlich rational werden kann. Im Folgenden wird versucht, die Logik der Reputationsmechanismen mit Hilfe der spieltheoretischen Analyse herauszuarbeiten. Dazu muss zunächst das Konzept der wiederholten Spiele eingeführt werden. Ausgangspunkt sei ein Spiel mit Dilemmastruktur, nämlich das einfache Hold-up-Spiel des letzten Abschnitts, das in Abbildung 4.12 noch einmal dargestellt wird. Wie bereits erläutert, fallen die Käufergewinne an beiden Käufer-Knoten höher aus, wenn er sich dazu entscheidet, nicht zu investieren (15 > 10 und 0 > –5). Deshalb ist es für den Käufer immer optimal k = 0 zu wählen, die Investitionsentscheidung des Verkäufers

Abb. 4.12 Das einfache Hold-up-Spiel

4

Institutionen

493

hat keinen Einfluss auf seine Entscheidung. Gleiches gilt für den Verkäufer, sodass das Gleichgewicht darin besteht, dass weder Käufer noch Verkäufer investieren und beide einen Gewinn von null erzielen. Da die Spieler nach v = k = 20 beide einen höheren Gewinn von 10 realisieren könnten, ist das Gleichgewicht nicht paretooptimal. Es liegt also eine Dilemmastruktur vor. Wird dieses Spiel von denselben Spielern mehrfach nacheinander gespielt wird, sodass sich die Endgewinne als Summe der Gewinne aus den einzelnen Wiederholungen des Spiels ergeben, dann spricht man von einem wiederholten Spiel. Das ursprüngliche einfache Hold-up-Spiel wird im Rahmen des wiederholten Spiels als Stufenspiel bezeichnet, da es in jeder Stufe des wiederholten Spiels in unveränderter Weise erneut gespielt wird. Die Struktur eines hundertmal wiederholten Spiels lässt sich dann wie folgt darstellen: Jedes Kästchen „Stufenspiel“ steht in Abbildung 4.13 für das in Abbildung 4.12 dargestellt Stufenspiel. Das Gleichgewicht dieses Spiels lässt sich wieder durch ein rückwärtsgerichtetes Arbeiten durch den Spielbaum finden. Haben die Spieler die letzte Periode erreicht, so ist das verbleibende Restspiel strategisch identisch mit dem Stufenspiel aus Abbildung 4.12. Die Gewinne aus den Perioden 1 bis 99 sind bereits bestimmt und sind für das Verhalten in t = 100 irrelevant. Daraus folgt, dass in der letzten Periode nur das Gleichgewicht des Stufenspiels gespielt wird. Die resultierenden Gewinne betragen bekanntermaßen UV = UK = 0. Dieses antizipierend kann nun das Verhalten in t = 99 abgeleitet werden. Beide Spieler erkennen, dass in der letzten Periode definitiv nicht investiert wird und die Gewinne null betragen werden. Da das Verhalten in Periode 99 somit keinen Einfluss auf die Gewinne in Periode 100 ausübt, können sich die Spieler darauf beschränken die Periode 99 losgelöst von Periode 100 zu betrachten. Damit entspricht das in Periode 99 gespielte Spiel wieder nur dem isoliert betrachteten Stufenspiel mit dem Gleichgewicht v = k = 0 und Gewinnen in Höhe von null. In gleicher Weise gilt, dass das Verhalten in Periode 98 keinen Einfluss auf das spätere (bereits abgeleitete) Verhalten aufweist. Erneut folgt, dass beide Seiten nicht investieren. Dies gilt auch für die kommenden Perioden 97, 96 usw. bis hin zu Periode 1. Das hundertmal wiederholte einfache Hold-up-Spiel wird im Gleichgewicht folglich so gespielt das weder Käufer noch Verkäufer in irgendeiner Periode investieren werden. Der gesamten Gewinne jedes Spielers betragen in diesem Fall null. Offensichtlich hat der Reputationsmechanismus hier nicht funktioniert. Woran liegt das?

Abb. 4.13 Ein endlich oft wiederholtes Spiel

494

Mathias Erlei

Das Wesen der oben skizzierten Argumentation besteht darin, dass Käufer und Verkäufer erkennen, dass jegliches Versprechen kooperativen Verhaltens (also einer Investition) für Periode 100 unglaubwürdig ist, da das Spiel – wenn Periode 100 erst einmal erreicht ist – identisch ist mit dem einmal gespielten Spiel. Die Unglaubwürdigkeit von Investitionsversprechen in Periode 100 haben jedoch zur Folge, dass auch ein entsprechendes Versprechen für Periode 99 unglaubwürdig ist. Dem folgt die Unglaubwürdigkeit von Versprechen für die Perioden 98, 97 usw. Um dieses Ergebnis abzuleiten, müssen die Spieler einhundert Induktionsschritte vornehmen, was bei vollkommener Rationalität natürlich kein Problem darstellt. Bei begrenzter Rationalität mag dies allerdings anders aussehen. Eine weitere Möglichkeit, die hier nicht im Detail besprochen werden soll, besteht in der Einführung „unvollständiger Informationen“. In diesem Kontext bedeutet dies, dass die beiden Spieler die Nutzen (Gewinne) ihrer Mitspieler nicht genau kennen. Zum Beispiel könnte man sich vorstellen, dass die Nutzen mit 90-prozentiger Wahrscheinlichkeit den Gewinnen aus Abbildung 4.12 entsprechen, mit 10-prozentiger Wahrscheinlichkeit jedoch anders. So mag es ihn zum Beispiel psychisch belasten, wenn er sich einseitig unkooperativ verhält und nicht investiert. Nimmt man an, der Nutzen eines solchen Gewissensmenschen wären so, dass er immer dann eine Investition vorziehen würde, solange sich auch sein Mitspieler in der Vergangenheit kooperativ verhalten hätte, dann ändern sich auch die Anreize für die anderen 90 Prozent der Spieler. Man kann zeigen, dass ein Gleichgewicht existiert, in dem sich die reinen Egoisten in den ersten Perioden des Spiels so verhalten, als ob sie Gewissensmenschen wären. Wenn dies alle Egoisten tun, kann über längere Zeit ein kooperatives Verhalten aufrechterhalten werden. Wenn der verbleibende Zeithorizont des Spiels kürzer wird, ändern sich die Anreize und die reinen Egoisten werden zufallsbestimmt (Verwendung einer gemischten Strategie) ihr kooperatives Verhalten aufgeben und fortan nicht mehr investieren. Interessant an dieser Art von Gleichgewichten ist, dass selbst bei einer sehr geringen Wahrscheinlichkeit des Vorliegens eines Gewissensmenschen über lange Zeit ein kooperatives Verhalten der Egoisten induziert werden kann. Eine weitere Art, kooperatives Verhalten zu erklären, besteht darin, einen unendlichen Zeithorizont einzuführen. Beispielsweise lässt sich dies dadurch erreichen, dass die Wiederholung des Spiels nur mit einer konstanten Wahrscheinlichkeit 0 < θ < 1 erfolgt. Das in dieser Weise wiederholte Spiel ließe sich wie in Abb. 4.14 darstellen.

Abb. 4.14 Wiederholtes Spiel mit unendlichem Zeithorizont

4 Institutionen

495

Offensichtlich hat dieses Spiel keine letzte Periode, von der aus man eine Rückwärtsinduktion beginnen könnte. Gleichzeitig ist die Wahrscheinlichkeit einer unendlichen Fortsetzung des Spiels limθt = 0. Eine weitere vereinfachende Eigenschaft des Spiels ist, dass beim Erreichen einer Periode t = τ das verbleibende Spiel exakt identisch ist mit dem Spiel, das in t = 1 beginnt. Natürlich muss berücksichtigt werden, dass das Erreichen einer späteren Periode nicht sicher ist. Nutzen bzw. Auszahlungen werden dann mit der Wahrscheinlichkeit des Erreichens der Periode θt gewichtet. Falls θ hinreichend groß ist, hat dieses Spiel unendlich viele Gleichgewichte. Im Folgenden sollen nur zwei davon betrachtet werden: ein unkooperatives und ein kooperatives. Eine mögliche Verhaltensstrategie beider Spieler könnte lauten: „Investiere grundsätzlich niemals“. Sollte der Verkäufer diese Strategie verwenden, dann würde der Käufer in jeder Periode nur vor den Alternativen eines Nullgewinns oder Verlusten in Höhe von 5 stehen. Damit ist es für den Käufer optimal, ebenfalls in keiner Periode zu investieren. Ebenso gilt, dass es für den Verkäufer optimal ist, niemals zu investieren, wenn auch der Käufer nie investiert. Die Strategiekombination, dass beide Spieler niemals kooperieren bildet somit ein Gleichgewicht des Spiels. Es existieren jedoch weitere Gleichgewichte. Eine davon wird durch die folgenden Strategien beschrieben:

⎧ ⎪ StratV = ⎨ ⎪ ⎩ ⎧ ⎪ Strat K = ⎨ ⎪ ⎩

⎫ ⎪ v = 20, falls t >1 und vτ = kτ = 20∀τ = 1,...,t −1 ⎬ ⎪ v = 0, anderenfalls ⎭ v = 20,

falls t = 1

⎫ ⎪ k = 20, falls t >1 und vτ = kτ = 20∀τ = 1,...,t −1 . ⎬ ⎪ k = 0, anderenfalls ⎭ k = 20,

falls t = 1

Mit anderen Worten: Beide Spieler beginnen kooperativ, indem sie in der ersten Periode investieren. Sie setzen das kooperative Verhalten solange fort, wie alle Spieler in allen Vorperioden kooperiert haben. Sollte jedoch ein Spieler zu irgendeinem Zeitpunkt nicht investiert haben, wechseln beide Spieler für den Rest des Spiels auf das ineffiziente unkooperativen Gleichgewicht mit v = k = 0. Diese Strategie wird in der Literatur auch als „unerbittliche Strategie“ (grim strategy) bezeichnet, weil die Spieler einem „Fehltritt“ des anderen niemals vergeben. Um zu zeigen, dass diese Kombination von Strategien ein Gleichgewicht bildet, wird im Folgenden zunächst der erwartete Gewinn der Spieler für den Fall ermittelt, dass sich alle Spieler an die jeweiligen Strategien halten. Diese betragen: ∞ ∞ 10 EU VStratV = EU KStratK = ∑θ t−1 ⋅10 = 10⋅ ∑θ t−1 = 1− θ t=1 t=1

496

Mathias Erlei

Der Summenterm ∑ θt-1 = (1 + θ + θ2 + θ3 + ...) stellt eine geometrische Reihe mit der Lösung 1/(1 – θ) dar. Dies wäre also der erwartete Gewinn, den beide Spieler erhalten, wenn sie sich an die unerbittliche Strategie halten. Diese Strategie ist dann ein Gleichgewicht, wenn es sich für keinen der Spieler lohnt, einseitig von der damit verbundenen Verhaltensweise abzuweichen. Man kann die Analyse damit beginnen zu untersuchen, ob es sich für einen der Spieler lohnt, in der ersten Periode nicht zu investieren, während der andere sich weiterhin entsprechend der unerbittlichen Strategie verhält. Der einseitig nicht investierende Verkäufer könnte dadurch in der ersten Periode einen Gewinn von 15 (vgl. Abbildung 4.12) erzielen. Daraufhin wird der „unerbittliche“ Käufer für den Rest des Spiels aufhören zu investieren. Die bestmögliche Reaktion des Verkäufers darauf ist es somit, auch in allen folgenden Perioden nicht mehr zu investieren und es entstehen in allen folgenden Perioden Gewinne von null für beide Seiten. Der erwartete Wert aller zukünftigen Gewinne des Verkäufers beträgt infolgedessen t

EUVv1=0 = 15 + ∑tθ ∙ 0 = 15. Ein einseitiges Abweichen des Käufers von der „unerbittlichen Strategie“ in Periode 1 führt zum selben Gewinn, also EUKk1=0 = 15. Lohnt es sich nun für den Verkäufer, in der ersten Periode nicht zu investieren? Dies trifft nur dann zu, wenn 10/(1 – θ) < 15 bzw. – nach simplen Umformungen – θ < ¹⁄₃. Mit anderen Worten: Nur dann, wenn die Wahrscheinlichkeit, die nächste Periode zu erreichen, geringer als 33,33% ist, zahlt es sich für den Verkäufer aus, schon in der ersten Periode von der „unerbittlichen Strategie“ abzuweichen. Anderenfalls, also wenn θ ≥ ¹⁄₃, ist die „unerbittliche Strategie“ für ihn optimal. Genau die gleiche Bedingung ergibt sich auch für den Käufer, sodass es bei θ ≥ ¹⁄₃ für Käufer und Verkäufer optimal ist, die „unerbittliche Strategie“ in der ersten Periode nicht aufzugeben. Wie sieht es nun in den Folgeperioden aus? Ist einmal eine spätere Periode erreicht, dann ist das restliche Spiel identisch mit dem Ausgangsspiel, sodass die gefundene Bedingung für alle Perioden gilt. Für jede beliebige Fortsetzungswahrscheinlichkeit oberhalb von 33,33% bildet die gleichzeitige Wahl der „unerbittlichen Strategie“ ein Gleichgewicht des wiederholten Hold-up-Spiels mit unendlichem Zeithorizont dar. Die hier diskutierte Form eines Gleichgewichts in „unerbittlichen Strategien“ lässt sich auch auf andere wiederholte Spiele mit unendlichem Zeithorizont übertragen. Jedes Mal kann ein Mindestwert für die Fortsetzungswahrscheinlichkeit bestimmt werden, der sicherstellt dass es Gleichgewichte mit kooperativem Verhalten gibt. Darüber hinaus gibt es eine Vielzahl weiterer Strategien, die – bei hinreichend hohem θ – ein entsprechendes Gleichgewicht bilden können. Zum Beispiel könnte man eine Strategie verfolgen, bei der alle Spieler kooperativ beginnen und dies Verhalten fortsetzen, solange sich alle Spieler an diese informelle Vereinbarung halten. Weicht nun der andere Spieler ab, so kann es unter Umständen auch genügen eine endliche Anzahl von Perioden zum Nichtinvestieren zu wechseln. Die für den Mitspieler damit verbundenen Einbußen in den „Strafperioden“ können ausreichen, ihn vom erstmaligen Nichtinvestieren abzuhalten.

4 Institutionen

497

Reputationsmechanismen sind somit eine unter geeigneten Umständen funktionsfähige Lösung für Dilemmastrukturen. Hierunter fällt natürlich nicht nur das hier beispielhaft verwendete Hold-up-Problem, sondern auch Probleme moralischen Wagnisses, adverser Selektion oder diverser Formen des Trittbrettfahrerverhaltens. Warum findet es dann keine universelle Anwendung? Zum einen natürlich deshalb, weil die Fortsetzungswahrscheinlichkeit oftmals unter dem kritischen Wert liegen wird. Eine andere Möglichkeit wäre, dass die Wiederholungstermine nur mit großen zeitlichen Abständen erfolgten. Dies müsste in Form der stärkeren Diskontierung zukünftiger erwarteter Gewinne berücksichtigt werden. Die damit verbundene geringere Gewichtung zukünftiger Gewinne wirkt wie eine Absenkung der Fortsetzungswahrscheinlichkeit und könnte dazu führen, dass kooperatives Verhalten nicht mit einem Gleichgewicht zu vereinbaren ist. Weitere Gründe für das Scheitern von Kooperationsstrategien können sein: • Schwierigkeiten bei der Beobachtung des Verhaltens der Transaktionspartner. Kann man ein Fehlverhalten anderer nicht erkennen, da schlechte Ergebnisse auch zufallsbedingt entstehen können, würde auch bei zufallsbedingten schlechten Ergebnissen die Kooperation zerbrechen. Dies mindert die Anreize für kooperatives Verhalten. • Zeitverzögerungen bei der Reaktion auf das Fehlverhalten anderer können es dem nicht kooperierenden Transaktionspartner ermöglichen, über mehrere Wiederholungen auf Kosten der Partner zu profitieren. Dies erhöht die Anreize für nicht-kooperatives Verhalten. • Der endgültige Übergang zum ineffizienten Gleichgewichtsverhalten könnte als unglaubwürdig angesehen werden. Aussichten auf eine Wiederaufnahme kooperativen Verhaltens erhöhen den Anreiz selbst einseitig abzuweichen. • Viele der bedeutendsten Entscheidungen, etwa im Bereich von Großinvestitionen, stellen fast unvermeidlich ein nicht wiederholtes Spiel mit allen damit verbundenen Anreizproblemen dar. • Grundsätzlich ist zu beachten, dass neben den Reputationsgleichgewichten auch die unkooperativen Verhaltensweisen ein Gleichgewicht bilden. Aus theoretischer Sicht sind diese Gleichgewichte genauso überzeugend wie die über Reputationsmechanismen. Mit der Verdeutlichung ihrer Grenzen soll die Bedeutung der Reputationsmechanismen in wiederholten Interaktionen nicht kleingeredet werden. Im Gegenteil: Es existiert eine Vielzahl von Formen gesellschaftlicher Interaktion, die vor allem hierüber gelöst werden. In erster Linie ist an Handlungen im familiären Kontext oder im beruflichen Alltag zu denken, die ohne formale Vereinbarungen, selbstdurchsetzend kooperativ abgewickelt werden. Die Voraussetzungen – tägliche, stündliche oder noch häufigere Wiederholung der Interaktion, gute Beobachtbarkeit, schnelle Reaktionsmöglichkeit usw. – sind hier geradezu ideal. Für wieder andere Dilemmastrukturen gibt es oftmals keine andere Lösung als die sich selbst durchsetzenden Kooperationen in wiederholten Interaktionen. Dies ist zum Beispiel dann der Fall, wenn die Durchsetzung formeller Vereinbarungen vor Gericht mit zu hohen

498

Mathias Erlei

Kosten verbunden ist. Die Kosten können aus der zeitlichen Verzögerung bis zur Durchsetzung des Urteils, der Unsicherheit des korrekten Richterspruchs oder schlicht aus den reinen Kosten der Abwicklung des Rechtsstreit resultieren. Schließlich gibt es für bestimmte Formen der Interaktionen keine Durchsetzungsinstanz. Gerade auf der höchsten hierarchischen Ebene eines Staates, gibt es keinen Schiedsrichter, der mögliches Fehlverhalten der Legislative, Exekutive, Judikative oder des Militärs bestraft. Hier ist jede Gesellschaft darauf angewiesen, durch Gewalten- und Machtverteilung ein sich selbst durchsetzendes System zu implementieren, in dem Fehlverhalten durch sofortige Koalitionsbildung der verbleibenden Mächte sanktioniert wird. Dazu später mehr.

4.4

Theorie der Unternehmung

Neben der Theorie formaler und informeller Verträge umfasst die Theorie privat gestalteter Institutionen auch einen Bereich, der sich mit dem Wesen der Unternehmung auseinandersetzt. Die Unternehmung ist dabei als Organisation zu verstehen, deren Arbeitsweise auf bewusst gestalteten Institutionen – also unternehmensinternen Regeln und Regelsystemen – basiert. Eine zentrale Fragestellung für die Theorie der Unternehmung lautet: Warum gibt es überhaupt Unternehmen, warum werden nicht alle Tauschvorgänge auf flexiblen Spotmärkten abgewickelt? Eine zentrale Eigenschaft der Unternehmung, die zwar nicht Gegenstand der Modelltheorie, gleichwohl aber von herausragender Bedeutung ist, besteht darin, dass ein Unternehmen eine Organisation mit eigener Rechtspersönlichkeit ist. Mit anderen Worten: Unternehmen unterliegen – wie private Personen auch – allen Vorgaben des Rechts. Sie müssen die geltenden juristischen Regeln einhalten, Steuern zahlen und können verklagt werden. „The corporation is constituted […] by the establishment of the single legal person that can combine the agency of multiple individual entrepreneurs“ (Hodgson 2015, S. 209). Es ist das Unternehmen, das für Vertrags- oder Rechtsbrüche verklagt werden kann, nicht jedoch die Mitarbeiter des Unternehmens. Und auch wenn bei bestimmten Unternehmensformen die Anteilseigner für die Schulden des Unternehmens haften, gehen Rechtsklagen gegen die Unternehmung. Neben unterschiedlichen Haftungsaspekten ist auch die grundsätzlich unbegrenzte Lebensdauer der Unternehmen von Bedeutung: Wenn Personen sterben und damit bestimmte Pflichten obsolet werden, gilt dies für Unternehmen im Allgemeinen nicht. Zentrale Personen innerhalb von Unternehmen können ausgetauscht oder ersetzt werden und das Unternehmensvermögen dient auch nach dem Ausscheiden einzelner Personen als Haftungsmasse. Der Klassiker unter den unternehmenstheoretischen Ansätzen ist Oliver Williamsons Transaktionskostentheorie. Darüber hinaus sind die Konzepte der Unternehmung als Anreizsystem, die ressourcenbasierte Theorie der Unternehmung sowie die Entrepreneurtheorie der Unternehmung aktuell von größerer Bedeutung und sollen im Folgenden skizziert werden.

4 Institutionen

4.4.1

499

Transaktionskostentheorie

Die Transaktionskostentheorie führt die Abwicklung von Transaktionen innerhalb von Unternehmen auf Transaktionskostenvorteile im Vergleich zur Abwicklung über einen entsprechenden Markt zurück. Dabei ist es wichtig zu verstehen, dass die Analyse immer in Bezug auf eine bestimmte Transaktion vorgenommen wird: Die Transaktion ist Gegenstand der Analyse, ihre unterschiedlichen Organisationsformen bilden die Lösungsalternativen. Im Gegensatz zu den vorangehenden Abschnitten basiert Williamsons Ansatz (1975, 1985, 1996, 1998) explizit auf der Annahme begrenzt rationalen Verhaltens. Hierunter versteht er ein Verhalten, das auf dem Bestreben, rational zu entscheiden, basiert, dessen Umsetzung aber unvollkommen bleibt. Williamson betont wiederholt, für wie wichtig er diese Annahme hält. Wären die Menschen unbeschränkt rational, so könnten sie die von ihm untersuchten Probleme durch vollkommene Planung lösen. Die Existenz von Unternehmen wäre damit überflüssig, alle Transaktionen könnten über Marktkontrakte abgewickelt werden. Doch genau weil dies in der Realität nicht gilt, ergibt sich eine Vorteilhaftigkeit vergleichsweise einfacher Lösungskonzepte wie etwa die vertikale Integration oder das Franchising. Die Hervorhebung der begrenzten Rationalität verhindert auch den Einsatz der etablierten und in den vorangehenden Abschnitten so häufig verwendeten Gleichgewichtskonzepte der Spieltheorie. Üblicherweise wird auch kein explizites Modell der begrenzten Rationalität verwendet. Die begrenzte Rationalität wird vorrangig zur Rechtfertigung bestimmter Annahmen darüber, was normal sterbliche Personen nicht verwirklichen können, eingesetzt. Darüber hinaus verzichtet die Transaktionskostentheorie auf formale Maximierungsansätze und betont stattdessen, dass ihr Inhalt eine vergleichende Institutionenanalyse ist: Real existierende, im Allgemeinen einfache, verständliche institutionelle Alternativen werden im Hinblick auf ihre praktische Funktionsfähigkeit verglichen. Eine zweite zentrale Verhaltensannahme ist die des opportunistischen Verhaltens. Hierunter versteht man das Verfolgen des Eigeninteresses unter Zuhilfenahme von Arglist. Während diese Annahme in einem spieltheoretischen Kontext wohl irrelevant ist, sie wird dort implizit unterstellt, ist es für eine nicht-formale Darstellung wichtig zu betonen, dass unverbindliche Versprechen nicht notwendigerweise eingehalten werden. Schließlich wären ohne die Annahme des Opportunismus unverbindliche Verhaltensversprechen hinreichend um die meisten Dilemmastrukturen zu bewältigen. Neben diesen Verhaltensannahmen sind für die folgende Analyse zwei Transaktionsdimensionen bedeutsam. Die erste ist die Unsicherheit im Knightschen Sinn. Hierunter wird ein weit umfassenderer Ansatz als das üblicherweise verwendete Konzept des Risikos verstanden. Beim Risiko werden alle denkbaren Umweltzustände berücksichtigt und ihnen werden Eintrittswahrscheinlichkeiten zugeordnet, sodass ein ErwartungsnutzenMaximierungskalkül möglich wird. Unsicherheit im Sinn der Transaktionskostentheorie geht hierüber hinaus, indem Raum gelassen wird für vorab völlig unbekannte Situationen, für die natürlich keine Eintrittswahrscheinlichkeiten zugeordnet werden können. Das Auftreten von Neuerungen, Innovationen und einzigartigen Ereignissen erfordern von

500

Mathias Erlei

den Transaktionspartnern Anpassungen, die vorab nicht festgelegt werden können. Diese Art der Unsicherheit im Hinblick auf erforderliche Anpassungen bezeichnet Williamson (1985, S. 58) als Verhaltensunsicherheit. Ohne Unsicherheit und den damit verbundenen Druck zur Verhaltensanpassung ließen sich alle später erforderlichen Maßnahmen in einem Vertrag festlegen, sodass kein grundsätzliches Transaktionsproblem vorläge. Die zentrale Transaktionsdimension für die folgende Analyse ist die Faktorspezifität. Es ist dasselbe Konzept, das schon im Abschnitt 4.3.2 intensiv diskutiert wurde, hier aber in einem sich methodisch stark unterscheidenden Ansatz Eingang findet. Zur Erinnerung: Ein Faktor oder ein Vermögensobjekt ist spezifisch, wenn es seinen vollen Wert nur im Rahmen einer konkret festgelegten Einsatzweise entwickeln kann und bei anderweitiger Verwendung einen erheblichen Teil des Wertes einbüßt. Faktorspezifität kann diverse Formen annehmen. Hier einige Beispiele: (a) Standortspezifität entsteht, wenn Transportkosten den Wechsel der Verwendung erheblich mindern können. Das Standardbeispiel hierzu ist der für ein bestimmtes Kraftwerk geplante Braunkohleabbau. Sollte das Kraftwerk als Abnehmer der Braunkohle ausfallen, werden die Investitionen in den Kohleabbau unrentabel, da die Braunkohle im Verhältnis zu ihrem Gewicht nur geringen Energiegehalt aufweist. Ein Transport ist deshalb oft unrentabel, der Eigentümer der Braunkohleförderungsanlage somit abhängig vom Kraftwerksbetreiber. Umgekehrt ist in diesem Beispiel aber auch der Kraftwerksbetreiber abhängig vom Braunkohlelieferanten, da ein Wechsel des Braunkohleanbieters ebenfalls unrentabel ist. (b) Bei Sachkapitalspezifität sind die beteiligten Vermögensobjekte technisch speziell aufeinander konzipiert. (c) Im Fall der Widmungsspezifität werden Kapazitäten aufgebaut, die nur durch die Belieferung eines bestimmten Abnehmers gerechtfertigt sind. Sollte dieser ausfallen, wäre zu befürchten, dass die Anlagen nicht mehr ausgelastet werden können. Aufbauend auf diesen Grundannahmen – begrenzte Rationalität, Opportunismus, Unsicherheit und Faktorspezifität – werden die Kosten der Abwicklung der Transaktion über den Markt abgeleitet. Diese Transaktionskosten der Marktbenutzung entstehen aus den Schwierigkeiten der notwendigen Anpassung an sich ständig ändernde Handlungsumgebungen, die durch das Vorliegen ein- oder wechselseitiger Abhängigkeiten besonders schwierig werden.

4.4.1.1 Transaktionskosten der Marktbenutzung Ausgangspunkt der Transaktion ist – wie in den Ansätzen der Property-Rights-Theorie aus Abschnitt 4.3.2 – der Abschluss einer Anfangsvereinbarung. Diese erfolgt auf einem weitgehend wettbewerblichen Markt mit vielen Anbietern und Nachfragern, sodass keine der beteiligten Transaktionsparteien über Marktmacht verfügt. Haben sich zwei (oder mehr) Vertragspartner gefunden, so muss zumindest einer davon spezifische Investitionen vornehmen, wenn eine effiziente Abwicklung der Transaktion realisiert werden soll. Hat dieser Investor seine spezifische Investition durchgeführt, so ändert sich jedoch die Beziehung zwischen den Geschäftspartnern. Alle spezifisch investierenden Parteien haben jetzt deutlich erhöhte Kosten eines Wechsels der Transaktionspartner; sie sind somit zu einem gewissen Grad abhängig von den jeweils anderen. Die allgegenwärtige Unsicherheit

4 Institutionen

501

in einem sich dynamisch entwickelnden wirtschaftlichen Umfeld erzeugt früher oder später Anpassungserfordernisse bei einigen oder allen Beteiligten. Diese Anpassungen sind für diejenigen, die nicht spezifisch investiert haben, relativ einfach möglich. Sollten notwendige Maßnahmen durch Geschäftspartner ausbleiben, so können sie diese einfach auswechseln. Wurden jedoch zuvor spezifisch investiert, so können die Investoren ihre Vertragspartner nicht einfach ersetzen. Die hieraus entstehende Abhängigkeit kann dazu genutzt werden, die Vertragskonditionen neu auszuhandeln. Dadurch können sich die Transaktionspartner des spezifischen Investors einen Teil der transaktionsspezifischen Quasirente – also des Wertverlustes, der beim Wechsel des Geschäftspartners entstünde –, aneignen. Diese Umverteilung mindert die Rentabilität der spezifischen Investition und verwandelt sie unter Umständen in ein Verlustgeschäft. Eine solche Umverteilung ist für den spezifischen Investor zwar sehr nachteilig, würde die Effizienz der Transaktion als Ganzes nicht mindern. Das eigentliche Problem entsteht dadurch, dass auch begrenzt rationale Investoren dieses Risiko von Anfang an erkennen und deshalb gegebenenfalls nicht bereit sind, spezifisch zu investieren. Die Ineffizienzen in der Transaktionskostentheorie beschränken sich allerdings nicht auf das Unterinvestitionsproblem. Sich ändernde Umweltbedingungen fordern permanente Anpassungen. Bleiben die beteiligten Vertragsparteien voneinander völlig unabhängig, müssen die notwendigen Anpassungen abgestimmt werden. Dies kann aber nur über (Neu-)Verhandlungen erfolgen. Diese müssen aus transaktionskostentheoretischer Sicht jedoch nicht effizient verlaufen. Vielmehr bleibt es wahrscheinlich, dass die aus den Verhandlungen hervorgehenden Kompromisse abseits der Kontraktkurve liegen, also ineffizient sind. Die Ineffizienzen können aus Kosten der Verhandlungsführung, zeitlichen Verzögerungen oder schlicht ineffizienten Maßnahmen bestehen. Das Ausbleiben der spezifischen Investition und ihr Ersatz durch eine generische, also nicht-spezifische Investition verringert die insgesamt realisierbaren Überschüsse und stellt eine Ineffizienz dar. Es handelt sich somit um ein Unterinvestitionsproblem, wie es schon aus Abschnitt 4.3.2 bekannt ist. Tatsächlich ist zumindest dieser Bereich der Marktbenutzungskosten nahezu identisch mit dem Hold-up-Problem im Property-Rights-Ansatz (PRA). In beiden Fällen entsteht ein Unterinvestitionsproblem, verursacht durch antizipierte Neuverhandlung der Vertragsbedingungen. In diesem Sinn kann man den PRA als besonders anschauliche Darstellung eines Teils der Marktbenutzungskosten ansehen, die hilft, das zugrunde liegende Problem besser zur verstehen. Es bestehen jedoch auch weitreichende Unterschiede. Diese beginnen mit dem Erklärungsanspruch: Der PRA will nicht nur die Wirkung der vertikalen Integration (im Sinn eines Handels der Eigentumsrechte am Sachkapital) abbilden, sondern nimmt für sich in Anspruch, auch die Richtung der Integration zu erklären, also zu begründen, wer wen übernimmt. Zusätzlich glaubt der PRA, Bestimmungsfaktoren für die Art der Integration zu liefern – etwa die relative Bedeutung der spezifischen Investitionen oder die Unverzichtbarkeit des Humankapitals eines der Beteiligten. Andererseits nimmt die Transaktionskostentheorie für sich in Anspruch, einen adäquateren theoretischen Rahmen zu liefern. Dies gilt insbesondere für den Aspekt der begrenzten Rationalität. Mindestens ebenso

502

Mathias Erlei

bedeutend ist auch die starke Betonung des Anpassungsproblems. Während der PRA nach First- oder Second-best-Lösungen in einem gegebenen, d.h. statischen spieltheoretischen Rahmen sucht, betont die Transaktionskostentheorie die permanente Änderung der Rahmenbedingungen und die Schwierigkeiten der Anpassung daran. Dies führt regelmäßig zu Anpassungen jenseits der First- oder Second-best-Effizienz. Es handelt sich vielmehr um ganz grundlegende Anpassungsmaßnahmen, die Williamson (1996, S. 309 ff.) als Ökonomisierung ersten Grades bezeichnet. Hierunter versteht er die Vermeidung von Ineffizienzen, die nicht nur auf der Verletzung der Marginalbedingungen basiert, sondern solche, die die gesamte Nutzen-, Ertrags- oder Kostenfunktion verschieben. Ein Beispiel: Wenn in einem Unternehmen mit einer veralteten Technologie gearbeitet wird, liegen die Grenzund die Durchschnittskostenfunktion oberhalb technisch optimalen Methoden. Die hierdurch entstehenden Ineffizienzen beziehen sich auf jede mit der ineffizienten Technologie produzierte Gütereinheit und fallen deshalb schnell wesentlich größer aus als wenn (mit effizienter Technologie) die Marginalbedingungen verletzt werden und eine suboptimale Produktionsmenge hergestellt wird. Letzteres – sozusagen das Fine-Tuning bei gegebener, bester Technologie – bezeichnet Williamson als Ökonomisierung zweiten Grades, dessen Bedeutung im Allgemeinen weniger groß ist als die ersten Grades. Zu hohe Kosten der Marktbenutzung können eingespart werden, wenn die Transaktion innerhalb eines Unternehmens durchgeführt wird, wenn also eine vertikale Integration vorgenommen wird. In diesem Fall entfällt das Unterinvestitionsproblem vollständig. Allgemein ist eine Anpassung an neue Gegebenheiten wesentlich leichter möglich, da die entsprechenden Maßnahmen von der zentralen Unternehmensführung einfach nur beschlossen werden müssen, Neuverhandlungen sind nicht mehr erforderlich. Ein vertikal integriertes Unternehmen kann sich bei Vorliegen spezifischer Investitionen somit flexibler an neue Rahmenbedingungen anpassen als zwei – durch die spezifischen Investitionen aneinander angewiesene – selbständige Unternehmen. Allerdings erzeugt die vertikale Integration an sich eine ganz andere Art von Transaktionskosten – Kosten der Organisationsbenutzung. Darunter versteht man Kosten, die dadurch entstehen, dass die Transaktion innerhalb einer einzigen Organisation abgewickelt wird. Die eigentliche Ursache für diese Kosten besteht in der bloßen Existenz einer zentralen Entscheidungsautorität. Ihr Vorhandensein ändert die Anreize zwischen den Beteiligten grundlegend.

4.4.1.2 Transaktionskosten der Organisationsbenutzung Ein erster Grund für die modifizierten Anreize besteht darin, dass die zentrale Entscheidungsautorität eigene Interessen hat und darüber hinaus auch Mittel, um diese wirkungsvoll zu verfolgen. So kann zum Beispiel über geschickte Manipulation der unternehmensinternen Transferpreise die Leistungsmessung der unterschiedlichen Abteilungen zu Gunsten der Zentrale verzerrt werden. Die Mitarbeiter des Unternehmens werden dies natürlich schnell lernen und auf die damit verbundene Senkung der Leistungsanreize reagieren.

4 Institutionen

503

Doch selbst wenn sich die Zentrale nicht strategisch verhält, können Ineffizienzen resultieren. Es ist die Aufgabe der Zentrale überall dort einzugreifen, wo absehbar ist, dass einzelwirtschaftliche Fehlanreize zu ineffizientem Verhalten führen. Mit anderen Worten: Die Zentrale muss das Verhalten der verschiedenen Abteilungen beurteilen und gegebenenfalls eingreifen. Problematisch an einer solchen Regelung ist, dass die Zentrale zumeist über einen schlechteren Informationsstand verfügt als die dezentralen Abteilungen. Somit muss eine schlecht informierte Zentrale Maßnahmen der gut informierten Abteilungen bewerten. Dass es dabei nicht selten zu Fehleinschätzungen seitens der Zentrale kommt, kann nicht überraschen. Folglich wird die Zentrale wiederholt unangemessen eingreifen und damit Ineffizienzen verursachen. Eine mit Entscheidungsautorität ausgestattete Zentrale muss auch Entscheidungen treffen, die unmittelbare Auswirkungen auf den Ertrag oder das Wohlbefinden der in den Abteilungen arbeitenden Mitarbeiter aufweisen. Beispielsweise ist zu klären, welcher Mitarbeiter wann befördert wird oder welche Mitarbeiter Dienstwagen erhalten. Damit entstehen Anreize für Mitarbeiter, Ressourcen einzusetzen, um die Entscheidung der Zentrale zu beeinflussen. So mag es für den einen oder anderen Mitarbeiter überaus lohnend sein, einen Teil seiner Arbeitszeit darauf zu verwenden, die Zentrale davon zu überzeugen, dass er (oder sie) der Idealkandidat für eine Beförderung wäre. Diese Beeinflussungsaktivitäten erzeugen Beeinflussungskosten: Die mit den Beeinflussungsmaßnahmen verbrachte Zeit geht dem Unternehmen für die Erfüllung der eigentlichen Aufgabe des Mitarbeiters jedoch verloren. Erneut entsteht eine Ineffizienz. Auch Anreize für die Realisierung von Innovationen sinken. Sollte etwa eine Abteilung eine innovative Idee haben, so wird sie zur Umsetzung stets auch die Teilleistungen der anderen Abteilungen benötigen. Dies führt zu einem Konflikt über die Anrechnung der Anteile, die die einzelnen Abteilungen an der Umsetzung der Ausgangsidee haben. Letztendlich wird häufig ein Kompromiss erarbeitet, bei dem die ursprünglich innovative Abteilung zumindest Teile ihres Beitrags an andere Abteilungen abgeben muss. Diese Verwässerung der Innovationsanreize führt schnell zu einer sinkenden Innovationsfreudigkeit des gesamten Unternehmens. Vertikale Integration beseitigt die Kosten der Marktbenutzung, indem es die hohe Anreizintensität des Marktes beseitigt, um dadurch kooperatives Verhalten zu fördern. Kooperation zwischen den Mitarbeitern und zwischen den Abteilungen ist somit ein konstituierendes Kennzeichen der Abwicklung von Transaktionen innerhalb eines Unternehmens. Eine auf Dauer angelegte, kooperative Unternehmenskultur benötigt zudem auch etwas, das Williamson (1985, S. 150) als Nachsichtigkeit bezeichnet. Während der Markt für schlechte Leistung unnachgiebig bestraft – die Kunden wandern einfach ab –, müssen im Rahmen einer dauerhaften, kooperativen Beziehungen auch die Ursachen für einen Leistungsabfall berücksichtigt werden. Sollte etwa eine Abteilung nicht oder nur zum Teil für schlechte Ergebnisse verantwortlich sein, so wird dieser Umstand beachtet und die kooperative Interaktion nicht beendet. Die Existenz einer solchen unternehmensinternen Nachsichtigkeit ermöglicht jedoch auch ihre strategische Nutzung. So könnte die Leistung aus Bequemlichkeit oder anderen Gründen bewusst zurückgefahren werden, um

504

Mathias Erlei

anschließend durch eine geschickt formulierte Zurückweisung der Eigenverantwortlichkeit das Verständnis der anderen Abteilungen für sich zu gewinnen. Verhalten sich alle Abteilungen in einer solchen Weise, dann kann die Produktivität des Unternehmens stark sinken.

4.4.1.3 Marktbenutzung- und Organisationsbenutzungskosten im Vergleich Beide Formen der Transaktionsabwicklung – über den Markt und innerhalb eines Unternehmens – weise somit ihre speziellen Transaktionskosten auf. Eine effiziente Form der Organisation von Transaktionen fordert, dass die Summe aus Produktions- und Transaktionskosten minimiert wird. Die Transaktionskostentheorie geht davon aus, dass die entscheidenden Kostenvergleiche von der Faktorspezifität (vgl. Williamson 1996, S. 66 ff.) bestimmt werden. Wird zum Beispiel eine Transaktion betrachtet, die keinen Einsatz von spezifischen Faktoren benötigt, so sind die Marktbenutzungskosten TKM sehr gering. Bei Unzufriedenheit mit dem Transaktionspartner kann dieser schnell und reibungsfrei ausgetauscht werden, alle Vertragsparteien befinden sich in einem offenen, wettbewerblichen Markt, der das Verhalten aller Vertragsparteien wirksam diszipliniert. Anpassungen an neue Umweltbedingungen erfolgen flexibel im Rahmen eines Prozesses der spontanen Ordnung (Hayek 1945). Im Gegensatz hierzu begünstigt die geringe Faktorspezifität das Ausmaß der Organisationsbenutzungskosten TKO kaum. Geringe Marktbenutzungskosten und hohe Organisationsbenutzungskosten bedeuten einen Transaktionskostennachteil der vertikalen Integration. Nimmt man k als Variable für die Faktorspezifität mit k = 0 als rein generische, d.h. nicht-spezifische, Produktion und k → ∞ als vollkommen spezifische Produktion, so kann man eine Transaktionskostendifferenzfunktion ∆G(k) = TKO(k) – TKM(k) mit G(0) > 0einführen. Letzteres besagt, dass bei einer Spezifität von null die Organisationsbenutzungskosten höher sind als die Marktbenutzungskosten. Steigt nun die Faktorspezifität, dann steigen die Marktbenutzungskosten stärker als die Organisationsbenutzungskosten: ∂G(k)/∂k < 0. Ab einem kritischen Wert der Spezifität k übersteigen die Marktbenutzungskosten die Organisationsbenutzungskosten, sodass ∆G(k) ≤ 0. Abbildung 4.15 zeigt einen plausiblen Verlauf einer solchen Transaktionskostendifferenzkurve ∆G(k). Zur Ermittlung der optimalen Organisationsform müssen allerdings auch die Produktionskostenunterschiede berücksichtigt werden. Hier wird unterstellt, dass ein Marktbezug mit geringeren Produktionskosten verbunden ist, da sich die entsprechenden Produzenten auf diese Tätigkeit spezialisieren. Je höher jedoch die Faktorspezifität, desto geringer fallen die Spezialisierungsvorteile aus, sodass die Produktionskostendifferenz ∆PK(k) = PKO – PKM einen fallenden und konvexen Verlauf annimmt. Entscheidung ist letztendlich die Summe aus Produktions- und Transaktionskostendifferenzen ∆K = ∆G(k) + ∆PK(k), die Gesamtkostendifferenz. In Abbildung 4.15 schneidet die Gesamtkostendifferenzkurve die Abszisse an der Stelle k. Dies hat zur Folge, dass für alle k  k. Eine zentrale Aussage der Transaktionskostentheorie lautet somit, dass mit höherer Faktorspezifität k die vertikale Integration im Vergleich zum Marktbezug an Attraktivität gewinnt, sodass Transaktionen, deren Umsetzung den Einsatz hochspezifischer Faktoren erfordern, tendenziell innerhalb von Unternehmen abgewickelt werden, während Transaktionen, die vorwiegend generische Faktoren benötigen, über den Markt erfolgen. Dieses Ergebnis gleicht demjenigen aus dem PRA, basiert jedoch, wie erläutert, auf einem anderen theoretischen Ansatz. Auch die Transaktionskostentheorie beschränkt ihre Analyse nicht ausschließlich auf die Organisationsformen „vertikale Integration“ und „Marktbezug“. Es existiert eine Vielzahl „hybrider Organisationsformen“ zwischen beiden Extremen. Williamson (1985, S. 79) unterscheidet konzeptionell zwischen Marktbezug, bilateraler Governance (unter Zuhilfenahme langfristiger Transaktionsbeziehungen und Reputationsmechanismen), trilateraler Governance (Einbezug dritter Parteien, z.B. als Schiedsrichter) und einheitlicher Governance (vertikale Integration). Konkrete Beispiele für hybride Organisationsformen sind • • • •

glaubhafte Bindungen, nicht zuletzt über selbstdurchsetzende (Reputations-) Mechanismen, Unterpfandlösungen, Franchising oder zweistufige Tarife.

Ein ebenfalls sehr einfaches transaktionskostentheoretisches Modell der Organisationswahl findet sich im Artikel Mikroökonomik dieses Kompendiums (Beitrag 1).

506

Mathias Erlei

4.4.1.4 Die Transaktionskostentheorie als Theorie der Unternehmung Die Transaktionskostentheorie bildet den wichtigsten Beitrag der nicht neoklassischen Wirtschaftstheorie zur Erklärung des Wesens der Unternehmung dar. Die Grundaussagen des Ansatzes wurden in mehr als hundert empirischen Untersuchungen (vgl. Erlei 1998, S. 140 ff., und Reinhold 2012, S. 80 ff.) getestet. Insgesamt zeichnen diese Arbeiten das Bild einer außergewöhnlich gut bewährten Theorie. Dabei muss allerdings eingeräumt werden, dass viele dieser Tests nicht dazu in der Lage sind, streng zwischen der Transaktionskostentheorie und dem Property Rights-Ansatz bzw. der ressourcenbasierten Theorie der Unternehmung, die im Folgenden noch vorgestellt wird, zu unterscheiden. Dennoch ist die Vereinbarkeit der empirische Befunde mit der Theorie bemerkenswert stark ausgeprägt. Ob bzw. inwieweit die Transaktionskostentheorie dem PRA überlegen ist, lässt sich über die empirischen Studien jedoch kaum klären. Klar ist allerdings, dass die Präzision des PRA teuer erkauft wird durch ein festes und sehr restriktives Modellgerüst, das – wenn man sich des Mechanism Design-Lösungsansatzes erinnert – auf einem wackeligen theoretischen Fundament steht. Die konkreten Annahmen des PRA mit einer festen Abfolge der Handlungen und einem vorgegebenen Verhandlungsergebnis bei statischen Rahmenbedingungen der Umwelt dürften in der Wirtschaftspraxis nur selten erfüllt sein. Gleiches gilt für die unterstellte vollkommene Rationalität, die letzten Endes auch die Grundvoraussetzung für das Erreichen effizienter Vertragsvereinbarungen (z.B. durch Optionsverträge) ist. Schon allein die Unterstellung eines anderen Neuverhandlungsspiels führt zu teilweise völlig anderen Ergebnissen (de Meza und Lockwood 1998). Aus diesem Grund wird hier der Standpunkt vertreten, dass der PRA in seinen verschiedenen Versionen in erster Linie als Ergänzung des Transaktionskostenansatzes anzusehen ist. Die einfache, glasklare spieltheoretische Logik trägt zum deutlich besseren Verstehen des Unterinvestitionsproblems bei, die Annahmen des Modells werden jedoch regelmäßig verletzt. Damit ist die Übertragbarkeit des PRA auf reale Vorgänge in der Wirtschaftspraxis kaum noch gegeben. Andererseits erfasst der Transaktionskostenansatz nur einen Teilbereich dessen, was man als das Wesen der Unternehmung bezeichnet kann. Deshalb werden im Folgenden drei weitere Ansätze vorgestellt, die jeder auf seine Weise eine eigene Darstellung der Natur des Unternehmens herausarbeiten.

4.4.2

Die Unternehmung als Anreizsystem

Bei dieser Theorie der Unternehmung (Holmstrom und Milgrom 1994) handelt es sich um eine Weiterentwicklung der Mehraufgaben-Prinzipal-Agent-Theorie, die in vereinfachter Form bereits in Abschnitt 4.3.1 besprochen wurde. Die Weiterentwicklung bezieht sich dabei um eine größere Anzahl von Aufgabengruppen, denen eine konkrete Interpretation gegeben wird. Das Ziel des Ansatzes ist die Erklärung der Unternehmung sowie der Anreizintensitäten als Folge von Messkosten in einem Modell vom Typ „moralisches

4 Institutionen

507

Wagnis“. Das Mehraufgabenproblem setzt sich aus vier Aufgabengruppen, die hier jeder wie eine einzelne Tätigkeit dargestellt werden: • Aufgabe 1 bildet die eigentliche Haupttätigkeit des Agenten e1 ab. Die Entlohnung erfolgt über einen Fixlohn β zuzüglich eines Leistungsanreizes α1. • Aufgabe 2 besteht aus einer Investition e2, deren Erträge nur über die Zuteilung der Eigentumsrechte daran eingenommen werden können. Es wird unterstellt, dass die Eigentumsrechte λ nur den Wert null oder eins annehmen können. Bei α2 = 1 verfügt der Agent über alle Rechte an der von ihm durchgeführten investiven Maßnahme. Bei α2 = 0 liegen die Rechte beim Prinzipal. • Aufgabe 3 beinhaltet kooperative Dienste e3, die der Agent für andere leisten kann. Beispielsweise könnte der Agent anderen Agenten helfen, ihre Aufgaben besser zu erfüllen. Diese Tätigkeiten, so wird unterstellt, seien nicht mess- und nicht über eine Lohnformel entlohnbar. Die Anreizentlohnung für kooperative Dienste beträgt somit α3 = 0. Die kooperativen Dienste bringen dem Agenten somit keinen Nutzen ein, sind für den Prinzipal aber gegebenenfalls von großer Bedeutung. • Aufgabe 4 umfasst Nebentätigkeiten des Agenten e4. Spiegelbildlich zu den kooperativen Diensten nutzen sie nur dem Agenten, während sie für den Prinzipal wertlos sind. Der Vertrag zwischen Prinzipal und Agent kann vorsehen, dass der Agent solche Tätigkeiten verfolgen darf (α4 = 1) oder nicht (α4 = 0). Der letztendliche Wert, den die jeweiligen Tätigkeiten erzeugen unterliegt in alle Fällen einem Zufallseinfluss mit einem normalverteilten Erwartungswert von null. Durch den Zufallseinfluss entstehen dem Agenten im Hinblick auf seine Anreizentlohnung Risikokosten, die wie folgt bestimmt seien: r r RK = ⎡⎣α 12σ 12 + α 22σ 22 + α 42σ 42 ⎤⎦ = ⎡⎣α 12 η1 + α 42 η4 + α 42 η4 ⎤⎦ . 2 2

Der Parameter r ist wieder als Maß der Risikoaversion des Agenten zu interpretieren, die Variablen ηi sind die Kehrwerte der jeweiligen Output-Varianzen. Darüber hinaus wird unterstellt, dass alle Kovarianzen den Wert null annehmen. Aktivität 3 taucht in den Risikokosten nicht auf, da hierfür keine Entlohnung möglich und damit auch keine Unsicherheit verbunden ist. Die Anstrengung des Agenten verursache bei ihm Kosten in Höhe von C(e1, e2, e3, e4). Die Erwartungsnutzenfunktion des Agenten beträgt dann

r ⎡α 2 α 2 α 2 ⎤ EU A = β + α 1e1 + α 2e2 + α 4e4 − C(e1 ,e2 ,e3 ,e4 )− ⎢ 1 + 2 + 4 ⎥ . 2 ⎣ η1 η2 η4 ⎦ Aus dieser Form lässt sich ganz allgemein die optimale Wahl der Agenten-Anstrengung ableiten. Sie sei durch ei* = ei(α1, α2, α4), i = 1, …, 4 gegeben. Eine optimale Organisationsform liegt vor, wenn die Summe der Erwartungsnutzen von Prinzipal und Agent maximiert wird. Dazu verfügen die Akteure neben den Variablen

508

Mathias Erlei

der Agentenentlohnung auch über die Möglichkeit, den Zufallseinfluss auf den Output der Hauptaufgabe bzw. deren Kehrwert η1 durch Maßnahmen der Messung und Kontrolle zu beeinflussen. Dies kann man sich so vorstellen, dass durch diverse Maßnahmen der Marktbeobachtung und der Agentenkontrolle Teile des Zufallseinflusses erkannt werden können. Damit kann ihr Einfluss auf den Output des Agenten herausgerechnet werden. Wird dann die Anreizentlohnung auf diesen korrigierten Outputwert bezogen, entsteht ein schwächerer Effekt der Zufallseinwirkungen auf die Agentenentlohnung. Damit sinken auch seine Risikokosten. Die Messungsaktivitäten verursachen Messkosten, die durch eine Messkostenfunktion MK(η1, γ) erfasst werden. Für diese Funktion wird unterstellt, dass eine sinkende Varianz (steigendes η1) durch höhere Messkosten MK erkauft werden: ∂MK/∂η1 > 0. Der Parameter γ beschreibt die vorgegebene Effektivität des Messens in der Weise, dass eine höhere Wirksamkeit des Messens zu geringeren Messkosten bei gleichem η1 führt: ∂MK/∂γ < 0. Die entsprechende Zielfunktion lautet: 4 r ⎡α 2 α 2 α 2 ⎤ W(α 1 ,α 2 ,α 4 , p1 , p2 − p3 , p4 ,η1 ,η2 ,η4 ) = ∑ pi ei − C(e1 ,e2 ,e3 ,e4 )− ⎢ 1 + 2 + 4 ⎥ − MK(η1 ,γ ). 2 ⎣ η1 η2 η4 ⎦ i=1

4 r ⎡α 2 α 2 α 2 ⎤ − p3 , p4 ,η1 ,η2 ,η4 ) = ∑ pi ei − C(e1 ,e2 ,e3 ,e4 )− ⎢ 1 + 2 + 4 ⎥ − MK(η1 ,γ ). 2 ⎣ η1 η2 η4 ⎦ i=1

Die Parameter pi symbolisieren hier konstante und gegebene Grenzerträge der Anstrengung in den verschiedenen Bereichen. Man kann pi hier auch als Marktpreise für die Outputs xi = ei + εi und εi als Zufallseinflüsse auf die Outputs des Agenten interpretieren. Für die Funktion der optimalen Wahl des Agenten-Anstrengung werden noch zwei Annahmen getroffen: • Wird die Anreizentlohnung für eine Aufgabe erhöht, so hat dies einen negativen Effekt auf die Ausübung der anderen Aufgaben: ∂ei*/∂αj < 0 (i ≠ j). • Dieser gerade beschriebene Effekt wird abgeschwächt, wenn eine dritte Aufgabe höher entlohnt wird: ∂2ei*/∂αi ∂αk ≥ 0. Mit Hilfe dieser Annahmen kann das Hauptresultat des Modells abgeleitet werden. Es besteht aus zwei Bestandteilen: (1) Die optimalen Anreizintensitäten für die Aufgaben 1, 2 und 4 variieren bei Veränderungen in den Umweltbedingungen – hier: die Wichtigkeit der kooperativen Dienste, das Ausmaß des Zufallseinflusses auf die Aufgaben 2 und 4 sowie die Effektivität des Messens – immer gleichgerichtet. (2) Eine Senkung der ökonomischen Bedeutung der kooperativen Hilfsdienste, der exogen vorgegebenen Varianzen für die Aufgaben 2 und 4 oder der Messkosten (Erhöhung von γ) führt zu einer Erhöhung der Anreizintensitäten (und umgekehrt).

4 Institutionen

509

Das erste Ergebnis ist im Prinzip schon aus dem Mehraufgaben-Prinzipal-AgentModell bekannt. Wenn der Prinzipal alle Aufgaben erfüllt wissen möchte, müssen sie alle gleich attraktiv entlohnt werden. Im hier diskutierten Ansatz ist es allerdings möglich, dass bei Nichterfüllung einiger Aufgaben positive Prinzipalgewinne anfallen. Sind die Leistungsanreize für eine Aufgabe null, dann werden die Anreize für die anderen Aufgaben niedrig sein (wenngleich auch zum Teil größer als null). Interpretiert man α2 = 0 als vertikale Integration (der Prinzipal verfügt über alle Eigentumsrechte an der Investition e2 des Agenten), so werden die Leistungsanreize für die Hauptaufgabe relativ niedrig angesetzt und Nebentätigkeiten werden eher untersagt (α4 = 0). Umgekehrt bedeutet α2 = 1 dann eine Abwicklung über den Markt (bzw. eine Form der Abwicklung, die näher am Marktbezug als an der Integration liegt). Diese hätte hohe Anreizintensitäten für die Hauptaufgabe und eine Tendenz, Nebentätigkeiten zu erlauben. Dieses Muster eines Gleichlaufs von Anreizen entspricht den Aussagen der Transaktionskostentheorie, dass der Marktbezug im Allgemeinen mit sehr hoher Anreizintensität, die Organisationsbenutzung jedoch tendenziell mit deutlich geringeren Leistungsanreizen verbunden ist. Ergebnis (2) liefert Anhaltspunkte dafür, wann eine Tätigkeit eher über eine vertikale Integration abgewickelt wird. Sind zum Beispiel die Zufallseinflüsse auf den Wert der Investition oder der Nebentätigkeiten sehr groß, dann würde eine Marktbezugslösung – Eigentumsrechte der Investition beim Agenten – zu hohen Risikokosten beim Agenten führen. Dies spricht, ceteris paribus, für eine Verlagerung der Eigentumsrechte (und des Risikos) zum risikoneutralen Prinzipal. Ähnliches gilt für eine große Bedeutung der kooperativen Dienste, die annahmegemäß nicht quantifiziert werden können. Je niedriger die Leistungsanreize, desto geringer sind für den Agenten seine Opportunitätskosten, diese Leistungen ohne Belohnung bereitzustellen. Vertikale Integration fördert somit durch Absenkung der Opportunitätskosten kooperatives Agenten-Verhalten. Schließlich erhöht eine weniger wirksame Messtechnik (geringeres γ) nicht nur die Messkosten des Prinzipals, sondern im Optimum auch die Risikokosten des Agenten. Je höher jedoch die Risikokosten, desto eher bietet sich die vertikale Integration an. Mit dieser Erweiterung des Mehraufgaben-Prinzipal-Agent-Ansatzes liefern Holmstrom und Milgrom (1994) somit eine vollständige Theorie der Unternehmensbildung, in deren Zentrum asymmetrische Informationen und Messkosten stehen. Wenngleich das Modell eine bemerkenswerte Vielzahl von Aspekten in präziser, formaler Weise abbildet, bleiben die Annahmen natürlich sehr restriktiv. Dies gilt zum einen für die unterstellten funktionalen Zusammenhänge und die Eigenschaften der Wohlfahrtsfunktion W. Zum anderen existieren im konkreten Anwendungsfall nicht selten weitere Handlungsparameter. So könnte man zum Beispiel Arbeitsplätze bewusst gestalten, sodass die kooperativen Hilfsdienste von einer angestellten Person, die Hauptaufgabe und die Investition hingegen von einer anderen, dann selbständigen Person vorgenommen werden. Soweit dies möglich ist, entfällt das gesamte Ausgangsproblem des Modells und wird zu einem einfachen Problem moralischen Wagnisses vereinfacht.

510

4.4.3

Mathias Erlei

Die ressourcenbasierte Theorie der Unternehmung

Wie die Transaktionskostentheorie ist auch die ressourcenbasierte Theorie der Unternehmung (Ressourcenbasierter Ansatz – RBA) vom Grundsatz her dynamisch ausgerichtet und damit durch eine statische Gleichgewichtsbetrachtung allenfalls in Teilen fassbar. Die Grundidee des RBA, der mitunter auch als Kompetenzansatz, wissensbasierter Ansatz oder als „capabilities approach“ bezeichnet wird, stammt von Penrose (1959), die die Unternehmung als Bündel von Ressourcen versteht, deren Nutzung durch einen organisatorischen Rahmen koordiniert wird. Unter Ressourcen versteht Penrose alle nur denkbaren Faktoren, die einen nützlichen Dienst erweisen. Mit der Entwicklung des RBA wurde der Inhalt dessen, welche Ressourcen von besonderer Bedeutung sind, immer weiter verfeinert. Mit der Zeit wurde klar, dass die Aspekte des Wissens und des Lernens eine zentrale Position einzunehmen haben. Dabei wird der Begriff des Wissens sehr breit gefasst. Er beginnt mit dem üblichen, leicht transferierbaren und jedem zugänglichen Faktenwissens, das oftmals keine hervorgehobene Bedeutung im RBA einnimmt. Er umfasst aber auch Spezialwissen, das durch Forschung und Entwicklung unternehmensintern generiert wurde, Erfahrung im Lösen bestimmter Arten von Problemen, spezielle Fertigkeiten oder individuelle Fähigkeiten. Insbesondere die letzten drei Formen der Wissensressourcen entsprechen dem, was man auch als nicht übertragbares Wissen („tacit knowledge“) bezeichnen kann. Dieses ist dadurch gekennzeichnet, dass eine Übertragung der Inhalte oft nur schwer, manchmal überhaupt nicht möglich ist. Man denke etwa an die Fähigkeit, Billard zu spielen. Sicher können alle Interessierten sich das erforderliche Basiswissen aus der Physik aneignen (z.B. Einfallswinkel = Ausfallswinkel), die Fähigkeit bestimmte kunstvolle Stöße auszuführen bedarf jedoch des Trainings, der Übung und kann nicht angelesen werden. Im RBA werden die Unternehmen über ihre Ressourcen definiert und die Unterschiede zwischen den stets heterogenen Unternehmen bestehen insbesondere in ihren Wissensressourcen. Hieraus resultieren unterschiedliche Kompetenzen der Unternehmen. Die Kernkompetenzen umfassen jene Ressourcen für die das Unternehmen ein Alleinstellungsmerkmal oder zumindest einen komparativen Wettbewerbsvorteil aufweist. Das Konzept der Kompetenzen wurde auch weiterentwickelt zum Konzept der dynamischen Kompetenzen (Teece u.a. 1997), das die Fähigkeit betont, dass ein Unternehmen sich neue Fähigkeiten aneignet. Dynamische Kompetenzen spielen in einer sich ständig ändernden Welt eine große Rolle und stehen in engem Zusammenhang mit dem Anpassungsproblem, das auch in der Transaktionskostentheorie thematisiert wird. Kompetenzen sind nicht einfach vorhanden, sondern werden durch Investitionen sowie einen Prozess des Lernens innerhalb des Unternehmens erzeugt. Die Entwicklung von Ressourcen über die Zeit bildet dabei einen sehr spezifischen und pfadabhängigen Prozess, in dem vergangenes Handeln maßgeblichen Einfluss auf das zukünftige Handeln ausübt.

4 Institutionen

511

Zu einer ersten richtigen Theorie der Unternehmung wurde der RBA in Richardson (1972) entwickelt. Richardson führt zwei Dimensionen zum Vergleich von Aktivitäten ein: • Ähnliche Aktivitäten sind solche, die dieselben Ressourcen bzw. Kompetenzen erfordern. • Komplementäre Aktivitäten werden dadurch gekennzeichnet, dass sie innerhalb eines Wertschöpfungsprozesses benötigt werden. Wenn ein Unternehmen über bestimmte Ressourcen verfügt, dann hat es die Kompetenz, alle auf diesen Kompetenzen beruhenden – und damit auch ähnlichen – Aktivitäten durchzuführen. Ähnliche Aktivitäten werden somit oftmals innerhalb eines Unternehmens gebündelt, weil das Unternehmen schlicht und einfach dazu in der Lage ist. Da alle einzelnen Unternehmen nur über einen winzigen Bruchteil aller existierenden Kompetenzen verfügen, werden unähnliche Aktivitäten tendenziell eher in unterschiedlichen Unternehmen vorgenommen. Die Komplementarität von Aktivitäten erfasst den Bedarf an Ressourcen, selbst wenn sie nicht innerhalb eines Unternehmens vorhanden sein sollten. In diesem Fall muss sich das Unternehmen der Ressourcen anderer Unternehmen bedienen, indem es eine Markttransaktion vornimmt oder eine kooperative Organisation, etwa in Form einer langfristigen Geschäftsbeziehung oder mittels eines Joint Ventures, einrichtet. Tabelle 4.3 (vgl. Siemer 2004, S. 107) fasst diese Überlegungen noch einmal zusammen. Demsetz (1988) entwickelt einen zu Richardson komplementären Ansatz, der ebenfalls auf unternehmensspezifischen Ressourcen basiert. Die Frage, ob eine Aktivität in einem Unternehmen durchgeführt oder nicht, ist nach Demsetz ein Problem, das sich aus einer Kombination von Spezialisierung und Wissensübertragungskosten zusammensetzt. Zunächst einmal betont Demsetz die produktivitätssteigernde Wirkung der Spezialisierung. Aus der zunehmenden Spezialisierung entsteht jedoch ein Bedarf nach einer Koordination des Handelns. Diese erfolgt in Demsetz‘ Schema entweder über Arbeitsanweisungen (Integration) oder über Nutzungsanweisungen (Marktbezug oder Kooperation). In beiden Fällen wird Wissen vom Anweisenden an den Angewiesenen vermittelt. Im Fall der Arbeitsanweisung muss der angewiesene Mitarbeiter nicht verstehen, warum eine bestimmte Handlung erforderlich ist, es genügt völlig, dass er die richtige Handlung vornimmt. Damit verhält er sich so, als ob er die Zusammenhänge vollständig erfassen würde. Bei einer Nutzungsanweisung – gewissermaßen einer Bedienungsanleitung – kann der Angewiesene ebenfalls das Wissen des Anweisenden nutzen, ohne es selbst zu kennen. Mitunter genügt es, eine Maschine bedienen zu können, ohne gleichzeitig wissen zu müssen, wie sie funktioniert. Tab. 4.3  Organisationsformen für Aktivitäten

Aktivitäten sind …

nicht komplementär

komplementär

nicht ähnlich

Markt Unternehmen oder Markt

Kooperation

ähnlich

Unternehmen

512

Mathias Erlei

Die Frage, ob eine Arbeits- oder eine Nutzungsanweisung gewählt wird, ist dann vorrangig eine der komparativen Kosten dieser Wissensübertragung. Solange es mit geringeren Kosten verbunden ist, Arbeitsanweisungen auszugeben, sollten Aktivitäten innerhalb eines Unternehmens koordiniert werden. Der anweisende Manager oder Unternehmenseigentümer ist dabei diejenige Person, die über das relevante Wissen verfügt und es durch seine Anordnungen koordiniert einsetzt. Ist die Wissensübertragung über Arbeitsanweisungen jedoch unwirksam oder mit zu hohem Aufwand verbunden, dann lohnt es sich, dieses Wissen in Form einer Produktionsanlage oder eines Zwischenprodukts (mit Bedienungsanleitung) zu transferieren. Letzteres entspricht dann der Wissensübertragung durch Kauf bzw. Verkauf am Markt. In ähnlicher Weise wie Demsetz definiert Langlois (1992) „dynamischen Transaktionskosten“ als Kosten des Überzeugens, Verhandelns, Koordinierens und Unterrichtens (Belehrens). Diese bewirken unterschiedliche Kosten der Durchführung von Aktivitäten innerhalb von Unternehmen bzw. über den Markt. Langlois ordnet jeder Aktivität eine Kostendifferenz ∆C = Kint – KMarkt zu und reiht sie in ansteigender Folge (Abb. 4.16). Die ersten fünf Aktivitäten weisen eine negative Kostendifferenz auf, sie sind somit innerhalb des Unternehmens kostengünstiger umzusetzen als über einen Fremdbezug. Die letzten fünf Aktivitäten werden effizient über den Markt abgewickelt. Auf diese Weise erklärt Langlois die Zusammenführung von Aktivitäten innerhalb eines Unternehmens, ohne auf spezifische Investitionen zurückgreifen zu müssen. Zusammenfassend lässt sich festhalten, dass der RBA somit unterschiedliche Ressourcenausstattungen – und darauf aufbauend unterschiedliche Kompetenzen – als Ursache für Kostendifferenzen ansieht, aus denen sich, unabhängig vom Vorliegen spezifischer

Abb. 4.16  Dynamische Transaktionskosten und Integration

4 Institutionen

513

Investitionen, effiziente Organisationsformen ableiten lassen. Als besonders wichtige Ressource wird zumeist der Wissensstand der Personen und Unternehmen angesehen, sodass die vorhandene Streuung des Wissens zu einer elementaren Determinante der Strukturierung des Produktionsprozesses wird. Auch wenn diese Erklärung der Entstehung und Größe von Unternehmen wiederholt als Gegenentwurf zur Transaktionskostentheorie verstanden wird (z.B. Hodgson 1998), zeigt Siemer (2004) ausführlich, dass die Ansätze sich keineswegs ausschließen und durchaus ergänzen.

4.4.4

Der Entrepreneur-Ansatz der Unternehmung

Der Entrepreneuransatz der Unternehmung (Foss und Klein 2005, 2012; Klein und Foss 2008; Foss u.a. 2007) ist eine Zusammenführung von Elementen aus den bereits zuvor besprochenen Theorien mit der zusätzlichen Einführung des Elements des Entrepreneurships. Unter Entrepreneurship wird dabei eine bestimmte Weise des Verhaltens verstanden, die oftmals mit den Eigenschaften der Findigkeit, Kreativität und Anpassungsfähigkeit verbunden wird. Die Idee des Entrepreneurships als spezielle Interpretation des Unternehmertums basiert im Wesentlichen auf der Vorstellung von Arbitragegeschäften. Unter Arbitrage versteht man das Ausnutzen von Preisdifferenzen. Wird etwa ein Produkt an einem Markt zum Preis von 20 Euro gehandelt, an einem anderen Markt hingegen für 15 Euro, dann kann ein Arbitragegeschäft durchgeführt werden: Man kauft das Produkt am Markt mit dem niedrigen Preis und verkauft es anschließend am anderen Markt zum höheren Preis. Die Preisspanne abzüglich der anzurechnenden Kosten für die Abwicklung der Arbitrage bildet dann einen Arbitragegewinn. Arbitrage in einem weiten Sinn liegt auch dann vor, wenn nicht dasselbe Produkt ge- und verkauft wird, sondern wenn verschiedene Produkte gekauft und unter Zuhilfenahme von Dienstleistungen eine Transformation zu einem neuen Produkt vorgenommen wird, das anschließend einen höheren Erlös erzielt als zuvor für alle Faktoreinsätze gezahlt wurde. Dies verdeutlicht, dass die meisten Arbitragegeschäfte Zeit benötigen, sodass An- und Verkaufszeitpunkte deutlich auseinanderfallen. Da die Zukunft grundsätzlich nicht sicher bekannt ist, weisen die in der Zukunft liegenden Erlöse grundsätzlich einen spekulativen Charakter auf. Entrepreneurship als Verhaltensweise versucht dann Arbitragegewinne aus sicheren aktuellen Einkaufs- und unsicheren, zukünftig erwarteten Verkaufspreisen zu erzielen (Kirzner 1973). Entrepreneure sind Unternehmer, die stets auf der Suche nach solchen Arbitragegewinnen sind und damit Marktprozesse auslösen, die zu einer Annäherung an den Gleichgewichtszustand führen. Entrepreneure sind von ganz besonderer Bedeutung, wenn sich ändernde Handlungsumgebungen Verhaltensanpassungen erforderlich machen oder wenn sie Produkt- oder Verfahrensinnovationen am Markt einführen. Foss und Klein (2012) bauen auf dem von Kirzner eingeführten Entrepreneurbegriff auf, verlagern allerdings die Betonung einiger Aspekte. Insbesondere heben sie stärker hervor, dass wirtschaftliches Handeln stets in einem sich permanent wandelnden Umfeld

514

Mathias Erlei

erfolgt. Dieser Wandel erfolgt jedoch in einer nicht objektiv vorhersehbaren Weise, sodass Unsicherheit im Knightschen Sinn vorliegt. Letztere unterstellt nicht nur das Fehlen objektiver Eintrittswahrscheinlichkeiten zukünftiger Handlungsbedingungen, sondern auch das Unwissen über die unendliche große Anzahl möglicher Zustände. Sieht man von trivialen Arbitragegeschäften des fest zeitgleichen An- und Verkaufs eines nicht veränderten Handelsobjektes ab, dann ist mit dem Entrepreneurship auch die Notwendigkeit einer Verfügbarkeit von Ressourcen verbunden. Auf diese Weise verlagern Foss und Klein das Augenmerk von der simplen Arbitrage zum Entrepreneurship als unsicherheitsbehaftete, subjektiv-wertende Suche nach Arbitragegelegenheiten („entrepreneurial judgement“). Die subjektive Wertung betrifft die in der Zukunft vermuteten Erlöse, deren Schätzung im Allgemeinen auf einer individuellen Interpretation der dem Entrepreneur verfügbaren Sachinformationen basiert. Die zur Abwicklung der Pläne erforderlichen Ressourcen werden sehr breit definiert. Sie umfassen die vom Entrepreneur selbst eingesetzte Zeit, die im Unternehmen beschäftigten Mitarbeiter sowie alle weiteren eingesetzten Sachmittel, insbesondere die Kapitalgüter. An dieser Stelle verbinden sie ihren Ansatz mit der (subjektivistischen) Österreichischen Kapitaltheorie (Lachmann 1956; Lewin 1999), die Kapital als komplexes System spezifischer und heterogener Kapitalgüter betrachtet. Damit ist gemeint, dass Kapitalgüter zum einen typischerweise spezifisch sind, das heißt sie können nur in einer begrenzten Anzahl von Verwendungen eingesetzt werden und verlieren darüber hinaus beim Wechsel der Verwendungsrichtung einen Teil ihres zuvor vermuteten Wertes. Die Ursache hierfür liegt darin, dass Kapitalgüter zumeist in einer engen produktionstechnischen Verbindungen mit anderen, speziell auf sie abgestimmten Kapitalgütern stehen: Eine Produktionsanlage, die Armaturenbretter für Autos vom Typ VW Golf anfertigt, bedarf der Kopplung an den Produktionsprozess des Unternehmens Volkswagen und kann nicht ohne Weiteres für den Produktionsprozess von Autos des Daimler-Benz-Konzerns verwendet werden. Schließlich wird betont, dass Kapitalgüter heterogen sind, was sich nicht nur auf die physischen Eigenschaften bezieht, sondern auch auf die Einbindung in einen konkreten Verwendungsplan, der zumindest in den Augen der jeweiligen Entrepreneure einen signifikanten Unterschied macht (Kirzner 1966). Die Möglichkeiten der Nutzung von Kapitalgütern sind jedoch nicht objektiv vorgegeben, sondern müssen zumeist erst entdeckt und ausprobiert werden. Insofern ist der Einsatz von Kapitalgütern mit einem unverzichtbaren Experimentieren verbunden. Dies gilt jedoch nicht nur für die Kapitalgüter, sondern für den gesamten Bereich der Entrepreneuraktivitäten, denn das Vorliegen einer tatsächlichen Gewinnmöglichkeit zeigt sich grundsätzlich erst im Anschluss an die Durchführung der unvermeidlich spekulativen Handlung. Zu einer Theorie der Unternehmung wird der Entrepreneurshipansatz erst durch Überlegungen zur konkreten Umsetzung von Entrepreneurhandlungen. Zunächst einmal existiert kein Markt für subjektive Entrepreneureinschätzungen. Das Grundproblem besteht darin, dass ein Entrepreneur über Informationen verfügt und daraus Einschätzungen abgeleitet hat, die der Rest der Welt nicht kennt: „[E]ntrepreneurship reveals to the

4 Institutionen

515

market what the market did not realize was available, or indeed, needed at all“ (Kirzner 1979, S. 181). Zwar kann der potenzielle Entrepreneur seine Einschätzung weitergeben, doch ergeben sich dann weitere Probleme: (a) Welchen Preis soll der Empfänger der Einschätzung dafür zahlen? Zahlt er vor der Informationsübermittlung, weiß er nicht wofür er zahlt. Soll er hingegen nachher zahlen, so verfügt er bereits über die Informationen und hat keinen Anlass, Transferzahlungen vorzunehmen. (b) Der nach Gewinnchancen suchende Entrepreneur könnte auch als Berater (mit fixer Entlohnung) engagiert werden. Dies wird jedoch sofort seine Anreize ändern, sodass nicht davon auszugehen ist, dass sein Verhalten unverändert bleibt. (c) Selbst wenn jemand seine Entrepreneureinschätzung verkauft hätte (etwa als Berater), bliebe die Investitionsentscheidung des Informationsempfängers erneut eine Frage der subjektiv-wertenden Interpretation dieser Informationen. Das Entrepreneurship würde nur verlagert. Wenn das Handeln der Entrepreneureinschätzung somit nur schwer möglich ist, bleibt dem Entrepreneur in erster Linie nur, dass er die Geschäfte selbständig durchführt. Dafür benötigt er im Allgemeinen jedoch Zugang zu Ressourcen, insbesondere dann, wenn die Entrepreneurhandlung mit einem Produktionsprozess verbunden ist. Diese über den Markt zu besorgen, ist deshalb problematisch, weil die Umsetzung eines Entrepreneurplans immer auch mit Unwägbarkeiten, Irrtümern, Experimentieren und unvorhergesehenen Anpassungszwängen verbunden ist. Diese Anpassung – insbesondere im Hinblick auf verwendete Kapitalgüter – kann sehr problematisch werden, da im Grunde nur der Entrepreneur selbst seine Geschäftsidee versteht. Hinzu kommen alle bereits ausführlich diskutierten Risiken, die aus dem Vorliegen asymmetrischer Informationen und spezifischer Investitionen entstehen. Damit ist es für den Entrepreneur effizient, das Vorhaben in einem von ihm selbst kontrollierten Unternehmen durchzuführen. Darin kann er – ganz im Sinn von Demsetz (1988) – seine Informationen durch Arbeitsanweisungen vermitteln, ohne das die Mitarbeiter seine Geschäftsidee verstehen müssen. Die Existenz von Grenzen der Unternehmung werden im Entrepreneuransatz eher traditionell begründet. Zum einen werden die bereits aus der Transaktionskostentheorie bekannten Argumente angeführt: strategisches Verhalten einer zentralen Entscheidungsautorität, Beeinflussungskosten, sinkende Innovationsanreize und Anreizprobleme durch Nachsichtigkeit (bei schlechter Leistung). Hinzu kommt nach das aus der österreichischen Schule bekannte Kalkulationsproblem: Würde ein Unternehmen so groß werden, dass für bestimmte Ressourcen oder deren Verwendung kein Markt mehr besteht, verfügt das Unternehmen nicht länger über Marktpreise als Träger von Informationen, die die Knappheit einer Ressource signalisieren. Hieraus entstehen Fehlallokationen und Ineffizienzen (Foss und Klein 2012, S. 181). Abschließend liefert der Entrepreneuransatz der Unternehmung auch zusätzliche Anhaltspunkte für die unternehmensinterne Organisation der wirtschaftlichen Aktivitäten. Neben den üblichen Argumenten zum moralischen Wagnis wird das Problem des verstreuten Wissens betont: das innerhalb eines Unternehmens nutzbare Wissen steht nicht jeder einzelnen Person vollständig zur Verfügung, sondern ist auf die unterschiedlichen

516

Mathias Erlei

Menschen verteilt. Jeder Mitarbeiter verfügt über eine mehr oder weniger kleine Menge an exklusiven Informationen. Dies hat zur Folge, dass zentral getroffene Anweisungen einen Teil des vorhandenen Wissens nicht nutzen können. Dies führt zu Ineffizienzen, die durch eine Dezentralisierung von Entscheidungsrechten (abgeleitetes Entrepreneurship; „derived entrepreneurship“) verringert werden können. Je selbständiger ein Mitarbeiter innerhalb seines kleinen Arbeitsbereichs entscheiden kann, desto mehr Informationen fließen in das Unternehmensverhalten ein. Der Mitarbeiter wird auf diese Weise in kleinem Umfang selbst zum subjektiv-wertenden Entrepreneur innerhalb des Unternehmens. Hinzu kommt, dass Mitarbeiter ein gewisses Maß an Selbstbestimmung als Bereicherung ihres Arbeitslebens empfinden. Diese Vorteile der Delegation von Entscheidungsrechten müssen den Nachteilen – vor allem das strategische Ausnutzung der Rechte zum eigenen Vorteil, der gegebenenfalls geringer ausfällt als die damit verbundene Last für das restliche Unternehmen – gegenüber gestellt werden. Diese Abwägung stellt ebenfalls eine Entrepreneurhandlung dar. Gelänge sie optimal, so würden alle Entscheidungsrechte delegiert werden, wenn der Nutzen aus der zusätzlichen Berücksichtigung dezentral gestreuten Wissens größer wäre als die Kosten des strategischen Ausnutzens durch die Mitarbeiter. Zusammenfassend lässt sich festhalten, dass die Unternehmung im Entrepreneuransatz ein nur schwer verzichtbares Instrument des Entrepreneurs zur flexiblen Durchsetzung seiner unsicherheitsbehafteten, idiosynkratischen Geschäftsidee darstellt. Eine auf dieser Konzeption entstehende Unternehmung basiert nicht notwendigerweise auf den üblichen Annahmen hoher Messkosten oder spezifischer Investitionen, wenngleich diese Aspekte als ergänzende Bestandteile des Entrepreneuransatzes angesehen werden.

4.5

Institutionelle Umwelt – gesellschaftliche Institutionen

Standen bislang privat geschaffene institutionelle Arrangements im Vordergrund der Analyse, so wird im Folgenden der Fokus auf die institutionelle Umwelt, auf gesellschaftliche Institutionen gerichtet. Diese stellen für die meisten Individuen nicht beeinflussbare, exogene Daten dar, sie bilden die Spielregeln unter deren Dach private Akteure freie Vereinbarungen treffen können und deren Schutz sie zur Durchsetzung privater Verträge in Anspruch nehmen können. Ein wettbewerbliches Marktsystem ist nicht aus sich selbst heraus funktionsfähig. Vielmehr bedarf es eines geeigneten institutionellen Rahmens, der die Anbahnung und Abwicklung der Transaktionen unterstützt. Abbildung 4.17 zeigt die verschiedenen Bedingungen und Einflussfaktoren für ein arbeitsfähiges Marktsystem. Unter einem wettbewerblichen Marktsystem versteht man im Wesentlichen, dass das wirtschaftliche Verhalten der vielen Einzelnen über den Markt und dessen Preisbildung koordiniert wird. Dabei ist von Bedeutung, dass das Verhalten zwischen den Wettbewerbern autonom erfolgt, das heißt, es dürfen keine ein Kartell konstitutierenden Verhaltensabstimmungen zwischen den Akteuren einer Marktseite vorgenommen werden. Darüber hinaus verbindet man mit dem Marktsystem auch einen dauerhaften, planvollen, an der

4

Institutionen

517

Abb. 4.17 Einbettung des Marktsystems in das gesellschaftliche Institutionengefüge

Kapitalrechnung ausgerichtete rationale Unternehmensführung. Dies bedeutet, dass die Vorteilhaftigkeit einer wirtschaftlichen Maßnahme daran gemessen wird, inwieweit die monetären Einnahmen die Ausgaben übersteigen. Damit ein solches System seine Aufgaben erfüllen kann, bedarf es neben dem unverzichtbaren Zugang zu Produktionsmitteln, einer verkehrs- und kommunikationstechnologischen Infrastruktur und einem die Individuen zur Partizipation befähigenden Humankapitalbestand vor allem auch ein den Markt umgebendes institutionelles Gefüge. Dieses besteht aus der Wirtschaftsordnung, dem allgemeinen Rechtssystem der Gesellschaft – inklusive der damit verbundenen Durchsetzungseinrichtungen – und einem Bereich der informellen, das heißt nicht kodifizierten Institutionen. Die Wirtschaftsordnung regelt die Zulässigkeit und Gestaltungsräume von wirtschaftlichen Transaktionen. Die Wirksamkeit einer an Marktmechanismen ausgerichteten Wirtschaftsordnung basiert jedoch notwendigerweise auf einem berechenbaren allgemeinen Rechtswesen, das dem Einzelnen verlässliche Rechte gegenüber dem Staat sowie seinen Mitbürgern einräumt (Rechtstaatlichkeit) und das ihm einen Schutz gegenüber militärischen Interventionen des Auslands gewährt. Was eine Marktwirtschaft idealerweise benötigt, „ist ein Recht, das sich ähnlich berechnen lässt wie eine Maschine“ (Weber 1923, S. 293). Abbildung 4.17 zeigt, dass das allgemeine Rechtssystem Grundlage für informelle Institutionen und die

518

Mathias Erlei

Wirtschaftsordnung ist. Diese wiederum ermöglichen oder behindern das Funktionieren des Marktsystems entscheidend. Umgekehrt beeinflussen informelle Institutionen jedoch auch die formalen Institutionen des Rechts, indem sie dessen Akzeptanz und Entwicklung beeinflussen. Die einander beeinflussenden Aspekte informeller Institutionen, des allgemeinen Rechts und der Wirtschaftsordnung bilden gemeinsam die institutionelle Umwelt der wirtschaftenden Menschen. Die ökonomische Analyse der institutionellen Umwelt wird, wie in Abbildung 4.18 dargestellt, zumeist in zwei Richtungen eingeteilt. In der ersten wird das Verhalten von Politikern, Parteien, Bürokraten und Interessenverbänden bei vorgegebenen rechtlichen Regeln untersucht. Dieses Verhalten beinhaltet zumeist die Umsetzung oder Ausgestaltung geltenden Rechts und hat somit einen quasi-institutionellen Charakter, wenngleich die eigentliche Analysemethode im Wesentlichen der bekannten neoklassischen Maximierungstechnik entspricht. Derlei Ansätze werden üblicherweise unter dem Sammelbegriff Neue Politische Ökonomik („Public Choice“) zusammengefasst. Der zweite Strang zur Analyse gesellschaftlicher Institutionen befasst sich mit der positiven und normativen Gestaltung der institutionellen Umwelt. Diese Forschung lässt sich abermals in mindestens zwei Untergruppen einteilen. Die ökonomische Theorie der Verfassung und des Rechts (inklusive Wirtschaftsordnung) ist bestrebt, unter Zuhilfenahme der positiven Wirtschaftstheorie Gestaltungsempfehlungen für die Bildung von Institutionen zu erarbeiten. Die Theorie der institutionellen Entwicklung legt den Schwerpunkt der Analyse hingegen auf die theoretische Erklärung der bestehenden Institutionen. Ihr besonderes Anliegen besteht darin zu verstehen, warum offensichtlich ineffiziente Regelungen nicht durch überlegene Regeln beseitigt wurden.

Institutionelle Umwelt Neue Politische Ökonomie

Ökon. Theorie - der Politik - der Bürokratie - der Interessengruppen - des Föderalismus

Institutionengestaltung

Ökon. Theorie - der Verfassung - des Rechts

Abb. 4.18  Ökonomische Analyse der institutionellen Umwelt

Theorie der institutionellen Entwicklung

4 Institutionen

519

Im Folgenden wird zunächst der Aspekt der Institutionengestaltung betrachtet. Dazu wird zunächst die ökonomische Theorie der Verfassung skizziert. Die Verfassung erzeugt einen Rahmen, innerhalb dessen verschiedene Wirtschaftsordnungen eingerichtet werden können. Allgemeine Fragestellungen der Gestaltung einer Wirtschaftsordnung sowie das Konzept einer speziellen Wirtschaftsordnung, der Sozialen Marktwirtschaft, folgen im Abschnitt 4.4.2. Ein kleiner Einblick in die ökonomische Theorie des (Privat-) Rechts erfolgt im Abschnitt 4.4.3. Die Thematik der Institutionengestaltung wird mit der Theorie der institutionellen Entwicklung (Abschnitt 4.4) abgeschlossen. In Abschnitt 4.4.5 folgt ein Überblick über die Neue Politische Ökonomik mit ihren Teilbereichen Theorie der Demokratie, der Bürokratie und der Interessengruppen.

4.5.1

Ökonomische Theorie der Verfassung

In der gesamten Menschheitsgeschichte, die sich über mehr als eine Million Jahre hinzieht, erweist sich der Mensch als Wesen, das in Horden und Gruppen unterschiedlicher Größenordnung lebt. Es ist keine Phase bekannt, in der der Mensch isoliert von anderen Mitmenschen gelebt hat. Menschliches Leben ist menschliches Miteinander, also gesellschaftliches Leben. Menschliches Handeln ist im Allgemeinen soziales Handeln, das heißt Handeln, „das seinem von dem oder den Handelnden gemeinten Sinn nach auf das Verhalten anderer bezogen wird und daran in seinem Ablauf orientiert ist“ (Weber 1972, S. 1). Dieses Handeln wiederum ist stets eingebettet in und wird kanalisiert durch ein System von Regeln und ihren Durchsetzungsmechanismen, also in ein System von Institutionen. Das menschliche Handeln kann in zwei Kategorien unterteilt werden: (a) Entscheidungen und Handlungen innerhalb gegebener Regeln und (b) Entscheidungen über Regeln. Thema der Verfassungsökonomik ist die Entscheidung über Regeln. Die zentrale Fragestellung lautet: „Auf welche Verfassungsregeln könnten sich vollkommen oder begrenzt rationale, nutzenmaximierende Menschen einigen?“ Diese Frage lässt sich grundsätzlich auf zwei Weisen beantworten: positiv oder normativ. In Anbetracht des Umstands, dass tatsächliche gesellschaftliche Einigung aller Bürger auf eine gemeinsame Verfassung historisch bedeutungslos sind, kann ein solches Szenario nicht als rein positive Analyse der Institutionenentwicklung dienen. Dennoch betont Buchanan (1984, S. 77), einer der herausragenden Vertreter der Verfassungsökonomik, ihre Nützlichkeit als Als-ob-Modell, das zentrale Einflussfaktoren in ihrer Wirkungskraft für die Entwicklung von Verfassungen abbilden kann, selbst wenn faktisch keine Einigung im eigentlichen Sinne stattgefunden hat. Die Theorie versucht „zu erklären, wie „das Recht“, „die Eigentumsrechte“ und „die Verhaltensregeln“ aus nichtidealistischem, vom Eigeninteresse bestimmten Verhalten der Menschen abgeleitet werden können. Aus diesem Versuch leitet sich jedoch nicht der Anspruch ab, dass der Gefahr widerstanden wurde, von allen normativen Erwägungen zu abstrahieren“ (Buchanan 1984, S. 78). Auch wenn man den hypothetisch-positiven Charakter in seiner Theorie nicht leugnen kann, liegt der Schwerpunkt der Bedeutung der Verfassungsökonomik im normativen Bereich

520

Mathias Erlei

zur Aufdeckung von Reformen, bei denen alle Betroffenen letztendlich profitieren können: „[T]he political economist’s task is completed when he has shown that there exist mutual gains ‚from trade’“ (Buchanan 1959, S. 128 f.). Als Referenzpunkt für die gesellschaftliche Einigung wird der Gleichgewichtszustand bei Nichteinigung herangezogen. Diese „natürliche Verteilung“, in der kein allgemein akzeptiertes Regelsystem gilt und das somit im Wesentlichen dem Hobbesschen Dschungel eines Kampfes aller gegen alle entspricht, beinhaltet den Einsatz von Waffen und Gewalt zwecks Angriff auf Ressourcen anderer oder Verteidigung der eigenen Ressourcen. Eine solche gleichgewichtige Verteilung ist hochgradig ineffizient, da Waffenproduktion und Kampf nicht produktiv sind, aber sehr viele Ressourcen verbrauchen. Die natürliche Verteilung muss keineswegs symmetrisch oder gerecht ausfallen, im Gegenteil: Es ist zu vermuten, dass die aus den Kämpfen hervorgehenden Sieger die Verlierer unterdrücken und ausbeuten. Gelingt es jedoch, ein Regelsystem einzurichten, können alle Gesellschaftsmitglieder profitieren, indem eine weit gehende Abrüstung und produktive Nutzung der frei werdenden Ressourcen ermöglicht wird. Die Durchsetzung eines solchen Institutionengefüges kann durch die Einrichtung eines staatlichen Gewaltmonopols in Verbindung mit der Schaffung staatlicher Einrichtungen wie der Polizei, der Gerichte und des Militärs verwirklicht werden. Aufgabe dieser Einrichtungen ist es, die Regeleinhaltung so weit wie möglich zu überwachen, Regelverstöße ausfindig zu machen und sie anschließend zu sanktionieren. Damit bleiben die Fragen, wie und auf welche Art von grundlegenden Regeln sich die Gesellschaftsmitglieder einigen können? Im Hinblick auf das Wie, gibt es eine überraschend simple Antwort: im Konsens. Das bedeutet, im theoretischen Ideal sollen alle Bürger den Verfassungsregeln zustimmen (können). Wie schon bei einem Markttausch alle Seiten einem Geschäft zustimmen müssen, gilt dies auch für die Verfassung, die somit den Verfassungsvertrag als „Handelsvereinbarung über Rechte“ (politics as exchange) darstellt. Zustimmen werden die Menschen jedoch nur dann, wenn sie von der Einführung der Institution der Verfassung keine Verschlechterung ihrer Lage erwarten. Das bedeutet, dass alle Personen zumindest den (fiktiven) Status quo der natürlichen Verteilung erreichen, im Allgemeinen verlangen jedoch alle Personen – auch die in der natürlichen Verteilung schon besser gestellten – einen eigenen Anteil an den durch Abrüstung erzielbaren Effizienzgewinnen. Damit wird zumindest ein Teil der vorvertraglichen Ungleichheit der natürlichen Verteilung auf die aus der Verfassung resultierende Verteilung übertragen. Nun ist ein faktischer Konsens zwischen vielen Menschen in aller Regel nicht zu erwarten. Es gibt kaum eine Regel, deren Einführung nicht irgendeinen Bürger an irgendeiner Position der Gesellschaft benachteiligen wird. Aus diesem Grund wird dem Konsenskalkül oftmals noch ein weiteres Hilfsinstrument zur Seite gestellt: der Schleier des Nichtwissens (Rawls 1971). Hierunter versteht man ein Gedankenspiel, bei dem die Beteiligten, die sich auf eine Regel einigen wollen, nicht wissen, welche Position sie in der Gesellschaft einnehmen werden, für die diese Regel gelten soll. Auf diese Weise müssen die Beteiligten die Auswirkungen der Regel auf alle Mitglieder der Gesellschaft berücksichtigen und so gewichten, als ob sie selbst in jede dieser Positionen gelangen könnten. Konsensprobleme,

4 Institutionen

521

die darauf basieren, dass einige wenige Menschen bei Einführung einer Regel, die vielen Mitmenschen große Vorzüge einbrächte, geringe Einbußen hinnehmen müssten, würden damit entfallen, eine Einigung ist leichter möglich. Für die normative Analyse ist der Schleier des Nichtwissens somit ein sehr produktives Instrument, ohne das kaum ein Konsens erzielt werden kann. Für eine hypothetisch-positive Analyse ist die Verwendung des Schleiers des Nichtwissens jedoch nicht ganz unproblematisch, schließlich ist jedem Bürger seine aktuelle Position in der Gesellschaft bekannt. Andererseits gelten Regeln nicht nur für den Augenblick, und jeder Mensch weiß um sein Nichtwissen über die Zukunft. Somit kann sich die Position des Individuums in der Gesellschaft rasch ändern: Unfälle, Krankheiten, Pech an der Börse oder auch Krieg sind nur wenige von vielen Beispielen. Natürlich treffen diese Schicksale nicht jeden Bürger mit derselben Wahrscheinlichkeit, doch liefert das vorhandene Maß an Nichtwissen eine grundsätzliche Rechtfertigung für den Einsatz des Schleiers des Nichtwissens. Ausgehend von einem solchen Prozess der konsensbasierten Regelwahl folgt nun der Übergang zu dessen konkretem Inhalt. Um konsensfähige Institutionen ableiten zu können, bedarf es natürlich auch einer Vorstellung darüber, wie bestimmte Regeln wirken. Die Ausarbeitung der Folgewirkung der Einführung einer gesellschaftlichen Regel ist Gegenstandsbereich der positiven ökonomischen Theorie. Das Zusammenspiel von positiver Wirtschaftstheorie und konsensfähigen Regeln wird in Abbildung 4.19 dargestellt. Die in eine Verfassung Eingang findenden Regeln sind zumeist sehr allgemein formuliert und sollten, wie gesagt, auf einem breiten gesellschaftlichen Konsens beruhen. Im Folgenden werden vier Arten von Verfassungsregeln besprochen: Grundrechte, Regeln zum Schutz des Einzelnen vor einem mit dem Gewaltmonopol versehenen Staat, Gemeinwohlprinzipien und allgemeinen Verfahrensregeln.

Regeln Konsensfähigkeit der Regeln positive Wirkungsanalyse (Wirtschaftstheorie)

Gesellschaftliche Auswirkungen

(Versorgung mit Gütern und Dienstleistungen, Einkommensverteilung, Freiheit zur Selbstverwirklichung, …)

potentielle Zustimmung durch Bürger Auswirkungen auf die einzelnen Bürger (Schleier der Ungewissheit!?)

Abb. 4.19  Prozess der Ermittlung konsensfähiger Regeln

522

Mathias Erlei

An oberster Stelle konsensfähiger Verfassungsregeln stehen die Grundrechte eines jeden der Gesellschaft angehörenden Menschen. Diese sind insbesondere der Recht auf Leben und körperliche Unversehrtheit. Sie sind elementarer Bestandteil der gesellschaftlichen Abrüstung zur Vermeidung des Hobbesschen Dschungels, des Kampfes aller gegen alle. Es ist kaum vorstellbar, einen gesellschaftlichen Konsens ohne Einhaltung dieser Prinzipien zu erzielen, denn die Bedrohung von Leib und Seele lassen alle anderen angestrebten Kooperationsgewinne in den Hintergrund treten. Hieran anschließend sind solche Rechte zu nennen, die dem Einzelnen seine persönliche Entfaltung ermöglichen: die Rechte auf Religionsfreiheit, sexuelle Selbstverwirklichung und selbst bestimmten Lebensstil, Freizügigkeit, freie Arbeit und Partizipation am politischen Prozess. Zu letzterem gehört natürlich auch das Recht auf freie Meinungsäußerung, die wesentliche Voraussetzung für einen funktionsfähigen gesellschaftlichen Kommunikations- und Meinungsbildungsprozess ist. Minderheiten, die diese Rechte für sich bedroht sehen, werden einer entsprechenden Verfassung nicht zustimmen. Zur Durchsetzung der Grundrechte ist es notwendig, ein staatliches Gewaltmonopol einzurichten. Dieses erfüllt zwei Aufgaben: Zum einen erfüllt es unmittelbar die Funktion der gesellschaftlichen Abrüstung auf individueller Ebene und ermöglicht eine produktive Verwendung vormals unproduktiver, an physische Verteilungskämpfe gebundener Ressourcen. Zum anderen erleichtert die Abrüstung der Einzelnen die Durchsetzung der Regeln durch staatliche Organe, die damit auf geringeren Widerstand stoßen. Die Schwächung der Individuen stärkt zugleich die Gefahr des Missbrauchs des Gewaltmonopols durch die Akteure im politischen und/oder militärischen Sektor. Damit wird es wichtig, den Einzelnen vor einer willkürlichen Machtausübung staatlicher Akteure zu schützen. Dies erfolgt über drei Regelungen: Gewaltenteilung, Rechtsstaatlichkeit und Wettbewerb zwischen Gebietskörperschaften. Unter Gewaltenteilung versteht man das auf Montesquieu (1748) zurückgehende Prinzip der Trennung von Gesetzgebung (Legislative), Gesetzesvollzug (Exekutive) und Rechtsprechung (Judikative) auf verschiedene, voneinander unabhängige Personen: „Sobald in ein und derselben Person oder derselben Beamtenschaft die legislative Befugnis mit der exekutiven verbunden wird, gibt es keine Freiheit. Es wäre nämlich zu befürchten, dass derselbe Monarch oder derselbe Senat tyrannische Gesetze erließe und dann tyrannisch durchführte. Freiheit gibt es auch nicht, wenn die richterliche Befugnis nicht von der legislativen und von der exekutiven Befugnis geschieden wird. Die Macht über Leben und Freiheit der Bürger würde unumschränkt sein, wenn jene mit der legislativen Befugnis gekoppelt wäre, denn der Richter wäre Gesetzgeber. Der Richter hätte die Zwangsgewalt eines Unterdrückers, wenn jene mit der exekutiven Gewalt gekoppelt wäre“ (Montesquieu 1748, S. 212 f.). Es sind auch weiter gehende Trennungen der Staatsgewalt denkbar. So schlägt etwa Hayek (1981, S. 147 ff.) die Teilung der Legislative in zwei unterschiedliche Kammern vor. Die erste Kammer, die Gesetzgebungsversammlung, soll dabei die allgemeinen Regeln zur Ordnung der Gesellschaft erlassen, während die zweite Kammer, die Regierungsversammlung, die Regierung wählen und überwachen sowie spezielle Maßnahmengesetze erlassen soll.

4 Institutionen

523

Das Rechtsstaatsprinzip beinhaltet die Bindung aller staatlichen Einrichtungen an das formale Recht, sodass der Handlungsspielraum der Vertreter dieser Organisationen eingeschränkt und die Bürger vor Willkürentscheidungen geschützt werden. Konkret heißt dies, dass die Verwaltung an die Gesetze gebunden sind, die Gesetzgeber ihrerseits durch die Verfassung beschränkt werden. Zur Durchsetzung des Rechtsstaatsprinzips ist es erforderlich, dass alle Bürger ein Klagerecht haben und Klagen durch unabhängige Gerichte überprüft werden. Die Gewaltenteilung ist also Grundvoraussetzung für Rechtsstaatlichkeit. Schließlich kann die Macht des Staates auch durch Wettbewerb zwischen den Gebietskörperschaften beschränkt werden. Insbesondere der horizontale Wettbewerb zwischen Gebietskörperschaften, also der Wettbewerb zwischen Gebietskörperschaften auf derselben Ebene erschwert die Schaffung von Renten für kleine Interessengruppen auf Kosten der Allgemeinheit. Belastet etwa eine Kommune die in ihr ansässigen Betriebe über Gebühr, so können diese ihren Standort verlagern und den Steuern entsprechend ausweichen. Gemeinwohlprinzipien sind Grundsätze, an denen sich Legislative, Exekutive und Judikative ausrichten sollen. Im Wesentlichen beinhalten sie zwei Grundgedanken: (a) die Gleichbehandlung der Bürger und (b) Forderung der Zurückhaltung des Staates auf das Notwendige. Zur Gleichbehandlung gehören zwei Aspekte: (1) Der Gleichheitsgrundsatz besagt, dass das Gesetz für alle Bürger in gleicher Weise gilt. Ungleichbehandlungen sind nur soweit zulässig, als sie an objektiv messbaren Kriterien im Gesetz verankert sind und konsensfähig sein können. So muss zum Beispiel nicht jeder Bürger dieselbe Kopfsteuer zahlen, sondern die Steuerbelastung kann am messbaren persönlichen Einkommen ausgerichtet werden. (2) Das Äquivalenzprinzip fordert für die Bereitstellung öffentlicher Güter eine möglichst weit gehende Identität von Nutzern, Zahlern und Entscheidungsberechtigten. Dies soll vermeiden, dass sich bestimmte Interessengruppen ihre Wünsche von den Nichtnutzern einer Leistung finanzieren lassen. Nur diejenigen, die das Gut nutzen, sollen über dessen Bereitstellung entscheiden und die Finanzierungslast tragen. Die Zurückhaltung zentralstaatlicher Maßnahmen und Eingriffe auf das notwendige Maß wird durch (1) das Subsidiaritätsprinzip und (2) das Wirtschaftlichkeitsprinzip gesichert. (1) Das Subsidiaritätsprinzip fordert, alle Aufgaben zunächst der untersten Entscheidungsebene, also dem Einzelnen bzw. der Familie, zuzuweisen. Nur für den Fall, dass diese Ebene erwiesenermaßen nicht dazu in der Lage ist, diese Aufgabe angemessen zu erfüllen, darf die nächst höhere Ebene, etwa die Gemeinde mit der Aufgabe betraut werden. Nur wenn auch diese keine zufrieden stellende Lösung bewirken kann, wird die wiederum nächste (höhere) Ebene, zum Beispiel der Landkreis, beauftragt. Dies Prinzip wird auf alle folgenden Ebenen übertragen: erst wenn alle niedrigeren Ebenen eine Aufgabe nicht angemessen lösen können, darf die betrachtete Ebene in Anspruch genommen werden. Das Subsidiaritätsprinzip wirkt dem Drang staatlicher Akteure entgegen, die eigenen Kompetenzen zu erweitern und sichert dem Einzelnen größtmögliche Freiheit. (2) Das Wirtschaftlichkeitsprinzip fordert die kostengünstige Erledigung staatlicher Aufgaben. Dazu müssen Kriterien wie Wirksamkeit, Erforderlichkeit und Verhältnismäßigkeit geprüft werden (vgl. Erlei u.a. 2016, S. 443). Im Rahmen der Erforderlichkeitsprüfung

524

Mathias Erlei

ist auch zu begutachten, inwieweit eine betrachtete Maßnahme die Konformität mit der Wirtschaftsordnung verletzt. Das Wirtschaftlichkeitsprinzip dient der Minimierung der Eingriffsintensität des Staates und der Belastung der Bürger. Schließlich müssen die Prozessregeln auf der Ebene der Verfassung bestimmt werden. Hierunter versteht man die Abstimmungs- und Verfahrensregeln für Politik und Verwaltung. Während die oben genannten allgemeinen Verfassungsregeln (unter einem Schleier des Nichtwissens) aus einem Konsenskalkül abgeleitet werden können, ist dies für den größten Teil der politischen Entscheidungen nur schwer möglich, da sie mit zum Teil sehr speziellen Beschlüssen und Interessenkonflikten verbunden sind. Dies hat zur Folge, dass die Erzeugung eines Konsenses sehr hohe Verhandlungs- und Vermittlungskosten verursacht. Aus diesem Grund ist für die meisten Entscheidungen auf der politischen Ebene ein Wechsel vom Konsens zu einer (qualifizierten) Mehrheitsregel angezeigt. Eine entsprechende Analyse findet sich im Interdependenzkostenkalkül, das die Diskriminierungskosten einer Entscheidungsregel ihren Entscheidungsfindungskosten gegenüberstellt. Diskriminierungskosten einer Entscheidung entstehen, wenn eine Teilmenge der Betroffenen, die von einer Beschlussvorlage negativ betroffen ist und ihr deshalb nicht zustimmt, überstimmt wird und damit eine Verletzung ihrer individuellen Interessen erleidet. Bei erforderlicher Einstimmigkeit (Konsens) existieren solche Kosten nicht, da jeder Einzelne ein Veto einlegen kann. Je weiter man jedoch von der Einstimmigkeit abweicht, desto mehr nehmen die Diskriminierungskosten zu. Sie erreichen ihr Maximum bei der Diktatorregel, bei der ein einziger Mensch entscheiden darf. Abbildung 4.20 zeigt den Verlauf der Diskriminierungskosten (DK) in Abhängigkeit der erforderlichen Stimmen für den Beschluss. Umgekehrt fallen die geringsten Entscheidungsfindungskosten an, wenn ein Diktator allein seine Entscheidungen trifft. Mit zunehmender Zahl an erforderlichen Stimmen wird es für immer aufwändiger, eine Mehrheit zu organisieren. Bei Einstimmigkeit erreichen die Entscheidungsfindungskosten, die steigende Kurve EK in Abbildung 4.20, ihr Maximum. Hier kann jeder einzelne Stimmberechtigte strategische Vetos androhen, um an der Zustimmung verdienen zu können. Aus gesellschaftlicher Sicht liegt die optimale Abstimmungsregel dort, wo die Summe aus Diskriminierungs- und Entscheidungsfindungskosten, im Folgenden als Interdependenzkosten (IK) bezeichnet, ihr Minimum erreicht. In Abbildung 4.20 ist dies bei der Stimmenzahl Z* der Fall. Insbesondere die Diskriminierungskosten sind abhängig von der konkreten Fragestellung. Nähme man etwa die oben diskutierten Persönlichkeitsrechte, insbesondere das Recht auf Leben und körperliche Unversehrtheit, so könnte die Diskriminierungskostenkurve im gesamten Bereich (mit Ausnahme der Einstimmigkeitsregel) oberhalb der EK-Kurve verlaufen, sodass das Optimum der Konsens-Randlösung entspricht. Entsprechend gibt es für unterschiedliche Arten von Entscheidungen über Regeln unterschiedliche optimale Abstimmungsregeln. Grundsätzlich profitieren jedoch alle Bürger von der Einrichtung solcher Mehrheitsregeln, da sie in den meisten zu entscheidenden Fällen zur Mehrheit gehören werden und in wichtigen Fällen, in denen die Diskriminierungskosten besonders hoch ausfallen würden, durch höhere Anforderungen an die Abstimmungsregel (bis hin zur Einstimmigkeit) geschützt werden.

4

Institutionen

525

Abb. 4.20 Das Interdependenzkostenkalkül

Für viele weitere gesellschaftspolitische Fragen gibt es neben der Demokratie, also Abstimmungsverfahren, weitere grundsätzlich denkbare gesellschaftliche Entscheidungsverfahren, die, je nach Fragestellung, eingesetzt werden können: Marktsystem (Preismechanismus), Bürokratie und Interessengruppen. Abstimmungsverfahren sind auf gesamtgesellschaftlicher Ebene sehr teuer, insbesondere wenn alle Bürger an der Entscheidung beteiligt werden, langwierige Diskussionen im Vorfeld der Wahl stattfinden und die Wahl schließlich organisiert und durchgeführt werden muss. Hinzu kommt, dass sich die Bürger mit jeder zur Abstimmung anstehenden Entscheidung befassen müssen, was sie in den meisten Fällen schlicht überfordern würde. Aus diesem Grund wird das Verfahren Demokratie üblicherweise nur bei grundsätzlichen Entscheidungen, zumeist als Volksabstimmungen, und Personalentscheidungen, also als Wahlen, bemüht oder als Prozess der Regelsetzung in Parlamenten verwendet. Der Marktmechanismus stellt eine alternative Form der Entscheidungsbildung dar, in der insbesondere Fragen der Produktion und des Konsums zwischen den einzelnen Menschen dezentral geregelt wird. Käufer und Verkäufer schließen einen Vertrag ab, der die eine Seite zur Lieferung einer Leistung und die andere Seite im Allgemeinen zur Zahlung eines Geldbetrages verpflichtet. Ein wesentlicher Vorzug des Marktmechanismus besteht darin, dass alle Verträge freiwillig abgeschlossen werden, sodass sämtliche über den Markt koordinierten Produktions- und Konsumentscheidungen durch wechselseitige Zustimmung gekennzeichnet sind. Der Marktmechanismus sichert somit die „Einstimmigkeit“ der Handlungen. Problematisch kann die Abwicklung über den Markt werden, sobald sich ein Marktversagen, zum Beispiel verursacht durch externe Effekte, das Vorliegen öffentlicher Güter oder asymmetrischer Information, erkennbar wird.

526

Mathias Erlei

Das Entscheidungsverfahren „Bürokratie“, zumeist im Bereich der öffentlichen Verwaltung und innerhalb von Unternehmen eingesetzt, trifft Entscheidungen durch Bindung der Entscheidungsträger an bestimmte Entscheidungsregeln. So hat etwa ein Hochschullehrer die Pflicht, einen Prüfling durchfallen zu lassen, wenn er den zuvor definierten Anforderungen nicht genügt. Genauso muss ein Richter einen als Dieb überführten Bürger bestrafen. Oftmals verfügt die Bürokratie über einen gewissen Entscheidungsspielraum, etwa bei der Festlegung der Strafe durch einen Richter, doch werden der Bürokratie im Allgemeinen zumindest bestimmte Grenzen vorgegeben. Der Vorteil bürokratischer Entscheidungen ist ihr relativ hohes Maß an Berechenbarkeit, ihr Hauptnachteil besteht im Mangel an Anpassungsfähigkeit in nicht antizipierten Situationen. So gibt es zum Verfahren der Rechtsprechung keine akzeptablen Alternativen zur Bürokratie, schließlich ist die Berechenbarkeit der Rechtsprechung für die Bürger von größter Bedeutung. Im Gegensatz dazu lässt sich die gesamtwirtschaftliche Produktion nur sehr schlecht mit Hilfe der Bürokratie steuern, wie die Erfahrung mit den Zentralverwaltungswirtschaften gezeigt hat. Es bleibt das gesellschaftliche Entscheidungsverfahren über Interessengruppen. Hier bestimmen Vertreter eines Interessenverbandes über bestimmte Verhaltensweisen oder Regeln. Der Vorteil dieses Mechanismus besteht in der üblicherweise sehr großen Sachkompetenz der Verbände, der Nachteil besteht darin, dass diese Verbände nicht am Allgemeinwohl, sondern am Wohl ihrer Mitglieder ausgerichtet handeln. Dies legt nahe, dass sie ihren Wissensvorsprung oftmals zum Schaden der Allgemeinheit einsetzen. Aus diesem Grund werden Interessengruppen zumeist dann ermächtigt, Entscheidungen zu treffen, wenn diese absehbar nicht zur eigenen Bereicherung ausfallen können und Sachkompetenz außerhalb der Verbandsmitglieder fehlt.

4.5.2

Wirtschaftsordnungen

Über die konkrete Ausgestaltung von Wirtschaftsordnungen gibt es viele unterschiedliche Vorstellungen und auf Grund divergierender theoretischer Ausgangspunkte lässt sich ein allgemeiner gesellschaftlicher Konsens nur schwer erzielen. Bei aller Unterschiedlichkeit der Vorstellungen gibt es dennoch einen für alle Wirtschaftsordnungen zu klärenden Kern von Aspekten, die eine Wirtschaftsordnung regeln muss. Letztlich muss geklärt werden, wer was auf welche Weise produzieren soll und wer die Endprodukte konsumieren darf. Zur Lösung dieser Aufgabe müssen konkret folgende Merkmale der Wirtschaftsordnung festgelegt werden: Wer verfügt über die Entscheidungskompetenz, das heißt wer plant die Produktion und entscheidet über die Durchführung? Liegt das Eigentum an den Produktionsmitteln in privater oder staatlicher Hand? Über welchen Mechanismus erfolgt die Koordination der wirtschaftlichen Handlungen? Wie werden die Einkommen der Arbeitnehmer und – gegebenenfalls – der Eigentümer der Produktionsmittel bestimmt? Welche Anreize zur Steigerung der Motivation der Beteiligten werden eingerichtet? Wie werden die erforderlichen Informationen gewonnen und verarbeitet?

4 Institutionen

527

In der Theorie werden häufig zwei extreme Systeme von Wirtschaftsordnungen diskutiert, anhand derer die bedeutendsten Lösungsalternativen zu obigen Fragestellungen illustriert werden. Dies sind die reine Marktwirtschaft, in der alle Entscheidungen über den Preismechanismus getroffen werden, und die reine Zentralverwaltungswirtschaft, in der das Wirtschaften ausschließlich über eine zentralstaatliche Bürokratie erfolgt. Tabelle 4.4 (vgl. Behrens;Kirspel 1999) liefert eine Übersicht über die beiden Systemalternativen. Die Entscheidungskompetenz liegt in der Marktwirtschaft bei den Individuen selbst, in Zentralverwaltungswirtschaft (ZVW) beim zentralen Planungsbüro. Dies bedeutet natürlich keinesfalls, dass in der ZVW mehr geplant würde als in Marktwirtschaften, im Gegenteil: In Marktwirtschaften können alle Individuen unabhängig voneinander das ihnen verfügbare Wissen in ihre Planungen einbeziehen. Die dabei berücksichtigte Vielfalt von Informationen übersteigt die Menge einer auch für die beste Bürokratie handhabbare Informationsmenge bei weitem. Das Eigentum an den Produktionsmitteln liegt in der Marktwirtschaft beim Individuum, sodass der Einsatz dieser Ressourcen sparsam und gezielt gelenkt wird. In der ZVW verwaltet die Bürokratie das Kollektiveigentum in fremdem Namen. Die Prinzipal-AgentTheorie legt nahe, dass die Bürokratie als Agent der Gesellschaft dabei ihre eigenen Ziele verfolgen wird, sodass ein zu großzügiger und nicht immer in Richtung Effizienz gelenkter Faktoreinsatz zu vermuten ist. Die Koordination erfolgt in Marktwirtschaften über Märkte und Preise, in der ZVW über Mengenplanung und daraus resultierende Anweisungen. In beiden Fällen kann die kurzfristige Koordinierung nur unvollkommen sein. Marktsysteme orientieren sich an Preissignalen, deren Koordinationsleistung erst mit einer Zeitverzögerung wirken kann, sodass temporäre Marktungleichgewichte unvermeidlich sind. Die zentralstaatliche Mengenplanung leidet darunter, dass ihre für die Planungsbürokratie nur unter größten Anstrengungen zu bewältigende Komplexität schnelle und vollkommene Anpassungen an nicht vorhersehbare Ereignisse ausschließt. Tab. 4.4  Merkmalsausprägung reiner Markt- und Zentralverwaltungswirtschaften

Merkmal Entscheidungskompetenz Eigentum an den Produktionsmitteln Koordination der wirtschaftlichen Aktivität Einkommensbestimmung Anreize Informationsgewinnung und -verarbeitung

Marktwirtschaft

Zentralverwaltungswirtschaft

Individuen Privateigentum

Zentrales Planungsbüro Kollektiveigentum

Über Märkte und Preise

Über Mengenplanung und Anweisungen Durch politische Entscheidung

Einkommen abhängig vom (markt-)bewerteten Output Pekuniäre Anreize: Gewinne, Nicht-pekuniäre Anreize: Verluste, Marktpreise Auszeichnungen, Belohnungen und Strafen Wechselseitig und dezentral Bottom-up-Befragung

528

Mathias Erlei

In Marktwirtschaften werden Lohn-, Kapital- und Gewinneinkommen durch den bewerteten Output bestimmt. Die Bewertung richtet sich dabei an den Marktpreisen aus, das heißt sie orientiert sich an der Zahlungsbereitschaft der Abnehmer. Dies ist in einer ZVW, in der die Preise politisch determiniert werden und damit keine Knappheitspreise sind, unmöglich. Infolgedessen müssen auch die Einkommen über die Politik und Verwaltung bestimmt werden. Dabei können natürlich auch bestimmte Mengengrößen, wie zum Beispiel der Sollerfüllungsgrad, geleistete Überstunden, persönliche Beziehungen und anderes mehr, als Orientierungspunkte dienen. (Leistungs-) Anreize werden in Marktwirtschaften im Wesentlichen über das persönliche Einkommen und dessen Entstehung im Marktprozess erzeugt. Preissignale auf Güterund Faktormärkten erzeugen neben dem reinen Einsatzwillen auch Anreize dazu, die Faktoren, zum Beispiel die eigene Arbeitskraft, in die aus gesellschaftlicher Sicht knappste, das heißt am höchsten entlohnte Verwendungsweise einzubringen. Die freie Berufswahl unterstützt dabei die Nutzung intrinsischer Motivation, Vorsprungsgewinne liefern Anreize zur Umsetzung von Innovationen. Auch in einer ZVW können Leistungsanreize überaus wirksam etabliert werden. Nur wird die Ausrichtung dieser Anreize nicht über den Markt sondern politisch bestimmt. So haben Gesellschaften mit Zentralverwaltungswirtschaften nicht zuletzt auf Grund ihres Anreizsystems in vielen Bereichen die Leistungen aus Marktwirtschaften übertroffen, man denke dabei etwa an die herausragenden Leistungen im Sport oder in der Mathematik. Nur lagen diese Felder oftmals nicht in großer Nähe zur Zahlungsbereitschaft der Konsumenten, sodass die Güterversorgung davon wenig profitierte. Gewichtet man die Konsumentenwünsche höher als sportliche oder wissenschaftliche Spitzenleistungen, dann liegt es nahe, die politisch gesetzten Anreize als Fehllenkung von Ressourcen zu betrachten. Der vielleicht entscheidende Unterschied zwischen Markt- und Zentralverwaltungswirtschaft liegt in der Art der Informationsgewinnung und -verarbeitung. Die Planungsbürokratie in einer ZVW kann ihre Informationen nur von untergeordneten Einrichtungen und diese wiederum nur durch Befragung der Bürger beziehen. Auf diese Weise werden in einem Bottom-up-Prozess Informationen an der gesellschaftlichen Basis erhoben, anschließend selektiert und dann der zentralen Planungsbehörde zugeleitet. Diese versucht, daraus einen konsistenten Plan abzuleiten und anschließend per Anweisung umzusetzen. Dabei ist klar, dass zunächst einmal viele Informationen aus simplen Motiven der Komplexitätsbewältigung überhaupt nicht abgefragt werden. Darüber hinaus gehen von der Basis bis zur Zentrale viele Informationen verloren, sodass eine zentralstaatliche Planung schnell an Grenzen stößt. In einer Marktwirtschaft werden die dezentral über alle Menschen der Gesellschaft verstreuten Informationen über das Angebots- und Nachfrageverhalten der Informationsträger Eingang in die Marktpreise finden. Auf diese Weise verdichten Marktpreise die in ihnen enthaltenen Informationen, sodass andere Marktteilnehmer ohne das Wissen um die grundlegenden Informationen ihr Verhalten gleichwohl an diesen Informationen ausrichten: Als Konsument, der sich überlegt, ob er einen neuen PC kaufen soll, genügt es, den Marktpreis zu kennen. Es ist nicht erforderlich zu wissen, warum dieser Preis derzeit hoch ist. Für das gesellschaftlich „richtige“ Verhalten des Konsumenten

4 Institutionen

529

ist es gleichgültig, ob dies Folge eines Nachfragewachstums auf den Weltmärkten oder Folge eines Erdbebens ist, das die Produktion von Computerchips verteuert hat. Vor dem Wirken des Marktprozesses verfügt niemand über alle relevanten Informationen zur Einschätzung der Knappheiten von Gütern und Faktoren. Erst der wettbewerbliche Preismechanismus an sich generiert diese in zuverlässiger und leicht handhabbarer Form. Hayek (1968) bezeichnet den Wettbewerbsprozess dementsprechend als Entdeckungsverfahren. Hat man diesen Umstand verstanden, wird auch klar, warum eine ZVW nicht einfach den Wettbewerbsprozess übergehen und stattdessen Knappheitspreise staatlich vorgeben kann. So konzipierte Oskar Lange (1936) seine Idee vom Konkurrenzsozialismus, in dem der Staat Konkurrenzpreise setzt und die Leiter der Staatsbetriebe anweist, sich wie Unternehmer bei vollkommener Konkurrenz zu verhalten. Auf diese Weise könne man allokative Effizienz erzielen und diverse Probleme der Marktwirtschaft, wie zum Beispiel die nicht zufriedenstellende Einkommensverteilung, umgehen. Unglücklicherweise sind die Konkurrenzpreise ohne einen davor geschalteten Wettbewerbsprozess nicht erkennbar. Folglich kann der Staat diese unbekannten Daten nicht vorgeben. Auch die Vorstellung, eine Marktwirtschaft nach Erreichen von Wettbewerbspreisen in einen Konkurrenzsozialismus zu überführen, erweist sich als unmöglich, da sich Knappheiten im Zeitverlauf ändern und „alte Wettbewerbspreise“ zukünftig nicht mehr relevant sein werden. „Wenn man die Marktwirtschaft durch die Plan- und Gemeinwirtschaft ersetzen will, will man doch den Markt ausschalten und an Stelle des Marktes die Verfügungsgewalt des Leiters der sozialistischen Gemeinwirtschaft setzen. Der Leiter soll über die Verwendung der Produktionsmittel verfügen, nicht die Unternehmer und Kapitalisten. Eine Planwirtschaft mit Markt ist so widersinnig wie ein dreieckiges Viereck“ (Mises 1940, S. 641). Nachdem nunmehr deutlich geworden ist, dass der marktwirtschaftliche Wettbewerbsprozess für eine gute Versorgung mit Gütern und Dienstleistungen in weiten Teilen der Wirtschaft unverzichtbar ist, soll im Folgenden ein spezielles Konzept der Wirtschaftsordnung, das auf einer grundsätzlich marktwirtschaftlichen Ordnung der Wirtschaft basiert, dargestellt werden: die Soziale Marktwirtschaft. Hierunter soll im Folgenden allerdings nicht das Alltagsverständnis dieser Ordnung als Marktwirtschaft, ergänzt um gerechtigkeitsorientierte oder sozialpolitische Wohltaten, verstanden werden. Vielmehr wird hier die ordoliberale Sichtweise einer für den Marktprozess konzipierten Wirtschaftsordnung verstanden, wie sie in ihren Grundzügen zunächst in der Freiburger Schule der Nationalökonomie entwickelt und in Eucken (1990) zusammengefasst sowie später durch andere (zum Beispiel Grossekettler 1997) weiterentwickelt worden ist. Die in der Sozialen Marktwirtschaft angestrebte Wirtschaftsordnung entspricht der eines wettbewerblichen Marktsystems, mit einer Betonung auf dem Adjektiv „wettbewerblich“. Aufbauend auf der Einsicht in die Unverzichtbarkeit des Preismechanismus, glauben Vertreter der Sozialen Marktwirtschaft diverse Probleme eines völlig freien Marktsystems erkennen zu können. Diese sind insbesondere die Aufhebung des Wettbewerbs durch die Neigung der Privatwirtschaft zur Kartellierung und Monopolisierung, eine falsche Auswahl von Ordnungsregeln auf Grund einer sich durch vermehrte wirtschaftliche Macht einstellenden politischen Macht der Unternehmen sowie die Anerkennung von diversen Marktunvollkommenheiten.

530

Mathias Erlei

Um diese Probleme zu beseitigen, werden konstituierende, regulierende und staatspolitische Prinzipien formuliert, die eine nachhaltige Funktionsfähigkeit des wettbewerblichen Preismechanismus sicherstellen sollen (vgl. Erlei u.a. 2016, S. 445 ff.). Die zentralen Aspekte der Sozialen Marktwirtschaft als institutionelles Design einer Wirtschaftsordnung finden ihren Ausdruck in den konstituierenden Prinzipien, wie sie sich in vielen Quellen (z.B. Eucken 1990, S. 254 ff.) finden und, in abgewandelter Form, schon in Abbildung 4.17 enthalten sind: • • • •

Der Primat des Privateigentums an den Produktionsmitteln; wirtschaftliche Vertragsfreiheit (inkl. wettbewerblicher Preisbildung an den Märkten); offener Zugang zu den Märkten; Trennung von Betriebs- und Privatvermögen bei möglichst umfassender Haftung für eingegangene Verträge; • rationale Ordnung des Geldwesens mit dem Primat der Preisniveaustabilität und • Vorhersehbarkeit und Stetigkeit der Wirtschaftspolitik. Das Eigentum an den Produktionsmitteln ist Voraussetzung dafür, dass der Preismechanismus seine Aufgabe erfüllen kann, die Produktionsfaktoren in die effiziente Verwendungsrichtung zu lenken. Im Vergleich zu den Produktionskosten signalisieren hohe Preise eine große Knappheit der betrachteten Güter, und große Knappheit verlangt nach höherem Faktoreinsatz in der betroffenen Verwendungsrichtung. Damit die entsprechende Umlenkung von Faktoren eingeleitet wird, bedarf es des Wissens um die vor Ort erzielbaren Preise und Kosten sowie der Fähigkeit, die Faktoren aus einer vormaligen Verwendung in eine neue zu überführen. Das Wissen um die Bedingungen des Wirtschaftens in einer konkreten Situation ist, wie bereits hervorgehoben, auf viele Menschen verteilt und einer zentralen Planungsbehörde faktisch unzugänglich. Damit die Inhaber von Informationen diese auch zur Lenkung von Produktionsfaktoren einsetzen können, müssen Sie über entsprechende Eigentumsrechte verfügen und die damit verbundene Haftung übernehmen. Ohne diese wird der Kapitaleinsatz durch eine von erheblichen Informationsmängeln gekennzeichnete zentralwirtschaftliche Planung in falsche Verwendungen dirigiert und systematische Fehlallokationen sind unvermeidlich. In gleicher Weise bedarf ein durch Marktkoordination, das heißt also durch Knappheitspreise gelenkter Faktoreinsatz der Möglichkeit, Verträge frei aushandeln zu können. Sind die potentiellen Tauschpartner nicht dazu in der Lage, Handelsobjekte und -bedingungen, insbesondere die Preise, unabhängig von anderen zu vereinbaren, nimmt man dem Preismechanismus die Möglichkeit, Knappheiten zu signalisieren und eine Faktorumlenkung auszulösen. Eine marktwirtschaftliche Wirtschaftsordnung ohne grundsätzliche Vertragsund Preisfreiheit gleicht einem Fußballspiel ohne Ball: es fehlt das zentrale Objekt des Interesses. Einschränkend ist allerdings festzustellen, dass bestimmte Verträge, die ihrer Natur nach die eigene Vertragsfreiheit oder die anderer einschränken sollen, untersagt werden müssen. Ansonsten droht eine kollektive Organisation wirtschaftlicher Macht in Form großer Kartelle, die zwecks Erzielung von Monopolrenten eine freie Preisbildung

4 Institutionen

531

und damit auch eine effiziente Faktorlenkung verhindern. Darüber hinaus entstünden unerwünschte Wirkungen auf die Einkommensverteilung sowie eine aus der wirtschaftlichen Macht entstehende politische Machtkonzentration. Vereinen sich wirtschaftliche und politische Macht, dann werden auch die Grundregeln der Rechts- und der Wirtschaftsordnung nicht unbeeinflusst bleiben, was unvermeidlich zum Zusammenbruch des freien Marktsystems und zur Privilegienwirtschaft im Sinne der Limited Access Order (North u.a. 2009), also einem Wirtschafts- und Gesellschaftssystem, in dem einer vergleichsweise kleinen Elite exklusive Privilegien im Hinblick auf politische und wirtschaftliche Handlungen übertragen werden, führen wird. Der für alle wirtschaftlichen Akteure offene Zugang zu den Märkten stellt eine weitere Sicherung der Wettbewerbswirtschaft gegen Kartellierung und Machtbündelung dar. Auch wenn Kartellverträge verboten werden, gelingt es Marktteilnehmern mitunter, informelle Kartelle zu etablieren. Diese beinhalten im Allgemeinen eine nur schwer nachweisbare abgestimmte Verhaltensweise der Kartellmitglieder. Insoweit es gelingt, informelle Kartelle einzurichten, werden die Marktpreise steigen – das ist der Sinn der Kartelle. Besteht auf diesen Märkten jedoch ein offener Zugang, so werden die höheren Preise neue Anbieter locken und Markteintritte induzieren. Damit steigt die Wettbewerbsintensität auf dem betrachteten Markt und die Funktionsfähigkeit des Kartells wird ausgehöhlt. Damit ist es Aufgabe des Staates, die Offenheit des Zugangs zu den Märkten gegen die Interessen der etablierten Anbieter sicherzustellen. Ein wirklich offener Zugang zu Märkten beinhaltet den grundsätzlich offenen Zugang für alle Menschen und Organisationen im In- und Ausland und damit die Freiheit, Unternehmen zu gründen und nach eigenem Ermessen zu leiten (Unternehmungsfreiheit) sowie die Freiheit der Menschen, über ihre eigene Arbeitskraft zu verfügen (Freiheit der Arbeit). Das Auseinanderfallen von Haushaltsmitgliedern und Gesellschaftern einer Unternehmung macht es erforderlich, Betriebs- und Privatvermögen voneinander zu trennen (Weber 1972, S. 226 ff.) und eine separierte Buchführung zu betreiben. Dies gilt verschärft in den Fällen, in denen ein großer Kapitalbedarf nicht mehr durch nur einen oder wenige Gesellschafter gedeckt werden kann. Die Trennung der Vermögensrechnung, die eine Erscheinung des modernen Kapitalismus ist, ist jedoch nicht deckungsgleich mit der Aufteilung oder Beschränkung der Haftung. Eucken (1990, S. 279 ff.) bemängelt eine zu weit reichende Haftungsbeschränkung verantwortlicher Personen und fordert: „Wer für Pläne und Handlungen der Unternehmen (Betriebe) und Haushalte verantwortlich ist, haftet (Haftungsprinzip)“ (ebd, S. 281). Die Haftung erfüllt mehrere Aufgaben: Zum einen fördert sie eine vor- und umsichtige Disposition des Kapitals. Wer mit seinem Privatvermögen für seine Entscheidungen im Betrieb haftet, wird alle Risiken seiner Entscheidung hinreichend berücksichtigen. Zum anderen sinkt die Neigung zum Aufbau wirtschaftlicher Imperien durch Unternehmenskäufe und Fusionen, die zu Marktmacht und zu politischer Macht führen können, weil die mit dem Ausbau der Konzerne verbundenen wirtschaftlichen Risiken schnell das Privatvermögen des verantwortlichen Managers vernichten können. Das Ziel der von Eucken geforderten umfassenden Haftung ist mithin legitim. Nur die Umsetzung ist schwierig. So ist die Zuweisung von Verantwortung nicht immer eindeutig.

532

Mathias Erlei

Für Aktiengesellschaften fordert Eucken (1990, S. 284): „So weit ist sie [die Haftung; d.V.] notwendig, als der Vorstand mit seinen Plänen und Entscheidungen für die Lenkung des Wirtschaftsprozesses verantwortlich ist. […] Ist aber der Vorstand unselbständig und ist er im wesentlichen nur Vollstrecker der Anweisungen, die etwa ein Mehrheitsaktionär gibt, dann haftet nicht der Vorstand, sondern der Beherrscher der Gesellschaft selbst.“ Doch wie lässt sich gerichtsfest ermitteln, wer die faktische Kontrolle über ein Unternehmen ausübt und damit die Verantwortung tragen sollte? Hat der Vorstandsvorsitzende eines Konzerns wirklich die Kontrolle über seinen Konzern, oder sind es vielleicht einige Großaktionäre oder eine charismatische Person im Aufsichtsrat, die letztlich die Geschicke der Unternehmung lenkt? Man denke dabei etwa an den Volkswagen-Konzern. Im Jahr 2009 heißt der Vorstandsvorsitzende Martin Winterkorn, doch allen Berichten aus Presse und Wirtschaft zufolge trifft der Aufsichtsratsvorsitzende, Ferdinand Piech, die wichtigen Entscheidungen. Für welche Entscheidungen soll nun welche der beiden Personen in welchem Umfang haften? Wer ist dazu befähigt, dies festzulegen? Dies einfache Beispiel zeigt, dass die eigentlich sinnvolle Forderung einer umfassenden Haftung nur mit Abstrichen umgesetzt werden kann. Es ändert aber nichts an der Feststellung, dass Haftung so weit wie möglich auf die Personen verteilt werden sollen, die bestimmte Entscheidungen bzw. Vertragsabschlüsse letztendlich zu verantworten haben. Es war insbesondere Max Weber, der verdeutlicht hat, inwieweit die moderne Marktwirtschaft durch die Berechenbarkeit wirtschaftlicher Vorgänge charakterisiert ist. So lässt sich die Vorteilhaftigkeit von Maßnahmen vorrangig am Einzahlungs-AuszahlungsVergleich festmachen, und es ist wesentliches Kennzeichen der modernen kapitalistischen Unternehmung, dass sie ein systematisches Rechnungswesen, in Webers Worten: eine Kapitalrechnung, betreibt. Die zumindest näherungsweise schon vorab mögliche Berechenbarkeit der Wirkung von Maßnahmen ist Voraussetzung für das auf Dauer angelegte, planvolle Führen eines kapitalistischen Unternehmens. Voraussetzung für die Berechenbarkeit von Maßnahmen und ihrer Folgen ist jedoch nicht ausschließlich der Einsatz der Kapitalrechnung, sondern es sind auch bestimmte Eigenschaften der Wirtschaftsordnung, die dazu erheblich beitragen. Zum einen bedarf die Kapitalrechnung einer stabilen Währung, da in inflationären Volkswirtschaften die Berechenbarkeit des wirtschaftlichen Erfolgs stark eingeschränkt wird. Die Ursache dafür liegt darin begründet, dass in inflationären Prozessen die Preise nicht im perfekten Gleichschritt ansteigen, sondern unvorhersehbar und unsystematisch. Hinzu kommt, dass neben der Ungleichzeitigkeit auch eine erhebliche Unsicherheit im Hinblick auf das Ausmaß der Preissteigerung entsteht. Je höher die Inflation, desto stärker schwankt die Höhe der Inflationsrate, wie die Erfahrung zeigt. Steigt nun auf einem Markt der Preis an, so ist der Unternehmer nicht mehr dazu in der Lage zwischen knappheitsbedingten und inflationären Preiserhöhungen zu unterscheiden siehe auch Beitrag 8 (Band 2) zu Instabilitäten. Dies hat zur Folge, dass viel mehr wirtschaftliche Fehlentscheidungen getroffen werden, was an sich bereits eine erhebliche Verschwendung von Ressourcen darstellt. Da sich die Unternehmer dieses Umstands bewusst sind, steigen damit auch die Risikokosten an, was dazu führt, dass bestimmte, in stabilen Zeiten als rentabel

4 Institutionen

533

anzusehende Investitionen nicht getätigt werden. In Hyperinflationen kommt es im Allgemeinen zu einem weitgehenden Zusammenbruch der Wirtschaft. Um dies zu verhindern, braucht eine Volkswirtschaft Preisniveaustabilität, die ihrerseits nur durch eine rationale, formale Ordnung des Geldwesens erreicht werden kann. Aus ökonomischer Sicht wird dies durch die Einrichtung einer von der Regierung unabhängigen Zentralbank erreicht, deren Hauptaufgabe mit der Sicherung der Preisniveaustabilität vorgegeben wird. Zum anderen beeinflussen auch die Wirtschaftsordnungs- und Wirtschaftspolitik selbst die Berechenbarkeit wirtschaftlicher Entscheidungen. So ist es von großer Bedeutung, dass die Spielregeln der Wirtschaftsordnung nicht permanenten und unberechenbaren Änderungen unterliegen. Viele Investitionen unterliegen einem Planungshorizont von mehr als einem Jahrzehnt. Wenn Investoren jedoch nicht davon ausgehen können, dass die rechtlichen Grundlagen ihrer wirtschaftlichen Aktionen während dieser Zeit stabil bleiben, wird die Berechenbarkeit stark verringert, die Risikokosten steigen und viele Investitionen erweisen sich ex post gerade wegen der Änderung der rechtlichen Rahmenbedingungen als Fehlinvestitionen. Damit liegt in der Stabilität der Wirtschaftsordnung ein ökonomischer Wert an sich. Das heißt natürlich nicht, dass Institutionen auf alle Zeit unverändert bleiben müssten, sondern es besagt, dass jeder institutionelle Wechsel mit nicht vernachlässigbaren Kosten versehen ist, die vor der Umsetzung einer Regeländerung berücksichtigt werden müssen. Eine analoge Überlegung gilt auch für die Wirtschaftsprozesspolitik. Ständige, nicht berechenbare wirtschaftspolitische Impulse beeinträchtigen die Funktionsfähigkeit der Kapitalrechnung und sollten deshalb vermieden werden. In Anlehnung an Grossekettler (1997, S. 47 ff.) sei deshalb auch die Vorhersehbarkeit und Stetigkeit der Wirtschaftspolitik als wichtige Anforderung an die Wirtschaftsordnung der Sozialen Marktwirtschaft hervorgehoben. Neben der Bereitstellung einer geeigneten Wirtschaftsordnung liefert das Konzept der Sozialen Marktwirtschaft auch Anhaltspunkte für einen aktiven, in den Marktprozess eingreifenden Staat. Unter bestimmten Umständen wird der Markt, so zeigt die ökonomische Theorie, systematisch in Richtung Ineffizienz verzerrte Ergebnisse hervorbringen. In diesen Fällen kann ein regulierender Eingriff des Staates zu einer Verbesserung der Leistungsfähigkeit der Wirtschaft führen. Diese zumeist als regulierende Prinzipien der Wirtschaftspolitik bezeichneten Verhaltensregeln des Staates sind • • • •

die Eindämmung und Korrektur von Marktmacht die Korrektur des Marktprozesses bei anomalem Verhalten des Angebots die Korrektur externer Effekte und die Bereitstellung von Kollektivgütern die Korrektur der Einkommensverteilung unter Berücksichtigung der Auswirkungen auf den Marktprozess

Die Bedeutung des Wettbewerbschutzes wurde schon mehrfach angesprochen und findet hier den Eingang in eine über das reine Setzen von Ordnungsregeln hinausreichende aktive Wettbewerbspolitik. Die Umsetzung sollte, wie schon bei der Geldpolitik, durch eine

534

Mathias Erlei

von der Regierung unabhängige Wettbewerbsbehörde umgesetzt werden. Auf Märkten mit anomalem Verlauf der Angebotskurve können Marktungleichgewichte labil sein, das heißt normale Anpassungsprozesse führen nicht zum Gleichgewicht sondern davon weg. Vor allem auf dem Arbeitsmarkt kann dies verheerende Auswirkungen haben, sodass bei Feststellung dieses Phänomens ein Eingriff des Staates hilfreich sein kann. Externe Effekte, inklusive unterschiedlicher Formen öffentlicher Güter, führen zu systematischem Überoder Unterkonsum des betreffenden Gutes. Geeignete Steuern, Subventionen oder Zertifikatesysteme können diese Verzerrung beseitigen helfen und wirken somit wohlstandsfördernd. Schließlich wird die aus einem unbeeinflussten Marktprozess resultierende Einkommensverteilung oftmals für unbefriedigend gehalten, sodass es für eine allgemeine Akzeptanz der Wirtschaftsordnung angezeigt ist, Korrekturen vorzunehmen. Diese sind allerdings stets auch im Hinblick auf ihre Auswirkungen auf den Marktprozess zu bewerten und dürfen die grundsätzliche Steuerung des Preismechanismus nicht aushebeln. Als letzten Bestandteil des Prinzipienkatalogs der Sozialen Marktwirtschaft lassen sich noch prozesspolitische Umsetzungsempfehlungen ergänzen. Diese beinhalten eine aktive Konjunkturpolitik, die allerdings auf Fälle extremer Auslastungsgradschwankungen beschränkt werden soll, eine Orientierung der Sozialpolitik am Prinzip der „Hilfe zur Selbsthilfe“ sowie die allgemeine Vermeidung punktueller Eingriffe in den Ablaufprozess der Wirtschaft. Grundsätzlich gilt ein Vorrang der allgemeinen Ordnungspolitik vor einer einzelfallorientierten Prozesspolitik. Im Zentrum der ordoliberalen Wirtschaftspolitik steht somit die Gestaltung von Institutionen und nicht die aktive Einmischung in den Wirtschaftsablauf. Die Soziale Marktwirtschaft als nicht mehr ganz neues, konkretes Konzept einer ordoliberalen Wirtschaftsordnung ist somit weitestgehend deckungsgleich mit dem Versuch einer Umsetzung der modernen Institutionenökonomik.

4.5.3

Ökonomische Analyse des Rechts

Wenn man wie in diesem Beitrag Institutionen als Regeln, Regelsysteme und ihre Durchsetzungsmechanismen definiert, dann ist ein großer Teil dessen, was in diesem Beitrag bislang vorgestellt wurde, ökonomische Analyse des Rechts. Insoweit kann es eigentlich nur verwundern, warum an dieser Stelle ein Unterkapitel zu genau diesem Thema folgt. Die Ursache dafür ist, dass in der institutionenökonomischen Literatur der Begriff Ökonomische Analyse des Rechts (ÖAR) deutlich enger abgegrenzt wird, nämlich als Analyse spezifischer Regelungen des öffentlichen Rechts, des Zivilrechts, des Strafrechts und des Regulierungsrechts. Die dabei betrachteten Regelungen umfassen die Aufstellung und Verteilung von Verfügungsrechten, die ihrerseits in Nutzungsrechte, Veränderungsrechte, Rechte auf die Aneignung der Erträge eines Gutes sowie Rechte auf die Veräußerung von Verfügungsrechten unterteilt werden können. Rechtliche Regelungen beinhalten die Verteilung von Verfügungsrechten sowie Mechanismen zur Durchsetzung dieser Rechte. Zur Durchsetzung

4 Institutionen

535

von Rechten bedarf es eines allgemeinen Ermittlungs- und Rechtsprechungsapparates, der Regelbrüche feststellt und verfolgt, Sanktionen festlegt und anschließend umsetzt. Der Schutz eines Eigentumsrechts kann grundsätzlich in zwei Formen vollzogen werden. (1) Zum einen kann eine Verletzung des Eigentumsrechts verboten (Untersagung) werden. Dieses Verbot kann absolut sein, sodass bestimmte Handlungen grundsätzlich verboten sind (Unverfügbarkeit). Ein Beispiel wäre etwa die Versklavung eines Menschen. Häufiger findet man jedoch den Fall eines relativen Verbots, bei dem Verletzungen des Eigentumsrechts mit Zustimmung des Rechteinhabers zulässig sind (Unterlassung). (2) Zum anderen können Eigentumsrechte durch Schadensersatzregelungen geschützt werden, in denen die Rechteverletzungen zulässig sind, der entstandene Schaden jedoch kompensiert werden muss. Die ÖAR verfolgt das Ziel einer Institutionengestaltung, indem sie alternative rechtliche Regelungen zunächst einer positiven Analyse unterziehen. Die Ergebnisse dieser Analyse werden anschließend verglichen und einer normativen Analyse unterzogen. Aus dem Vergleich der Bewertungen werden schließlich Gestaltungsempfehlungen abgeleitet. Die positive Analyse besteht im Wesentlichen daraus, dass für jede rechtliche Alternative Regeln und Durchsetzungsmechanismen spezifiziert werden und eine ökonomische Analyse der daraus folgenden Einwirkung auf das Verhalten aller Beteiligten vorgenommen wird. Das Verhalten der Menschen wird mit Hilfe des ökonomischen Verhaltensmodells, das heißt mit der Annahme von den eigenen Nutzen unter Einhaltung bestimmter Restriktionen maximierenden Personen, durchgeführt. Insoweit die beteiligten Parteien in wechselseitiger Abhängigkeit zueinander stehen, wird dieses Verhaltenskalkül noch um eine spieltheoretische Gleichgewichtsbetrachtung ergänzt. Ein wesentlicher Aspekt dieser Vorgehensweise besteht darin, dass das gesamte Verhalten der Beteiligten, also auch die Einhaltung oder Nichteinhaltung von Gesetzen, dem ökonomischen Nutzen-Kosten-Kalkül unterzogen wird. Eine Person wird demnach also nur dann einen Regelbruch, etwa einen Einbruch, begehen, wenn der erwartete Nutzen aus dem Einbruch größer ist als die erwarteten Kosten. Der Nutzen besteht in diesem Fall vorrangig aus dem Verkaufswert der Beute, die Kosten umfassen jedoch eine Vielzahl von Aspekten: Natürlich könnten dem Einbrecher Kosten für die Beschaffung von Hilfsmaterialien entstehen. Sicher hätte er auch eine sinnvolle Möglichkeit, die Zeit des Einbruchs auf andere Weise zu nutzen. Begeht er nun den Einbruch, so entgeht ihm der Nutzen aus dieser alternativen Zeitnutzung, er erleidet somit Opportunitätskosten. Schließlich muss er auch die Risikokosten des Gefasstwerdens und des damit verbundenen Erleidens einer Strafe sowie – möglicherweise – das unangenehme Gefühl eines schlechten Gewissens berücksichtigen. Nur wenn die Summe aller dieser Kosten geringer ausfällt als der aus dem Einbruch zu erwartende Nutzen, wird er die Straftat begehen. Im Rahmen der positiven Analyse können auch einzelne Parameter der betrachteten Regelung optimiert werden, zum Beispiel wenn man für eine gesetzliche Regelung die optimale Strafverfolgungsintensität oder die optimale Höhe der Strafe festlegen möchte. Im Anschluss an die positive Analyse erfolgt die normative Betrachtung, indem die zur Auswahl stehenden Regelalternativen einer vergleichenden Bewertung unterzogen

536

Mathias Erlei

werden. Die ÖAR orientiert sich dabei am Kriterium der Effizienz. Betrachtungen zur Gerechtigkeit, die in anderen Fachdisziplinen eine herausragende Rolle spielen, bleiben damit zumeist ausgeblendet. Das Coase-Theorem und die Bedeutung von Transaktionskosten nehmen in der ÖAR eine besondere Rolle ein. In seinem bahnbrechenden Beitrag The Problem of Social Cost hat Ronald Coase (1960) gezeigt, dass die anfängliche Verteilung von Verfügungsrechten in einer Welt ohne Transaktionskosten keine Bedeutung für die Effizienz des sich daraus ergebenden Verhaltens aufweist. Dies sei an einem einfachen Beispiel veranschaulicht. Betrachtet sei ein Unternehmer, der neben dem Wohnhaus eines Mitbürgers einen Biergarten eröffnen möchte. Dieser Biergarten weise für ihn einen Wert von 250.000 Euro auf. Der Mitbürger hingegen sieht im Biergarten eine empfindliche Beeinträchtigung seines Wohlbefindens, da Lärm und neugierige Blicke der Biergartenbesucher den Wert seines Hauses verringern. Es sei angenommen der Wertverlust des Hauses betrage 100.000 Euro. Aus gesellschaftlicher Sicht ist damit die Eröffnung des Biergartens wünschenswert, denn der gesellschaftliche Nutzen des Unternehmers übersteigt die Beeinträchtigung des Anwohners. Geht man nun davon aus, dass keine Transaktionskosten zwischen Biergartenunternehmer und Anwohner bestehen, also • • • • •

keine Informationsgewinnungskosten, keine Informationsverarbeitungskosten, keine Vertragsanbahnungskosten, keine Verhandlungskosten und keine Kosten der Durchsetzung vertraglicher Vereinbarungen

vorliegen, dann lässt sich wie folgt argumentieren: Gesetzt den Fall, der Anwohner besäße ein Verfügungsrecht, das ihm die Nichtbeeinträchtigung seines Hauses durch Nachbarn sichert, so würde der Unternehmer ihm ein Angebot unterbreiten, das ihm einen Geldbetrag zwischen 100.000 Euro und 250.000 Euro dafür zukommen ließe, dass er den Betrieb des Biergartens genehmigt. Der Anwohner wird dieses Angebot annehmen und für seinen Vermögensverlust mehr als kompensiert. Die Anfangsverteilung der Verfügungsrechte zugunsten des Anwohners führt über den Abschluss eines Vertrags somit zur gesellschaftlich optimalen Lösung. Wären die Verfügungsrechte anfänglich umgekehrt verteilt, besäße also der Unternehmer das Recht, den Biergarten neben dem Anwohner zu betreiben, dann könnte der Unternehmer den Biergarten in jedem Fall ungehindert eröffnen. Da der Anwohner eine maximale Zahlungsbereitschaft von 100.000 Euro aufweist, kann er dem Unternehmer auch kein Angebot unterbreiten, das diesen vom Betrieb des Biergartens abhielte. Auch in diesem Fall wird die gesellschaftlich optimale Lösung realisiert. Das Beispiel zeigt, dass die Möglichkeit einer transaktionskostenlosen Anbahnung, Verhandlung und Durchführung von Vertragsvereinbarungen zu effizienten gesellschaftlichen Verhaltensweisen führt. Dies Ergebnis wird als Effizienzthese bezeichnet. Darüber hinaus ist das Erreichen des effizienten Zustands nicht davon abhängig, wie die

4 Institutionen

537

ursprüngliche Aufteilung der Verfügungsrechte aussah – dies ist die Invarianzthese. Effizienz- und Invarianzthese bilden zusammen das Coase-Theorem. Es sei noch einmal kurz darauf hingewiesen, dass die Anfangsverteilung der Verfügungsrechte natürlich nur aus übergeordneter Effizienzperspektive irrelevant ist. Für die einzelnen Beteiligten gilt das natürlich nicht, denn die Verteilungswirkungen sind immens. Im ersten Fall erhalten der Anwohner immerhin eine hohe Entschädigung, im zweiten Fall jedoch nicht. Coases Analyse endet jedoch nicht mit diesem Theorem, sondern der Kern seiner Argumentation beginnt an dieser Stelle erst. Denn führt man nun Transaktionskosten ein, dann ergibt sich ein ganz anderes Bild. Das obige Beispiel sei deshalb geringfügig modifiziert. Nach wie vor sein die Ansiedlung eines Biergartens in einem Wohngebiet betrachtet. Doch jetzt sei nicht mehr nur ein Anwohner betroffen, sondern gleich ein ganzer Straßenzug. Nehmen wir an dieser bestehe aus 100 Häusern, die jeweils einen Wertverlust von 1000 Euro erleiden würden. Besitzen nun alle 100 Anwohner ein Vermögensrecht, das sie vor der Öffnung des Biergartens schützt, müsste der Unternehmer nun mit allen 100 Anwohnern verhandeln, um ihnen ihr Recht abzukaufen. Nun versetze man sich in die Lage desjenigen Anwohners, dessen Vertragsunterzeichnung als letzte ausstünde. Hätten etwa die anderen Anwohner ihr Recht jeweils für 2000 Euro abgegeben, so erkennt der Anwohner, dass die maximale Zahlungsbereitschaft des Unternehmers 250.000 – 99  200 = 52.000 Euro beträgt. Damit hat er gute Aussichten, eine Einigung in der Mitte, etwa für 26.000 Euro, zu erzielen. Diese Summe ist jedoch weitaus größer als die Kompensation, die die anderen Anwohner erzielt haben. Geht man nun davon aus, dass alle Anwohner der Straße diese Chance erkennen, dann möchte jeder von ihnen der letzte Anwohner sein und viele von ihnen werden ihre Forderungen aus verhandlungsstrategischen Motiven überhöhen. Selbst wenn sie alle Anwohner nur auf 5.000 Euro spekulierten, so wäre die Summe der vom Unternehmer zu tragenden Kosten höher als der Wert des Biergartens und die Verhandlungen könnten aus diesem Grund scheitern. Die effiziente Lösung würde verfehlt! Wäre hingegen der Unternehmer im Besitz des Verfügungsrechts zur Eröffnung des Biergartens, dann müssten die Anwohner ihm sein Recht abkaufen. Da selbst die Summe ihrer maximalen Zahlungsbereitschaften nur 100.000 Euro beträgt, könnten sie dem Unternehmer niemals genug Geld bieten, um ihn von seinem Vorhaben abzubringen. Dabei ist es irrelevant, ob die Koordination der Verhandlungen der Anwohner Transaktionskosten verursachen würde oder nicht. Dementsprechend führt die anfängliche Zuweisung der Verfügungsrechte an den Unternehmer zur effizienten Lösung. Fasst man diese Gedanken zusammen, so zeigt sich, dass in einer Welt mit Transaktionskosten die Zuweisung der Verfügungsrechte von großer Relevanz ist. Effizienz wird nur dann erreicht, wenn die Verfügungsrechte an denjenigen verteilt werden, dessen gewünschte Handlungen den höheren gesellschaftlichen Nutzen aufweisen. Dies bedeutet zugleich, dass das in der Praxis so häufig bemühte Verursacherprinzip keine Rolle bei der Zuteilung von Verfügungsrechten spielen soll. Coase geht sogar noch einen Schritt weiter: Er zeigt, dass das Verursacherprinzip nicht mehr als eine Leerformel ist. Dies sei erneut an unserem Biergartenbeispiel erläutert. Gemäß üblicher Handhabung des

538

Mathias Erlei

Verursacherprinzips könnte man argumentieren, der Biergartenunternehmer verursache eine Wertminderung des Hauses. Als Folge einer solchen Sichtweise sollten die Verfügungsrechte an die Anwohner verteilt werden. Wir bereits gezeigt wurde, würde dies vermutlich in einem ineffizienten Zustand enden. Coase stellt jedoch klar: Die Zulassung des Betriebs eines Biergartens beeinträchtigt natürlich den Nutzen des Anwohners. Gleichzeitig würde ein Verbot des Biergartens durch den Anwohner den Biergartenbetreiber schädigen! Externe Effekte, also Auswirkungen einer Einrichtung auf andere, die nicht über den Marktmechanismus abgegolten werden, wirken immer wechselseitig! Die Verursachung ist reziproker Natur. Letztlich ist es die Konkurrenz um die Nutzung der Straße, die das Problem erzeugt. Ebenso stellt das Problem des Klimawandels eine Nutzungskonkurrenz dar: die Bereitstellung eines bestimmten Klimas konkurriert mit bestimmten Verbrauchsmöglichkeiten fossiler Energieträger. Die eine Nutzungsform beeinträchtigt die andere und vice versa. Versteht man diesen Zusammenhang, dann wird unmittelbar klar, warum das Verursacherprinzip aus Sicht der ökonomischen Effizienzbetrachtung nicht als Leitfaden für die Zuweisung von Verfügungsrechten dienen kann. Das Coase-Theorem hat auch Auswirkungen auf die Gestaltung der Schutzmechanismen für Regeln. Bei niedrigen Transaktionskosten bietet sich eine bedingte Untersagung (Unterlassung) an, bei der der Rechteinhaber seine Rechte an einen anderen Interessenten veräußern darf. Da der Handel von Verfügungsrechten bei zu hohen Transaktionskosten scheitern wird, kann für solche Fälle eine unbedingte Untersagung oder eine Schadensersatzregelung getroffen werden. Dabei wird die unbedingte Untersagung nur dann zu einem effizienten Ergebnis führen, wenn der Staat erkennt, welches Verhalten den höheren gesellschaftlichen Nutzen erzeugt. Da dies oftmals nicht ersichtlich ist, liefert die Schadensersatzregel die flexiblere, auf geringeren ex-ante-Informationsstand der Behörden angewiesene Lösung. Calabresi (1970) hat eine Systematik zur Ermittlung der effizienten Regeln inklusive deren Durchsetzungsmechanismus vorgeschlagen. Dazu sind drei Arten von Kosten zu bestimmen, deren Summe im abschließenden Vergleich beim optimalen Regeldesign minimal sein muss. Unter primären Kosten versteht er die mit dem Verhalten der Beteiligten verbundenen Ineffizienzen, also die Differenz der gesellschaftlichen Überschüsse zwischen dem theoretisch idealen Verhalten und dem gleichgewichtigen Verhalten der Akteure. Sekundäre Kosten erfassen Ineffizienzen, die aus einer suboptimalen Aufteilung der Risiken basieren. In vielen Situationen gibt es Beteiligte, die leicht dazu in der Lage sind, Risiken zu streuen und damit zu verringern, während andere nicht dazu in der Lage sind. Tragen nun Vertragsparteien Risiken, die höhere Risikokosten aufweisen als andere, so stellt dies eine Ineffizienz dar, die zu berücksichtigen ist. Schließlich sind die tertiären Kosten zu nennen. Hierunter versteht man die Kosten der Rechtsdurchsetzung, das heißt die Kosten die durch Aufdeckung, Verfolgung und Bestrafung von Regelverstößen anfallen sowie die resultierenden Kosten der Rechtsprechung. Die drei Kostenarten stehen im Allgemeinen in einem Zielkonflikt, und effizient ist diejenige Regelung, in der die jeweilige Kostensumme minimal ist.

4 Institutionen

539

Die Instrumente der ÖAR werden auf alle Bereiche der Rechtsetzung angewandt: Vertragsrecht, Schadens- und Haftungsrecht, Strafrecht, Verwaltungsrecht, Prozessrecht, Regulierungsrecht und andere mehr.

4.5.4

Theorie der institutionellen Entwicklung

Die vorangehenden Abschnitte haben sich intensiv mit den Auswirkungen bestimmter Regelsysteme sowie den daraus resultierenden Gestaltungsempfehlungen beschäftigt: Wie wirken Regeln und wie sollen sie ausgestaltet werden? Als Bewertungskriterium dient dabei die Effizienz von Institutionen. In diesem Abschnitt wird die Perspektive gewechselt. Frage ist nunmehr, welche Regeln sich herausgebildet haben oder herausbilden werden. Warum gibt es Gesellschaften mit wachstumsfördernden Institutionen und warum gibt es solche, die offensichtlich von einem System effizienter Institutionen abweichen? Wer und was bestimmt die historische Wahl von Regelsystemen? Im Folgenden werden vier Aspekte diskutiert, die für das Verständnis der Entwicklung von Institutionen zentral sind: • die Bedeutung relativer Preise in Verbindung mit der Annahme einer effizienten Institutionenwahl; • die zentrale Rolle der herrschenden Schicht, ihrer partiellen Interessen sowie der Transaktionkosten; • das Zusammenspiel von Institutionen mit Organisationen; • die notwendige Eigenschaft der Selbstdurchsetzung bestimmter Regeln, insbesondere der in der Regelhierarchie an höchster Stelle angeordneten Institutionen. Ein erster Ansatz, die Entstehung von Regeln zu interpretieren, besteht darin, die normative Perspektive einer Wahl effizienter Regeln zur positiven Betrachtungsweise zu machen. Es wird also eine Regelbildung unterstellt, die zum höchsten Wohlstand der Beteiligten führt. Eine Entwicklung von Regeln, das heißt ihre Änderung, erfolgt in diesem Fall nur auf Grund geänderter relativer Knappheiten bzw. neuer relativer Preise. Demsetz (1967) hat diesen Gedanken sehr wirkungsvoll anhand der Internalisierung externer Effekte vorgetragen. Zu diesem Zweck analysiert er die Entwicklung von Eigentumsrechten für das Jagen von Wild in der Gesellschaft der Montagnais-Indianern in Labrador zu Beginn des 18. Jahrhunderts. Zum Ausgangszeitpunkt der Betrachtung existierte unter den Indianern ein Zustand mit nachhaltigem Wildbestand und eine explizite Zuteilung von Jagdrechten war weder vorhanden noch erforderlich. Mit der Zeit entwickelte sich ein Handel mit Pelzen, und die Indianer lernten schnell, die wachsende Nachfrage nach Pelzen mittels Handel zur eigenen Güterversorgung zu nutzen. Die Intensivierung der Jagd nach Bibern verursachte jedoch unvorhergesehene Nebeneffekte, nämlich die Gefährdung des Wildbestandes. Die übermäßige Jagd durch einen einzelnen Jäger stellt dabei einen negativen externen Effekt auf alle anderen Jäger dar. Dadurch dass kein Jäger

540

Mathias Erlei

Anlass dazu hat, diese Externalität im eigenen Verhaltenskalkül zu berücksichtigen, wurde eine allgemeine Überproduktion an Fellen mit Gefährdung der wirtschaftlichen Basis, des Gesamtbestands an Wild, ausgelöst. Das Wild wurde damit kostbarer, sein relativer Preis stieg an und die Verschwendung durch übermäßiges Jagen bedurfte einer Korrektur. Das Problem wurde gelöst, indem territoriale Jagd­rechte zugewiesen wurden, die die Jagdaktivität wirksam einschränkten: „By the beginning of the eighteenth century, we begin to have clear evidence that territorial hunting and trapping arrangements by individual families were developing in the area around Quebec. […] It was their custom to appropriate pieces of land about two leagues square for each group to hunt exclusively. Ownership of beaver houses, however, had already become established, and when discovered, they were marked. A starving Indian could kill and eat another’s beaver if he left the fur and the tail“ (Leacock 1954, S. 15). Die Zuweisung von Verfügungsrechten ist hier eine Reaktion auf geänderte Knappheiten und sie induziert eine neue, den Knappheiten angemessene, effiziente Verhaltensweise. Da die Einführung und Durchsetzung von Verfügungsrechten Kosten verursacht, ist es nicht effizient, für alle externen Effekte explizite Verfügungsrechte zu definieren. Sind etwa die Externalitäten nur von geringem Ausmaß, dann lohnt ihre Internalisierung nicht. So existierten vor der Aufnahme des Fellhandels unter den Montagnais-Indianern keine differenzierten Jagdrechte, da die mit der ausschließlich zur Eigenversorgung verbundenen externen Effekte von vernachlässigbarer Größenordnung waren: die Kosten der Internalisierung waren größer als ihr Nutzen. Diese Relation drehte sich durch das Wachstum des Fellhandels, und die Internalisierung der externen Effekte war die angemessene Reaktion. Natürlich beschränkt sich die Anwendbarkeit des Effizienzmotivs für eine Änderung der Institutionen nicht auf die Internalisierung externer Effekte. Auslöser für institutionellen Wandel können dann auch Kriege, Naturkatastrophen, Seuchen, neue Technologien und anderes mehr sein. North und Thomas (1973) erweitern diese Betrachtung noch um die Bedeutung der Regierung, die für die Sicherung von Schutz und Recht im Gegenzug Erlöse einnimmt. North und Thomas argumentieren, dass die privaten Vorteile, die die Regierung aus der Bereitstellung des Rechts erhält, hinreichend groß sein müssen, um zu einer Etablierung der Regelungen zu führen. Damit kommen wir zum zweiten Aspekt des institutionellen Wandels: der zentralen Rolle der herrschenden Gruppen und die Bedeutung der Transaktionskosten. North 1988 betont, dass der institutionelle Wandel nicht über einen breiten gesellschaftlichen Konsens, sondern im Allgemeinen durch eine herrschende Schicht verwirklicht wird. Dieser Gruppe von Individuen, die er auch als Prinzipale bezeichnet, unterstellt er ein eigennutzorientiertes Verhalten in Form des Ziels der Vermögensmaximierung. Diese Vermögensmaximierung wird beschränkt durch die Leistungsfähigkeit des Wirtschaftssystems, die ihrerseits davon abhängt, inwieweit Transaktionskosten des Wirtschaftens verringert worden sind. Die Leistungsfähigkeit ist dann am größten, wenn die Voraussetzungen für ein funktionsfähiges, arbeitsteiliges Marktsystem erfüllt sind, wenn die Bürger also durch eine Verfassung vor Übergriffen des Staates und der Mitbürger geschützt werden und die

4 Institutionen

541

Wirtschaftsordnung das möglichst reibungsfreie Funktionieren des Preismechanismus sichert. Damit steht die Leistungsfähigkeit der Wirtschaft jedoch in einem Konflikt zur Maximierung der Prinzipalvermögen, denn diese basieren insbesondere auf leistungsunabhängigen Renten, die die herrschende Klasse durch exklusiven Zugang zu bestimmten Ressourcen oder Rechten und durch Monopolisierung bestimmter Tätigkeiten anstrebt. Je ausgeprägter die Prinzipale exklusive Sonderrechte in Anspruch nehmen, desto höher sind die Transaktionskosten für das Wirtschaften und desto geringer ist die Leistungsfähigkeit der Wirtschaft. Im Extremfall einer tyrannischen Willkürherrschaft strebt die Leistungsfähigkeit der Wirtschaft gegen null: nicht zur Herrschergruppe gehörende Menschen werden aus Angst vor Enteignung ihre Investitionen auf ein Minimum verringern und vorrangig um ihr eigenes Überleben bemüht sein. Gleichzeitig kann in einem solchen Szenario auch für die herrschende Klasse nur ein vergleichsweise geringes Volumen an Renten bereitgestellt werden. Das die Prinzipalvermögen maximierende Institutionendesign wird somit im Allgemeinen nicht dem aus gesellschaftlicher Sicht effizienten Institutionensystem entsprechen, sondern es wird mit unnötig hohen Transaktionskosten verbunden sein. Andererseits wird ein solches für den Prinzipal optimales Regelsystem einen gewissen Rechtsschutz liefern, um die Wirtschaft hinreichend leistungsfähig zu erhalten. Die Ineffizienz der gewählten Institutionen wird noch dadurch verschärft, dass die Prinzipale eine zweite Form von Transaktionskosten, nämlich einen Informationsrückstand gegenüber den Regierten im Hinblick auf deren tatsächliches Handeln berücksichtigen müssen. Um die Ausbreitung einer kaum kontrollier- und messbaren Schattenwirtschaft zu vermeiden, werden Organisationsformen vorgeschrieben, die eine bessere Kontrollierbarkeit gewährleisten. Dies sind zumeist staatlich oder privat geleitete Monopole. Mit anderen Worten: Monopole werden nicht nur zwecks Zugangsbeschränkung für die Elite, sondern auch wegen ihrer leichteren Kontrollierbarkeit etabliert, was weitere gesamtgesellschaftliche Ineffizienzen zur Folge hat. Eine dritte Form von Transaktionskosten, Kosten der Informationsgewinnung und -verarbeitung im Hinblick auf die Wirkung von Institutionen, bildet die Grundlage für die suboptimale Institutionenwahl, wie sie auch in offenen Demokratien vorzufinden ist. Da der einzelne, nicht zur Herrschergruppe gehörende Bürger kaum Einfluss auf die Gestaltung der Regeln hat, wird er oftmals eine Strategie der rationalen Ignoranz verfolgen: Im Wissen um das Fehlen der Beeinflussbarkeit der Institutionen verzichtet er darauf, unter Erleidung von privaten Kosten Informationen zu sammeln und zu verarbeiten. Die fehlende Kenntnis um die Wirkung von Institutionen räumen den Politikern Freiheitsspielräume zur eigennützigen Ausrichtung der Regeln ein. Dies erfolgt oftmals durch das Propagieren extrem vereinfachter Argumentation mit unscharf definierten Begriffen. So lassen sich etwa unter dem Stichwort „Gerechtigkeit“ unterschiedliche und widersprüchliche Sachverhalte fassen. Gelingt es, private Interessen unter dem Deckmantel der Gerechtigkeit zu verstecken und durch Appelle an die Moral zu bewerben, können schnell ein hohes Maß an öffentlicher Zustimmung erzielt und hohe private Renten eingenommen werden.

542

Mathias Erlei

Als Zwischenfazit lässt sich somit festhalten, dass auch das Wechselspiel zwischen Transaktionskosten und der Existenz einer die Institutionen setzenden Herrschergruppe zu Regelsystemen führen, die potentielle Effizienzgewinne ungenutzt lassen. Dabei ist noch nicht einmal berücksichtigt, dass es auch Transaktionskosten im Hinblick auf Interessenkonflikte innerhalb der Gruppe der Herrschenden gibt. Grundsätzlich stehen die Mitglieder der Regierungsschicht in einem Verhältnis der wechselseitigen Abhängigkeit, und jedes Institutionensystem muss ein Gleichgewicht zwischen den Kräften der Beteiligten bilden. Wäre dies nicht der Fall, zerbräche die Koalition der Herrschergruppe und es entstünden Kämpfe um den Erhalt der Macht. Ändert sich das relative Machtgefüge innerhalb der herrschenden Gruppe, wird zur Aufrechterhaltung der Koalition auch eine Anpassung der Institutionen notwendig. Der dritte Aspekt zur Entwicklung von Institutionen, der hier erläutert werden soll, besteht aus dem Zusammenspiel von Institutionen und Organisationen innerhalb einer Gesellschaft. Während Institutionen als Spielregeln der Interaktion zwischen Menschen (inkl. deren Durchsetzungsmechanismen) definiert werden, umfasst die Organisation neben einem ihr zugrunde liegenden Regelsystem auch die personelle und sachliche Dimension der Interaktion und Kooperation zwischen Menschen. Organisationen agieren innerhalb einer vorgegebenen institutionellen Umwelt beteiligen sich bei der Gestaltung institutioneller Arrangements und bestehen selbst aus einem Geflecht von Vertragsbeziehungen sowie den damit verbundenen Personen und Sachmitteln. Die institutionelle Umwelt setzt Anreize, die zur Bildung bestimmter Formen von Organisationen führen. Besteht in einer Gesellschaft etwa kein Kartellverbot, so lohnt es sich für die auf dem Markt tätigen Unternehmen, ein Kartell zu gründen. Sind Kartelle hingegen verboten, bestehen Anreize, die Marktmacht durch Fusionen oder andere Formen der Unternehmensverflechtung zu erhöhen. Wird eine Branche reguliert, so werden regelmäßig Branchenvereinigungen gegründet, die neben einer Aufklärungsarbeit für die Regulierungsbehörden natürlich auch eine Beeinflussung der Regulierungspolitik zugunsten der beteiligten Unternehmen zum Ziel hat. Das Spektrum der Organisationen reicht von der Familie und den Freizeitverein über Unternehmen und Interessenverbände bis hin zu Verwaltungsbehören (Kommunalverwaltungen, Landes- und Bundesministerien), Parlamenten und Regierungen. Im Allgemeinen gilt, dass Organisationen als das Ergebnis einer Anpassung an ihre jeweilige institutionelle Umwelt anzusehen sind (North 1990, S. 7). Ihre Aufgabe besteht darin, die privaten Interessen der in sie eingebundenen Akteure zu verfolgen. Dazu ist es normalerweise erforderlich, spezifische Investitionen in das Institutionensystem zu tätigen. Diese bestehen zum erheblichen Teil daraus, dass die Organisationen Wissen ansammeln und Strukturen aufbauen, die ausschließlich im Hinblick auf das vorliegende Institutionensystem nützlich sind. Sind diese Investitionen einmal versunken, so besteht ein Interesse der Investoren daran, die Institutionen zu erhalten, sodass die zuvor getätigten Investitionen eine hinreichende Nutzungsdauer zur Verfügung haben. Darüber hinaus erfolgen Lernprozesse, die es den Organisationen ermöglichen, sich immer besser an das Institutionensystem anzupassen. Spezifische Investitionen in Institutionen sowie Lernprozesse im Hinblick auf

4 Institutionen

543

Institutionen erzeugen einen Lock-in-Effekt, der drastischen institutionellen Reformen entgegensteht. In jedem Fall werden die betroffenen Organisationen einen inkrementellen Wandel, also einen Wandel in kleinen Schritten, stark bevorzugen. In einer stabilen Gesellschaft, die nur geringfügigem institutionellen Wandel ausgesetzt ist, werden sich nach Olson (1991) immer mehr Organisationen bilden, die ein kollektives Handeln einer Teilmenge von Personen oder Organisationen koordinieren sollen. Dabei werden vergleichsweise kleine Organisationen, das sind solche mit einer kleinen Zahl von Mitgliedern, wirkungsvoller agieren können als große Gruppen, die stärker unter dem Trittbrettfahrerproblem kollektiven Handelns leiden (Olson 1965). In großen Gruppen, wie zum Beispiel der Menge aller Steuerzahler, ist die Beteiligung eines einzelnen Mitglieds zumeist für den Erfolg der Gruppe von nachrangiger Bedeutung. Damit besteht für jedes einzelne potentielle Mitglied ein Anreiz, der Organisation nicht beizutreten. Dies spart Mitgliedsbeiträge und Zeitverluste bei der aktiven Teilnahme, ohne dass damit ein Nutzenverlust verbunden wäre: Umfassende Gruppen können Nichtmitglieder typischerweise nicht vom Nutzen der Organisationsaktivitäten ausschließen. So gilt zum Beispiel für alle Bürger dasselbe Steuerrecht, und falls die Organisation der Steuerzahler vorteilhafte Regelungen veranlasst, so gelten diese auch für die Nichtmitglieder der Vereinigung. Ihre größere Wirksamkeit verleiht kleinen Organisationen, die spezielle Sonderinteressen verfolgen und durchsetzen, einen überproportionalen Einfluss. Auf diese Weise werden für kleine Partialgruppen gezielt Sonderrechte etabliert, die einen Rentenzufluss an die Mitglieder bewirken. Diese Renten resultieren häufig aus der Einführung von Zutrittsschranken, nicht leistungsbedingten Wettbewerbsvorteilen und anderen Monopolisierungsstrategien. Sie alle führen zu Ineffizienzen, da die Marktpreise nicht mehr die relative Knappheit der Güter und Dienstleistungen, sondern das Geschick des Verbandes bei der Beschaffung von Privilegien signalisieren. Es folgt eine Unterversorgung der Gesellschaft mit den Produkten der bevorzugten Industrie und nicht selten auch Kostensteigerungen, da die der Branche zufließenden Renten zum Teil auch an die Beschäftigten fließen. Dieser Zufluss kann die Form einer höheren Entlohnung oder auch die einer verringerten Leistungsanforderung annehmen. Neben der Effizienz- und der Verteilungswirkung verursacht die Tätigkeit der Sonderinteresse-Organisationen (Lobbygruppen), im Folgenden auch als Verteilungskoalitionen bezeichnet, eine Verlangsamung der Entscheidungsprozesse. Verteilungskoalitionen dienen der Erzeugung und Verteilung von Renten. Im Hinblick auf die Verteilung der Renten besteht jedoch ein unvermeidbarer Interessenkonflikt zwischen den Mitgliedern der Organisation. Zum Erhalt der Koalition ist jedoch die allgemeine Akzeptanz durch alle Mitwirkenden erforderlich, sodass ein allgemeiner Konsens erzielt werden muss. Dies geschieht über Verhandlungen und satzungsmäßige Verfahren, die beide eine zeitliche Ausdehnung der Entscheidungsprozesse verursachen. Die Bewältigung der Interessenkonflikte innerhalb der Verteilungskoalition führt zu mehr oder weniger festgefügten Aufteilungen der Renten über robuste Entscheidungsverfahren. Das Ziel, die Rentenverteilung zu stabilisieren, behindert die Flexibilität der Organisation und ihrer Mitglieder, sich neuen Gegebenheiten anzupassen und selbst

544

Mathias Erlei

Innovationen hervorzubringen. Je mehr man den Staat und seine Regulierungseinrichtungen zur Zementierung der Rentenaufteilung instrumentalisieren kann, desto verlässlicher und konsensfähiger ist sie. Gleichzeitig steigt jedoch auch die Komplexität der Entscheidungsverfahren, was sie inflexibler und langsamer macht. Langfristig kann dies zu einer Sklerotisierung der Gesellschaft im Allgemeinen und der Institutionen im Besonderen führen. Olson (1991, S. 238 ff.) sieht hierin eine Ursache für die Entstehung von Preisstarrheiten und Konjunkturschwankungen. Der letzte hier zu diskutierende Aspekt der institutionellen Entwicklung besteht im Erfordernis der Selbstdurchsetzungsfähigkeit bestimmter formaler Regeln. Zu einer Institution gehört stets auch ihr Durchsetzungsmechanismus. Schließen etwa zwei Personen einen Vertrag, so handelt es sich nicht um eine unverbindliche Willenserklärung, sondern um ein Recht, dass über das Rechtssystem der Gesellschaft eingeklagt werden kann. Verweigert der Empfänger einer hochwertigen Ware, man denke etwa an den Kauf eines Neuwagens, die vertragsgemäße Zahlung, so wird sich der Verkäufer an die Polizei wenden und den Käufer wegen seiner ausgeblieben Zahlung anzeigen. Der Käufer muss sich vor Gericht verantworten und kann, so er über ein hinreichendes Vermögen verfügt, gezwungen werden, die Zahlung zu leisten. Unter Umständen drohen ihm auch Haftstrafen, die die Zahlungsverweigerung sehr unattraktiv werden lassen. Der private Kaufvertrag nutzt somit den Durchsetzungsmechanismus „Rechtssystem“. Was aber gilt, wenn das gehandelte Gut einen nur sehr geringen Wert aufweist? In solchen Fällen verursacht die Einschaltung von Polizei und Gerichten Kosten, die den Wert des gehandelten Gutes deutlich übersteigen. Warum sollte der Verkäufer dann den Rechtsweg beschreiten? Nun, würde er es nicht, könnte er den Handel mit geringwertigen Gütern einstellen, denn es würde sich schnell herumsprechen, dass er keine Anzeige erstattet, sodass potentielle Diebe ohne Risiko stehlen könnten. Der Händler muss folglich eine Reputation dafür erwerben, dass er den Rechtsweg auch dann beschreitet, wenn es im Einzelfall nicht lohnt. Langfristig wird sich dies für ihn auszahlen, denn er kann auf diese Weise Rechtsbrecher abschrecken. Der Rechtsweg als Durchsetzungsmechanismus erfordert allerdings, dass Polizisten und Richter ihre Aufgaben unparteilich und gesetzeskonform durchführen. Was geschieht jedoch, wenn dies nicht zutrifft? In einem funktionierenden System könnte man gegen Polizisten und Richter klagen, bei Fehlurteilen könnte man die nächste Instanz anrufen und das Urteil überprüfen lassen. Wäre auch die zweite Instanz korrupt oder unfähig, könnte man die dritte Instanz wählen und so weiter. Schlussendlich gibt es jedoch immer eine letzte Instanz, die ihrerseits nicht mehr überprüft werden kann, und sollte diese korrupt sein, dann nimmt das Rechtssystem erheblichen Schaden. Die Funktionsunfähigkeit des Rechtswegs zwingt alle Wirtschaftssubjekte, andere, mit höheren Transaktionskosten versehene Durchsetzungsmechanismen zu wählen. Die höheren Transaktionskosten lassen Transaktionen, die in einem funktionsfähigen Rechtssystem wirtschaftlich sind, unwirtschaftlich werden. Produktions- und Handelsvolumen werden sinken und mit ihnen der Wohlstand der Gesellschaft.

4 Institutionen

545

Bürger müssen nicht nur vor ihren Mitbürgern, sondern auch vor Übergriffen des Staates geschützt werden. Dazu unterstellt man die Verwaltung dem öffentlichen Recht und die Politik der Verfassung. Doch was passiert, wenn Politiker die Verfassung missachten? Bürger können in solchen Fällen wiederum klagen, allerdings stellt sich das gleiche Problem wie zuvor: Wer garantiert die Integrität der mit dem Fall befassten Instanzen? Was würde geschehen, wenn Politiker oder das Militär einen Staatsstreich durchführen und die obersten Richter absetzten? In diesem Fall gäbe es nicht einmal mehr eine Instanz, an die sich der Bürger wenden kann. Diese Gedanken verdeutlichen, dass rechtliche Regelungen, die die obersten Hierarchien von Justiz, Politik und Militär betreffen, selbstdurchsetzend sein müssen in dem Sinne, dass keine hierarchisch über ihnen befindliche Organisation zu Hilfe gezogen werden kann und die Einhaltung des Rechts im Eigeninteresse der Beteiligten liegen muss. Ein sinnvolles Instrument zur Kontrolle von Justiz, Legislative, Exekutive und Militär besteht in der bereits angesprochenen Gewaltenteilung. Insoweit es gelingt, die Gewalten so voneinander zu trennen, dass jede ein eigenes Interesse an der Einhaltung des Rechts durch die anderen hat und keine der Gewalten ihre persönlichen Interessen gegen die anderen durchsetzen kann, so ist das Rechtssystem bezüglich der obersten Gewalten selbstdurchsetzend. Selbstdurchsetzend ist das Rechtssystem allerdings auch, wenn eine vollständige Konzentration der Gewalten in einer Person, die selber ein Interesse an der Einhaltung des von ihr gesetzten Rechts hat, erfolgt. Problematisch wird ein Rechtssystem dann, wenn die Gewalt(en) kein Interesse an der Durchsetzung des formalen Rechts haben. North u.a. (2009) erläutern, inwieweit dies ein zentrales Problem der Entwicklung von Volkswirtschaften darstellt. Die Industrieländer haben in den vergangenen Jahrzehnten oftmals Entwicklungspolitik betrieben, indem sie die Gewährung finanzieller Hilfen an die Etablierung bestimmter formaler Institutionen, die sich in den Industrieländern selbst bewährt haben, geknüpft haben. Dabei haben sie übersehen, dass dieselben formalen Regeln in den verschiedenen Gesellschaften ganz unterschiedlich wirken. Die weniger entwickelten Wirtschaften können zumeist als Limited Access Orders, was man am besten als Privilegienwirtschaft übersetzen kann, bezeichnet werden. Darunter verstehen North u.a. (2009) Gesellschaften mit einer herrschenden Elite, die den Zugang zu diversen politischen, rechtlichen und wirtschaftlichen Positionen bewusst auf ihre eigene Gruppe beschränkt und dadurch diverse Renten einnimmt. Diesen Gesellschaften wurden nun formale Regelungen vorgeschrieben, die zu einer offenen Gesellschaft (Open Access Order) führen sollen. Da die Eliten jedoch kein Eigeninteresse an der Aufgabe ihrer Privilegien aufweisen, wurde die Durchsetzung dieser formalen Rechte hintertrieben. Die informellen, nicht kodifizierten Rechte der Elite standen im Widerspruch zum formalen Recht, das damit nicht durchgesetzt werden konnte und wirkungslos blieb. Um eine wirkungsvolle Institutionengestaltung in den betreffenden Ländern anzustoßen, ist es folglich von zentraler Bedeutung, institutionelle Reformen so zu gestalten, dass sie im Interesse der herrschenden Elite und damit selbstdurchsetzend ist. Institutionensysteme, die diese Eigenschaft nicht aufweisen, sind entweder wirkungslos oder sie werden nicht langlebig sein.

546

4.5.5

Mathias Erlei

Neue Politische Ökonomik

Die provozierend guten Eigenschaften des theoretischen Modells vollkommen wettbewerblicher Märkte, wie sie in den beiden Hauptsätzen der Wohlfahrtsökonomik zum Ausdruck kommen, haben Ökonomen über lange Zeit dazu verleitet, sich vorrangig mit den Abweichungen realer Wirtschaften vom idealtypischen Markt zu beschäftigen, um daraus das Erfordernis wirtschaftspolitischer Eingriffe abzuleiten. Ohne jeden Zweifel sind aus den daraus folgenden Analysen wichtige, nicht selten unverzichtbare Erkenntnisse hervorgegangen. Das Aufzeigen der Existenz wohlstandserhöhender wirtschaftspolitischer Maßnahmen wurde häufig implizit an die Existenz eines wohlmeinenden politischen Akteurs, der nur die Maximierung der gesellschaftlichen Wohlfahrt zum Ziel hat, gekoppelt. Die Unterstellung eines solchen „wohlmeinenden Diktators“ vernachlässigt Probleme, die daraus entstehen, dass auch die meisten Politiker eigennutzorientierte Menschen sein werden. An diesem Punkt setzt die Neue Politische Ökonomik an, indem sie den Akteuren aus Politik, Verwaltung und Interessenverbänden grundsätzlich ein eigennütziges Verhalten unterstellt. Indem die Neue Politische Ökonomik das neoklassische Verhaltensmodell des Homo Oeconomicus auf diesen Handlungsbereich ausdehnt, verlegt sie den Schwerpunkt der Betrachtung von der Problematik einer möglichen vorteilhaften wirtschaftspolitischen Einflussnahme auf die Frage, welche Maßnahmen die in Politik, Verwaltung und Interessenverbänden aktiven Personen durchführen wollen. Im politischen Sektor funktionsfähiger Demokratien müssen sich die beteiligten Parteien Wahlen stellen. Nur im Falle des Wahlerfolges können sie ihre eigenen Programme durchsetzen. Das Wahlverhalten der Bürger stellt somit eine bindende Restriktion für die eigene Programmbildung und -durchsetzung dar. Darüber hinaus ist es sinnvoll anzunehmen, dass Politiker und Parteien eine Situation strikt bevorzugen, in der sie einen Wahlsieg erringen, damit sie überhaupt erst in die Lage versetzt werden, aktive Gesellschaftspolitik zu betreiben. Die Bürger einer Gesellschaft haben typischerweise nicht dieselben Präferenzen. Unterstellt man zum Beispiel, die Politik eines Landes sei durch eine eindimensionale Skala abbildbar, diese könnte das Ausmaß an staatlicher Aktivität beinhalten oder eine mehr oder weniger linke oder rechte Politik darstellen, dann lassen sich die Wählerpräferenzen in Form einer eindimensionalen Dichtefunktion veranschaulichen. Abbildung ME6 zeigt eine denkbare Präferenzdichte der Wähler. Jeder Punkt auf der Abszisse stellt eine von bestimmten Wählern gewünschte Politik dar, der dazu gehörige Ordinatenwert zeigt die Wahrscheinlichkeitsdichte dieser Präferenz an. Damit werden alle Wähler von links nach rechts geordnet, und derjenige Wähler, der in dieser Rangfolge genau in der Mitte liegt, wird als Medianwähler (M0) bezeichnet. Der Medianwähler muss nicht notwendigerweise an der Stelle mit der höchsten Dichte liegen, wenngleich dies für Abbildung 4.21 zutrifft. Nimmt man nun an, dass die beiden miteinander konkurrierenden Parteien die Programme PrL und PrR beschlossen haben, so ergibt sich folgende Situation. Jeder Wähler wählt die Partei, die seinen persönlichen Präferenzen am nächsten kommt. Dies hat zur Folge, dass in Abbildung 4.21 die „linke“ Partei mit dem Programm PrL die Mehrheit erzielt, denn sie erhält alle Stimmen links von ihrem Programm sowie alle Stimmen

4 Institutionen

547

Wahrscheinlichkeitsdichte

PrL

PrR

M0 Medianposition zunehmend „linke“ Politik

Politikausrichtung zunehmend „rechte“ Politik

Abb. 4.21  Verteilung der Wählerpräferenzen

zwischen den beiden Programmen, die näher am eigenen Programm als dem der „rechten“ Partei liegen. Damit würden auch der Medianwähler und einige Wähler mit Präferenzen, die rechts vom Medianwähler liegen, die linke Partei wählen. Damit erzielt die „linke“ Partei mehr als 50 % der Stimmen, gewinnt die Wahl und erhält die politische Entscheidungsbefugnis. Dieser in Abbildung 4.21 dargestellte Zustand bildet jedoch kein Gleichgewicht, denn die „rechte“ Partei wird sich nicht passiv in ihr Schicksal fügen. Indem sie ihr Programm modifiziert und sich nach links bewegt, kann sie zunehmend Wähler gewinnen, die zwischen dem eigenen Programm und dem der „linken“ Partei liegen, ohne Wähler am rechten Rand zu verlieren. Wählt sie nun ein Programm, das näher zum Medianwähler liegt als PrL, so gewinnt sie mehr als 50 % der Wählerstimmen und damit die Regierungsmacht. Dies erkennend, wird die „linke“ Partei ihr Programm ebenfalls in Richtung des Medianwählers anpassen, woraufhin die „rechte“ Partei ihr Programm modifiziert und so weiter. Diese Überlegungen verdeutlichen, die strategisch bedeutsame Rolle des Medianwählers und den Kampf der Parteien um seine Stimme. Natürlich ist der praktizierte Wettbewerb in realen Gesellschaften deutlich komplexer als im soeben skizzierten Modell. Die Eindimensionalität der Wählermotive ist fragwürdig, es sind andere Verläufe der Dichtefunktion vorstellbar und schließlich existieren oftmals mehr als zwei Parteien. Dies ändert jedoch nichts daran, dass jede Regierungskoalition

548

Mathias Erlei

eine Mehrheit und damit auch die Stimme des Medianwählers benötigt. Darüber hinaus verdeutlicht das Modell den Kampf der Parteien um die politische Mitte: Die viel beklagte Ähnlichkeit der Volksparteien in der Bundesrepublik Deutschland dürfte das Ergebnis solcher Anreize sein. Das Politikerverhalten im Hinblick auf Wahlen eröffnet jedoch noch weitere Ansatzpunkte für eine ökonomische Analyse. Der Umstand, dass wirtschaftspolitische Maßnahmen Wirkungsverzögerungen aufweisen, kann sich im Hinblick auf die Wahltermine als entscheidender Bestimmungsfaktor für das Timing der Wirtschaftspolitik erweisen. Ordnungspolitische Maßnahmen, also solche, die eine Modifikation der Institutionen beinhalten, wirken mittel-, häufig auch erst langfristig. Daraus lassen sich mehrere Schlussfolgerungen ableiten. Erstens werden institutionelle Maßnahmen zu Beginn einer Legislaturperiode vorgenommen, sodass sie zum Zeitpunkt der Wiederwahl schon positive Wirkung entfalten. Zweitens dürften institutionelle Reformen, die positive Auswirkungen erst nach einem längeren Zeitraum als einer Legislaturperiode aufweisen, in der Praxis kaum durchgeführt werden. Wenn überhaupt, dann können solche Maßnahmen, es wären zumeist grundlegende Neuausrichtungen der Wirtschaftsordnung, nur in kleineren Schritten vollzogen werden. Dies ermöglicht der Wirtschaft eine schnellere Anpassung an die neuen Institutionen, sodass zur Wiederwahl zumindest nicht die negativen Effekte überwiegen. Drittens besteht die Möglichkeit, Instrumente der Einkommens-, Sozial- und Konjunkturpolitik zur Förderung der eigenen Wiederwahl einzusetzen. Unterstellt man etwa eine Wirkungsverzögerung der Fiskalpolitik von sechs bis achtzehn Monaten, so wird man etwa ein bis eineinhalb Jahre vor der nächsten Wahl einen expansiven fiskalpolitischen Impuls geben. Dieser könnte zum Beispiel darin bestehen, der breiten Bevölkerung eine zeitweilige Abgabenerleichterung zu gewähren, ein sozialpolitisch motiviertes Ausgabenprogramm aufzulegen oder einer größeren Wählergruppe eine einmalige Transferleistung zu initiieren. Solche Maßnahmen, die unmittelbar bestimmten Wählergruppen nutzen und die zugleich einen konjunkturellen Impuls setzen, eignen sich ausgezeichnet, um am Wahltag eine für die regierende Partei vorteilhafte Stimmung zu induzieren. Ein sehr anschauliches Beispiel wird durch die Politik der Niedersächsischen Landesregierung geliefert, die kurz vor der Landtagswahl am 27. Januar 2008, den Landesbeamten eine einmalige (Weihnachts-) Sonderzahlung in Höhe von 860 EUR gewährte – nachdem man zu Beginn derselben Legislaturperiode das Weihnachtsgeld zunächst abgebaut und dann völlig gestrichen hatte! Derlei Gedanken haben zur Entwicklung einer eigenständigen Theorie des Politischen Konjunkturzyklus (Nordhaus 1975) geführt. Nach dieser sollte vor Wahlen künstlich ein Anstieg von Beschäftigung und Wirtschaftswachstum geschaffen werden, die nach den Wahlen durch eine zunehmende Inflation und sinkende Beschäftigung und sinkendes Wachstum abgelöst werden. Tatsächlich lässt sich ein solcher Zyklus aus den makroökonomischen Daten – wenn überhaupt – nur phasenweise erkennen. Die Weiterentwicklung des Ansatzes zu einer Theorie des Partisanzyklus (Hibbs 1977; Alesina 1987), in der ideologisch „links“ eingeschätzte Regierungen vorrangig das Beschäftigungsziel und „rechte“

4 Institutionen

549

Regierungen bevorzugt Preisstabilität anstreben, findet eine partielle Bestätigung (Alesina u.a. 1997): Tatsächlich werden Unterschiede zwischen Links- und Rechtsregierungen festgestellt, wenngleich die Zeitverläufe nicht präzise mit den theoretischen Vorhersagen übereinstimmen. Eine zweite Forschungsrichtung der Neuen Politischen Ökonomie beschäftigt sich mit dem Verhalten der Verwaltung. Diese ökonomische Theorie der Bürokratie stellt Interessenkonflikte zwischen Politikern und Bürokraten in den Vordergrund der Analyse. Politiker in der Rolle des Prinzipals beauftragen dabei Bürokraten (in der Rolle der Agenten), bestimmte Dienstleistungen – z.B. Erziehungsdienstleistungen (Lehrer und Hochschullehrer), Rechtsprechung (Richter), Beschützung (Polizei, Militär) – bereitzustellen. Politiker wünschen, dass diese Bereitstellung zu möglichst geringen Kosten und in der optimalen Menge vorgenommen wird. Bürokraten hingegen haben ihre eigenen Interessen. Zum einen würden sie gern öffentliche Mittel in einer Weise einsetzen, die persönliche Ziele unterstützt: So bewirkt eine luxuriöse Büroausstattung ein höheres Wohlbefinden beim Bürokraten, nützt dem Politiker (und dem Steuerzahler) jedoch nicht. Dies beinhaltet im Allgemeinen eine suboptimale Verwendung der Steuergelder und einen unnötig hohen Faktoreinsatz. Zum anderen stellen bestimmte Kennzeichen der beruflichen Stellung Statussymbole dar, die das Ansehen der Bürokraten bei ihren Mitmenschen erhöhen. Kann etwa ein Beamter darauf verweisen, dass er eine große Zahl von Mitarbeitern führt, vermittelt dies den Eindruck einer großen Bedeutung des Beamten und seiner Leistungsfähigkeit. Ähnliches gilt für das von ihm zu verwaltende Budget: Je größer dies ausfällt, desto mehr Respekt wird ihm entgegengebracht. Ein eigennütziger Bürokrat wird infolgedessen den Mitteleinsatz zu seinen Gunsten beeinflussen wollen und das Volumen der Tätigkeit seiner Abteilung auszudehnen wünschen. Unterstellt man nun – wie in der Prinzipal-Agent-Theorie üblich –, dass die Politiker das Verhalten der Bürokraten nicht vollkommen kontrollieren können, so bleiben den Bürokraten Spielräume für die Verfolgung seiner eigenen Ziele. Sie werden damit im Falle einer leistungsunabhängigen Entlohnung den Arbeitseinsatz drosseln, wie die einfache Prinzipal-Agent-Theorie beschreibt. Wie die Mehraufgaben-Prinzipal-Agent-Theorie nachdrücklich zeigt, stellen Leistungsanreize nicht notwendig einen Ausweg aus diesem Problem dar. Viele bürokratische Maßnahmen lassen sich nur unzureichend messen, und die Verwendung einfacher, messbarer Ersatzvariablen kann äußerst schädlich wirken. Ein Blick in die Verwaltungspraxis kann dies schnell bestätigen. Die Politik wünscht sich ein Hochschulsystem, in dem sich die Professoren mit aller Kraft für die Ausbildung der Studierenden einsetzen. Das Ziel besteht darin, Studierende im Rahmen der Regelstudienzeit möglichst hochwertig und anspruchsvoll zu unterrichten, sodass sie am Arbeitsmarkt eine maximale Produktivität entfalten können. Nun lässt sich die Einhaltung der Regelstudienzeit sehr präzise messen, die Qualität der Ausbildung hingegen nicht. So entwickelte die Niedersächsische Landesregierung eine leistungsorientierte Mittelzuweisung an die Hochschulen, die einseitig die Regelstudienzeit in den Vordergrund stellt. Die ökonomische Anreizwirkung einer solchen Maßnahme ist trivial: Sollten die Hochschulen sich den Leistungsanreizen anpassen, werden sie dafür sorgen, dass Studierende kaum oder

550

Mathias Erlei

gar nicht mehr durchfallen. Dies kann im Hörsaal auf zwei Wegen problemlos umgesetzt werden: Entweder man senkt das Niveau der Vorlesungen hinreichend, sodass alle Studierenden die Prüfungen ehrlich bestehen, oder man lehrt weiterhin auf hohem Niveau, lässt aber jeden Studierenden bestehen. Wenn jedoch alle Studierenden wissen, dass sie nicht durchfallen, sinkt ihre Motivation zum fleißigen Lernen. In jedem Fall sinkt die Qualität der Ausbildung, die Hochschulabschlüsse werden an Wert verlieren und die Produktivität der Absolventen wird fallen. Darüber hinaus wird die Bürokratie aufgrund ihres Informationsvorsprungs dazu in der Lage sein, im politischen Sektor ein über den unvermeidlichen Kosten liegendes Budget durchzusetzen. Man wird nachvollziehbare Gründe dafür liefern, warum bestimmte zusätzliche Leistungen angeboten werden sollen, warum dafür zusätzliche Mitarbeiter erforderlich sind und wieso auch das Sachmittelbudget angepasst werden muss. Auf diese Weise steigt das Renommee der bürokratischen Einrichtung und der die Mitarbeiter führenden leitenden Bürokraten. Die dritte Gruppe von Akteuren, die das Verhalten des öffentlichen Sektors prägt, sind die wirtschaftlichen Interessengruppen. Hierunter versteht man Organisationen und Verbände, die das Verhalten grundsätzlich unabhängiger Mitglieder – Individuen, Unternehmen oder ihrerseits Verbände – koordinieren und die Ziele ihrer Mitglieder fördern sollen. Oftmals versuchen organisierte Interessengruppen, den Entscheidungsprozess im politischen Sektor durch Bereitstellung von Informationen, Beeinflussung der öffentlichen Meinung oder direkte Zuwendungen zu beeinflussen. Interessengruppen vertreten natürlich nur das Interesse der Mitglieder und nicht das der gesamten Gesellschaft. Insofern werden die Aktivitäten der Interessengruppen zumeist mit einem gewissen Maß an Skepsis betrachtet. Ein grundlegendes Problem von Interessengruppen besteht im Trittbrettfahrerproblem, das daraus resultiert, dass die entsprechenden Verbände häufig Kollektivgüter für alle mit denselben Interessen ausgestatteten Personen oder Organisationen bereitstellen. Betrachtet man etwa Lobbying-Tätigkeiten eines Branchenverbandes, der gesetzliche Regelungen für den gesamten Markt beeinflusst, dann profitieren von diesen Maßnahmen nicht nur die Verbandsmitglieder, sondern auch die Nichtmitglieder. Insoweit die individuelle Mitgliedschaft einer Person oder eines Unternehmens nicht ausschlaggebend für die Wirksamkeit des Lobbyings ist, besteht für jedes einzelne Wirtschaftssubjekt ein Anreiz, dem Verband nicht beizutreten. Auf diese Weise spart man die Mitgliedsbeiträge, ohne auf die Leistungen des Verbandes verzichten zu müssen. Interessengruppen überwinden dies Problem zumeist durch eine von zwei Strategien: (1) Sie versuchen, über den Gesetzgeber eine Zwangsmitgliedschaft durchzusetzen oder (2) der Verband produziert neben den Kollektivgütern noch private Zusatzleistungen, er generiert damit sogenannte „selektive Anreize“, deren Konsum für die Zahlung des Mitgliedsbeitrags kompensiert. Die selektiven Anreize bestehen nicht selten aus nichtwirtschaftlichen, sozialen Leistungen mit Konsumcharakter, wie zum Beispiel Freizeitveranstaltungen zur Pflege der Freundschaft unter den Mitgliedern.

4 Institutionen

551

Das Trittbrettfahrerproblem kann wesentlich leichter in kleinen Gruppen überwunden werden. Zum einen ist unter Umständen jedes einzelne potentielle Mitglied für den Erfolg des Verbandes erforderlich. Wenn dies so ist, würde mit dem Versuch, eine Trittbrettfahrerstrategie zu verfolgen, die Bereitstellung des Kollektivgutes gefährdet, sodass es in diesen Fällen auch einzelwirtschaftlich rational ist, dem Verband beizutreten. Darüber hinaus ist es für kleine Gruppen leichter, selektive Anreize zu erzeugen. Insbesondere Angebote zur Freundschaftspflege unter den Mitgliedern sind zumeist nur in kleineren Gruppen wirksam. In dem Umfang, wie es vorrangig kleineren Gruppen gelingt, sich in einem Interessenverband zu organisieren, weichen deren partielle Gruppeninteressen mehr vom Allgemeininteresse ab. Da sich die größeren Gruppen oftmals gar nicht organisieren können, entsteht ein Ungleichgewicht zwischen der Vertretung der Interessen kleiner, gut organisierter Gruppen und denen breiter Bevölkerungsschichten. Dies ermöglicht es den Verbänden, eine privilegierte politische oder rechtliche Behandlung der eigenen Mitglieder durchzusetzen, was letztlich zu einer verzerrten, suboptimalen Produktionsstruktur der Volkswirtschaft führt. Trotz dieses kaum bestrittenen Problems erfüllen Interessenverbände eine wichtige gesellschaftliche Funktion, indem sie dem Gesetzgeber unverzichtbare Sachinformationen bereitstellen: Innerhalb eines Interessenverbandes sammelt sich nämlich auch der Sachverstand der Branche, ohne dessen Berücksichtigung viele Gesetzentwürfe mit gravierenden Mängeln zum Schaden von Konsumenten und Produzenten behaftet wären. Auch wenn sich die Verbände ihres Wissensvorsprungs zum eigenen Nutzen bedienen, werden sachwidrige Privilegien durch andere Akteure im öffentlichen Leben – zum Beispiel die Medien – angeprangert und verhindert. Auch die Konkurrenz unter den politischen Parteien sowie die Konkurrenz zwischen unterschiedlichen Rechtsräumen hilft, grobem Missbrauch durch Lobbyingaktivitäten vorzubeugen.

4.6

Weiterentwicklungen

Warum unterscheiden sich die Institutionensysteme in der Welt so stark? Warum gibt es so viele offensichtlich hochgradig ineffiziente Institutionensysteme, in denen extrem hohe Tauschgewinne durch die Beteiligten nicht realisiert werden? Es genügt nicht, darauf hinzuweisen, es gäbe in manchen Gesellschaften Dilemmastrukturen, die dies verhinderten, denn in diesem Fall sollte der Wettbewerbsdruck zwischen den Gesellschaften zu einer Anpassung der unterlegenen Institutionensysteme führen. Dies könnte sowohl durch Druck von innen – in Form von Protesten, Reformen, Abwanderung oder Revolution – oder von außen – als ökonomische oder militärische Übernahme – erfolgen. Offenkundig reichen evolutionäre Kräfte nicht dazu aus, eine Konvergenz der Institutionen zur effizienten Ausgestaltung zu erzwingen. Ein Erklärungsansatz zur Beantwortung dieser Fragen sowie der Problematik, warum manche Institutionen in einigen Ländern überaus vorteilhaft wirken, in anderen jedoch

552

Mathias Erlei

nicht, bezieht sich auf die Fähigkeit von Menschen, Informationen aufzunehmen und zu verarbeiten. Um fehlerfreie Entscheidungen zu treffen, müssten Menschen eine Unmenge von Informationen einholen, die alle Auswirkungen der Entscheidungsalternativen präzise voraussagen können. Dazu gehören alle Informationen über die Ursache-WirkungsZusammenhänge und alle Ausgangsdaten, die diesen Wirkungsmechanismen zugrunde gelegt werden. Neben der Beschaffung all dieser Informationen muss anschließend die Verarbeitung der Informationen erfolgen, um eine objektiv beste Wahl zu treffen. Es ist offensichtlich, dass ein solches Vorgehen undurchführbar ist: Allein der Kauf (oder Nichtkauf) eines Kaugummis würde zu einem nicht zu bewältigendem Problem: Als Informationen benötigte man die Angebote aller Kaugummilieferanten weltweit – vielleicht gäbe es ja einen Anbieter, der seine Kaugummis inklusive Versandkosten verschenkt? –, es müsste geklärt werden, wie sich der Konsum von Kaugummis auf alle nur denkbaren Krankheiten und ihre Eintrittswahrscheinlichkeiten auswirkt, diese Informationen müssten dann noch für alle Kaugummiprodukte getrennt analysiert werden und so weiter. Eine solche Entscheidung zu treffen, bedürfte Millionen von Telefonaten oder Clicks im Internet, die Geld und Zeit in einem Ausmaß kosten, das den Nutzen des Kaugummikonsums bei weitem übertrifft. Auch die Optimierung des Suchprozesses ist mit analogen Problemen behaftet. Um zu wissen, wie viele Suchschritte nach welchem Suchverfahren getätigt werden sollten, und um zu bestimmen, wie genau die Berücksichtigung welcher Variable zu erfolgen hat, müsste geklärt sein, wie hoch die erwarteten Sucherfolge und die erwarteten Nutzen aus der genaueren Informationsverarbeitung ausfallen. Zu ihrer Bestimmung wiederum bedarf es jedoch des Wissens um die Existenz und Verteilung all dieser Informationen. Dieses zu beschaffen ist ebenso unrealisierbar wie die Sachinformationen an sich. Damit ist es offensichtlich prohibitiv teuer und irrational, Entscheidungsverfahren so zu gestalten, das vollkommene Informiertheit und vollkommene Fehlerlosigkeit garantiert ist! Um vernünftig mit den Grenzen der menschlichen Informationsbeschaffungs- und -ver­ ar­ bei­ tungs­ ka­ pa­ zi­ tät umzugehen, muss sich der Mensch darauf beschränken, zur Abschätzung der Folgewirkungen seiner Handlungen stark vereinfachte Theorien zu verwenden, die bewusst nicht alle Interdependenzen und Daten der Realität berücksichtigen. Es müssen mentale Modelle konstruiert werden, die nur eine begrenzte Anzahl von Parametern aufweisen und die nur durch eine geringe Komplexität gekennzeichnet sind. Nur solche Modelle bestehen den Wirtschaftlichkeitstest und sind für die handelnden Menschen von Nutzen. Natürlich sind mentale Modelle nur dann nützlich, wenn sie sich empirisch bewähren, das heißt wenn sie in einer großen Zahl von Anwendungen die wesentlichen Folgewirkungen einigermaßen korrekt erfassen. Der Verzicht auf eine fehlerfreie Entscheidungsfindung durch die Verwendung mentaler Modelle wird in der Literatur als prozedurale Rationalität (North 1990) bezeichnet, da er auch die Kosten des Verfahrens der Entscheidungsfindung berücksichtigt und deshalb der vermeintlich „vollkommen rationalen“ Entscheidungsbildung wirtschaftlich überlegen ist! Erst die prozedurale Rationalität ist rational in einem umfassenden, das heißt alle Kosten berücksichtigenden Sinn.

4 Institutionen

553

Zur Verdeutlichung sei hier angeführt, dass auch die Wissenschaft nur mit einer solchen begrenzt rationalen Vorgehensweise arbeitet. Genau wie bei Alltagsentscheidungen werden auch in der wissenschaftlichen Analyse stark vereinfachende Modelle konstruiert und auf ihre empirische Bewährtheit getestet. Sehr pointiert wurde dies durch Joan Robinson (1962, S. 33) formuliert: „Ein Modell, das die ganze Buntheit der Wirklichkeit berücksichtigte, würde nicht nützlicher sein als eine Landkarte im Maßstab eins zu eins.“ Der wesentliche Unterschied zwischen Wissenschaft und Alltagspraxis ist vorrangig eine Frage des Grades der Komplexität der Modelle sowie der Einhaltung bestimmter wissenschaftlicher Modellierungs- und Testverfahren. Eine zweite Form des wirtschaftlichen Umgangs mit Informationskosten besteht in der Ausübung gewohnheitsmäßigen, habituellen Handelns. Dies besteht darin, Verhaltensweisen, die sich in der Vergangenheit bewährt haben, später ohne erneute bewusste Eignungsprüfung zu wiederholen. Insbesondere bei Entscheidungen von geringer ökonomischer Tragweite, wie zum Beispiel dem Erwerb eines Kaugummis, können auf diese Weise erhebliche Zeit- und Anstrengungskosten eingespart werden, die die mit dem unflexiblen habituellen Handeln verbundenen Effizienzeinbußen deutlich überkompensieren. Da habituelles Handeln und die Verwendung mentaler Modelle ohne Zweifel handlungslenkenden Charakter haben, werden sie schon seit langem in vielen sozialwissenschaftlichen Arbeiten als Institutionen bezeichnet. Inzwischen bestehen auch in der Wirtschaftswissenschaft Bestrebungen, den Institutionenbegriff zu erweitern. So definiert zum Beispiel Greif (2006, S. 30) eine Institution als „System von Regeln, Überzeugungen, Normen und Organisationen, die zusammen Regelmäßigkeiten im (sozialen) Verhalten erzeugen.“ Unabhängig davon, ob man mentale Modelle als Institution ansieht oder nicht, üben sie Wirkungen auf das menschliche Handeln aus. Auf individueller Ebene stellt etwa die Identität eines Menschen, das heißt das Bild, das er von sich selbst hat, ein mentales Modell mit weit reichendem Einfluss auf das Verhalten dar. Akerlof und Kranton (2000; 2002; 2005) zeigen, wie sich die Selbsteinordnung zu bestimmten sozialen Kategorien (als Bestandteile der individuellen Identität) auf das Diskriminierungsverhalten am Arbeitsplatz, sozialen Ausschluss, die Arbeitsteilung innerhalb von Haushalten und das Verhalten in Schulen sowie Militärakademien auswirkt. Werden mentale Modelle von vielen Menschen geteilt, so sollen diese hier als Ideologien (North 1990, S.23; Denzau, North 1994) bezeichnet werden. Der Umstand, dass gewisse Ideologien eine sehr weite Verbreitung in der Gesellschaft haben, verleiht ihnen gegebenenfalls eine große Bedeutung für die Entwicklung der Gesamtwirtschaft. Wären etwa alle Menschen der Überzeugung, Diebstahl sei moralisch einwandfrei und glaubten sie darüber hinaus, dass alle Menschen so dächten und danach handelten, so würde unmittelbar klar, dass jedwede Polizeiorganisation mit dem Durchsetzen von Eigentumsrechten überfordert wäre und Diebstähle nur mit äußerst geringer Wahrscheinlichkeit bestraft würden, selbst wenn ein entsprechendes formales Gesetz, das Diebstahl untersagt, existiert. Dies wiederum würde die Transaktionskosten des Tausches zwischen den

554

Mathias Erlei

handelnden Personen drastisch erhöhen und die Effizienz von Marktprozessen erheblich mindern, wenn nicht gar den vollständigen Zusammenbruch des Marktsystems bewirken. Ideologien beziehen sich natürlich nicht nur auf Normen, sondern auch auf die Funktionsweise des Wirtschaftssystems an sich. Haben sich zu einem Zeitpunkt bestimmte Regeln etabliert, so lernen die Menschen, ihr Handeln den Regeln anzupassen. Die Erfahrung mit diesem angepassten Verhalten prägt die mentalen Modelle über das Verhalten der Mitmenschen und den Ablauf von Wirtschaftsprozessen. Versuchen Politiker oder Wissenschaftler nun, die gesellschaftlichen Institutionen zu optimieren, so werden sie von diesen Modellen ausgehen. Insofern starten sie ihre Analyse nicht von einem neutralen Beobachtungspunkt, sondern vom Status quo der Gesellschaft bzw. ihrer vereinfachenden Modellierungen dieses Zustands, die den eigenen Erfahrungen möglichst weitgehend entsprechen wird. Eine andere Gesellschaft mit anderen Regeln und anderen Verhaltensmustern der Bürger würde aller Voraussicht zu anderen Ideologien über die Wirkung von Reformmaßnahmen kommen und folglich andere Politikmaßnahmen umsetzen. Im Anschluss an eine Reform der Institutionen erfolgt eine Verhaltensanpassung an die neuen Regeln. Nicht selten werden die komplexen Interaktionen einer großen Gesellschaft zu Effekten führen, die durch die zuvor verwendeten Ideologien nicht erklärt werden können. Die dabei entstehenden Verhaltensmuster werden in modifizierten Ideologien rekonstruiert, was zu neuen Reformen führt und so weiter. Jeder einzelne Schritt in solchen Prozessen des gesellschaftlichen Wandels ist vom jeweiligen Standpunkt – bestehend aus Regeln, Verhaltensmustern und Ideologien – abhängig. Er ist damit nicht beliebig sondern pfadabhängig, das heißt durch die historische Entstehung des Zustands beeinflusst. Werden Ideologien aus anderen Kulturkreisen unverändert auf eine andere Gesellschaft übertragen – in mancherlei Hinsicht könnte man dies für die Transformationsländer nach dem Zusammenbruch des Ostblocks behaupten – läuft die Gesellschaft großes Risiko, dass die individuellen mentalen Modelle der Bürger und ihre informellen Normen nicht gut mit der Wirkungsweise des neuen Institutionensystems harmonieren und die Wirkung der Reformen deutlich von den angestrebten Zielen abweicht. Erschwerend kommt hinzu, dass Institutionen durch steigende Skalenerträge gekennzeichnet sind (North 1990, S. 95 ff.): Hohe Kosten der Einrichtung von Institutionen verbieten zu häufige weitreichende Reformen. Umfassende institutionelle Neugestaltungen verursachen während des Lernprozesses zur Anpassung an das neue System einzelwirtschaftliche Fehlentscheidungen mit Lernkosten: Diese betreffen sowohl die isolierte Wirkung eigener Handlungen als auch nicht vorhergesehene Reaktionen der Mitmenschen. Sollten solche Fehlentscheidungen systematischer Natur sein, können lange Lern- und Anpassungsumwege die Folge sein. Dies dürfte eine der zentralen Ursachen dafür sein, dass der institutionelle Wandel zumeist in kleinen inkrementellen Schritten vollzogen wird. In der modernen Wirtschaftswissenschaft befindet sich die Analyse des Zusammenhangs zwischen mentalen Modellen, Ideologien, Regeln (als Institutionen im engeren Sinn) und der wirtschaftlichen Entwicklung noch immer in den Anfängen. Nachbarwissenschaften wie zum Beispiel die Soziologie sind an dieser Stelle weiter und sie zeigen das

4 Institutionen

555

große Potential dieses Forschungsgebiets auf. So hat Max Weber (2000) in seinem bahnbrechenden Werk „Die protestantische Ethik und der ‚Geist’ des Kapitalismus“ Wirkungszusammenhänge zwischen Religion, Wirtschaftsethik und Kapitalismus aufgezeigt, die der Ideologie des asketischen Protestantismus eine zentrale Rolle bei der Entwicklung der westlichen Industrienationen zuweisen. Stark (2005) spannt den Bogen noch weiter: er sieht schon in dem Bestreben der mittelalterlichen katholischen Kirche, sich durch Erforschung der Welt Gott anzunähern, den Samen aus dem später die Frucht der modernen Marktwirtschaften hervorgeht. Wer immer von beiden der Wahrheit näher steht: beide Soziologen untersuchen die Rolle mentaler Modelle als Voraussetzungen für Entstehung, Funktionsfähigkeit und Bestandsperspektiven des Kapitalismus. Diese Problematik muss als eine originär wirtschaftswissenschaftliche angesehen werden. Insofern ist zu vermuten, dass die entsprechenden Fragen zukünftig vermehrt Eingang in die ökonomische Analyse von Institutionen finden werden.

4.7

Kommentierte Literaturhinweise

Umfassende Einführungen in die Institutionenökonomik finden sich bei Erlei u.a. (2016) sowie Richter; Furubotn (2010). Ein sehr gelungenes Lehrbuch, das sich auf den Bereich privater Verträge und der Theorie der Unternehmung konzentriert, dafür aber eine Vielzahl sehr anschaulicher Fallbeispiele beinhaltet, ist Milgrom; Roberts (1992). Acemoglu; Robinson (2012) liefern ein leicht lesbares und unterhaltsames Buch, das die Bedeutung von Institutionen auf sozialer Ebene besonders gut veranschaulicht. Das vielleicht einflussreichste Buch zur Theorie der Unternehmung stellt Williamson (1985) dar. Für jeden Institutionenökonomen stellt dieses Buch Pflichtlektüre dar. Herausragende Beiträge zu Institutionen aus gesamtgesellschaftlicher Sicht sind Hodgson (2015) und North u.a. (2009). Hodgson verdeutlicht vorbildlich, inwieweit bestimmte Institutionen konstituierende Merkmale des Kapitalismus sind. Interessanterweise kommen hier viele Parallelen zu Eucken (1990), den man auch heute noch uneingeschränkt empfehlen kann, zum Vorschein. North u.a. (2009) liefern eine Theorie der Entstehung moderner offener Gesellschaften (open access societies).

556

Mathias Erlei

Literaturverzeichnis Akerlof, George A.; Rachel E. Kranton (2000), Economics and Identitity, in: Quarterly journal of economics, 115 (3), S. 715-753. Akerlof, George A.; Rachel E. Kranton (2002), Identity and Schooling: Some Lessons for the Economics of Education, Journal of Economic Literature, 40 (4), S. 1167-1201. Akerlof, George A.; Rachel E. Kranton (2005), Identity and Economics of Organisations, in: Journal of Economic Perspectives, 19 (1): S. 9–32. Alesina, Alberto (1987), Macroeconomic Policy in a Two-Party System as a Repeated Game, in: Quarterly Journal of Economics, 102 (3), S. 651-678. Alesina, Alberto; Nouriel Roubini; Gerald D. Cohen (1997), Political Cycles and the Macroeconomy, MIT Press: Cambridge, Mass. Behrens, Christian-Uwe; Matthias Kirspel (1999), Grundlagen der Volkswirtschaftslehre: Einführung, Oldenbourg: München, Wien. Buchanan, James M. (1959), Positive economics, welfare economics, and political economy, in: Journal of Law & Economics, 2 (1959): 124–138. Buchanan, James M. (1984), Die Grenzen der Freiheit: Zwischen Anarchie und Leviathan, Mohr: Tübingen. Calabresi, Guido (1970), The Costs of Accidents: A Legal and Economic Analysis, Yale Univ. Press: New Haven. Che, Yeon-koo; Donald B. Hausch (1999), Cooperative Investments and the Value of Contracting, in: American Economic Review, 89 (1), S. 125–147. Coase, Ronald. H. (1960), The Problem of Social Cost, in: Journal of Law & Economics, 3, S. 1–44. De Meza, David E.; Ben Lockwood (1998), Does asset ownership always motivate managers?: Outside options and the property rights theory of the firm, in: Quarterly Journal of Economics, 113 (2), S. 361-386. Demsetz, Harold M. (1967), Toward a theory of property rights, in: American Economic Review, 57 (2): 347–359. Demsetz, Harold M. (1988), The theory of the firm revisited, in: Journal of Law, Economics, & Organization, 4 (1), S. 141-161. Denzau, Arthur T.; Douglass C. North (1994), Shared mental models: Ideologies and institutions, in: Kyklos, 47 (1), S. 3-31. Erlei, Mathias (1998), Institutionen, Märkte und Marktphasen: Allgemeine Transaktionskostentheorie unter spezieller Berücksichtigung der Entwicklungsphasen von Märkten, Mohr Siebeck: Tübingen. Erlei, Mathias; Martin Leschke; Dirk Sauerland (2016), Institutionenökonomik, 3., überarbeitete Auflage, Schäffer-Poeschel Verlag: Stuttgart. Eucken, Walter (1990), Grundsätze der Wirtschaftspolitik, 6. Aufl., Mohr: Tübingen.

4 Institutionen

557

Foss, Kirsten; Nicolai J. Foss; Peter G. Klein; Sandra K. Klein (2007), The entrepreneurial organization of heterogeneous capital, in: Journal of Management Studies, 44 (7), S. 1165–1186. Foss, Nicolai J.; Peter G. Klein (2005), Entrepreneurship and the economic theory of the firm: Any gains from trade?, in: Handbook of Entrepreneurship Research: Interdisciplinary Perspectives, International Handbook Series on Entrepreneurship, 1, Springer: New York, S. 55–80. Foss, Nicolai J.; Peter G. Klein (2012), Organizing entrepreneurial judgment: A new approach to the firm, Cambridge Univ. Press: Cambridge. Greif, Avner (2006), Institutions and the Path to Modern Economy: Lessons from Medieval Trade, Cambridge Univ. Press: Cambridge. Grossekettler, Heinz (1997), Die Wirtschaftsordnung als Gestaltungsaufgabe: Entstehungsgeschichte und Entwicklungsperspektiven des Ordoliberalismus nach 50 Jahren Sozialer Marktwirtschaft, Lit: Münster. Hart, Oliver (1995), Firms, Contracts and Financial Structure, Clarendon Press: Oxford. Hayek, Friedrich A. (1945), The use of knowledge in society, in: American Economic Review, 35 (4), S. 519–530. Hayek, Friedrich A. (1968), Der Wettbewerb als Entdeckungsverfahren, Inst. für Weltwirtschaft: Kiel. Hayek, Friedrich A. (1981), Recht, Gesetzgebung und Freiheit: Eine neue Darstellung der liberalen Prinzipien der Gerechtigkeit und der politischen Ökonomie, Verl. Moderne Industrie: Landsberg am Lech. Hibbs, Douglas A. (1977), Political Parties and Macroeconomic Policy, in: American Political Science Review, 71, S. 1467–1487. Hodgson, Geoffrey M. (1998), Evolutionary and competence-based theories of the firm, in: Journal of Economic Studies, 25 (1), S. 25-56. Hodgson, Geoffrey Martin (2015), Conceptualizing Capitalism: Institutions, Evolution, Future, Univ. of Chicago Press: Chicago, Ill. Holmström, Bengt R.; Paul R. Milgrom (1987), Aggregation and linearity in the provision of intertemporal incentives, in: Econometrica, 55 (2), S. 303-328. Holmström, Bengt R.; Paul R. Milgrom (1991), Multitask principal-agent analyses: Incentive contracts, asset ownership, and job design, in: Journal of Law, Economics, & Organization, 7, S. 24-52. Holmström, Bengt R.; Paul R. Milgrom (1994), The firm as an incentive system, in: American Economic Review, 84 (4), S. 972-991. Kirzner, Israel M. (1966), An Essay on Capital, 1. ed., Kelley: New York. Kirzner, Israel M. (1979), Perception, Opportunity and Profit: Studies in the theory of entrepreneurship, Univ. of Chicago Press: Chicago. Kirzner, Israel M. (1973), Competition and Entrepreneurship, Univ. of Chicago Press: Chicago, London.

558

Mathias Erlei

Klein, Peter G.; Nicolai J. Foss (2008), The unit of analysis in entrepreneurship research: Opportunities or investments?, in: International Journal of Entrepreneurship Education, 6 (3), S. 145–169. Lachmann, Ludwig M. (1956), Capital and its Structure, Bell: London. Lange, Oskar (1936), On the Economic Theory of Socialism: Part One, in: Review of Economic Studies, 4 (1), S 53-71. Langlois, Richard N. (1992), Transaction-cost Economics in Real Time, in: Industrial and Corporate Change, 1 (1), S. 99–127. Leacock, Eleanor B. (1954), The montagnais “Hunting territory” and the fur trade, American Anthropological Memoir 78. Lewin, Peter (1999), Capital in Disequilibrium: The Role of Capital in a Changing World, Routledge: London, New York. Maskin, Eric (2002), On indescribable contingencies and incomplete contracts, in: European Economic Review, 46 (4/5), S. 725–733. Maskin, Eric; John Moore (1999), Implementation and renegotiation, in: Review of Economic Studies, 66 (1), S. 39-56. Maskin, Eric; Jean Tirole (1999), Unforeseen contingencies and incomplete contracts, in: Review of Economic Studies, 66 (1), S. 83-114. Mises, Ludwig von (1940), Nationalökonomie, Theorie des Handelns und Wirtschaftens, Éditions Union: Genf. Montesquieu, Charles-Louis (1748), De l’esprit des loix: Genève. Nash, John F. (1950), The bargaining problem, in: Econometrica, 18, S. 155–162. Nash, John F. (1951), Non-Cooperative Games, in: Annals of Mathematics, 54 (2), S. 286–295. Nöldeke, Georg; Klaus M. Schmidt (1995), Option contracts and renegotiation: A solution to the hold-up problem, in: Rand Journal of Economics, S. 163–179. Nordhaus, William D. (1975), The political business cycle, in: Review of Economic Studies, 42 (2), S. 169–190. North, Douglass C. (1988), Theorie des institutionellen Wandels: Eine neue Sicht der Wirtschaftsgeschichte, J.C.B. Mohr (Paul Siebeck): Tübingen. North, Douglass C. (1990), Institutions, Institutional Change and Economic Performance, Cambridge Univ. Press: Cambridge. North, Douglass C.; Robert Paul Thomas (1973), The Rise of the Western World: A New Economic History, Univ. Press: Cambridge. North, Douglass C.; John Joseph Wallis; Barry R. Weingast (2009), Violence and Social Orders: A Conceptual Framework for Interpreting Recorded Human History, Cambridge Univ. Press: Cambridge. Olson, Mancur (1965), The Logic of Collective Action: Public goods and the Theory of Groups, Harvard University Press: Cambridge, Mass.

4 Institutionen

559

Olson, Mancur (1991), Aufstieg und Niedergang von Nationen: Ökonomisches Wachstum, Stagflation und soziale Starrheit, 2., durchges. Aufl., Mohr Siebeck: Tübingen. Penrose, Edith T. (1959), The Theory of the Growth of the Firm, Wiley: New York. Rawls, John (1971), A Theory of Justice, Belknap Press of Harvard Univ. Press: Cambridge, Mass. Reinhold, Christian (2012), Der Referenzpunktansatz in der Theorie der Unternehmung: Vertragstheoretische Grundlagen und experimentelle Evidenz, Kovač: Hamburg. Richardson, George B. (1972), The organisation of industry, in: Economic Journal, 82, S. 883–896. Robinson, Joan (1962), Essays in the Theory of Economic Growth, Macmillan: London. Siemer, J. Philipp (2004), Vertikale Integration oder Kooperation?: Optimale strategische Entscheidungen im Spannungsfeld von Spezifität und Know-how, Deutscher Universitätsverlag: Wiesbaden. Stark, Rodney (2005), The Victory of Reason: How Christianity Led to Freedom, Capitalism, and Western Success, 1. ed., Random House: New York, NY. Teece, David J.; Gary Pisano; Amy Shuen (1997), Dynamic capabilities and strategic management, in: Strategic Management Journal, 18 (7), S. 509–533. Weber, Max (1923), Wirtschaftsgeschichte: Abriß der universalen Sozial- und Wirtschaftsgeschichte, Duncker & Humblot: München, Leipzig. Weber, Max (1972), Wirtschaft und Gesellschaft, Mohr: Tübingen. Weber, Max (2000), Die protestantische Ethik und der „Geist“ des Kapitalismus: Textausgabe auf der Grundlage der ersten Fassung von 1904/05 mit einem Verzeichnis der wichtigsten Zusätze und Veränderungen aus der zweiten Fassung von 1920, 3. Aufl., Beltz Athenäum: Weinheim. Williamson, Oliver E. (1975), Markets and hierarchies: analysis and antitrust implications: A study in the economics of internal organization, Free Press: New York, NY. Williamson, Oliver E. (1996), The mechanisms of governance, Oxford Univ. Press: New York, NY. Williamson, Oliver E. (1985), The economic institutions of capitalism: Firms, markets, relational contracting, Free Press: New York, NY. Williamson, Oliver E. (1998), The institutions of governance, in: American Economic Review, 88 (2), S. 75-79.

5

Umweltökonomik Roland Menges

Gliederung 5.1

5.2

5.3

5.4

Einführung ......................................................................................................... 565 5.1.1 Umweltökonomik als Teildisziplin der Volkswirtschaftslehre..... 565 5.1.2 Übersicht über diesen Beitrag.......................................................... 567 Interaktion von Ökonomie und Umwelt: Problemstellungen...................... 568 5.2.1 Physikalische Restriktionen und Durchflussmodelle.................... 568 5.2.2 Die allokationstheoretische Perspektive: Umweltökonomisches Basismodell................................................. 574 5.2.3 Schlussfolgerungen für Gegenstand und Aufgaben der Umweltökonomik ............................................................................. 582 5.2.4 Umweltökonomische Forschungsbereiche..................................... 583 Ethische Aspekte der Behandlung des Umweltproblems.............................. 584 5.3.1 .............................................................................................................. Naturalistische versus humanistische Moralphilosophie............. 584 5.3.2 Nachhaltigkeit als normatives Kriterium der Umweltpolitik....... 588 5.3.3 Schwache versus starke Nachhaltigkeit........................................... 589 5.3.4 Die Position der Ökologischen Ökonomik: Starke Nachhaltigkeit als physisches Konservierungskonzept..... 590 5.3.5 Differenz der Wertaussagen: Ein Beispiel aus der Umweltökonomischen Gesamtrechnung....................................... 592 5.3.6 Umweltschutz, Utilitarismus und Pareto-Verbesserungen ......... 594 Umweltqualität als öffentliches Gut................................................................. 597 5.4.1 Abgrenzungen ökonomischer Güter............................................... 597 5.4.2 Die optimale Menge des öffentlichen Gutes .................................. 606 5.4.3 Marktversagen bei dezentraler Bereitstellung des öffentlichen Gutes....................................................................... 608

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 T. Apolte et al. (Hrsg.), Kompendium der Wirtschaftstheorie und Wirtschaftspolitik I, https://doi.org/10.1007/978-3-658-21777-8_5

561

562

Roland Menges

5.4.4 5.4.5 5.4.6 5.4.7

5.5

5.6

5.7

5.8

Probleme der zentralen Bereitstellung............................................ 610 Personalisierte Umweltpreise........................................................... 611 Steuerpreise des öffentlichen Gutes Umweltqualität..................... 612 Die Differenz von Bereitstellungs- und Finanzierungsentscheidung und das Informationsproblem der Umweltpolitik..................................................................................... 615 5.4.8 Umweltqualität als meritorisches Gut ............................................ 616 Externe Effekte.................................................................................................... 621 5.5.1 Kategorisierung externer Effekte...................................................... 621 5.5.2 Marktversagen aufgrund externer Effekte...................................... 622 5.5.3 Der Ansatz von Pigou zur Internalisierung externer Effekte ...... 626 5.5.4 Standardorientierte Instrumente..................................................... 636 5.5.5 Das Coase-Theorem.......................................................................... 640 5.5.6 Allokations- und Verteilungswirkungen von Pigou-Steuern und Coase-Verhandlungen im Vergleich............. 648 5.5.7 Öffentliche Güter und externe Effekte in simultaner Betrachtung..................................................................... 653 Umweltpolitik..................................................................................................... 663 5.6.1 Umweltpolitische Ziele und Prinzipien .......................................... 663 5.6.2 Kategorisierung umweltpolitischer Instrumente........................... 668 5.6.3 Umweltpolitische Handlungsfelder: Klimapolitik und erneuerbare Energien......................................... 671 Die Bewertung von Umweltgütern.................................................................. 682 5.7.1 Methodologische Aspekte von umweltökonomischen Bewertungsproblemen...................................................................... 682 5.7.2 Kategorisierung von Umweltwerten bei der Präferenzerhebung ............................................................... 686 5.7.3 Direkte und indirekte Methoden der Präferenzerhebung............ 689 5.7.4 Besonderheiten bei der Erhebung von Präferenzen für Umweltgüter........................................................... 697 Kommentierte Literaturhinweise..................................................................... 698

Literaturverzeichnis........................................................................................................ 700

5 Umweltökonomik

563

Verzeichnis der in diesem Beitrag verwendeten Symbole und Variablen AR ÄV

Durchschnittsertrag („Average Revenue“) äquivalente Variation (nach Hicks)

C Kosten e Emissionen F Produktionsfunktion GW Grenzwertregulierung i Individuum (Index) I Indifferenzkurve l Arbeit (Produktionsfaktor) KV

kompensatorische Variation (nach Hicks)

MC MCA MEC MR MSC MU

Grenzkosten („Marginal Cost“) Grenzvermeidungskosten („Marginal Cost of Abatement”) Grenzschadenskosten („Marginal External Cost“) Grenzertrag („Marginal Revenue“) soziale Grenzkosten („Marginal Social Cost”) Grenznutzen („Marginal Utility”)

n

Anzahl von Individuen

Q

öffentliches Gut

U

Nutzen („Utility“)

VHB Verhandlungsbereitschaft W WTA WTP

Wohlfahrt („Welfare“) minimaler Verkaufspreis/ Kompensationsforderung („Willingness to Accept“) maximale Zahlungsbereitschaft („Willingness to Pay“)

X

privates Gut

Y Einkommen

564

Π Gewinn τ Steuersatz

Roland Menges

5 Umweltökonomik

5.1

Einführung

5.1.1

Umweltökonomik als Teildisziplin der Volkswirtschaftslehre

565

Die Volkswirtschaftslehre beschäftigt sich grundsätzlich und in allen Teildisziplinen, wie sie in diesem Band vorgestellt werden, mit Entscheidungsproblemen, die im Zuge der Bereitstellung und Verteilung von knappen Gütern und Ressourcen entstehen. Die Hauptsätze der Wohlfahrtsökonomik kommen in diesem Zusammenhang zu dem Ergebnis, dass wettbewerbliche Märkte in der Lage sind, die individuellen Entscheidungen so zu koordinieren, dass sich im Hinblick auf die individuellen Bedürfnisse Ergebnisse einstellen, die auch aus sozialer Sicht wünschenswert sind. Die Ergebnisse des Marktmechanismus sind als effizient anzusehen, da sie nicht in dem Sinne verbessert werden können, dass der Nutzen aller Individuen erhöht werden kann, oder zumindest der Nutzen einiger Individuen verbessert werden kann, ohne dass gleichzeitig der Nutzen anderer sinkt. Mitunter wird aus dieser Perspektive die naive Vorstellung abgeleitet, Ökonomik sei die Wissenschaft von Märkten. Diese Gleichsetzung von Ökonomik und Märkten ist aber falsch, weil Märkte als Allokationsmechanismen eben kein eigenständiges Ziel, sondern lediglich Mittel zur Realisation sozial erwünschter Ergebnisse darstellen. Die Bedingungen, unter denen Märkte in der Lage sind, diese Ergebnisse zu produzieren, werden in den o.g. Hauptsätzen der Wohlfahrtsökonomik beschrieben. Werden diese Bedingungen verletzt, ist davon auszugehen, dass Märkte nicht dazu in der Lage sind, die erwünschten Ergebnisse zu produzieren und dass alternative Allokationsmechanismen und staatliche Eingriffe auf Märkten möglicherweise zu besseren Ergebnissen führen. Vor diesem Hintergrund wird oftmals das Aufgabengebiet der Umweltökonomik als Teildisziplin der Ökonomik in der Untersuchung der Bedingungen verortet, unter denen die Hauptsätze der Wohlfahrtsökonomik Geltung beanspruchen können (Sturm und Vogt 2011, vgl. auch den Beitrag M von Schmidt zur Theorie der Wirtschaftspolitik im dritten Band des Kompendiums). Die Bewältigung von Marktversagen, das sich aus negativen externen Effekten im Bereich der privaten Produktions- und Konsumentscheidungen ergibt, die sog. Internalisierung externer Effekte, wird häufig zum „Leitbild der Umweltpolitik“ (Endres 2013) erklärt. Überspitzt formuliert stellt das Umweltproblem aus dieser ökonomischen Sicht nur insofern etwas Besonderes dar, weil hier die Spezialfälle dominieren, die mit dem Auseinanderfallen privater und sozialer Kosten, dem Trittbrettfahrerverhalten oder der Nicht-Ausschließbarkeit bei der Nutzung knapper Ressourcen zusammenhängen. Diese wohlfahrtsökonomische Perspektive betrachtet die Welt oftmals vereinfachend aus der Sicht einer zentralen Regierung bzw. eines wohlwollenden, ausschließlich am Gemeinwohl orientierten Diktators. Es wird die objektive Existenz und die Kenntnis eines auf den individuellen Präferenzen basierenden Optimalzustandes angenommen. Zudem wird vorausgesetzt, dass die Politik über die Mittel verfüge, die gesellschaftlichen Prozesse so zu steuern, dass sich das gewünschte Wohlfahrtsmaximum einstelle. Umweltpolitik ist damit ein Teil der Ordnungspolitik ‑ im Grunde gibt es bei dieser Betrachtung gar keine eigenständigen umweltpolitischen Ziele. „Soweit der Ressourcenverbrauch negative externe

566

Roland Menges

Wirkungen erzeugt, ist die Umweltpolitik gefordert. Die Umweltpolitik steht nicht neben der Wirtschafts- und Sozialpolitik, sondern sie ist Teil der Wirtschafts- und Sozialpolitik. Sie ist entweder Umweltallokationspolitik (Internalisierung der Externalitäten) oder Umweltverteilungspolitik (z. B. intergenerative Verteilungsgerechtigkeit). Das Optimum, das sich ergibt, wenn alle Externalitäten internalisiert und das Verteilungsziel erreicht ist, ist automatisch zugleich das ökologische Optimum. Es gibt kein ökologisches Optimum neben dem allokativen und dem distributiven Optimum.“ (Vaubel 1996, S. 168). Wie in einem guten Western die US-Kavallerie gegen das Böse kämpft, um Recht und Ordnung wieder herzustellen, so schreitet die Politik ein, wenn der Markt bei der Realisierung des Wohlfahrtsoptimums versagt (Sugden 1986). Die moderne Umweltökonomik lässt sich allerdings nicht auf einen Reparaturbetrieb im Marktversagensfall reduzieren. Auch wenn manches dafür spricht, die klassische Arbeitsteilung zwischen dem „Markt“ und dem „Staat“ als Orientierung nicht grundsätzlich in Frage zu stellen, scheint ein derart dualistisches Weltbild in den modernen Wirtschaftswissenschaften nicht mehr angemessen. Dies liegt insbesondere daran, dass die aus Sicht der Ökonomik nach wie vor zentralen Begriffe von Bedürfnissen und Ressourcen, deren Differenz ja gerade die Knappheit als Kern des ökonomischen Problems identifiziert, zunehmend weiter gefasst werden. Während etwa in der Verhaltensökonomik in jüngerer Zeit auch vermeintlich nicht-ökonomische Motive wie soziale Präferenzen oder bestimmte Altruismus-Motive als Gegenstand von individuellen Nutzenfunktionen behandelt werden, äußern sich derartige Weiterentwicklungen auch in der Umweltökonomik. So werden beispielsweise nicht-nutzungsabhängige Werte wie individuelle Options- oder Vermächtniswerte bei der Bewertung von natürlichen Ressourcen berücksichtigt (Bishop und Heberlein 1979, Cummings et al. 1986) oder bei Lösungsvorschlägen zur Überwindung der Übernutzung von Common-Property-Ressourcen wird zunehmend auch die Möglichkeiten freiwilliger kooperativer Regelungen ohne zentralstaatliche Eingriffe ausgelotet (Ostrom 1999). Die Untersuchung der Interdependenzen und Interaktionen zwischen dem menschlichen Handeln und der Umwelt stellt den Gegenstand der Umweltökonomik dar. Diese Interdependenzen sind in Form von Umweltproblemen wie Gewässerverschmutzungen, Artensterben, saurem Regen oder dem Klimawandel in den letzten Jahren zu einem zentralen gesellschaftlichen Thema geworden. Neben der Umweltökonomik widmen sich auch viele andere Wissenschaften, wie etwa die Biologie, die Physik oder die Ökologie, der Analyse derartiger Umweltprobleme. Die Umweltökonomik unterscheidet sich von den naturwissenschaftlich geprägten Ansätzen letztlich dadurch, dass sie das ökonomische Verhaltensmodell zur Erklärung des Zustandekommens von Umweltproblemen und zur Entwicklung von Lösungsmöglichkeiten nutzt. Die Notwendigkeit, diese Analyse nicht etwa im Rahmen der Mikroökonomik, sondern einer eigenen Teildisziplin der Ökonomik zu betreiben, ergibt sich dabei aus den Besonderheiten des Begriffs Umwelt, die nicht einfach auf die Bedeutung eines klassischen Produktionsfaktors wie Boden, Arbeit und Kapital reduziert werden kann.

5 Umweltökonomik

5.1.2

567

Übersicht über diesen Beitrag

Dieser Beitrag ist wie folgt gegliedert: Im zweiten Kapitel wird das Untersuchungsobjekt „Umwelt“ in Bezug auf seine Interaktion mit der Ökonomie abgegrenzt. Hier sind im Wesentlichen zwei Perspektiven voneinander zu unterscheiden. Einerseits wird Umwelt unter Betonung naturwissenschaftlicher Restriktionen (wie etwa den Hauptsätzen der Thermodynamik) als Durchflusssystem abgebildet, in welches die Ökonomie als Teilsystem in Bezug auf die Entnahme und Abgabe von Stoffen und Ressourcen eingeordnet wird. Andererseits betont eine allokationstheoretische Betrachtung aus Sicht der Individuen eher eine funktionale Betrachtung der Umwelt. Aus diesen unterschiedlichen Perspektiven ergeben sich jeweils auch unterschiedliche Gewichtungen und Schlussfolgerungen in Bezug auf die Aufgabenstellungen der Umweltökonomik. Im Rahmen der allokationstheoretischen Analyse wird zudem aus der gesellschaftlichen Nutzungsrivalität um die verschiedenen Umweltfunktionen ein umweltökonomisches Grundmodell entwickelt, welches in verschiedenen Varianten in den weiteren Kapiteln zum jeweiligen Ausgangspunkt der Analyse herangezogen wird. Im dritten Kapitel werden die ethischen Grundlagen der Umweltökonomik diskutiert. Neben einer Unterscheidung in naturalistische und humanistische Wertekonzepte erfolgt in diesem Kapitel insbesondere eine differenzierte Diskussion des weite Teile der Umwelt- und Ressourcenökonomik prägenden Nachhaltigkeitsbegriffs. Das vierte und fünfte Kapitel stellen den theoretischen Kern der Umweltökonomik dar. Umweltprobleme werden als Marktversagensprobleme dargestellt, die bei der Bereitstellung öffentlicher Umweltgüter (viertes Kapitel) oder bei externen Effekten (fünftes Kapitel) entstehen. Es wird gezeigt, dass zwischen der Theorie der externen Effekte und der öffentlichen Güter, ihren Problembefunden und den vorgeschlagenen Lösungsansätzen in der Umweltökonomik ein enger Zusammenhang besteht. Im sechsten Kapitel werden die bereits zuvor aus theoretischer Sicht hergeleiteten Instrumente in einen gemeinsamen umweltpolitischen Kontext eingeordnet und den verschiedenen umweltpolitischen Prinzipien (wie etwa dem Verursacherprinzip) gegenüber gestellt. Beispielhaft wird hierbei auf das umweltpolitische Handlungsfeld der Klimapolitik eingegangen. Das abschließende siebte Kapitel greift die bereits im vierten Kapitel aufgeworfene Frage nach der Bewertung von öffentlichen Umweltgütern auf. Neben den methodologischen wohlfahrtsökonomischen Grundlagen der Bewertungsverfahren von nicht-marktfähigen Gütern wird hier auf die Besonderheiten der bei der Bewertung von Umweltgütern zum Einsatz kommenden direkten und indirekten Verfahren eingegangen.

568

Roland Menges

5.2

Interaktion von Ökonomie und Umwelt: Problemstellungen

5.2.1

Physikalische Restriktionen und Durchflussmodelle

Aus ökologischer Perspektive lässt sich die Interaktion zwischen dem menschlichen Handeln und der Natur abbilden, wenn man die Ökonomie als Durchflusssystem im Rahmen von Input-Output-Analysen darstellt (Cansier 1996, Perman et al. 2011, Siebert 2010). Im Vordergrund der Betrachtung stehen hierbei die Umweltmedien Luft, Gewässer und Boden als Trägersubstanzen der natürlichen Umwelt. Grundsätzliche ökologische Erkenntnisse, wonach jedes Lebewesen neben dem von ihm beanspruchten Lebensraum seiner Umwelt Energie und Stoffe entzieht, diese Substanzen aber in veränderter Form auch wieder an seine Umwelt abgibt, legen zwei Schlussfolgerungen nahe: • Erstens sind alle Lebewesen als Durchflusssysteme zu betrachten • und zweitens muss die Umwelt jederzeit in der Lage sein, die Lieferung und die Aufnahme von Stoffen und Energien zu gewährleisten. Für den Menschen bedeutet dies, dass die Umwelt ihn mit natürlichen Gütern versorgt, die als Produktionsfaktoren oder Konsumgüter von ihm verwendet werden. Hierzu zählen natürliche Ressourcen wie Licht, Wärme, Sauerstoff oder der Schutz vor schädlicher Strahlung, aber auch Rohstoffe wie Kohle, Erdgas, Erdöl oder Pflanzen und Tiere als Nahrungsmittel. Gleichzeitig ist zu berücksichtigen, dass im Wirtschaftssystem bei der Umwandlung dieser Ressourcen in Konsum vielfältige Abfallstoffe und Emissionen anfallen, die an die Umweltmedien wieder abgegeben werden. Nimmt man ein sich selbst organisierendes Ökosystem an, so existieren hier autonome Regelungssysteme, innerhalb derer Stoffe und Energien, die von Lebewesen abgegeben werden, von anderen Lebewesen wieder aufgenommen und verwertet werden. Die Vorstellung, dass Ökosysteme bei Abwesenheit menschlicher Eingriffe als stabile, harmonische ökologische Gleichgewichte betrachtet werden können, und dass bereits die Existenz menschlicher Gesellschaften, die nicht nach diesem Prinzip organisiert sind, eine Störung dieser Regelungsfunktionen darstellen, ist allerdings mit einem modernen naturwissenschaftlichen Verständnis nicht vereinbar. Stabile, zu konservierende, oder sogar optimale Zustände der Natur sind unwissenschaftlich und dem heutigen dynamischen Verständnis von Ökosystemen nicht kompatibel. Vielmehr handelt es sich bei der Vorstellung ökologischer Gleichgewichte um Wertaussagen und funktionale Annahmen, die während des 17. Jahrhunderts angesichts neuerer naturwissenschaftlicher Erkenntnisse vorwiegend in der Theologie entwickelt wurden (Egerton 1973). Fasst man die menschlichen Aktivitäten im System der Ökonomie zusammen, so lassen sich die Austauschbeziehungen innerhalb der Ökonomie und zwischen der Ökonomie und der Umwelt in Form von Masse- und Energieflüssen darstellen (Perman et al. 2011). Im Rahmen der in Deutschland vom Statistischen Bundesamt jährlich vorgelegten Umweltökonomischen Gesamtrechnungen (Statistisches Bundesamt 2012) werden

5 Umweltökonomik

569

beispielsweise die Wechselwirkungen zwischen der Ökonomie und der Umwelt in Form von Durchflussrechnungen erfasst, bei der das sog. Naturvermögen einerseits als Input für die Wirtschaftsprozesse betrachtet wird, dessen Bestand zudem durch die Abgabe von Rest- und Schadstoffen verändert wird. In Abbildung 5.1 werden diese Wechselwirkungen zusammengefasst. Die Nutzung des Naturvermögens wird hierbei ähnlich wie die Nutzung des produzierten Kapitalstocks erfasst. In dieser Grafik zeigt sich aus ökonomischer Sicht auch das grundsätzliche Messproblem dieser Art von bilanziellen Input-Output-Rechnungen, da neben den mengenmäßigen Veränderungen von Strom- und Bestandsgrößen zur Bestimmung der „Abnutzung“ des Naturvermögens letztlich auch ein Wertansatz notwendig ist: • Einerseits können die Einwirkungen des Menschen auf die natürliche Umwelt rein quantitativ erfasst werden, indem beispielsweise die Entnahme nicht erneuerbarer Rohstoffe, der Flächenverbrauch oder die Abgabe bestimmter Schadstoffe in physischen Einheiten wie Tonnen (z.B. bei Luftemissionen) oder Terajoule (TJ) oder km2 beim Flächenverbrauch gemessen werden.

Umwelt Wirtschaft Entnahme von Rohstoffen, Nutzung von Dienstleistungen des Naturvermögens

Konsumgüter

Private Haushalte

Bruttoinvestitionen abzüglich Abschreibungen

Produktion

Produzierter Kapitalstock

Reale Umweltschutz maßnahmen

Dienstleistungen des Kapitalstocks

Arbeit

Umweltschutzausgaben

Naturvermögen

Abb. 5.1  Wechselwirkungen zwischen Wirtschaft und Umwelt [Quelle: in Anlehnung an Statistisches Bundesamt (2012, S. 10)]

570

Roland Menges

• Andererseits zielt diese Messung jedoch auch auf qualitative Aspekte wie etwa die Luftqualität oder die Artenvielfalt, die sich durch Schadstoffeinträge verschlechtern können. Wie und in welcher Form Aussagen zur Veränderung der Qualität der Umweltmedien in ein einheitliches Wertesystem innerhalb der Umweltökonomischen Gesamtrechnung integriert werden können, ist eine strittige Frage1 (vgl. hierzu auch die Überlegungen im nächsten Abschnitt). Den negativen Qualitätsveränderungen wirken innerhalb des Systems bestimmte Umweltschutzmaßnahmen entgegen, die Umweltbelastungen beispielsweise durch Altlastensanierungen, Investitionen in Filtersysteme oder die Intensivierung von Recyclingaktivitäten verringern sollen. Das Ziel der Umweltökonomischen Gesamtrechnung besteht darin, alle Formen der Wechselwirkungen zwischen Ökonomie und Umwelt mit einer möglichst objektiven Kontensystematik zu erfassen. Während die Volkswirtschaftliche Gesamtrechnung eine umfassende monetäre Erfassung der wirtschaftlichen Aktivitäten innerhalb des ökonomischen Systems darstellt, soll die Umweltökonomische Gesamtrechnung als Satellitensystem komplementäre Informationen hierzu liefern. Konkret bedeutet dies, dass in beiden Systemen ähnliche statistische Klassifikationen, Abgrenzungen und Gliederungen genutzt werden, so dass Messgrößen der Umweltökonomischen Gesamtrechnung wie bestimmte Rohstoff- oder Energieverbräuche rechnerisch in Beziehung zu zentralen Größen der Volkswirtschaftlichen Gesamtrechnung wie etwa der Bruttowertschöpfung oder dem Bruttoinlandsprodukt gesetzt und als Kennziffern zur Effizienz der Umweltnutzung interpretiert werden können. Die Umweltökonomische Gesamtrechnung des Statistischen Bundesamtes basiert auf international üblichen Standards, welche die Datenerhebung entsprechend der Darstellung in Abbildung 5.2 innerhalb von drei miteinander vernetzten Modulen vorsieht. Innerhalb des Moduls Umweltbelastungen werden die mit dem gesamtwirtschaftlichen Produktionsprozess verbundenen Material- und Energieflussrechnungen in Form von Materialbilanzen aufbereitet. Im Modul Umweltzustand werden insbesondere die mit den wirtschaftlichen Aktivitäten verbundenen Flächennutzungen erfasst. Zustandsmessungen von Landschaften und Ökosystemen und die Darstellung von Beständen an Bodenschätzen sind zwar systematisch Teil dieses Moduls, werden derzeit aber nur partiell betrachtet. In einem dritten Modul Umweltschutzmaßnahmen werden solche umweltbezogene 1 Bonus (2009) weist in diesem Zusammenhang auf die Probleme hin, die entstehen, wenn wirtschaftliche Wachstumsprozesse biologistisch interpretiert werden. Zwar gelten für einen Baum, der bekanntlich nicht in den Himmel wächst, natürliche Wachstumsgrenzen. Die Natur ökonomischer Wachstumsprozesse bezieht sich hingegen auf Werte. „Das Bruttosozialprodukt wird aus Umsätzen berechnet, also aus Mengen multipliziert mit Preisen. Relevant für die Umwelt sind alleine Mengenkomponenten, nicht aber die Wertkomponenten. Nehmen wir als Beispiel einen Computer. Der erste von ihnen war wie ein Hochhaus, er verschlang Unmengen von Energie und konnte nicht mehr errechnen als jene Winzlinge, die man heute im Kaufhaus für ein paar Euro ersteht. Sofern man sorgfältig auf die Mengenkomponente achtet und diese im Rahmen hält, ist Wachstum ad infinitum möglich“ (S. 12ff).

5 Umweltökonomik

-

571

Belastung

Zustand

Maßnahmen

Material- und Energieflussrechnungen

Umweltzustand

Umweltschutzmaßnahmen

Physische Materialströme

Quantitative und qualitative Bestandsveränderungen des Naturvermögens in physischen Einheiten

Umweltbezogene monetäre Ströme und Bestände

Gesamtwirtschaftliches Materialrisiko Rohstoffrechnung nach Branchen Energieflussrechnungen nach Branchen Primärmaterial nach Branchen Emissionsrechnungen nach Branchen Wassergesamtrechnungen nach Branchen Physiche Input-OutputTabellen

Sektorale Berichtsmodule

-

-

Siedlungsfläche nach Branchen

-

Nutzungsintensität der Agrarökosysteme

-

Umweltschutzausgaben

-

Umweltsteuern

Verkehr und Umwelt Landwirtschaft und Umwelt Waldgesamtrechnungen Private Haushalte und Umwelt

Abb. 5.2  Module der Umweltökonomischen Gesamtrechnung [Quelle: in Anlehnung an Statistisches Bundesamt (2012)]

Aktivitäten der Volkswirtschaft erfasst, die bereits in den monetär erfassten Transaktionen der Volkswirtschaftlichen Gesamtrechnung Berücksichtigung finden (vgl. Kapitel 6 „Wirtschaftskreislauf und Gesamtwirtschaftliches Rechnungswesen“ von Göcke im zweiten Band des Kompendiums). Hierzu zählen beispielsweise die gesonderte Erfassung umweltbezogener Steuern (wie etwa Energiesteuern) oder Investitionen und laufende Ausgaben der verschiedenen Wirtschaftssektoren. Anders als die auf physischen Strömen und Beständen basierenden Konten der übrigen Module erlaubt dieses Modul also eine Betrachtung von Umweltschutzmaßnahmen in Form monetärer Konten. Darüber hinaus liefern sektorale Berichtsmodule Informationen und Indikatoren zu spezifischen Themen wie Verkehr, Landwirtschaft oder Privathaushalten, um die Berichterstattung zu politisch bedeutsamen Themen feiner zu detaillieren (Statistisches Bundesamt 2012). Die Hauptsätze der Thermodynamik als Restriktionen für die Ökonomie Die in der Umweltökonomischen Gesamtrechnung angelegte Kreislaufbetrachtung von Stoff- und Energieströmen ist den Wirtschaftswissenschaften im Prinzip sehr vertraut. Die am menschlichen Blutkreislauf orientierte Vorstellung, ein Wirtschaftssystem könne

572

Roland Menges

als Kreislaufsystematik zwischen verschiedenen Sektoren betrachtet werden, stammt von Francois Quesnay (1694-1774) und stellt die Grundlage der Volkswirtschaftlichen Gesamtrechnung dar (vgl. Kapitel 6 von Göcke im zweiten Band des Kompendiums). Die Annahme, an jedem Punkt dieses Kreislaufes stimme die (wertmäßige) Summe der Zuflüsse mit der (wertmäßigen) Summe der Abflüsse überein, liefert damit eine ex-postGleichgewichtsbedingung, die zu einem Ausgleich der Konten aller Wirtschaftssubjekte führt. Allerdings sind ökonomische Modelle eher darauf ausgerichtet, den Prozess des Wirtschaftens als unendlich wiederholbare Transformation von Gütern und als Folge reversibler Gleichgewichte zu beschreiben, während naturwissenschaftliche Modelle bestimmte Restriktionen in den Vordergrund stellen. Die Hauptsätze der Thermodynamik sind in diesem Zusammenhang für die Naturwissenschaften ähnlich fundamental wie die Hauptsätze der Wohlfahrtsökonomik für die Volkswirtschaftslehre. Das naturwissenschaftliche Pendant zur ökonomischen Vorstellung reversibler Gleichgewichte besteht im ersten Hauptsatz der Thermodynamik (Weimann 1995). Dieser wird auch Energieerhaltungssatz genannt. Er besagt, dass in einem abgeschlossenen System bei der Energieumwandlung die Menge an innerer Energie konstant bleibt. Energie kann weder geschaffen werden, noch verloren gehen. Der Energieerhaltungssatz kann auch auf die Betrachtung von Materialströmen angewandt werden, weil für die stofflichen Bewegungen innerhalb eines Systems ebenfalls gilt, dass deren Massegehalt nicht veränderbar ist. Übertragen auf die Interaktion zwischen Wirtschaft und Umwelt kann hieraus letztlich die Schlussfolgerung gezogen werden, dass die Rückstände aus dem ökonomischen System den zuvor getätigten Entnahmen aus der Umwelt entsprechen müssen (Cansier 1996, Perman et al. 2011). Allerdings impliziert der Masse-Erhaltungssatz nicht notwendigerweise einen in jeder Periode geschlossenen Kreislauf. Kapitalbildung, die Produktion dauerhafter Konsumgüter und Recyclingaktivitäten ermöglichen, dass heutige Stoffentnahmen erst zu späteren Zeitpunkten an die Umwelt abgegeben werden (Siebert 2010). Während der Energieerhaltungssatz noch mit der Vorstellung reversibler ökonomischer Gleichgewichte kompatibel erscheint, enthält der zweite Hauptsatz der Thermodynamik eine wichtige zusätzliche Restriktion, die der ökonomischen Vorstellung permanent reproduzierbarer Gleichgewichte auf den ersten Blick widerspricht: Der sog. Entropiesatz besagt, dass bei der Energieumwandlung der Teil der nutzbaren Energie zurückgeht und in nicht nutzbare Energie transformiert wird. Im Zuge der Energieumwandlung wird Energie also irreversibel in immer unstrukturiertere und nicht mehr für den Menschen nutzbare Formen überführt. Auch dieser Satz kann auf Materie übertragen werden. Er besagt dann beispielsweise, dass die zu hochwertigen Produkten aufbereitete Materie kontinuierlich von einem Zustand niedriger Entropie, d.h. höherer Verfügbarkeit, in einen Zustand höherer Entropie, d.h. niedriger Verfügbarkeit, überführt wird.2 2 Der italienische Dichter und Philosoph Luciano De Crescenzo lässt seine Romanfigur, den neapolitanischen Professor Bellavista, im Roman „Die Kunst der Unordnung“ diesen Sachverhalt wie folgt erklären: „Aber was ist Entropie überhaupt? Im Grund ist sie ein Unglück, eine Last, die uns aufgebürdet wurde und der wir uns nicht entziehen können. Als Adam und Eva aus dem Paradies vertrieben wurden, hörten sie von oben eine Stimme: `Du, Mann, wirst im Schweiße deines Angesichtes

5 Umweltökonomik

573

Die Bedeutung des Entropiebegriffs spielt für die Entwicklung der Umweltökonomik eine nicht unerhebliche Rolle. Der Bedeutungswandel, den die Umweltfrage erfahren hat, ist letztendlich nichts anderes als eine veränderte Einschätzung des Entropie-Phänomens (Weimann 1995, S. 5). Studien wie „The Limits to Growth“ (Meadows et al. 1972) prägen seit den ´70er Jahren des letzten Jahrhunderts die Diskussion. Sie betonten die Bedeutung von begrenzten Energie- und Rohstoffvorräten, Bevölkerungswachstum und begrenzten Akkumulations- und Regenerationsfähigkeiten der Umweltmedien Boden, Wasser und Luft für die Möglichkeit langfristigen ökonomischen Wachstums und trugen so zu einer zunehmenden Skepsis hinsichtlich eines ökonomischen Wachstums- und Fortschrittsoptimismus bei (vgl. etwa Hauff und Kleine 2013, sowie die Ausführungen im dritten Kapitel dieses Beitrags). Theoriegeschichtliche Bezüge zur klassischen Ökonomik Häufig wird in der eher wachstumskritischen Literatur auf Positionen verwiesen, die bereits in der Phase der sog. Klassischen Ökonomik von Ökonomen wie Adam Smith (17231790), David Ricardo (1772-1823), Thomas Malthus (1772-1823) oder John Stuart Mill (1806-1873) vertreten wurden. Die Klassik beschäftigte sich im 18. und 19. Jahrhundert während der Industriellen Revolution mit der zentralen Fragestellung, unter welchen institutionellen Voraussetzungen mit einem Wachstum der Lebensstandards gerechnet werden könne. Neben der insbesondere von Adam Smith betonten Bedeutung des Marktes für die Erreichung einer effizienten Ressourcenallokation spielte hierbei die Ausstattung mit natürlichen Ressourcen (z.B. Bodenschätze, landwirtschaftliche Flächen), aber auch das Wachstum des technischen Wissens eine wichtige Rolle. Thomas Malthus wird in diesem Zusammenhang häufig als einer der ersten Wachstumskritiker wahrgenommen, da er bei gegebener Bodenausstattung, abnehmenden Grenzerträgen der Landwirtschaft und Bevölkerungswachstum langfristig sinkende Lebensstandards prognostizierte. Sen (2002, S. 257f.) weist in diesem Zusammenhang darauf hin, dass die „malthusianische“ Analyse der Auswirkungen einer „wachsenden Zahl der Menschen, die ihre Subsistenzmittel übersteigt“, ursprünglich vom französischen Mathematiker und Denker der Aufklärung Marquise de Condorcet (1743-1794) stamme, von dem Malthus sich inspirieren ließ. Allerdings unterschieden sich beide Denker in ihren Schlussfolgerungen: Während Condorcet davon überzeugt war, dass steigender Wohlstand und Bildung (insbesondere für Frauen) arbeiten, und du, Frau, wirst unter Schmerzen gebären.` Dann, nach einer kurzen Pause, fügte die Stimme hinzu: `Und alle beide werdet ihr bis in alle Ewigkeit von der Entropie verfolgt werden.` … Dieses Phänomen, in der Physik als zweiter Hauptsatz der Thermodynamik bekannt, enthält eine bedauerliche eschatologische Botschaft: Die Welt steuert unausweichlich auf die finale Katastrophe zu, das heißt, sie altert. Langsam vielleicht, doch sie altert. Und auch jene Dinge, die uns auf den ersten Blick ewig erscheinen, wie ein Berg oder ein Wolkenkratzer aus Stahl und Beton, sind dazu verdammt, mit der Zeit zu zerbröckeln und zu verschwinden. Und ebenso werden sich in Milliarden von Jahren Sonne, Mond, Milchstraße und Sterne aufgelöst haben. `Ein entropischer Prozess lässt sich nur verlangsamen, nicht aufhalten!` dozierte mein Physiklehrer auf dem Gymnasium. `Jedenfalls ist er nicht unumkehrbar: Aus einem Aquarium kann eine Fischsuppe werden, aber aus einer Fischsuppe kein Aquarium.“ (Luciano de Crescenzo 1999, S. 102ff.).

574

Roland Menges

dazu führen würden, dass das Bevölkerungswachstum und der damit verbundene Ressourcenverbrauch zurückgehen werden, hielt Malthus die Möglichkeit, soziale Probleme durch vernunftbestimmte Entscheidungen der Bevölkerung zu lösen, für eher unwahrscheinlich. Dieser Widerspruch zwischen eher pessimistischen und eher optimistischen Einschätzungen ist auch heute noch charakteristisch für die umweltpolitische Diskussion. Schlussfolgerungen für die Ausrichtung der Umweltpolitik Ohne weiteren ökonomischen Reflexionen vorzugreifen, können aus der hier referierten naturwissenschaftlichen Betrachtung der Eigenschaften von Stoff- und Energieströmen einige allgemeine Anforderungen an die Gestaltung der Umweltpolitik gestellt werden (z.B. Cansier 1997): • Umweltpolitik sollte nicht nur auf unmittelbare Gefährdungen des Menschen reagieren, sondern die Gesamtheit der ökologischen Interdependenzen im Blick haben. Dies setzt eine integrierte Betrachtung voraus und steht einer sog. End-of-Pipe-Politik entgegen, bei der nur bereits entstandene Schadstoffe entsorgt werden. • Umweltpolitik sollte langfristig ausgerichtet sein, da menschliche Eingriffe natürliche Stoffkreisläufe und Regelungsfunktionen dauerhaft und irreversibel schädigen können. • Umweltpolitik erfordert bei der Schädigung globaler Stoffkreisläufe eine die nationalen Grenzen überschreitende Ausrichtung. • Umweltbelastungen lassen sich durch eine Reduktion des Material- und Energiedurchflusses und des Schädlichkeitsgrades der Abfallstoffe verhindern.

5.2.2

Die allokationstheoretische Perspektive: Umweltökonomisches Basismodell

Funktionale Betrachtung der Umwelt und Werte Der ökonomische Umweltbegriff versteht unter Umwelt nicht die Abwesenheit oder die Minimierung menschlicher Eingriffe. Es ist damit fraglich, ob die Betrachtung einer vom Menschen unabhängigen Natur überhaupt möglich ist. So betrachtet Suchanek (2000) Umweltprobleme systematisch als gesellschaftliche Probleme und führt hierfür vier Argumente an: Erstens ist Umwelt immer anthropogene Umwelt – der Begriff „Umwelt“ bezieht sich faktisch auf die vom menschlichen Handeln geprägte Umwelt. Zweitens werden Umweltprobleme nicht objektiv, sondern immer gesellschaftlich wahrgenommen und definiert. Drittens erfordert die Lösung von Umweltproblemen gesellschaftliche Entscheidungen. Und viertens sind bei diesen Entscheidungen die gesellschaftlichen Bedingungen zu berücksichtigen, die die Umweltprobleme mitverursacht haben. Umwelt gelangt also nicht als naturwissenschaftliche Kategorie in den wirtschaftswissenschaftlichen Blickwinkel, sondern als „Gut“. Die Existenz bestimmter nutzenspendender Eigenschaften dieses Gutes setzt immer ein Subjekt voraus, das in der Lage ist, deren wie auch immer gearteten Nutzen wahrzunehmen. Umwelt hat damit zunächst einen rein

5 Umweltökonomik

575

funktionalen Charakter für die damit verbundenen Produktions- und Konsumprozesse. In der ökonomischen Literatur werden vier grundlegende Funktionen der Umwelt voneinander getrennt (Michaelis 1996, Siebert 2010): • • • •

Umwelt dient als Medium für die Entnahme von Ressourcen und Energie. Umwelt dient als Senke zur Aufnahme und Assimilation von Schadstoffen. Umwelt steht als Faktor „Boden“ für Produktions- oder Konsumaktivitäten zur Verfügung. Umwelt stellt Lebenserhaltungssysteme bereit, die den Individuen direkt als Konsumgut und als Quelle von Lebensqualität zur Verfügung stehen.

Ein Beispiel für die Funktion der Umwelt als Lebenserhaltungssystem ist der natürliche Treibhauseffekt. Natürliche Bestandteile der Luft verhindern, dass die durch die Atmosphäre aufgenommene Sonneneinstrahlung von der Erde als abgestrahlte Wärme wieder vollständig entweicht. Ohne diesen natürlichen Treibhauseffekt betrüge die Temperatur auf der Erdoberfläche ca. –18 Grad Celsius. Hiervon zu unterscheiden ist der zusätzliche, anthropogene Treibhauseffekt, der durch die Emission von Treibhausgasen entsteht und zum sog. Klimaproblem führt, da sich die Erde künstlich wie unter einer Kuppel erwärmt (zu den damit zusammenhängenden ökonomischen Problemen vgl. die Ausführungen in Kapitel 6 in diesem Beitrag). Während uns bei naturwissenschaftlichen Zugängen zum Umweltproblem die Knappheit der Umwelt als absolute Größen gegenübertritt (z.B. in Bezug auf endliche Ressourcen- oder Energiebestände), ergibt sich bei einer ökonomischen Betrachtung eine relative Knappheit von Umwelt. Das allokationstheoretische Grundproblem der Umweltökonomik liegt in der Konkurrenz um die verschiedenen Nutzungszwecke bzw. Funktionen der Umwelt bei einer nicht-veränderbaren Ausstattung mit Umweltgütern. Dieses Verständnis von relativer Knappheit stellt einen entscheidenden Unterschied zwischen den oben zitierten Denkern der Klassik und denjenigen der Neoklassik dar. Neoklassische Ökonomen wie Karl Menger (1840-1921) und William Stanley Jevons (1835-1882) waren davon überzeugt, dass ökonomische Werte nicht als absolute, sondern immer nur als relative Werte entstehen, die als Austauschrelationen nur im Zuge von Tauschbeziehungen ausgedrückt werden können, wenn Individuen ihre Bewertung von Gütern und die damit einhergehenden Produktionskosten offenbaren. Zur weiteren Eingrenzung des umweltökonomischen Problems sei darauf verwiesen, dass die Funktionen der Umwelt als Entnahmemedium nicht primär Gegenstand der Umweltökonomik sind, sondern im eigenständigen Bereich der Ressourcenökonomik behandelt werden (vgl. hierzu Abbildung 5.6 im folgenden Abschnitt) (Perman et al. 2011, Endres und Querner 2000). Die Betrachtung der Umwelt als Standortfaktor ist aus Sicht der Umweltökonomik ebenfalls nicht spezifisch. Die Verwendung von Land („Boden“) für alternative Zwecke der städtischen Besiedelung, der Landwirtschaft oder naturbelassene Flächen wird beispielsweise unter Verwendung sog. Rentenangebotsfunktionen („bid rent functions“) im Rahmen der Regionalökonomik oder der Ressourcenökonomik untersucht (Tietenberg und Lewis 2015).

576

Roland Menges

Umweltökonomisches Grundmodell: Nutzungskonkurrenz Kennzeichnend für die meisten umweltökonomischen Probleme ist die Nutzungskonkurrenz in Bezug auf die beiden verbleibenden Funktionen der Umwelt: Die Senkenfunktion der Umwelt, in die Schadstoffe eingetragen werden, und die direkte Nutzung der Umwelt für konsumtive Zwecke, d.h. die Fähigkeit der Ökosysteme, den Individuen über sauberes Trinkwasser, saubere Atemluft oder den Anblick schöner Landschaften als Quelle von Lebensqualität zu dienen. Die sich aus dem Zusammenspiel dieser Funktionen ergebende Nutzungsrivalität soll an einem einfachen Beispiel beschrieben werden, das im Folgenden als umweltökonomisches Grundmodell betrachtet wird: Ein regionaler See diene lokalen Produktionsunternehmen und der angrenzenden Landwirtschaft als Senke für den Eintrag bestimmter Emissionen e von Schad- und Reststoffen, die als Abfallprodukte ihrer Produktionsprozesse anfallen. Gleichzeitig werde dieser See von den Anwohnern und Touristen als Naherholungsgebiet und Trinkwasserreservoir genutzt. Die Nutzungsrivalität um diese beiden Umweltfunktionen kann anhand der folgenden Abbildung 5.3 erläutert werden, in der die jeweiligen Nutzungsansprüche in Form von Grenznutzen (marginal utility, MU) und Grenzkosten (marginal cost, MC) zunächst separiert und anschließend gegeneinander abgewogen werden.

MU, MC pro EmissionsEinheit e

Opportunitätskosten der Umweltverbesserung: Grenzvermeidungskosten (MCA)

Opportunitätskosten der Umweltverschmutzung: Grenzschadenskosten (MEC)

Emissionsniveau e

e0 Abb. 5.3  Nutzungsrivalität und Opportunitätskosten rivalisierender Umweltnutzungen

5 Umweltökonomik

577

Die Senkenfunktion der Umwelt: Opportunitätskosten der Umweltverbesserung und Vermeidungskosten Die von den Unternehmen und den landwirtschaftlichen Betrieben z.B. durch Düngemitteleinträge in Anspruch genommene Senkenfunktion des Sees stellt zunächst einen Produktionsfaktor dar, dessen Grenzproduktivität mit seiner Nutzung, d.h. mit steigendem Emissionsniveau e, abnimmt. In einem unregulierten Ausgangszustand, in dem diese Umweltressource den Unternehmen kostenlos zur Verfügung steht, werden sie ihre Emissionsaktivitäten bis auf das Niveau e0 ausdehnen, bei dem die Grenzproduktivität und damit (technisch formuliert) die Nachfrage nach diesem Produktionsfaktor null wird. Aus Sicht der emittierenden Unternehmen werden in der fallenden Funktion in Abbildung 5.3 daher die aggregierten sinkenden Grenznutzen der Senkenfunktion des Sees dargestellt. Man kann diese Kurve im Diagramm aber auch von rechts interpretieren: Wollte man aus Umweltschutzgründen die Emissionen reduzieren, müssten die Unternehmen auf die entsprechenden produktiven Nutzen verzichten und Emissionsvermeidungsmaßnahmen durchführen. Hier zeigt sich eine wichtige Kosten-Nutzen-Dualität: Die dann nicht realisierten produktiven Verwendungen des Sees stellen Opportunitätskosten dar. Opportunitätskosten bilden den Kern des ökonomischen Kostenbegriffs: Bei der Wahl einer Alternative bestehen die Opportunitätskosten im Nutzenverlust der dann gerade nicht gewählten Alternative. Die Opportunitätskosten der Umweltverbesserung müssten im Beispiel von den Landwirten und der gesamten Gesellschaft etwa in Form von kostenträchtigen Maßnahmen zur Emissionsvermeidung (z.B. Übergang zu einer weniger düngemittelintensiven Anbaumethode) oder Outputreduktionen (z.B. Verkleinerung oder Schließung der Betriebe, Arbeitsplatzverluste) getragen werden. Vom Punkt e0 aus betrachtet, kann die Kurve der Opportunitätskosten der Umweltverbesserung daher auch als Kurve der Grenzvermeidungskosten (marginal cost of abatement, MCA) interpretiert werden. Die Kurve verläuft steigend, weil angenommen wird, dass – ausgehend vom Status Quo des maximalen Emissionsniveaus e0 – die ersten Einheiten Emissionsreduktion technisch relativ einfach und zu niedrigen Kosten realisiert werden können, weitere Emissionsreduktionen nach Ausschöpfung der kostengünstigen Optionen jedoch nur zu steigenden Kosten zu realisieren sind. Die aggregierten (Emissions-)Vermeidungskosten und die Opportunitätskosten des Umweltschutzes stellen damit zwei Seiten derselben Medaille dar. Die Umweltqualität des Sees: Opportunitätskosten der Umweltverschmutzung und Schadenskosten Je stärker der See von den Unternehmen als Senke beansprucht wird, desto geringer werden aufgrund der Belastung des Gewässers seine Fähigkeiten, Anwohnern und Touristen saubere Umweltqualität als Naherholungsgebiet oder in Form sauberen Trinkwassers zur Verfügung zu stellen. Hierbei wird angenommen, dass der von den Individuen wahrgenommene Wertverlust (z. B. in Form von sinkenden Erholungswerten, sinkender Wasserqualität oder Gesundheitsschäden) messbar ist, in Geldeinheiten formuliert und über alle Individuen aggregiert werden kann. Die nicht-realisierbaren, entgangenen Nutzen stellen aus gesellschaftlicher Sicht die Opportunitätskosten der Umweltverschmutzung dar. Da diese

578

Roland Menges

Beeinträchtigung der Konsummöglichkeiten nicht über eine freiwillige marktliche Austauschbeziehung vermittelt wird, liegt hier eine sog. technologische Externalität vor, die anhand der von jeder Einheit Emission ausgehenden Grenzschäden erfasst werden (marginal external cost, MEC, vgl. hierzu die Ausführungen im fünften Kapitel dieses Beitrags). Die Opportunitätskosten der Umweltverschmutzung sind zwar als Nutzenentgang von der gesamten Gesellschaft zu tragen, sie sind jedoch kein Bestandteil der „internen“ Kostenrechnung der Unternehmen, die die Senkenfunktion der Umwelt als kostenlosen Produktionsfaktor behandeln. Die steigend verlaufende Grenzschadenskurve basiert auf der Annahme, dass mit zunehmendem Emissionsniveau die Schäden an der nutzbaren Umweltqualität, die von jeder weiteren Emissionseinheit ausgelöst werden, ebenfalls steigen. Auch diese Kurve lässt sich in Abbildung 5.3 im Sinne der o.g. Nutzen-Kosten-Dualität von rechts interpretieren: Bei einer Zurückdrängung der Emissionen würden die dann vermiedenen Grenzschäden den (sinkenden) Grenznutzen des Umweltschutzes entsprechen. Der Verlauf der Kurve der Grenzschadenskosten hängt vom konkreten Problem und den betrachteten Schadstoffen ab. Bei toxischen Belastungen, von denen oberhalb bestimmter Grenzwerte eine unmittelbare Gesundheitsgefahr ausgeht, würde der Verlauf der Kurve sehr steil sein. Es ist aber auch denkbar, dass die Grenzschadenskurve konstant verläuft. Nimmt man beispielsweise an, das betrachtete Problem bestehe in der Verklappung von (nicht-toxischem) Hausmüll in einem Gewässer, wäre möglicherweise die Annahme konstanter Grenzschäden plausibel. Auflösung der Nutzungsrivalität: Unregulierter Ausgangszustand versus Optimalzustand Diese auf den See bezogene Überlegung lässt sich verallgemeinern: Der Bau einer Stromtrasse durch ein Naturschutzgebiet kann dessen Naherholungswert gefährden, die Einleitung von Abwässern in einen Fluss kann mit seiner Nutzung für die Fischzucht oder der Trinkwassergewinnung konfligieren. Die Entscheidung für eine Nutzungsart der Umwelt bedeutet gleichzeitig den Verzicht auf alternative Nutzungsmöglichkeiten. Nutzungsrivalität ist natürlich kein umweltökonomisches Alleinstellungsmerkmal, sie ist Ausdruck von Knappheit und damit konstituierend für alle Arten ökonomischer Allokationsprobleme. Während jedoch die eingangs erwähnten Hauptsätze der Wohlfahrtsökonomik zeigen, dass der wettbewerbliche Preismechanismus unter bestimmten Voraussetzungen für eine effiziente Nutzung der knappen Güter und damit für eine sozial optimale Auflösung der Nutzungsrivalität sorgen kann, steht ein derartiger Mechanismus im Fall der Umwelt offensichtlich nicht zur Verfügung. Da im unregulierten Ausgangszustand die Senkenfunktion des Sees den produzierenden Unternehmen als freies Gut kostenlos zur Verfügung steht, erfolgt eine asymmetrische Auflösung der Nutzungskonkurrenz im Niveau e0. Die Unternehmen nutzen den See als Senke, so lange sie hieraus einen Vorteil ziehen. Zwar steht der See auch den Anwohnern und Touristen als öffentliches Gut kostenlos zur Verfügung (zur Interpretation der Umweltqualität als öffentliches Gut vgl. Abschnitt 5.4 dieses Beitrags), allerdings haben diese keine Möglichkeit zur Durchsetzung ihrer Nutzungsansprüche, wenn die produzierenden Unternehmen gleichzeitig einen uneingeschränkten Zugang zum See haben.

5 Umweltökonomik

579

Dieses bedeutet, dass Umweltprobleme aus ökonomischer Sicht nicht primär auf moralisches Fehlverhalten zurückzuführen sind, sondern vielmehr Ausdruck einer mangelhaften institutionellen Regelung zur Auflösung der Nutzungskonkurrenz sind. Die Frage, ob sich produzierende Unternehmen und Landwirtschaft der Konsequenzen ihrer Handlungen bewusst sind, ist aus dieser Perspektive unerheblich. Möglicherweise leiden die Unternehmer selbst in ihrer Rolle als Anwohner in ihrer Freizeit unter den Umweltproblemen, möglicherweise können sie es sich im Wettbewerb mit anderen Unternehmen nicht leisten, freiwillig auf die Emissionstätigkeit zu verzichten. Entscheidend ist aber, dass sie bei Abwesenheit jeder Art von Umweltregulierung keinen ökonomischen Anreiz haben, die gesellschaftlichen Kosten ihrer betriebswirtschaftlichen Entscheidungen zu berücksichtigen. Die Konzepte der Nutzungsrivalität und der externen Kosten (MEC) beschreiben damit dasselbe empirische Phänomen von Umweltproblemen aus unterschiedlichen Blickwinkeln (Siebert 2010): • Das Konzept der Nutzungsrivalität analysiert die unterschiedlichen Verwendungen von Umweltgütern und stellt diese einander gegenüber. • Das Konzept der externen Kosten analysiert die Auswirkungen der Aktivitäten bestimmter Individuen auf die Konsum- oder Produktionsaktivitäten anderer Individuen. In beiden Fällen stellt die Umwelt eine Art Technologie oder Medium, das die Individuen miteinander verbindet. Nutzungsrivalitäten und externe Effekte bedingen sich also gegenseitig. Deutlich wird dies, wenn man noch einmal die Konsequenzen des Befundes bedenkt, dass die Landwirte die Senkenfunktion der Umwelt kostenlos in Anspruch nehmen können: In einem derartigen institutionellen Umfeld entsteht eine Diskrepanz zwischen den privaten und den sozialen, von der gesamten Gesellschaft zu tragenden Kosten der Ressourcennutzung. Die damit entstehende Fehlallokation bezieht sich aber nicht nur auf die Umweltressourcen, sondern implizit auch auf die Verwendung anderer produktiver Ressourcen wie Arbeit und Kapital. Dadurch, dass die Landwirte die Senkenfunktion des Sees kostenfrei nutzen, verwenden sie aus sozialer Sicht auch zu viele andere Produktionsfaktoren für ihre Aktivitäten. Dadurch, dass die Opportunitätskosten der Umweltverschmutzung als externe Kosten auf die konsumtiven Nutzer des Sees abgewälzt werden, verlagern diese ihre Konsumaktivitäten in andere, vielleicht weniger erholungsträchtige oder weiter entfernte Gebiete. Aus gesellschaftlicher Sicht führt die asymmetrische Auflösung der Nutzungskonkurrenz zu einem Wohlfahrtsverlust, der in Abbildung 5.4 betrachtet wird. Da die beiden Opportunitätskostenarten als Grenzkostenkurven dargestellt sind, können die jeweils unter den Kurven liegenden Flächen als Gesamtkosten interpretiert werden, die von den verschiedenen Teilen der Gesellschaft zu tragen sind. Es zeigt sich, dass bei niedrigen Emissionsniveaus die produktiven Nutzen aus der Emissionstätigkeit höher sind als die externen Kosten der damit verbundenen Umweltschäden. Hierdurch entsteht zunächst ein gesamtgesellschaftlicher Nutzenüberschuss in Höhe der Fläche [+]. Die Grenzvermeidungskosten sind in diesem Bereich höher als die Grenzschäden. Ab einem bestimmten Niveau übersteigen jedoch die Umweltschäden die produktiven

580

Roland Menges

MU, MC pro Emissions Einheit e *UHQ]YHUPHLGXQJVNRVWHQ MCA)

*UHQ]VFKDGHQVNRVWHQ (MEC)

>@ 1XW]HQEHUVFKXVV

[@ Wohlfahrtsverlust

e0

e

Abb. 5.4 Allokation und Wohlfahrtsverlust im unregulierten Ausgangszustand

Nutzen, so dass hierdurch ein Wohlfahrtsverlust in Höhe von [-] entsteht. Insgesamt wird im Zustand e0 die Senkenfunktion der Umwelt zu stark in Anspruch genommen. Die Gesellschaft würde sich insgesamt offenbar besser stellen, wenn die Ressource weniger stark in Anspruch genommen wird. Der aus allokativer Sicht optimale Zustand wird in der Abbildung 5.5 näher betrachtet. Links vom Ausgangszustand e0 führt jedes denkbare Emissionsniveau einerseits zu Opportunitätskosten des Umweltschutzes, da Emissionsvermeidungsaktivitäten entlang der MCA-Kurve realisiert werden müssen, und andererseits zu Opportunitätskosten der Umweltverschmutzung, da Schäden entlang der MEC-Kurve zu ertragen sind. Die optimale Umweltqualität liegt im Niveau e*, da hier – im Schnittpunkt der beiden Kurven – die Summe der von der Gesellschaft zu tragenden Opportunitätskosten der Umweltnutzung minimal sind. Wenn die Grenzvermeidungskosten den Grenzschadenskosten entsprechen, bedeutet dies jedoch nicht nur, dass die gesellschaftlichen Opportunitätskosten der Umweltnutzung minimiert werden – gleichzeitig ist dies auch Ausdruck einer Allokation von Umweltressourcen, bei der die gesellschaftlichen Nutzen der Umweltressource maximal sind. Die Nutzungsrivalität wird bei Anwendung des Kriteriums MEC = MCA also gerade so aufgelöst, dass die Summe der Nutzen •

aus der produktiven Nutzung der Senkenfunktion für die Unternehmen und Landwirte

5 Umweltökonomik

581

MU, MC pro Emissions Einheit e *UHQ]YHUPHLGXQJVNRVWHQ MCA)

*UHQ]VFKDGHQVNRVWHQ (MEC)

Optimale Umweltqualität

Internalisierte Kosten

Vermeidungskosten

Schäden e*

e0 Emissionsniveau

Abb. 5.5  Das optimale Emissionsniveau

• und der konsumtive Nutzen der Umweltqualität für die Anwohner und Touristen maximal wird. Höhere Emissionsniveaus als e* würden dazu führen, dass die damit einhergehenden Beschädigungen der Umweltqualität schwerer wiegen als die mit den zusätzlichen Emissionen verbundenen produktiven Nutzen. Eine Senkung auf Niveaus unterhalb von e* ist aus sozialer Sicht ebenfalls nicht sinnvoll, da die dann realisierten Nutzenzuwächse bei der Umweltqualität weniger stark ins Gewicht fallen als die produktiven Verluste. Aus Sicht des Systems gibt es in diesem Optimum zudem keine externen Kosten mehr, da alle mit der Umweltnutzung verbundenen Opportunitätskosten bei einem Kostenträger internalisiert sind. Dies bedeutet einerseits, dass aus gesellschaftlicher Sicht im Umfang der Fläche „Vermeidungskosten“ die Opportunitätskosten der Umweltverbesserung zu tragen sind, und dass andererseits den Konsumenten der Umweltqualität im Umfang der Fläche „Schäden“ die Opportunitätskosten der Umweltverschmutzung aufgebürdet werden. Die Existenz des in Abbildung 5.5 dargestellten optimalen Emissionsniveaus stellt zunächst lediglich die Perspektive des eingangs erwähnten wohlmeinenden und allwissenden Diktators dar. Die wesentliche Aufgabe der Umweltökonomik und –politik besteht jedoch in der Beantworung der Fragen,

582

Roland Menges

• wie dieser Optimalzustand in der Realität identifiziert werden • und mittels welcher Instrumente und welcher institutionellen Regelungen er aus dem Status-Quo des unregulierten Ausgangszustandes heraus (entlang des grauen Pfeils) erreicht werden kann. Die bei der Lösung der Umweltprobleme zur Anwendung kommenden Instrumente (z.B. Steuern, Eigentumsrechte, ordnungsrechtliche Regelungen) und Kostenzuordnungsprinzipien (z.B. Verursacherprinzip oder Gemeinlastprinzip) sind sehr vielfältig und werden insbesondere im fünften und sechsten Kapitel dieses Beitrags näher untersucht. Das vierte und achte Kapitel beschäftigt sich hingegen vorwiegend mit der Frage, anhand welcher Ansätze sich der Optimalzustand aus Abbildung 5.5 identifizieren lässt.

5.2.3

Schlussfolgerungen für Gegenstand und Aufgaben der Umweltökonomik

Die Eigenschaften des allokativen Optimums der Umweltnutzung gelten unabhängig von der Beantwortung der Frage, mit welchen Verfahren, anhand welcher Instrumente und mit welchen Lastenverteilungen dieser Zustand realisiert werden soll. Allerdings können bei der Betonung der allokationstheoretischen Sichtweise einige allgemeine Aussagen zum Gegenstand und zur Aufgabe der Umweltökonomik zusammengefasst werden. Die Umweltökonomik kann als Anwendungsgebiet der Mikroökonomik verstanden werden, deren grundsätzliche Methode darin besteht, soziale und ökonomische Phänomene aus dem rationalen Verhalten der beteiligten Wirtschaftssubjekte abzuleiten (Feess 2007). Das Beispiel des regionalen Sees lokalisiert das Umweltproblem im Rationalverhalten der Individuen, das ohne umweltpolitische Eingriffe zu einer zu starken Inanspruchnahme von Umweltressourcen führt. Die umweltökonomische Analyse erfolgt anhand eines konkreten Rasters: • Es wird zunächst danach gefragt, wie sich rationale Individuen unter gegebenen Nebenbedingungen verhalten. • Diese formalen Ergebnisse werden auf Basis von Wohlfahrtskriterien wie etwa dem Pareto-Kriterium beurteilt. • Anschließend wird untersucht, anhand welcher Maßnahmen eine Verbesserung der Situation in Richtung einer optimalen Allokation herbeigeführt werden kann. Aus Sicht der Umweltpolitik ist hervorzuheben, dass Umweltschutz gleichzeitig Kosten und Nutzen erzeugt, die gegeneinander abzuwägen sind. Die Bewertung von Umweltschäden entspricht methodisch der Verwendung des Konzeptes der Opportunitätskosten der Umweltverschmutzung. Das Ziel der Umweltpolitik besteht jedoch nicht in der Minimierung dieser Umweltschäden, sondern in der Beschränkung der Umweltnutzung auf das Optimum. Daher müssen ebenfalls die Opportunitätskosten der Umweltverbesserung anhand des Konzeptes der Vermeidungskosten berücksichtigt werden. Die Vermeidungskosten stellen keinen Ansatz zur Bewertung der Umweltschäden dar, und werden in einer

5 Umweltökonomik

583

vorwiegend auf ökologische Zusammenhänge und die Bestimmung von externen Kosten reduzierten Diskussion häufig übersehen. Sie entsprechen methodisch jedoch den gesellschaftlichen Opportunitätskosten des Umweltschutzes und sind daher bei der Zielbestimmung mit zu berücksichtigen. Die Umweltpolitik umfasst daher drei Aufgaben: • Erstens müssen konkrete Umweltqualitätsziele festgelegt werden, • zweitens muss eine Bewertung und Auswahl der zur Verfügung stehenden umweltpolitischen Instrumente vorgenommen werden, anhand derer die optimale Allokation realisiert und das Umweltqualitätsziel in individuelles Verhalten transformiert werden soll • und drittens sind die mit den allokativen Instrumenten verbundenen distributiven Konsequenzen zu analysieren.

5.2.4

Umweltökonomische Forschungsbereiche

Wie bereits oben erläutert, beschäftigt sich die Umweltökonomik nicht primär mit den Funktionen der Umwelt als Entnahmemedium. Die Analyse intertemporaler Ressourcenkonkurrenz findet vorwiegend im Bereich der Ressourcenökonomik statt. Während es in der Umweltökonomik überwiegend um allokative Probleme geht, in denen keine entwickelten Marktmechanismen zur Verfügung stehen, beschäftigt sich die Ressourcenökonomik mit der Fähigkeit von existierenden Märkten, optimale Abbau- und Preispfade einzunehmen (s. Abbildung 5.6).

Abb. 5.6  Abgrenzung von Umwelt- und Ressourcenökonomik

584

Roland Menges

Umweltökonomik

Theoretische Umweltökonomik

Ökonomische Ursachen von Umweltproblemen

 Öffentliche Güter  fehlende Eigentumsrechte  Gefangenendilemma  Tragik der Allmende  Externe Effekte  Gegenwart vs. Nachhaltigkeit

Instrumente zur Überwindung von Umweltproblemen

a)   

Regierungsinstrumente Weisungen und Regeln Umweltsteuern Handelbare Emissionserlaubnisse  Umwelthaftungsrecht  Internationale Abkommen -,&'07(3

Empirische Umweltökonomik

Methoden zur Bewertung von Veränderungen der Umweltqualität

 1XW]XQJVDEKlQJLJHYV QXW]XQJVXQDEKlQJLJH Werte

Quantitative Analyse der Auswirkungen von Instrumenten Berechenbare allgemeine Gleichgewichtsmodelle (CGE0RGHOOH

 Direkte vs. Indirekte 0HWKRGHQ

b) NichtRegierungsinstrumente  CoaseTheorem  6R]LDOH1RUPHQ

Abb. 5.7 Umweltökonomische Forschungsbereiche

Die in der Umweltökonomik behandelten Forschungsprobleme lassen sich grundsätzlich (wie in Abbildung 5.7 dargestellt) in theoretische und empirische Analysen des Umweltproblems unterteilen. Aus theoretischer Sicht beschäftigen sich Umweltökonomen sowohl mit den Ursachen von Umweltproblemen, wie externen Effekten und öffentlichen Gütern, die in den Abschnitten 5.3-5.5 dieses Beitrags behandelt werden, wie auch mit den Eigenschaften der unterschiedlichen umweltpolitischen Instrumente, die im sechsten Abschnitt untersucht werden. Neben die theoretische Analyse des Umweltproblems treten aber auch empirische Analysen. In diesem Bereich geht es neben quantitativen Modellen, die die sektoralen oder gesamtwirtschaftlichen Allokations- und Distributionswirkungen umweltpolitischer Instrumente simulieren, vorwiegend um Methoden, die sich mit der Bewertung von Umweltressourcen beschäftigen. Da in der Realität keine Marktmechanismen zur Bewertung von Umweltgütern zur Verfügung stehen, hat die Umweltökonomik eine Reihe von eigenen Bewertungsmethoden entwickelt, die im achten Abschnitt dieses Beitrags vorgestellt werden.

5.3

Ethische Aspekte der Behandlung des Umweltproblems

5.3.1

Naturalistische versus humanistische Moralphilosophie

Im obigen Abschnitt ist bereits deutlich geworden, dass in den verschiedenen wissenschaftlichen Disziplinen, die sich mit Umweltproblemen beschäftigen, sehr unterschiedliche Antworten auf die normative Frage gegeben werden, wie sich die Menschen im Umgang

5 Umweltökonomik

585

mit der Umwelt verhalten sollten. Diese Frage kann letztlich nur beantwortet werden, wenn geklärt wird, worauf sich die jeweiligen Wertaussagen beziehen und woher die dafür benötigten Wertinformationen stammen. In Bezug auf die Wertfrage beim Umgang mit der Umwelt stehen sich sehr unterschiedliche Denkschulen und Richtungen gegenüber, die in der folgenden Abbildung 5.8 zusammengefasst werden. Eine wesentliche Unterscheidung in der Begründung von Rechten und Werten ist zunächst zwischen naturalistischen und humanistischen Moralphilosophien zu machen (Perman et al. 2011). Naturalistische Moralphilosophien (Schmidt und Tarkian 2011) verneinen besondere Werte oder Rechte des Menschen und betonen die Gleichberechtigung aller Lebewesen. Einen funktionalen Nutzen der Umwelt lehnen sie strikt zu Gunsten von Eigenwerten der Umwelt ab, die unabhängig von menschlichen Verfügungswünschen zu definieren sind. So betont beispielsweise der australische Philosoph Peter Singer (*1946), dass die Zugehörigkeit eines Lebewesens zu einer bestimmten Spezies keine moralische Relevanz habe. Allein die (beispielsweise auch Tieren zuzusprechende) Fähigkeit, bestimmte Präferenzen zu besitzen und zu verfolgen, entfalte eine moralische Relevanz. Die auf den norwegischen Philosophen Arne Naess (1912-2009) zurückgehende Tiefenökologie betont in ähnlicher Weise eine holistische Umwelt- und Naturphilosophie, die ein Leben aller Lebewesen im Einklang mit der Natur anstrebt. Andere prominente

Werte bei der Analyse von Umweltproblemen

− −

Humanistische Moralphilosophien Anthropozentrik (alle Rechte und Pflichten beim Menschen) Methodologischer Individualismus (alle Werte sind auf individuelle Werte zurückzuführen)

Naturalistische Moralphilosophien

− −

Liberalismus

-

-

-

Bezug: Individuum Individuelle Freiheit: Keine Rechte und Werte als jene der Individuen Prozessorientierung : Bewertung von Prozessen und Verfahren Ablehnung utilitaristischer GerechtigkeitsKonzepte

Utilitarismus

-

-

Bezug: Individuen und Gesellschaft Soziale Wohlfahrt als Aggregation der Nutzen aller Individuen der Gesellschaft (interpersonelle Nutzenvergleiche) Konsequentialismus: Bewertung von Konsequenzen und Auswirkungen

Abb. 5.8  Werte in der Umweltökonomik



Ablehnung der anthropozentrischen Sicht und des methodologischen Individualismus Gleichberechtigung von lebenden und nicht- lebenden Komponenten der Umwelt Eigenwerte natürlicher Ressourcen

586

Roland Menges

Naturwissenschaftler und Philosophen, die in Bezug auf den menschlichen Umgang mit der Natur eher naturalistische Positionen entwickelt haben, sind beispielsweise Charles Darwin (1809-1882) und Baruch de Spinoza (1633-1677). Demgegenüber steht in den humanistischen Moralphilosophien der Mensch als Träger von Werten, Rechten und Pflichten im Mittelpunkt. Der in den Wirtschaftswissenschaften praktizierte methodologische Individualismus erklärt das Individuum erkenntnistheoretisch zum Ausgangs- und aus Sicht des Wertbekenntnisses zum Bezugspunkt (Kirsch 2004). Innerhalb dieser Tradition sind insbesondere die Positionen des Liberalismus und des Utilitarismus zu unterscheiden. Der Liberalismus betont das zentrale Axiom der Unverletzlichkeit individueller Rechte. In Bezug auf umweltökonomische Probleme ist dieses Axiom insofern relevant, weil Eingriffe in individuelle Rechte allein mit Verweis auf ein höheres, wie auch immer geartetes Gemeinwohl abgelehnt werden. Allerdings ist Liberalismus keineswegs mit einem laissez-faire-Ansatz gleichzusetzen. Philosophen wie John Locke (1632-1704) und Robert Nozick (1938-2002) betonen, dass die Grundlage freiwilliger Transaktionen zwischen Individuen ein gerechtes System von Eigentums- bzw. Nutzungsrechten sei. Aus umweltökonomischer Sicht ergibt sich dann die Notwendigkeit, in individuelle Rechte einzugreifen, wenn Individuen über einen ungerechtfertigten Besitz verfügen, eine Ressourcennutzung ohne Ausschlussmöglichkeit möglich ist, oder Probleme wie öffentliche Güter und externe Effekte vorliegen (Perman et al. 2011). Während der Liberalismus die Voraussetzungen und die Qualität von individuellen Interaktionsprozessen untersucht, beschäftigt sich der Utilitarismus überwiegend mit den Konsequenzen individueller Handlungen. Die moralphilosophischen Schriften von David Hume (1711-1776), Jeremy Bentham (1748-1832) und John Stuart Mill (1806-1873) beschäftigten sich mit den Frage, wodurch individuelles Glück gekennzeichnet sei und welche Größen die soziale Wohlfahrt determinieren. Der individuelle Nutzen wird hierbei als subjektiver Ausdruck des Glücks oder der Befriedigung verstanden, die sich als Konsequenz eines Ereignisses oder einer Entscheidung einstellt. Wohlfahrtsfunktionen, die auf dem utilitaristischen Bewertungsansatz basieren, erfüllen drei Eigenschaften: Erstens werden die Ergebnisse der Interaktion von Individuen nur im Hinblick auf das soziale Wohlfahrtsziel bewertet. Zweitens basiert das Kriterium ausschließlich auf Informationen über die jeweils individuellen Wertschätzungen des Ergebnisses. Und drittens setzt dieses Vorgehen voraus, dass intra- und interpersonelle Nutzenvergleiche vorgenommen werden können. Sowohl die Position des Liberalismus, wie auch die Position des Utilitarismus werden in den verschiedenen Bereichen der Wohlfahrtsökonomik verarbeitet. Die Wohlfahrtsökonomik stellt in den modernen Wirtschaftswissenschaften und damit auch in der Umweltökonomik die Grundlage bereit, auf der normative Bewertungen alternativer Zustände der Welt (z.B. Allokationsergebnisse) vorgenommen werden können. Wohlfahrtsökonomische Bewertungen sind nur möglich, wenn die dahinter liegenden ethischen Kriterien akzeptiert werden. Hierbei können grundsätzlich zwei Varianten wohlfahrtsökonomischer Bewertungssysteme unterschieden werden.

5 Umweltökonomik

587

• In der älteren Wohlfahrtsökonomik wird unter der Annahme kardinaler, interpersonell vergleichbarer Nutzenfunktionen eine soziale Wohlfahrtsfunktion auf Basis der individuellen Nutzenniveaus gebildet. Die individuellen Nutzen werden hierbei entsprechend einer Aggregationsregel miteinander verrechnet. Die Aggregationsregel drückt hierbei eine sog. Ungleichheitsversion und damit eine Verteilungspräferenz des Wohlfahrtkriteriums aus. Diese gibt bei Konstanthaltung des Wohlfahrtniveaus c. p. an, welcher Nutzengewinn eines Individuums notwendig ist, um die Gesellschaft für einen Nutzenverlust eines anderen Individuums zu kompensieren.3 • In der jüngeren Wohlfahrtsökonomik (paretianische Wohlfahrtsökonomik) versucht man die starken Annahmen der Kardinalität und der interpersonellen Vergleichbarkeit des individuellen Nutzens zu vermeiden, indem lediglich nach einem ordinalen Kriterium, d.h. nach einer Rangordnung der verschiedenen Zustände der Welt, gesucht wird. Ein derartiges Maß, das unter bestimmten Voraussetzungen – gewissermaßen als ethischer Minimalkonsens – Aussagen über eine Wohlfahrtsverbesserung machen kann, ist das auf Vilfredo Pareto (1848-1923) zurückgehende Kriterium der allokativen Effizienz bzw. der Pareto-Optimalität: Bei einem Vergleich von zwei Zuständen der Welt A und B liegt nur dann eine Verbesserung durch den Übergang von A nach B vor, wenn mindestens ein Individuum eine Verbesserung erfährt, ohne dass sich gleichzeitig ein anderes Individuum verschlechtert. Die von Kenneth Arrow (*1923) und Gerard Debreu (1921-2004) entwickelten Hauptsätze der Wohlfahrtsökonomik wenden das Pareto-Kriterium auf wettbewerbliche Märkte an und zeigen, dass unter bestimmten Vorbedingungen die Ergebnisse des Marktmechanismus nicht zu Gunsten einzelner Individuen zu verbessern sind, ohne dass der Nutzen mindestens eines anderen Individuums sinkt. Allerdings sei angemerkt, dass die Anwendung des Pareto-Kriteriums im Rahmen der Hauptsätze der Wohlfahrtsökonomik nur unter einigen aus ethischer Sicht wichtigen Annahmen möglich ist. So setzt beispielsweise die Verwendung des Kriteriums der marginalen Zahlungsbereitschaft als Ausdruck des individuellen Nutzens voraus, dass die gesellschaftliche Einkommensverteilung akzeptiert wird. Zwar lässt sich auf Basis des zweiten Hauptsatzes zeigen, dass die Einkommensverteilung unabhängig vom Allokationsmechanismus gestaltet werden kann. Dieses ist allerdings nur unter sehr restriktiven Annahmen möglich (vgl. hierzu den Kapitel 16 von Ott im dritten Band des Kompendiums).

Die auch für umweltökonomische Fragen wie etwa in der Klimaökonomik häufig zitierte Wohlfahrtsfunktion von John Rawls (1921-2002) lehnt zwar die utilitaristische Fundierung anderer Wohlfahrtsfunktionen ab, kann aber ebenfalls in diesem Zusammenhang genannt werden. Allerdings findet hier keine additive oder multiplikative Aggregation individueller Nutzen statt. Stattdessen wird das Niveau der sozialen Wohlfahrt immer von dem Nutzen des Individuums bestimmt, das die relativ schlechteste Position einnimmt. Diese sog. Maximin-Regel ist daher mit einer sehr starken Ungleichheitsaversion verbunden. Vgl. hierzu auch den Kapitel 16 von Ott im dritten Band des Kompendiums. 3

588

Roland Menges

Aus umweltökonomischer Sicht stellt insbesondere das Vorliegen von Externalitäten eine Verletzung der o.g. Vorbedingungen der Effizienzversprechen wettbewerblicher Systeme dar. Der Gedanke, dass ein derartiges Marktversagen nur durch den wohlfahrtssteigernden Eingriff des Staates überwunden werden kann, geht auf Arthur Cecil Pigou (1877-1959) zurück.

5.3.2

Nachhaltigkeit als normatives Kriterium der Umweltpolitik

Wohlfahrtsökonomische Bewertungskriterien werden in der naturwissenschaftlich geprägten Ökologischen Ökonomik überwiegend abgelehnt und durch das Kriterium der Nachhaltigkeit bzw. der nachhaltigen Entwicklung ersetzt. Trotz seiner Prominenz hat der Begriff der Nachhaltigkeit allerdings in den letzten Jahren fast bis zur Unkenntlichkeit an Schärfe verloren. Dies liegt vor allem daran, dass die vermeintlich naturwissenschaftliche Präzision des Begriffs die fehlende Auflösung der Widersprüche zwischen humanistischen und naturalistischen Moralphilosophien verdeckt. In den Wirtschaftswissenschaften wird ein Wachstums-, Entwicklungs- oder Ressourcenallokationspfad oftmals als nachhaltig bezeichnet, wenn der Wohlstand nachfolgender Generationen zu keinem Zeitpunkt zurückgeht (Perman et al. 2011). Der Nachhaltigkeitsbegriff ist damit ähnlich wie das Pareto-Prinzip universal auf intertemporale Allokationsentscheidungen anwendbar. Im einfachsten Fall geht es hierbei aus individueller Sicht um den Betrag des Einkommens, den ein Individuum während der gegenwärtigen Periode für Konsumzwecke ausgeben kann, ohne hierdurch seine zukünftigen Konsummöglichkeiten zu beeinträchtigen4, in komplexeren Fällen geht es um kollektive Entscheidungen wie die Rückführung der Staatsverschuldung oder das Problem der Klimaerwärmung, die die Wohlfahrt der gegenwärtigen und zukünftigen Generationen auf vielfältige Weise berühren. Die Wohlfahrt der gegenwärtigen und zukünftigen Generationen können über Diskontierungsfaktoren auf Basis von intertemporalen Wohlfahrtsfunktionen betrachtet werden. Die Diskontierung stellt damit eine Ausprägung des Utilitarismus dar, bei der nicht die individuellen Nutzen innerhalb einer Gesellschaft, sondern die Wohlfahrten der Gesellschaft in verschiedenen Perioden gegeneinander abgewogen werden.

Dieser in vielen Arbeiten zur Nachhaltigkeit zitierte Begriff des Einkommens geht auf Hicks (1946) zurück: „The purpose of income calculations in practical affairs is to give people an indication of the amount which they can consume without impoverishing themselves. Following out this idea, it would seem that we ought to define a man´s income as the maximum value which he can consume during a week, and still expect to be as well off at the end of the week as he was at the beginning. Thus, when a person saves, he plans to be better off in the future, when he lives beyond his income he plans to be worse off. Remembering the practical purpose of income is to serve as a guide for prudent conduct, I think it is fairly clear that this is what the central meaning must be” (Hicks 1946, S. 172). 4

5 Umweltökonomik

5.3.3

589

Schwache versus starke Nachhaltigkeit

Das umweltpolitische Leitbild der Nachhaltigkeit wird im sog. Brundtlandbericht der WCED (World Council on Environment and Development) als eine Entwicklung definiert, „die die Bedürfnisse der Gegenwart befriedigt, ohne zu riskieren, dass künftige Generationen ihre eigenen Bedürfnisse nicht befriedigen können“ (WCED 1987, S. 46). Versteht man Nachhaltigkeit als die Forderung, nachfolgenden Generationen ein bestimmtes Leistungspotenzial als Ausstattung zu übergeben, dann bestehen die wesentlichen Unterschiede zwischen den verschiedenen Konzeptionen von Nachhaltigkeit in der Frage, wie diese Ausstattung zusammengesetzt sein soll. Die konkurrierenden Auffassungen von Nachhaltigkeit variieren zwischen der Weitergabe • eines konstanten Sozialproduktes, • eines konstanten, aber beliebig kombinierbaren Kapitalstocks, der sich aus Umweltkapital und menschengemachtem Sachkapital zusammensetzt, • verschiedener Mindestmaße kritischen Umweltkapitals, • bis hin zur Forderung der Aufrechterhaltung eines konstanten Umweltkapitals.5 Das Konzept der schwachen Nachhaltigkeit nimmt weitgehende Substitutionsmöglichkeiten zwischen Umwelt- und Sachkapital innerhalb eines nicht-sinkenden Kapitalstocks an, während die Vertreter der starken Nachhaltigkeit betonen, dass natürliches und künstliches Kapital nicht bzw. nicht vollständig substituierbar sind (v. Hauff und Kleine 2013). Bei der Interpretation der starken Nachhaltigkeit als kritisches, nicht-substituierbares Naturkapital können zwei Positionen unterschieden werden. Während die eine Position versucht, auf Basis ökologischer Standards Restriktionen für das wirtschaftliche Handeln abzuleiten, innerhalb derer jedoch das neoklassische Paradigma hinsichtlich einer optimalen Ressourcennutzung angewendet wird, lehnt die zweite Position die Verwendung des anthropozentrischen ökonomischen Wertekonzeptes bei der Ressourcenallokation vollständig ab (Hackl 2000). Bei der Verwendung von ökologischen Standards (vgl. hierzu Abschnitt 5 dieses Beitrags) werden zwar ökonomische Substitutionsmöglichkeiten anerkannt, allerdings werden ihnen bestimmte Grenzen gesetzt. Die Grenzen der Substituierbarkeit liegen dort, wo bestimmte Elemente des natürlichen Kapitals nicht nur als Produktionsfaktor für den ökonomischen Prozess betrachtet werden können, sondern grundsätzliche, nicht-substituierbare Voraussetzungen des menschlichen Lebens darstellen, deren Funktionen für Nach Ansicht von Hammond (1993) lassen sich diese unterschiedlichen Restriktionen allerdings in einem erweiterten Kapitalbegriff integrieren: „Let me merely point out that some scientists, especially biologists, emphasize biological preservation. Economists, however, tend to emphasize capital preservation, though some broader minded members of the profession do interpret the word `capital´ generously in order to allow for exhaustable and renewable resources, for freedom from pollution, and for other suitable forms of what one might call `environmental capital´” (Hammond 1993, S. 5). 5

590

Roland Menges

die zukünftigen Generationen aufrecht zu erhalten sind. Diese Sichtweise erfordert die Bestimmung von sog. „Safe Minimum Standards“, kritischen Tragekapazitäten oder eines kritischen Naturkapitals, gemessen in physischen Größen. Hierdurch wird die möglicherweise illusorische Annahme vermieden, die Welt so steuern zu können, dass der Gesamtoder Umweltkapitalstock über die Zeit konstant gehalten werden kann (Cansier 1997). Die exogene Einführung derart „harter“, nicht direkt aus den individuellen Präferenzen abgeleiteten umweltpolitischen Restriktionen ist in der neoklassischen Umweltökonomik weitgehend akzeptiert. Standards werden auch deswegen als „ökonomisch“ akzeptiert, wenn sie in das ökonomische Wertkonzept eingebettet sind: Sie werden nicht einfach aus der naturwissenschaftlichen Forschung übernommen, sondern können unter der Annahme unvollständiger Informationen auf einen bestimmten Zweck hin gesetzt werden. So erkennt ein von prominenten Wirtschaftswissenschaftlern formuliertes Manifest über die ökologische Belastbarkeit der Erde die Unsicherheit über die langfristigen Effekte von Umweltschäden ausdrücklich an und leitet hieraus die Forderung nach einem umfassenden Schutz der natürlichen Ressourcen ab: „Above all, given the fundamental uncertainties about the nature of ecosystem dynamics and the dramatic consequences we would face if we were to guess wrong, it is necessary that we act in a precautionary way so as to maintain the diversity and resilience of ecosystems.” (Arrow et al. 1995, S. 93). Geht man also davon aus, dass der Erhalt einer natürlichen Ressource gesellschaftlich erwünscht ist, so leitet sich hieraus ein umweltpolitisches Qualitätsziel ab, an dem sich die Setzung der quantitativen Standards orientiert (Steger et al. 2002).

5.3.4

Die Position der Ökologischen Ökonomik: Starke Nachhaltigkeit als physisches Konservierungskonzept

In der Ökologischen Ökonomik geht man demgegenüber davon aus, dass aus naturwissenschaftlichen Erwägungen, insbesondere angesichts der thermodynamischen Zusammenhänge, direkt eine Minimierung des gesamten Ausmaßes (Scale) der menschlichen bzw. ökonomischen Eingriffe in das Ökosystem abzuleiten ist. In diesem Fall wird die tiefstmögliche Rate an Material- und Energiedurchfluss angestrebt, da die Inanspruchnahme natürlicher Ressourcen zu einem Ressourcenverlust führt (Hackl 2000). Da hier nicht von einer relativen, sondern einer absoluten Knappheit natürlicher Ressourcen ausgegangen wird, darf die Ressourcenallokation nicht auf Basis ökonomischer Kriterien erfolgen, sondern muss zusätzlichen ökologischen und ethischen Kriterien genügen. Umwelt wird also nicht mehr als Handlungsspielraum verstanden, dem Ressourcen entnommen und in den Abfälle eingelagert werden können, sondern wird vielmehr als thermodynamisch abgeschlossenes, materiell nicht wachsendes System verstanden, in das Gesellschaft und Wirtschaft als Subsysteme eingeschlossen sind. Als Beispiele operationalisierter Nachhaltigkeitskriterien werden häufig die folgenden drei Forderungen genannt (Hussen 2000; Hackl 2000; Pearce und Turner 1990, Costanza et al. 1991):

5 Umweltökonomik

591

• Beim Abbau erneuerbarer Ressourcen darf deren Regenerationsrate nicht überschritten werden. • Die Emission von Schadstoffen darf die assimilative Kapazität der Umwelt nicht überschreiten. Hieraus folgt, dass Schadstoffeinträge, die nicht von der Natur absorbiert bzw. abgebaut werden können, unterbleiben sollten. • Bei Nutzung nicht-erneuerbarer Ressourcen dürfen zukünftige Generationen nicht schlechter gestellt werden. Daher sollte gleichermaßen in die Entwicklung gleichwertiger erneuerbarer Substitute investiert werden. Nach Ansicht der ökologischen Ökonomie laufen die Effizienzüberlegungen ökonomischer Modelle leer, weil diese auf Eigenschaften abstellen, die im Rahmen ökologisierter Wirtschaftsprozesse für die langfristige Existenz des Ökosystems unerheblich sind. Georgescu-Roegen (1993) weist beispielsweise anhand des Entropie-Gesetzes auf die unterschiedlichen Perspektiven ökonomischer und ökologischer Analysen hin: „Economists are fond of saying that we cannot get something for nothing. The entropy law teaches us that the rule of biological life and, in men´s case, of its economic continuation is far harsher. In entropy terms, the cost of any biological or economic enterprise is greater than the product. In entropy terms, any such activity necessarily results in a deficit.“ (GerogescuRoegen 1993, S. 80). Die von der ökologischen Ökonomie vorgeschlagenen Indikatoren zur Interpretation der nachhaltigen Entwicklung beruhen daher oftmals auf der simultanen Verwendung energetischer und ökonomischer Werttheorien. Im Extremfall kann diese Betrachtung zur Forderung einer Konservierung sämtlicher Komponenten des natürlichen Kapitals führen (Hediger 1997). Ein Verbund von energetischen und aus der Kapitaltheorie abgeleiteten monetären Indikatoren stellt beispielsweise das multikriterielle Verfahren des „dynamischen Nachhaltigkeitsbaums“ dar (Faucheux und Noël 2001). Hierbei muss allerdings angemerkt werden, dass nicht klar ist, ob und ggf. wie monetäre und energetische Bewertungen konvertibel sein können. Ein anderes Beispiel für den Versuch einer Integration sozialer, ökonomischer und ökologischer Nachhaltigkeitsdimensionen ist das sog. integrierte Nachhaltigkeitsdreieck (v. Hauff und Kleine 2013), das darauf zielt, gesellschaftliche Handlungsfelder zu operationalisieren. Dieses Konzept sieht die Dimensionen „Soziales“, „Ökonomie“ und „Ökologie“ als ein gleichschenkliges Dreieck, bei dem sich das Innere als räumliches Kontinuum darstellt, in dem jeder Punkte als Kombination der drei Dimensionen definiert werden kann. Die zu Feldern zusammengefassten Punkte lauten dann etwa „stark ökologisch“, „vorwiegend ökologisch“, „sozial ökologisch“ etc. (v. Hauff und Kleine 2013, S. 13) Aus ökonomischer Sicht ist auch dieses Konzept wenig überzeugend, da es sich hierbei um die Darstellung einer Zielfunktion mit drei Argumenten handelt, deren Verknüpfung bzw. Gewichtungsfaktoren bewusst offen gelassen werden. Zudem dürfte es methodisch kaum möglich sein, gesellschaftliche Handlungsfelder allein auf Basis eines normativen Zielsystems mit nicht aufgelösten Trade-Offs abzuleiten. Aus sozialphilosophischer Sicht liegt hier eine ethische Konzeption vor, die allein vom „Sollen“ auf das „Wollen“ schließt (Homann 2015).

592

5.3.5

Roland Menges

Differenz der Wertaussagen: Ein Beispiel aus der Umweltökonomischen Gesamtrechnung

Die Differenz zwischen der naturwissenschaftlichen und sozialwissenschaftlichen Fundierung von normativen Forderungen in der Umweltpolitik kann an einem Beispiel aus der oben vorgestellten Umweltökonomischen Gesamtrechnung erläutert werden. Ein wichtiger Output dieses Rechenwerkes liegt in den Kennziffern zur Effizienz der gesamtwirtschaftlichen Umweltnutzung: Die Produktivität eines Einsatzfaktors gibt grundsätzlich an, wie viel wirtschaftliche Leistung mit der Nutzung einer Einheit dieses in physischen Einheiten gemessenen Faktors wie etwa Energieverbrauch, Wasserentnahme oder Rohstoffverbrauch verbunden ist: Produktivität = Bruttoinlandsprodukt [€] / Einsatzfaktor [phys. Einheiten]. Die Produktivität drückt damit aus, wie effizient die Volkswirtschaft mit dem betrachteten Einsatzfaktor umgeht. Forderungen nach einer Reduzierung von Stoffdurchflüssen setzen an dieser Größe an. Der auf quantifizierte Effizienzziele der Umweltpolitik ausgerichteten Umweltökonomischen Gesamtrechnung kann beispielsweise entnommen werden, dass der Anstieg der Produktivität der Einsatzfaktoren Rohstoffe und Energie zwischen 2000 und 2011 bei knapp über 20% und somit im Jahresdurchschnitt jeweils bei ca. 1,7% lag (Statistisches Bundesamt 2012). In ähnlicher Weise lassen sich auch die Produktivität der Nutzung der Umwelt als Senke für Rest- und Schadstoffe oder die Entwicklung der Energieeffizienz für einzelne Produktionsbereiche bestimmen: Energieeffizienz = Bruttowertschöpfung [€] / Energieinput [TJ], wobei der Kehrwert der Energieeffizienz die Energieintensität wirtschaftlicher Prozesse darstellt. Die Statistik der Umweltökonomischen Gesamtrechnung zeigt, dass das Niveau der Energieintensität bei den einzelnen wirtschaftlichen Prozessen sehr unterschiedlich ausgeprägt ist. Zwar hat die Energieintensität aller Produktionsbereiche zwischen 2000 und 2011 um mehr als 10 % abgenommen, allerdings gibt es auch Wirtschaftsbereiche wie Glas, Keramik und verarbeitete Steine, in denen die Energieeffizienz um mehr als 25% abgenommen hat. Rechnerische Größen wie Energieeffizienz dienen nicht nur der Beschreibung eines Prozesses, sondern sie entfalten als Indikatorsystem gleichzeitig normativen Charakter: Die mit der Energie- und Umweltnutzung einhergehenden Umweltprobleme könnten bei verbesserter Energieeffizienz entschärft werden. Aus normativer Sicht beinhaltet Effizienz die Forderung, die Energiewandlung möglichst verlustfrei zu gestalten (Erdmann und Zweifel 2010). Eher ökologisch geprägte Arbeiten fordern daher häufig, den verschiedenen Produktionsbereichen und Industrien direkt Standards für den Ressourceneinsatz vorzugeben. In Bezug auf das System der Umweltökonomischen Gesamtrechnung wird beispielsweise kritisiert, dass das vorwiegend in physischen Einheiten formulierte System zwar über Trends und Ursachen für bestimmte Umweltbelastungen berichten kann,

5 Umweltökonomik

593

eine politisch nutzbare Operationalisierung dieser Indikatoren in Richtung eines echten Leitbildes einer nachhaltigen Entwicklung jedoch ausstehe. Letztlich werde hierdurch die Aussagekraft etablierter Wirtschaftsindikatoren der Volkswirtschaftlichen Gesamtrechnung nicht in Frage gestellt und keine echte Entscheidungshilfe für die Politik geschaffen (Bartelmus et al. 2003). Aus ökonomischer Sicht ist demgegenüber auf die Grenzen einer naturwissenschaftlich-quantitativen Erfassung und Steuerung von Effizienzindikatoren hinzuweisen. Das Problem dieser Indikatoren besteht darin, dass die Opportunitätskosten der Vermeidung von Umwandlungsverlusten zur Erhöhung der Energieeffizienz oder die gesamtwirtschaftlichen Anpassungskosten, die im Zuge der Substitution von Einsatzfaktoren entstehen, in derartigen technischen Größen nicht berücksichtigt werden. Technologische Effizienz ist in der ökonomischen Theorie aber hierarchisch dem Begriff Optimalität untergeordnet. Sie leitet sich aus der gesamtwirtschaftlichen Optimalität des Ressourceneinsatzes, d.h. der bestmöglichen Bedienung der Präferenzen der Konsumenten ab. Formal verlangt dies die Gleichheit der Grenzrate der Substitution im Konsum und der Grenzrate der Transformation bei der Produktion. Effizienz liegt dann vor, wenn alle Produktionsfaktoren so eingesetzt werden, dass das Verhältnis der Grenzproduktivitäten dem Verhältnis der Faktorpreise entspricht (Erdmann und Zweifel 2010). Der kaum auflösbare Kontrast zwischen naturwissenschaftlich und ökonomisch fundierten Wertaussagen kann auch anhand des regionalen Sees aus Abschnitt 2.2 in diesem Kapitel verdeutlicht werden: 1. Die Knappheit der Umwelt lässt sich in diesem Beispiel mit Bezug auf die individuellen Werte bzw. die mit der Umwelt verbundenen Nutzen nicht objektiv, sondern nur subjektiv interpretieren. 2. Knappheit ist relativ: Konkurrierende Verwendungen der Umwelt sind mit Opportunitätskosten, d.h. dem Verlust von Nutzen an anderer Stelle, verbunden. Diese ersten beiden Aspekte führen zu provozierenden Schlussfolgerungen, die mit naturalistischen Werttheorien kaum vereinbar sind: Geht man im oben behandelten Beispiel etwa davon aus, dass die Landschaft um den See herum unbewohnt ist, oder dass die betroffenen Individuen die mit der Emissionstätigkeit verbundenen Umweltschäden niedriger bewerten als die Kosten, die sie möglicherweise in Form steigender Preise oder sinkende Beschäftigung durch die Anpassungs- und Vermeidungsmaßnahmen der Unternehmen aufbringen müssen, ist das Gut Umwelt weniger knapp. Dasselbe Niveau der Emissionen führt hingegen in einer Konstellation, in der die Umweltschäden als sehr bedeutsam wahrgenommen werden, zu einem höheren Grad an Knappheit. Der Begriff der Opportunitätskosten setzt zudem voraus, dass tatsächlich Opportunitäten vorliegen. Umweltschäden, die aus der Vergangenheit stammen, lassen sich mit diesem Kalkül nicht sinnvoll internalisieren, sondern müssen wie andere gesellschaftliche Aufgaben z.B. durch kollektive Willensbildung und eine Finanzierung aus allgemeinen Steuermitteln bearbeitet werden (vgl. die Ausführungen im Kapitel 6 zum sog. Gemeinlastprinzip).

594

Roland Menges

3. Normative Forderungen nach einer Minimierung der Schadstoffeinträge oder einem vollständigen Verbot von Umweltschäden (e = 0) sind aus Sicht dieses Modells wenig sinnvoll. Vielmehr geht es um eine Optimierung der Allokation, d.h. der Verwendung der Umwelt für verschiedene Zwecke unter Abwägung der verschiedenen Opportunitätskosten. 4. Dies bedeutet auch, dass Umweltprobleme aus wirtschaftswissenschaftlicher Sicht in erster Linie gesellschaftlicher Natur sind. Allein aus den naturwissenschaftlichen Erkenntnissen zu bestimmten Umweltproblemen lassen sich keine Handlungsempfehlungen für die Politik ableiten (naturalistischer Fehlschluss, Albert 1978). So stellt die Verankerung ökologischer Restriktionen in das ökonomische System eine komplexe gesellschaftliche Problematik dar, die nur über gesellschaftliche Interessenausgleichs­ prozesse zu realisieren ist (Suchanek 2000). Hierbei spielen auch Verteilungsfragen eine Rolle, da die Schadensbewertung auch von der Einkommens- und Kaufkraftverteilung in den betroffenen Regionen abhängt. Maßnahmen zur Internalisierung externer Effekte werden in Regionen mit eher ärmeren Haushalten vermutlich auf größere Widerstände treffen als in eher reichen Regionen.6

5.3.6

Umweltschutz, Utilitarismus und Pareto-Verbesserungen

Das Beispiel des regionalen Sees kann auch genutzt werden, um die Differenzen zwischen den in Abbildung 5.8 dargestellten liberalen und utilitaristischen Werttheorien herauszuarbeiten. Die oben vorgetragene Analyse kommt zu dem Ergebnis, dass aus Sicht der gesamten Gesellschaft im unregulierten Ausgangszustand e0 eine ineffiziente Ressourcenallokation vorliegt. Die Umweltnutzung im Emissionsniveau e* führt zu den geringsten gesamtwirtschaftlichen Opportunitätskosten und dem höchsten gesellschaftlichen Nutzen, weil die Grenzvermeidungskosten den Grenzschadenskosten entsprechen. Dieses Ergebnis ist allerdings nur unter der utilitaristischen Annahme zulässig, dass sich die individuellen Positionen der Konsumenten der Umweltqualität und die Nutzenpositionen der produzierenden Unternehmen unter den jeweiligen Kurven aggregieren und zur Gesamtwohlfahrt verrechnen lassen. Nimmt man an, dass die in Abbildung 5.5 dargestellte Internalisierungslösung über umweltpolitische Instrumente realisiert wird, so verlangt sie beiden Seiten Kosten ab. Dies ist bei aggregierter Betrachtung sinnvoll, bei individueller Betrachtung jedoch nicht unproblematisch: In ähnlicher Weise werden in der soziologischen Systemtheorie von Luhmann (1988) Umweltprobleme als eine Intensivierung der „ökologischen Kommunikation“ im Zuge einer räumlichen, sozialen und ökonomischen Verschärfung des gesellschaftlichen Wettbewerbs um Umweltressourcen verstanden. Hiernach handelt es sich bei der ökologischen Gefährdung ... um ein ausschließlich gesellschaftsinternes Problem. Es geht nicht um die vermeintlich objektiven Tatsachen: dass die Ölvorräte abnehmen, die Flüsse zu warm werden.... Das mag alles der Fall sein oder nicht der Fall sein, erzeugt als nur physikalischer, chemischer oder biologischer Tatbestand jedoch keine gesellschaftliche Resonanz, solange nicht darüber kommuniziert wird. (Luhmann 1988, S. 62f.). 6

5 Umweltökonomik

595

• Aus Sicht der Konsumenten der Umweltqualität stellt der Zustand e* eine eindeutige Verbesserung gegenüber e0 dar. • Aus Sicht der Unternehmen stellt dieser Übergang jedoch eine relative Verschlechterung dar: Die von ihnen zu tragenden Vermeidungskosten reduzieren ihre Nutzen, der vor der Umweltverbesserung der gesamten Fläche unter der Kurve der Opportunitätskosten der Umweltverbesserung entsprach. Der Utilitarismus konstatiert eine gesellschaftliche Verbesserung, weil der gesamtwirtschaftliche Nutzenzuwachs größer ist als die dafür zu tragenden Vermeidungskosten. Entsprechend diagnostiziert das sog. Kaldor-Hicks-Kriterium die wohlfahrtssteigernde Wirkung der Umweltverbesserung, weil es potenziell möglich ist, die Verlierer der Maßnahme mit den an anderer Stelle anfallenden Gewinne zu entschädigen. Da eine „echte“ Entschädigung jedoch nicht zwingend vorgesehen ist, stellt sich aus Sicht der liberalen Werttheorie die Frage, ob allein der Verweis auf die Verbesserung eines aggregierten Wohlfahrtniveaus ausreichend ist, die Unternehmen von der Sinnhaftigkeit einer Umweltverbesserung zu überzeugen, wenn diese mit einer relativen Schlechterstellung rechnen müssen. Allgemein formuliert kann also gefragt werden, unter welchen Voraussetzungen die Einführung von Umweltschutz auch als Pareto-Verbesserung angesehen werden kann (Cansier 2004). Aus Sicht des klassischen liberalen Freiheitsbegriffs stellt sich die Situation wie folgt dar: Grundsätzlich stellt die mit der Emission verbundene Umweltverschmutzung durch die Unternehmen einen Eingriff in die individuelle Freiheit der Konsumenten von Umweltqualität dar. Ohne Umweltschutz kommt es zu einer nichtgerechtfertigten Überwälzung von Kosten auf Dritte. Die Einführung von Umweltschutz könnte also bei wechselseitigen Übergriffen vertragstheoretisch gerechtfertigt werden, da sich alle Individuen vor diesen Übergriffen schützen können. Wechselseitige Übergriffe führen in ein Gefangenendilemma, das eine gleichzeitige Verbesserung aller Individuen ohne weitere institutionelle Regelungen gerade nicht erlaubt. Eine derartige Rechtfertigung staatlicher Strukturen wird beispielsweise in der Staatstheorie von Thomas Hobbes (1588-1679) angenommen, nach der die Freiheit der Individuen und der Friede in der Gesellschaft als nicht gleichzeitig realisierbar erscheinen. Die Individuen unterwerfen sich hiernach freiwillig einem sog. Leviathan-Staat: Hobbes opfert die Freiheit der Individuen der politischen Herrschaft des Staates, damit die individuelle Freiheit der Schwachen nicht zum Opfer der privaten Gewalt der Stärkeren werden (Kirsch 2004). Im Fall des regionalen Sees liegen jedoch keine wechselseitigen Übergriffe vor, da die Umweltverschmutzung einseitig durch die produzierenden Unternehmen in Form externer Effekte erfolgt. Zwar können die rivalisierenden Nutzungsansprüche auch als Grundrechte interpretiert werden: Die Emissionstätigkeit der landwirtschaftlichen Unternehmen kann als Grundrecht in Bezug auf die Berufsfreiheit oder das Privateigentum der Produzenten interpretiert werden, während die Konsumenten der Naherholungskapazitäten des Sees ein Recht auf Unversehrtheit vortragen könnten. Der Zustand der optimalen Umweltnutzung stellt vor dem Hintergrund dieser rivalisierenden Rechte möglicherweise sogar eine gerechte Lösung des Problems dar, weil er auf einen Kompromiss abzielt: Im

596

Roland Menges

Niveau der optimalen Umweltnutzung tragen die Emittenten die Opportunitätskosten des Umweltschutzes in Form der Vermeidungskosten, den „Opfern“ wird demgegenüber zugemutet, ein bestimmtes Schadensniveau zu akzeptieren, ohne auf Kompensation durch die Emittenten (oder den Staat) hoffen zu können. Allerdings stellt diese vermeintlich gerechte Lösung noch nicht sicher, dass auch eine Pareto-Verbesserung vorliegt. Dass die Aussicht auf eine gerechte Lösung ausreichend ist, die produzierenden Unternehmen davon zu überzeugen, Verzicht zu üben, eine Schlechterstellung zu akzeptieren und dem Umweltschutz freiwillig zuzustimmen, muss nach wie vor bezweifelt werden. Um zu zeigen, dass auch ein Verzicht Ausdruck einer Pareto-Verbesserung sein kann, kann auf ein vertragstheoretisches Gedankenexperiment zurückgegriffen werden (Cansier 2004): Wenn man annimmt, dass die Konsumenten der Umweltqualität des Sees im unregulierten Ausgangszustand e0 Proteste leisten, dann entstehen ihnen hierdurch zwar zusätzlich Kosten, allerdings sind dann die Nutzungsrechte aus Sicht der Emittenten nicht mehr kostenlos verfüg- bzw. durchsetzbar. Je mehr Emissionen sie in den See eintragen, desto stärker sind die Proteste und desto größer sind die für die Unternehmen entstehenden Kosten. Diese Kosten können als Transaktionskosten interpretiert werden, die sie zur Durchsetzung ihrer Rechte tragen müssen, beispielsweise indem sie ihre Produktionsanlagen und landwirtschaftlichen Flächen vor Protesten und Übergriffen schützen. In der folgenden Abbildung 5.9 stellt sich das veränderte Kalkül der Parteien als Verschiebung der ursprünglichen Grenzschadens- und Grenzvermeidungskostenkurven dar. MU, MC pro Emissionseinheit MEC + marginale Protestkosten

MCA + marginale Durchsetzungskosten

MEC

MCA

marginale Durchsetzungskosten

e*

𝒆�

Abb. 5.9  Transaktionskosten im unregulierten Ausgangszustand [Quelle: in Anlehnung an Cansier (2004, S. 149)]

𝑫𝑲𝒆�

e0

Emissionsniveau

5 Umweltökonomik

597

Nimmt man beispielsweise an, dass die marginalen Durchsetzungskosten zunächst gering sind, mit den ersten Emissionseinheiten bei gesteigerter Protestintensität zunehmen und ab einem bestimmten Niveau konstant verlaufen, ändert sich das Kalkül der Emittenten wie folgt: Wird in einer derartigen, durch Proteste und Durchsetzungskosten geprägten Situation über die Einführung von Umweltschutzregelungen verhandelt, werden diese aus eigenem Vorteilhaftigkeitskalkül freiwillig Emissionsminderungen im Umfang von e0 – e anbieten. Diese freiwillig angebotene Emissionsreduktion ist vorteilhaft, da die Emittenten bei ihrem freiwilligen Umweltschutzangebot damit rechnen können, dass sie bei einer Einstellung der Proteste die Durchsetzungskosten einsparen. Das von den Emittenten in dieser Situation freiwillig angebotene Umweltschutzniveau lässt sich damit wie folgt bestimmen: So lange die Grenzvermeidungskosten geringer sind als die marginalen Durchsetzungskosten, lohnt die Durchsetzung der Emissionen gegen die Proteste nicht. Beim angebotenen Emissionsniveau ẽ stellen sich die produzierenden Unternehmen sogar besser als vor den Verhandlungen im Zustand e0, da sie für die notwendigen Vermeidungskosten durch den Rückgang der Durchsetzungskosten entsprechend dem Rechteck DKe überkompensiert werden. Bei angenommenen Rationalverhalten werden die Konsumenten der Umweltqualität dieses Angebot zur Emissionsminderung annehmen, da sie damit Schadens- und Protestkosten einsparen. Auch wenn bei derartigen Verhandlungen zum beiderseitigen Vorteil das aus aggregierter gesamtwirtschaftlicher Sicht optimale Emissionsniveau nicht erreicht wird, zeigt dieses Beispiel doch grundsätzlich, dass ein Übergang zu Umweltschutzregelungen auch für die Emittenten vorteilhaft sein kann, wenn mit der Einigung auf derartige Standards Durchsetzungs- und damit Transaktionskosten eingespart werden können. Je größer die marginalen Durchsetzungskosten sind, desto größer werden die freiwillig angebotenen Emissionsminderungen sein. Die Einführung von umweltpolitischen Regelungen kann unter diesen Umständen die Pareto-Bedingung erfüllen und wird damit vertragstheoretisch erklärbar.

5.4

Umweltqualität als öffentliches Gut

5.4.1

Abgrenzungen ökonomischer Güter

Eine wesentliche im Rahmen des umweltökonomischen Grundmodells beschriebene Funktion der Umwelt besteht darin, dass sie den Menschen lebenserhaltende Leistungen wie beispielsweise saubere Atemluft oder Trinkwasser zur Verfügung stellt. Ökonomisch bedeutet dies, dass die Umweltqualität von den Menschen letztlich für konsumtive Zwecke genutzt wird. Das Gut Umweltqualität wird damit zum Argument der individuellen Nutzenfunktionen und wird – da alle Individuen gleichermaßen davon betroffen sind – von allen Individuen gemeinsam konsumiert. Hierbei wird im Folgenden angenommen, dass die zur Verfügung stehende Umweltqualität mengenmäßig durch den Menschen kontrolliert bzw. variiert werden kann. Konkret kann sich die Betrachtung der Umweltqualität etwa auf die Fläche eines geschützten Naturparks, die quantifizierbare Schadstoffbelastung von Umweltmedien wie Wasser, Boden oder Luft oder auch das Niveau der von der gesamten

598

Roland Menges

Gesellschaft aufgewendeten Mittel im Bereich des staatlichen Umweltschutzes beziehen. Im eingangs geschilderten Grundmodell des regionalen Sees wird das Niveau der Umweltqualität ebenfalls variiert: Es hängt hier von der Menge an Schadstoffen e ab, die die produzierenden Unternehmen in den See und die angrenzenden Umweltmedien eintragen. Die Einschränkung, dass in der Umweltökonomik lediglich solche Umweltprobleme behandelt werden, die Gegenstand menschlicher Entscheidungen sind, mag zunächst erstaunlich klingen. So sind die von einem Vulkanausbruch, einem Orkan oder einem Erdbeben ausgehenden Umwelt- und Zivilisationsschäden sicherlich auch aus ökonomischer Sicht relevant. Allerdings können sie kaum als Ergebnis menschlicher Entscheidungen betrachtet werden. Sie sind nicht opportunitätskostenrelevant, da sie nicht direkt auf menschliche Allokationsentscheidungen über die Nutzung von Umweltressourcen zurückzuführen sind. Gegenstand umweltökonomischer Analysen sind daher weniger die naturwissenschaftlichen Ursachen und die sozialen Folgen solcher Naturereignisse, sondern eher die ökonomischen Entscheidungen, die beispielsweise zur Begrenzung zukünftiger oder zur Beseitigung vorhandener Schäden getroffen werden. In diesem Kapitel steht die Frage im Vordergrund, wie das aus gesamtwirtschaftlicher Sicht optimale Niveau der Umweltqualität bestimmt und anhand welcher Mechanismen es realisiert werden kann. Zunächst ist dafür die Frage zu beantworten, durch welche Besonderheiten das im Folgenden als „öffentlich“ bezeichnete Gut „Umweltqualität“ gekennzeichnet ist und wo genau die Trennlinie zwischen öffentlichen und privaten Gütern verläuft. Grundsätzlich gelten für öffentliche Umweltgüter dieselben Zusammenhänge wie für andere öffentliche Güter. Trotzdem werden in der Literatur einige Aspekte von öffentlichen Umweltgütern hervorgehoben, die für deren Verständnis eine besondere Rolle spielen (Leveque 1997, Sandmo 1995, Siebert 2010, Kolstad 2010). Diese im Folgenden näher betrachteten Aspekte betreffen sowohl die produktive als auch die konsumtive Seite der Umweltgüter. Bevor eine nähere Betrachtung der Besonderheiten von Umweltgütern vorgenommen wird, ist es jedoch sinnvoll, eine grundsätzliche Kategorisierung verschiedener Arten ökonomischer Güter zu diskutieren. Der gemeinsame Kern aller Arten ökonomischer Güter liegt bekanntlich in ihrer Fähigkeit, Nutzen zu spenden, d.h. die Bedürfnisse von Konsumenten zu befriedigen (vgl. hierzu Kapitel 1 von Erlei in diesem Band). Bei der Abgrenzung verschiedener Arten ökonomischer Güter werden mit der Ausschließbarkeit und der Rivalität zwei Gütereigenschaften hervorgehoben, die sich auf bestimmte Konsumeigenschaften der Güter und die institutionelle Struktur der Nutzungs- bzw. Zugangsrechte beziehen. • Das Ausschlusskriterium stellt die Frage in den Vordergrund, ob es technisch und zu akzeptablen Kosten möglich ist, bestimmte Konsumenten von der Nutzung eines Gutes auszuschließen. Sofern dieses möglich ist, gilt dieses Kriterium als erfüllt. Es stellt eine wesentliche Voraussetzung für die Anwendbarkeit des wettbewerblichen Preismechanismus dar: Ein Konsument, der nicht bereit (oder fähig) ist, beim Bäcker den Preis für ein Brötchen zu zahlen, wird vom Konsum ausgeschlossen werden. Der Erholungswert des frei zugänglichen Sees aus dem Grundmodell steht hingegen allen Anwohnern

5 Umweltökonomik

599

und Touristen offen und unterliegt der Nicht-Ausschließbarkeit im Konsum, weil eine Technologie zum Konsumausschluss (wie etwa ein Ticketsystem mit durchsetzbaren Zugangsbeschränkungen) nicht existiert. • Das Rivalitätskriterium fragt, ob die Nutzungsmöglichkeiten eines Konsumenten sinken, wenn ein anderer Konsument dieses Gut ebenfalls nutzt. Vollständige Rivalität liegt beispielsweise bei Verbrauchsgütern wie Lebensmitteln vor: Das von einem Konsumenten verzehrte Brötchen kann von keinem anderen mehr verzehrt werden. Rivalität im Konsum liegt hingegen nicht vor, wenn in einer Küstenregion ein Deich für den Hochwasserschutz gebaut wird: Der Nutzen des Hochwasserschutzes eines bereits hinter dem Deich wohnenden Haushaltes wird nicht davon beeinträchtigt werden, wenn sich dort weitere Haushalte ansiedeln. Nichtrivalität liegt beispielsweise auch vor, wenn ein Internetnutzer nach bestimmten Informationen oder Diensten im Netz sucht, gleichzeitig aber auch noch viele andere Nutzer im Internet aktiv sind. Wenn der Internetnutzer soziale Plattformen besucht, wird sein Nutzen mit steigender Anzahl anderer Nutzer sogar zunehmen (zu sog. positiven Netzwerkeffekten vgl. auch Kapitel 14 von Dewenter und Heimeshoff im dritten Band des Kompendiums). Wenn hingegen die Internetverbindung von zu vielen Konsumenten gleichzeitig genutzt und die Übertragungskapazitäten begrenzt sind, ist es möglich, dass es zu Staueffekten kommt und der Nutzen eines vorhandenen Kunden bei Anschluss weiterer Kunden sinkt, so dass Rivalität im Konsum gegeben ist. Eine auf diesen beiden Merkmalen beruhende Klassifikation verschiedener Güter kann Abbildung 5.10 entnommen werden. Institutionelle Struktur der Nutzungsrechte

Konsum

Rivalität im

private Güter

Nicht-Ausschließbarkeit

Common-PropertyRessourcen

im Konsum

Meritorische Güter

Nichtrivalität

Eigenschaft des Gutes

Ausschließbarkeit

Klubgüter und natürliche Monopole

öffentliche Güter

Abb. 5.10  Klassifikation ökonomischer Güter [Quelle: in Anlehnung an Siebert (2010, S. 61) und Perman et al. (2011, S. 126)]

600

Roland Menges

Obwohl diese Typologisierung ökonomischer Güter aufgrund ihrer didaktisch motivierten Trennschärfe in vielen Lehrbüchern und Publikationen Verwendung findet, sind damit einige Engführungen verbunden, die hier nicht verschwiegen werden sollen. So führen beispielsweise Kaul et al. (1999) in Bezug auf die Definition öffentlicher Güter zusätzliche Merkmale und Differenzierungen ein, die insbesondere für globale öffentliche Güter wie etwa den Klimaschutz relevant sind, bei denen der Nutzerkreis weder regional noch zeitlich praktikabel eingrenzbar ist. Jansen und Priddat (2007) verwenden den Ansatz aus Abbildung 5.10 lediglich zur „Ersteinordnung“ der öffentlichen Güter und schlagen weitere Differenzierungen vor, die auf eine „Hybridisierung“ privater und öffentlicher Güter zielen. So enthält die in Abbildung 5.10 vorgenommene Einordnung der öffentlichen Güter ökonomische, rechtliche und ethische Komponenten, die sich teilweise gegenseitig überlagern und nicht unabhängig voneinander sind. Der Nicht-Ausschluss vom Konsum eines öffentlichen Gutes enthält häufig und implizit auch eine Rechtsposition, nach der niemand – ob er will oder nicht – vom Konsum dieser Güter ausgeschlossen werden darf. Neuere Theorien öffentlicher Güter sehen öffentliche Güter daher eher als „komplexe soziale Konstrukte von Recht, Wirtschaft und Politik“ (Jansen und Priddat 2007, S. 21). Die in Abbildung 5.10 vorgenommene Abgrenzung zwischen den verschiedenen Güterarten sollte daher nicht zu schematisch interpretiert werden. In der Realität sind Güter oft nicht vollständig als rein öffentlich oder rein privat zu kennzeichnen, häufig sind die Kombinationen der Gütereigenschaften weit weniger polar. Das hier vorgestellte Klassifikationsschema dient weniger einer präzisen Beschreibung der realen Güterwelt, sondern vielmehr der Strukturierung der durch die Kombination der jeweiligen Konsumeigenschaften geprägten Allokationsprobleme, die sich auf die Bereitstellung (Produktion) und die Nutzung dieser Güter auswirken. Private Güter Private Güter zeichnen sich durch Rivalität und Ausschließbarkeit im Konsum aus. Brötchen stellen beispielsweise solche Güter dar. Wettbewerbliche Märkte führen hier grundsätzlich zu einer effizienten Allokation, die im Optimum gerade dadurch beschrieben werden kann, dass der Güterpreis die Zahlungsbereitschaft der Konsumenten und die Grenzkosten der Produktion in Übereinstimmung bringt. Wäre der Erholungswert des regionalen Badesees, der im umweltökonomischen Grundmodell noch als öffentliches Gut zu bezeichnen ist, beispielsweise dadurch gekennzeichnet, dass ausschließlich abgezäunte Privatgrundstücke an seinen Ufern liegen, würde die „konsumierbare“ Umweltqualität des Badesees ebenfalls zu einem rein privaten Gut werden, das mit dem (Immobilien-)Preismechanismus bewirtschaftet wird. Klubgüter und natürliche Monopole Auch Klubgüter und natürliche Monopole stellen Güter dar, bei deren Konsum das Ausschlussprinzip zur Anwendung kommt. Allerdings führt das Hinzufügen eines weiteren Nutzers – zumindest bei Abwesenheit von Stauproblemen – nicht zur Einschränkung der Nutzungsmöglichkeit der bereits vorhandenen Kunden. Telekommunikationskabel oder

5 Umweltökonomik

601

auch Stromnetze sind Beispiele für ein natürliches Monopol. In diesen Fällen kann die effiziente Bereitstellung der Güter ein besonderes Problem darstellen, da der Grundgedanke der ökonomischen (Pareto-)Effizienz einerseits fordert, die Nutzen aller Individuen bei der Bereitstellungsentscheidung zu berücksichtigen, sich damit aber andererseits ein Kostendeckungsproblem der Anbieter dieser Güter ergeben kann. Häufig sind daher nur sog. zweitbeste Lösungen (second best) erreichbar. Diese Probleme werden insbesondere in der Regulierungsökonomik behandelt (vgl. hierzu Kapitel 14 von Dewenter und Heimeshoff im dritten Band des Kompendiums). Klubgüter, deren Nutzen allen Mitgliedern des Klubs zur Verfügung steht, die aber für Nicht-Mitglieder zugangsbeschränkt sind, sind aufgrund der damit verbundenen Rationierung grundsätzlich für private Anbieter interessant und aus Sicht der Regulierungsökonomik eher unproblematisch. Die sich hier ergebenden Probleme beziehen sich auf die Bestimmung der effizienten Größe des Klubgutes und der Tarifierung seiner Leistungen für die Mitglieder. Für eine Übersicht zur Theorie der Klubgüter vgl. Cornes und Sandler (1996). Ein umweltökonomisches Beispiel für ein Klubgut wäre ein eintrittspreispflichtiger Naturpark. Die Besucher dieses Parks erhalten nach Zahlung des Eintrittspreises Zugang zu einer identischen Umweltqualität. Anders als bei den Privatgrundstücken am Badesee, deren Qualität vermutlich mit der Größe und der Lage des Grundstücks, der Entfernung zum Nachbarhaus und der Besiedlungsdichte variiert, erhalten alle zahlenden Besucher des Naturparks grundsätzlich Zugang zur selben Umweltqualität. Common-Property-Ressourcen Eine Common-Property-Ressource ist ein Gut, für das – anders als im Fall des privaten Gutes oder des Klubgutes – keine exklusiven Nutzungsrechte definiert sind (Nicht-Ausschließbarkeit im Konsum), bei dessen Konsum die Individuen jedoch – anders als im Fall der öffentlichen Güter oder Klubgüter – miteinander konkurrieren (Rivalität im Konsum): Der Nutzen, den ein einzelnes Individuum aus dem Gut zieht, hängt von den Konsumaktivitäten der übrigen Individuen ab. In der Literatur werden Common-Property-Ressourcen häufig auch als Gemeingüter, Gemeinschaftsgüter, Allmende-Güter oder Commons bezeichnet. Als Beispiel werden häufig die allen Anwohnern zugänglichen Fischgründe genannt, die sich in einem See oder in internationalen Gewässern befinden können (vgl. etwa Pindyck und Rubinfeld 2013, Weimann 1995, Blankart 2011). Aus umweltökonomischer Sicht sind Common-Property-Ressourcen Ausdruck der im Abschnitt 5.2.2 diskutierten Funktion der Umwelt als Medium zur Entnahme von Ressourcen und der mit der Nutzungskonkurrenz verbundenen Probleme: Da eine Tonne Fisch jeweils nur von einem Fischer eingebracht werden kann, verringert sich mit jeder Tonne Fischfang der Ertrag, den die übrigen Fischer ernten können. Nimmt man beispielsweise an, der erzielbare Marktpreis einer Tonne Fisch sei gegeben, jeder Fischer habe einen freien Zugang zum See und verfüge über lediglich ein Boot, dessen Nutzung zu konstanten Grenzkosten (MC) möglich sei, und nimmt man darüber hinaus an, dass jedes Boot über dieselben Eigenschaften verfüge, so lässt sich die Nutzung der Ressource anhand der Abbildung 5.11 beschreiben.

602

Roland Menges

Abb. 5.11  Common-Property-Ressource

Zunächst ist zu analysieren, wie die den Fischgründen entnehmbare Erntemenge von der Anzahl der Fischerboote beeinflusst wird. Mit zunehmender Anzahl der Boote F nimmt zwar die insgesamt geerntete Menge Fisch zunächst zu, der Erntebeitrag, der durch ein zusätzliches Boot realisiert wird (marginal revenue, MR), nimmt jedoch ab. Ebenso nimmt die durchschnittliche Erntemenge jedes Bootes ab (average revenue, AR). Bei der Anzahl von F1 Booten wird der Grenzertrag Null: Die insgesamt geerntete Menge Fisch wird maximal und lässt sich nicht mehr erhöhen. Wird die Menge an Fischerbooten jedoch weiter erhöht, geht die durchschnittliche Erntemenge AR jeden Bootes weiter zurück und die marginale Erntemenge MR wird negativ. Wie intensiv wird die Ressource nun genutzt werden? Aus sozialer Sicht kann der Einsatz der Fischerboote als variabler Produktionsfaktor bei der Nutzung der CommonProperty-Ressource verstanden werden: Es sollten also gerade so viele Boote zum Einsatz kommen, dass der Grenzerlös MR des letzten zum Einsatz kommenden Bootes seinen Grenzkosten MC entspricht. Würden sich die Fischgründe im privaten Besitz befinden, würde ein gewinnmaximierender Eigentümer genau F* Boote in seinen Fischgründen einsetzen. Das Problem der Common-Property-Ressource liegt jedoch darin begründet, dass alle Fischer einen ungehinderten Zugang zum See haben. Jeder einzelne Fischer wird sich aber nicht danach fragen, wie die gesamte Erntemenge durch seine Aktivität beeinflusst wird. Er wird sich lediglich dafür interessieren, wie hoch der durchschnittliche Ernteertrag im Falle des Marktzutritts für ihn ausfallen wird. Solange dieser durchschnittliche Ertrag AR größer ist als seine Grenzkosten MC, ist es für ihn individuell rational, sich an der Fischernte zu beteiligen. Insgesamt werden daher im unregulierten Marktgleichgewicht F0 Boote an der Ernte partizipieren.

5 Umweltökonomik

603

Die gesamte Ernte ist unter den Bedingungen der Nicht-Ausschließbarkeit also niedriger als im Fall der alleinigen Nutzung durch einen einzelnen Akteur: • Der Grenzertrag, der aus Sicht der gesamten Ernte bei F0 Booten vom letzten, hinzutretenden Fischer beigesteuert wird, ist negativ. Dies bedeutet, dass die gesamte Ernte zunehmen würde, wenn dieses Boot vom Marktzutritt abgehalten werden könnte. • Würde die Ressource nur durch einen einzigen Fischereibetrieb genutzt werden, so würde dieser Betrieb den Einsatz von Booten lediglich bis zum Niveau F* ausdehnen, bis der von jedem Boot ausgehende Grenzertrag gerade den Grenzkosten seines Einsatzes entspricht Die Ressource wird zu intensiv genutzt, da keiner der Fischer einen Anreiz hat, den von ihm ausgehenden Rückgang der gesamten Erntemenge bei seiner Entscheidung zur berücksichtigen. Selbst ein einzelner Fischer, der sich der Tatsache bewusst ist, dass seine Fangaktivitäten zu Lasten des Ertrags der Gemeinschaft gehen, wird an der Übernutzung der Ressource wenig ändern können, wenn er nicht verhindern kann, dass die von ihm geschonte Erntemenge anschließend von einem weniger weitsichtigen oder moralischem Fischer geerntet wird, sein moralisches Verhalten also ausbeutbar ist. Die klassische Lösung zur Überwindung derartiger Ineffizienzen liegt in der Schaffung von exklusiven Nutzungsrechten, z.B. durch die Privatisierung der Ressource oder die handelbarer Nutzungsrechte, wie sie etwa in der Fischereipolitik der Europäischen Union zur Anwendung kommen. Im obigen Modell könnte auch eine Besteuerung der geernteten Fischmenge Abhilfe schaffen: Wenn die Grenzkosten der Fischer um eine Steuer mit dem Betrag der Strecke AB angehoben werden, wird auch bei unbegrenztem Marktzutritt eine effiziente Ressourcennutzung realisiert (vgl. Blankart 2011). Neben derartigen, i.d.R. zentral gesteuerten, regulatorischen Eingriffen des Staates wird in der Umweltökonomik mit den Forschungsarbeiten von Elinor Ostrom (z.B. Ostrom 1999) seit einiger Zeit verstärkt auch die Möglichkeit diskutiert, dass sich die betroffenen Menschen selbst organisieren, um derartige Probleme lokal, d.h. ohne zusätzliche zentralstaatliche Eingriffe zu lösen. Ostroms Arbeiten zeigen, dass durch ein Zusammenspiel von Reputation, Lerneffekten und Vertrauen auch kooperative optimale Lösungen auf dezentraler Ebene möglich sind. Allerdings sind derartige Arrangements nur dann dauerhaft erfolgreich, wenn bestimmte Bedingungen vorliegen, wie etwa eine klare Definition der Nutzungsberechtigten oder die Möglichkeit, kollektiv vereinbarte Regeln zu überwachen und ggf. Regelverstöße zu sanktionieren. Nur in derartigen Konstellationen kann sich ein einzelner, die Bestände schonender Fischer sicher sein, dass sein Verhalten von anderen nicht ausgebeutet werden wird. Die in Abbildung 5.11 vorgenommene komparativ-statische Beschreibung des Problems der Common-Property-Ressource beruht auf der Annahme eines ertragsgesetzlichen Verlaufs der Erntemenge, bei dem angenommen wird, die in einer Periode realisierbare Erntemenge hänge von der Intensität ihrer Nutzung ab. Das Beispiel des Fischfangs macht deutlich, dass hinter dieser vereinfachten statischen Betrachtung ein sehr bedeutsames

604

Roland Menges

intertemporales Allokationsproblem liegt. Dieses Problem wird in der Ressourcenökonomik im Rahmen der Theorie erneuerbarer Ressourcen behandelt: Bei der Bestimmung der optimalen Erntemenge einer erschöpfbaren Ressource ist neben dem Ressourcenbestand in einer Periode auch deren „natürliche“ Regenerationsfähigkeit, also das Wachstum des Bestandes zwischen zwei Perioden zu berücksichtigen. Aus ökologischer Sicht wird dann häufig nach dem maximalen Niveau der menschlichen Ressourcennutzung gefragt, welches nicht zu einer Senkung des Ressourcenbestandes über die Zeit führt. Darauf basierende Konzepte wie etwa der „maximum sustainable yield“ gelten daher als Kern des theoretischen Nachhaltigkeitsbegriffs. Wie bereits im Abschnitt 5.3.5 dieses Beitrags herausgestellt, muss diese aus ökologischer Sicht wünschenswerte Nutzung der Umweltressource aber nicht notwendigerweise auch aus ökonomischer Sicht optimal sein, weil intertemporale Kosten- und Nutzenaspekte hierbei ausgeblendet werden (für eine vollständige Beschreibung des Problems der erschöpfbaren Ressourcen vgl. etwa Perman et al. 2011 oder Endres und Querner 2000). Meritorische Güter Eine Sonderrolle im Güterspektrum der Abbildung 5.10 spielen die meritorischen Güter. Dies sind solche Güter, die der Staat den Individuen zuteilt (oder untersagt), um anreizsetzend oder verhaltensregulierend einzugreifen (Jansen und Priddat 2007). Ein Beispiel für ein meritorisches Gut ist die Helmpflicht für Motorradfahrer. Die Nutzung eines Helmes und der damit verbundene Gesundheitsschutz stellt eigentlich ein privates Gut dar. Der Gesetzgeber definiert jedoch eine Helmpflicht und verordnet aus normativen Gründen allen Motorradfahrern die Helmnutzung. Auch die Bereitstellung und Nutzung bestimmter Güter im Bereich der Gesundheitsvorsorge (z.B. Impfungen) oder von Bildungseinrichtungen (z.B. öffentlicher Rundfunk), die eher durch Nicht-Rivalität im Konsum geprägt sind, werden häufig dem Bereich der meritorischen Güter zugeordnet. Anders als beim Problem der Common-Properties, bei denen die institutionelle Struktur nicht-ausschließbarer Nutzungsrechte i.d.R. historisch gewachsen ist, ergibt sich die Nicht-Ausschließbarkeit bei meritorischen Gütern allerdings aus normativen Urteilen und realen Entscheidungen der Gesellschaft (Siebert 2010). Die Einordnung der meritorischen Güter in Abbildung 5.10 unter dem Kriterium der Nicht-Ausschließbarkeit bezieht sich also nicht auf eine rein technische oder objektive Konsumeigenschaft der Güter, sondern darauf, dass der Staat die Bürger zum Konsum dieser Güter (bei meritorischen Gütern) zwingt oder den Konsum von bestimmten Gütern (sog. demeritorische Güter, z.B. Rauschgift) untersagt (Erlei 1992). Meritorische Güter unterscheiden sich von den übrigen Güterkategorien der Abbildung 5.10 allerdings noch durch eine weitere Besonderheit: Während bei der Bereitstellung und Nutzung privater Güter, öffentlicher Güter und Common-Property-Ressourcen immer und ausschließlich die als gegeben betrachteten individuellen Präferenzen den Wertmaßstab der Analyse darstellen, liegt bei meritorischen Gütern eine andere Auffassung über die Rolle der individuellen Präferenzen vor. Aufgrund dieser Besonderheiten und wegen ihrer Bedeutung in der Umweltökonomik werden diese Güter im Abschnitt 5.4.8 separat diskutiert.

5 Umweltökonomik

605

Öffentliche Güter Öffentliche Güter sind dadurch gekennzeichnet, dass sie allen Nutzern unterschiedslos und unbeschränkt zur Verfügung stehen (Nicht-Ausschließbarkeit) und sie „gemeinsam“ konsumiert werden (Nicht-Rivalität), da der Nutzen nicht teilbar ist. Eine äquivalente, aber vielleicht elegantere Definition stammt von Stiglitz. Er beschreibt die Nicht-Ausschließbarkeit und die Nicht-Rivalität öffentlicher Güter als „two critical properties: it is not practicable to ration their use and is not desirable to ration their use“ (Stiglitz, 1988, S. 187, vgl. auch Jansen und Priddat, 2007, S. 21). Das klassische Beispiel für ein öffentliches Gut mit nicht-teilbarem Nutzen ist die Landesverteidigung. Vom äußeren Schutz eines Landes sind alle Einwohner gleichermaßen betroffen, es ist nicht möglich, einem Pazifisten ein anderes Niveau an Landesverteidigung zur Verfügung zu stellen als einem Militaristen. Es ist auch nicht möglich, einen Haushalt, der keine Steuern zahlt, hiervon auszunehmen. Der mit der Landesverteidigung verbundene Nutzen der Einwohner sinkt nicht, wenn Zuwanderer sich ebenfalls in diesem Land ansiedeln. Im Beispiel des regionalen Sees kann der Zugang zu den Qualitäten eines Naherholungsgebietes als öffentliches Umweltgut betrachtet werden, da kein potenzieller Nutzer von diesen Nutzen ausgeschlossen werden kann und alle Nutzer demselben Niveau der Umweltqualität ausgesetzt sind. Diese Öffentlichkeit des Nutzens ergibt sich zwar rein formal aus dem Fehlen einer Technologie zum Konsumausschluss (etwa in Form einer Zutrittskontrolle bei gleichzeitiger Einzäunung des Gebietes) – sie reflektiert aber möglicherweise auch das Werturteil, der Nutzen der Ressource (z.B. als Naherholungsgebiet) solle allen Individuen gleichermaßen zur Verfügung stehen. Ein prominentes umweltökonomisches Beispiel für ein „reines“ öffentliches Gut ist der Klimaschutz (vgl. hierzu auch Kapitel 6 dieses Beitrags). Von den Beiträgen, die einzelne Staaten der Erde zum Klimaschutz leisten, profitieren ausnahmslos alle Staaten gemeinsam, d.h. auch solche Länder, die keinen Klimaschutz betreiben. Viele öffentliche Güter enthalten aber auch private Nutzenaspekte: So stellt beispielsweise eine Gewerkschaft mit den tarifpolitischen Aktivitäten ihrer Mitglieder ein öffentliches Gut für alle von ihr vertretenen Arbeitnehmer bereit. Dieser Nutzen wird von ihren Mitgliedern und Funktionären erbracht, die natürlich ebenfalls den Nutzen aus den Tarifabschlüssen ziehen. Gleichzeitig stellt die Gewerkschaft aber durch Mitgliederzeitschriften oder exklusive Beratungsangebote für ihre Mitglieder auch ein privates Gut bereit. Wenn bei der Bereitstellung eines öffentlichen Gutes neben den öffentlichen Nutzen auch private, exklusive Nutzen anfallen, spricht man von sog. „unreinen“ öffentlichen Gütern und Problemen der gemeinsamen Produktion (joint production, für eine Übersicht über die Allokationsprobleme unterschiedlicher Arten öffentlicher Güter vgl. Cornes und Sandler 1996). In der in den letzten Jahren stark gewachsenen Literatur zu internationalen oder globalen Umweltproblemen (insbesondere im Bereich der Klimaökonomik) hat der Erklärungsansatz der öffentlichen Umweltgüter die früher in der Umweltökonomik dominierende Theorie der externen Effekte zumindest teilweise in den Hintergrund gedrängt. Der wesentliche Grund hierfür liegt darin, dass mit der Theorie öffentlicher Güter – beispielsweise unter Verwendung spieltheoretischer Ansätze – soziale Interaktions- und

606

Roland Menges

Kooperationsprobleme analysiert und Lösungsansätze formuliert werden können, die für die nationale und internationale Umweltpolitik prägend sind (vgl. hierzu etwa Sturm und Vogt 2011). Demgegenüber stellt das in der klassischen umweltökonomischen Literatur dominierende Paradigma der externen Effekte die betrachteten Umweltprobleme in einen eher technischen Interaktionszusammenhang zwischen einem „ökonomischen Bereich“ und einem „Umweltbereich“, der erst durch die Rückwirkungen der Umwelt auf die ökonomischen Aktivitäten zu einem umweltökonomischen Problem wird. Tatsächlich soll in den folgenden Kapiteln herausgearbeitet werden, dass externe Effekte und öffentliche (Umwelt-)Güter in der Umweltökonomik zwei Seiten derselben Medaille darstellen.

5.4.2

Die optimale Menge des öffentlichen Gutes

Um das Problem der öffentlichen Güter sinnvoll abzugrenzen, ist es zweckmäßig, die Konsumentscheidungen bei privaten Gütern als Referenzpunkt heranzuziehen. Aufgrund der Nutzungsrivalität gilt bei privaten Gütern, dass die Menge des Gutes x, die vom Individuum i konsumiert wird, nicht mehr für den Konsum von Individuum j zur Verfügung steht. Für i=1…n Individuen gilt daher: x1 + x2 + x3 + … + xn = X (1) Die Auflösung der Nutzungsrivalität bei privaten Gütern anhand des Marktmechanismus führt aufgrund ungleicher Präferenzen und ungleicher Zahlungsbereitschaft der Individuen gerade nicht dazu, dass alle Individuen dieselbe Menge X/n konsumieren. Die Allokation der privaten Güter wird durch den Preismechanismus in eine Konstellation geführt, in der alle Individuen gerade so viel von dem Gut konsumieren, dass sich ihre Grenznutzen (MU) der letzten konsumierten Einheiten ausgleichen und dem Preis des Gutes angepasst werden. Damit wird gleichzeitig auch die Frage beantwortet, wie viel von diesem Gut hergestellt werden soll: Die Marktnachfrage ergibt sich als horizontale Aggregation der individuellen Nachfrage- bzw. MU-Funktionen, die im Marktgleichgewicht gerade den Grenzkosten (MC) der Produktion des Gutes entsprechen. MU1(X1) = MU2(X2) = MU3(X3) = … = MUn(Xn) = p = MC(X) (2) Jeder Konsument übernimmt also gerade den Teil der Produktionskosten, der auf seine Konsumentscheidung zurückgeht. Individuen, die aufgrund ihrer Bewertung des Gutes nicht bereit sind, den Preis p dafür zu zahlen, schließen sich gewissermaßen selbst vom Konsum dieses Gutes aus. Es ist also gerade die Bedingung der Ausschließbarkeit im Konsum, die dafür sorgt, dass der Markt unter bestimmten Voraussetzungen zu einer gerechten und effizienten Allokation führen kann, bei der der Nutzen einzelner oder mehrere Individuen nicht verbessert werden kann, ohne dass andere Individuen hierdurch einen Nachteil erleiden.

5 Umweltökonomik

607

Vor dem Hintergrund von Gleichung (1) lässt sich der fundamentale Unterschied zu den öffentlichen Gütern zeigen. Die Nicht-Ausschließbarkeit im Konsum bei öffentlichen Gütern führt dazu, dass alle Individuen dieselbe Menge des öffentlichen Gutes konsumieren. Q1 = Q2 = Q3 = … = Qn = Q (3) Das gesamtwirtschaftliche Niveau des Umweltschutzes (z.B. gemessen durch die Höhe der Ausgaben für den Umweltschutz) steht allen Individuen als öffentliches Gut gleichermaßen zur Verfügung. Die nutzbare Umweltqualität nimmt nicht ab, wenn sie von einer wachsenden Zahl von Konsumenten genutzt wird. Zunächst ist nun wie bei den privaten Gütern die Frage zu beantworten, welche Menge von diesem Gut aus sozialer Sicht bereitgestellt werden sollte. Aufgrund der Nicht-Rivalität im Konsum sollten offenbar alle Individuen, die einen Nutzen aus dem Umweltschutz ziehen, bei dieser Bereitstellungsentscheidung berücksichtigt werden. Da der Nutzen des öffentlichen Gutes nicht teilbar ist und die Individuen das Gut gemeinsam konsumieren, erfolgt die Aggregation der individuellen Präferenzen nicht horizontal wie bei privaten Gütern, sondern vertikal. Die sog. Samuelson-Regel bestimmt das effiziente Niveau des öffentlichen Gutes wie folgt: MC(Q*) = MU1(Q*) + MU2(Q*) = … = MUn(Q*) = ∑ni=1 MUi(Q*) (4) Es sollte gerade so viel von dem öffentlichen Gut bereitgestellt werden, dass die Grenzkosten seiner Produktion der Summe aller individuellen Grenznutzen entsprechen. Aus gesellschaftlicher Sicht entspricht dies dem Pareto-optimalen Niveau des öffentlichen Gutes. Wenn beispielsweise ein Niveau von Qa < Q* des Umweltschutzes bereitgestellt wird, bei dem der Zuwachs an individuellen Nutzen größer ist als der Zuwachs an Kosten, bedeutet dies, dass mindestens ein Individuum durch die Erhöhung der Menge von Q besser gestellt werden kann, ohne dass andere Individuen sich verschlechtern. In dem Diagramm in Abbildung 5.12 wird diese Situation unter der Annahme dargestellt, dass bei der Bereitstellung des Gutes konstante Grenzkosten MC anfallen. Die Gesellschaft bestehe aus drei Individuen, die entsprechend ihrer individuellen Grenznutzenfunktionen MUi dem Gut Umweltqualität eine unterschiedliche Wertschätzung entgegenbringen. Im Niveau Q* wird offenbar die gesamte Konsumentenrente G, d.h. der Überschuss der aggregierten individuellen Nutzen nach Abzug der Kosten der Bereitstellung, maximal. Formal kann die Samuelson-Bedingung (4) auch unter Verwendung einer sozialen Wohlfahrtsfunktion bestimmt werden. Hierbei wird angenommen, dass die gesamtgesellschaftliche Wohlfahrt durch die Bereitstellung eines öffentlichen Gutes Q auf der einen Seite durch die Summe der damit verbundenen individuellen Nutzen Ui und auf der anderen Seite durch die Kosten C der Bereitstellung dieses Gutes bestimmt wird. W(Q) = U1(Q) + U2(Q) + U3(Q) + … + Un(Q) – C(Q) (5)

608

Roland Menges

Abb. 5.12  Optimale und dezentrale Lösung bei öffentlichen Gütern

Leitet man diese Wohlfahrtsfunktion zur Bestimmung des optimalen Niveaus nach Q ab und bildet die Bedingung der ersten Ordnung, so ergibt sich hieraus die Samuelson-Bedingung.

5.4.3

Marktversagen bei dezentraler Bereitstellung des öffentlichen Gutes

Aus dieser Darstellung des Problems wird ebenfalls ersichtlich, dass ein dezentraler Entscheidungsmechanismus nicht zum Pareto-optimalen Niveau führen kann, weil jedes Individuum bei dezentraler Herangehensweise die aus seiner Sicht optimale Menge von Q lediglich über einen Vergleich seiner privaten Grenznutzen mit den dafür zu tragenden Grenzkosten bestimmen wird und die Nutzeneffekte bei den übrigen Individuen nicht berücksichtigt:

∂C ∂U i = . ∂Q ∂Q

5 Umweltökonomik

609

In Abbildung 5.12 werden sich das erste und dritte Individuum freiwillig überhaupt nicht bei der Bereitstellung des Umweltschutzes engagieren, da die dabei anfallenden Grenzkosten der Bereitstellung gemessen an ihren jeweils privaten Grenznutzen zu hoch sind. Individuum 2 wird die positive, aus seiner Sicht optimale Menge Q2* nachfragen. Die anderen beiden Individuen verhalten sich hingegen als Trittbrettfahrer und realisieren ebenfalls einen Nutzen aus der Bereitstellungsentscheidung von Individuum 2, da auch sie von diesen Bemühungen einen Nutzen ziehen. Aus sozialer Sicht kommt es damit zu einer sub-optimalen Unterbereitstellung: Zwar könnten alle drei Individuen durch eine Ausdehnung der bereitgestellten Menge besser gestellt werden, aber keines der beteiligten Individuen hat einen Anreiz, von seinem nicht-kooperativen Verhalten abzuweichen. Samuelson (1954, S. 388f) bezeichnet diese „Impossibility of decentralized spontaneous solution“ als Marktversagen, weil durch eine Reallokation der Produktionsfaktoren zu Gunsten des öffentlichen Gutes eine Pareto-Verbesserung realisiert werden kann. Gleichzeitig betont er, dass trotz dieses Marktversagens eine optimale Lösung existiere. Diese könne unter der Annahme vollständiger Informationen über die individuellen Präferenzen und deren Aggregation in Form einer Wohlfahrtsfunktion bestimmt werden. „The solution `exists´; the problem is how to `find´ it.“ (1954, S. 389). Diese Grundstruktur des umweltökonomischen Problems wird aus spieltheoretischer Sicht als Gefangendilemma bezeichnet (für die Integration spieltheoretischer Ansätze in die moderne Mikroökonomik vgl. Kapitel 1 von Erlei in diesem Band). Allgemein ist mit solchen Dilemmakonstellationen zu rechnen, wenn ein Ausschluss einzelner Konsumenten nicht möglich ist und wenn gleichzeitig die Bereitstellung des Gutes in großen Gruppen erfolgt, in denen jedes einzelne Individuum nur einen geringen Einfluss auf das Bereitstellungsniveau hat und die soziale Kontrolle innerhalb der Gruppe gering ist. Die Wahrscheinlichkeit, dass sich Individuen innerhalb einer dörflichen Nachbarschaft beispielsweise für die Pflege gemeinsam genutzter Grünanlagen oder den lokalen Gewässerschutz engagieren, ist offenbar deutlich größer als eine freiwillige Pflege von Parks und Gewässern in einer eher anonymen Großstadt. Der gruppentheoretische Gedanke, dass mit zunehmender Gruppengröße eine marktliche Bereitstellung von öffentlichen Gütern unwahrscheinlich wird, dass der mögliche eigene Beitrag eines Individuums als nicht mehr entscheidend wahrgenommen wird und sich letztlich ein Anreiz zum Trittbrettfahren einstellt, geht auf Mancur Olson (1965) zurück. Hieraus ergibt sich bei Olson, aber auch bei weit früheren Autoren wie David Hume oder Thomas Hobbes eine besondere Rolle zentraler Steuerung und staatlicher Macht, die im Fall des Versagens der marktlichen Steuerung hoheitliche Eingriffe des Staates als Ausdruck der „Logik kollektiven Handelns“ vorsieht (Jansen und Priddat 2007). Auch in anderen Bereichen der Sozialwissenschaften, wie etwa der angewandten Philosophie, wird derartigen Dilemmakonstellationen eine wesentliche Bedeutung für die Gestaltung des institutionellen Rahmens einer Gesellschaft beigemessen: Normative Sollensforderungen an das Handeln Einzelner erscheinen in modernen Gesellschaften wenig sinnvoll, wenn das moralische Verhalten einzelner Individuen von weniger moralischen Individuen ausgebeutet werden kann (vgl. Homann 2015, Suchanek 2000).

610

Roland Menges

Für die oben genannten Konsumeigenschaften öffentlicher Güter bedeutet dies Folgendes: • Einerseits impliziert die Bedingung der Nicht-Rivalität im Konsum, dass alle gesellschaftlich relevanten individuellen Nutzen bei der Bereitstellungsentscheidung zu berücksichtigen sind und in die Samuelson-Bedingung zur Bestimmung des effizienten Niveaus des Gutes eingehen. • Andererseits führt aber die Nicht-Ausschließbarkeit im Konsum und der damit verbundene Anreiz zum Trittbrettfahrerverhalten zum Marktversagen, weil eine dezentrale Bereitstellung des effizienten Niveaus des öffentlichen Gutes Umweltqualität nicht erwartet werden kann, wenn die Individuen sich rational verhalten. Diese grundsätzlich pessimistische Einschätzung ist Gegenstand einer intensiven Diskussion innerhalb der Wirtschaftswissenschaften. So liegt ein wesentliches Ergebnis experimentalökonomischer Untersuchungen darin, dass Individuen zwar in eher anonymen Marktkonstellationen dem beschriebenen Motiv zum Trittbrettfahrerverhalten folgen, das Trittbrettfahrerverhalten aber durch verschiedene Varianten altruistischen Verhaltens begrenzt werden kann, wenn die Individuen miteinander kommunizieren oder bei mehrfachen, wiederholten Beitragsentscheidungen Vertrauen und Reputation aufbauen können (Ledyard 1995). So zeigen beispielsweise vielfältige Untersuchungen des Konsumentenverhaltens auf Energiemärkten, dass Individuen in bestimmten Konstellationen durchaus bereit sind, Preisaufschläge für umweltfreundliche Produkte und damit einen freiwilligen Beitrag zur Bereitstellung eines öffentlichen Gutes zu leisten (vgl. etwa Beyer und Menges 2015). Allerdings ist auch bei altruistischem Verhalten der Individuen grundsätzlich nicht damit zu rechnen, dass das Pareto-optimale Niveau des öffentlichen Gutes realisiert werden kann. Die Lücke zwischen dem aus gesellschaftlicher Sicht optimalen Niveau und dem Resultat der dezentralen Aktivitäten der Individuen wird durch freiwilliges kooperatives Verhalten möglicherweise reduziert, nicht aber geschlossen. Daher geht die Umweltökonomik auch vor dem Hintergrund der positiven Befunde zu altruistischem, moralischem oder kooperativem Verhalten von Individuen davon aus, dass staatliche, zentrale Lösungen als Ersatz für freiwillige Kooperation der Individuen angesehen werden müssen (Weimann 1995).

5.4.4

Probleme der zentralen Bereitstellung

Der entscheidende Vorteil einer zentralen Lösung besteht darin, dass der Staat als wirtschaftlicher Akteur den individuellen Handlungen einen Zwang auferlegen und das Trittbrettfahrer-Motiv damit durchbrochen werden kann. Allerdings muss auch der Staat als zentral agierender Akteur die Frage beantworten, wie das Niveau der optimalen Umweltqualität festgestellt werden kann. Nimmt man die Existenz und Kenntnis einer sozialen Wohlfahrtsfunktion (5) an, so ist die Lösung vergleichsweise einfach, weil eine Kosten/ Nutzen-Analyse durchgeführt und hieraus das optimale Niveau des öffentlichen Gutes

5 Umweltökonomik

611

Umweltqualität bestimmt werden kann. Darüber hinaus sind jedoch auch andere Varianten denkbar, die in den beiden folgenden Abschnitten vorgestellt werden sollen: • Sofern der Staat die Präferenzen der Individuen bereits kennt, kann er sich bei der Entscheidung zur Bereitstellung des öffentlichen Gutes direkt auf diese beziehen und versuchen, eine Pareto-optimale Bereitstellung des Gutes herbeizuführen. • Vor dem Hintergrund, dass die Individuen ihre Präferenzen gegenüber dem Staat nicht vollständig offenbaren, kann dieser versuchen, die individuellen Präferenzen anhand konkreter institutioneller Arrangements zu erfassen und zu einer gesamtgesellschaftlichen Entscheidung zu aggregieren.

5.4.5

Personalisierte Umweltpreise

Unter der Voraussetzung, dass die individuellen Präferenzen dem Staat bekannt sind, lässt sich die Samuelson-Bedingung (4) als sog. Lindahl-Gleichgewicht darstellen (Lindahl 1919, Roberts 1974). Dieses zeichnet sich dadurch aus, dass die Individuen entsprechend der von ihnen realisierten Grenznutzen im Optimum zur Finanzierung des öffentlichen Gutes herangezogen werden. Konkret bedeutet dies, dass alle Individuen zwar die gleiche Menge des Gutes konsumieren, hierfür aber unterschiedliche Preise zahlen. Diese Situation wird in der Abbildung 5.13 dargestellt.

3

� 𝑀𝑈𝑖 (𝑄) 𝑖=1

MU, MC

MU3

MC (Q)

MU2 MU1 MU3(Q*) MU1(Q*) MU2(Q*) 0

Q*

Abb. 5.13  Personalisierte Lindahl-Preise des öffentlichen Gutes Umweltqualität

Q

612

Roland Menges

Individuum 3, das aus der bereitgestellten Umweltqualität Q* den größten Nutzen zieht, leistet in dieser Konstellation offenbar den größten Beitrag, wohingegen Individuum 2 entsprechend seinen Präferenzen einen sehr viel geringeren Beitrag als die beiden anderen leistet. Der Vorteil dieser Lösung besteht grundsätzlich darin, dass die individuellen Präferenzen bei der Lösung berücksichtigt werden und „marktnahe“ Pareto-verbessernde Lösungen damit möglich werden. In der umweltökonomischen Literatur werden verschiedene Verfahren geprüft, wie personalisierte Preise für das Gut Umweltqualität durch eine Umweltbehörde oder einen Auktionator ausgerufen werden können, so dass jedes Individuum entsprechend seinem Grenznutzen (multipliziert mit der Menge Q*) zur Deckung der Kosten beiträgt. Derartige Lösungen unterliegen jedoch dem grundsätzlichen Problem, dass die Grenznutzen des öffentlichen Gutes Umweltqualität letztlich private Informationen sind, und dass die Individuen aufgrund der Nichtausschließbarkeit einem ökonomischen Anreiz ausgesetzt sind, ihre Präferenzen nicht wahrheitsgemäß zu offenbaren. Im Fall der privaten Güter (1) stellt sich dieses Problem nicht, weil der Preismechanismus dazu führt, dass alle Individuen einen Anreiz haben, ihre Präferenzen wahrheitsgemäß zu offenbaren. Ein Individuum, das sich um eine Verschleierung seiner Präferenzen auf dem Markt für ein privates Gut bemüht, würde sich selbst einen geldwerten Nachteil zufügen.

5.4.6

Steuerpreise des öffentlichen Gutes Umweltqualität

Wenn man wie im letzten Abschnitt davon ausgeht, dass das effiziente Niveau des Gutes „Umweltqualität“ bereits bekannt ist, und wenn man gleichzeitig eine zentrale Lösung ablehnt, bei der die Individuen unterschiedliche Preise für dasselbe Gut zahlen, liegt die Forderung nahe, alle Individuen sollten zur Finanzierung einen „gerechten“ Steuerpreis zur Finanzierung des Umweltschutzes zahlen. Im Falle konstanter Grenzkosten der Umweltqualitätsverbesserung könnte dies beispielsweise bedeuten, dass jedes der drei Individuen ein Drittel der Grenzkosten je Einheit Q* übernimmt. Diese Lösung wird in Abbildung 5.14 betrachtet. Auf den ersten Blick wird damit eine praktikable Lösung realisiert: Es wird sichergestellt, dass das aus sozialer Sicht wünschenswerte Niveau des Umweltschutzes kostendeckend bereitgestellt wird. Und da der Staat als zentraler Akteur die Steuern für die Finanzierung der von ihm bereitgestellten öffentlichen Güter auch ohne eine freiwillige Übereinkunft bei den Individuen zwangsweise eintreiben kann, entfallen auch die oben erläuterten Probleme der Präferenzverschleierung. Ökonomisch ergeben sich mit dieser Lösung jedoch andere Probleme: Das aus sozialer Sicht Pareto-optimale Niveau des Umweltschutzes Q* kann die Eigenschaft der ParetoOptimalität verlieren, wenn es über Steuern finanziert wird. Interpretiert man diese Finanzierungsregel als individuellen Steuerpreis p, den die Individuen für jede Einheit des öffentlichen Gutes zu bezahlen haben, wird deutlich, dass die Menge Q* nicht mehr Pareto-optimal sein kann. Betrachtet man beispielsweise das Kalkül von Individuum 2, so zeigt sich, dass ausgehend vom Niveau 0 eine Ausdehnung des öffentlichen Gutes lediglich bis zum Niveau Q2P für alle Individuen nutzensteigernd und damit Pareto-verbessernd

5 Umweltökonomik

613

3

� 𝑀𝑈𝑖 (𝑄) 𝑖=1

MU, MC

MU3

MC (Q)

MU2 MU1

G

𝑝=

L 0

Q2p

Q*

Q3p

Q1p

𝑀𝐶(𝑄) 3

Q

Abb. 5.14  Steuerpreise für das öffentliche Gut und Pareto-Optimalität

wirkt. Beim angenommenen Steuerpreis p wird die Konsumentenrente G dieses Individuums beim Niveau Q2P maximal. Zwar wäre aus Sicht von Individuum 1 und 3 ein größeres Angebot, z.B. in Höhe von Q* wünschenswert, aus einer weiteren Ausdehnung des öffentlichen Gutes würde sich für Individuum 2 jedoch lediglich ein Nutzenzuwachs in Höhe von L ergeben. Dieser Nutzenzuwachs ist offensichtlich geringer als die mit der Ausdehnung des öffentlichen Gutes verbundene zusätzliche Steuerlast, die von Individuum 2 zu tragen wäre. Individuum 2 wird daher einer Ausdehnung des Niveaus über Q2P hinaus seine Zustimmung verweigern. Die Vorgabe eines einheitlichen Steuerpreises p führt also ähnlich wie die dezentrale Lösung dazu, dass das gesamtwirtschaftlich effiziente Niveau verfehlt wird, wenn die Entscheidung dem individuellen Kalkül ausgesetzt wird. Es ist damit zweifelhaft, ob sich bei einer kollektiven Abstimmung unter den Individuen über das Umweltschutzniveau das Pareto-optimale Niveau durchsetzen würde, wenn der Staat sich bereits im Vorfeld auf die Steuerfinanzierung festgelegt hat. Dieses Ergebnis lässt sich verallgemeinern: Auch in einem Modell, in dem n Individuen kollektiv über das von ihnen gewünschte, steuerfinanzierte Niveau des öffentlichen Gutes abstimmen, wird sich das von der Samuelson-Bedingung vorgesehene Paretoeffiziente Niveau kaum realisieren lassen. Wird diese Kollektiventscheidung beispielsweise auf Basis einer Mehrheitsentscheidung getroffen, so werden sich bei dieser Wahl die Präferenzen des sog. Medianwählers durchsetzen (Wigger 2006). Ermittelt man aus

614

Roland Menges

der Samuelson-Bedingung (4) den als Zahlungsbereitschaft interpretierten durchschnittlichen Grenznutzen MU der n Individuen, so lässt sich dieser Ausdruck folgendermaßen umformulieren: MC(Q*) = ∑ni=1 MUi(Q*) = nMU(Q*) MC(Q*)/n = MU(Q*) (6) Nimmt man an, das öffentliche Gut Umweltschutz werde mit einer proportionalen Einkommensteuer finanziert, yi sei das Einkommen des i-ten Individuums und τ der zur Finanzierung verwendete Steuersatz, dann stellt τ∙yi die Steuerlast des Individuums i dar. Die Kosten der Bereitstellung des Umweltschutzes betragen bei konstanten Grenzkosten Q*MC, so dass eine nicht defizitäre Finanzierung des Umweltschutzes nur möglich ist, wenn gilt: τ * (y1 + y2 + … + yn) = Q*MC. Hieraus ergibt sich unter Verwendung des durchschnittlichen Einkommens y der n Individuen der für die staatliche Budgetrestriktion notwendige Steuersatz t: τ = Q ⋅ MC (7) ny Bei einer kollektiven Abstimmung über das gewünschte Niveau von Q wird das i-te Individuum sich fragen, welche zusätzlichen Kosten in Form eines höheren Steuersatzes ihm entstehen, wenn das Umweltschutzniveau um eine Einheit angehoben wird, und diese mit dem zusätzlichen Nutzen vergleichen. Aus individueller Sicht ist einer Ausweitung des Umweltschutzes um eine zusätzliche Einheit (bei abnehmendem Grenznutzen) so lange zuzustimmen, bis die zusätzlich von ihm zu tragenden Steuerkosten gerade seinem zusätzlichen Nutzen entsprechen:

Δτ yi =

MC yi = MU i (Q) (8) n y

Nimmt man an, dass sich die Individuen nun in einer Mehrheitswahl über das Niveau des öffentlichen Gutes für einen bestimmten Steuersatz entscheiden müssen, und dass jedes Individuum ein gegebenes Bereitstellungsniveau desto stärker präferiert, je näher dieses an dem von ihm gewünschten Niveau (8) liegt, so werden sich bei der Abstimmung gerade die Präferenzen des sog. Medianwählers durchsetzen. Konkret bedeutet dies, dass aus Sicht des Medianwählers gerade 50% der Wähler für einen geringeren (höheren) Steuersatz und ein niedrigeres (höheres) Niveau von Q votieren als er selbst. Setzt man die Präferenzen und das Einkommen des Medianwählers i=M in die Gleichung (8) ein, so ergibt sich:

MC y M = MU M (Q) (9) n y

5 Umweltökonomik

615

Ein Vergleich mit der transformierten Samuelson-Bedingung (6) zeigt, dass der Medianwähler nur dann für die Pareto-optimale Menge von Q votiert, wenn sein Einkommen dem Durchschnittseinkommen aller Individuen entspricht (wenn also yM = y gilt). Wenn der Medianwähler ein überdurchschnittliches Einkommen hat (yM > y), wird er die ihm entstehenden Kosten höher gewichten als den der gesamten Gesellschaft entstehenden Nutzen und sich für eine Unterbereitstellung aussprechen. Wenn er hingegen ein unterdurchschnittliches Einkommen aufweist (yM < y), wird er hingegen die ihm entstehenden Kosten relativ niedriger gewichten und damit für eine Überbereitstellung votieren. Die typische Einkommensverteilung in westlichen Industriestaaten ist durch eine rechtsschiefe Dichtefunktion geprägt. Dies bedeutet, dass das Medianeinkommen geringer ist als das durchschnittliche Einkommen. In der finanzwissenschaftlichen Literatur wird das Medianwählertheorem daher häufig auch als Erklärung für eine (aus Sicht des Paretooptimalen Niveaus) Überversorgung mit öffentlichen Gütern herangezogen. Ein weiteres mit der staatlichen, durch Steuern finanzierten Bereitstellung öffentlicher Güter zusammenhängendes Problem sei hier nur am Rande erwähnt: Wenn Individuen tatsächlich auch ohne staatliche Eingriffe bereit sind, freiwillige Beiträge zur Bereitstellung des öffentlichen Gutes zu leisten, ist es nicht unwahrscheinlich, dass sie ihre freiwilligen Beiträge reduzieren, wenn der Staat in diesem Bereich aktiv wird. Staatliche Aktivitäten können also zu einer Verdrängung der freiwilligen Beiträge führen. So konnte beispielsweise in experimentellen Untersuchungen nachgewiesen werden, dass die Erwartung staatlicher Maßnahmen zur Förderung erneuerbarer Energien dazu führt, dass Individuen ihre freiwilligen Beiträge zur Finanzierung signifikant reduzieren (Menges et al. 2005). In bestimmten Konstellationen können diese Effekte sich auch dauerhaft schädlich auf die intrinsische Motivation der Individuen auswirken (Frey und Oberholzer-Gee 1996). Nicht zuletzt aufgrund der oben diskutierten Einschätzung, dass freiwilliges, kooperatives Verhalten der Individuen oftmals keine hinreichende Bedingung für die Überwindung von Umweltproblemen darstellt, geht man in der Umweltökonomik allerdings davon aus, dass die mögliche Verdrängung intrinsischer Motivation ein eher nachrangiges Problem staatlicher Umweltpolitik darstellt (Gawel 2000).

5.4.7

Die Differenz von Bereitstellungs- und Finanzierungsentscheidung und das Informationsproblem der Umweltpolitik

Betrachtet man die Bereitstellung von Umweltqualität durch Umweltschutzmaßnahmen als öffentliches Gut, so wurde in diesem Kapitel gezeigt, dass ein dezentraler Mechanismus kaum in der Lage ist, das aus Sicht der Gesellschaft wünschenswerte Niveau der Umweltqualität bereit zu stellen. Gleichzeitig steht jedoch auch ein notwendiger, vom Staat verfügter Eingriff vor nicht unerheblichen Problemen. Diese sind – wie die Bereitstellung aller öffentlichen Güter – im Kern dadurch bestimmt, dass in der politischen Realität die Bereitstellungsentscheidung (wie viel soll angeboten werden?) und die Finanzierungsentscheidung

616

Roland Menges

(wer trägt welche Kosten?) nicht simultan getroffen werden können. Bei privaten Gütern gehen die Entscheidungen, wie viel von dem Gut produziert werden soll und wer hierbei welche Kosten tragen soll, Hand in Hand und stellen zwei Seiten derselben Medaille dar. Aufgrund der Ausschließbarkeit im Konsum bei privaten Gütern haben alle beteiligten Individuen einen Anreiz, ihre „wahren“ Präferenzen zu offenbaren, wohingegen die Nicht-Ausschließbarkeit im Konsum die Bereitstellungsentscheidung bei öffentlichen Gütern anfällig für vielfältige Varianten des strategischen Verhaltens und des Trittbrettfahrens macht. Bei öffentlichen Gütern wie der Umweltqualität liegt damit letztlich ein Informations- bzw. Bewertungsproblem vor, da individuelle Präferenzen immer private Informationen darstellen. Im siebten Abschnitt dieses Beitrags werden vor diesem Hintergrund verschiedene umweltökonomische Verfahren vorgestellt, anhand derer die Nutzen von Umweltgütern erfasst und gemessen werden können, die nicht auf wettbewerblichen Märkten gehandelt werden und für die daher auch keine Marktpreise als Wertinformationen vorliegen.

5.4.8

Umweltqualität als meritorisches Gut

Kontrast zum Modell öffentlicher Güter: Erwünschter statt optimaler Konsum Ein zentraler Aspekt des oben analysierten Falls der öffentlichen Güter liegt darin, dass der Nutzen dieser Güter annahmegemäß im Bewusstsein der Individuen verankert ist. In der Realität dürfte eine individuelle Bewertung dieser Güter jedoch in vielen Fällen problematisch sein, etwa wenn diese „unentgeltlich“ bereitgestellt werden, wenn sie wie im Falle der Umweltpolitik, der Entwicklungshilfe oder der Landesverteidigung auf einen weitgehend passiven Konsum treffen und die Leistungen (wie bei bestimmten Maßnahmen des Umweltschutzes präventiver Natur sind (Brümmerhoff 2011). In diesen Fällen ist es nicht einfach, individuelle Präferenzen zu erheben und diese zur Richtschnur staatlicher Maßnahmen zu erklären. Vielmehr besteht die Gefahr, dass die im gesellschaftlichen Diskurs geäußerten (oder erhobenen) Präferenzen widersprüchlich und wenig operational sind, beispielsweise wenn der Wunsch geäußert wird, die Regierung möge die Arbeitslosigkeit bekämpfen oder die Umwelt besser schützen. Vor dem Hintergrund dieser Probleme hat Musgrave (1959/1966) das Konzept der meritorischen Güter in die Diskussion eingeführt. Meritorische Güter spielen im Spektrum der öffentlichen Güter eine Sonderrolle (vgl. Abbildung 5.10). Grundsätzlich besagt dieses Konzept, dass der Staat die am Markt erzielten Ergebnisse als „unerwünscht“ betrachtet und korrigiert, wenn die Bürger entweder die Nützlichkeit eines (meritorischen) Gutes oder die Nachteile eines (de-meritorischen) Gutes unterschätzen. Hierbei wird angenommen, dass Interessen und Bedürfnisse der Gesellschaft als solche existieren, und dass die Gesellschaft bei der Bereitstellung meritorischer Güter Korrekturen vornimmt, die aus Fehlern individueller Entscheidungsprozesse resultieren (Musgrave et al. 1994). In dieser Vorstellung spiegeln sich Reste einer organischen Staatsauffassung, die davon ausgeht, dass es eine überindividuelle Instanz gibt, die besser als die Individuen beurteilen kann, ob ein

5 Umweltökonomik

617

Zustand A oder ein alternativer Zustand B für die Gesellschaft vorteilhaft ist, und insofern in die Konsumentensouveränität eingreifen darf. Brümmerhoff (2011) weist beispielsweise darauf hin, dass sich wesentliche Teile der finanzwirtschaftlichen Aktivitäten moderner Staaten normativ nicht begründen ließen, wenn man meritorische Güter außer Betracht ließe. Vor diesem Hintergrund stellt sich die Frage, wie zwischen öffentlichen und meritorischen Gütern zu unterscheiden ist und inwieweit mit dem Begriff meritorischer Güter Aspekte her­vorgehoben werden, die vom Begriff der öffentlichen Güter nicht abgedeckt sind.7 So ist in der Realität vermutlich kaum zu unterscheiden, ob konkrete politische Maßnahmen im Bereich des Umweltschutzes oder bei der Kulturförderung einen meritorischen Eingriff oder aber die Bereitstellung eines öffentlichen Gutes darstellen (Erlei 1992). Wichtig ist hierbei, dass meritorische Güter öffentliche (und private) Güter einschließen. Bei öffentlichen Gütern kann – wie oben gezeigt wurde – zumindest theoretisch die optimale bzw. gewünschte Menge auf Basis der individuellen Präferenzen bestimmt und unter Beteiligung des Staates bereitgestellt werden. Demgegenüber erfolgt bei meritorisch-öffentlichen Gütern eine zusätzliche „Einmischung“ des Staates in die Konsumentenpräferenzen (Musgrave 1959/1966, S. 66). Bei der Bereitstellung meritorischer Güter sind somit drei verschiedene Niveaus zu unterscheiden: • Freiwilliger Konsum: Das i.d.R. suboptimale Niveau ergibt sich auf Basis der individuellen Beiträge zum Gut. • Optimaler Konsum: Das infolge des Marktversagens unter Hilfe staatlicher Mechanismen bereitgestellte Niveau stellt sich theoretisch als optimale Menge auf Basis vollständig internalisierter individueller Vorteilhaftigkeitsüberlegungen dar.

Der Begriff meritorischer Güter wurde in der Vergangenheit unterschiedlich und widersprüchlich definiert. Noch in frühen Veröffentlichungen hat Musgrave die meritorischen Güter allgemein dem Bereich öffentlicher Bedürfnisse zugeordnet, die als derart bedeutsam angesehen werden, „dass für ihre Befriedigung durch das öffentliche Budget über das hinaus Sorge getragen wird, was der Markt zur Verfügung stellt und was von privaten Käufern bezahlt wird.“ (Musgrave 1959/1966, S. 15). Nach dieser älteren Definition ist jedoch nicht klar, wie sich meritorische Güter von öffentlichen Gütern trennen lassen. Auch die von Rogall (2002, S. 77) verwendete Definition ist irreführend, nach der sich meritorische Güter von öffentlichen Gütern dadurch unterscheiden, dass für sie zwar Nicht-Ausschließbarkeit im Konsum gelte, sie gleichzeitig jedoch der Nutzungsrivalität unterliegen. Hierdurch sind nach ökonomischem Verständnis sog. Common-Property-Ressourcen gekennzeichnet, die jedoch auf ganz anderen Problemfeldern anzusiedeln sind (vgl. Tabelle 4.1). Erst mit der oben zitierten Betonung aus Musgrave et al. (1994), dass die Bereitstellung meritorischer Güter unabhängig von den individuellen Präferenzen erfolgt, werden meritorische Güter von öffentlichen Gütern zumindest theoretisch unterscheidbar. Manche Autoren sprechen in diesem Zusammenhang von Gemeinschaftsbedürfnissen, die sich dadurch von Präferenzen für öffentliche Güter unterscheiden, dass die entsprechenden Güter der individuellen Wahl entzogen sind und die vom Staat a-priori z.B. auf Basis sozio-kulturell gewachsener Kollektivbedürfnisse legitimiert werden (Jansen und Priddat 2007). Allerdings ist nicht klar, woraus sich dann Aussagen über ein optimales Niveau dieser Güter beziehen (vgl. hierzu auch Erlei, 1992). 7

618

Roland Menges

• Erwünschter Konsum: Das nach einer Meritorisierung dieses Gutes bereitgestellte Niveau geht über das Pareto-optimale Niveau hinaus und verlangt insofern den Individuen einen höheren Konsumverzicht im Bereich der übrigen Güter ab.8 Meritorische Güter in der Umweltökonomik Es ist wenig erstaunlich, dass das Konzept der Meritorisierung auch in der Theorie der Umweltpolitik eine wichtige, wenn auch nicht unstrittige Rolle spielt (Gawel 1996). Aus Sicht der Ökologischen Ökonomik sind meritorische Güter für die Umweltpolitik von großer Bedeutung. Hier wird häufig die Ansicht vertreten, dass Individuen die Risiken und Folgen ihrer Entscheidungen falsch einschätzen, sodass sich aus gesellschaftlicher Sicht ein suboptimales Allokationsniveau einstellt, welches nur durch staatliches Handeln zu überwinden sei. Als Beispiel wird etwa der Schutz der natürlichen Ressourcen genannt (Rogall 2008). In ähnlicher Weise wurde früher die individuelle Nachfrage nach Energie vereinzelt dem Bereich der meritorischen Güter zugeordnet: Präferenzirrtümer der privaten Haushalte, die etwa Energiekosten nicht richtig einschätzen und prognostizieren könnten, galten vor der Liberalisierung der Energiemärkte als Argument für die Monopolstellung der Energieversorgungsunternehmen bei weitgehender Entmündigung der Verbraucher (Dilnot und Helm 1989). Die Argumente, die für eine Berücksichtigung der meritorischen Güter im umweltpolitischen Bereich vorgebracht werden, lassen sich folgendermaßen zusammenfassen (Bartmann 1996): • Wenn insbesondere in der Ökologischen Ökonomik individualistische Positionen abgelehnt werden, erscheint der Rückzug auf meritorische Güter und Gemeinschaftsbedürfnisse als einigermaßen systemkonformer Ausweg und als „Schnittstelle“ zur Nachhaltigkeitsdiskussion. Hierbei wird dann allerdings auch in Kauf genommen, dass Eingriffe auch bei privaten Gütern (wie etwa dem individuellen Fleischkonsum oder dem Verzehr von Lebensmitteln, die nicht der ökologischen Landwirtschaft entstammen) möglich werden. • Der Nutzen vieler Güter (wie etwa der Umweltqualität) werde erst beim Konsum erkannt und unterliege aufgrund des kurzen Zeithorizontes der Individuen einer gravierenden Unterschätzung. Hierbei reiche eine reine Informations- und Aufklärungspolitik des Staates nicht aus, weil auf die individuellen Präferenzen letztlich kein Verlass sei. Auch die Nicht-Berücksichtigung der Konsumwünsche zukünftiger Generationen bei den Entscheidungen heutiger Gesellschaften erfordere staatliche Eingriffe. Wohlfahrtstheoretisch kann dies bedeuten, dass der Zugewinn an Konsumentenrenten durch anderweitige Nutzenverluste überkompensiert wird, weil bei Meritorisierung mit individuellen Ausweichbewegungen zu rechnen ist: Als in Preußen am Ende des 18. Jahrhunderts die allgemeine Schulpflicht eingeführt wurde, klagten insbesondere im ländlichen Raum viele Lehrer über das Fernbleiben ihrer Schüler in den Erntezeiten. Aus Sicht der Bauernfamilien überwogen trotz der öffentlichen Finanzierung des Schulwesens die Opportunitätskosten des Schulbesuches ihrer Kinder. Der Ausfall der Arbeitszeit wog aus individueller Sicht schwerer als die staatlichen Sanktionen im Fall des Fernbleibens von der Schule (Tietzel und Müller 1998). 8

5 Umweltökonomik

619

• Umweltqualität müsse als Mischgut, d.h. als öffentliches Gut mit meritorischen Komponenten, betrachtet werden. Reine Informationskampagnen seien nicht ausreichend, wenn irreversible Schäden, globale Risiken oder eine Zerstörung der Lebensgrundlagen zu befürchten sind. Die Entscheidungen über diese Maßnahmen dürften daher nicht den individuellen Abwägungsprozessen überlassen, sondern müssten einem demokratischen Prozess zugeordnet werden. Daher würden „agierende und nicht reagierende Institutionen und Politiken benötigt“ (v. Hauff und Kleine 2013, S. 114) Kritik der meritorischen Güter In der finanzwissenschaftlichen Literatur ist das Konzept meritorischer Güter immer sehr umstritten gewesen (für eine grundsätzliche Kritik vgl. McClure 1968 und Andel 1994). Insbesondere im umweltpolitischen Anwendungsbereich ist die Attraktivität meritorischer Güter darauf zurückzuführen, dass die „Messlatte“ der Legitimation staatlicher Interventionen bei meritorischen Gütern niedriger hängt als bei öffentlichen Gütern. In jüngerer Zeit wird die Idee der meritorischen Güter als libertärer Paternalismus unter der Überschrift „Nudge-Economics“ wieder aufgegriffen. Hiernach lassen sich Entscheidungsträger und von der Informationsvielfalt überforderte Individuen von außen zu ihrem eigenen Wohl beeinflussen, ohne dass hierbei Zwangsmaßnahmen ausgeübt werden müssen (Thaler und Sunstein 2011). Verschiedentlich wird in diesem Zusammenhang auch darauf verwiesen, dass Umweltqualität als meritorisches Gut gleichzeitig auch ein superiores Gut sei, das erst mit steigendem Einkommen (oder steigendem Bildungsniveau) nachgefragt und von den Individuen geschätzt werde. Wenn Umweltqualität also von den Individuen gering geschätzt werde, liege dies möglicherweise lediglich an ihren zu geringen Einkommen, weshalb der Staat hier eingreifen müsse (Lueg 2010). Diese Argumentation erscheint jedoch geradezu beliebig, denn hiernach würde allein der Verweis auf „zu niedrige“ Einkommen als Legitimation für staatliche Eingriffe in die Konsumentensouveränität ausreichen. Wenn man davon ausgeht, dass der Staat tatsächlich umfassendere Informationen über die „wahren“ individuellen Präferenzen oder Restriktionen hat als die Individuen selbst, kann es für die Identifizierung eines meritorischen Gutes ausreichend sein, darauf hinzuweisen, dass der Staat tatsächlich in den Marktmechanismus eingreift, ohne dass die üblichen Argumente des Marktversagens vorliegen müssen. Sofern das Problem jedoch theoretisch auf unvollkommene Informationen der Individuen zurückgeführt wird, könnte es als normales Problem asymmetrischer Informationen behandelt werden. Staatliche Maßnahmen zur „Aufklärung“ der Individuen und zur Verbesserung der Informationen wären dann systemkonform und stellten keinen Eingriff in die Konsumentensouveränität dar, weshalb das Konzept meritorischer Güter in diesem Fall überflüssig wäre (Brümmerhoff 2011). Die Problematik des Begriffs meritorischer Güter liegt darin, dass bei seiner pragmatischen Anwendung zwei Dinge verknüpft werden, die kaum zusammenpassen zu scheinen, weil weder auf das paternalistische „Erhöhen“ bestimmter Güter, noch auf das Souveränitätspostulat der Konsumenten verzichtet werden soll (Gottschalk 2001).

620

Roland Menges

Die hier geäußerte Skepsis gegenüber dem Konzept meritorischer Güter liegt nicht daran, dass Musgraves Plädoyer widerlegt werden könne, dass „gewisse“ Gemeinschaftsbedürfnisse und ein Verantwortungsbewusstsein für das Ganze einer solidarischen Gesellschaft (Musgrave et al. 1994, S. 90) existieren, deren Existenz der konventionellen Doktrin individueller Entscheidungen „gewisse“ Begrenzungen auferlegen würde. Die ökonomische Theorie lehnt zwar ein organisches Gemeinwohlparadigma ab, das die Aufgabe der Politiker darin sieht, ein objektiv existierendes Gemeinwohl zu entdecken und das die Politik als Instrument der Wahrheitsfindung betrachtet. Die Existenz eines Gemeinwohls wird nicht angezweifelt, allerdings wird dieses Gemeinwohl immer nur personenintern wahrgenommen und stellt damit eine subjektive, auf die handelnde Person bezogene Kategorie dar. Politik zielt damit letztlich immer auf Interessenausgleich (Brennan und Buchanan 1993). Vor diesem Hintergrund erscheinen nur willentliche, von den Konsumenten in irgendeiner Form autorisierte Eingriffe in das Präferenzgefüge in Übereinstimmung mit dem ökonomischen Ansatz (Gottschalk 2001). Darüber hinaus ist unklar, auf welchem Wege sich eine Politik der Meritorisierung bestimmter Güter durchsetzen ließe, wenn nicht über die Herstellung von Zustimmungsfähigkeit der davon Betroffenen.9 Die These, öffentliche Umweltgüter müssten vom Staat gegen die Präferenzen der Individuen (oder über diese hinaus) angeboten werden, verkennt die Mechanismen des politischen Prozesses (Benkert 2000). Aber selbst, wenn man annimmt, dass die Bürger den Maßnahmen bzw. den verordneten meritorischen Gütern zumindest ex-post zustimmen können, ist nicht klar, ob dies Ausdruck einer gemeinwohlorientierten Zustimmung ist oder eher einer Fügung in das bestehende Gewaltmonopol des Staates entspricht (Erlei 1992, Jansen und Priddat 2007). Die Neigung des Staates, die Instrumente der umweltund ressourcenpolitischen Vorsorge einzusetzen, hängt grundsätzlich vom „Problembewusstsein“ seiner Bürger ab. Wenn diese kurzsichtig orientiert sind, wird sich dies auch im Handeln des Staates widerspiegeln. Von einem antiautoritären Staat kann nicht erwartet werden, dass er wider die Präferenzen der ihn tragenden Bürger handelt. Seine bedeutendste Aufgabe besteht damit in der Korrektur von Problemen öffentlicher Güter, welche die Bürger gerne gelöst sehen wollen, dezentral am Markt aber aufgrund bestimmter Widrigkeiten nicht lösen können. (Endres und Querner 2000, S. 100).

Eher kollektivistische Modelle, die explizit beschreiben, wie über einen Eingriff in die kurzfristigen individuelle Präferenzen kollektive Einigkeit über langfristige, nachhaltige Präferenzen erzielt werden kann, haben Norton et al. (1998) und Costanza et al. (1997, S. 142ff.) vorgelegt. Aufgrund des langfristigen Einflusses von Werbung, Bildung und anderer kulturellen Faktoren halten sie das ökonomische Konzept der Konsumentensouveränität ohnehin für nicht tragbar. Zwar behandeln sie die kurzfristigen individuellen Präferenzen als Ausgangspunkt einer gesellschaftlichen Bewertung des Naturkapitals, allerdings werden die Präferenzen in diesem Modell einem mehrstufigen, demokratischen Evaluierungs- und Veränderungsprozess unterzogen. Ein individualistischer Ansatz zur Legitimation von paternalistischen Eingriffen in die Konsumentenpräferenzen, der auf widersprüchlichen, intransitiven Präferenzordnungen der Individuen auf unterschiedlichen Ebenen von Entscheidungssituationen beruht, wird am Beispiel des Drogenkonsums in Erlei (1992) diskutiert. 9

5 Umweltökonomik

5.5

Externe Effekte

5.5.1

Kategorisierung externer Effekte

621

Externe Effekte werden in den Wirtschaftswissenschaften als Konsequenzen von Handlungen eines Produzenten oder Konsumenten definiert, die andere Konsumenten oder Produzenten beeinflussen und hierbei nicht im Marktpreis berücksichtigt werden (Pindyck und Rubinfeld 2013). Wichtig ist die Hervorhebung des Marktzusammenhangs: Wenn beispielsweise in vielen Universitätsstädten zu beobachten ist, dass z.B. durch eine veränderte Bildungspolitik und die doppelten Abiturjahrgänge viele neue Studenten auf der Suche nach Wohnraum sind und dass hierdurch das Niveau der Mieten deutlich zugenommen hat, dann wird der Mietpreisanstieg aus Sicht der bisherigen Mieter sicherlich negativ bewertet. Allerdings liegt in diesem Fall ein sog. pekuniärer, d.h. durch den Marktpreis vermittelter Effekt vor, der notwendiger Ausdruck bzw. Preissignal der gestiegenen Knappheit des Wohnungsraums ist. Die gestiegene Knappheit führt zwar möglicherweise zu problematischen distributiven Konsequenzen und zu sozialpolitischen Maßnahmen, wenn insbesondere ärmere Haushalte und Studierende hiervon betroffen sind. Ein pekuniärer externer Effekt ist jedoch gerade kein Ausdruck eines allokativen Marktversagens und muss daher von den im Folgenden zu untersuchenden technologischen externen Effekten unterschieden werden (Wigger 2006).10 Die in der folgenden Abbildung 5.15 dargestellte Kategorisierung (technologischer) externer Effekt bezieht sich erstens darauf, ob die Aktivität x eine Wirtschaftssubjektes j sich positiv oder negativ auf die Handlungsmöglichkeiten Dritter auswirkt, und zweitens ob ihre Wirkung sich im Konsumbereich, d.h. in den Nutzenfunktionen U bestimmter Konsumenten i (i ≠ j), oder im Produktionsbereich, d.h. in den Kostenfunktionen C bestimmter Unternehmen i (i ≠ j)entfaltet. Eine positive Konsumexternalität liegt beispielsweise vor, wenn ein Unternehmen durch Wiederaufforstungsmaßnahmen zur Verbesserung der Umweltqualität in einem von Anwohnern genutzten Naherholungsgebiet beiträgt. Eine negative Konsumexternalität liegt hingegen vor, wenn dasselbe Unternehmen Schadstoffe in dieses Naherholungsgebiet einträgt, die zu einer Verschlechterung der Umweltqualität führen. Positive Diese wichtige Unterscheidung zwischen reinen Preiseffekten (bzw. pekuniären externen Effekten) und technologischen externen Effekten wurde noch in der ursprünglichen, auf Pigou zurückgehenden Definition externer Effekte übersehen, die v.a. die fehlende Kompensation der Geschädigten als Kern des Problems der externen Effekte ansieht. Pigou (1920/1979) definiert in seinem Aufsatz „Divergenzen zwischen dem sozialen Nettogrenzprodukt und dem privaten Nettogrenzprodukt“ externe Effekte darüber „dass eine Person A, indem sie einer Person B gegen Bezahlung einen Dienst leistet, zugleich anderen Personen Vor- oder Nachteile verschafft, die so geartet sind, dass den begünstigten Parteien keine Zahlung auferlegt oder von Seiten der geschädigten Parteien keine Kompensation erzwungen werden kann.“ (S. 25). Die auf den Zuzug neuer Studenten zurückzuführenden Mietpreissteigerungen würden hiernach aus allokativer Sicht die Notwendigkeit einer Korrektur nach sich ziehen und nicht als notwendiges Knappheitssignal interpretiert werden. 10

622

Roland Menges

Abb. 5.15  Kategorisierung externer Effekte [Quelle: In Anlehnung an Feess (2007, S. 43)]

Produktionsexternalitäten liegen vor, wenn durch die Forschungstätigkeit eines einzelnen Unternehmens neues technisches Wissen entsteht, das auch in anderen Unternehmen zu Kostensenkungen und Gewinnsteigerungen verwendet werden kann. Als Beispiel für eine negative Produktionsexternalität kann man sich die Einleitung von Schadstoffen in einen Fluss vorstellen, welche die Produktionsbedingungen einer Fischereizucht am Unterlauf dieses Flusses beeinträchtigen.

5.5.2

Marktversagen aufgrund externer Effekte

Bereits im allokationstheoretischen Grundmodell und in den Darstellungen des letzten Abschnitts dieses Beitrags wurde deutlich, dass zwischen öffentlichen Gütern und externen Effekten eine enge Verbindung besteht. Manche Lehrbücher sprechen von externen Effekten als öffentliche Güter „besonderer Art“, die in der Verbindung mit der Produktion privater Güter entstehen (Blankart 2011), andere betonen hingegen, öffentliche Güter seien ein Spezialfall der externen Effekte (Feess 2007). Dies kann am Beispiel des regionalen Sees in Abbildung 5.3 dargestellt werden: Die Opportunitätskosten des Umweltschutzes stellen auf den produktiven Nutzen der Emissionen e ab, den die Landwirte und andere an den See angrenzenden Unternehmen aus der Senkenfunktion des Sees realisieren. Der Verlauf dieser Kurve unterstellt – ausgehend vom Niveau e = 0 – eine positive, aber abnehmende Grenzproduktivität der Emissionen. Nimmt man an, dass es lediglich ein Unternehmen i gibt, das einen positiven Gewinn bzw. Nutzen U aus seinen Emissionen ei zieht, bei vielen anderen Nutzern j (j = 1…n) jedoch monetär bewertbare Schäden Sj durch diese Emissionen entstehen, so lässt sich die Wohlfahrtsfunktion W bei negativen externen Effekten wie folgt darstellen:

5 Umweltökonomik

623

W(ei ) = U i (ei )− (S1 (ei )+ S2 (ei )+ S3 (ei )+ ...+ Sn (ei ) = U i (ei )− ∑ j=1 Sn (ei ) (10) n

Eine Maximierung dieser Funktion, d.h. ihre Ableitung nach ei führt zur bereits bekannten Samuelson-Bedingung: Das aus gesamtwirtschaftlicher Sicht effiziente Niveau der Emissionen liegt nicht im Minimum der Emissionen, sondern bei dem Emissionsniveau, bei dem der Grenznutzen der Emissionen gerade der Summe der monetär bewerteten Grenzschäden entspricht. Dies bedeutet, dass die gesamtwirtschaftlichen Kosten der Umweltnutzung (als Summe der Opportunitätskosten des Umweltschutzes und der Opportunitätskosten der Umweltverschmutzung) im Optimum gerade minimal sind. n ∂S j ∂U i = ∑ j=1 (11) ∂e ∂e i

i

Bei der bereits eingangs analysierten dezentralen bzw. asymmetrischen Auflösung der Nutzungskonkurrenz wird das Unternehmen i die mit seinen Emissionen verbundenen Schäden jedoch nur insofern berücksichtigen, wie es sich selbst (z.B. in Form seiner Eigentümer) von den Schäden und der Verringerung der Umweltqualität betroffen sieht:

∂U i ∂Si = ∂ei ∂ei (12) Ist dieser Schaden aus Sicht des emittierenden Unternehmens irrelevant, wird die Fehlallokation der Emissionstätigkeit beim Niveau e0 durch den Wohlfahrtsverlust in Höhe der Fläche [-] in Abbildung 5.4 symbolisiert. In der umweltökonomischen Literatur wird häufig die spieltheoretische Natur der externen Effekte detailliert analysiert (z.B. Weimann 1995, Feess 2007, Endres 2013). Reduziert man das oben genannte Problem beispielsweise auf zwei Unternehmen, die Schadstoffe in ein Gewässer einleiten, gleichzeitig aber auch beide von den daraus resultierenden Schäden in Form von Gewinneinbußen betroffen sind, so hängen die sich ergebenden Gleichgewichtslösungen davon ab, ob der beim emittierenden Unternehmen anfallende Grenzschaden aus den eigenen Emissionen vom Verhalten des jeweils anderen Emittenten unabhängig (sog. unilaterale externe Effekte) oder abhängig ist (sog. bilaterale externe Effekte). Im Fall der unilateralen externen Effekte lässt sich die Differenz zwischen dem Marktgleichgewicht und einer wohlfahrtsoptimalen Lösung entsprechend der Gleichungen (11) und (12) beschreiben. Ein bilateraler externer Effekt liegt beispielsweise vor, wenn das Gewässer von beiden Unternehmen gleichzeitig nicht nur als Senke, sondern auch für die Frischwasserversorgung genutzt wird. Der zusätzliche Schaden in Form der Frischwasserverunreinigung, der von den eigenen Emissionen eines Unternehmens ausgeht, wird umso höher sein, je mehr Schadstoffe das andere Unternehmen bereits eingeleitet hat. Bilaterale externe Effekte verkomplizieren das Problem der externen Effekte also, weil das optimale Verhalten aus Sicht eines Unternehmens von den Annahmen über das Verhalten des jeweils anderen abhängt; sie ändern aber wenig am grundsätzlichen Problem ineffizienter Gleichgewichte, da die Emissionen beider Unternehmen oberhalb der wohlfahrtsoptimalen Emissionen liegen.

624

Roland Menges

Für die Belange dieses Beitrags ist es ausreichend, auf die Darstellung des Externalitätenproblems in Form der Abbildungen 5.3 – 5.5 und der Gleichungen (10) – (12) zurück zu greifen. Das umweltökonomische Grundmodell basiert auf einer aggregierten Betrachtung der ökonomischen Werte, die mit den Emissionen verbunden sind. Bei einer marginalen Betrachtung des Emissionsniveaus können, • die Opportunitätskosten der Umweltverschmutzung als Grenzschadenskosten bzw. marginale externe Kosten der Gesellschaft (MEC) • und die Opportunitätskosten des Umweltschutzes als Grenznutzen der Emissionen und als Grenzvermeidungskosten (MCA) operationalisiert werden. Die Grenzvermeidungskostenkurve stellt daher aus gesamtwirtschaftlicher Sicht eine Art Angebotsfunktion des Umweltschutzes dar, auf der die vielfältigen technischen Möglichkeiten der Emissionsvermeidung z.B. von einfachen Modifikationen bei der Gestaltung von Produktionsprozessen bis hin zu aufwändigeren Umrüstungsmaßnahmen entsprechend ihrer Grenzkosten aggregiert werden. Eine derartige Separierung der Emissionen von den übrigen wirtschaftlichen Zusammenhängen ist allerdings nur unter bestimmten Voraussetzungen zulässig, die im folgenden Abschnitt erläutert werden. Eine andere Betrachtung des Problems ergibt sich, wenn man das Emissionsproblem direkt in der wirtschaftlichen Aktivität des produzierenden Unternehmens verortet. Nimmt man beispielsweise an, dass ein stahlproduzierendes Unternehmen mit jeder von ihm produzierten Tonne Stahl eine bestimmte Menge verschmutztes Abwasser in einen Flusslauf abgibt, so lässt sich das Externalitätenproblem auch als eine direkte Konsequenz seiner Produktionsentscheidung darstellen. Im linken Teil der Abbildung 5.16 wird das Kalkül eines einzelnen stahlproduzierenden Unternehmens betrachtet: Seine eigene gewinnmaximierende Outputentscheidung liegt bei steigenden (privaten) Grenzkosten MC und dem als gegeben betrachteten Preisniveau p1 im Produktionsniveau x1. Die durch die Abwassereinleitung entstehenden Umweltschäden bleiben im Unternehmen unberücksichtigt, führen jedoch aus gesellschaftlicher Sicht zu externen Kosten MEC, die mit dem Niveau der Stahlproduktion zunehmen.11 Der mit dieser Allokation verbundene Wohlfahrtsverlust kann dem rechten Teil der Abbildung entnommen werden. Hier wird der Stahlmarkt betrachtet, auf dem das Angebotskalkül aller Stahlunternehmen entsprechend ihrer Grenzkosten zur Angebotskurve S und die Zahlungsbereitschaft der Stahlverbraucher zur Nachfragekurve D aggregiert werden. Die Allokation, die sich beim Marktpreis p1 ergibt, entspricht nicht dem effizienten Niveau X*, da die privaten Grenzkosten aller Unternehmen nicht die damit verbundenen Umweltkosten MEC einschließen. Aus gesellschaftlicher Sicht wäre damit die Kurve MSC (marginal social cost) zu berücksichtigen, die die privaten und externen Grenzkosten der Stahlproduktion umfasst. Das sich hier aufspannende Alternativ könnte der Verlauf der Grenzschadenskurve auch auf konstanten d.h. vom bisherigen Schadensniveau unabhängigen Grenzschäden beruhen. Annahmen zum Verlauf der Grenzschadenskurve ergeben sich aus der Natur der betrachteten Schadstoffe. 11

5 Umweltökonomik

625

Abb. 5.16  Partialanalytische Betrachtung des Externalitätenproblems [Quelle: in Anlehnung an Pindyck und Rubinfeld (2013, S. 839)]

Dreieck enthält den gesellschaftlichen Wohlfahrtsverlust, weil die gesellschaftlichen Kosten der Stahlmenge (X1-X*) die Grenznutzen bzw. die Zahlungsbereitschaft der Konsumenten übersteigen. Dieses Dreieck ist äquivalent zur Fläche [-] in Abbildung 5.4, wenn die Emissionen ausschließlich von Stahlunternehmen ausgehen würden. Aus umweltpolitischer Sicht bieten sich drei grundsätzliche Strategien zur Internalisierung bzw. zur Verhinderung negativer Externalitäten an (Kirsch 2004): • Handlungen, die externe Effekte zur Folge haben, können verboten werden. Da derartige Eingriffe nicht mit dem Leitbild einer optimalen Umweltqualität vereinbar sind, wird hiervon i.d.R. kein Gebrauch gemacht. Vielmehr ist davon auszugehen, dass das Vorliegen negativer (und positiver) Externalitäten ein allgemeiner Ausdruck zwischenmenschlicher Interaktionen ist. Es sollte also eher darum gehen, die Beziehungen zwischen den Individuen zu gestalten, als diese zu kappen. • Handlungen, die externe Effekte zur Folge haben, können durch die Einführung von Umweltsteuern internalisiert werden, die die Verursacher als Beteiligte beim Entstehen der Externalitäten zu tragen haben. Dies hat zur Folge, dass sie alle relevanten positiven und negativen Effekte ihrer Entscheidungen in ihrem privaten Kalkül berücksichtigen. Dieser Weg, auf dem die Verursacher zu den allein Betroffenen gemacht werden, wird von Pigou eingeschlagen und in den folgenden Abschnitten 5.5.3 und 5.5.4 analysiert. • Wenn diejenigen, die die Konsequenzen der negativen Externalitäten zu tragen haben, am Zustandekommen der Internalisierungslösung beteiligt werden, werden die Betroffenen zu Beteiligten gemacht. Diese Internalisierungsstrategie wird von Coase vorgeschlagen und im Abschnitt 5.5.5 erläutert.

626

5.5.3

Roland Menges

Der Ansatz von Pigou zur Internalisierung externer Effekte

Die Pigou-Steuer bei partialanalytischer Betrachtung Abbildung 5.16 zeigt, dass die Fehlallokation und der damit zusammenhängende Wohlfahrtsverlust vermieden werden könnte, wenn die externen Kosten der Stahlproduktion zu internen Kosten gemacht, gewissermaßen privatisiert werden könnten. Die Idee, diese Kosten anhand einer auf die wirtschaftliche Aktivität bezogenen Steuer beim Verursacher des externen Effektes zu internalisieren, geht auf Arthur C. Pigou zurück. Hierzu ist es notwendig, die Höhe der externen Grenzkosten im Optimum X* präzise zu erfassen. Die Höhe der Pigou-Steuer beträgt in Abbildung 5.17 τ*. Wenn die Erzeuger für jede Einheit Stahl den Betrag τ*, d.h. den Umfang der Strecke CB, an den Staat entrichten müssen, verschiebt sich die Angebotsfunktion von S0 nach S2, sodass das neue, effiziente Marktgleichgewicht im Punkt B mit der Menge produzierten und nachgefragten Stahlmenge X* und dem Marktpreis p* liegt. Der ursprüngliche Wohlfahrtsverlust in Höhe des Dreiecks BGF kann hierdurch eingespart werden. Das Steueraufkommen entspricht dann dem Rechteck DCBA. Die Realisierung dieses Steueraufkommen liegt nicht im primären, allokativen Interesse der Umweltpolitik, es ist lediglich ein notwendiges Vehikel, durch das die relativen Preise verändert und eine Lenkungswirkung mit dem Ziel der Internalisierung der bislang externen Kosten realisiert werden kann. Eine Zweckbindung dieser Steuer für die Kompensation von durch Umweltprobleme geschädigten Haushalten (oder für andere Dinge) liegt daher nicht im Wesen der Pigou-Steuer. Sie kann sogar schädlich wirken, wenn sich hierdurch die Anreizstrukturen im System verändern, potenzielle Geschädigte mit der Aussicht auf Kompensation „angelockt“ werden und sich die gesamtwirtschaftliche Schadensexposition damit erhöht.

Abb. 5.17  Internalisierung externer Effekte anhand einer Pigou-Steuer [Quelle: in Anlehnung an Blankart (2011, S. 497)]

5 Umweltökonomik

627

In der Sprache der Umweltpolitik wird das Steueraufkommen DCBA häufig als Ausdruck einer „doppelten“ Dividende von Umweltsteuern betrachtet. Während die „erste“ Dividende in der Realisierung des Wohlfahrtsgewinnes BGF liegt, könnte das damit verbundene Steueraufkommen als „zweite“ Dividende an die Wirtschaftssubjekte durch die Senkung anderer, möglicherweise allokativ verzerrender Steuern und Abgaben zurückerstattet werden, so dass die Einführung der Pigou-Steuer nicht nur verteilungsneutral gestaltet werden könnte, sondern auch zu positiven Beschäftigungswirkungen führen könnte. Auf dieser Argumentation beruht beispielsweise die Ende der 90´er Jahre des letzten Jahrhunderts von der damaligen Bundesregierung eingeführte ökologische Steuerreform. Allerdings sei darauf verwiesen, dass diese positiven Wirkungen von Umweltsteuern sich nur unter bestimmten Annahmen (z.B. hinsichtlich der Preiselastizitäten und der Überwälzbarkeit von Steuern) entfalten können. Das Konzept der doppelten Dividende wird daher in der ökonomischen Literatur sehr differenziert und kritisch beurteilt (für eine Übersicht vgl. etwa Brümmerhoff 20011). Um die wohlfahrtssteigernde Wirkung der Pigou-Steuer tatsächlich entfalten zu können, muss die Umweltpolitik zudem über sehr vielfältige Informationen verfügen (Blankart 2011). Geht man im Diagramm 5.18 beispielsweise davon aus, dass die im StatusQuo des ineffizienten Ausgangsgleichgewicht G verfügbaren Informationen über die Höhe der mit der Stahlproduktion verbundenen Umweltschäden auf marginale externe Kosten in Höhe der Strecke GF hinweisen, so könnte eine naheliegende politische Forderung darin bestehen, den Produzenten sollte eine Steuer τ1 im vollen Umfang dieser von ihnen tatsächlich verursachten externen (Grenz-)Kosten auferlegt werden.

Abb. 5.18  Wohlfahrtsverlust einer Überschätzung des externen Effektes im Optimum [Quelle: in Anlehnung an Blankart (2011, S. 497)]

628

Roland Menges

In diesem Fall würde sich die Angebotskurve nach S1 verschieben. Bei gegebener Nachfrage würde die Gleichgewichtsmenge auf das Niveau X2 sinken. Die marginalen Umweltschäden würden bei diesem Niveau jedoch deutlich niedriger als im Optimum, nämlich im Umfang der Strecke EF, bewertet werden. Die zu hoch gesetzte Steuer auf Stahl führt damit zu einem von der gesamten Gesellschaft zu tragenden Wohlfahrtsverlust, der im Diagramm dem Dreieck EBH entspricht. Konkret bedeutet dies, dass für die Festsetzung der Pigou-Steuer die Bewertung der Externalität gerade nicht auf den real beobachtbaren Status-Quo bezogen werden darf, sondern auf das Optimum, welches sich jedoch erst nach Einführung der Steuer einstellt. Aus theoretischer Sicht ist daher anzuzweifeln, dass sich die Höhe von optimalen Umweltsteuern allein aus den tatsächlich beobachtbaren Umweltschäden ableiten lässt. Die häufig erhobene Forderung, die Umweltpolitik müsse für „wahre“ Preise sorgen, ist damit in der Realität nicht leicht zu erfüllen.12 Dies liegt insbesondere daran, dass sich nach ökonomischem Verständnis die in der Pigou-Steuer materialisierte Umweltknappheit nicht als absolute, sondern als relative Größe darstellt: Die Bestimmung der Steuer setzt neben Informationen über die technologischen Produktionsbedingungen des Gutes auch Informationen über die individuellen Präferenzen hinsichtlich des betrachteten Gutes und der Umwelteffekte voraus. Bereits bei der Berechnung der Steuer müssen zudem sämtliche Folgewirkungen berücksichtigt werden. So ist beispielsweise denkbar, dass die Stahlunternehmen auf die Steuer mit einer Verbesserung der Technologie reagieren, so dass sich die über die privaten Grenzkosten definierte Angebotskurve S nach innen dreht. In diesem Falle müsste das Niveau der Pigou-Steuer ebenfalls reduziert werden. Zudem kann es zu Ausweichreaktionen auf anderen Märkten und damit zu dortigen Wohlfahrtseinbußen kommen, die bei einer rein partialanalytischen Betrachtung übersehen und nicht berücksichtigt werden. Auch eine z.B. durch konjunkturelle Schwankungen ausgelöste Veränderung der Nachfrage D nach Stahl wirkt sich auf das Niveau der Pigou-Steuer aus, bei einer Senkung (Erhöhung) der Nachfrage nach Stahl müsste die Pigou-Steuer ebenfalls sinken (steigen). Zudem muss man sich vergegenwärtigen, dass die Frage, ob und in welchem Umfang die den Produzenten auferlegte Steuer auf die Konsumentenpreise überwälzt werden kann, für die Wirkungsweise der Pigou-Steuer in diesem Partialmodell völlig unerheblich ist. In Abbildung 5.17 kann die Steuer τ* von den Stahlproduzenten zu einem großen Teil auf die Verbraucherpreise (im Punkt B) überwälzt werden, während der Produzentenpreis im Punkt C gegenüber der Ausgangssituation G nur leicht zurückgeht. Entscheidend ist lediglich, dass die sozialen Grenzkosten in den Preisen abgebildet sind (Brümmerhoff 2011). Die Verbraucher können auf das teurer gewordene Gut und die damit verbundene Änderung der relativen Preise mit einer Senkung des Konsums

Diese Informationsprobleme lassen sich jedoch stark vereinfachen, wenn angenommen wird, dass die Höhe der Grenzschäden konstant und damit unabhängig vom bisherigen Emissions- bzw. Schadensniveau verläuft. (Vgl. hierzu Fußnote 10). Derartige Darstellungen finden sich beispielsweise in Wigger (2006) oder Brümmerhoff (2011). 12

5 Umweltökonomik

629

reagieren, während ein Sinken der Produzentenpreise nach der Besteuerung dazu führt, dass das Gut in einem geringeren Umfang angeboten wird. Internalisierungsansätze bei einer Separierung des Emissionsproblems Voraussetzungen einer Separierung des Emissionsproblems Die Pigou-Besteuerung von bestimmten Gütern wie Stahl oder Energie geht letztlich davon aus, dass Emissionen und Gütermengen im Optimum in einem festen Einsatzverhältnis zueinander stehen. Wenn also im Beispiel des letzten Abschnitts die Produktion (oder auch der Verbrauch) von Stahl besteuert wird, liegt das daran, dass nur über die Reduktion der ökonomischen Aktivität „Stahlproduktion“ eine Emissionsverringerung realisiert werden kann. Eine andere Darstellung des Problems ergibt sich, wenn man die folgenden Annahmen trifft: • Neben der Stahlindustrie geben auch andere wirtschaftliche Sektoren dieselben Schadstoffe als Emissionen an die Umweltmedien ab. • Die Emissionen stehen in einem variablen Einsatzverhältnis zu den produzierten Gütermengen (substitutionale Technologie). Emissionen können also durch den Einsatz von Umweltschutz- und Vermeidungstechnologien eingespart werden, so dass die Produktionsmengenentscheidungen der Unternehmen unabhängig von den Emissionen getroffen werden können. • Alle Güter- und Faktormärkte befinden sich bereits in ihrem Optimum. Unter diesen Voraussetzungen lässt sich das Emissionsproblem separieren und auf eine direkte Steuerung der Externalitäten reduzieren. Eine derartige Separierung wird in den Grafiken des Grundmodells 5.4 -5.6 unterstellt, die in der Abbildung 5.19 wieder aufgegriffen wird. Der Vorteil einer direkt an der Schadstoffemission ansetzenden Steuer gegenüber einer Besteuerung der Produktion wird offensichtlich, wenn man sich vorstellt, dass mehrere unterschiedliche Unternehmen für die betrachtete Schadstoffbelastung verantwortlich sind und jedes Unternehmen über unterschiedliche Diffusionskoeffizienten, d.h. für einen gegebenen Output unterschiedliche Schadstoffmengen verfügt. In diesem Fall müsste für jedes Unternehmen ein individueller Steuersatz auf den Output bestimmt werden (Blankart 2011, Weimann 1995). Steuern und Grenzwerte Unter den o.g. Voraussetzungen ist es möglich, zur Internalisierung der externen Effekte den Ausstoß von Emissionen bei den Unternehmen direkt zu besteuern. Ein Steuersatz in Höhe von τ führt in Abbildung 5.4 dazu, dass den Unternehmen mit jeder Einheit Emissionen Opportunitätskosten entstehen. Sie werden daher aus eigenem Interesse ihre Emissionen von e0 auf e* senken, indem sie so lange in Maßnahmen zur Vermeidung von Emissionen investieren, wie diese günstiger sind als der für jede Emission zu zahlende Steuersatz. Ähnlich wie in Abbildung 5.17 wird für die verbleibenden Emissionen links von e* ein

630

Roland Menges

Abb. 5.19  Emissionssteuern und Grenzwerte [Quelle: in Anlehnung an Pindyck und Rubinfeld (2013, S. 845)]

Steueraufkommen an den Staat geleistet. Wenn die Verläufe der beiden Kostenkurven dem Regulierer bekannt sind, kann er jedoch den Schadstoffausstoß der Unternehmen durch die Vorgabe eines Grenzwertes auch direkt auf das Niveau e* begrenzen. In der Umweltpolitik findet eine derartige Grenzwertregulierung beispielsweise im Bereich der Rechtsvorschriften der Luftreinhaltepolitik (Bundesimmissionsschutzgesetzt, BImSchG) oder bei der Regulierung der Emissionshöchstwerte von PKW statt (vgl. hierzu etwa Sturm und Vogt 2011 oder Endres 2013). Hierzu ist es notwendig, mit Hilfe ordnungsrechtlicher Vorgaben jedem einzelnen Emittenten einen Emissionsgrenzwert zuzuweisen, sodass die Summe aller Grenzwerte dem gesamtwirtschaftlich effizienten Niveau entspricht. Auch in diesem Fall würden sich die gesamtwirtschaftlichen Vermeidungskosten zur Fläche unter MCA rechts von e* aufsummieren. Das Steueraufkommen entfällt dann zwar, aber aus allokativer Sicht führen Steuern und ordnungsrechtliche Vorgaben in diesem Fall zu identischen Ergebnissen. Allgemein formuliert zeigt sich hier, dass eine Internalisierung externer Effekte sowohl über eine Steuerung bzw. Vorgabe der Mengen (wie bei ordnungsrechtlichen Vorgaben) oder eine Steuerung des Preises (Pigou-Steuer) erfolgen kann. Die Frage, welchen der Internalisierungsinstrumente der Vorzug zu geben ist, hängt von den Annahmen ab, die über den Informationsstand der Regulierungsbehörde zu treffen ist. Geht man von unvollständigen oder unsicheren Informationen über die disaggregierten Kostenfunktionen der Unternehmen aus, führt die Verwendung von Steuern und ordnungsrechtlichen Emissionsobergrenzen zu unterschiedlichen Ergebnissen.

5 Umweltökonomik

631

Das Kriterium der statischen Effizienz Eine wichtige Eigenschaft der Pigou-Steuer besteht darin, dass sie über alle von der Steuer erfassten Emissionsaktivitäten hinweg zu einem Ausgleich der Grenzvermeidungskosten führt. Die Konsequenz dieser Eigenschaft kann anhand der folgenden Abbildung 5.19 erläutert werden. Hierbei wird angenommen, dass zwei Produktionsunternehmen im gleichen Umfang für den Gesamtausstoß e0 verantwortlich sind, jedes Unternehmen also die Hälfte der gesamtwirtschaftlichen Emissionen 0,5 e0 im Ausgangszustand verursacht. Die Unternehmen verfügen jedoch über unterschiedliche Vermeidungstechnologien. Unternehmen 2 kann Emissionsvermeidungen zu günstigeren Kosten durchführen als Unternehmen 1, d.h. für jedes Emissionsniveau ei gilt MCA2(ei) < MCA1(ei). Da die technischen Emissionsminderungsmöglichkeiten und die damit zusammenhängenden Kosten private, dezentral verteilte Informationen der einzelnen Unternehmen darstellen, kann angenommen werden, dass die Regulierungsbehörde hierüber nicht vollständig informiert ist. Wenn nun beide Unternehmen den Steuersatz τ für jede Einheit Emissionen zahlen müssen, werden die Vermeidungsaktivitäten des zweiten Unternehmens, das über eine relativ kostengünstigere Technologie verfügt, relativ höher ausfallen als die Vermeidungsaktivitäten von Unternehmen 1: 0,5 e0 – e2,τ > 0,5 e0 – e1,τ. Für die von beiden Unternehmen gewählten Niveaus der verbleibenden Restemission gilt hingegen, dass die Grenzvermeidungskosten gerade dem Steuersatz t entsprechen: MCA1(e1,τ) = MCA2(e2,τ). Zwar leistet Unternehmen 1 ein relativ größeres Steueraufkommen an den Staat, allerdings ist sein Beitrag zum Umweltschutz offenbar geringer. Vor diesem Hintergrund könnte man versucht sein, zu fordern, dass beide Unternehmen ihren „gerechten“ Beitrag zu den gesellschaftlich gewünschten Vermeidungsanstrengungen leisten. Dieser Forderung könnte eine ordnungsrechtliche Vorgabe Rechnung tragen, nach der beide Unternehmen derselben Grenzwertregulierung unterliegen. Die Lösung, bei der beide Unternehmen nicht mehr als 0,5 e* ausstoßen dürfen, ist in Abbildung 5.19 so gewählt, dass die Umweltschutzeffekte von Steuer- und Grenzwertlösung identisch sind: 2 (0,5 e*) = e2,τ + e1,τ. Die gewünschte Gleichheit der zulässigen Restemissionen führt nun aber offenbar zu unterschiedlichen Grenzvermeidungskosten der Unternehmen: MCA1(0,5 e*) < MCA2(0,5 e*). Ein Übergang von der Steuerlösung auf die einheitliche Grenzwertsetzung führt für das Unternehmen mit den günstigeren Vermeidungskosten zu einem Rückgang und für das Unternehmen mit den relativ teureren Vermeidungsoptionen zu einem Anstieg der Vermeidungskosten. Dass sich beide Unternehmen durch den Wegfall der Steuerpflicht verbessern würden, ist bei einer gesamtwirtschaftlichen Betrachtung unerheblich, da dem System dann an anderer Stelle die Steuereinnahmen fehlen. Bedeutsam ist hingegen, dass der Anstieg der Vermeidungskosten im ersten Unternehmen größer ist als der Rückgang der Vermeidungskosten im zweiten Unternehmen. Die Gesellschaft stellt sich bei der Grenzwertregulierung also insgesamt schlechter als bei der Emissionsbesteuerung. Allgemein formuliert: Die Gesellschaft könnte bei Anwendung der Steuer dasselbe Niveau an Umweltschutz zu günstigeren Kosten realisieren. Die Voraussetzung für eine kosteneffiziente Internalisierung externer Effekte liegt daher im Ausgleich der unterschiedlichen Grenzvermeidungskosten. In der Umweltökonomik wird diese Eigenschaft

632

Roland Menges

als Kriterium der statischen Effizienz bei der Bewertung umweltpolitischer Instrumente verwendet. Bei der ökonomischen Analyse von Emissionsminderungsmaßnahmen in unterschiedlichen Sektoren sind daher bei einem gegebenen Emissionsminderungsziel weniger die absoluten Minderungsbeiträge der einzelnen Sektoren und Unternehmen entscheidend. Vielmehr ist relevant, zu welchen Grenzvermeidungskosten zusätzliche Emissionsminderungen in den einzelnen Sektoren geleistet werden können. Je größer die Divergenzen zwischen den Grenzvermeidungskosten sind, desto größer sind die damit verbundenen volkswirtschaftlichen Effizienzverluste. Die Festlegung einer Steuer je Emissionseinheit führt dazu, dass sich die Vermeidungsaktivitäten aller Emittenten hieran orientieren und sich in allen betroffenen Sektoren ein Ausgleich der Grenzvermeidungskosten einstellt. In diesem Fall ist keine Allokationsveränderung vorstellbar, die zu geringeren gesamtwirtschaftlichen Kosten des Umweltschutzes führt. Dieses Kosten- bzw. Effizienzargument zu Gunsten von Umweltsteuern ist in der Realität der Umweltpolitik allerdings nur bedingt erfüllt. Einer einheitlichen, an den Opportunitätskosten der Emissionen orientierten Steuer steht in der Realität eine Reihe von praktischen und politischen Problemen im Weg. So ist beispielsweise eine sog. CO2Steuer allein schon hinsichtlich der Bestimmung und Überwachung der Bemessungsgrundlage bei der Steuererhebung nicht einfach zu fassen. Hierzu wäre der Kohlenstoffgehalt zu erfassen, der in den fossilen Brennstoffen gebunden ist und bei jedem Verbrauch als Kuppelprodukt vollständig entweicht. Die Erhebung differenzierter Steuersätze auf

Abb. 5.20  Kosteneffizienz bei Emissionssteuern und Grenzwerten [Quelle: in Anlehnung an Pindyck und Rubinfeld (2013, S. 846)]

5 Umweltökonomik

633

unterschiedliche Energieträger erscheint zwar als praktikabler Ausweg, allerdings zeigt die politische Realität, dass die beispielsweise im Rahmen der ökologischen Steuerreform in Anschlag gebrachten Wertansätze der Steuern nur ganz bedingt auf den CO2-Gehalt zielen und eine Reihe von anderen Kriterien berücksichtigt werden. So zeigt beispielsweise Sinn (2008), dass die Steuerbelastung in Euro je Tonne CO2-Emissionen zwischen 3,33 Euro für die Verbrennung von Braunkohle für Heizzwecke und 273 Euro für den Benzinverbrauch bei der PKW-Nutzung schwankt. Auch eine umweltorientierte Besteuerung von Gütern steht, wie am Fall des oben diskutieren Stahlbeispiels gezeigt, vor gravierenden Problemen der Bestimmung der „richtigen“ Bemessungsgrundlage. Der theoretische Regelfall einer Setzung der Steuer in Höhe des im Optimum gemessenen Grenzwertes der Belastungen lässt sich kaum erreichen. Das Ausweichen auf andere, pragmatisch bestimmte Bemessungsgrundlagen, die nicht die unmittelbaren Schadstoffemissionen zum Gegenstand haben, ist hingegen durch Unschärfe, Informations- und Bewertungsproblemen sowie dadurch möglicherweise entstehende Verzerrungen auf anderen Märkten gekennzeichnet (Zur Theorie des Zweitbesten bei der Umweltbesteuerung vgl. Brümmerhoff 2011). Das Kriterium der dynamischen Effizienz Ein weiteres Kriterium bei der Untersuchung der Eigenschaften von umweltpolitischen Instrumenten liegt in der dynamischen Effizienz. In der bisherigen Analyse wurde unterstellt, dass die bei der Emissionsminderung eingesetzten Technologien gegeben sind. Der Stand dieser Technik hängt in der Realität jedoch von vielen Einflussgrößen ab, zu denen auch die zur Anwendung kommenden umweltpolitischen Instrumente zählen. Die Realisierung umwelttechnischen Fortschritts ist aus gesellschaftlicher Sicht höchst wünschenswert, weil dies bedeutet, dass mit gleichem Aufwand höhere Emissionsreduktionen oder mit geringerem Aufwand die gleichen Emissionsreduktionen erreicht werden können (Endres 2013). Vor diesem Hintergrund stellt sich die Frage, ob und in welcher Form von den bisher betrachteten Instrumenten zur Internalisierung externer Effekte ein Anreiz ausgeht, die Entwicklung und Einführung umwelttechnischen Fortschritts bei den Unternehmen zu fördern. In Abbildung 5.20 wird angenommen, dass ein Unternehmen zum Zeitpunkt 1 über die Vermeidungstechnologie MCA1 verfügt. Sowohl eine Emissionssteuer τ, als auch ein Emissionsgrenzwert eGW führen dazu, dass das Unternehmen den Punkt C auf seiner Grenzvermeidungskostenkurve wählt. Das Unternehmen erhält nun die Möglichkeit, durch eine Investition in eine Verbesserung seiner Technologie die Emissionsminderungsmaßnahmen zu günstigeren Kosten durchzuführen. Durch diese Investition dreht sich die Kostenkurve nach innen zum Verlauf MCA2. Die Frage, ob diese Investition zu gegebenen Kosten durchgeführt wird, hängt an ihren zu erwarteten Erlösen. Die Anwendung von Grenzwerten führt jedoch zu anderen Erlösen als die Anwendung von Steuern: • Unterliegt das Unternehmen einer Grenzwertregulierung, so könnte es die geforderte Emissionsgrenze nach der Investition zu geringeren Vermeidungskosten einhalten.

634

Roland Menges

Abb. 5.21  Innovationsanreize bei Emissionssteuern und Grenzwerten

• Muss das Unternehmen eine Steuer für jede Einheit Emissionen abführen, so gehen hiervon jedoch zusätzliche Anreize zur Emissionsminderung aus. Entscheidend hierfür ist, dass durch die Einführung der neuen Technologie die Steuerlast des Unternehmens um das Rechteck ABCD verringert werden kann. Eine Senkung der Emissionen von e1,τ auf e2,τ ist zwar nur für einen Anstieg der Vermeidungskosten zu haben, dieser Kostenanstieg wird aber durch die Steuerersparnis im Umfang der Fläche BCE überkompensiert. Aus gesellschaftlicher Sicht führt die Verwendung von Steuern damit zu besseren Ergebnissen gegenüber ordnungsrechtlichen Auflagen, von denen keine Anreize ausgehen, eine vorgegebene Emissionsobergrenze zu unterschreiten. Tatsächlich können sich ordnungsrechtliche Vorgaben sogar negativ auf den technischen Fortschritt auswirken. Wenn ein zur Innovation fähiges Unternehmen befürchten muss, dass seine kostensenkende Technologie bei der ordnungsrechtlichen Bestimmung des Emissionsgrenzwertes durch die Regulierungsbehörde zum neuen „Stand“ der Technik erklärt und der Grenzwert entsprechend reduziert wird, hat es nur sehr begrenzte Anreize diese Innovation tatsächlich durchzuführen. In der umweltökonomischen Literatur wird diese kontraproduktive Anreizwirkung als „Schweigekartell der Oberingenieure“ bezeichnet (Endres 2013).

5 Umweltökonomik

635

Unsicherheit und das Kriterium der ökologischen Effektivität Bislang wurde beim Vergleich der unterschiedlichen Internalisierungsinstrumente angenommen, dass die Regulierungsbehörde vollständige Informationen über den Verlauf von Grenzvermeidungskosten- und Grenzschadenskostenkurven hat. Die Verwendung von Steuern erweist sich hier aus ökonomischer Sicht in der Regel vorteilhafter als ordnungsrechtliche Eingriffe bei der Bestimmung von Emissionsobergrenzen der Unternehmen. Wenn hingegen angenommen wird, dass keine vollständigen Informationen über den Verlauf der beiden Opportunitätskostenkurven vorliegen, kann sich auch eine Grenzwertregulierung als vorteilhaft erweisen. In Abbildung 5.22 wird angenommen, dass die „wahren“ Verläufe der MCA und MEC der Regulierungsbehörde nicht bekannt sind und die tatsächliche Umweltknappheit (im Vergleich zu den effizienten Werten) in Gestalt der Setzung eines um 10% zu niedrigen Steuersatzes bzw. einer um 10% zu hohen Emissionsobergrenze unterschätzt wird. Offenbar führen beide Regulierungsfehler zu Wohlfahrtsverlusten. Allerdings hängt das Ausmaß der Wohlfahrtsverluste vom Verlauf der „wahren“ Kostenkurven ab und ist nicht unabhängig vom verwendeten Internalisierungsinstrument. Während die Setzung einer zu großen Emissionsobergrenze zum Wohlfahrtsverlust im Umfang des Dreiecks ADE führt, betragen die Effizienzverluste einer zu niedrig gesetzten Emissionssteuer ABC und sind damit deutlich höher. Die Verwendung von Grenzwerten wäre in dieser durch Unsicherheit geprägten Situation offenbar der Steuerlösung vorzuziehen.

Abb. 5.22  Steuern und Grenzwerte bei Unsicherheit und Planungsfehlern [Quelle: in Anlehnung an Pindyck und Rubinfeld (2013, S. 848)]

636

Roland Menges

Bei allgemeiner Betrachtung zeigt sich, dass die Frage, mit welchem Instrument die bei unvollständigen Informationen unvermeidlichen Wohlfahrtsverluste minimiert werden können, nur in Abhängigkeit von der Steigung der beiden Kostenkurven zu beantworten ist. Dieses Ergebnis ist die Aussage eines auf Martin Weitzman (1974) zurückgehenden Theorems: • Verläuft die MEC-Kurve – wie in Abbildung 5.22 angenommen – betragsmäßig relativ steiler als die MCA-Kurve, führt die Zunahme der von der Gesellschaft zu tragenden Schadenskosten im Fall der Steuerregulierung zu deutlich höheren Wohlfahrtsverlusten als im Fall der Emissionsobergrenze. Eine zu niedrig gesetzte Steuer reduziert zwar die Vermeidungskosten, führt aber zu gravierenden Umweltschäden. Eine zu hoch gesetzte Steuer bürdet der Gesellschaft hingegen in ineffizienter Weise Vermeidungskosten auf, die den Wert der Umweltknappheit deutlich übersteigen. In Fällen, in denen mit stark steigenden Umweltschäden der Emissionen zu rechnen ist, ist es bei unsicheren Informationen über den konkreten Verlauf der Kurven offenbar wenig ratsam, auf die Kosteneffizienz von Umweltsteuern zu setzen. Der Vorteil der durch die Regulierung vorgegebenen Emissionsobergrenze liegt hier in ihrer ökologischen Effektivität, da grundsätzlich sichergestellt ist, dass sich alle Unternehmen an diese Grenze halten müssen. Unter dem Kriterium der ökologischen Effektivität versteht man die Fähigkeit eines Instrumentes, das vorgegebene ökologische Zielniveau exakt zu erreichen. Häufig wird dieses Kriterium auch als ökologische Treffsicherheit bezeichnet (Endres 2013). • Gegenteilig verhält es sich, wenn bei unsicheren Informationen damit zu rechnen ist, dass die MCA-Kurve relativ steiler als die MEC-Kurve verläuft. Hier führt eine falsch gesetzte Emissionsobergrenze zu höheren Wohlfahrtsverlusten als eine falsch gesetzte Steuer. Da zusätzliche Emissionsminderungen von den Unternehmen nur zu relativ stark steigenden Kosten durchgeführt werden können, überwiegt der Vorteil einer Steuerung durch Umweltsteuern gegenüber der ökologischen Effektivität von Emissionsobergrenzen.

5.5.4

Standardorientierte Instrumente

Der Standard-Preis-Ansatz Lösungen wie die Pigou-Steuer, die auf eine Internalisierung externer Effekte zielen, haben den Vorteil, dass hierdurch eine Pareto-optimale Allokation der Umweltnutzung erreicht werden kann. Allerdings setzt eine derartige erstbeste Lösung vollständige Informationen über sämtliche disaggregierten Vermeidungskosten- und Schadenskurven voraus. Standardorientierte Instrumente geben diese eher unrealistische Annahme auf und akzeptieren Informationsunvollkommenheiten. Das Ziel standardorientierter Instrumente besteht darin, die Summe der absoluten Emissionsgrenzen aller Verursacher des betreffenden Schadstoffs in einer bestimmten Region auf ein akzeptables Höchstmaß abzusenken (Endres 2013). Der Anspruch der Pareto-Optimalität einer „echten“ Internalisierung externer

5 Umweltökonomik

637

Effekte wird damit aufgegeben, da der konkrete Umweltstandard nicht mehr durch die Erfassung der gesellschaftlichen Opportunitätskosten der Umweltnutzung legitimiert wird, sondern auf einer – aus Sicht des ökonomischen Systems – exogenen Setzung beruht. Der sog. Standard-Preis-Ansatz geht davon aus, dass Umweltschäden nicht hinreichend monetarisiert werden können, die Grenzvermeidungskosten hingegen eher bekannt seien (Cansier und Bayer 2003). Die pragmatische Idee der Standardorientierten Instrumente geht auf Baumol und Oates (1971) zurück. Die in den vorherigen Abschnitten analysierten umweltpolitischen Instrumente in Bezug auf die Kriterien der ökonomischen Effizienz und der ökologischen Effektivität gelten auch, wenn diese als Umweltsteuern oder Emissionsobergrenzen auf einen exogen gesetzten Umweltstandard ausgerichtet sind. So ist bei steuerlichen, auf den Preis der Umweltnutzung zielenden Instrumenten zwar nicht gewährleistet, dass sie das System in das Pareto-optimale Niveau der Umweltnutzung führen, die Vorgabe eines einheitlichen Preises für alle Nutzer der Umweltressource garantiert allerdings, dass das exogen gesetzte Niveau der Umweltnutzung zu den geringsten gesellschaftlichen Kosten erreicht werden kann („efficiency without optimality“, vgl. Baumol und Oates 1988). Da die Festlegung von Steuern oder Emissionsobergrenzen nicht mehr an die Kenntnis der Optimalwerte gebunden ist, kann der Staat die Dosierung der Instrumente im Zuge eines „trial and error“ variieren. Wenn beispielsweise nach der Setzung eines Steuersatzes für einen bestimmten Schadstoff festgestellt wird, dass die damit verbundenen Umweltschäden zu hoch erscheinen, kann diese Steuer nach oben angepasst werden. Hierbei muss allerdings berücksichtigt werden, dass ein derartiger Prozess des „Ausprobierens“ beim Staat und den regulierten Unternehmen zu Transaktionskosten führt (Brümmerhoff 2011). Handelbare Umweltzertifikate Handelbare Umweltzertifikate stellen ebenfalls ein standardorientiertes Instrument dar, weil sie im Kern auf einer exogenen Setzung des Staates beruhen. Zertifikate verbinden grundsätzlich den Vorteil der ökologischen Effektivität, der sich bei der mengenmäßigen Beschränkung von Emissionsobergrenzen ergibt, mit der ökonomischen Kosteneffizienz von steuerlichen Instrumenten. Der Grundgedanke handelbarer Umweltzertifikate lässt sich wie folgt zusammenfassen: Wie im umweltökonomischen Grundmodell gezeigt, kommt es bei der Nutzung von Umweltgütern zu Ineffizienzen in Form externer Effekte, weil diese Güter nicht auf Märkten gehandelt werden können und damit kein Preis entsteht, der den Wirtschaftssubjekten die Knappheit der Umwelt signalisiert. Die PigouSteuer versucht unter der Annahme vollständiger Information diesen Preis zu simulieren und so eine Internalisierung herbeizuführen. Handelbare Umweltzertifikate setzen gewissermaßen noch eine Stufe früher an, weil mit der Schaffung von exklusiven und handelbaren Nutzungsrechten die Voraussetzung für einen „künstlichen“ Markt geschafft wird, der den fehlenden Markt für Umweltgüter simulieren soll (Sturm und Vogt 2011). Hierzu gibt der Staat im Umfang einer zuvor festgesetzten Menge („cap“) Emissionsberechtigungen an die Unternehmen aus. Die Primärallokation der Zertifikate wird

638

Roland Menges

durch eine staatliche Behörde vorgenommen und kann entweder durch eine Versteigerung oder eine kostenlose Vergabe an die bisherigen Emittenten nach einem historischen Schlüssel (sog. „grandfathering“) erfolgen (für eine Übersicht vgl. Endres 2013). Aus Sicht der Unternehmen begrenzt die Menge der Zertifikate die genaue Anzahl an Emissionseinheiten, die von ihm in einem bestimmten Zeitraum ausgestoßen werden darf. Die Ökologische Effektivität bzw. Zielgenauigkeit wird dadurch erreicht, dass ähnlich wie bei ordnungsrechtlichen Auflagen z.B. durch Geldstrafen dafür Sorge getragen wird, dass die tatsächlichen Emissionen des Unternehmens durch die Menge der von ihm vorgehaltenen Zertifikate gedeckt sind. Die Vorteile der Kosteneffizienz stellen sich bei diesem Instrument dadurch ein, dass die einzelnen Emissionsrechte übertragbar sind. Übertragbare Emissionszertifikate werden zu relativ geringen Transaktionskosten handelbar, wenn hierfür eine Zertifikatebörse eingerichtet wird. An diesem Handelsplatz treten dann die Unternehmen als Anbieter und Nachfrager nach Emissionsrechten auf. Durch den Handel mit Zertifikaten entsteht eine Sekundärallokation, die dazu führt, dass sich die Grenzvermeidungskosten aller beteiligten Unternehmen dem Gleichgewichtspreis der Zertifikate anpassen. Will ein Unternehmen beispielsweise seine Produktion von Gütern bei gleichbleibender Technik erhöhen, muss es dafür zusätzliche Emissionszertifikate von einem anderen Unternehmen erwerben. Hierdurch wird der Gleichgewichtspreis steigen, zu dem die Zertifikate gehandelt werden. Ein steigender Zertifikatepreis signalisiert den Unternehmen jedoch steigende Opportunitätskosten der Umweltverschmutzung. Unternehmen, die bei dem gestiegenen Zertifikatepreis über nun rentabel werdende Emissionsvermeidungsmöglichkeiten verfügen, werden ihren Emissionsausstoß reduzieren und durch den Verkauf der Zertifikate einen geldwerten Vorteil erwerben. Hierdurch wird die Kosteneffizienz der Emissionsvermeidung sichergestellt: Es kommen aus gesamtwirtschaftlicher Sicht jeweils die kostengünstigsten Emissionsminderungsoptionen zum Zug. Diese Eigenschaft der Kosteneffizienz kann auch anhand von Abbildung 5.19 erläutert werden, wenn angenommen wird, dass Unternehmen 1 und 2 im Rahmen der Primärallokation vom Staat mit der gleichen Menge an handelbaren Emissionszertifikaten im Umfang 0,5 e* ausgestattet werden. Wenn die Rechte handelbar sind, wird Unternehmen 2, das über die kostengünstigeren Vermeidungsoptionen verfügt, bereit sein, einige seiner Zertifikate zu verkaufen, wenn es hierfür einen Preis erhält, der mehr als MCA2 (0,5 e*) beträgt und entsprechend Emissionsminderungsmaßnahmen durchführen. Gleichzeitig wird Unternehmen 1 zum Kauf von Emissionszertifikaten bereit sein, wenn der Preis nicht höher als MCA1 (0,5 e*) beträgt. Im Ergebnis werden sich die Unternehmen darauf einigen, dass Unternehmen 2 im Umfang von (0.5 e* – e2,τ) Zertifikate zum Preis t an Unternehmen 1 verkauft. Handelbare Emissions- bzw. Verschmutzungsrechte werden in der Umweltökonomik sehr positiv beurteilt, da sie einen Markt für Externalitäten schaffen. Die Identifikation der relativ kostengünstigsten Möglichkeiten zur Emissionsminderung wird hierbei nicht den Fähigkeiten einer zentral operierenden Regulierungsbehörde überlassen, sondern dem dezentralen Kalkül der Marktteilnehmer. Die Aufgabe der Umweltregulierung besteht

5 Umweltökonomik

639

insbesondere in der adäquaten Festsetzung der gesamtwirtschaftlichen Emissionsobergrenze. Während der Staat etwa im Fall der Umweltsteuer in Abbildung 5.17 auf einen konjunkturell bedingten Einbruch der gesamtwirtschaftlichen Nachfrage nach Stahl diskretionär mit einer entsprechenden Reduktion des effizienten Steuersatzes antworten müsste, um der geringer gewordenen Umweltknappheit Rechnung zu tragen, führt ein konjunktureller Schock im System des Emissionshandels zu einer endogenen Reaktion des Marktpreises der Zertifikate. Aus Sicht der Umweltökonomik schneiden handelbare Zertifikate bei einem Vergleich mit steuerlichen Lösungen daher besser ab (z.B. Weimann 1995): • In Bezug auf die ökonomischen Kriterien der statischen und dynamischen Kosteneffizienz kommen beide Instrumente bei vollständigen Informationen des Regulierers zu identischen Ergebnissen. Wird der „richtige“ Steuersatz vom Regulierer gewählt, ist ebenso mit einer kosteneffizienten Allokation und hinreichenden Anreizen zur Aktivierung von technologischen Fortschritten bei den Technologien zur Emissionsreduktion zu rechnen, wie bei der Vorgabe der „richtigen“ Obergrenze der handelbaren Zertifikatemenge.13 • Nimmt man jedoch unvollständige Informationen des Regulierers hinsichtlich der Opportunitätskosten der Umweltnutzung an, so weisen Umweltzertifikate hinsichtlich der ökologischen Effektivität deutliche Vorteile auf, da über die Festlegung der Zertifikatemenge der Schadstoffausstoß direkt kontrollierbar ist, bei den steuerlichen Lösungen hingegen keine direkte Kontrolle des Schadstoffausstoßes möglich ist. • Die ökologische Ungenauigkeit von steuerlichen Lösungen wird zudem – wie oben erläutert – dadurch verschärft, dass dynamische Einflüsse wie Wirtschaftswachstum oder Marktveränderungen unmittelbare Einflüsse auf das ökologische Ziel haben. Die Zielgenauigkeit in Bezug auf ein langfristig angestrebtes Umweltqualitätsziel wäre also bei steuerlichen Lösungen nur durch ständige diskretionäre Anpassungsmaßnahmen zu erreichen und zieht damit einen hohen regulatorischen Aufwand nach sich. Bei handelbaren Umweltzertifikaten beschränkt sich der regulative Eingriff hingegen im Wesentlichen auf die einmalige Setzung der Zertifikatemenge. Allerdings setzt die Kosteneffizienz einer Zertifikatelösung die Existenz eines liquiden, wettbewerblichen Marktes für die Verschmutzungsrechte mit geringen Transaktionskosten für alle Marktteilnehmer voraus. Wenn beispielsweise wenige große Anbieter oder Nachfrager auf einem „dünnen“ Markt die Möglichkeit haben, sich strategisch zu verhalten und den Marktpreis zu beeinflussen (z.B. um kleinere Unternehmen zu verdrängen), ist die allokative Effizienz dieses Instrumentes nur bedingt gewährleistet. Eine derartige 13 Hierbei sei allerdings darauf verwiesen, dass diese Aussage insbesondere dann gilt, wenn lediglich die zu einem bestimmten Zeitpunkt bekannten Vermeidungstechnologien betrachtet werden. Sind die für eine bestimmte umweltpolitische Strategie möglicherweise notwendigen Technologien noch in der Entwicklung, so kann gezeigt werden, dass Steuern aufgrund der relativ verlässlichen Preissignale besser geeignet sind, die notwendigen Innovationen herbei zu führen, als handelbare Zertifikate (Requate 2005, vgl. hierzu auch Abschnitt 5.6.3 in diesem Beitrag).

640

Roland Menges

Gefahr besteht hingegen bei der Verwendung von Umweltsteuern im Rahmen des PreisStandard-Ansatzes nicht (Brümmerhoff 2011). Zudem muss berücksichtigt werden, dass dieser „künstliche“ Markt allein aufgrund einer staatlichen Intervention existiert. Die empirischen Erfahrungen, die bislang beispielsweise mit dem im Jahr 2005 eingeführten europäischen Emissionshandel gemacht wurden, weisen auf den schädlichen Einfluss von Regelverstößen einzelner Marktteilnehmer, Regulierungsänderungen und eine letztlich zu großzügig gestaltete Emissionsobergrenze hin. Je höher die insgesamt über die Primärallokation ausgeschüttete Menge der Emissionszertifikate ist, desto geringer wird die Allokationswirkung des sich am Zertifikatemarkt ergebenden Preis- bzw. Knappheitssignals sein. Regulatorische Unsicherheiten in Bezug auf die Bestimmung von Zuteilungsmengen und –perioden erschweren zwar den Nachweis der theoretisch zu erwartenden Effekte des Emissionshandels und behindern die Entwicklung stabiler Rahmenbedingungen; sie sind aus theoretischer Sicht jedoch nicht als Schwächen dieses Instruments anzusehen und stellen eher ein Problem inkonsistenter Umweltpolitik dar (Sturm und Vogt 2011).

5.5.5

Das Coase-Theorem

Fehlende Eigentumsrechte und die Reziprozität des Umweltproblems Die Gemeinsamkeit aller bislang betrachteten auf die Internalisierung externer Effekte gerichteten Instrumente geht im Kern auf Pigou (1920/1979) zurück. Aus der Perspektive von Pigou liegt das Ausgangsproblem externer Effekte in der Natur ökonomischer Aktivitäten von Individuen, die Nutzen oder Kosten Dritter berühren, ohne dass eine entsprechende Kompensation Teil ihres Kalküls ist (vgl. Fußnote 9). Dies führt zur Notwendigkeit staatlicher Marktintervention, die auf eine Korrektur der relativen Preise zielt. Eng mit dieser theoretischen Konzeption verbunden sind populäre umweltpolitische Forderungen, der Staat selbst müsse durch Steuern und Abgaben „wahre“ Preise herbeiführen und dafür sorgen, dass die Verursacher von negativen externen Effekten die „wahren“ Kosten ihrer Entscheidungen übernehmen (zum sog. Verursacherprinzip vgl. die Ausführungen des nächsten Abschnitts dieses Beitrags). Ronald Coase (1960) hat sich in seinem berühmten Aufsatz „The Problem of Social Cost“ dieser Idee von Pigou entgegengestellt. Nach Ansicht von Coase liegt das primäre Problem externer Effekte nicht in der Natur der ökonomischen Aktivität, sondern in nicht spezifizierten Eigentumsrechten. Bezogen auf das umweltökonomischen Grundmodell bedeutet dies: Erst das Fehlen von Eigentumsrechten führt dazu, dass die Unternehmen, die den regionalen See als Senke für ihre Schadstoffeinträge nutzen, in Abbildung 2.4 ihre eigenen Nutzungsansprüche ohne Rücksicht auf die konsumtiven Nutzungsansprüche der Anwohner oder Touristen durchsetzen können und sich aus gesamtwirtschaftlicher Sicht eine ineffiziente Allokation einstellt. Wenn man hingegen annimmt, dass Eigentums- bzw. Nutzungsrechte an der Umweltressource vom Staat definiert werden und bei Abwesenheit von Transaktionskosten durchgesetzt werden können, stellt sich das Umweltproblem letztlich als reziprokes Problem dar, dessen Auflösung grundsätzlich durch die Zuteilung von

5 Umweltökonomik

641

Rechten gelöst werden könnte: “The traditional approach has tended to obscure the nature of the choice that has to be made. The question is commonly thought of as one in which A inflicts harm on B and what has to be decided is: how should we restrain A? But this is wrong. We are dealing with a problem of a reciprocal nature. To avoid the harm to B would inflict harm on A. The real question that has to be decided is: should A be allowed to harm B or should B be allowed to harm A? The problem is to avoid the more serious harm.” (Coase 1960, S.2) Die Bedeutung und Zuteilung von Eigentumsrechten Um die Relevanz dieses Argument zu verstehen, muss zunächst die ökonomische Bedeutung von Eigentumsrechten erläutert werden. Wohldefinierte und durchsetzbare Eigentums- und Verfügungsrechte stellen letztlich den Kern effizienzsteigernder Tauschvorgänge dar. Wenn beispielsweise in Abbildung 5.17 betrachtet wird, zu welchem Preis eine bestimmte Menge Stahl von den Kunden der Stahlanbieter erworben wird, so ist dies nur möglich, weil die Kunden von den Stahlanbietern gegen die Bezahlung des Marktpreises die vollständigen Eigentums- und Verfügungsrechte hieran übertragen bekommen. Das Funktionieren des Marktmechanismus setzt also voraus, dass diese Rechte definiert und übertragbar sind. Diese Eigenschaften mögen auf den ersten Blick trivial erscheinen, aber ohne sie ließen sich konkurrierende Verwendungsinteressen nicht koordinieren. Erst hierdurch kann das Prinzip des freiwilligen Tausches in einer Weise genutzt werden, dass alle Möglichkeiten der Pareto-Besserstellung ausgeschöpft werden. Eigentums- und Verfügungsrechte schaffen und begrenzen gleichzeitig die Handlungsspielräume der Individuen, denn dort, wo die Rechte anderer tangiert werden, endet das Verfügungsrecht, das sich aus dem Eigentum ableitet. Es kommt zu Ineffizienzen und Grenzverletzungen, wenn Eigentumsrechte zwar im Prinzip existieren, in der Realität aber nicht durchsetzbar sind, oder wenn sie aus Gründen der unvollständigen Information, wie etwa bei Prinzipal-AgentenProblemen, nur unvollkommen wahrgenommen werden können. (Weimann 2005). Eine Anwendung des Begriffs der Eigentumsrechte an Umweltressourcen erscheint auf den ersten Blick problematisch, da das Problem der öffentlichen Güter ja gerade durch die Nicht-Ausschließbarkeit im Konsum geprägt ist. Allerdings geht es hierbei nicht um die Privatisierung von Umweltgütern. Entscheidend ist, dass auch bei nicht näher präzisiertem öffentlichem Eigentum an Umweltressourcen Nutzungsrechte definiert und übertragbar gestaltet werden können. Diese Differenzierung zwischen nicht-übertragbaren Eigentumsrechten und übertragbaren Nutzungsrechten ist auch in anderen ökonomischen Bereichen prägend. Auf dem Arbeitsmarkt werden von Arbeitssuchenden beispielsweise keine Eigentumsrechte angeboten und übertragen, sondern Arbeitsverträge. Ähnlich wie im Fall von öffentlichen Umweltgütern nicht der Besitz der Umweltressource übertragen wird, ist die physische Verfügbarkeit über die eigene Person ein Recht, das nur in ganz begrenztem Umfang übertragen werden kann. Auch freiwillig eingegangene Sklaverei ist in den meisten Ländern verboten (Weimann 2005). Die im letzten Abschnitts dieses Beitrags behandelten Probleme der öffentlichen Güter und der Common-Property-Ressourcen sind mit ihrer Nicht-Ausschließbarkeit im Konsum letztlich eine extreme Folge nicht hinreichend definierter Nutzungsrechte.

642

Roland Menges

Verhandlungen als Methode zur Auflösung der Nutzungskonkurrenz Die Idee von Coase besteht darin, dass (nach der Schaffung und Zuteilung von Nutzungsrechten) das Zusammenwirken der an einem externen Effekt beteiligten Parteien als Verhandlungen über das Niveau dieses externen Effektes verstanden werden kann. Die hier vorgeschlagene Strategie zur Internalisierung besteht also darin, die Umweltressource, über welche die externen Effekte vermittelt werden, zu einem marktfähigen Gut zu machen (Endres 2013). Zwar werden auch die im obigen Abschnitt erläuterten Umweltzertifikate im Rahmen einer standardorientierten Umweltpolitik häufig als pragmatische Anwendung des Coase-Theorems verstanden, allerdings sei darauf hingewiesen, dass sich derartige Umweltzertifikate vom Coase-Theorem in einem zentralen Punkt unterscheiden: Im Rahmen handelbarer Umweltzertifikate wird das Niveau der gesellschaftlich akzeptierten Umweltverschmutzung exogen gesetzt und daher als „Standard“ bezeichnet. Im Rahmen des Coase-Theorems ergibt sich die Allokation hingegen endogen als Ergebnis eines effizienzsteigernden Verhandlungsprozesses. Das Coase-Theorem basiert auf zwei Aussagen: • Das sich nach den Verhandlungen einstellende Niveau des externen Effektes ist Pareto-optimal (Effizienztheorem). • Diese Pareto-optimale Allokation wird unabhängig von der Frage erreicht, welcher der beteiligten Parteien zuvor die Nutzungsrechte zugewiesen wurden (Invarianztheorem). Beide Aussagen können anhand des umweltökonomischen Grundmodells erläutert werden, in dem zwei Parteien – einerseits Landwirte und Produktionsunternehmen, andererseits Touristen und Anwohner – mit unterschiedlichen Verwendungswünschen um die Nutzung der Umweltressource „regionaler See“ konkurrieren. Die zentrale staatliche Aufgabe besteht in der Schaffung und Primärverteilung von exklusiven Nutzungsrechten an der Umweltressource. Diese Rechte können entweder den Anwohnern und Touristen zugewiesen, die die Umweltqualität des Sees für Erholungszwecke nutzen wollen (Modell: Rechtezuweisung I) oder sie können den Landwirten und Produktionsunternehmen zugewiesen werden, die den See als Senke für ihre Schadstoffeinträge nutzen möchten (Rechtezuweisung II). Das Modell „Rechtezuweisung I“ lässt sich anhand von Abbildung 5.23 verdeutlichen: Die Zuweisung der exklusiven Nutzungsrechte an der Umweltressource „regionaler See“ an die Anwohner und Touristen bedeutet zunächst, dass die Unternehmen keine Emissionen in den See eintragen dürfen und die Konsumenten die bestmögliche Umweltqualität des Sees nutzen können. Gleichwohl haben die Unternehmen den Wunsch, den See ebenfalls zu nutzen und die Anwohner haben die Möglichkeit, Teile ihrer Nutzungsrechte an die Unternehmen abzutreten. Es gibt ausgehend von dieser Anfangsallokation ein Potenzial für beiderseitig vorteilhafte Verhandlungen bzw. Transaktionen, das durch die folgende Verhandlungsbereitschaft (VHB) der beiden Parteien geprägt ist:

5 Umweltökonomik

643

• Der Wunsch der Unternehmen, Nutzungsrechte zu erwerben, lässt sich anhand der MCA-Kurve als Zahlungsbereitschaft interpretieren: Die maximale Zahlungsbereitschaft (willingness-to-pay, WTP) für den Erwerb von Nutzungsrechten entspricht gerade dem produktiven Grenznutzen der Emissionen, bzw. den alternativ aufzuwendenden Vermeidungskosten. Sie sinkt mit zunehmendem Emissionsniveau. Wenn man annimmt, der Gegenseite sei über den Nutzen informiert, den die Unternehmen aus den Emissionen potenziell ziehen, werden diese entsprechend ihrer „wahren“ Präferenzen in den Verhandlungen agieren, weil sie nur hierdurch in den Genuss der Emissionsrechte gelangen können und ansonsten auf deren produktiven Nutzen verzichten müssten. • Das Motiv der Anwohner des Sees, Emissionszertifikate an die Unternehmen abzutreten, lässt sich als minimaler Verkaufspreis anhand der durch die Emissionen induzierten Schäden entlang der MEC-Kurve interpretieren (willingness-to-accept, WTA). Die Anwohner werden bereit sein, Emissionen und die damit verbundenen Einbußen an Umweltqualität zu akzeptieren, wenn sie hierfür mindestens eine Kompensation in Höhe der Schäden erhalten. Wenn die Gegenseite über die Nutzen informiert ist, welche die Konsumenten der Umweltqualität aus der Senkung der Emissionen erfahren, werden die Konsumenten im Zuge der Verhandlungen entsprechend ihrer „wahren“ Präferenzen agieren: Einerseits würden sie sich bei einer Veräußerung von Emissionsrechten zu einem zu günstigen Preis gegenüber der Ausgangssituation schlechter stellen, weil die sich dann einstellenden Umweltschäden einen größeren Nutzenverlust als die dafür erhaltene Kompensation bedeuten würden. Andererseits werden sie von einer Veräußerung von Rechten profitieren, wenn die damit einhergehende Kompensation das Niveau der zu akzeptierenden Schäden übersteigt. Geht man also davon aus, dass die Verhandlungsposition beider Parteien entsprechend der MEC- und MCA-Kurven abgebildet werden können und nimmt man an, dass die beiden Parteien ohne Transaktionskosten miteinander verhandeln können, so entfaltet sich ausgehend vom Emissionsniveau 0 und der sich dort ergebenden Differenz der Verhandlungsbereitschaft ∆VHBRechtezuweisung I ein Raum für beiderseitig vorteilhafte Transaktionen in Form der in der Grafik gefärbten Fläche. Beide Parteien werden gewillt sein, Emissionsrechte bis zum Niveau e* zu tauschen, bei dem die maximale Zahlungsbereitschaft (WTP) der Unternehmen gerade der minimalen Kompensationsforderung (WTA) der Konsumenten entspricht. Ein über dieses Niveau hinausgehender Tausch von Emissionsrechten wäre für beide Seiten nicht vorteilhaft. Das Ergebnis der Verhandlungen entspricht einer gesamtwirtschaftlich effizienten Allokation der Umweltnutzungen, da die gesamtwirtschaftlichen Opportunitätskosten der Umweltnutzung hier minimal sind (MEC = MCA).

644

Roland Menges

Abb. 5.23  Coase-Verhandlungslösung bei Rechtezuteilung an die Konsumenten

Das Modell „Rechtezuweisung II“ lässt sich äquivalent zur bisherigen Argumentation anhand von Abbildung 5.24 erläutern. Wenn der Staat den produzierenden Unternehmen das exklusive Recht einräumt, den See für ihre produktiven Zwecke als Senke zu nutzen, stellt sich die Anfangsallokation e0 als Status-Quo der Verhandlungen über den Tausch von Emissionsrechten dar. Die Unternehmen werden bereit sein, Emissionsrechte abzutreten, wenn sie hierfür mindestens in Höhe ihrer Vermeidungskosten MCA kompensiert werden (WTA). Die Anwohner werden bereit sein, Preise für den Erwerb dieser Rechte und die Schonung der Umweltqualität ihres Badesees zu zahlen, wenn diese nicht höher sind als die mit den Emissionen verbundenen Grenzschäden MEC (=WTP). Auch hier weist das sich im Status-Quo ergebende Potenzial von Transaktionen ∆VHBRechtezuweisung II darauf hin, dass sich beide Verhandlungspartner am besten stellen, wenn die Rechte bis zum Niveau e* in die Hände der Anwohner übergehen. Insgesamt zeigt sich also, dass das Ergebnis der Verhandlungen in Form der effizienten Allokation e* unabhängig von der Frage erreicht werden kann, welcher Partei die Rechte zugewiesen werden, bzw. welche Partei der jeweils anderen eine Kompensation für den Erwerb der Rechte zu leisten hat. Interessanterweise ist es bei derartigen Verhandlungen auch nicht nötig, dass ein einzelner Verhandlungspartner vollständige Informationen über die Kosten- bzw. Verhandlungssituation der übrigen Verhandlungsteilnehmer hat (zur Effizienz von wettbewerblichen Mechanismen, die sich auch ohne die Annahme der vollständigen Information einstellt vgl. Kapitel 1 von Erlei in diesem Band). Unter den

5 Umweltökonomik

645

Abb. 5.24  Coase-Verhandlungslösung bei Rechtezuweisung an die Produzenten

o.g. Annahmen besteht daher das grundsätzliche Verdienst der ökonomischen Lehre von Verfügungs- und Eigentumsrechten in der Betonung des engen Zusammenhangs zwischen • der Existenz von Märkten, • geeigneten spezifizierten und individuell zugeordneten Verfügungsrechten • und dem Auftreten von Externalitäten. Wenn für jede Externalität geeignete Verfügungsrechte existieren, zugeordnet und durchgesetzt werden könnten, würde sich auch ohne weitere staatliche Intervention die Allokationseffizienz einstellen. Die „richtige“ Ausgestaltung der Rechte und deren Zuteilung durch den Staat (Primärallokation) wären damit ein wirkungsvolles Instrument zur Behebung der durch Externalitäten induzierten Ineffizienzen (Pethig 1981). Das Problem der Transaktionskosten Vor diesem Hintergrund ist es nicht erstaunlich, dass sich bei oberflächlicher Betrachtung der Ansatz von Coase so verstehen lässt, dass der Staat sich bei der Lösung von umweltpolitischen Problemen darauf beschränken könne, Nutzungsrechte zu definieren, und ansonsten auf die Selbststeuerung von Verhandlungs- bzw. Marktprozessen vertraut werden könne. Dieses entspricht aber nicht der eigentlichen Intention von Coase. Vielmehr ist sein Aufsatz „Problem of Social Cost“ (1960) als Kritik am wohlfahrtstheoretischen

646

Roland Menges

Denken von Pigou (1920/1979) zu verstehen, nach dem die externen Effekte nur durch eine Steuerbelastung der ökonomischen Aktivität zu internalisieren sind. In der ursprünglichen wohlfahrtsökonomischen Welt Pigous, in der Transaktionskosten unbekannt waren, gibt es aber eigentlich keinen Grund anzunehmen, dass die Allokation im Niveau e0 stagnieren muss. Da die Umweltverschmutzung eher einen nicht-intendierter Nebeneffekt der produktiven Aktivitäten darstellt, wären die Unternehmen zu einer Einschränkung ihrer Emissionen bereit, wenn sie hierfür eine entsprechende Kompensation erhielten. Und da es im Interesse der Konsumenten der Umweltqualität liegt, die Schäden zu reduzieren, hätten diese auch einen Anreiz, derartige Kompensationszahlungen anzubieten. Wenn die beteiligten Parteien jederzeit ohne Transaktionskosten hierüber verhandeln könnten, wäre eine „endogene“ Internalisierung nicht unwahrscheinlich. Nach Ansicht von Coase, dem Begründer der Neuen Institutionenökonomik, ist die fehlende Anwendbarkeit des Marktmechanismus auch dadurch zu erklären, dass es gravierende Transaktionskosten gibt. Wenn es beispielsweise bei überregionalen Umweltproblemen sehr viele inhomogene Betroffene bzw. Konsumenten der Umweltqualität gibt, die einer ebenso inhomogenen Gruppe von Produzenten gegenüberstehen, sind Verhandlungen zur Lösung des Umweltproblems nur mit großem Aufwand vorstellbar, so dass die Transaktionskosten den möglichen, mit Verhandlungen zu realisierenden Gewinn schmälern oder sogar übersteigen können. Wenn Transaktionskosten vorhanden sind, ist zudem nicht mehr notwendigerweise mit einer allokativen Invarianz der Rechtezuteilung zu rechnen. Im Fall der Rechtezuweisung an die Konsumenten (Modell I) könnte beispielsweise angenommen werden, dass die Rechte nicht gebündelt, sondern in sehr kleinen Stückzahlen an eine Vielzahl von heterogenen Haushalten vergeben werden. Unternehmen, die versuchen, in Verhandlungen mit den Rechteinhabern zu treten, könnten nun vor dem Problem stehen, dass sie großen Aufwand betreiben müssen, um die „richtigen“ Verhandlungspartner mit einer entsprechenden Tauschbereitschaft zu identifizieren. Die hierdurch entstehenden Transaktionskosten könnten derart hoch sein, dass sie den Nutzen der potenziell für beide Seiten vorteilhaften Transaktionen vollständig aufzehren würden und der Handel daher unterbleibt. In diesem Fall spricht man von prohibitiven Transaktionskosten. Dieser Fall von Transaktionskosten in Höhe der Fläche A wird in Abbildung 5.25 dargestellt. Auch im Fall der Rechtezuweisung an die Unternehmen (Modell II) könnten Transaktionskosten für den Handel vorliegen. Wenn man jedoch annimmt, dass es nur eine geringe Zahl von Unternehmen gibt, so sind die Verhandlungen der Konsumenten mit den Rechteinhabern möglicherweise weniger transaktionskostenintensiv. Zwar werden die auch hier zu tragenden Transaktionskosten in Höhe von B den Nutzen reduzieren, den beide Parteien aus den Verhandlungen potenziell ziehen können, allerdings reduziert sich hierdurch nicht notwendigerweise der Umfang des Handels, da auch nach Abzug der Transaktionskosten hinreichende Nettovorteile für beide Parteien verbleiben.

5 Umweltökonomik

647

Abb. 5.25  Coase-Verhandlungslösungen und das Problem der Transaktionskosten [Quelle: in Anlehnung an Endres (2013, S. 71)]

Grundsätzlich kann aus diesen Überlegungen die folgende Schlussfolgerung gezogen werden: Da das Ausmaß der Transaktionskosten ebenso wie die Differenz zwischen maximalen Kauf- und minimalen Verkaufspreisen keine Naturkonstanten sind, ist das Ergebnis der Coase-Verhandlungen nicht unabhängig von der umweltpolitischen Entscheidung über die Rechtezuteilung. Die eigentliche Idee von Coase besteht also nicht darin, Verhandlungen zu einem eigenständigen umweltpolitischen Instrument zur Internalisierung externer Effekte zu erklären. Vielmehr führt aus dieser Perspektive erst die Existenz von Transaktionskosten zu einer Erklärung umweltpolitischer Probleme und zu einer Legitimation umweltpolitischer Maßnahmen. Bei Abwesenheit von Transaktionskosten wäre es wenig verständlich, dass die beteiligten Parteien nicht die oben skizzierten individuell und gesamtwirtschaftlich vorteilhaften Transaktionen durchführen. Zudem taucht auch hier das oben erläuterte Problem der öffentlichen Güter wieder auf: Werden die Rechte vor den Verhandlungen beispielsweise den Unternehmen zugewiesen (Modell II), so hat ein einzelner Konsument der Umweltqualität innerhalb der Gruppe der Geschädigten bei seinen eigenen bilateralen Verhandlungen ein Interesse, seinen Vorteil an der Emissionsreduktion und damit seine individuelle Kompensationsbereitschaft zu untertreiben, weil das Ergebnis der Verhandlungen als öffentliches Gut von allen Konsumenten gemeinsam genutzt wird. Die Internalisierung externer Effekte über die Vergabe von Eigentumsrechten setzt daher den Einsatz anreizkompatibler Verfahren der Präferenzerhebung voraus (Endres 2013).

648

5.5.6

Roland Menges

Allokations- und Verteilungswirkungen von Pigou-Steuern und Coase-Verhandlungen im Vergleich

Eine wichtige Standardaussage der Umweltökonomie zur Internalisierung externer Effekte besagt, dass Pigou-Steuern und Coase-Verhandlungen unter bestimmten Bedingungen zu allokativ gleichwertigen Ergebnissen führen. Sieht man von den mit der Erhebung der Pigou-Steuer verbundenen Informationsproblemen des Regulierers und den Transaktionskosten- und Anreizproblemen der Coase-Verhandlungen ab, lassen sich die Ergebnisse beider Internalisierungsstrategien anhand der Abbildung 5.26 zusammenfassen. In der Anfangsallokation e0, die sich im umweltökonomischen Grundmodell als Ergebnis der asymmetrischen Auflösung der Nutzungskonkurrenz einstellt, realisiert die Gesellschaft zwar eine Wohlfahrt in Höhe der Fläche A+B, dieser wird jedoch durch den Wohlfahrtsverlust in Höhe von E geschmälert. Coase-Verhandlungen und Pigou-Steuern überführen die ursprüngliche Allokation e0 in das effiziente Niveau der Umweltnutzung e* und führen daher zu einem Wohlfahrtsgewinn in Höhe von E: Die aggregierten gesellschaftlichen Opportunitätskosten der Umweltnutzung sind hier in ihrem Minimum, weil sich Grenzschadenskosten und Grenzvermeidungskosten gerade entsprechen. Abbildung 5.26 zeigt, dass die beiden Internalisierungsstrategien zwar aus allokativer Sicht zu gleichwertigen gesamtwirtschaftlichen Ergebnissen führen, gleichzeitig jedoch durch sehr unterschiedliche Verteilungswirkungen geprägt sind. Aus Sicht der

Abb. 5.26  Allokations- und Verteilungswirkungen einer Internalisierung externer Effekte

5 Umweltökonomik

649

Umweltpolitik bedeutet dies, dass die Wahl und Ausgestaltung eines umweltpolitischen Instrumentes mit einem nicht unerheblichen Freiheitsgrad bei der Gestaltung der distributiven Konsequenzen für die verschiedenen Gruppen der Gesellschaft verbunden ist (vgl. Menges 2007). Die mit der Internalisierung verbundenen Verteilungswirkungen aus Sicht der Produzenten und der Konsumenten werden in Abbildung 5.27 zusammengefasst. Das Wohlfahrtsergebnis einer bestimmten Allokation für die Gesellschaft ergibt sich additiv aus den Nutzenpositionen der einzelnen Wirtschaftssubjekte und ist daher Ausdruck daher einer utilitaristischen Konzeption, wie sie im Abschnitt 3 dieses Beitrags erläutert wurde. Die verschiedenen Internalisierungsinstrumente führen aus der individuellen Sicht der Produzenten und Konsumenten zu bestimmten Umverteilungen ihrer (Brutto-)Renten. Wenn also z.B. die Nutzenposition der Produzenten nach Einführung der Pigou-Steuer als A+B+C­–(B+C) = A gekennzeichnet wird, so bedeutet dies, dass die Produzenten mit dem verbleibenden Emissionsniveau zwar eine (Brutto-)Rente in Höhe A+B+C realisieren, sie hieraus aber eine Steuer in Höhe von (B+C) an den Staat abzuführen haben, so dass lediglich die Netto-Rente in Höhe von A bei ihnen verbleibt. In Abbildung 5.27 werden die jeweiligen Umverteilungen als Rentenzu- oder Rentenabflüsse in Klammern aufgeführt. In der Ausgangssituation erleidet die Gesellschaft durch die zu starke Nutzung der Senkenfunktion des Sees einen Wohlfahrtsverlust in Höhe der Fläche E, der vom produktiven gesamtwirtschaftlichen Nutzen des Sees (A+B) abzuziehen ist. Es wird deutlich, dass die Internalisierungsstrategien von Pigou und Coase gleichermaßen zu einer Wohlfahrtssteigerung führen, da der gesellschaftliche Verlust in Höhe von E gegenüber der Ausgangssituation eingespart wird. Die Verteilungswirkungen der Pigou-Steuer sind hierbei eindeutig bestimmbar: Das Steueraufkommen B+C reduziert die ursprüngliche Rente der Produzenten auf A und reduziert die von den Konsumenten zu tragenden Schäden auf C. Gleichzeitig wird angenommen, dass das Steueraufkommen B+C beispielsweise in Form von öffentlichen Gütern an die Wirtschaftssubjekte zurückgegeben wird.

Abb. 5.27  Allokations- und Verteilungswirkungen alternativer Internalisierungsinstrumente [Quelle: in Anlehnung an Verhoef (1999, S. 209)]

650

Roland Menges

Demgegenüber hängt die Verteilungswirkung der Coase-Verhandlungen nicht nur von der Art der Rechtezuteilung, sondern auch von der Verhandlungsmacht der beiden Parteien ab (Verhoef 1999). Im Abschnitt 5.5.5 wurde herausgestellt, dass es für die Effizienz des Coase-Verhandlungsergebnisses unerheblich ist, ob und in welcher Form die verhandelnden Parteien Informationen über die Kosten- bzw- Verhandlungsposition der jeweils anderen Marktseite haben. Für die Verteilungswirkung des Verhandlungsergebnisses ist es jedoch sehr wohl wichtig, mit welchen Informationen über die jeweilige Gegenseite eine Partei in die Verhandlungen geht. Wenn etwa die maximale Zahlungsbereitschaft eines potenziellen Käufers bekannt ist, die minimale Kompensationsforderung des potenziellen Verkäufers nur ihm selbst bekannt ist, wird der Verkäufer mit großer Wahrscheinlichkeit in der Lage sein, in den Verhandlungen den Verkaufspreis in die Nähe der maximalen Zahlungsbereitschaft des potenziellen Käufers zu treiben. Aus der Kenntnis der Verhandlungsposition der Gegenseite (bei gleichzeitiger Intransparenz der eigenen Position) resultiert also eine gewisse Verhandlungsmacht. Wenn beispielsweise die Produzenten die Rechte zugeteilt bekommen (Spalte: Rechtezuteilung II) und sie vor Beginn der Verhandlungen über die maximale Zahlungsbereitschaft der Konsumenten informiert sind, die Konsumenten gleichzeitig jedoch keine vollständigen Informationen über die Verhandlungsposition der Produzenten haben (Fall a), ist es möglich, dass die Produzenten sich die vollständige Rente D+E der Konsumenten aneignen. In diesem Fall würden sich die Produzenten sogar gegenüber der Anfangsallokation verbessern. Mit dem Verursacherprinzip, nach dem die sozialen Kosten wirtschaftlicher Aktivitäten dem Verursacher dieser Kosten angelastet werden sollen, hat dieser Mechanismus offensichtlich wenig zu tun; trotzdem liegt im Ergebnis eine Internalisierung der externen Effekte und eine effiziente Allokation vor. Werden die Rechte hingegen den Konsumenten zugewiesen (Spalte: Rechtezuteilung I) und befinden diese sich gegenüber den Produzenten in der besseren Verhandlungsposition, weil sie deren maximale Zahlungsbereitschaft für den Erwerb der Rechte kennen (Fall b), ist es möglich, dass sich die Konsumenten neben den Vorteilen der Umweltverbesserung die vollständige Rente der Produzenten A+B+C aneignen. An dieser Gegenüberstellung der verschiedenen denkbaren Verteilungswirkungen der Internalisierungsinstrumente wird deutlich, dass Internalisierung aus ökonomischer Sicht nicht notwendigerweise mit den beiden folgenden Gedanken übereinstimmt: • Nicht alle Instrumente zur Internalisierung externer Effekte basieren auf dem populären Verursacherprinzip, welches besagt, das dem physischen Verursacher die Umweltkosten seiner Handlungen anzulasten sind (für eine präzisere Definition des Verursacherprinzips im Rahmen der umweltpolitischen Prinzipien vgl. Kapitel 6). • Internalisierung impliziert nicht die Kompensation der Geschädigten für die hinzunehmenden Umweltschäden. Internalisierung bedeutet vielmehr, dass die zuvor externen Effekte aus Sicht des gesamten Systems intern werden, indem sie Eingang in das Preissystem und die Kosten/

5 Umweltökonomik

651

Nutzen-Kalküle der Individuen finden (Perman et al. 2011). Konkret heißt dies, dass die Fläche C+D in Abbildung 5.11 dem vollständigen Wert der internalisierten Opportunitätskosten der unterschiedlichen Umweltnutzungen entspricht. Die Kosten der Emissionsvermeidung sind ebenso wie die Schäden der Restemissionen von den verschiedenen Parteien des Systems zu tragen (vgl. hierzu auch Abbildung 2.5). Hervorzuheben ist ebenfalls, dass die verschiedenen Internalisierungsinstrumente zu sehr unterschiedlichen Kompensationsergebnissen führen. Während die Pigou-Steuer keine direkte Kompensation der Konsumenten für die nach der Internalisierung verbleibenden Emissionen C vorsieht14, ist auch bei der Verhandlungslösung nach Coase die volle Kompensation der Geschädigten lediglich ein Spezialfall, der sich ergeben kann, wenn den Geschädigten (und nicht den Produzenten) die Nutzungsrechte zugewiesen werden. Kompensationsregelungen für die Übernahme der Kosten in Höhe von C und D können zudem mit dem Effizienzziel der Internalisierung konfligieren, wenn es zu nichtantizipierten Verhaltensänderungen aufgrund von erwarteten Kompensationszahlungen kommt (sog. „moral hazard“). • Im Fall einer (emissionsabhängigen) Kompensationszahlung an die Produzenten für die Übernahme der umweltverbessernden Vermeidungskosten D könnte die Wirksamkeit der Pigou-Steuer in Frage gestellt werden, da die Information über den Erhalt dieser Kompensation möglicherweise einen Anreiz induziert, nicht in die kostengünstigsten Vermeidungsoptionen entlang der MCA-Kurve zu investieren, sondern die Vermeidungskosten durch Investitionen in ineffiziente Optionen zu erhöhen. Auch könnten die Unternehmen in Erwartung der Kompensationszahlungen versucht sein, das anfängliche Emissionsniveau über das Niveau e0 auszudehnen. • Und im Fall einer Kompensationszahlung an die Geschädigten können sich Probleme ergeben, wenn das öffentliche Gut „Umweltqualität“ kein „reines“ öffentliches Gut ist, sondern auch private Nutzenaspekte impliziert (sog. unreines öffentliches Gut): Auch wenn es nicht möglich ist, einzelne Individuen vom Nutzen der Umweltqualität auszuschließen, können in bestimmten Situationen einzelne Individuen die von ihnen konsumierte Umweltqualität (und daher auch das Niveau der mit den Emissionen verbundenen Schäden) mit eigenen Aktivitäten kontrollieren (Lesser et al. 1997). Nimmt man beispielsweise an, eine Wäscherei an einem Fluss verlangt von einer am Oberlauf des Flusses gelegenen Fabrik eine Kompensation in Höhe von 500 Geldeinheiten für die entstandenen Gewinneinbußen, die durch die Verunreinigung des Wassers 14

Im Fall der Pigou-Steuer fließt das Steueraufkommen B+C annahmegemäß in Form öffentlicher Güter oder der Senkung von Steuern und Abgaben an anderer Stelle an die Individuen zurück und wird daher als wohlfahrtsneutral angesehen. Vereinzelt wird in der Literatur die Kompensation der Geschädigten aus dem Steueraufkommen als zusätzliche Optimalitätsbedingung gefordert (vgl. etwa Faucheaux und Noël 1995/2001, S. 274), Cansier (2004) hält hingegen eine Kompensation der Geschädigten durch die Emittenten aufgrund einer damit verbundenen extremen Rechtezuteilung für nicht akzeptabel (Cansier 2004).

652

Roland Menges

entstanden sind, sie könnte den Schaden jedoch durch den Einbau einer Kläranlage selbst kontrollieren, die lediglich 50 Geldeinheiten kostet, so betrüge die Höhe der notwendigen Kompensation, die zu einer effizienten Internalisierung führt, lediglich 50 Geldeinheiten. Auch hier kann also die Erwartung einer Kompensationszahlung für die erlittenen Umweltschäden zu Effizienzverlusten führen, weil kein Interesse besteht, die Höhe des Schadens möglichst gering zu halten. Die Relevanz der Verteilungswirkungen eines effizienzsteigernden Internalisierungsinstrumentes für seine gesellschaftliche Akzeptanz (Baumol und Oates 1988) soll kurz an einem weiteren Beispiel verdeutlicht werden. Erinnert sei an die Aussage des ParetoKriteriums, dass bei der Abweichung von einer effizienten Allokation (z.B. aufgrund eines negativen externen Effektes) mindestens eine andere Allokation vorliegen muss, von der einige Individuen profitieren würden, die aber keinem Individuum eine Verschlechterung aufzwingen würde. Besteht für eine Politik, die auf eine potenziell wohlfahrtssteigernde Internalisierung des externen Effektes gerichtet ist, die Gefahr, dass sie auf eine gesellschaftliche Ablehnung stößt? Dies ist offenbar gar nicht so unwahrscheinlich. Wenn ein Zustand A nicht Pareto-optimal ist, impliziert dies zwar, dass ein Zustand B existieren muss, der von A aus eine Verbesserung darstellt. Ein anderer, zufällig ausgewählter, potenziell Pareto-optimaler Zustand kann aber abgelehnt werden, wenn er von Zustand A aus für Einzelne eine Verschlechterung darstellt. Um dies zu verdeutlichen wird auf das bereits im Abschnitt 5.4.1 erläuterte Common-Property Problem zurückgegriffen. Hierbei wird in Abbildung 5.28 angenommen, dass eine Vielzahl von Individuen eine vorhandene Straße entsprechend ihrer Mobilitätsbedürfnisse für die Nachfrage D nach Fahrten X mit dem PKW nutzt. Wenn die Straße für bis zu X0 Fahrten verwendet wird, entstehen den Autofahrern keine zusätzlichen Kosten pro Fahrt. Steigt die Anzahl der Fahrten jedoch über dieses Niveau, so entstehen den Autofahrern Staukosten, deren Niveau mit zunehmenden Fahrten steigt. Von jeder weiteren Straßennutzung geht für alle Straßennutzer also ein negativer externer Effekt in Form von Staukosten aus. Es stellt sich ein Gleichgewicht im Punkt G ein, da jeder Autofahrer die Kosten der ihm entstehenden durchschnittlichen Stauzeit (private Grenzkosten, MPC) mit seinen Grenznutzen der Autofahrt vergleicht. Aus gesellschaftlicher Sicht entsteht mit der Übernutzung der Straße ein Wohlfahrtsverlust in Höhe der Fläche BFG, denn aus sozialer Sicht sind nicht die durchschnittlichen, sondern die marginalen Staukosten (MSC) relevant. Die oben erläuterte ökonomische Lösung dieses Problems besteht somit in einer Pigou-Steuer, die jedem Autofahrer für eine Fahrt eine Abgabe in Höhe von τ* in Höhe der im Optimum gemessenen marginalen Staukosten auferlegt. Eine derartige Abgabe reduziert die Anzahl der Fahrten auf das Niveau X* und führt damit zu einer Internalisierung der externen Effekte der Straßennutzung. Aus gesellschaftlicher Sicht stellt sich im Gleichgewicht B nach Einführung der Steuer unzweifelhaft ein Optimum ein; aber was bedeutet dieses für die einzelnen Autofahrer? Ihre Stauzeitkosten sinken (im Vergleich zur unregulierten Ausgangssituation G) je Fahrt um die Strecke DH – allerdings müssen Sie nun für jede Fahrt den deutlich höheren Betrag DA bezahlen. Auf den ersten Blick deutet dies auf eine Verschlechterung der Situation der Autofahrer hin, denen hier offensichtlich ein schlechtes Tauschgeschäft angeboten wird.

5 Umweltökonomik

653

Abb. 5.28  Effizienz- und Verteilungswirkung der Pigou-Steuer [Quelle: Baumol und Oates (1988, S. 238)]

Es wäre also mit einem Widerstand der Autofahrer gegen diese aus Sicht der Gesellschaft „optimale“ Besteuerung zu rechnen. An dieser Stelle wird die aus allokativer Sicht eigentlich unerhebliche Frage relevant, wie die mit der Maßnahme realisierten Steuereinnahmen in Höhe des Rechtecks ABCD verwendet bzw. verteilt werden. Nur wenn diese Steuereinnahmen auch zur Nutzensteigergung der potenziellen Verlierer der Maßnahme verwendet werden, wäre mit deren Zustimmung und mit der Realisierung eines Pareto-Optimums zu rechnen.

5.5.7

Öffentliche Güter und externe Effekte in simultaner Betrachtung

Die negative Produktionsverbundenheit des öffentlichen Gutes Umweltqualität Die bisherige Analyse hat gezeigt, dass die Bestimmung der optimalen Menge des öffentlichen Gutes Umweltqualität und die Internalisierung externer Effekte zwei Seiten derselben Medaille darstellen und Ausdruck eines gesellschaftlichen Interaktionsprozesses sind. Die gesellschaftliche Entscheidung für eine bestimmte Umweltqualität ergibt sich in der Realität faktisch als Residualgröße anderer Entscheidungen über die Produktion privater Güter. Eine Besonderheit öffentlicher Umweltgüter gegenüber klassischen öffentlichen Gütern wie etwa „Landesverteidigung“ liegt also darin, dass sie nicht im eigentlichen Sinne „produziert“ werden, d.h. auf aktive Produktionsentscheidungen zurückgehen. Die Entscheidungen über das Niveau des Umweltgutes „saubere Atemluft“ werden maßgeblich von den Entscheidungen bei der Produktion privater Güter wie etwa im Transportsektor

654

Roland Menges

determiniert („negative jointness“ vgl. Sandmo 1995). Erst durch diese negative Produktionsverbundenheit entsteht der Unterschied zwischen den privaten und sozialen Grenzkosten in Form der Externalitäten, aus der Pigou die Notwendigkeit zur steuerlichen Internalisierung gezogen hat. Bei einer simultanen Betrachtung externer Effekte und öffentlicher Umweltgüter sind also die Grenzkosten der Bereitstellung der öffentlichen Güter – wie im vierten Abschnitt dieses Beitrags unterstellt – nicht als exogen zu betrachten. Das Lindahl-Modell: Individuelle Nutzungspreise Im folgenden Modell soll die effiziente Bereitstellung der Umweltqualität mit dem bereits im oben vorgestellten Lindahl-Modell unter der Annahme untersucht werden, dass sich die Bereitstellungskosten aufgrund der negativen Produktionsverbundenheit aus der Produktion privater Konsumgüter ergeben. Das Lindahl-Modell spielt gegenüber den anderen in diesem Kapitel betrachteten Instrumenten, die auf die Verbesserung der Umweltqualität und die Internalisierung externer Umwelteffekte ausgerichtet sind, insofern eine Sonderrolle, weil es auf einer Preisdifferenzierung („benefit pricing“) beruht.15 Das Lindahl-Modell geht von der Annahme aus, dass eine staatliche Behörde oder ein Auktionator die Preise für die Nutzung des öffentlichen Gutes genau so setzt, dass jedes Individuum entsprechend seiner „wahren“ Präferenzen bzw. Zahlungsbereitschaften seinen Beitrag für das öffentliche Gut leistet. Dieser Mechanismus der Präferenzoffenbarung kann anhand des folgenden Gedankenexperiments erläutert werden (Siebert 2010): Nimmt man an, eine Ökonomie bestehe aus zwei Individuen, die unterschiedlichen Präferenzen hinsichtlich des öffentlichen Gutes haben, so könnte ein staatlicher Auktionator beiden Individuen einen bestimmten Steueranteil zur Finanzierung des Gutes vorschlagen und nach der bei diesem persönlichen Preis „nachgefragten“ Menge des öffentlichen Gutes fragen. Fragen beide Individuen unterschiedliche Mengen nach, erhöht der Auktionator den Steueranteil des Individuums mit dem größeren Nachfragewunsch und senkt den Steueranteil des Individuums mit der geringeren Nachfrage. Dieser Auktionsprozess wird so lange fortgesetzt bis der Auktionator übereinstimmende Mengenwünsche der Individuen realisiert hat und beiden den zugehörigen Preis bzw. die Steuer für die Bereitstellung dieser Menge in Rechnung stellen kann. In Bezug auf öffentliche Umweltgüter sind drei konkrete Anwendungsmöglichkeiten des Lindahl-Preissystems vorstellbar: • Die individuellen Konsumentenpreise für die Umweltqualität können als Subventionszahlungen an die Unternehmen für die Durchführung der Umweltschutzmaßnahmen verwendet werden.

15 Grundsätzlich können alle Allokationsmechanismen zur Bereitstellung öffentlicher Güter in die Erhebung persönlicher, d.h. differenzierter Preise und die Festsetzung konstanter Preise eingeteilt werden (Myles 1995). Lediglich im Fall der persönlichen Preisdifferenzierung besteht jedoch die Möglichkeit, eine Pareto-optimale Bereitstellung auf freiwilliger Basis, d.h. ohne zusätzliche staatliche Maßnahmen zu realisieren.

5 Umweltökonomik

655

• Die Zahlungen können einer staatlichen Behörde für die Durchführung der Maßnahmen zur Verfügung gestellt werden. • Die von den Unternehmen nach dem Verursacherprinzip erhobenen Emissionssteuern werden für eine individuelle Kompensation der Konsumenten verwendet (negative Konsumentenpreise). Das optimale Niveau des öffentlichen Umweltgutes und die Internalisierung externer Effekte Um die Bereitstellung eines öffentlichen Umweltgutes auf Basis effizienter, individualisierter Umweltnutzungspreise zu organisieren, müssen zuvor exklusive Verfügungsrechte an der Umweltressource geschaffen und durchgesetzt werden, z.B. in Form eines unbeschränkten Emissionsrechtes. Wenn beispielsweise eine staatliche Behörde, ein Unternehmen oder auch die privaten Haushalte mit diesen Eigentumsrechten ausgestattet werden, könnte das oben erläuterte Ausgangsproblem der asymmetrischen Nutzungskonkurrenz folgendermaßen gelöst werden. Durch die Ausstattung mit Eigentumsrechten entstehen simultan zwei Märkte: Neben den Markt für die Emissionsrechte e tritt ein Markt für das öffentliche Umweltgut Q(e). • Die Konsumenten des öffentlichen Umweltgutes erhalten auf dem Umweltmarkt die Möglichkeit, durch eine Zahlung für das öffentliche Umweltgut die Umweltqualität entsprechend ihrer Präferenzen zu beeinflussen. Sie übernehmen auf diese Weise die Opportunitätskosten der produktiven Umweltnutzung in ihre Kalkulationen. • Die Unternehmen, die die Emissionsrechte für ihre Produktion benötigen, müssen diese auf dem Emissionsmarkt erwerben und tragen somit die Opportunitätskosten des Umweltschutzes. Ein Modell mit einer „privatisierten“ Umwelt, in dem diese beiden Märkte zunächst separat betrachtet werden und anschließend deren Interaktion analysiert werden kann, geht von einer Ökonomie mit zwei Produzenten, zwei Konsumenten und zwei Gütern aus (Pethig 1981, Siebert 2010). Dieses Modell kann anhand der folgenden Schritte entwickelt werden: Ein Konsumgüterproduzent stellt auf Basis einer konkaven Produktionsfunktion F das private Konsumgut X unter Verwendung des Produktionsfaktors Arbeit l her und gibt hierbei die Emissionen e ab: X = F(l, e) (13) Von dem zweiten Produzenten, der das öffentliche Umweltgut Q „herstellt“, wird angenommen, er sei alleiniger Besitzer der Umwelt-Verfügungsrechte, d.h. der Rechte, Emissionen an die Umwelt abzugeben. Von diesem Umwelteigentümer wird angenommen, dass ihm bei der Durchsetzung und Überwachung seiner Rechte keine weiteren Produktionsoder Transaktionskosten entstehen. Mit seinen Entscheidungen über die Nutzung dieser

656

Roland Menges

Rechte determiniert er die von ihm angebotene Umweltqualität Q. Hierbei legt er den folgenden umwelttechnischen Zusammenhang zwischen den abgegebenen Emissionen und der von ihm bereitgestellten Umweltqualität zu Grunde (Umweltqualitätsfunktion):

⎛ ∂Q ∂2 Q ⎞ Q = Q(e), ⎜ mit: Q(0) > 0, < 0, 2 < 0⎟ (14) ⎝ ⎠ ∂e ∂e Die Umweltqualität sinkt mit steigendem Emissionsniveau16, der Grenzschaden, d.h. der Verlust an Umweltqualität, der von den Emissionen ausgeht, nimmt mit steigendem Emissionsniveau zu. Die beiden Konsumenten i (i=A, B) ziehen einen Nutzen aus dem vom ersten Produzenten hergestellten Konsumgut X und der vom zweiten Produzenten bereitgestellten Umweltqualität Q. Ihre Präferenzen seien durch die jeweilige konvexe Nutzenfunktion ⎛ ⎞ ∂U i ∂2U i ∂U i ∂2U i U i = U i (Xi ,Q), ⎜ mit: > 0, < 0, > 0, < 0⎟ (15) 2 2 ∂X ∂X ∂Q ∂Q ⎝ ⎠ i

i

beschrieben, der individuelle Grenznutzen des Konsumgutes und der Umweltqualität (im Folgenden: MUX,i bzw. MUQ,i) ist annahmegemäß positiv und abnehmend. Es wird angenommen, dass das Konsumgut X als sog. Numeraire (Standardgut) fungiert. Dies bedeutet, dass die Preise der übrigen Güter in Einheiten des Konsumgutes ausgedrückt werden und der Preis des Konsumgutes auf eins normiert werden kann. Zur Vereinfachung wird darüber hinaus angenommen, dass das Einkommen der beiden Konsumenten, der Marktpreis des Konsumgutes und der Lohnsatz gegeben sind. Unter diesen Bedingungen, d.h. unter der Annahme, dass sich die übrigen Märkte bereits in ihrem Marktgleichgewicht befinden, können nun die beiden oben genannten Märkte für das Umweltgut Q und die Emissionsrechte e partialanalytisch näher betrachtet werden. Auf dem Markt für das Umweltgut bietet der Umwelteigentümer Umweltqualität für die beiden Konsumenten an, die diese entsprechend ihrer Präferenzen (15) nachfragen. Und auf dem Markt für die Emissionsrechte bietet er Rechte an, die vom Produzenten des Konsumgutes entsprechend seiner Produktionsfunktion (13) benötigt und nachgefragt werden. Der Eigentümer der Umweltverfügungsrechte kann seine Rechte also folgendermaßen verwerten: • Erstens kann er dem Konsumgüterproduzenten das Recht, eine Einheit Schadstoffe zu emittieren, zum Preis pe verkaufen, • und zweitens kann er den Konsumenten der Umweltqualität anbieten, das Emissionsniveau e um eine Einheit zu verringern und somit die Umweltqualität Q(e) zu verbessern, wenn diese bereit sind, ihm den Preis pQ zu bezahlen.

16

Die erste Ableitung der Umweltqualitätsfunktion wird im Folgenden als Q´ bezeichnet.

5 Umweltökonomik

657

Aufgrund des umwelttechnischen Zusammenhangs (5.5) können beide Geschäfte offenbar nicht unabhängig voneinander durchgeführt werden. Der Umwelteigentümer wird seinen Gewinn ΠQ = pQQ(e) + pee (16) in Abhängigkeit der gegebenen Preise pe und pQ maximieren. Hierbei wird davon abstrahiert, dass sich der Umwelteigentümer auch als Monopolist verhalten könnte. Aus dem Kalkül des Umwelteigners lassen sich damit zwei Angebotsfunktionen ableiten, die sein Kalkül zur Verwendung bzw. Aufteilung seiner Rechte in Abhängigkeit der jeweiligen Verkaufspreise darstellen. Die Emissionsangebotsfunktion e = Ae(pe , pQ) (17) ergibt sich aus der Bedingung erster Ordnung für das Gewinnmaximum pe /pQ = –Qʹ(e), weshalb das Emissionsangebot mit steigenden Umweltqualitätspreisen sinkt und mit steigenden Emissionspreisen steigt. Die Umweltqualitätsangebotsfunktion lässt sich äquivalent über die Ableitung der Gewinnfunktion nach Q herleiten. Sie ist identisch mit dem Ausdruck, den man erhält, wenn man die Emissionsangebotsfunktion (17) in die Umweltqualitätsfunkton (14) einsetzt: Q = AQ(pe , pQ) ≡ Q[Ae(pe , pQ)]

(18)

Nachdem mit den Gleichungen (17) und (18) das Angebotskalkül des Umwelteigentümers auf den beiden Märkten hergeleitet wurde, soll nun die Nachfrage nach Emissionsrechten und nach Umweltqualität analysiert werden. Die Nachfrage nach Emissionsrechten ergibt sich aus dem Gewinnmaximierungskalkül des Konsumgüterproduzenten. Sein Gewinn ist definiert als Differenz seines Produktionsertrags F (der Preis des Konsumgutes wurde annahmegemäß auf 1 normiert), und den Kosten der Produktion, d.h. den Faktorkosten und den Kosten für den Erwerb der Emissionsrechte: πX(l, e) = F(l, e) – pll – pee (19) Aufgrund der Bedingungen erster Ordnung für das Gewinnmaximum δF(l, e)/δL = pl und δF(l, e)/δe = pe lässt sich hieraus eine Nachfrage nach Emissionsrechten Ne in Abhängigkeit der beiden Preise pl und pe ableiten: e = Ne(pe; pl) (20) Da der Faktorpreis pl annahmegemäß exogen vorgegeben ist, beschreibt diese Funktion die Nachfrage nach Emissionsrechten bei einer Veränderung des Preises der Rechte. Die Nachfrage ist monoton fallend in Bezug auf beide Preise. Die Nachfrage der beiden Konsumenten nach Umweltqualität Q ergibt sich aus ihrer Nutzenfunktion (15). Hierbei ist es ausreichend, sich an der Bedingung erster Ordnung

658

Roland Menges

für ein Nutzenmaximum im Zwei-Güter-Fall zu orientieren (vgl. hierzu den Beitrag zur Mikroökonomik von Erlei in diesem Band): Im Optimum muss bekanntlich die Grenzrate der Substitution (als Verhältnis der Grenznutzen beider Güter MUQ/MUX) gerade der Grenzrate der Transformation (dem Güterpreisverhältnis) entsprechen. Da der Preis des Konsumgutes auf 1 normiert wurde gilt also im Nutzenmaximum von Konsument A: pQ,A = MUQ,A/MUX,A und entsprechend für Konsument B: pQ,B = MUQ,B/MUX,B. Beide Konsumenten wären im Nutzenmaximum bereit, einen Preis für die Umweltqualität Q (in Einheiten des Konsumgutes) zu zahlen, der gerade ihrer individuellen Grenzrate der Substitution zwischen dem öffentlichem Gut und dem privaten Gut entspricht. Vergegenwärtigt man sich, dass es bei öffentlichen Gütern nicht möglich ist, den Konsumenten unterschiedliche Niveaus von Q anzubieten (Q = QB = QA), so lässt sich diese Optimalitätsbedingung (wie bereits im Abschnitt 5.4.5 erläutert) als Lindahl-Preissystem bezeichnen: Obwohl beiden Individuen dieselbe Umweltqualität zur Verfügung steht, werden sie in ihrem Nutzenmaximum bereit sein, hierfür unterschiedlich hohe Nutzungspreise in Form der Einschränkung ihres privaten Konsums zu entrichten. Die aggregierte Nachfrage nach Umweltqualität ergibt sich dann aus der Samuelson-Bedingung, nach der sich die gesamtwirtschaftliche Nachfrage auf die Summe der individuellen Zahlungsbereitschaften bezieht: pQ = pQ,A + pQ,B = MUQ,A/MUX,A + MUQ,B/MUX,B. Wenn man weiterhin annimmt, das öffentliche Umweltgut sei kein inferiores Gut, welches mit steigendem Einkommen weniger nachgefragt wird, werden sowohl die individuellen nutzenoptimalen Mengen QA und QB, als auch die aggregierte Nachfrage Q mit steigendem Preis pQ sinken. Die aggregierte Nachfrage nach Umweltqualität lässt sich somit folgendermaßen darstellen: Q = NQ(pQ) (21) In Abbildung 5.29 lässt sich nun die Interaktion zwischen Nachfrage und Angebot auf dem Markt für die Emissionsrechte und dem Markt für die Umweltqualität darstellen. Im oberen Teil der Grafik wird der Markt für Emissionsrechte, im unteren Teil der Markt für Umweltqualität abgebildet. Die sich jeweils ergebenden markträumenden Preise pe und pQ stehen in einem engen Zusammenhang: Eine Veränderung des Emissionsrechtepreises wird c.p. eine Veränderung des Preises für die Umweltqualität (vice versa) nach sich ziehen. Auf dem Emissionsrechtemarkt im oberen Teil der Grafik sind in den Punkten A und B alternative Gleichgewichte für unterschiedliche Preise der Umweltressource pQ;0 (Punkt A) und pQ;1 (B) dargestellt. Hierbei werden die Preise der Umweltressource Q aus Sicht des die Emissionsrechte nachfragenden Konsumgüterproduzenten und des die Emissionsrechte anbietenden Umwelteigentümers als gegeben betrachtet. Eine Veränderung der Umweltqualitätspreise führt entsprechend Gleichung (17) zu einer Verschiebung der Angebotskurve der Emissionsrechte, die Nachfrage nach den Emissionsrechten bleibt hiervon jedoch unberührt: Wenn der gewinnmaximierende Anbieter der Emissionsrechte auf dem Umweltqualitätsmarkt steigende Preise erwartet, wird er sein Angebot an Emissionsrechten auf dem Emissionsmarkt reduzieren, sodass der Gleichgewichtspreis der Emissionsrechte

5 Umweltökonomik

659

Abb. 5.29  Interaktion der Märkte für Emissionsrechte und Umweltqualität [Quelle: in Anlehnung an Pethig (1981, S. 155)]

pe steigen wird. Im Quadrant IV wird der sich auf dem Emissionsrechtemarkt ergebende Preis dem Preis der Umweltqualität zugeordnet. Der Preis der Umweltqualität wird im Quadranten III gespiegelt. Anhand der Kurve EE im Quadranten II können dann alle denkbaren Kombinationen des Umweltpreises pQ und des Emissionsniveaus e abgetragen werden, bei denen sich der Markt für Emissionsrechte im Gleichgewicht befindet. Die Kurve EE stellt in dieser Grafik die zentrale Schnittstelle für das Verständnis der Interaktion der beiden Märkte dar. Im unteren Teil der Abbildung ist der Markt für die Umweltqualität abgebildet. Im Quadrant III wird erneut die EE-Kurve aller auf dem Emissionsrechtemarkt denkbaren, gleichgewichtigen Kombinationen von pQ und e abgetragen. Da sich das Angebot an Umweltqualität entsprechend Gleichung (18) vom über die Umweltqualitätsfunktion transformierten Angebot an Emissionsrechten herleiten lässt, kann die Angebotsfunktion nun unter der Annahme grafisch dargestellt werden, dass sich der Emissionsmarkt bereits im Gleichgewicht befindet. Die EE-Kurve wird mit Hilfe der Umweltqualitätsfunktion (5.5) in Quadrant II zur bedingten Angebotskurve AQ,EE(pQ)im Quadrant I transformiert. Das Angebot an Umweltqualität „folgt“ notwendigerweise dem in der Umweltqualitätsfunktion formulierten naturwissenschaftlichen Zusammenhang zwischen Umweltqualität und Emissionsniveau. Dies sieht man beispielsweise auch daran, dass der Ordinatenabschnitt der Angebotskurve AQ,EE(pQ) in Quadrant I, der als Preisuntergrenze für das Angebot von Umweltqualität interpretiert werden kann, in der Grafik mit dem vertikalen Achsenabschnitt in Quadrant II verbunden ist, welcher die Nullstelle der Umweltqualitätsfunktion darstellt.

660

Roland Menges

Um nun das Gleichgewicht auf dem Markt für Umweltqualität bestimmen zu können, muss nun noch die Nachfrage der beiden Konsumenten der Umweltqualität berücksichtigt werden. Entsprechend Gleichung (21) wird zunächst angenommen, dass sich die beiden individuellen Nachfragekurven für Umweltqualität vertikal zur gesamtwirtschaftlichen Zahlungsbereitschaft NQ(pQ) der Umweltkonsumenten aggregieren lassen. Das Gleichgewicht auf diesem Markt lässt sich unter diesen Voraussetzungen im Punkt A´ als Paretooptimales Lindahl-Gleichgewicht bestimmen. Das Gleichgewicht stellt sich simultan auf beiden Märkten ein und erfüllt die folgenden allokativen Funktionen: • Es weist beiden Individuen unterschiedliche, personalisierte Nutzungspreise des öffentlichen Umweltgutes zu. • Es bestimmt den optimalen Preis der Emissionsrechte und das optimale Emissionsniveau e* (entspricht Punkt A auf dem Emissionsrechtemarkt). • Es determiniert das optimale Niveau der Umweltqualität Q* (Punkt A´ auf dem Umweltmarkt).17 Das Gleichgewicht kennzeichnet damit denjenigen Vektor (pQ,A, pQ,B, pQ, pe, e, Q), bei dem die Gleichungen (17), (18), (19) und (20) simultan erfüllt sind. Sofern die (hier nicht näher betrachteten) Ressourcenrestriktionen des Arbeitsmarktes und die Markträumungsbedingungen des Konsumgütermarktes erfüllt sind, entspricht die Allokation einem Pareto-Optimum. Die Interaktion zwischen dem Markt für die Emissionsrechte und dem Markt für Umweltqualität lässt sich nun im Gleichgewicht folgendermaßen interpretieren: • Die Zahlung des Konsumgüterproduzenten an den Anbieter der Emissionsrechte in Höhe von pe;0 ∙ e* entspricht inhaltlich einer Anwendung des Verursacherprinzips: Ähnlich wie im Fall der Pigou-Steuer muss der Konsumgüterproduzent für die von seinen Aktivitäten ausgehende Umweltverschmutzung einen Knappheitspreis zahlen. • Die (aggregierte) Zahlung der Konsumenten pQ;0 ∙ Q* reflektiert hingegen den Grundgedanken einer optimalen Bereitstellung öffentlicher Güter im Sinne der SamuelsonRegel und stellt damit auf die gesellschaftlichen Präferenzen hinsichtlich einer zusätzlichen Einheit Umweltverbesserung ab.18 17 Tatsächlich erfolgt im Modell eine simultane Bestimmung der optimalen Werte dieser Variablen. Da hier jedoch insbesondere die Rolle der personalisierten Umweltnutzungspreise betrachtet werden soll, wird der Optimierungsprozess als von der Umweltqualitätsnachfrage ausgehender Anpassungsprozess interpretiert. 18 Grundsätzlich wäre es auch möglich, einen staatlich garantierten und überwachten Umweltqualitätsstandard vorzugeben, und den Umwelteigentümer in die Lage zu versetzen, diesen Qualitätsstandard zu verbessern. Einerseits würde dies seine Angebotsmenge an Emissionszertifikaten zusätzlich einschränken, andererseits hätten die Konsumenten der Umweltqualität auch hier die Möglichkeit, ihren Präferenzen hinsichtlich der Umweltverschmutzung Ausdruck zu verleihen. Ähnliche Vorschläge zur Gestaltung des Emissionsrechtehandels wurden beispielsweise von Ahlheim und Schneider (2002) vorgetragen.

5 Umweltökonomik

661

Grundsätzlich gilt also: Je höher die von den Individuen geäußerten Zahlungsbereitschaften für das öffentliche Umweltgut als Ausdruck der von ihnen erlittenen Umweltschäden sind, desto niedriger ist c. p. das Angebot des Umwelteigentümers an Emissionsrechten und desto höher ist der von den Unternehmen zu zahlende Knappheitspreis für die Umweltnutzung. Im simultanen Gleichgewicht gilt auch hier, dass die Opportunitätskosten der Umweltverschmutzung gerade den Opportunitätskosten des Umweltschutzes entsprechen. Aus Sicht des Eigentümers der Rechte kann derselbe Zusammenhang natürlich auch so formuliert werden: Je höher die Zahlungsbereitschaften der Unternehmen für die Emissionsrechte sind, desto geringer ist c.p. sein Angebot an Bereitstellungsleistung für die Konsumenten des Umweltgutes und desto höher sind die von den Konsumenten zu zahlenden Preise. Andererseits bedeutet dies aber auch, dass eine steigende Zahlungsbereitschaft für die Emissionsrechte, die etwa aus einem Konjunkturaufschwung und einer verstärkten Nachfrage nach Konsumgütern resultieren kann, c. p. zu einer Einschränkung der auf dem Umweltmarkt angebotenen Umweltqualität führt, bzw. die Individuen ihre Zahlungsbereitschaft für die Realisierung eines gleichbleibenden Qualitätsniveaus entsprechend erhöhen müssten. Da der Rechteeigentümer lediglich seinen Gewinn maximiert und keine eigenen Präferenzen hinsichtlich des Emissionsniveaus verfolgt, reflektiert die Allokation auf beiden Märkten die von den jeweiligen Nachfragern geäußerten Präferenzen hinsichtlich der Verwendung der Umweltressource. In den bisherigen Darstellungen dieses Beitrags wurden die Probleme externer Effekte und der öffentlichen Güter separat behandelt. In der Sprache des Eingangs erläuterten umweltökonomischen Basismodells, das sich mit den beiden konkurrierenden Verwendungen der Umwelt in Form der „Senkenfunktion“ und der Funktion als öffentliches Gut „Umweltqualität“ beschäftigt, kann dies wie folgt formuliert werden: Im Fokus der externen Effekte stehen die „Verschmutzer“, während im Fokus der Theorie der öffentlichen Güter der konsumtive Nutzen der Konsumenten steht. Eine Einschränkung der Senkenfunktion führt zu den Opportunitätskosten des Umweltschutzes, eine Einschränkung des Niveaus des öffentlichen Gutes führt hingegen zu den Opportunitätskosten der Umweltverschmutzung. Beide Seiten des Problems bedingen sich. Eine aus ökonomischer Sicht optimale Lösung des Umweltproblems sollte also genau diese Nutzungskonkurrenz adressieren und auflösen. Aus theoretischer Sicht kann diese Auflösung (unter Annahme vollständiger Informationen) durch die Pigou-Besteuerung oder (bei Abwesenheit von Transaktionskosten) durch den Ansatz des Coase-Theorems geleistet werden. Das in diesem Abschnitt vorgestellte Modell eines simultanen Emissionsrechte- und Umweltqualitätsmarktes stellt über den Umweg der Schaffung eines gewinnmaximierenden Umwelteigentümers eine institutionelle Ausgestaltung des Coase-Theorems dar, bei dem für beide Umweltfunktionen ein separater Markt geschaffen wird. Das Problem der anreizkompatiblen Präferenzerhebung Letztlich stößt aber auch dieses Modell auf dieselben, schwer zu überwindenden Probleme der öffentlichen Güter. Der Preismechanismus auf dem Umweltqualitätsmarkt eröffnet wie das Lindahl-Modell Spielräume für strategisches Verhalten und kann das Problem

662

Roland Menges

nicht lösen, dass der Nutzen des öffentlichen Gutes für einzelne Nutzer unabhängig von der individuellen Finanzierungsleistung ist. Für das in Abbildung 5.24 dargestellte Modell bedeutet dies, dass die „wahre“ gesellschaftliche Nachfrage nach dem öffentlichen Umweltgut NQ(pQ) auf dem Markt für Umweltqualität zwar existieren mag, diese jedoch nicht bekannt ist. Jedes Individuum kennt zwar seine eigenen Präferenzen (13), hat jedoch keinen Anreiz, diese „wahrheitsgemäß“ zu offenbaren. Die im Zuge des Allokationsprozesses erhobenen und aggregierten Zahlungsbereitschaften N´ werden dann zwar möglicherweise positiv sein, unterschreiten jedoch das Pareto-optimale Niveau. Die Allokation in Punkt C führt zu einem (im Vergleich zum Lindahl-Gleichgewicht) zu hohen Angebot an Emissionsrechten auf dem Emissionsrechtemarkt, einem höheren Emissionsniveau e und einem zu niedrigen Preis der Rechte. Bei isoliertem, nicht-kooperativem Verhalten der Individuen kann sich ein Individuum, das seinen Beitrag zum öffentlichen Gut völlig anonym wählt, im gesellschaftlich optimalen Pareto-Optimum nicht in einer Gleichgewichtsposition befinden, weil es einen Anreiz hat, seinen Beitrag zum öffentlichen Gut zu senken. Es befindet sich aus spieltheoretischer Sicht in einer Situation, in der es bei den Entscheidungen zur Angabe seiner eigenen Zahlungsbereitschaft Erwartungen über die (aus seiner Sicht) nicht von ihm beeinflussbaren Beiträge der übrigen Individuen entwickeln muss. Wenn es beispielsweise davon ausgeht, dass einige der übrigen Individuen bereit sind, einen positiven Preis an den Umwelteigentümer für die Bereitstellung von Umweltqualität in einem bestimmten Umfang zu zahlen, so kann es aufgrund der fehlenden Ausschließbarkeit damit rechnen, ebenfalls einen Nutzen daraus zu realisieren. Es wird sich in diesem Fall als Trittbrettfahrer verhalten und seinen eigenen Beitrag entsprechend senken. Die Pareto-optimale Allokation wird damit auch in diesem Modell unerreichbar. Pethig (1981) hat aus diesem Befund ein Unmöglichkeitstheorem abgeleitet. Dieses besagt, dass sich kein Allokationsmechanismus für die Bereitstellung öffentlicher Güter entwerfen ließe, der gleichzeitig auf dezentralen, nicht-kooperativen Entscheidungen basiere, zu Pareto-verbessernden Resultaten führe und individuell anreizkompatibel, d.h. immun gegen das Trittbrettfahrerverhalten sei. Allerdings sei hier darauf hingewiesen, dass in der Literatur verschiedene Ansätze entwickelt wurden, die zeigen, dass es theoretisch möglich ist, zumindest das Trittbrettfahrerproblem zu lösen und die Individuen zu einer Offenbarung ihrer „wahren“ Präferenzen hinsichtlich der öffentlichen Güter zu motivieren.19 Groves und Loeb (1975) entwickeln beispielsweise einen von einem staatlichen Agenten organisierten Koordinationsmechanismus, der die Unternehmen, die einen öffentlichen Produktionsfaktor verwenden zur Angabe „wahrer“ Nachfragewünsche veranlasst. Tideman und Tullock (1976) betrachten einen Allokationsprozess, mit dem den individuellen Nutzern eines öffentlichen Gutes eine solche (zusätzliche) Menge des Gutes offeriert wird, die nur auf Basis ihrer Zahlung realisiert werden würde. Die optimalen Preise (bzw. Steuern) setzen sich dann aus einem festen („Lump-Sum“) Bestandteil und einem in Bezug auf die Präferenzen variablen Bestandteil zusammen. In diesen Modellen werden allerdings sehr komplexe, zentrale Planungsprozesse zu Grunde gelegt, die beispielsweise die Existenz eines staatlichen Planers voraussetzen, dem die Individuen ihre Zahlungsbereitschaften zu Beginn des Preisermittlungsprozesses mitteilen. Aufgrund der

19

5 Umweltökonomik

5.6

Umweltpolitik

5.6.1

Umweltpolitische Ziele und Prinzipien

663

Im fünften Abschnitt dieses Beitrags wurden verschiedene umweltpolitische Instrumente wie Umweltsteuern, ordnungsrechtliche Auflagen oder handelbare Emissionszertifikate in Bezug auf ihre Fähigkeit analysiert, eine aus Sicht der Gesellschaft optimale Allokation der Umweltnutzung herbeizuführen. In diesem Kapitel soll das Spektrum der umweltpolitischen Instrumente aus der Perspektive des Staates betrachtet werden, der in private wirtschaftliche Aktivitäten auf den Märkten eingreift. Wie auch in anderen Bereichen der Wirtschaftspolitik, fordern die Wirtschafswissenschaften eine rationale Umweltpolitik, d.h. die staatlichen Maßnahmen der Umweltpolitik sollten sich aus einem konsistenten Zielsystem ableiten und anhand bestimmter Prinzipien operationalisieren lassen. Ein derartiges Zielsystem lässt sich anhand von Abbildung 5.30 wie folgt beschreiben (Zimmermann, Henke und Broer 2012): • Das Ziel der Umweltpolitik besteht im Erhalt von Schutzgütern, wie etwa dem Leben und der Gesundheit der Menschen, die hierfür Umweltgüter wie Tiere und Pflanzen oder qualitativ hochwertige Umweltmedien wie Luft, Gewässer und Böden benötigen. • Der Erhalt dieser Schutzgüter erfordert die gesellschaftliche Einigung auf und die politische Konkretisierung von Umweltqualitätszielen als Zwischenziele der Umweltpolitik. So werden beispielsweise Grenzwerte für die Belastung der Luft, der Gewässer oder bei der Lärmbekämpfung als Immissionsziele festgelegt, aus denen anschließend Emissionsziele für die Emittenten abzuleiten sind. Hierzu zählen etwa Regelungen für den zulässigen Schadstoffausstoß einzelner Quellen.20 • Die Aufgabe umweltpolitischer Instrumente besteht vor diesem Hintergrund darin, umweltpolitische Qualitätsziele in individuelles Handeln zu transformieren (Siebert 2010). Die Instrumente wirken in der Regel auf die Emissionen (z.B. Grenzwertregelungen, Umweltzertifikate, Steuern), können sich aber auch an den Immissionen orientieren, wie etwa Fahrverbote, die beim Überschreiten von Feinstaubbelastungen der Luft in städtischen Ballungsräumen erlassen werden. außerordentlich hohen Anforderungen an die planerischen Informationskapazitäten sind diese Mechanismen in der Realität wenig brauchbar. Ihre Relevanz liegt daher ausschließlich in der theoretischen Möglichkeit zur Auflösung des Trittbrettfahrerproblems (Boadway und Wildasin 1984). 20 Die in diesem Beitrag vorgetragene Darstellung des Umweltallokationsproblems abstrahiert weitgehend von der räumlichen Dimension des Umweltproblems. Für die Umweltpolitik ist die räumliche Disparität von Emissionen und Immissionen jedoch von großer Bedeutung. So stellt beispielsweise die Lärmbelastung in einem Wohngebiet ein anders zu lösendes Problem dar, wie etwa internationale, grenzüberschreitende Emissionen (z.B. die Belastung der Ostsee durch ihre Anrainerstaaten) oder der Schutz globaler öffentlicher Güter (z.B. die Erdatmosphäre). Für die unterschiedlichen Ansätze zur effizienten Bereitstellung regionaler, nationaler und globaler Umweltgüter vgl. Siebert (2010) und Feess (2007).

664

Roland Menges

Abb. 5.30  Ziele und Gestaltungsprinzipien der Umweltpolitik [Quelle: Zimmermann, Henke und Broer (2012, S. 474)]

• Die Anwendung der umweltpolitischen Instrumente orientiert sich an bestimmten umweltpolitischen Prinzipien, die mit dem allgemeinen Normengerüst der Wirtschafts- und Sozialpolitik kompatibel sein sollten. Bei den umweltpolitischen Prinzipien wird in Bezug auf die Eingriffsintensität entweder auf das Vorsorgeprinzip oder das Gefahrenabwehrprinzip verwiesen. Der Gefahrenabwehr wird gegenüber Vorsorge der Vorzug gegeben, wenn eine unmittelbare Gefährdung von Schutzgütern zu erwarten ist. Ein Beispiel hierfür ist die Verhängung eines Fahrverbotes

5 Umweltökonomik

665

bei Überschreiten von Feinstaubbelastungen. Hinsichtlich des Mitwirkungsgrades ist die Umweltpolitik durch eine latente Präferenz für das Kooperationsprinzip gegenüber der Durchsetzung umweltpolitischer Ziele mit Hoheitsgewalt gekennzeichnet. Hierdurch soll eine einvernehmliche Verwirklichung umweltpolitischer Ziele durch die relevanten gesellschaftlichen Gruppen gewährleistet werden. Sichtbar wird dieses Prinzip durch die Anhörung von Bürgern und Betroffenen bei planerischen oder gesetzgeberischen Prozessen oder der Anrechnung freiwilliger umweltpolitischer Leistungen und Vereinbarungen von Unternehmen im Zuge der Entwicklung hoheitlicher Maßnahmen der Steuerpolitik oder des Ordnungsrechtes. Aus allokationstheoretischer Sicht sind vor allem die umweltpolitischen Prinzipien hinsichtlich der Kostenanlastung von Relevanz. Sie zeigen, wie gegebene umweltpolitische Ziele in die individuellen Kostenrechnungen und damit in das individuelle Verhalten transformiert werden. Die Kostenzurechnungsprinzipien sind damit einerseits Gegenstand der politischen Ökonomie von Umweltknappheiten und reflektieren andererseits aufgrund ihrer Verteilungswirkungen verschiedene Werturteile. Bei der Internalisierung externer Effekte wird üblicherweise das Verursacherprinzip favorisiert. Dieses sieht allgemein vor, dem physischen Verursacher die Umweltkosten seiner Handlungen anzulasten (Blankart 2011). Konkret impliziert das Verursacherprinzip einen institutionellen Mechanismus, der die Opportunitätskosten des Umweltschutzes dem Verursacher des Problems anlastet. Das Verursacherprinzip verfolgt damit ein Lenkungsziel. Beispiele hierfür sind eine Pigou-Steuer, die Einführung handelbarer Emissionszertifikate oder auch die Vorgabe von Emissionsgrenzwerten. Das Verursacherprinzip wird allgemein als das akteurs- und handlungsbezogene Grundprinzip einer an der Wohlfahrtsökonomik orientierten Umweltökonomik und somit als Konkretisierung des Leitbilds einer optimalen Umweltqualität angesehen (Suchanek 2000). Die in Deutschland seit den 70´er Jahren des letzten Jahrhunderts praktizierte Umweltpolitik weist dem Verursacherprinzip eine zentrale Stellung zu. Dies geht beispielsweise aus dem Umweltbericht der Bundesregierung von 1976 hervor: „Eine volkswirtschaftlich sinnvolle und schonende Nutzung der Naturgüter wird am ehesten erreicht, wenn die Kosten zur Vermeidung, zur Beseitigung oder zum Ausgleich von Umweltbelastungen dem Verursacher zugerechnet werden. Die Bundesregierung versteht das Verursacherprinzip im Umweltschutz als Kostenzurechnungsprinzip.“ (Bundesregierung 1976, S. 8). Die Anwendung des Verursacherprinzips geht insbesondere von der Lösbarkeit der folgenden vier Probleme aus: • • • •

quantitative Erfassung von Emissionen und Immissionen, monetäre Bewertung der Schäden, Bestimmung des Verursachers, individuelle Zurechenbarkeit der Folgekosten des umweltschädigenden Verhaltens.

Wenn eine oder mehrere dieser Voraussetzungen nicht gegeben sind, sollte nach traditioneller Auffassung der Weg der Finanzierung der Maßnahmen zur Beseitigung der

666

Roland Menges

Umweltschäden solidarisch über das Gemeinlastprinzip erfolgen (Bartmann 1996).21 Konkret bedeutet dies, dass der Allgemeinheit über Steuern oder Abgaben die Opportunitätskosten der Umweltverschmutzung angelastet werden. Ebenso wie das Verursacherprinzip stellt das Gemeinlastprinzip einen institutionellen Mechanismus dar, der auf die Internalisierung der externen Effekte gerichtet ist: Im Umfang der von den Emissionen ausgehenden externen Effekte bzw. der Umweltschäden hat die Allgemeinheit ein Interesse an der „Unterlassung“ dieser Schäden. Das Aufkommen der von allen Individuen (z.B. über Steuern) erbrachten Mittel wird zur Finanzierung der Verbesserung der Umweltqualität verwendet. Unter idealtypischen Bedingungen kann beispielsweise gezeigt werden, dass sog. Pigou-Subventionen, die aus diesem Aufkommen für Umweltschutzmaßnahmen gezahlt werden, aus allokativer Sicht zum selben Ergebnis führen wie Pigou-Steuern, wenn die Höhe der Subventionen der Höhe des positiven externen Effektes in Bezug auf die Bereitstellung des öffentlichen Umweltgutes entspricht. Sind diese Bedingungen nicht gegeben, verliert das Gemeinlastprinzip seine Lenkungsfunktion und wird auf eine reine Finanzierungsfunktion reduziert. Trotz der prominenten Stellung des Verursacherprinzips sehen viele Kommentatoren die erste Phase der deutschen Umweltpolitik in den 70´er Jahren faktisch vom Gemeinlastprinzip dominiert, weil im politischen Bereich eine entsprechende Bereitschaft zur Anwendung des im Einzelfall unpopulären, jedoch ökonomisch überlegenen Verursacherprinzips gefehlt habe (Benkert 1986). Grundsätzlich ist es für stimmenmaximierende Politiker vorteilhafter, die Instrumente der Gemeinlastfinanzierung anzuwenden, wenn die verursachungsgerechte Belastung der Industrien zu politischen oder ökonomischen Problemen wie etwa Arbeitsplatzverlusten führt (Siebert 2010). Hinsichtlich der distributiven Effekte von Verursacher- und Gemeinlastprinzip muss bei der Anwendung steuerlicher Instrumente unterschieden werden, ob die Finanzierung über direkte oder indirekte Steuern erfolgt. Das Standardargument (vgl. etwa Barde 2000) geht hierbei davon aus, dass eine Internalisierung nach dem Verursacherprinzip auf die Einkommensverteilung tendenziell die regressive Wirkung von (indirekten) Verbrauchsteuern entfalte, weil insbesondere die einkommensschwächeren Haushalte von der durch die Umweltpolitik induzierten Preiserhöhungen betroffen seien. Demgegenüber würde sich ein über direkte Steuern finanziertes Gemeinlastprinzip aufgrund der progressiv Das umweltpolitische Gemeinlastprinzip kennzeichnet damit eine ähnliche Problemlage wie die Gemeinkostenproblematik in der betriebswirtschaftlichen Kostentheorie. Hiernach soll jeder Kostenträger mit dem Kostenbetrag belastet werden, den er verursacht hat. Hiervon sollte nur abgewichen werden, wenn eine kausale Beziehung zwischen den angefallenen Kosten und einem Kostenträger nicht feststellbar ist (Wöhe 2010). So spricht man von Gemeinkosten, wenn die Kosten mangels Zurechenbarkeit nur eine indirekte Zuordnung zu bestimmten Kostenträgern mit Hilfe von bestimmten Schlüsselgrößen zulassen. Wie beim umweltpolitischen Gemeinlastprinzip können auch hier abrechnungstechnische Gründe dazu führen, dass prinzipiell zurechenbare Einzelkosten als Gemeinkosten behandelt werden. Diese werden indirekt per Zuschlag den Kostenträgern zugerechnet. Beispiele für derartige unechte Gemeinkosten sind Hilfsstoffe wie Anstrichmittel, Leim oder Nägel. Die von den verschiedenen Kostenträgern zu übernehmenden Gemeinkosten orientieren sich hierbei allgemein am Prinzip der Kostentragfähigkeit (Deckungsprinzip). 21

5 Umweltökonomik

667

wirkenden direkten Steuern positiv auf das Ziel einer gerechteren, d. h. gleichmäßigeren Einkommensverteilung auswirken. Die Gültigkeit dieser These lässt sich allerdings empirisch nur schwer belegen. Alternativ können die Opportunitätskosten der Umweltverschmutzung aber auch von denjenigen finanziert werden, die als Nutznießer der Umweltverbesserung zu betrachten bzw. zu identifizieren sind. Eine Anwendung dieses Nutznießerprinzips liegt beispielsweise vor, wenn Produktionsbetriebe für die Entnahme von Grundwasser eine Abgabe zahlen („Wasserpfennig“ bzw. Wasserentnahmeentgelt), die für umweltverbessernde Maßnahmen verwendet werden (in diesem Fall erhalten beispielsweise Landwirte eine Entschädigung dafür, dass sie verantwortungsvoll mit Düngemitteln umgehen und das Grundwasser vor Verunreinigungen schützen). Auch die freiwillige Zahlungsbereitschaft bestimmter Gruppen von Konsumenten für umweltschonende Güter, wie etwa die Zahlung eines Preisaufschlags für den Bezug von sog. Ökostrom, stellt eine Ausprägung des Nutznießerprinzips dar, da die Zahlung auf eine Kompensation für die Vermeidung umweltschädigenden Verhaltens zielt. Ebenfalls liegt eine Anwendung des Nutznießerprinzips vor, wenn Emissionszertifikate an die Produzenten ausgegeben werden und diese im Zuge von CoaseVerhandlungen von den Konsumenten der Umweltqualität erworben werden können. Eine simultane Anwendung des Nutznießerprinzips und des Verursacherprinzips wird beispielsweise im Lindahl-Modell im Abschnitt 5.5.6 vorgestellt: Die auf dem Markt für Umweltqualität nach dem Nutznießerprinzip erhobene Zahlungsbereitschaft der Konsumenten des Gutes Umweltqualität führt auf dem Markt für Emissionsrechte zu einer Verknappung der Emissionsrechte, die die Produktionsunternehmen dort entsprechend dem Verursacherprinzip erwerben müssen. Allerdings zeigt sich hier auch die zentrale Schwäche des Nutznießerprinzips: Wenn die Verbesserung der Umweltqualität allen Konsumenten als öffentliches Gut zur Verfügung steht, bestehen kaum realistische Chancen auf eine freiwillige Kostenübernahme. Erfolgt die Kostenübernahme jedoch auf Basis eines Zwangsbeitrages ist fraglich, ob der Beitrag als Ausdruck des individuellen Nutzens und einer Pareto-Verbesserung angesehen werden kann. Das Nutznießerprinzip ist vor allem deshalb umstritten, weil es nicht der üblichen sozialen Norm entspricht, wenn die potenziell Geschädigten eine Zahlung für die Abwendung einer Schädigungsdrohung leisten („Mafia Economics“, vgl. K. Zimmermann 2000). Diesem auf den ersten Blick überzeugenden Argument muss aus umweltökonomischer Sicht jedoch der Begriff der Nutzungskonkurrenz im Sinne von Coase entgegengehalten werden. Ähnlich wie im Fall des Gefangenendilemmas ist es wenig sinnvoll, ein einzelnes Individuum für das Zustandekommen eines suboptimalen Ergebnisses verantwortlich zu machen. Die suboptimale Umweltnutzung muss eher als Ergebnis interdependenter Handlungen begriffen werden. Wenn in den Wirtschaftswissenschaften dem Verursachungsprinzip im Zweifel der Vorzug gegenüber dem Gemeinlast- oder Nutznießerprinzip gegeben wird, liegt das weniger an einer Aussage über die moralische Qualität des Verursachers, sondern eher an den im fünften Abschnitt dieses Beitrags beschriebenen Effizienzvorteilen und dynamischen Anreizwirkungen bei der Internalisierung externer Effekte.

668

5.6.2

Roland Menges

Kategorisierung umweltpolitischer Instrumente

Aus der Perspektive der staatlichen Umweltpolitik ist neben der Art der Kostenanlastung die Frage bedeutsam, ob und inwiefern öffentliche Haushalte vom Einsatz eines umweltpolitischen Instrumentes betroffen sind. So führen Umweltsteuern oder die Ausgabe von Emissionszertifikaten über eine Versteigerung zu öffentlichen Einnahmen, während die Zahlung von Subventionen für die Erforschung und Markteinführung umweltschonender Technologien zu öffentlichen Ausgaben führt. Hierbei sind finanzpolitische Instrumente der Umweltpolitik wie Umweltsteuern, Subventionen oder Sachausgaben für öffentliche Umweltschutzmaßnahmen (z.B. die Pflege von Naturparks oder den Betrieb von öffentlichen Klärwerken) von nicht-finanzpolitischen Instrumenten zu unterscheiden (Zimmermann, Henke und Broer 2012). Zu den nicht-finanzpolitischen Instrumenten gehört neben der Schaffung und Ausgabe von handelbaren Emissionszertifikaten oder dem Umwelthaftungsrecht insbesondere das Ordnungsrecht. Eine auf diesen Gliederungsaspekten beruhende Kategorisierung der umweltpolitischen Instrumente kann der Abbildung 5.31 entnommen werden. Auf der ersten Ebene dieser nach den Kostenzuordnungsprinzipien gegliederten Systematik umweltpolitischer Instrumente wird danach gefragt, inwiefern von den jeweiligen umweltpolitischen Instrumenten Anreizwirkungen auf das individuelle Verhalten durch eine Änderung der relativen Preise ausgehen. Dies ist offensichtlich bei den Instrumenten des Gemeinlastprinzips nicht der Fall, da diese lediglich auf die Finanzierung öffentlich induzierter Maßnahmen der Umweltpolitik gerichtet sind. Demgegenüber sind die marktwirtschaftlichen Instrumente der Umweltpolitik durch den Versuch gekennzeichnet, die jeweils betrachteten Umweltprobleme entweder über eine Steuerung von Mengen (z.B.

Abb. 5.31  Kategorisierung umweltpolitischer Instrumente [Quelle: in Anlehnung an Zimmermann, Henke und Broer (2012, S. 474)]

5 Umweltökonomik

669

durch die Ausgabe handelbarer Emissionszertifikate) oder von Preisen (z. B. über Umweltsteuern mit Lenkungswirkung) zu kontrollieren. Wichtig ist hierbei, dass sich der Eingriff jeweils nur auf eine Dimension eines Marktes bezieht (Preise oder Mengen), so dass die jeweils andere Dimension (Mengen oder Preise) nicht direkt gesteuert, sondern dem Verhalten der Marktteilnehmer überantwortet wird (Bonus 1990). Die Vorteile der marktlichen bzw. marktkonformen Instrumente der Umweltpolitik liegen darin, • dass auf der individuellen Ebene Anreize zur Internalisierung der externen Kosten vermittelt werden, • und aus gesamtwirtschaftlicher Sicht die Bedingungen der statischen und dynamischen Kosteneffizienz realisiert werden. Wie im fünften Abschnitt dieses Beitrags dargestellt, liegen die Vorteile von Umweltsteuern und Emissionszertifikaten gegenüber anderen Instrumenten wie etwa dem Ordnungsrecht gerade darin, dass das (exogen gesetzte) Niveau des Umweltschutzes zu möglichst niedrigen gesellschaftlichen Kosten erreicht wird. Neben Preis- und Mengenlösungen der Umweltpolitik wird diese Eigenschaft grundsätzlich auch vom Umwelthaftungsrecht erfüllt. Der Grundgedanke des Umwelthaftungsrechtes ist dem Coase-Theorem entlehnt: Wenn sich die Nutzung der Umwelt als ökonomisches Gut auf durchsetzbare Eigentumsrechte stützt, wird eine Übernutzung der Umwelt als „freies“ Gut verhindert. Man nehme beispielsweise an, dass ein Produktionsunternehmen am Oberlauf eines Flusses Schadstoffe einleitet, die zu Einbußen an der Wasserqualität und einer Reduktion der Gewinne einer Wäscherei am Unterlauf dieses Flusses führen. Grundsätzlich steht (neben der Einstellung der Produktionstätigkeit) die Möglichkeit zur Verfügung, am Oberlauf des Flusses eine Filteranlage einzubauen, oder bei der Wäscherei eine Kläranlage zu errichten. Geht man beispielsweise davon aus, dass die Filteranlage die relativ kostengünstigere Variante darstellt, so kann leicht gezeigt werden, dass sich der Bau der Filteranlage als gesamtwirtschaftlich vorteilhaftes Ergebnis von Verhandlungen herausstellt, wenn einer der beiden Parteien die Nutzungsrechte zugewiesen werden und wenn die damit verbundenen Kosten niedriger sind als die Gewinneinbußen der Wäscherei: • Wenn die Nutzungsrechte bzw. das Recht auf sauberes Wasser bei der Wäscherei liegen, wird das Produktionsunternehmen die Filteranlage installieren. Sollten die Kosten der Filteranlage allerdings höher sein als die Gewinneinbußen der Wäscherei, wird sich in den Verhandlungen eine für beide Seiten vorteilhafte Kompensationszahlung des Produktionsunternehmens an die Wäscherei ergeben, deren Höhe maximal den Kosten der Filteranlage entspricht. • Wenn die Nutzungsrechte beim Produktionsunternehmen liegen, wird die Wäscherei dem Unternehmen anbieten, die Kosten der Filteranlage zu finanzieren und ggf. noch Teile der Kostenersparnis gegenüber der teureren Kläranlage als Kompensation anbieten. Wenn die Gewinneinbußen der Wäscherei hingegen geringer sind als die Kosten der Filteranlage oder des Klärwerks wird keine der beiden Maßnahmen realisiert.

670

Roland Menges

Die Aufgabe des Haftungsrechtes besteht aus ökonomischer Sicht darin, das Verhalten des potenziellen Schädigers zu beeinflussen und damit eine Internalisierung herbeizuführen. Die damit verbundenen Verteilungsfragen sind aus allokativer Sicht nebensächlich, da die Geschädigten alternativ auch aus Versicherungs- oder Steuermitteln entschädigt werden könnten. Grundsätzlich lassen sich im Umwelthaftungsrecht hierbei zwei Arten von zivilrechtlichen Schadensersatzansprüchen als Haftungsregeln unterscheiden (vgl. Feess 2007 für eine detaillierte Analyse des deutschen Umwelthaftungsrechtes): Bei der Verschuldungshaftung muss ein Schädiger dann Ersatz leisten, wenn er den Schaden vorsätzlich, d.h. bei Vernachlässigung einer bestimmten Sorgfaltspflicht, verursacht hat. Bei der Gefährdungshaftung muss der Schädiger hingegen jeden Schaden ersetzen, der nachweislich auf seine Aktivitäten zurückzuführen ist. Der Grundgedanke des umweltpolitischen Ordnungsrechtes, das in Form von Auflagen, d.h. Ge- und Verboten in die individuellen Handlungen eingreift, ist intuitiv einleuchtend: Wenn die Produktionstätigkeit eines Unternehmens mit Emissionen verbunden ist, so können diese Emissionen direkt beim Verursacher reguliert werden, wenn hierzu Auflagen in Bezug auf einzelne Emissionsquellen erlassen werden. Verbreitet sind insbesondere Festlegungen von Immissions- oder Emissionsgrenzwerten, Endprodukt- oder Inputnomen, die aus Sicht der Behörden nach dem jeweiligen Stand der Technik realisierbar erscheinen und die insbesondere in Form von Genehmigungsverfahren für Neuanlagen oder nachträgliche Änderungen für Altanlagen zur Anwendung kommen. Das Bundesimmissionsschutzgesetz (BImschG) fordert die Errichter und Betreiber von potenziell umweltschädigenden Anlagen beispielsweise dazu auf, ihre Aktivitäten auf eine Weise zu gestalten, dass keine gravierenden Umwelteinwirkungen verursacht werden, Vorsorge dem Stand der Technik entsprechend geleistet wird und anfallende Reststoffe möglichst verwertet werden. (Endres 2013). Aus ökonomischer Sicht wird gegen die Instrumente des Ordnungsrechtes insbesondere eingewandt, dass die mit den o.g. Instrumenten verbundenen Anreizwirkungen nicht vollständig zur Entfaltung kommen. Die Analyse im fünften Abschnitt dieses Beitrags (Abbildungen 5.5 und 5.6) zeigt, dass bei Verwendung ordnungsrechtlicher Auflagen nicht damit gerechnet werden kann, dass das gewünschte gesamtwirtschaftliche Niveau der Emissionsreduktion kosteneffizient realisiert wird (statische Effizienz) und gleichzeitig keine weiteren Anreize zur Entwicklung verbesserter Technologien induziert werden (dynamische Effizienz). Zwar kann auch das Ordnungsrecht dem umweltpolitischen Verursacherprinzip zugeordnet werden, allerdings werden den Verursachern beim Ordnungsrecht i.d.R. nur die Kosten der Normerfüllung angelastet, so dass die unterhalb eines bestimmten Grenzwertes bestehenden Emissionen nicht nur zulässig, sondern auch kostenfrei sind. Auch kooperative Verhandlungslösungen, Selbstverpflichtungen oder Verbändevereinbarungen von Wirtschaftsverbänden (wie sie in der Vergangenheit etwa in der Abfallpolitik zur Anwendung gekommen sind) oder die Durchführung von Informationskampagnen für umweltfreundliches Verhalten seitens der Unternehmen können zwar grundsätzlich dem Verursacherprinzip zugeordnet werden. Sie sind Ausdruck des o.g. Kooperationsprinzips der Umweltpolitik, entfalten jedoch nur in ganz begrenztem Umfang die aus ökonomischer Sicht wünschenswerten Anreizeffekte.

5 Umweltökonomik

5.6.3

671

Umweltpolitische Handlungsfelder: Klimapolitik und erneuerbare Energien

Das Ziel der Senkung von Treibhausgasemissionen Die Klimapolitik und insbesondere die Förderung der erneuerbaren Energien sind in den letzten Jahren zu einem beherrschenden gesellschaftlichen Thema geworden, dessen Bedeutung mittlerweile weit über die Umweltpolitik hinausreicht. Insbesondere der „Schadstoff “ CO2 steht im Vordergrund des Interesses. Neben CO2 spielen auch andere Treibhausgase (z.B. Lachgas oder Methan) mit unterschiedlichen Verweildauern und unterschiedlichen Treibhauswirkungen eine Rolle, deren Wirkungen lassen sich jedoch mit bestimmten Rechenverfahren in sog. CO2-Äquivalente umrechnen. CO2 hat unter den Treibhausgasen mit rd. 80% in der EU den derzeit größten Anteil. Die Emissionen werden nicht direkt gemessen, sondern aus den gemeldeten und in den Energiebilanzen ausgewiesenen Brennstoffeinsätzen ermittelt. Das Treibhausgas CO2 weist einige wichtige Eigenschaften auf (Ströbele et al. 2010). So sind beispielsweise keine umfassenden technischen Rückhaltetechniken verfügbar, Abscheide- und Speichertechnologien werden zwar derzeit großtechnisch geprüft, sind aber relativ kostenintensiv und gesellschaftlich aufgrund der Lagerproblematik sehr umstritten. CO2 ist ein global wirkender Stoff, der seine Wirkung erst über eine langfristige Akkumulation als Bestandsgröße entfaltet. Daher ist es für langfristige Klimaschäden nicht relevant, wo und wann die Emissionen in früheren Jahrzehnten stattgefunden haben, bzw. wo und wann Emissionen gesenkt wurden. Auch wenn naturwissenschaftliche Aussagen zu den Details und Kausalitäten der zu erwartenden Klimaerwärmung nicht mit vollständiger Sicherheit getroffen werden können, wird auch aus ökonomischer Sicht nicht die Notwendigkeit bestritten, den Klimawandel und die damit verbundenen Probleme beim Umkippen von Naturhaushalten einzugrenzen (Sinn 2009). Vor dem Hintergrund dieser naturwissenschaftlichen Befunde richten sich die von der Europäischen Union und der Bundesregierung in der Klima- und Umweltpolitik verfolgten und quantifizierten Ziele auf 1. Die Verringerung des Primärenergiebedarfs 2. Die Erhöhung des Anteils erneuerbarer Energieträger 3. Die Senkung der Treibhausgasemissionen, insbesondere von CO2. Diese Ziele richten sich vorwiegend auf den Energiesektor der Volkswirtschaft. Sie sind dort in das allgemeine energiewirtschaftliche Zieldreieck (bestehend aus Preiswürdigkeit, Versorgungssicherheit und Umweltfreundlichkeit) eingebettet, aber da verschiedentlich auch noch weitere Ziele der Umwelt- und Klimapolitik benannt werden (z.B. eine direkte Erhöhung der Energieeffizienz), stellt sich zunächst die Frage nach der inhaltlichen Struktur dieses Zielsystems. Geht man also davon aus, dass das primäre klimapolitische Interesse der Reduktion der CO2-Emissionen gelten sollte, so lassen sich die gesamtwirtschaftlichen Determinanten der CO2-Emissionen entsprechend der energiewirtschaftlichen

672

Roland Menges

Umwandlungskette anhand der folgenden Identitätsgleichung darstellen (Pfaffenberger und Menges 2008): CO2 := CO2/C ∙ C/PEV ∙ PEV/EEV ∙ EEV/NEV ∙ NEV/BIP ∙ BIP

(22)

Hierbei gilt: C=Kohlenstoffmenge, PEV=Primärenergieverbrauch22 (bezieht sich auf alle ursprünglichen Energiequellen wie fossile Brennstoffe, Kernenergie oder regenerative Energie), EEV=Endenergieverbrauch (als der nach Energieumwandlung und -übertragung verbliebene Teil der Primärenergie, der den Anwendern zur Verfügung gestellt wird), NEV=Nutzenergieverbrauch (als der nach der Umwandlung beim Anwender verbleibende Teil der Endenergie, z.B. in Form von Wärme, Kälte, Licht oder mechanischer Arbeit), BIP=Bruttoinlandsprodukt. Die Identitätsgleichung (22) ist Ausdruck des Sachverhalts, dass das Klimagas CO2 ausschließlich bei der Verbrennung kohlenstoffhaltiger Energieträger entsteht, deren Verwendung entlang der energiewirtschaftlichen Umwandlungskette z.B. in Form von Energiebilanzen erfasst werden kann (vgl. die Ausführungen zu den Materialbilanzen und Durchflussmodellen in Abschnitt 5.2.1). Neben dem Niveau der gesamtwirtschaftlichen Aktivität (BIP) wirken sich beispielsweise • die beim Einsatz von kohlenstoffhaltigen Energieträgern entstehenden Emissionen, • der Kohlenstoffgehalt des Primärenergieverbrauchs, • das Verhältnis von Primärenergieverbrauch zu Endenergieverbrauch, bzw. von Endenergieverbrauch zu Nutzenergieverbrauch und schließlich • das Verhältnis von Nutzenergie zum Niveau des Bruttoinlandsproduktes auf das gesamtwirtschaftliche Emissionsniveau aus. Auf den verschiedenen Umwandlungsstufen ergeben sich damit grundsätzlich die folgenden Ansatzpunkte für eine umweltpolitisch gewünschte Verringerung von CO2-Emissionen: Emissionen können beispielsweise durch Rückhaltung und anschließende Speicherung (sog. Carbon-capture-andStorage) begrenzt werden (Anknüpfungspunkt in der Umwandlungskette: CO2/C). Durch die zunehmende Verwendung erneuerbarer Energieträger kann der Brennstoffmix geändert und der Kohlenstoffgehalt des Primärenergieverbrauchs verringert werden (C/PEV). Über diese beiden Elemente hinaus richten sich verschiedene Ausprägungen von der Energieeffizienz auf die weiteren Stufen der Energieumwandlungskette: • PEV/EEV: Erhöhung des Umwandlungswirkungsgrades z.B. durch den Ersatz oder die Verbesserung von Kraftwerken), Hier sei darauf hingewiesen, dass aus naturwissenschaftlicher Sicht der Begriff „Verbrauch“ streng genommen falsch ist, da Energie niemals verbraucht, sondern immer nur umgewandelt werden kann (vgl. hierzu auch die Ausführungen zum ersten Hauptsatz der Thermodynamik im Abschnitt 5.2.1 dieses Beitrags). 22

5 Umweltökonomik

673

• EEV/NEV: Verbesserung der Energieeffizienz, d.h. dem Verhältnis von Energieoutput zu Energieinput z.B. durch den Einsatz von Brennwerttechnik bei der Gebäudebeheizung, • NEV/BIP: Verringerung der Nutzenergie bei konstantem wirtschaftlichem Aktivitätsniveau (z.B. Wärmedämmung). Maßnahmen zur Effizienzverbesserung zielen letztlich auf eine Faktorsubstitution, d.h. der Erhöhung des Einsatzes von Kapital (und/oder Arbeit) bei gleichzeitiger Reduktion des Energieeinsatzes. Sofern eine derartige Substitution nicht oder nur unvollkommen gelingt, resultiert hieraus eine Senkung des gesamtwirtschaftlichen Aktivitätsniveaus, was grundsätzlich ebenfalls als eine Option zur Reduktion des Emissionsniveaus angesehen werden kann. Aus ökonomischer Sicht kann aus dieser Betrachtung die Schlussfolgerung abgeleitet werden, dass die drei oben genannten Ziele der Klimapolitik (Reduktion der Treibhausgase, Erhöhung des Anteils der erneuerbaren Energieträger und Senkung des Primärenergieverbrauchs) nicht unabhängig voneinander verfolgt werden können. Das Zielsystem der Klimapolitik ist daher überbestimmt. Ob die Förderung der erneuerbaren Energien, die Erhöhung der Energieeffizienz oder die Senkung bestimmter sektoraler Energieverbräuche ein eigenständiges umweltpolitisches Ziel darstellen oder darstellen sollten, oder ob sie lediglich als Zwischen- bzw. Sekundärziele anzusehen sind, kann an dieser Stelle nicht vertiefend diskutiert werden. Bezieht man wirtschafts- oder umweltpolitische Zielsysteme – wie in der Wohlfahrtsökonomik üblich – ­ auf individuelle Werte bzw. Nutzenfunktionen, so ist das Ziel der Reduktion von Treibhausgasemissionen aufgrund der Bedeutung des Klimawandels für jedes einzelne Individuum unmittelbar einleuchtend. Ob sich die Individuen bei Maßgabe des Klimazieles zusätzlich auch für eher technologisch und sektoral formulierte Ziele wie den Anteil erneuerbarer Energien an der Strom- und Wärmeerzeugung, die Senkung sektoraler oder regional eingegrenzter Energieverbräuche oder bestimmte Energieeffizienzstandards interessieren, erscheint weniger klar. Empirische Untersuchungen der Präferenzen privater Haushalte im Bereich der Energie- und Umweltpolitik verweisen darauf, dass diese Individuen zwar bereit sind, ihre Präferenz für den Klimaschutz mit einer Zahlungsbereitschaft zu unterlegen, sie an den eher technischen Details der konkreten Markteingriffe jedoch häufig kaum interessiert sind (Menges et al. 2005, Menges und Traub 2009). Wenn man also also die Verringerung der Treibhausgase als verbleibendes Hauptziel der Klima- und Umweltpolitik akzeptiert, so sind die Erhöhung des Anteils der erneuerbaren Energien und die Senkung des Primärenergiebedarfs lediglich als Mittel zur Erreichung dieses Ziels anzusehen. Anders als Ziele können Mittel jedoch in einer substitutionalen Beziehung zueinander stehen.23 Aus einer politischen Perspektive mag die Differenzie23 Allerdings sei die Frage aufgeworfen, ob die dichotomische Trennung einer normativen Zielebene (z.B. Klimaschutz) von einer wertfreien Mittelebene (z.B. Emissionshandel) tatsächlich angemessen ist. So weist bereits Gunnar Myrdal (1933) auf die Probleme einer wissenschaftlichen Konzeption von Wirtschaftspolitik hin, nach der Mittel grundsätzlich wertfrei sein, bzw. ihre Werte immer nur aus dem übergeordneten Zielsystem abzuleiten sind. Er betont, dass in der sozialen und politischen

674

Roland Menges

rung des klimapolitischen Zielsystems in eine Vielzahl von sektoralen Teilzielen, die dann jeweils mit unterschiedlichen regulatorischen Instrumenten verfolgt werden, naheliegend sein, wenn den Haushalten damit das Gefühl vermittelt wird, jeder Sektor sei partizipativ eingebunden und leiste „seinen Beitrag“. Aus ökonomischer Sicht erscheint dieses Kalkül jedoch problematisch. Das klimapolitische Ziel kann nur dann wirtschaftlich effizient verfolgt werden, wenn die hierbei zum Einsatz kommenden Mittel nicht in einem starren, politisch fixierten Mix stehen. (Statische) Kosteneffizienz ist an die Bedingung gebunden, dass sich die marginalen Opportunitätskosten der Vermeidung von CO2-Emissionen in Verbrennungsprozessen, durch den Einsatz erneuerbarer Energien oder durch eine Erhöhung der Energieeffizienz ausgleichen, dass also der wirtschaftliche Aufwand zur Vermeidung der jeweils letzten Einheit Emissionen durch den Einsatz zusätzlicher Einheiten von erneuerbaren Energien, verbesserter Energieeffizienz oder einer Verringerung des Primärenergieverbrauchs gerade gleich ist. Sofern Divergenzen zwischen den Opportunitätskosten der Emissionsvermeidung vorliegen, bedeutet dies, dass aus gesamtwirtschaftlicher Sicht dasselbe Niveau an Klimaschutz zu geringeren Kosten realisiert werden könnte. Die in der Realität zu beobachtende Vielzahl sektoraler Vorgaben und technologiespezifischer Auflagen wird aus ökonomischer Sicht also häufig deshalb kritisiert, weil die Maßnahmen zu vermeidbaren gesamtgesellschaftlichen Kostenbelastungen führen (z.B. Sinn 2008). Die Forderung eines Ausgleichs der Grenzvermeidungskosten aller Optionen der Klimapolitik stellt damit eine Anwendung des im fünften Kapitel analysierten Kriteriums der statischen Kosteneffizienz dar. Die ebenfalls im fünften Abschnitt dieses Beitrags getroffene Feststellung, dass das Instrument des Emissionsrechtehandels von vielen Ökonomen als das Instrument der Wahl betrachtet wird, kann insbesondere darauf zurückgeführt werden, dass nach der Einführung einer Emissionsobergrenze und einer geeigneten Ausgestaltung der Institutionen des Emissionshandels das Ziel der Minimierung der gesamtwirtschaftlichen Kosten der Klimapolitik gewissermaßen marktendogen realisiert werden kann. Der Emissionshandel setzt die Anreize der Beteiligten über die gesamte, in der Identitätsgleichung (6.1) formulierten Umwandlungskette hinweg so, dass die Investitionen in Emissionsreduktion gerade dort erfolgen, wo sie zu den geringsten Kosten durchgeführt werden können. Weitere politische Vorgaben sind nicht nötig, sie wären aus ökonomischer Sicht kontraproduktiv. Dass mit einem derartig umfassenden, bestenfalls globalen Emissionshandel politische Freiheitsgrade bei der Detailgestaltung des Systems bis hin zu Realität keine Mittel existieren, die vollständig wertfrei sind und der gesellschaftliche und politische Prozess nicht nur durch die Ziele, sondern immer auch durch die Mittel beeinflusst werde. Angesichts von gesellschaftlichen Interessenkonflikten sollten jedoch alle Wertprämissen innerhalb des Zweck-Mittel-Schemas explizit gemacht werden. Die eigentliche Aufgabe des Nationalökonomen bei praktischen Problemen liege häufig außerhalb des Zweck-Mittel-Schemas. Hier sei der Prozess sehr sorgfältig in Bezug auf die Einbindung der Perspektiven unterschiedlicher Gesellschaftsgruppen zu gestalten. Eine saubere Trennung zwischen Theorie und Praxis sei damit eigentlich gar nicht mehr möglich. Eine umfassende Diskussion dieses Ansatzes, der beispielsweise auch in der aktuellen Forderung nach mehr „Transdisziplinität“ der wirtschaftswissenschaftlichen Forschung seinen Ausdruck findet, wird in Homann (1980) geführt.

5 Umweltökonomik

675

einer steuerbaren, gesellschaftlichen Partizipation an den von der Politik beschlossenen Maßnahmen verloren gehen, mag erklären, warum das Instrument des Emissionshandels in der Öffentlichkeit weniger populär ist, als in der Umweltökonomik. Andererseits sei jedoch erwähnt, dass die dynamische Kosteneffizienz eines Zertifikatesystems, d.h. seine Fähigkeit, Anreize zur Investition in die Erforschung, Entwicklung und Anwendung neuer Emissionsvermeidungstechnologien zu induzieren, auch in der umweltökonomischen Literatur durchaus kontrovers diskutiert wird. So wird beispielsweise moniert, dass Zertifikatemärkte – anders als etwa Emissionssteuern – keine verlässlichen Preissignale aussenden, die für langfristige Investitionen in neue Emissionsvermeidungstechnologien notwendig sind (Requate 2005, Buchholz und Heindl 2015). Die Förderung erneuerbarer Energien auf dem Strommarkt Ein besonders prominentes Beispiel für ein Zusammenwirken unterschiedlicher Instrumente des Klimaschutzes stellt die Förderung der erneuerbaren Energien im Stromsektor dar. Die ökonomische Legitimation von Markteingriffen zur Förderung erneuerbarer Energien wird darin gesehen, dass die Kosten der herkömmlichen Energieerzeugung aufgrund der dabei anfallenden Emissionen nicht vollständig die sozialen Kosten der Stromerzeugung reflektieren. Um diesen Sachverhalt auf den Strommarkt zu übertragen wird in Abbildung 5.32 das herkömmliche, aus fossilen Energieträgern bestehende Stromangebot durch die langfristige Grenzkostenkurve MCf dargestellt. Angenommen wird, dass die Stromproduzenten im Wettbewerb zu Grenzkosten anbieten. Die Stromnachfrage der

Abb. 5.32  Wettbewerbliche Ökostromvermarktung (Nutznießerprinzip)

676

Roland Menges

Verbraucher sei durch die vertikale, preisunelastische Nachfrage Df gekennzeichnet. Zu den herrschenden Marktpreisen (im Schnittpunkt zwischen fossilem Stromangebot und der Nachfrage) sind die Anbieter von Ökostrom nicht konkurrenzfähig – die von rechts abgetragene Angebotskurve des Ökostroms der langfristigen Grenzkosten MCEE liegt oberhalb der Kosten des fossilen Grenzanbieters. In dieser Situation werden nun möglicherweise besonders umweltbewusste Konsumenten geneigt sein, durch den freiwilligen Bezug von Ökostrom einen Beitrag zur Umweltentlastung zu leisten. Es wird angenommen, dass die (ebenfalls vor rechts abgetragene) Nachfragekurve nach Ökostrom DEE nicht-preisunelastisch verläuft und es zu einer Differenzierung der Produkte und Märkte kommt. Die Ökostromnachfrage trifft im Punkt B zum Preis pöko auf ein wettbewerbliches Angebot. Die von den übrigen Konsumenten zum Preis pfossil nachgefragte Menge konventionell erzeugten Stroms sinkt auf das Niveau X1. Das hierbei realisierte Aufkommen in Höhe des Rechtecks ABCD kann als eine dem Nutznießerprinzip entsprechende Kompensationszahlung der Konsumenten an die Stromerzeuger für die Vermeidung von Emissionen und als freiwilliger Beitrag zur Bereitstellung eines öffentlichen Umweltgutes angesehen werden (Menges und Traub 2009). Der in Deutschland seit der Energiemarktliberalisierung stark gewachsene Ökostrommarkt ist ein Beispiel für die Anwendung des Nutznießerprinzips. Da die auf freiwilligen Zahlungen beruhende wettbewerbliche Differenzierung des Ökostroms aus gesellschaftlicher Sicht als nicht hinreichend betrachtet wird, kommen auf dem Strommarkt hoheitliche umweltpolitische Instrumente zur Anwendung, die direkt auf die Ökostromförderung zielen (z.B. Einspeisungs-, Ausschreibungs- oder Quotenmodelle). Diese sind als Ausdruck des Gemeinlastprinzips anzusehen. Der gemeinsame Kern dieser Instrumente besteht darin, dass allen Stromverbrauchern die Pflicht auferlegt wird, bestimmte Ökostrommengen zu bestimmten Preisen zu konsumieren. Im Rahmen des in Deutschland praktizierten Erneuerbare-Energien-Gesetzes (EEG) erhalten die Ökostromanbieter eine Subvention24 für die Einspeisung von Strom, die dazu führt, dass sie zumindest partiell konkurrenzfähig werden. In Abbildung 5.33 entspricht dies der nach links verschobene Ökostromangebotskurve MC+EEG. Hierdurch wird die fossile Stromerzeugung im Umfang XEEG (zu Gunsten des Ökostroms) verdrängt, was zum gesunkenen Nettopreis pn führt (sog. Merit-Order-Effekt). Die damit entstehenden Mehrkosten in Höhe des Rechtecks ABCD werden im Zuge der sog. EEG-Umlage auf ihren Stromverbrauch X0 umgelegt. Der Zweck dieser Abgabe besteht ausschließlich in der Erzielung des für das Ökostromziel benötigten Förderaufkommens. Anders als beim Verursacherprinzip soll bei den belasteten Individuen gerade keine Verhaltensänderung induziert werden. Sie kann wünschenswerten Verhaltensänderungen sogar im Wege stehen: Die Erhebung von Zwangsbeiträgen zur Finanzierung des Umweltschutzes hat zur Folge, dass weite Teile der in Abbildung 5.32 dargestellten wettbewerblichen Aktivitäten aufgrund der Preiselastizität Dass diese Subvention erhebungs- und auszahlungstechnisch nicht durch einen öffentlichen Haushalt läuft, sondern von den Energieversorgern erhoben und ausgezahlt wird, ist für den ökonomischen Subventionstatbestand unerheblich. 24

5 Umweltökonomik

677

Abb. 5.33  Gemeinlastfinanzierung bei der Ökostromförderung

von DEE aufgrund des abgabeninduzierten Strompreisanstiegs verdrängt werden (Crowding-Out bei der freiwilligen Bereitstellung öffentlicher Güter, vgl. Menges et al. 2005). Im Vordergrund der Regulierung steht damit eine möglichst allgemeine, solidarische Finanzierung der gesellschaftlich gewünschten Ökostromförderung, welche unzweifelhaft dem Gemeinlastprinzip zuzurechnen ist. In früheren Versionen des EEG-Gesetzestextes hat der Gesetzgeber diese Maßnahme noch fälschlicherweise mit einer Anwendung des Verursacherprinzips gerechtfertigt. Die Neigung der Umweltpolitik, sich in vielen Fällen trotz der „Proklamation“ des Verursacherprinzips im Zweifel der Gemeinlastfinanzierung zu bedienen, wurde in vielen Studien der Politischen Ökonomie untersucht (Schneider und Volkerts 1999). Grundsätzlich sind Subventionen und die dadurch entstehenden Nutzen einfacher durchzusetzen als die Einführung bzw. Erhöhung von Steuern, von denen große Teile der Bevölkerung negativ berührt werden. Im Fall der Ökostromförderung erhöhen neben der Tatsache, dass diese Subventionen nicht aus öffentlichen, sondern aus privaten Haushalten gezahlt werden müssen, noch einige zusätzliche Argumente die politische Attraktivität der Gemeinlastfinanzierung: • Zunächst wirkt die auf den Stromverbrauch erhobene Abgabe (EEG-Umlage) wie eine indirekte Steuer – allerdings mit dem Vorteil, dass aufgrund der geringen Nachfrageelastizität und der Netzbindung kaum mit den sonst von Finanzpolitikern gefürchteten Ausweichbewegungen der belasteten Verbraucher zu rechnen ist.

678



Roland Menges

Angebotsseitig werden bei Gewährung dieser Subvention die üblicherweise mit Subventionszahlungen zusammenhängenden negativen Effekte vermieden. So ist aufgrund der technischen Besonderheiten von Stromnetzen nicht mit unerwünschten Nebenwirkungen zu rechnen: Die durch den Fördermechanismus ausgelösten Stromerzeugungen sind eindeutig „zusätzlich“ und führen aufgrund des staatlich garantierten Einspeisevorrangs fast automatisiert zu den gewünschten technischen Substitutionseffekten, da relativ umweltbelastende Stromerzeugungen an anderer Stelle verdrängt werden.25

Eine Anwendung des Verursacherprinzips auf dem Strommarkt liegt hingegen vor, wenn – wie in Abbildung 5.33 dargestellt – im Fall einer CO2-bezogenen Steuer oder des Emissionshandels die Stromanbieter zu einer Veränderung ihres Angebotskalküls gezwungen werden. Das Verursacherprinzip beruht darauf, beim Emittenten durch eine Kostenbelastung seiner Emissionstätigkeit einen Anreiz zur Investition in Vermeidungsaktivitäten zu induzieren. Er wird freiwillig so lange in die Emissionsvermeidung investieren, wie diese zu geringeren Kosten durchzuführen ist als die mit der Steuer oder den Emissionszertifikaten belastete Emission. Auf dem Strommarkt werden damit Investitionen in erneuerbare Energien im Umfang von XZ wettbewerbsfähig, weil die damit verbundenen marginalen Vermeidungskosten geringer als der Steuersatz bzw. der Zertifikatepreis AB sind. 26 Die mit der Anwendung des Verursacherprinzips verbundenen Verteilungswirkungen lassen sich anhand des Rechtecks ABCD erläutern, welches von den Stromverbrauchern zu tragen ist. Im Fall einer Steuer oder einer Versteigerung der Zertifikate fließt dieses Aufkommen dem Staat zu. Im Falle der in Deutschland praktizierten (weitgehenden) kostenlosen Ausgabe von handelbaren Emissionszertifikaten an die Energieunternehmen steigen deren Gewinne. Die Nutzung der Zertifikate ist aufgrund ihres Marktwertes mit Opportunitätskosten verbunden. Der häufig kritisierte Aspekt, dass kostenlos ausgegebene Emissionszertifikate die Strompreise und damit die Gewinne der Unternehmen erhöhen, berührt also nicht deren allokative Wirkung, sondern bezieht sich auf die Verteilungseffekte der Maßnahme. An dieser Stelle lässt sich jedoch ein ökonomischer Vorteil des Emissionshandels zeigen: Während der vom Staat festgelegte Steuersatz AB als exogene Größe zu betrachten ist, ergibt sich der Zertifikatpreis AB auf dem gesamten Markt für Emissionszertifikate, d.h. Allerdings sind fossile und erneuerbare Energien aus energiewirtschaftlicher Sicht weniger als Substitute und eher als Komplemente zu betrachten. Die von der zunehmenden Einspeisung volatiler Stromerzeugung aus erneuerbaren Energien ausgehenden Probleme für die Netzstabilität und Versorgungssicherheit werden hier nicht behandelt, vgl. hierzu Erdmann und Zweifel (2010) oder Ströbele et al. (2013). Der staatlich garantierte Einspeisevorrang erneuerbaren Energien stellt eine umweltpolitisch motivierte, lexikografische Auflösung des energiewirtschaftlichen Zieldreiecks dar: Versorgungssicherheit und Wirtschaftlichkeit der Stromerzeugung werden hinter dem Ziel der Umweltfreundlichkeit als nachrangige Ziele behandelt. 26 In Abbildung 6.4 wird vereinfachend angenommen, dass der auf kWh umgerechnete Zertifikatepreis in Höhe von AB mit dem Steuersatz je produzierter kWh übereinstimmt. 25

5 Umweltökonomik

679

Abb. 5.34  Verursacherprinzip bei der Ökostromförderung

die Option Emissionen über die Nutzung erneuerbarer Energien zu vermeiden, steht in einem direkten Wettbewerb mit allen übrigen Vermeidungsoptionen, die den Unternehmen der vom Emissionshandel betroffenen Sektoren zur Verfügung stehen. Die Nutzung des Emissionshandels führt also zum Ausgleich aller Grenzvermeidungskosten. Die Abbildungen 5.33 und 5.34 gehen von der Annahme aus, dass auf dem Strommarkt nur ein umweltpolitisches Instrument zur Anwendung kommt. Die umweltpolitische Realität ist jedoch durch eine Interaktion vieler Instrumente gekennzeichnet. Die Interaktion des Emissionshandels und des Einspeisegesetzes auf dem Strommarkt lässt sich anhand von Abbildung 5.35 erläutern. Die fossile Stromerzeugung sinkt auf das Niveau X2. Würde nur der Emissionshandel auf dem Strommarkt wirken, betrüge die fossile Stromerzeugung X1. Die von der Gesellschaft zu tragenden Grenzvermeidungskosten betragen AC = AB + BC. Bezogen auf den Preis der Emissionszertifikate findet offenbar eine ineffiziente Überförderung der Ökostromerzeugung statt. Dies mag aus Sicht einer primär am sektoralen Ökostromausbauziel orientierten Umweltpolitik vielleicht sogar wünschenswert sein, aus klimapolitischer Sicht sind mit dieser Instrumenteninteraktion jedoch zwei negative Konsequenzen verbunden: • Geht man davon aus, dass der Zertifikatpreis AB hinreichend hoch ist, sodass damit erneuerbare Energien auf dem Strommarkt im Umfang X0-X1 wettbewerbsfähig werden, führen die zusätzlichen von den Stromverbrauchern finanzierten Subventionen zu

680

Roland Menges

Abb. 5.35  Interaktion von Emissionshandel und EEG auf dem Strommarkt

einem zusätzlichen Ökostromanteil in Höhe von X1-X2. Für die Stromerzeuger bedeutet dies, dass sie von den ihnen zugewiesenen Emissionszertifikaten genau diese Menge nicht mehr benötigen. Das führt zu einem über den Strommarkt hinausgehenden und in dieser Grafik nicht mehr sichtbaren Effekt: Die nicht mehr benötigten Zertifikate werden auf dem Zertifikatmarkt verkauft, so dass dort die Preise fallen. Konkret bedeutet dies, dass relativ teure CO2-Vermeidungsoptionen auf dem Strommarkt günstigere Vermeidungsoptionen in anderen Sektoren verdrängen. • Dies bedeutet gleichzeitig, dass unter dem Dach des gesamtwirtschaftlichen Emissionshandels alle Arten von zusätzlichen sektoralen Maßnahmen lediglich Verteilungseffekte nach sich ziehen. Zusätzliche ordnungsrechtliche oder gemeinlastfinanzierte Maßnahmen des Klimaschutzes können keine CO2-Wirkung entfalten, sondern führen lediglich zu einem Kostenanstieg bei gleichzeitiger Klimaneutralität. Vor diesem Hintergrund könnte man versucht sein, den volkswirtschaftlichen Nutzen der erneuerbaren Energien in Bezug auf das Ziel der Schonung knapper fossiler Ressourcen zu definieren. Tatsächlich zeigt die Ressourcenökonomik, dass die Entwicklung sog. Backstop-Technologien (Endres und Querner 2000) ein gutes Instrument sein kann, die Abhängigkeit von fossilen Brennstoffen zu überwinden. Allerdings muss hierbei berücksichtigt werden, dass der Markt für fossile Ressourcen ein Weltmarkt ist und dass nicht alle

5 Umweltökonomik

681

Abb. 5.36  Grünes Paradoxon. Quelle: Blankart (2011, S. 505)

Regionen der Welt im gleichen Ausmaß wie Deutschland und Europa eine auf die Senkung des auf fossilen Brennstoffen beruhenden Primärenergiebedarfes gerichtete Umweltpolitik betreiben. Eine derartige Situation ist in Abbildung 5.36 beschrieben. Entlang der horizontalen Achse dieses Diagramms ist die weltweit gegebene Menge fossiler Energien (Erdöl, Erdgas, Kohle) dargestellt. Da die Anbieter dieser Ressourcen kein eigenständiges Interesse daran haben, ihre Rohstoffe im Boden zu belassen, werden sie ihre Ressourcen gewinnmaximierend im vollen Umfang auf dem Weltmarkt absetzen. Die Weltnachfrage nach Ressourcen sei aufgeteilt in die Nachfrage der EU und die Nachfrage der Nicht-EU-Länder, sodass eine Markträumung in der Ausgangssituation zum Preis p1 stattfindet. Die an der heimischen, europäischen Energienachfrage ansetzenden Umweltprogramme in Europa führen bei gegebenem Ressourcenbestand dazu, dass die für nicht-EU-Länder verfügbaren Angebotsmengen bei sinkenden Fördermengen zunehmen. Das Problem der ausschließlich an der Energienachfrage ansetzenden Umweltprogramme liegt also darin, dass die Anbieter der Ressourcen hiervon so lange unbeeindruckt sind, wie es nicht zu einer globalen umweltpolitischen Kooperation bzw. zu einem Monopson der Nachfrageländer kommt (Grünes Paradoxon, Sinn 2009, Blankart 2011). Insgesamt bleibt damit die Schlussfolgerung zu ziehen, dass sich die Probleme der Klimapolitik stark von den Problemen lokaler oder regionaler Umweltprobleme unterscheiden. Da Klimaschutz als globales öffentliches Gut von allen Ländern genutzt wird, stellt sich das im vierten und fünften Kapitel dieses Beitrags untersuchte Anreiz- und

682

Roland Menges

Trittbrettfahrerproblem nun im globalen Kontext. Anders als bei der Lösung national begrenzter Umweltprobleme stehen hier jedoch keine mit hoheitlicher Macht durchsetzbaren Instrumente der Umweltpolitik zur Verfügung, so dass aus ökonomischer Sicht der Hauptschwerpunkt der Klimapolitik auf die mühsame Entwicklung anreizkompatibler globaler Kooperationslösungen gelegt werden sollte (Übersichten finden sich beispielsweise bei Sturm und Vogt 2011; Endres 2013).

5.7

Die Bewertung von Umweltgütern

5.7.1

Methodologische Aspekte von umweltökonomischen Bewertungsproblemen

Fasst man die Überlegungen des letzten Kapitels dieses Beitrags zusammen, so bezieht sich die Aufgabenstellung der Umweltpolitik im Wesentlichen auf zwei Themenfelder: Erstens muss eine Zielformulierung erfolgen, d.h. eine Festlegung von Umweltqualitätsstandards. Es ist also zu bestimmen, welche maximalen Schadstoffbelastungen für welche Umweltmedien realisiert werden sollen. Und zweitens sind umweltpolitische Instrumente zu entwickeln, die die festgelegten Qualitätsstandards möglichst effektiv und zu möglichst niedrigen Kosten realisieren und damit umweltpolitische Ziele in individuelles Verhalten transformieren. Die ökonomische Bewertung von Umweltgütern ist dem ersten dieser beiden Themenbereiche zuzuordnen. Die Frage, wie Umweltgüter zu bewerten sind, bzw. auf welche Weise sie bewertet werden sollen, ist einem Konflikt ausgesetzt, der sich wie ein roter Faden durch die Umweltökonomik zieht und hier noch einmal zugespitzt formuliert werden soll: • Einerseits ist die umweltökonomische Theorie sehr präzise, indem sie den optimalen Umweltzustand genau dort identifizieren, wo die Summe der Opportunitätskosten der verschiedenen Umweltnutzungen minimal und der gesellschaftliche Nutzen der Umwelt damit bei gegebenen individuellen Präferenzen und Technologien maximal ist. Das Kostenminimum befindet sich im umweltökonomischen Grundmodell dort, wo die Vermeidungsgrenzkosten (als Ausdruck der Opportunitätskosten des Umweltschutzes) gerade den Grenzschadenskosten (als Ausdruck der Opportunitätskosten der Umweltverschmutzung) entsprechen. • Andererseits ist eine derartige endogene Ableitung von Umweltqualitätszielen in der Realität schwierig, wenn beispielsweise unvollständige Informationen über die Kurvenverläufe (insbesondere in Bezug auf die Schadenskurven) vorliegen. Von vielen Kritikern wird zudem eine rein anthropozentrische Bewertung von Umweltgütern abgelehnt. Ein pragmatischer Ausweg aus diesem Konflikt besteht beispielsweise in der exogenen Zielsetzung der standardorientierten Instrumente, wie sie in den obigen Abschnitte dieses Beitrags als prägende Instrumente der Umweltpolitik diskutiert wurden.

5 Umweltökonomik

683

Der insbesondere bei der Kosten/Nutzen-Analyse bzw. der Bewertung von Umweltgütern zur Anwendung kommende Gedanke lässt sich damit wie folgt zusammenfassen: Die Reduktion von Umweltverschmutzung ist mit Kosten verbunden, weil etwa knappe Ressourcen wie Arbeit und Kapital dafür eingesetzt werden, oder etwa der Erhalt einer schützenswerten Landschaft bedeutet, dass die in ihr enthaltenen Güter wie Holz oder Bodenschätze nicht für anderweitige Funktionen zur Verfügung gestellt werden sollen. Die Opportunitätskosten des Umweltschutzes Landschaftsschutzes stellen den gesellschaftlichen Wert der entgangenen Alternativen dar. Bei rationaler Betrachtung sollte die Gesellschaft immer dann zusätzliche Anstrengungen zur Vermeidung der Umweltverschmutzung unternehmen, wenn ihr die davon erwarteten zusätzlichen Nutzen mehr Wert sind als der entgangene Nutzen eines alternativen Ressourceneinsatzes (Pruckner 1995). In diesem Kapitel soll untersucht werden, welche theoretischen und praktischen Probleme sich ergeben, wenn der Anspruch aufrechterhalten werden soll, dass die gesellschaftliche Bewertung von Umweltgütern auf die individuellen Präferenzen zurückzuführen ist. Die theoretische Aufgabe besteht somit in der „richtigen“ Festlegung von Umweltqualitätsstandards. Die in diesem Forschungsgebiet zur Anwendung kommenden umweltökonomischen Bewertungsmethoden stellen ein Teilgebiet der ökonomischen Kosten-NutzenAnalyse dar. Sie setzen sich mit der Schwierigkeit auseinander, dass die beobachtbaren Marktpreise von Gütern aufgrund der Probleme der externen Effekte und der öffentlichen Güter keinen guten Indikator für die Knappheit von Ressourcen darstellen und die individuellen Präferenzen allenfalls unvollständig widergeben (Feess 2007). Erfassung der Kosten des Umweltschutzes: Vermeidungskosten und Präferenzbezug Die Aussage des umweltökonomischen Grundmodells, dass nur die simultane Betrachtung von Vermeidungskosten und Umweltschäden bestimmend für die Frage sein sollte, wieviel Umweltschutz betrieben werden soll, stellt die Prämisse der umweltökonomischen Bewertungsverfahren dar. Es ist eine Quantifizierung beider Kostenkategorien in Bezug auf ein Mengen- und ein Wertgerüst vorzunehmen (Cansier 1996). Die Bestimmung der Vermeidungskosten stellt häufig ein relativ geringes Problem dar, denn die für den Umweltschutz eingesetzten Produktionsfaktoren wie etwa Arbeitskräfte, Investitionsgüter oder Boden liefern hierbei das Mengengerüst, dessen Bewertung anhand von beobachtbaren Marktpreisen erfolgen kann. Dasselbe gilt für die Marktpreise von Ressourcen (z.B. Holz), die aufgrund staatlicher Umweltpolitik (z.B. bei der Schaffung von Naturschutzgebieten) geschont und nicht mehr für anderweitige produktive Verwendungen zur Verfügung gestellt werden sollen. Die Kosten des Umweltschutzes können damit in Geldeinheiten ausgedrückt werden. Sie sind als monetäre Äquivalente ein Ausdruck der Nutzeneinbußen, die den Individuen bzw. der gesamten Gesellschaft durch den Verzicht auf andere Güter entstehen. Auf aggregierter Ebene werden diese Kosten beispielsweise im Berichtsmodul „Umweltschutzmaßnahmen“ der umweltökonomischen Gesamtrechnung des Statistischen Bundesamtes erfasst (vgl. Abbildung 5.2).

684

Roland Menges

Nutzen des Umweltschutzes: Monetarisierung der Schadenskosten und Präferenzbezug Weniger einfach zu bewerten sind hingegen die Umweltschäden, die ebenfalls in Mengenund Wertdimensionen zu beschreiben sind. Die Mengeneffekte ergeben sich als physikalisch-chemisch-biologische Wirkungszusammenhänge und beschreiben die Interaktion zwischen Menschen und Umwelt bzw. zwischen Emissionen, Immissionen, Tieren, Pflanzen und Umweltmedien (vgl. etwa die Darstellung der sog. Durchflussmodelle im zweiten Kapitel dieses Beitrags). Für die Bewertung dieser Mengeneffekte stehen jedoch in der Regel keine die individuellen Präferenzen widerspiegelnden Marktpreise zur Verfügung. Die in der Literatur entwickelten Bewertungsmethoden stellen daher Ersatzlösungen dar, die darauf zielen, die Präferenzen der Individuen hinsichtlich der Bewertung von Umweltgütern z.B. über Befragungen und die Schaffung hypothetischer Abwägungssituationen zu erfassen und zu aggregieren. Die individuellen Präferenzäußerungen werden hierbei grundsätzlich in Geldeinheiten ausgedrückt. Auch wenn die Monetarisierung von nicht-marktlichen Umweltgütern häufig als einseitige und unmoralische Kommerzialisierung der Umwelt kritisiert wird (z.B. v. Hauff und Kleine 2013) bietet der Wertmaßstab „Geld“ einige wesentliche Vorzüge, die alternative, z.B. auf der Verwendung energetischer oder multi-kriterieller Maßstäbe beruhende Recheneinheiten nicht bieten können. In Bezug auf das Entscheidungsproblem der Bestimmung des „richtigen“ Niveaus des Umweltschutzes lassen sich diese Vorteile folgendermaßen zusammenfassen (Cansier 1996, Endres und Holm-Müller 1997): • Die Verwendung der Recheneinheit „Geld“ erlaubt die Vergleichbarkeit und Aggregation der beiden grundsätzlich gleichrangigen Kostenarten in Form von Schadens- und Vermeidungskosten. • Die Vergleichbarkeit unterschiedlicher Schadensarten ist damit ebenfalls möglich. Bei der Verwendung naturwissenschaftlich fundierter Wertmaßstäbe fällt es schwer, beispielsweise Lärm- Geruchs- oder Trinkwasserbelastungseffekte direkt miteinander zu vergleichen bzw. diese gegeneinander zu gewichten. • Da sich Umweltschutzprojekte i.d.R. auf öffentliche Entscheidungen im Umgang mit knappen Ressourcen beziehen, erlaubt eine Quantifizierung des Nutzens dieser Projekte in Geldeinheiten auch den Vergleich mit anderen öffentlichen Projekten, beispielsweise im Bereich der Gesundheitsversorgung oder im Bildungssystem. Dabei geht es nicht darum, unterschiedliche Projekte der Umwelt- oder Bildungspolitik gegeneinander auszuspielen. Allerdings ermöglicht die Monetarisierung derartiger Projekte zumindest im Ansatz eine rationale Grundlage für eine potenziell wohlfahrtssteigernde Politik. • Zwar stellt der individuelle Nutzen eine grundsätzlich subjektive Kategorie dar, aber durch den Ausdruck des Nutzens in Geldeinheiten lässt sich eine Ausrichtung der Umweltpolitik an den individuellen Präferenzen und eine „Objektivierung“ politischer Entscheidungen herbeiführen.

5 Umweltökonomik

685

Ein konkretes Umweltschutzprojekt könnte etwa die Überführung des regionalen Badesees aus dem Grundmodell in einen Naturschutzpark sein, wodurch sich konkrete Umweltentlastungseffekte einstellen. Umweltgüter wie dieses werden bei ihrer Bewertung durch die Individuen wie alle anderen ökonomischen Güter behandelt: Es wird angenommen, dass der Wert, den ein Individuum diesem Gut beimisst, sich in der individuellen Bereitschaft äußert, dieses gegen andere Güter einzutauschen. Dies bedeutet gleichzeitig, dass bei der Bewertung konkreter Umweltschutzprojekte keine Zustandsgrößen, sondern immer nur Änderungsgrößen in Form einer Variation der Umweltqualität zur Disposition stehen können. In diesem Fall wird also nicht der Nutzen des Sees an sich erfasst, sondern lediglich die Erhöhung des Nutzens durch die weitgehende Einschränkung des Eintrags von Schadstoffen als Folge produktiver Tätigkeiten von Unternehmen oder Landwirten. Bereits im Kapitel 5.3.1 und an anderen Stellen dieses Beitrags wurde auf die Bedeutung des methodologischen Individualismus für die Umweltökonomik verwiesen. Die Überlegungen, wie die individuellen Präferenzen erfasst und behandelt werden sollen, sind insbesondere auf die ökonomische Bewertung von Umweltgütern zu übertragen und sollen hier noch einmal zusammengefasst werden: • Individuelle Präferenzen sind Ausdruck einer anthropozentrischen Werttheorie. Sie reflektieren keine absoluten, sondern relative Werte. Sie werden als Austauschrelationen in durch Knappheit und Budgetrestriktionen geprägten Entscheidungssituationen erhoben. • Individuelle Präferenzen sind ein rein formales Konzept und dienen als Heuristik zur Erklärung des individuellen Verhaltens. Sie können beispielsweise auch altruistische oder nutzungsunabhängige Werte enthalten. • Der die Bewertung vornehmende Ökonom begibt sich in die Rolle eines externen Beobachters, der die unterschiedlichen individuellen Präferenzen registriert und erfasst, nicht aber antastet. Es gilt die Prämisse der Konsumentensouveränität – die einzig denkbare Alternative wäre eine exogene, letztlich autoritäre Festsetzung der Präferenzen. Die Erhebung der individuellen Präferenzen als Austauschrelationen bzw. als Zahlungsbereitschaft enthält jedoch ein implizites Werturteil, das nicht verschwiegen werden soll. Die Zahlungsbereitschaft eines Individuums für ein Gut ergibt sich nicht allein aus seinen gegebenen Präferenzen, sondern erst aus dem Zusammenspiel von Präferenzen und Restriktionen. Nimmt man an, zwei Individuen haben die gleichen Präferenzen, aber unterschiedliche Einkommen, werden sie vermutlich eine unterschiedliche Zahlungsbereitschaft für das fragliche Gut äußern. Zahlungsbereitschaft setzt Zahlungsfähigkeit voraus. Akzeptiert man also die individuelle Zahlungsbereitschaft als Wertmaßstab, so akzeptiert man damit auch die dahinter liegende Einkommensverteilung. Will man die geäußerten Präferenzen hingegen beispielsweise in Bezug auf die dahinter liegende Kaufkraft oder Einkommensposition der Individuen korrigieren bzw. gewichten, so benötigt man hierfür zusätzliche Wertmaßstäbe, wie sie etwa in Form einer sozialen Wohlfahrtsfunktion abgebildet werden können (Cansier 1996).

686

5.7.2

Roland Menges

Kategorisierung von Umweltwerten bei der Präferenzerhebung

Der Nutzen von konkreten Umweltschutzprojekten äußert sich in der Beseitigung oder Reduktion von Umweltschäden. Da es je nach Schadstoff und betroffenem Umweltmedium oder je nach der räumlichen und zeitlicher Eingrenzung des Problems sehr unterschiedliche Arten von Umweltbeeinträchtigungen gibt, werden die der Bewertung unterzogenen Umweltschäden in der Literatur nach unterschiedlichen Klassifizierungen erfasst. Eine Möglichkeit besteht in der Erfassung von Sach- und Personenschäden. Hierbei wird beispielsweise zwischen materiellen Schäden (z. B. Einkommenseinbußen bei Ernteausfällen), immateriellen Schäden (etwa in Form von Geruchs- und Lärmbelästigung oder ästhetischen Einbußen) oder Gesundheitsschäden unterschieden (Endres und HolmMüller 1997). Eine andere Variante der Klassifizierung von Umweltwerten besteht in der Kategorisierung von Umweltschäden als Produktions- und Nutzeneinbußen (Cansier 1996). Umweltschäden werden hier – wie etwa in Abbildung 5.15 zur Klassifizierung externer Effekte – als Argumente in individuellen Produktions- oder Nutzenfunktionen abgebildet. Produktionsfunktionen von Unternehmen werden beeinflusst, wenn die Qualität von Umweltgütern die Produktionsbedingungen der Marktgüter direkt beeinflussen. Bei der Bewertung der Produktionsverluste infolge von Umweltschäden kann in der Regel auf Marktdaten (z.B. Produktionskosten, Produktionsmengen, Preise, Gewinne) zurückgegriffen werden. Die Abbildung individueller Nutzenverluste umfasst sowohl nutzungsabhänge als auch nutzungsunabhängige Werte. • Nutzungsabhängige Werte liegen beispielsweise vor, wenn eine steigende Lärmbelästigung in einem Wohngebiet dazu führt, dass die Grundstückspreise der dortigen Wohnimmobilien sinken. Auch hier lässt sich häufig aus beobachtbaren Marktdaten ein Bewertungsmaßstab für Umweltgüter herleiten. • Marktdaten, die die Nachfrage- und Angebotsaktivitäten von Marktteilnehmern reflektieren, eignen sich jedoch grundsätzlich nicht zur Erfassung von nicht-nutzungsabhängigen individuellen Umweltwerten. Ein Individuum, das sich um das Aussterben bestimmter Tier- oder Pflanzenarten in einer entfernten Region sorgt, erleidet keinen in den direkten Konsumaktivitäten und deren Marktpreisen sichtbaren, sondern einen intrinsischen Nutzenverlust (für einen Überblick vgl. etwa Bishop und Heberlein 1979, Cummings et al. 1986).27 Gleichwohl ist auch dieser als Argument der individuellen Nutzenfunktion relevant und bei der Bewertung von Umwelteffekten bzw. bei den hierfür entwickelten Erhebungsmethoden zu berücksichtigen. In der umweltökonomischen Literatur wird hier zwischen Existenzwerten und Optionswerten unterschieden. 27 Die Vorstellung gebrauchsunabhängiger Werte der Natur findet sich schon bei John Stewart Mill: „With every rood of land brought into cultivation which is capable of growing food for human beings; every flowery waste or natural pasture ploughed up, …. the earth must lose that great proportion of its pleasantness which it owes to things that the unlimited increase of wealth and population would extirpate from it.” (Mill 1848/1988, Book IV, Chapter VI, §2, S. 311).

5 Umweltökonomik

687

Existenzwerte ergeben sich aus dem Wissen des Individuums um die Existenz eines Gutes, dem ein bestimmter Wert beigemessen wird. Dieser ist allerdings völlig unabhängig von eigenen gegenwärtigen oder zukünftigen Nutzungsambitionen des Individuums. Erklärt werden können derartige Werte durch altruistische Motive wie etwa dem Interesse am Wohlergehen Anderer oder dem Wunsch, nachfolgenden Generationen eine intakte Umwelt zu hinterlassen (Vermächtnismotiv). Optionswerte zeichnen sich demgegenüber dadurch aus, dass der Möglichkeit einer zukünftigen Nutzung des Gutes ein bestimmter Wert beigemessen wird. Ein Abschmelzen von Alpengletschern infolge des Klimawandels wird möglicherweise negativ bewertet, weil damit die Attraktivität einer möglichen, späteren Urlaubsreise in diese Region geschmälert wird. Ein in dieser Situation geäußerter Wert kann damit als eine Art Risikoprämie für die Verhinderung irreversibel verlorener Nutzungsmöglichkeiten interpretiert werden. 28 Eine weitere Klassifizierung von Umweltwerten bezieht sich auf die zeitliche Dimension von Umweltgütern. Hier wird zwischen Gegenwarts- und Zukunftswerten unterschieden. Berücksichtigt man beim Nutzen des Sees als Naturpark nur die Präferenzen der gegenwärtigen potenziellen Nutzer, so wären lediglich deren Präferenzen bezüglich der konkreten Verbesserung des derzeitigen Verschmutzungszustandes des Sees zu erheben. Häufig beziehen sich umweltpolitische Entscheidungen jedoch – wie etwa bei der Bekämpfung des Klimawandels – auf weit in die Zukunft reichende Umweltzustände. Damit sind vielfältige Bewertungsprobleme verbunden, z.B. weil sich die Bewertung auf fiktive zukünftiger Zustände bezieht, für die noch keinerlei Erfahrungen vorliegen. Zudem sind bei der Bewertung zukünftiger Zustände auch die zukünftigen ökonomischen Verhältnisse zu berücksichtigen (z.B. in Bezug auf die dann geltende Einkommensverteilung, die Präferenzen der dann lebenden Generation oder den Stand des technischen Wissens). Grundsätzlich gilt hierbei, dass die Bewertung zukünftiger Ereignisse selbst bei der Berücksichtigung der Bedürfnisse zukünftiger Generationen immer nur durch die gegenwärtige Generation erfolgen kann, die damit implizit ihre Risikoneigung zum Ausdruck bringt. Zudem müssen zukünftige Werte mit heutigen Werten verglichen und auf Gegenwartswerte abdiskontiert werden. Allein die Diskussion um die Wahl der „richtigen“ Diskontrate bei der Bewertung von Umweltgütern führt innerhalb der Wirtschaftswissenschaften zu großen Kontroversen (eine Übersicht zu dieser Diskussion mit Anwendung auf die Klimapolitik findet sich etwa bei Buchholz und Schumacher 2009).

Ein derartiges Motiv ist auch bei risikoneutralem Verhalten denkbar. Arrow und Fisher (1974) betrachten einen Quasi-Optionswert, der unter der Annahme von Unsicherheit und Irreversibilitäten im Umweltbereich bei Investitionsentscheidungen ein vorsichtiges Verhalten nahelegt, wenn z.B. durch die Aufschiebung von Entscheidungen in Zukunft mehr Informationen verfügbar sein können, mit denen sich die Unsicherheit verringern lässt. Das Abwarten selbst erhält einen ökonomischen Wert, wenn zukünftige Nutzungsabsichten unklar sind und dadurch weitere Informationen gewonnen werden können (Cansier 1996). 28

688

Roland Menges

Letztlich ist die für die reale umweltpolitische Entscheidungsfindung unumgängliche Bewertung und die Gewichtung zukünftiger Kosten und Nutzen relativ zu heutigen Kosten und Nutzen nicht nur Abbild der naturwissenschaftlichen Informationslage, sondern immer auch Ausdruck bestimmter Wertvorstellungen und ethischer Prinzipien, für die es keine – zumindest aus wissenschaftlicher Sicht – überzeugende Letztbegründung geben kann (Requate 2001). Für die umweltökonomischen Bewertungsmethoden bedeutet dies grundsätzlich, dass ihre Ergebnisse weniger als präzise Kosten-Nutzen-Ergebnisse zu interpretieren sind, sondern angesichts vielfältiger Unsicherheiten und notwendiger Annahmen eher Ober- und Untergrenzen von Schätzungen darstellen, die bei politischen Entscheidungen Orientierung leisten können.

Abb. 5.37  Verfahren zur Erhebung individueller Präferenzen bei öffentlichen Umweltgütern [Quelle: in Anlehnung an Pommerehne 1987, S. 11; ähnlich auch in Blankart 2011, S. 483)]

5 Umweltökonomik

5.7.3

689

Direkte und indirekte Methoden der Präferenzerhebung

Indirekte Methoden Bei den verschiedenen Methoden zur Erhebung der individuellen Präferenzen wird grundsätzlich zwischen direkten und indirekten Verfahren unterschieden. Die verschiedenen Methoden können anhand der Abbildung 5.37 zusammengefasst werden. Die indirekten Verfahren zeichnen sich dadurch aus, dass von dem auf Märkten oder bei politischen Entscheidungen wie Wahlen oder Volksentscheide beobachtbaren Verhalten der Individuen auf die dahinter liegenden Präferenzen geschlossen wird (sog. Revealedpreference-Theory). Der wesentliche Vorteil dieser auch in anderen Bereichen der Ökonomik angewandten Methode besteht darin, dass sich das Verhalten der Individuen auf Märkten oder im politischen Raum weitgehend unverzerrt von den möglichen Einflüssen einer „künstlichen“ Befragungssituation zeigt. Da das Modell des homo oeconomicus auf der wesentlichen Annahme basiert, menschliches Entscheidungsverhalten sei gleichermaßen durch Präferenzen und Restriktionen gekennzeichnet, werden die Restriktionen z.B. in Bezug auf das verfügbare Einkommen oder die Preise und die Verfügbarkeit von Alternativen bei den indirekten Erhebungsmethoden gesondert erfasst, um hiermit das Verhalten der Individuen erklären zu können (Frey und Kirchgässner 2002). Zwar lassen sich auf Märkten i.d.R. die individuellen Präferenzen für nicht-marktfähige Umweltgüter nicht unmittelbar ableiten, aber häufig lassen sich aus der Nachfrage nach privaten Gütern Rückschlüsse auf die Bewertung von Umweltgütern ziehen. Sinken beispielsweise die Preise von Immobilien in Folge des Baus einer Autobahn, einer Stromtrasse oder eines Kraftwerks in der Umgebung, so spiegelt sich die veränderte Umweltqualität in einer Veränderung der Immobilienpreise. Empirische Studien beschäftigen sich beispielsweise mit der Frage, welcher Lohnunterschied zwischen zwei Städten notwendig ist, um die Beschäftigten unter sonst gleichen Bedingungen in der Stadt mit der schlechteren Umweltqualität zu halten und ermitteln auf diese Weise einen Wertansatz für die Variation der Umweltqualität. Allgemein formuliert: Die Bewertung von Umweltgütern hinterlässt häufig Spuren, die in der Bewertung von Marktgütern sichtbar werden (Pommerehne 1987). Zu den indirekten Methoden der Präferenzerfassung werden insbesondere die folgenden Ansätze gezählt (Übersichten und kritische Diskussionen der Vor- und Nachteile der einzelnen Ansätze finden sich z.B. bei Frey und Kirchgässner 2002 oder Blankart 2011): • Bei der hedonischen Preisanalyse (Marktpreisanalyse) wird auf Basis von beobachtbaren Marktpreisen, die implizite Zahlungsbereitschaft von Kunden für bestimmte Merkmale von Produkten berechnet (Baumgartner 1997). Der Grundgedanke besteht darin, dass öffentliche Güter wie eine verbesserte Umweltqualität einerseits zwar kostenlos zur Verfügung gestellt werden, sich andererseits jedoch in einem sog. hedonischen Preis widerspiegeln. Diese Wertsteigerung (bzw. Wertsenkung im Falle einer Umweltverschlechterung) kann unter bestimmten Bedingungen und Annahmen anhand statistischer Verfahren aus vorhandenen Marktdaten ermittelt werden.

690

Roland Menges

• In ähnlicher Weise wird bei der Aufwand- bzw. Reisekostenmethode von den Reiseaufwendungen auf die individuelle Wertschätzung bzw. die Zahlungsbereitschaft für ein bestimmtes Gut wie z. B. einen Naturpark geschlossen. Wenn das zu bewertende öffentliche Gut und die bei dessen Nutzung entstehenden privaten Kosten komplementär sind, lässt sich aus dem Aufwand, den ein Individuum betreibt, um in den Genuss des öffentlichen Gutes zu gelangen, auf seine Zahlungsbereitschaft für das öffentliche Gut schließen. Anhand der je nach Entfernung unterschiedlichen Reisekosten, die Individuen für das Umweltgut aufzubringen bereit sind, lässt sich eine Nachfragefunktion für das Umweltgut bestimmen. • Im Rahmen der Wanderungsanalyse wird angenommen, dass Individuen sich bei der Wohnortwahl an der dortigen Qualität der öffentlichen Güter orientieren. Wanderungsbewegungen zwischen Standorten können damit auch als Ablehnung bzw. Zustimmung zu dem Mix aus den jeweils angebotenen öffentlichen Gütern und der dafür erhobenen Steuerbelastung interpretiert werden (Tiebout-Modell steuerfinanzierter lokaler öffentlicher Güter, vgl. Blankart 2011). Wenn der Einfluss aller übrigen Faktoren, die auf die Wanderungsbewegungen wirken, konstant gehalten wird, kann mithilfe statistischer Verfahren der Einfluss der Umweltqualität und anderer öffentlicher Güter erfasst werden (Frey und Kirchgässner 2002). • Bei der Analyse des Abstimmungsverhaltens von Individuen bei Kollektiventscheidungen als Ausdruck der Präferenzen bei der Bewertung von Umweltgütern ist zwischen Modellen der direkten und der indirekten Demokratie zu unterscheiden. Das im Kapitel 4.6 dieses Beitrags erläuterte Medianwählermodell betrachtet das Verhalten der Individuen im Fall der direkten Demokratie, bei der mit einfacher Mehrheit über die Annahme oder die Ablehnung von umweltpolitischen Projekten abgestimmt wird. Aus dem Abstimmungsverhalten des Medianwählers bei verschiedenen Projekten und der Kenntnis seines Einkommens lassen sich beispielsweise anhand statistischer Verfahren Einkommens- und Steuerpreiselastizitäten bestimmen und zur Bewertung von Umweltgütern heranziehen (Blankart 2011, Pommerehne 1987). Die bei kollektiven Abstimmungen geäußerten Präferenzen in repräsentativen Demokratien lassen sich in Bezug auf konkrete umweltpolitische Projekte hingegen weniger gut abgrenzen, da die bei Wahlen (oder Wahlumfragen) geäußerten Präferenzen vielfach auch von anderen Aspekten wie Popularitätswerten von Parteien und Politikern oder der konjunkturellen Entwicklung überlagert werden. Direkte Methoden Wenn hingegen die Präferenzen der Individuen direkt erhoben werden, d.h. in einer Situation, die weitgehend unabhängig von ihrem realen Verhalten ist, spricht man von direkten Methoden der Präferenzerfassung (sog. Stated-preference-Theory). Hierbei kann zwischen quantitativen und qualitativen Ansätzen unterschieden werden. Ein einfacher, häufig verwendeter Ansatz besteht in der Interpretation von Meinungsumfragen der empirischen Sozialforschung. Auf Basis repräsentativer Stichproben werden Informationen über

5 Umweltökonomik

691

die Einstellungen der Bevölkerung oder einzelner Bevölkerungsgruppen zu bestimmten umweltpolitischen Projekten erhoben. Aus ökonomischer Sicht werden derartige Methoden häufig kritisiert, wenn es sich hierbei um mehr oder weniger ungewichtete und nicht unbedingt verhaltensleitende Einstellungen handelt, bei deren Erhebung keinerlei Restriktionen (etwa mit Bezug zur Finanzierung der betrachteten Projekte) berücksichtigt werden. Begleitet von einer intensiven methodologischen und theoretischen Diskussion (vgl. etwa Mitchell und Carson 2005) hat sich die Kontingente Bewertungsmethode in den letzten Jahren zu einem anerkannten Modell zur Bewertung komplexer öffentlicher Güter entwickelt. Sie wird unter Verwendung von anonymisierten Fragebögen häufig bei der Bewertung von Umweltgütern, wie etwa der Verbesserung der Umweltqualität am Wohnort, angewandt (vgl. etwa Kopp et al. 1997). Ein ökonomischer Wertansatz des Umweltguts wird ermittelt, indem das Niveau des Guts in einem hypothetischen Bereitstellungsszenario variiert und einer individuellen Bewertung unterzogen wird. Der Kern der Methode besteht hierbei in der Konstruktion hypothetischer Märkte, auf denen Bewertungs- und Abwägungsszenarien angeboten werden, zwischen denen sich die Befragungsteilnehmer entscheiden sollen. Diese werden aufgefordert, ihre Einstellung zur Veränderung des Bereitstellungsniveaus zu nennen und mit einer maximalen Zahlungsbereitschaft zu unterlegen bzw. zu quantifizieren, die im Rahmen eines konkretisierten Zahlungsmechanismus erhoben wird (Liebe 2007). Die auf diese Weise direkt erfragte Zahlungsbereitschaft eines Individuums wird als Wohlfahrtsmaß (in Geldeinheiten ausgedrückte Konsumentenrente) für die Variation des Umweltgutes interpretiert. Die Extrapolation der individuellen Zahlungsbereitschaften auf die Grundgesamtheit führt damit zu einer in Geldeinheiten ausgedrückten gesellschaftlichen Wertschätzung der Variation des betrachteten Umweltguts (Pruckner 1995). Das Design der fragebogengestützten Erhebung sollte die befragten Personen grundsätzlich dazu bringen, sich vertieft mit dem zu definierenden Umweltproblem zu beschäftigen, für welches die Zahlungsbereitschaft ermittelt wird. Anhand bestimmter methodischer Kriterien kann sichergestellt werden, dass die geäußerten Präferenzen den tatsächlichen Präferenzen möglichst nahe kommen und nicht durch Unter- oder Übertreibungen geprägt sind (Arrow et al. 1993). Ein weiterer Ansatz der direkten Erfassung von individuellen Präferenzen für Umweltgüter liegt in der Schätzung individueller Wohlfahrtsfunktionen auf Basis von Zufriedenheitsmessungen. So verwenden etwa Halla et al. (2008) ein subjektives Maß der individuellen Zufriedenheit im Rahmen einer internationalen Studie und zeigen, dass dieser Zufriedenheitsindikator mit zunehmender Umweltqualität wächst. Welsch (2008) nutzt einen subjektiven Lebenszufriedenheitsindikator („happiness“) und leitet hieraus den impliziten monetären Wert einer Verbesserung der Umweltqualität ab, indem er die Grenzrate der Substitution von Einkommen gegen Emissionsvermeidung bestimmt. In den Bereich der direkten Methoden können auch die Ansätze der Experimentellen Ökonomik eingeordnet werden, die in den letzten Jahren zunehmend im Bereich der Bewertung von Umweltgütern eingesetzt wird. Der Grundgedanke derartiger Experimente liegt in der Erfassung der Präferenzen bzw. der Zahlungsbereitschaft für Umweltgüter

692

Roland Menges

unter kontrollierten Bedingungen. Durch die Kontrolle und die gezielte Variation der institutionellen Entscheidungsumgebung und anderer Variablen (z.B. verfügbare Alternativen, Preise, Einkommen) wird es möglich, die in den Experimenten beobachteten Präferenzäußerungen für Umweltgüter theoriegeleitet zu erklären. Im Gegensatz zur Kontingenten Bewertungsmethode legen ökonomische Experimente jedoch Wert auf einen Anreizmechanismus, der aus Sicht der Versuchspersonen dazu führt, dass die im Experiment von ihnen geäußerten Zahlungsbereitschaften „echte“ materielle bzw. monetäre Konsequenzen nach sich ziehen und sie motivieren soll, Präferenzangaben entsprechend ihrer „wahren“ Präferenzen zu machen. Grundsätzlich wird hierbei zwischen Feldexperimenten und Laborexperimenten unterschieden. Feldexperimente zeichnen sich dadurch aus, dass Erhebungen in einer natürlichen, nicht vom Versuchsleiter beeinflussten Umgebung durchgeführt werden. Die Versuchspersonen entscheiden hierbei mit ihren Angaben über reale Projekte. Demgegenüber werden bei Laborexperimenten die Entscheidungssituation und ihre institutionelle Umgebung künstlich geschaffen. Auch wenn die Versuchspersonen anhand des Anreizmechanismus echte, für sie mit materiellen Konsequenzen versehene Entscheidungen treffen, ist ihnen hierbei bewusst, dass sie sich in einer hypothetischen Entscheidungssituation befinden und ihr Verhalten beobachtet wird. Der Vorteil von Laborexperimenten gegenüber Feldexperimente besteht jedoch darin, dass störende Einflüsse im Feld (aufgrund nicht oder nur kaum kontrollierbarer Variablen) weitgehend ausgeschlossen werden können. Mit umweltökonomischen Bewertungsexperimenten kann beispielsweise die freiwillige Nachfrage der privaten Haushalte nach Strom aus erneuerbaren Energien als freiwilliger Beitrag zur Bereitstellung eines öffentlichen Gutes untersucht werden (Menges et al 2005). Die in Abbildung 5.32 dargestellte preiselastische Nachfrage DEE wird hierbei in experimentellen Entscheidungssituationen punktweise als Zahlungsbereitschaft für die Substitution konventioneller Stromerzeugung durch Strom aus erneuerbaren Energien erhoben und nutzentheoretisch erklärt. Die direkte Messung des Umweltnutzens im Modell Die hier nur übersichtsartig vorgestellten direkten Methoden der Präferenzerfassung unterscheiden sich in vielerlei Hinsicht bei der methodischen Umsetzung. Gemeinsam ist ihnen der Ansatz, dass die individuelle Wertschätzung der Umwelt direkt von den Individuen erfragt, bzw. in einer konkreten Abwägungssituation erhoben wird. Hierbei gehen sie von einer gemeinsamen theoretischen Basis der ökonomischen Wohlfahrtsmessung aus, die sich anhand der folgenden Annahmen in einem Modell beispielhaft skizzieren lässt: • Das betrachtete Umweltgut Q werde im Beispiel gemessen durch die Fläche eines Naturschutzgebietes. • Der Nutzen eines Individuums aus dem Naturschutzgebiet Q und dem Konsum der übrigen privaten Güter X sei – äquivalent zur Gleichung (15) – durch seine Nutzenfunktion U = U(X, Q) gegeben. Der Grenznutzen beider Güter sei positiv und abnehmend.

5 Umweltökonomik

693

• Das individuelle Einkommen Y sei gegeben und werde vollständig für den Kauf der privaten Güter X verwendet. Der Preis des privaten Güterbündels sei auf Eins normiert, so dass die Budgetrestriktion des Individuums Y = X lautet. • Zusätzlich wird angenommen, dass eine Variation der Umweltqualität bzw. eine Erhöhung (oder Reduktion) der Fläche des Naturschutzgebietes dem Individuum kostenlos zur Verfügung steht und sich nicht auf die Verfügbarkeit der privaten Güter, das Preisniveau und das Einkommen auswirkt. In Abbildung 5.38 werden die individuellen Präferenzen bezüglich der beiden Güter als Indifferenzkurven I dargestellt. Im Ausgangspunkt beträgt das Niveau der Umweltqualität Q0. Die Allokation im Güterbündel A führt damit zum Nutzenniveau I0. Die in diesem Kapitel behandelten Fragen lassen sich nun folgendermaßen zusammenfassen: Wie bewertet das Individuum eine ihm angebotene Erhöhung der Umweltqualität auf das Niveau Q1? Und wie kann diese individuelle Bewertung präzise geäußert bzw. erfasst werden? Abbildung 5.38 zeigt, dass die neue Allokation im Punkt B zu einer Nutzensteigerung führt, die das Individuum von I0 auf die höhere Indifferenzkurve I1 führt. Die bei der Nutzen- bzw. Wohlfahrtsmessung angewandte Methodik konzentriert sich grundsätzlich auf die Messung des „Abstandes“ zwischen den beiden Indifferenzkurven. Dieser Abstand lässt sich entlang der vertikalen Achse ablesen: Die mit der Umweltverbesserung verbundene Nutzensteigerung lässt sich in Einheiten des privaten Gutes X und wegen X=Y gleichzeitig auch in Einheiten des Einkommens Y messen.

Abb. 5.38  Verfahren zur Erhebung individueller Präferenzen bei öffentlichen Umweltgütern [Quelle: in Anlehnung an Pommerehne 1987, S. 11; ähnlich auch in Blankart 2011, S. 483)]

694

Roland Menges

Abb. 5.39  Direkte Messung des Umweltnutzens bei Erhöhung der Umweltqualität [(Quelle: in Anlehnung an Cansier 1996, S. 92 und Feess 2007, S. 336)]

In der Abbildung 5.39 wird dies verdeutlicht. In Abhängigkeit von der Frage, von welchem Status-Quo aus die Nutzenmessung vorgenommen werden soll, sind hierbei zwei Varianten der Nutzenmessung zu unterscheiden. • Im ersten Fall wird die Verbesserung der Umweltqualität (Q0 auf Q1) ausgehend vom alten Nutzenniveau I0 gemessen: Wenn man das Nutzenniveau der Ausgangssituation konstant hält, so führt die verbesserte Umweltqualität beim Güterbündel K zum selben Nutzenniveau wie die Anfangsallokation A. Die vom Individuum erfahrene Nutzenverbesserung lässt sich nun von K aus in Einheiten des privaten Gutes ausdrücken. Sie entspricht der Strecke zwischen den Punkten K und B, bzw. der Differenz (Y-Yk). Mit anderen Worten: Ausgehend vom ursprünglichen Nutzenniveau wäre das Individuum bereit, den Betrag (Y-Yk) herzugeben, um in den Genuss der Umweltverbesserung zu gelangen. Dieser Betrag wird als maximale Zahlungsbereitschaft für die Umweltverbesserung interpretiert und in der Literatur kompensatorische Variation (KV) genannt. • Im zweiten Fall wird die Verbesserung der Umweltqualität vom neuen Nutzenniveau I0 aus gemessen: Beim Güterbündelt Ä stellt sich dasselbe Nutzenniveau ein wie in der Allokation B. Der Wert, den das Individuum der Umweltverbesserung beimisst, lässt sich damit durch die Strecke zwischen den Punkten A und Ä ausdrücken: Das Individuum wäre bereit auf die Umweltverbesserung zu verzichten, wenn es hierfür mindestens eine Entschädigungszahlung in Höhe der Differenz (YÄ-Y) erhalten würde.

5 Umweltökonomik

695

Abb. 5.40  Direkte Messung des Umweltnutzens bei einer Senkung der Umweltqualität [(Quelle: in Anlehnung an Cansier 1996, S. 92 und Feess 2007, S. 336)]

Diese minimale Entschädigungsforderung für den Verzicht auf die Verbesserung der Umweltqualität wird äquivalente Variation (ÄV) genannt. Die gleiche Logik lässt sich auch auf die Bewertung einer Umweltverschlechterung anwenden. Im oben entwickelten Beispiel wird nun angenommen, dass die anfängliche Fläche des Naturparks Q0 auf Q2 reduziert wird. Ausgehend vom anfänglichen Güterbündel im Punkt B realisiert das Individuum nach der Umweltverschlechterung nun die Allokation A und das niedrigere Nutzenniveau I2. Auch bei der Bewertung einer Umweltverschlechterung in der folgenden Abbildung 5.40 muss unterschieden werden, ob die Bewertung vom alten oder vom neuen Nutzenniveau vorgenommen werden soll. • Wird das alte, vor der Umweltverschlechterung erfahrene Nutzenniveau I0 zum StatusQuo erhoben, stellt sich die kompensatorische Variation als Nutzenmaß wie folgt dar: Um denselben Nutzen wie beim Güterbündel B zu erreichen, muss dem Individuum der Entschädigungsbetrag KV geleistet werden. Diese minimale Entschädigung, die das Individuum fordert, um dasselbe Nutzenniveau wie vor der Umweltverschlechterung zu realisieren ist identisch mit seiner oben erläuterten Entschädigungsforderung für den Fall der unterlassenen Umweltverbesserung.

696

Roland Menges

• Wird das neue, nach der Umweltverschlechterung erfahrene Nutzenniveau I2 zum Referenzmaßstab erhoben, so orientiert sich die äquivalente Variation am Güterbündel K, das nutzenäquivalent zu A ist. Hier wird gefragt, wieviel das Individuum maximal bereit wäre zu zahlen, um die Umweltverschlechterung zu verhindern. Die maximale Zahlungsbereitschaft ÄV für die Unterlassung der Umweltverschlechterung entspricht der oben erläuterten Zahlungsbereitschaft für den Fall der Umweltverbesserung. Hierbei ist es wichtig, sich vor Augen zu führen, dass diese Art der Nutzenmessung auf dem Gedanken der Nutzenkompensation basiert: Die Messung konzentriert sich ausschließlich auf die Erhebung der Grenzrate der Substitution zwischen dem Umweltgut und dem privaten Gut entlang der Indifferenzkurve, also bei Konstanthaltung des Nutzenniveaus: Auf wie viele Einheiten des privaten Gutes ist das Individuum bereit zu verzichten, wenn es dafür eine Erhöhung des öffentlichen Gutes erfährt? Mit wie vielen Einheiten des privaten Gutes müsste man es kompensieren, wenn es eine Verschlechterung des öffentlichen Gutes erfährt? Es werden also ausschließlich Substitutionseffekte erfasst. Die privaten Güter (entlang der vertikalen Achse) werden damit direkt ein Maß für die durch die Variation des Umweltgutes induzierte Nutzenveränderung. Übertragt man diese Angaben nun für unterschiedliche Mengen des angebotenen Umweltgutes in ein Preis/ Mengen-Diagramm, so leitet sich hieraus eine fallende Kurve der marginalen Zahlungsbereitschaft (bzw. eine Kurve der marginalen Entschädigungsforderung) ab. Diese lediglich auf Subsitutionseffekten beruhenden Kurven werden als kompensatorische Nachfragekurven nach Hicks bezeichnet. Im Gegensatz dazu findet bei der Herleitung der üblichen Nachfragekurven nach Marshall eine simultane Betrachtung von Substitutionseffekten und Einkommenseffekten statt (vgl. hierzu den Beitrag von Erlei in diesem Band).29 Beim Vergleich der kompensatorischen und der äquivalenten Variation fällt auf, dass das „objektiv“ identische Gut (z. B. die Verbesserung der Umweltqualität von Q0 auf Q1) unterschiedlich bewertet wird: Die Entschädigungsforderung ÄV für den Verzicht auf die Umweltverbesserung stimmt nicht notwendigerweise mit der Zahlungsbereitschaft KV für die Durchführung der Umweltverbesserung überein. Im Fall der Grafik 5.39 ist die Entschädigungsforderung für den Verzicht auf die Besserstellung höher als die Zahlungsbereitschaft für den Erhalt der Besserstellung. Auf den ersten Blick ist dies überraschend. So Für die Wohlfahrtsmessung bedeutet dies grundsätzlich Folgendes: Während die Verwendung der auf Basis von Marshallschen Nachfragekurven hergeleiteten Konsumentenrente als Wohlfahrtsmaß eine Verrechnung von Subsitutions- und Einkommenseffekten enthält, sind die kompensatorischen Maße nach Hicks, die sich lediglich auf die Erfassung von Subsitutionseffekten beziehen, als die theoretisch exakten Maße anzusehen. Wenn Preisänderungen zu großen Einkommenseffekten führen, kommt es zu Divergenzen bei den Maßen. In der Regel wird jedoch gerade bei der Verwendung indirekter Methoden der Nutzenmessung mit der Konsumentenrente nach Marshall gearbeitet, da die Marshallsche Nachfragekurven auf Märken zu beobachten ist, während die Hickssche kompensatorische Nachfrage zwar theoretisch exakt, nicht jedoch real zu beobachten ist. Die Verwendung der Konsumentenrente als Fläche unter einer Marshallschen Nachfragefunktion bei der Nutzenmessung von Umweltgütern ist jedoch dann zu rechtfertigen, wenn die beobachteten Preisänderungen nur zu geringen, vernachlässigbaren Einkommenseffekten führen. 29

5 Umweltökonomik

697

besagt eine zentrale Aussage des Coase-Theorems, dass eine Veränderung der Rechteausstattung zwar die Richtung der Zahlungsströme, nicht jedoch deren Umfang oder das reale Allokationsergebnis beeinflusst. Tatsächlich kann es bei der Bewertung von Umweltgütern jedoch zu Divergenzen kommen, wenn die Bewertungen von unterschiedlichen Referenzpunkten aus vorgenommen werden. Ein Individuum, welches über die Unterlassung der Umweltverbesserung befinden soll, befindet sich möglicherweise in einer anderen Nutzenposition als ein Individuum, dass eine Zahlungsbereitschaft für die Durchführung der Verbesserungsmaßnahme befindet. Umweltökonomische Entscheidungsexperimente haben gezeigt, dass die Ausstattung mit Umwelteigentumsrechten zu einer Veränderung der Präferenzen bzw. der Zahlungsbereitschaften für Umweltgüter führt (Bishop und Welsh 1992). Mit der konkreten Ausgestaltung der Umweltrechtezuteilung sind offenbar gleichzeitig Elemente der Zuteilung moralischer Verantwortlichkeit verknüpft, die sich insbesondere auf durch intrinsische Werte motivierte Zahlungsbereitschaften für Umweltgüter auswirken. Boyce et al. (1992) haben beispielsweise gezeigt, dass die Mindestpreise, die Individuen als Entschädigung fordern, wenn sie über die Freigabe von Blauwalen für die Jagd entscheiden können, deutlich höher sind als die Zahlungsbereitschaften derselben Individuen, wenn sie anderen Individuen eine Zahlung leisten können, um diese zur Nicht-Freigabe der Wale zur Jagd zu motivieren.

5.7.4

Besonderheiten bei der Erhebung von Präferenzen für Umweltgüter

Bei der Messung der Zahlungsbereitschaft für Umweltgüter muss berücksichtigt werden, dass Umweltqualität die Charakteristika eines öffentlichen Gutes aufweist, weil von den Umweltentlastungen alle Individuen profitieren (Nicht-Ausschließbarkeit) und weil der Nutzen, den die Individuen aus dieser Umweltentlastung ziehen, nicht durch den gleichzeitigen Konsum anderer Individuen abnimmt (Nicht-Rivalität). Ein wesentliches Ergebnis des vierten Kapitels dieses Beitrags besteht darin, dass die Individuen in dieser Konstellation einen systematischen Anreiz haben, ihre „wahren“ Präferenzen in Form ihrer Zahlungsbereitschaft zu verschleiern. Sie verhalten sich strategisch, weil sie davon ausgehen, dass die Beiträge, welche die übrigen Individuen zur Finanzierung des öffentlichen Gutes und somit zum gemeinsamen Nutzen aufbringen, von ihrem eigenen Beitrag unabhängig sind (Bergstrom et al. 1986). Die These, dass sich Individuen hinsichtlich privater Zahlungen für ein öffentliches Gut in jedem Fall als Trittbrettfahrer verhalten, wurde in den vergangenen Jahren allerdings häufig empirisch widerlegt (Ledyard 1995). Die ökonomische Theorie hat in den vergangenen Jahren auf die vielfältigen Befunde reagiert, dass sich Teile der Individuen nicht als Trittbrettfahrer verhalten und sich kooperativ an der Bereitstellung öffentlicher Güter beteiligen. Trifft man beispielsweise die Annahme, dass die Individuen mit ihrer Zahlungsbereitschaft auch einen privaten Nutzen verbinden, der mit den Begriffen „warm glow of giving“ (Andreoni 1990) oder „purchase of moral satisfaction“ (Kahneman und Knetsch 1992) umschrieben wird, so kann hiermit kooperatives Verhalten erklärt werden. Bedeutsame Ansätze zur Erklärung von kooperativem

698

Roland Menges

Verhalten aufgrund von Ungleichheitsaversion und Fairnessmotiven wurden beispielsweise von Fehr und Schmidt (1999) und von Bolton und Ockenfels (2000) entwickelt. Eine Übersicht über diese Erklärungsansätze mit Bezug zur Theorie öffentlicher Umweltgüter findet sich bei Sturm und Vogt (2011). Derartige nutzungsunabhängige, altruistische oder intrinsische Wertschätzungen stellen die verschiedenen Präferenzerfassungsmethoden allerdings vor bedeutende Probleme (Meyerhoff 2001). Indirekte Erfassungsmethoden wie die Marktpreismethode oder die Reisekostenmethode, die „nur“ auf die Erfassung von Preisen und Mengen abstellen, sind kaum in der Lage, eine von der aktuellen Nutzung unabhängige Bewertung des Gutes vorzunehmen und können andere, subjektive oder zukunftsorientierte Wertvorstellungen nicht reflektieren. Beobachtbare Marktpreise bilden zudem nur die Zahlungsbereitschaft des marginalen Nachfragers ab und erfassen nicht seine gesamte Konsumentenwohlfahrt. Zwar ist nicht immer klar, ob derartige nutzungsunabhängige Werte mehr sind als nur „symbolische“ Präferenzäußerungen, die Individuen in hypothetischen Befragungssituationen äußern, und wie diese im Einzelfall zu interpretieren oder bei umweltpolitischen Entscheidungen zu berücksichtigen sind, allerdings wird der große Vorteil der direkten Erhebungsmethoden darin gesehen, dass sie auch auf zukünftige Probleme und nichtnutzungsabhängige Werte anwendbar sind (Endres und Holm-Müller 1997). Aus diesem Grund spielen direkte Methoden wie die Kontingente Bewertungsmethode als auf die maximale Zahlungsbereitschaft zielende Präferenzerfassungsmethode bei der Bewertung von öffentlichen Gütern im Umweltbereich eine besondere Rolle.

5.8

Kommentierte Literaturhinweise

Die umweltökonomische Lehrbuchliteratur ist in den letzten Jahren stark gewachsen. Die in diesem Beitrag verwendeten Quellen lassen sich grob wie folgt kategorisieren. • Umfassende, mikroökonomisch fundierte Lehrbücher zur Umweltökonomik wurden beispielsweise von Siebert (2010), Endres (2013), Weimann (1995), Sturm und Vogt (2011), Feess (2007) oder Kolstad (2010) vorgelegt. • Darüber hinaus finden sich in finanzwissenschaftlich oder wirtschaftspolitisch angelegten Lehrbüchern in separaten Kapiteln lesenswerte und in sich geschlossene Abhandlungen zu umweltökonomischen Fragestellungen wie etwa der Internalisierung externer Effekte, der Regulierung von anderen Arten von Marktversagen oder der Gestaltung staatlicher Umweltpolitik. Hier seien die Bücher von Zimmermann, Henke und Broer (2012), Blankart (2011), Cansier und Bayer (2003), Brümmerhoff (2011), Frey und Kirchgässner (2002), Wigger (2006) oder Weimann (2006) erwähnt. • Umfassende Abhandlungen, die neben der Umweltökonomik auch den Bereich der Ressourcenökonomik abdecken, wurden beispielsweise von Perman et al. (2011) und Tietenberg und Lewis (2015) vorgelegt.

5 Umweltökonomik

699

• Während die bislang genannten Lehrbuchtexte vorwiegend eine eher allokationstheoretisch geprägte Sichtweise der Umweltökonomik entfalten, finden sich Texte, die der eher interdisziplinär ausgerichteten ökologischen Ökonomik zuzuordnen sind bei Rogall (2008), Bartmann (1996), Costanza et al. (1997), oder Hauff und Kleine (2013). Theoretische Bezüge zu anderen Beiträgen des Kompendiums, z.B. im Bereich der wohlfahrtsökonomischen Grundlagen oder der Diagnose und Regulierung von Marktversagen (etwa bei externen Effekten und öffentlichen Gütern) finden sich in den Texten zur Mikroökonomik (Erlei) im ersten Band und zur Theorie der Wirtschaftspolitik (A. Schmidt) im dritten Band des Kompendiums.

700

Roland Menges

Literaturverzeichnis Ahlheim, M.; Schneider, F. (2002): Allowing for Household Preferences in Emission Trading, in: Environmental and Resource Economics, 21, S. 317-342. Albert (1978): Traktat über rationale Praxis, Tübingen. Andel, N. (1994): Zum Konzept der meritorischen Güter, in: Finanzarchiv, 42, S. 631-649. Andreoni, J. (1990): Impure Altruism and Donations to Public Goods: A Theory of Warm-Glow Giving, in: Economic Journal, 100, S. 464-477. Arrow, K.J.; Solow, R.; Portney, P.; Leamer, E.; Radner, R.; Schuman, H.(1993): Report of the NOAA panel on contingent valuation, Washington Arrow, K. J.; Bolin, B.; Costanza, R. H.; Dasgupta, P.; Folke, C.; Holling, C. S.; Jansson, B.-O.; Levin, S.; Mäler, K.-G.; Perrings, C.; Pimentel, D. (1995): Economic Growth, Carrying Capacity, and the Environment, in: Ecological Economics, 15, S. 91-95, wieder abgedruckt in: Science, 268, S. 520-521. Arrow, K. J.; Fisher, A. C. (1974): Environmental Preservation, Uncertainty, and Irreversibility, in: Quarterly Journal of Economics, 88 (2), S. 312-319. Baumol, W. J. and Oates, W. E. (1971), The Use of Standards and Prices for the Protection of the Environment, in: Swedish Journal of Economics, 73, S. 42-54. Baumol, W. J.; Oates, W. E. (1988): The Theory of Environmental Policy, 2. Aufl, Cambridge. Barde, J.-P. (2000): Environmental Policy and Policy Instruments, in: Folmer, H.; Gabel, H. L. (Hrsg.): Principles of Environmental and Resource Economics, Cheltenham, S. 157-201. Bartelmus, P.; Albert, J.; Tschochohei, H. (2003): Wie teuer ist (uns) die Umwelt? Zur umweltökonomischen Gesamtrechnung in Deutschland, Wuppertal Papers, Nr. 128, Wuppertal Institut für Klima, Umwelt, Energie. Bartmann, H. (1996): Umweltökonomie – ökologische Ökonomie, Stuttgart. Baumgartner, B. (1997): Monetäre Bewertung von Produkteigenschaften auf dem deutschen Automobilmarkt mit Hilfe hedonischer Modelle, in: Marketing-ZFP, 19, S. 15–25. Benkert, W. (2000): Ein Plädoyer für staatliche Zurückhaltung bei der Regulierung von Umweltnutzungskonfliken, in: Bizer, K.; Linscheidt, B.; Truger, A. (Hrsg.): Staatshandeln und Umweltschutz – Perspektiven einer institutionellen Umweltökonomik, Berlin, S. 151-167. Bergstrom, T.; Blume, L.E.; Varian, H.R. (1986): On the Private Provision of Public Goods, in: Journal of Public Economics, 29, S. 25-49. Beyer, G.; Menges, R. (2015): Konsumentenpräferenzen für erneuerbare Energien, in: Herbes, C.; Friege, C. (Hrsg): Marketing Erneuerbarer Energien – Grundlagen, Geschäftsmodelle und Fallbeispiele, Heidelberg, S. 81-110. Bishop, R. C.; Herberlein, T. C. (1979): Measuring Values of Extramarket Goods: Are Indirect Measures Biased?, in: American Journal of Agricultural Economics, 61, S. 926-930.

5 Umweltökonomik

701

Bishop, R. C.; Welch, M. P. (1992): Existence Values in Benefit-Cost Analysis and Damage Assessment, in: Land Economics,. 68, S. 405-417. Blankart, C. (2011): Öffentliche Finanzen in der Demokratie, 8. Auf., München Bolton, G. E.; Ockenfels, A. (2000): ERC – A Theory of Equity, Reciprocity and Competition, in: American Economic Review, 90, 166-173. Boyce, R. R.; Brown, T. C.; McClelland, G. H; Peterson, G. L; Schulze, W. D. (1992): An Experimental Examination of Intrinsic Values as a Source of the WTA-WTP Disparity, in: American Economic Review, 82, S. 1366-1373. Brennan, G.; Buchanan J. M. (1993): Die Begründung von Regeln – Konstitutionelle Politische Ökonomie, Tübingen. Brümmerhoff; D. (2011): Finanzwissenschaft, München. Boadway, R. W.; Wildasin, D. E. (1984): Public Sector Economics, Boston. Bonus, H. (1990): Preis- und Mengenlösungen in der Umweltpolitik, Jahrbuch für Sozialwissenschaften, Bd. 41, S. 343-358. Bonus, H. (2009): Marktwirtschaftliche Umweltpolitikinstrumente, in: Rudolph, S.; Schmidt, S. (Hrsg.): Der Markt im Klimaschutz, Ökologische Wirtschaftsforschung, Bd. 81, Marburg. Buchholz, W.; Schumacher, J. (2009): Die Wahl der Diskontrate bei der Bewertung von Nutzen und Kosten der Klimapolitik, in: Weimann, J. (Hrsg.): Diskurs Klimapolitik, Jahrbuch Ökologische Ökonomik, Bd. 6, Marburg, S. 1-33. Buchholz, W.; Heindl, P. (2015): Ökonomische Herausforderungen des Klimawandels, in: Perspektiven der Wirtschaftspolitik, 16, S. 324-350. Bundesregierung (1976): Umweltbericht 1976 – Fortschreibung des Umweltschutz­ programms der Bundesregierung vom 14.07.1976, Bundestagsdrucksache 7/5684. Cansier, D. (1996): Umweltökonomie, 2. Aufl., Stuttgart. Cansier, D. (1997): Volkswirtschaftliche Grundlagen der Nachhaltigkeit, Tübingen Diskussionsbeitrag Nr. 98, Wirtschaftswissenschaftliches Seminar der Universität Tübingen. Cansier, D. (2004): Umweltschutz und Verursacherprinzip als Ergebnis eines übergreifenden Konsenses, in: Zeitschrift für Umweltpolitik und Umweltrecht, 27, S. 141-165. Cansier D.; Bayer, S. (2003): Einführung in die Finanzwissenschaft, München. Coase, R. H. (1960/1968): The Problem of Social Cost, in: Mansfield, E. (Hrsg.): Readings in Microeconomics, New-York, 1968, S. 359-382, abgedruckt aus: Journal of Law and Economics, 3 (1960), S. 1-44. Cornes, R.; Sandler, T. (1996): The Theory of Externalities, Public Goods and Club Goods, zweite Aufl., Cambridge. Costanza, R. H.; Daly, H. E.; Bartholomew, J. A. (1991): Goals, Agenda and Policy. Recommendations for Ecological Economics, in: Costanza, R. H. (Hrsg.), Ecological Economics: The Science and Management of Sustainability, New York, S. 1-20. Costanza, R.; Cumberland, J.; Daly, H.; Goodland, R.; Norgaard, R. (1997): An Introduction to Ecological Economics, Boca Raton, Florida.

702

Roland Menges

Cummings, R. G.; Brookshire, D. S.; Schulze, W. D. (1986): Valuing Environmental Goods, An Assessment of the Contingent Valuation Method, Totowa. Dilnot, A.; Helm, D. (1989): Energy Policy, Merit Goods and Social Security, in: Helm, D.; Kay, J.; Thompson, D. (Hrsg.): The Market for Energy, Oxford, S. 55-73. Egerton, F. N. (1973): Changing Concepts of Balance of Nature, in: Quarterly Review of Biology, 48, 322-350. Endres, A.; Holm-Müller K. (1997): Die Bewertung von Umweltschäden, Stuttgart. Endres, A; Querner, I. (2000): Die Ökonomie natürlicher Ressourcen: Eine Einführung, 2. Aufl., Darmstadt. Endres, A. (2013): Umweltökonomie, 4. Aufl., Stuttgart. Erdmann, G.; Zweifel, P. (2010): Energieökonomik – Theorie und Anwendungen, 2. Aufl., Berlin. Erlei, M. (1992): Meritorische Güter – Die theoretische Konzeption und ihre Anwendung auf Rauschgifte als demeritorische Güter, Münster. Erlei, M.; Leschke, M.; Sauerland, D. (1999): Neue Institutionenökonomik, Stuttgart. Faucheux, S.; Noël, J.-F. (1995/2001): Ökonomie natürlicher Ressorcen, Paris 1995, Übersetzt aus dem Franzöischen von S. Geisendorf und U. Hampicke, Marburg 2001. Feess, E. (2007): Umweltökonomie und Umweltpolitik, 3. Aufl., München. Fehr, E.; Schmidt, K. M. (1999): A Theory of Fairness, Competition and Cooperation, Quarterky Journal of Economics, 114, S. 817-868. Frey, B. S.: Kirchgässner, G. (2002): Demokratische Wirtschftspolitik, München. Frey, B. S.; Oberholzer-Gee, F. (1996): Zum Konflikt zwischen intrinsischer Motivation und umweltpolitischer Instrumentenwahl, in: Siebert, H. (Hrsg.): Elemente einer rationalen Umweltpolitik : Expertisen zur umweltpolitischen Neuorientierung, Tübingen, S. 207-236. Gawel, E. (2000): Sind Probleme intrinsischer Motivation für die Umweltpolitik relevant?, in: Zeitschrift für Umweltpolitik und Umweltrecht, 23, S. 187-222. Gawel, E. (1996): Neoklassische Umweltökonomie in der Krise?, in: Köhn, J.; Welfens, M. (Hrsg.): Neue Ansätze in der Umweltökonomie, Marburg, S. 45-87. Georgescu-Roegen, N. (1993): The Entropy Law and the Economic Problem, in: Daly, H. E.; Townsend, K. N. (Hrsg.), Valuing the Earth: Economics, Ecology, Ethics, Cambridge, S. 75-88. Gottschalk, I. (2001): Meritorische Güter und Konsumentensouveränität – Aktualität einer konfliktreichen Beziehung, Review of Economic Studies, 52, S. 152-170. Groves, T.; Loeb, M. (1975): Incentives and Public Inputs, in: Journal of Public Economics, 4, S. 211-226. Hackl (2000): Der Wahnsinn der Ökonomie oder der Unsinn der Ökologie – eine epistemologische Analyse, in: Zeitschrift für Umweltpolitik und Umweltrecht, 23, S. 165-185. Halla, M., Schneider, F., Wagner, A. F. (2008): Satisfaction with Democracy and Collective Action Problems – The Case of the Environment, Working Paper No. 0808, Departement of Economics, Johannes Kepler University of Linz, Austria.

5 Umweltökonomik

703

Hauff, M. von; Kleine, A. (2013): Nachhaltige Entwicklung – Grundlagen und Umsetzung, München. Hediger, W. (1997): Elemente einer ökologischen Ökonomik nachhaltiger Entwicklung, in: Rennings, K.; Hohmeyer, O. (Hrsg.): Nachhaltigkeit, Baden-Baden, S. 15-37. Hussen, A. M. (2000): Principles of Environmental Economics – Economics, Ecology and Public Policy, London. Homann, K. (1980): Die Interdependenz von Zielen und Mitteln, Tübingen. Homann, K. (2015): Sollen und Können – Grenzen und Bedingungen der Individualmoral, Wien. Jansen, S.; Priddat, B. (2007): Theorien der öffentlichen Güter: Rekonstruktionen sozialer Konstruktionen – Politik und wirtschaftswissenschaftliche Korrekturvorschläge, in: Jansen, S; Priddat, B.; Stehr, N. (Hrsg.): Die Zukunft des Öffentlichen, Wiesbaden, S. 11-48. Kahneman, D.; Knetsch, J. L. (1992): Valuing Public Goods: The Purchase of Moral Satisfaction, in: Journal of Environmental Economics and Management, 22, S. 57-70. Kaul, I., Grunberg, I.; Stern, M. A. (1999): Global Public Goods – Concepts, Policies and Strategies, in: Kaul, I.; Grunberg, I.; Stern, M. A. (Hrsg.): Global Public Goods – International Cooperation in the 21st Century, New York, S. 450-507. Kirsch, G. (2004): Neue Politische Ökonomie, Stuttgart. Kolstad, C. D. (2010): Environmental Economics, New York. Kopp, R. J.; Pommerehne, W. W.; Schwarz, N. (1997): Determining the Value of NonMarketed Goods, MassachusettS.  Ledyard (1995): Public goods: A survey of experimental research, in: Kagel, J.H.; Roth, A.E. (Hrsg.): Handbook of Experimental Economics, Princeton, S. 111-194. Lesser, J. A.; Dodds, D. E.; Zerbe, R. O. (1997), Environmental Economics and Policy, Reading, Massachusetts. Leveque, F. (1997): Externalities, Collective Goods and the Requirement of a State´s Intervention in Pollution Abatement, in: Carraro, C.; Leveque, F. (Hrsg.): Voluntary Approaches in Environmental Policy, Dordrecht, S. 18-26. Lindahl, E. (1919): Die Gerechtigkeit der Besteuerung, Lund. Liebe, U. (2007): Zahlungsbereitschaft für kollektive Umweltgüter– Soziologische und ökonomische Analysen, Wiesbaden. Lueg, B. (2010): Die Ökonomik des Handels mit Umweltrechten – Umweltökonomische Grundlagen, Instrumente und Wirkungen, Frankfurt a.M. Luhmann, N. (1988): Ökologische Kommunikation – Kann die moderne Gesellschaft sich auf ökologische Gefährdungen einstellen? 2. Aufl., Opladen. McClure, C. (1968): Merit Wants – A Normatively Empty Box, in: Finanzarchiv, 27, S. 474-483. Meadows, D. H.; Meadows, D. I.; Randers; J.; Behrens, W. W. (1972): The Limits to Growth – A Report for the Club of Rome´s Project on the Predicament of Mankind, New York.

704

Roland Menges

Menges, R. (2007): Verteilungs- und Allokationswirkungen energiepolitischer Instrumente, in: Zeitschrift für Neues Energierecht, 11, S. 285-291. Menges, R.; Schroeder, C.; Traub, S. (2005): Altruism, Warm Glow and the Willingnessto-Donate for Green Electricity: An Artefactual Field Experiment, in: Environmental and Resource Economics, 31, S. 431–458. Menges, R.; Traub, S. (2009): An Experimental Study on the Gap between Willingness to Pay and Willingness to Donate for Green Electricity, in: Finanzarchiv, 65, S. 335-357. Meyerhoff, J. (2001):: Nicht-nutzungsabhängige Wertschätzungen und ihre Aufnahme in die Kosten-Nutzen-Analyse, in: Zeitschrift für Umweltpolitik, 24, S. 393-416. Michaelis, P. (1996), Ökonomische Instrumente in der Umweltpolitik – Eine anwendungsorientierte Einführung, Heidelberg. Mill, J. S. (1848/1988): Principles of Political Economy, Vol. II, Faks.-Ausg. der Erstausgabe von 1848, Düsseldorf 1988. Mitchell, R. C.; Carson, R. T. (2005): Using Surveys to Value Public Goods – The Contingent Valuation Method, Washington. Musgrave, R. A. (1959/1966): Finanztheorie, erste Aufl., Tübingen, 1966, dt. Übersetzung von: The Theory of Public Finance, New York, 1959. Musgrave, R. A.; Musgrave, P. B.; Kullmer, L. (1994): Die öffentlichen Finanzen in Theorie und Praxis, 6., aktualisierte Aufl., Tübingen. Myles, G. D. (1995): Public Economics, Cambridge. Myrdal, G. (1933): Das Zweck-Mittel-Denken in der Nationalökonomie, in: Zeitschrift für Nationalökonomie, 4, S. 305-329. Norton, B.; Costanza, R. H.; Bishop, R. C. (1998): The evolution of preferences – Why sovereign preferences may not lead to sustainable policies and what to do about it, in: Ecological Economics, 24, S. 193-211. Olson, M. (1965): The Logic of Collective Action – Public Goods and the Theory of Groups, Cambridge. Ostrom, E. (1999): Die Verfassung der Allemende – Jenseits von Staat und Markt, Tübingen. Pearce, D. W.; Turner R. K. (1990): Economics of Natural Resources and the Environment, New York. Perman, R.; Yue Ma; McGilvray, J. ; Common, M. (2011): Natural Resource and Environmental Economics, 4th. ed, Essex. Pethig, R. (1981): Freifahrerverhalten und Marktversagen in einer privatisierten Umwelt, in: Wegehenkel, L. (Hrsg.): Marktwirtschaft und Umwelt, Tübingen, S. 150-165. Pigou, A. C. (1920/1979): Divergenzen zwischen dem sozialen Nettogrenzprodukt und dem privaten Nettogrenzprodukt, übersetzt und neu aufgelegt in: Siebert, H. (Hrsg.): Umwelt und wirtschaftliche Entwicklung, Darmstadt, 1979, S. 23–38. Pindyck, R.; Rubinfeld, D. (2013): Mikroökonomie, 8. Aufl., München.

5 Umweltökonomik

705

Pfaffenberger, W.; Menges, R. (2008): Steigerung der Energieeffizienz durch dezentrale Strukturen der Energieversorgung im Gebäudebereich: Rahmenbedingungen und politische Maßnahmen, Studie für die Industrie-Initiative für effizienten Klimaschutz, München. Pommerehne, W. (1987): Präferenzen für öffentliche Güter, Tübingen. Pruckner, G. J. (1995): Der Kontingenten Bewertungsansatz zur Messung von Umweltgütern. in: Zeitschrift für Umweltpolitik und Umweltrecht, 18 , S. 503-536. Requate, T. (2001): Zum Zusammenhang zwischen Nachhaltigkeit und Effizienz, in: Franz, W.; Hesse, H.; Ramser, H.-J., Stadler, M. (Hrsg.): Wirtschaftspolitische Herausforderungen an der Jahrhundertwende, Tübingen, S. 399-431. Requate, T. (2005): Dynamic Incentives by Environmental Policy Instruments- A Survey, in: Ecological Economics, 54, S. 175-195. Roberts, R.D (1974): Financing Public Goods, in: Journal of Political Economy, 95, S. 420–437. Rogall, H. (2008): Ökologische Ökonomie – Eine Einführung, Wiesbaden. Samuelson, P. A. (1954): The Pure Theory of Public Expenditure, in: Review of Economics and Statistics, 36, S. 387-389. Sandmo, A. (1995): Public Finance and the Environment, in: Bovenberg, L.; Cnossen, S.  (Hrsg.): Public Economics and the Environment in an Imperfect World, Boston, S. 19-35. Schmidt, T.; Tarkian, T. (2011): Naturalismus in der Ethik – Perspektiven und Grenzen, Paderborn. Schneider, F.; Volkerts, J. (1999): No Chance for Incentive-oriented Environmental Policies in Representative Democracies? A Public Choice Analysis, in: Ecological Economics, 31, S. 123-138. Sen, A. (2002): Ökonomie für den Menschen – Wege zu Gerechtigkeit und Solidarität in der Marktwirtschaft, München. Siebert, H. (2010): Economics of the Environment, 7th. ed, Berlin. Sinn, H.-W. (2008): Das grüne Paradoxon – Plädoyer für eine illusionsfreie Klimapolitik, Berlin. Sinn, H.-W. (2009): Das grüne Paradoxon: Warum man das Angebot bei der Klimapolitik nicht vergessen darf, in: Weimann, J. (Hrsg.): Diskurs Klimapolitik, Jahrbuch Ökologische Ökonomik, Band 6, Marburg, S. 63-108. Steger, U.; Achterberg, W.; Blok, K.; Bode, H.; Frenz, W.; Gather, C.; Hanekamp, G.; Imboden, D.; Jahnke, M.; Kost, M.; Kurz, R.; Nutzinger, H. G.; Ziesemer, T. (2002): Nachhaltige Entwicklung und Innovation im Energiebereich, Berlin. Sturm, B.; Vogt, C. (2011): Umweltökonomik – Eine anwendungsorientierte Einführung, Heidelberg Suchanek, A. (2000): Normative Umweltökonomik, Tübingen. Sudgen, R. (1986): The Economics of Rights, Co-operation and Welfare, Oxford.

706

Roland Menges

Ströbele, W.; Pfaffenberger, W., Heuterkes, M. (2010) : Energiewirtschaft – Einführung in Theorie und Politik, München. Statistisches Bundesamt (2012): Umweltnutzung und Wirtschaft – Bericht zu den Umweltökonomischen Gesamtrechnungen, Wiesbaden. Thaler, R.; Sunstein, C. R. (2011): Nudge: Wie man kluge Entscheidungen anstößt, Berlin, 2011. Tideman, T. N.; Tullock, G. (1976): A New and Superior Process for Making Social Choices, in: Journal of Political Economy, 84, S. 1145-1159. Tietenberg;T.; Lewis, L. (2015): Environmental and Natural Resource Economics, Boston. Tietzel, M.; Müller, C. (1998): Noch mehr zur Meritorik, in: Zeitschrift für Wirtschaftsund Sozialwissenschaften, 118, S. 87-127. Vaubel, R. (1996): Nachhaltigkeitspolitik: Ordnungspolitische Konequenzen und Durchsetzbarkeit – Koreferat, in: Gerken. L. (Hrsg.): Ordnungspolitische Grundfragen einer Politik der Nachhaltigkeit, Baden-Baden, S. 167-172. Verhoef, E. T. (1999): Externalities, in: van den Bergh, J. (Hrsg.): Handbook of Environmental and Resource Economics, Cheltenham, S. 197-214. Wecd (1987): Unsere gemeinsame Zukunft, World Council on Environment and Development (herausgegeben von V. Hauff), Greven. Weimann, J.: (1995): Umweltökonomik – eine theorieorientierte Einführung, Berlin. Weimann, J. (2006): Wirtschaftspolitik – Allokation und kollektive Entscheidung, 4. Aufl., Berlin. Weitzman, M. L. (1974): Prices vS.  Quantities, in: Review of Economic Studies, 41, S. 477-491. Welsch, H. (2008): Environmental Welfare Analysis – A Life Satisfaction Approach, in: Ecological Economics, 62, S. 544-551. Wigger, B. (2006): Einführung in die Finanzwissenschaft, 2. Aufl., Berlin. Wöhe, G. (2010): Einführung in die allgemeine Betriebswirtschaftslehre, 24.  Aufl., München. Zimmermann, K. W. (2000): Internalisierung als Nirwana-Kriterium der Umweltpolitik, in: Bizer, K.; Linscheidt, B.; Truger, A. (Hrsg.): Staatshandeln und Umweltschutz – Perspektiven einer institutionellen Umweltökonomik, Berlin, S. 21-42. Zimmermann, H.; Henke, K.-D., Broer, M. (2012): Finanzwissenschaft, 11.  Aufl., München.

Stichwortverzeichnis

A Adverse Selektion 151, 152, 490 Agenturkosten 151 Aggregation 78 Agrarhandel 460 Airtours-Kriterien 277 Aktivitäten, ähnliche 527 Aktivitäten, komplementäre 527 Alleinbezugsvereinbarung 339, 342 Alleinvertriebsvereinbarung 339 Allgemeines Walrasianisches Gleichgewicht 82, 90, 91, 94, 95 Allokationstheorie 590 Angebotskurve, langfristige 77 Anreizintensitätsbedingung 481, 484 Ansatz, ressourcenbasierter 526 Anschlussgebühr 355 Anti-Dumping-Maßnahmen 443 Arbeitsangebot 45, 47, 48, 89 arbeitsintensive Produkte 411 Arbeitsländer 411 Arbeitsmarkt 88 Arbeitswertlehre 406 Arbitrage 529 Areeda-Turner-Regel 291 Auktionator 83

Ausbeutungsmissbrauch 282 Auslandskonkurrenz 399 Aussagegehalt der Konkurrenzgleichgewichte 99 Ausschließbarkeit 614 Ausschließlichkeitsbindungen 311 –– empirische Evidenz 349 Ausschließlichkeitsvereinbarungen –– experimentelle Evidenz 351 Ausstattung mit Produktionsfaktoren 411 Autarkie 397 Autarkie-Situation 394 Average Incremental Cost 291 Axiome 54

B Beeinflussungsaktivitäten 519 Beeinflussungskosten 519 begrenzte Rationalität 154, 366 Behinderungsmissbrauch 282 Bertrand-Duopol 129 Bertrand-Modell mit asymmetrischen Firmen 222 Bertrand-Modell mit differenzierten Produkten 223

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019 T. Apolte et al. (Hrsg.), Kompendium der Wirtschaftstheorie und Wirtschaftspolitik I, https://doi.org/10.1007/978-3-658-21777-8

707

708 Stichwortverzeichnis

Bertrand-Modell mit Kapazitätsbeschränkungen 226 Bertrand-Paradoxon 143 Beschäftigungsargument 438 Besitz 475 Beste-Antwort-Funktion 205, 214 Bestimmungsgründe des Handels 393 Bestrafungseffekt 324 Best reply mapping 205 blockierter Eintritt 296 Budgetgerade 35 Budgetrestriktion 25, 709 Bundesimmissionsschutzgesetzt 646 Bundling 196 Bürokratie 541

C capabilities approach 526 CETA 465 Ceteris-paribus-Klausel 24 Coase-Conjecture 188, 193 Coase-Theorem 656 Cobb-Douglas-Funktion (CDF) 32 Cobb-Douglas-Nutzenfunktion 42 Cobb-Douglas-Produktionsfunktion 66 Common-Property-Ressource 617 Conduct 170 Cournot-Duopol 129, 130 Cournot-Effekt 315 Cournot-Modell 203 Cournot-Modell mit asymmetrischen Firmen 208 Cournot-Oligopol 134, 210, 445 Cournotscher Prozess 140 Customer Foreclosure 319

D Dienstleistungshandel 460 Dilemmastruktur 122

Dilemmastrukturen 119, 513 direkte Netzwerkeffekte 353 Diskontfaktor 248 Diskriminierungskosten 540 Dividende, doppelte 643 Doha-Runde 461 Doppelte Auktion 101, 103, 104 doppelte Marginalisierung 311, 312, 333 –– empirische Evidenz 345 –– experimentelle Evidenz 350 doppelter Preisaufschlag 311, 312, 333 Downstream 310 Dumping 445 Durchschnittliche Fixkosten 73 Durchschnittliche variable Kosten 73 durchschnittliche Zusatzkosten 291 Durchschnittskosten 73 Durchschnittsproduktivität 62 Durchsetzungskosten 613

E Early Adopters 354 Edgeworth-Box 91 Edgeworth-Zyklen 227 eEffektive Protektion 436 Effekte, externe 550 Effektivität, ökologische 651 Effekt, pekuniärer 637 efficiency without optimality 653 Effizienz, dynamische 649 Effizienzgewinne 262 Effizienz, statische 647 Eigenfertigung 159 Eigennutzannahme 20 Eigentum 475 Eigentum an den Produktionsmitteln 543, 546 Eigentumsrechte 475, 476, 656 Einkommen-Konsum-Kurve 37 Einkommenseffekt 43, 45, 48, 52

Stichwortverzeichnis

Einkommenseffekte 712 Einkommenselastizität 38 Einkommenselastizität der Nachfrage 42 Einnahmeeffekt 428 Einnahmeinstrument 439 Eintrittsabschreckung 297 Eintrittskosten 293 Eliten 561 Emissionen 679 Emissionshandel 690 empire building 109 Endenergieverbrauch 688 End-of-Pipe 590 endogene versunkene Kosten 240 Engel-Kurve 37 entrepreneurial judgement 530 Entscheidungsautorität, zentrale 518 Entscheidungsfindungskosten 540 Entscheidungskompetenz 543 Entscheidungsverfahren, gesellschaftliche 541 Erneuerbare-Energien-Gesetz 692 Erwartungsnutzen 53, 54 Erwartungsnutzenkonzept 54 Erwartungswert-Varianz-Nutzenfunktion 57, 482 Erziehungszoll 439 Essential Facilities 326 Experimente 125 experimentelle Wirtschaftsforschung 172 Exportselbstbeschränkungsabkommen 434, 459 Exportsubventionen 431 extensive Form 113 Externe Effekte 637

F Fairness 21 Fairnesspräferenzen 127 Faktorangebot 45

709

Faktorausstattung 412 Faktornachfrage 79 Faktorpreis-Ausgleichs-Theorem 416 Faktorproduktivität 406 Faktorspezifität 155, 156, 159, 160, 516 Feldexperimente 708 fFair trade 388, 443 Filterung 491 First-Mover Advantage 218 First-Mover-Advantage 138 Fixkosteneinsparung 271 Fokus-Punkt 145 Foreclosure 316 Fortschritt 100 Freihandelsinteressen 451 Fremdbezug 159 Fusionen 260 Fusionen auf Märkten mit Preiswettbewerb 275 Fusionen in Märkten mit Mengenwettbewerb 267

G GATS 460 Gefahrenabwehr 680 Gefangenendilemma 125, 611 Gefangenen-Dilemma 448 Gegenwartswerte 703 Geld 100 Gemeinlastprinzip 682 gemischte Strategien 116, 120 Gesamtumsatzrabatte 292 Gesamtwohlfahrt 264 Gewaltenteilung 538, 561 Gewaltmonopol 538 Gewinnfunktion 233 Giffen-Gut 39, 45 Gleichbehandlung 539 Gleichgewichtspfad 124 Globalisierung 396

710 Stichwortverzeichnis

Gossensche Gesetz 27 Gossensche Gesetz, zweites 35 Gravitationsmodell 396 Grenzerlös 106 Grenzkosten 73, 592 Grenzkostensenkung 272 Grenznutzen 27, 592 Grenznutzen des Geldes 35 Grenzproduktivität 62, 66 Grenzrate der Substitution 30, 66, 70, 674 Grenzrate der Substitution (GRS) 32 Grenzrate der Transformation 674 Grenzschadenskosten 594 Grenzumsatz 106 Grenzvermeidungskosten 593 Grenzwertregulierung 647 grim strategy 511 Grim-Trigger-Strategie 248 Group Pricing 179 Grünes Paradoxon 697 Gruppenanreize 153 Güterangebot 75, 79 Güter, inferiore 37 Güternachfrage 36 Güter, superiore 37 Gut, inferiores 674 Gut, superiores 635

H Haftung 547 Handelseffekt 427 Handelspolitische Instrumente 426 Handelspolitische Instrumente im Vergleich 434 Handelsverflechtungen 389 Hauptsatz 1 der Wohlfahrtsökonomik 96 Hauptsatz 2 der Wohlfahrtsökonomik 96 Hauptsätze der Thermodynamik 588 Haushaltsoptimum 33, 35 Herfindahl-Hirschmann-Index (HHI) 211

herrschende Gruppen 556 Hidden Characteristics 186 Hold-up 157 Hold-up-Problem 495 Homogenitätsgrad 63 Homo oeconomicus 19 Homo oeconomicus als Als-obKonstruktion 22 Homo oeconomicus als Idealtyp 22 Homo oeconomicus als nützliche Approximation 22 Horizontale Differenzierung 421 horizontale Externalitäten 331 horizontaler Zusammenschluss 260 horizontal und vertikal differenzierten Güter 212 Hub-Spoke 252 hybride Organisationsform 159

I Identität 569 Ideologien 569 Immissionen 679 Indifferenzkurve 30, 35 indirekte Netzeffekte 361 indirekte Netzwerkeffekte 353 Individualismus, methodologischer 60 infant-industry-argument 439 Informationen, asymmetrische 149 Informationen, asymmetrische asymmetrische 479 Informationsmengen 114 Informationsökonomik 171 Informationsrente 186 Innovationsanreize 519 Input Foreclosure 319 institutional environment 478 Institutionen 477 Institutionen, formale 477 Institutionengefüge, gesellschaftliches 533

Stichwortverzeichnis

Institutionen, informelle 477 Integration, vertikale 519, 521 Interessengruppen 541, 566 Interlocking Relationship 338 Internalisierung 666 Internationale Handelsordnung 452 internationalern Freihandel 397 international handelsfähige Güter 396 interne und externe Stabilität eines Kartells 253 inter-sektoralerm Handel 392 Intra-sektoraler Handel 392, 421 Investitionen, eigennützige 502 Investitionen, kooperative 502 Investitionen, spezifische 479, 495 Investition, spezifische 516 Isogewinnkurve 215 Isokostengerade 70 Isoquante 62, 63, 64

K Kaldor-Hicks-Kriterium 611 Kalkulationsproblem 531 Kampfpreis 283 Kampfpreise 290 –– empirische Evidenz 307 Kapazitätsbeschränkungen 226 Kapitalangebot 49, 51 kapitalintensive Produkte 411 Kapitalländer 411 Kapitalrechnung 548 Kartelle 244 –– empirische und experimentelle Evidenz 257 Kartellstabilität 250 Klimapolitik 687 Klubgüter 617 Knappheit 19 Kollektivmonopol 245 kollusives Verhalten 244

711

komparative Kostenvorteile 406 Kompensation 659 Kompetenzen, dynamische 526 komplementäre Faktoren 61 Komplemente 41 Konsens 536 Konsequenzen, distributive 599 Konsumentenrente 85, 173, 175, 177, 397, 623 Konsumentensouveränität 633 Konsumentenwohlfahrt 264 Kontingente 433 Kontingentsrente 433 Kontraktkurve 93 Konvexität 29 Konzentration 211, 240, 257, 364 Konzentrationsgrad 240 Kooperationsprinzip 686 Koordination 543 koordinierte Effekte 262, 277 Koordinierte Effekte horizontaler Fusionen 276 koordinierte Effekte vertikaler Zusammenschlüsse 324 koordiniertes Gleichgewicht 325 koordiniertes Verhalten 337 Kopplungsbindungen 196 –– empirische Evidenz 308 Kostenbegriffe 73 Kosten der Marktbenutzung 156 Kosten der Organisationsbenutzung 157 Kostenfunktion 69, 174, 208, 219, 259 Kostenfunktion, kurzfristige 74 Kostenfunktion, langfristige 74 Kostengleichung 69 Kostenunterschiede 397 Kreps/Scheinkman 229, 243 Kreuzgrenzproduktivität 62 Kreuzpreiselastizität der Nachfrage 41, 42 kritische Masse 355 kritisches Konzentrationsniveau 212

712

L Laborexperimente 708 Lagrange-Funktion 34 Launhardt-Hotelling Modell 223 Leistungswettbewerb 282 Lenkungsziel 681 Leontief-Produktionsfunktion 66 Leontief-Test 414 Lerneffekte 440 Lerner-Index 182, 211 Lernerschen Monopolgrad 107 Lernmodelle 128 Liberalisierung 399 Limit Pricing 288 –– empirische Evidenz 307 Lindahl-Preise 627 Local-content-Vorschriften 460 Lock-in-Effekte 354 Loss Aversion 172 Luftreinhaltepolitik 646 Luxusgut 38

M Managerial Slack 109 Marktbezug 521 Markteintritte 135, 283 Marktergebnis 170 Marktgleichgewicht 81 Marktgleichgewicht, langfristiges 86 Markträumung 94 Marktschlieflungseffekte 293, 319 Marktschranken 281 Marktsystem 541 Markttransparenz 251, 259, 337 Marktverschließung 308, 317 –– empirische Evidenz 346 –– experimentelle Evidenz 351 Marktverschließungseffekte 309, 315 Marktzutrittsschranke 241, 288

Stichwortverzeichnis

Marktzutrittsschranken 240, 283 Maßnahmen, hoheitliche 681 Maverickunternehmen 277 Mechanism Design 503 Mechanismus-Design 507 Medianwähler 562, 629 Mehraufgaben-Prinzipal-Agent-Modell 525 Mehraufgaben-Prinzipal-Agent-Theorie 487, 522 Mehr-Güter-Modell 409 Mehrproduktmonopole 195 Meistbegünstigung 453 Meistbegünstigungsklausel 194, 251, 253 Mengenanpasser 26, 60 Mengenrabatt 186 Mengenwettbewerb 130, 202, 205, 214, 222, 224 Mengenwettbewerb mit differenzierten Gütern 212 Mengenwettbewerb mit sequentiellen Entscheidungen 213 mentale Modelle 568 Menue Pricing 184 Merger Paradox 270 Merit-Order-Effekt 692 Meritorische Güter 620 Messkosten 524 Methoden, direkte 706 Methoden, indirekte 705 Methodologischer Individualismus 19 Mindestlohn 89 Minimalkostenkombination 69, 70, 71 missbräuchliche Rabattsysteme 292 –– empirische Evidenz 307 missbräuchliches Verhalten 282 –– experimentelle Evidenz 309 mixed bundling 196 Modelle von Hotelling 230 Modell von Bertrand 219 Modell von Dixit 299

Stichwortverzeichnis

Modell von Salop 234 Monetarisierung 700 Monopol 105 Monopole, natürliche 616 Monopolgleichgewicht 108 monopolistische Konkurrenz 238 monopolistischer Konkurrenz 422 Monopolrenten 446 Monopson 105 moralisches Wagnis 479 moralisches Wagnis in Teams 152 moralisches Wagnis mit versteckter Handlung 149 Multi-Homing 364 multilateralen Liberalisierung 459 Multi-Markt-Kontakte 251, 252 multiple Gleichgewichte 124

N Nachfragedifferenzen 419 Nachfragekurve 39 Nachfragekurve nach Hicks 712 Nachfragekurve nach Marshall 712 Nachfragemacht 251, 252 Nachfrage nach Vermögenstiteln 58 Nachfragepräferenzen 420 Nachfrageunterschiede 397 nachgelagerte Wirtschaftsstufe 310 Nachhaltigkeit 604 Nachsichtigkeit 519 Nash-Demand-Spiel 144, 145 Nash-Gleichgewicht 117, 118, 119, 124, 132, 204 Nash-Verhandlungslösung 496 Natürliches Monopol 110 Naturvermögen 585 Neo-Faktorproportionen-Theorem 415 Netzwerkeffekte 353 Netzwerkgröße 355 neuern Protektionismus 426

713

Neuverhandlungen 498 New Empirical Industrial Organization (NEIO) 171 Nichtdiskriminierung 455 nicht handelsfähigen Güter 396 nichtkoordinierte Effekte 261 nicht-preisliche Koordinationsinstrumente 332 nicht tarifären Einfuhrbeschränkungen 460 Nichtverfügbarkeit 397 Niveauproduktionsfunktion 63 Numéraire 100 Nutzenergieverbrauch 688 Nutzenfunktion 32, 708 Nutzenindexfunktion 31 Nutzentheorie, kardinale 26, 27 Nutzentheorie, ordinale 26, 27, 55 Nutznießerprinzip 683 Nutzungsrivalität 592

O Offenheit des Zugangs zu den Märkten 547 Öffentliche Güter 621 Ökodumping 457 Ökonomische Analyse des Rechts 478, 550 Ökonomische Theorie der Bürokratie 565 Ökonomische Theorie der Verfassung 534, 535 Ökonomische Theorie des Rechts 534 Ökostrom 692 Ökosystem 584 Oligopol –– empirische und experimentelle Evidenz 240 Oligopole 202 Oligopoltheorie 128 One-shot-Spiel 132 Opportunismus 154, 155, 515

714 Stichwortverzeichnis

Opportunitätskosten 593 Opportunitätskosten der Umweltverschmutzung 593 Optimalzoll 439 Optionsvertrag 501 Optionswerte 703 Organisation 558 Organisationen 477 Organisationsformen, hybride 521 Outlets-Effekt 324

P Pareto-dominant 119 Pareto-effizient 119 Pareto-Effizienz 93 Partialanalytisches Außenhandelsgleichgewicht 394 Partialmarktgleichgewicht 82 Partialmarktgleichgewichte 81 Performance 170 Personalized Pricing 174 Pfadabhängigkeit 359 Pigou-Steuer 642 Pigou-Subventionen 682 Plattformmärkte 353, 361 politics as exchange 536 Politik der selektiven Intervention 157 Politische Ökonomie 448 positive oder negative Externalitäten 361 Präferenzen 20, 670 Präferenzerhebung 663 Präferenzoffenbarung 670 Präferenzordnung 28 Preisanalyse, hedonische 705 Preisbildungsprozess 100 Preisbindung 331, 333, 337 –– empirische Evidenz 347 Preisdiskriminierung –– empirische und experimentelle Evidenz 200

Preisdiskriminierung dritten Grades 179 Preisdiskriminierung ersten Grades 174 Preisdiskriminierung, intertemporale 187 Preisdiskriminierung, verhaltensbasierte 194 Preisdiskriminierung, vollkommene 174 Preisdiskriminierung zweiten Grades 184 Preiselastizität 182, 252, 336 Preiselastizität der Nachfrage 39, 42 Preisgarantien 251, 253 Preis-Konsum-Kurve 38 Preis-Kosten-Schere 326 preisliche Koordinationsinstrumente 332 Preisniveaustabilität 549 Preiswettbewerb 202, 219, 222, 223, 224, 225, 228 Preiswettbewerb, sequentieller 227 Primärallokation 653 Primärenergiebedarf 687 Prinzipal-Agenten-Problem 657 Prinzipal-Agent-Problem 479 Prinzipal-Agent-Theorie 149 Prinzip der minimalen Differenzierung 231 private governance 478 Private Güter 616 Privilegienwirtschaft 547, 561 Produktbündelung 198 Produktcharakteristik (siehe Produkteigenschaften) 230 Produktdifferenzierung 234, 235, 237, 238, 422 Produkteigenschaften 230 Produktionselastizität 62 Produktionsfunktion 61 Produktionsfunktion, ertragsgesetzliche 64 Produktionsfunktion, partielle 62 Produktionsmöglichkeiten 407 Produktionssubventionierung 430 Produktvarianten 424

Stichwortverzeichnis

Produktvielfalt 424 Produzentenrente 85, 263, 397 Property Rights-Ansatz 522 Protektionismusargumente 437 Protektionismusinteressen 449 Protestkosten 613 Prozessregeln 540 Public Choice 534 Punishment-Effect 324 purchase of moral satisfaction 713 pure bundling 196

Q Quantal Response Equilibrium 127

R Rabattsysteme 292 Radnaben-Kartelle 252 Raising Rivals Cost 283 Rationalität 125 Rationalität, begrenzte 21, 510, 515, 516 Rationalität, prozedurale 568 Rationalität, prozessuale 21 Rationalität, vollkommene 21 Rationierungsregel 220 räumlich differenzierte Produkte 230 räumlicher Wettbewerb 234 Reaktionsfunktion 205 Reaktionsfunktionen 224 Reallohn 47 Rechtspersönlichkeit 514 Rechtsstaatlichkeit 538 Rechtsstaatsprinzip 539 Rechtstaatlichkeit 533 Reducing Rivals Revenue 283 reduzierte Strategie 115 Regenerationsfähigkeit 620 regionale Handelszusammenschlüsse 464 regionale Integration 463

715

Reisekostenmethode 706 rent-shifting 447 Replikatordynamik 125 Reputationsmechanismen 508, 513 Ressourcenökonomik 599 Restnachfrage 190 Restriktionen 20 Reziprozität 21, 455, 656 Risiko 53 Risikoaversion 56, 482 Risikofreudigkeit 57 Risikokosten 483, 523 Risikoneigungen 56 Risikoneutralität 57 Risikoprämie 56 Rivalität 614 Rubinstein-Spiel 145, 147 Rückwärtsinduktion 190, 214, 231

S Samuelson-Regel 623 Sanktionsmechanismus 277 Schadensersatzregelung 554 Schiedsgerichte 465 Schleier des Nichtwissens 536 Schutzeffekt 427 Schutzgüter 679 Screening Problem 184 Second-best-Lösung 487 Second-Mover Advantage 228 Sekundärallokation 654 Selbstbindung 360 Selbstbindungsmöglichkeit 193 Selbstdurchsetzungsfähigkeit 560 separierendes Gleichgewicht 290 Serviceleistungen 334 Sicherheitsäquivalent 56 Signalisierung 491 Signalisierungsmodelle von Kampfpreisen 287

716 Stichwortverzeichnis

Situationsanalyse 23 Skaleneffekte 424 Skalenelastizität 66 Skalenerträgen 63 Sonderinteressen 559 Sozialstandards 457 spekulative Blasen 104 Spezialisierung 399 Spezialisierungsgewinne 402, 424 Spezialisierung, vollkommene 409 Spiel 113 Spieltheorie 112, 170, 204, 368 Stabilität 83 Stackelberg-Duopol 129, 136, 138 Stackelberg-Folger 215 Stackelberg-Führer 215 Stackelberg-Führungsposition 447 Stackelberg-Unabhängigkeitsposition 446 Standard-Krieg 358 Standard-Preis-Ansatz 652 Standardsetzung 357 Standorte 230 Standortwahl bei gegebenen Preisen 230 Standortwettbewerb bei gegebenen Preisen 230 Statik, komparative 23, 24, 87 Steuerreform, ökologische 643 stillschweigende Verhaltenskoordination 259 Strategie 115 Strategiekombination 116 Strategien 123 strategische Form 113, 116 Strategische Handelspolitik 445 strategische Interdependenz 202 strategische Marktzutrittsschranken 293 Streitschlichtungsverfahren 458 Structure-Conduct-Performance 170 strukturelle Anpassungsprozesse 399 Stufenspiel 246 Subsidiaritätsprinzip 539

Substitute 40 Substitutionseffekt 43, 44, 48, 52 Substitutionseffekte 712 Substitutionselastizität 64 substitutive Faktoren 61 Subventionsausgleichs-Maßnahmen 443 Subventionswettlauf 447 Survivor Approach 241 Synergieeffekte 262 Systemwettbewerb 357

T Take-it-or-leave-it-Angebot 486, 491 tarifäre Handelshemmnisse 426 Tariffication 460 Tâtonnement 83 Tauschgewinn 401 Tauschwirtschaft 90, 91 Teilnahmegebühr 362 teilspielperfektes Nash-Gleichgewicht 122, 126, 136, 214 Teilspielperfektheit 121, 124 Terms of trade 404 Terms-of-Trade-Effekt 428 Textilabkommen 459 Theorie der institutionellen Entwicklung 555 Theorie der Unternehmung 514 Theorie des Politischen Konjunkturzyklus 564 Theorie unvollständiger Verträge 495 Totalanalyse 400, 402 Transaktion 515 Transaktionskosten 265, 476, 552, 556, 661 Transaktionskosten der Marktbenutzung 516 Transaktionskosten der Organisationsbenutzung 518 Transaktionskosten, dynamische 528 Transaktionskostentheorie 153, 514, 522

Stichwortverzeichnis

Translokationskosten 395 Transportkosten 230, 233, 395 Treibhausgasemissionen 687 Treuerabatten 292 TRIMS 460 Trittbrettfahrer 678 Trittbrettfahrerproblem 566 Trittbrettfahrer-Problem 334 TTIP 465 Two-Part Tariff 175 Tying 199

U Überkapazitäten 283, 302 Überschuss- (Export-) Angebots- (EA) und Überschuss- (Import-) Nachfragekurven 394 Überschusskapazitäten 293 –– empirische Evidenz 308 Übertragung von Marktmacht 305 Ultimatumspiel 126 Umwelthaftungsrecht 685 Umweltökonomischen Gesamtrechnung 586 Umweltqualität 593 Umweltschutz 457 Umweltsteuern 641 Umweltzertifikate 653 unilaterale Effekte 261 Unsicherheit 52, 155, 515 Unterinvestitionsproblem 499, 517 Unterlassung 554 Unternehmen 60 Unternehmenszusammenschlüsse 260 Unverzichtbarkeit des Humankapitals 500 Upstream 310

V Variable Kosten 73

717

Variation, äquivalente 711 Variation, kompensatorische 710 Verbrauchseffekt 427 Verdrängungswettbewerb 111 Verfassung 478 Verfassungsökonomik 478 Verfassungsregeln 538 Vergeltungsmaßnahmen 447 Verhalten der Unternehmen 170 Verhaltensökonomik 172, 266, 365, 367 Verhandlungstheorie 143 Verifizierbarkeit 480 Vermächtnismotiv 703 Verteilung der Quote 433 Verteilung, natürliche 536 vertikale Externalitäten 331 vertikale Fusionen 310 vertikale Integration 261 vertikale Restriktionen 332 vertikaler Zusammenschluss 261 Verträge, private 477 Vertragsannahmebedingung 484, 488 Verursacherprinzip 681 volkswirtschaftliche Rente 263 vollkommene Konkurrenz 81 von Stackelberg-Modell 214 vorgelagerte Stufe 310 Vorhersehbarkeit und Stetigkeit der Wirtschaftspolitik 549 Vorsorge 680

W Wanderungsanalyse 706 warm glow of giving 713 Wechselkosten 354 Wechselkurs 404 Wertgrenzprodukt 80 wesentliche Einrichtungen 326 Wettbewerbseffekt 429 Wettbewerbspolitik 549

718 Stichwortverzeichnis

Wettbewerbsprozess 100 Wettbewerbsverhältnisse 397, 420 wiederholte Spiele 246 wiederholtes Spiel 132 Wirtschaftlichkeitsprinzip 539 Wirtschaftsordnung 533 Wissensressourcen 526 Wissensübertragungskosten 527 Wohlfahrt 263 Wohlfahrtseffekte 402 Wohlfahrtsfunktionen 602 Wohlfahrts-(Renten-)Effekt 428 Wohlfahrtsverlust 108, 595

Wohlfahrtswirkungen 397 World Trade Organisation (WTO) 452

Z Zahlungsbereitschaft 659 Zahlungsbilanz-(Handelsbilanz-) Effekt 428 Zahlungsbilanzschutz 439 Zoll 427 Zollabbau 455 zweiseitige Märkte 353, 361 zweiteilige Tarife 175