Selbstorganisation: Jahrbuch für Komplexität in den Natur-, Sozial- und Geisteswissenschaften. Band 9 (1998). Evolution und Selbstorganisation in der Ökonomie / Evolution and Self-Organization in Economics [1 ed.] 9783428496082, 9783428096084

162 90 62MB

German Pages 489 Year 1998

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Selbstorganisation: Jahrbuch für Komplexität in den Natur-, Sozial- und Geisteswissenschaften. Band 9 (1998). Evolution und Selbstorganisation in der Ökonomie / Evolution and Self-Organization in Economics [1 ed.]
 9783428496082, 9783428096084

Citation preview

SELBSTORGANISATION

Jahrbuch für Komplexität in den Natur-, Sozial- und Geisteswissenschaften Band 9

SELBSTORGANISATION Jahrbuch für Komplexität in den Natur-, Sozial- und Geisteswissenschaften Band 9 1998

Evolution und Selbstorganisation in der Ökonomie Evolution and Self-Organization in Economics Herausgegeben von Frank Schweitzer und Gerald Silverberg

Duncker & Humblot · Berlin

Die Deutsche Bibliothek - CIP-Einheitsaufnahme Selbstorganisation : Jahrbuch für Komplexität in den Natur-, Sozialund Geisteswissenschaften. - Berlin : Duncker und Humblot Früher Schriftenreihe Bd. 9. Evolution und Selbstorganisation in der Ökonomie. - 1998 Evolution und Selbstorganisation in der Ökonomie = Evolution and self-organization in economics I hrsg. von Frank Schweitzer und Gerald Silverberg. - Berlin : Duncker und Humblot, 1998 (Selbstorganisation ; Bd. 9) ISBN 3-428-09608-8

Alle Rechte, auch die des auszugsweisen Nachdrucks, der fotomechanischen Wiedergabe und der Übersetzung, für sämtliche Beiträge vorbehalten © 1998 Duncker & Humblot GmbH, Berlin Fremddatenübemahme und Druck: Berliner Buchdruckerei Union GmbH, Berlin Printed in Germany ISSN 0939-0952 ISBN 3-428-09608-8 Gedruckt auf alterungsbeständigem (säurefreiem) Papier entsprechend ISO 9706 @

Inhaltsverzeichnis

Einführung ............ . .......... . .......... . .......... . ........................... . ..

7

Aufsätze I. Methodologische und philosophische Grundlagen

Alan Kirman: Self-Organization and Evolution in Economics .......... . ...............

13

Peter M. Allen: Modelling Complex Economic Evolution. . .. . . . . .. . . . . . . . . . .. . . . . .. .. .

47

Bernd Woeckener: Ökonomische Komplementaritäten, Verhaltenskoordination und volkswirtschaftliche Evolution .....................................................

77

Frank Schweitzer: Ökonomische Geographie: Räumliche Selbstorganisation in der Standortverteilung ........... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

97

Hans- Walter Lorenz: Die Komplexität des Einfachen in der dynamischen Wirtschaftstheorie ............................................................................. 127 Richard E. Schuler: The Economics of Dynamics in Economics ......... . ........ . .... 147 Witold Kwasnicki: Simulation Methodology in Evolutionary Economics ............... 161 Marco Lehmann-Waffenschmidt, Joachim Schwerin: Kontingenz und Strukturähnlichkeit als Charakteristika selbstorganisierter Prozesse in der Ökonomie ............... 187 Malte Faber, Reiner Manstetten: Produktion, Konsum und Dienste in der Natur - Eine Theorie der Fonds .................................................................. 209

11. Wachstum, Konsumption und industrielle Entwicklung

Gerald Silverberg, Bart Verspagen: Economic Growth and Economic Evolution: A Modeling Perspective ............................................................ 239 Uwe Cantner, Horst Hanusch: Industrie-Evolution. . . . . . . . . . . . . .. .. . . . . . . . ... . . . . . . . . .. 265 Robin Cowan, William Cowan, Peter Swann: Interacting Consumers, Extemalities and Waves in Demand .................................................................. 295

6

Inhaltsverzeichnis

Peter Weise: Der Preismechnismus als ökonomischer Selbstorganisationsprozeß

315

Carsten Herrmann-Pillath: Wirtschaftspolitische Steuerung versus institutionelle Selbstorganisation politisch-ökonomischer Systeme: Die Transformation post-sozialistischer Volkswirtschaften. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 333

III. Innovation und technologischer Wandel

Eberhard Bruckner; Werner Ebeling, Andrea Scharnhorst: Technologischer Wandel und Innovation - Stochastische Modelle für innovative Veränderungen in der Ökonomie .......................................................................... 361 fean-Michel Dalfe, Dominique Foray: The Innovation vs. Standardization Dilemma: Some Insights from Stochastic Interactions Models ................................. 383 Georg Erdmann: Was läßt sich aus physikalischen Nichtgleichgewichtsprozesssen bezüglich Innovationsvorgängen in der Ökonomie lernen? .......................... 401 Günter Hesse, Lambert T. Koch: "Saltationismus" versus "Kumulative Variation-Selektion" - Die Entstehung einer Invention als Selbstorganisationsprozeß ............... 417

Edition

Gerald Silverberg I Hans-fürgen Krug: Editorische Vorbemerkung. . . . .. . . . . . . . . . . . . . .. 437 Alfred fames Lotka: The Law of Evolution as a Maximal Principle .. . . . . . . . . . . . . . . . . . .. 443 Briefwechsel zwischen Alfred James Lotka und Wilhelm Ostwald. Herausgegeben und kommentiert von Hans-fürgen Krug. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . .. 467

Buchbesprechungen

W. Brian Arthur, Steven N. Durlauf, and David A. Lane (eds.), The Economy as an Evolving Complex System 11 (GeraId Silverberg) .................................. , 475 Paul Krugman, The Self-Organizing Economy (Andrea Scharnhorst) . . . . . . . . . . . . . . . . . .. 481 Frank Schweitzer (ed.), Self-Organization of Complex Structures: From Individual to Collective Dynamics (Ludwig Pohlmann) .......................................... 483 Autorenverzeichnis .................................................................... 487

Einführung Durch die stünnische Entwicklung der Selbstorganisations- und Komplexitätstheorie hat die Frage nach der Evolution und Selbstorganisation in der Ökonomie in den vergangenen Jahren neue Impulse erhalten. Allmählich setzt sich die Erkenntnis durch, daß die Ökonomie eher durch Nichtgleichgewicht, eingeschränkte Rationalität, Intera~tion und Prozessualität charakterisiert ist als durch Gleichgewicht und Stationarität, vollkommene Rationalität, repräsentative Agenten und vollkommene Konkurrenz. Leider ist diese abstrakte Erkenntnis allein nicht ausreichend, um eine eingefahrene Wissenschaft zu reformieren und voranzubringen. Schließlich hat schon Marshall gegen Ende des 19. Jahrhunderts auf den letztlich evolutionären Charakter der Ökonomie hingewiesen, ohne daß dies zu nennenswerten Konsequenzen für die Weiterentwicklung dieses Faches geführt hätte. Offensichtlich war die Zeit dafür noch nicht reif. Allerdings hat sich die Situation in den letzten zwanzig Jahren grundlegend gewandelt. Dafür lassen sich im wesentlichen drei Gründe anführen. Ein Grund liegt in der Entwicklung der Naturwissenschaften, die - ob zu Recht oder nicht - nach wie vor eine Vorreiterfunktion für das methodologische Selbstverständnis der Sozialwissenschaften einnehmen. Die Naturwissenschaften haben sich in zunehmendem Maße den Fragen der Selbstorganisation und Evolution auf den verschiedensten Gebieten zugewandt. Sie haben nicht nur durch formale Einsichten, die etwa die Beziehung zwischen Zufall und Notwendigkeit, zwischen stochastischen und deterministischen Modellansätzen erhellen, einen Paradigmenwechsel vollzogen, sondern sie haben auch ein Instrumentarium bereitgestellt, mit dem sich derartige Probleme behandeln lassen. Dies betrifft beispielsweise die Nichtlinearitäten, denen früher mit herkömmlichen mathematischen Methoden nicht ohne weiteres beizukommen war. Die Erkenntnis, daß die Nichtlinearität der grundlegenden Interaktionen von essentieller Bedeutung ist, um komplexe Muster in Zeit und Raum entstehen zu lassen, hat zu entscheidenden Fortschritten bei der Entwicklung von analytischen Methoden und Simulationstechniken geführt, so daß heute dem Forscher eine Vielfalt von Ansätzen zur Behandlung komplexer Systeme zur Verfügung steht. Ein zweiter Grund für die gewandelte Situation liegt in den realen Geschehnissen der Zeitgeschichte, die gerade in der Ökonomie zu einer Revidierung von allzu selbstzufriedenen Ansichten geführt haben. Ölkrise, Asienkrise, Beschäftigungskrise - sie alle haben nur zu schmerzlich die scheinbare Unvermeidlichkeit von Konjunkturschwankungen wieder ins Bewußtsein gerückt, nachdem während der 50er und 60er Jahre das Ende der Konjunktur und die Ära des stabilen Wachstums-

8

Einführung

pfades heraufbeschwört worden waren. Spekulative Exzesse, Verschuldungskrisen, der Transformationsprozeß der ehemals sozialistischen Länder, wieder aufklaffende Einkommensungleichheiten auf nationaler und internationaler Ebene und die Umweltproblematik haben das Ihre dazu beigetragen, ein auf Paretooptimalität und Dr. Pangloss basierendes Weltbild in Frage zu stellen. Und drittens zeigt der unbändige technische Fortschritt, daß unsere Welt von ständigen Neuerungen geprägt wird, die schwer oder unmöglich vorherzusehen und zu kontrollieren sind. Während wir uns subjektiv des Eindrucks nicht erwehren können, daß wir in einem Zeitalter von noch nie dagewesenen technischen Umwälzungen leben, weisen aber gleichzeitig die Produktivitätsdaten eine lange nicht mehr bekannte Schwäche auf. Das Zusammtreffen dieser Faktoren, negativer wie positiver, macht nun endlich den Weg frei für die Rezeption einer ganz neuen und methodologisch stimmigen Vorgehensweise in der ökonomischen Theoriebildung. Ausgehend von den vereinzelten Ausbruchsversuchen dies- und jenseits des Atlantiks in den 70er Jahren, etablieren sich allmählich Methoden, werden in einer Vielzahl von Arbeiten Ergebnisse erzielt, die sich zu einem neuen wissenschaftlichen Bild der Ökonomie zusammenfügen. Das Anliegen des vorliegenden Bandes ist es, in einem nicht zu technisch angelegten Überblick die Breite dieser neueren Entwicklung darzustellen. Den Schwerpunkt bilden dabei die Forschungen von vorwiegend in Europa arbeitenden Wissenschaftlern, wobei dem deutschen Sprachraum ein besonderes, aber nicht ausschließliches, Gewicht beigemessen wurde. Der Band gliedert sich in drei Teile, von denen der erste sich mit methodologischen und philosophischen Grundlagen befaßt. Hier werden prinzipielle Fragen nach der Selbstorganisation und Evolution in der Ökonomie und nach ihrer Anwendbarkeit aufgegriffen. Alan Kirman eröffnet den Band mit einem Überblick, der sowohl die neuere ökonomische Literatur als auch die dogmengeschichtliche Hintergründe umfaßt. Die Betonung liegt dabei auf den zwei zentralen Themen Interaktion und Organisation, vor allem im Rahmen von rigoros untersuchten analytischen Modellen. Peter Allen entwickelt dieses Thema weiter in die Richtung von "complex economic evolution", basierend auf offenen Prozessen mit möglicherweise unbegrenztem kreativen Potential, die man vorwiegend mit Hilfe von Simulationen untersucht. Bernd Woeckener grenzt dann das Thema etwas ein, indem er ausführlicher die zentrale Rolle von Koordinationsproblemen und Komplementaritäten behandelt. Dabei zeigt er, daß bei zunächst nicht verwandt erscheinenden Problemen, wie Technikwahl einerseits und Beschäftigungsniveau anderseits, ähnliche Grundstrukturen auftreten können und daß der Stochastik eine Schlüsselrolle bei deren Verständnis zukommt. Schließlich greift Frank Schweitzer Fragen der räumlichen

Einführung

9

Selbstorganisation am Beispiel der ökonomischen Geographie auf und demonstriert anhand von Computersimulationen die Herausbildung und raum-zeitliche Entwicklung von Standortverteilungen. Nachdem in diesen breiter angelegten Übersichten die Hauptthemen dargelegt worden sind, kommen die folgenden Beiträge auf wichtige Teilaspekte wieder zurück. Hans-Walter Lorenz und Richard Schuler befassen sich mit der Anwendung von deterministischen dynamischen Systemen in der Ökonomie, wobei die beiden Beiträge sich ergänzen, indem sie unterschiedliche Probleme mit durchaus verschiedenen Einschränkungen behandeln. Witold Kwasnicki widmet sich dann dem verwandten Thema der computergestützten Simulationsmethodologie und vermittelt dem Leser den aktuellen Stand bis hin zu "artificiallife"-Modellen. Marco Lehmann-Waffenschmidt und Joachim Schwerin holen uns aus dem Himmel der freien Modellspielereien zurück auf dem Boden der Geschichtsphilosophie, indem sie das Verhältnis von Kontingenz und Struktur untersuchen, vor allem im Hinblick auf die Erklärung von Industrialisierungsprozessen. Der erste Teil des Bandes schließt mit der Abhandlung von Malte Faber und Reiner Manstetten, die die Ökonomie nun wieder in die Natur, wie alle anderen lebendigen Prozesse auch, einbetten wollen und damit einen Bogen zur Selbstorganisation in der Biologie schlagen. Der zweite Teil des Bandes enthält Beiträge, die jeweils auf eine spezifische ökonomische Problemstellung ausführlicher eingehen. Das Wirtschaftswachstum ist das Thema von Gerald Silverberg und Bart Verspagen, die aufzeigen, wie eine Vielzahl von Komponenten, die im ersten Teil zur Sprache kamen, auch hier Anwendung finden. Mit ihren Ergebnissen werfen sie ähnlichen Fragen auf wie LehmannWaffenschmidt und Schwerin in ihrem Beitrag. Auch Uwe Cantner und Horst Hanusch greifen auf dieses Instrumentarium zurück, um Evolution auf der Industrieebene zu behandeln. Insbesondere gehen sie dem Verhältnis von formal-analytischer Theorie einerseits und empirisch-deskriptivem Wissen anderseits nach. Robin Cowan, William Cowan und Peter Swann wenden sich in ihrem Beitrag einem Gebiet zu, das bisher von der Evolutionstheorie sträflich vernachlässigt worden ist, der Konsumption. Ausgehend von der Beobachtung, daß das Konsumverhalten auch durch das soziale Umfeld geprägt ist (Konformismus, Nachahmung, Differenzierung), entwickeln sie ein Selbstorganisationsmodell mit vielfältigen dynamischen Implikationen. Peter Weise beschäftigt sich in seinem Kapitel ebenfalls mit der klassischen Relation zwischen Produktion und Konsumption und geht der Frage nach, inwieweit die Preis- und Wettbewerbsmechanismen zusammen einen Selbstorganisationsprozeß darstellen. Der zweite Teil schließt mit einem Beitrag von Carsten Hermann-Pillath, der das überaus aktuelle Thema der Transformation der ehemals sozialistischen Länder aus dem Blickwinkel der institutionellen Selbstorganisation behandelt. Der dritte Teil des Bandes befaßt sich mit dem nunmehr klassischen Ausgangspunkt der evolutorischen Ökonomik, dem Problem von Innovation und technolo-

10

Einführung

gischem Wandel - allerdings unter Zuhilfenahme einer weiterentwickelten Methodik. Eberhard Bruckner, Werner Ebeling und Andrea Scharnhorst betonen einen Zugang über die Mastergleichung, um Innovations- und Diffusionsprozesse stochastisch zu behandeln. Dieser Ansatz ist in diesem Zusammenhang gegenüber dem "Polya-urn"-Ansatz von Arthur vergleichsweise wenig verbreitet, ermöglicht aber in vielen Fällen sehr aufschlußreiche Aussagen über Innovationsvorgänge. JeanMichel Dalle und Dominique Foray wenden den verwandten "Markov random fields"-Ansatz an, um die Spannung zwischen Innovation und Standardisierung zu erhellen. Georg Erdmann vergleicht die Ergiebigkeit von physikalisch motivierten Gleichgewichts- und Nichtgleichgewichtsperspektiven in bezug auf Innovationsvorgänge in der Ökonomie. Schließlich gehen Günter Hesse und Lambert T. Koch in ihrem Beitrag auf die zumeist ausgeklammerte Problematik der Entstehung von Neuerungen ein, wobei die Frage untersucht wird, inwieweit der evolutionäre Ansatz auch auf der kognitiven Ebene fruchtbar angewandt werden kann. Unser Band wird durch die Edition und Buchsprechungen ergänzt. In der Edition drucken wir den 1945 erschienenen, aber relativ schwer zugänglichen Aufsatz von Alfred J. Lotka The Law of Evolution as a Maximal Principle nach. In der Aufregung um neue Forschungsergebnisse wird häufig übersehen, daß es schon Jahre vorher Arbeiten gab, die wichtige Grundgedanken nicht etwa nur vage vorweggenommen, sondern sehr präzise umrissen haben. Wie am Beispiel von Lotkas Schrift deutlich wird, enthalten diese Arbeiten oftmals sogar Anregungen, weisen auf Zusammenhänge hin, die unserer Zeit noch um einiges voraus sind. Insofern ist es immer wieder von Nutzen, wenn die Forschergemeinschaft für einen Augenblick von der neuesten Literatur Abstand nimmt und statt dessen Gelegenheit bekommt, bahnbrechende Arbeiten von vor 50 Jahren erneut zu würdigen. Auch Lotkas Verhältnis zu seinem Lehrer Wilhelm Ostwald, der im Jahrbuch Selbstorganisation schon mehrmals Gegenstand einer Edition war, ist von nicht geringem historischen Interesse. Der Band schließt mit drei ausführlichen Besprechungen von wichtigen Neuerscheinungen zum Thema "Evolution und Selbstorganisation in der Ökonomie". Dadurch wird nochmals unterstrichen, daß die kritische Schwelle zu einer eigenständigen Forschung in dieser Richtung auch in der Ökonomie bereits überschritten worden ist. Frank Schweitzer (Berlin) und Gerald Silverberg (Maastricht)

I. Methodologische und philosophische Grundlagen

Self-Organization and Evolution in Economics By Alan Kinnan, Marseille

I. Introduction The idea that a large collection of interacting objects can produce behaviour at the aggregate level which could not be thought of as corresponding to some blown up version of individual behaviour is far from new. What is newer is the idea that such systems may tend to organize themselves and, perhaps more, that there may be common features of that behaviour in many, apparently very different, types of system. Thus features of the behaviour of collections of neurons may share properties with air masses and with social systems. It is the "emergence" of organisation and the associated aggregate features that is emphasised by the founders of what has come to be known as the science of "complexity". Among the leading exponents of what might loosely be called complexity theory are Anderson, Gell-Mann, and Kauffman, all of whom are dosely identified with the Santa Fe Institute. Two collections of papers applying these ideas to economics have appeared (Anderson 1 et al. (1988) and Arthur2 et al. (1997». Krugman 3 (1996) presents a simple and dear account of the basic notions. Many of the features of interaction mentioned are what have been referred to as extemalities, the fact that the behaviour of some individuals has direct consequences for others. Such extemalities are typically thought of as "market imperfections" whereas the main argument of this paper is that they should be considered as central and not marginal. The first substantial plea for taking extemalities more seriously was that of Schelling4 (1978). He argued that in the presence of extemalities there rnight be many equilibria of the economic system some of which rnight be highly unsatisfactory from a collective point of view. The more recent work on 1 P. W Andersonl K.l. Arrow I D. Pines (1988), eds, The Economy as an Evolving Complex System, Santa Fe Institute Studies in the Sciences of Complexity. Redwood City, CA: Addison-Wesley. 2 WB. Arthur (1997), "Asset Pricing Under Endogenous Expectations in an Artificial Stock Market", in: The Economy as an Evolving Complex System 11, edited by W.B. Arthur / S.N. Durlaufl D. Lane, Santa Fe Institute Studies in the Sciences of Complexity, Proc. Vol. XXVII. Reading, Mass: Addison Wesley, pp. 1 - 30. 3 P. Krugman (1996), The Self-Organizing Economy, Cambridge, MA: Blackwell. 4 T.c. Schelling (1978), Micromotives and Macrobehavior, Norton, USA.

14

Alan Kirman

complexity puts less emphasis on the notion of equilibrium in the classical sense and more more weight on the idea of the economy as an evolving, open-ended system. Hayek's ideas of the emergence of order bear a resemblance to the sort of ideas considered here. The other important related thread running through the economic literature is the "evolutionary approach". Here the interest is in the coIlective result of a situation in which myopic individuals with limited comprehension and rationality grope their way forward. This sort of idea discussed by Nelson and Winter5 (1982) is clearly related to the view of the economy as having self organising properties. One of the standard criticisms of this approach has been that the analysis was not rigorous but the strong recent interest in evolutionary game theory, (see Samuelson6 (1997), Vega-Redond0 7 (1997) and Weibull8 (1997)) reveals that this sort of approach has now penetrated into areas which could hardly be accused of being less than analytically rigorous. I will not attempt to expound the basic ideas of complexity theory and self organisation since these are also dealt with at length elsewhere in this volume. I will confine myself to explaining how these ideas playa role in developing economic theory. There are two essential things to examine: how the organisation of the interaction between the individuals and the component parts of the system affects aggregate behaviour and how that organisation itself appears. The purpose of this chapter is to look at these two aspects of economic systems. The first question is of particular interest in the economic context since organisation is rarely considered directly in economic models. The basic model underlying most modem economic analysis remains the General Equilibrium model. This model seems to have the great merit of considering all markets as interdependent and having a weIl defined equilibrium notion. The essential feature of the model is, from the point of view of this paper, that only one type of organisation is considered and, even that consideration is implicit. Yet more and more dissatisfaction is expressed with this model. It should be said at the outset that the model is not as its originators intended it to be. From Adam Smith and his "invisible hand" to Walras, economists had in mind a complicated interactive system in which individuals acting in their own interest came to organise themselves. Contrary to the purified form of the model, they did not have in mind any centralised price determining system. Prices themselves are part of the organisation of the system and where those prices come from is a necessary part of the explanation of economic activity.

5 R. Nelson/S. Winter (1982), An Evolutionary Theory of Economic Change, Harvard U. Press, Cambridge, Mass. 6 L. Samuelson (1997), "Evolutionary Games and Equilibrium Selection", MIT Press, Cambridge, Mass. 7 F. Vega-Redondo (1997), "The Evolution of Walrasian Behaviour", in: Econometrica, Vol. 65, No.2 (March), pp. 375 - 384. 8 J. W Weibull (1996), Evolutionary Game Theory, MIT Press, Cambridge, Mass.

Self-Organization and Evolution in Economics

15

11. Institutions and their emergence

Interaction between agents in an economy does not take place only through prices but takes many forms. Furthermore, it is institutions that, to a large extent govern the nature of eeonomic interaetion. Eeonomists have tended to treat the problem of institutions, their importance and origins, with mistrust sinee there is little "theory" involved. Onee again, it is clear that this is not tme of all eeonomists and indeed the development of the New Institutional Eeonomics (for an overview of the sort of analysis involved see Drobak & Nye 9 , (1997)) shows clearly that eertain economists now take institutions and organization seriously. The economic theorist still has difficulty with these approaches since they involve a mixture of analysis, data, and historical evidence. The rigour is not of the same level as that involved in the axiomatie approach. However, it seems to me that pushing the institutional aspeets of the economy into the centre may weIl be a good way to get some new insights into how eeonomies actually work. The major contribUtlon to economic thought made by North, (see e.g. North lO (1990)), can be thought of as having put institutions back on the economie map. North is at pains to explain that closer analysis of institutions is essential to an understanding of the evolution of eeonomies, whilst neoclassieal economie theory tends to foeus on timeless and frictionless transactions. He suggests therefore that institutional analysis is an appropriate way of using some of the lessons from neoclassical economic theory in economic history but does not go on to suggest that theory itself might need to be substantially modified in the light of the institutional considerations that he raises. His emphasis is on the constraints and ineentives provided by institutional organisation. Yet what I suggest here is that onee one takes, as he does, institutional development to be endogenous, then eeonomie theory itself has to be modified. Rather than simply look at the constraints imposed by institutions and then apply standard theory within those constraints it seems to me better to develop a theory which eneompasses the emergenee of those eonstraints. What is important is the coevolution of insitutional eonstraints and the reaetion of individuals to them. The fundamental difference is as to the speed at which things change. One ean think, as we generally do in economics, of institutions as being given and then look at how individuals function within those institutions. Then the idea is that the institutions themselves evolve over time but that this is somehow slower than the adaptation of the individuals. An alternative approach is to think of the institutions as providing a set of constraints and that individuaIs Iearn how to behave within these. However, as this Ieaming takes pIace, the mIes eonstantIy adapt and the individuaIs have to reIeam 9 J. Drobak & J. Nye (1997), eds, The Frontiers of the New Institutional Economics, Academic Press. New York. IO D. North (1990), Institutions, Institutiona1 Change & Economic Performance, Cambridge Univ. Press, Cambridge, UK.

16

A!an Kirman

in consequence. In other words, the institutions do not provide a set of fixed constraints during the period of learning by the agents but these constraints themselves evolve simultaneously. There is no particular reason to believe that this process will terminate at any particular set of constraints. As Kaufmann 11 (1995) emphasises, the system may be an open-ended one with no natural equilibrium notion. III. Economics and Sociology

This view of the functioning and evolution of institutions is familiar in sociology. In that discipline a great deal of emphasis is put on the networks in which individuals are "embedded", (see e.g. Granovetter 12 •13 (1985 and 1997) and White 14 (1981)). An important idea is that most economic mechanisms are a mixture of formal and informal rules or "conventions". The latter are thought of asO emerging as a result of the network structure of the society in which the particular economic mechanism and the individuals who operate within it are situated. This approach has been adopted by Baker 15 (1984) in his study of a major securities exchange and by Abolafia 16 (1996) in his analysis of the Chicago Commodities Exchange. What Baker shows is that the volatility of options prices is dependent on the type of network structure in a market and Abolafia examines how informal rules emerge, are tested, and are consequently modified. What is important is that aggregate behaviour is affected by the reaction of individuals to the rules goveming organisation and, if that aggregate behaviour becomes unacceptable, rules are modified to influence individual behaviour and thereby to stabilise market outcomes or to render them more equitable. The evolution of rules against "insider trading" and the re action of the markets to the silver trading episodes of the 1980s are examples of this coevolution. An important feature here is that the way in which markets are organised allows differential access to information. Whilst models with asymmetric information are widespread in economics little attention is paid to the origins of that asymrnetry. This argument can be extended to defend the idea that markets cannot be insulated from social structure because different social relationships will result in informational asymmetries, for example, which will provide some parties with benefits and leave others at a disadvantage. S. Kauffman (1995), At Horne in the Universe, Oxford University Press, Oxford. M. Granovetter (1985) "Economic action and socia! structure: the problem of embeddedness", American Journal oi Sociology 91: 481 - 510. 13 M. Granovetter (1997), Society and Economy: The Socia! Construction of Economic Institutions. Harvard University Press, Cambridge, Mass. 14 Harrison White (1982), Identity Contro!: A Structura! Theory of Socia! Action. Princeton Univ. Press, Princeton, New Jersey. 15 W.E. Baker (1984), "The Socia! Structure of Nationa! Securities Market", American Journal oi Sociology AJS Vo! 89 No 4, pp. 775 -88!. 16 M.Y. Abolafia (1996), Making Markets: Opportunism and Restraint on Wall Street, Haryard Univ. Press, Cambridge, Mass. 11

12

Self-Organization and Evolution in Economics

17

All of this should lead economists to view sociologists with a more sympathetic eye since they have typically regarded networks of various sorts in society as being of great importance in determining how society behaves. However they have, in general, explicitly rejected what has come to be regarded as the "ultra rational" behaviour attributed by economists to the individuals in society. Thus from their point of view the derivation by economists of the characteristics of aggregate situations from the rational behaviour of isolated individuals is at odds with the network approach. Two things then seem to separate the approach of the economists from that of other social scientists. Firstly, there is the lack of any organisational structure and secondly there is the assumption of complete rationality. This is of course much too simplistic a description of the relative situation. It is not true that economists have not been preoccupied with the sort of sociological considerations which seem to be absent from many modem theoretical models. One only has to think of the Weberian theory of organisation, the Austrian view of the economy as a process rather than considering equilibrium states, the Williamson approach to the theory of the firm and to transaction costs, to cite but a few important examples. However, what is more interesting is that the originators of the modem general equilibrium model, Walras and Pareto, were both preoccupied with the problem of how markets were organized and how people behaved towards each other within them. What appears to us now as the simple standard Walrasian model in which anonymous individuals are faced by some fictitious auctioneer who announces prices to them is not at all the vision that Walras hirnself had. This has been pointed out recently by Walker 17 (1996) who actually shows that the auctioneer does not appear in Walras ' writings. This figure has emerged as theoretical economists have tried to make the basic equilibrium model rigorous. Walras himself was considerably preoccupied by the problem of how agents might call out prices and how these might be adjusted and what was the nature of the market within which they were doing this. Thus for hirn the organizational structure of market interaction was very important and furthermore he was interested in knowing how markets might evolve from positions out of equilibrium. As, unfortunately, we came to realize that there was little hope of studying these sort of dynamics within the context of the standard model, adjustment and stability have taken a back seat. Pareto devoted the latter part of his working life to the study of sociological problems and although his work has faded from popularity in sociology he spent at least as much time on these considerations as on economics. He emphasized the way in which society was organized and his strong views on this have sometimes led hirn to be considered as having had fascist leanings. Thus paradoxically although Pareto's reputation amongst economists now rests on a small part of his most technical contributions much of his notoriety during his lifetime was due to 17

UK.

D.A. Walker (1996), Walras's Market Models, Cambridge University Press, Cambridge,

2 Selbstorganisation. Bd. 9

18

Alan Kinnan

his concern for those aspects of society which have been erased from most economic models. In addition to his concern for social structure Pareto was also interested in explaining the apparently "irrational" behaviour of econornic agents. He seemed to be somewhat schizophrenic on this subject, imposing on the one hand highly structured preferences on individuals in their economic choices while on the other hand explaining that some other logic governed their choices in other aspects of their lives. He even went as far as to say that "Whoever wants to make a scientific study of the social facts has to take account of reaIity and not of abstract principles and the like... In general, men act in an iIIogical way, but they make believe that they are acting logically"

Thus Pareto hirnself was much more in tune with an approach which would appeal to sociologists than have been his economist successors. Of course if we accept a more sociological view of the economy, we are faced with a standard but, nonetheless important, difficulty. Which part of the system can be considered as exogenous and which can be thought as endogenous. Social ties also have their "raisons d'etre". However, at some point, one is obliged to limit the environment within which one works. But if one limits the scope too much then models become so "partial" that they lose any general relevance. Indeed, as mentioned, it was his dissatisfaction with the scope of econornics that motivated Pareto's work on sociology. Ideally, one would like to have an explanation as to how social networks emerge, that is how the whole system organises itself. But even the problem of how economic links emerge is difficult and has received little systematic treatment. If one has no general model to explain the emergence of organisation, then the economist is faced with a basic difficulty. This difficulty, is that it is hard to find a basic common model which can be conditioned on each organizational structure. Indeed, it was precisely this that Pareto found frustrating when he was looking for a global explanation of social phenomena. So far I have noted that economists and other social scientists differ in the way that they view organisation. It is perhaps useful at this point to use Scott'sl8 (1995) c1assification of theories of organization to situate economists' view of the role of organizational structure. Scott defines three approaches, the "regulative", the "normative" and the "cognitive". He argues that economists are primarily concemed with the first of these. The idea is that much of the rational maxirnising behaviour may be retained and that the institutional framework merely provides the appropriate constraints. Thus, in some sense, the economist simply imposes more structure on the constraint system under which the individuals operate but does not change the conceptual framework. He argues that this is the approach adopted by North~9 (1990) when he says" 18 19

W Scott (1995), "Institutions & ürganizations", Sage Publications, London. North ibid.

Self-Organization and Evolution in Economics

19

"[Institutions] are perfectly analogous to the rules of the game in a competitive team sport. That is, they consist of formal written rules as weil as typically unwritten codes of conduct that underlie and supplement formal rules ... the rules and informal codes are sometimes violated and punishment is enacted. Therefore, an essential part of the functioning of institutions is the costliness of ascertaining violations and the severity of punishment. (North 20 1990, p. 4)"

Williamson's work, (see e.g.Williamson and Ouchi 21 (1983), might also be thought of as falling into this category though the distinction between hierarchies and markets would lead some to contest this. The "normative" approach invokes the idea that there are norms or standards which are internalised by individuals and which constrain them. This makes a distinction between mere rules or laws and the moral legitimation of those rules. Many econornists such as Sen seem to me to have adopted this attitude when discussing problems of inequality, ethics and poverty. However they frequently examine the charateristics of particular allocations or situations rather than looking at the organizational underpinnings which sustain them. The "cognitive" approach is interesting because it considers both individual identities and instiutions as emergent in the sense that they are defined within the system. This means that not only the goals but the preferences of agents are socially shaped. It is not a major step to think of recent work by Young 22 (1993) and others on the evolution of conventions and norms as falling into this category. IV. The Evolution of Economic Theory

Although much of the previous discussion concerns institutions it is important to explain why they are so absent from the central economic paradigm. Since the turn of the century econornic theorists have prided themselves on providing a rigorous and intellectually coherent framework within which to study the central problem of economics, that of the allocation of scarce resources. The original approach to this problem characterized in the work of the marginalists and culminating in that of Walras and Pareto was to look for particular allocations, or states of the economy which would satisfy properties of consistency and of "social desirability". The basic problem of economic theory has become to study and characterize the "states" of an economy. Depending on the particular problem at hand the econo20 D. Nonh (1990), Institutions, Institutional Change & Economic Peiformance, Cambridge Univ. Press, Cambridge, UK. 21 O. Williamson & W Ouchi (1983), "The Markets and Hierarchies Programme of Research: Origins, Implications and Prospects", in: A. Francis, 1. Turk and P. Willman (eds), "Efficiency and Institutions: A Critical Appraisal 0/ the 'Markets and Hierarchies' Paradigm H, London: Heinemann. 22 H.P. Young (1993), "The Evolution of Conventions", Econometrica, Vol 61, No I (January) pp. 57 - 84.

2*

20

Alan Kirman

mist may be interested in a detailed description of some part of the economy or may simply wish to examine some highly aggregate variables. At the most general level we might be interested in specifying everything about the allocation and activity of every agent in the economy. This was the lofty ambition of general equilibrium theory. At the other end of the spectrum we might simply be interested in the number of people "out of work" or the "inflation rate". Theoretical microeconomists have typically been interested in the first problem and have been preoccupied since the early 1900's with, for example, the existence and efficiency of the competitive equilibrium of a fully specified economy. No "organization" or specification of interpersonal re1ationships is assumed. The consistency of allocations in the sense that what individuals receive is just what they desire is achieved by an anonymous price system which all agents take to be given. Thus there is no need for any specification of the relationships within the economy, the only way in which agents communicate is through the price system. Indeed in order to pursue their analysis economists have stripped away all the institutional details and structures which were still very much present in the work of both Walras and Pareto and even more so in the work of Marshall. In particular economists have focused on the assumptions about individual characteristics and resultant behaviour which will ensure achieving an "equilibrium outcome". This is, of course, a very static view of economics but even when looking at economic dynamics economists have concentrated on looking at "steady states" or equilibrium growth paths. One might weIl enquire as to how economists have reached this position. A neat and c1ear explanation of the development of economic theory in this century would be that it was essentially dominated by the analytical methods of c1assical mechanics and that physics triumphed as a model for economics. If one reads Nelson and Winter23 (1980) two reasons are given for looking at an economic paradigm based on biology rather than physics. Firstly one can take explicit account of change and secondly one can do away with the dependence, at the individuallevel, on optimisation. If this is indeed the motivation for adopting a more biological approach one has only to ex amine the development of economic theory to see why its basic model, that of Arrow and Debreu, is inconsistent with its aims. It suffices to examine the evolution ofthe standard model to see why this should be so. It has, by now, become almost a commonplace to assert that economics in its formal mode has modelled itself on c1assical mechanics. For a long while this was regarded as having been an almost subconscious process. However, Ingrao and Israel 24 (1990) speIl out, in detail, the relationship and emphasise the conscious adoption of a certain number of concepts from physics. Mirowski 25 goes further and says: 23 R. Nelson I S. Winter (1982), An Evolutionary Theory of Economic Change, Harvard University Press, Cambridge, Mass. 24 B. IngraodlG. Israel (1990), "The Invisible Hand", MIT Press, Cambridge, Mass. 25 P. Mirowski (1991), More Heat than Light.

Self-Organization and Evolution in Economics

21

"The dominant school of economic theory in the West, which we shall call neo-cIassical economics, has in the past often been praised and damned by being held up to the standard of physics. However, in my little epiphany, I realized that no one had ever seriously examined the historical paralleis. Once one starts down that road, one rapidly discovers that the resemblances of the theories are uncanny, and one reason they are uncanny is because the progenitors of neocIassical economic theory boldly copied the reigning physical theories in the 1870s. The further one digs, the greater the realization that those neocIassicals did not imitate physics in a desultory or superficial manner; no, they copied their models mostly term for term and symbol for symbol, and said so".

Thus what Mirowski and many others are saying is that the physical metaphor triumphed in economics, at least until very recently. Such a view with the evidence of the dependence of economics on the notions of optimisation and equilibrium is wholly consistent with the fact that biological or evolutionary metaphor in economics virtually disappears between Marshall's death and 1970. Hodgson26 (1995) finds seven works in economics between 1914 and 1970 with "evolution" or "evolutionary"in the title. As Shove in his article cited by Harcourt 27 , (1992) on the occasion of the centenary of Marshalls death remarks: "There was areturn to mechanical as opposed to the biological approach"

in mainstream economics after Marshalls death. To quote Hodgson 28 (1993): "From 1914 to 1970 the very idea of economic biology" was, - with peripheral exceptions - dead".

After this, it might be argued, various authors, frustrated by the rigid framework imposed by variants of the Arrow-Debreu model, started to move back to the biological view. There seems therefore to be an open and shut case that explains the dissociation of economics, or at least mainstream economics, from the evolutionary tradition. This is, unfortunately much too simple a view of what has happened both in economics and in biology. Firstly, Hayek systematically used evolutionary arguments to justify the emergence of social order. Although far from being regarded as a neoclassical economist in the normal sense it is curious that he maintained that the emergence of the market system was a result of evolutionary forces operating not only on individuals' behaviour but also on rules and social structure. His view of the result as optimal would, of course, be contestable from a strictly evolutionary standpoint. Yet within the mainstream also optimising behaviour has repeatedly been justified in economics as the result of adaptive behaviour or of natural selec26 G.M. Hodgson (1993), Economics and Evolution: Bringing Life Back into Economics, Polity Press & University of Michigan Press, Cambridge, UK and Ann Arbor (MI). 27 G.c. Harcourt (1992), Marshall's "Principles" as Seen at Cambridge Through the Eyes of Gerald Shove, Dennis Robertson and Joan Robinson, in: On Political Economists and Modern Political Economy: Selected Essays of G. C. Harcourt. Edited by C1audio Sardoni. Routledge, London arid New York, pp. 265 -77. 28 Hodgson ibid.

22

Alan Kirman

tion. Friedman's29 (1953) remarks are so weIl known that it is not worth repeating them here. Though the logical objections to his position are clear, they reflect a widely held view. Alchian developed this reasoning and argued that natural selection would engender optimising behaviour. If this is the case, many economists have argued that one might as weIl take the short-cut of assuming complete rationality and studying the equilibria that would arise. Thus, Harry Johnson 30 (1968, p. 5) states without qualification: "it has been shown ... that whether firms consciously seek to maximize profits and minimize costs or not, competition will eliminate the inefficient firms; and that whether consumer behaviour is rational or purely random, the demand curves for a product will tend to slope downwards as in the Marshallian analysis. In consequence, it is possible for economists to treat the economy as an interdependent system responding to change according to certain general principles of a rational kind, with considerably more confidence than appeared justifiable thirty years ago."

What Johnson is saying is that the system has properties which are not dependent on the specific behaviour of individuals.The basic argument is not quite that which those who work on complex systems today would be comfortable with. Johnson is arguing that the system as a whole has a rationality of the same order as as individual rationality. Thus the aggregate order that emerges is somehow as if the system was behaving like a large optirnising individual. The idea of self organisation on the other hand, is rather that the behaviour of the system may be qualitatively different from the behaviour of an individual. Johnson's argument is extremely simple and is close to the position held by Friedman since he argues that the role of selection elirninates the inefficient or unfit individuals. Thus for Johnson selection takes place at the level of the individual and order emerges as a result of this. This is related to the argument advanced recently by Lucas 31 (1988) when he said, "In general we view or model an individual as a collection of decision rules (rules that dictate the action to be taken in given situations) and a set of preferences used to evaluate the outcomes arising from particular situation-action combinations. These decision rules are continuously under review and revision: new decisions are tried and tested against experience, and rules that produce desirable outcomes supplant those that do not. I use the term "adaptive" to refer to this trial-and-error process through which our modes of behaviour are determined."

This is a step beyond Johnson's position since Lucas is simply arguing that individuals learn to "optimise" and is not going on to suggest that the system will then 29 M. Friedman (1953), "The Methodology of Positive Economics", in: Essays in Positive Economics, University of Chicago Press, Chicago, pp. 3 - 43. 30 H. Johnson (1968), "The Economic Approach to Social Questions", Economica, 35, pp. 1 -21. 31 R. Lucas (1988), "Adaptive Behaviour and Economic Theory", Journal 0/ Business, vol 59, pp. S401-S426.

Self-Organization and Evolution in Economics

23

behave like one of these individuals. However, he then goes on to argue that this learning process does not really have an impact on aggregate outcomes since, "Technically, I think of economics as studying decision mies that are steady states of some adaptive process, decision mies that are found to work over a range of situations and hence are no longer revised appreciably as more experience accumulates."

Thus the difference between the approach of many econornists who rely on standard theory and those who argue for a biological style of analysis, is one concerning the stability of the adjustment to equilibrium and the speed of that adjustment. The basic tenet of those who concentrate on equilibrium is that the individuals in an economy learn or are selected relatively rapidly to behave optimally and that the econornic environment changes sufficiently slowly so that in the resulting situation they have no need to continue to learn. This contrasts with the contention of authors who, like myself, hold the view that the economy is a complex adaptive system and that the very process of learning and adaptation and the feedback from the consequences of that adaptation generate highly complicated dynamics which may well not converge to any standard econornic equilibrium. However what is clear is that adaptation and selection have not been absent from economic theory except in the most rigorous general equilibrium models. They were used as a means of justifying the assumption of complex optimisation by econornic agents rather than as an alternative to that optimisation. It is also true that such a position was not left unchallenged even in its earlier stages. Winter 32 (1962) took issue with Friedman and said: "There is then a basic difficulty in the existing statements of the selection argument, a difficulty which is rooted in the fact that the relative deviations from profit maximization of different firms may change through time. Since there has been no careful treatment of the dynamic process by which some patterns of behavior are shown to be viab1e and others nonviable, it has escaped notice that firms cannot in general be unambiguously ranked in terms of their closeness to maximising behavior. Such a ranking must, in general, presume a particular state of the environment, but the environment is changed by the dynamic process itself."

At the same time biologists have advanced the idea that individual organisms may evolve optimising behaviour and, paradoxically, the proponents of such an approach draw explicitly on econornic models. An excellent example of this is Stephens and Krebs 33 (1986) study of foraging behaviour. They set about explaining how the foraging behaviour of certain animals is optimal with respect to a certain objective function such as average energy gain. They take the physical morphology of the animal as given and look at different choices of objective function although 32 S. Winter (1962), "Economic 'natural selection' and the theory of the firm", Yale Economic Essays, 4, pp. 225 - 72. 33 D. W. Stephens I J.R. Krebs (1986), "Foraging Theory", Princeton University Press, Princeton N.J.

24

Alan Kirman

these presumably should be regarded as proxies for reproductive fitness. Again, the question arises as to the relative speed of adaptation. The agument seems to be that since the animal or plant's behaviour is optimal given its morphology then one can somehow conclude that the morphology has evolved to allow the organism to exploit it optimally. This, of course, does not follow logically. Whatever the merits of the optimisation approach in biology it is interesting to note that two of its leading proponents, Stephens and Krebs 34 (1986), state clearly that evolutionary biologists, like many economists, suffer from "physics envy". They say: "Many evolutionary biologists want their subject to be more like classical physics: they long for its precision, its lawfulness, its internal consistency, its generality and its parallel powers of explanation and prediction".

Thus the opposition that economists often see between a biological and a physical approach is not as clear as it might seem. Whatever their motivation for tuming their attention to problems of evolution and self organisation, economists find it hard to move away from notions of optimisation. Indeed the fundamental question posed by many economists, when adopting an evolutionary stance, is the following. Does natural selection lead to optimisation? In particular what is it that is being optimised? Put in the terms of the theme of this chapter one could rephrase the question. Does the system organise itself so that individual behaviour becomes an optimal response to the resultant environment and is the collective result efficient in some sense? Once again the economist focuses on optimisation, efficiency and on an equilibrium. Hayek, despite his apparent differences with the standard Neo-Classical approach, nevertheless concluded that the market system was, in some sense, "optimal". North 35 (1990) talks of "efficient institutions". But once again we are back to the same problem, optimal or efficient with respect to what? There is a strong, if not overriding, tendency in economics to ignore the idea that the environment for economic agents is very much produced by the behaviour of the other agents.The major exception to this is game theory in which the constraints with which individuals are faced are explicitly given by the strategies of the other players.

V. Individual Behaviour and Aggregate Outcomes

One of the principal themes of the self organisation approach is that aggregate outcomes may be very different from those that might be predicted by looking at the behaviour of individuals in isolation. In fact many economists are preoccupied 34

Stephens / Krebs ibid.

D. Nonh (1990), Institutions, Institutional Change & Economic Performance, Cambridge Univ. Press, Cambridge, UK. 3S

Self-Organization and Evolution in Economics

25

with highly macro economic problems, those of unemployment, inflation, growth etc. The theoretical and mathematical basis of macroeconomic studies was always thought of as being less satisfactory than that of microeconomics. There was a long tradition of theoretical macroeconomists which posited the existence of simple relationships between highly aggregated variables. The modern "time series" approach might be thought of as still in this spirit. In such an approach, contrary to that of self organisation, or of evolution, one is content to consider macroeconomic relations without worrying about microeconomic explanations at all. However, what macroeconomists have hoped to achieve has been a justification of these relationships at the same level of rigour as that developed in the Arrow-Debreu model. How was this to be done ? The obvious way of justifying the macro relationships they developed was by having recourse to optimizing behaviour at the level of the individual. However, this poses a whole series of problems. Without going into details here it seemed that the only way for them to do this was to use the notion of a "representative individual". This idea of representing a society by an exemplar is a tradition dating back to Plato. In doing this the idea is that one can throw away all the organisational structure that might exist in the economy and reduce it to the behaviour of a typical economic agent. This gives rise to the whole problem of whether or not an economy does, in fact, behave like an individual. The difficulty of fitting the behaviour of the aggregate economy to the behaviour of a representative indivual is notorious and the well known results of Sonnenschein36 (1972), Mante1 37 (1974) and Debreu 38 (1974) from general equilibrium theory show why this is the case. What is not allowed for in this approach is the fact that aggregate behaviour may indeed be very different from that of individuals. The difference may, in large part, be due to the complex interaction between individuals which has been assumed away.Yet, it is precisely the latter that produces interesting properties at the aggregate level. Sudden, large changes in aggregate variables as a result of small changes in individual variables cannot be easily explained without recourse to the underlying interaction between individuals. These observations will seem completely irrelevant to sociologists or political scientists whose atttention is frequently focused on the structure of relationships in society and the consequences of that structure for aggregate behaviour. We come back again to the idea that the main thing wh ich distinguishes most pieces of economic theory from their sociology counterparts is that they do not take account of the way in which the economy is organized. To be more precise I be1ieve that we should really focus on the direct relationships between the various 36

H. Sonnenschein (1972), "Marke! Excess Demand Functions", Econometrica, vol 40,

pp. 549 - 563.

37 R. Mantel (1974), "On the Characterisation of Aggretate Excess Demand", J of Econ Theory vol 7, pp. 348 - 353.

38 G. Debreu (1974), "Excess Demand Functions", J of Mathemiatical Economics voll, pp. 15 - 23.

26

Alan Kinnan

actors in the economy. My contention will be that taking these into account will enable us to get a much more satisfactory characterization of aggregate behaviour, even the sort of behaviour which usua11y interests macroeconomists. Two aspects of the direct relationships are of fundamental importance; the structure of the links between the individuals and the way in which they use them. It is unreasonable to suppose that the complicated organization of an economy is irrelevant to the evolution of the aggregate variables of that economy. The laUer will depend inevitably on various particular features of the comrnunication and trading structure. As Lucas39 (1988) said: "Applications of economic theory to market or group behaviour require assumptions about the mode of interaction among agents as weIl as about individual behaviour".

If we take the view that economists are in general interested in some aggregate phenomena and would like to be able to establish some simple relationships between aggregate variables then we may ask the question as to whether they can do this without worrying about the organizational structure of the economy. There are two possibilities. Either that, given the organization of the economy, we can specify the simple aggregate relationships that interest the economist, or, and this seems more likely, we have to invoke the organizational arrangements directly. In other words, we may not be able to derive simple macroeconomic relationships even when we are fu11y aware of the structure of interactions within the economy. These are not the only possibilities. We may be able to achieve some level of aggregation and thus avoid having to look at the changes in the states of a11 the individuals in the economy. Applied microeconomists do this already by examining the behaviour of households rather than of individuals. For many purposes firms are regarded as entities although they are, in fact, complicated systems with their own internal organization. Economists rarely look, in applied studies, at comrnodities which are highly disaggregated. Fruit and vegetables would already be considered as a rather fine c1assification and to refine this further to look at oranges and apples independently would be regarded as extremely microeconomic analysis. Thus, we are in the habit of dealing with aggregation in a rather adhoc manner. In any event, the important thing here is that we cannot simply ignore market organizational structure when we are looking at macroeconomic relations.

What should be c1ear from the above is that for many purposes economists are only interested, if at a11, in organisation al structure, in so far as it impinges on macroeconomic evolution. I suspect that one of the reasons that sociologists and anthropologists find economics alien is that they are interested in organizational structure and relationships for their own sake and that they regard these features as being central to their interests. Economists tend to treat many of the problems involved as entailing "externalities" or "imperfections". Given that we have to take 39 R. Lucas (1988), "Adaptive Behavior and Economic Theory", J. Business 59, pp. 5401 - 5426.

Self-Organization and Evolution in Economics

27

organization and structure into account I will begin by suggesting ways of looking at these features and give some examples to show why they may have an impact on macroeconomic outcomes. Let me, just for amoment, go back to the general equilibrium model. The basic structure is very simple. Agents act in isolation and are linked only through the price system. Slightly more formally this means that agents react to signals, in this case the price system, but do not take into account the actions or reactions of the other agents in the economy. When the actions of the agents are compatible we have an equilibrium. In other words, in a simple market economy, the price signals yield behaviour of the individuals which just c1ears all the markets., If we take the adjustment process into account then there is a simple feedback from the actions of individuals to market prices. The latter adapt when the market is not in equilibrium and do not change when it is there. This simple remark already goes beyond what we can actually prove formally but lies behind the idea of the "invisible hand" invoked by Adam Srnith. Without any additional specification all that we can prove is that such an equilibrium exists and we can say nothing, except in extreme cases, about the stability or indeed the uniqueness of such an equilibrium. The only way of getting round this is to impose more structure on the economy. One approach has been to avoid any imposition of org'anizational structure and to make assumptions about the distribution of agents' characteristics. This goes beyond the scope of the original general equilibrium framework and is an intermediate path between allowing arbitrary distributions of characteristics satisfying some general conditions and reducing the distribution to one point which is what one does when one assumes that there is a "representative agent". The idea here would be to be able to say something about the evolution of econornies without worrying about their communicational structure. I think that it is more desirable to take the approach that I have suggested and to see whether one cannot find some way of looking at the evolution of organizational structure as being part and parcel of the econornic process. In saying this I am of course corning c10se to the sort of argument that Hayek40 (1989) made. However, even Hayek, despite the fact that he argued for an open and evolutionary approach came to the conc1usion that the market was in some sense an optimal or equilibrium solution to the allocation problem. The basic argument of this chapter is that the sort of economic activity that emerges in an economy will be conditioned by the interaction between agents. The networks through which that interaction is organised play an important role. The ultimate goal should be to look at the economy as a system in which the networks, (the distinction between networks, hierarchies and markets is somewhat artificial), and the econornic activity they engender coevolve.

40 F. von Hayek (1989), "Spontaneous ('grown' order and organised ('made') order" in: N, Modlovsky (ed), Order - With or Without Design?, London: Centre for Research into Communist Economies, pp. 101- 23.

28

Alan Kirman

VI. Global and Anonymous Interaction

Perhaps the simplest first approach to taking interaction and consequent self organisation into account is to consider the following sort of situation. The state of the economy is described by the states of all the individuals and the individuals respond to some statistic or signal which summarises the whole state of the economy. Such a signal is often referred to as a "field variable".41 It might be, for exampie, some average such as the number of people or firms who have adopted a particular technology by time t. In this case, once one knows how individuals will react to the field variable then the evolution of the state of the economy over time can be captured by the evolution of the field variable. The reason for reacting to the proportions of individuals who have already adopted a technique is usually the presence of some sort of positive extemality. If most firms have adopted P.c.s then the advantage of purchasing Macintoshes diminishes, since new employees are likely to be familiar with pc.s and more software is likely to be available for them. This has been modelled by Arthur42 (1989) and David43 (1985). Arthur used generalised Polya um schemes to show how "lock-in" to inferior techniques might occur. The basic idea here is that the adoption is stochastic rather than deterministic, that is the prob ability of adopting a strategy depends positivelyon the proportion of firms who have already adopted it. Nevertheless, eventually, the system converges to a situation where one technique takes over the industry. A number of "social leaming" models have this sort of structure although the resulting "equilibrium" may vary widely. (see e.g. Ellison and Fudenberg 44 ,45 (1993 and 1995), Aoki 46(1995) and Brock and Durlaut7 (1995) who give a number of other exampIes). Particular case of field variables are the prices in a Walrasian model and the price distributions in the Diamond 48 (1971) type of search model. In this sort of model buyers know the distribution of the prices of an article but do not know 41 See M. Aoki (1996), New Approaches to Macroeconomic Modelling for a comprehensive analysis of the use of field variables in determining the relationship between micro and macro behaviour. Cambridge University Press, Cambridge, UK. 42 WB. Arthur (1989), "Competing Technologies, Increasing Returns, and Lock-in by Historical Events", Econ J. IC, pp. 116 - 31. 43 P. David (1985), "Clio and the Economics of QWERTY", Amer Econ Rev. ProC. 75 pp. 332 - 337. 44 G. Ellison/D. Fudenberg (1993), "Rules ofThumb for Social Learning", J. Pol. Econ. 101(41) pp. 612 - 643. 45 G. Ellison/D. Fudenberg (1995), "Word of Mouth Communication and Social Learning", Quart J Econ, 110: pp. 93 - 125. 46 M. Aoki (1995), "Economic Fluctuations with Interactive Agents: Dynamic and Stochastic Externalities", The Japanese Econ. Rev. 46: pp. 148 - 165. 47 WA. Brock/S. Durlauf (1995), "Discrete Choice with Social Interactions I: Theory", Working Paper 95-10-084, Santa Fe Institute, Santa Fe, N.M. 48 P. Diamond (1971), "A Model of Price Adjustment", J. Econ Theory, vol 3, pp. 156158.

Self-Organization and Evolution in Economics

29

which store charges which price. Thus they react to the distribution which itself changes as seIlers react to the behaviour of the buyers and the equilibrium is a fixed point of this adjustment In a situation in which individuals are drawn randomly against each other to playa one shot game, the signal would be the proportions of players playing each strategy. Thus in the standard "prisoners' dilemma" it is enough to know the proportions of players playing cooperate to know whether to cooperate or defect. Of course, here I have just avoided a crucial problem. Either players are reflecting on what the other players are doing faced with last period's situation or they are simply responding to the proportions that they observed last time around. One could even go further and argue that agents are completely rigid and have fixed strategies and that from time to time players die and are replaced by new ones. The strategies of the new ones would typically be more like1y to be ones that were successful in the past. In each of the last two cases the question is will the system organise itself into a situation corresponding to the equilibrium of the first situation in which agents were indulging in the full introspective process? This brings us straight back to the evolutionary approach.

VII. Evolutionary Game Theory

Many economists object to evolutionary games because in many of the standard models individuals maximise nothing. Nevertheless evolutionary game theory provides a very good basis for exarnining the analogy between biological evolutionary models and evolutionary models in economics since its terms are spelled out carefully and the analysis is usually rigorous. The general model has an underlying game with a strategy set which is usually time independent and finite. It also has individuals who are identified with the strategies. At any point the state of the system will be defined by the proportions of the various strategies in the population. Individuals can either be thought of as having a success which is measured by their expected pay-off against the current population or alternatively strategies are drawn at random in pairs from the current population. and play against each other. The success of a particular strategy in a large population will then be the same as the expected value of any individual identified with that strategy. A first step is to examine situations which are "stable" in some sense. The criterion used here is typically that of being "evolutionarily stable" which simply means that the existing strategy profile is invulnerable to a small invasion by another strategy. The lauer is often referred to as a "mutation". This is the stability notion that has achieved a certain measure of success in biology since the pioneering work of John Maynard Smith. However the focus here is on the robustness of an equilibrium. What about the dynamics of the process? Now think of the game as being played and let some of the individuals "die" and be replaced at each step. There is a "selection criterion" which determines how fast the strategies will expand as a function of their success. Since the laUer is

30

Alan Kirman

measured with respect to the payoffs received by the strategies, any distinction between what is being consciously maximised and what constitutes "fitness" is done away with. There is little point in giving here an account of the results that have been obtained in analysing the so-called "replicator dynamics" which is the standard way in which to tackle the problem. What is done in that case is to analyse the evolutionary process as a deterministic one and often, in addition, to make it a continous time one. Hofbauer and Sigmund49 (1988) is the classic reference and Weibu1l 5o (1996) gives a full treatment of this approach. He discusses in detail the dynamics of such processes. The problem boils down to analysing the properties of a system of ordinary differential equations. The basic result is that, in the long run, only iteratively strictly undominated strategies will survive. In particular if we consider doubly symmetric games in which the pay-off matrix faced by all the players is the same then the asymptotically stable strategies of the replicator dynamics are the same as the evolutionarily stable strategies of the underlying game. Furthermore the population's average fitness increases over time. All of this, it seems to me, should ring various alarm bells for those who think of economic change as evolutionary. Somehow many of the features of evolution seem to have been dispensed with. The blind gradual stochastic groping of the evolutionary process has given way to something much more mechanical and deterministic. It is worth asking two questions at this stage. Is the approximation of the stochastic system of random matching by a deterministic system harmless ? What happens if there are mutations all the time ? The answer to the first question is given by Boylan 51 (1995). He analyses a simple game in which two agents are matched and produce two offspring. He shows that, depending on how one takes the limit to obtain the continuous deterministic system the results may be very different. This provides a salutary waming against the simple use of a deterministic approach to analyse evolution. The ans wer to the second question raises some new issues. What are mutations in this context? How often do they occur ? In the view of Binmore and Samuelson52 (1997) one can think of a basic adjustment process which is from time to time perturbed by some mutation. What they mean by this is a random switch of strategies. Now in this case we can look at the "stationary distribution" which will describe the proportions of time that the system will spend in each state. State here will mean the vector of the shares of each strategy. Thus if, in a simple coordina49 J. Hojbauer & K Sigmund {l988), The Theory of Evolution and Dynamical Systems. Cambridge University Press, Cambridge, UK. 50 J. Weibull (1995), Evolutionary Game Theory, MIT Press, Cambridge, Mass. 51 R.T. Boylan (1995), "Continuous Approximation of Dynamical Systems with Randomly Matched Individuals", J 0/ Econ Theory; 66(2), pp. 615 - 25. 52 K. Binmore / L. Samuelson (1997), "Evolutionary Drift and Equilibrium Selection", Else Discussion Paper, University College London.

Self-Organization and Evolution in Economics

31

tion game there is agreement on one outcome, in a deterministic framework the system will not move away from that solution. However, if one adds random mutations, the system will eventually move away to another solution. The delay may be very long but it will eventually happen. Thus Binmore and Samuelson talk of the "ultralong run" as being relevant for this stationary distribution. The idea is basically that in the long run the system may settle to some state but in the ultra long run it may still shift from state to state. Such an interpretation of mutations is not necessary. They might consist of experimentation. If individuals, for example thought that, by experimenting, they could move the system to a superior state they might occasionally try to do so. A~ternatively, players may simply make "mistakes" from time to time. These last interpretaions are difficult to reconcile with the idea that individuals are "hardwired" for certain strategies but could be replaced by the idea that from time to time actors are replaced by new actors. The important question here is, do the mutations change the very long run characteristics of the system? Kandori, Mailath and Rob 53 (1993) and Young 54 (1993) seem to show convincingly that they do in models in which agents choose their strategies. Here, to remain close to the models which were biologically inspired, ass urne that individuals can choose from time to time but when they do so they choose the "best response" in the existing situation. C1early if the system is near a strict Nash equilibrium the distribution of strategies will converge and will not move again if there are no mutations. Thus any such equilibrium could be a resting point of the process. Furthermore for other evolutionary processes the system could cycle. Yet Kandori Mailath and Rob and Young show that the introduction of "mutations" change the situation radically. The idea is to introduce a small probability c that an agent will choose a strategy other than the best one. Now they let c go to zero and show that the limit stationary distribution will put zero weight on some equilibria. Thus they select out certain equilibria. This seems to be encouraging since it suggest that in the very long run the system will spend essentially all of its time in the equilbrium states that have been selected. The intuition is clear. If a system needs a burst of mutations to get it out of one equilibrium A but a much bigger burst to get it out of B then as mutations become less and less frequent the probability of being in A will go to zero. Yet this has been challenged recently by Bergin and Lipman 55 (1996). They suggest that the defect ofthe previous argument is that the mutation rate is not allowed to be state dependent. If certain states are "better" than others would there not be less experimentation from those ? Take the following simple coordination game

53 M. KandoriiG. J. Mailath/ R. Roh (1993), "Learning, Mutation, and Long Run Equilibria in Games", Econometrica, Vol61 No 1 January, pp. 29 - 56. 54 P. Young (1993), "The Evolution of Conventions", Econometrica, Vol 61, pp. 57 - 84. 55 J. Bergin/B.L. Lipman (1996), "Evolution with State-Dependent Mutations", Econometrica, Vol 64 pp. 943 - 956.

32

Alan Kirman A

B

A

(2,2)

(0,0)

B

(0,0)

(1, I)

Now the state of the system can be characterised by the number of the N players playing A. It is c1ear that if less than one third of the players are playing A and all players can choose at each point then with no mutations the system will jump to the state 0 and stay there. It will jump to the state N from any state above N /3. Thus the N x N transition matrix P for this problem will have a very special form. However we could now add epsilons to make P strictly positive and the resulting matrix M will have an unique stationary distribution. Now adopt the trick of letting the eS go to zero together at the same rate and the stationary distribution will put weight one on A. This is what Kandori Mailath and Rob 56 (1993) and Young 57 (1993) show. However suppose that the eS go to zero at a rate which depends on the state in which the system finds itself. Then the limit stationary distribution will change. What Bergin and Lipman 58 (1996) show is that by choosing the eS appropriately any stationary limit distribution wh ich is a limit of a sequence of stationary distribution of positive1y disturbed matrices derived from P, can be achieved. Thus anything from weight one on A to weight one on B can happen. Without some a priori justification of the choice of disturbances or mutations no selection is achieved. Yet this is my point in dealing with this particular application of evolutionary theory. Using the term mutation without carefully spelling out its interpretation and, in consequence, the rate at which they happen can lead to neat but not necessarily very enlightening results. Thus the idea that we can use the evolutionary approach to show that an economy will organise itself into an equilibrium configuration has to be treated with a great deal of reserve. It has also to be said that even with mutations a number of authors have shown how evolutionary play of games can lead to inferior outcomes, (see e.g. Foster and Young 59 [1990], Dekel and Scotchmer60 [1992] and Banerjee and Weibull 61 [1995]). This will not be surprising to evolutionary theorists in biology who have systematically wamed against identifying evolution with progress. KandorilMailathlRob ibid. Young ibid. 58 Berginl Lipman ibid. 59 D. FosterIH.P. Young (1990), "Stochastic Evolutionary Game Dynamies", Theor. Pop. Biol. 38, pp. 219 - 232. 60 E. Dekel/S. Scotchmer (1992), "On the Evolution of Optimizing Behavior", J. Econ. Theory 57, pp. 392-406. 61 A. Banerjee I J. W Weibull (1992), "Evolution and Rationality: Some Recent GameTheoretic Results", Mimeo, Institute for International Economic Studies, Stockholm Uni versity, Stockholm. 56 57

Self-Organization and Evolution in Economics

33

VIII. Local Interaction

So far I have looked at situations in which interaction was general in that no agent was linked to a particular collection of other agents. Agents were all linked to each other but only with a certain prob ability in the evolutionary game model, for example. However, I shall now turn to models in which there are links between specific agents. This kind of interaction structure can be modelled by a graph where the agents are the nodes and two nodes are linked by an edge if the corresponding agents interact. Within such a framework, a notion of "nearness" can be defined. For example, in a graph, one rnight ask how many links are there on the shortest path from individual a to individual b, thus defining a "distance between a and b". In this context, we ass urne that each agent is influenced only by a limited (finite) number of other agents who are within a certain distance of hirn. Such individuals are usually referred to as the agent's "neighbours". At this point, the "neighbourhood structure" is defined apriori, but it is important to bear in mind that a basic aim of the approach I am advocating is to make this structure endogenous. For the moment, it is worth looking at the consequences of introducing the idea of local relationships among individuals. Such models with local interaction incorporate an important idea which is often alluded to in econornics but not often analysed. As agents' interactions are limited to a set of neighbours, changes will not affect all agents simultaneously but rather diffuse across the economy. The way in which such diffusion will occur, and the speed with which it happens, will depend crucially on the nature of the neighbourhood structure. Typically agents are thought of as being placed on a lattice 62 and interacting with the individuals nearest to them. Alternative structures of links can be considered, (see Myerson 63 (1977). Other models consider stochastic links, (see Kirman, Oddou and Weber64 (1986) and Ioannides 65 (1990) and Ioannides 66 (1997) for a full survey). The motivation for models with stochastic links is that agents often choose those with whom they interact at random, i.e. when deciding which local store to call in order to find the price of a good. One might also consider stochastic links as appropriate if the modeller does not know apriori which particular links will form within some subset of agents. However, he may know that agents, on average, communicate with a. certain number of other agents. 62

63

229.

The lattice is usually taken to be one or two dimensional. R.ß. Myerson (1977), "Graphs and Cooperation in Games", Math Oper Res 2, pp. 225-

64 A.P. KirmanlC. OddoulS. Weber (1986), "Stochastic Communication and Coalition Formation", Econometrica, 54 (1), pp. 129 - 138. 65 Y.M. Ioannides (1990), "Trading Uncertainty and Market Form", Intl. Econ. Rev. 31 (3), pp. 619-638. 66 Y. M. Ioannides (1997), "Evolution of Trading Structures", in: W. Arthur, S. Durlauf and D. Lane, eds, The Economy as an Evolving Complex System ll, Addison Wesley, Reading, Mass.

3 Selbstorganisation, Bd. 9

34

Alan Kinnan

In the detenninistie ease it is dear that, onee the partieular network of eommunieation is established, analysis of many problems beeomes straightforward. Suppose that the graph of relationships is given and the "distanee" between two agents is defined as the number of links in the shortest path between the agents. The set of individual a's neighbours, N(a), eonsists of all agents within some distanee k of a. Suppose we are interested in the speed with whieh a signal is propagated through the population. This speed depends on the eonneetivity of the graph, a eonvenient measure of whieh is the "diameter "of the graph, i.e. the maximum of the distanees over all the pairs of agents. In the usuallattiee type of model, the diameter of the graph beeomes very large as the number of agents inereases. In the implieit graph assoeiated with a non-eooperative game however, the diameter is one, that is every agent is in eontaet with every other one regardless of how many agents there are. In the stoehastie ease, the notion of eonneetivity beeomes more eomplicated. To examine the eonsequenees of interaetion and to see what aggregate patterns will emerge one has still to specify the nature of the eommunieation graph linking agents. As I have mentioned one might think of a lattiee strueture. In general, however, one ean eonsider any network and define the "neighbourhoods" aeeordingly. The idea is that, onee the graph is specified, one assurnes that the agent a is influeneed by his neighbours in N(a) in a probabilistie sense, that is, the probability of the agent a being in astate s is eonditioned by the states of his neighbours. So the idea is to speeify the probabilistie dependenee between individuals and to see what may happen at the aggregate level. The question now is ean we assign probabilities to eaeh state of the whole system in a way whieh will be eonsistent with the individual probabilities? Suppose that we ean do this. Furthennore suppose that all the individuals are identieal in that their loeal probabilities are the same. Follmer67 (1974) explains that two disturbing things ean happen. There may be more than one aggregate probability law eonsistent with the individual speeifieations, and worse some of these may not treat agents symmetrieally. The latter ease in whieh the eonditional aggregate probabilities may vary from agent to agent, is ealled a symmetry breakdown. Föllmer's eontribution was to show that, even with a eompletely symmetrie 10eal strueture, non-homogeneities may arise at the aggregate level. Think of an eeonomy with a large number of agents eaeh of whom draws his eharaeteristies from the same distribution and eaeh of whom depends on his neighbours in the same way. Even in the limit it may not be possible to speeify what the equilibrium priees of sueh an eeonomy will be. If interaetion is strong enough, no heterogeneity is required at the individual level to produee these diffieulties. Put another way, if agents are suffieiently dependent on their neighbours, aggregation does not remove 67 H. Föllmer (1974), "Random Economies with Many Interacting Agents", J. Math. Econ. 1(I), pp. 51 - 62.

Self-Organization and Evolution in Eeonomies

35

uncertainty. Strong local random interaction amongst agents who are apriori identical may prevent the existence of equilibrium. This is very different from models with randomness at the individual level, but where the uncertainty is independent across individuals. Thus even with a highly symmetric underlying micro-structure aggregate behaviour is unpredictable with sufficient interaction and apriori identical agents may not be treated identically. The aggregate patterns which emerge simply do not reflect the symmetry of the microstructure. While Föllmer considered a static problem, most of the recent work on local interaction and interdependence using his random field approach has been in the context of dynamic stochastic processes. The specification of the local interaction plays an important role in characterising the nature of aggregate behaviour. The c1earest examples of this are the articles by Blume68 (1993) and Durlaut69 (1997) which both illustrate the use of the model adopted by Föllmer. Blume looks at a situation in which individuals playagame against their neighbours. The probabilities of playing different strategies are modified according to the difference in performance between a player's own strategies and those played by the opponents. If the parameter governing the revision is very large the process is simply the "best response" process. For smaller values of the revision parameter however, the population may fluctuate between states and may have a limit distribution. The sensitivity of the adjustment of players' strategies to those of their neighbours determines the nature of the aggregate outcomes. Another example of local interaction with a fixed communication structure is that given by Ellison7o (1993). He compares a model with global interaction with one in which players are situated on a circ1e and play against one of their neighbours. In each case they play a simple coordination game, which has two equilibria, one of which dominates the other. In both cases the system fluctuates between coordinating on the "good" and "bad" Nash equilibrium. However the switch to the "good" equilibrium is achieved much more easily in the local case.

IX. The Nature of Graphs and Networks

As we have seen, to discuss local interaction we must impose some graph-like structure on the space of agents. This will determine the distances between agents, which in turn will determine who is a neighbour of whom. The structure might depend on geographical distance as in locational models (see Gabszewicz and 68 L. Blume (1993), "The Statistical Meehanies of Strategie Interaetion", Games and Economic Behaviour, 5, pp. 387 - 424. 69 S. Durlauf (1997), "Statistieal Meehanies Approaehes to Socioeeonomie Behaviour", in: The Economy as an Evolving Complex System l/, edited by W.B. Arthur, S.N. Durlauf and D.A. Lane, Addison-Wesley, Reading, Mass. 70 G. Ellison (1993), "Learning, Loeal Interaetion and Co-ordination", Econometrica, vol 61, pp. 1047 - 1072.

36

Alan Kirman

Thisse7l [1986] for example), closeness in characteristics (see Gilles and Ruys72 [1990]) or the potential gains from bilateral trade. One approach is to consider the graph structure itse1f as random 73. Suppose that once the communication network is established, a corresponding equilibrium notion is defined. Then one can study the characteristics of the equilibrium that arises from the particular structure one has chosen, since the agents will be constrained in their choices by the network. However, the network, or the links used, will be be a particular realisation of a random drawing and, in consequence, the outcome will, itself, be random. In the basic Markov random field model, interaction is probabilistic but between neighbours in the lattice, and the lattice structure is given exogenously. However, the stochastic graph approach allows for more complicated neighbourhood structures, e.g. by permitting agents, who are not "near" in terms of some underlying characteristics to have a positive probability of communicating. In the stochastic graph approach, the basic idea is to consider a set of agents A and to attach probabilities to the links between them. Let Pab denote the probability that individual a "communicates" with agent b. In graph terms, this is the probability that an arc exists between nodes a and b. The graph is taken to be undirected, i.e. the existence of the arc ab implies the existence of ba and thus one way communication is ruled OUt. 74 In the case of a finite set A this is easy to envisage. The resulting stochastic graph can be denoted If there is no obvious underlying topological structure which is thought of as affecting the probability that agents communicate, then, one could consider Pab = P that is the probability of interaction is the same regardless of "who" or "where" the individuals are. Thus global interaction is a special case of this model. 71 J.J. Gabszewiczl J.F. Thisse (1986), "Spatial Competition and the Location of Firms", in: Location Theory, Fundamentals of Pure and Applied Economics, Harwood Academic Publishers. 72 R. Gitles I P. Ruys (1990), "Characterisation of Economic Agents in Arbitrary Communication Structures", Nieuw Archiefvoor Wiskunde, vol 8, pp. 325 - 345. 73 This was introduced by A. Kirman (1983), "Communication in Markets: A suggested Approach", Economic Letters, vol 12, pp. 101 and developed by Kirman, Oddou and Weber (1986) ibid and Ioannides (1990) ibid. 74 This, of course, exdudes a whole dass of interesting economic models in which the direction of communication is important. Much of production involves transactions which are necessarily in one direction from inputs to outputs, for example. This can be taken care of by specifying whether the link is active and then specifying the nature of the transaction. More difficult to handle is, for example, the transmission of information from a central source which is dearly best handled by considering the links as directed. I. Evstigneev and M. Taksar (1994), "Stochastic Equilibria on Graphs 1.", Journal of Mathematical Economics, 23: pp. 401 have modelIed some economic equilibrium problems using directed graphs but, as they indicate, the task is made difficult by the fact that some of the mathematical tools, which make the undirected case tractable, are not available for directed graphs.

Self-Organization and Evolution in Economics

37

Gilles and Ruys 75 (1990), working within the detenninistic approach developed by Myerson76 (1977) and Kalai, Postlewaite and Roberts 77 (1978), adopt a more ambitious approach and use the topological structure of the underlying characteristics space to define the notion of distance. Thus agents nearer in characteristics communicate more directly. To an economist interested in how trading relationships are established, this seems a little perverse. In general, the possibility of mutually profitable trade increases with increasing difference in characteristics whether these be differences in tastes, endowments or abilities. Identical agents have no trading possibilities. However, there are other economic problems, the formation of unions and cartels for example, for which this approach may be suitable. The important point is that the relational structure is linked to, but not identical with, the topological characteristics structure. Once again the main feature of such models is that the aggregate outcomes that emerge may depend crucially on the underlying communication structure. The graph representing the links through which interaction takes place may, as mentioned previously, become surprisingly highly connected as the number of agents increases, provided that the probability that any two individuals are connected does not go to zero too fast. Thus, as was observed in Kirman 78 et al. (1986), one should say on encountering someone with whom one has a common friend, "it's a large world". This somewhat surprising result suggests that, as sociologists have long observed empirically, relational networks are likely to be much more connected than one might imagine. This is important in economic models, since the degree of connectedness detennines how fast infonnation or a "technological shock" diffuses and how quickly an epidemic of opinion or behaviour will occur. Thus the aggregate consequences of a local change will be very much linked to the structure and degree of connectivity of the network through which infonnation flows. More generally, the dynamic evolution of the states of the individuals who are influenced by each other through a graph-like structure is of interest since the stable configurations of states, if there are any, will depend on the graph in question. Some of the results from other disciplines (see Weisbuch 79 [1990]) can be evoked in the context of economic models. A number of authors have applied local interaction to specific economic problems. Durlauf 8°(1993) studies the influence of interaction between firms in their Gil/es / Ruys ibid. Myerson ibid. 77 E. Kalail A. Postlewaite / J. Roberts (1978), "Barriers to Trade and Disadvantageous Middlemen: Nonmonotonicity of the Core", Journal of Econ. Theory, vol 19, pp. 200 - 209. 78 A.P. Kirman/C. Oddou/S. Weber (1986) ibid. 79 G. Weisbuch (1990), Complex System Dynamies, Addison-Wesley, Redwood City, CA. 80 S. Durlauf(1993), "Nonergodie Economic Growth", Review of Econ. Studies 60(2), pp. 349- 366. 75

76

38

Alan Kirman

choice of technology on growth paths, Benabou 81 (1996) examines the formation of pockets of local poverty and their impact on income distribution. Ioannides 82 (1997) provides a comprehensive survey of the use of network structures in economic models and their impact on aggregate outcomes. A problem which has received litde attention is the existence of multiple networks. Economic agents are usually linked to others in different ways for different purposes. They may be linked through social, commercial or professional groupings and the interaction through all of these may joindy determine their choices. The simplest example is that in which agents in a market react to price signals but also to certain other individuals. Standard treatments of extemalities are an example of this. Another example is given by Weisbuch 83 et al. (1994). They show how agents may choose polluting or non polluting devices from local experience but their choice may result in pollution which diffuses widely. Local experience is therefore conditioned by aggregate activity. The consequence of this may be rather a sharp division into areas in each of which all the agents have adopted one type of device.

x. Emerging Networks Up to this point economic activity can be considered as being organised or organising itself with no network structure or with one which is given exogenously. However one of the most interesting challenges in examining the self organisation of an economy is to inc1ude the evolution of the network structures themselves. If one wants to proceed to a theory of endogenous network formation, a first step might be to find out which organisations of individuals are stable. Thus one would look for "rest-points" of a dynamic process of network evolution. Such rest points would be arrangements, or networks, which would not be subject to endogenous pressures to change them. This, as it stands, is not a weIl formulated concept. More of the rules under which agents operate have to be spelled out. To give a specific example, consider a cooperative game. Think of a partition of the set of players into coalitions and ask whether some other coalitional arrangement might "Pareto improve" the lot of the players. If this were the case, the coalitional structure in question would not be considered as stable. Such problems have been studied extensively since the basic artic1e by Aumann and Dreze 84 (1974). Thus astability 81 R. Benabou (1996), "Heterogeneity, Stratification and Growth: Macroeconomic Implications of Community Structure and School Finance", American Economic Review, vol. 86 pp. 584 - 609. 82 Y.M. Ioannides (1997), "Evolution of Trading Structures", in: The Economy as an Evolving Complex System II, edited by W.B. Arthur, S.N. Duriauf, and D.A. Lane, Addison Wesley, pp. 129 - 167. 83 G. Weisbuchl H. GutowitzlG. Duchateau-Nguyen (1994), "Dynamics of Economic Choices Involving Pollution", Working Paper 94-04-018, Santa Fe Institute, Santa Fe, N.M. 84 R. Aumannl J. Dreze (1974), "Cooperative Games with Coalition Structures", Intl. J. of Game Theory, vol 3, pp 217 - 237

Self-Organization and Evolution in Economics

39

condition is imposed on the set of partitions. We might however, wish to consider the communication structure of the economy as being described by a graph, and then to pose the analagous question as to which graphs would be immune to change? By this, I mean that if agents have the possibility to add or remove links, which graphs would remain unchanged? This is a question wh ich has been studied by Jackson and Wolinsky85 (1995) and others. They consider models in which links are valuable to players since they connect them directly and indirectly to others. However they mayaiso be costly to form or maintain. They assurne that the greater the distance one player is from another, the lower the corresponding utility that their being linked gives. They then exarnine the characteristics of stable graphs and this provides a reference point against which to set the rest-points, if any, of a model of evolving networks. This brings me finally to the most interesting challenge in this area, which is to study the evolution of the communications graph itself. Durlaurs6 (1990) makes a step in this direction when he starts with a given geographical network, but allows agents to choose where to place themselves in the network. This recalls an older model of neighbourhood preferences due to Schelling. The obvious way in which to proceed is to specify models in which the links between agents are reinforced over time by the gain derived from those links. Thus longstanding econornic relationships would be derived endogenously from the agents' experience.lnstead of thinking of leaming only at the individual level the economy as a whole could be considered as leaming and the graph representing the communication in the economy as evolving 87 . A paper by Vriend 88 (1994), presents a first step to simulating a model in which either the links themselves or the probability that they will be used over time evolve. He considers a market in which buyers leam where to shop and firms leam, from experience, how much to stock. In this model firms sell indivisible units of a homogeneous good, the price of which is fixed and agents demand at most one unit. This is the most rudimentary model possible because the only criterion for su~cess that the buyers have is whether they are served, and seHers are only concerned with providing the correct amount to satisfy demand. Nevertheless it is particularly interesting to note the development and persistence of a non degenerate size distribution of firms even though all firms are identical to start with. Furthermore some buyers always return to the same store, whilst others continue to search. There is empirical evidence for this sort of division of activity both on product 85 M. Jackson/ A. Wolinsky (1995), "A Strategie Model of Social and Economic Networks", Mimeo, Kellogg School of Management, Northwestem University, Evanston, Illinois. 86 S. Durlauf (1990), "Locally Interacting Systems, Coordination Failure, and the Behaviour of Aggregate Activity", Working Paper, Stanford University, CA. 87 For a discussion of the formal problem of evolving networks see Weisbuch (1990) ibid. 88 N. Vriend (1994), "Self-Organized Markets in a Decentralized Economy", Working Paper 94-03-013, Santa Fe Institute, Santa Fe, N.M.

40

Alan Kirman

markets and in financial markets. Thus, in Vriend's model, relationships between traders do evolve over time and a number of stable bilateral arrangements emerge. Vriend adopts what has come to be called the "artificial life" approach, that is, his agents are initially totally ignorant and merely update the prob ability of performing actions given the rewards that those actions generate 89 . They do this by using conditional rules, consisting of an "if ... then" statement, and then modify the choice of rules in the light of experience. 90 In an extension to Vriend's original model, Kirman and Vriend 91 (1996) consider individuals who make more than one encounter in a trading day. SeIlers now set prices they charge to each of their customers and allow the latter to choose whether to accept or refuse these prices. Here the number of rules to choose from is vastly greater than in the original model and this poses considerable problems of the type already mentioned, if only for computational reasons. Nevertheless, individual buyers in the model soon learn which prices to accept and which to reject. Furthermore, seIlers start to discriminate between buyers and charge their loyal customers different prices than those set to "searchers". Interestingly, some seIlers set high prices to buyers and give them priority when there is insufficient stock to serve all the customers. Others do the opposite, giving low prices to loyal customers but serving searchers first at higher prices. Although the former strategy yields higher profits, individuals who adopt the low price strategy for their loyal customers get "locked in" and are unable to learn their way to the alternative strategy. Thus a "dominated" type of behaviour coexists with a superior one.The outcome of the process through which the market organises itself would have been impossible to predict by looking at the individuals in isolation. In another example of a model in which links evolve, Tesfatsion92 (1995) considers individuals who have the possibility of accepting trading opportunies with other traders 93 . Trading corresponds to playing a repeated prisoner's dilemma game. However, players can choose whether to play against other players or not on the basis of expected payoffs. These payoffs are based on previous experience with that particular partner, thus the capacity to identify those with whom one interacts is crucial. Positive probability is assigned to being matched with "acceptable" 89 L. Tesfatsion (1995), "How Economists Can Get Alife", Mimeo, Dept of Economics, Iowa State University, Ames, Iowa, gives a full account of the artificial life approach to economics and its merits and drawbacks. 90 This is the so-called "ciassifier" approach introduced by Holland (1992). 91 A.P. Kirman/N. Vriend (1996), "Evolving Market Structure: A Model of Price Dispersion and Loyalty", Mimeo Dept. of Economics, Virginia Polytechnic Institute, Blacksburg, VI. 92 L. Tesfatsion ibid. 93 This is a development of the type of model developed by E. Stanley, D. Ashlock and L. Tesfatsion (1994), "Iterated Prisoner's Dilemma with Choice and Refusal of Partners", in: C.G. Langton, ed, Artificied Life 111, Santa Fe Institute Studies in the Sciences of Complexity, proc. vol XVII, Addison Wesley, Redwood City, Ca.

Self-Organization and Evolution in Economics

41

players, while the links between those couples of which one member finds the other unacceptable are assigned probability zero. The criterion for accepting another player is whether the expected payoff from playing against that individual is above some threshold level. The possibility of rejecting partners can lead, as Tesfatsion shows, to the emergence and persistence of groups with different pay-offs. These results are, like most of the work in this area, obtained from simulations and are thus open to the standard criticisms. What one really wants to obtain are analytic results, providing a benchmark against which to measure the results of such simulations. The basic problem and the approaches to analysing it can all be posed within a simple framework. What we are interested in is the evolution of the graph representing the interaction beween the different individuals in the economy. The problem is to analyse how that graph itself changes over time, i.e. how the probabilities that the links between agents will be used evolve. The basic idea is that the dynamics of the process in question can be seen as the evolution of a probability distribution. Without going into the formal details each stochastic network can be considered as a point in a rather high dimensional simplex. To see what is going on, observe that avertex of the simplex corresponds to a deterministic network whilst the barycentre or centre of gravity corresponds to the uniform probability model in which all agents are linked to each other with probability 1/2. The question of how networks evolve can be seen in this general framework. Different models yield different ways of modifying the probability distribution corresponding to the communication network of the economy. The dynarnics engendered by the different specifications may yield very different results. In some cases there may be convergence to a deterministic graph. In others, there may be convergence not to avertex, but to some other particular point in the simplex. In this case the network will not be deterrninistic but the probabilities with which the links are used will remain constant over time. It mayaiso be the case that the dynamics never converge and the probabilities in question keep changing all the time. Careful specification of the updating mechanism will reveal how the resulting network evolves. Thus, depending on the particular specification one chooses, one should be able to observe the evolution of trading groups and partnerships in markets. Of course, the evolution of purely deterministic graphs is a special case of the model just discussed. An obvious extension, already mentioned, of this analytic framework is to consider agents as having several different types of functional links. They might be linked with fellow workers in a firm, with trading partners, or with members of a household for example. However the analysis of this sort of multi-Iayered graph seems to be rather intractable. Therefore, I will briefly ex amine a number of models in which the links between agents can be seen as evolving within the simple framework just outlined. To see how the approach just suggeted translates into more concrete form, consider a model of a simple market similar to that already mentioned of Kirman and

42

Alan Kirman

Vriend94 (1995). Weisbuch 95 et al. (1995) consider a wholesale market in which buyers update their prob ability of visiting seIlers on the basis of the profit that they obtained in the past from those seIlers. If we denote by lij(t) the accumulated discounted profit, that buyer i has obtained from trading with seIler j up to period t. then the probability p that i will visitj in that period is given by,

where ß is a reinforcement parameter which describes how sensitive the individual is to past profits.This non-linear updating role will be familiar as the logit decision, or the quantal response role. It was developed in statistical physics and has been widely used in economics (see e.g. Blume96 (1993), Brock and Durlau~7 (1996), and Anderson 98 et al. (1992». Weisbuch 99 et al. (1996) show that buyers either will become loyal to one seIler, (ordered behaviour), or they will shop around with almost uniform probability, (disordered behaviour). Which of these two situations will develop depends crocially on the parameters

ß and r (the discount rate), and the profit per transaction. The stronger the reinfor-

cement, the slower the individual forgets, and the higher the profit, the more likely it is that order will emerge. In particular the transition from disorder to order, as ß changes, is very sharpIOO. The importance of all of this for this paper is that the aggregate efficiency of the market is dependent on the nature of the trading relationships. A market where agents are predominantly searchers is less efficient than one with many loyal traders. When searching is preeminent, seIlers' supply will often not be equal to the demand they face. Some buyers will be unsatisfied and some seIlers will be left with stock on their hands. This is particularly important in markets for perishable goods.

94 A.P. Kirmanl N. Vriend (1995), "Evolving Market Strueture: A Model of Priee Dispersion and Loyalty", Mimeo, Dept of Eeonomies, Virginia Polyteehnie Institute, Blaeksburg, VI. 95 G. WeisbuchlA. P. Kirmanl D. Herreiner (1996), "Market Organisation", Mimeo, Laboratoire de Physique Statistique, Eeole Normale Superieure, Paris. 96 L. Blume (1993), "The Statistical Meehanies of Strategie Interaetion", Games and Econ. Behaviour, 5, pp. 387 - 424. 97 W BrocklS. Durlauj(1996), "Diserete Choice with Social Interaetions I: Theory", Mimeo, University ofWiseonsin, Madison, WI. 98 S. AndersonlA. de Palmal J. F. Thisse (1992), Diserete Choice Theory of Produet Differentiation. MIT Press, Cambridge, Mass. 99 G. WeisbuchlA. P. Kirmanl D. Herreiner ibid. 100 This reealls an earlier model of P. Whittle (1986), System in Stoehastie Equilibrium, lohn Wily and Sons, New York, where there are two sorts of individuals, farmers and traders. Under eertain eonditions, markets may emerge where previously there were only itinerant traders.

Self-Organization and Evolution in Economics

43

In the Weisbuch et al. model this sort of "phase transition" is derived using the "mean field" approach. The latter is open to the objection that random variables are replaced by their means and, in consequence, the process derived is only an approximation. The alternative is to consider the full stochastic process. However, this is often not tractable, and one can then resort to simulations to see whether the theoretical results from the approximation capture the features of the simulated stochastic process 101. An interesting aspect of these models is the similarity of the underlying formal structure, even if the economic models are rather disparate. A nice example is provided by Paul Krugman'sI02,103 (1991, 1994) seminal work on economic geography. He considers a world in which there are two activities, manufacturing carried out by mobile workers and agriculture, undertaken by immobile workers. Manufacturing has economies of scale, and incurs transport costs. The latter tend to make for concentration. On the other hand agriculture exerts a centrifugal influence. The evolution of the model involves the dynamics of the allocation of manufacturing workers to different locations. This requires again, as in the earlier models, examining paths in the n simplex where n is the number of the locations. Thus the problem can be analysed in the same framework as before. It is only the nature of the mapping that has to be redefined. Krugman's models specify some laws of motion in which workers tend to move to places with higher wages, and he studies the resultant dynamics. It is particularly interesting that a great deal of order emerges from an initially random situation. The structure of the distribution of "cities" has quite strong properties and is largely independent of initial conditions. The particular equilibrium distribution may well depend strongly on those conditions, but the general features of its structure may be independent of history. An interesting contribution which involves history in an explicit way is that by McLean and Padgett lO4 (1995). This is related to Weisbuch 105 et al. (1996) and to an early study by Cohen 106 (1966). McLean and Padgett study data on transactions in Renaissance Florence and look at which markets were disordered and which were ordered, in the sense just mentioned. As the theory developed by Weisbuch et 101 A detailed discussion of this sort of problem is given by Aoki (1996) ibid, who thinks of the buyers in the markets as being partitioned between the sellers and each buyer as having a probability of transiting from one seller to another. He looks at the limit distributions of such a process. 102 P. Krugman (1991), "Increasing Returns and Economic Geography", J. 01 Political Economy, Vol. 99, pp. 483 - 499. 103 P. Krugman (1994), "Complex Landscapes in Economic Geography", American Economic Review, vol. 84 no. 2 pp. 412 - 416. 104 P.D. McLean/J.F. Padgett (1996), "Was Florence a Perfectly Competitive Market?: Transactional Evidence from the Renaissance", Theory and Society, (forthcoming). lOS Weisbuch et al. ibid. 106 J. Cohen (1966), A Model of Simple Competition, Harvard University Press, Cambridge, Mass.

44

Alan Kirman

a1. predicts, the two markets, those for banking and wool which were the most active and generated the greatest profits were ordered whereas the others were disordered. However, the interpretation by Melean and Padgett is worth examining. In their vision, disordered markets correspond to perfectly competitive ones since, if the same price prevails everywhere, individuals have no incentive to privilege any particular seIler. Yet, there is another feature of the market which has to be taken into ac count. This is the inefficiency of the purely random market. As has been mentioned, if agents search at random, there will always be seIlers in excess supply or demand, and there will also be unsatisfied buyers. Therefore, even in the case of durable goods, there will either be unnecessary stocks of goods or rationing. Buyers in ordered markets have learned to take into account the possible lack of goods, and their loyalty leads to a more efficient matching of demand and supply. Thus, even with a uniform price, there is pressure for loyalty to emerge. Thus, to describe the random market as reflecting competitive pricing does not seem to be justified. In fact, one might have the opposite view. Switching between suppliers must involve the risk of not being satisfied. Therefore buyers will only "shop around" if there is known to be a non degenerate price distribution. Melean and Padgett's argument could only be justified if they produced data to show that the "law of one price" held in disordered markets. Yet, as they point out, no data are available on the prices at which the transactions were made in the Florentine markets. A last and, particularly intriguing, example is given in a paper by Guriev 107 et a1. (1995). Their aim is to see how the development of trade structures influences the allocation of resources in an economy, a phenomenon of particular importance for so-called "transition economies". They have a model with producers who are seIlers, consumers who are buyers and traders who may be on either side of the market. There are costs to trade which depend on the pair of individuals involved and capture difficulties due to poor "infrastructure", whether this be due to communications and other factors, or to spatial distance. SeIlers adjust quantities fast but prices slowly, and buyers adjust the probabilities of visiting seIlers slowly but the quantities they purchase rapidly. Traders vary the probability of moving to one or the other side of the market in order to maintain a trade balance in the short run and modify prices to maximise profit . The basic adjustments in the model are of parameters of the stochastic processes which govern the shift from one activity to another, e.g. from producing to selling. This in turn governs the flow of basic demand and of supply. Guriev et a1. show that, if trading costs are low, the market is elose to being competitive whilst, if such costs are high, the traders exhibit monopolistic behaviour and earn high profits. However if trading costs are interrnediate, there is a phase transition and complex dynamics are observed with price oscillations, bursts of shortages and long chains of traders. To quote them, 107 S. Guriev / J. Pospelov / M. Shakhova (1995), "Self-Organization of Trade Networks in an Economy with Imperfect Infrastructure", Mimeo, Computing Center of the Russian Academy of Sciences, Moscow.

Self-Organization and Evolution in Economics

45

"Interactions among the agents at a micro level bring about implicit global phenomena at the macroscopic level, i.e.epiphenomena, for example organization of stable structures in trade networks, or, existence of stable cycles in the dynamical behaviour of the system."

XI. Conclusion

This chapter has dealt with the problems of self organisation and evolution in economic systems.The role of evolutionary models has been examined as one source of self-organization. The lessons to be drawn are dear. The idea of selforganization comes into its own when we are dealing with large systems of agents who interact with each other, either directly, or through some aggregate or "field variable". Two features have been emphazised. On the one hand the actors in the economy do not necessarily have a detailed knowledge of the system nor what the other individuals in it are doing. This fits well with the evolutionary analogy. On the other hand there may be a structure or network which govems the interaction between agents and determines how activity will organize itself. This network, in many cases, can be thought of as representing the institutional structure of the economy. However, in contrast to the New Institutional Economics the network structure should be thought of as "coevolving" with the economic activity which it govems. In all of the examples and models with a network the agggregate outcomes which will emerge depend crucially on the structure of that network.

Modelling Complex Economic Evolution By Peter M. Allen, Bedford I. Introduction

Economic change is a fact of our everyday experience. Businesses wax and wane, adapt and develop or decline and wither, and cities grow, decline and change as clusters of economic activities concentrate or quit different neighbourhoods and residents of different socio-economic levels migrate in or out, and of course, nations rise and fall as the patterns of trade and commerce evolve and as innovation and investment patterns shift and change. But can we understand these processes and anticipate their course? Are economic changes, and stock prices predictable? The answer is not simple, as we shall see. Change can mean simply a change in the "quantities" of the different variables present initially, or more interestingly, change can refer to "qualitative" change, where new types of artifact, actor (business, sector, individual or organization) or technology can appear over time. While this latter kind of change obviously occurs, as any ordinary person can see by looking back even a single decade, the traditional science of "prediction" has been based on ideas which could not deal with such qualitative change. Indeed it is a necessary fact that any mathematical system of equations could never, of itself, spontaneously generate a new variable, and a new equation, corresponding to an "innovation". If the equations start off describing the changes in x, y and z, then there is no way in which new variables, corresponding to innovations, can spontaneously appear in the system. We come to a paradox of prediction, where our usual methods which have proved so powerful in dealing with physical systems, seem only capable of saying that prediction is possible in systems involving living things, but only if nothing very much really changes. In other words, our normal mechanical or probability calculations exclude the pos sibility of structural change. However, the evolutionary complex systems approach that we shall describe begins to establish a science that captures the properties of systems that are able to "produce" innovations, and within which these new types of behaviour or knowledge are either amplified to real significance, or on the contrary are suppressed. As we shall see this leads us to a new viewpoint on which to base our decision making in the real world, one that can favour the long rather than the short term, creating systems that are themselves capable of adaptation, rather than being functionally

48

Peter M. Allen

optimal in the short term. This new point of view will shift the accent for economic success from short term performance to long term resilience, resulting from a capacity to re-structure, innovate and re-invent in the face of change. This is in contrast to the view that has prevailed until now in which systems and organizations are "optimized" according to some criteria of acceptable performance and minimum cost, assuming that the economic, social and technological context has been c1early defined and will not change. Complex systems can inform us about the "trade-off' that characterizes the relation between these two approaches: short term optimality, or long term resilience. This is very much the core problem that emerged in a study of fisheries 1,2, where the "problem" that fishermen must solve over time is, how to exploit the discoveries of fish that have already been made, whilst at the same time searching for new shoals. This, as we shall see, leads to the need for behaviour which is not economically rational in the short term. It leads to successful fishing behaviour which is within the spectrum of "stochasts" and cartesians". The former do not take their boats to the places which are at present known to offer the best profits, they behave in some other way - which we represent as randomly with respect to economics. The latter however, go to the locations which they know are offering maximum profits, at present. These two types of behaviour are complementary, and both necessary for the long term success for fishing. As with fishing, successful long term strategies for economic activities in general do not correspond to short term economic optimization. This is because, in an evolved world of adaptable entities, the precise nature of the future cannot be predicted, To base decisions purely according to the short term advantages that can be ca1culated from the present situation, runs the risk that they could be completely wrong over a longer term. Short term success may be bought perhaps at the cost of long term failure, and therefore successful players over the longer term may have strategies that allow adaptation and adjustment in the light of events. Let us consider the basic framework of understanding and modelling for human systems. 11. Simplifying Assumptions

Models can be thought of in terms of a hierarchy, where increased "simplicity" of understanding and predictive capability is obtained by making increasingly strong assumptions, which may be increasingly unbelievable. On the left of Figure 1 we have "reality", It makes no assumptions, and is drawn as a c1oud, since we 1 P. M. Allen and J, M, McGlade, 1986, "Dynamics of Discovery and Exploitation: the Scotian Shelf Fisheries" Canadian Journal of Fisheries and Aquatic Sciences Vol. 43, No. 6, P 1187 -1200, 2 P. M. Allen and J. M. McGlade, 1987b, "Modelling Complex Human Systems: a Fisheries Example", European Journal of Operations Research, vol. 30. p 147/167.

Modelling Complex Economic Evolution

49

can say little about it other than that it includes all detail of everything, everywhere, as weil as all perceptions and all points of view. lt is areal, evolving, complex system. The first step in "understanding" is therefore to attempt to ascertain the qualitative structure of the situation. Usually this is done by experience and intuition, and is not given sufficient explanation and justification in the development of models. lt is however, a crucial phase through which the significant "variables" and mechanisms of a situation are identified and the nature of the understanding or "solutions" is determined. We shall return to this in the final part of the paper. The rules of classification that we use result from previous experience about such systems and what matters in them. Are there socio-economic "types"? Do firms of the same sector and size behave similarly? Wh at is a sec tor? Is there as much variation within a group as between groups? Whatever the precise arguments advanced, in order to "understand" a situation, and its possible outcomes, we do classify the system into components, and attempt to build mathematical models that capture the processes that are increasing or decreasing these different components. The "problem" is that a system with non-linear interactions between its microelements can undergo symmetry breaking instabilities, and hence exhibit qualitative change in which new dimensions emerge in the attribute space necessary to characterize its behaviour. The choice of the rules of classification is therefore not straightforward, since we have to know which dimensions of attribute space of the objects are those which will successfully characterize their possible behaviour with sufficient discrimination. And initially, this must be subjective, since the differences that we choose to recognize reflect already our particular vision of what is "important" in a social and economic system. Building models is the way that we can explore the adequacy of our particular view, therefore, and the first test of any model that is proposed to describe any significant change in a system, is to sec if we can explain the qualitative changes of the past. Modelling should therefore be seen as a demonstration of the consequences of a particular set of qualitative assumptions, rather than as producing predictive "replicas" of reality. Modelling is about learning, and should be seen as a never ending method of dialoguing with the world, and of testing assumptions. Instead of disagreeing about our conclusions, we should really discuss our assumptions. Proceeding along the mode of traditional science which aims at building a deterministic, predictive model if possible, we choose a particular moment in time, and identify the different objects or organisms that are present, and attempt to write down some "process dynamics" describing the increase and decrease of each type. We apply the traditional reductionist approach of physics, which is to identify the components of a system, and the interactions operating on these, both to and from the outside world and between the different populations of the system. In ecology, this will consist of birth and death processes, where populations give birth at an average rate if there is enough food, and eat each other according to the average 4 Selbstorganisation, Bd. 9

50

Peter M. Allen

rates of encounter, capture and digestion. If the interactions between individuals is not dependent on the population densities, then the mechanical equations will describe the course of events very weIl. But, if there are non-linear effects of different population densities, then on the contrary, spatial c1ustering, and complex strategies may emerge, and the simple mechanical equations will prove inadequate. This will be even more true if each population is really made up of diverse individuals, since their differential success will, over time, also modify the original, simple mechanical equations.

Assumptions System Boundary CI T r Averaging

Stationarity

/SSI Ica~lon I / ,~~ ~Uili~um 'yREALITY "Time 4:-~/ ~ ? F)f ,~ Instant ["Q"f[EJI ___________·__c,____ Chosen Evolutionary Tree

Dynamical System

1

Shorter Te~ L T onger erm ___ .. I i) Evolving Taxonomyl i) Fixed Taxonomy i I ii) Changing Va lues ofj ii) New Variables Variables !

I

- - - - Complexity Simplification Figure I: Data and classification of populations and artifacts leads to the picture of an evolutionary tree of some kind, while mathematical models have been of fixed taxonomy.

The assumption that demand is equal to supply, based on maxirnised utility and profits is the foundation of neo-c1assical economics. This was a remarkable vision in its time, and reflected strongly the views of c1assical physics that an isolated system would attain equilibrium, and that this would be characterized by a maximum of entropy. So, in the neo-c1assical view, marginal utility / productivity is exactly comparable with entropy production, and they all attain zero at equilibrium, at which time they "explain" the state of the system. But, since the 19th Century, physics has 3 ,4,5,6 discovered that open physical systems do not behave in this way. 3 P. Glansdorff and l. Prigogine, 1971, Structure, Stability and Fluctuations, London, Wiley Interscience.

Modelling Complex Economic Evolution

51

Because of the non-linear interactions between their micro components, over the long term they can self-organize, evolve and change qualitatively. These phenomena involve non-equilibrium situations, and the precise values of both spatial interaction parameters and different rate constants are critical in the kind of structures that evolve. Instead of assuming equilibrium as a fact therefore, it is doser to reality to drop this, and instead to suppose that each actor tries to increase or maintain his utility according to the information and time available, and that therefore "satisficing" behaviour will be a much more appropriate representation of the actions of individuals. The assumption of equilibrium ignores all the real processes of decision making, of strategy, of learning, and of inertia within the system, and supposes that all change is exogenous. The key question it begs is - over what time scale? Is it very rapidly true, or is it a "long term" outcome? For example, when there is a "correction" in Asian economies, the impacts that this may have on other markets and economies is not understood but only gradually revealed, as currency exchange rates and interest rates change, borrowers default or survive, and unemployment and decreased buying power decreases Asian imports and hence western exports. Grounded and ungrounded fears cause shock waves through various economies and stock markets, and all in all the phenomena set in motion take months and years to run their course, and indeed may never end, since some individuals and firms will be irreversibly damaged by the events. Furthermore, if we believed in market equilibria, then there could be no such thing as a "correction" in the first place. If, on the other hand, the view is that economic equilibrium is only to be thought of as a "long term" result, then the problem is that during the long term establishment of "equilibrium" many other exogenous factors will have changed, and so the destination -the equilibrium to which the system is going - will be changing over time. If we do not assurne equilibrium, but instead attempt to model the dynamic processes of coupled utilities and changing circumstances, then we arrive at System Dynamics. This accepts a fixed taxonomy of variables, but does allow for the dynamic effects of the different processes that operate within the system at a given period. The success of the model in describing events can be used as a dialogue to attempt to decide whether the processes and parameters used in the model are correct, and sufficient. And, if this appears to be so, then for some purposes this provides a mechanical representation of the system wh ich looks as though it can be run on a computer, to give predictions. 4 G. Nicolis and I. Prigogine 1977, Self-Organization in Non-Equilibrium Systems, Wiley Interscience, London. 5 H. Haken, 1977, Synergetics, First of the Synergetics Series, Springer, Berlin. 6 I. Prigogine and I. Stengers, 1987, "Order out of Chaos", Bantam Books, New York.

4*

52

Peter M. Allen

However, as we see clearly from our broader picture of Figure 1 which shows the "evolutionary tree", the predictions that such a model can give can only be correct for as long as the taxonomy of the system remains unchanged. The mechanical model of deterministic equations that we can construct at any given time has no way of producing "new" types of objects, new variables, and so the "predictions" that it generates will only be true until some moment, unpredictable within the model, when there is an adaptation or innovation, and new behaviour emerges. In recent research new models have been developed 7 ,8 which can generate a true structurally changing evolution, with new entities and activities appearing. Let us consider carefully the assumptions that have to be made in order to arrive at a description in terms of system dynamic equations. Such systems are characterized by dynamical equations of the type (for example see9 : (1)

dx dt

- = G(x,

y, z ... )

where G is in general a non-linear function of the variables, x, y and z, leading to changes in x, y and z which are not simply proportional to their size. The other variables y, z ... also obey non-linear equations so that the changes in each variable affects the others according to the coupling mechanisms captured in the equations. So, x, y, z may represent for example the size of competing firms, or different employment sectors, different socio-econornic groups etc. The functions such as G express the coupling of the different variables, through the different mechanisms present and involve parameters expressing these functional dependencies. These parameters reflect three fundamentally different factors in the working of the system: 1) the values of external factors, which are not modelIed as variables in the system. These reflect the "environment" of the system, and of course may be dependent on spatial coordinates. Temperature, climate, soils, world prices, interest rates are possible examples of such factors. 2) the effects of spatial or network interaction, of juxtaposition, of the entities underlying the system. Often these will express non-linear effects of density for example, capturing the effects of structure and organization on the functional operation of the equations. In a model wh ich ignores spatial structure, these effects will lead to an "unexplained" change in the performance parameters of 7 P. M. Allen, 1993, "Evolution: Persistent Ignorance from Conti nu al Learning & Evolutionary Economics", Oxford University Press, Chapter III, pp 101- 112. 8 P. M. Allen, 1994, "Evolutionary Complex Systems: Models of Technology Change", In "Chaos and Economic Theory", Eds L. Leydesdorff and P. van den Besselaar, Pinter. London. 9 G. Silverberg, 1988, "Modelling Economic Dynamics and Technical Change", S. Metcalfe, "The Diffusion of Innovations", in Technical Change and Economic Theory, Eds Dosi et al, Pinter, London.

Modelling Complex Economic Evolution

53

some of the variables. Only a spatial model may capture the significance of different possible system configurations, and allow understanding for possible spatial planning.Juxtaposition could also refer not simply to geographie al space, but to an organizational or network proximity, so that these parameters capture the effects of different organizational structures. 3) the values corresponding to the "performance" of the entities underlying x, y or z, due to their internal characteristics like technology, level of knowledge or particular strategies. These three entirely different aspects have not been separated out in much of the previous work concerning non-linear systems, and this has led to much confusion. 1) is the link of the system to its extern al context. 2) reflects the interactions that couple individuals behaviour within the system and 3) connects the behaviour of the system to the internal characteristics of the individuals involved. This underlines the important issue that underlies real life situations, which concern the collective effects of interactions between entities with an internal "awareness", which can reflect on their experiences, and can be rational, stupid or innovative. Dynarnic models with non-linear terms can spread and cluster in some geographie or attribute space and can also be used to explore the effects of exogenous parameter changes. But they also can generate endogenous responses involving parameters of type (2) expressing the spontaneous emergence of structure and organization within the system. Naturally, models which admit the possibility of the internal nature of individuals changing over time as a result of their experiences in the system, can also explore the effects of exogenous changes in parameters, but in addition can display an endogenous evolution of parameters (3) for individuals, as the result of exploration and se1ection occurring among diverse individuals, leading to an evolutionary system capable of qualitative change, and the opening of new attribute spaces. Let us first consider the assumptions that are necessary in order to derive a mechanistic description in terms of dynamic equations such as in equation (1): System Dynamies, kinetic or population dynamies. In the complex systems that underlie something like the "economy", there is a fundamental level which involves individuals and discrete events, like making a widget, buying a washing machine, driving to work etc. Instead of attempting to "model" all this detail, these are treated in an average way, and the most basic assumption is that of a Markov process. So, individual events are assumed to occur according to so me transition probabilities, and these are assumed fixed. Prediction is always based on an assumption that something does not change. However, further assumptions must be made in order to derive deterrninistic mechanical equations from this Markov Process lO . In fact, in taking this next simplifying step, the goal of the "model" is subtly changed from 10 P. M. Allen, 1988, "Evolution: Why the Whole is greater than the sum of its parts", in Ecodynamics, Eds Wolff, Soeder & Drepper, Springer Verlag, Berlin.

54

Peter M. Allen

that of describing what this system will actually do, to that of describing the most probable trajectory of this system. This is then presented as "what the system will do on average", except for minor fluctuations. In other words, a statistical approach is adopted where we consider an ensemble of systems like the one we are modelling, and we ca1culate the behaviour of the average of this. So, the macroscopic, System Dynamics, is ca1culated from the individual behaviours by taking the ensemble average. This corresponds to the assumption (1). 1) microseopie events occur at their average rate (Assumption 1). This is the price we pay for reducing the system from the excruciating complexity of its individual detail, which we can only know in terms of probabilities, to achieve our aim of a mechanical, deterministic, predictive dynamic equation, which we identify with the most probable trajectory. Clearly, our mechanical description corresponds to saying that the most probable trajectory is the only trajectory!

However, we must make a further assumption in addition in order to arrive at a mechanical description. This is because we need to know that the underlying transition probabilities of individuals, on which our Markov process depends, do not change over time. Therefore System Dynamics also requires assumption (2): 2) the individuals 01 a given type, x say, have a fixed distribution 01 internal variability (Assumption 2). Often this means that they are identical and equal to the average, but could also correspond to a fixed, exogenously imposed variability. What we shall demonstrate in the next section is that making, or not making these assumptions leads to different types of models. However, the generality of these models will be related to the generality of the assumptions necessary to build them, and hence that the fewer assumptions made, the more general a model is, since it contains the others as special cases.

III. Models and Assumptions

The first and most generally used model in economics is that which assumes economic equilibrium. 1. Equilibrium Models

In addition to making the two assumptions above, the most simple description can be obtained by assurning in addition that the system will move rapidly, or has already moved, to a stationary state. In other words, the variables of the problem, such as for example, the size of different firms or employment sectors, are linked by a set of simultaneous equations, expressing relationships through which one may say that the value of any one variable is "explained" by the values of the others. Of course, these relationships are characterized by particular parameters appearing in them, and these are often calibrated by using regression techniques on

Modelling Complex Economic Evolution

55

existing data. Obviously, the use of any such set of equations for an exploration of future changes under particular exogenous scenarios, would suppose that these relationships between the variables remained unchanged. In neoclassical economics, much of spatial geography, and many models of transportation and land-use, the models that are used operationally today are still based on equilibrium assumptions. Locations of jobs and residences, land values, traffic flows etc. are all assumed to reach their equilibrium configurations "sufficiently rapidly" following some policy or planning action, so that an apparent output sequence can be shown by breaking the exogenous action into successive parts. Really though, these methods simply do not consider time realistically. They do not allow for consumer inertia, the time to perceive opportunities, the decision to expand or to move, and the implementation of the logistics and infrastructure necessary to make the desires real. Not only that, but as "first order" changes take place, the pattern of opportunity and competition for others is altered and a cycle of feedback changes is set in motion, taking further time. The attraction of the assumption of "equilibrium" lies in the simplicity that results from having only to consider simultaneous and not dynamical equations, and also that it seems to offer the possibility of looking at adecision or policy in terms of a stationary state "before" and "after" the decision, with an "evaluation" of "costs" and "benefits" made on these. Furthermore, in the days before fast, convenient desktop computers, analytical results, similar in elegance to classical physics, were sought. But the disadvantage of such an approach, where an equilibrium state is simply assumed, is that it fails to follow what may happen along the way. It does not take into account the possibility of feedback processes where growth encourages growth, decline leads to further decline and so on (non-linear effects), which can occur on the way to equilibrium. In reality, people discover their future, and may change their behaviour as a result of real time feedbacks, thus changing the "target" equilibrium to which the system was heading. Of course, on its way to the new one, something else may change in turn, and of course, we may even find that there were in fact several possible outcomes, and so the real task would seem to be that of revealing these possible pathways to different futures. In general, adaptation, learning and invention will occur, and at different rates for different actors, so that the system trajectory is created by the interaction and concatenation of all these processes. As a result there is a complex and changing relationship between latent and revealed preferences, as individuals experience the system and question their own assumptions and goals.

2. Non-Linear Dynamical Models

Non-linear dynamics (System Dynamics), are what results generally from a modelling exercise when both assumptions (I) and (2) above are made, but equilibrium is not assumed. Of course some systems are linear or constant, but these are

56

Peter M. Allen

both exceptions, and also very boring. We should also remind ourselves that the trajectory traced by such equations corresponds not to the actual course of events in the real system, but to the most probable trajectory of an ensemble of such systems. So, "the most probable" is considered to be the only, and all the "noise" and fluctuations that correspond to "less" than the most probable events have been neglected. Despite this simplification, made in order to create the illusion of determinism, a dynamical model is c1early more general than an equilibrium model since the latter is contained as a special case corresponding to the "attractor" of the dynamics. What is important to note however, is that nonlinear dynamics is interesting precisely because the system does not necessarily run to a single equilibrium state, a single attractor, but can exhibit a rich spectrum of possible behaviours. Dynamical systems can: a) have different possible stationary states. So, instead of a single, "optimal" equilibrium, there may exist several possible equilibria, possibly with different spatial configurations, and the initial condition of the system will decide which it adopts. b) have different possible cyc1ic solutions. These might be found to correspond to the business cyc1e, for example, or to long waves. c) it may exhibit chaotic motion of various kinds. An attractor "basin" is the space of initial conditions that lead to particular final state, and so a given system may have several different possible final states, depending only on its initial condition. Such systems cannot of themselves cross a separatrix to a new basin of attraction, and therefore can only continue along trajectories that are within the attractor of their initial condition. Compared to reality then, such systems lack the "vitality" to spontaneously jump to the regime of a different attractor basin. If the parameters of the system are changed however, attractor basins may appear or disappear, in a phenomenon known as bifurcation, and systems that are not precisely at a stationary point attractor can follow a complicated trajectory into a new attractor, with the possibility of symmetry breaking and the emergence of new attributes and qualities.

3. SeIJ-Organizing Systems

Non-linear dynamical systems can only pursue a trajectory which leads to the final state corresponding to the attractor basin of their initial condition, because, the equation has been derived by suppressing all the "less than most probable" events that really occur in the system. As stated above, this was done with the aim of enforcing a deterministic outcome on the model, but as a result the model cannot of itself deviate from its trajectory. However, if we do not make assumption 1, then provided that we accept that different outcomes will now be possible, we may explore the possible gains obtained if the first assumption is not made.

Modelling Complex Economic Evolution

57

In the case where we do not make assumption 1, non-average fluctuations of the variables are retained in the description, and the ensemble captures all possible trajectories of our system, inc1uding the less probable. As we shall see, this richer, more general model allows for spontaneous structural changes to occur as the system runs, and this has been termed "self-organizing". In the original work, Nicolis and Prigogine (1977) called the phenomenon "Order by Fluctuation", and mathematically it corresponds to returning to the deeper, probabilistic dynamics of Markov processes and leads to a dynamic equation that describes the evolution of the whole ensemble of systems. This equation is called the "Master Equation" which while retaining assumption 2, assurnes that events of different probabilities can and do occur. So, sequences of events which correspond to successive runs of good or bad "Iuck" are inc1uded, with their relevant probabilities. Imagine different attractor basins that might characterize some set of non-linear, dynamical equations. Each attractor is defined as being the domain in which the initial conditions all lead to the final state of the attractor. But, when we do not make assumption (1), that only the most probable events occur, then we see that this space of attractors now has "fuzzy" separatrices, since sometimes chance will lead a system across to another attractor, and sometimes not. As has been shown elsewhere 11 for systems with nonlinear interactions between indi viduals, what this does is to destroy the idea of a trajectory, and gives to the system a collective adaptive capacity corresponding to the spontaneous spatial reorganization of its structure. That is to say that when we consider the behaviour of the single system we actually have, and not the ensemble average, the presence of "noise" can allow the system itself to cross separatrices and adopt new regimes of collective behaviour, corresponding to spatial or hierarchical organization, and this can be imitated to some degree by simply adding "noise" to the variables of the system. The "noise" probes the stability of any existing configuration and when instability occurs, leads to the emergence of new structures. In other words, self-organization can be seen as a collective adaptive response to changing external conditions, and results from the addition of noise to the deterministic equations of system dynamics. For exampie, a region, city or a business that has growing economic activity may undergo a structural reorganization involving spatial specialization, and organized flows, as a previous more random configuration becomes unstable. Such changes rnight occur spontaneously, as a result of the explorations carried out by "noise", or might be anticipated and helped as the result of the existence of "self-organizing" models demonstrating the different possibilities, and allowing better policy exploration as a result. Once again, it should be emphasized that self-organization is a natural property of non-linear systems that is suppressed when the assumption is made that the behaviour of the system will be given by that of the ensemble average. The fact is that in the real system, unpredictable runs of good and bad luck, represented by 11

See Footnote 9.

58

Peter M. Allen

"noise", can and do occur, and these deviations from the average rate of events means that a real system can "tunnel" through apparently impassable potential barriers, the separatrices in state space. As a result it can switch between attractor basins and undergo configurational and organizational changes spontaneously.

4. Evolutionary Complex Systems

These arise from a modelling exercise in which neither assumption 1, or 2 are made. This allows to see the distinction between "self-organization" and "evolution". Here, it is the assumption 2 that matters, namely that all individuals of a giyen type, x say, are either identical and equal to the average type, or have a diversity that remains normally distributed around the average type. But in reality, the diversity of behaviours among individuals in any particular part of the system is the result of loeal dynamies occurring in the system. This local dynamics concerns the local "turnover" in individuals, and for social and economic systems depends on the mechanisms by which knowledge, skills, techniques and heuristics are passed on to new individuals over time. Obviously, there is an underlying biological and cultural diversity due to genetics, and to family histories, and because of these, and also because of the impossibility of transmitting information perfectly, there will necessarily be an "exploration" of behaviour space. But the mechanisms of our dynamical system contain terms which both increase and decrease the populations of different types, and so this will act as aselection process, rewarding the more successful explorations with high pay-offs and amplifying them, while suppressing the others. Because of this, it is possible to make the local microdiversity of individuals an endogenous function of the model, and in this way move towards a genuine, evolutionary framework capable of exploring more fully the future pathways and nature of the system and the individuals that make it up. The important long term effects introduced by considering the endogenous dynamics of microdiversity has ben called Evolutionary Drive 12,13, and has been described elsewhere. We can summarize the different levels of model from deterministic equations to fuB evolutionary models as shown in Figure 2. Remembering the classification of parameters that was carried out earlier leads us to an understanding of modelling, as a hierarchy of successive levels of aggregation. So, at any particular level, say a nation, there are exogenous effects like world prices, climatic conditions etc. which refer to the global level (L + I). Then there are interactions and parameters which concern the interaction of different organizations and individuals within the nation, and spatial and organizational relationships which provide the functional structure 12 P. M. Allen and J. M. McGlade, 1987, "Evo1utionary Drive: The Effect of Microseopie Diversity, Error Making and Noise", Foundations of Physics, Vol. 17, No. 7, July. P 723 -728. I3 See footnotes 7 and 8.

Modelling Complex Economic Evolution

59

of the system (level L). Below or inside this, is the level within individuals and organizations which makes or allows them to behave as they do. This would inc1ude their internal structure, rules of functioning, codes of behaviour, knowledge and skills. Now we can see that non-linear dynamics and self-organizing systems link the effects of parameter L + 1 level to the behaviour of the system, without allowing the individuals or internal organizations to change or learn. But, the evolutionary model, allows both for an organizational response at the national level, and also for adaptivity and leaming within individuals and organizations. This coupIes the L + 1, Land L - 1 levels in a co-evolutionary process. Systems models in general describe the connected behaviour of sub-systems. If these are few, and each sub-system has a fixed internal structure, then a systems model can be a complete representation of the behaviour of the connected parts. A gear box, for example, can be modelled successfully as an assembly of gears, providing that none of the gear wheels gets stressed beyond breaking point. A complex system, however, is one where there are so many sub-systems connected together, that some reduced, aggregate description is necessary. In this case the behaviour will be defined in terms of aggregate "variables", representing "average" types and average events. Obviously, all macroscopic systems are "complex" systems, since they are ultimately composed of atoms and molecules, and unless one wants to model the behaviour of trillions of these interacting, an aggregate description must be used. However, if, as in the case of the gearbox, there exist macroscopic components whose internal structure can be assumed to be fixed during the system run, then a simplified systems model will correctly describe the course of events, providing that the integrity of the components is not compromised. This brings us to the use of different models for different purposes. If we wish to model a gearbox, and we are allowed to assume that its cogwheels do not breakdown, then a fairly simple model will do. But a deeper description will be required in order to model what might happen when sub-systems do "break down". For complex systems made up of microcomponents with fixed internal structure, their interactions can lead to selJ-organization. However, if the microcomponents have internal structure, and if in addition this can change through time, thus changing the behaviour of the individual elements, then evolution can take place as the emergent macrostructure affects the local circumstances experiences by individuals, and this in turn leads to a structured adaptive response which in turn changes the macrostructure generated. Complex systems modelling involving elements with internal structure that can change in response to their experiences, leads naturally to a hierarchy of linked levels of description. If all the levels of description are "satisfied" with their circumstances, then the hierarchy will be stable. But, when the behaviour and strategies of many individuals, at a given level, do not provide them with satisfactory pay-offs in the macrostructure that exists, eccentric and deviant behaviour will be amplified which may lead to a structural re-organization of the system. Stability, or

60

Peter M. Allen

at least quasi-stability will occur when the microstructures of a given level are compatible with the macrostructures they both create and inhabit.

Level L+1

LevelL+1

LevelL+1

j

Environment

System Dynamics Non-Linear Dynamics Cellular Automata Point Attractors Cyclic Attractors

Self-Organizing Models

2 used.

Evolutionary Model

Fixed Mechanisms SpatiaVNetwork Structure can change.

Selection operates on

Collective

Attribute Spaces

Adaptation

evolve

Chaotic Attractors

ASSUmPtiOns~

Environment

Assu~on 2 Used

Level L-1 Model of Subsystems Fixed Structure

individual diversity Taxonomy, and

Neither!Assumption Level L-1 Model of Subsystems Can be: Self-Organizing or Evolutionary

Figure 2: The hierarchy of modelJing in which level L sits within L + 1, and is constituted by elements at level L - 1. Deterministic and Self-Organizing models link average L - 1 to L, but the evolutionary models relate the full, nested hierarchy, L - n, ... L - 1, L, L + 1, ... L + n.

In order to understand and model a system, we must derive a reduced description, which creates simplicity at the cost of making increasingly strong assumptions. The simplifications arise by taking averages, and writing in terms of typical elements of the system according to the classification scheme that has been chosen. Underneath the "model" there will always be the greater particularity and diversity of reality, and its own endogenous dynamic. In the mechanical view (2), predictions can be made by simply running the equations forward in time, and studying where they lead. Is there a unique "attractor", into which all initial states eventually fall? If so then economic equilibrium might still be a useful model. Or, are there many possible final end points, different possible equilibria to which the sys-

Modelling Complex Economic Evolution

61

tem might go? Does the system continue in aseries of etemal cycles, and do these correspond to business cycles, or to long waves? Or, does it display chaotic behaviour, as the trajectory wraps itself around a "strange attractor"? With self-organizing systems (2) we may find that the system can spontaneously move from one type of behaviour to another as the "noise" explores different attractor basins. The aim of the model then becomes to explore the different possible regimes of operation of the system, and the probabilities of moving towards these different attractors. However, we should remember that models (2) and (3) are only of any significance if the equations and the fixed mechanisms within them remain a good description of the system. But, from the picture of the evolutionary tree in fig. (1) that we know really characterizes complex systems, the taxonomy of the system, the representative variables and the mechanisms which link them, actually change over time. Because of this, any system of dynamical equations that we are running as a model of the system will only be a good description for as long as there is no evolutionary change, and no new variables or mechanisms appear. IV. Evolutionary "Drive"

As we have discussed above, Evolutionary Drive l4 is what results when we retain explicitly the dynamics of the processes goveming microdiversity. The question that we ask here is whether we will generate an evolutionary tree as shown in Figure 1 if we reverse the assumptions made to obtain a deterministic, non-linear dynamical model. We really have a dialogue between the "average dynamics" of the chosen description (a process that results in what we may call selection) and the exploratory, unpredictable "non-average" perturbations around this that results from the inevitable occurrence of non-average events and components - a search or exploration process that generates information about the "pay offs" for other, non-average behaviours. In order to be able to explore the behaviour of systems with chan ging taxonomies, obviously, we must define some "possibility space" that is larger than the presently existing populations,which our model can explore. This space represents, for example, the range of different techniques and behaviours that could potentially arise. In practice, of course, this is a multi-dimensional space of which we would only be able to anticipate a few of the principle dimensions. This "possibility space" will be explored by individuals and groups who explore the pay-offs of new behaviour. In biology, genetic mechanisms ensure that different possibilities are explored, and off-spring, off-spring of off-spring and so on, spread out in character space over time, from any pure condition. In human systems the imperfections and sub14 See footnote 12 and P. M. Allen and M. Lesser, 1991, "Evolutionary Human Systems: Leaming, Ignorance and Subjectivity", Harwood, Chur, Switzerland.

62

Peter M. Allen

jectivity of existence mean that techniques and behaviours are never passed on exactly, and therefore that exploration and innovation are always present as a result of the individuality and contextual nature of experience. Also human curiosity and adesire to experiment also play a role. Physical constraints mean that some of these "experimental" behaviours do better than others, and so imitation and growth lead to their increase and to the dec1ine of others. By considering dynarnic equations in which there is a "diffusion" outwards in character space from any behaviour that is present, we can see how such a system would evolve. If there are types of behaviour with higher and lower pay-offs, then the diffusion "up-hill" is gradually amplified, that "down-hill" is suppressed, and the "average" for the whole population moves higher up the slope. This is the mechanism by which adaptation takes place. This demonstrates the vital part played by exploratory, non-average behaviour, and shows that, in the long term, evolution selects for populations with the ability to learn, rather than for populations with optimal, but fixed, behaviour. In other words, it is the fact that knowledge, skills and routines are not transmitted perfectly between individuals, and that individuals already differ, that allows adaptation and evolution. However, there is always a short term cost to such "imperfection", in terms of unsuccessful explorations, and if only short term considerations were taken into account, such imperfections would be reduced. But, of course, without this exploratory process, there will be no adaptive capacity and no long term future in achanging world. In other words, if we return to our modelling framework of Figure 1, where we depict the trade-off between realism and simplicity, we can say that a deterministic, system dynarnics model of non-linear equations is "bought" at the price of assumptions (1) and (2). What is missing from this is the representation of the underlying, inner dynarnic that is really running inside the system dynarnics. However, if it can be shown that all "eccentricity" from typology is always suppressed in the system, then evolution will be suppressed itself, and the "system dynarnics" will then be a good representation of reality. However if this is not the case, then such a system will contain an inherent capacity to adapt, change and evolve, and of course, sustainability of a system may be much more related to this inherent capacity than to its simple efficiency. The self-organizing geographie models developed previously15 are a simple particular case of these general ideas. Instead of some possibility space of technologies or strategies, the possibility space is that of the locations of the actors. Because of the different advantages and disadvantages of different locations, and the interactions and feedbacks between different actors, a spatial structure emerges over time, leading to hierarchies of urban centres, and networks of interaction. Individuals of any particular type, X, all differ from one another by being located at different points in space. By using distributions of choice and behaviour around an 15 M. Sanglier and P. M. Allen, 1989, "Evolutionary Models of Urban Systems:an Application to the Belgian Provinces", Environment and Planning, A, Vol. 21. P 477 -498.

Modelling Complex Economic Evolution

63

average, the microscopic diversity of individuals is taken into account, and this allows the "exploration" of seemingly unpopular, irrational and non-average decisions. In this way, changes in the "pay-offs" for novel behaviour can be detected in the system, and innovations can take off. In this case, it concerns "spatial" innovations, such as the spontaneous emergence of new centres of employment, or of peripheral shopping centres, of industrial satellites and so on. Because of the presence of positive feedback loops, there were many possible final states to which the system can tend, depending on the precise position and timing of non-average events. Infonnation can only come from the paths that were actually taken, not from those that were not and because of this, patterns of change feed upon themselves, and self-reinforcement of growth and decline are the result.

/ Exploration

/

Competition

Exploration Conservation

Character

Adaptation

Speciation

Character

Character

Figure 3: If eccentric types are always suppressed, then we have non evolution. But, if not, then adaptation and speciation can OCCUf.

Instead of an objective rationality expressing genuine comparative advantages, the beliefs and the structures co-evolve. Let us now examine the consequences of not making assumption (2). In the space of "possibilities" closely similar behaviours are considered to be most in competition with each other, since they require similar resources, and must find a

64

Peter M. Allen

similar niche in the system. However, we ass urne that in this particular dimension there is some "distance" in character space, some level of dissimilarity, at which two behaviours do not compete. In addition however, other interactions are possible. For example, for any two particular populations land j, practising their characteristic behaviours, there may be an effect of one on the other. For example, for any two particular populations I, and j, practising their characteristic behaviours, there may be an effect of one on the other. This could be positive, in that side-effects of the activity of j might in fact provide conditions or effects that help I. Of course, the effect might equally weIl be antagonistic, or of course neutral. Similarly, I may have a positive, negative or neutral effect on). If we therefore initially choose values randomly for all the possible interactions between all I andj, then, these effects will come into play if the populations concerned are in fact present. If they are not there, then obviously, there can be no positive or negative effects experienced. A typical evolution is shown in Figure 4. Although, competition helps to "drive" the exploration process, what is observed is that a system with "error making" explorations of behaviour evolves towards structures which express synergetic complementarities. In other words, evolution although driven to explore by error making and competition, evolves cooperative structures. The synergy can be expressed either through "self-symbiotic" terms, where the consequences of a behaviour in addition to consuming resources is favourable to itself, or through interactions involving pairs, triplets, and so on. This corresponds to the emergence of "hypercycles,,16, and of "supply chains" in an economic system. The lower right hand picture in Figure 4 shows the evolution of the taxonomy over time. We start off an experiment with a single population in an "empty" resource space, resources are plentiful, the centre of the distribution, the average type, grows better than the eccentrics at the edge. The population forms a sharp spike, with the diffusing eccentrics suppressed by their unsuccessful competition with the average type. However, any single behaviour can only grow until it reaches the limits set by its input requirements, or in the case of an economic activity, by the market limit for any particular product. After this, it is the "eccentrics", the "error-makers" that grow more successfully than the "average type", as they are less in competition with the others, and the population identity becomes unstable. The single sharply spiked distribution spreads, and splits into new behaviours that climb the evolutionary landscape that has been created, leading away from the ancestral type. The new behaviours move away from each other, and grow until in their turn they reach the limits of their new normality, whereupon they also split into new behaviours, gradually filling the resource spectrum. While the "error-making" and inventive capacity of the system in our simulation is a constant fraction of the activity present at any time, the system evolves in discontinuous steps of instability, separated by periods of taxonomic stability. In other 16

M. Eigen and P. Schuster, 1979 The Hypercyc1e, Springer, Berlin.

Modelling Complex Economic Evolution

65

Figure 4: A 2-dimensional possibility is gradually filled by the error making diffusion, coupled with mutual interaction. The final frame shows the evolutionary tree generated by the system. 5 Selbstorganisation. Bd. 9

66

Peter M. Allen

words, there are times when the system structure can suppress the incipient instabilities caused by innovative exploration of its inhabitants, and there are other times when it cannot suppress them, and a new population emerges. If we compare the outcome of Figure 4 with the same system run without "error making" exploration of identity, then we find that the initial population would simply grow to its stationary maximum and stay there. In terms of exploring the pos sible futures of the system, and the question of sustainability and of resilience, clearly the system without microdiversity, with assumption 2, is a short tenn model, which is correct only if the time over which structural change can occur is long compared to the run time. Without assumption 2, with error making exploration, we see an evolutionary tree of emergent niches and behaviours, providing a much fuller exploitation of the possibilities of the system, and also a much more resilient system. If the system of Figure 4 suffered some kind of accident, with many populations wiped out, then it would simply re-evolve, not necessarily to the exactly the same set of behaviours, but to one that also filled the possibility space. It illustrates that the "pay-off' for any behaviour is dependent on the identities, and behaviours of the other populations present. Success of an individual type comes from the way it fits the system, not from its own intrinsic nature.

v. Self-Organization of Economic Markets Recent work has already suggested that ideas of complexity are relevant to economic systems. I? The ideas developed in the sections above can now be applied to the structuring of economic markets, showing how they "self-organize", and through competition create ecologies of firms producing goods in different market niches. The fundamental process can be explored using a simple model in which we consider the possible growth / decline of 3 firms which are attempting to produce and sell goods on the same market. The potential customers of course will see the different products according to their particular desires and needs, and in the simple case examined here, we shall simply consider that customers are differentiated by their revenue, and therefore have different sensitivities to price. The structure of each finn that is modelled is as shown in Figure 5 where input and wage costs of production, added to the fixed and start-up costs are used to produce goods, and these are sold by sales staff who must "interact" with potential customers in order to turn them into actual customers. The potential market for a product is related to its quality and price, and although in this simple case we have assumed that customers all like the same qualities, they have a different response to the price charged. The price charged is made up of the cost of production (variable cost) to which is added a mark-up. The mark-up must cover the fixed and 17 P. W Anderson. K. J. Arrow and D. Pines 1988, Eds. "The Economy as a Comp1ex Evo1ving System", Reading, Addison-Wes1ey.

Modelling Cornplex Econornic Evolution

67

start-up costs as weH as the sales staff wages. Depending on the quality and price, therefore, there are different sized potential markets corning from the different customer segments.

Figure 5. The 3-Firrn Model of the dynarnic interaction of Dernand and Supply in a rnarket.

When customers buy a product, they cease to be potential customers for a time which is related to the lifetime of the product. For high quality goods this may be longer than for low quality, but of course, many goods are bought in order to follow fashion and style rather than through absolute necessity. Indeed, different strategies would be required depending on whether or not this is the case, and so this is one of the many explorations that can be made with the model, which consists of differential equations for firm size and potential markets. Let us briefly present an example of an exploration that the model permits. In the first run we play the role of firm 3. We have a start-up size the same as the others, 1000 units. We choose to go "up-market" and to make goods of quality 13 on the scale 1 - 20. In order to pay our fixed and start-up costs we choose a high mark-up of 70 %. In Figure 6 we show the situation within firm 3 in the top left hand corner. The lower left hand corner shows the number of customers of each type with a product, and hence the real potential market at the time. Lower centre shows the size of the firms, 3 has disappeared, while the upper right shows the situation of the whole supply side. The lower right shows the whole history of the market in question, with the total sales, and the shares taken by each firm over time. The other players out-compete firm 3, and it crashes after only 18months. Both firm 1 and 2 generated dividends during this run, of size 4.52 and 6.08 respectively. 5*

68

Peter M . Allen

Firm 3 never got into profit, and never generated income for its shareholders. The financial ca1culation allows for tax on profits, and also for interest on the initial loans for start up. Each firm has a "credit limit", which it must not exceed. Strategi es such as starting off with a very large initial size means borrowing a lot, and then having to pay back the extra interest. In this version all firms choose to start at the same size, 1000 units.

FiRn

3

IWIXET

o o

FiRn FiRn FiRn

1500 100 1320

o

AVERAGE

TI_

10 7 13

"ark up Prlce 70 111 90

70

15

1182

year 9 AlJ I (selbstverstärkende Rückkoppelung) bzw. ßX;jßX< I (stabilisierende Rückkoppelung) gilt.

86

Bernd Woeckener

z. B. eine Rezession vor, so werden die Unternehmer deren Andauern erwarten. Da diese Erwartungen bei Vorliegen von Komplementaritäten selbsterfüllend sind, wird dann auch tatsächlich erneut das Rezessionsgleichgewicht realisiert. Eine solche an der historischen Ausgangsbedingung orientierte Erwartungsbildung und damit Gleichgewichtsauswahl erklärt, wie rein zufällige Schocks zu systematischen Persistenzen in der Outputentwicklung führen können: Die Wahrscheinlichkeit der Fortsetzung eines Booms oder einer Rezession beträgt unter obigen Annahmen nicht fünfzig, sondern sechsundsechzig Prozent.

Xi

X Abb. 1: Reaktionsfunktionen einer repräsentativen Unternehmung in Abhängigkeit vom allgemeinen ökonomischen Umfeld (in Anlehnung an Cooper; FN 10, S. 1108)

IV. Verhaltenskoordination 11: Stochastik versus Determinismus

Aus den Überlegungen von Cooper kann noch eine weitere Schlußfolgerung gezogen werden: Bestimmt die historische Ausgangssituation die Gleichgewichtsauswahl (Situation 11), so ist der zufällige - weil aufgrund unvollständiger Information nicht erklär- und prognostizierbare - Einfluß des exogenen Umfelds von qualitativ entscheidender Bedeutung. Dementsprechend sollte im Falle eines Modells mit mehreren Gleichgewichten auf die Berücksichtigung der Unvollständigkeit der Information bzw. Voraussicht nicht verzichtet werden, da sonst - anders als bei EinGleichgewichts-Modellen - ein qualitativ falsches Bild der ökonomischen Entwicklung resultiert. Oder anders gesagt: Ist das Vorliegen eines Koordinationsproblems evident, so tut man gut daran, die ökonomische Entwicklung als (auch) stochastischen Prozeß zu verstehen, der eine rein deterministische Modellierung nicht gerecht wird. Wie eben geschildert, kommt es im Cooper-Modell immer wieder zu nicht mit Sicherheit prognostizierbaren Übergängen zwischen den Gleichgewichten, d. h., beide haben dauerhaft eine bestimmte Realisierungswahrscheinlich-

Komplementaritäten, Verhaltenskoordination und volkswirtschaftliche Evolution

87

keit. 18 Dieser Fall der sozusagen reversiblen Gleichgewichtswahl bzw. wechselnden Verhaltenskoordination ist von jenem Fall zu unterscheiden, in dem ex post ein Gleichgewicht mit Sicherheit dauerhaft realisiert ist, wobei ex ante unklar war, welches dies sein würde. 19 Beide Varianten der Verhaltenskoordination bei unvollständiger Information bzw. Voraussicht können im Rahmen eines relativ allgemein angelegten und entscheidungstheoretisch fundierten Markovmodells dargestellt werden. 2o Zur Illustration diene zunächst beispielhaft das im zweiten Abschnitt erläuterte Modell der volkswirtschaftlichen Evolution als Abfolge technologischer Paradigmen. Jeder Unternehmer steht dort vor der Wahl, unter einem alten Paradigma A oder unter dem neuen Paradigma C zu produzieren. Dabei ist seine Rendite rA bzw. rc infolge der geschilderten Komplementaritäten jeweils umso höher, je mehr Unternehmen unter demselben Paradigma produzieren wie er. Die individuellen Renditen werden nun keineswegs - wie von Chou und Shy unterstellt - deterministische Größen sein, sondern unterliegen exogenen Schocks. Diese Schocks sind z. B. darauf zurückzuführen, daß die weitere Entwicklung der bei den Technologien nicht genau bekannt ist oder sich die künftige unternehmensspezifische Absatzlage nicht mit Sicherheit einschätzen läßt. Infolge dieser Schocks kann z. B. die Rendite des alten Paradigmas für ein Unternehmen zu zwei verschiedenen Zeitpunkten und für zwei Unternehmen zum gleichen Zeitpunkt jeweils unterschiedlich sein. Unter Berücksichtigung der Komplementaritäten sowie der Unvollständigkeit der Information lassen sich die Renditen formulieren als rA (y) = a + k( I - y) + ZA und rc(y) = c + ky + Zc mit a und c als absoluten Basisrenditen, y bzw. I - y als Anteil jener Unternehmen, die unter dem neuen bzw. alten Paradigma produzieren, k > 0 als Maß der Stärke der Komplementaritäten und ZA bzw. Zc als stochastischen Störtermen. Hinsichtlich der Verteilung der Störterme sei zunächst nur ein Erwartungswert von null, also E(ZA) = E(zc) = 0, festgelegt. Die Unternehmen wechseln zum neuen Paradigma, wenn dessen relative Rendite R(y) = rA - rc positiv ist. Dabei soll das neue Paradigma bei gleicher Anwenderzahl (y = I - y = 0.5) die höhere systematische Rendite haben: Es gelte c > a bzw. b = c - a > 0 mit b als relativer Basisrendite. Damit läßt sich das individuelle Wahlkriterium formulieren als (I)

R(y)

=

b

+

k (2y - I)

+

z mit b = c - a > 0, E(z)

=

°.

Wegen b > 0 und k> 0 gilt R(y = 1, Z = 0) = b + k > 0, d. h., im zugehörigen deterministischen Modell ist y = 1 ("alle wählen das neue Paradigma") ein Gleich18 Eine qualitativ gleiche Art der (auch) stochastischen Gleichgewichtsauswahl findet sich in Alan Kinnann, Ants, rationality, and recruitment, in: Quarterly Journal of Economics 108 (1993), S. 137 -156, hier insbesondere S. 142 ff. 19 Zur Grundlogik dieser Modelle siehe W Brian Arthur, Competing technologies, increasing returns, and lock-in by historical events, in: Economic Journal 99 (1989), S. 116-131. 20 Siehe dazu ausführlich Woeckener (FN 8), S. 115 ff.

Bemd Woeckener

88

gewicht. Damit hier auch y = 0 ("alle wählen das alte Paradigma") ein Gleichgewicht ist - und somit ein Koordinationsproblem besteht - sei im folgenden b < k und damit R(y = 0, Z = 0) = b - k < 0 unterstellt. Entscheidend für das qualitative Verhalten der Lösungen dieses einfachen Modells ist nun, wie die Verteilung der exogenen Schocks aussieht. Dabei haben sich in der Entscheidungstheorie zwei Verteilungs arten bewährt: die Gleichverteilung und die Logistische Verteilung. 21 Die Abbildungen 2 bzw. 3 zeigen standardisierte Versionen der Dichtefunktionen dieser Verteilungen bzw. der sich daraus durch Integration ergebenden Verteilungsfunktionen. Dabei ist für das Folgende nicht die konkrete Gestalt der Verteilungen wichtig, sondern vor allem der Umstand, daß bei der Gleichverteilung das Ausmaß der Schocks prinzipiell begrenzt ist, während bei der Logistischen Verteilung Schocks in beliebiger Höhe möglich sind - wenn auch mit zunehmend geringer Wahrscheinlichkeit.

_._-Q~~

........ _~ o o o o o o o o

Dc(z)

o o

o o o

-3

-2

-1

o

2

3

z

Abb. 2: Dichtefunktionen der Gleichverteilung (Da) und der Logistischen Verteilung (DLJ

Sei zunächst die Gültigkeit einer Gleichverteilung unterstellt; die zur Dichtefunktion der Abbildung 2 gehörige Verteilungsfunktion der Abbildung 3 lautet (2)

Vc(z)

o

= { O.5(z+ 1) I

für für für

z1

und gibt an, wie groß die Wahrscheinlichkeit ist, daß ein z- Wert realisiert wird, welcher kleiner oder gleich dem für z eingesetzten Wert ist. Ein Unternehmer wird unter dem alten Paradigma A produzieren, wenn für ihn R(y) ~ 0 bzw. gemäß (1) 21 Siehe beispielsweise Simon P. Andersonl Andre de Palmal Jaques-Fran~ois Thisse, Discrete choice theory of product differentiation, Cambridge I Mass. und London 1992, S. 34 ff.

Komplementaritäten, Verhaltenskoordination und volkswirtschaftliche Evolution

89

z ~ - b - k(2y - 1) gilt. Dies in (2) eingesetzt ergibt eine Wahlwahrscheinlichkeit für A von q(y) = 0.5(1 - b + k - 2ky) (sofern dies zwischen null und eins bleibt). Dementsprechend resultiert die Wahl wahrscheinlichkeit für das neue Paradigma C über w(y) = 1 - q(y) als (3)

0 w(y) = { 0 .5(1 1

für y:s 0.5 - (b+ 1)/2k sonst für y 2: 0.5 - (b - 1)/2k.

+ b - k + 2ky)

1.0

,

,

,

,

,-- --- - - ---- - - - -- -----

/

VL(Z)

,

Vc( z) ,/

-3

-2

-1

o

2

3

Z

Abb. 3: Verteilungsfunktionen der Gleichverteilung (VG ) und der Logistischen Verteilung (VLJ

Die Abbildung 4 zeigt diese Wahlwahrscheinlichkeiten für zwei zu unterscheidende Parameterkonstellationen: Im ersten und für uns interessanten Fall mit 8w(y)/8y = k > 1 (und b< k - 1) liegen relativ starke Komplementaritäten vor und die Funktion w(y) schneidet die Diagonale (auf der w(y) = y gilt) von unten. Wie man sieht, existieren hier "Lock-In-Bereiche": Für sehr niedrige y (sehr hohe y) wird das neue Paradigma mit Sicherheit nicht (mit Sicherheit) gewählt. Soll das neue Paradigma überhaupt eine Chance erhalten, muß man erst einmal den unteren Locked-In-A-Bereich (w(y) = 0) überwinden. Von besonderer Bedeutung ist zudem jener y-Wert, bei dem sich dieser" Marktanteil" des neuen Paradigmas und seine Wahlwahrscheinlichkeit w(y) entsprechen. Erreicht C einen höheren Anteil, so führt ein weiteres Steigen von y wegen der Stärke der Komplementaritäten zu einem überproportionalen Anstieg seiner Wahlwahrscheinlichkeit. Dies hat zur Folge, daß wenn erst einmal der kritische y = w(y)- Wert überschritten ist, eine Durchsetzung des neuen Paradigmas wahrscheinlicher wird als sein Scheitern. Unterhalb dieses kritischen Wertes verhält es sich umgekehrt. Gelingt es, den unteren Lock-In-Bereich zu verlassen, so haben ex ante beide Paradigmen positive Durchsetzungswahrscheinlichkeiten. Nach gewisser Zeit wird aber jede Realisierung des

90

Bemd Woeckener

stochastischen Prozesses mit Sicherheit in eines der beiden Lock-Ins geraten: Ex post ist die Gleichgewichtsauswahl dauerhaft entschieden und das Koordinationsproblem dauerhaft gelöst (sofern y = 1 das realisierte Gleichgewicht ist) oder nicht. 1.0

.----------r-----,.

w(y)

0.5

0.0

~-L-----,....__------I

0.0

0.5

1.0

Y

Abb. 4: Wahlwahrscheinlichkeiten bei gleich verteilten Schocks und starken (-) sowie schwachen (_. -) Komplementaritäten

Um zu zeigen, daß diese Folgerung nur bei relativ starken Komplementaritäten Gültigkeit hat, ist in der Abbildung 4 auch noch der Fall relativ schwacher Komplementaritäten &w(y)/f}y = k < 1 berücksichtigt. Hier gibt es keine Lock-InBereiche und die Entwicklung konvergiert mit relativ hoher Wahrscheinlichkeit auf den y = w(y)-Wert hin: Steigt (sinkt) y über (unter) diesen Wert, so steigt (sinkt) w(y) bei einem weiteren Steigen (Sinken) von y nur unterproportional, d. h., eine Realisierung des Prozesses wird mit höherer Wahrscheinlichkeit zum y = w(y)-Wert zurückkehren als sich weiter von ihm zu entfernen. Unterstellt man die Gültigkeit der Logistischen Verteilung mit ihren im Ausmaß prinzipiell nicht beschränkten Schocks, so können sich auch bei Vorliegen starker Komplementaritäten keine Lock-ln-Bereiche ergeben. Integration der in Abbildung 2 dargestellten Dichtefunktion DL(Z) führt zu (4)

Vt{z)

1

= 1 + e-Z

.

Die Unternehmer können wieder zwischen zwei Alternativen A und C wählen, wobei wir nun anknüpfend an das Konjunkturmodell von Cooper mit A die Wahl eines niedrigen Produktionsniveaus (N-Niveau) und mit C die Wahl eines hohen Produktionsniveaus (H-Niveau) bezeichnen. Infolge der im zweiten Abschnitt geschilderten ökonomischen Komplementaritäten gilt bei Berücksichtigung der Unvollständigkeit der Information bzw. Voraussicht für die relative Rendite des

Komplementaritäten, Verhaltenskoordination und volkswirtschaftliche Evolution

91

H-Niveaus wieder (1). Mit (4) statt (2) als Verteilungsfunktion führt dies nun zu C-Wahlwahrscheinlichkeiten von (5)

w(y)

1

= 1 + e-b-k(2y-l)

Da die Exponentialfunktion nur positive Werte annehmen kann, bleibt w(y) stets im Bereich zwischen null und eins; es gibt also keine Lock-Ins. Abbildung 5 zeigt den Verlauf der Wahlwahrscheinlichkeiten für das H-Niveau für zwei mögliche Parameterregime: Dabei entspricht der gestrichpunktet eingezeichnete Fall schwacher Komplementaritäten qualitativ jenem der Abbildung 4. Beim logistischen Ansatz erreicht die Steigung &w(y)/{)y im Wendepunkt der Funktion (wo sie am größten ist) allerdings erst für k = 2 einen Wert von eins; dementsprechend sind die Komplementaritäten jetzt bei k < 2 "relativ schwach". 1.0

...-------------~

w(y)

0.5

0.0 - J < - - - - - - r - - - - - - - - l y 0.0 0.5 1.0

Abb. 5: Wahlwahrscheinlichkeiten bei logistisch verteilten Schocks und starken (-) sowie schwachen (- . -) Komplementaritäten

Interessant für uns ist der Fall relativ starker Komplementaritäten. Dann gibt es drei Punkte, in denen y = w(y) gilt, wobei in der Umgebung des mittleren die Steigung der Wahlwahrscheinlichkeitenfunktion größer eins ist, um die äußeren herum ist sie dagegen kleiner als eins. Analog zur Argumentation im Falle linearer Verläufe (Abbildung 4) kann man sich jetzt leicht überlegen, daß Realisierungen des stochastischen Prozesses, die in die Umgebung des mittleren Punktes geraten, sich mit höherer Wahrscheinlichkeit von ihm entfernen als sich ihm anzunähern. Für die beiden äußeren y = w(y)-Punkte gilt dagegen das Umgekehrte. D. h., mit relativ hoher Wahrscheinlichkeit hält sich eine Realisierung in der Nähe dieser beiden äußeren Punkte auf. Offensichtlich korrespondieren sie mit den beiden stabilen

92

Bemd Woeckener

Gleichgewichten im Cooper-Modell (und der mittlere y = w(y)-Punkt mit dem instabilen Gleichgewicht). Anders als in einem Modell mit Gleichgewichten in Lock-In-Bereichen sind nun Wechsel zwischen dem N-Niveau- und dem H-Niveau-Gleichgewicht möglich. Beide behalten also stets eine positive Realisierungswahrscheinlichkeit. Dies wird deutlicher, wenn der Prozeß im folgenden Abschnitt stringenter formalisiert wird. V. Konsequenzen für das Verständnis der volkswirtschaftlichen Evolution

Um von den Wahlwahrscheinlichkeiten zu einem ausformulierten Modell der volkswirtschaftlichen Evolution zu kommen, bedarf es nur noch einer Annahme, wie der "Wahlprozeß" ablaufen soll. Eine naheliegende diesbezügliche Vorstellung ist, daß jedes Unternehmen zu jedem Zeitpunkt eine Wahl zwischen A und C treffen kann und daß dabei die Wahrscheinlichkeit, mit der ein Unternehmen seine zuletzt getroffene Wahl überprüft, für alle Unternehmen gleich ist. Wenn sich also ein Unternehmen zur Überprüfung seiner Wahl entschließt, so ist das mit der Wahrscheinlichkeit y ein bisheriger Cler und mit der Wahrscheinlichkeit 1 - y ein bisheriger Aler. Hat nun ein bestimmter Zustand y zum Zeitpunkt t die Wahrscheinlichkeit P(y; t), so kann man davon ausgehend für die momentane Entwicklung der Wahrscheinlichkeit dieses Zustandes öP(y; t) / öt eine einfache Wahrscheinlichkeitsflußbilanz aufstellen?2 Wahrscheinlichkeitsverluste resultieren, weil man zunächst im Zustand y sein kann und dann ein bisheriger Cler auf A oder ein bisheriger Aler auf C wechseln kann. Die Wahrscheinlichkeitsabflüsse lauten daher y q(y) P(y; t) und (1 - y) w(y) P(y; t). Man kann aber auch zunächst im Nachbarzustand y + moder y - m (mit m als Kehrwert der absoluten Unternehmenszahl) sein und dann durch einen entsprechenden Wechsel in den Zustand y geraten. Diese Wahrscheinlichkeitszuflüsse lauten (y + m) q(y + m) P(y + m; t) und [1 - (y - m)] w(y - m) P(y - m; t). Insgesamt ergibt sich damit

ßp

ßt (Yj t)

(6)

=[1 - (y - m)] w(y - m) P(y - mj t) + (y + m) q(y + m) P(y + mj t) - [(1 -

y) w(y)

+ y q(y)] P(yj t)

.

Mit dieser Differentialgleichung kann man ausgehend von einer historisch gegebenen Ausgangssituation y(t = 0) = Yo die Entwicklung der Wahrscheinlichkeit jedes Zustandes berechnen. 22 Diese bezeichnet man auch als Mastergleichung. Zu deren Herleitung und Bedeutung siehe Woeckener (FN 8), S. 118 ff und ders., Zur Relevanz der Mastergleichung für die Modellierung ökonomischer Prozesse, in: Jahrbücher für Nationalökonomie und Statistik 210 (1992), S. 412-426.

Komplementaritäten, Verhaltenskoordination und volkswirtschaftliche Evolution

93

Abbildung 6 zeigt dies für die beiden stabilen Gleichgewichtszustände im Beispiel der Wahl zwischen einem alten und einem neuen technologischen Paradigma bei Existenz von Lock-In-Bereichen. Wie schon im Vorabschnitt argumentiert, haben dann letztlich nur die beiden Zustände "alle wählen das alte Paradigma" (y = 0) und "alle wählen das neue Paradigma" (y = 1) eine positive Wahrscheinlichkeit. Alle anderen Zustände sind nur vorübergehend möglich; für y = 0.3 ist das in der Abbildung beispielhaft eingezeichnet. Dabei wurde hier eine Ausgangssituation etwas unterhalb des kritischen y = w(y)-Wertes zugrundegelegt, so daß ex ante eine wesentlich höhere Wahrscheinlichkeit für das Scheitern des Paradigmenwechsels besteht als für sein Gelingen - und damit für die Lösung des Koordinationsproblems. Dies wäre genau umgekehrt, wenn man mit einem Yo oberhalb dieses kritischen Wertes starten würde. Daran zeigt sich nocheinmal die Bedeutung der historischen Ausgangssituation für die Lösung des Koordinationsproblems. Abbildung 7 verdeutlicht, daß unter diesen Umständen die volkswirtschaftliche Evolution nicht nur als Folge der Lock-Ins irreversibel ist, sondern zudem bei Berücksichtigung der Unvollständigkeit der Information bzw. Voraussicht als "ergebnisoffen" charakterisiert werden kann. Dargestellt sind vier Realisierungen desselben stochastischen Prozesses, d. h., es wurden identische Parameterwerte und identische historische Ausgangssituationen zugrundegelegt. Zweimal entwickelt sich die Volkswirtschaft relativ schnell in Richtung einer Lock-In-Situation, zweimal steht sie relativ lange "auf der Kippe". Hätte man das Modell deterministisch formuliert, so würde die Ausgangssituation das Ergebnis determinieren. Im stochastischen Ansatz, also bei Berücksichtigung der immer gegebenen Unvollständigkeit der Information, bleibt die Frage der Lösung des Koordinationsproblem dagegen ex ante offen.

0.64

P(O;t)

0.32

-- ..... P(1;t) .'

./

0.00

......

..L..._....::::._...;.:.;.~

~

.'

.'

.'-'

.'

/"

_ _ _ _ _ _ __

Abb. 6: Wahrscheinlichkeitsentwicklung der Gleichgewichtszustände bei gleichverteilten Schocks und starken Komplementaritäten

94

Bernd Woeckener 1.0

y(t)

0.5

0.0 " - - - - - - - - - - - - - - - - -

t

Abb. 7: Vier Realisierungen eines stochastischen Prozesses bei gleichverteilten Schocks und starken Komplementaritäten

Ein ganz anderes Bild ergibt sich im Beispiel der Wahl zwischen hohem und niedrigem Produktionsniveau bei Zugrundelegen logistischverteilter Schocks. Dann stellt sich im Zeitverlauf eine geschlossene Wahrscheinlichkeitsverteilung über alle denkbaren Zustände ein, die sich nicht mehr ändert. Abbildung 8 zeigt diese" stationäre" Verteilung für den Fall starker Komplementaritäten. Diese Verteilung gibt an, mit welcher relativen Häufigkeit jeder Zustand im Zeitablauf realisiert wird. Mit sehr hoher Wahrscheinlichkeit liegt also entweder ein Boom oder eine Rezession vor. Aber auch die Zustände dazwischen haben eine positive Wahrscheinlichkeit; d. h., es kann und wird immer wieder zu Wechseln einer Realisierung zwischen Boom und Rezession kommen - die Entwicklung ist also reversibel.

0.0

0.5

1.0

Y

Abb. 8: Stationäre Wahrscheinlichkeitsverteilung bei logistischverteilten Schocks und starken Komplementaritäten

Komplementaritäten, Verhaltenskoordination und volkswirtschaftliche Evolution

95

Dies zeigt die Abbildung 9 am Beispiel zweier Realisierungen desselben stochastischen Prozesses, wobei in der Ausgangssituation eine Rezession herrscht. 1.0

y(t)

0.5

o. 0

.J...;.;..:........,...;.;....:.=.;.;...:.--_~-'--

_ _ _ _---L._ _ __

t

Abb. 9: Zwei Realisierungen eines stochastischen Prozesses bei logistischverteilten Schocks und starken Komplementaritäten

VI. Fazit Anliegen des vorliegenden Beitrags war es, zu zeigen, (1) daß Massenproduktionsvorteile über durch sie induzierte aggregierte Nachfra-

geexternalitäten und vermehrte Produktvielfalt zu ökonomischen Komplementaritäten führen können;

(2) daß diese Komplementaritäten, sofern sie stark genug sind, die Existenz von mehr als einem stabilen gesamtwirtschaftlichen Gleichgewicht bewirken können; (3) daß dann in aller Regel ein volkswirtschaftliches Koordinationsproblem auftritt (Wird das wohlfahrtsüberlegene Gleichgewicht realisiert?); (4) daß der historischen Ausgangssituation stets eine Bedeutung bei der Gleichgewichtsauswahl zukommt (wenn auch nicht immer die entscheidende); (5) daß sich bei Vernachlässigung des auch stochastischen Charakters der volkswirtschaftlichen Evolution ein qualitativ falsches Bild ergeben kann; (6) daß man bei Modellierung der volkswirtschaftlichen Evolution als einen stochastischen Prozeß, der durch starke Komplementaritäten geprägt ist, zwischen zwei Entwicklungs- bzw. Modelltypen unterscheiden kann: Im ersten Fall ist die Entwicklung letztlich irreversibel und das Koordinationsproblem gelöst oder nicht. Im zweiten Fall ist die Entwicklung reversibel und die Ökonomie versagt zeitweise bei der Lösung des Koordinationsproblems.

96

Bemd Woeckener

Aus wirtschaftspolitischer Sicht bleibt festzuhalten, daß bei Vorliegen gesamtwirtschaftlicher Koordinationsprobleme wie Entwicklungsfallen und anhaltenden Rezessionen dem Staat durchaus die Rolle eines Koordinationsagenten und Rückversicherers zukommen kann.

Ökonomische Geographie: Räumliche Selbstorganisation in der Standortverteilung Von Frank Schweitzer, Berlin I. Einleitung: Selbstorganisation

"Selbstorganisation" ist keine grundsätzlich neue Entdeckung in den Wissenschaften, wie an zahlreichen Beispielen in der Wissenschafts geschichte gezeigt wurde. 1 Auch in den Wirtschaftswissenschaften haben, spätestens seit Adam Smith, Ökonomen versucht, die Wirtschaft als ein selbstorganisiertes System zu erklären. 2 Das Charakteristische des Se1bstorganisationsansatzes liegt dabei vor allem in seiner spezifischen Sichtweise auf das jeweils erklärungsbedürftige Phänomen. Sie impliziert, daß bestimmte Eigenschaften aus dem Phänomen herausprojiziert und deshalb natürlich auch an ihm wahrgenommen werden - Eigenschaften, die vorher zwangsläufig gar nicht in den Blick der Wissenschaften geraten waren? Heute haben sich unter verschiedenen Namen, wie Synergetik, Autopoiese, dissipative Strukturbildung, selbstreferentielle Systeme, Chaostheorie, Konzepte etabliert, die die Herausbildung von Strukturen in der anorganischen und organischen Natur, in sozialen Systemen, bei Kognitionsprozessen oder komplexen künstlerischen Produktionen als Selbstorganisationsprozeß beschreiben. Die Breite der 1 Siehe dazu zum Beispiel: Wolfgang KrohnlHans-Jürgen KruglGünter Küppers (Hrsg.), Konzepte von Chaos und Selbstorganisation in der Geschichte der Wissenschaften, (SeIbstorganisation. Jahrbuch für Komplexität in den Natur-, Sozial- und Geisteswissenschaften, Bd. 3), Duncker & Humblot, Berlin, 1992; Rainer Paslack, Urgeschichte der Selbstorganisation. Zur Archäologie eines Wissenschaftsparadigmas, (Reihe: Wissenschaftstheorie, Wissenschaft und Philosophie Bd. 32), Vieweg, Brauschweig/Wiesbaden, 1991. 2 Vgl. dazu Michael Hutter, Organismus als Metapher in der deutschsprachigen Wirtschaftstheorie, in: Krohnl Krug I Küpppers (FN 3), S. 87 - 112, Heinz Rieter, Mechanistische und organismische Ansätze in der Wirtschaftswissenschaft, in: Krohnl Krug I Küpppers (FN 3), S. 51-85. 3 Frank Schweitzer, Wege und Agenten: Reduktion und Konstruktion in der Selbstorganisationstheorie, in: Hans-Jürgen Krug I Ludwig Pohlmann (Hrsg.), Evolution und Irreversibilität, (Selbstorganisation. Jahrbuch für Komplexität in den Natur-, Sozial- und Geisteswissenschaften, Band 8), Duncker & Humblot, Berlin 1997, S. 113 - 135; das., Natur zwischen Ästhetik und Selbstorganisationstheorie, in: Zum Naturbegriff der Gegenwart, hrsg. von der Landeshauptstadt Stuttgart, Kulturamt, Stuttgart: Frommann-Holzboog, 1994, Bd. 2, S. 93 - 119.

7 Selbstorganisation. Bd. 9

98

Frank Schweitzer

Anwendungen des Selbstorganisationsansatzes verdeutlicht, daß es sich dabei um einen fruchtbaren Zugang für das Verständnis komplexer dynamischer Systeme handelt. Auf der anderen Seite müssen wir aber ebenso feststellen, daß die Selbstorganisationstheorie trotz vielfältiger Bemühungen noch weit davon entfernt ist, bereits als einheitliches Paradigma für die Wissenschaft zu gelten. Dem steht bisher nicht nur der unterschiedliche Begriffsapparat, sondern auch die teilweise Inkompatibilität der verschiedenen Konzepte entgegen. Vielmehr sind die einzelnen Zweige innerhalb der Selbstorganisationstheorie erst noch dabei, gemeinsam zu einer Wissenschaft vom Komplexen zusammenzuwachsen. In diesem Aufsatz soll der Begriff"Selbstorganisationstheorie" verwendet werden, um die genannten Konzepte unter einem Namen zusammenzufassen - ohne damit allerdings die zwischen ihnen bestehenden Unterschiede verwischen oder vereinheitlichen zu wollen. Der Schwerpunkt der weiteren Betrachtungen liegt dabei auf den naturwissenschaftlich orientierten Selbstorganisationskonzepten. Im interdisziplinären Diskurs ist man bislang auf einen "Arbeitsbegriff' von Selbstorganisation angewiesen, wie er etwa durch folgende heuristische Definition gegeben ist:

"Als Selbstorganisation bezeichnet man die spontane Entstehung, Höherentwicklung und Ausdifferenzierung von komplexen Ordnungsstrukturen, die sich in nichtlinearen dynamischen Systemen über Rückkopplungsmechanismen zwischen den Systemelementen ausbilden, wenn sich die Systeme durch die Zufuhr von unspezifischer Energie, Materie oder Information jenseits eines kritischen Abstands vom statischen Gleichgewichtszustand befinden...4 Definitionen dieser Art, selbst wenn sie nur als heuristisches Arbeitsinstrument gebraucht werden, werfen eine Fülle von Fragen auf, wenn sie aus einem naturwissenschaftlich streng definierten Kontext beispielsweise in die Sozialwissenschaften oder in die Ökonomie übertragen werden. Welche Systemelemente und welche Rückkopplungsmechanismen sind hier gemeint, was ist in solchen Systemen unter der Zufuhr unspezifischer Energie zu verstehen, und woraus bestimmt sich ein kritischer Abstand vom Gleichgewicht? Zwar weiß man aus zahlreichen naturwissenschaftlichen Beispielen, etwa aus der physiko-chemischen Musterbildung, daß Ordnungszustände bei der dissipativen Strukturbildung nicht von außen vorgegeben, sondern von der Materie durch innersystemische Wechsel wirkungen selbst hervorgebracht werden. Aber schon beim Übergang zu organischen Systemen haben wir zu unterscheiden zwischen Ordnungszuständen, die "lediglich" auf der Herausbildung von kohiirentem Verhal4 Diese heuristische Definition wurde im Sonderforschungsbereich 230 "Natürliche Konstruktionen" (Stuttgart/Tübingen) vorgeschlagen, der von 1984 bis 1995 die interdisziplinäre Zusammenarbeit von Architekten, Biologen, Ingenieuren, Physikern und Philosophen zu Problemen der Strukturbildung ermöglichte. Klaus Teichmannl Joachim Wilke (Hrsg.), Prozeß und Form natürlicher Konstruktionen. Der Sonderforschungsbereich 230. Berlin: Ernst & Sohn, 1996.

Räumliche Selbstorganisation in der Standortverteilung

99

ten der Systemelemente beruhen,5 und solchen, die einhergehen mit einer internen Differenzierung der Elemente. 6 Letzteres scheint gerade auch für ökonomische

Systeme typisch zu sein, in denen individuelle Strategien der Agenten, Lernfähigkeit, Spezialisierung u.ä. einen besonderen Anteil an der ökonomischen Entwicklung haben. Diese Punkte spielen aber in den physikalisch orientierten Selbstorganisationstheorien nur eine untergeordnete Rolle, so daß sich die berechtigte Frage stellt, ob denn ökonomisch oder soziologisch relevante Prozesse überhaupt mit derartigen vereinfachten, der Physik entlehnten Modellen beschrieben werden können. Das dies durchaus möglich ist, zeigt die von Haken in den 70er Jahren als "Lehre vom Zusammenwirken" begründete Synergetik,7 die von einem vereinheitlichten Standpunkt aus eine Erklärung für die Entstehung von kollektiven Phänomenen zu geben versucht. Die in der Synergetik betrachteten Systeme sind offene Systeme, die in einem Austausch mit ihrer Umgebung stehen. Dieser Austausch kann durch sogenannte Kontrollparameter beschrieben werden, die die globale Kopplung des Systems mit seiner Umgebung erfassen. Die Systeme selbst sind aus vielen Untereinheiten bzw. Untersystemen zusammengesetzt, die miteinander über ganz unterschiedliche, systemspezifische Mechanismen wechselwirken. Durch die nichtlineare Wechselwirkung der Untersysteme können auf der Betrachtungsebene des Gesamtsystems neue Strukturen hervorgebracht werden. In physiko-chemischen Systemen bestehen diese geordneten Zustände beispielsweise in räumlichen, zeitlichen oder raum-zeitlichen Mustern, in biologischen Systemen können auch spezielle, hoch koordinierte Funktionsweisen des Systems das Resultat eines solchen Selbstorganisationsprozesses sein. Voraussetzung für die Selbstorganisation ist die Instabilität des existierenden Systemzustandes gegenüber einem qualitativ neuen Zustand, der erst noch erreicht werden muß. Ob eine solche Instabilität vorliegt, wird vor allem durch die Kontrollparameter bestimmt, die die globalen Randbedingungen repräsentieren. Ein wesentliches Resultat der Synergetik besteht in der Einsicht, daß die Dynamik 5 Kohärenz bedeutet hier, daß das zeitlich-räumliche Verhalten der einzelnen Elemente korreliert ist, daß also eine Beziehung zwischen den Elementen existiert, ein kollektiver Effekt sich herausbildet. Ein bekanntes Beispiel aus der Physik ist die Herausbildung von Rollzellen bei überkritischer Wärrnezufuhr, indem die Flüssigkeitsmoleküle anstelle ungerichteter Bewegung eine "gerichtete" Bewegung auszuführen beginnen. 6 Dies ist zum Beispiel bei der biologische Gestaltbildung der Fall, wo zu den kollektiven Effekten auch noch eine interne Differenzierung (und Weiterentwicklung) der einzelnen Elementekommt. 7 Hermann Haken, Synergetics. An Introduction. Nonequilibrium Phase Transitions in Physics, Chemistry and Biology, Berlin: Springer, 2nd ed., 1978, ders. Advanced Synergetics - Instability Hierarchies of Self-Organizing Systems and Devices; Berlin: Springer, 1983. Als gemeinverständliche Einführung: ders., Erfolgsgeheimnisse der Natur. Synergetik: Die Lehre vom Zusammenwirken, Stuttgart: DVA, 1981. Den Erfolg der interdisziplinären Anwendung belegt die von Haken herausgegebene und inzwischen mehr als 100 Bände umfassende Reihe "Springer Series in Synergetics".

7*

100

Frank Schweitzer

beim Übergang in den neuen Ordnungszustand in der Umgebung der Instabilitäten unabhängig von den mikroskopischen Daten der Untersysteme ist und nur durch wenige kollektive Variable beschrieben werden kann, die man als Ordnungsparameter bezeichnet. Die Ordnungsparameter sind also nicht von außen vorgebeben, sondern werden vom System selbst generiert: Die Untersysteme erzeugen durch ihre Eigendynamik gemeinschaftlich einen (oder mehrere) Ordnungsparameter, der seinerseits auf diese Untersysteme zurückwirkt und zwar in einer Weise, die sein Überleben selbst wieder sichert. Dies ist eine verbale Darstellung des - wertfrei zu verstehenden Versklavungsprinzips der Synergetik, das von Haken allgemein formuliert wurde. Es bedeutet lediglich, daß die agierenden Elemente durch die Art ihrer Wechselwirkung gemeinschaftlich einen Ordner konstituieren, der rückgekoppelt die weitere Entwicklung des Systems "versklavt", indem er die mikroskopische "Freiheit" der Untersysteme koordiniert. Ein solcher Rückkopplungsmechanismus kann als zirkuläre Kausalität beschreiben werden. Eine zusätzliche Rückkopplung existiert zwischen den Veränderungen des Systems und den Veränderungen in der Umgebung, die die weiteren Entwicklungsmöglichkeiten des Systems einschränken. Auf diese Weise läßt sich im Rahmen der Synergetik ein Szenario entwickeln, das die Selbstorganisation als Wechselspiel von lokalen Interaktionen und globalen Randbedingungen beschreibt. Die Prinzipien der Synergetik werden mittlerweile auf viele andere Disziplinen, wie Biologie, Psychologie und Ökonomie angewandt. 8 Dies geschieht unter der heuristischen Voraussetzung, daß die Dynamik bei der Entstehung des neuen Ordnungszustandes im wesentlichen unabhängig von der Art der betrachteten Untersysteme ist und deshalb einen universellen Charakter hat. 9 Um die Wirkungsweise des Selbstorganisationsprozesses zu erläutern, will ich mich in diesem Aufsatz mit einem ökonomisch motivierten Modell der räumlichen Agglomeration von Produktionszentren befassen. Dieses Modell greift eine Problemstellung aus der ökonomischen Geographie auf, die zunächst diskutiert werden soll.

8 Vgl. auch Frank Schweitzer (ed.), Self-Organization of Complex Structures: From Individual to Collective Dynamics, London: Gordon and Breach, 1997. 9 Was als Untersystem - oder als mikroskopisches Element - betrachtet wird, hängt von dem jeweiligen Problem ab; auch die kollektiven Variablen, die Ordner, über die das koordinierte Verhalten des Systems entsteht, sind natürlich in jedem System verschieden und oftmals nicht ohne weiteres erkennbar. In vielen realen Systemen sind die Untersysteme bereits so komplex, daß die Ordnungsparameter nicht aus den mikroskopischen Gleichungen für die Untersysteme gewonnen werden können, sondern von einer phänomenologischen (makroskopischen) Ebene her erfaßt werden müssen.

Räumliche Selbstorganisation in der Standortverteilung

101

11. Ökonomische Geographie

Unter dem Einfluß der Selbstorganisationstheorie hat auch die Diskussion um die ökonomische Geographie einen neuen Aufschwung erfahren. Offensichtlich wird die Entstehung und räumliche Verteilung ökonomischer Zentren, deren Wachstum oder Niedergang, stärker von einer raum-zeitlichen Eigendynamik bestimmt, als es in der bisherigen ökonomischen Standortlehre zum Ausdruck kommt. Ein Blick zurück in die Geschichte zeigt, daß die Raumbezogenheit ökonomischer Vorgänge bereits Anfang des 19. Jahrhunderts von Thünen lO behandelt wurde. Daran anknüpfend, hatte Weber 11 am Beginn unseres Jahrhunderts eine industrielle Standortlehre entwickelt, die bei der Frage nach optimalen Standortbedingungen für die Produktion ökonomische und räumliche Beziehungen gleichermaßen berücksichtigt. Engländer l2 erweiterte diesen Ansatz, indem er die Abhängigkeit der Preise von Marktentfemungen und Transportkosten einbezog. Zu den wichtigsten Beiträgen in der Frage nach räumlichen Modellen der ökonomischen Standortverteilung zählen aber zweifellos Christallers 13 Klassiker über die zentralen Orte in Süddeutschland und die ökonomische Standortlehre von Lösch. 14 In seinem Buch präsentiert Christaller sein berühmt gewordenes hexagonales Schema (Abb. 1), das modellhaft die räumliche Verteilung von Orten einer bestimmten ökonomischen Bedeutung beschreiben soll. Dabei ist die hexagonale Struktur, auch wenn sie sofort Assoziationen zu den Benard-Zellen in der Physikochemie oder den Zellverbänden in organischen Strukturen weckt, eher aus Gründen einer gleichmäßigen Flächenerschließung gewählt worden. 15 In unserem Zu10 Johann Heinrich von Thünen, Der isolierte Staat in Beziehung auf Landwirtschaft und Nationalökonomie, Rostock 1826. 11 Alfred Weber, Über den Standort der Industrien, I. Teil: Reine Theorie des Standortes, Tübingen 1909, (ders.), Industrielle Standortlehre, in: Grundriß der Sozialökonomik, 6. Abt., Tübingen 1914, S. 54 ff. 12 Oskar Engländer, Theorie der Volkswirtschaft, I. Teil: Preisbildung und Preisaufbau, Wien 1929. 13 Walter Christaller, Die zentralen Orte in Süddeutschland. Eine ökonomisch-geographische Untersuchung über die Gesetzmäßigkeiten der Verbreitung und Entwicklung der Siedlungen mit städtischen Funktionen, Jena: Fischer, 1933 (Neudruck: Darmstadt: Wissenschaftliche Buchgesellschaft, 1968; englische Übersetzung von C. W. Baskin: Central Places in Southem Germany, London: Prentice Hall, 1966). 14 A. A. Lösch, Die räumliche Ordnung der Wirtschaft, Jena: Fischer, 1940 (englische Übersetzung von W. G. Wog10m: The Economics of Location, New Haven, CT: Yale University Press, 1954). 15 "Wenn das Land durch ein vollkommen gleichmäßiges Netz von zentralen Orten bedient werden soll, so daß nicht zu viele und nicht zu wenige Orte dieser Art vorhanden sind, aber auch keine unbeIieferten Landstriche übrigbleiben, so müssen zentrale Orte gleichen Abstand voneinander haben. Das ist aber nur dann gegeben, wenn sie auf den Ecken gleichseitiger Dreiecke liegen, die sich ohne weiteres zu Sechsecken gruppieren." (Christaller; FN [13], S. 69).

102

Frank Schweitzer

sammenhang bedeutsamer ist die Verteilung der zentralen Orte, die sich in diesem hexagonalen Schema wiederspiegelt.

Abb. 1: System der zentralen Orte nach Christaller (FN 13, S. 71). In dem Schema ist ein Ort der ersten (höchsten) Hierarchiestufe (G-Ort) in gewissem Abstand umgeben von Orten der zweiten Hierarchiestufe (B-Ort), die wiederum von Orten der dritten Hierarchiestufe (K-Ort) umgeben sind usw. Die Linien deuten jeweils die Grenzen der zugeordenten Ergänzungsgebiete der Orte bestimmter Hierarchie an.

Danach besitzen zentrale Orte einer bestimmten ökonomischen Bedeutung l6 einen charakteristischen Abstand voneinander, der von Christaller mit der "Reichweite der zentralen Güter" erklärt wird, die an diesem Ort lokalisiert sind und von dort aus bezogen werden: "Wir können daher das Prinzip, nach dem unser System aufgebaut ist, das Versorgungs- oder Marktprinzip nennen."l7 Anders gewendet: jeder zentrale Ort hat ein der Reichweite seiner zentralen Güter entsprechendes Einzugsgebiet, von Christaller auch als "Ergänzungsgebiet" bezeichnet. 16 Christaller betont, daß diese Hierarchie nicht einfach durch die Einwohnerzahl ausdrückbar wäre, vielmehr geht es um die Berücksichtigung der konkreten Bevölkerungsverteilung und -struktur, 1 (increasing returns) und ß < 1 (decreasing returns to scale) unterschieden. Ohne weitere Diskussion nehmen wir im folgenden ß < 1 für alle Regionen an. Der Vorfaktor A, der die ökonomischen Details des Produktionsniveaus erfaßt, soll in unserem Modell insbesondere Effekte berücksichtigen, die durch Kooperation, durch wechselseitige Stimulation /Unterstützung unter den Beschäftigen entstehen können und die positive Auswirkungen auf die Produktivität haben. Ist die Zahl der Beschäftigten zu klein, so werden sich diese Synergieeffekte nicht einstellen, ist die Zahl der Beschäftigten dagegen sehr groß, so werden die positiven Effekte der Kooperation vermutlich von den Nachteilen des Massenbetriebs 8*

Frank Schweitzer

116

kompensiert. Deshalb werden kooperative Effekte vor allem in mittleren Größenordnungen der Produktion eine Rolle spielen. Dies wird in folgendem Ansatz für die Produktionsfunktion zusammengefaßt: 61 (6)

Hier ist Ä eine Konstante, die alle nicht explizit genannten Einflüsse auf die Produktivität zusammenfaßt, während das Verhältnis der Konstanten > 0 und a2 < 0 darüber entscheidet, in welchem Bereich von Z kooperative Effekte zu einer Erhöhung des Outputs führen. Abb. 4 zeigt einen typischen Verlauf der Produktionsfunktion.

a,

Mit Hilfe der Produktionsfunktion, GI. (6), sollen die noch unbekannten Größen,

w(r, t), k+ und k-, folgendermaßen bestimmt werden: Das Arbeitseinkommen ei-

nes potentiellen Beschäftigten soll dem marginalen Produkt seiner Arbeit entsprechen, also dem Produktionszuwachs, der durch seine Arbeit erzielt wird: 62 (7)

wer, t)

dY(1) = w{l(r, tn =----;n-

Legt man eine Produktionsfunktion der Form Y '" Zß zugrunde, dann wird bei

ß < I dieser Produktionszuwachs für jeden neuen Beschäftigen kleiner ausfallen.

Nimmt man an, daß es einen Minimallohn w' gibt (der zum Beispiel gesetzlich vereinbart sein kann), dann wird eine Firma nur solange Neueinstellungen vornehmen, wie w > w' gilt. Damit folgt für die Einstellungsrate: (8)

k+

= k+ {Zer, t)} = a

exp [w{l(r, t)} - w*)

Die Einstellungsrate ist also über die implizite Abhängigkeit von der Beschäftigtendichte eine Funktion der lokalen ökonomischen Situation, die natürlich raumzeitlichen Veränderungen unterworfen ist. Der Vorfaktor Cl! beschreibt hierbei die Zeitskaie für den Übergang zwischen Beschäftigung und Arbeitslosigkeit.

Schweitzer (FN 50). Diese einfachen Annahmen basieren auf dem Standardmodell der "perfectly competitive industry", das hier nicht weiter diskutiert werden soll (vgl. dazu zum Beispiel KarZ E. Case / Ray C. Fair, Principles of Economics, Englewood Cliffs: Prentice-Hall, 1992, pp. 278 ff.). Eine allgemein akzeptierte Theorie der Löhne außerhalb von Gleichgewichtssituationen gibt es nicht. 61

62

Räumliche Selbstorganisation in der Standortverteilung

>-

117

6.0

4.0 2.0 0.0 0.0

5.0

10.0

I

15.0

Abb. 4: Produktionsfunktion Y(l) über der Beschäftigungsdichte I. Die ausgezogene Linie resultiert aus GI. (6) (Parameter: Ä = 2, al = 0.06, a2 = -0.035, ß = 0.7), während die gestrichelte Linie die Produktionsfunktion ohne kooperative Effekte zeigt (al = a2 = 0).

Für die Kündigung von Beschäftigten und die Bestimmung von k- können wir im Prinzip dieselbe Argumentation wie bei k+ heranziehen, d. h. Beschäftigte werden entlassen, falls lokal dY / dl < w' gilt. Damit würde aber die für Migrationsprozesse sehr wesentliche Tatsache vernachlässigt werden, daß Beschäftigte auch von sich aus einen Job aufgeben, wenn sie anderswo eine besser bezahlte Anstellung finden können. Eine realistische Annahme für die "firing rate" sollte also neben externen Entlassungsgründen, die durch die lokale ökonomische Situation gegeben sind, auch interne Gründe für die Kündigung berücksichtigen. 63 Im Modell ist bereits enthalten, daß Arbeitslose sich bei ihrer Migration nach dem lokalen Einkommensgefälle richten. Deshalb wollen wir annehmen, daß auch Beschäftigten dieselbe lokale Information zur Verfügung steht. Damit ergibt sich für die Kündigungsrate: (9)

k-

= k- {l(r, t)} = a

exp [WO - w{l(r, t)}

+

q 'Vw]

Der Parameter q kann verwendet werden, um den Einfluß des lokalen Einkommensgefälles auf den Beschäftigten zu bewichten. Ist der Gradient 'Vw klein, dann ist die Motivation für den Beschäftigten, seinen Job von sich aus aufzugeben und eine besser bezahlte Anstellung zu suchen, ohnehin gering. 63 Anderenfalls könnte das Modell, vor allem in ökonomischen Wachstumsphasen, sehr schnell eine "dead-lock" Situation produzieren, in der Firmen zwar Beschäftigte mit höherem Einkommen einstellen würden, aber niemand kommt, weil keiner seinen bestehenden Arbeitsvertrag aufheben kann.

Frank Schweitzer

118

Damit sind die für das dynamische Modell der ökonomischen Aggregation benötigten Funktionen, f(r), k+, k-, unter Verwendung einer Produktionsfunktion, GI. (6), bestimmt worden. Ich möchte betonen, daß hier der dynamische Prozeß:

Beschäftigung

-->

Arbeitslosigkeit --> Migration

-->

Wiederbeschäftigung

explizit modelliert wird. Im Unterschied zu Krugmans Modell gibt es keine Annahme, daß dieser Prozeß mit unendlicher Geschwindigkeit abläuft, und es gibt auch keine Garantie für Wiederbeschäftigung. Im folgenden soll die Dynamik dieses Modells anhand von Computersimulationen diskutiert werden. Das vorgestellte Agentenmodell ist ein teilchenbasiertes Modell, bei dem die Migration des einzelnen Agenten explizit simuliert wird. Die eingeführte Produktionsfunktion basiert dagegen auf einer Dichte, l(r, t) - ein einzelner Beschäftigter definiert keine Produktion. Um diese Dichten zu berechnen, wird das räumlich ausgedehnte System in Boxen einer Größe (ßs)2 eingeteilt. Die Zahl der Agenten (Co, Cl) innerhalb einer Box bestimmt dann die jeweilige Dichte, l(r, t), n(r, t).64 Die Abb. 5, 6 und 7 zeigen, wie sich die Verteilung der Arbeitslosen und der Beschäftigten im Verlaufe der Zeit ändert,65 während Abb. 8 den Output der Produktion darstellt. Für die Simulation wurden 500 Agenten verwendet, deren Status (Arbeitsloser - Cl oder Beschäftiger - Co) und deren Aufenthaltsort rj zu Beginn zufällig festgelegt wurden. Insofern entspricht der Ausgangszustand annähernd einer Gleichverteilung. Um so deutlicher zeigen die Abb. 5, 6 und 8 die Herausbildung räumlicher ökonomischer Zentren im Verlauf der Entwicklung. Abb. 7 bringt die zugehörige Entwicklung der Gesamtbeschäftigung bzw. Gesamtarbeitslosigkeit in der Simulation. Die Simulation zeigt, daß sich die raum-zeitliche ökonomische Entwicklung in zwei Etappen vollzieht: (i) Während der ersten Etappe, in der Simulation etwa für t < 1.000, finden wir einen gegenüber der anfänglichen Gleichverteilung signifikant höheren Anteil an Beschäftigten (ca. 70 Prozent der Agenten). Diese arbeiten in relativ kleinen Produktionsstätten, die räumlich im gesamten System verteilt sind. Für die Herausbildung der vielen kleinen Produktionszentren spielen die kooperativen Effekte zwischen den Beschäftigten eine große Rolle, denn sie erlauben - verglichen mit dem Modell ohne Berucksichtigung kooperativer Effekte - einen relativ schnellen Anstieg der Produktion.

64 Es ist anzumerken, daß die Boxlänge Lls groß gegen die mittlere Migrationslänge pro Zeitschritt ist. Das heißt, die Bewegung eines Migraten wird tatsächlich als echte raum-zeitliche Bewegung und nicht nur als ein hopping zwischen benachbarten Boxen beschrieben. Für die technischen Details verweise ich auf Schweitzer, FN (50). 65 vgl. Schweitzer, FN (50)

9

I(u,v)

9

20

40

60

80

I(u,v)

2

t=10.000

8 9

~t

I

• v

...

Z

........

1~0 1

,Jt

7 8 u

'ill ~ 9

t=100.000

t=1.000

.;4 5 6 2 3

.,

1!"'fIIf::::-1 \

JißIf.';:;;;-'

- . .....,'

'3c:"

v

0

~~

2 3

4 5

9

v

0

2 3

u

9 v

o

2 3

2 3

u

8 9

4 5

u

6 7

8 9

1=100.000

4 5

6 7

1=1.000

~

Abb. 6: Zeitliche Entwicklung der räumlichen Verteilung der Arbeitslosen in der Simulation von Abb. 5

4 5

20

20 8 9

40

40

6 7

60

60

n(u,v)

9

80

1=10.000

u

80

n(u,v)

9

20

20 8 9

40

40

6 7

60

60

n(u,v)

80

1=100

80

n(u,v)

~

..,~

~.

CIl (") 0~

:>;"

o

N

Räumliche Selbstorganisation in der Standortverteilung

121

0.8 0.7

p- -c- - -0'0 __ , -'q ,

0.6

0--0"0 " "0-'0'

D lJ

xa> 0.5 '" - - -- ----- - - - - - - - -- - - - - - - - --0.4

0.3 0.2

t Abb. 7: Gesamtanteil Xo der Beschäftigten (0 = 0: D) und der Arbeitslosen (0 = 1: 1.000, schaffen es einige der Produktionszentren, den ökonomischen Engpaß ("Flaschenhals-Prinzip") zu überwinden, was ihnen ein weiteres Wachstum ermöglicht. Dieser Übergang, der sich in der Simulation zwischen t = 500 und t = 800 vollzieht, wird im vorliegenden Modell durch Fluktuationen der Beschäftigungszahl induziert (da wir nur eine variable Input-Größe, die Arbeitskraft, betrachten). Dies bedeutet, daß ein zufälliger Anstieg der Beschäftigung unter Umständen dazu führen kann, daß der kritische Zustand überwunden und infolge der 66 Die vielfältigen Ursachen betriebswirtschaft1icher Art, wie etwa der Anstieg von Verwa1tungskosten, die zur Begründung dieses Effektes herangezogen werden können, will ich hier nicht diskutieren.

122

Frank Schweitzer

danach wieder einsetzenden positiven Rückkopplung ein weiteres Wachstum ermöglicht wird. Dieses ökonomische Wachstum beeinflußt die Migration der Arbeitslosen. Während sie vorher annähernd gleichmäßig verteilt waren, beginnen sie nun, sich um die Wachstumszentren zu konzentrieren. 67 Dies ist rückgekoppelt wichtig für das weitere Wachstum dieser Zentren, das in dem vorliegenden Modell nur durch die NeueinsteIlung von Arbeitslosen erzielt werden kann. Die Herausbildung von deutlichen Einkommensgradienten beeinflußt außerdem die Beschäftigten, die sich in der Nähe der Wachstumszentren befinden. Für sie steigt die Wahrscheinlichkeit, zugunsten besserer Verdienstmöglichkeiten ihren Job in einer kleinen Firma aufzugeben und ihr Glück in den neuen Wachstumszentren zu versuchen. Als Resultat dieses rückgekoppelten Selbstverstärkungsprozesses finden wir also die Konzentration von Beschäftigten und Arbeitslosen in denselben Regionen während andere Regionen, die früher vorwiegend durch kleine Produktionszentren charakterisiert waren, mit der Zeit aufgegeben werden. 68 Die lokale Konzentration der Arbeitskraft in den Wachstumszentren erfolgt also letztendlich auf Kosten der früheren kleinen Produktionszentren, die in einem Konkurrenzprozeß mit den Wachstumszentren unterliegen. Interessanterweise ist dieser Konzentrationsprozeß mit einem effektiven Anstieg der Arbeitslosenrate verbunden. Während in den vielen kleinen Produktionszentren etwa 70 Prozent der Agenten beschäftigt waren, finden in den neuen Zentren, die zwar größer, aber zahlenmäßig geringer sind, nur noch etwa 60 Prozent der Agenten eine Anstellung, wie Abb. 7 zeigt. 69 Dieser Wert ist aber für die gewählten Modellparameter stabil, wie die Simulation selbst für große Zeiten zeigt. Zwar gibt es immer wieder Schwankungen, die durch stochastische Einflüsse bedingt sind, aber im Mittel bleibt die Arbeitslosenrate während der zweiten Etappe der ökonomischen Konzentration annähernd konstant. Betrachtet man die räumliche Verteilung, dann führt der ökonomische Konzentrationsprozeß im Verlaufe der Zeit zur Herausbildung von verschiedenen bedeutenden ökonomischen Regionen, die relativ ausgedehnt sind (also mehrere Boxen umfas67 Aus anthropomorpher Perspektive erscheint dieses "Verhalten" einsichtig, da die Wachstumszentren neue Arbeit und Wohlstand verheißen. Deshalb ist es mir wichtig, nochmals zu betonen, daß die Agenten dieses Modells keinerlei (psychologisch oder ökonomisch motivierte) Intentionen oder Strategien verfolgen. Es ist die grundlegende Dynamik des Systems - die Selbstorganisation, die derartige Effekte hervorbringt. 68 Die Tatsache, daß in den nicht mehr produzierenden Regionen auch die Arbeitslosigkeit verschwindet, scheint nicht mit den realen ökonomischen Erfahrungen übereinzustimmen, wonach gerade für solche Regionen eine besonders hohe Arbeitslosigkeit existiert. Dabei ist zu bedenken, daß in der Realität die Migration von Arbeitslosen durch vielfältige Faktoren unterbunden wird (zum Beispiel durch soziale Sicherungssysteme, die weiterhin einen minimalen Lebensstandard garantieren, durch vorhandenes Wohneigentum, durch sprachliche und kulturelle Barrieren u.ä.). In dem vorliegenden Modell dagegen migrieren die Arbeitslosen instantan und ohne derartige "Hemmschwellen". 69 Eine Arbeitslosenrate von 40 Prozent wird in der Realität natürlich (noch) nicht erreicht - die konkreten Zahlen sind hier durch die Modellparameter bedingt, der aufgezeigte Trend jedoch gilt allgemein.

v

o-

u

2

3 4

5

9

v

0

2

3 4

u

9 v

~

v 0

..

' .,'u'!!'' \N

2

3 4

'J ,II'I·~I i~

I.JJd:Jt7iiNJ.

_I'

• 2

3 4

.

u

6 7

a9

1=1.000

5 6

u

7

a9

1=100.000

5

. - Idl·:r1iW-:1fflilr:IJJ. .M~}(it~

::~111m

Abb. 8: Zeitliche Entwicklung der räumlichen Verteilung der Produktion in der Simulation von Abb. 5.

5

5

5

a9

10 ~

10

6 7

15 ~

15

Y(u,v)

9

20 r

1=10.000

u

6 7

20

Y(u,v)

9

5

10 r

10

a9

15

15

Y(u,v) 20

1=100

20

Y(u,v)

'" a;:;. (1)

W

N

(JQ

::>

C-

~.

:4

(1)

p..

;;;

C/}

~

p..

S'

::>

o'

::> '" ;;;. !a

oa

0= '" 0

C/}

::r (1)

:::0

"':

124

Frank Schweitzer

sen) und mehrere Subregionen mit unterschiedlicher Produktivität einschließen. Die Dynamik dieser ausgedehnten Regionen zeigt im Langzeitverhalten (bis t = 100.000) einige bemerkenswerte Eigenschaften: (a) eine stabile Koexistenz der großen ökonomischen Regionen, indem sie eine bestimmte kritische Distanz zueinander aufweisen. Dieser kritische Abstand - durchaus ein Selbstorganisationsphänomen, das sich in den Simulationen ohne äußeres Zutun einstellt - verhindert, daß sich die ökonomischen Zentren gegenseitig Konkurrenz machen. Statt dessen hat jedes Zentrum das ihm zukommende "Einzugsgebiet" herausgebildet - ein Ergebnis, das Annahmen der Theorie zentraler Orte dynamisch begründet. Die Langzeitsimulationen haben deutlich gezeigt, daß diese Koexistenz von räumlich separierten Zentren tatsächlich stabil ist. (b) ein quasi-stationäres Nichtgleichgewicht innerhalb der großen ökonomischen Regionen. Wie gerade die Computersimulationen deutlich machen, erreichen die lokalen Werte für die Beschäftigten oder die Arbeitslosen auch im Langzeitlimit keineswegs einen fixen Wert, wie er in deterministischen Modellen oder in der G1eichgewichtstheorie erzielt wird. 7o Statt dessen haben diese ökonomischen Regionen weiterhin eine Eigendynamik, die durch die Basisprozesse Migration, Einstellung und Kündigung von Agenten bestimmt wird.

v. Ausblick Wie die beiden Etappen der Computersimulation gezeigt haben, wird mit dem hier vorgestellten ökonomischen Aggregationsmodell ein für Evolutionsprozesse typischer Zyklus von ... Stabilität ---> Instabilität

--->

Stabilität . ..

abgebildet, wobei die vor und nach der Instabilität existierenden stabilen Systemzustände jeweils ganz unterschiedliche Strukturen aufweisen können. Im vorliegenden Fall ist die anfängliche Systemstruktur durch eine breit verteilte Kleinproduktion gekennzeichnet. Gegenüber dem qualitativ neuen Zustand, der konzentrierten Großproduktion, der im Verlaufe der Entwicklung erst noch erreicht werden muß, ist dieser Ausgangszustand allerdings instabil. Die treibende Kraft dieses Überganges ist letztlich die Produktion, die im Falle der Großproduktion ein höheres Einkommen ermöglicht - wenngleich für insgesamt weniger Arbeiter. Die Berücksichtigung räumlicher Entfernungen ermöglicht es, daß mehrere solcher ökonomischen Zentren miteinander koexistieren, da sie, aufgrund eines überkritischen Abstandes voneinander, sich letztlich gegenseitig keine Konkurrenz mehr machen. 70 Im Unterschied dazu vgl. zum Beispiel Krugmans Modell: "start the economy with a random allocation of manufacturing workers across locations, and then let it evolve until it converges" (Krugman, 1992 [FN 44], p. 35).

Räumliche Selbstorganisation in der Standortverteilung

125

In dieser Hinsicht reproduziert das Modell- als Ergebnis einer "bottom-up"-Beschreibung - Aussagen der Theorie der zentralen Orte, wo Einzugsgebiete eine wichtige Rolle spielen. Was in diesem räumlichen Selbstorganisationsmodell bisher noch fehlt, ist die Reproduktion einer Hierarchie von Standorten unterschiedlicher Bedeutung. Dies ist dadurch verursacht, daß wir bisher auch nur die Produktion eines Gutes berücksichtigt haben. Eine komplexere Produktionsfunktion, die unterschiedliche Größenordnungen für die Produktion verschiedener Güter berücksichtigt, könnte statt dessen auch zu unterschiedlichen Verteilungen kleiner und großer Produktionszentren und zu einer räumlichen Koexistenz von Standorten unterschiedlicher Größe führen. Es stellt sich am Ende die Frage, welchen Wert dynamische Modelle, wie das im vorherigen Kapitel dargestellte, für ein evolutionäres Verständnis der Ökonomie haben können. Dem Ökonomen mögen einige der hier verwendeten ökonomischen Annahmen zu simpel erscheinen. Dem steht die große Flexibilität des Modells gegenüber, das nur in zwei bzw. drei Funktionen von direkten ökonomischen Annahmen abhängt, die im Einzelfall beliebig komplex gestaltet werden können. Damit existiert eine relativ einfache Möglichkeit, um zu überprüfen, welche ökonomischen Faktoren tatsächlich die Standortverteilung beeinflussen und welche zwar theoretisch interessant, für die Dynamik aber letztlich irrelevant sind. Da das Modell eine raum-zeitliche Simulation der dynamischen Vorgänge erlaubt, kann auch die Ko-Evolution von Standorten untersucht werden. Bereits in der vereinfachten Variante, der Produktion eines Gutes, zeigt die Simulation, wie ökonomisches Wachstum und ökonomischer Niedergang gleichzeitig, wenn auch an räumlich verschiedenen Orten ablaufen, was zu interessanten raum-zeitlichen Strukturen führt. Indem zusätzliche welchselseitige Abhängigkeiten in der Produktion, zum Beispiel durch Zulieferung, eingeführt werden, lassen sich auch komplexere Zusammenhänge bei der Standortentwicklung simulieren.

Die Komplexität des Einfachen in der dynamischen Wirtschaftstheorie Von Hans- Walter Larenz, Jena I. Einleitung

Mit der Veröffentlichung des Aufsatzes des Zoologen Robert May mit dem Titel Simple Mathematical Models with Very Complicated Dynamics (May, 1976) ist einem breiteren akademischen Publikum verdeutlicht worden, daß selbst einfachst strukturierte Bewegungsgesetze sehr komplexe dynamische Ablaufmuster erzeugen können. Im Mittelpunkt des Interesses stand hierbei die sogenannte ChaosEigenschaft bestimmter nicht-linearer dynamischer Systeme, d. h. die Möglichkeit, daß bereits einfache Systeme aperiodische Zeitreihen erzeugen können, welche eine Irregularität aufweisen, die bisher nur in stochastischen Prozessen beobachtet werden konnte. Ferner sind solche Systeme durch eine sensitive Abhängigkeit von den Startwerten charakterisiert, d. h. bei minimalen Unterschieden zwischen zwei Startwerten liegen die entsprechenden Trajektorien nicht eng beisammen, sondern streben nach wenigen Perioden auseinander. Die Wirtschaftswissenschaften haben sich für mathematische Ergebnisse zu diesem Phänomen bereits sehr frühzeitig aus zwei Gründen interessiert. Zum einen werden dynamische ökonomische Prozesse traditionellerweise mit Differenzenund/oder Differentialgleichungssystemen modelliert, so daß neuere Ergebnisse zu formal-mathematischen Eigenschaften dynamischer Systeme unmittelbar auch die dynamische Wirtschaftstheorie betreffen. Zum anderen sind meist entweder extrem vereinfachende, sowohl lineare als auch nicht-lineare Modell-Szenarien entwickelt worden, deren einfache und reguläre dynamische Eigenschaften nicht der beobachtbaren Unregelmäßigkeit empirischer Zeitreihen gerecht wurden, oder es sind exogene Zufallseinflüsse für diese Irregularitäten verantwortlich gemacht worden. Mit chaotischen dynamischen Systemen wird der Wirtschaftstheorie hingegen ein neues Instrument zur Verfügung gestellt, mit dem beobachtbare Irregularitäten in empirischen Zeitreihen als endogenes ökonomisches Phänomen modelliert werden können. Mit den nachfolgenden Ausführungen soll die Bedeutung dieser chaotischen nicht-linearen Systeme für die dynamische Wirtschaftstheorie einer kritischen Würdigung unterzogen werden. Im Mittelpunkt wird dabei nicht die Frage stehen, ob in einzelnen Modellen die zur Erzeugung komplexen Systemverhaltens erfor-

128

Hans-Walter Lorenz

derlichen Nicht-Linearitäten aus ökonomischer Sicht plausibel sind oder nicht. Von Bedeutung soll vielmehr die Frage sein, ob das unterstellte Verhalten der am Wirtschaftsprozeß beteiligten Akteure angemessen angesichts einer regulären oder irregulären Systemdynamik ist. Hieraus entwickelt sich die weitergehende Frage, ob mit Hilfe einfacher, in der Regel niedrig-dimensionaler, nicht-linearer dynamischer Systeme die Komplexität wirklicher ökonomischer Prozesse zufriedenstelIend beschrieben werden kann. Der Beitrag ist wie folgt aufgebaut. Im folgenden Abschnitt wird die traditionelle ModelIierungsmethode der dynamischen Wirtschaftstheorie in Erinnerung gerufen. Ein einfaches Beispiel für das Entstehen komplexer Ablaufmuster in dynamischen ökonomischen Modellen wird im dritten Kapitel vorgestellt. Im vierten Kapitel wird versucht, die Bedeutung dieser Eigenschaften für die dynamische Wirtschaftstheorie einzuschätzen. Ein Kompatibilitätsproblem zwischen Modellannahmen und -ergebnissen wird im abschließenden fünften Kapitel diskutiert.

11. Linear-stochastische Modelle als traditionelle Erklärungsansätze wirtschaftlicher Zeitreihen

Ein Charakteristikum wirtschaftlicher Größen wie z. B. einzelner Güterpreise oder des allgemeinen Preisniveaus, des Beschäftigungsniveaus, des Bruttoinlandsproduktes, der Unternehmensgewinne, der Wechselkurse oder der Aktienkurse besteht darin, daß sie im Zeitablauf nicht konstant sind. Bei vielen dieser genannten Größen sind über längere Zeiträume Trends festzustellen; das Bruttoinlandsprodukt, welches den Wert der insgesamt innerhalb eines Zeitraumes in einem Wirtschaftsgebiet produzierten Güter- und Dienstleistungen umfaßt, ist z. B. in den marktwirtschaftlich organisierten Industrieländern seit dem letzten Jahrhundert in der Regel beständig gewachsen. Auch wenn keine Trends in der zeitlichen Entwicklung wirtschaftlicher Variablen erkennbar sein sollten, sind diese Größen in der Regel nicht konstant. Aktien- und Wechselkurse können sich während eines Börsentages beständig ändern. Die durchschnittlichen Verkaufszahlen eines Einzelhandelsgeschäfts mögen während mehrerer Jahre annähernd konstant sein, sie werden sich jedoch häufig von Tag zu Tag ändern. Die durchschnittliche Arbeitslosenquote mag während eines bestimmten Zeitraumes einen gewissen Wert angenommen haben, es ist aber zu erwarten, daß die tatsächlichen Zahlen in den einzelnen Monaten von diesem Durchschnittswert abweichen. In anderen wirtschaftlichen Zeitreihen können Phasen eines allgemeinen Aufschwungs von nachfolgenden Phasen eines allgemeinen Abschwungs unterschieden werden, wobei sowohl stationäre Durchschnittswerte als auch Wachstums- oder Schrumpfungstrends beobachtet werden können. Als Beispiel ist in der Abbildung 1 die Entwicklung der Wachstumsraten des Bruttoinlandsprodukts der BRD in den Jahren von 1970 bis 1997 dargestellt worden. Es ist zu erkennen, daß zwar in den meisten Jahren das Bruttoinlandsprodukt

Die Komplexität des Einfachen in der dynamischen Wirtschafts theorie

129

gewachsen ist; dieses Wachstum ist jedoch nicht stetig gewesen. Es ist auch unmittelbar keine Systematik in den Wachstumsraten zu erkennen. Vielmehr scheint es sich um eine irreguläre Zeitreihe zu handeln, die einem Zufallsprozeß gleicht.

5,00%

r---,--------.-----------------------,

4,00%

+---!\------------------------------f

3,00%

+-H----J.1+-------+----------t-+-A------r-----;-I

2,00%

~~--tl-I y

1,00%

0,00%

- -ft- r-I~

/+A-,\-A-H---A

~VI ~ \j1/\J

y~~

I h 1\ --b----.r-----A--.------tttttttr----:-+l\ --ttt--i v

~

J\,M

I\~

\

+------l-t------t--r-h-t--'--tt-l+-!H..-f1-\1--V---'-f-tt-H'J-L-tt--'--t

I~ ~

V

~

+------lj----------'/---+-------\t----'---j'

-1 ,00% +--+--"--+--'--+--'--+->-+--"--+--"--.........+->--;--0--+-'--+-'-+->-+->-+->-+->--+-'-+->-+->--+-_______+_'_---_ _ _ _ _ _- - -...................

1969

1971

1973

1975

1977

1979

1981

1983

1985

1987

1989

1991

1993

1995

1997

Abb. 1: Die Entwicklung der Wachstumsraten des Bruttoinlandsproduktes der Bundesrepublik Deutschland von 1970 bis 1997

Die dynamische Wirtschaftstheorie versucht, modelltheoretische Erklärungen für diese Änderungen wirtschaftlicher Größen in der Zeit zu finden. Das Ziel der Überlegungen besteht darin, solche Modellszenarien zu entwickeln, die - z. B. bei Unterstellung eines diskreten Zeitkonzepts - zu dynamischen Systemen der allgemeinsten Form (1)

führen, wobei I't = (Mlt, M2t, ... ,Mmt) ein m-dimensionaler Vektor von exogen vorgegebenen, vom vorliegenden Modell also nicht erklärten, z. B. normalverteilten Zufallsvariablen ist, d. h. Mit"'" N(O, af). Das Funktionensystem f(·) besteht hierbei aus deterministischen Funktionen, die grundsätzlich linear oder nicht-linear sein können. Der Einfluß der stochastischen Variablen I't kann in ökonomischen dynamischen Systemen sehr groß sein oder auch Null betragen; im letzten Fall soll von einem reinen deterministischen System gesprochen werden. Wird alternativ ein stetiges Zeitkonzept unterstellt, kann ein analoges Differentialgleichungssystem für die Entwicklung der Zustands variablen aufgestellt werden. 9 Selbstorganisation. Bd. 9

130

Hans-Walter Lorenz

Ein Differenzengleichungssystem der Art (1) kann sich auf unterschiedlichste ökonomische Größen beziehen (wie die anfangs erwähnten Preise, Wechselkurse usw.) und kann von grundsätzlich beliebiger Dimension sein. Es kann entstehen, weil einfache definitorische Zusammenhänge zwischen Variablen zu verschiedenen Zeitpunkten existieren; es ist jedoch auch möglich, daß das System das Ergebnis der Interaktion vieler wirtschaftlicher Akteure ist, bei denen Verzögerungseffekte z. B. in der Produktion von Gütern oder der Adaption an neue Umweltbedingungen vorkommen oder weil Konsumenten oder Investoren intertemporale Entscheidungen treffen, so daß der heutige Wert einer Variablen einen Einfluß auf zukünftige Werte besitzt. Dynamische Systeme wie das System (1) kommen in praktisch allen Teilbereichen der Wirtschaftstheorie wie der Preistheorie, der Konjunktur- und Wachstumstheorie oder der Entwicklungstheorie vor.

In der traditionellen dynamischen Wirtschaftstheorie bis etwa in die 1970er Jahre hat eine Konzentration auf den "deterministischen Kern" (2)

stattgefunden, d. h. in der theoretischen Erklärung eines empirischen Phänomens wurde meist von exogenen stochastischen Einflüssen abstrahiert. Dynamische Systeme wie (2) wurden in der Wirtschaftstheorie lange Zeit untersucht, um die Existenz und Stabilität der Fixpunkte der Systeme nachzuweisen. Sie wurden aber auch in Teildisziplinen untersucht, die sich explizit mit dem Phänomen beschäftigten, daß wirtschaftliche Variablen sich anhaltend nicht auf ihrem Fixpunkt-Niveau aufhalten. In der Konjunkturtheorie, d. h. derjenigen Teildisziplin der Wirtschaftstheorie, welche sich mit der Erklärung von anhaltenden Schwankungen von solchen wirtschaftlichen Variablen beschäftigt, die Auskunft über den Gesamtzustand einer Wirtschaft liefern können wie z. B. die Arbeitslosenquote oder das Bruttoinlandsprodukt, ist in den 1930er bis etwa 1960er Jahren eine große Zahl von Arbeiten erschienen, die den Konjunkturverlauf als ein deterministisches Phänomen im Sinne des Systems (2) begriffen. In der Zusammenstellung der bekanntesten Ansätze z. B. in Gabisch/Lorenz (1989) ist zu zeigen versucht worden, daß in der Literatur verschiedenste Formen dieser deterministischen Modelle anzutreffen sind. Sie reichen von einfachen linearen Differenzengleichungen zweiter Ordnung (z. B. Samuelson, 1939) über lineare Differenzen-Differentialgleichungssysteme (Kalekki, 1937) bis zu nicht-linearen Differentialgleichungsansätzen (Kaldor, 1940, und Goodwin, 1967). Etwa ab Mitte der 1970er Jahre begann sich eine neue Richtung in der Konjunkturtheorie durchzusetzen. Aus Gründen, die hier aus Platzgründen nicht weiter dargelegt werden können, setzte sich in großen Teilen der Profession die Ansicht durch, daß Erwartungen über zukünftige Ereignisse der Hypothese der sogenannten "Rationalen Erwartungen" folgen sollten. Der Ausgangspunkt dieser Überlegungen bestand in der scheinbar einleuchtenden Behauptung, daß alle am Wirtschaftsprozeß beteiligten "rationalen" Individuen auch alle zur Verfügung stehen-

Die Komplexität des Einfachen in der dynamischen Wirtschafts theorie

131

den Informationen für die Bildung ihrer Erwartungen über zukünftige Werte der Variablen benutzen sollten. Für eine praktische Implementierung dieser Hypothese ist es aber letztlich erforderlich, daß die Akteure in der Lage sind, den mathematischen Erwartungswert eines postulierten Gleichgewichtswertes zu bilden. Dies ist in vielen Fällen nur dann möglich, wenn es sich bei den dynamischen Systemen um lineare Systeme handelt. Es wird meist angenommen, daß der lineare deterministische "Kern" der entsprechenden dynamischen Systeme einen eindeutigen Fixpunkt aufweist, gegen den eine Trajektorie in Form gedämpfter Schwingungen konvergiert. Ein linear-stochastisches System der Art (I) mit dieser Eigenschaft des deterministischen Kerns erzeugt anhaltende, irregulär fluktuierende Zeitreihen. In vielen ökonomischen Modellen, welche diesen Prinzipien gerecht werden, können mit dieser Methode erstaunlicherweise recht genau eine Reihe von Eigenschaften empirischer Zeitreihen "erklärt" werden. Die von den Modellen erzeugten Zeitreihen entsprechen zwar selten genau den empirisch ermittelten historischen Zeitreihen, jedoch ist es möglich, die Modelle in der Art zu ,,kalibrieren", daß Varianz und Kovarianz in den Modellen und den empirischen Zeitreihen weitgehend übereinstimmen. Die Konjunkturmodelle dieser Richtung zählen deshalb heute vor allem im anglo-amerikanischen Raum - zu den präferierten theoretischen Erklärungen des Konjunkturphänomens. Es soll jedoch auch darauf hingewiesen werden, daß die großen ökonometrischen Modelle, mit denen die Wirtschaftsforschungsinstitute oder der Sachverständigenrat zur Begutachtung der wirtschaftlichen Lage die Wirtschaftsprognosen in der BRD errechnen, in der Regel linear-stochastische Systeme der Art (I) mit gelegentlich mehreren tausend Variablen darstellen. Der wichtigste Einwand gegen solche linear-stochastischen Systeme besteht darin, daß die Zufallsvariablen Mt letztlich dafür verantwortlich sind, daß anhaltende Fluktuationen der Systemvariablen eintreten. Es kann behauptet werden, daß nicht-ökonomische Größen somit ein zu großes Gewicht bei der Erklärung eines ökonomischen Phänomens besitzen. Unmittelbar nach der Veröffentlichung der wichtigen Arbeiten zur chaotischen Dynamik in den 1970er Jahren von Li/Yorke (1975) und May (1976) ist deshalb die Frage gestellt worden, ob nicht-lineare deterministische Systeme als Alternative zum linear-stochastischen Ansatz dienen können. Das im nächsten Abschnitt vorgestellte Modell ist ein einfaches Beispiel eines ökonomischen Szenariums, in dem sich chaotisches Verhalten einstellen kann und keine besonderen, unkonventionellen Annahmen über nicht-lineare funktionale Zusammenhänge getroffen werden müssen.

III. Ein einfaches Beispiel für chaotische Dynamik in ökonomischen Modellen

Die Mikroökonomik beschäftigt sich vor allem mit der theoretischen Erklärung der Nachfrage nach und dem Angebot an einem oder mehreren Gütern sowie der Bestimmung der Preise dieser Güter. Seit den Anfängen der Disziplin im 18. Jahr9*

Hans-Walter Lorenz

132

hundert existiert ein Referenzmodell, in dem unterstellt wird, daß jeder einzelne Akteur aus einer sehr großen Zahl von Akteuren sowohl auf der Nachfrage- als auch auf der Angebotsseite eines Marktes über so wenig ökonomische Macht verfügt, daß er nicht festlegen kann, zu welchem Preis eine bestimmte Gütermenge verkauft oder gekauft werden soll. Jeder einzelne Akteur kann lediglich bestimmen, wieviel Einheiten eines Gutes er bei einem bestimmten Preis kaufen oder verkaufen möchte. Wie und von wem der den Akteuren vorgegebene Preis festgesetzt wird, wird in der statischen Variante dieses Referenzmodells nicht untersucht; es wird allerdings davon ausgegangen, daß der sich letztlich einstellende Preis einen solchen Wert annimmt, daß bei seiner Höhe die gesamte Nachfragemenge aller Nachfrager der gesamten Angebotsmenge aller Anbieter gleicht, d. h. daß der Preis ein sogenanntes "Gleichgewichtsniveau" annimmt. In der Lehrbuch-Darstellung dieses Referenzmodells wird unterstellt, daß alle Akteure eine vollständige Information über alle Größen und funktionale Beziehungen in ihrem eigenen Umfeld besitzen. In extremen Varianten des Modells wird sogar unterstellt, daß alle Akteure alles über alle Akteure wissen. Wenn die notwendigen Informationen vorliegen, dann ist es den Akteuren möglich, Optimierungsüberlegungen anzustellen. Auf der Seite der Unternehmen bedeutet dies beispielsweise, daß eine solche Produktionsmenge gewählt wird, bei der der Gewinn maximal ist. Eine wichtige Information, die vorliegen muß, damit ein Unternehmen eine Gewinnmaximierungsüberlegung anstellen kann, besteht in der Höhe des für ihn nicht beeinflußbaren Preises. Kennt das Unternehmen zum Zeitpunkt der Entscheidung über die Höhe der Produktion den sich einstellenden Preis nicht oder kann es diesen Preis nicht aus anderen Information deduzieren, dann kann es keine Optimierung durchführen und muß die Produktionshöhe mit einem anderen Algorithmus bestimmen. Bereits gegen Ende des letzten Jahrhunderts hat L. Walras (1874) zu zeigen versucht, daß in einem sogenannten "Produzenten-Tatonnement" ohne explizite Optimierung auf der Produzentenseite eine Konvergenz auf diejenige Kombination von Preis und Gesamttransaktionsmenge eintreten würde, welche sich in einem statischen Kontext bei Optimierungsverhalten und Vorgabe des Gleichgewichtspreises einstellen würde. Die folgende Variante des Modells ist Day (1994) entnommen, der auch als erster auf die chaotischen Eigenschaften des Modells hingewiesen hat. Es sei ein Markt mit n identischen Anbietern betrachtet, deren Marktrnacht sehr gering ist und die den Preis nicht beeinflussen können. Jedes Unternehmen produziere mit einer Kostenfunktion mit den Eigenschaften (3)

Ki = Ki(Xi),

dKi

dx i

> 0,

i = 1, ... ,n,

d.h. es liegen konventionelle Kostenfunktionen mit sogenannten steigenden Grenzkosten vor. Die Variable Xi bezeichnet hierbei die Produktionsmenge des i-ten

Die Komplexität des Einfachen in der dynamischen Wirtschaftstheorie

133

Unternehmens. Wollte das Unternehmen den Unternehmens gewinn mit Hilfe eines Optimierungskalküls maximieren, müßte es neben dem genauen Verlauf dieser Kostenfunktion auch den sich einstellenden Preis kennen. Wenn es wüßte, daß sich immer solch ein Preis einstellt, bei dem die gesamte Nachfragemenge der gesamten Angebotsmenge entspricht, wenn es ferner wüßte, welche Mengen seine Mitkonkurrenten anbieten würden, und wenn es schließlich wüßte, wie die Nachfrager ihre nachgefragten Mengen von dem ihnen ebenfalls vorgegebenen Preis abhängig machen würden, dann wäre das Unternehmen in der Lage, den Gleichgewichtspreis zu errechnen. Es soll jedoch angenommen werden, daß die Akteure diese Information nicht besitzen. Um die Analyse zu vereinfachen, wird ferner unterstellt, daß sich alle Unternehmen gleich verhalten und die individuellen Angebotsmengen folglich identisch sind. Eine bestimmte Produktionsmenge Xi,t in einer Periode t wird demnach von allen n Unternehmen festgelegt, so daß die Gesamtangebotsmenge x~ = nXi,t beträgt. Auf der Nachfrageseite werden keine individuellen Nachfrager, sondern nur die gesamte auf dem Markt wirksame Nachfrage betrachtet. Die gesamte Nachfrage hänge wie üblich vom Preis des Gutes ab; die (den Unternehmen unbekannte) Marktnachfragefunktion sei eine fallende Funktion des Preises und besitze eine lineare Form = D(Pt). Es sei unterstellt, daß die Nachfrager sich spontan und flexibel an sich ändernde Preis vorgaben anpassen können. Es ist deshalb möglich, daß in jeder Periode ein solcher Preis gefunden werden kann, bei dem eine Übereinstimmung von Angebot und Nachfrage erzielt wird. Mit der Gleichgewichtsbe= nxi,r wird die inverse Nachfragefunktion zu dingung =

x:

x: x:

(4)

p; = D- 1(.i,') : = a -

b.i,'

=a-

bnxi,I>

a,b> 0,

wobei p; den Gleichgewichtspreis bezeichnet. Obwohl jedes einzelne Unternehmen diesen Gleichgewichtspreis bei der Produktionsplanung annahmegemäß nicht kennt, beeinflußt der sich schließlich einstellende Preis den Gewinn jedes einzelnen Unternehmens. Da der Gewinn als Differenz aus Erlös (Umsatz) minus Kosten und definiert ist, der Erlös jedoch aus dem Produkt von Gleichgewichtspreis, Produktionsmenge, Xi,t, besteht, lautet der Gewinn jedes Unternehmens:

p;,

(5)

Die lineare Form der (inversen) Nachfragefunktion ist dafür verantwortlich, daß die Erlöse Ei(xi,t,n) = (a - nbXi,t)Xi,t eine parabolische Funktion der individuellen Angebotsmengen Xi,t sind. (Der ökonomisch vorgebildete Leser sollte bedenken, daß trotz der parabolischen Form des Erlösgraphen es sich nicht um ein monopolistisches Szenarium handelt, welches bekanntlich zu einem ähnlichen Erlösgraphen führt.) Es ist in (5) zu erkennen, daß die Erlöse sinken, wenn die Zahl der Mitkonkurrenten, n, steigt. Die Erlösfunktionen für unterschiedliche Werte von n sind in der oberen Graphik der Abbildung 2 zusammen mit einer Kostenfunktion K(Xi,t)

134

Hans-Walter Larenz

dargestellt. Es folgt, daß auch die Graphen des Gewinns für einen gegebenen Wert von n nach unten geöffnete parabel-förrnige Graphen sind, die nach unten gestaucht werden, wenn sich die Zahl der Mitkonkurrenten, n; auf dem Markt erhöht. Obwohl auch die weiteren Parameter a und b den Gewinn beeinflussen, soll der Parameter n als Bifurkationsparameter begriffen werden.

Ki (Xi)

L -_ _ _ _ _ _ _ _

~

__

L_~

_ _~~

Xi

Xi,t+l

Abb. 2: Das walrasianische Produzenten-Tiitonnement nach Day (1994)

Das Unternehmen i realisiert diesen Gewinn Gi(Xi,t, n) erst, nachdem sich der Gleichgewichtspreis auf dem Markt gebildet hat. Es sei angenommen, daß jedes Unternehmen seine Produktionsplanung für die nächste Periode entsprechend einer einfachen Adaptionsregel durchführt, nämlich daß es seine Produktionsmenge erhöht, wenn es einen positiven Gewinn in der Vorperiode erzielt hat, und daß es seine Produktion reduziert, wenn es Verluste erwirtschaftet hat. Wenn das Unternehmen in jeder Periode somit seine Produktion um ein Vielfaches des Gewinns

Die Komplexität des Einfachen in der dynamischen Wirtschaftstheorie

135

oder des Verlusts ausdehnt bzw. einschränkt, beträgt die Änderung der Produktion in jeder Periode unter Berücksichtigung von (5): (6)

Xi,Hl - Xi,'

= >.((a -

nbxi")Xi,, - Ki(Xi,,)) ,

>. > o.

Eine Transformation der Gleichung (6) in die Standardform eines dynamischen Systems ergibt (7)

Xi,'+l =

(1 + >.(a -

nbxi"))Xi,, - >.Ki(Xi,,).

Es handelt sich - wie bei der bekannten logistischen Gleichung - um eine quadratische Gleichung (vgl. den unteren Graphen in der Abbildung 2). Verringert sich der Parameter n, wird der Graph der Abbildung nach oben gestreckt. Bei großen Werten von n ist der jeweilige obere Fixpunkt stabil; bei einem hinreichend kleinen Wert von n entstehen Periodenverdopplungsbifurkationen. Ist der Graph im Schnittpunkt mit der 45°-Achse steil genug, entsteht eine chaotische Dynamik. Einzelheiten zu Detailfragen wie der Art der Bifurkationssequenzen und der Charakterisierung verschiedener Chaos-Konzepte können in jedem Lehrbuch zur chaotischen Dynamik nachgelesen werden. Andere ökonomische Beispiele für chaotische Dynamik können leicht konstruiert werden. In der Tat existiert heute eine nahezu unüberschaubare Zahl von ökonomischen Modellen, in denen die Existenz von chaotischer Dynamik nachgewiesen wird. Die Modellszenarien sind dabei nicht auf einfache mikroökonomische Adaptionsprozesse wie im obigen Produzenten-Tatonnement beschränkt, sondern stammen aus allen wirtschaftswissenschaftlichen Teildisziplinen, die sich mit dynamischen Prozessen beschäftigen. Überblicke über existierende ökonomische Beispiele chaotischer dynamischer Systeme sind z. B. in Day (1994), Lorenz (1993) und Puu (1997) zu finden. Besonders zu nennen sind Beispiele aus der Konjunkturtheorie, in denen nicht-lineare Modelle (mit regulärem, oszillierendem Verhalten) seit den 1940er Jahren bekannt sind, und aus der Wachstumstheorie, in der besonders bei der Beantwortung der Frage, ob es ein "optimales" Wachstum geben kann, die mögliche Existenz chaotischer Zeitpfade in entsprechenden Modellen nachgewiesen wurde. Die untersuchten dynamischen Systeme sind dabei bei Unterstellung des diskreten Zeitkonzepts typischerweise ein- oder zwei-dimensionale Systeme; bei Unterstellung des stetigen Zeitkonzepts leiten die meisten Arbeiten drei-dimensionale Systeme ab; gelegentlich entstehen bei Kopplungsprozessen mehrerer Oszillatoren sechs-dimensionale Systeme. In fast allen existierenden höher-dimensionalen Beispielen ist es nicht möglich gewesen, analytische Ergebnisse abzuleiten. In der Mehrzahl aller Arbeiten wird chaotische Dynamik mit Hilfe numerischer Experimente nachgewiesen; lediglich in einigen neueren Arbeiten konnte chaotisches Verhalten mit Hilfe des Nachweises der Existenz homoklinischer Orbits etabliert werden.

136

Hans-Walter Lorenz

IV. Die Relevanz chaotischer Dynamik für die Wirtschaftstheorie

Die Eigenschaft chaotischen Verhaltens nicht-linearer ökonomischer Systeme ist für die dynamische Wirtschaftstheorie aus mehreren Gründen interessant. Da bereits in niedrig-dimensionalen dynamischen Systemen deterministisches Chaos entstehen kann, ist es nicht mehr erforderlich, große und unüberschaubare linearstochastische Systeme zu betrachten, um Zeitreihen zu erzeugen, welche mit dem empirischen Datenmaterial korrespondieren. Die Wirtschaftstheorie muß sich auch nicht mehr auf außerökonomische Einflüsse bei der Erklärung ökonomischer Phänomene beziehen. In der sensitiven Abhängigkeit von den Startwerten kann ferner eine Erklärung dafür gesehen werden, warum Prognosen künftiger Variablenwerte in den Wirtschaftswissenschaften in der Regel unzuverlässig sind. Unter der Voraussetzung, daß die zur Prognose eingesetzten Modelle eine hinreichend gute Abbildung der Wirklichkeit darstellen, und wenn diese Modelle eine chaotische Dynamik erzeugen, dann ist es erforderlich, die Startwerte absolut genau zu kennen, um mehr als nur sehr kurzfristig gültige Vorhersagen zukünftiger Variablenwerte treffen zu können. Solch eine absolut genaue Kenntnis der jetzigen Werte wirtschaftlicher Größen ist aber in der Regel nicht möglich, so daß von einer prinzipiellen Unmöglichkeit der Prognose von Zukunftsdaten in chaotischen Systemen gesprochen werden muß. Wie in allen angewandten Wissenschaften muß die Sinnhaftigkeit der Annahmen und der Ergebnisse in theoretischen Modellen diskutiert werden. Es sollen an dieser Stelle jedoch keine Details einzelner ökonomischer Modelle erörtert werden, sondern es soll lediglich auf einige allgemeine Eigenschaften existierender Modelle eingegangen werden. Eine Problematik, die typisch für alle Verhaltenswissenschaften ist, wird im fünften Kapitel beschrieben.

1. Sind die angenommenen Nicht-Linearitäten und Parameter sinnvoll?

In dem oben skizzierten Produzenten-Tatonnement entsteht die relevante NichtLinearität in Form des parabelförmigen Verlaufs der Erlösfunktion, indem eine lineare Nachfragefunktion unterstellt wird und in bekannter Art ein Preis mit einer Menge multipliziert wird, um den Erlös zu ermitteln. In anderen Beispielen chaotischer ökonomischer Systemdynamik entstehen die Nicht-Linearitäten jedoch nicht immer auf diese natürliche Weise. Die besonders von May (1976) popularisierte logistische Gleichung stellte das erste nicht-lineare dynamische System dar, welches einer größeren Zahl von Vertretern verschiedenster Disziplinen die Möglichkeit chaotischer Dynamik vor Augen führte. Viele frühe ökonomische Beiträge zum Chaos phänomen beschäftigten sich deshalb mit solchen dynamischen Modellen, die sich auf die logistische Glei-

Die Komplexität des Einfachen in der dynamischen Wirtschaftstheorie

137

chung reduzieren ließen oder die topologisch äquivalent zu dieser oder anderen bekannten ein-dimensionalen Abbildungen wie z. B. der Zelt-Abbildung waren. In der Bevölkerungsökonomik (welche sich mit dem Wachstum und der Zusammensetzung der Bevölkerung eines Wirtschaftsgebietes beschäftigt) ist die logistische Gleichung als Verhulst-Dynamik z. B. seit Jahrhunderten bekannt. In der Mehrzahl der frühen Beiträge zur ökonomischen Chaosforschung sind jedoch die Annahmen etablierter Modelle in der Weise modifiziert worden, daß letztlich dynamische Systeme mit den gewünschten, Chaos erzeugenden Nicht-Linearitäten resultierten. Ein prominentes Beispiel stammt von Day (1982), der sich mit einer Variante des grundlegenden, in den 1950er Jahren entwickelten sogenannten "neoklassischen" Wachstumsmodells auseinandersetzt. In dem Modell wird ursprünglich eine monoton steigende und konkave Produktionsfunktion unterstellt, die die maximal produzierbare Produktionsmenge in Abhängigkeit vom Arbeits- und Kapitaleinsatz angibt. In diesem ursprünglichen Modell existiert ein stabiler Fixpunkt des dynamischen Systems. Durch die Berücksichtigung eines zusätzlichen Effektes in dem Modell (einem Umweltverschmutzungseffekt) konnte erzielt werden, daß der Graph dieser Funktion für große Werte der Variablen einen Extremwert annimmt und anschließend eine negative Steigung aufweist. Für das letztlich resultierende System mit einer parabel-artigen Abbildung konnte chaotisches Verhalten im topologischen Sinn nachgewiesen werden. Die Problematik dieses Verfahrens besteht darin, daß diese Modifikationen in existierenden Modellszenarien nicht zwangsläufig Sinn machen müssen. Bei dem erwähnten Umweltverschmutzungseffekt in Day (1982) wird beispielsweise lediglich die Auswirkung von Umweltverschmutzung auf die maximal mögliche Produktion eines Landes betrachtet; andere Effekte der Umweltverschmutzung (wie z. B. die Auswirkungen auf das Bevölkerungswachstum) werden nicht berücksichtigt. Es könnte in einigen Modellen möglich sein, daß durch die nur teilweise Berücksichtigung eines Phänomens eine chaotische Dynamik erzeugt wird, eine umfassendere Einbettung in ein bestehendes Modell aber weiterhin eine reguläre Dynamik implizieren könnte. Zusammenfassend muß festgehalten werden, daß besonders die frühen ökonomischen Beiträge von dem Ziel geleitet wurden, solche ökonomischen Modelle zu konstruieren. die letztlich zu einem derjenigen dynamischen Systeme führten, für die deterministisches Chaos in der Mathematik, der theoretischen Physik oder Biologie bereits nachgewiesen war. Erst spätere Arbeiten zur Chaosforschung in der Ökonomik sind dadurch gekennzeichnet, daß die Auseinandersetzung mit einem als ökonomisch sinnvoll erachteten dynamischen ökonomischen Modell im Vordergrund steht und chaotische Eigenschaften bestimmter Modelle sich erst im Laufe der Analyse ihres dynamischen Verhaltens offenbaren (vgl. z. B. Böhm, 1993). Eine ähnliche Kritik ökonomischer Beiträge zur Chaosforschung muß bei der Wahl von Parametern vor allem in numerischen Simulationen ökonomischer Modelle vorgenommen werden. In einer größeren Zahl von Beispielen konnte ein

138

Hans-Walter Lorenz

chaotisches Verhalten nur für ökonomisch wenig plausible Parameterkonstellationen nachgewiesen werden. Dies ist z. B. in Arbeiten der Fall, in denen extrem hohe Anpassungsgeschwindigkeiten an makroökonomische Ungleichgewichte oder sehr hohe, empirisch nur sehr selten zu beobachtende Sparquoten unterstellt worden sind. Dem naheliegenden Einwand, daß in theoretischen ökonomischen Modellen nur solche Parameterwerte verwendet werden sollten, die empirisch nachgewiesen werden konnten, muß entgegnet werden, daß ein solches Vorgehen nur dann erlaubt ist, wenn eindeutig feststehen würde, welches das "richtige" Modell der Wirklichkeit ist. Da die Mehrzahl der Ökonomen vermutlich der Ansicht sind, daß ökonomische Modelle nur ein Ausschnitt aus der ökonomischen Wirklichkeit sein können und nur Teilaspekte wirtschaftlichen Lebens beleuchten können, kann es auch nicht möglich sein, den "richtigen" Wert eines Parameters eines offensichtlich reduzierten Abbildes der Wirklichkeit zu ermitteln. In der Beurteilung der Parameterwahl muß ein Kritiker sich somit auf seine ökonomische Intuition verlassen, um die Relevanz betrachteter Parameterintervalle einzuschätzen. Es scheint in diesem Licht angemessen zu sein, wenn festgestellt wird, daß etliche Beispiele chaotischer Dynamik in den Wirtschaftswissenschaften zwar als theoretische Möglichkeit bestehen, jedoch nur für unwahrscheinliche Parameterwerte eintreten könnten. 2. Korrespondieren die Modellergebnisse mit empirischen Zeitreihen?

Die Beschäftigung mit chaotischen dynamischen Systemen in der Wirtschaftstheorie ist besonders dann gerechtfertigt, wenn empirische wirtschaftliche Zeitreihen chaotisch sind. Im folgenden sei unterstellt, daß diese Zeitreihen von irgendeinem dynamischen System erzeugt worden sind, welches dem empirischen Zeitreihenforscher jedoch nicht bekannt ist. In der nicht-parametrischen Statistik sind bekanntlich mehrere Instrumente entwickelt worden, mit denen vor allem zwei Fragen behandelt werden können. Ist eine Zeitreihe vermutlich durch ein linear-stochastisches oder ein nicht-lineares deterministisches System erzeugt worden? Eine Konvergenz der sogenannten Korrelationsdimension auf einen endlichen Wert deutet auf ein deterministisches System hin. - Liegt eine sensitive Abhängigkeit von den Startwerten bei niedrig-dimensionalen Systemen vor? Hinweise auf positive Antworten können abgeleitet werden aus positiven größten Lyapunov-Exponenten und einer Konvergenz der Kolmogorov-Entropie gegen einen endlichen positiven Wert. Neben diesen "üblichen" Instrumenten zum Nachweis chaotischer Dynamik sind in den Wirtschaftswissenschaften weitere Tests entwickelt worden, um Eigenschaften nicht-linearer Zeitreihen zu erkennen. Ein weit verbreiteter Test ist der sogenannte BDS-Test, mit dem Zeitreihen auf Unabhängigkeit geprüft werden können (V g1. Granger, 1991, für eine Diskussion).

Die Komplexität des Einfachen in der dynamischen Wirtschaftstheorie

139

Die Wirtschaftswissenschaften haben sich bei der Bestimmung von Maßen wie dem größten Lyapunov-Exponenten, der Kolmogorov-Entropie oder der Korrelationsdimension mit der besonderen Schwierigkeit auseinanderzusetzen, daß die vorliegenden Datensätze - vor allem, wenn sie sich auf gesamtwirtschaftliche Größen beziehen - in der Regel sehr klein sind. Im Vergleich zu den meist prinzipiell beliebig hohen Datenmengen in naturwissenschaftlichen Laborexperimenten liegen gelegentlich nur wenige Daten für makroökonomische Größen wie dem Bruttoinlandsprodukt oder der Arbeitslosenquote vor, weil diese Daten allerhöchstens monatlich, häufig aber nur viertel- oder ganzjährig erhoben werden. Es kann somit behauptet werden, daß mit diesen kleinen Datensätzen keine verläßlichen Werte der erwähnten Maße berechnet werden können, weil diese in der Regel für unendlich große Datensätze definiert worden sind. In den wenigen Fällen, in denen die empirischen Datensätze jedoch tatsächlich groß sind, entstehen möglicherweise zwei weitere Probleme. Entweder beziehen sich die Datensätze auf sehr lange Zeiträume; Beispiele finden sich in der Bevölkerungsstatistik und der Preisstatistik besonders für landwirtschaftliche Güter. Es kann hierbei jedoch nicht angenommen werden, daß ein unverändertes dynamisches System der Art (1) für die Erzeugung der Daten existiert hat. Vorausgesetzt, daß bei der Modellierung eines empirischen Prozesses während eines bestimmten Zeitabschnitts überhaupt solch ein deterministischer Kern hinreichend genau beschrieben werden kann, dann muß davon ausgegangen werden, daß sich die Funktionen in der längeren Frist geändert haben können. Die oben erwähnten Maße sind aber für solche Systemwechsel nicht definiert. Große Datensätze, die sich auf relativ kurze Zeiträume beziehen, existieren hingegen für Wechselkurse und Finanzmarktdaten. Bei diesen Zeitreihen besteht jedoch eine Komplikation darin, daß durch institutionelle Gegebenheiten wie Ultimo-Effekt, Börsenschluß-Effekt, saisonale Effekte usw. eine Struktur im Datenmaterial entsteht, die tendenziell auf deterministisches Chaos hinweist, auch wenn eigentlich der Einfluß von Zufalls variablen überwiegen sollte. In einer Würdigung der vorliegenden Arbeiten zur empirischen ökonomischen Chaosforschung, die sich z. B. mit Zeitreihen wie der Entwicklung des Bruttoinlandsprodukts, der Beschäftigung und verschiedener gesamtwirtschaftlicher Geldmengengrößen in mehreren Ländern, der Wechselkurse zwischen verschiedenen Währungen, der Renditen auf den Gold- und Silbermärkten und der Aktienkurse beschäftigten, können die folgenden allgemeinen Ergebnisse festgehalten werden: - Deterministisches Chaos kann in einigen Zeitreihen nicht ausgeschlossen werden. Es scheint jedoch nicht der Fall zu sein, daß lange Aktien- oder Wechselkurszeitreihen bessere Kandidaten für chaotisches Verhalten als kurze Bruttoinlandsprodukt-Daten sind. - Auch wenn chaotisches Verhalten statistisch nicht nachgewiesen werden kann, gibt es in vielen ökonomischen Zeitreihen Hinweise darauf, daß die Zeitreihen überwiegend von nicht-linearen deterministischen Kernen erzeugt worden sind.

140

Hans-Walter Lorenz

Mit diesen Ergebnissen kann also die Auffassung gestützt werden, daß empirische ökonomische Zeitreihen grundsätzlich durch dynamische Systeme der Art (1) generiert werden, daß die Funktionen im Funktionensystem f(·) dabei häufig nicht-linear sind, und daß der Einfluß der Zufallsvariablen I1t nicht vernachlässigt werden sollte. Eine Aussage über die Sinnhaftigkeit der bestehenden theoretischen Modelle mit komplexem Systemverhalten kann aus diesen empirischen Arbeiten allein jedoch noch nicht abgeleitet werden.

V. Ein Kompatibilitätsproblem in der dynamischen Wirtschaftstheorie

Die chaotischen dynamischen Systeme, die in vielen Naturwissenschaften untersucht worden sind, stellen in der Regel formale Beschreibungen von Prozessen dar, bei denen eine eindeutig formulierbare Ursache eine bestimmte Wirkung hervorruft. Diese gegebene Ursache-Wirkungs-Richtung erlaubt es, unabhängig von den sich letztlich einstellenden dynamischen Effekten ein bestimmtes dynamisches System zu formulieren und z. B. Bifurkationsanalysen durchzuführen und chaotisches Verhalten nachzuweisen. Wenn das zu untersuchende Phänomen z. B. das Strömungsverhalten eines FlugzeugflügeIs in einem Windkanal ist, dann kann untersucht werden, bei welchen Parameterwerten ein turbulentes Verhalten eintreten wird. Die Ursache mag hier eindeutig in der Oberflächenstruktur des Flügels bestehen und die Wirkung sich in der Turbulenz hinter dem Flügel zeigen. Wichtig ist bei solchen Szenarien, daß die Wirkung vermutlich meist keinen Einfluß auf die Ursache besitzt, d. h. in diesem Beispiel, daß sich die Oberflächenstruktur nicht ändert, wenn sich eine Turbulenz in der Luft hinter dem Flügel entwickelt. In den Wirtschaftswissenschaften, in denen menschliches Verhalten beschrieben und erklärt werden soll, kann ein anderer Ursache-Wirkungs-Zusammenhang bestehen. Es kann grundsätzlich möglich sein, daß die aufgrund menschlichen Verhaltens eintretenden Ergebnisse die Akteure dazu veranlassen, ihre Aktivitäten zu ändern. Eine Konsequenz dieser Verhaltensänderung kann dann sein, daß sich auch die einstellenden Ergebnisse ändern. Zur Erläuterung dieses Effektes ist es sinnvoll, zwei unterschiedliche Kategorien sowohl auf der Ursachen-Seite als auch auf der Wirkungs-Seite zu unterscheiden. Auf der Ursachen-Seite sollen die Konzepte des "rationalen" und des "beschränkt rationalen" Individuums unterschieden werden: Rationales Individuum (R.!.): Es wird angenommen, daß ein Individuum grundsätzlich im Besitz sämtlicher Informationen sein kann, die es für eine Optimalentscheidung gemäß eines wohldefinierten Kriteriums benötigt. Bei den Informationen kann es sich auch um Wahrscheinlichkeitsverteilungen handeln, wenn Entscheidungen unter Risiko getroffen werden müssen. Beschränkt rationales Individuum (B.R.!.): Das Individuum agiert in einer Umwelt, in der es nicht sämtliche Informationen erhalten kann, die es für die Durch-

Die Komplexität des Einfachen in der dynamischen Wirtschafts theorie

141

führung eines Optimalkalküls benötigt. Dies kann damit begründet werden, daß die notwendige Information erst zu einem Zeitpunkt vorliegt, in dem das Individuum bereits gehandelt haben muß, oder daß das Individuum aus einer Zeitreihe keine Wahrscheinlichkeitsverteilung ableiten kann. Auf der Wirkungs-Seite soll hingegen ein einfaches und ein komplexes Systemverhalten unterschieden werden:

-

Einfache Systemdynamik (E.D.): Als "einfache" Systemdynamik sollen diejenigen regulären dynamischen Verhaltensmuster bezeichnet werden, die von einem Individuum unmittelbar erkannt werden können. Die dynamischen Systeme zeichnen sich entweder durch reguläres Verhalten aus und besitzen z. B. stabile Fixpunkte, einfache Grenzzyklen oder niedrig-periodische Orbits, oder es handelt sich um leicht verrauschte Zeitreihen mit eindeutigem Mittelwert und kleiner Varianz.

-

Komplexe Systemdynamik (K.D.): Als "komplexe" Systemdynamik sollen alle dynamischen Ablaufmuster bezeichnet werden, für deren Identifikation das Individuum besondere statistische Instrumente einsetzen muß. Diese komplexen Muster schließen z. B. hoch-periodische Orbits und chaotisches oder quasi-periodisches Verhalten ein.

Diese Unterteilung des Ursache-Wirkungs-Zusammenhangs gestattet es, insgesamt vier unterschiedliche Fälle zu unterscheiden. In der Abbildung 3 sind diese vier Fälle aufgeführt.

Fall!

Fall 2

Fall 3

Fall 4

IR.LI 1 IE.D·I

IR.I·I 1 IK.D·I

IB.R.I·I 1 IE.D·I

IB.R.I·I 1 IK.D·I

Abbildung 3

Der erste Fall entspricht der üblichen Modellierung der dynamischen Wirtschafts theorie; der zweite Fall liegt bei der Mehrzahl der existierenden Beispiele für chaotische Systemdynamik in ökonomischen Modellen vor. In der Regel kann jedoch nur im ersten und vierten Fall von einer Kompatibilität der Modellannahmen und der Modellergebnisse gesprochen werden. Wenn die Individuen eine einfache Systemdynamik beobachten, wird es ihnen auch leichter möglich sein, sich rational zu verhalten (Fall 1). Auf der anderen Seite kann die Annahme eines beschränkt rationalen Verhaltens leichter begründet werden, wenn die Individuen in einer komplexen dynamischen Umwelt leben (Fall 4).

142

Hans-Walter Lorenz

Ein Großteil der Arbeiten zum komplexen dynamischen Verhalten in den Wirtschaftswissenschaften ist dem zweiten Fall zuzuordnen; in den Modellszenarien sind die Annahmen und Resultate im Sinne der hier vorgenommenen Kategorisierung nur dann nicht inkompatibel, wenn die für die Optimierungsüberlegungen notwendigen Informationen überhaupt nicht mit der Systemdynamik in Verbindung stehen. Diese Inkompatibilität stammt vor allem daher, daß - wie oben ausgeführt wurde - viele Beispiele für ökonomische Chaos gefunden wurden, indem nachgewiesen wurde, daß existierende Modelle unter gewissen Umständen eine komplexe Systemdynamik erzeugen, oder indem diese Modelle leicht modifiziert und hinreichende Nicht-Linearitäten unterstellt wurden. Solche Modelle sind ursprünglich aber häufig für gänzlich andere Zwecke konstruiert worden. Als Beispiel sollen die bereits weiter oben erwähnten Modelle zum optimalen Wachstum herangezogen werden. Mit diesen Modellen sollte vor allem in den 1950er und 1960er Jahren die Frage geklärt werden, unter welchen Bedingungen das Wachstum einer Wirtschaft "optimal" im Sinne der Maximierung eines bestimmten Kriteriums sein kann. Als Kriterien wurden z. B. der gesamte Konsum in der betrachteten Wirtschaft in jeder zukünftigen Zeitperiode oder der gesellschaftliche "Nutzen", der sich aus diesem Konsum ergibt, definiert. Es folgt unmittelbar aus diesem Ansatz, daß der ermittelte optimale Wachstumspfad auch angestrebt werden sollte. Bei den ursprünglich ermittelten, im wesentlichen monotonen optimalen Wachstumspfaden war dies in den betrachteten Modellen möglich durch z. B. einmalige gezielte Veränderungen des Kapitalstocks oder anhaltende Maßnahmen wie die Beeinflussung des Sparverhaltens. In der neueren Literatur zur optimalen Wachstumstheorie konnte jedoch nachgewiesen werden, daß in bestimmten Klassen dieser Modelle Chaos entstehen kann. Dies bedeutet insbesondere, daß die Wirtschaftspolitik, die dafür verantwortlich ist, die Wirtschaft auf den optimalen Wachstumspfad zu leiten, verpflichtet wäre, ihre politischen Eingriffe entsprechend eines chaotischen Zeitpfades zu realisieren. Wirtschaftspolitische Institutionen könnten jedoch auch hier nur dann einen eindeutigen Pfad verfolgen, wenn sie die Startwerte mit absoluter Genauigkeit kennen würden und in jeder zukünftigen Periode die betroffenen wirtschaftlichen Größen sich exakt auf diesem chaotischen Pfad bewegen würden. In anderen ökonomischen Beispielen, die sich explizit mit einem Optimierungsverhalten von Individuen oder gesamtwirtschaftlichen Institutionen beschäftigen, entstehen ähnliche Probleme, wenn in diesen Modellen die formale Möglichkeit chaotischen Systemverhaltens besteht. Zur zweiten Klasse von Modellen entsprechend der Kategorisierung in der Abbildung 3 zählen aber auch solche Modelle, in denen das rationale oder beschränkt-rationale Verhalten von Individuen explizit nicht angesprochen wird. Dies trifft für die überwiegende Zahl der makroökonomischen Modelle bis in die 1980er Jahre zu. Obwohl diese Modelle bei der Postulierung gesamtwirtschaftlicher Funktionalzusammenhänge z. B. zwischen dem Volkseinkommen und dem gesamten Konsum einer Wirtschaft starten, wurde bei der Rechtfertigung dieser Zusammenhänge (neben statistischen Untersuchungen des

Die Komplexität des Einfachen in der dynamischen Wirtschaftstheorie

143

Datenmaterials) auf ähnliche mikroökonomische Ansätze mit Optimierungsverhalten zurückgegriffen, wie dies in den Modellen mit expliziter Optimierung der Fall war. Als Beispiel hierzu sei der Versuch erwähnt, die keynesianische Konsumfunktion aus einem mikroökonomischen Optimierungskalkül entsprechend der sogenannten dualen Entscheidungshypothese abzuleiten (vgl. hierzu insbesondere Leijonhufvud, 1968). Für die Konstrukteure der meisten dieser frühen makroökonomischen Modelle dürfte zutreffen, daß sie nur aus Praktikabilitätsüberlegungen - weil die simultane Betrachtung von Millionen optimierender Individuen unmöglich ist - einen makroökonomischen und nicht einen explizit aggregiert-mikroökonomisehen Ansatzes auf gesamtwirtschaftlicher Ebene gewählt haben. Das im dritten Abschnitt vorgestellte "Produzenten-Tatonnement" nach Walras stellt ein sehr einfaches Beispiel eines traditionellen ökonomischen Modells des vierten Falls dar. Angesichts der Komplexität der beobachteten Entwicklung des Gleichgewichtspreises verzichtet der Produzent auf eine Prognose des Preises in der Zukunft und eine entsprechende "Optimierung" seiner Produktionsmenge und verfolgt stattdessen mit seiner Produktionsanpassung an die Gewinnentwicklung eine einfache Adaptionsregel. Die unterstellte Adaptionsregel ist jedoch ein künstliches Konstrukt; wirkliche Akteure, die mit vergleichbaren Informationen versorgt sind wie das Modell-Unternehmen, verhalten sich möglicherweise nach anderen Regeln, die nur mit Hilfe der empirischen Verhaltensforschung ermittelt werden können. Das angesprochene Kompatibilitätsproblem zwischen Modellkonstruktion und dynamischem Systemverhalten weist auf ein allgemeines, wichtigeres Problem in der Wirtschaftstheorie hin. Die Wirtschaftswissenschaften sind stets bestrebt gewesen, die als komplex angesehene Wirklichkeit dadurch durchschaubarer zu machen, daß z. B. von nicht-wirtschaftlichen Phänomenen abstrahiert wurde, daß nur Ausschnitte aus der wirtschaftlichen Wirklichkeit bei der Annahme der Unveränderlichkeit anderer Ausschnitte betrachtet wurden oder daß Verhaltenshypothesen als "erste Annäherungen" an die Wirklichkeit postuliert wurden, die lediglich für einfache Umgebungen als geeignet erachtet werden sollten. Es stellt sich jedoch die Frage, ob eine zukünftige Wirtschaftstheorie weiterhin in dieser reduktionistischen Weise reale Wirtschaften zu beschreiben versuchen sollte. Modeme Wirtschaften sind dadurch gekennzeichnet, daß sich das technische Wissen beständig weiterentwickelt, daß beständig neue Güter eingeführt werden, sich Produktionsprozesse ändern und sich die Konkurrenzverhältnisse auf Märkten ändern. Wie sich Individuen auf solch eine sich ständig ändernde Umwelt einstellen, kann apriori nicht bestimmt werden. Vielmehr bedarf es der Assistenz anderer Disziplinen, um verläßliche Aussagen darüber zu treffen, in welcher Weise Individuen versuchen, Komplexität zu begreifen. Die Modellierung individuellen Verhaltens in komplexen Umgebungen wird sich vermutlich auf Ergebnisse der psychologischen Forschung stützen müssen, oder es muß ein entsprechender interdisziplinärer Forschungsschwerpunkt initiiert werden. Die formalen Instrumente zur Dar-

144

Hans-Walter Lorenz

stellung des dynamischen Verhaltens werden wahrscheinlich nicht mehr ausschließlich aus Systemen der Art (1) bestehen. Es ist davon auszugehen, daß auch in den Wirtschaftswissenschaften verstärkt von "classifier systems", Fitness-Landschaften und ähnlichen modemen ModelIierungskonzepten gesprochen wird. Mögliche Anwendungen werden in Arthur (1988), Epstein/ Axtell (1996), Holland (1988) oder Kauffman (1988) vorgestellt. Es kann heute nur spekuliert werden, ob die in einigen Naturwissenschaften diskutierte "Komplexitätstheorie" (vgl. Waldrop, 1994) in der Zukunft eine Bedeutung für die Wirtschaftswissenschaften haben wird. Die existierenden Beispiele einer chaotischen Dynamik in Modellen der dynamischen Wirtschaftstheorie verdeutlichen lediglich, daß mit diesen einfachen formalen Modellen komplexe dynamische Ablaufmuster erzeugt werden können. Die Herausforderung besteht jedoch darin, solche Modelle zu konstruieren, in denen Individuen vor dem Problem stehen, in einer als komplex empfundenen Umwelt gemäß adäquater Verhaltensregeln zu agieren. Literatur Arthur; WB. (1988): "Self-Reinforcing Mechanisrns in Economics". In: Anderson, P.W I Arrow, K.A./Pines, D. (eds.): The Economy as an Evolving Comp/ex System. Santa Fe Institute Studies in the Sciences of Complexity V, S. 9-31. Reading: Addison-Wesley. Böhm, V. (1993): "Recurrence in Keynesian Macroeconomic Models". In: Gori, F./GeronazZO, L. I Galeotti, M. (Hg.), Nonlinear Dynamics in Economics and Social Sciences, S. 6993. Berlin I Heidelberg I New York: Springer-Verlag. Day, R.H. (1982): "Irregular Growth CycIes." American Economic Review 72, S. 406 - 414. - (1983): "The Emergence of Chaos from Classical Economic Growth." Quarterly Journal ofEconomics 98, S. 201-213. - (1994): Complex Economic Dynamies, Volume I. Cambridge: The MIT Press.

Epstein, J.M.I AxteIl, R. (1996): Growing Artificial Societies. Cambridge: The MIT Press. Gabisch, G. I Lorenz, H.-W (1989): Business Cyc/e Theory. 2nd edition, Berlin - Heidelberg - New York: Springer Verlag. Goodwin, R.M. (1967): "A Growth CycIe." In: Feinstein, C.H. (ed.): Socialism, Capitalism and Economic Growth. Cambridge: Cambridge University Press. Granger; C.W.J. (1991): "Developments in the Non linear Analysis of Economic Series." Scandinavian Journal of Economics 93, S. 263 - 276, Holland, J. (1988): "The Global Economy as an Adaptive Process". In Anderson, P.W I Arrow, K.A./Pines, D. (eds.): The Economy as an Evolving Comp/ex System. Santa Fe Institute Studies in the Sciences of Complexity V, S. 117 - 124. Reading: Addison-Wesley. Kaldor; N. (1940): "A Model of the Trade CycIe." Economic Journal 50, S. 78 - 92. Kalecki, M. (1937): "A Theory of the Business CycIe." Review of Economic Studies 4, S. 7797.

Die Komplexität des Einfachen in der dynamischen Wirtschaftstheorie

145

Kauffman, S.A. (1988): "The Evolution of Economic Webs". In: Anderson, P.w./ Arrow, K.A./Pines, D. (eds.): The Economy as an Evolving Complex System. Santa Fe Institute Studies in the Sciences of Complexity V, S. 125 - 146. Reading: Addison-Wesley. Leijonhufvud, A. (1968): On Keynesian Economics and the Economics Oxford University Press.

0/ Keynes,

London:

Li, T.Y. / Yorke, J.A. (1975): "Period Three Implies Chaos." American Mathematical Monthly 82, S. 985 - 992.

Lorenz, H.-W. (1993): Nonlinear Dynamical Economics and Chaotic Motion, 2nd edition. Berlin - Heidelberg - New York: Springer-Verlag. May, R.M. (1976): "Simple Mathematical Models With Very Complicated Dynamics." Nature 261, S. 459-467. Puu, T. (1997): Nonlinear Economic Dynamies, 4th edition. Berlin/Heidelberg/New York: Springer-Verlag. Samuelson, P.A. (1939): "Interactions Between the Multiplier Analysis and Principle of Acce1eration." Review 0/ Economic Statistics 21, S. 75 - 78. Waldrop, M.M. (1994): Complexity. London: Penguin. Walras, L. (1874): Eliments d'economie politique pure. Lausanne: L. Corbaz. Englische Übersetzung: Elements 0/ Pure Economics or the Theory 0/ Sodal Wealth. Homewood: Richard D. Irwin, 1926.

10 Selbstorganisation, Bd. 9

The Economics of Dynamics in Economics By Richard E. SchuleT, Ithaca I. Introduction

"In biological terms, equilibrium means we're all dead." - Robert Barkerl This observation punctuates the anomalous fixation econornists have exhibited over the past seventy-five years in refining precise equilibrium conditions for a wide range of social and economic activity while substantially ignoring the dynarnic behavior in the neighborhood of those equilibria. Why focus on equilibrium conditions to the exclusion of dynamics when their attainment, if at all, is likely to be brief, particularly when the fundamental organic nature of humans is to change and evolve? A cynical response is that the analyst's tool-kit is limited, and that economists therefore seek to fit the problems they are addressing into the available mathematical techniques. But certainly the explosion in computational capacity over the past thirty years facilitates the numerical simulation of dynamic phenomena. The problem may be the difficulty of establishing definitive results through simulations. Although the outcomes of numerical simulations can be suggestive and instructive, one can never write Q.E.D. at the end of a simulation, just as the analyst cannot definitively prove that a statistical (or experimental) result is correct. Can it be that journal editors and referees have fallen into the same trap as have accountants and government officials? In order not be proven wrong, they are forced to accept an elaborate, if artificial, apparatus that allows them to place articles in well-defined boxes, alilabeied with different vers ions of Q.E.D. Unfortunately, outcomes of simulations and experiments will rarely be so precise. Perhaps a second reason for avoiding non-equilibrium methods in the social sciences is a natural human propensity toward certainty and stability. This too is a curious anomaly, since although by eliminating risk from everyday life, humans are freed from spending excessive time figuring out how to respond to new and unanticipated events, it is precisely by experimenting with the unknown and trying new things that individual fortunes, and the economy, expand and human rnisery, I Prof. of biology and fonner provost of Comell University in a conversation with the author.

10*

148

Richard E. Schuler

in total, is lessened. It is this second tension between human efforts to seek stability versus the possible benefits resulting from experimentation that motivates this exploration of the importance of the economics of dynamics in economics. Certainly experimentation is aventure into the unknown, and it represents dynamic steps, but if we are not sure where we are going, it may be extremely difficult to establish the equilibrium conditions of the likely new destinations. Only if the phenomena bounding the likely results of those human trials are weil known might it make sense to explore the equilibrium conditions toward which those experiments might lead. And of course, if the outcomes of those trials are like1y to move the boundaries, as will the consequences of technological innovation on an economy's capabilities, and on the bounding environment of many of its markets, as an example, then one might seriously question the efficacy of fine-tuning our understanding of equilibrium conditions if the rate of approach is no faster than the rapidity of movement in the underlying conditions defining that equilibrium. Of course dynamic phenomena have been explored selectively by economists in the past, particularly the role of savings and capital on the long term growth of an economy and the lagged response of workers to employment opportunities in labor markets. But the neoclassical growth models like SOlow'S2 presume all markets are in equilibrium, and they investigate the necessary level of savings that will maximize a weighted sum of per capita income over time. By comparison, the stochastic labor market investigations 3 acknowledge that due to lags in information flows, workers may not seize preferred employment opportunities instantaneously, thereby leading to delayed clearing of markets. The purpose of these labor market studies is to estimate the magnitude of the lags so that "structural" unemployment rates can be developed for policy prescriptions. Although forty years aga there was substantial interest in studying the cyclical behavior of economies because of the routine occurrence of business cycles 4 , as the frequency and amplitude of those events have declined because of the availability of better, up-to-date economic data so expectations can be formed more accurately, little recent effort has been placed on studying periodic (and presumably dis-equilibrium) dynamic phenomena. And in fact, the branch of macroeconomics developed over the past twenty years, labeled "rational expectations,,,5 provides a theoretical, equilibrium-based rationale for why business cycles should be minimal. 2 Robert Solow, "A Contribution to the Theory of Econornic Growth," Quarterly Journal of Economics, 70, February 1956, p. 65 - 94. 3 See Nicholas Kiefer, "Hazard Functions and Economic Duration Data," Journal of Economic Literature, 26, 1988, p. 199 - 221. 4 See A. W Phillips, "Stabilization Policy in a Closed Economy," Economic Journal, 67, 1957, p. 265 - 77. 5 See Robert Lucas, Jr., "Methods and Problems in Business Cycle Theory's" Journal of Money, Credit and Banking, 12, November 1980, p. 696 -715.

The Economics of Dynamics in Economics

149

Nevertheless, it is understanding the dynamic responses of individuals and firms to price changes, and the mechanisms by which those prices change, including the reason for the duration of lagged responses, to which astonishingly little effort has been devoted by economists. Aside from the effort to understand slow employment response in labor markets, and the recent work by Schuler6 to analyze how oliopolistic firms might adjust their prices over time where customers respond slowly to price differentials among firms, remarkably little effort has been devoted to the analysis of the extent of lags in the adjustment of markets to their equilibrium positions, let alone the economic reasons supporting that lagged behavior. While many of the consequences of alternative lagged phenomena on market clearing processes were laid out by Samuelson fifty years ago,7 he did not probe the reasons for the delays in quantity responses nor the economics of the mechanisms whereby prices are adjusted. The recent modest expansion of interest in experimental economics, particularly those investigations that trace the response of individuals over time to repeated exposure to the same experiment, offer some promise of strengthening our understanding of delayed reponses. 8 However, in many instances the experimental results outstrip the theoretical support for those observations; reality is simply too messy to be easily explained by self-contained theory. But that is no reason to discard the experimental results nor to have theorists avoid addressing those anomalies just because their existing tools seem to be inadequate. This paper, then, is a call to focus far more economic analyses on understanding and explaining the dynamics of economic movements in production, resource use and prices - particularly outside of equilibrium conditions in individual markets. Several examples are provided of applications where these insights are of importance to modem societies, and one illustration is offered of how economics can help us understand these dynamic adjustment mechanisms, and how, by understanding those dynamies, clever individuals, firms and government institutions might use that knowledge to their own advantage.

6 See Richard Schuler and Benjamin Hobbs, "Price Adjustments in Oligopolistic Markets: The Impacts of Lags in Customer Response," in Alec Gee and George Norman, Market Strategy and Structure, London, 1992, p. 125 - 42, and Richard Schuler; "Dynamic Price Patterns in Spatial OIigopolistic Markets: The Impact of Lagged Quantity Adjustments," in Manas Chatterji, Regional Science: Perspectivefor the Future, New York, 1997, p. 43 - 69. 7 Paul Samuelson, Foundations of Economic Analysis, Cambridge V.S., 1947, p. 260 - 69. 8 As an example, see lohn Bemard, et.al., "Experimental Results for Single Period Auetions," paper presented in Emerging Technologies track, Restructuring the Electric Power Industry, Thirty-First Annual Hawaii International Conference on Systems Science, January 7, 1998.

ISO

Richard E. Schuler

11. Why Dynamics Matter: The Case of Survival

A simplified version of an earlier paper by Schuler9 that explored the limits to growth imposed by the biological bounds of renewable resources, even where human ingenuity can expand production efficiency, is presented here in the traditional biological, predator-prey paradigm. The prey are the species in the environment whose availability obeys the typical logistic function 10 over the population of those species in relation to their sustaining environment. People, in turn also expand their population in accordance with the logistic law wh ich is related to the level of human population in relation to the qantity of species available that sustain them. The description of the dynamics of the sustaining species are expressed by:

Where:

S = population of sustaining species h(.) = harvest function by humans x = per capita demand, per unit time for the species N = human population 1'0, 1'\ , 1'2 = parameters.

In particular, if h = x . N and the human demand is some fraction, available per capita supply of sustaining species, then:

ß, of the

(2)

The results for the sustaining species are the familiar story illustrated in Figure

1. Providing the harvest function is not too steep, there are two equilibria, one stable at species population SI, and one unstable at a lower population level of So.

If, however, the human harvesting becomes too intense (ß rises sufficiently), the harvest function lies everywhere above the natural population logistic curve for the sustaining species, and they are driven to extinction. The parameter values required in order to avoid extinction are: (3)

9 See Richard Schuler; "The Long Run Limits to Growth: Renewable Resources, Endogenous Population and Technological Change," Journal of Economic Theory, 21, August 1979, p. 166 - 85. 10 See Robert May, Stability and Complexity in Model Ecosystems, Princeton, 1973, p. 4075.

The Economics of Dynamics in Economics

151

Similarly, the human population also obeys a logistic function where the driving force determining the rate of change in human population is the ratio of that population to the quantity of sustaining species, N / S. 11

Where:

bo, bl , b2

= parameters.

This expression has the general shape of the natural demographic function for the sustaining species shown in Figure 1, since it is assumed humans have no predators (neglect viruses and bacteria). In this case, human populations will survive so long as there are real roots, (5)

and the sustaining species are not driven to extinction (condition (3) is satisfied).

S= Change in Population

Natural Demographie Function

h=ßS = Harvest Function

o ~~~----------------------~----~-------. S,

S = Species

-Y.

Population

Figure 1: Population Dynamics of Sustaining Species in Relation to Human Harvest

II The proper expression for the dynamics of the sustaining species in equation (I) should also express S as a proportion of its sustaining species, but if we assume that the fundamental level of environmental support for the sustaining species is fixed (global warming due to industrialization is embodied in the harvest function), that underlying support can be treated as the numeraire of the system.

152

Richard E. Schuler

This model is closed, and demanded consumption is feasible so long as it is some fraction of the available per capita stock (ß < 1 in equation (2)). Therefore, per capita income equals the per capita harvest. (6)

The dynamics of the entire system can be explored qualitatively in terms of human population levels, N, and human per-capita income, y, by substituting equations (6) and (2) into (1) and (4), and in turn, by identifying the loci of the steadystate conditions for N and S(N = S = 0). N = Human Population

y=O y=

Yo

Yt

y=O

per capita incorne

Figure 2: Phase Diagram of a Predator-Prey Model Governing the Human Condition, Based Upon Renewable Resources

Figure 2 illustrates these loci under parameter values that are least likely to lead to human extinction (inequalities (3) and (5) are satisfied). While four possible equilibria are shown, two are saddle points and two are oscillatory; thus, to understand the human prospect in this ecological framework, it is equally important to understand the dynamics sUITounding the equilibria as it is to identify the equilibria locations. As examples in Figure 2, once thrown off the high income equilibria points 1 or 2, society may find its way back, but it could also be hurled toward the

The Economics of Dynamics in Economics

153

lower income equilibria loci through paths like those labelled, L, or it might consume itself to even higher levels of income by continuously diminishing population until humans vanish, as show in the paths labelled H. In this example, understanding the dynamics in the neighborhood of the equilibria is at least as important as knowing where the equilibria are located. Similar results derive from Schuler's earlier paper l2 which incorporates technological change and a partial "escape" from the biological imperative; those multiple equilibria remain saddle points or oscillatory, so dynamics matter, not only in terms of which equilibrium is attained, but also in how the system evolves. IH. Dynamics in a "Sophisticated" Urban Society

Human activity in a complex industrialized setting can nevertheless be represented by a predator-prey-type analog, like Figure 2, if instead of biological species, a variety of businesses are thought of as the human prey. Through the employment of people, those firms produce the goods and services the poplulation values (some of which are essential for human survival) in exchange for the wages and business profits that people use to acquire a share of the business output. Here, however, instead of a hierarchical relationship between predator and prey as in the previous example, the links are symmbiotic with people relying on business for their sustenance (products and services) and business relying on people (workers) in order to produce. If two other complications are added, that production takes place at a specific geographic location, e.g. in cities, and people are free to vary their location (e.g. migrate), then even for a community that may have achieved some internal state of equilibrium between the natural growth of human population and the dynamics of production, the overall dynamics of an urban area will hinge upon those migration forces. As an example, in a previous analysis of urban dynamics, Schuler l3 reduced the problem to two simple relationships, one describing production capabilities and the other, population migration dynamics: (7) where:

y' =f(N,G/N6 )

=Average ouput per worker =f(.) G = Level of public infrastructure 8 = Congestion parameter (0 ::; 8 ::; I).

y*

Schuler; (FN 9) See Richard Schuler; "Urban Dynamics and Municipal Finance: Managing Public Infrastructure," in T. Lakashmanan and P. Nijkamp, Structure and Change in the Space Economy, Berlin, 1993, p. 219 - 38. 12 13

154

Richard E. Schuler

(8)

%=m(/(I-r),

where:

~8) -mo

m(.) = value of living in city r = effecti ve tax rate (to support G)

mo = average value of elsewhere.

Here the average product of labor, y*, is thought to have the typical inverted ushape introduced in every microeconomics textbook, rising initially because of threshold effects but eventually falling due to congestion, perhaps with respect to available land in the city. Production can be enhanced, however, through the provision of municipal infrastructure, G, which is also subject to congestion if 8 > O. Equation (8) describes the migration dynamics whose rate is proportional to the difference between the value of living in this city versus the average value derived from living elsewhere. 14 The anticipated value from living in any particular location is enhanced by the average income expected, net of taxes, plus the net value derived from municipal infrastructure. y = per capita income

G y*= f(N'N.)

N,

N - population

Figure 3: Simple Urban Dynamics 14 With real costs of decision-making and relocation included, a lag mechanism would have to be added to equation (8).

The Economics of Dynamics in Economics

155

In this illustration with the assumption that all businesses within the urban area adjust their employment and output instantaneously as deseribed by equation (7), then the dynamie paths are restrieted to the y' = f(.) loeus in Figure 3. Thus, the analogy with the predator-prey model in Figure 2 is imperfeet both beeause in the produetion ease, there is asymmetrie (as eontrasted to hierarehieal) relationship between worker and business (and / or business and eonsumer) and beeause to foeus on the influenee of population migration, the existing population is always assumed to be in equilibrium with respeet to the employment desires of the firm. In Figure 3, the dynamies are introdueed by migration phenomena, and any eombination of population and per eapita ineome lying above the N = 0 loeus will induce in-migration; points lying below will lead to net outflows in population. With a stable population at NI and an unstable equilibrium at No, this illustration is very similar to the basic logistie relationship used to describe speeies population dynamics in Figure 1, even though no biologieal eoncepts were used to develop this model. Although similar in form, the interpretation of the urban dynamie model in Figure 3 is substantially different than the biological models. Notice that due to individualized migration decisions, the stable city size, NI, is larger than the size that maximizes per capita income. Second, any community falling below the threshold size of No will experienee eontinuous population drains until it vanishes. Furthermore, the eongestive effects of ever-rising population on production can be overcome in part by providing municipal infrastructure services which expand the per capita production possiblity dome (the y' = f(.) loeus) and increase the stable equilibrium level of populations, NI, and its associated level of average per capita income. Unfortunately, someone has to pay for these municipal services, and in the model of Figure 3, the citizens bear the tax burden. In this case, it can be shown that increasing tax rates, which reduce per capita disposable income, forces the N = 0 loeus up; whereas, an increase in municipal infrastructure services valued by the city's citizens forees the N = 0 locus down. Thus, munieipal govemment is faced with a balancing act. In particular, if taxes to support services get too high in relation to how they've valued by the city's current and potential residents, the N = 0 locus can rise above the y' = f(.) locus, the city becomes unstable and the population floods out to other communities. In particular, a community seeking to increase it's residents' wealth by engaging in a substantial infrastructure expansion program, financed largely by debt, may look very good in the short run as both the y' = f(.) locus shifts up and the N = Olocus shifts down. At this point, the dynamics - the speed of population migration - becomes crucial. If massive immigration ensues, there may be a suffieient number of new workers to pay off the debt raised to build the infrastrueture, without any appreciable increase in tax rates. If, however, the migration response is slow, tax rates may have to be raised sharply in order to service the debt, forcing the N = 0 locus back up. If the two loci in Figure 3 approach a tangency condition, the threat of disaster looms near.

156

Richard E. Schuler

Once again, even with this tremendously simplified urban model there are multiple, and one unstable, equilibria so understanding the reasons for and magnitudes of the speeds of population and production adjustment may be more important than knowing precisely where the equilibria lie. IV. Economics of Lagged Adjustments

In several earlier papers 15 , the economic rationale for lagged quantity adjustments by economic agents in adopting seemingly favorable alternatives were explained on the basis of the costs of search, random flows and recognition of information and substantial costs required to change the collaborating agents. In fact, the process of changing suppliers, employers, etc. can be divided into two steps: first, becoming aware of the availability of a new opportunity, and second, validating the information and effecting the transition. With a constant rate of information bombardment about better opportunities, the probablility of becorning aware of better prospects is proportional to the fraction of the population that remains uninformed. Thus as more and more people become aware and adopt a better opportunity, the proportion of the population remaining to be educated declines - a saturation phenomenom. Conversely, even as agents become aware of a better opportunity, they may be reluctant to adopt it unless they receive some confirmaiton from previous users about the validity of the information. This rate of validation, then, would be proportional to the fraction of the population using the agent offering the better opportunity. Thus in terms of changes in market share achieved by an agent offering a better opportunity, that change would be directly proportional to their existing share (an accelerating pehnomenom), or proportional to the available market share currently held by others (a decelerating function of existing market share), or both, which yields an S-shaped logistic adjustment process. Furthermore, if there is a threshold level of advantage that must be exceeded before any change in agent will occur, perhaps because of transition costs, then there is an additional impediment to rapid qauantity responses to apparent economic advantages. Furthermore, different time constants associated with these adjustment mechanisms can be supported under different circumstances. However, there is a second dimension to the dynamics of out-of equilibrium pehnomena - the rates at which prices or incomes change in relation to quantity imbalaru:es, as in the predator-prey models of Section II or the rates at wh ich tax rates are altered through the political / admnistrative process as arise from the municipal finance implications of the model in Section III. In both of these applications available theory to support the dynarnics of price or tax rate adjustment is even sparser than in the ca se of lagged quantity adjustments. 15

Schuler (FN 6)

The Economics of Dynamics in Economics

157

Any theory of the rates of price adjustment must begin with an understanding of the various market mechanisms through wh ich prices are established; in this case institutional structure should dictate the theory. As an example, even in an auction where buyers and seilers (or their agents) are brought together simultaneously, there will be some lag between changes in supply and demand quantity preferences and the rate at which the declared price can change, both because of technicallimitations to how frequently the auction can be repeated and the nature of the auction process (single or double sided, single or multiple units per bid, last accepted or first rejected offer setting the price, and on a uniform price auction, English auction, etc.). In turn, economic factors determine how frequently the auction can be repeated, and this is an issue currently being debated in the United States as auctions for electricity supplies are being established, where supply and demand needs to be matched virtually in real time so the electricity supply system will remain stable. The issue is, how rapidly can electrical system operators respond to new power flow requirements, and how frequently can demand and supply agents, and their auctioneers, update their bids and offers so that the physical stability of the electric system can be maintained? The answer is: we don't know, theory can't tell us and so we will learn by experimentation. Here, however, the potential social cost of error is enormous. Of course the 'market' for many goods and services conveyed in a modem economy is less perfectly competitive than is an auction. Merchandise or services sold through stores or catalog will typcially have aposted price, and while in theory those prices can be updated minute by minute, in practice since many consumers cannot compare alternatives minute by minute, there is some incentive to maintain posted prices for a minimum duration (one day, one week, etc.). But that means prices will not change instantaneously in reponse to variations in demand / supply conditions, and it suggests a further departure from time spent under equilibrium conditions. As the number of suppliers in any market declines, the opportunity to engage in stategic, price-setting behavior increases, further complicating the dynamics of price adjustment. As an example, in an oliopolistic industry with a small number of suppliers of a similar good or service, if consumers don't instantaneously abandon their current supplier when a competitor offers a lower price (for reasons decribed above), then what is the optimal pricing strategy for the incumbent firm in the face of this competitve threat? The ans wer hinges on the speed of market share decline in relation to the price spread and the incumbent's initial market share. For a wide range of parameter values it has been shown that a dominant firm with more than two-thirds of the market is likely to hold firm to a monoply-level price, even in the face of market-share loss to a competitor offering a price close to marginal COSt.1 6 16

Richard Schuler (FN 6).

158

Richard E. Schuler

In fact, these models have been ealibrated in order to estimate, ex-post, AT&T's prieing polieies for long-distanee ealling in the Uni ted States, and the optiomal game-theoretie strategy was for AT&T to retain a monopoly-level priee, weil above the lower eompetitive offereings by MeI and Sprint, until AT&T's market share dropped below 70 pereent, a proeess estimated to take about seven years giyen the slow rate of eustomer adjustment 17. In faet, the faets support the theory; but seven years before low eompetitive priees are matehed by the dominant supplier is quite a long lag in terms of reaehing the new equilibrium. In between mueh ean ehange in terms of teehnology and preferenees. Onee again, the parameters determining the loeation of the equilibrium priees (here a Nash, game theoretie equilibrium) are likely to ehange substantially in the teleeommunieations industry over the many years' lag estimated to be required for priees to reaeh that point. If eeonomic analysis is intended to understand and prediet reality, then understanding the nature and dura ti on of those priee movements is at least as important as speeifying the eorreet equilibrium eonditions. This strategie behavior in setting priees in oligopolistie markets, furthermore, is indieative of the nature of likely adjustment proeesses in munieipal administrative, proeedures. As outlined in the urban infrastrueture dynamie model of Figure 3, key parameter shifts in the migration model arise from the provision of eapital infrastrueture in response to population and produetion ehanges, how that infrastrueture is finaneed and how rapidly tax rates ean be adjusted to meet unanticipated eireumstanees - usually a painful, slow proeess. To the extent that those politieal / administrative ehanges involve strategie behavior, as in the oliopolistic market priee response ease, extremely long lagged responses ean be expeeted in attempting to meet ehanged urban demographie and eeonomic eireumstanees. For poliey purposes, again, understanding the lags may be more important than aehieving precise estimates of the eventual new equilibrium eondition.

v. Summary and Future Directions Through these illustrations, the importanee is emphasized in many eeonomic analyses of understanding the dynamie, out-of-equilibrium adjustments in quantities and priees. While usually derived from numerieal simulations and / or experimental results, rather than the preeise mathemetieal proofs that eharaeterize many equilibrium analyses; neverthe1ess, a better understanding of the dynamies may be more benefieial in attaining eeonomie improvement than would be greater preeision in predieting the target equilibria. Partieularly in the eireumstanees illustrated here where multiple, unstable equilibria predominate, and / or where rapidly ehan17 See Richard Schuler and Richard SchuleT, Jr., "How Rapidly Might Prices Fall Following Competition in Telecommunications Markets?," Proceedings of the NARUC Biennual Regulatory Information Conference, Vol. 3, Columbus, OH, Sept. 11, 1996, p. 3 - 18.

The Economics of Dynamics in Economics

159

ging events alter the location of equilibria more frequently than the time that the adjustment lags require for convergence, then substantial benefits might be derived from a greater focus on the economics of the dynamics. Factors reinforcing this claim are the continuing advances in technology which vary the parameters determining the equilibrium conditions, as do massive marketing compaigns that seek to alter consumer preferences. Whenever the "new, improved" version of a product takes precedence over the "tried and true," these concems about the relative importance of understanding dynamics, as compared to equilibrium conditions, emerge. In economics, we rarely know where we've come from (until many years later, because of lags in data development) and we certainly are not sure where we are going, but we may be able to estimate how our trajectories change when nudged by new technology, social passions and private preference swings. In the end, it may be far more important to understand those dynamic reponses weIl, rather than to be so precise in identifying where we think we are heading. Can we hope to get there before we change our minds? Any systematic understanding of how these complex human systems evolve, on a time scale of interest to most members of the current generation, must begin with an understanding of the nature and extent of the out-of-equilbrium dynamics described here.

Simulation Methodology in Evolutionary Economics By Witold Kwasnicki, Wroc1aw

Simulation seems to be one of the most important research tools of modem economic analysis. Its development is strongly correlated to progress in computer technology. The increasing computational power of modem computers allows simulation with more adequate metaphors and analogies to real processes. One of the leading branches of economic analysis applying the simulation approach is evolutionary economics, but even within this field of research the importance of simulation is not uniform. In the first section of this artic1e a short analysis of the role played by simulation in evolutionary economics is presented. The second section deals with the use of the simulation approach in analysing and understanding real phenomena. Problems of model testing and validation are also presented in this section. A variety of simulation approaches to analysing economic development are presented in the third section. Two main streams of models, namely those rooted in Schumpeterians tradition and the agent-based approach, are characterized. Working out a so-called common platform (i.e., software which would be able to model economic development and can be used both by economists ski lIed in computer programming and those not familiar with it) is being pursued at the moment. In the last section three propositions about such common platform are briefly discussed. I. The place of the simulation approach in evolutionary theorizing The expression 'evolutionary economics' is used in many and in some cases very different approaches to analysing economic phenomena. In the most general understanding it is used to emphasize the role of change in economic processes in opposition to the economic analysis focussed on static and equilibrium properties. In a narrow sense it relates to economic analysis based on analogies and metaphors borrowed from the theories of Charles Darwin, Alfred Russell Wallace and Jean Baptiste Lamarck. The term 'evolutionary' is used in the last decades by several economic schools, namely the Austrian School, neo-Schumpeterians, and institutionalists what is presented in very schematic way in Figure 1. Arrows indicate the main influences of different authors and researchers. A more detailed description of those influences and different views of evolutionary economics is presented in 11 Selbstorganisation. Bd. 9

Witold Kwasnicki

162

Kwasnicki (1996) (see also Hodgson, 1993). Contemporary evolutionary economics has its roots in biology (Darwin, Wallace and Lamarck) as weIl as in the c1assical school of Smith, Hume and Ferguson. It is necessary to emphasis the influence of social sciences on the emergence of Darwin and WaIlace's theory of biological evolution, based on the hypotheses of natural selection (what is indicated by arrows from Smith, Hume, Ferguson, and Malthus, Babbage and Jones).

Jaan B. da Lamarck

1700

1800

1900

2000

Figure 1: Roots oi evolutionary economics

After the first attempt to define an evolutionary approach in economic analysis at the end of nineteenth century and the beginning of the twentieth, further progress was essentially slowed down. There are a few reasons for the chuck to further development of the idea of 'biological economics' in the first decades of the 20th century. Biological evolution was still a young science. Although Darwin's ideas significantly influenced the work of social researchers, these influences were visible at the level of concepts, not at the level of formal, mathematical models of socio-economic phenomena. Research was focussed on qualitative description and c1assification problems. Almost no progress was done in quantitative approaches which would allow the construction of mathematical models. In such circumstances application of weIl-known and reliable mathematical tools borrowed from

Simulation Methodology in Evolutionary Economics

163

Newtonian mechanics, tools developed and applied for decades by physicists, was much easier and more fertile. One of the popular themes of that period was competition as the basic force controlling economic processes. Competition was treated as a force analogous to Newtonian gravitation, allowing to reach equilibrium, but not as a selective force, in the Darwinian sense. All these economic considerations missed almost completely the problems of technological change. Diversity of products and processes, diversity observed in everyday economic life, is caused by technological change. Up to the 1950s all considerations of economic process in terms of an evolutionary perspective were confined to a verbal description. Neoc1assical models have an elegant, mathematically aesthetical form and this feature has led to their popularity and wide acceptance within the economic profession. Most of these models were linear ones, mainly because of their relatively ease of analytical tractability. Evolutionary models, to capture the essence of the evolutionary approach, ought to be nonlinear ones - this very requirement has not allowed for their analytical treatment. Thanks to the development of computer technology during the 1950s and 1960s it was possible to build and to analyse behaviour of evolutionary models. Evolutionary economics is still at the initial phase of its development. The evolutionary paradigm in economic analysis is far from a mature formulation, but development of evolutionary economics in the last decades allows us to conc1ude that the description of economic process and behaviour of economic agents at the micro- level, as provided by researchers working within evolutionary paradigms, is far more complete and c10ser to reality then the description proposed by orthodox economists. But there is still no satisfactory evolutionary description of macroeconomic processes. There is general lack of evolutionary models describing the development of national or global economies. The first attempts based on the bottom-up approach lead to large-scale models of national or multinational economies. Therefore these models are very difficult to folIowand there are problems with a full understanding what is going on in them. The advantage of neoc1assical models is that the macroeconomic models exist, although highly aggregated and with very unrealistic assumptions but they are relatively easy to use and to understand their structures. Further development of evolutionary economics requires efficient and very specific tools of formal analysis. As Kenneth Boulding (1991) writes: "one of the great opportunities ... for the next few decades is the development of a mathematics which is suitable to social systems, which the sort of 18th-century mathematics which we mostly use is not. The world is topological rather than numerical. We need non-Cartesian algebra as we need non-Euc1idean geometry, where minus minus is not always plus, and where the bottom line is often an illusion. So there is a great deal to be done". The simulation approach, mostly used in the analysis of nonlinear, evolutionary models in economic analysis, seems to be very useful but it still does not completely fulfill the requirements for it to be considered as a fully appropriate tool offormal analysis. (see the discussion in the following section). 11*

164

Witold Kwasnicki

Using the evolutionary approach to analyse socio-economic processes has many advantages over the orthodox, mechanistic approach, e.g., contrary to the orthodox view, the problems of irreversibility ('time arrow') lies in the centre of interest of evolutionary economists. In contrast to the neoc1assical approach, evolutionary economics focuses on a dynamic view of economic processes. Transitional stages and processes in far-from-equilibrium states are considered to be much more interesting and c10ser to reality. But the evolutionary approach also allows us to investigate economic processes at the equilibrium state and to compare results with those of the neoc1assical approach. In most cases, evolutionary economics confirm wellknown findings of neoc1assical analysis. Qualitative as well as quantitative changes are also placed within the frame of interest of evolutionary economics. An important criterion used by researchers in preferring one or another approach is the potential for further development. It seems that the neoc1assical paradigm has reached the limits of its development, whereas the evolutionary paradigm, although as old as the neoc1assical one, and developing much slower in the last 100 years, still has wide possibilities for further development. The computer simulation approach may be considered as one such alternative way to develop an apparatus of economic analysis. 1 Discontinuities of development are natural phenomena observed in socio-economic processes, and in asense, these discontinuities form the essence of socio-economic systems. In principle difference equations are applicable in economic analysis when we assurne continuity of changes. But the differential calculus breaks down if one tries to apply it to describe discontinuities of deve1opment. The search for alternative approaches of economic analysis goes in different directions, for example, applications of chaos theory, fuzzy sets theory, catastrophe theory and game theory, to name only a few. Three distinct evolutionary schools, namely Austrian, institutionalists and neoSchumpeterians have been mentioned earlier. Out of these three schools only neoSchumpeterians widely apply formal modelling and the simulation approach to economic analysis. Institutionalists and the Austrians prefer verbal and graphical representations of economic phenomena. Therefore it is not surprise that some institutionalist call neo-Schumpeterians 'simulationists'.

1 The application of computer simulation may be misused; it is very easy to make a simulation model so complicated that nobody except the builder of the model is able to comprehend and use it in research. A new formal apparatus should be very carefully designed and should be a rational combination of 'old' mathematics developed in physics and a pure simulation approach, frequently based on a far-reaching analogy of real mechanisms of development and the model.

Simulation Methodology in Evolutionary Economics

165

11. The specificity of the simulation approach

A simulation study requires well-designed methods of model development, validation and verification. A model of areal phenomenon is always a simplified, idealized and approximate representation of the process. 2 Any theoretical system is a kind of abstraction describing in very specific way relations between some selected abstract entities. This kind of system can be treated as a model representing selected aspects of reality only when there exists homeomorphisms between real objects and abstract objects. Therefore it can be said that each model consists of three fundamental elements: the set of abstract entities, the relations between them and homeomorphism allowing proper interpretation of abstract entities in terms of real phenomena. As Henri Poincare (1952, p. xxiv) wrote in Science and Hypothesis: "The aim of science is not things themselves, but the relations between things; outside those relations there is no reality knowable." The model representation depends on the aims of our inquiry and on all constraints related to the process. Exactness and validity of a model of a technical (engineering) system is reached mainly through so-called identification. Having collected records of real process behaviour for given input u(t) and output ym(t) the modeller tries to adjust the models behaviour to reality either by selecting the proper (optimal) values of the model's parameters or by changing the model's structure. In a schematic form the process of model adjustment is represented in Figure 2. This kind of adjustment is sometimes called 'behaviour replication test', whose main aim is to compare the model behaviour with the behaviour of the system being modelled. Where historical time series data (or the results of areal system's development in the factory or laboratory) are available, the model must be capable of producing similar data. That is, for the same initial conditions and inputs, the models behaviour should parallel the historical data. An important question is how c10sely the model's behaviour should match the historical data, since historical data are less than perfect and, sometimes, far from perfecL If historical data are very poor or nonexistent, the test may be one of reasonableness and we ought to use another validation tests (see below). In most cases a specific criterion of the model's exactness is employed, such as mean- square error. For assumed criterion the model adjusting process can be done analytically or through simulation, applying one of the well-known optimization algorithms. This 'technical' approach through model parameter identification is not fully applicable to socio-economic models. First of all, in most socio-economic phenomena we are not able to select a c1ass of suitable models (linear models are frequently not applicable). Evaluation of socio-economic models thus must proceed in a different way than engineering ones. In contrast, this 'engineering' vision of socio-economic processes prevails in 2 There are four basic reasons for model construction and analysis: (1) understanding and explanation of a given phenomena, (2) forecasting (predictions of future development) or retroprognosis (retrodictions), (3) supporting decision making to ac hieve weil defined goals, and (4) design for better performance of a system.

Wito1d K was nicki

166

orthodox economics. For orthodox economists make assumptions, similar to those made in c1assical physics and engineering, on the possibility of: (1) isolating a specific sphere of socio-economic reality, (2) specifying all relations of phenomena within the sphere with the external environment, and (3) building a model which describes all important phenomena observed within the chosen sphere, with all essential influences of the external environment inc1uded. On the basis of such a model some optimal control, or optimal path of development, is calculated. Such a mechanistic approach to socio-economic processes turned out to be wrong and misleading. A lot of decisions made by policy-makers on the basis of such models caused strong social and economic tensions, especially visible in the 1970s, that is, during the period of radical structural changes of the economies of industrialized countries.

u(t

Real process

ou~uty(t)-records

+

Comparison~ ~

Model

"-

Evaluation of similarities and discrepancies

y m (t) Model's modification procedure

-

correctness consistency universality simplicity fecundity usefulness

/

Q - overall

criterion

of~ation stylized facts

Figure 2: Model and reality

In socio-economic processes, the c1ear isolation of well-defined spheres of reality, the specification of important relations with the external environment, the building of relevant mathematical models and optimizing the choice of suitable policies are almost impossible. Questions concerning optimal decisions in a 10ngterm perspective and in periods of structural change lose their significance. Far more important become the questions about the mechanisms of long-term development and on the possibilities of controlling the economic process to reach a satisfaction (not optimal) course of development. These kinds of questions form the root of the evolutionary approach, not only in economics. Acceptance of an evolutionary perspective in dealing with a socio-economic system almost naturally enforces a specific way of subtly controlling the development of social systems, not through imposing optimal values of relevant parameters but through creating favourable conditions for suitable development.

Simulation Methodology in Evolutionary Economics

167

Contrary to engineering systems, there is no possibility of making repeated experiments with socio-econornic systems. It is much easier to disaggregate whole engineering systems into a number of smaller subsystems which can be analysed separately. Socio-economic systems are highly interrelated, and disaggregation into serni-isolated subsystems is frequently impossible. In engineering systems optirnization (related to searching for better - or the best - performance of given system, optimal control of engineering processes or limited resources) is the primary aim of modelling (and simulation) efforts. It seems that in the social sciences and in econornics the main aims of model's building are: better understanding of mechanisms of development of observed phenomena (processes), building different, alternative scenarios of development of given socio-econornic systems, and education of the decision-maker through 'imprinting' proper intuitions. This last aim is achieved through interactive applications of simulation models to test decisions made by managers and analysing the re action of the model. The different nature of engineering and socio-econornic systems also causes differences in the possibility of testing and validating of developed models. As was mentioned, in engineering systems it is possible to compare numerical date (records of development of real systems) with numerical output of a model. In socioeconomic system collection of reliable set of proper data (records) is frequently impossible. Therefore validation of socio-econornic models is frequently done on the base of so-called stylized facts. As Nicholas Kaldor (1961) wrote: Any theory must necessary be based on abstraction; but the type of abstraction chosen cannot be decided in a vacuum: it must be appropriate to characteristic features of economic process as recorded by experience. Hence the theorist, in choosing a particular theoretical approach, ought to start off with a summary of facts which he regards as relevant to his problem. Since facts, as recorded by statisticians, are always subject to numerous snags and qualifications, and for that reason are incapable of being accurately summarized, the theorist, in my view, should be free to start off with a 'stylized' view of facts - i.e. concentrate on broad tendencies, ignoring individual details, and proceed on the 'as if' method, i.e. construct a hypothesis that could account for these 'stylized facts' without necessarily committing himself to the historical accuracy, or sufficiency, of the facts or tendencies thus summarized.

The list of these 'stylized facts' is indeed very long, and naturally different for different systems. They can range from the microeconomic evidence concerning for example dynarnic increasing returns in leaming activities or the persistence of particular sets of problem-solving routines within business firms, to industry-Ieve1 evidence on entry, exit and log-normal-distributions in firm sizes. Facing the problem of choosing between alternative models we do not evaluate any single assumption, law, or conc1usion which are parts of each model. In fact we try to build sub-criteria and try to evaluate each alternative model applying these sub-criteria. In the next step of our evaluation process, subjective weights are attached to each sub-criterion and on the basis of the general index thus constructed the whole model is evaluated. This general index helps us to find a final

168

Wito1d Kwasnicki

ans wer to the general question: which model do we prefer? It seems that the most important and the most popular sub-criteria are:

1. correctness - consequences of the model ought to be very elose to the results of experiments and / or observations; 2. consistency - the model ought to be consistent not only intemally but also with other commonly accepted theories used to describe similar or related phenomena; 3. universality - consequences of the model ought not to be confined to individual cases, as intended at the initial stages of the model development; 4. simplicity - the model ought to create order in the formerly isolated phenomena; some evaluations based on individual feelings of harmony and beauty are also taken into account in this partial evaluation; 5. fecundity - the model ought to throw new light on well-known phenomena; it ought to be the generator of new discoveries; 6. usefulness - this practical criterion dominates frequently in sciences, being very elose to engineering and industry. As was mentioned evaluation is highly subjective and it is difficult to generalize but it seems to me that the advantages of orthodox models are their simplicity and usefulness, but evolutionary models ought to be estimated for their universality, consistency and all above for their fecundity. Correctness seems to be a neutral subcriterion in a sense that currently orthodox models better describe macroeconomic phenomena but at the micro level evolutionary models are much more correct. It is good to have one, general indicator (hopefully as a scalar) allowing for evaluation of exactness of the model and its validity. In engineering system a meansquare criterion is used, and sometimes it is possible to construct such a criterion for socio-economic systems. But in most cases only a highly subjective overall criterion is used based on selected stylized facts and at least some the six sub-criterions mentioned above. This specificity of socio-economic system is indicated in Figure 2 by mentioning stylized facts and subjective sub-criteria.

Even when we are able to collect relevant date it is often very difficult to identify trends simply because stochastic factors dominate. The question arises how to evaluate similarities if both variables are realizations of essentially the same stochastic process. A fundamental question is how to evaluate and how to decide when a model leads to satisfactory results and is acceptable for further research? It is much easier to evaluate a model if the stochastic process is stationary and ergodic. There are well-know stochastic tests to evaluate the level of similarities between different realizations of the same process, as e.g. variance analysis and confidence intervals. Unfortunately most real processes (especially those of socio-economic sphere) are nonstationary ones and it is very difficult to work out effective tests of their evaluation.

Simulation Methodology in Evolutionary Economics

169

An inventive approach to model validation can be found in Law and Kelton (1982, p. 341). They describe the application the Turing Test to evaluate the level of similarity between simulation results and real system. People with a deep knowledge of a given system are asked if the results presented corrspond to the phenomena which they known from their experience. They do not know if the results are real or simulated. The experts do not evaluate in dichotomous categories of 'good'-'bad' (or yes-no) but are asked to present rather detailed analyses and point out what in their opinion is correct and acceptable and what is dubious or incorrect. There are two virtues of such an approach. First, the opinions can be used to improve the model, and second, they can evaluate the degree of similarity between model and reality. This approach was applied in the ISEM model describing in US Air Force Manpower and Personnel System. The model was built to work out alternative policies of employment in the US Air Force. The Turing Test procedure was applied a number of times. The final model was very promising and was implemented in practice. Another effective 'classical' approach to model validity is spectral analysis. This technique allows for a comparison of model behaviour and real data without tedious and time consuming simulation experiments. In the evolutionary framework it has been applied, e.g., by Silverberg and Verspagen (1995) where they compare the power spectrum of GNP per capita resulting from their simulations to the log distance of six countries to the USA-frontier of per capita GNP and to the power spectrum of the coefficient of variation of per capita GNP in six OECD countries. Similarly Silverberg and Lehnert (1993) analyse time series for technical change and growth generated by their simulations by means of spectral analysis, in order to decompose them into harmonic oscillations of various frequencies. The result is a down ward sloping linear curve in a plot of the log of spectral density vs. the log of the frequency of the oscillations and is interpreted by Silverberg and Lehnert to be a form of long or Kondratiev waves which are neither strictly periodic nor a random walk. Spectral analysis allows to evaluate average level of models behaviour and the persistence of observed mode of behaviour. An advantage of spectral analysis is that there is no necessity of repeating simulation experiments tens or hundreds of times for the same initial conditions to co mpare the model's behaviour with reality. A disadvantage of this approach is that to apply it properly it is necessary to have long time series with hundreds or even thousands of elements. There is no general rules for proper selection of appropriate level of detail, demarcation of boundaries between a model and its environment, and similar considerations. It is still the "art" aspect of simulation model development. The usefulness of any analytical model or simulation model ultimately lies in the subjective view of the model builder and its user. The basic test of a model's validity is that all important factors in the real system exerting an influence on the behaviour of the system must appear in the model.

170

Witold

Kwasnicki

Further, all factors in the model must have a counterpart in the real system (homeomorphism). The development of the simulation approach in the last decades indicates an important shift from traditional statistical tests toward more qualitative and subjective tests belonging to two main c1asses: model structure tests and model behaviour tests. Among the first c1ass the most popular and important are the model parameter tests and the extreme conditions test. To the second c1ass belong behavioural replication, anomalous behaviour, sensitivity, prediction, family member and boundary tests. Behavioural replication, anomalous behaviour and boundary tests have been mentioned earlier in this chapter. Below we will present comments on other tests. Model parameter tests can be considered as a basic test. All the time we ought to be sure that the assumed values of all model's parameters are plausible one, reasonable and consistent with whatever supporting data might exist. It is possib1e that some elements that are not usually quantified ought to be estimated because of critical importance to the system being modelled (as e.g. related to creative processes with respect to such important feature of economic models as innovations or technological change). Extreme condition tests show the ability of a model to function properly under extreme conditions. Positive results of these tests support significantly increase confidence in model. It was Francis Bacon who emphasized the importance of active experiment with the main objective of compelling Nature to manifest its properties in conditions never, or rarely, observed in natural processes. It is worth mentioning this kind of test because testing extreme conditions may easily be overlooked, especially in the early stages of model development. Neglecting this testing may degrade model performance under both normal conditions and when the model is used to ans wer questions falling outside the operating regions emphasized in early development. While making simulations and testing the model (e.g., extreme condition or behavioural replication tests) we ought to look for anomalous behaviour of the model. Tests of anomalous behaviour may contribute convincingly to establishing model validity. Small, reasonable changes in a model's parameter values should not normally produce radical behavioural changes. Most social systems, but certainly not all, are stable. Positive results of behaviour sensitivity test increase confidence in the model but, on the other hand, simulation models are often used to search for parameters values that can effect behavioural changes. Therefore we ought to be very cautious in using that test for models' validation purposes. Confidence in the model is also reinforced if the model not only replicates longterm historical behaviour but also allows for prediction of system development. A special instance of prediction is retroprognosis - real data from periods of the far past are used to identify the model's parameters and then simulation results for the

Simulation Methodology in Evolutionary Economics

171

years following the identification period are compared to the subsequent development. 1. Simulation and other approaches

Three techniques of models building and development are presented in Figure 3. Left side of this spectrum is represented by research made on real (physical) objects (e.g. testing new design of a car driving on different kinds of surfaces). The other side of the whole spectrum are mathematical (analytical) models, e.g., working out a set of differential equations to describe a car suspension system and solving it analytically. The third alternative, namely simulation, is placed somewhere between these two extremes. In deriving simulation model, the system (e.g., a suspension system) is partitioned into elementary subsystems (springs, shock absorbers, torsion bars, stabilizers, etc., in economics it can be finns, consumers, banks,

.

Realism

~

Experiments with real systems

~



i-

Simulation

~

d'x dx mdi' + D dl + Icx = F(I)

Analytical models

~

~

Advantages

- realism - final verification

- imitative realism - study of nonexisting systems - time passing control - criterion elasticity - controllability and repeatability of experiments - limited mathematical skills - relative low costs - use of expert knowledge



Idealism

- generality of results - optimal solutions

DIsadvantages

- system has to exit - improper time scale - constrained values of control parameters - limited number of possible experiments

- lack of generality of results - large number of experiments required - optimization problems - long duration of simulation studies - simulation misusing

- far reaching simplifications - sophisticated mathematics

Figure 3: Three techniques of real processes study

Witold Kwasnicki

172

markets, etc.). The next step is to build sub-models for those subsystems and to connect them to form a model for the whole system. To be c10ser to reality the sub-models are usually nonlinear ones and therefore the simulation models are normally unsolvable analytically. It is very difficult to made experiments on real objects in socio-economic sciences, although some preliminary steps toward that direction are made through so-called experimental economics, where in laboratory conditions situations very c10se to reality are created. Most investigations in economics are covered by the two other techniques. For socio-economic systems it is very difficult (if ever possible) to make repeated experiments as it is in the case of 'technical' systems. It is also very difficult to build analytical models (e.g. in a form of differential equations), but even if it is possible, in most cases it is impossible to solve that equations and to get analytical solutions describing behaviour of the model. Very frequently, to obtain results and to get knowledge about dynamics of system behaviour it is necessary to build computer simulation model which reflect as far as possible a structure of real system and its mechanisms of development. There is no space to discuss details of advantages and dis advantages of experimental, analytical and simulation techniques. The sketch of pros and cons of those approaches is presented in Figure 3.

111. Variety of approaches to the simulation of economic development

The spectrum of simulation models within evolutionary framework in economics is wide and it is not possible to describe all of them in a short paper. In this section we will present only the most representative ones. Of the simulation models related to micro and macro level, some of them are described in other papers presented in this volume (e.g., Silverberg and Verspagen, Bruckner, Ebeling and Schamhorst).We will not separate micro and macro models but will focus on simulation specificity of evolutionary models. Looking at the spectrum of all evolutionary models in economics we can distinguish two main streams of development. The first one relates to the work of Schumpeter and the second is based on the concept of cellular automata, within a general framework of artificial life and Agentbased Computational Economics (ACE). We will not present an overview of the Schumpeterian models. Most of them (like Nelson and Winter [1982], Silverberg [1985], Silverberg and Lehnert [1993], Silverberg, Verspagen [1994, 1995], Chiaromonte and Dosi [1993], Dosi et al. [1994], Dosi et al. [1993] and Bruckner, Ebeling, Jimenez Montafio and Schamhorst [1993]) are presented in other contributions to this volume. Winter-Kaniovski-Dosi model

As authors of the model suggest themselves, their model (Winter, Kaniovski, Dosi, 1997) is a "base1ine not mere1y in the sense of a standard for comparison, but

Simulation Methodology in Evolutionary Economics

173

also as a starting point for future work". Experiences of different researchers engaged in building evolutionary models in the last decades are taken into account in the WKD model. As the authors state, to bring the model into reasonable correspondence with reality some of the model's assumptions will require elaboration and modification. But surely many of the results developed in the WKD model will have heuristic value and direct application in the work of other researchers. The findings of several streams of empirical research are clearly visible in the models construction. To name only few of them: the diversity of firms and the sense of continuing, highly dynamic, disequilibrium; skewed firm size distribution; entry and exit rates at a point in time are highly correlated across industries so that industries with higher than average entry rates tend also to have higher than average exit rates; the market share of each entering cohort successively declines. Therefore it is highly justified to say that the model explores some generic properties of the processes of industrial evolution, highlighted in economic literature. In the most general term the model encompasses a stochastic system driven by the persistent random arrival of new firms and a systematic selection process linking investments to realized profitabilities. Analytical investigation of the model's properties is presented in the paper but because of limitations of analytical possibility this investigation is followed by a computer simulation study, showing among other things the dynamics in the number, size and age of firms. Kwasnicki's model

This model describes the behaviour of a number of competing firms producing functionally equivalent, but not homogeneous, products. One of the distinguished features of the model is the coupling of technological development and economic processes. A firm is characterized by a set of routines applied by the firm. In order to improve its position in the industry and in the market, each firm searches for new routines and new combinations of routines (innovation) to reduce the unit costs of production, increase the productivity of capital, and improve the competitiveness of its products in the market. Each firm may simultaneously produce products with different prices and different values of the characteristics, i.e., the firm may be a multi-unit operation. Different units of the same firm manufacture products by employing different sets of routines. Simulation of industry development is done in discrete time in four steps: (1) Search for innovation (i.e., search for new sets of routines which potentially

may replace the old set currently employed by a firm).

(2) Firms' decision making process (ca1culation and comparison of investment, production, net income, profit, and some other characteristics of development which may be attained by employing the old and the new sets of routines. Decisions of each firm on: (a) continuation of production by employing old routines or modemizing production, and (b) opening (or not) ofnew units).

174

Wito1d Kwasnicki

(3) Entry of new firms. (4) Selling process (market evaluation (selection) of the offered pool of products; calculation of firms' characteristics: production sold, shares in global production and global sales, total profits, profit rates, research funds, etc). Technological change is endogenized and the probability of finding an innovation (new set of routines) depends on the R&D funds allocated to in-house research ('mutation') and imitation. There are two types of routines: active, that is, routines employed by the firm in its everyday practice, and latent, that is, routines which are stored by the firm but not actually applied. Latent routines may be inc1uded in the active set of routines at a future time. The set of routines employed by a firm may evolve. There are four basic mechanisms for generating new sets of routines, namely: mutation, recombination, transition and transposition. On the basis of its expectations of future market development and expected decisions of its competitors, each firm decides on the price of its products, investment and the quantity of production which it expects to seIl on the market. Inc1usion of the element of expectations in the decision making process makes it boundedly rational. Current investment capability and the possibility of borrowing are also considered by each firm. In establishing the product price and future level of production firms take into account short term elements (profit increasing) and long term elements (to be present on the market as long as possible). The productivity of capital, variable costs of production and product characteristics are the functions of routines employed by a firm. Each routine has multiple, pleiotropic effects, that is, it may affect many characteristics of products, as weIl as productivity, and the variable costs of production. Sirnilarly, the productivity of capital, unit costs of production and each characteristic of the product can be function of a number of routines (polygeneity). Attractiveness (competitiveness) of the product on the market depends on the values of the product characteristics and its price (products with better products characteristics and lower price are preferred by consumers). The selection equation of the competition process describes changes of the firms' shares in global output. The share of firm i increases if the competitiveness of its products is higher than the average of all products present on the market, and decreases if the competitiveness is lower than the average. The model is rooted in the tradition established by Nelson and Winter. The main similarities to the NW model lay in the concept of routines and endogenized innovations. Important departures of this model from the NW model consists of a more realistic concept of innovation covering product and process innovations, diversity of price (there is no uniform price for all firms but firms individually decide about the price), inc1usion in the decision making module the concept of agent expectation (of future market behaviour and decisions of other competitors).

Simulation Methodology in Evolutionary Economics

175

Other models

Andersen (1997) presents a model based on Pasinetti's scheme of the structural econornic dynarnics of a labour economy with indusion of an evolutionary, rnicroeconornic foundation. The model describes the evolution of an economic system with a varying number of sectors, each of which is producing a different consumption good. The essence of this model is the assumption that consumers have a hierarchy of goods, and they consume a higher-order good when they are fully provided with the lower-order goods. Labour and knowledge are basic production factors. Innovative process allows firms to increase their productivity with respect to individual goods. Therefore in the long-term perspective labour becomes available for the production of new consumption goods. The hierarchy of goods and the assumption about sequential fulfilment causes the emergence of "technological unemployment, which emerges if goods are not provided to a sufficient degree". Slow productivity development in the production of new goods leads to a slowdown in the overall rate of growth, and it can occur irrespectively of productivity growth in old sectors. To raise long-term growth the concept of "anticipatory R&D" is introduced. A micro-based simulation model of national economy which integrates micro activities was developed by Gunnar Eliasson (Eliasson, 1985, 1989). The project of micro-to-macro model was initiated in 1975 and was calibrated to describe the development of the Swedish economy. Firms and household are the basic units of the model. It is not a fully evolutionary model, but contains some evolutionary features and Schumpeterian innovative behaviour. Technical change is introduced at the firm level through new investment. The decisions of firms' managers are mathematically modelled by a search process for proper decisions based on a trail and error procedure. To be doser to reality the principle of 'maintain or improve profit' (MIP) is induded in the submodel describing the behaviour of a firm. Long-term investment decisions and short term production search are also induded in the submodel of a firms behaviour. Long-term econornic development primarily depends on the capital market. Investment and growth of potential capacity at the micro level is driven by the difference between the perceived rate of return of the firm and the interest rate. J. Agent-based computational economics

Artificial life (a-life) is the name of flourishing, multidisciplinary field of research that attempts to develop mathematical models and use computer simulations to demonstrate ways in which living organisms grow and evolve. It is hoped that through this way deeper insights into the nature of organic life will be gained together with better understanding of origin metabolic processes and in a wider sense of the origin of life. A-life will stimulate new approaches in computer science (especially artificial intelligence) and robotics. The term artificial life was coined

176

Witold Kwasnicki

in the 1980s by Christopher Langton who organized the first a-life workshop at Santa Fe in 1987. But it does not mean that similar studies, under different names, had not been done before the1980s. In fact two men have made very similar theoretical research under the name of self-replicating (or cellular) automata. lohn von Neumann, the Hungarian-born mathematician and a pioneer of computer science, and the Polish mathematician Stanislaw Ulam in the early 1950s had begun to explore the nature of very basic theoretical forms called self-replicating, cellular automata. Their intention was to apply this basic concept to the growth, development, and reproduction of living creatures. These theoretical, mathematical 'cells' can be used to simulate biological and physical processes by repetitively subjecting each cell to a simple set of rules, e.g., every cell has a colour that changes according to its update rules and the colours of its neighbouring cells. Von Neumann and Ulam proved that, using a rather compiex set of rules, it is possible to draw an initial configuration of cells in such a way that the configuration would 'reproduce' itse1f. These cellular automata consist of a lattice of cells. Each cell is characterized by specific values which can change according to fixed ruies. A cell's new value is calculated on the basis of its current value and the values of its immediate neighbours. It is shown that such cellular automata naturally form patterns, reproduce and 'die'. Langton used the work of von Neumann and Ulam as a starting point to design a simple a-life system that could be simulated on a computer. In 1979 he developed an 'organism' that displayed many life-like properties. The loop-shaped 'creature' reproduced itself in such a way that as new generations spread outward from the initial organism they left "dead" generations inside the expanding area. In the opinion of Langton the behaviour of these forms mirnicked the real-life processes of mutation and evolution. Economist Thomas Schelling was one of the researchers who in the 1970s tried to apply a-life techniques to social science. In fact he did not use a computer but pennies and dimes that he moved around a checker board according to simple rules. In this way he created an artificial world in which he showed, among other findings, how even slight preferences for living and working with one's own kind can result in extreme segregation. There are numerous examples of agent based-modelling. Biologist Tom Ray created 'agent' programs in his laptop. The aim of each agent was to make a copy of itself in memory. Ray assumed a finite lifetime of each program. He left the programs running all night and in the moming he noticed that his agents were engaging in the digital equivalents of competition, fraud and sex. When the programagents copied themselves random changes of their code occurred. So it can be said that they mutated and evolved. Naturally most mutations were destructive and 'died', but some changes let an agent do its job better in a sense that they consisted of fewer instructions and were able to copy themselves quicker, more reliably and run faster. The shorter versions replicated quicker and very soon outnumbered their larger 'competitors'.

Simulation Methodology in Evolutionary Economics

177

The a-life approach is sometime called 'agent-based modelling' to pinpoint its mathematical difference from the differential equations approach. We can write down the differential equations for interacting population of individuals (e.g. Lotka VoltelTa equation of prey-predator system) but we can also follow individual histories of each animal (element, agent) and summarize their histories into more aggregative characteristics. These two approaches are essentially different but it is difficult to decide which is more important. Contemporary a-life researchers try to identify the distinctive behaviours of living creatures and then use them to devise software simulations that 'move, eat, mate, fight and cooperate' without incorporating those features explicitly into the modes of behaviour of these elements. Most a-life creatures consist of nothing more than a few lines of program code and live on landscapes made of pixels and data sets. The receipe to prepare a-life software (or 'silicon' species, as it is sometime called) is rather simple: prepare an environment in which the synthetic organisms can act, create a few hundred individuals to populate it and define a set of rules for them to follow. Try to simplify the problem as much as possible while keeping what is essential. Write a program which simulates the simple rules with interactions and randomizing elements. Run the program many times with different random number seeds to attempt to understand how the simple rules give rise to the observed behaviour. Locate the sources of behaviour and the effects of different parameters. Simplify the simulation even further if possible, or add additional elements that were found to be necessary. We can summarize this approach in following 'equation': Agents (microlevel entities) + Environment + Dynamics = A-Life. 3

In this approach, life is treated as a kind of game in which each agent struggles for existence with the mixture of chance and necessity by applying a set of basic behavioural rules. A small number of rules can generate amazingly complex patterns of behaviour, such as groups of independent agents organizing themselves into a semi-isolated groups of agents. This feature makes the a-life approach a potentially powerful research tool. Current efforts of a-life researchers are focussed on searching for so-called emergent hierarchical organization (EHO). The aim of this kind of modelling is to discover whether, and under what conditions, recorded computer-simulated histories exhibit interesting emergent properties. The term 'emergent properties' means that they arise spontaneously from the dynamics of the system, rather than being imposed by some external authority. Observed order, like specific evolution of an industry with its initial, mature and dec1ining phases, emerges from the aggregate of large number of individuals acting alone and independently.4 3 We ought to apply the above receipt very consciously, responsible and scrupulously. Albert Einstein has advised that: "The best explanation is as simple as possible. but no simpler." Similarly another great thinker, Alfred North Whitehead instructed: "Seek simplicity ... and then distrust it!". 4 The same theoretical vision of development can be found in the liberal political tradition. In modem times the best representative of this tradition is Friedrich Hayek, who for

12 Selbstorganisation. Bd. 9

178

Witold Kwasnicki

A similar approach has been applied in economic analysis, called either artificial economics or agent-based economics. The intention is very similar to that of a-life: allow for economic interactions between artificial agents initially having no knowledge of their environment but with abilities to learn, and next observe what sorts of markets, institutions and technologies develop, and how the agents coordinate their actions and organize themselves into an economy. One example of such an approach is the work of Marimon, McGrattan, and Sargent (1990), who show how trade and money emerge. Santa Fe Institute team (Brian Arthur, lohn Holland, Richard Palmer and Paul Taylor) is working on modelling artificial stock markets (Taylor, 1995). Sugerscape

One interesting application of ACE is Epstein and Axtell's Sugerscape simulation. Their model represents a natural, bottom-up approach to behavioural patterns which emerge out of the interactions of individuals. They summarized their models and presented simulation results in Epstein, AxteIl (1996). Their work on 'Growing Artificial Societies' is a part of the 2050 Project, a collaborative effort of Brookings, Santa Fe Institute, and World Resources Institute. The main aim of this project is to identify conditions for sustainable development on a worldwide scale. The basic assumptions of the Sugerscape model are rather simple. The authors create a grid of 50 by 50 squares. Each square contains from zero to four units of "sugar". The grid is inhabited by a few hundred creatures represented by dots. The creatures (agents) live on sugar (and nothing else), consuming from one to three units per iteration. Every agent is born into this world with a metabolism demanding sugar, and each has a number of other attributes, such as a visual range for food detection, that vary across the population. These creatures can see from two to four squares in all directions, and they can move as far as they can see. On a computer screen agents are coloured dots occupying some fraction of the squares. The sugar is shown as mounds of yellow that disappear as the dots eat them but that grow back when left alone. Each 'year' the creatures are considered in random order, and when its turn comes they move from square to square according to a simple rule: look around as far as your vision permits, find the unoccupied site richest in sugar, go there, and eat the sugar. As it is consumed, the sugar grows back at predetermined rate. Every time an agent moves, it bums an amount of sugar determined by its given metabolic rate. Agents die when they fail to gather enough sugar to fuel their activities. We can image that agents' movement brings them into contact with other agents, with whom they interact. There are rules governing sex, combat, trade, disease transmission, cultural exchange, inheritance, etc. At any time, the interacting decades insisted on the importance of spontaneous order and the role it played in the emergence of some essential features of social systems.

Simulation Methodology in Evolutionary Economics

179

agents differ in their age, culture, wealth, vision, economic tastes, immunocompetence, and so forth. Unlike standard aggregate, or 'representative agent', models, artificial societies are heterogeneous and full of diversity. Sugar ought to be replaced and the replacement can be either full(four unit squares are instandy restored to four units, etc.) or partial, such as one unit per year up to the square's starting level. Those simple mies cause the emergence of rather complex behaviours. As we can expect, the creatures with long vision and low metabolism do the best. The number of creatures is kept constant: if one dies, it is replaced by another with random metabolism and vision. By adding to the agent's characteristics an additional string of a few bits specifying gender, sex and reproduction can be introduced. To evolve an agent must select a neighbouring agent at random. If the neighbour is of the opposite sex and of reproductive age, and if one of the two agents has an empty neighbouring site (to hold offspring), a child is born. The child inherits a mixture of its parents' genetic attributes. It is possible to add sexes with mating and inheritance (i.e., the computer equivalent of chromosomes and genes) as well as such characteristics as age (and life span), cultures and education. The Sugerscape can be a multi-peak landscape. If there are two mountains (as in most simulations) initially randomly distributed agents quickly gravitate toward the two sugar mountains. A few individuals can accumulate large stocks of sugar, building up a great deal of personal wealth. They are agents with superior vision and a low metabolic rate and have lived a long time. Agents combining short vision with a low metabolic rate, manage to subsist at the fringes, gathering just enough to survive in the sugar badlands but not looking far enough to see the much larger sugar stocks available just beyond the horizon. Interestingly, even this mdimentary model reproduces the kind of strongly skewed distribution of wealth generally observed in human societies - where a few individuals hold most of the wealth and the bulk of the population lives in relative poverty. In one of series of a experiments, the question conceming of the distribution of accumulated sugar after an agent's death is pursued. One possibility is to pass this sugar to the agent's offspring. How does this cultural convention influence evolution? The Sugerscape model suggests that agents who might otherwise have been eliminated are given an extra advantage through inheritance. The average vision of the population doesn't increase to the same high level eventually reached in a population where no wealth is passed on. It is also possible to add combat. One mle might be that the creature with the most sugar wins and takes the loser's supplies. Each playing piece has a particular pattern of allowed movements, and the game's mIes shape the batde. The combatants can try out different strategies - directing bold attacks, mounting stubbom defences, or waging wars of attrition across the grid. Various combat mies lead to pat12*

180

Witold Kwasnicki

terns of movement that differ from those produced by the standard 'eat all you can find' rule. Some combat rules lead quickly to strictly segregated colonies, each elinging to its own sugar peak and, and in other cases, one side eliminates the other. The Sugerscape model also offers insights into other phenomena, such as the introduction of trade. In this case, the landscape contains heaps of two resources: sugar and spice. The agents are programmed with different metabolic rates, or preferences, for each of the two commodities. They die if either their sugar or their spice store falls to zero. A mathematical formula called a welfare function allows each agent to compute how elose it is to sugar or spice starvation. The agent then strives to gather more of the commodity it needs. An additional system of rules specifies how agents bargain for and exchange sugar and spice according to their needs. These rules enable the researchers to document how much trade takes place and at what price exchanges occur. When agents are allowed to live forever, so long as they never run out of food, the sugar-spice model shows that the average trade price converges to a stable level. Economic equilibrium emerges just as text book market economics predicts. It seems that the Sugerscape model is able to explain such stylized facts as the formation of culturally distinct groups, the emergence of skewed wealth distributions, or the appearance of population centres. At its simplest level, the Sugerscape model represents a kind of hunter-gatherer society. In the opinion of the authors, Sugerscape "can examine population growth and migration, famine, epidemics, economic development, trade, conflict, and other social issues." But Thomas Schelling notes that such agent-based modelling shows that social norms can arise out of very primitive behaviour, though it doesn't necessarily demonstrate how the norms actually came about.

The authors say their model usually mimics early agricultural societies, not modern economic life. Sugerscape is more a metaphor than a realistic depiction of society. The landscape and agent characteristics are simple proxies for the more complicated things that occur in the real world. IV. Common platform

A variety of different approaches to evolutionary modelling of socio-economic system exist and the number of different models is proliferating. Communication between researchers and the possibility of applying different models to the same kind of phenomena are very limited. The situation is worsened by different operating systems and computer languages to implement evolutionary models. It seems that to facilitate further progress in evolutionary modelling of socio- economic phenomena and to aid researchers with a rather limited knowledge of computer programming, it is necessary to develop widely accepted tools to build, test and analyse evolutionary models. It frequently happens that full comprehension of evolutionary model by other people than their creators is very difficult. A few years

Simulation Methodology in Evolutionary Economics

181

ago Giovanni Dosi proposed that a common platfonn be developed for variety of users to facilitate model development and communication of different researchers with different professional backgrounds. The first attempt to build such a common platfonn was done within the Systems Analysis of Technological and Economic Dynamics (TED) project at IIASA. Marco Valente (1997) presents such a computer package for simulation in economics. He calls the package LSD (Laboratory for Simulation Development). LSD aims to build models within the Schumpeterian tradition although ACE-like models can also be implemented. A number of such common platfonns exists within the ACE stream of research. This two approaches are described below. The third possibility of a common platform can be seen in the well-established approach of Jay W. Forrester and his collaborators known as System Dynamics. The possibility of using System Dynamics, especially its newest implementation represented by the STELLA package is presented, in the end of this section. LSD

Valente (1997) explains the concept of simulation models used in LSD and gives instructions for its use. He also pro vi des a short tutorial in the use of the package, implements three models and describes LSD interfaces for ronning simulations of existing models. The examples show that it is possible to implement complex models but it seems that LSD is far from being user-friendly. A library of ready-to-use functions dealing with the technical details of a simulation model allows modelers to concentrate exc1usively on the theoretical contents of the model. The graphical interfaces allow an easy exploration of the model and the setting of the parameters for a simulation ron. These two features are controlled by a model manager and a model interpreter. Both the model manager and interpreter are model independent: they adapt a set of standard graphical interfaces and a computational engine to any model. After a model is loaded, LSD behaves as a stand alone pro gram, specifically written for the simulation of that model. Users define a number of abstract entities (Objects) without any specification of the actual computational contents. A gradual specification of the behaviour of such entities adapts the abstract definitions to more and more specific instances. LSD provides an abstract definition of Object containing all the machinery to ron the implementation of the Object itself. Hence, users can concentrate entirely on the "creative" part of building a simulation model by defining Objects derived from the abstract one. To derive a new instance, the modeller just needs to give a name to the Object and to its elements (that is, variables or parameters). The abstract definition of LSD Objects also provides connections which can be used to link Objects to each other, to create the strocture of a model. The computational content of a model (i.e. the equations) is expressed as a list of functions, one for each variable label. LSD provides functions which facilitate the writing of equations, allowing modelers to express computations as if they were using an equation editor. For ex-

182

Wito1d Kwasnicki

ample, LSD retrieves variables by using only their labels and deals with the scheduling of computations. A model run with LSD ensures high efficiency of computation because the model interpreter has very little computational overhead, producing the equivalent of the output from C++ code. The models written with LSD can be decomposed into their fundamental components, which can then be re-used in other models. LSD distinguishes three types of components of a model: structure, equations and initial data. It is possible to define and / or modify at different times the components, in order to test parts of the model or run reduced forms. The structure of a model in LSD is defined in terms of its Objects and the relations among them. The model is defined in order to be highly modular; that is, to be easily modified and expanded. The equations of a model must be written as C++ code, extended with the library of LSD functions. Any information related to the model is included in the LSD functions, allowing modelers to use a syntax similar to writing difference equations on paper. The final result is an easy to use "equation language" producing very fast code, and hence suited for heavy computational models. The initial data are used to set up a simulation model before running an actual simulation. They are stored in a text file, together with other technical information (number of steps, variables to save, etc.). Users of LSD models can use a simple and effective graphical interface to modify the initialization of a model. ACE platforms

ACE software is very diversified and also very problem specific. Each platform is aimed at specific phenomena. We will mention only a very selected number of platforms but there is a good Web site (http: / I www.econ.iastate.edu / tesfatsi / ace.htm) where it is possible to find references to ACE software. Two platforms, namely 'The Swarm Simulation Platform' and 'A Strictly Declarative Modelling Language (SDML)' seems to be the most versatile software for further development of a'common platform' for wider society of researchers. The Swarm Simulation Platform was developed by Santa Fe Institute researchers. The software aims to combine object-oriented simulation capabilities used in an artificial world and those needed in an industrial world. Special attention is made to handle information flow versus material flow. Part of the software is based on genetic algorithms to deal with problems of assembly line sequencing. The practical applications of developing software within a framework like Swarm include improved manufacturing operations on the shop floor, better understanding of distribution chains, and a method for of forecasting demand. Swarm is essentially a collection of software libraries, written in Objective C, developed for constructing discrete event simulations of complex systems with heterogeneous elements or agents. Some lower-levellibraries, which interface with Objective C, are also written in Tk, a scripting language that implements basic graphical tools such

Simulation Methodology in Evolutionary Economics

183

as graphs, windows, and input widgets. Swarm depends on the Unix operating system and the X Windows graphical interface. A Strictly Dec1arative Modelling Language (SDML) is a modelling language implemented in SmallTalk. The software stresses computational multi-agent modelling of decision-making in complex environments, with a focus on strategie behaviour by corporate managers and government. Another system is SimBioSys, developed for general agent-based evolutionary simulations in both biology and the social sciences. SimBioSys is designed to handle simulations comprising the following four features: (a) a warld defining the virtual environment where the simulation occurs, (b) populations of autonomous agents inhabiting the world, (c) pro grams driving the behaviour of the agents, and (d) genetic mechanisms emulating natural se1ection which act on the agents' programs. The Trade Network Game (TNG) combines evolutionary game play with preferential partner selection. Successive generations of resource- constrained traders choose and refuse trade partners on the basis of continually updated expected payoffs, engage in risky trades modelled as two-person games, and evolve their trade strategies over time. The modular design of the TNG framework facilitates experimentation with alternative specifications of market structure, trade partner matching, expectation formation, and trade strategy evolution. The TNG framework can be used to study the evolutionary implications of these specifications at three different levels: individual trader attributes; trade network formation; and social welfare. The TNG has been implemented in C++. Herbert Gintis has developed Borland Pascal 7.0 code that implements a general iterated game of the following form. Agents in a population are randomly paired for game play and obtain fitness payoffs. A genetic algorithm involving haploid reproduction and mutation is then used to evolve the agent population. STELLA - System Dynamics

The modelling and simulation field known as System Dynamics has been developing for the last 35 years. The foundation of this methodology was laid in the early 1960s by Jay W. Forrester at MIT. What makes using System Dynamics different from other approaches to studying complex systems is the use of feedback loops. Stocks and fIows help describe how a system is connected by nonlinear feedback loops. Running "what if' simulations to test certain policies on such a model can greatly aid in understanding how the system changes over time. System Dynamics combines the theory, methods, and philosophy needed to analyse the behaviour of systems in not only management, but also in environmental change, politics, economic behaviour, medicine, engineering, and other fields. System Dynamics adheres to viewpoints and practices that set it apart from other fields dealing with the behaviour of systems. In contrast to the endogenous viewpoint, econo-

184

Witold Kwasnicki

mists often imply that the economic system is almost in equilibrium almost all the time with important behaviour arising only from unexpected exogenous forces. The System Dynamics emphasis on endogenous behaviour. All information is admissible to the process of model building. Information from the mental data base is recognized as a rich source of knowledge about structure and the policies goveming decisions. Recent software advances, especially the user-friendly STELLA program, facilitate the interaction between mental models and computer implementations. System Dynamics can be considered as candidate for a common platform to build evolutionary models. It can be used by people not familiar with computers and programming. Naturally not all evolutionary models are implementable using STELLA, but most of them are. This opinion is especially supported by new features of the recent version 5.0 of STELLA. STELLA has one very important feature, namely arrays. In former versions to model a number of firms competing on a market it was necessary to define separately a structure (characteristics and relationship) for each firm. Now it is possible to define a structure for one firm and let that same structure (but with different firm specific values) be applied to all other firms. Thanks to this ability the visualization of a model is much c1earer. To implement the Nelson and Winter model in STELLA I needed about 3 hours of work. Building models with STELLA is easy, the software was designed to be userfriendly. One of STELLA's advantages is the 'Control Panel' features which facilitates testing and simulation of the model. V. Conclusions

Simulation is one of the most promising techniques to investigate modem socioeconomic processes. The imitation of reality (i.e., using substitute objects instead real processes) is a fundamental feature of the simulation approach. From this point of view simulation ought to be distinguished from simply using computers to make ca1culations. The imitation feature is present in both streams of simulation evolutionary economics, i.e., the Schumpeterian tradition and agent-based economics (ACE). One feature distinguishes Schumpeterians from advocates of ACE approach, namely the more realistic concept of time. In most Schumpeterian simulations there is a connection between of simulation time and real time. The ACE models tend to use arbitrary units of time and it is difficult to relate the dynamics of change in these models to the real flow of time. Therefore it is difficult to estimate such important characteristic as the time of emergence of particular properties. This difference between the Schumpeterian and the ACE approaches ought to spur the dialogue between the two almost isolated groups of researchers and help to define a common platform to use in the analysis of real economic processes. Acknowledgements: I am grateful Gerald Silverberg for his valuable comments and help in preparation of the final version of the paper.

Simulation Methodology in Evolutionary Economics

185

References Boulding. K. E. (1991): What is evolutionary economics? Journal of Evolutionary Economics 1(1).9 - 17. Bruckner, E. / Ebeling. W. /Jimenez Montaiio. M. A., Scharnhorst (1993): 'Technological Innovations - A Self-Organisation Approach', Wissenschaftszentrum Berlin für Socialforschung, FS 11 93 - 302. Andersen. Esben Sioth (1997): 'Escaping Satiation in an Evolutionary Model of Structural Economic Dynamics', Paper presented at the workshop on Escaping Satiation: Increasing Product Variety. Preference Change and the Demand Side of Economic Growth. Max Planck Institute for Research into Economic Systems, Jena, 11 - 13 December 1997. Chiaromonte. F. / Dosi. G. (1993): 'Heterogeneity, competition, and macroeconomic dynamics', Structural Change and Economic Dynamics. 4, 39 - 63. Eliasson. Gunnar (1985): The Firm and Financial Markets in the Swedish Micro-to-Macro Model. Theory. Model and Verification. Stockholm: Almmvist&Wiksell International. (1989): 'Modelling Long-term Macroeconomic Growth as a micro-based, path dependent, experimentally organized economic process. Working paper, The Industrial Institute for Economic and Social Research, Stockholm, Sweden.

Epstein. Joshua M. / Robert. AxteIl (1996): Growing Artificial Societies: Social Science from the Bottom Up 208 pages (Brookings Institution Press/MIT Press, ISBN 0-262-05053-6). Dosi. G. / Marsili, O. / Orsenigo. L. / Salvatore. R. (1993): Leaming, Market Selection and the Evolution of Industrial Structures, Center for Research in Management, University of California at Berkeley, CCC Working Paper No. 93 - 9. Dosi. G. / Fabiani. S. / Aversi. R. / Meacci. M., (1994): 'The Dynamics ofinternational Differentiation: A Multi-country Evolutionary Model', Industrial and Corporate Change. Y.2 (3) p. 225 - 41. Hodgson. Geoffrey (1993): Economics and Evolution: Bringing Life Back into Economics. Cambridge: Polity Press. Kaldor, N. (1961): Capital Accumulation and Economic Growth, in Lutz F. (ed.) The Theory of Capital. London, Macmillan Kwasnicka. H. / Kwasnicki. W. (1992): Market, Innovation, Competition. An evolutionary model of industrial dynamics, Journal of Economic Behavior and Organization. vol. 19, 343 -68 Kwasnicki. W. (1994/1996): Knowledge. Innovation. and Economy. An Evolutionary Exploration., Wroclaw: Oficyna Wydawnicza Politechniki Wroc1awskiej; the second edition in 1996 by Edward Eigar Publishing Limited; Cheltenham, UK, Brookfield, USo - (1996): 'Ekonomia ewolucyjna - alternatywne spojrzenie na proces rozwoju gospodarczego' in Gospodarka Narodowa. nr. 10 (part I) and II (part 2).

Law. Averill M. / David Kelton. W. (1982): Simulation Modeling and Anaysis. McGraw-Hill. Marimon. R. / McGrattan. E. / Sargent. T. (1990): Money as a medium of exchange in an economy with artificial intelligent agents, Journal of Economic Dynamics Control 14: 329 - 373

186

Witold Kwasnicki

Nelson, R. R. / Winter, S. G. (1982): An Evolutionary Theory of Economic Change, Belknap Press, Cambridge, Mass. and London Poincare, Henri (1952): Science and Hypothesis, Dover, New York Silverberg, Gerald (1985): Technical Progress, Capital Accumulation and Effective Demand: A Self- organisation Model, Universitat Stuttgard. 1987 in D. Batten (ed. (1987) Economic Evolution and Structural Change, Berlin-Heidelberg-New York: Springer-Verlag Silverberg, Gerald/ Lehnert, Doris (1993): 'Long Waves and 'Evolutionary Chaos' in a Simple Schumpeterian Model of Embodied Technical Change', Structural Change and Economic Dynamies, 4, 9 - 37 Silverberg, Gerald/ Verspagen, Bart (1995): 'Economic Dynamics and Behavioral Adaptation: An Application to an Evolutionary Endogenous Growth Model', IIASA Working paper WP-94 - 84 Silverberg Gerald, Bart Verspagen (1995), 'An Evolutionary Model of Long Term Cyclical variations of Catching Up and Falling Behind', IIASA Working paper WP-95 - 09 Taylor Paul (1995), 'Modelling Artificial Stock markets Using Genetic Algorithms', in Suran Goonatilake and Philip Treleaven (eds.) Intelligent Systems for Finance and Business, Wiley Winter, S .G. Y. / Kaniovski, M./ Dosi, G. (1997): A Baseline Model of Industry Evolution, IIASA Working Report IR-97 - 013 Valente, Marco (1997): Laboratory for Simulation Development. User Manual, IIASA Working Paper, IR-97 - 020 / May

Kontingenz und Strukturähnlichkeit als Charakteristika selbstorganisierter Prozesse in der Ökonomie Von Marco Lehmann-Waffenschmidt und Joachim Schwerin, Dresden

I. Gegenstand und Konzeption der Untersuchung

Es gehörte zu den Grundüberzeugungen F. A. von Hayeks, daß viele Ereignisse im wirtschaftlichen und politischen Leben als "results of human action, but not of human design" charakterisiert werden können.! Bezog sich dieses von v. Hayek aufgegriffene Diktum Adam Fergusons zunächst vor allem auf die zielgerichtete Gestaltung von Institutionen, so trifft es um so mehr auf nicht gelenkte oder koordinierte, sondern durch dezentrales menschliches Agieren sich selbst organisierende sozioökonomische Prozesse zu. 2 Zugleich beschreibt es auch das Programm der ökonomischen Analyse von realen bzw. im Modell erzeugten Prozeßverläufen und Ereignisabfolgen als Suche nach Erklärung und Prognose zwischen den Polen Zufall und Notwendigkeit, wie es später der Molekular- und Evolutionsbiologe J. Monod ausdrückte 3 , oder, präziser formuliert, zwischen Verlaufs-Offenheit und kausaler Verlaufs-Determiniertheit. 4 1 Friedrich August von Hayek, Studies in Philosophy, Politics, and Economics, London and Henley 1967, ch. 6. 2 Als modeme "Übersetzung" der Ferguson/Hayekschen Charakterisierung könnte man "emergent" ansehen (vgl. z. B. Wolfgang KrohnlGünter Küppers, Emergenz, Frankfurt 1992). Beispiele für selbstorganisierte Prozesse im ökonomischen Bereich findet man in allen Koordinations- und Formierungsprozessen, die sich ohne zentralen Koordinator vollziehen (vgl. z. B. Ulrich Witt, Self-Organization and Economics - What Is New?, Structural Change and Economic Dynamics, 1997, S. 489-507, oder Reinhart HauptlWemer Lachmann (Hrsg.), Selbstorganisation in Markt und Management, Stuttgart 1995). Die wissenschaftliche Sprachweise spiegelt sich z. B. auch wider in dem in der Praxis häufig verwendeten Begriff der "emerging markets". 3 Vgl. Jacques Monod, Zufall und Notwendigkeit, München 1970. 4 Prozesse im sozioökonomischen Bereich sind die genuinen Untersuchungsobjekte der Evolutorischen Ökonomik, vgl. z. B. Ulrich Witt. Evolutorische Ökonomik, in: Birger Priddat und Eberhard Seifert (Hrsg.), Neuorientierungen in der ökonomischen Theorie, Marburg 1995, oder ders., Evolution as a Theme of a New Heterodoxy in Economics, in: ders. (Hrsg.), Explaining Process and Change, Ann Arbor 1992, pp. 3 - 20. Einen weiteren Übersichtsartikel bieten Uwe Cantner I Horst Hanusch, Evolutorische Ökonomik - Konzeption und Analytik, in: WISU 1997, S. 776 - 785.

188

Marco Lehmann-Waffenschmidt und Joachim Schwerin

Die Polarität von Offenheit und Determiniertheit bildet auch den Ausgangspunkt der vorliegenden Untersuchung. Allerdings erscheint dies als Grundlage für eine prozeßanalytische Methodik als zu undifferenziert und zu wenig operational, da der elementare Antagonismus von Zufall und Notwendigkeit die Grenzen des Untersuchungsfeldes zu weit steckt. So ist es das Anliegen dieses Beitrags, eine Herangehensweise zu entwickeln, die die Grenzen des Untersuchungsfeldes von vornherein so einengt, daß damit eine Analyse selbstorganisierter Prozesse mit konkreteren Ergebnissen möglich wird, ohne daß jedoch dabei die vorhandenen Freiheitsgrade der untersuchten Prozesse unzulässig eingeschränkt werden. Beispiele für eine solche differenzierte bivalente Herangehensweise bei der Analyse komplexer selbstorganisierter Prozesse findet man auch in anderen Wissenschaftsbereichen. Dabei ist allerdings der Vorbehalt zu beachten, daß man auf diesem Weg höchstens Analogien von heuristischem Wert finden kann, da ein naiver Transfer von Methoden und Paradigmen aus dem Bereich der Naturwissenschaft in die Ökonomik schon aufgrund der besonderen Handlungsmöglichkeiten menschlicher Akteure nicht zulässig ist. Das wegen ihrer unleugbaren heuristischen Leitfunktion für evolutorische Ansätze in anderen Wissenschafts bereichen wichtigste Beispiel bietet die Evolutionsbiologie. 5 Räumte noch die neodarwinistische Synthese6 dem reinen Variations-Selektions-Paradigma, dessen Entwicklung durch Darwin ursprünglich das überholte Lamarckistische Denken ablöste, eindeutig das Primat als Erklärungskonzept der Evolution des Lebens ein, so hat sich das Bild in den letzten Jahren zugunsten einer deutlich höheren Betonung der Gerichtetheit der Evolution des Lebens verschoben.? Z.B. können Evolutionsbiologen bei einzelnen Organismen mit Hilfe von Beobachtungen, die aus anderen Evolutionsabschnitten bzw. aus der Untersuchung anderer Organismen gewonnen wurden, durch Analogieschlüsse Erklärungen zur Genese sowie auch Prognosen zur weiteren Entwicklung bestimmter mor-

Vgl. z. B. Wolfgang Wieser, Die Evolution der Evolutionstheorie, Heidelberg 1994. Vgl. Ernst Mayr, Die Entwicklung der biologischen Gedankenwelt, Berlin 1984. 7 Vgl. die Schriften des Hauptrepräsentanten der Frankfurter Schule der Evolutionsbiologie, Wofgang F. Gutmann, z. B. ders., Die Evolution hydraulischer Konstruktionen, Frankfurt 1989, oder auch Michael Weingarten, Organismen - Objekte oder Subjekte der Evolution?, Darmstadt 1993, oder die Diskurse in Ethik und Sozialwissenschaften, Heft I, 1993 ("Grenzen unseres Wissens am Beispiel der Evolutionsbiologie") und Heft 2, 1994 ("Evolution Grundfragen und Mißverständnisse"). Einen weiteren Ansatz in dieser Richtung stellt die Kybernetische Evolutionstheorie dar, als deren Hauptrepräsentant Ferdinand Schmidt anzusehen ist (z. B. ders., Neodarwinistische oder Kybernetische Evolution?, Heide1berg 1990). Unabhängig von diesen Ansätzen findet man in Manfred Eigen/ Ruthild Winkler, Das Spiel. Naturgesetze steuern den Zufall, München 1996 (1975) für den Bereich der Molekular- und Evolutionsbiologie eine reiche Auswahl allgemeiner Beispiele zu dieser Thematik. Einen aktuellen Ansatz dazu in der Ökonomik, der auf gestalttheoretischen Argumenten beruht, findet man bei Gisela Kubon-Gilke / Ekkehard Schlicht, Gerichtete Variationen in der biologischen und sozialen Evolution, München 1997. 5

6

Kontingenz und Strukturähnlichkeit in der Ökonomie

189

phologischer Strukturen wie z. B. Beutefang- oder Fortbewegungsinstrumente dieser Organismen liefern. 8 Aber nicht nur die modeme Evolutionsbiologie im engeren Sinne bietet ein aktuelles Beispiel für eine gleichzeitig an zufälliger Variation und an innerer, prädisponierter Gerichtetheit orientierte Herangehensweise zur Analyse komplexer Prozesse, sondern ebenso z. B. die mathematisch orientierte Komplexitätsforschung zur Entstehung und Entwicklung des Lebens 9 , die Quantenphysik lO, die Kosmologie 11 , die Geschichtswissenschaft in ihrem Ansatz der kontrafaktischen Alternativ- oder Konjekturalgeschichte 12 , die Philosophie I3 , die Politikwissenschaft und auf der methodologischen Ebene schließlich die Wissenschafts- und Erkenntnistheorie. 14 Die Vorgehensweise dieses Beitrags besteht darin, die beiden Extrempunkte Zufall und Notwendigkeit durch die adäquateren, näher beieinanderliegenden Konzepte der "Kontingenz" und der "Strukturähnlichkeit" zu ersetzen. Zufall bzw. Verlaufsoffenheit auf der einen Seite werden durch das Konzept der "Kontingenz" auf einen beschreibbaren Möglichkeitsraum alternativer Prozeßverläufe eingeschränkt, von denen jeder eine kausal logische Ereignisabfolge darstellt. 15 Auf der anderen 8 Vgl. die beiden Aufsätze von David Wake und Gerhard Roth in David WakelGerhard Roth, Complex Organismal Functions: Integration and Evolution in Vertebrates, Chichester and New York 1989, pp. 7 - 22, 361 - 378. 9 Vgl. z. B. Stuart Kauffman, Der Öltropfen im Wasser, München 1995, oder Frank Schweitzer, (ed.), Self-Organization of Complex Structures: From Individual to Collective Dynamics, Amsterdam 1997. 10 Vgl. z. B. Hans-Peter Dürr, Respekt vor der Natur - Verantwortung für die Natur, München 1994, S. 40 - 57. Man kann als weiteren Bereich auch an den als "Chaostheorie" bezeichneten Theoriekomplex denken, in dem Parameterbereiche zu regulären bzw. irregulären ("chaotischen") Prozeßtrajektorien untersucht werden. Sogar innerhalb der "chaotischen" Parameterbereiche lassen sich zudem Strukturen und Regularitäten in Form von Attraktoren finden. Allerdings ist hier eine spezielle Situation gegeben, indem die Klasse der untersuchten Prozesse auf Trajektorien von Iterationen unveränderter Generatorgleichungssysteme beschränkt ist. 11 V gl. z. B. Bernulf Kanitscheider, Im Innern der Natur, Darmstadt 1996. 12 Der Begriff "kontrafaktisch" findet sich schon bei Max Weber, Objektive Möglichkeiten und adäquate Verursachung in der historischen Kausalbetrachtung, in: J. Winckelmann (Hrsg.), Gesammelte Aufsätze zur Wissenschaftslehre, 7. Auflage, S. 266 - 290, Tübingen 1988. Modeme kontrafaktische Geschichtswissenschaft findet man z. B. bei Alexander Demandt, Ungeschehene Geschichte, Göttingen 1986, Reinhart Koselleck, Vergangene Zukunft, Frankfurt 1995, oder Michael Salewski, Was wäre, wenn ... ?, in Vorbereitung. 13 Vgl. z. B. Odo Marquard, Apologie des Zufälligen, Stuttgart 1986. 14 Zu den Vorläufern und Repräsentanten der letzteren sind z. B. Konrad Lorenz, Karl Popper, Rupert Riedl, Gerhard Vollmer oder Franz Wuketits zu rechnen. Vgl. z. B. auch Bernulf Kanitscheider, Im Innern der Natur, Darmstadt 1996, oder Rupert Sheldrake, Sieben Experimente, die die Welt verändern könnten, München 1997. Einen guten Überblick vor dem Hintergrund der Politikwissenschaft findet man z. B. bei Werner Patzelt, Institutionen als erkenntnisgewinnende Systeme, Dresden 1997. 15 Der Kontingenzbegriff ist in der modemen Evolutionsbiologie vor allem durch Stephen Gould (z. B. in seinem Werk "Zufall Mensch", München 1994) etabliert worden.

190

Marco Lehmann-Waffenschmidt und Joachim Schwerin

Seite wird die automatische "Hydraulik" strikter kausaler Determiniertheit durch das Strukturähnlichkeitskonzept abgeschwächt und als empirisches Konzept operationalisiert. Kontingenz im Kontext dieser Untersuchung ist also nicht einfach gleichzusetzen mit Zufälligkeit im Sinne der Stochastik 16 , die mit Hilfe des wahrscheinlichkeitstheoretischen Kalküls beschrieben und analysiert werden kann. Vielmehr entspricht Kontingenz der modallogischen Kategorie der "symmetrischen Möglichkeit", die schon von Aristoteles in seiner Kategorienlehre entwickelt wurde. Eine Aussage p ist demnach kontingent, wenn sie symmetrisch möglich, d. h. weder unmöglich noch notwendig ist. In der Sprache der Modallogik ausgedrückt heißt das "zugleich möglich und nicht nicht-möglich" bzw. "zugleich nicht notwendig und nicht nicht-notwendig".l? Eine kontingente historische Ereignisabfolge hat demnach die Eigenschaft, einerseits zwar ex post kausal erklärbar zu sein, andererseits aber nicht nur ex ante, sondern sogar auch in einer Ex-Post-Prognose nicht eindeutig prognostizierbar und somit nur eine von mehreren alternativ möglichen Ereignisfolgen vom selben Ausgangspunkt aus zu sein. 18 Wer das Konzept der Kontingenz zur Prozeßanalyse verwendet, ist also mit zwei Aufgaben konfrontiert. Zuerst ist zu untersuchen, ob überhaupt Kontingenz vorliegt, d. h. ob der Möglichkeitsraum alternativ möglicher Prozeßverläufe wirklich mehr als einen Punkt enthält, also andere "nicht nicht-notwendige" Prozeßverläufe bzw. Prozeßtrajektorien außer dem faktischen Prozeßverlauf. Im zweiten und in Anwendungen wohl weit schwierigeren Schritt ist die Größe des Möglichkeitsraums einzugrenzen und das Wesen der alternativen Prozeßverläufe zu bestimmen. 19 Geläufiger als dieser Begriff der Kontingenz ist in der wissenschaftlichen Literatur der polar-komplementäre Begriff der kausalen Determiniertheit einer Ereignisfolge, deren Verifizierung (oder zumindest Analyse) sozusagen als oberster Programmpunkt auf der wissenschaftlichen Agenda steht. Das Entscheidende da16 Für eine wissenschaftstheoretische Synopse zum Zufallsbegriff vgl. z. B. Günter Elfler I Man/red Moser I Andreas Thimm (Hrsg.), Zufall, Mainz 1996. Eine andere Charakterisierung des Spannungsfeldes von Zufall und Determiniertheit bieten Malte FaberlReiner Manstetten, Humankind and the Environment. An Anatomy of Surprise and Ignorance, in: Environmental Values 1992, pp. 217 - 241. 17 Vgl. Ekkehard FuldalMarco Lehmann-Waffenschmidtlloachim Schwerin, Zwischen Zufall und Notwendigkeit - zur Kontingenz ökonomischer Prozesse aus theoretischer und historischer Sicht, in: G. Wegner und J. Wieland (Hrsg.), Formale und informale InstitutionenGenese, Interaktion und Wandel, Marburg 1998. 18 Vgl. auch Günther Ortmann, Formen der Produktion. Organisation und Rekursivität, Opladen 1995. 19 Aktuelle und historische politische Brisanz erhält der Kontingenzbegriff z. B. bei der Frage nach Alternativen zu systemkonformem Verhalten in Diktaturen oder in militärischen Einsätzen. Eine Analyse des Problems des Befehlsnotstandes und kontingenter Alternativen am Beispiel des Falls Adolf Eichmann findet man bei Odo Marquard, Apologie des Zufälligen, Stuttgart, 1986, S. 126.

Kontingenz und Strukturähnlichkeit in der Ökonomie

191

bei ist nun freilich weniger die naheliegende Absicht, kausale Zusammenhänge systematisch zu erforschen, sondern vielmehr die Wahl der Vorgehensweise im konkreten Untersuchungszusammenhang, sprich die jeweilige Operationalisierung des Begriffs "kausal determiniert". Es soll hier nicht der Versuch unternommen werden, die schon allein innerhalb der Ökonomik bedeutende Vielfalt der Vorgehensweisen, Ansätze und Konzepte dazu zu beschreiben oder zu bewerten. Vielmehr ist es das Ziel dieses Beitrags, einen für das jeweilige Untersuchungsziel geeigneten eigenen Ansatz zur Operationalisierung und Anwendung des Begriffs der kausalen Determiniertheit zu entwickeln und zusammen mit dem komplementären Konzept der Kontingenz bei der Untersuchung des Grades der kausalen Determiniertheit bzw. Kontingenz realer historischer Prozesse und modellgenerierter Prozeßverläufe anzuwenden. Das hier vorgeschlagene Konzept der "Strukturähnlichkeit" von Prozessen, das sowohl auf historische als auch auf modellgenerierte Prozesse anwendbar ist, leistet eine Operationalisierung des Begriffs der kausalen Determiniertheit. Dies liegt darin begründet, daß Strukturähnlichkeiten bei Prozessen entweder aus theoretischen Überlegungen abgeleitet sind oder auf beobachteten Wiederholungen beruhen und beobachtete Wiederholungen Wissen über Regelmäßigkeiten und Gesetzmäßigkeiten der Prozeßverläufe generieren. Es soll bereits an dieser Stelle darauf hingewiesen werden, daß der scheinbar naheliegende Einwand gegen diese methodische Vorgehensweise, daß auf diese Art lediglich empirische Generalisierungen auf der Ebene der Phänomene, aber keine theoretisch fundierten Erklärungen gefunden werden können, auf die vorliegende Untersuchung nicht zutrifft. Denn beide Anwendungsbereiche dieser Untersuchung, die mathematisch-ökonomische EvolutionsmodelIierung sowie die kliometrische Methode der Neuen Wirtschaftsgeschichte, sind genuin theoriegestützt. Ohne den berühmten Schulenstreit zwischen der historischen und der marginalistischen (neoklassischen) Schule hier wiederbeleben zu wollen, gibt es aber auch darüber hinaus durchaus gute Gründe für die Ansicht, daß durch beobachtete Strukturähnlichkeiten bei historischen Prozessen verläßliches Wissen kreiert werden kann,z° Zwei Prozesse gelten in unserer Untersuchung dann als "strukturähnlich", wenn sie in genau denjenigen Merkmalen oder Charakteristika übereinstimmen, die den für diese Untersuchung gewählten Strukturbegriff konstituieren. 21 Eine Struktur kann wie im Beispiel VOn Abschnitt 11 dieser Arbeit schon durch ein einziges 20 Auch in der Geschichtswissenschaft gibt es neuere Ansätze, die auf Strukturähnlichkeitsargumenten beruhen. Paul M. Kennedy, The Rise and Fall of the Great Powers, 1987, entwickelte z. B. auf der Grundlage des empirisch-historischen Befundes einen vieldiskutierten universellen Erklärungsansatz für den Lebenszyklus politischer Großmächte. Einen weiteren universalen Zyklus-Ansatz findet man bei George Modelski, Long Cycles, London 1987. 21 Vgl. Marco Lehmann-Waffenschmidt / Joachim Schwerin, Strukturähnlichkeiten ökonomischer Prozesse im Zeitablauf, in: Michael North (Hrsg.), Die Entstehung des modemen Europa, in Vorbereitung.

192

Marco Lehmann-Waffenschmidt und Joachim Schwerin

Merkmal konstituiert sein, oder aber durch viele Merkmale wie im Beispiel einer typischen wachsenden Volkswirtschaft, die durch eine Liste von sogenannten "stilisierten Fakten" charakterisiert wird. 22 Natürlich kann sich das durch festgestellte Strukturähnlichkeiten generierte Wissen über Verlaufsgesetzmäßigkeiten der untersuchten Prozesse nur auf den durch die Strukturmerkmale konstituierten Teilaspekt der Prozesse beziehen. Es wurde bewußt die Bezeichnung "Strukturähnlichkeit" gewählt und nicht "Strukturgleichheit", da der hier verwendete Strukturbegriff nicht eine möglichst vollständige Charakterisierung der Untersuchungsobjekte anstrebt, sondern diejenigen Merkmale zusammenfaßt, die für die jeweilige Untersuchung relevant sind. In der Sprache der Mathematik ausgedrückt sind zwei strukturähnliche Prozesse homomorph, indem die wesentlichen, strukturbestimmenden Merkmale beider Prozesse übereinstimmen, aber nicht notwendig isomorph, was bedeuten würde, daß sie in allen Merkmalen übereinstimmen. Ein weiterer Grund für die Begriffswahl "strukturähnlich" besteht darin, daß gerade in empirischen und wirtschaftshistorischen Anwendungen häufig damit zu rechnen ist, daß die verwendeten Strukturmerkmale entweder nicht exakt ermittelt werden können oder eine exakte Angabe keinen Sinn macht, weil dadurch die Klassen strukturähnlicher Prozesse zu sehr eingeschränkt werden?3 11. Kontingenz und Strukturähnlichkeit bei modellgenerierten Marktprozessen

Eine der brisantesten ökonomischen AufgabensteIlungen ist zweifelsohne die Prognose von Preisentwicklungen. Gerade für Wertpapiermärkte, deren "Evolution" auf der Ebene der Phänomene primär durch Aktiencharts beschrieben wird,24 bieten sich die zuvor entwickelten Konzepte von Kontingenz und Strukturähnlichkeit geradezu an. So repräsentieren die typischen Standard-Kursformationsmuster der Chartisten zugleich Kontingenz und Strukturähnlichkeit: Eine typische Formation stellt eine Beschreibung einer Strukturähnlichkeit dar. Formationen repräsentieren aber zugleich Kontingenz, indem die Chartanalyse zwar mit Hilfe ihrer Kriterien die Menge der möglichen weiteren Kursverläufe von einem gegebenen Punkt aus einschränken kann, es ex-ante aber nicht klar ist, welche Formation genau realisiert werden wird. 25 Vgl. Unterabschnitt 111.3 dieser Arbeit. Es besteht - wie häufig in wissenschaftlichen Untersuchungen - ein trade-off zwischen Exaktheit, durch die die Anzahl der subsumierten Objekte reduziert wird, und Unschärfe, durch die die Aussagekraft des Konzeptes geschwächt wird. Eine optimale Lösung dieses Dilemmas ist nicht allgemein, sondern nur fallweise aus dem Erkenntnisziel der jeweiligen Untersuchung heraus zu bestimmen. 24 Natürlich spielen auch die Entwicklungen anderer Variablen wie z. B. der Umsätze der gehandelten Aktien oder die Geld/Brief-Situation der Abschlüsse für die "Börsenperformance" ein Rolle. 22 23

Kontingenz und Strukturähnlichkeit in der Ökonomie

193

Die Chartanalyse bietet allerdings genau die Angriffsfläche, von der in Abschnitt I bei der Erörterung des Strukturähnlichkeitskonzepts die Rede war. Bei dem Prognoseinstrumentarium der Chartformationen handelt es sich weitgehend um Erfahrungswerte und empirische Generalisierungen ohne theoretische Fundierung. Gerade für interdependente Wettbewerbsmärkte, die wie z. B. der Wertpapiermarkt außerdem nahezu die Bedingungen eines vollkommenen Wettbewerbsmarktes erfüllen, bietet aber die mathematische Wirtschaftstheorie einen wesentlich weiter entwickelten theoretischen Analyserahmen an. Da aussagekräftige und allgemeingültige Ergebnisse theoretischer Analysen im allgemeinen entsprechend weitgehende und restriktive Annahmen erforderlich machen, liegt es nahe, die Frage nach der künftigen Preisentwicklung innerhalb eines interdependenten Marktsystems zunächst mit einem einfachen Modell zu analysieren, das nur sehr wenig restriktive Annahmen erfordert. Die erwartete Leistung des Modells besteht darin, die sich auf den Märkten selbstorganisiert, d. h. dezentral - also durch die Smithsche "invisible hand" - einstellenden Preise als Modellösungen, oder Gleichgewichte, darstellen zu können. Zwar stellt der Modelltyp des bekannten Basismarktmodells der Gleichgewichtstheorie ein statisches Modell dar. Fragen zur Preisentwicklung können aber in einer erweiterten "stetigen" komparativ-statischen Analyse durch kontinuierliches Verändern der Marktangebots- und Marktnachfragefunktionen auch in diesem Modellrahmen gut untersucht werden. Dabei müssen nur minimale Voraussetzungen an die "Momentaufnahmen" getroffen werden, nämlich die Stetigkeit der von allen Preisen abhängigen Angebots- und Nachfragefunktionen auf allen Märkten des Marktsystems sowie eine sehr schwache "Randbedingung,,26 an die Überschußnachfragefunktionen, also an die jeweiligen Differenzfunktionen der Nachfrage- und Angebotsfunktionen auf jedem Markt. Stellt man ein solches Basismarktsystemmodell für n Güter auf, so besteht ein "Marktgleichgewicht" allgemein gesagt aus n Preisen und wird also durch einen Gleichgewichtspreisvektor mit n Komponenten dargestellt, der die Überschußnachfrage auf allen n Märkten gleichzeitig zu Null macht. Würde es für jede denkbare und ökonomisch sinnvolle Spezifizierung der Überschußnachfragefunktionen, die außerdem die Stetigkeits- und die erwähnte Randbedingung erfüllt, genau einen solchen Gleichgewichtspreisvektor geben, so ist die allgemeine Antwort auf die Frage, wie sich die (Gleichgewichts-)preise auf den Märkten bei beliebigen, aber stetigen Veränderungen der Angebots- und Nachfragefunktionen verändern, aus mathematischen Gründen einfach und eindeutig: ebenfalls stetig - also nicht 25 Das Phänomen, daß bestimmte Formationen zuweilen als self-fulfilling prophecy zu (fast) sicheren Prognosen werden, soll hier nicht erörtert werden. 26 Gemeint ist die Bedingung, daß die Überschußnachfrage nach Gütern für sehr kleine Preise letztlich positiv wird ("desirability condition"). Die beiden anderen in der Gleichgewichtstheorie üblichen Bedingungen der Walras-Identität ("Walras-Gesetz") und der NullHomogenität der Funktionen des Marktsystems sind in dem hier zugrundegelegten Modellrahmen nicht erforderlich zur Sicherstellung der Existenz mindestens eines Gleichgewichtes.

13 Selbstorganisation, Bd. 9

194

Marco Lehmann-Waffenschmidt und Joachim Schwerin

sprunghaft, sondern entlang eines stetigen "Gleichgewichtspfades", und damit zumindest in der kurzen Frist in der Umgebung des vorhergehenden Wertes bleibend und somit "lokal" prognostizierbar?7 Die hier interessierende Frage nach Prognosemöglichkeiten bzw. Verlaufseigenschaften von Gleichgewichts-Preistrajektorien bei sich änderndem Nachfrage- und Anbieterverhalten, also bei einem evolvierenden Marktsystem, wurde durch die theoretischen Entwicklungen der mathematischen Gleichgewichtsökonomik in den siebziger und achtziger Jahren weitgehend negativ beantwortet. Schon von einfachen Beispielen mit zwei Gütern war allgemein bekannt, daß man im generischen Fall multipler Gleichgewichte keine gleich starke Regularitäts- oder Struktureigenschaft finden würde wie den eindeutigen Gleichgewichtspreispfad im Fall der durchgängigen Eindeutigkeit der Gleichgewichte der Momentaufnahmen eines evolvierenden Marktsystems. Aber auch die von Debreu, Dierker, Balasko u. a. entwickelten allgemeinen und formal anspruchsvollen Theorien des Graphen der Walras-Korrespondenz und der Regulären Ökonomien konnten keine allgemeingültigen Verlaufsregularitäten, oder Struktureigenschaften, von Gleichgewichtspreisvektoren von Evolutionen im beschriebenen Basismarktmodell ermitteln, die nicht eine sehr restriktive lokale Beschränkung der Veränderung der Angebotsund Nachfragefunktionen voraussetzten. Es gibt aber für den allgemeinen Fall mit multiplen Gleichgewichten doch eine allgemeingültige Struktureigenschaft. 28 Lehmann-Waffenschmidt zeigte, daß für 27 War das Interesse der mathematischen Ökonomie bis in die fünfziger Jahre des zwanzigsten Jahrhunderts vor allem darauf gerichtet, die Existenz eines Gleichgewichtsvektors in diesem Modellrahmen zu erforschen, so wuchs nach der vollständigen Lösung durch Arrow, Debreu, Mantel und andere seit den sechziger Jahren in der scientific community der Verdacht, daß das wahre Problem nicht in der Existenzproblematik bestehen könnte, sondern im Gegenteil in einer Multiplizitätsproblematik. Denn wenn es "generisch", d. h. allgemein, zutrifft, daß mehr als ein Gleichgewichtsvektor für ein Marktsystem exisitiert und man keinen ökonomisch überzeugenden allgemeinen Selektionsmechanismus für die Auswahl genau eines Gleichgewichtsvektors in solchen Multiplizitätssituationen finden kann, ist das Gleichgewichtskonzept indeterminiert und verliert seine explikative und prognostische Aussagekraft, für die es ursprünglich konstruiert worden war. Anfang der siebziger Jahre konnte dieser Verdacht von Sonnenschein, Debreu, Mantel, Mas-Colell und anderen zum Schrecken der Profession bestätigt werden. Allerdings ist nicht nur die Gleichgewichtstheorie von dieser Grundsatzproblematik betroffen. Sie findet sich ebenso in anderen weitentwickelten Theoriebereichen, z. B. in der Spieltheorie (vgl. dort die sog. "Folk-Theoreme"). In Anschlußarbeiten konnte seither sogar gezeigt werden, daß verschärfte mikroökonomische Annahmen, die unplausible Fälle ausschließen sollen, zu keiner Verbesserung der "Determiniertheit" des Modells führen. Inwieweit der kombinierte empirische und makro-mikroökonomische Ansatz des SFB 303 der Universität Bonn die Determiniertheit doch noch etablieren kann, muß sich erweisen. Jedenfalls haben sich auch hier grundSätzliche Hürden gezeigt, die darauf hindeuten, daß die Aggregation mikroökonomischer Eigenschaften generell zu irreversiblen Indeterminiertheitsproblemen führt. 28 Vgl. Marco Lehmann-Waffenschmidt, Ökonomische Evolution und Gleichgewicht konträr oder komplementär?, in: Studien zur Evolutorischen Ökonomik II, Berlin 1992. Es handelt sich nicht um eine dynamische Analyse im strengen Sinne, da nicht die Ursachen der

Kontingenz und Strukturähnlichkeit in der Ökonomie

195

alle denkbaren stetigen Marktevolutionen des beschriebenen Basismodells stetige Gleichgewichtspreispfade existieren, falls man gewisse "Schleifeneigenschaften" dieser Gleichgewichtspfade zuläßt. Die Gleichgewichtsmengen aller denkbaren stetigen Marktevolutionen des beschriebenen Basismodells sind also strukturähnlich hinsichtlich der Struktur der Existenz eines Gleichgewichtspreispfades. Diese StrukturähnliehkeitseigensehaJt konnte auch für andere Gleichgewichtsmodelle neben dem einfachen Basismodell nachgewiesen werden (Rationierungsmodelle, Modelle mit wirtschaftspolitischen Steuern- und Subventionsparametern), und es konnte darüber hinaus gezeigt werden, daß diese Eigenschaft sogar die einzige Struktureigenschaft der evolvierenden Gleichgewichtspreise ist, die allgemein gilt. 29 Dieses Eindeutigkeitsresultat der Struktureigenschaft ist allerdings nicht zu verwechseln mit der Eindeutigkeit eines Gleichgewichtspreispfades, die im allgemeinen Fall natürlich nicht gegeben ist. Die eindeutige Strukturähnlichkeitseigenschaft der Existenz mindestens eines Gleichgewichtspreispfades gibt also im Spannungsfeld von Strukturähnlichkeit und Kontingenz eine allgemeine und zugleich vollständige Verlaufs-Charakterisierung von Gleichgewichtspreisevolutionen. Auf der einen Seite stellen Gleichgewichtspreispfade eine Strukturähnlichkeit dar. Kontingenz repräsentiert dieses Resultat aber auf der anderen Seite auch, indem weder der genaue Verlauf noch die Anzahl von Gleichgewichtspreispfaden dadurch allgemein beschrieben werden. Es wird lediglich die Existenz sichergestellt. Allerdings weiß man, welche Eigenschaften ein Gleichgewichtspreispfad hinsichtlich der Frage der graduellen Anpassung bzw. lokalen Prognostizierbarkeit hat, und man kennt den Möglichkeitsraum für generelle Struktureigenschaften der Gleichgewichtspreispfade genau: Er besteht nur aus dieser einen Eigenschaft. Die Strukturähnlichkeitseigenschaft der Existenz von stetigen Gleichgewichtspreispfaden ermöglicht nicht nur zumindest lokale Prognosen der Preisentwicklung im Modell analog zum Fall des oben erwähnten eindeutigen Gleichgewichtspreispfades. Sie gibt im Modellrahmen mit den wirtschaftspolitischen Steuerparametern Steuer- und Subventionssatz außerdem eine positive Antwort auf die Frage, wie man sowohl diese Steuerparameter als auch simultan die Gleichgewichtspreise im Rahmen einer gradualistischen Anpassungspolitik "verstetigt", also graduell, steuern kann, um die Friktionen einer regime switching, oder cold-turkey, Politik zu vermeiden. In einem Satz gesagt lautet die Antwort, daß dies immer möglich ist, wenn man an den "richtigen Stellen" der Parameter- und Preissteuerung ein phasenweises "backtracking" der Parameter- und Preissteuerung anwendet, d. h. auf Evolution der ökonomischen Verhaltensweisen analysiert werden, sondern nur deren Auswirkungen auf die Gleichgewichtslösungen. Für diese Art der Analyse wurde in der Ökonomik in den 50er Jahren die aus der Astronomie übertragene Bezeichnung "kinetische Analyse" eingeführt. 29 V gl. Marco Lehmann- Waffenschmidt, On the Equilibrium Price Set of a Continuous Perturbation of Exchange Economies, in: Journal of Mathematical Economics, 1995, pp. 497519. 13*

196

Marco Lehmann-Waffenschmidt und Joachim Schwerin

stetige Weise innerhalb der bereits absolvierten Parameterentwicklung an den richtigen Stellen dieselben Parameterwerte zurück- und wieder vorwärts durchläuft. Natürlich darf hier keine weitere Kontingenz in dem Sinne auftreten, daß beim wiederholten Durchlaufen andere Parameterwerte angenommen werden als die bereits durchlaufenen. Allerdings kann ab jeder Stelle, an der ein "backtracking" beendet wurde, die Parameterentwicklung wieder verlaufsoffen weitergehen. III. Kontingenz und Strukturähnlichkeit bei wirtschaftshistorischen Prozessen

Nachdem im vorherigen Abschnitt Kontingenz und Strukturähnlichkeit ökonomischer Prozesse auf der mikroökonomischen und modelltheoretischen Ebene analysiert wurden, beschäftigt sich dieser Abschnitt mit einer Untersuchung dieser Phänomene in einem anderen Kontext. Die Frage lautet hier, inwieweit selbstorganisierte sozioökonomische Prozesse auf der makroökonomischen Ebene kontingent sind und im Zeitablauf Strukturähnlichkeiten aufweisen. Diese noch allgemeine Problemstellung soll im folgenden beispielhaft hinsichtlich einer speziellen, in der Forschung intensiv untersuchten Art von Prozessen konkretisiert werden: den Industrialisierungsprozessen in modemen Volkswirtschaften, während derer es zur endogenen Generierung eines langfristigen Wachstumspfades gekommen ist. 30 Der Begriff "endogen" soll in diesem Zusammenhang darauf verweisen, daß diese Prozesse gemäß des im I. Abschnitt eingeführten Begriffes selbstorganisiert sind, und zwar insofern, als die Bedingungen für einen wachstumssteigernden Industrialisierungsprozeß systemendogen, d. h. innerhalb der jeweils betrachteten Volkswirtschaft, erfüllt werden mußten. 31 Die Untersuchung dieser Prozesse auf ihre Kontingenz hin sowie auf das damit zusammenhängende Vorliegen bestimmter Strukturähnlichkeiten erfolgt in drei Schritten. Zunächst wird im Unterabschnitt III.I mit der Neuen Wirtschaftsgeschichte (bzw. Kliometrie) eine wirtschafts wissenschaftliche Teildisziplin vorgestellt, die über ein für die Analyse komplexer dynamischer Prozesse besonders geeignetes Instrumentarium verfügt. Der sich anschließende Unterabschnitt III.2 30 Es sei an dieser Stelle explizit darauf hingewiesen, daß im Gegensatz zum Abschnitt II im nun folgenden Abschnitt tatsächlich in der Realität abgelaufene Prozesse untersucht werden, d. h. solche, die sich in historischer und nicht in theoretischer Zeit abspielen. Demzufolge besteht der Anspruch im folgenden auch nicht darin, ein notwendigerweise für jeden Einzelfall gültiges Ergebnis, sondern ein oder mehrere idealtypische Strukturresultate herzuleiten. Dazu werden wir im folgenden den Fachterminus der "stilisierten Fakten" verwenden (vgJ. Unterabschnitt III.3). 31 Diese Bedingungen beinhalten einerseits die dauerhafte Bereitstellung innovationsund wachstumsfördernder Ressourcen mittels der Akkumulation von physischem Kapital, Humankapital sowie technischem und organisatorischem Wissen. Andererseits fällt hierunter die Herausbildung eines unterstützend wirkenden institutionellen Rahmens. VgJ. näher hierzu Unterabschnitt III.3.

Kontingenz und Strukturähnlichkeit in der Ökonomie

197

untersucht dann auf dieser Grundlage in einer ersten Annäherung, warum historische Industrialisierungsprozesse als kontingent bezeichnet werden können. Im Unterabschnitt UI.3 wird schließlich argumentiert, daß die Natur der in diesen Verläufen zum Vorschein kommenden Kontingenz mittels einer Bestimmung von Anzahl und Art der Strukturähnlichkeiten zwischen den verschiedenen historischen Industrialisierungsprozessen näher beschrieben werden kann. Hierbei soll zusätzlich deutlich werden, daß die gewählte Vorgehensweise prinzipiell auch auf die Analyse anderer sozioökonomischer Prozesse übertragbar ist.

1. Zwischen Zufall und Notwendigkeit: die Neue Wirtschaftsgeschichte

Ende der 1950er Jahre begann sich mit der Neuen Wirtschaftsgeschichte bzw. Kliometrie 32 ein neuer interdisziplinärer Ansatz innerhalb des sozialwissenschaftlichen Spektrums zu etablieren, dessen innovatives Potential in seiner Methodik begründet lag. Ausgangspunkt war die Beobachtung einer zunehmenden Divergenz zwischen wirtschaftstheoretischer und wirtschafts historischer Forschung. Während in der traditionellen, von Historikern geprägten Wirtschaftsgeschichtsschreibung zunehmend größere Datenmengen angehäuft wurden, die jedoch nicht aus der Sichtweise der ökonomischen Theorie analysiert wurden ("Fakten ohne Theorie"), kam es in den Wirtschaftswissenschaften zum Aufbau immer anspruchsvollerer Denkgebäude und statistischer Analyseverfahren, allerdings im geschichtsfreien Raum ("Theorie ohne Fakten,,).33 Das Ziel der Kliometriker bestand in der Rekombination bei der Forschungsstränge: "Cliometrics is ... the application of economic theory and quantitative methods to the study of history. ,,34 Aus methodischer Sicht ist das konstituierende Merkmal dieses Ansatzes somit die Anwendung der ökonomischen Logik bei der Analyse des Geschichtsverlaufes. Damit soll jedoch keinem "Ökonomismus" das Wort geredet werden. Vielmehr besteht die kliometrische Herangehensweise an eine konkrete Fragestellung darin, in einem ersten Schritt auf der Grundlage wirtschaftstheoretisch begründbarer Zusammenhänge 35 Daten zu erheben und ökonometrisch auszuwerten, um einen 32 Der Ansatz firmiert unter zahlreichen Bezeichnungen; diese beiden sind die gebräuchlichsten. Die Bezeichnung "Kliometrie" ist eine Kombination des Namens der Muse der Geschichte, "Klio", mit der Endung des Wortes "Ökonometrie". 33 Vgl. Rager E. Meiners und Clark Nardinelli, What Has Happened to the New Economic History?, JITE 1986, S. 512. 34 Claudia Galdin, Cliometrics and the Nobel, Journal of Economic Perspectives 1995, S.191. 35 An dieser Stelle soll gleich dem Mißverständnis vorgebeugt werden, daß hier insofern ein Zirkelschluß angelegt sei, als auf einer theoretischen Grundlage Daten erhoben werden, die dann (vgl. Unterabschnitt II1.3) dazu verwendet werden, die Relevanz von Theorien zu testen. Den hier verwendeten kliometrischen Analysen liegen Postulate wie rationale Entscheidungen zwischen Alternativen zugrunde, nicht aber die explizit formulierten Ansätze zum Beispiel der Neuen Wachstumstheorie.

198

Marco Lehmann-Waffenschmidt und Joachim Schwerin

möglichst großen Teil der Dynamik historischer Prozesse quantitativ zu erfassen. Damit ist der Geschichtsverlauf jedoch niemals vollständig beschrieben, denn zahlreiche Einflußfaktoren sind aus den unterschiedlichsten Gründen qualitativ (z. B. kulturelle, soziale oder politische Veränderungen) bzw. überhaupt nicht systematisch zu erfassen (wie z. B. nicht antizipierbare reine Zufallseinflüsse). Während sich letztere aufgrund ihrer Natur einer systematischen Beschreibung entziehen, werden nun die qualitativerfaßbaren Einflüsse in einem zweiten Schritt in die Analyse einbezogen. Dies erfolgt im wesentlichen aus zwei Gründen. Erstens wird dadurch die Interpretation des quantitativerfaßten Datenmaterials entscheidend verbessert, und zweitens ergeben sich Hinweise darauf, wie die ökonomische Theorie eventuell erweitert werden muß, um solchen "weichen" Erklärungsfaktoren Rechnung zu tragen. 36 Anders ausgedrückt beinhaltet der kliometrische Ansatz somit zwar eine Minimierung des qualitativen Residuums bei der Analyse historischer Prozesse, allerdings vor dem Hintergrund der Erkenntnis, daß dieses Residuum weder durch immer feinere ökonometrische Verfahren auf null reduzierbar ist noch daß dies überhaupt wünschenswert wäre - würde doch ansonsten eine Fülle zusätzlicher Informationen wegfallen. Auf dieser Grundlage angewendet ist der kliometrische Ansatz genuin interdisziplinär, da er (unter anderem) die gleichzeitige Verwendung wirtschafts wissenschaftlicher, statistisch-ökonometrischer und historischer Methoden beinhaltet. Betrachtet man die auf dieser Basis analysierten Untersuchungsgegenstände, so fällt auf, daß von Anfang an Aspekten der langfristigen Wirtschaftsentwicklung eine herausragende Bedeutung zukam, und unter diesen wiederum zog vor allem die Frage nach den Ursachen und Verläufen der Industrialisierungsprozesse, die sich im Laufe der letzten zweieinhalb Jahrhunderte ereignet hatten, das meiste Interesse auf sich. Zu den besonders intensiv diskutierten Themen zählen etwa die Generierung und der Verlauf des technischen Fortschritts, der Einfluß einzelner Wirtschafts sektoren auf Strukturwandel und Wirtschaftswachstum, die Existenz (und Interdependenz) möglicher Bedingungen für die Industrialisierung und deren zeitlicher Verlauf. Mittlerweile kristallisiert sich aus der Fülle der einzelnen Beiträge zumindest in Teilbereichen ein zusammenpassendes Bild heraus (vgl. Unterabschnitt III.3), weswegen diese Studien zur Industrialisierung besonders geeignet sind und daher auch hier verwendet werden, um die Fragen nach Art und Ausmaß der Kontingenz historischer Prozesse und nach den Strukturähnlichkeiten zwischen ihnen zu beantworten.

36 So hängt die Interpretation makroökonomischer Zeitreihen des Wirtschaftswachstums, die von entscheidender Bedeutung für das Verständnis von Industrialisierungsprozessen sind, von der Berücksichtigung nicht-quantifizierbarer Einflüsse ab. Als Beispiele seien nur institutionelle Faktoren wie die Patentgesetzgebung oder gesellschaftliche Widerstände gegen bestimmte neue Technologien genannt.

Kontingenz und Strukturähnlichkeit in der Ökonomie

199

2. Zur Kontingenz von Industrialisierungsprozessen aus kliometrischer Sicht

Zunächst soll die Frage aufgeworfen werden, warum historische Industrialisierungsprozesse überhaupt als kontingent angesehen werden können. Eine erste Annäherung an eine Antwort kann bereits mit Hilfe eines Analyseinstruments erfolgen, das zwar im Rahmen vieler kliometrischer Untersuchungen eingesetzt wird, jedoch schon wesentlich früher Verwendung fand: der kontrafaktischen Geschichtsschreibung. Ein Kontrafaktum ist ein Ereignis (oder eine Entwicklung), das (die) in der Realität nicht eingetreten ist. Es wird mit dem tatsächlichen Geschichtsverlauf verglichen und erfüllt somit die Funktion einer Nullhypothese: Erst aus dem Unterschied beider Entwicklungen - der tatsächlichen und der hypothetischen - läßt sich nämlich die Bedeutung des in der Realität aufgetretenen, den Unterschied verursachenden Ereignisses quantifizieren und somit einschätzen. Die Verwendung von Kontrafakten stellt eine Abwendung von den beiden denkbaren methodologischen Extrempositionen dar. Einerseits findet die Negation eines extremen Determinismus statt, da die potentielle Existenz eines alternativen Geschichtsverlaufs anerkannt wird. Auf der anderen Seite beinhaltet die kontrafaktische Methode jedoch auch eine Abkehr von einer extrem zufallsabhängigen Geschichtsauffassung: Es werden schließlich zwei historische Verläufe miteinander verglichen, die sich in ihrem Erscheinungsbild zwar partiell unterscheiden, ansonsten aber denselben Verlaufsgesetzen gehorchen. Allerdings wird diese Vorgehensweise beschränkt durch die ceteris-paribus-Klausel, denn es wird nur ein einziges Element aus dem komplexen sozioökonomischen Gefüge variiert, während alle anderen konstant gehalten werden. Dieses methodische Konstrukt erweist sich als notwendig für Quantifizierungszwecke - allerdings kann der kontrafaktische Ansatz aufgrund dieser Einschränkung nur Licht auf die Teilfrage werfen, ob Industrialisierungsprozesse überhaupt kontingent sind, nicht jedoch darauf, in welchem Ausmaß. Zur Verdeutlichung dieser Aussage soll ein Beispiel herangezogen werden, das sich wiederum in den Themenkomplex von Innovation, Wachstum und Industrialisierung einfügt. Von Rostow stammt die insbesondere in der Entwicklungsökonomik einflußreiche These, daß das Aufkommen mindestens eines industriellen Leitsektors, der durch eine Basisinnovation begründet wird und eine hohe Wachstumsrate aufweist, eine notwendige Bedingung für die Industrialisierung einer Volkswirtschaft darstellt. 37 Unter Zuhilfenahme der kontrafaktischen Historiographie wurden die von Rostow und anderen als Beispiele angeführten Leitsektoren kliometrisch analysiert. 38 Das Kontrafaktum bestand darin, vom Aufkommen des jeweiligen Leitsektors zu abstrahieren und den wahrscheinlichen 39 alternativen historischen Verlauf Vgl. Walt W Rostow, Stadien wirtschaftlichen Wachstums, Göttingen 1960, S. 57. Das erste Beispiel für eine solche kliometrische Untersuchung ist Fogel 1964. 39 "Wahrscheinlich" ist hier wie folgt zu verstehen: Da Rationalität bei den handelnden Wirtschaftssubjekten vorausgesetzt wird, ist zu erwarten, daß diese sich bei einer Störung des ökonomischen Systems optimal an die geänderte Umwelt anpassen. Das bedeutet z. B., 37 38

200

Marco Lehmann-Waffenschmidt und Joachim Schwerin

zu konstruieren. Mittels dieser Methodik wurde die Leitsektorhypothese widerlegt: Es konnte auf der Basis des historischen Datenmaterials kein quantitativer Effekt berechnet werden, der es gerechtfertigt erscheinen ließe, im Aufkommen einer einzelnen Schlüsselbranche eine notwendige Voraussetzung für die Industrielle Revolution zu sehen. 4o Die empirische Falsifikation der Leitsektorhypothese in Rostows Formulierung warf nun die Frage nach einem alternativen Erklärungsansatz auf. Unstrittig war selbstverständlich, daß die Widerlegung dieser Hypothese noch keinen alternativen Erklärungsansatz bereitstellt. Strittig schien hingegen, ob eine radikale Neuorientierung überhaupt notwendig war oder nicht eine Modifikation ausreichen würde. So mag es zum Beispiel sein, daß für die Entstehung dauerhaften Wirtschaftswachsturns nicht so sehr die direkten Wirkungen der den Leitsektor begründenden Basisinnovation an sich entscheidend sind,41 sondern deren Funktion als Initiator einer Fülle weiterer Innovationen in den verschiedensten Branchen. 42 Diese Innovationen in ihrer Gesamtheit könnten dann erst Auslöser der Wachstumsentwicklung im Zuge der Industrialisierung sein. In der Tat zielt eine in der kliometrischen Forschung zunehmend einflußreiche Sichtweise43 genau auf diesen letzten Aspekt ab. Mokyr argumentiert, daß Basisinnovationen (in seinem Sprachgebrauch "Makroinventionen"), die zur Konstituierung eines primären Wachstums sektors a la Rostow führen, gerade dann erhebliche Wachstums wirkungen aufweisen, wenn sie eine Fülle von nachfolgenden kleineren Innovationen ("Mikroinventionen") auslösen. 44 Von diesen ist zwar jede allein betrachtet hinsichtlich Ort und Zeit ihrer Entstehung nicht antizipierbar; in ihrer Gesamtheit stellen sie jedoch eine absehbare Reaktion des ökonomischen Systems auf die auslösende Wirkung dar, nämlich die den Leitsektor begründende Basisinnovation. Im Hinblick auf die Innovation, die diesen kumulativen Innovationsprozeß auslöst, ist nun bemerkenswert, daß zum Zeitpunkt ihrer ersten Markteinführung zudaß das Fehlen der ökonomischen Effekte einer "nicht stattgefundenen" Innovation dadurch kompensiert wird, daß die Wirtschaftssubjekte die nächstbeste Alternative ergreifen. In neoklassischen Modellen sind diese Ausweichreaktionen prinzipiell prognostizierbar. 40 Als früheste Widerlegung von Rostows Hypothese ist Robert William Fogei, Railroads and American Economic Growth, Baltimore 1964, anzusehen. 41 In diese Richtung geht zum Teil Rostows Argumentation selbst; vgl. z. B. Walt W Rostow, Stadien wirtschaftlichen Wachstums, Göttingen 1960, S. 57 und S. 205, Fußnote 13. 42 Auf den grundsätzlichen Zweifel, ob es so etwas wie "Basisinnovationen" überhaupt gibt, sei hier nicht näher eingegangen. Bei genügend intensiver Analyse wird man jede Innovation in eine Sequenz innovativer Schritte zerlegen können; ob dies jedoch impliziert, daß man diese Sequenz nicht doch unter dem Begriff "Basisinnovation" subsumieren kann, erscheint fraglich. 43 Vgl. N. F. R. Crafts, Exogenous or Endogenous Growth?, Journal of Economic History 1995, S. 756. 44 Vgl. Joel Mokyr, The Lever of Riches, Oxford 1990, insb. Kap. 11.

Kontingenz und Strukturähnlichkeit in der Ökonomie

201

meist noch gar nicht abzusehen ist, daß es sich um einen Kandidaten für eine solche Basisinnovation handelt. Vielmehr stellt sich häufig erst nach Jahrzehnten heraus, welches wachstumsauslösende Potential eine Innovation hat, und zwar in ex ante nicht vorhersagbaren Einsatzmöglichkeiten, die z. B. vom Aufkommen anderer Innovationen in anderen Branchen abhängen. 45 Derartige Innovations- und Wachstums prozesse sind daher auf der Basis ökonomischer Wirkungszusammenhänge ex post leicht erklärbar. Ex ante sind sie jedoch nicht determiniert. Hieraus wird auch verständlich, daß sich selbst in jeder einzelnen Volkswirtschaft gänzlich unterschiedliche Innovationen als im Zeitablauf wachstumsbegründend erweisen können. Aus makroökonomischer Sicht ist es nun wenig interessant, welche der vielen potentiellen Möglichkeiten für eine solche Innovation letztlich realisiert wird - worauf es ankommt, ist lediglich, daß aus dem ex ante unbekannten Alternativenraum mindestens eine Innovation tasächlich generiert wird, die die oben beschriebene Funktion als "Wachstumsinitiator" ausübt. Der in dieser Theorie thematisierte Prozeß ist seiner Natur nach kontingent: Er beinhaltet gleichzeitig determinierte (z. B. ökonomische Gesetzmäßigkeiten bei der Generierung von Wachstum durch technischen Fortschritt) wie auch zufällige Elemente (z. B. konkrete historische Umstände, die dazu führen, warum gerade eine bestimmte Erfindung vor einer anderen möglichen Erfindung getätigt wird). Die Mischung aus beidem ergibt genau den einen Ablauf aus dem Möglichkeitsraum aller denkbaren Alternativen, den wir rückblickend als "Geschichtsverlauf' bezeichnen. Können wir nun nähere Aussagen dazu machen, worin das strukturierte Element im historischen Verlauf solcher Wachstums- und Industrialisierungsprozesse genau besteht?46 Im folgenden Unterabschnitt wird der Versuch unternommen, eine Methodik zur Ermittlung von solchen Strukturähnlichkeiten zu konzipieren. 3. Zur Ermittlung von Strukturähnlichkeiten zwischen kontingenten sozioökonomischen Prozessen

Die Natur der in historischen Prozessen zum Ausdruck kommenden Kontingenz ließe sich näher beschreiben, wenn es gelänge, zumindest über den strukturierten (und damit durch allgemeine, zeit- und raumübergreifende Gesetzmäßigkeiten bestimmten) Bereich nähere Aussagen zu treffen. Genau diesem Zwecke dient die 45 Vgl. hierzu Joachim Schwerin, Lehren aus der Geschichte für die aktuellen Systemtransformationen aus kliometrischer Sicht, Stuttgart 1996, S. 60 f., bzw. Marco LehmannWaffenschmidt / Joachim Schwerin, Strukturähnlichkeiten ökonomischer Prozesse im Zeitablauf, 1998, S. 26 f. Dort finden sich auch einige Beispiele. 46 Es sollte offensichtlich sein, daß sich über die unstrukturierten Elemente keine generellen Aussagen treffen lassen. Daher fällt im folgenden Unterabschnitt 111.3 die Betrachtung dieses Elements, das - wie bereits angeführt - aber natürlich genauso zur Kontingenz gehört, fort.

202

Marco Lehmann-Waffenschmidt und Joachim Schwerin

Aufdeckung von Strukturähnlichkeiten zwischen unterschiedlichen historischen Prozessen. Als Anwendungsbeispiel für die im folgenden umrissene Methode ziehen wir wiederum den Themenkomplex von Innovation, Wachstum und Industrialisierung heran. Der Kern des verwendeten Ansatzes besteht aus einem modifizierten Konzept stilisierter Fakten. Stilisierte Fakten wurden als Bezugssystem für die Theoriebildung erstmals 1958 in einer wachstumstheoretischen Analyse von Nicholas Kaldor verwendet. 47 Kaldors Ausgangspunkt war die Feststellung, daß die empirische Ermittlung der für eine bestimmte Fragestellung relevanten Fakten mit großer Unsicherheit behaftet sei und die Berücksichtigung jedes einzelnen jemals vorgekommenen Ereignisses das Erkennen allgemeiner Tendenzen der Wirtschaftsentwicklung - sofern diese überhaupt existieren - unmöglich macht. Somit sei es erforderlich, als Grundlage wissenschaftlicher Arbeit zunächst eine Zusammenschau "stilisierter" Fakten zu erstellen, die als repräsentativ für die im Anschluß modelltheoretisch zu erklärende Wirklichkeit angesehen werden können. 48 Diese stilisierten Fakten bilden dann ein Beurteilungskriterium für die Eignung von Theorien, die wesentlichen Charakteristika ihres Untersuchungsgegenstandes zu erfassen. Für die Ermittlung einer problemadäquaten Menge stilisierter Fakten ist die Wahl einer geeigneten Datengrundlage entscheidend. Gerade diesbezüglich zeigt sich jedoch eine Unzulänglichkeit des Kaldorschen Konzepts, denn es beinhaltet keine Offenlegung der Datenauswahl und des Generierungsprozesses der stilisierten Fakten. Dies beschwört jedoch die Gefahr einer möglichen Immunisierung der vor diesem Hintergrund evaluierten Theorien herauf: Ohne eine explizite Offen1egung der Herleitung der stilisierten Fakten besteht ein Anreiz für den Wissenschaftler, widersprüchliche empirische Befunde durch eine vor dem Hintergrund seiner eigenen Theorie "geeignete" Selektion zu glätten. Dieses Problem kann nun allerdings durch eine Modifikation beseitigt werden, indem nämlich die umfangreichste zur Verfügung stehende Datenmenge herangezogen und die Methode der Datenauswahl explizit gemacht wird. Hinsichtlich unserer konkreten Fragestellung betrachten wir somit die Menge der kliometrischen Einzeluntersuchungen über die verschiedenen Wachstums- und Industrialisierungsprozesse, die sich in den letzten rund zweieinhalb Jahrhunderten ereignet haben. Wie bereits im Unterabschnitt III.I festgestellt wurde, ist dieser Fundus von wissenschaftlichen Analysen gerade bezüglich der Industrialisierungsthematik sehr umfangreich. Eine bibliometrische Analyse dieser Resultate kann nun aufzeigen, welche Aspekte der Industrialisierung weitgehend unstrittig sind und welche nicht. 49 Die unstrittigen Aspekte kön47

48

Vgl. Lawrence A. Boland. Stylized Facts, London 1987, S. 535. Nicholas Kaldor; Capital Accumulation and Economic Growth, London 1968, S. 178.

49 "Weitgehend unstrittig" ist natürlich nicht zu verwechseln mit "wahr": Erstens bedeutet Quantität nicht unbedingt Qualität, und zweitens können zukünftig neue Ergebnisse die alten Orthodoxien falsifizieren. Dennoch: Solange schon allein aus methodologischer Sicht eine Verifikation sozioökonomischer Hypothesen nicht möglich ist, erscheint das Kriterium der

Kontingenz und Strukturähnlichkeit in der Ökonomie

203

nen dann zu einer Menge von stilisierten Fakten bezüglich der Industrialisierung von Ökonomien zusammengefaßt werden. Gleichzeitig spiegeln sie den oben angesprochenen "strukturierten" Teil in der kontingenten historischen Entwicklung wider. Wenden wir diesen Ansatz kurz auf unser Beispiel an. Das sich im Hinblick auf die historischen Industrialisierungsprozesse abzeichnende Bild kann wie folgt beschrieben werden: 5o l. Die endogene Generierung von Wirtschaftswachstum im Zuge einer (erstmaligen oder erneuten) Industrialisierung ist ein sehr langfristiger Prozeß, der nicht kurzfristig durch politische Maßnahmen herbeizuführen ist. Dauerhaftes Wirtschaftswachstum ist mittels gezielter wirtschaftspolitischer Beeinflussung nur dann beschleunigt innerhalb eines Zeitraumes von rund zwei Jahrzehnten erreichbar, wenn über lange Zeit gewachsene stabile Grundlagen existieren, d. h. wenn ein bereits angelegter Wachstumsprozeß zuvor nur kurzzeitig unterbrochen worden war.

2. Unter den möglichen "inputs for growth", d. h. den letztlich entscheidenden Kausalfaktoren für die Generierung eines langfristig aufrechterhaltbaren Wachstumsprozesses, kommt dem technischen Fortschritt (und hier wiederum der Innovationsgenerierung) eine größere Bedeutung zu als der Akkumulation von Arbeit, physischem Kapital oder Humankapita1. 51 3. Der Übergang einer im Hinblick auf Wachstum stagnierenden Volkswirtschaft zu einer Ökonomie mit dauerhaftem, sich selbst tragendem Wachstum beruht niemals auf der Expansion eines einzelnen Leitsektors und damit auch nicht auf einer einzelnen zentralen Innovation. Vielmehr müssen mehrere innovative Prozesse freigesetzt werden, deren Interaktion dann den Aufschwung bewirken kann. 4. Erfolgreiche Innovationen beruhen zumeist auf seit langem bekannten Produkten bzw. Verfahren, die kontinuierlich durch Lerneffekte verbessert wurden, bis Mehrheitsmeinung unter den Spezialisten einen bestmöglichen Ersatz darzustellen. Vgl. hierzu und zur Frage, wie "weitgehende Unstrittigkeit" gemessen werden kann, Robert Whaples. Is There Consensus among American Economic Historians?, Journal of Economic History 1995, S. 139 f. und 151 f. 50 Zu den Details der gewählten bibliometrischen Methodik und einer methodologischen Untermauerung dieses Ansatzes vgl. Joachim Schwerin, Strukturähnlichkeiten zwischen historischen und aktuellen Wirtschaftstransformationen im Hinblick auf die Generierung von Wachstum, Dresden 1998. Dort finden sich auch die Herleitung und die empirische Basis dieser (und weiterer) stilisierter Fakten, die in die folgende Zusammenfassung eingeflossen sind. 51 Zwar betonen Ansätze der Neuen Wachstumstheorie nach wie vor häufig die Bedeutung der Humankapitalakkumulation für Wachstumsprozesse. Aus empirischer Sicht - auf der Grundlage kliometrischer Analysen - läßt sich diese Einschätzung jedoch nicht bestätigen. Ein Grund hierfür mag allerdings in den Schwierigkeiten der Definition einer Variablen liegen, die Humankapital umfassend mißt.

204

Marco Lehmann-Waffenschmidt und Joachim Schwerin

nach Jahrzehnten ihr volkswirtschaftliches Wachstumspotential in unerwarteten, ex ante nicht planbaren Einsatzmöglichkeiten freigesetzt wird. Es soll an dieser Stelle nicht unerwähnt bleiben, daß diese Darstellung notwendigerweise diejenigen Bereiche ausschließt, über die es (noch) keinen hinreichenden Konsens gibt. 52 Ebenso werden vor allem solche Phänomene kaum erfaßt, zu denen es keinen quantitativen Zugang gibt; hierunter fallen vor allem viele institutionelle Aspekte. Dies impliziert jedoch nicht, daß sich diese kontroversen bzw. aufgrund der Methodik nur schwer zugänglichen Bereiche in ihrer konkreten Ausprägung und Bedeutung von Ökonomie zu Ökonomie unterscheiden müssen und somit zufallsabhängig sind. Vielmehr kommt in dieser Einschränkung die Begrenztheit des gegenwärtigen Wissens über das Wesen der historischen Kontingenz zum Ausdruck, genauer: über das genaue Zusammenspiel von determinierten und zufälligen, von ex ante prognostizierbaren und bestenfalls ex post erklärbaren Einflußfaktoren. Die vorgestellte Methode stellt jedoch einen ersten wesentlichen Schritt dar, über die Analyse von Strukturähnlichkeiten auch die Kontingenz historischer Prozesse besser charakterisieren zu können.

IV. Resümee und Ausblick

Die Konzepte der Kontingenz und der Strukturähnlichkeit bilden die Ingredienzien einer bivalenten Prozeßanalysemethodik, die in der vorliegenden Untersuchung entwickelt und angewendet wurde. Diese Methodik zielt auf ein weitergehendes Verständnis der Verlaufseigenschaften der untersuchten Prozesse ab, indem sie die Balance anstrebt zwischen der Suche nach Gesetzmäßigkeiten mit Hilfe des Strukturähnlichkeitskonzepts auf der einen Seite und der Ermittlung eines mehr oder weniger eingrenzbaren Möglichkeitsraumes alternativer Prozeßtrajektorien mit Hilfe des Kontingenzkonzepts auf der anderen Seite. Die Ansicht, daß selbstorganisierte dynamische Prozesse kontingent sind und bei einer vergleichenden Analyse zwischen geeigneten Prozessen zugleich Strukturähnlichkeiten bestehen, ist - wie eingangs erwähnt - nicht auf die Wirtschaftswissenschaften beschränkt. Es ist jedoch eine Sache, diesen Tatbestand allgemein zu postulieren, dagegen aber eine ganz andere, dies auf der Grundlage einer theoretischen Herangehensweise anzuwenden, die auch das Potential besitzt, logisch zu erklären, wieso solche Prozesse gerade in der jeweils ex post beobachteten Form kontingent und strukturähnlich sind. Anhand der ökonomischen Beispiele, die in den vorherigen beiden Abschnitten angeführt wurden, hoffen wir gezeigt zu haben, welche Form eine solche theoretische Fundierung aufweisen könnte. Der Vorteil, den die Ökonomik bei der Suche nach einem solchen Ansatz aufweist, besteht darin, daß ihr Untersuchungs gegenstand sowohl die einzelwirt52 Natürlich können auch bestimmte Elemente in Zukunft herausfallen, über die es dann etwa aufgrund neuer Forschungsergebnisse - keinen Konsens mehr gibt.

Kontingenz und Strukturähnlichkeit in der Ökonomie

205

schaftliche Handlungsebene als auch die gesamtwirtschaftliche Systemebene umfaßt: Das Ganze ist - gemäß dem eingangs zitierten Ferguson / Hayekschen Diktum - Resultat der Fülle individueller Aktivitäten, aber nicht notwendig geplantes Ergebnis. In einem wirtschaftlichen Kontext sind aber diese individuellen Handlungen nicht willkürlich, sondern sie beinhalten ein Kalkül, ein Streben nach einer "besseren", oder zumindest nach einer "viabIen", Lösung. Es sind somit die einzelnen Akteure, die die Fülle möglicher Lösungen reduzieren auf die Menge der "sinnvollen" Verfahrensweisen, von denen es aber gesamtwirtschaftlich gesehen ohne weiteres mehrere geben kann. Hierdurch wird bereits Kontingenz angelegt, die dann auch erklärbar wird, wenn es gelingt, die Mechanismen bei der individuellen Alternativenwahl und der Aggregation der einzelnen Handlungsweisen zu gesamtwirtschaftlichen Ergebnissen aufzudecken. Zu einer solchen umfassenden Theorie, die endogen Art und Ausmaß von Kontingenz und Strukturähnlichkeit sozio-ökonomischer Prozesse erklärt, ist es noch ein weiter Weg, aber unsere ausgewählten Untersuchungs felder zeigen bereits auf, was dabei zu berücksichtigen ist. Literatur Lawrence A. Boland, Stylized Facts, in: John Eatwell/Murray Milgate/Peter Newman (Hrsg.), The New Palgrave. A Dictionary of Economics, Bd. 4, London 1987, S. 535 - 536 Walter Brugger, Kontingenz I. Der Begriff der K. in der Philosophie, in: J. Ritter I K. Gründer (Hrsg.), Historisches Wörterbuch der Philosophie, Basel! Stuttgart 1976, Sp. 1027 - 1034 Uwe Cantner! Horst Hanusch, Evolutorische Ökonomik - Konzeption und Analytik, in: WISU 1997, Nr. 8-9, S. 776-785 N. F. R. Crafts, Exogenous or Endogenous Growth? The Industrial Revolution Reconsidered,

in: Journal of Economic History 1995, 55. Jg., Nr. 4, S. 745 - 772

Paul A. David, Clio and the Economics of QWERTY, in: American Economic Review 1985, 75. Jg., Nr. 2, S. 332 - 337 Alexander Demandt, Ungeschehene Geschichte: Ein Traktat über die Frage: Was wäre geschehen, wenn ... ?, 2. Auflage, Göttingen 1986 - Statt Rom. Ein historisches Gedankenspiel, in: Michael Salewski (Hrsg.), Was wäre, wenn ... ? Alternativen zur Geschichte, Leipzig, in Vorbereitung Hans-Peter Dürr, Respekt vor der Natur - Verantwortung für die Natur, München 1994 Günter Eifler! Manfred Maser! Andreas Thimm, Zufall, Mainz 1996 Manfred Eigen! Ruthild Winkter, Das Spiel. Naturgesetze steuern den Zufall, 4. Auflage, München 1996 (zuerst 1975) Malte Faber! Reiner Manstetten, Humankind and the Environment. An Anatomy of Surprise and Ignorance, in: Environmental Values 1992, Nr. 1, S. 217 - 241 Robert William Fogei, Railroads and American Economic Growth. Essays in Econometric History, Baltimore (MD) 1964

206

Marco Lehmann-Waffenschmidt und Joachim Schwerin

Ekkehard Fulda I Marco Lehmann-Waffenschmidt I Joachim Schwerin, Zwischen Zufall und Notwendigkeit - zur Kontingenz ökonomischer Prozesse aus theoretischer und historischer Sicht, in: G. Wegner und J. Wieland (Hrsg.), Formale und informale Institutionen - Genese, Interaktion und Wandel, Marburg 1998 Claudia Goldin, Cliometrics and the Nobel, in: Journal of Economic Perspectives 1995, 9. Jg., Nr. 2, S. 191- 208 Stephen Gould, Zufall Mensch, München 1994 Wolfgang Friedrich Gutmann, Die Evolution hydraulischer Konstruktionen, Organismische Wandlung statt altdarwinistischer Anpassung, Frankfurt am Main 1989 - Evolution von lebenden Konstruktionen: Perspektiven einer strengen Neubegründung von Evolution, in: Ethik und Sozialwissenschaften 1993,4. Jg., Heft I, S. 29 - 32 - Evolution von Konstruktionen: der Abriß der Darwinschen Tradition, in: Ethik und Sozialwissenschaften 1994,5. Jg., Heft 2, S. 220 - 223

Shaun Hargreaves-HeaplMartin Hollis, Determinism, in: John Eatwell/Murray Milgate/ Peter Newman (Hrsg.), The New Palgrave. A Dictionary of Economics, Bd. 1, London 1987, S. 816-818 Reinhart HauptlWemer Lachmann (Hrsg.), Selbstorganisation in Markt und Management, Fragen an das Evolutionsparadigma in den Wirtschaftswissenschaften, Neuhausen-Stuttgart 1995 Friedrich August von Hayek, Studies in Philosophy, Politics, and Economics, London and Henley 1967 Herbert Huber; Darwinsche Evolution - Selbstporträt einer Industriekultur, in: Ethik und Sozialwissenschaften, 4. Jg., Heft I, S. 34-37 Nicholas Kaldor; Capital Accumulation and Economic Growth, in: Friedrich A. Lutz / Douglas C. Hague (Hrsg.), The Theory of Capital, London 1968, S. 177 - 222 Bemulf Kanitscheider, Im Innern der Natur, Darmstadt 1996 Stuart Kauffman, Der Öltropfen im Wasser. Chaos, Komplexität, Selbstorganisation in Natur und Gesellschaft, München 1995 Paul M. Kennedy, The Rise and Fall of the Great Powers, 1987 - The Rise and Fall of the Great Powers: An Exchange, in: American Scholar 1990, 59. Jg., S. 283 -287

Reinhart Koselleck, Vergangene Zukunft. Zur Semantik geschichtlicher Zeiten, 3. Auflage, Frankfurt am Main 1995 Wolfgang KrohnlGünter Küppers (Hrsg.), Emergenz: Die Entstehung von Ordnung, Organisation und Bedeutung, Frankfurt am Main 1992 Gisela Kubon-Gilke, Evolution und Gestalt in der ökonomischen Analyse, in: Gestalt Theory 1993,15. Jg., Nr. I, S. 3 - 36 Gisela Kubon-Gilke I Ekkehart Schlicht, Gerichtete Variationen in der biologischen und sozialen Evolution, unveröffentlichtes Manuskript, Universität München 1997

Kontingenz und Strukturähnlichkeit in der Ökonomie

207

Marco Lehmann- Waffenschmidt, Ökonomische Evolution und Gleichgewicht - konträr oder

komplementär?, in: Studien zur Evolutorischen Ökonomik H, Schriftenreihe des Vereins für Socialpolitik, Bd. 1951II, 1992, S. 93 - 113

- On the Equilibrium Price Set of a Continuous Perturbation of Exchange Economies, in: Journal of Mathematical Economics, 1995, pp. 497 - 519. - Evolution and Equilibrium. A Synthesis, to appear in the series Lecture Notes in Economics, Heidelberg Marco Lehmann- Waffenschmidt / Joachim Schwerin, Strukturähnlichkeiten ökonomischer

Prozesse im Zeitablauf, in: Michael North (Hrsg.), Die Entstehung des modemen Europa: Langfristige Entwicklungen in Politik, Gesellschaft und Wirtschaft 1600 - 1900, 1998

Hans Lenk/ Matthias Maring, Begründung, Erklärung, Gesetzesartigkeit in den Sozialwissen-

schaften, in: Herbert Stachowiak (Hrsg.), Pragmatik - Handbuch pragmatischen Denkens, Band V: Pragmatische Tendenzen in der Wissenschaftstheorie, Hamburg 1995, S. 344 - 369

Wolfgang Maier, Kritische Anmerkungen zu E. Mayr und zur "synthetischen" Theorie der

Evolution, in: Ethik und Sozialwissenschaften, 5. Jg., Heft 2, S. 237 - 240

Odo Marquard, Apologie des Zufälligen, in: Apologie des Zufälligen, Philosophische Stu-

dien, Stuttgart 1986, S. 117 - 139

Ernst Mayr, Die Entwicklung der biologischen Gedankenwelt, Berlin etc. 1984 Roger E. Meiners/Clark Nardinelli, What Has Happened to the New Economic History?, in:

Journal of Institutional and Theoretical Economics 1986, 142. Jg., Nr. 3, S. 510- 527

George Modelski, Long Cycles: Studies in International Relations, I. Jg., London 1987 Joel Mokyr, The Lever of Riches, Oxford 1990 Jacques Monod, Zufall und Notwendigkeit. Philosophische Fragen der modemen Biologie,

München 1996 (zuerst 1970)

Günther Ortmann, Formen der Produktion. Organisation und Rekursivität, Opladen 1995 Werner J. Patzelt, Institutionen als erkenntnisgewinnende Systeme. Was Sozialwissenschaft-

Ier aus der Evolutionären Erkenntnistheorie lernen können, Diskussionspapier des SFB 537 Institutionalität und Geschichtlichkeit, Teilprojekt K, Technische Universität Dresden 1997

Birger Priddat, Risiko, Ungewißheit und Neues: Epistemologische Probleme ökonomischer

Entscheidungsbildung, in: G. Banse (Hrsg.), Risikoforschung zwischen Disziplinarität und Interdisziplinarität: Von der Illusion der Sicherheit zum Umgang mit Unsicherheit, Berlin 1996, S. 105-124

Walt W Rostow, Stadien wirtschaftlichen Wachstums. Eine Alternative zur marxistischen

Entwicklungstheorie, Göttingen 1960

Michael Salewski, Was wäre, wenn ... ? Alternativen zur Geschichte, Leipzig, in Vorberei-

tung

Ferdinand Schmidt (Hrsg.), Neodarwinistische oder Kybernetische Evolution?, Heidelberg

1990

Jörg Schreiter, Erklären/Verstehen, in: Hans Jörg Sandkühler (Hrsg.), Europäische Enzy-

klopädie zu Philosophie und Wissenschaften, Band I: A-E, Hamburg 1990, S. 904-906

208

Marco Lehmann-Waffenschmidt und Joachim Schwerin

Frank Schweitzer (ed.), Self-Organization of Complex Structures: From Individual to Collective Dynamies, Amsterdam 1997 Joachim Schwerin, Lehren aus der Geschichte für die aktuellen Systemtransformationen aus kliometrischer Sicht, in: Klaus Schweickart I Ralf Witt (Hrsg.), Systemtransformation in Osteuropa. Herausforderungen an Unternehmen beim Übergang von der Planwirtschaft in die Marktwirtschaft, Stuttgart 1996, S. 53 - 63

- Strukturähnlichkeiten zwischen historischen und aktuellen Wirtschaftstransformationen im Hinblick auf die Generierung von Wachstum, Dresden 1998, in Vorbereitung Rupert Sheldrake, Sieben Experimente, die die Welt verändern könnten, München 1997 David B. Wake I Gerhard Roth (Hrsg.), Complex Organismal Functions: Integration and Evolution in Vertebrates, Chichester etc. 1989 Max Weber, Objektive Möglichkeiten und adäquate Verursachung in der historischen Kausalbetrachtung, in: J. Winckelmann (Hrsg.), Gesammelte Aufsätze zur Wissenschaftslehre, 7. Auflage, 1988,S. 266-290 Michael Weingarten, Organismen - Objekte oder Subjekte der Evolution?, Darmstadt 1993

- Konstruktionsmorphologie als Typologie - Ein Mißverständnis, in: Ethik und Sozialwissenschaften 1994.5. Jg., Heft 2, S. 266 - 268 Robert Whaples, Where Is There Consensus among American Economic Historians? The Results of a Survey on Forty Propositions, in: Journal of Economic History 1995,55. 19., Nr. I, S. 139 - 154 Wolfgang Wieser (Hrsg.), Die Evolution der Evolutionstheorie, Heidelberg etc. 1994 Ulrich Witt, Evolution as the Theme of a New Heterodoxy in Economics, in: ders. (Hrsg.), Explaining Process and Change. Approaches to Evolutionary Economics, Ann Arbor 1992, S. 3 - 20

- Evolutorische Ökonomik - Umrisse eines neuen Forschungsprogramms, in: Birger Priddat/Eberhard Seifert (Hrsg.), Neuorientierungen in der ökonomischen Theorie, Marburg 1995 - Self-organization and Economics - What is New?, in: Structural Change and Economic Dynamics 1997, Nr. 8, S. 489 - 507 Gereon Wolters, Kontingenz, in: Jürgen Mittelstraß et al. (Hrsg.), Enzyklopädie Philosophie und Wissenschaftstheorie, Band 2, Mannheim etc. 1984, S. 455

Produktion, Konsum und Dienste in der Natur Eine Theorie der Fonds) Von Malte Faber und Reiner Manstetten, Heidelberg

I. Einleitung

Die Wirtschaft wird in der Regel als Prozeß angesehen, dessen Zweck in der Bedürfnisbefriedigung von Menschen besteht. Dieser Prozeß setzt die Natur als ein Aggregat nutzbarer Bestände voraus. Er kann als nachhaltil bezeichnet werden, wenn natürliche Bestände an nicht-erneuerbaren Ressourcen im Maße ihres Abbaus entweder durch erneuerbare Ressourcen oder durch entsprechendes Kapital ersetzt werden und natürliche Bestände an erneuerbaren Ressourcen bzw. Schadstoffbeseitigungskapazitäten entweder bewahrt oder ebenfalls substituiert werden. Man kann die Wirtschaft aber auch als ein Geschehen im Rahmen des natürlichen Haushaltes der Erde betrachten. Die Natur erscheint dann nicht auf menschliche Bedürfnisbefriedigung als letzten Bezugspunkt hingeordnet, sondern die Wirtschaft wird umgekehrt auf die Natur (im Sinne der Verfaßtheit des Ökosystems Erde) als letzten Referenzpunkt bezogen. Als Beitrag zur Untersuchung der Rolle der menschlichen Wirtschaft im natürlichen Haushalt der Erde sind die folgenden Ausführungen zu verstehen. Natürliche Gegebenheiten werden hier als Formen und Ordnungen eigener Art aufgefaßt, denen hoch komplexe Strukturen zugrunde liegen. Wir wollen die Dynamik dieser Strukturen innerhalb der außermenschlichen Natur als Produktions- und Konsumprozesse sowie als Geflecht von Dienstleistungen begreifen. Erst im Anschluß an diese Darstellung werden wir die menschliche Wirtschaft in dieses Geflecht mit einbeziehen und uns fragen, welche Auswirkungen sie darauf hat. Unsere Vorgehensweise orientiert sich an drei leitenden Gesichtspunkten: (i)

Wir wollen auf die Selbstorganisation des Lebendigen aufmerksam machen als Voraussetzung für alle Leistungen, die die Natur immerfort bereitstellt.

1 Für kritische Durchsicht und hilfreiche Kommentare danken wir Bemd Klauer, Andreas Polk und Johannes Schiller. 2 Eine Literaturübersicht über Nachhaltigkeit aus ökonomischer-ökologischer Sicht gibt Klauer 1998. B. Klauer: Nachhaltigkeit und Naturbewertung. Physica Verlag, Heidelberg, 1998.

14 Selbstorganisation, Bd. 9

210

Malte Faber und Reiner Manstetten

Diese Aufmerksamkeit fördert den Respekt vor der "Würde der Natur", wie sie z. B. Huber3 in Anlehnung an Kant postuliert. (ii) Wir wollen Grundlagen einer interdisziplinären Terminologie und Vorgehens-

weise für ein umfassendes Verständnis der Natur entwickeln. Damit lassen sich natürliche Prozesse in einer Sprache beschreiben, die offen ist für Erkenntnisse der Naturwissenschaften. Diese Beschreibung soll so formuliert werden, daß ihre mögliche Relevanz für die Wirtschaft deutlich wird.

(iii) Der Ansatz, mit dem wir Produktion und Konsum, Dienstleistung und Dienstnahme in der Natur darstellen, soll auf vorwissenschaftliche Erfahrungen der erscheinenden Natur entweder direkt beziehbar sein oder dazu wenigstens nicht im Gegensatz stehen. Unsere Ausführungen lassen sich daher auch als Beitrag zu einer Phänomenologie der Natur verstehen. Diese Gesichtspunkte sind, wenn auch mit unterschiedlicher Gewichtung, in unserer Argumentation stets präsent. In den Abschnitten 2 und 3 werden Produktion, Konsum und Dienstleistungsverhältnisse in der Natur (unter Ausschluß des Menschen als eines die Natur nutzenden Wesens) unter verschiedenen Perspektiven untersucht. In diesen Abschnitten ist Referenzpunkt das einzelne Lebewesen, das in seinen Beziehungen auf sich selbst, seine Art und seine natürliche Lebensgemeinschaft in der von uns entwickelten Begrifflichkeit der drei Ziele (Tele) betrachtet wird. Im Rahmen dieser Beziehungen werden Themen wie Konkurrenz, Kampf und Leid in der Natur angesprochen. Im Abschnitt 4 werden Produktion, Konsum und Dienstleistungen dagegen auf die natürliche Lebensgemeinschaft als Referenzpunkt bezogen und mit der "Theorie der Fonds" auf einer neuen begrifflichen Grundlage dargestellt. Die Leitfrage lautet dabei: Welche Fonds und welche Verflechtungen von Diensten ermöglichen die Gestalt und die Evolution einer natürlichen Gemeinschaft mit ihren Arten und Lebewesen?4 In Abschnitt 5 wird der wirtschaftende Mensch in die Betrachtung der Natur einbezogen. Es zeigt sich, daß menschliche Gesellschaften sich nicht wie die anderen Populationen als Teile in natürliche Lebensgemeinschaften eingliedern, sondern daß sie die natürlichen Lebensgemeinschaften nach Möglichkeit auf ihre eigenen Bedürfnisse beziehen. In dieser Aussage liegt aus unserer Sicht die Wurzel für eine konzeptionelle Erfassung der Umweltprobleme, bei der nicht Übernutzung und Zerstörung von Arten im Vordergrund stehen, sondern die Besonderheit des menschlichen Verhaltens als Ursache für die Interaktion von Mensch und Natur. Anschließend verweisen wir 3 W. Huber: Konflikt und Konsens. Studien zu Ethik der Verantwortung. Kaiser, München, 1990, S. 232 f. 4 In M. Faber, R. Manstetten und J. L. R. Proops: On the Conceptual Foundations of Ecological Economics: A Telelogical Approach. Ecological Economics, 12, 1995, S. 41 - 54. Wiederabdruck in M. Faber, R. Manstetten und J. L. R. Proops: Ecological Economics. Concepts and Methods. Kapitel 9, Edward Eigar, London, 1996, haben wir eine stärker naturwissenschaftlich orientierte Vorgehensweise als in diesem Beitrag verwendet, um die Begrifflichkeit der drei Ziele und der Theorie der Fonds zu entwickeln, während in diesem Aufsatz unsere Methode naturphilosophisch ausgerichtet ist.

Produktion, Konsum und Dienste in der Natur

211

auf die Freiheit des Menschen und seine Möglichkeiten zu grundlegender Verhaltensänderung. In Abschnitt 6 geben wir einen Ausblick auf Fragen, die sich im Anschluß an unsere Argumentation stellen.

11. Produktion, Konsum und Dienstleistungen in der Natur J. Natürliche Produktion und natürlicher Konsum in absoluter Betrachtung

Angesichts eines Produktes in Wirtschaft und Natur fragt man in der Regel: Von wem geht seine Produktion aus, wer ist ihr Urheber; für wen findet sie statt, wer ist der Konsument des Produzierten? Produktion und Konsum werden somit in bestimmten Relationen untersucht. Indes wollen wir, bevor wir in den folgenden Abschnitten Produktion und Konsum innerhalb der Natur in ihren Relationen thematisieren, eine Sicht vorstellen, die ein Produkt und seinen Konsum absolut betrachtet, d. h. losgelöst von den Kontexten, auf die es kausal oder funktional beziehbar ist, losgelöst von seinen Entstehungs- und Gebrauchszusammenhängen. Wir wenden uns bei dieser absoluten Betrachtung zunächst (i) den Produkten zu und gehen dann (ii) zum Konsum über. (i) Der Begriff Produktion stammt aus dem Lateinischen und bedeutet, ebenso wie der griechische Ausdruck Poiesis, soviel wie Herstellung oder Hervorbringung. Hervorgebracht wird etwas, das vorher nicht da war: Das Resultat eines jeden Produktionsvorganges ist gegenüber dem bisher Dagewesenen etwas Neues: 5 Insbesondere in der Kunst läßt sich ein Hervorgebrachtes im Hinblick darauf anschauen oder anhören, daß und wie es da ist, ohne nach dem Woher und Wozu zu fragen. Dann versucht man, es in seinem reinen Dasein zu schauen oder zu hören, mit anderen Worten: Das Produkt wird absolut erfahren als ein Ereignis.

In absoluter Betrachtung wird ein ,Etwas' dann als Produkt angesehen, wenn man sein ereignishaft erfahrenes Dasein gegenüber dem vorausgehenden NichtDasein hervorheben will: Es war zuvor nicht da und ist jetzt da. Produkte in diesem Sinn existieren nicht nur als Resultate menschlicher Tätigkeit: Alltagssprachlich verwenden wir Ausdrücke wie "Naturprodukt" und deuten damit an, daß wir die Natur als eine hervorbringende Instanz verstehen. In besonderem Maße läßt sich ein Lebewesen als ein Hervorgebrachtes ansehen, ein Produkt, das im Akt der Geburt sichtbar ins Dasein tritt. Jedes Lebewesen erscheint neu als etwas bisher nicht Dagewesenes. Jedoch nicht nur Lebewesen, sondern auch Arten oder ganze natürliche Lebensgemeinschaften (Ökosysteme) können in absoluter Betrachtung als Produkte der Natur aufgefaßt werden: Die Funde aus erdgeschichtlichen Phasen liefern dem Paläontologen immer wieder diskontinuierliche Momentaufnahmen 5 "Denn was nur für irgend etwas Ursache wird, aus dem Nichtsein in das Sein zu treten, ist insgesamt Hervorbringung (Poiesis)." (Platon, Das Gastmahl, 205 b., vgl. M. Heidegger: Die Technik und die Kehre. Neske, Pfullingen, 1978, S. 11.) 14*

212

Malte Faber und Reiner Manstetten

vom Dasein der Arten, zwischen denen Jahrtausende und Jahrmillionen liegen: Auf der späteren "Aufnahme" ist plötzlich ejne Art oder eine ganze natürliche Lebensgemeinschaft da, wo vorher nichts dergleichen war. (ii) Konsum bedeutet Verzehr. Der Begriff ist abgeleitet vom lateinischen ,consumere': ,aufbrauchen', ,verzehren' oder ,zerstören'. Im ursprünglichen Sinn ist der Konsum von etwas gleichbedeutend mit dem Prozeß seiner Vernichtung bzw. seinem Aufgehen in dem Verzehrenden, sein Resultat ist das Verschwunden-Sein dessen, was verzehrt wird. In diesem Sinne führt Konsum letztlich zu einem Nichtmehr-Dasein: Ist etwas konsumiert, so ist, was vorher da war, nicht mehr da. Das bedeutet zwar nicht, daß nach dem Konsum buchstäblich nichts übrigbleibt, aber was bleibt, hat wenig oder überhaupt "nichts" mit der Sache zu tun, die konsumiert wurde. 6

So wie Produktion kann auch Konsum in der Natur absolut betrachtet werden: Natürliches tritt nicht nur neu in Erscheinung, sondern verschwindet auch aus dem Bereich des Erscheinenden: Auf die Geburt jedes Lebewesen folgt sein Tod. Auch Verschwinden kann als Ereignis erfahren werden. In dieser Erfahrung wird die Frage, woher dieses Verschwinden kommt und wozu es dienlich ist, nicht gestellt. Die bloße Tatsache, daß etwas nicht ewig besteht, sondern endlich ist, bedeutet, daß es irgendwann "konsumiert" wird, d. h. nicht mehr dasein wird. So verstanden, drückt Konsum im absoluten Sinne ein ursprüngliches Moment unserer Erfahrung der Zeit aus: Jede Gegenwart wird zur Vergangenheit und wird mit allem, was nur ihr zugehört, gleichsam "von der Zeit aufgezehrt".? Ein derartiger Begriff des Konsums kann, wie der der Produktion, auch auf Arten und natürliche Lebensgemeinschaften ausgedehnt werden: Auch Arten können aussterben und ganze Ökosysteme untergehen. Allerdings ist hier, im Gegensatz zum einzelnen Lebewesen, eine Asymmetrie zwischen Da-Sein und Nicht-Da-Sein festzustellen: Arten und natürliche Lebensgemeinschaften sind irgendwann einmal ins Dasein getreten, ohne daß sie im Rahmen der Produktion und des Konsums innerhalb der Natur notwendig verschwinden müssen. 8 Konsum, auch in dieser abso6 Fonnen des Konsums, bei denen das nicht der Fall ist, werden unten in Abschnitt 11.3. behandelt. 7 Vgl. Augustinus: Confessiones (Bekenntnisse). Buch I!. Übersetzt von Josef Bernhart, 4. Auflage, München, 1980, S. 631: "Denn inwiefern ist verflossene Zeit lang gewesen? Ist sie lang gewesen, als sie schon verflossen war, oder als sie noch Gegenwart war? Doch wohl nur damals konnte sie lang gewesen sein, als sie etwas war, das lang sein kann; einmal vergangen, war sie nicht mehr; also konnte sie auch nicht lang sein, was überhaupt nicht war." 8 Dies geschieht allerdings auf einer wesentlich längeren Zeitskala als die Produktion oder der Konsum eines Lebewesens. - Zur Bedeutung unterschiedlicher Zeitskalen vgl. M. Faber und J. L. R. Proops: Economic Action and the Environment. In: T. S. Driver und G. P. Chapman (Hrsg.): Time-Scales and Environmental Change. Routledge, London, 1996, S. 196217. Wiederabdruck in: M. Faber and J. L. R. Proops with the Cooperation of Reiner Manstetten: Evolution, Time, Production and the Environment. Springer, Heidelberg, 1998, Kapitel 8.

Produktion, Konsum und Dienste in der Natur

213

luten Betrachtungsweise, bleibt immer im Horizont der Produktion: Dem Untergang von einzelnen Arten und Ökosystemen in der erdgeschichtlichen Vergangenheit sind immer neue Erscheinungsformen des Lebens gefolgt, neue Arten und neue Ökosysteme sind an die Stelle der alten getreten. Wir haben in diesem Abschnitt ein bestimmtes Moment an den Begriffen Produktion und Konsum in ungewöhnlicher Weise akzentuiert: Zwar gehört zu jeder Produktion wesentlich das Ereignishafte, das Moment des in Erscheinung-Tretens, und zu jedem Konsum das Moment des aus dem Bereich der Erscheinung-Verschwindens, aber in der Regel werden diese Momente kaum thematisiert; man untersucht vielmehr Relationen wie die Ursachen, die Art und Weise sowie den Zweck von Produktion und Konsum. Unsere Hervorhebung der Momente des Erscheinens und des Verschwindens bei den Begriffen Produktion und Konsum bezüglich der Natur, unter vorläufiger Absehung von allen Relationen, soll auf eine vorwissenschaftliche Erfahrung aufmerksam machen, die für den unbefangenen Umgang des Menschen mit der Natur typisch ist. Wir alle erleben Natur nicht nur als Prozessualität, sondern auch als eine Fülle von diskontinuierlichen Ereignissen: Erscheinen und Verschwinden ereignet sich immer wieder neu und überraschend, ohne daß wir das Warum und Wozu gänzlich verstehen können. Insbesondere aber führt die Vorstellung des Geboren-Seins und Sterben-Müssens bei uns und unseren Mitmenschen zu einer solchen absoluten Betrachtung.

2. Natürliche Produktion und natürlicher Konsum in relationaler Betrachtung

Daß wir ein Produkt unmittelbar in seinem "Da" oder "Nicht-mehr-Da" ereignishaft erfahren, hindert uns meist nicht daran, nach seinem Woher und Wohin, nach seinem Warum und Wozu zu forschen: Dem "Da" geht die Entstehung, dem "Nicht-mehr-Da" die Veränderung und das Vergehen des Daseienden voraus. In der Wissenschaft werden diese Fragen in einer systematischen Form untersucht. Damit kommen die Momente der Zeit (im Sinne der kontinuierlichen Veränderung), der Geschichte und der Kausalität ins Spiel, die es ermöglichen, Produktion und Konsum relational zu betrachten. Erst in relationaler Betrachtung können Produktion und Konsum als Prozesse angesehen werden. Dies gilt sowohl für die Betrachtung der Wirtschaft als auch für die Betrachtung der Natur. Die relationale Betrachtung von Produktionsprozessen steht in der Regel unter dem Gesichtspunkt: Zu welchen Resultaten führen sie, wem dienen sie, wem nützen sie? Diese Fragestellungen gelten nicht nur für die Wirtschaft, sondern auch für die Natur. Viele Resultate der Tätigkeit bestimmter Lebewesen erscheinen für dieselben als nützlich: der Honig oder die Waben der Bienen, die Nester der Vögel, die Bauten von Termiten und Biber etc. sind Produkte, die von den Lebewesen für sich selbst zu ihrem Nutzen produziert werden. Ebenso mag man die Teile von Lebewesen auf ihr Wozu hin befragen: nicht nur die Blätter, Blüten und Früchte von

214

Malte Faber und Reiner Manstetten

Pflanzen und Bäumen, sondern auch die Gliedmaße und Organe höherer Lebewesen scheinen im Dasein des Lebewesens, dem sie zugehören, eine Aufgabe zu erfüllen. Die Frage: "In welcher Weise ist all dieses für das Lebewesen dienlich?" kann hier den leitenden Gesichtspunkt für das Verständnis abgeben. Schließlich kann man auch die Lebewesen selbst relational als Produkte der Natur betrachten, insofern diese dem Dasein anderer Lebewesen dienlich sind, indem sie etwa konsumiert werden. Eine solche relationale Betrachtung sieht ein Produkt immer als ein "Produkt für ... ", also unter dem Gesichtspunkt der Zweckmäßigkeit. Komplementär zur Produktion kann der Konsum in der Natur relational betrachtet werden. Alle Lebewesen konsumieren, sei es Unlebendiges, seien es abgelöste oder ablösbare Teile von anderen Lebewesen, seien es schließlich solche Teile von anderen Lebewesen, deren Konsum den Tod des betroffenen Lebewesens voraussetzt oder zur Folge hat. Der Verzehr ist, relational gesehen, Verzehr, der von jemandem ausgeht, das Nicht-Dasein des Verzehrten ist das Resultat eines zweckmäßigen Prozesses, der zum Dasein des Verzehrenden beiträgt. In dieser Betrachtung ist Konsum immer "Konsum für ... ", er ist zu verstehen in seiner Zweckmäßigkeit für dasjenige Lebewesen, das konsumiert. Dieser Konsum setzt Produktion in der Natur voraus. Darüber hinaus ist dieser Konsum selbst wieder Voraussetzung für die Produktion: In der Biologie wird aller Konsum als integraler Bestandteil von Stoffwechselprozessen betrachtet, die sowohl als Prozesse der Vernichtung eines Daseienden wie auch als Prozesse der Ermöglichung neuen Daseins angesehen werden können: Konsum und Produktion in relationaler Betrachtung scheinen einander zu bedingen. 3. Die Dienlichkeit des Natürlichen Wenn wir bisher Natürliches relational nur in der Begrifflichkeit von einander bedingenden Produktions- und Konsumbeziehungen betrachteten, so ist diese Betrachtung unvollständig. Es gibt einige wichtige Relationen in der Natur, die nicht unter diese Begrifflichkeit fallen. Das Relationsgeflecht des Natürlichen in einem Ökosystem im Horizont der Frage "Wozu?" läßt sich nicht ausschließlich auf konsumbezogene Produktionsprozesse zurückführen. Insekten, die zur Befruchtung von Obstbäumen beitragen, Bäume, deren Krone und Laubwerk Nistplätze für Vögel bietet, leisten Dienste, die nicht durch die Begrifflichkeit des Konsums in der Natur erfaßt werden können, weil damit keine Vernichtung verbunden ist. Es gibt also in der Natur Verhältnisse der Zweckmäßigkeit, die nicht als Konsumbeziehungen zu deuten sind. Demgemäß wollen wir im folgenden mit einem Begriff von Dienstgabe und Dienstnahme in der Natur arbeiten, der nicht notwendig das Moment des Konsums einschließt. Auch wenn viele Vorgänge von Dienstnahme und Dienstgabe dieses Moment enthalten, sind es nicht alle. Wir betrachten somit die Dienlichkeit eines Produktes für den Konsum in der Natur als einen besonderen Fall von Dienlichkeit.

Produktion, Konsum und Dienste in der Natur

215

Demgemäß gilt: Jeder Gebrauch eines Produktes oder einer Dienstleistung in der Natur ist eine In-Dienstnahme, aber nicht jeder Gebrauch eines Produktes oder einer Dienstleistung ist Konsum. Somit lassen sich im Rahmen unserer Überlegungen alle Relationen innerhalb der Natur unter dem Gesichtspunkt der Zweckmäßigkeit als Relationen von Dienstnahme und Dienstgabe ansehen. Dies gilt auch für Produktions- und Konsumbeziehungen. IH. Produktion, Konsum und Dienen aus der Perspektive des einzelnen Lebewesens: eine teleologische Betrachtung 1. Allgemeine Bemerkungen zur Teleologie

In den folgenden Abschnitten wollen wir eine Sprache entwickeln, die uns Begriffe, Grundsätze und Horizonte bietet, die Relationen der Lebewesen deutlicher zu fassen und umfassender zu verstehen. Unsere relationale Betrachtung des Natürlichen in Zusammenhängen der Dienlichkeit orientierte sich an der Frage: "Wozu?" Diese Frage ist als die Frage nach der Bestimmung, dem Zweck oder Ziel des Natürlichen eine teleologische Frage: Zweck, Ziel oder Bestimmung heißt im Griechischen 'tEAOC; (telos); die Lehre von den Zusammenhängen der Zwecke oder Bestimmungen ist die Teleologie. Vorwissenschaftlich ist es selbstverständlich, gegenüber Natürlichem die Frage: "Wozu?" zu stellen; die Antwort darauf ist immer ein Satzgefüge, in dessen Hauptsatz eine Tatsache festgestellt und in dessen mit "damit" beginnenden Nebensatz (bzw. mit "um zu" eingeleiteten erweiterten Infinitiv) der Sinn und Zweck dieser Tatsache angegeben wird: Die Obstblüte enthält Nektar, damit die Bienen und Hummeln angelockt werden (um Bienen und Hummeln anzulocken). Unter den Bedingungen moderner Wissenschaft kann man indes fragen: Ist eine teleologische Betrachtung der Natur erkenntnistheoretisch zu rechtfertigen? Eine teleologische Betrachtung findet gewöhnlich angesichts planvollen menschlichen Tuns statt. So kann man etwa bei wirtschaftlichen Handlungen fragen: Welches Ziel wird verfolgt, welche Bestimmung soll erfüllt werden? Diese Betrachtung basiert darauf, daß der Mensch ein Wesen ist, das Zwecke verfolgt. Auch alle Vorgänge in der Wirtschaft sind, soweit sie bewußt veraniaßt werden, intentional, d. h. planvoll bezogen auf die Zwecke von Menschen. Das bedeutet auch: allen Dingen, die in der Wirtschaft verwendet werden, allen Prozessen, die in der Wirtschaft in Gang gesetzt werden, wird die Bestimmung auferlegt, menschlichen Zwecken zu dienen. Diese Teleologie kann die Natur mit einbeziehen: Natürliches wird von der Wirtschaft aus auf seine Zweckdienlichkeit für die Produktion und den Konsum durch Menschen hin betrachtet; es ist aus der Sicht der Wirtschaft dafür da, vom Menschen produktiv und konsumptiv genutzt zu werden. Mit welchem Recht aber läßt sich eine teleologische Betrachtung natürlicher Vorgänge vornehmen, wenn diese nicht auf den Menschen als zwecksetzende In-

216

Malte Faber und Reiner Manstetten

stanz beziehbar sind? Eine teleologische Betrachtung der Natur führt sofort zu dem Problem: Wer oder was sind zwecksetzende Instanzen in der Natur? Ist etwa die Natur selbst als solche Instanz aufzufassen?9 Wir orientieren uns bei der Lösung dieses Problems an Kants "Kritik der Urteilskraft". Kant lehnt die Annahme einer objektiv gegebenen äußeren Zweckmäßigkeit für die außermenschliche Natur ab: Die Behauptung, das Gras sei von Gott oder der Natur dazu produziert worden, Schafe zu nähren, kann keinen wissenschaftlichen Anspruch stellen, ebensowenig wie die Behauptung, Schafe seien dazu da, Wolle und Nahrung für Menschen zu liefern. Solche Zwecke sind, so Kant, dem Gras und den Schafen äußerlich, d. h. von außen auferlegt. Er plädiert aber dafür, eine innere Zweckmäßigkeit alles Lebendigen zu unterstellen. Ein Lebewesen muß seiner inneren Strukturiertheit nach teleologisch "als organisiertes und sich selbst organisierendes Wesen,,10 aufgefaßt werden. Dabei ergibt sich eine zirkuläre Struktur: Zweck der Tätigkeit der Organe ist die Erhaltung des ganzen Lebewesens in seiner Lebendigkeit; Zweck des Lebewesens ist wiederum die Erhaltung der Funktionsfähigkeit seiner Organe. Diese beiden "Zwecke" sind nichts anderes als zwei Perspektiven auf ein und dasselbe Phänomen: den Lebensvollzug eines Lebewesens. Für Kant ist Teleologie eine Heuristik: Es muß nicht unterstellt werden, daß die Lebewesen einen objektiven Zweck in sich haben (sei dieser theologisch oder kosmologisch begründet). Teleologische Beschreibungen rechtfertigen sich vielmehr, indem sie zu einfacheren Erklärungen führen als nicht-teleologische. Die Verwendung teleologischer Gesichtspunkte in der Natur bedeutet somit für Kant: Lebendiges wird aufgefaßt, als ob es ein inneres Ziel hätte, nämlich seine Lebendigkeit in seiner je eigenen Weise zu erhalten und zu entfalten. Dabei kann offen bleiben, ob ein solches Ziel objektiv gegeben ist oder nicht. Für Kant war es evident, daß eine teleologische Sicht in Bezug auf die belebte Natur sinnvoll ist: Während in der unbelebten Natur mechanistische Erklärungen hinreichend seien, müsse man für die belebte Natur Prinzipien unterstellen, die Natürliches gemäß einer bestimmten 9 Eine umfassende Teleologie der Natur kann entweder theologisch begründet werden - indem man annimmt, daß Gott allen Geschöpfen bestimmte Ziele zugemessen habe - oder sie kann kosmologisch fundiert werden - indem man annimmt, daß jedem Seienden sein Ziel innerhalb der kosmischen Ordnung von Ewigkeit her innewohne. Schließlich können auch theologische und kosmologische Begründungen miteinander kombiniert werden. Aristoteles und alle aristotelischen Strömungen, insbesondere die islamische Philosophie von Ibn Sina und Ibn Rushd, die jüdische Philosophie des Maimonides und die christliche Philosophie des Albertus Magnus und des Thomas von Aquin haben Teleologie in dem hier dargestellten theologischen und / oder kosmologischen Sinn verwendet. Da derartige Verwendungsweisen von Teleologie ein metaphysisches Verständnis der Natur voraussetzen, sind teleologische Erklärungen notwendig spekulativ. Daher sind sie in der Philosophie seit Beginn der Neuzeit umstritten. Die modemen Naturwissenschaften, insbesondere die klassische Physik und die Evolutionsbiologie seit Darwin, haben die Teleologie gänzlich verworfen. 10 I. Kant: Kritik der Urteilskraft. Hrsg. von W. Weischedel, Suhrkamp, Frankfurt a. M., 1957, B. 292.

Produktion, Konsum und Dienste in der Natur

217

Zweckmäßigkeit organisieren. Nur so könne man die Lebensvorgänge innerhalb eines Lebewesens sinnvoll in Beziehung setzen. 11 Wir werden die Sicht Kants für unsere Fragestellung erweitern: Nicht nur ein Lebewesen, sondern auch eine Art von Lebewesen und sogar eine natürliche Lebensgemeinschaft läßt sich als eine sich selbst organisierende Einheit auffassen, die sich über die Zeit selbst organisiert und ihr eigenes Dasein zum Ziel und Zweck hat. 12 Wir werden somit im folgenden Teleologie im Sinne einer Heuristik verwenden, die es uns erlaubt, alle Verhältnisse des Dienens, somit auch alle relationalen Produktions- und Konsumverhältnisse im Bereich des Lebendigen in einer sehr allgemeinen Form darzustellen. Dabei werden wir indes in diesem Abschnitt das einzelne Lebewesen als Referenzpunkt wählen, während der Referenzpunkt im folgenden 4. Abschnitt die natürliche Lebensgemeinschaft ist. 2. Die drei Tele

Sowohl Lebewesen als auch Arten und natürliche Lebensgemeinschaften können als sich selbst organisierende Einheiten aufgefaßt werden. 13 Diese drei Typen von Einheiten stehen nicht nebeneinander, sondern eine jeweils höhere umfaßt die jeweils darunter liegende: Das Lebewesen ist in der Art, die Art ist in der natürlichen Lebensgemeinschaft enthalten. Somit müssen Lebewesen, Art und natürliche Lebensgemeinschaft immer in ihrer wechselseitigen Verwiesenheit betrachtet werII Die moderne Biologie will im Gegensatz zu Kant (vgl. Kant FN 10) Lebensprozesse ohne Rückgriff auf Teleologie darstellen. Indes operieren Naturwissenschaftler häufig mit Denkfiguren, die sich nur teleologisch verstehen lassen. So sprechen M. Eigen, W. Gardiner, P. Schuster und R. Winkler-Oswatitsch: Ursprung genetischer Information. In: E. Mayr (Hrsg.): Evolution. Spektrum der Wissenschaft, Heidelberg, 1988, S. 63 bei dem Versuch streng naturwissenschaftlicher Erklärungen der Entstehung des Lebens von einem "organisierenden Prinzip" innerhalb einer ungeordneten "Ursuppe", das sie wie einen richtig und falsch, nützlich und schädlich unterscheidenden Verstand charakterisieren: " ... es (sc. das organisierende Prinzip, d.Y.) hatte sich gegen eine Übermacht aus kleinen Molekülen durchzusetzen, die biologisch ,falsch', aber chemisch eben möglich waren. Aus dem Riesenangebot mußte es diejenigen Moleküle herauspicken, aus denen schließlich die routinemäßig synthetisierten Standard-Bausteine aller biologischen Polymere werden sollten, und sie auf verläßliche Weise so verknüpfen, daß eine bestimmte räumliche Konfiguration entstand." Vorschläge für eine Wiedergewinnung der Teleologie für das Verständnis der Natur finden sich bei R. Spaemann und R. Loew: Die Frage Wozu? Geschichte und Wiederentdeckung des teleologischen Denkens. 3. Auflage, Pieper, München, 1991. 12 Damit wird es möglich, die von Kant (vgl. Kant FN 10) gerügte Annahme einer äußeren Zweckmäßigkeit der Dinge in dem Sinne zu reformulieren, daß sie die innere Zweckmäßigkeit der Relationen innerhalb einer natürlichen Lebensgemeinschaft darstellt. 13 Eine Art umfaßt alle Lebewesen, die sich miteinander (über mindestens zwei Generationen) vermehren können. Die Gemeinschaft artgleicher Lebewesen innerhalb eines Ökosystems heißt Population. Wenn wir im folgenden von ,Arten' reden, meinen wir stets die Art innerhalb der natürlichen Lebensgemeinschaft, also die Population. Art und Population bedeuten dasselbe, wenn man als natürliche Lebensgemeinschaft die ganze Erde betrachtet.

218

Malte Faber und Reiner Manstetten

den. Eine solche Betrachtung kann vom Lebewesen, von der Art oder von der natürlichen Lebensgemeinschaft ausgehen. 14 Wir werden im folgenden nur die beiden Extreme, die Perspektive des Lebewesens und die der Lebensgemeinschaft, bedenken. Ein Lebewesen läßt sich in drei Relationsfeldern beschreiben:

1. In seiner Beziehung auf sich, 2. in seiner Beziehung zu seiner Fortpflanzungsgemeinschaft, der Art und 3. in seiner Einbettung in eine natürliche Lebensgemeinschaft. Bezüglich dieser Felder ergeben sich drei Bestimmungen, die ein Lebewesen durch sein Dasein erfüllt. Wir bezeichnen diese drei Bestimmungen, um sie von den üblichen Verwendungen der Begriffe ,Zweck' und ,Bestimmung' abzuheben, im folgenden als die drei Tele. 1. Die Selbsterhaltung und Selbstentfaltung. Dies ist das Telos, wodurch sich das Lebewesen auf sich selbst bezieht und sich selbst organisiert. Durch dieses Telos konstituiert sich der einzelne Organismus. 2. Die Selbstwiederholung bzw. Selbsterneuerung durch die Fortpflanzung. Dies ist das Telos, wodurch sich das Lebewesen auf die Population bzw. Art bezieht und zur Selbstorganisation der Art beiträgt. Durch dieses Telos konstituiert sich unter Voraussetzung des ersten Telos die Art. 3. Das Dienen, seine Entäußerung und seine Selbstentäußerung in Bezug auf andere Lebewesen. Dies ist das Telos, wodurch das Lebewesen auf die Lebewesen anderer Arten bezogen ist. Vennittels dieser Beziehung trägt das Lebewesen zur Entwicklung dieser Arten und letztlich zur Selbstorganisation der natürlichen Lebensgemeinschaft bei, der es angehört. Durch dieses Telos konstituiert sich unter Voraussetzung des ersten und zweiten Telos eine natürliche Lebensgemeinschaft. Das dritte Telos mag problematisch erscheinen. Inwiefern kann es als Bestimmung eines Lebewesens gelten, zu dienen oder sich selbst zu entäußern? Diese Aussage gilt nur, wenn man ,Bestimmung' rein heuristisch versteht. Ein Lebewesen kann, wie wir im Abschnitt I1I.2.c) zeigen, unter der Perspektive aufgefaßt werden, als ob es die Bestimmung hätte, sowohl im Vollzug seines Dasein als auch in der Entäußerung seines Daseins, im Tod, anderen Lebewesen zu dienen. Die Bedeutung des dritten Telos wird deutlich, wenn man eine ganze natürliche Lebensgemeinschaft, wie einen Regenwald, als ein sich selbst organisierendes Wesen betrachtet, dessen Erhaltung und Entfaltung ein hoch komplexes Geflecht von Diensten voraussetzt. Vom einzelnen Lebewesen aus können diese Dienste im Rahmen des dritten Telos dargestellt werden.

14

Vgl. Klauer FN 2, Abschnitt 8.2, insbesondere Abbildung 8.1.

Produktion, Konsum und Dienste in der Natur

219

a) Erläuterungen zum ersten Telos Unter dem Gesichtspunkt des ersten Telos produziert sich das Lebewesen sozusagen selbst. Für das Verständnis dieser Art von Produktion muß das Lebewesen als ein Organismus aufgefaßt werden. Es verwendet körpereigene Organe (Werkzeuge), die seiner Erhaltung und Entfaltung dienen, während andererseits seine Erhaltung und Entfaltung nichts anderes ist als die Erhaltung und Entfaltung des Gesamtzusammenhanges seiner Organe. Zum ersten Telos gehören weiterhin die Beziehungen des Lebewesens zu seiner Umwelt. Um sich als sich selbst zu produzieren, muß es vermittels seiner Organe Stoffe und Energie aus seiner Außenwelt, die von Lebendigem oder Nichtlebendigem stammen, direkt aufnehmen. Damit aber muß es vielfach einige Formen von Lebendigem zerstören, während es andere nur gebraucht, ohne ihre Integrität anzutasten. Der Konsum von Lebendigem zum Zwecke der Selbstproduktion ist nur absolut gesehen Konsum, insofern Form und Eigenart des Konsumierten verschwinden. Aber in der relationalen Sicht der Biologie wird dieser Vorgang nicht als Verzehr der Form, sondern als Wechsel des Stoffes, Stoffwechsel bezeichnet. 15 Den Stoffen und der Energie, die das Lebewesen braucht, entspricht, was das Lebewesen an Stoffen und Energie an seine Umwelt abgibt: Nach dem Energieerhaltungssatz muß die Gesamtbilanz ausgeglichen sein. Darüber hinaus aber bedarf ein Lebewesen bestimmter Verhältnisse des Lichtes, des Klimas und des Raumes, die es nicht konsumiert (bzw. nicht aufbraucht), sondern sich dienlich macht, indem es sie in Gebrauch nimmt. Vom ersten Telos aus läßt sich die ganze Umwelt eines Lebewesens unter ihrer Dienlichkeit betrachten. Dem Lebewesen ist alles dienlich, was seine Erhaltung und Entfaltung fördert. Sofern es dabei Dienste anderer Lebewesen beansprucht, etwa indem es sich von ihnen ernährt, ist es auf deren dritten Telos angewiesen. Die Umwelt kann allerdings auch eine negative Dienlichkeit aufweisen, etwa durch ungünstige Klimaverhältnisse etc. Negativ dienlich für die Realisierung des ersten Telos sind insbesondere die natürlichen Feinde eines Lebewesens: Es steht unter der Drohung, von ihnen konsumiert zu werden im Sinne des Nicht-Mehr-Daseins, des Konsums in absoluter Betrachtung. Dieser Art Konsum kann es allerdings nur temporär entgehen, denn das Dasein des einzelnen Lebewesens und damit die Realisierung des ersten Telos wird immer durch den Tod begrenzt. Konsum in absoluter Hinsicht ist somit kein Teil des ersten Telos, sondern seine Grenze. b) Erläuterungen zum zweiten Telos Das zweite Telos eines Lebewesens steht im Horizont der Erhaltung und Entfaltung einer ganzen Art. Vom Lebewesen aus gesehen bedeutet dieses Telos die Weitergabe seines Lebens an ein oder mehrere andere Lebewesen. In der Geburt des 15

Vgl. hierzu Klauer FN 2, Abschnitt 3.2, S. 214.

220

Malte Faber und Reiner Manstetten

einzelnen Lebewesens manifestiert sich wohl am klarsten die Produktivität der Natur in absoluter Betrachtung. Das Leben des neuen Lebewesens ist nie die Wiederholung des Lebens eines der beiden elterlichen Wesen; sein Dasein ist ein einmaliges Ereignis. Fortpflanzung ist nicht nur Reproduktion in dem Sinn, daß die Identität einer Art bewahrt bleibt; sie ist auch Neuproduktion in dem Sinne, daß neues Dasein auftritt, in dem sich die ganze Art langsam verwandelt. Vermittels des zweiten Telos der einzelnen Lebewesen produziert sich eine Art selbst, es ist damit die Voraussetzung ihrer Evolution. Diese Evolution kann dazu führen, daß aus einer Art mehrere neue Arten hervorgehen. Während sich im ersten Telos bereits vorhandene Lebewesen erhalten und entfalten, wird im zweiten Telos die eigentliche Produktivität der Natur, die Entstehung der Lebewesen in ihrer Vielfalt und Vielzahl betrachtet. Untersucht man diesen Entstehungsprozeß über lange Zeiträume, so erkennt man in der Evolution des Lebendigen einen schöpferischen Prozeß, dessen Kreativität schier grenzenlos erscheint. Dieser Prozeß hat etwas Spielerisches, insofern man ihm ex ante keine bestimmte Richtung zuschreiben kann. Er weist Analogien zur Entwicklung der Kunst auf, die ex ante ebenfalls unvorhersehbar ist. Demgemäß ist die Evolution in verschiedenen natürlichen Lebensgemeinschaften, die über lange Zeiträume voneinander getrennt waren, sehr unterschiedlich verlaufen. Man vergleiche z. B. die Entwicklung in Neuseeland, in Australien und auf dem euro-asiatischen Kontinent. Vom Lebewesen aus liegt es nahe, seine Fortpflanzungstätigkeiten als Teil seiner Selbstentfaltung zu betrachten. Seine Leistung ist zwar die Erhaltung und Erneuerung der Art, sein Bestreben scheint indes nur die Entfaltung seiner selbst zu sein. In der Tat sind erstes Telos, produktive Erhaltung und Entfaltung des eigenen Selbst, und zweites Telos, produktive Wiederholung und Erneuerung dieses Selbst in einem anderen Wesen, verbunden. In der Blüte, der Befruchtung und der Ausbildung von Früchten entfaltet sich das Dasein einer Pflanze (erstes Telos). In dieser Art von Selbstentfaltung gründet aber zugleich die Weitergabe des Lebens an eine neue Generation (zweites Telos). Die Verschränkung von Selbstentfaltung und Weitergabe des Lebens zeigt sich in anderer Weise bei Tieren, die sich geschlechtlich fortpflanzen. Der Antrieb, sich mit einem Partner anderen Geschlechts zu vereinigen, kann einer der stärksten Impulse der Selbstentfaltung eines Lebewesens sein. Das zweite Telos scheint sich somit aus bestimmten Aspekten des ersten Telos herzuleiten. Allerdings lassen sich Aktivitäten eines Lebewesens im Rahmen des zweiten Telos klar von anderen Aspekten seiner Selbsterhaltung und Selbstentfaltung abtrennen. Denn offenkundig ist das Lebewesen im Rahmen des zweiten Telos auf andere Lebewesen seinesgleichen gerichtet. Diese Gerichtetheit kann auf der elementarsten Ebene des Lebens eine bloße Disposition sein. So haben einzellige Lebewesen zwar die Fähigkeit, sich zu teilen und damit ihresgleichen hervorzubringen, aber diese Gerichtetheit scheint ihnen mehr zu geschehen, als daß sie ihr Bestreben wäre. Sobald aber eine Art von Lebewesen in zwei Geschlechtern auftritt, kann neben die Disposition, Nachkommen hervorzubringen, ein auf andersgeschlecht-

Produktion, Konsum und Dienste in der Natur

221

liche Lebewesen der gleichen Art gerichtetes Streben treten. Tiere, insbesondere höhere Tiere verschiedenen Geschlechtes, müssen einander suchen und finden, bevor sie sich vereinigen. Im zweiten Telos dient ein Lebewesen in der Regel unmittelbar dem Verlangen des anderen. Dieses Dienen erscheint sozusagen als Nebenwirkung einer triebhaften Anlage. Bei manchen Tieren gibt es zudem eine direkte Gerichtetheit auf ihre Nachkommenschaft. Während also im ersten Telos das Leben eines Lebewesens ausschließlich in seiner Beziehung auf sich selbst erscheint, muß es im zweiten Telos in seiner Beziehung zu mindestens einem Partner, dem Geschlechtspartner, und vielfach in seiner Beziehung zu den Nachkommen betrachtet werden. Dabei tritt allerdings häufig eine Asymmetrie zwischen männlichen und weiblichen Wesen einer Art auf. Bei den männlichen Wesen gehört zu ihrem zweiten Telos häufig die Konkurrenz und der Kampf um die weiblichen Wesen, die selbst an diesen Kämpfen unbeteiligt sind. Andererseits geben letztere häufig schon vor der Geburt (bzw. der Eiablage) Ressourcen aus ihrem Leib an ihre Nachkommenschaft weiter. Wenn dann die Nachkommen eigenständige Lebewesen sind, werden sie manchmal von beiden Eltern, manchmal nur von den Müttern versorgt und nehmen damit Lebenskräfte der Eltern, wenigstens der Mütter, in Dienst. Gelegentlich werden Nachkommen sogar gegen Feinde verteidigt, auch wenn die Eltern dabei ihr Leben einsetzen. Das zweite Telos enthält damit die Gemeinschaft in ihrer elementarsten Form, nämlich die Geschlechtsgemeinschaft, oder eine erweiterte Form der Gemeinschaft, nämlich die Familie. Gelegentlich finden sich auch größere Gemeinschaften: Rudel, Herden bzw. Schwärme oder Staaten bei Insekten. Allgemein läßt sich sagen: Die Verhaltensweisen der meisten Tiere sind im Rahmen des zweiten Telos zumindest auf ein, nicht selten aber auch auf mehrere andere Wesen der eigenen Art gerichtet. Diese anderen Wesen, Geschlechtspartner und Nachkommen, werden in der Regel anders behandelt als die Lebewesen, die im Rahmen des ersten Telos konsumiert werden. Im zweiten Telos sind somit Selbstentfaltung und Dienen verschränkt. Mag vom ersten Telos her das zweite Telos als intensive Form der Selbstentfaltung erscheinen: Von der Art her ist offenkundig, daß das Dasein des Lebewesens immer auch Dasein für andere ist. c) Das dritte Telos

Im dritten Telos werden alle Dienste thematisiert, die Lebewesen für Lebewesen anderer Arten bereitstellen. Zu solchen Diensten gehört beispielsweise die Abgabe der Atemluft durch Menschen und andere Wirbeltiere, deren CO 2 von Pflanzen genutzt wird, die wiederum Sauerstoff abgeben. Einen Dienst stellt auch der Leib des Beutetieres dar, das dem Jäger nach seiner Tötung zur Nahrung dient. Aber auch der tote Leib eines nicht gewaltsam getöteten Lebewesens gibt Dienste ab: Seine Verwesungsprozesse, höchst komplexe Abläufe, an denen zahlreiche Mikroorganismen beteiligt sind, transformieren die Materie des toten Lebewesens in andere Stoffe, die wiederum in natürliche Kreisläufe eingehen.

222

Malte Faber und Reiner Manstetten

Diese Dienste sind meist anders aufzufassen als die Dienste im Rahmen des zweiten Telos. Im zweiten Telos dienen die Lebewesen sozusagen freiwillig, d. h. es ist ein innerer Antrieb, der sie zu ihrem Beitrag zur Entwicklung der eigenen Art drängt. Bezüglich der Lebewesen anderer Arten treten solche Antriebe nur selten in Erscheinung. Am ehesten ist dies der Fall, wenn Dienste gleichsam "entgolten" werden. So stellen Blütenpflanzen häufig Nektar für Insekten bereit, die dies "entgelten", indem sie Pollen übertragen. Damit ermöglichen sie den Blütenpflanzen die Realisierung des zweiten Telos. Ganz allgemein sind alle Formen von Symbiose als Formen solchen wechselseitigen Dienens zwischen mehreren Arten aufzufassen. Bei der Symbiose sind erstes und drittes Telos der beteiligten Lebewesen ineinander verschränkt. 16 Häufig aber bedeuten Dienste, die ein Lebewesen für Lebewesen anderer Arten leistet, eine Schädigung oder Verletzung des Dienstgebers. In solchen Fällen kann man annehmen, daß die Erfüllung des dritten Telos den dienenden Lebewesen gewissermaßen widerwillig zustößt. 17 Der Widerwillen gegen das Dienen für Lebewesen anderer Arten manifestiert sich insbesondere bei Tieren, die von anderen als Beute verwendet werden können. Wenn die Maus der Katze zu entkommen sucht, bringt sie etwas zum Ausdruck, was im Rahmen der ersten beiden Tele allenfalls am Rande sichtbar wird: Lebewesen dienen häufig unfreiwillig, d. h. gegen die Strebungen, die aus ihrem Instinkt, ihrer Genstruktur etc. hervorgehen. Dies gilt insbesondere, wenn sie mit ihrem eigenen Leben anderen Lebewesen dienen müssen, d. h. wenn sie, absolut gesehen, dem Konsum anheimfallen. Aus den Fluchtund Abwehrreaktionen muß man schließen, daß Lebewesen ihr Dienen im dritten Telos, soweit es ihr Leben verletzt oder zerstört, als Leid empfinden, als einen Zustand, den sie nach Kräften zu vermeiden suchen: Es widerspricht ihren ersten beiden Tele. Das offensichtlichste Leid in der Natur scheint darin zu bestehen, konsumiert zu werden, denn dies versuchen Lebewesen besonders heftig zu vermeiden. Indes können viele Wesen ihr erstes und damit auch ihr zweites Telos nur realisieren, indem sie andere Lebewesen oder lebenswichtige Teile von ihnen verzehren. Die Struktur der Produktions- und Konsumvorgänge in der Natur ist also so verfaßt, daß zu ihr das Leid unabdingbar zu gehören scheint. Daß die Realisierung des dritten Telos häufig mit Leiden verbunden ist, zeigt, daß der Status des dritten Telos ein anderer ist als der der beiden ersten Tele. Den ersten beiden Tele kann man Antriebe im Inneren des Lebewesens zuordnen: In der Sprache der Biologie entstammen sie der genetischen Struktur. Das dritte Telos 16 Im Fall des Kommensalismus werden Dienste für Lebewesen anderer Arten bereitgestellt, ohne daß dies den Dienstgebem Schaden zufügt. So bietet ein Baum Vögeln die Möglichkeit, Nester zu bauen. 17 Manche Pflanzen setzen sich gegen eine solche Verletzung zur Wehr, indern sie etwa wie die Disteln, Rosen und Brombeeren Stacheln tragen oder, wie die BrennesseI, Giftstoffe abgeben.

Produktion, Konsum und Dienste in der Natur

223

scheint dagegen nicht im Inneren des Lebewesens zu wurzeln, sondern ihm vielfach von außen aufgezwungen zu werden. Zudem kann die Realisierung des dritten Telos die Realisierung der ersten bei den Tele unmöglich machen. Von daher kann man fragen, ob nicht das dritte Telos in gewisser Weise das Gegenteil der zwei anderen ist? 18 Eine solche Anfrage scheint aus der Perspektive des Einzellebewesens berechtigt, trifft aber nur einen Teilaspekt von seinem Leben. Denn jedes Lebewesen ist für seine Erhaltung und Entfaltung auf die natürliche Lebensgemeinschaft angewiesen. Innerhalb dieser leisten aber auch Arten, die das Leben dieses Einzellebewesens potentiell gefährden, Dienste, die ihm letztlich zugute kommen können. So stellt es für ein Kaninchen Leid dar, von einem Fuchs gefaßt zu werden. Für die überlebenden Kaninchen und für viele andere Lebewesen ist es hingegen günstig, daß die Füchse eine maßlose Vermehrung der Kaninchen verhindern; denn eine solche Vermehrung könnte zu einer Verknappung der Pflanzen nahrung für alle Pflanzenfresser und damit auch für die Kaninchen selbst führen. Von der Ganzheit aus gesehen, ist nicht nur das Gefressen-Werden der Kleinen, sondern auch das Fressen der Großen ein Dienst. Um dies zu erkennen, muß man allerdings die Ebene des einzelnen Lebewesens verlassen und sich auf die natürliche Lebensgemeinschaft mit ihren verschiedenen Arten richten. IV. Produktion, Konsum und Dienen aus der Perspektive der natürlichen Lebensgemeinschaft: Die Theorie der Fonds J. Zwei Perspektiven auf das Leben des Lebendigen

Es besteht eine unauflösliche Spannung zwischen zwei Perspektiven auf das Leben des Lebendigen, die gleichwohl ihr je eigenes Recht besitzen. Aus der Perspektive der einzelnen Lebewesen gibt es in der Natur Leid und Hinzufügen von Leid, Gewalt und Erleiden von Gewalt, Harmonie und Disharmonie. Aus der Perspektive der natürlichen Lebensgemeinschaft und der sie konstituierenden Arten verschwindet das Leid - nicht deshalb, weil es nicht existiert, sondern nur, weil es systematisch ausgeblendet wird. Leid bezieht sich immer auf Individuen: Nur Individuen leiden und können auch, jedenfalls bei höheren Lebewesen, mitleiden. Hingegen läßt sich der Begriff des Leidens nicht ohne weiteres sinnvoll auf Arten und natürliche Lebensgemeinschaften beziehen. Betrachtet man also die Selbstorganisation einer natürlichen Lebensgemeinschaft durch ihre Arten hindurch, sieht man kein Leid. Beide Perspektiven aber gehören untrennbar zusammen. Das Leben der 18 Aus der Perspektive von Kants Kritik der Urteilskraft (v gl. Kant FN 10) könnte man argumentieren, daß das dritte Telos eben jene äußere Zweckmäßigkeit des Natürlichen in Anspruch nehme, die Kant aus seinem Konzept der Teleologie ausdrücklich ausschließen wollte. Indes wird im folgenden das dritte Telos der Lebewesen in einer Weise verwendet, die es als Aspekt einer inneren Zweckmäßigkeit der natürlichen Lebensgemeinschaft erscheinen läßt.

224

Malte Faber und Reiner Manstetten

Individuen ist nicht möglich ohne die Selbstorganisation der natürlichen Lebensgemeinschaft,19 die Selbstorganisation der Gemeinschaft vollzieht sich nicht ohne das Leid von Individuen. Sowohl die Perspektive der Lebensgemeinschaft als auch die des einzelnen Lebewesens ist für das Verständnis ökologischer Zusammenhänge notwendig. 2o Wer die Natur mehr unter dem Gesichtspunkt der Harmonie und des Gleichgewichtes betrachtet, nimmt die Perspektive der Lebensgemeinschaft ein, wer sie unter dem Gesichtspunkt ihrer Grausamkeit, des Kampfes, des Leides und der Konkurrenz betrachtet, nimmt die Perspektive des einzelnen Lebewesens ein. Man kann jeweils eine der Perspektiven von der anderen trennen und versuchen, allein von ihr aus Natur zu verstehen. Geht man vom einzelnen Lebewesen aus, so erscheint Natur als das von Kampf, Gewalt und Leid in Bewegung gehaltene Aggregat des Lebendigen, das aufgrund von Anpassungs- und Selektionsprozessen bestimmte Muster annimmt. Das ist der Gesichtspunkt, der Darwin entscheidend prägte. Geht man von der natürlichen Lebensgemeinschaft aus, so kann man die Natur unter dem Gesichtspunkt der Selbstorganisation dieses Ganzen auffassen, wobei seine Teile durch dieses Ganze erzeugt werden und es wiederum als ein Ganzes erzeugen. Dieser zweite Gesichtspunkt kann mit der im folgenden entwickelten Begrifflichkeit der Fonds und Dienste für konkrete ökologische Untersuchungen fruchtbar gemacht werden und damit einer darwinistischen Sicht zumindest ergänzend zur Seite treten. 2. Lebensgemeinschaft, Art und Individuum

In diesem Abschnitt gehen wir nicht vom Individuum aus, sondern von der natürlichen Lebensgemeinschaft. Wir fragen, was das Dasein einzelner Lebewesen und das Zusammenspiel verschiedener Arten für die Entwicklung einer solchen Gemeinschaft bedeutet. Alle Dienstverhältnisse, auch die Produktions- und Konsumbeziehungen zwischen den einzelnen Lebewesen, erscheinen nun als Momente der Evolution einer solchen Gemeinschaft. Eine natürliche Lebensgemeinschaft läßt sich in drei Hinsichten beschreiben: 1. in ihrer Einheit als Struktur von Interaktionen verschiedener Arten,

2. in ihren einzelnen Teilen, den verschiedenen Arten und 3. in ihren Elementen, den einzelnen Lebewesen. 19 Die Perspektive der Lebensgemeinschaft wird in der Synökologie (der Ökologie der Lebensgemeinschaften) und die der Einzellebewesen in der Autökologie (der Ökologie der Einzellebewesen) eingenommen (vgl. H. Remmert: Ökologie. 2. Aufl., Springer, Heidelberg, 1980). 20 Allerdings muß man auf der individuellen Ebene berücksichtigen, daß der Kampf ums Dasein nur ein Teilaspekt der Selbsterhaltung und Selbstentfaltung der Lebewesen ist. Die Biologie zeigt mit den Konzepten der Symbiose und des Kommensalismus, daß viele Dienste, die Lebewesen an Lebewesen anderer Arten weitergeben, nicht gegen den Willen der gebenden Lebewesen stattfinden.

Produktion, Konsum und Dienste in der Natur

225

Eine solche Gemeinschaft kann als Organismus gedeutet werden, der sich im Wechsel seiner Elemente, der Individuen, selbst erhält und entfaltet. Leid, Konkurrenz und Kampf zwischen einzelnen Lebewesen können nun als Stoffwechselprozesse dieser Gemeinschaft erscheinen. Da die Deutung einer Lebensgemeinschaft als Organismus voraussetzt, daß man von den individuellen Erfahrungen des Leides, der Konkurrenz und des Kampfes absieht, steht diese Interpretation immer unter einem Vorbehalt: Eine ökologische Ganzheit ist kein Organismus, aber sie kann für begrenzte Erkenntniszwecke nach Art eines Organismus beschrieben werden. 3. Der Begriff ,Fonds' - Definition und Erläuterung

Es soll nun eine Begrifflichkeit entwickelt werden, mit der sich wesentliche Dienstverhältnisse, Produktions- und Konsumbeziehungen einer ökologischen Ganzheit darstellen lassen. Wir betrachten natürliche Lebensgemeinschaften als in gewisser Weise nicht sterblich. Das heißt nicht, daß solche Ganzheiten nicht zugrunde gehen. Aber im Gegensatz zu einem einzelnen Lebewesen scheint es für natürliche Lebensgemeinschaften kein ex ante vorbestimmbares natürliches Maß für ihre Dauer zu geben. Mit der Eigenschaft der ,Nicht-Sterblichkeit' wollen wir also betonen, daß Lebewesen sterben müssen, Lebensgemeinschaften aber nicht untergehen müssen auch wenn sie untergehen können. Ebenso gilt auch für Arten, daß sie - im gleichen Sinne wie natürliche Lebensgemeinschaften - nicht-sterblich sind. Als Referenzpunkt für langfristige Betrachtungen erscheinen uns daher die Arten und nicht etwa die einzelnen Individuen geeignet. Wir bestimmen nun terminologisch Voraussetzungen für die Darstellung der langfristigen Erhaltung und Entfaltung der Arten innerhalb einer natürlichen Lebensgemeinschaft derart, daß diese Arten gleichzeitig zur Erhaltung und Entfaltung der Lebensgemeinschaft selbst beitragen. Entscheidend für unsere Terminologie ist der Begriff Fonds. 21 Wir verstehen unter einem Fonds eine Quelle von Diensten für eine oder mehrere Arten von Lebewesen als Dienstnehmer. Fonds sind die produktiven Einheiten in einer natürlichen Lebensgemeinschaft. Alles, was eine natürliche Lebensgemeinschaft verbraucht und gebraucht, geht auf die Aktivität von Fonds zurück. Die Einführung des Begriffs Fonds steht unter der Frage: Wel21 Das Wort Fonds stammt vom lateinischen Wort fundus. Fundus bedeutet Grund und Boden, kann aber auch das Hauptstück einer Sache meinen, so daß man das Hauptgericht eines Menues als fundus bezeichnen kann. - Die im Folgenden entwickelte Theorie der Fonds verdankt wesentliche Anstöße dem Kapitel 9 von N. Georgescu-Roegen: The Entropy Law and the Economic Process. Harvard University Press, Cambridge, Mass., 1971. Eine Zusammenfassung wichtiger Gedanken dieses Kapitels bietet Wodopia S. 188 -191. F. Wodopia: Time and Production. Period versus Continuous Analysis. In M. Faber (Hrsg.): Studies in Austrian Capital Theory, Investment and Time, Springer, Heidelberg, 1986, S. 186 - 194.

15 Selbstorganisation. Bd. 9

226

Malte Faber und Reiner Manstetten

ehe Quellen von Diensten sind für die Erhaltung von Arten und Lebensgemeinschaften erforderlich? Bestimmte Fonds sind notwendige Lebensgrundlagen für alle Arten. So liefert die Sonne Dienste in Form von Wärme und Licht, die für alle Lebewesen unverziehtbar sind. Weitere unentbehrliche Fonds können unter den Begriffen Boden,22 Luft und Wasser zusammengefaßt werden. 23 Derartige Fonds haben gemeinsam, daß ihre Zeitdauer nicht terminiert ist. So wie wir oben die Arten als nicht-sterblich bezeichneten, wollen wir derartige Fonds als nicht-vergänglich bezeichnen in dem Sinne, daß sie (für biologische Maße) nicht vergehen müssen. 24 Die Bedeutung der genannten Fonds ist allerdings unterschiedlich. Für manche Lebewesen sind diese Fonds (oder einige von ihnen) hinreichende, für andere nur notwendige Bedingungen ihres Daseins. So können sich einige Pflanzen auf dem Lande ausschließlich von Wasser, Boden und Luft in Verbindung mit Sonnenlicht ernähren. Die meisten Tiere brauchen zu ihrer Ernährung hingegen andere Lebewesen. Das bedeutet: Arten, die auf Lebendiges angewiesen sind, benötigen lebendige Fonds. Lebendige Fonds sind keineswegs nicht-vergänglich im Sinne der unlebendigen Fonds. Wohl aber müssen sie in dem oben genannten Sinne nicht-sterblich sein. Denn insofern sie für die Erhaltung und Entfaltung einer Art notwendig sind, müssen sie die gleiche Eigenschaft der Dauer haben wie die Art selbst. Folglich kann man die lebendigen Fonds selbst als Arten betrachten. Genauer gesagt, die Arten sind lebendige Fonds, insofern sie als Dienstgeber für andere Arten anzusehen sind. Dabei kann es sich bei den Diensten auch um Lebewesen oder bestimmte Teile von Lebewesen handeln. 4. Lebendige Fonds

Ein lebendiger Fonds kann durch drei Eigenschaften beschrieben werden: (i)

Er leistet Dienste für einen oder mehrere andere Fonds.

(ii) Er reproduziert sich selbst. (iii) Er ist im oben angegebenen Sinn unsterblich. 22 Dabei sehen wir beim Boden davon ab, daß der Boden sehr viele Lebewesen enthält, die unter der Kategorie Fonds, wie sie im folgenden Abschnitt entwickelt wird, eingeordnet werden müssen. 23 Luft, Boden und Wasser sind Sammelbegriffe für sehr verschiedene Quellen von Diensten. So umfaßt der Wasserkreislauf der Erde Meere, Luftfeuchtigkeit, Wolken, Gletscher, Wasserläufe, Seen, Grundwasser, Ausdünstungen von Böden und Pflanzen etc. Gestirne und Mond sind ebenfalls als Fonds zu betrachten. So werden z. B. die Gezeiten durch den Mond hervorgerufen, die wiederum für gewisse Arten im Wattenmeer notwendig sind. 24 Die Begriffe Nichtsterblichkeit und Nichtvergänglichkeit sollen nicht ausschließen, daß eine kosmische Katastrophe die ganze Erde zerstören könnte. Gemeint ist nur: Eine Notwendigkeit und ein Zeitpunkt für ein Sterben oder Vergehen ist in näherer und fernerer Zukunft ex ante nicht abzusehen.

Produktion, Konsum und Dienste in der Natur

227

Lebendige Fonds bestehen aus Organismen. Die Organe dieser Organismen besitzen selbst eine der Eigenschaften eines Fonds, sie leisten nämlich Dienste im Sinne der Bedingung (i). Dies gilt gleichermaßen für die Tatze eines Bären, wie für die Leber eines Menschen. Diese Teile eines Organismus wollen wir ..Teilfonds" nennen: Solche Teilfonds sind nur in Beziehung auf die Organismen und letztlich auf die Fonds zu verstehen, denen sie zugehören. Der Begriff des Teilfonds ist vor allem für das Verständnis der menschlichen Wirtschaft von Bedeutung (s.u. Abschnitt V.I). Lebendige Fonds unterscheiden sich in wesentlichen Aspekten von nicht-lebendigen Fonds. Im Gegensatz zu einem Fonds wie der Sonne haben die lebendigen Fonds kein dauerhaftes Substrat. Ihre Dauer liegt in der ständigen Erneuerung ihrer Elemente. Damit setzen die lebendigen Fonds das erste und zweite Telos der Lebewesen, also die Tele, durch die eine Art sich selbst produziert, voraus. Mit dem ersten Telos ist ein ständiger Durchlauf von Materie und Energie verbunden, mit dem zweiten Telos die Selbstreproduktion und die Selbsterneuerung. Fast alle Arten kann man sowohl als Fonds als auch als Dienstnehmer von Fonds betrachten. Betrachtet man sie als Dienstnehmer, so bezieht man sich vor allem auf das erste und, wenngleich in geringerem Maße, auf das zweite Telos der ihnen zugehörigen Lebewesen. Betrachtet man sie hingegen als Fonds, rückt das dritte Telos der Lebewesen in das Zentrum der Aufmerksamkeit, während erstes und zweites Telos bloße Voraussetzungen dafür sind. Vor allem im Tierreich erweisen sich viele Arten vor allem dadurch als Fonds, daß sie einzelne Lebewesen produzieren, die sie als Dienste an andere Arten abgeben, welche diese Lebewesen oder Teile von ihnen konsumieren. Während solche Dienste, die den Konsum betreffen, leicht identifizierbar sind, sind andere Dienste schwerer zu erkennen. So sind die Dienste der Art Antilope für die Art Löwe unmittelbar sichtbar, nicht aber umgekehrt die Dienste der Löwen für die Antilopen. Aber von einer natürlichen Lebensgemeinschaft aus gesehen, etwa einer Steppe, ist es nicht leicht zu sagen, welche Dienste wichtiger und welche weniger wichtig sind. Es ist gerade das Zusammenspiel aller Arten innerhalb einer Verflechtung von Diensten, das in einem ökologischen Ganzen zu einem Gleichgewicht führt. Entfernt man einige Dienste aus einer solchen Lebensgemeinschaft, kann in anderen Teilen ein unkontrollierbares Wachstum ausbrechen oder es gehen Arten zugrunde; beides kann auch gleichzeitig stattfinden. Die Dienste lebendiger Fonds reichen viel weiter, als es den Anschein haben mag. So bewirken die Dienste von vielerlei Mikroorganismen, z. B. Algen, Pilze, Bakterien etc., daß fast alles in der Natur, was als Abfall erscheinen könnte, wieder in natürliche Kreisläufe zurückgeführt wird. Dabei handelt es sich um ein Recycling im Sinne eines Stoffkreislaufes. Eine wie große Rolle das ..Recycling" in der Natur spielt wird deutlich aus der Tatsache, daß der in einem Zeitraum produzierten Menge an Biomasse, d. h. der Masse, die in Körper von Lebewesen eingeht, eine annähernd gleich große Menge an zu ..entsorgender" Masse ent15*

228

Malte Faber und Reiner Manstetten

spricht. 25 Sehr viele Fäulnis- und Zersetzungsprozesse sind entweder selbst Lebensprozesse von Lebewesen oder werden, wie bei der Verrottung von Pflanzen, in Lebensprozesse zuruckgeführt. Diese Vorgänge sind ihrerseits Voraussetzung für das Leben höherer Lebewesen. Geht man nicht vom einzelnen Lebewesen aus, sondern von einer Lebensgemeinschaft, dann kann man Produktion, Konsum und Entsorgung eigentlich nicht trennen. Als echtes Kreislaufsystem läßt sich jeder Produktions-, Konsum- und Entsorgungsvorgang in der Natur als notwendiges Element des jeweiligen anderen auffassen: Produktion impliziert Konsum und Entsorgung, Konsum impliziert Entsorgung und Produktion, Entsorgung impliziert Konsum und Produktion. In einer ökologischen Ganzheit ist die Unterscheidung dieser Begriffe eine rein analytische; Realität gewinnt die Trennung von Produktion, Konsum und Entsorgung erst in der menschlichen Wirtschaft. Eine andere - aus menschlicher Sicht sehr wichtige - Trennung kann aus der Perspektive einer ökologischen Ganzheit nicht einmal analytisch vorgenommen werden: Die Trennung zwischen positiven und negativen Dienstleistungen bzw. zwischen Dienstleistungen und Schadleistungen. Eine solche Trennung besteht zwar für das einzelne Lebewesen aus der Perspektive seines ersten Telos, nicht aber für eine Ganzheit, die längerfristig alles, was in ihr geschieht, zum Moment der eigenen Evolution machen kann. Ein weiteres Kennzeichen der Fonds ist die Kuppelproduktion. In der Regel bringen nämlich Fonds mehr als einen Dienst gleichzeitig hervor?6 Man denke an den Baum, der in der Realisierung der ersten beiden Tele notwendig Blätter und Fruchte, Rinde und Schatten als Dienste für andere Lebewesen mit-produziert. Ein überaus wichtiger Dienst, der bei allen grunen Pflanzen als Kuppelprodukt bei ihrer Atmung anfällt, ist der Sauerstoff, den andere höhere Lebewesen zur Atmung benötigen. 5. Das Zusammenspiel der Fonds und ihre Beziehung zu den drei Tele

Die soeben entwickelte Perspektive ermöglicht es, ökologische Zusammenhänge aus der Perspektive einer Ganzheit und der sie konstituierenden Teile, nämlich der Arten, zu beschreiben. Damit sind wir in der Lage, dem Zusammenspiel von Produktion, Konsum und anderen Diensten in der Natur eine begriffliche Struktur zu unterlegen. Die analytische Leitfrage lautet dabei: Welche Fonds und welche Ver25 R. Zwilling: Stoffkreislauf im Leben. In R. Zwilling und W Fritsche (Hrsg.): Ökologie und Umwelt. Ein interdisziplinärer Ansatz. Heidelberger Verlagsanstalt, Heidelberg, 1993, S.19-31. 26 M. Faber, J. L. R. Proops and S. Baumgärtner: All Production is Joint Production. In: S. Faucheux, J. Growdy und I. Nicolai" (Hsrg.): Sustainability and Firms. Technological Change and the Changing Regulatory Environment. Edward Eigar, Cheltenham, 1998.

Produktion, Konsum und Dienste in der Natur

229

flechtung von Diensten ermöglichen die Gestalt der jeweiligen natürlichen Lebensgemeinschaft mit der Vielzahl der zu ihr gehörenden Arten? Unter dieser Leitfrage ist es möglich, alle Arten nicht nur wechselseitig als Fonds zu betrachten, sondern sie allesamt als Fonds für die Lebensgemeinschaft anzusehen, der sie zugehören. Die drei Tele der Lebewesen erscheinen dabei unter einem neuen Gesichtspunkt: Von den Lebewesen aus sind sie drei selbständige Prinzipien ihres Daseins, von der ökologischen Ganzheit her sind sie bloße Voraussetzungen ihrer Selbstorganisation auf der Basis ihrer Fonds. Biologen, die mit der Begrifflichkeit der Fonds eine natürliche Lebensgemeinschaft untersuchen, werden eine Vielzahl von Diensten relativ präzise quantifizieren können, während bei anderen Diensten nur eine grobe Abschätzung möglich sein mag, und wieder andere werden nur qualitativ benannt werden können. Schließlich ist davon auszugehen, daß bei komplexeren natürlichen Lebensgemeinschaften eine unbekannte Anzahl von Fonds und Diensten verborgen bleiben wird. 6. Die Nutzung der Fonds und das Maß der Arten

Eine wesentliche ,,spielregel" in natürlichen Lebensgemeinschaften besteht darin, daß die meisten Arten ihre Fonds maßvoll nutzen. Dabei werden solche Maße weniger durch innere Hemmungen als vielmehr durch die technischen Kapazitäten der Art zur Ausnutzung ihrer Fonds gegeben. Gelegentliche Ausnahmen wie die Heuschreckenschwärme in Westafrika treten nur punktuell auf und werden langfristig in die Maße der natürlichen Lebensgemeinschaft integriert. Das maßvolle Zusammenspiel verschiedener Arten in einem ökologischen Ganzen bedeutet keineswegs, daß eine natürliche Lebensgemeinschaft sich über die Zeit konstant verhält. Im Lauf der Evolution haben zum einen Entwicklungen auf der Seite der unlebendigen Fonds, die zu Klimawandlungen führten, größere Änderungen in der Struktur natürlicher Lebensgemeinschaften bewirkt. Zum anderen führte die Produktion neuer Arten dazu, daß die Verflechtung von Diensten in einer natürlichen Lebensgemeinschaft sich massiv änderte. Wenn man indes die ganze Erde als natürliche Lebensgemeinschaft betrachtet, sieht man, daß dieses System stabil genug war, um selbst gewaltige Schocks in Form von Meteoriteneinschlägen zu überdauern. Zwar haben solche Einschläge vermutlich stets zu einem gewaltigen Artensterben geführt, so daß das Zusammenspiel der Fonds bzw. ihrer Dienste für die überlebenden Arten fundamental geändert wurde, aber für die Produktivität der Natur scheinen diese Schocks Anlässe gewesen zu sein, neue und komplexere Formen des Lebens zu entwickeln.

230

Malte Faber und Reiner Manstetten

v. Natur, Mensch und Wirtschaft 1. Die Sonderstellung des Menschen gegenüber der Natur

Als bloßes Lebewesen läßt sich auch der Mensch dem Schematismus der drei Tele unterwerfen, und die Menschheit könnte in die Struktur einer natürlichen Lebensgemeinschaft als eine Art, die andere Arten als Fonds nutzt und selbst als Fonds für andere Arten dient, eingezeichnet werden. Aber die Entwicklung der Menschheit zeigt, daß die Menschen das Leid, das aus ihrer Abhängigkeit von der Natur ihrem dritten Telos entspringt, nicht einfach hinnehmen, wenngleich auch ihr Dasein mit dem Tod endet. Indem der Mensch den Tod (bzw. das Konsumiertwerden in absoluter Betrachtung) vorhersieht und fürchtet, sucht und findet er einzigartige Möglichkeiten, ihn aufzuschieben. Der Mensch stellt sich der Natur gegenüber, durchdringt sie wissenschaftlich, macht sie technisch nutzbar und erweist sich so als ein rationales, erfinderisches, seinen Lebensraum weitgehend selbst gestaltendes Lebewesen. Die Menschheit hat einen stärkeren Zugriff auf Fonds als andere Arten und hindert diese daran, die Menschheit als Fonds zu nutzen. Außerdem hat der Mensch Kontrolle über wesentliche lebendige Fonds gewonnen. In Ställen, in Gärten, auf Äckern und Viehweiden werden bestimmte Fonds von Nutzpflanzen und Nutztieren ausschließlich für die menschliche Bedürfnisbefriedigung herangezogen, während Arten, die dem Menschen nicht nützlich oder schädlich erscheinen, nach Möglichkeit femgehalten werden. Die Menschheit läßt sich also nicht, wie alle anderen Arten, ohne weiteres als Fonds für die Selbstorganisation einer natürlichen Lebensgemeinschaft betrachten, in deren Maße sie sich einfügen würde. Denn statt mit ihren Individuen als Fonds im Rahmen einer natürlichen Lebensgemeinschaft zu dienen, scheint sich die Menschheit viele Arten, ganze natürliche Lebensgemeinschaften, vielleicht sogar die ganze Erde, als Fonds im Rahmen des ersten Telos und zweiten Telos ihrer Individuen dienstbar zu machen. Somit ändert sich die Betrachtungsweise natürlicher Lebensgemeinschaften mit dem Auftreten der Menschheit, insbesondere aber der modemen Menschheit. Die Frage "Was tragen einzelne Arten als Fonds zur Entfaltung einer natürlichen Lebensgemeinschaft bei?", wird durch die Evolution menschlicher Wirtschaften zunehmend überführt in die Frage "Was tragen einzelne - oft aus ihrer Gemeinschaft herausgelöste - Arten zur menschlichen Bedürfnisbefriedigung bei?" Somit schafft der Mensch mit seiner Wirtschaft ein Bewertungssystem27 natürlicher Zusammenhänge, für das es in der Natur keine Parallele gibt. Dabei darf die Wirtschaft allerdings nicht die Entwicklung der umfassendsten natürlichen Lebensgemeinschaft, der Erde, im ganzen unmöglich machen. 27 Ein Beispiel für ein solches Bewertungssystem in einer idealen Marktwirtschaft ist das Preissystem.

Produktion, Konsum und Dienste in der Natur

231

Weiterhin ist der Mensch nicht in der Weise wie andere Lebewesen von natürlichen Fonds abhängig, obwohl er sich nicht ganz davon lösen kann. Aber er schafft sich unter Verwendung der Dienste von natürlichen Fonds eigene, fondsähnliche Quellen von Diensten, die in der Ökonomie als Kapitalgüter bezeichnet werden. Lotka28 sieht Kapitalgüter, vom einfachen Werkzeug bis zur komplizierten Maschine, als "exosomatische Organe" an. 29 In diesem Sinne sind Kapitalgüter als Teilfonds 3o der Menschen zu verstehen. Da sie von Menschen hergestellt und verwendungsfähig gehalten werden müssen, nennen wir sie "künstliche Fonds". Von den oben in Abschnitt IVA genannten Eigenschaften lebendiger Fonds besitzen sie allerdings nur die erste (i): sie sind Quellen von Diensten. Daher werden sie im Laufe der Zeit notwendig aufgebraucht. 3. Die Verwendung von Fonds als Vorräte

Aus der Sonderstellung des Menschen ergibt sich die Möglichkeit für einen Umgang mit Fonds, die zu einer Überbeanspruchung ihrer Dienste und damit zur Zerstörung der Fonds führt. In unserer bisherigen Terminologie haben wir keine Sprache für ein derartiges Verhalten. Zur Beschreibung dieses Sachverhaltes führen wir den Terminus Vorrat in unsere Betrachtung ein. Das einfachste Paradigma eines Vorrates sind nicht erneuerbare Bestände von unlebendigen Materialien im Boden. Wir bezeichnen derartige Bestände als Vorräte, sofern sie für einen Dienstnehmer nützlich erscheinen. Den Vorgang der Verminderung derartiger Vorräte, sofern er von einem Nutzer vorgenommen wird, nennen wir Entnahme. Vorräte als solche sind nicht nur nicht erneuerbar, sondern auch erschöpfbar. Eine Zunahme von Vorräten findet nur statt, wenn sie durch einen Fonds vermehrt oder neu gebildet werden. Der Mensch kann nicht nur Unlebendiges als Vorrat benutzen und durch exzessive Entnahmen erschöpfen - man denke an Mineralien und fossile Rohstoffe wie Kohle und Erdöl - sondern auch lebendige Fonds als Vorrat behandeln. Dies geschieht, wenn etwa aus einem See längerfristig mehr Fische entnommen werden als neu hinzukommen, oder aus einem Wald mehr Holz geschlagen wird als nachwächst. Werden lebendige Fonds als Vorräte genutzt, so vermindern sie sich nach Art der unlebendigen Vorräte und werden in ihrer produktiven Tätigkeit beeinträchtigt. Ob Pflanzen- oder Tierarten als Fonds oder als Vorräte verwendet werden, hängt ausschließlich vom Verhalten des Menschen und damit von den Entscheidungen, die dieses Verhalten leiten, ab. Zu entscheiden ist dabei, ob ein leben28

A. J. Lotka: Elements of Physical Biology. Dover, Baltimore, 1925.

"So wird das (vom Menschen zum Arbeitsmittel umgestaltete, d. V.) Natürliche selbst zum Organ seiner Tätigkeit, das er seinen eigenen Leibesorganen hinzufügt, seine natürliche Gestalt verlängernd ... " (K. Marx: Das Kapital. Erster Band, MEW Bd. 23, Berlin, 1972, S. 194). 30 Vgl. M. Faber, R. Manstetten und J. L. R. Proops, 1996, FN 4, S. 51 - 52. 29

232

Malte Faber und Reiner Manstetten

diger Fonds maßvoll, d. h. unter Beachtung seiner eigenen Reproduktionsrate, oder übermäßig bzw. maßlos, d. h. über die Reproduktionsrate hinausgehend, genutzt wird. In der Möglichkeit übermäßiger Nutzung zeigt sich ein spezifisches Problem der Menschheit gegenüber der Natur. Während anderen Arten bestimmte Maße gegenüber ihren Fonds vorgegeben sind, bedingt durch ihre natürlichen Fähigkeiten der Nutzung, ihre Reproduktionsraten und auch ihr drittes Telos gegenüber anderen Arten, ist es der Menschheit in biologisch gesehen kurzen Zeiträumen gelungen, ihre Fähigkeiten zur Nutzung anderer Fonds gewaltig zu steigern, wobei zugleich die Anzahl der Menschen zugenommen hat und das dritte Telos stark zurückgedrängt werden konnte. Insbesondere in den letzten Jahrhunderten ist die Indienstnahme und der Konsum an Mitteln, die der Mensch für seine Selbstentfaltung zu benötigen meint, unvergleichlich gewachsen. Die Nutzung dieser Mittel - Maschinen, Anlagen etc. - setzt den unwiderruflichen Konsum von Diensten aus der Natur voraus. Indem der heutige Mensch für die Realisierung vor allem des ersten Telos nur technische Grenzen als Maße anerkennt und der Realisierung des dritten Telos nach Möglichkeit zu entgehen sucht31 , bedroht er potentiell die gesamte außermenschliche Natur. Inzwischen erstreckt sich diese Bedrohung auf die Grundlagen des menschlichen Lebens selbst. 4. Die Freiheit und die drei Interessen der Menschen

Menschliches Handeln ist in viel geringerem Maße vorhersagbar als das Verhalten der meisten Tiere und Pflanzen. In der philosophischen Tradition hat man diesen Unterschied zwischen Mensch und den anderen Lebewesen folgendermaßen beschrieben: Tiere und Pflanzen sind durch ihre biologische Natur bestimmt, der Mensch wird durch seine biologische Natur wohl beeinflußt, ist aber frei, ihren Einflüssen zu folgen oder nicht. Unabhängig von den metaphysischen Fragen, die an eine solche Aussage anknüpfen, drückt sie einen phänomenologischen Sachverhalt aus. Tierische und pflanzliche Individuen sind uns als Exemplare ihrer Art weitgehend bekannt, Menschen nicht. Menschliches Verhalten ist offen in einer Weise, die in der Natur keine Parallele hat. Die Individuen jeder Tier- und Pflanzenart haben innerhalb einer gewissen Bandbreite eine ziemlich genau bestimmbare Art und Weise, die drei Tele auszuleben. So kann man, von Ausnahmen abgesehen, von artspezifischen Eigenschaften ohne weiteres auf individuelles Verhalten schließen. Ein solcher Schluß ist beim Menschen prinzipiell nicht möglich. Weder lassen sich die artspezifischen Eigenschaften in der Weise angeben, wie dies bei anderen Lebewesen der Fall ist, noch könnte man, würde man sie kennen, irgend31 Das zweite Telos nimmt insofern eine Sonderstellung ein, als es gegenwärtig in verschiedenen menschlichen Gesellschaften höchst unterschiedlich realisiert wird. In westlichen Kulturen wird das Telos der Weitergabe des Lebens zunehmend als konfligierend mit dem Telos der Selbstentfaltung erfahren.

Produktion, Konsum und Dienste in der Natur

233

eine sichere Aussage über ein konkretes Individuum machen. Allenfalls kann man allgemeine Verhaltensmuster angeben, die allerdings nicht für die ganze Menschheit, sondern nur für eine bestimmte Kultur, eine bestimmte Epoche und einen bestimmten Lebensraum gelten. Bezüglich des Individuums kann man bestenfalls Erwartungen bilden, inwieweit es diesen Verhaltensmustern entspricht oder nicht. Daraus folgt, daß man nicht eine für den Menschen allgemein gültige Weise angeben kann, wie die drei Tele realisiert werden. Vielmehr sind diese Realisierungen je nach Kultur, Epoche, Lebensraum und individuellem Charakter verschieden. Der Mensch kann zu allen drei Tele bis zu einem gewissen Grade Abstand nehmen und entscheiden, in welchem Maße er eines oder alle drei verwirklicht oder nicht. Askese, Enthaltsamkeit und Genügsamkeit sind Haltungen, mit denen ein Mensch die Realisierung des ersten Telos begrenzen (möglicherweise aber auch intensivieren) kann. Darüber hinaus ist es dem Menschen möglich, sein eigenes Leben gewaltsam zu beenden und damit das erste Telos für sich aufzuheben. Der Mensch kann auch auf die Weitergabe des Lebens an Nachkommen verzichten. Daß die Verwirklichung des dritten Telos vom Menschen, der den Tod allerdings nicht vermeiden kann, weitgehend zurückgestellt werden kann, wurde bereits gesagt. So wie der Mensch fähig ist, jedes Telos nur in geringem Maße zu verwirklichen, kann er sich jedoch auch um eine gesteigerte Realisierung eines jeden bemühen. In der Möglichkeit der Menschen zu wählen, ob sie ein Telos zurückstellen, ihm maßvoll folgen oder sich ihm übermäßig anheimgeben, sehen wir im Horizont unserer Fragestellung die menschliche Freiheit. Der Mensch ist in dieser Sicht ein Wesen, das von den drei Tele zwar mitbestimmt wird, aber nicht ausschließlich determiniert ist. Vielmehr hat der Mensch die Fähigkeit zur Selbstbestimmung. Die drei Tele geben dem Menschen als Lebewesen einen Spielraum vor, innerhalb dessen Selbstbestimmung stattfindet. Dabei wird dieser Spielraum aber durch die praktizierte Selbstbestimmung verändert. Die Beziehung der Freiheit des Menschen zu den drei Tele versuchen wir mit dem Ausdruck Interesse zu erfassen. Den drei Tele der Lebewesen korrespondieren beim Menschen drei Interessen. Die Interessen sind Grundeinstellungen, die den drei Tele entstammen, gleichwohl aber kulturell und individuell verschieden ausgeprägt sind und demgemäß in unterschiedlichen Weisen verwirklicht werden. i) Dem ersten Telos korrespondiert das Interesse am eigenen Selbst, das Interesse an der eigenen Selbsterhaltung und Selbstentfaltung. ii) Dem zweiten Telos korrespondiert das Interesse an der Gemeinschaft, ihrer Erhaltung und Entfaltung, wobei die Gemeinschaft als Familie, Gruppe, Staat etc. ausgeprägt sein kann. iii) Dem dritten Telos korrespondiert das Interesse am Ganzen der Welt, seiner Erhaltung und Entfaltung. Die drei hier angegebenen Interessen sind nur ganz allgemeine Begriffe für drei fundamentale Klassen von Ausrichtungen, wie sie dem Menschen möglich sind. Jede dieser Ausrichtungen schließt nicht nur Freiheit, sondern auch Verantwortung

234

Malte Faber und Reiner Manstetten

mit ein. Innerhalb jeder dieser Interessen sind vielfache Spezifizierungen möglich. Insbesondere das zweite Interesse kann sehr verschiedene Gemeinschaften umfassen, die in Konflikte oder kriegerische Auseinandersetzungen geraten können. Daß das zweite Interesse sich auf die ganze Art, d. h. auf die ganze Menschheit richtet, ist erstmalig in den Weltreligionen und den stoischen Theorien vom Weltbürgertum gedacht worden, d. h. es ist menschheits geschichtlich ein relativ junges Phänomen. Aus ökologischer Sicht bedeutsam ist vor allem das dritte Interesse. Es ist in seinen Wurzeln sehr alt. Jede metaphysische Philosophie und jede Weltreligion fragt nach der Bestimmung und Aufgabe des Menschen im Ganzen der Welt und im Angesicht ihres Ursprungs. Das dritte Interesse ist als philosophisches oder religiöses Interesse zunächst jenseits der zwischenmenschlichen Zusammenhänge und jenseits des Verhältnisses von Mensch und Natur. In der Philosophie entspricht ihm die theoria im Sinne des Aristoteles, die reine und absichtslose Schau des ganzen Kosmos, in der Religion drückt sich dieses Interesse in allen Liturgien aus, in denen der Mensch den Ursprung feiert, dem er als Geschöpf gemeinsam mit allen Lebewesen entsprungen ist. Seit der Bewußtwerdung von Rohstoffknappheit und Naturzerstörung hat das dritte Interesse eine neue, praktische Bedeutung erlangt. Diese praktische Bedeutung erstreckt sich auf die Verwendung neuer rohstoffsparender und umweltschonender Technologien und Güter. Weiterhin bezieht sie sich auf Konsumgewohnheiten, d. h. auf eine Modifikation des ersten Telos im Horizont eines neuen Verständnisses des ersten Interesses, und auf die Bevölkerungsentwicklung. Schließlich geht die praktische Bedeutung des dritten Interesses auch in die Politik ein: Nationale und internationale Institutionen müssen geschaffen werden, damit Rohstoffund Umweltprobleme umfassend angegangen werden können?2 Während also überlieferte Formen des dritten Interesses davon ausgingen, daß der Mensch sich in eine ewig vorgegebene göttliche Ordnung einzufügen habe, scheint es heute aus ökologischer Sicht, als sei die in der Evolution der Natur und der Geschichte der Menschheit entstandene Ordnung des Ganzen gefährdet und teilweise zerstört. Der Mensch erscheint damit nicht nur, wie in früheren Theorien, für seine eigene Stellung in der vorgegebenen Ordnung der Welt, sondern für die Ordnung (oder Unordnung) der Welt selbst verantwortlich.

32 So hat Jonas auf das Prinzip der Verantwortung aufmerksam gemacht. H. Jonas: Das Prinzip Verantwortung. Suhrkamp, Frankfurt a. M, 1985. Binswanger hat es im Rahmen seiner Interpretation von Goethes Faust problematisiert. H. C. Binswanger: Geld und Magie. Deutung und Kritik der modernen Wirtschaft anhand von Goethes Faust. Edition Weibrecht, Stuttgart 1985. (Vgl. auch H.C. Binswanger; M. Faber und R. Manstetten: The Dilemma of Modern Man and Nature. An Exploration of the Faustian Imperative. Ecological Economics 2,1990, S. 197-223). Faber, Manstetten und Petersen haben zur Analyse dieser Fragen das Konzept des ökologischen Interesses eingeführt. M. Faber, R. Manstetten und T. Petersen: Homo Oeconomicus and Homo Politicus. Political Economy, Constitutional Interest and Ecological Interest. Kyklos, Vol. 50,1997, S. 457 -483.

Produktion, Konsum und Dienste in der Natur

235

Wer heute das dritte Interesse wahrnimmt, ist zum Handeln aufgerufen. Allerdings kann das dritte Interesse nie in der Weise praktisch werden wie das erste und das zweite Interesse. Denn während begrenzte Gemeinschaften wie auch individuelle Dispositionen überschaubare Ziele bilden können, reicht das Ganze der Welt über den Horizont menschenmöglicher Ziele hinaus. Unsere Handlungsmöglichkeiten im Angesicht des Ganzen sind sehr beschränkt. Selbst wenn wir von jetzt an alles täten, damit Rohstoffe für die nachfolgenden Generationen ausreichen und natürliche Lebensgemeinschaften geschont werden, können wir letztlich weder wissen noch steuern, wie das Ganze unserer Welt sich weiter entwickeln wird.

VI. Ausblick

Mit der Begrifflichkeit dieses Aufsatzes lassen sich zwei Strukturen erfassen, die für die Entwicklung natürlicher Lebensgemeinschaften relevant sind: Wir bezeichnen die eine als ökologische (i) und die andere als ökonomische Struktur (ii). (i) Ökologisch beziehen sich alle Vorgänge und Lebensprozesse in einer natürlichen Lebensgemeinschaft, auch Kampf, Gewalt und Leid einzelner Lebewesen, auf die Selbstorganisation dieser Gemeinschaft: Als Elemente von Fonds dienen alle Lebewesen der Entfaltung der natürlichen Lebensgemeinschaft. (ii) Ökonomisch jedoch betrachtet die menschliche Wirtschaft aufgrund ihrer Bewertungsstrukturen natürliche Lebensgemeinschaften als Aggregate von Beständen, die für ihre Entwicklung nützlich, neutral oder schädlich sind.

Gegenwärtig wird eine zunehmende Zahl von Fonds für die Bedürfnisbefriedigung von Menschen dienstbar gemacht. Dabei sind einige Fonds, die nur als Vorräte gewertet werden, gefährdet, andere, für natürliche Ökosysteme, nicht aber für gegenwärtige menschliche Bedürfnisse relevante Fonds werden durch Nebenfolgen wirtschaftlicher Entwicklungen dezimiert, ohne daß dies in den Bewertungen der Wirtschaft zum Ausdruck kommt. Möglicherweise bedroht die gegenwärtige Wirtschaft damit das Bestehen der natürlichen Lebensgemeinschaft Erde, auf die sie selbst angewiesen ist. Wenn man beide Strukturen berücksichtigt, kann man fragen: Was wäre ein guter Zustand für die Erde als natürliche Lebensgemeinschaft, innerhalb derer Menschen mit den technischen Möglichkeiten der Gegenwart wirtschaften? Die Antwort darauf fällt verschieden aus, je nachdem, welche Struktur man als Leitbild wählt. Aus streng ökologischer Perspektive könnte man von der menschlichen Wirtschaft fordern, daß sie sich in die Maße der natürlichen Lebensgemeinschaft Erde einfügt. Aus streng ökonomischer Perspektive könnte man von der menschlichen Wirtschaft unter dem Gesichtspunkt der Nachhaltigkeit nur verlangen, daß für natürliche Fonds, die die Wirtschaft zerstört, Substitutionsmöglichkeiten zu schaffen sind.

236

Malte Faber und Reiner Manstetten

Sowohl die ökologischen als auch die ökonomischen Forderungen lassen aber wichtige Aspekte außer acht. Während die ökologischen Forderungen die gegenwärtigen Maße der Natur verabsolutieren, erkennen die ökonomischem Forderungen nur diejenigen natürlichen Maße an, deren Überschreitung offenkundig schädliche Folgen für das Überleben der Menschen hat. Die biologische Evolution zeigt nun, daß die Maße der Natur flexibel sind und sich in der Zeit ändern. Wenn die Menschen durch Eingriffe die gerade gegebenen Maße der Natur umgestalten, muß dies also nichts Negatives sein. Da indes nichts dafür spricht, daß die Maße der Natur gänzlich beliebig sind, sollte ihre Umgestaltung immer eine schöpferische Antwort auf bereits Vorgefundenes sein, nicht aber rapide und maßlose Umformung nach Art der Vernichtung der Regenwäldern. Einer Menschheit, in der mehr und mehr Menschen nicht nur an sich selbst und ihren Gemeinschaften, sondern auch am Ganzen der Natur Anteil nehmen, kommt die Aufgabe zu, Spielräume zu entdecken, in denen sich als freie Antwort auf Maße der Natur Maße für ein menschengemäßes Leben entwickeln lassen.

11. Wachstum, Konsumption und industrielle Entwicklung

Economic Growth and Economic Evolution: A Modeling Perspective By Gerald Silverberg, Maastricht and Bart Verspagen, Eindhoven and Maastricht I. Introduction

Economists, consciously or unconsciously, have been dominated by the example of physics and pure mathematics, and in their attempt to establish their scientific credentials they have all too often fallen into the trap of imitating those disciplines' last paradigm, at least on surface appearances. 1 True, economists have always insisted that since they deal explicitly with the intentionality of human agents their paradigm is distinct from those of the natural sciences. But through the back door of the concepts of rationality and equilibrium the result has often been more of a Procrustean bed of determinism than even nineteenth century physics was prepared to deal with. On the other hand there is no apriori reason why economics should not borrow methods or inspiration from other sciences such as physics or biology, provided this is informed by a judicious respect for the problem at hand. And, indeed, an evolutionary perspective has been repeatedly urged upon economists as an alternative to the standard neoc1assical approach since at least Marshall (1890). What has been 1acking until recently, at least for a large portion of the economics profession, has been a body of formal theory and quantitative analysis on an explicitly evolutionary basis. This has changed since the work of Nelson and Winter in the 1960s and 1970s (summarized in Nelson and Winter 1982), which operationalized and extended many of the concepts of earlier authors. 2 In the meantime evolutionary economics has been expanding rapidly in many directions. A survey of some of these can be found in Nelson (1995). Our intention here is more modest: to survey critically formal evolutionary approaches to technical change, economic dynamics and growth to see whether a viable alternative paradigm to the mainstream, neoc1assical approach, as weIl as a new c1ass of insights, are emerging. There are essentially two reasons for believing that an evolutionary approach is applicable to economics. One is based on analogy and an appeal to the type of exCf. Mirowski (1989). Prominent among them being Schumpeter (1919,1947), Alchian (1951), Downie (1955), and Steindl (1952). 1

2

240

Gerald Silverberg and Bart Verspagen

planation common in biology: that forms of competition, innovation, variation and selection have analogues in the two subjects and thus that similar reasoning can profitably be applied in the nonbiological domain. Here most authors stress that the analogy should not be taken too seriously, so that it is useless to search for whatever corresponds exactly to genes, sexual reproduction, crossover or mutation in the economic sphere. Moreover, discredited forms of evolution such as Lamarckianism, the inheritance of acquired characteristics, may be perfectly conceivable in the socioeconomic realm. The second takes a more universalist perspective. It argues that, just as biological evolution has passed through distinct stages (prokaryotic and eukaryotic life, asexual and sexual reproduction, as well as a prebiotic stage), so modem industrial society is just a distinct stage of this single process, subject to the same underlying laws if constrained by specific features of its current realization. Thus economic evolution would be an intrinsic component of a larger evolutionary process, and not merely something accidentally amenable to certain forms of reasoning by analogy. What reasons might we have to believe this? Lotka (1924) proposed the concept of 'energy transformers' to capture the common thermodynarnic features of alllife forms. This is quite similar to what later was termed dissipative systems (Nicolis and Prigogine 1977), i.e., thermodynarnically open systems, far from equilibrium, which maintain a high state of internal organization by importing free energy from their environment, consuming it for purposes of self-repair and self-reproduction, and exporting the resulting waste as high entropy back to the environment. Thus the apparent paradox of life, already pointed out by Henry Adams (1919), of complex structure emergence in the face of the Second Law of Thermodynamics (that in thermodynamically closed systems entropy, i.e., disorder, must increase) is transcended. Life (or at least carbon-based life as we know it until the industrial revolution) can be seen as a sea of such 'converters' living off the waterfall of free energy flowing between the sun and the low-value infrared radiation reflected by the earth into deep space. From this perspective human civilization is distinguished from earlier forms of biological evolution by the fact that the information carriers of the selforganizing structures, rather than being encoded in a form like DNA internal to the organism, now have attained an exosomatic 3 form. Information is encoded both in an intangible sphere existing between human minds known as culture, and a more tangible sphere consisting of writing and other forms of representation, and cultural and in3 Lotka (1945, p. 188), reprinted in the Edition of this volume. There is of course another level of endosomatic information processing based on the neuronal system of animals, which Edelman (1987) hypothesizes to function according to neuronal group selection. This allows organisms to learn from experience during their lifetimes, i.e., is a type of acquired characteristic with c1ear survival value. However, until the advent of language and culture, which permit intergenerational transmission, the neuronal system in itself cannot serve as a basis for long-term evolution but must still rely on the DNA substrate to generate further development.

Economic Growth and Economic Evolution: A Modeling Perspective

241

dustrial artifacts. But the fact remains that, within the constraints imposed by the various physical substrates of information storage and transmission, evolution still must proceed along the basic Darwinian lines of (random) variation and selection. The complication associated with modem socioeconomic evolution is that we now have to deal with a mosaic of simultaneous biological (DNA), culturally tacit (existing in the pyschomotoric systems of individuals and groups) and culturally codifiable (existing in exosomatic artifacts) information transmission and variation mechanisms, the latter category being increasing machine based. The task of an evolutionary theory of economic growth, then, might be to formulate a population dynamics of this multilevel evolutionary process, taking account both of the human components and of the increasingly sophisticated forms of artifactual energy and information transformers collectively referred to by economists in a rather undifferentiated manner as capital, including the human variety.4 But even if we agree that this more fundamental perspective on economics as an integral part of the evolutionary process has a certain validity, the 'genetic code' of the various non-DNA based levels still remains to be discovered. Even in biology, in fact, where a firm understanding of the molecular basis of genetics has emerged since the 1950s, many extreme simplifications of a phenomenological sort still have to be made in formal models of population genetics and evolution. Thus from a practical point of view it may not make much difference whether we apply evolutionary thinking to economics as an exercise in restrained analogizing or regard the economics of human societies as a specific stage in a universal evolutionary process, until such time as canonical descriptions of the 'genetic deep structure' of socioindustrial processes can be agreed upon. 5 For the time being we will have to make do with more or less plausible and heroic assumptions about the entities and variation and transmission mechanisms implicated in economic evolution, and judge them on the basis of a limited range of micro and macroeconomic 'stylized facts. ' 11. Behavioral foundations and formal evolutionary modeling in the economics of growth and Schumpeterian competition: selection

Formalization of evolutionary thinking in biology began with Fisher (1930), who introduced what are now called replicator equationi to capture Darwin's notion of the survival of the fittest. If we consider a population to be composed of n 4 This is the theme of Baulding (1978) and Baulding (1981), without the author proceeding very far down the road of formal modeling, however. 5 One difference, however, is the central importance placed upon energetic and environmental constraints associated with the latter perspective. These, for better or worse, will not play any explicit role in the following discussion. 6 See Sigmund (1986) and Hajbauer and Sigmund (1988, pp. 145 - 6) for a discussion of their basic form and various applications.

16 Selbstorganisation, Bd. 9

242

Gerald Silverberg and Bart Verspagen

distinct competing 'species' with associated, possibly frequency-dependent fitnesses fi(x), where x is the vector of relative frequencies of the species (Xl, X2, ... , x n ), then their evolution might be described by the following equations: Xi

= Xi (J;(x) - ](x)), j =

I, n, with](x)

" = Lxji(x). i=l

The intuition is simple: species with above-average fitness will expand in relative importance, those with below-average fitness will contract, while the average fitness J(x) in turn changes with the relative population weights. If the fitness functions fi are simple constants, then it can be shown that the species with the highest fitness will displace all the others and that average fitness will increase monotonically until uniformity is achieved according to

d]

-dt = var(j) > - 0,

where var(f) is the frequency-weighted variance of population fitness. Thus average fitness is dynarnically maxirnized by the evolutionary process (mathematically, it is referred to as a Lyapunov function). This is known as Fisher's Fundamental Theorem of Natural Selection, but it should be noted that it is only valid for constant fitness functions. In the event of frequency-dependent selection, where fitness depends on population shares, including a species' own share, and increasing and decreasing 'returns' may intermingle, multiple equilibria are possible and no quantity is apriori necessarily being maxirnized (see Ebeling and Feistel 1982 for an extensive discussion of maximal princip1es). The replicator equation on1y describes the relative share dynarnics and thus takes place on the unit simplex Sn (where

LXi n

=

1), an n - 1 dimensional space. To derive the absolute populations it is

i=l

necessary to introduce an additional equation for the total population level. An alternative description due to Lotka and Volterra is based on growth equations for the population levels Yi (with the frequently used log-linear version on the right hand side): n

Yi

= g;(y) = riYi + L

aijYiYj .

j=!

A theorem due to Hofbauer asserts that Lotka-Volterra and replicator systems are equivalent (see Hofbauer and Sigmund 1988, p. 135). Most evolutionary economics models to a considerable extent consist of giving the functions fi or gi economic meaning in terms of market competition or differential profit rate driven selection mechanisms. The former usually defines a variable representing product competitiveness, which may be a combination of price, qua1ity, deli ver delay, advertising and other variables (for examples see Silverberg,

Economic Growth and Economic Evolution: A Modeling Perspective

243

Dosi and Orsenigo 1988 or Kwasnicki and Kwasnicka 1992). The latter assurnes that product quality and price are homogeneous between producers (or subject to fast equilibrating dynamics compared to the evolutionary processes of interest) but unit costs of production differ, so that firms realize differential profit rates. If their growth rates are related to profits, as seems reasonable, then their market shares or production levels (corresponding to Xi and Yi in the biological models) can be described by replicator or Lotka-Volterra equations, respectively. All of the models we will discuss in this chapter focus primarilyon technical change as the central driving element of the evolutionary processes with which they are concemed. They differ considerably, however, in their representations of technology and how it interfaces with firm strategies and the market. A major distinguishing characteristic is whether technology is capital embodied or disembodied, i.e., whether changes in technological performance are primarily (though not necessarily exclusively) related to investment in new equipment or not. In the former case technical change is highly constrained by investment in physical capital (as weIl as possible complementary factors); in the latter case it is not and can be almost costless. Yet even on the assumption of embodied technical change, there can be important differences in formal treatments. The classical approach to embodied technical change uses the vintage concept going back to Salter (1960), Solow (1960) and Kaldor and Mirrlees (1962), as in essence do national statistical offices with the perpetual inventory approach to the measurement of the capital stock. One assurnes that at any given time there is a single best-practice technology in which investment is made. The capital stock consists then of the vintages of past investment going back in time until the scrapping margin, i.e., that oldest vintage on the verge of being discarded due to technological obsolescence and/or wear and tear. This defines a technological lifetime of capital equipment. The aggregate capital stock is a sum or integral (in the discrete and continuous time cases, respectively) over the vintages during this lifetime, and average technical coefficients (labour productivity, capitaVoutput ratios) are the corresponding vintage-weighted sum or integrals. Vintage capital stocks may be easy to compute from data, but they have two disadvantages wh ich detract from their realism and tractability. First is the assumption of a single best-practice technology, which rules out multiple competing technologies at the investment frontier, a topic dear to the hearts of most evolutionary economists and students of innovation diffusion. This can be overcome to some extent by assuming multiple, parallel vintage structures of distinct technologies, as in Silverberg, Dosi and Orsenigo (1988). The second is that, although particularly discrete-time vintage capital stocks can be easily calculated from data, when they are embedded in a dynamic framework with endogenous scrapping they can lead to awkward mathematical complications. Delay difference or differential equations and even age-structured population dynamics become involved whose mathematical properties, except under extremely simple assumptions, are still poorly understood compared to systems of ordinary difference or differential equations. 16*

244

Gerald Silverberg and Bart Verspagen

An alternative implicitly exploited in the models in Metcalfe (1988), Iwai (1984a,b), Henkin and Polterovich (1991), Silverberg and Lehnert (1993, 1994) and Silverberg and Verspagen (1994a,b, 1995, 1996), might be termed a quasi-vintage framework. Capital 'vintages' are labelled by their type instead of their date of acquisition, so that the service age no longer plays any role, only the technical characteristics (although decay by type independently of age is still possible). Thus several qualitatively distinct technologies can diffuse simultaneously into and out of the capital stock. Furthermore, only ordinary differential (or difference) equations are needed to handle the quasi-vintage structure, a considerable mathematical simplification. This gain in realism and tractability is compensated for by an inability to track the vintages by chronological age, however. But quasi-vintages lend themselves more naturally to the kind of multiple replacement dynamics investigated by Marchetti and Nakicenovic (1979), Nakicenovic (1987), and Grübler (1990). And one view on evolution holds that its essence resides exactly in the sequence of such replacements (Montroll 1978), whether related to technologies, behavioral patterns, or social structures. The disembodied side of technical change (disembodied at least in the sense that it is not representable by tangible equipment) is still even more of a black box than the embodied side. It can reside in (tacit) human skills or organizational and societal capabilities, but little is known of a very fundamental nature about how it is accumulated, stored, and refreshed. Learning by doing (Arrow 1962) is a standard phenomenological approach finding expression in power laws for the relationship between productivity and cumulative investment or production. Recently, it has also become central to much of the neocJassical endogenous growth literature. The effects of technological spillovers between competitors have also received considerable attention. One possible way of combining learning by doing and spillovers in a dynamic framework is Silverberg, Dosi and Orsenigo (1988), but nothing along these lines has been attempted in an evolutionary growth model, to our knowledge. The net effect of both of these phenomena is usually one form or another of increasing returns, such as increasing returns to adoption or agglomeration, network externalities, etc. (see Arthur 1988, 1994). Within the replicator framework this means that the fitness functions.fi (x) truly depend on the frequencies x, resulting in multiple equilibria, threshold phenomena, lockin, etc.

IH. Behavioral foundations and formal evolutionary modeling in the economics of growth and Schumpeterian competition: innovation and learning

Evolution would soon come to an end were it not for the continual creation of new variety on which selection (as weIl as drift) can act. This is especially crucial for growth models, where the ongoing nature of the technical change process is at the fore, although other aspects may weIl converge to stable stationary patterns.

Economic Growth and Economic Evolution: A Modeling Perspective

245

Thus considerable attention has to be devoted to how innovation is realized by firms, individually and collectively. In principle most scholars agree that innovation should be modelled stochastically, to reflect the uncertainty in the link between effort and outcome. The details on how this is done may very considerably, however. The classical formulation is due to Nelson and Winter, described in more detail later in this chapter. Nelson and Winter lump technologies and behavioral rules / strategies together under the concept of routines. Since technical change is disembodied in their model, this equivalence is perhaps admissible, since a change in technique for a firm's entire capital stock requires only the expenditure necessary to undertake innovative or imitative search, not investment or training per se. While there is technological learning at the economy-wide level, firms themselves are completely unintelligent, since they operate according to given search and investment rules that cannot be modified as a result of experience. Instead, the firm is subject to selection as a consequence of the technologies it has stumbled upon. A somewhat peculiar aspect is the very literal application of Simon's notion of satisficing to mean that firms only undertake innovative search if their performance is unsatisfactory. An interesting elaboration of search activity and entry in the original Nelson and Winter model is presented in Winter (1984),7 where firms are broken down into two types: primarily innovative or imitative. Further, the notion of technological regime is introduced (going back to the early or later Schumpeter) depending on whether the source of technical progress is external to the firm (e.g., from publicly available scientific knowledge bases) or from firms' own accumulated technological capabilities. These regimes are referred to as the entrepreneurial and the routinized and are exogenously imposed by means of specific parameter settings. Although firms can be of two types, neither type is capable of learning. Instead, the market is shown to select between the two depending on the technological regime. Entry of new firms also assurnes a greater importance than the mere supporting role to which it is relegated in most evolutionary models, being stimulated in the entrepreneurial regime. While learning based on selection / mutation dynamics has begun to play a major role in the evolutionary games literature (e.g., Kandori, Mailath and Rob 1993, Young 1993), very little has found entrance into evolutionary models of a general economic orientation. A first stab at changing this state of affairs for the theory of growth was undertaken by Silverberg and Verspagen (1994a,b, 1995, 1996), drawing on the evolution strategy literature (Schwefel 1995). Here mutations are local around the current strategy, and the probability of imitation is an increasing function of dissatisfaction with current performance and the size of the imitated firm. In contrast to the Nelson and Winter tradition, strategies and technologies are trea7 The discussion of the model is couched in terms of industry dynamics, not economywide growth, although there is nothing in the basic assumptions to preclude analysis of the latter.

246

Gerald Silverberg and Bart Verspagen

ted separately. The leaming algorithm applies only to the firms' R&D expenditure strategies; their technological performance then follows in a somewhat complex manner from these decisions and market feedbacks. In this way it is possible to implement simple boundedly rational decision mies gleaned from actual business practice, such as targeted R&D / total investment or R&D / sales ratios, or a combination of the two. Genetic algorithms and classifier systems have also been gaining favour in recent years as mechanisms for operationalizing leaming with artificial agents. 8 Aithough these appeal even more directly to a discrete genetic mechanism of inheritance a la biological DNA than social scientists may feel comfortable with, they mayaiso be employed agnostically simply as algorithmic tools to allow learning to happen, if not as models of how learning actually happens. The goal of an artificial economics modeling philosophy as espoused by Lane (1993) is to put together a basic web of economic interactions between artificial agents endowed with a tabula rasa knowledge of their environment, but fairly sophisticated abilities to leam, and see what sorts of markets, institutions and technologies develop, with the modeller prejudicing the developmental possibilities as little as possible. Something along these lines has already been implemented to a certain extent in the 'sugarscape' model of Epstein and AxteIl (1996), paralleling the artificial worlds movement in the biology domain (cf. Langton 1989 and Langton, Taylor, Farmer and Rasmussen 1992). While this direction of research has generated much excitement, it has not avoided the fate of many overhyped scientific trends in the form of a sceptical backlash (see Horgan 1995). Be that as it may, in the following we will limit ourselves to those models rooted in the economics tradition that promise to address issues of long-standing empirical interest. IV. An overview of evolutionary growth models

In this section, we will discuss the similarities and differences between several growth models that are based upon some or all of the evolutionary principles we have outlined above. The guidelines for our discussion of these different approaches will be four different points. The first three of these points correspond to the three basic principles of the evolutionary process that we have discussed: heterogeneity of the population (usually firms, or aiternatively countries, or techniques), the mechanism for generating noveity in the population (mutation, usually in the form of technical innovations), and, finally, selection (related to the economic environment in which the population operates). The last point is the economic interpretation, or outcomes of the models. 8 See Booker, Goldberg and Holland (1989), and Goldberg (1989) for basic theory and methodology and Holland and Miller (1991), Kwasnicki and Kwasnicka (1992) and Lane (1993) for some economic applications.

Economic Growth and Economic Evolution: A Modeling Perspective

247

1. The Nelson and Winter model

Nelson and Winter (1982, Part IV) can be regarded as the pioneering effort in the field of evolutionary growth models. 9 This model (the NWM for short) will be used as a benchmark in the rest of the paper. In the NWM, heterogeneity is defined in terms of firms. Firms use production techniques which are characterized by fixed labour and capital coefficients (aL and aK, respectively). Output is homogeneous, so that we have a pure model of process innovation. 1O Thus, firms produce using a Leontief production function, which does not allow for substitution between labour and capital. Over time, technical change may be biased (Le., changes in aL and aK are not proportional), so that a phenomenon that resembles substitution between labour and capital may resuIt (this is a key result in the outcomes of the model, so that we will come back to this below). The generation of noveIty occurs as a resuIt of search activities by firms. Search is undertaken in a (given and finite) pool of existing techniques (i.e., combinations of aK and ad. At any point in time, some of the techniques available in the pool are known, while others remain to be found in the future. Search activities are determined by satisficing behaviour, Le., firms only engage in search if their rate of return falls below an arbitrarily set value of 16 %. The mutation or search process may take two different forms: local search or imitation. In the first case, firms search for new, yet undiscovered techniques. Each undiscovered technique has a probability of being discovered which linearly declines with a suitably defined technological distance from the current technology (hence the term loeal search). By varying the skewness of this distance function either labour or capital bias can be introduced into the search process. In the second search process, imitation, a firm searches for techniques currently employed by other firms but not yet used in its own production process. Thus, this aspect of the search process does not generate novelty in the strict, aggregate sense. Rather, it produces novelty at the microeconomic level. The probability of success in imitation is proportional to the share in output of each technique. Given that a firm engages in search (Le., that its rate of return is smaller than 16 %), it can only engage in one type of search. Which type of search is being undertaken is a random event, with a fixed probability for each type. If the search process is successful, i.e., if the firm finds a new technique, it adopts this new technique only if the expected rate of return is higher than its present rate of return. Expectations are subject to error with regard to the true values of the capital and labour coefficients.

9 The discussion in Nelson and Winter (1982) largely draws upon an earlier paper by Nelson et al. (1976). 10 Gerybadze (1982) has extended the NWM to the case of product innovation.

248

Gerald Silverberg and Bart Verspagen

An additional source of novelty in the economy is entry by firms which were not engaged in production previously. This is conceptualized by 'empty' firms, with a capital stock equal to zero, but which are active in the search process. If such an 'empty' firm discovers a production technique which promises a rate of return over 16 %, there is a 25 % probability that it actually enters the market. If entry occurs, a value for its capital stock is drawn randomly. The selection process is thus largely driven by the rate of return on techniques. This rate of return depends on the (real) wage rate, which is a function of exogenous labour supply and endogenous labour demand. The latter is a function of output, which, in its turn, depends on the capital stocks and the techniques currently employed. Net investment in capital is equal to firm profits (minus a fixed fraction that it must pay as dividends) minus depreciation (at a fixed rate). Insufficient profits lead to negative investment, i.e., firms which make losses see their capital stock shrink. Thus, se1ection takes place simultaneously on firms and production techniques, where one may think as firms as the phenotype, and techniques as the genotype. Like most models we will discuss here, the NWM has to be simulated on a computer to obtain an impression of its implications. The model, which is calibrated for the case of the Solow (1957) data on total factor productivity for the Uni ted States in the first half ofthe century, yields an aggregate time path for the variables capital, labour input, output (GDP), and wages (or labour share in output). The analysis in Nelson and Winter (1982) is confined to 16 runs, in which four main parameters (the localness of innovation, the emphasis on imitation search, dividends, and the labour saving bias of local search) were varied between a high and a low state. Nelson and Winter primarily address the question whether these time series correspond in a broad qualitative sense to the ones actually observed by Solow. Given the affirmative ans wer to this question, they argue at length that "it is not reasonable to dismiss an evolutionary theory on the grounds that it fails to provide a coherent explanation of ... macro phenomena" (p. 226). They emphasize in particular that an evolutionary microfoundation dispenses with the conceptually troublesome distinction between movements along and shifts of a neoc1assical aggregate production function. Looking below the surface of the broad qualitative resemblance between the simulation and the actual empirical data, Neison and Winter arrive at some interesting conc1usions with regard to the effects of variations in their four parameters. They find that decreasing the localness of search leads to higher values of technical change, a higher capital-Iabour ratio and lower market concentration. Search biased towards imitation of other firms (rather than local search for new techniques) leads to a higher capital-Iabour ratio, and lower concentration. Higher capital costs (dividends) lead to lower technical change and a lower capital-labour ratio. Finally, labour saving technical change leads to a higher capital-Iabour ratio. All of these effects (which were established by regressions on the simulation results) have

Economic Growth and Economic Evolution: A Modeling Perspective

249

some plausible explanation from the point of view of the evolutionary theory provided by Nelson and Winter. Thus, the NWM seems to provide two sorts of outcomes. First, there is the 'mimimalistic' point of view that an evolutionary model may explain the macro facts about economic growth on the basis of a 'plausible' microeconomic theory (i.e., a theory which can account for the observed heterogeneity between firms at the micro level).ll While this a useful result, there are at least two reasons why one should not be satisfied with it as the sole basis for further development of evolutionary growth models. First, a more 'positive approach' to scientific development would require an evolutionary theory to provide fresh results of its own and not only benchmark itself against neoclassical results, even if the latter have dominated economic dis course until now. Second, the empirical validation of the NWM is highly specific to a single dataset, i.e., the one used by Solow. After the events of the 1970s (such as the productivity slowdown, or productivity paradox), the stylized facts about economic growth that were predominant in the period when Nelson and Winter formulated their model are no longer uncontested. The second type of result of the NWM, i.e., the relations between the four main parameters in the model and the macroeconomic predictions, can be seen as a first attempt at a more 'positive' approach. But perhaps more important than these results, which only playa minor role in the exposition, is the paradigmatic function of the model as such. As we will see below, the NWM has set the stage for a number of more elaborate evolutionary models capable of analyzing economic growth as an evolutionary process, using much more refined assumptions and model setups, and arriving at conclusions that go beyond broad similarity to the 'stylized facts' developed in the 1950s. Some of the ways in which these newer models refine the NWM concem the endogenization of the mutation and imitation process, the extension of the model to one in which firms in different countries interact, or in which there are input-output relations between firms.

2. Evolutionary 'macro models'

At a higher level of aggregation than the NWM are evolutionary models without an explicit firm-level microfoundation. In this section we will present Conlisk (1989) (CON), Metcalfe (1988) (MET), Verspagen (1993) (VER) and Silverberg and Lehnert (1993, 1994) (SL) as examples of this genre. The first two of these models can be solved analytically, whereas the last two follow Nelson and Winter in using computer simulations for analysis. The analyti11 See also Nelson (1995) for an extensive argument along this line. The fact that growth accounting with an aggregate production function can lead to a deceptively high goodness of fit even with a microeconomy of heterogeneous firms inconsistent with aggregation or even absurd underlying production functions has been pointed out repeatedly in the literature.

250

Gerald Silverberg and Bart Verspagen

cally solvable models necessarily have to make extensive simplifications. In the case of the Conlisk model, these simplifications go so far that it is arguable whether or not the model is still a truly evolutionary one. As will be shown below, however, some of the most important assumptions and results of evolutionary theory remain in the Conlisk model, so that we have no hesitation to discuss it here alongside other models. The abstractions necessary to yield analytical solutions should not be regarded in a dogmatic way leading to the exclusion of these models from the evolutionary category. It is in the interests of the discipline to explore the boundaries of what is analytically possible while at the same time exploring more complex models by means of simulation techniques. The assumptions on the role of heterogeneity in the CON, MET and SL models are quite similar. In all three models, production techniques are the most basic entities. These techniques differ with respect to their technological levels, for which labour productivity is the sole indicator. This is the main source of the heterogeneity on which selection operates. In the VER model, heterogeneity occurs between sectors within countries, Le., the sector is the smallest unit of analysis. Sectors differ with regard to the product they produce, which might have different income elasticities in different countries, and also with regard to labour productivity, as an indicator for technology. The way in which novelty is generated varies the most in the models in this group. The simplest approach is found in the MET model, where novelty is assumed to be absent. To keep the model tractable, the analysis is confined to the selection process operating upon a given set of techniques. Only a little more advanced is the assumption in VER, where technical progress is purely deterministic, and specified in the form of a 'Kaldor-Verdoorn' type of process, which stresses learning-by-doing and dynamic scale economies. Basically, a higher output growth rate leads to faster productivity growth, although the 'returns' to output growth in this process are diminishing. More squarely in the evolutionary tradition are the novelty generating processes in CON and SL. In these models, a stochastic mechanism is at work in which new techniques are generated from a random distribution. In CON, this is a normal distribution of labour productivity increments with a positive mean, whereas in the SL model, innovations arrive according to a time-homogeneous or inhomogeneous Poisson process. In the latter case, whenever an innovation occurs, the new production technique is assigned a labour productivity equal to I + a times the prevailing best practice technique, where a is an exogenously fixed constant. Selection is crucial in all models in this group. In this case, the simplest representation is provided by the CON model. Here, there is a ranking of techniques according to their productivities. At any point in time, the search process is based upon the first n techniques in this ranking: the mean of the distribution from which new techniques are drawn is a weighted mean of these first n techniques. This means that "[s]ince new plant technology will build on the innovative plants from

Economic Growth and Economic Evolution: A Modeling Perspective

251

the past rather than on the average plants of the past, productivity will grow. In the absence of randomness, all plants would be alike; hence there would be no innovative plants to induce growth. Thus, randomness is essentiaL" (Conlisk 1989, p.794). In the VER model, the selection mechanism is represented by a replicator equation in which sectors from different countries compete with each other on the basis of production costs (profits are assumed to be zero). Production costs are a function of the technological level of the sector, the wage rate, and the exchange rate. Wages depend upon productivity growth and the unemployment rate, and exchange rates adjust slowly to achieve purchasing power parity between nations in the long run. There is no explicit economic basis for the replicator equations other than a short reference to the idea that consumers (in the absence of quality differences between producers) prefer those products with the lowest price, and that adjustment to these long-run preferences is slow. At the aggregate level, selection in the VER model is a function of sectoral shares in total consumption, which evolve according to different real-income elasticities in different countries. Finally, the selection mechanisms in the SL and MET models result from explicit economic theorizing. In both models, profits are the driving force for selection. Confronted with economy-wide wage and output price levels, techniques with different levels of labour productivity will yie1d different profit rates. The assumption is that profits are reinvested in the same technique,12 so that the share in productive capacity of techniques with above- average productivity increases. In the SL model, real wages are a function of the unemployment rate, and effective demand does not playa role (production is always equal to productive capacity). This leads to a model which is essentially a multi-technique version of Goodwin (1967). This model, in turn, is the standard economic example of a predatorprey model, and yields the same outcome as the original Lotka-Volterra model. In the MET model, nominal wages are given, while the price of output is found by confronting demand and supply. The demand curve is given exogenously, whereas the supply curve is found by aggregating over the different production techniques, which are assumed to supply all their output at the cost level deterrnined by the wage rate and labour productivity. The price of output is found at the intersection of the demand and supply schedules. All techniques with cost levels higher than the current output price are assumed to be scrapped from the market. New techniques enter at the lower end of the supply schedule, and thus achieve high profit rates. Despite the similarities in model setup in this broad group of 'aggregate' evolutionary models, there is not much similarity between the outcomes of the different 12 In fact, in the SL model, a certain fraction of profits is redistributed towards the more efficient techniques. Hence, more advanced techniques attract a more than proportional share of total profits. This is, however, not essential to the working of the selection process, although it tends to speed up selection.

252

Gerald Silverberg and Bart Verspagen

models. Under the assumption that technology advances are indeed random (see above), Conlisk shows that the growth rate of the aggregate CON economy is a function of three variables: the standard error of the productivity distribution of new plants (which can be interpreted as the average innovation size), the savings rate (which is defined somewhat unconventionally), and the speed of diffusion of new knowledge. Moreover, by changing some of the assumptions about the specification of technical change, the CON model emulates three standard specifications of technical change found in growth models in the neoclassical tradition. In this case, the first and third factor no longer have an impact on growth (they are specific to the 'evolutionary' technical change specification of the model). However, the impact of the savings rate can be compared between the various model setups. Conlisk finds that using purely exogenous technical change (as in the Solow model), or learning by doing specifications as in the model by Arrow (1962) or Romer (1986), the savings rate does not have an impact upon (long-run) economic growth. This result, which is in fact also well known from standard neoclassical growth theory, marks an important difference between these models and his more evolutionarily inspired specification. The MET model does not aim at deriving such specific results. Instead, it provi des an exposition of the workings of a possible selection mechanism on the growth pattern of an open economy. Due to the many simplifying assumptions that are necessary to amve at an analytical solution (such as the constancy of countries' shares in world demand, and fixed nominal wages and exchange rates), it is not easy to link the results to actual empirical trends. Nevertheless, the model clearly shows how a country's share in world demand and its technologicallevel shape the interaction between the trade balance and the growth rate of the economy. The long-run outcome of these forces is that the share in world production of the technologically most advanced country tends to one, although production in the more backward country may still be positive. Moreover, applying comparative statics, the model predicts the effects of events such as currency devaluations or protective tariffs. The VER model can be seen as an attempt to analyze the same issues as in the MET model, but here the emphasis is more on the long-run dynamics of technical change, wages and the exchange rate, rather than on the adjustment process. Verspagen uses simulations to analyze the effects of differences in technological competence between countries, or differences in demand patterns between countries. Because the model is multi-sectoral, endogenous specialization patterns arise, and countries' technical performances depend upon their specialization. These differences in technological competitiveness in turn have an effect upon unemployment and the wage rate, which again feeds back upon competitiveness. In essence, this model highlights the interaction between specialization and growth, and the outcomes show that in a world in which there are differences between technological potentials of sectors and countries, growth rate differentials between countries may be persistent, although not exactly predictable (due to the nonlinear nature of the model).

Economic Growth and Economic Evolution: A Modeling Perspective

253

The SL model predicts a complex pattern for the rate of technical change in which long-run fluctuations of a l/f"'-noise character dominate, although the stochastic input is simple white (Poissonian) noise. The time series for technical change and growth generated by their simulations are analyzed by means of spectral analysis, in order to decompose them into harmonic oscillations of various frequencies. The result is a down ward sloping linear curve in a plot of the log of spectral density vs. the log of the frequency of the oscillations, known as l/f"'-noise, and is interpreted by Silverberg and Lehnert to be a form of long or Kondratiev waves which are neither strictly periodic nor a random walk. In fact, they show that these series have characteristics of deterministic chaos, allowing more precise short-term prediction than a random series would warrant. They term this finding 'evolutionary chaos'. Moreover, technological replacement shows the same robust pattern of successive logistic diffusion into and out of the economy as has been repeatedly revealed in the empiricalliterature.

3. Evolutionary 'micro models': in thefootsteps ofthe NWM

In this section we will discuss models by Chiaromonte and Dosi (1993) (CD), Dosi et al. (1994) (DEA) and Silverberg and Verspagen (1994a, b, 1995, 1996) (SV). All three models follow the NWM in assuming that technological differences are the prime source of heterogeneity between firms. They also follow the NWM in adopting process innovation as the sole form of technological progress, and thus use the labour and capital coefficients to characterize technology. SV adopt the formalism for dealing with capital-embodied technical change (which we termed the quasi-vintage structure above) from SL and assurne that each firm may apply a number of production technologies at any point in time. In the CD and DEA models, a firm is characterized by a single labour coefficient. DEA explicitly take an open economy perspective with firms operating in different sectors and different countries (characterized primarily by different labour markets and exchange rates). The firms are located in ahorne country, and when they serve a market in a different country, the flow of goods is counted as exports. All three models potentially allow for a second source of heterogeneity in the form of behavioral differences between firms. In SV, these behavioral differences are the R&D strategies, whereas in DEA and CD, the firm strategies mayaiso extend to decisions on price setting (markups), although no systematic study of the effects of heterogeneity or of selection on these strategies is undertaken. In CD, the pricing strategy is based upon demand expectations, which mayaiso vary between firms. The firms in these models are thus characterized by their technological capabilities (in the form of input coefficients), and by economic strategies, which determines how much resources they invest in the search for new technologies, or how they price their products.

254

Gerald Silverberg and Bart Verspagen

In the NWM, local search and imitation were the two means by which firms could generate novelty. This is where the newer models discussed here start expanding on the original NWM approach. In CD, the search process takes place in a complicated two-dimensional space. One dimension in this space corresponds to 'typologies,' or 'technological paradigms,' and is formally defined as the labour coefficient of producing a unit of productive capacity of a certain type. Within each of these typologies, the labour coefficient for producing a homogeneous consumption good by means of the unit of productive capacity defines the other dimension in the two dimensional space. In CD, firms either produce 'machines' (each of which is characterized by a set of coordinates in the two dimensional plane), or they produce consumption goods (i.e., they use machines as inputs). The evolution of the plane itself, as well as the specific trajectories realized by individual firms in the plane, is a complex stochastic process depending on a number of assumptions with regard to the cumulativeness of technology as well as the realized history of the model. In DEA, the search space is more similar to the one in the NWM, with the probability of an innovation depending on R&D employment, and the productivity improvement in the event of an innovation also being a random event. In CD, the innovation process differs between the two sectors in the economy. In the first sector, which produces capital goods, the success of innovation is deterrnined by a similar stochastic procedure to DEA, i.e., success depends on the number of R&D workers. When successful, the new capital good's productivity is drawn randomly. In the consumption goods sector, firms possess a skilllevel for each available capital good type. This skill level evolves by a leaming process, which has both public and private features (i.e., a firm using a certain type of capital good improves its own as well as the public1y available skill of working with this machine). Firms are not able to predict their skill level precisely but rather under or overestimate this level by some systematic value. Actuallabour productivity is a function of the capital good's characteristics and the firm's skill level. Firms in the consumption goods sector maximize a function involving labour productivity, prices, and the order backlog, and thereby choose which capital good they want to use. In SV firms mayaiso invest in R&D, and the probability of innovation depends on their R&D effort. When an innovation is made, it is introduced as in SL. Firms that are behind the economy-wide best practice frontier have a higher probability of making an innovation (i.e., adopting the next technology, which brings them c10ser to the fron tier but does not advance the latter itself) than would be the case if they were currently on the frontier. This reflects the diffusion of technological knowledge between firms, i.e., technological spillovers. However, they still assurne that this form of technological catchup requires R&D investment of the backward firms and is thus not costless. The main difference between SV on the one hand and DEA and CD on the other hand is that the former allows for the evolution of the R&D strategies themselves, in other words, behavioral leaming. In CD and DEA, a firm's R&D and price strategies remain fixed for its entire lifetime. In SV,

Economic Growth and Economic Evolution: A Modeling Perspective

255

there are actually selection, mutation and imitation processes with regard to these strategies, so that evolution takes place at two levels. It is assumed that firms have a (small) probability of changing their R&D strategies every period (mutation of strategies). If this occurs, the firm adds a random increment to its present strategy, where the increment is drawn from a normal distribution with mean zero. Thus, mutation of strategies is a local process, with a low probability for the firm to make large jumps in parameter space. There is also a variable probability that a firm imitates the R&D strategy of another firm. This probability decreases with a measure offirm success, the firm's growth rate, so that laggard firms are more likely to imitate than successful ones (to reflect satisficing behaviour). Which firm is imitated is also a random process, with the probability of being imitated equal to market share. In DEA, the probability of innovation depends on the number of past and present R&D workers. A successful innovation increases firm-wide productivity by a random step. Selection takes place according to a replicator process in all three models. In SV, the process is essentially the same as in SL (discussed above). Exit of firms occurs whenever their market share falls below a threshold, and a new firm with random characteristics then enters in its place. In CD and DEA, the selection process is represented by a replicator equation which is not specifically founded in any theory. Prices and exchange rates (in DEA) are the variables determining competitiveness in these models. Thus, technological competences (labour productivity), aggregate characteristics of the economy such as wages, as weIl as other behavioral variables (pricing rules) enter directly into competitiveness. In CD, competitiveness of a firm also depends on the backlog of orders (i.e., unfulfilled demand in the previous period). The market shares following from the replicator equation are translated into actual production levels by considering the size of the aggregate market, which is endogenous to the model. The total size of the market is the minimum of aggregate demand and supply.13 Aggregate demand is found from the total wage bill (the consumer goods sector in DEA and CD), or total firm demand for machines (the capital good sector in CD). SV provide a relatively systematic, although by no means complete, search of the parameter space of their model. They arrive at three different types of results. First, they find that for sufficiently high values of technological opportunity (which links the R&D to capital ratio of the firm to the probability of innovative success), firms tend to converge after a considerable adjustment period to a common R&D strategy.14 In this long-run evolutionary equilibrium of the system, R&D strategies converge to well-defined values (around which the system fluctuates randomly) quite comparable to values observed in high-tech industries in advanced countries. 13 Neither CD or DEA discuss very extensively what happens when supply falls short of demand. 14 This should be compared with the analogous results from neoclassical endogenous growth theory such as Aghion and Howitt (1992).

256

Gerald Silverberg and Bart Verspagen

r'

The growth rate of the economy in this state is characterized by the same 1/ noise pattern found in SL. Second, SV find that after initializing the economy with zero R&D strategies, convergence to the equilibrium strategy takes the economy through different growth phases. These phases are characterized by different R&D levels, growth rates, and market concentration patterns in the following sequence. The economy starts out in a low R&D, low technical progress, and near monopoly regime (with the monopoly firm being replaced by a different firm at more or less regular intervals). After passing through astate of intermediate values for all variables, the long-run R&D equilibrium is characterized by low concentration (a nearly even size distribution of firms) and a high rate of technical change. Finally, SV find that by varying such parameters as technological opportunity, R&D spillovers and mutation and imitation rates of the R&D strategies, there are systematic variations in the level of technical progress and market concentration consistent with economic intuition. The discussion in DEA and CD is less systematic, and does not arrive at c1earcut relations between the parameters values and the outcomes of the model. In fact, CD do not provide results for more than one particular run, and DEA provide very little information about alternative runs. Neither of the two papers provides systematic summary statistics for multiple runs, whether for different parameter sets or identical parameter sets with different random seeds. 15 Aside from the demonstration effect of seeing how a particular microeconomic specification generates aggregate outcomes, the main results the authors emphasize are aggregate time series properties (unit roots) of the kind extensively discussed in the 'real business cyc1e' literature. Thus, it seems as though the evolutionary model has evolved (from NWM to CD) as has the 'adversary mainstream' model (from the Solow model to the real business cyc1es and endogenous growth models), but nothing else has changed except the benchmark of somewhat inconc1usive comparison. While DEA put some emphasis on this property of their outcomes, their main interest relates to growth rate differentials between countries. They find that for the 55 countries in the particular runs for which results are presented, there is a significant tendency for GDP per capita levels to diverge. This is tested by using a linear functional form that relates the growth rates of GDP per capita to the initial level of this variable. A significantly positive slope is found. Applying a 'post-selection bias' and testing only for those countries which at the end of the period turn out to be developed, they obtain a negative coefficient (pointing to convergence), which is, however, not statistically significant. 16 Given the available empirical evi15 DEA state that "the results that we shall present appear to be robust to rather wide parameter variations" (p. 235), without presenting statistics to support this statement, or specifying how 'wide' the variations actually were. CD, discussing one particular outcome, state that it "holds across most of the simulations that we tried" (p. 58). 16 This experiment seems to be derived from DeLong's (1988) critique of Baumol (1986) who, as did many other authors before and after hirn, estimated the convergence equation tested by DEA.

Economic Growth and Economic Evolution: A Modeling Perspective

257

dence for long time periods and large cross-country datasets, it is not c1ear whether this property of the simulated data is in c10se correspondence with n!ality. Most authors in the field of empirical 'convergence' have found significant convergence for a group of relatively advanced economies in the 1950 - 1973 period. Divergence seems to prevail in a larger sampie of countries (inc1uding, e.g., the African countries). It is also c1ear that convergence in the relatively rich group of countries was much weaker, if present at all, in earlier periods. 17 Thus, it seems as if the DEA results are (at least partly) compatible with a particular period in time (preWW 11), but not necessarily so with the strong post-war convergence period observed in the OECD.

V. Evolution, history and contingency as the driving forces of economic growth: an attempt at a synthesis Has the evolutionary approach added to our understanding of the phenomenon of economic growth? We have already seen that the results of many evolutionary growth models are not very specific in the sense that they do not provide insight into exactly which factors play which role in the growth process. Compared to other approaches in growth theory, such as the neoc1assical model with its highly practical 'toolbox' of growth accounting, it might seem at first glance as though not much could be learned from their evolutionary alternatives. As was already stressed by Nelson and Winter (1982), it is indeed one aim of evolutionary models to demonstrate that the sense of precision offered by the mainstream models is to some extent illusory. The causal relationships between the main variables in these models, Nelson and Winter argue, are not so c1ear once one adopts a microeconomic framework in which heterogeneous firms, disequilibrium, and bounded rationality are the key ingredients. The implications of this point of view may certainly be far reaching. The importance of this argument resides perhaps not so much in the critical attitude towards mainstream theory as in the argument that models of economic growth are just not able to make precise predictions on the basis of exact causal relations: "There is no question that, in taking aboard this complexity, one often ends up with a theory in which precise predictions are impossible or highly dependent on particular contingencies, as is the case if the theory implies multiple or rapidly shifting equilibria, or if under the theory the system is likely to be far away from any equilibrium, except under very special circumstances. Thus an evolutionary theory may not only be more complex than an equilibrium theory. It may be less decisive in its predictions and explanations. To such a complaint, the advocate of an evolutionary theory might reply that the apparent power of the simpler theory in fact is an illusion ... Such a framework would help us see and understand better the complexity of the economic reality ... But it will not make the comp1exity go away." Nelson (1995, p. 85 - 6) 17

See, e.g., Verspagen (1995) for further characterizations of the convergence debate.

17 Selbstorganisation. Bd. 9

258

Gerald Silverberg and Bart Verspagen

Nelson thus seems to argue that we must simply accept as a fact of life the inability to predict and precisely explain that characterizes many of the evolutionary growth models outlined above. Although we sympathize with this line of reasoning in general, we wish to argue that there are indeed ways in which evolutionary growth theory can take up Nelson's gauntlet of 'complexity' in a more positive way. We suggest going back to an old discussion in evolutionary biology, which focuses on the interaction of 'chance and necessity.' This debate, which was stimulated by Monod (1970), inquires into the consequences of adopting a view of evolution in which random events, such as genetic mutations, or random changes in the selection environment (such as the meteorite which may have led to the extinction of dinosaurs on earth) have an impact on the general characteristics of 'life as we know it.' In the words of Gould, the question is whether the biological diversity on earth would be different if 'the tape were played twice.' 18 As far as chance and contingency are concemed, the answer to this question would be a firm yes: if evolution completely depended on random events, a literally infinite number of natural histories would be possible, and there is no reason why any of them would turn up more often than others in imaginary experiments. Applying the analogy to economics and the history of technology, the question is if the tape were played twice, would textile innovations and mechanical power be the technological stimulus for an industrial revolution, and, if so, would England again be the place of origin of such a revolution? Taking this reasoning a step farther, would a Great Depression always occur, and would the equivalent of the USA always surge to economic and technological dominance, inducing aperiod of sustained catch-up and convergence in part of the world after the second World War? The economic historian's explanation for such events rests on specific historical circumstances not obviously connected to a more general causal mechanism extending across time periods. For example, Maddison (1991) points to specific institutional and policy factors that led to a succession of growth phases in the modem world since 1820. Although Maddison does not discuss the causal mechanisms underlying these factors at great length, it is obvious that there is a considerable degree of contingency associated with these factors, making them hard to explain from an economic point of view. 19 However, the biological discussion also highlights the role of more systematic factors in the evolutionary process, suggesting the hypothesis that some 'histories' are more like1y than others. Taking this argument even further, Fontana and Buss (1994), on the basis of simulation experiments, have argued that there are certain 18 See Fontana and Buss (1994) for a discussion of Gould's question in the context of an abstract evolutionary model of self-organization. 19 For an insightful discussion of the role of contingency in economic history, see the contribution by Lehmann- Waffenschmidt and Schwerin to this volume.

Economic Growth and Economic Evolution: A Modeling Perspective

259

characteristics of biological life that seem to be generic and robust to different randomizations of the model. Hence the dual relationship between 'chance' and 'necessity,' which leads to a world view in which there is considerable uncertainty with regard to exact outcomes and causal mechanisms, but in which there is also some limit to the randomness of history. Thus the basic SV model and its derivatives point to adefinite value of R&D, and distinct preferences for particular strategie routines over others, as an emergent outcome of this process of chance and necessity. In fact, the stochastic component of learning models can actually reduce the number of possible outcomes as compared to the equivalent deterrninistic one. 20 Our evolutionary growth models almost all rely upon stochastic technical change as the driving force of economic growth. In many of the models, one outcome of this stochastic process after aselection process has acted upon it is that a wide range of 'economic histories' are possible, some of which seem to be compatible with the 'stylized facts' of actual empirical observations. While these results are often used to argue the 'minimalist' position that an evolutionary theory can explain the phenomena explained by mainstream theory but with a more realistic microeconomic foundation, we wish to argue that this approach should be extended along the lines suggested by the debate on 'chance and necessity' in biology. Viewed in this way, evolutionary growth models would have to be more precise on the possible range of outcomes they predict, by placing restrietions on the general features of simulation histories. For example, in a model of international growth rate differentials as suggested by DEA, the main question would be under what circumstances a fairly 'narrow' bandwidth of outcomes would exist, for example in the sense of a small range of values for the coefficient of variation of per capita GDP in the sampie of countries. Such an approach would admittedly not help us much in understanding specific events in economic history. It would not give us an ans wer to the question why the industrial revolution took place in England, or why the productivity slowdown occurred in the mid-1970s. However, it might place such questions in a much more encompassing quantitative context. In an extension of the SV model to the international economy we have taken a first step in trying to establish results along these lines (Silverberg and Verspagen 1995). There we show that one only needs a fairly simple set of assumptions to robustly generate artificial time series of international economic and technological leadership similar to those observed empirically. We argued that this exercise, although still of a preliminary nature, shows that historical events such as the postwar catch-up boom can be seen as broadly compatible with an evolutionary model of international growth rate differentials. What is robust is not any particular sequence of events but the l/f"-noise pattern of the time series that will always gen20 See Foster and Young (1990) and Young (1993), but for an important caveat also Bergin and Lipman (1996).

17*

260

Gerald Silverberg and Bart Verspagen

erate such patterns if one waits long enough. In other words, we argue that, despite the impact of 'random' events such as US leadership over much of the 20th century, we would expect that sirnilar patterns would have arisen had we been able to 'play the tape twice.' In order to stimulate other contributors to the evolutionary debate to take a similar perspective in the future, further work on methodological issues, such as the status of simulation experiments relative to analytical results, or the statistical evaluation of results generated by computer simulations, is obviously required. We would argue that the usefulness of the tradition way of comparing the evolutionary and the neoc1assical perspectives is on the wane. Instead, evolutionary economists should increasingly focus on the specific methodological features inherent in their own models and less on how the discussion has been framed in the past. If they did, we expect that they would be able to paint a broader picture in which the role of historical contingencies in the process of economic growth on the one hand, and specifically evolutionary invariant features on the other, would be highlighted. Literature Adams, H., 1919/1969, The Degradation Row

01 the

Demoeratie Dogma, New York: Harper &

Aghion, P./ Howitt, P., 1992, "A Model of Growth through Creative Destruction", Eeonometriea, 60: 323 - 351 Alehian, A. A., 1951, "Uncertainty, Evolution, and Economic Theory", Journal Eeonom~

58:211-222

Arrow, K., 1962, "The Economic Implications of Leaming by Doing", Review Studies, 29: 155 - 73

01 Politieal

01 Eeonomie

Arthur; W. B., 1988, "Self-Reinforcing Mechanisms in Economics", in P. W. Anderson, K. J. Arrow and D. Pines, (eds), The Eeonomy as an Evolving Complex System, Reading, Mass.: Addison-Wesley Arthur; W. B., 1994, Inereasing Returns and Path Dependenee in the Eeonomy, Ann Arbor, MI: University of Michigan Press Baumol, W. J., 1986, "Productivity Growth, Convergence, and Welfare: What the Long Run Data Show", Ameriean Eeonomie Review, 76: 1072 - 1085 Bergin, J.I Lipman, B. L., 1996, "Evolution with State-Dependent Mutations", Eeonometriea, 64: 943 -956 Booker; L. / Goldberg, D. / Holland, J., 1989, "Classifier Systems and Genetic Aigorithms", in J. Carbonell, (ed.), Maehine Learning: Paradigms and Methods, Cambridge, MA: MIT Press Boulding, K. E., 1978, Eeodynamies: A New Theory London: Sage

01 Societal Evolution,

Beverly Hills and

Economic Growth and Economic Evolution: A Modeling Perspective

261

- 1981, Evolutionary Economics, Beverly Hills and London: Sage

Baumol, W. J., 1986, "Productivity Growth, Convergence, and Welfare: What the Long Run Data Show", American Economic Review, 76: IOn - 1085 Chiaromonte, F.I Dosi, G., 1993, "Heterogeneity, competition, and macroeconomic dynamics", Structural Change and Economic Dynamies, 4: 39 - 63 Conlisk, J., 1989, "An Aggregate Model of Technical Change", Quarterly Journal of Economics, 104: 787 - 821 DeLong, J. B., 1988, "Productivity Growth, Convergence and Welfare: Comment", American Economic Review, 78: 1138 - 1154 Dosi G. / Fabiani, S. / Aversi, R. / Meacci, M., 1994, "The Dynamics of International Differentiation: A Multi-Country Evolutionary Model", Industrial and Corporate Change, 3: 225 - 241 Downie, J., 1955, The Competitive Process, London: Duckworth Ebeling, W./ Feistei, R, 1982, Physik der Selbstorganisation und Evolution, Berlin: Akademie Verlag Edelman, G. M., 1987, Neural Darwinism: The Theory of Neuronal Group Selection, New York: Basic Books Epstein, J. M. / AxteIl, R, 1996, Growing Artificial Societies. Social Science from the Bottom Up, Washington, DC: Brookings Institution Feistel, R / Ebeling, W., 1989, Evolution of Complex Systems, Berlin: VEB Deutscher Verlag der Wissenschaften Fisher, R. A., 1930, The Genetical Theory of Natural Selection, Oxford: Clarendon Press Fontana, W. / Buss, L. W., 1994, "What Would Be Conserved If 'the Tape Were Played Twice"', Proceedings ofthe National Academy of Sciences USA, 91: 757 -761 Foster, D. / Young, P., 1990, "Stochastic Evolutionary Game Dynamics", Theoretical Population Biology, 38: 219 - 232 Gerybadze, A., 1982, Innovation, Wettbewerb und Evolution, Tübingen: Mohr Goldberg, D., 1989, Genetic Algorithms in Search, Optimization, and Machine Learning, Reading MA: Addison-Wesley Goodwin, R M., 1967, "A Growth Cycle", in C. H. Feinstein, (ed.), Socialism, Capitalism and Economic Growth, London: Macmillan Grübler, A., 1990, The Rise and Decline of Infrastructures. Dynamics of Evolution and Technological Change in Transport, Heidelberg: Physica-Verlag Henkin, G. M. / Polterovich, V. M., 1991, "Schumpeterian Dynamics as a Non-linear Wave Theory", Journal of Mathematical Economics, 20: 551 - 590 Hofbauer, J. / Sigmund, K., 1988, The Theory of Evolution and Dynamical Systems, Cambridge: Cambridge University Press Holland, J. H. / Miller, J. H., 1991, "Artifical Adaptive Agents in Economic Theory", American Economic Review Papers and Proceedings, 81: 363 - 370

262

Gerald Silverberg and Bart Verspagen

Horgan, 1., 1995, "From Complexity to Perplexity", Scientific American, June 1995: 74 - 79 lwai, K, 1984a, "Schumpeterian Dynamics. I: An Evolutionary Model of Innovation and Imitation ", Journal of Economic Behavior and Organization, 5: 159 - 90 - 1984b, "Schumpeterian Dynamics. 11: Technological Progress, Firm Growth and "Economic Selection", Journal of Economic Behavior and Organization, 5: 321 - 51

Kaldm; N./ Mirrlees, J. A., 1962, "A New Model of Economic Growth", Review of Ecoonomic Studies, 29: 174 - 92 Kandori, M. / Mailath, G. J./ Rob, R., 1993, "Learning, Mutations, and Long Run Equilibrium in Games", Econometrica, 61(1): 29 - 56 Kwasnicki, W. / Kwasnicka, H., 1992, "Market, Innovation, Competition: An Evolutionary Model of Industrial Dynamics", Journal of Economic Behavior and Organization, 19: 343 - 368 Lane, D. A., 1993, "Artificial Worlds and Economics. Parts 1 and 2", Journal of Evolutionary Economics, 3(2&3): 89 - 108, 177 - 197 Langton (ed), C. G., 1989, Artificial Life, Redwood City, CA: Addison-Wesley Langton, C. G. / Taylor; C. / Farmer; J. D. / Rasmussen, S. (eds), 1992, Artificial Life ll, Redwood City, CA: Addison-Wesley Lotka, A. J., 1924/1956, Elements of Mathematical Biology, New York: Dover, - 1945, "The Law of Evolution as a Maximal Principle", Human Biology, 17: 167 - 194

Maddison, A., 1991, Dynamic Forces in Capitalist Development. A Long-Run Comparative View, Oxford and New York: Oxford University Press Marchetti, C. / Nakicenovic, N., The Dynamics of Energy Systems and the Logistic Substitution Model, Research Report RR-79-13, Laxenburg, Austria: IIASA MarshalI, A., 1890, Principles of Economics, London: Macmillan Metcalfe, J. S., 1988, "Trade, Technology and Evolutionary Change", University of Manchester, mimeo Mirowski, P., 1989, More Heat than Light: Economics as Social Physics, Physics as Nature's Economics, Cambridge: Cambridge University Press Monod, 1., 1970, Le Hasard et la Necessite, Paris: Seuil

Montroll, E. w., 1978, "Social Dynamics and the Quantifying of Social Forces", Proceeding of the National Academy of Sciences, USA, 75: 4633 - 4637

Nakicenovic, N., 1987, "Technological Substitution and Long Waves in the USA", in T. Vasko, (ed.), The Long-Wave Debate, Berlin: Springer-Verlag Nelson, R. R., 1995, "Recent Evolutionary Theorizing About Economic Change", Journal of Economic Literature, 33: 48 - 90 Nelson, R. R. / Winter; S. G., 1982, An Evolutionary Theory of Economic Change, Cambridge MA: The Belknap Press of Harvard University Press Nelson, R. R. / Winter; S. G. / Schuette, H. L., 1976, "Technical Change in an Evolutionary Model", Quarterly Journal of Economics, 90: 90 - 118

Economic Growth and Economic Evolution: A Modeling Perspective

263

Nicolis, G.I Prigogine, I., 1977, Self-Organization in Non-Equilibrium Systems, New York: Wiley-Interscience Romer, P. M., 1986, "Increasing Returns and Long-Run Growth", Journal of Political Economy, 94: 1002 - 1037 Salter, w., 1960, Productivity and Technical Change, Cambridge: Cambridge University Press Schumpeter, J., 1919/1934, Theorie der wirtschaftlichen Entwicklung, English translation, The Theory of Economic Development, Cambridge, MA: Harvard University Press - 1947, Capitalism, Socialism, and Democracy, New York: Harper

Schwefel, H. P., 1995, Evolution and Optimum Seeking, New York: Wiley Sigmund, K., 1986, "A Survey of Replicator Equations", in J. L. Casti and A. Karlqvist (eds), Complexity, Language and Life: Mathematical Approaches, Berlin I Heidelberg I New York/Tokyo: Springer-Verlag Silverberg, G.I Dosi, G./ Orsenigo, L., 1988, "Innovation, Diversity and Diffusion: A SelfOrganisation Model", Economic Journal, 98: 1032 - 54 Silverberg, G.I Lehnert, D., 1993, "Long Waves and 'Evolutionary Chaos' in a Simple Schumpeterian Model of Embodied Technical Change", Structural Change and Economic Dynamics, 4: 9 - 37 - 1994, "Growth Fluctuations in an Evolutionary Model of Creative Destruction", in G. Silverberg and L. Soete (eds), The Economics of Growth and Technical Change: Technologies, Nations, Agents, Aldershot: Edward Elgar

Silverberg, G.I Verspagen, B., 1994a, "Leaming, Innovation and Economic Growth: A LongRun Model of Industrial Dynamics", Industrial and Corporate Change, 3: 199 - 223 - 1994b, "Collective Leaming, Innovation and Growth in a Boundedly Rational, Evolutionary World", Journal of Evolutionary Economics, 5: 207 - 226 - 1995, "An Evolutionary Model of Long Tenn Cyc\ical Variations of Catching Up and Falling Behind", Journal of Evolutionary Economics, 4: 209 - 227 - 1996, "From the Artificial to the Endogenous: Modelling Evolutionary Adaptation and Economic Growth", in E. Helmstädter and M. Perlman (eds), Behavioral Norms, Technological Progress, and Economic Dynamics, Ann Arbor, MI: University of Michigan Press

Solow, R. M., 1957, "Technical Change and the Aggregate Production Function", Review of Economics and Statistics, 39: 312 - 320 Solow, R., 1960, "Investment and Technical Progress", in K. J. Arrow, S. Karlin, and P. Suppes (eds), Mathematical Methods in the Social Sciences 1959, Stanford: Stanford University Press Steindl, J., 1952, Maturity and Stagnation in American Capitalism, New York: Monthly Review Press Verspagen, B., 1993, Uneven Growth Between Interdependent Economies. The Evolutionary Dynamics ofGrowth and Technology, Aldershot: Avebury - 1995, "Convergence in the World Economy: A Broad Historical Overview", Structural Change and Economic Dynamics, 6: 143 - 166

264

Gerald Silverberg and Bart Verspagen

Winter. S. G., 1984, "Schumpeterian Competition in Alternative Technological Regimes", Journal of Economic Behavior and Organization, 5: 137 - 158 Young, H. P., 1993, "The Evolution of Conventions", Econometrica, 61: 57 - 84

Industrie-Evolution Von Uwe Cantner und Horst Hanusch, Augsburg

I. Einleitung und Überblick Fragt man nach den wesentlichen treibenden Kräften der wirtschaftlichen Entwicklung und des wirtschaftlichen Wachstums von Volkswirtschaften, so wird man in aller Regel als Antwort den Hinweis auf die Wirkung des technologischen Fortschritts erhalten. Dessen Einfluß wird auch eng mit dem Begriff des modemen WirtschaJtswachstums in Verbindung gebracht - ein terminus technicus, der auf Simon Kuznets zurückgeht: Man versteht hierunter ein Wachstum der individuellen Wohlfahrt, die approximativ mit Hilfe des Bruttosozialprodukts pro Kopf gemessen werden kann. Ein derartige Entwicklung läßt sich für die heutige westliche industrialisierte Welt seit der industriellen Revolution Anfang des 19. Jahrhunderts feststellen - selbstverständlich nicht für alle Länder parallel verlaufend und auch nicht immer mit den gleichen, diese Entwicklung anführenden Ländern. Seit dieser Zeit zeigen sich wirtschaftliche Entwicklung und technologischer Fortschritt in einer eng verzahnten gegenseitigen Abhängigkeit, im Sinne von Anschubwirkung einerseits, aber andererseits auch im Sinne von Beschränkungen. Und trotz weiterer wichtiger Wachstumsfaktoren, wie Kapitalakkumulation (Solow-Wachstum) 1 oder Arbeitsteilung (Smith-Wachstum)2, nehmen die technologische Entwicklung und damit die Innovationstätigkeit in diesem Reigen eine überragende und dominante Stellung ein. Man spricht hier auch vom sogenannten Schumpeter-Wachstum. Während man sich über die Wirkungen des technologischen Fortschritts auf der aggregierten, volkswirtschaftlichen Ebene bereits seit längerem erfolgreich Gedanken gemacht hat, mit der Erklärung der Quellen des technologischen Fortschritts tat man sich weitaus schwerer. Es war lange Zeit sogar gute Übung, den technologischen Fortschritt als eine exogene Größe zu behandeln, welche die ökonomischen Akteure nur noch rein adaptiv in ein ökonomisches Resultat umsetzen - die Wirkungsrichtung verläuft hier klar von der technologischen hin zur ökonomischen Sphäre einer Volkswirtschaft. Beginnend mit Joseph Alois Schumpeter (1912, 1942) wurde dann aber eine konzeptionelle Richtung auf den Weg gebracht, die nicht mehr an der Exogenität des Fortschritts festmacht, sondern vielmehr eine 1 2

In Anlehnung an Robert Solow (1956). In Anlehnung an Adam Smith (1776).

266

Uwe Cantner und Horst Hanusch

Theorie des endogenen Fortschritts beabsichtigt. In diesem Sinne befinden sich dann ökonomische Bedingungen und technologischer Fortschritt in einem interdependenten, wechselseitigen Verhältnis.

Diese Interdependenz zeigt sich deutlich im Werke Schumpeters, und zwar im sogenannten dynamischen Unternehmer (1912) und vor allem in den mit Forschungs- und Entwicklungsabteilungen ausgestatteten Großunternehmen (1942). Bei beiden handelt es sich um ökonomische Akteure, die versuchen, technologische Neuerungen am Markt einzuführen und durchzusetzen. Die Betrachtung des technologischen Fortschritts innerhalb von Volkswirtschaften verlagert sich auf diese Weise von der reinen Wirkungsanalyse auf der makroökonomischen Ebene auf eine Ursachenanalyse, die mikroökonomisch orientiert ist. Der Schritt hin zu einer Sichtweise, die auf die Entwicklung von Industrien abstellt, ist dann nicht weit, denn diese konstituieren sich aus Unternehmen und Akteuren, die sich auf einem Markt im gegenseitigen Wettbewerb befinden. Industrieentwicklung und Innovationstätigkeit treten somit offenbar in eine sehr enge Beziehung zueinander. In unserem Beitrag möchten wir uns mit diesem Beziehungszusammenhang näher befassen und hierzu konzeptionelle Ansätze, empirisch-fundierte Untersuchungen und formal-analytische Analysen vorstellen. Dabei wird es uns keinesfalls gelingen, die vorhandene reichhaltige Literatur in ihrer ganzen Breite und Tiefe zu berücksichtigen. Vielmehr möchten wir uns auf zwei wichtige Problembereiche beschränken. Zum ersten, werden wir uns insbesondere auf den Untersuchungsgegenstand "industrielle Dynamik" konzentrieren. Denn an ihm entfacht sich heute eine fundamentale wissenschaftliche Kontroverse, die leidenschaftlich von der neoklassisch geprägten Schulökonomik und dem Ansatz der evolutorischen Ökonomik geführt wird. Diese Diskussion zeigt klar auf, mit welchen schwerwiegenden konzeptionellen Problemen eine Analyse der innovationsinduzierten Industrieentwicklung zu kämpfen hat. Hierauf aufbauend möchten wir, zum zweiten, den Aspekt der Evolution von Industrien noch weiter in den Vordergrund stellen und hierzu die wichtigsten Beiträge vorstellen, die einerseits die empirisch-deskriptive und andererseits die formal-analytische Diskussion bestimmen. Das Schwergewicht in unserer Darstellung wird demnach auf Ansätzen der evolutorischen Ökonomik liegen. Bevor wir aber damit beginnen, wollen wir kurz die Bedeutung der Industrie-Evolution für die wirtschaftliche Entwicklung von Volkswirtschaften beleuchten. Denn hieraus lassen sich wesentliche Erkenntnisse gewinnen, auf denen nachfolgend die Abhandlung der bei den zentralen Problembereiche unseres Beitrages aufbauen kann.

11. Industrie-Evolution und wirtschaftliche Entwicklung

Welche spezifische Bedeutung hat die Industrie für die wirtschaftliche Entwicklung? Ohne Zweifel stellt der gesamte industrielle Sektor eine wesentliche, wenn nicht sogar die bedeutendste Quelle für wirtschaftlichen Fortschritt dar. Wie schon

Industrie-Evolution

267

angesprochen, seit der industriellen Revolution hat sich dessen Anteil an der gesamtwirtschaftlichen Produktion kontinuierlich erhöht. Heute beträgt der Anteil des verarbeitenden Gewerbes in Deutschland um die 30 % am gesamten BSP, in den USA 18 % und in Japan 26 %. Im Hinblick auf die Beschäftigung läßt sich festhalten, daß Anfang des 19. Jahrhunderts noch ungefähr 90 Prozent der arbeitenden Bevölkerung vom landwirtschaftlichen Sektor beansprucht wurden und diese Zahl heute auf unter 5 Prozent gefallen ist. Mitte der 90er Jahre entfallen auf das verarbeitende Gewerbe in Deutschland ungefähr 30 % der Beschäftigten, in den USA 18 % und in Japan 24 %. Aber und vor allem hinsichtlich der Innovationstätigkeit nimmt der industrielle Sektor eine dominante Stellung ein. So wurden 1991 beispielsweise in Deutschland 95 % aller F&E-Ausgaben vom verarbeitenden Gewerbe bestritten, in den USA 75 % und in Japan 94 %. Vor diesem empirischen Hintergrund erscheinen aus analytischer Sicht drei Fragenkomplexe von besonderem Interesse zu sein, die man wohl prinzipiell im Rahmen einer mikroökonomischen Ursachen-, einer mesoökonomischen Ursachen- und Wirkungs-, sowie einer makroökonomischen Wirkungsanalyse abhandeln kann. Beginnen wir mit der mikroäkonomischen Ebene. Innovationstätigkeit und deren Einfluß auf die Industrie-Evolution sollte man, zum einen, sowohl im wettbewerblichen Kontext von Unternehmen als auch, zum anderen, mit Blick auf deren technologische und vor allem nicht-marktliche Beziehungen untersuchen. Die Struktur und die Strukturdynamik innerhalb von Sektoren, und in diesem Sinne die Entwicklung der technologischen und ökonomischen Bedingungen, erhalten auf diese Weise einen zentralen analytischen Stellenwert. Sie stehen - so vennutet man - in gegenseitiger Abhängigkeit und tragen gemeinsam zur Intensität und Richtung des technologischen Fortschritts und, davon induziert, des ökonomischen Erfolgs bei - welcher dann wiederum die Basis für Wachstumseffekte darstellt. Die neoklassisch fundierte New Industrial Economics sowie der evolutorische Ansatz zur Industrial Dynamics befassen sich mit diesen Zusammenhängen. Eine isolierte Betrachtung einzelner Industriesektoren und deren Entwicklung wird jedoch deren Beitrag zur gesamten wirtschaftlichen Entwicklung nicht gerecht. Dies hat einerseits mit dem Zusammenwirken verschiedener Sektoren und andererseits mit der spezifischen technologischen und ökonomischen Bedeutung der jeweiligen Sektoren zu tun. Eine weitergehende Analyse hat demnach auch auf die mesoäkonomische Ebene abzustellen. Sie hat dabei insbesondere zu berücksichtigen, daß einzelne Sektoren nicht nur über ökonomische Beziehungen (Vorleistungen, Investitionen) zueinander in einer interdependenten Beziehung stehen, sondern daß auch zwischen ihnen eine Vielzahl von fonnellen sowie infonnellen technologischen Beziehungen besteht. Vor allem Synergieeffekte spielen hier für die technologische Entwicklung eine herausragende Rolle. Sie ergeben sich aus einem sogenannten kollektiven Innovationsprozeß und scheinen auch für das Wirt-

Uwe Cantner und Horst Hanusch

268

schaftswachstum von enonner Bedeutung zu sein. Um diesen Zusammenhang kümmert man sich besonders innerhalb der Diskussion von nationalen Innovationssystemen wie auch im Rahmen der Technologiestromanalyse. Hinsichtlich der makroökonomischen Entwicklung und damit der Wirkungsebene einer Volkswirtschaft gilt es nicht zuletzt auf wirtschaftshistorische Untersuchungen hinzuweisen. Sie haben für die sehr lange Frist seit der industriellen Revolution, im Rahmen der Theorie der langen Wellen, bis heute fünf Zyklen aufgedeckt. Diese sind aus technologischer wie auch ökonomischer Sicht von jeweils unterschiedlichen Sektoren dominiert, die daher auch als Schlüsselsektoren bezeichnet werden. Tabelle 1 zeigt hierzu, daß sich im Zeitablauf ein stetiger Wechsel in der Bedeutung von einzelnen Industrien vollzogen hat, also ein interindustrieller Strukturwandel zu beobachten ist. Die hier aufgezeigte Vielfalt der industriellen Entwicklung hat sich nun in zahlreichen Bemühungen niedergeschlagen, die grundlegenden Mechanismen und Wirkungszusammenhänge aufzudecken und besser zu verstehen, die sich dahinter verbergen. In den folgenden Abschnitten möchten wir aus der reichhaltigen Literatur hierzu einige wichtige konzeptionelle Darlegungen sowie zentrale Ergebnisse deskriptiv-empirischer und fonnal-analytischer Art vorstellen und diskutieren. Dabei werden wir uns hauptsächlich auf der intra-sektoralen, mikroökonomischen Ebene bewegen - dort haben auch die meisten Forschungsinitiativen angesetzt. Abschließend wollen wir aber auch noch einige Probleme und Konsequenzen für die meso-und die makroökonomische Analyse ansprechen. Tabelle I

Schlüsselsektoren und lange Wellen (nach Freeman/Perez [1988]) Zyklus

Bezeichnung des KondratiefT

Periode

Schlüsselsektoren

frühe Mechanisierung

1770/80 - 1830/40

Textilindustrie Eisen- und Stahlindustrie

2

Dampfmaschinen und Eisenbahn

1830/40 - 1880/90

Maschinenbau Stahlindustrie Schiffbau

3

Elektrizität und Schwerindustrie

1880/90 - 1930/40

Elektroindustrie Maschinenbau (elektr.) Chemie (syn. Farben)

4

Massenproduktion

1930/40 - 1980/90

Automobilindustrie Konsumgüterindustrie Kunststoffe Chemie

5

Information und Kommunikation

1980/90 - ?

Computerindustrie Elektronikindustrie Telekommunikation Optik / Feinmechanik

Industrie-Evolution

269

III. Stilisierte Fakten zu Struktur und Strukturwandel und konzeptionelle Grundlagen einer Analyse

Wenden wir uns nun der Analyse von Industrie-Evolution zu, und damit hauptsächlich der Frage, wie es zu Innovationstätigkeit kommt und welche Wirkungen man davon zu erwarten hat. Dieser Problemkreis ist von verschiedener Seite mit jeweils unterschiedlicher analytischer Ausrichtung angegangen worden. Trotz dieser Unterschiede, auf die wir unten noch explizit eingehen werden, haben sich die konkurrierenden Ansätze an einigen sogenannten stilisierten Fakten der Entwicklung von Industrien orientiert, wenn auch nicht alle in ihr Theoriegebäude aufgenommen wurden. Wir wollen auf diese im nächsten Abschnitt eingehen, um dann darauf aufbauend die unterschiedlichen theoretischen Konzeptionen vorzustellen. 1. Stilisierte Fakten zur Industrie-Evolution

Die empirische Wirtschaftsforschung hat eine Reihe von Fakten zu Tage gefördert, die man bereits als stilisierte dynamische Fakten der industriellen Entwicklung bezeichnen darf. Diese beziehen sich auf die Unterschiedlichkeit oder Heterogenität von Unternehmen innerhalb eines Sektors, um darauf aufbauend dessen charakteristische Entwicklungsmuster zu identifizieren. Mit Bezug auf die feststell bare Heterogenität kann man entsprechende Parameter dahingehend einteilen, ob sie an bestimmten Strukturgrößen (Größe, Produktivität, Innovationserfolg), an Parameter der ökonomischen Leistungsfähigkeit (Profit, Wachstum, Marktanteil) oder an der Natur und Ausprägung des technologischen (und organisatorischen) Lemens (Art der Innovationstätigkeit, Art des Wissenspools, Bedeutung von Produkt- und Prozeßfortschritt) ansetzen. Bei der Analyse der spezifischen Merkmale industrieller Strukturen kann man dann zuvörderst auf folgende charakteristischen Beobachtungen hinweisen: (1) Zum ersten läßt sich eine erstaunliche Heterogenität zwischen den einzelnen Akteuren beziehungsweise den Unternehmen innerhalb einer Industrie identifizieren. Diese Unterschiede beziehen sich einerseits auf ganz offensichtliche Eigenschaften wie etwa Alter, Größe, Profit, Marktanteil, u. a.m. Daneben findet man sie aber auch in nicht so einfach beobachtbaren, firmen-spezifischen Faktoren wieder, wie etwa innovative Fähigkeiten, technologisches Wissen, techno-ökonomische Kompetenzen, organisatorische Gegebenheiten etc. 3 (2) In diesem Zusammenhang beobachtet man dann auch, daß die Heterogenität über einen gewissen Zeitraum hinweg eine gewisse Persistenz aufweist. Dies gilt zum einen für die Innovationserfolgswahrscheinlichkeit verschiedener Unternehmen,4 zum anderen aber auch für persistente Produktivitätsunterschiede Vergleiche beispielsweise Nelson (1991), Eliasson (1990), Teece et al. (1994). Siehe hierzu beispielsweise die Untersuchungen von Griliches (1986), Pavitt / Patel (1991), Malerba et al. (1997). 3

4

270

Uwe Cantner und Horst Hanusch

und daraus abgeleitete Technologieführerschaften 5 . Neben diesen technologischen Komponenten finden sich dauerhafte Unterschiede auch in ökonomischen Größen, wie etwa Profiten6 oder Marktanteilen 7. (3) Neben derartigen Phasen der "Ruhe" lassen sich aber auch Perioden der Turbulenz in Bezug auf Markteintritt und -austritt8 , sowie in Bezug auf Marktanteile 9 und technologische Leistungsfähigkeit beobachten. (4) Trotz der Abfolge von Phasen der Persistenz und Turbulenz können wir zeitlich gänzlich invariante Strukturcharakteristika identifizieren, wobei die schiefe Verteilung von Unternehmens- und Betriebsgröße den prominentesten Platz (Gibrats-Law) einnimmt. 10 Aufbauend auf diesem Ausschnitt der wichtigsten strukturellen Fakten kann man in einem zweiten Schritt hinterfragen, wie derartige Strukturen entstehen und welche weiteren Entwicklungen für einen Sektor zu erwarten sind. Man versucht also, eine Charakterisierung der strukturellen Dynamik ll vorzunehmen, wobei sicherlich industrie-spezifische Unterschiede und Gemeinsamkeiten zu beachten sind. Die Analyse der Innovationstätigkeit als wesentliche treibende Kraft nimmt dabei eine zentrale Stellung ein. Mit diesen Fragestellungen möchten wird uns im folgenden intensiver beschäftigen. Dabei gehen wir zunächst auf alternative analytische Konzeptionen ein, mit deren Hilfe man eine Erklärung für das Entstehen industrieller Strukturen und deren Entwicklung zu finden versucht. 2. Alternative Konzeptionen einer Theorie der Entwicklung von Industrien

Die angesprochenen Beobachtungen zur Struktur und zur strukturellen Entwicklung von Industrien entsprechen nun in keiner Weise der Vorstellung eines kompetitiven Gleichgewichts, wie man dies auf der Basis der neoklassischen Gleichgewichtstheorie erwarten würde, sondern hier sind vielmehr oligopolistische Strukturen kennzeichnend. Dies akzeptierend konzentrieren drei unterschiedliche Forschungsansätze ihre Anstrengungen darauf, die Determinanten und Konsequenzen dieser Strukturen aufzudecken und zu analysieren: der strukturalistische Ansatz, der Ansatz der Neuen Industrieökonamik und der evalutarische Ansatz. 5 Siehe BailylChakrabarty (1985), Cantner (1996), CantnerlHanusch (1997), Cantnerl Westermann (1998). 6 Siehe beispielsweise Geroskil Jacquemin (1988), Mueller (1990). 7 Siehe etwa Klein (1977), Klepper (1996). 8 Siehe zum Beispiel Dunne et al. (1988), Audretsch (1997), MalerbalOrsenigo (1997). 9 Siehe beispielsweise Klein (1977), Klepper (1996). 10 Siehe zum Beispiel die Untersuchungen von SimonlBonini (1958), IjiriiSimon (1977), Mueller (1990). 11 Siehe MalerbalOrsenigo (1996, 53 - 54).

Industrie-Evolution

271

a) Der strukturalistische Ansatz Der strukturalistische Ansatz umfaßt eine Reihe von unterschiedlichen Analysen l2 , die sich mit den strukturellen Bedingungen und Umständen für eine persistente Asymmetrie zwischen Unternehmen befassen. 13 Diese Asymmetrie kann nun zwischen Unternehmen innerhalb eines Sektors, aber auch zwischen etablierten Unternehmen und potentiellen neuen Konkurrenten auftreten. Als wichtigste Determinante von Wettbewerbs vorteilen werden hier absolute Kostenvorteile identifiziert, die u. a. vor allem auf Größeneffekten und unterschiedlichen Produktionstechnologien beruhen. Aus den vorgefundenen strukturellen Bedingungen will man Aussagen über den Oligopol-Grad und die Oligopol-Macht gewinnen, mit allen Konsequenzen für den ökonomischen Erfolg und dessen Verteilung über die Unternehmen hinweg. Mit Hilfe dieses Ansatzes wird also versucht, aus den strukturellen Gegebenheiten zu einem bestimmten Zeitpunkt Prognosen für die zukünftige Entwicklung von Industrien abzuleiten. 14 Der Frage hingegen, wie es zu solchen Strukturen kommen kann, wird innerhalb dieses Theoriegebäudes nicht weiter nachgegangen. Daneben ist es in diesem Rahmen nicht notwendig, explizit das Verhalten der Akteure (ob vollkommen oder beschränkt rational) in die Analyse einzubeziehen. b) Vom structure-conduct-performance-Ansatz zur New lndustrial Economics Dieser letzte Gesichtspunkt wurde allgemein sehr kritisch aufgenommen und das Fehlen einer mikroökonomischen Fundierung reklamiert. Der structure-conduct-performance-Ansatz der Industrieökonomik trägt diesem Kritikpunkt Rechnung und stellt einen analytischen Rahmen vor, in welchem das Modul conduct (Marktverhalten) in Form der Verhaltensannahme der Profitmaximierung eingeht. Auf diese Weise gelingt es, aus bestimmten gegebenen (beobachteten) Strukturen, die Leistungsfähigkeit (performance) von Akteuren aus einem Optimalkalkül abzuleiten. 15 In gewisser Weise hierauf aufbauend wendet sich die New lndustrial Economics dem Phänomen der Innovationstätigkeit zu und versucht, deren ökonomische Determinanten und Konsequenzen aufzudecken. 16 Die zentrale Fragestellung ist daVergleiche hierzu beispielsweise Bain (1956), Mason (1939), Sylos-Labini (1967). Eine Diskussion dieses Ansatzes sowie dessen Beziehung zu sogenannten behaviouristisch-evolutionären Ansätzen findet sich in Dosi (1984, 107 ff.). 14 Die Wirkungen (exogenen) technologischen Fortschritts innerhalb dieser ModeIIierungsphilosophie werden in Dosi (1984, 111 ff.) sowie in Dosil Pavittl Soete (1990, 114 ff.) diskutiert. 15 Ein guter Überblick hierzu findet sich in Scherer (1980). 16 Eine ausführliche Diskussion dieser Ansätze mit Bezug auf Struktur und Strukturentwicklung findet sich in Cantner (1996). 12 13

272

Uwe Cantner und Horst Hanusch

bei die folgende: Welche Größen bestimmen die Intensität, mit der Innovatoren bekannte und begrenzte technologische Möglichkeiten ausschöpfen? Strukturelle Gegebenheiten, und hier vor allem die Marktstruktur, stellen den Ausgangspunkt der Analyse dar. In einem seminalen Beitrag untersucht Arrow (1962) die sogenannten Schumpeter-Hypothesen und geht damit der Frage nach, ob monopolistische oder vollkommene Märkte eine höhere Innovationsintensität der Unternehmen hervorrufen. Beginnend mit Dasgupta und Stiglitz (1980) wird dann auf die gegenseitige Abhängigkeit von Marktstruktur und Innovationstätigkeit hingewiesen. Mit Hilfe von sogenannten non-tournament-Modellen werden diese Interdependenz und die damit zusätzlich aufgeworfenen Probleme von technologischen Spillovers, Forschungskooperationen etc. im Rahmen eines optimalen conduct untersucht. 17 Die Unterschiedlichkeit von Akteuren wird innerhalb dieser Forschungsrichtung in den Hintergrund gedrückt und einer ModelIierung von symmetrischen, mit Hyper-Rationalität 18 ausgestatteten Akteuren, Platz gemacht - mit dem angenehmen Nebeneffekt einer relativ leichten analytischen Lösbarkeit von Gleichgewichtsmodellen. Dementsprechend ist die Rate und die Richtung des technischen Fortschritts allein von ökonomischen Anreizen bestimmt. Innovationstätigkeit wird äquivalent zu Investitionstätigkeit behandelt, mit dem einzigen, aber sehr wichtigen Unterschied, daß bei ersterer technologische Spillovereffekte auftreten, die sich aus dem Wesen von Know-how als öffentlichem Gut ableiten. 19 Parallel hierzu hat sich eine weitere Analyserichtung entwickelt, die auf den Einfluß potentiellen Markteintritts sowie technologischer Unterschiede zwischen Akteuren auf die Marktstrukturentwicklung eingeht, sogenannte tournament-Modelle 2o, wie etwa Patentrennen. 21 Die Annahme der Hyper-Rationalität wird weiterhin aufrecht erhalten und sie erlaubt es sogar, für die Zukunft und über mehrere Patentrennen hinweg optimale Innovationsstrategien zu berechnen. Entsprechend sind auch hier allein ökonomische Anreize für die Intensität22 des Fortschritts verantwortlich.

17 Siehe etwa Spence (1984), Levin/Reiss (1984, 1988), D'Aspremont/ Jacquemin (1988), Suzumura (1992). 18 Die Akteure besitzen hier vollständige Information nicht nur über ihre Nebenbedingungen und Strategien ihrer Konkurrenten, sondern auch über alle (technologischen und) ökonomischen Konsequenzen innovativen Erfolgs. 19 Vergleiche hierzu Cantner (1996). 20 Vergleiche hierzu beispielsweise Loury (1979), Lee/Wilde (1980), Dasgupta/Stig/itz (1980), Reinganum (1985), Vickers (1986), Harris/Vickers (1987), Beath/Katsoulacos/ Ulph (1988). 21 Tournament-Modelle beruhen auf der ModelIierung eines stochastischen Innovationsprozesses. Abzugrenzen hiervon sind sogenannte contest-Modelle, die deterministisch und als eine Auktion zu interpretieren sind. Vergleiche hierzu Reinganum (1989). 22 Mit Intensität ist im Zusammenhang mit Patentrennen zumeist die Schnelligkeit gemeint, mit der eine Innovation auftritt - und nicht das Ausmaß der Kostenreduktion oder Qualitätsverbesserung.

Industrie-Evolution

273

Toumament- wie auch non-toumament-Modelle werden aufgrund ihrer Ähnlichkeit zu Investitionsmodellen auch als entscheidungsorientierte Ansätze der Innovationsökonomik bezeichnet. Technologischer Fortschritt ist hier das Ergebnis optimaler Entscheidungen und keinesfalls durch unvollkommene Kenntnisse und Fähigkeiten von Innovatoren beschränkt. c) Der evolutorische Ansatz Die vorangegangene Diskussion hat gezeigt, daß sich der structure-conduct-perJormance-Ansatz und seine Weiterentwicklung zur New Industrial Economics zentral mit der Frage optimaler Entscheidungen vollkommen rationaler Akteure befaßt, wobei die Berücksichtigung einer Heterogenität unter den Akteuren diesem Ziel im großen und ganzen geopfert und damit eine gewisse Realitätsfeme akzeptiert wird. Der strukturalistische Ansatz wiederum, obwohl aus empirischer Sicht weitaus plausibler, läßt eine Mikrofundierung vermissen und macht außerdem keinerlei Aussagen darüber, wie Strukturen zustande kommen. Diese beiden Kritikpunkte werden vor allem von einer noch recht jungen Forschungsrichtung vorgebracht, der evolutorischen Ökonomik. Deren Erklärungsansatz stellt (1) die Dynamik und die dabei auftretende Neuigkeit, also eine evolutorische Dy-

namik, in das Zentrum seiner Analyse, wobei

(2) die treibenden Kräfte derartiger Entwicklungen beschränkt rationale Akteure sind, die also weder alle Kenntnisse und Informationen noch unbeschränkte Fähigkeiten zur Problemlösung besitzen. Was hat man sich nun konkret unter diesen beiden Keme1ementen vorzustellen und welche Konsequenzen hat dies für die Analyse? Gehen wir zuerst auf die evolutorische Dynamik ein. Ganz allgemein definiert sich die evolutorische Dynamik als ein Prozeß der SelbsttransJormation eines Systems im Zeitablauj23 Veränderungen werden dabei endogen generiert, sie betreffen sowohl qualitative wie auch quantitative Ausprägungen, und sie ziehen Strukturwandel nach sich. In Anlehnung an Konzepte aus der Biologie kann man zwei grundsätzlich verschiedene Konzeptionen eines evolutorischen Prozesses unterscheiden, die beide auch für wirtschaftliche Zusammenhänge und Entwicklungen von Bedeutung sind - auch wenn man biologische Konzeptionen nicht ungefiltert auf ökonomische Sachverhalte übertragen kann und sollte. Eine erste Konzeption orientiert sich direkt am lateinischen Ursprung des Begriffes "Evolution", das von "evolvere" abstammt, welches wiederum "vorwärts rollen" bedeutet. Diese Vorstellung entspricht dem Ausrollen eines Stück Papiers, 23

Vergleiche hierzu Witt (1993).

18 Selbstorganisation, Bd. 9

274

Uwe Cantner und Horst Hanusch

wobei dann alles das, was in diesem Papier enthalten ist, nach und nach zum Vorschein kommt. Analysen der Industrieentwicklung mit Hilfe der Konzeptionen "Produktlebenszyklus" oder "Industrielebenszyklus" beruhen auf dieser Sicht eines evolutorischen Prozesses. Eine gänzlich andere Vorstellung wird mit "Evolution" verbunden, wenn man auf die Konzeption von Charles Darwin zurückgeht. In seiner Terminologie bedeutet Evolution das kombinierte Wirken von Mutation (Veränderung) und Selektion (Wettbewerb).24 Dabei enthält die Mutation eine ausgeprägt stochastische Komponente. Dieses Evolutionskonzept ist nun offensichtlich auch auf die Industrieentwicklung übertragbar: In Industrien werden immer wieder Innovationen hervorgebracht, die sich dann im Wettbewerb mit bestehenden Produkten oder Verfahren bewähren müssen und möglicherweise auch durchsetzen. Das zweite Kernelernent, die Annahme beschränkter Rationalität der Akteure, hat zur Konsequenz, daß - im Gegensatz zur traditionellen neoklassischen Analyse der New Industrial Economics - die (auch empirisch beobachtbare) Heterogenität unter den Akteuren als analytisch relevant erachtet wird. Daneben wird die entscheidungsorientierte Konzeption ersetzt und zu einem behaviouristischen und wissensbasierten Ansatz umgewandelt, der die Experimentier- und Suchanstrengungen der Akteure als wesentliche Verhaltensweisen ansieht. Aufgrund ihrer beschränkten Rationalität und aufgrund der hohen Komplexität und Unübersehbarkeit von Entscheidungsproblemen wie etwa bei Innovationsentscheidungen (substantielle Unsicherheit25 ) kann für die untersuchten Akteure nicht unterstellt werden, daß sie in der Lage (prozessuale Unsicherheit 26 ) sind, gleichgewichtsorientierte Strategien - wie in der New Industrial Economics - zu berechnen. Marktergebnisse sind dann aber nicht mehr als optimale ex-ante Koordinationslösungen zu interpretieren, sondern als oftmals nicht-optimales Resultat eines ex-post Selektionswettbewerbs zu verstehen. Diese beiden Elemente zusammengenommen sind natürlich nicht unkritisiert geblieben, wobei die implizite Annahme agnostischen Verhaltens der Akteure als nicht adäquat für menschliches Verhalten besonders angegriffen wird. Dem ist allerdings entgegenzuhalten, daß die Evolutorische Ökonomik nicht direkt die Darwinsche Konzeption übernimmt, sondern zwei zusätzliche Eigenschaften für eine kulturelle oder ökonomische Evolution formuliert. Die erste betrifft das Lernen, die Anpassung und die Imitation, die man auch als Elemente einer Lamarckschen Evolution 27 bezeichnen kann. Damit läßt sich der allgemeine Vorwurf entkräften, man würde das Darwinsche Konzept auf ökonomische Sachverhalte übertragen, indem man rein routinegeleitete und nicht reaktiv handelnde Akteure unterstellt. Das 24

Herbert Spencer machte für diese Entwicklungsdynamik den Begriff "Evolution" popu-

25

Vergleiche hierzu Simon (1976). Vergleiche hierzu Simon (1976). Diese Konzeption geht auf Jean Baptist de Lamarck zurück.

lär.

26 27

Industrie-Evolution

275

zweite Element schließt sich hier direkt an: Für kulturelle evolutionäre Prozesse gilt, daß man sie im Rahmen einer bewußten oder unbewußten Interaktion der Individuen verstehen kann. Man spricht dann von einem kollektiven evolutorischen Prozeß?S Gerade der Prozeß der Schaffung und Verbreitung von neuem Wissen, mit allen Möglichkeiten des Lernens, aber vor allem auch mit Möglichkeiten der Rekombination sind hier angesprochen. Die Bedeutung beschränkten Wissens und beschränkter Fähigkeiten einerseits sowie die Betonung von Lernprozessen andererseits hat diesem Ansatz die Bezeichnung wissensorientierter Ansatz der Innovationsökonomik eingebracht. Dies soll natürlich keinesfalls bedeuten, daß ökonomische Anreize hier keine Rolle mehr spielen, doch stehen sie zum einen mehr im Hintergrund und zum anderen können auch sie in vielen Fällen nicht in ein optimales Ergebnis umgesetzt werden. So realitätsnah dieser konzeptionelle Zugang des evolutorischen Ansatzes auch sein mag, für eine analytische Durchdringung der Problematik, vor allem auf formale Art, sind einige Hürden zu bewältigen. In unserem Zusammenhang geht es vor allem um folgende Fragen: Wie läßt sich die Heterogenität der Akteure und ihr Zusammenspiel formal beschreiben? Wie geht man mit Neuigkeit und damit den Innovationen um, nach denen die Akteure suchen? Um zu zeigen, wie die Evolutorische Ökonomik diese Fragen behandelt, möchten wir nach diesen konzeptionellen Vorbemerkungen einige Forschungsergebnisse zur Industrie-Evolution vorstellen. Unser Schwergewicht liegt dabei eindeutig bei Ergebnissen wie sie die evolutorische Analyse, sowohl deskriptiv-empirisch als auch formal-analytisch, hervorgebracht hat.

IV. Die Analyse evolutorischer Entwicklung von Industrien

Wir möchten die Einteilung der relevanten Arbeiten danach vornehmen, wie sie sich mit dem Problembereich der Innovation einerseits und dem Zusammenspiel von Innovation und Wettbewerb andererseits auseinandersetzen. Die Hauptfragen, die man sich hier stellt, betreffen (1) die Art, Richtung und Intensität des technischen Fortschritts,

(2) die Eigenschaften der Unternehmen, die diesen Wandel durchführen und (3) die sich daraus ergebenden Muster der Industrie-Evolution. Gehen wir zunächst auf den ersten Fragenbereich ein.

28

IS*

Vergleiche hierzu zum Beispiel Allen (1983), Silverberg (1990), Storper (1996).

276

Uwe Cantner und Horst Hanusch

1. Determinanten, Erscheinungs- und Entwicklungsformen der Innovationstätigkeit

Innerhalb der Innovationsforschung besteht bekanntlich eine grundlegende Schwierigkeit darin, daß sie sich auch mit der Problematik der Enstehung von Neuerungen auseinanderzusetzen hat. Diese können an sich nicht vorausgesagt werden, ansonsten wären es eben keine Neuerungen mehr. 29 Es läge nun durchaus nahe, hier einen rein stochastischen Prozeß zu unterstellen, der sich einer weiteren analytischen Durchdringung versagt. Doch die Beobachtung persistenter Unterschiede im Innovationserfolg, im Technologieniveau, u.a.m. zwischen Unternehmen ist mit dieser Vorstellung nur schwerlich vereinbar. Vielmehr scheint es bestimmte Faktoren zu geben, welche die Innovationserfolgswahrscheinlichkeit von Unternehmen nachhaltig beeinflussen. Lassen sich diese identifizieren, dann ist es trotz der Unvorhersehbarkeit einer Innovation möglich, qualifizierte Aussagen über den (zukünftigen) Innovationserfolg, die Innovationsrichtung und die Innovationsintensität von Unternehmen und von Sektoren zu treffen. In diesem Sinne hat sich der evolutorische Ansatz darum bemüht, stilisierte Fakten für die Innovationstätigkeit und deren Entwicklung zu identifizieren. Am bekanntesten ist in diesem Zusammenhang die Analyse von Dosi (1982), dessen Paradigma-Tajektorien Ansatz. 3o Die Unsicherheit über Problemlösungsroutinen und Handlungskonsequenzen, die Abhängigkeit von wissenschaftlichem Fortschritt, die Planung von Such- und Experimentieraktivitäten, die Effekte des leaming-by-doing, sowie der oft lokale, spezifische und kumulative Charakter der Know-how Akkumulation werden hier als wesentliche Determinanten und Elemente des Innovationsprozesses angesehen. Mit Hilfe dieser Kriterien kann, angewendet auf den industriellen Sektor, gezeigt werden, warum manche Unternehmen systematisch eine bessere technologische Leistungsfähigkeit aufweisen als die Konkurrenz. Innerhalb eines breiteren technologischen, meist industrie-spezifischen Rahmens (technological paradigm), werden von den Unternehmen selektiv bestimmte Entwicklungsrichtungen verfolgt (technological trajectory). Dabei akkumulieren sie technologisches Know-how, das allerdings nicht mehr als ein reines öffentliches Gut anzusehen ist, sondern zu einem guten Teil als unternehmensspezifisch und in vielen Fällen sogar als privat und damit appropriierbar gilt. Hinzu kommt, daß es oftmals als taeit oder ideosynkratisch charakterisiert werden kann. Dementsprechend - und geradezu konträr zu Vorstellungen der New lndustrial Economics - sind technologische Unterschiede zwischen Unternehmen nicht als rein stochastisch bedingte Übergangserscheinungen zu verstehen. Vielmehr ergeben sie sich auch systematisch aus der unterschiedlichen technologischen Entwicklung der Unternehmen im kumulativen Sinne, mit der Konsequenz, daß einerseits die zuEs handelt sich hierbei um den sogenannten epistemologischen Vorbehalt. Vergleiche hierzu Dosi (1982, 1988). Es gibt noch eine Reihe von strukturähnlichen Konzeptionen wie etwa von Rosenberg (1976), Sahal (1981, 1985), Nelson/Winter (1982), etc. Hierauf soll jedoch nicht weiter eingegangen werden. 29

30

Industrie-Evolution

277

künftige Innovationserfolgswahrscheinlichkeit hiervon positiv abhängt und andererseits selbst die Imitation ein Ressourcen beanspruchendes Unterfangen darstellt. Selbstverständlich ist diese Extrapolation einer vergangenen Entwicklung in die Zukunft nicht geeignet, mit sogenanntem radikalen technologischen Fortschritt umzugehen, der oft auch mit Paradigmenwechseln in Verbindung gebracht wird. Für Aussagen zum inkrementelien Fortschritt entlang technologischer Trajektorien hat sich diese Vorgehensweise jedoch bewährt. Die in diesem Sinne ableitbaren prinzipiellen Entwicklungsmuster dürfen nun keinesfalls unabhängig von der ökonomischen Entwicklung gesehen werden, sondern man hat vielmehr die interdependente Beziehung zwischen beiden zu berücksichtigen. Diesem Gesichtspunkt tragen die folgenden Abschnitte Rechnung.

2. Technologischer Wandel und sektorale Entwicklung deskriptiv-empirische Analytik

Die Frage nach der Interdependenz zwischen technologischer und ökonomischer Entwicklung wurde zunächst einmal im Rahmen einer deskriptiv-empirischen Analyse durchgeführt. Dies hat zu einer Reihe von Klassifikationsversuchen geführt, die an verschiedenen strukturellen Faktoren festmachen, aber darüberhinaus auch auf industrie-, sektor- oder sogar länderspezifische Erscheinungsformen hinweisen. Eine grundlegende, fast schon als klassisch zu bezeichnende Studie zur Klassifikation der Innovationstätigkeit geht auf Pavitt (1984) zurück, der die Sektoren gemäß gemeinsamer Charakteristika im Innovationsprozeß einteilt und die entsprechenden wesentlichen Charakteristika der innovierenden Unternehmen identifiziert. Seine Analyse führt zu vier unterschiedlichen Arten von Unternehmen, die als science-based, scale-intensive, specialised supplier und supplier-dominated bezeichnet werden. Diese Einteilung ergibt sich aus den Merkmalen Unternehmensgröße der Innovatoren, der hauptsächlichen Innovationsart, den Quellen der Technologie und des technologischen Know-hows sowie aus den Appropriationsbedingungen. Mit Hilfe der hier vorgestellten Unternehmenskategorien hat Pavitt eine Sektorzuweisung wie in Tabelle 2 vorgeschlagen. Ein zweite wichtige Klassifikation jüngeren Datums geht auf Malerba und Orsenigo (1997) zurück, deren Untersuchung an der klassischen Diskussion zu den Schumpeter-Hypothesen ansetzt. Sie analysieren die unterschiedlichen Sektoren einer Volkswirtschaft in Hinblick auf folgende Charakteristika von Innovationsaktivitäten: (i)

Konzentration und Asymmetrien zwischen innovativen Unternehmen;

(ii) Größe der innovativen Unternehmen; (iii) Veränderungen in der Rangfolge der Innovatoren; (iv) die Bedeutung neuer gegenüber etablierten Innovatoren.

278

Uwe Cantner und Horst Hanusch

Die Kenngrößen (i) und (ii) setzen an der Frage an, ob die Innovationstätigkeit eher auf wenige Unternehmen beschränkt ist, oder ob sie sich eher gleichmäßig über eine größere Anzahl von Unternehmen verteilt und ob eher große oder eher kleine Unternehmen die hauptsächliche Quelle von Innovationen darstellen. Der Zusammenhang zu den (unter III. 2. c) angesprochenen) Schumpeter-Hypothesen ist hier unmittelbar ersichtlich. Die Kategorien (iii) und (iv) weisen wiederum auf charakteristische Entwicklungsmuster hin, die entweder durch Stabilität und kreative Akkumulation von Know-how oder alternativ durch hohe Dynamik und Turbulenz sowie kreative Zerstörung gekennzeichnet sind. Tabelle 2 Sektorklassifikation nach Pavitt (1984) Typische Sektoren

Unternehmenstyp science-based

Elektronik, Chemie

scale-intensive

Stahl, Glas, Gebrauchsgüter, Automobil

specialised supplier

Maschinenbau, Feinmechanik / Optik

supplier-dominated

trad. verarbeitendes Gewerbe (Textil), Landwirtschaft, Baugewerbe

Entsprechend diesen Kriterien teilen Malerba und Orsenigo die Sektoren in zwei Gruppen ein, die mit Schumpeter I und Schumpeter II bezeichnet werden. Diese Bezeichungen gehen auf die Werke von Schumpeter zurück. In der Theorie der wirtschaftlichen Entwicklung (1912) hat Schumpeter auf die kreative Zerstörung hingewiesen, die von neuen, jungen Unternehmen und Entrepreneuren ausgeht, wodurch Instabilität entsteht - Schumpeter Mark I. Schumpeter Mark II wiederum bezieht sich auf Socialism. Capitalism and Democracy (1942). Hier hebt Schumpeter die Bedeutung des etablierten Großunternehmens mit eigener Forschungsabteilung für den technologischen Fortschritt hervor, woraus sich eine relative stabile Entwicklung verbunden mit einer kontinuierlichen Akkumulation von Know-how ableitet. Mit Hilfe der Kriterien (i)-(iv) lassen sich die verschiedenen industriellen Sektoren und Technologieklassen in die beiden Innovationstypen Schumpeter I und Schumpeter II klassifizieren. Für eine Erklärung und Interpretation der gefundenen Ergebnisse verweisen Malerba und Orsenigo dann auf sogenannte technologische Regime, eine Konzeption, die bei Nelson und Winter (1982) entlehnt ist. Ein technologisches Regime wird beschrieben mit Hilfe der folgenden Kriterien: (i)

technologische Möglichkeiten;

(ii) Appropriationsbedingungen; (iii) Grad der Kumulativität des Know-how; (iv) Eigenschaften der relevanten Wissensbasis.

Industrie-Evolution

279

So kann ein reines Innovationsverhalten vom Typus Schumpeter I mit hohen technologischen Möglichkeiten, niedrigen Appropriationsbedingungen und geringer Kumulativität beschrieben werden, das sogenannte entrepreneurial regime. Kleine und neue Unternehmen haben hier also durchaus Erfolgschancen und Marktturbulenzen sind zu erwarten. Schumpeter /I hingegen weist hohe technologische Möglichkeiten, gute Appropriationsbedingungen und einen hohen Grad der Kumulativität des technologischen Know-hows auf. Dementsprechend sind in diesem sogenannten routinized regime etablierte Unternehmen im Vorteil und eine Persistenz von Strukturen stellt sich ein. Mit Hilfe dieser Kriterien und deren Anwendung und Untersuchung für ausgewählte Sektoren (Halbleiter-Industrie, Biotechnologie, Computer-Industrie) gelingt es Malerba und Orsenigo (1993), grundlegende Technologiestrategien von Unternehmen abzuleiten. 31 Diese beziehen sich auf die Erforschung neuer Technologien, die Nutzung bekannter Technologien, die Stärkung der Appropriationsbedingungen und letztendlich auch die Imitation. In Malerba und Orsenigo (1997) werden zusätzlich Ergebnisse über Markteintritt und -austritt, über die geographische Ausbreitung der Innovationsaktivitäten sowie über die intersektorale Einbindung der jeweiligen Sektoren vorgestellt. Aufgrund dieser Vorgehensweise ist es möglich, auch ohne die Kenntnis der Innovationen selbst, Prognosen über das innovative Verhalten von Unternehmen sowie über die Entwicklung einer Industrie aufzustellen. Die Frage nach der Entwicklung von Industrien und die Beschreibung des Innovationsverhaltens von Unternehmen - wie sie von Malerba und Orsenigo (1993, 1997) vorgestellt wird - findet eine interessante Erweiterung und Ergänzung, wenn man sich die verschiedenen Phasen der zeitlichen Entwicklung betrachtet, wie sie durch den Industrielebenszyklus repräsentiert werden. Es handelt sich hierbei um die bisher einzige stilisierte Beschreibung der strukturellen Dynamik von Industriestrukturen. 32 Man identifiziert drei Phasen der Evolution von Technologien. In Phase 1 wird durch eine radikale Innovation eine Folge von Produktinnovationen induziert; der Wettbewerb ist intensiv, die Markteintrittsbarrieren sind niedrig und die Marktentwicklung ist turbulent. In der Terminologie von Malerba und Orsenigo (1993, 1997) könnte diese Phase auch als Innovationsphase des Typus Schumpeter I bezeichnet werden. Im weiteren Verlauf findet in Phase 2 eine Standardisierung der Technologie statt. Dies prägt und beschränkt auch in gewisser Weise die weitere technologische Entwicklung: Prozeßinnovationen werden stärker verfolgt, die Unternehmensgröße nimmt zu und die Wettbewerbsintensität sinkt, da die Markteintrittsbarrieren wachsen. In der letzten Phase nimmt die Innovationsdynamik ab, man beobachtet nur noch einige inkrementale Prozeßinnovationen, die Marktkonzentration ist hoch und die Anzahl möglicher UnternehmenszusammenSiehe auch MalerbalOrsenigo (1997, 60 ff.). Diese Konzeption geht zurück auf Arbeiten von AbemathylUtterback (1978), Utterback I Suarez (1993), Gortl Klepper (1982), Klepper I Graddy (1990). 31

32

280

Uwe Cantner und Horst Hanusch

schlüsse steigt. Diese beiden letzten Phasen stehen dann eher in Verbindung mit einem Innovationsverhalten, das dem Typus Schumpeter II entspricht. Die Konzeption des Industrielebenszyklus ist in einer Reihe von Studien einer empirischen Analyse unterzogen worden. Es zeigt sich hier allerdings, daß nicht alle Industrien dieser stilisierten Entwicklung entsprechen. 33 So findet sich zwar eine recht gute Evidenz für einige Sektoren innerhalb der Konsumgebrauchsgüterindustrie 34, eine Generalisierung jedoch ist nicht möglich. Zu guter letzt können auch die technologischen Beziehungen zwischen Unternehmen einen nachhaltigen Einfluß auf die strukturelle Dynamik ausüben. In diesem Zusammenhang sei auf technologische Spillovereffekte im Rahmen von Innovator-lmitator-Beziehungen hingewiesen. Cantner (1996, 1997a) und Bemard/ Cantner (1998) analysieren für ausgewählte Sektoren des deutschen beziehungsweise französischen verarbeitenden Gewerbes, wie aus dem Zusammenspiel von absorptiven Fähigkeiten, technologische Opportunitäten und Technologieunterschieden charakteristische Entwicklungsmuster des catching-up undfalling-behind sowie Strukturstabilität und damit konstante technologische Lücken entstehen. Diese Effekte können vor allem in den science-based-Sektoren nach der Klassifikation von Pavitt signifikant nachgewiesen werden, während sie in Sektoren, die als specialized-supplier bezeichnet werden, nicht wirksam sind. Nach diesem kurzen Ausflug in die empirische Analyse der Industrie-Evolution soll im nächsten Abschnitt eine formal-analytische Diskussion der Zusammenhänge vorgestellt werden. Dabei werden wir wieder auf einige der oben beschriebenen Strukturelemente und charakteristische Entwicklungsmuster zurückgreifen können. 3. Das Zusammenspiel von Innovation und Wettbewerb Ansätze zu einer formalen Analytik

Das Zusammenspiel von Innovation und Wettbewerb wird innerhalb des evolutorischen Ansatzes als grundlegend für die Strukturbildung, die Strukturentwicklung und den Strukturwandel angesehen. Entsprechend der oben getroffenen definitorischen Abgrenzung evolutorischer Prozesse können auf formal-theoretischer Ebene zwei Modellklassen unterschieden werden. Zum einen handelt es sich innerhalb des Mutations / Selektions-Paradigmas um Modellansätze der Replikatordynamik; andererseits sind innerhalb des "evolvere"-Paradigmas die Ansätze des Produktlebenszyklus oder des Industrielebenszyklus angesprochen. Man muß hier allerdings festhalten, daß diese idealisierende Einteilung so trennscharf nicht eingehalten werden kann, denn bei Replikatormodellierungen lassen sich ebenso entprechende Phasen eines Produktlebenszykluses berücksichtigen, wie auch bei 33 34

Siehe beispielsweise Klepper (1996), Malerbai Orsenigo (1996). Siehe zum Beispiel KlepperlSimons (1997).

281

Industrie-Evolution

Ansätzen zum Produktlebenszyklus die Effekte eines selektiven Innovationswettbewerbs zum Tragen kommen. Letztendlich soll diese Einteilung nur darauf hinweisen, wo man das jeweilige Schwergewicht der Analyse legt. Oben haben wir bereits die Frage aufgeworfen, wie es möglich ist, die Heterogenität der Akteure und ihrer Verhaltensweisen analytisch in den Griff zu bekommen. Der evolutorische Ansatz greift zu diesem Zweck auf die sogenannte Replikatordynamik zurück, die auf Fisher (1930) zurückgeht, und in formaler Weise das Darwinsche Prinzip des survival of the fittest repräsentiert. Mit ihr wird in einer heterogenen Population der Wettbewerb zwischen den Akteuren abgebildet. Die Replikatordynamik ist in einer Reihe von Modellen zur dynamischen Entwicklung von einzelnen Sektoren oder ganzen Ökonomien verwendet worden. In aller Regel können diese Modelle aufgrund ihrer Komplexität analytisch nicht mehr gelöst werden und man ist gezwungen, Simulationen durchzuführen. 35 Dies gilt insbesondere, wenn man die Innovationstätigkeit explizit als ein Such- und Experimentierverhalten modelliert36 und darin stochastische Effekte berücksichtigt. Im folgenden möchten wir zur Darstellung der grundlegenden Mechanismen ein sehr einfaches deterministisches Industriemodell vorstellen. Es sollen damit die prinzipiellen Beziehungsmechanismen aufgezeigt werden, wie sie in den angesprochenen Simulations modellen in komplexerer und zumeist indirekter Form zu finden sind. a) Selektion oder Wettbewerb Die Replikatordynamik läßt sich formal auf einfache Art und Weise darstellen: Wir betrachten N konstante Größen oder Replikatoren i, i E N, deren relative Häufigkeit (Anteil an der Gesamtpopulation N) Si sich im Zeitablauf verändert. Diese Veränderung ist abhängig von der Fitness f; gegenüber der durchschnittlichen gewichteten Fitness J der Gesamtpopulation. Die Fitness ist ganz allgemein abhängig vom Vektor s, der die relativen Häufigkeiten aller Replikatoren enthält. 37 Die entsprechende Dynamik wird durch die folgende Differentialgleichung beschrieben: (1)

Si

= df;(s) -1(s)),

1(s)

=

L sJi(s) . N

Für die Analyse der Industrie-Evolution kann diese Wettbewerbsdynamik - im Sinne einer Selektionsdynamik - auf zwei verschiedene Art und Weisen interpretiert werden. Zum einen mögen die Replikatoren i als verschiedene Unternehmen 35 Siehe zum Beispiel Kwasnicki / Kwasnicka (1992), Kwasnicki (1996), Saviottil Mani (1995). 36 Siehe hierzu vor allem Nelson/Winter (1982), Silverberg / Lehnert (1994, 1996), Silverberg/Verspagen (1994), Kwasnicki/Kwasnicka (1992). 37 In dieser allgemeinen Formulierung ist die Möglichkeit frequenz-abhängiger Fitness bereits enthalten.

282

Uwe Cantner und Horst Hanusch

eines Sektors betrachtet werden, die einen jeweiligen Marktanteil Si besitzen. Deren Fitness Ji kann sich dann beispielsweise in der Höhe der Stückkosten Ci widerspiegeln, genaugenommen _Ci. 38 Entsprechend sagt die Replikatordynamik für konstante FitnessfunktionenJi aus, daß ein Unternehmen i seinen Marktanteil ausweitet (vermindert), wenn seine Stückkosten unter (über) den durchschnittlichen gewichteten Stückkosten in der Branche liegen. Der Selektionswettbewerb sorgt auf diese Weise dafür, daß diejenigen Unternehmen mit den vergleichsweise höchsten Stückkosten aus dem Markt getrieben werden. Letztendlich erringt das Unternehmen mit den niedrigsten Stückkosten eine Monopolposition. Es kann dabei gezeigt werden, daß sich die durchschnittliche Fitness, hier die Stückkosten, proportional zur Varianz der Stückkosten verringert: (2)

oe

"ut = var(c) < 0. -

Bei dieser Interpretation ist allerdings kritisch anzumerken, daß in der Formulierung (1) die einzelnen Unternehmen keinen Einfluß auf die Selektionsdynamik besitzen, d. h. die einmal eingeschlagene Routine mit Stückkosten Ci zu produzieren wird nicht verlassen. Zumindest für reale Akteure mit einem Selektionsnachteil (Ci> c) würde man hier jedoch eine Reaktion erwarten. Wir werden auf diesen Kritikpunkt später zurückkommen. Wenden wir uns zunächst der zweiten Interpretation zu. Alternativ kann man die Replikatoren i aber auch als ein bestimmtes Produkt unter N miteinander konkurrierenden Gütern ansehen. Bezeichnet Ji dann die jeweilige Produktqualität wird dessen Marktanteil Si in dem Maße zunehmen (abnehmen), wie Ji über (unter) der durchschnittlichen Produktqualität im Sektor liegt. Man kann dies als eine Diffusion des qualitativ am höchsten stehenden Gutes in dem Sektor auffassen, wodurch alle (hier nicht näher spezifizierten) Unternehmen dieses Sektors die Produktion des Gutes aufnehmen werden. Entsprechend der Kritik von oben wäre hier allerdings anzumerken, daß jedes Unternehmen die Übernahme der Produktion des besten Produktes friktionslos bewerkstelligen kann. Dies läßt sich aber nur schwer mit der Annahme beschränkter Rationalität der Akteure in Einklang bringen, was wiederum nahe legt, nach einem entsprechenden Lernmechanismus zu fragen. b) Mutation oder Innovation Wenden wir uns nun der Innovationstätigkeit zu und fragen wir, wie sie sich im vorgezeichneten Rahmen berücksichtigen läßt? Unsere Ausführungen zu den deskriptiv-empirischen Studien haben gezeigt, daß man sich durchaus verschiedene Rückkopplungseffekte von der ökonomischen auf die technologisch-innovative 38

Vergleiche hierzu Metcalfe (1994), MazzucatolSemmler (1998), Cantner (1997b).

Industrie-Evolution

283

Ebene vorstellen kann. Ganz allgemein läßt sich dies mit Hilfe einer Abhängigkeit der Fitnessfi vom ökonomischen Erfolg ei berücksichtigen. Bei der Spezifizierung dieser Abhängigkeit kann man sich nun verschiedene Möglichkeiten vorstellen. So diskutiert Metcalfe (1994) statische Skalenerträge, indem die Fitness als vom jeweiligen Erfolg Si abhängig angenommen wird, also fi = fi(Si) gilt. Entsprechend lassen sich hierbei steigende und fallende Skalenerträge feststellen. Wendet man dies auf die sektorale Analyse an, so findet man im ersten Fall eine Monopolisierung (Dominanz eines Unternehmens) beziehungsweise Homogenisierung (bezüglich des produzierten Gutes) des Sektors. Im zweiten Fall hingegen führt die Selektionsdynamik zu einer Koexistenz von Unternehmen beziehungsweise von Gütern. Im Rahmen der Innovationsökonomik interessanter sind hingegen dynamische Skalenerträge. Diese implizieren, daß die Veränderung der Fitness vom Erfolg abhängt. Prinzipiell findet sich dann folgende Formulierung: (3)

Si = sdji(e;) - J),

J = Ls;Ji(ei) . N

(4)

j;

= g(ei) .

Übersetzt in das Sektorenmodell kann man sich fragen, auf welche Weise der ökonomische Erfolg ei hier nun Eingang finden soll. In einer sehr einfachen Formulierung könnte dies lauten, daß der Marktanteil Si den ökonomischen Erfolg angeben soll. Darin spiegeln sich einerseits Faktoren wie Unternehmensgröße und andererseits auch die F&E-Finanzierungsstärke wider, die wiederum im Hinblick auf die Innovationsfähigkeit eines Unternehmens gänzlich unterschiedlich interpretiert werden können. In einem ersten Fall impliziert dies eine Formulierung mit steigenden dynamischen Skalenerträgen und eine Orientierung am Prinzip des success-breeds-success 39 ; eine Interpretation, daß sich große Unternehmen innovativ erfolgreicher zeigen und eine Orientierung am Regime Schumpeter 1I sind hier äquivalent. Im zweiten Fall könnte man argumentieren, daß kleine Unternehmen flexibler und damit innovativer seien; damit ist eine Orientierung am Regime Schumpeter I angesprochen und eine Formulierung mit sinkenden dynamischen Skalenerträgen bietet sich dementsprechend an. 40 Beide Alternativen finden sich in Mazzucatto / Semmler (1998) und in Cantner (1997b) diskutiert. Für den Wettbewerb zwischen Unternehmen und bei Innovationen, die den Produktionsprozeß verbessern und damit die Stückkosten senken, gilt dann entsprechend folgendes Modell: (5)

S = Si(C - Ci),

J= LSiCi. N

39

40

Eine erste empirische Studie zu diesem Sachverhalt findet sich in Phi/Ups (1971). Siehe hierzu Malerbai Orsenigo (1993, 1997).

284

Uwe Cantner und Horst Hanusch

i:

(6)

0;=

-v g(Si) .

Die Funktion g(Si) gibt hier den Zusammenhang zwischen der Stückkostenreduktion und dem Markterfolg wider: Dabei können, wie gesagt, steigende und sinkende dynamische Skalenerträge auftreten, wobei die Rate und nicht die Richtung der Stückkostenveränderung beeinflußt wird; bei letzterer handelt es sich stets um eine Reduktion. v ist ein Parameter, der für das Ausmaß der ökonomischen Rückkopplung steht. Analysiert man zuerst den Fall Schumpeter Il, dann wird hier ein Prozeß des success-breeds-success modelliert. Der Selektionswettbewerb wie auch der skalenoder größenabhängige Innovationserfolg führen zu einer zunehmenden ökonomischen und technologischen Dominanz des technologisch führenden Unternehmens mit der Konsequenz der Monopolisierung. 41 Simulationsergebnisse bestätigen dies, wie Abbildung I dies für zwei technologisch unterschiedliche Unternehmen, UI und U2, am Verlauf der Marktanteilsdynamik aufzeigt. Beide Unternehmen teilen sich im Zeitpunkt 0 den Markt gleichmäßig auf. Das technologisch führende Unternehmen UI weitet aufgrund von Selektionsvorteilen und, darauf aufbauend, von Skalenvorteilen sehr schnell seinen Marktanteil aus und verdrängt damit Unternehmen U2 aus dem Markt. Innovations- und Wettbewerbsdynamik wirken hier gemeinsam in Richtung einer Monopolisierung des Marktes.

0,5

OL---------~~--------------------------~

Abb. 1: Entwicklung der Marktanteile bei steigenden Skalenerträgen der Innovation

Die Konstellation Schumpeter I hingegen zeichnet sich durch sinkende Skalenerträge in der Innovationstätigkeit aus. Dementsprechend wird über die Selektionsdynamik der Marktanteil des Unternehmens mit den geringsten Stückkosten an41

Siehe Mazzucatto / Semmler (1998), Cantner (1997b).

Industrie-Evolution

285

wachsen, während die Innovationsdynamik gerade bei Unternehmen mit kleinem Marktanteil groß ist. Selektionswettbewerb und Innovationsdynamik sind also zwei einander entgegengesetzte Kräfte. Für geeignete Parameterkonstellationen kann gezeigt werden, daß in der Marktanteilsentwicklung sowie in der Entwicklung technologischer Lücken erhebliche Turbulenzen auftreten können. Abbildung 2 zeigt und bestätigt diesen Fall für die Entwicklung des Marktanteils der beiden Unternehmen Ul und U2.

OL---------------------------------------~

Abb. 2: Entwicklung der Marktanteile bei sinkenden Skalenerträgen der Innovation

Im Zeitpunkt 0 teilen sich die zwei technologisch unterschiedlichen Unternehmen den Markt gleichmäßig auf. Die Innovations- und die Selektionsdynamik setzen ein, wobei zuerst das technologisch führende Unternehmen Ul Marktanteile hinzugewinnt. Hierdurch läßt dessen Innovationsdynamik nach, worauf das rückständige Unternehmen U2 aufholen kann und letztendlich sogar Ul überholt, sowohl technologisch als auch ökonomisch. Mit jeweils umgekehrten Vorzeichen kann sich dieser Prozeß dann noch mehrere Male wiederholen. 42 In dem Maße wie die technologischen Möglichkeiten ausgeschöpft sind, werden die Turbulenzen jedoch schwächer, sowohl Innovations- wie auch Selektionsdynamik lassen nach, und es entsteht eine technologisch homogene Struktur mit unterschiedlichen Marktanteilen. c) Lernen und Imitation In Abschnitt 2. a) haben wir bereits auf die Kritik an der ModelIierung nicht lernender Akteure hingewiesen. Wollte man diesen Aspekt voll berücksichtigen, wür42 Die Anzahl der Überholprozesse hängt von der Wahl der Parameter für die Innovationsund die Selektionsdynamik ab.

286

Uwe Cantner und Horst Hanusch

de man sehr schnell in eine relative komplexe Modellstruktur hineingeraten. Um jedoch die prinzipiellen Wirkungszusammenhänge aufzuzeigen, kann folgende einfache Ergänzung in unser Modell eingebaut werden: 43 Der relative technologische Abstand Gi zwischen dem Unternehmen i mit Ci und dem Technologieführer mit Cmin betrage ln(c;jcmin). Dem Unternehmen i sei es möglich, aus diesem Unterschied zu lernen, also die Technologie vom Technologieführer zu imitieren, und zwar bis zu einem Grad a, 0 :S a :S 1. 44 Die Dynamik des Sektors ist dann wie folgt beschrieben: (7)

S = Si(C - Ci),

(8)

i: =

1= LSiCi. N

-1/

g(Si) - aGi .

Vergleicht man die Ergebnisse der Dynamik aus (7) und (8) mit denjenigen aus (5) und (6), so zeigt sich, daß das gegenseitige voneinander Lernen bei steigenden Skalenerträgen die Tendenz zur Monopolisierung abschwächt und die Unternehmen mit einer nahezu konstanten technologischen Lücke koexistieren können. Im Fall sinkender Skalenerträge in der Innovation wird die turbulente Marktanteilsdynamik erheblich gemildert und schon früh setzt eine Koexistenz bei konstanter technologischer Lücke und nahezu konstanten Marktanteilen ein. Mit Hilfe des oben beschriebenen Modells ließen sich nun eine Reihe weiterer Struktureffekte und Entwicklungsdynamiken beschreiben und analysieren. Die Kombination von sinkenden und steigenden Skalenerträgen könnte das Entwicklungsmuster des Industrielebenszyklus nachzeichnen. Ebenso sind Markteintritt und -austritt in diesen Modellrahmen integrierbar. Die Komplexität der entsprechenden Modelle würde hierdurch sofort ansteigen, und eine leichte analytische Durchdringung der Zusammenhänge, wie oben, wäre dann nicht mehr gewährleistet. Wir wollen daher auf solche Erweiterungen nicht weiter eingehen und verweisen auf die einleitend in Kapitel IV. 3. zitierte Literatur hierzu.

V. Weitere Ansätze und offene Fragen Die Vorstellung der Ergebnisse zur Industrie-Evolution unter Abschnitt IV konnte nur einen Ausschnitt aus dem breiten Forschungsspektrum vorstellen. Dabei wurde auf einige neuere Entwicklungen nicht explizit eingegangen, die sich in gewisser Weise zwischen einer rein evolutorischen und einer rein neoklassischen Modellierung bewegen. Im Rahmen der Industrielebenszyklus-Diskussion hat 43 Vergleiche hierzu Cantner (1997b). Dort findet sich auch eine Erweiterung um sogenannte ..absorptive Fähigkeiten" der Akteure. 44 a steht für die Leichtigkeit, mit der externes technologisches Wissen übernommen werden kann.

Industrie-Evolution

287

Klepper (1996) ein formal-analytisches Modell vorgestellt, das zu einem gewissen Grad Heterogenität der Akteure in Bezug auf deren innovative Fähigkeiten zuläßt. Daneben wird für die Akteure angenommen, daß sie statisch optimale Entscheidungen bezüglich ihrer Innovationstätigkeit und ihrer Marktstrategie fällen können. Letztere Annahme wird auch als myopisches Optimieren bezeichnet. Letztendlich werden für die F&E-Aktivitäten steigende Skalenerträge unterstellt, eine Formulierung, die wir als Schumpeter II kennengelernt haben. Mit Hilfe dieser Annahmen zeigt Klepper, wie sich Markteintritt und Marktaustritt sowie die Aufteilung der F&E-Tätigkeiten auf Prozeß- und Produktfortschritt im Laufe eines Industrielebenszyklus entwickeln. Es ergeben sich hier teilweise ähnliche Ergebnisse, wie man sie mit Hilfe von Simulationsmodellen auf Basis der Replikatordynamik (im Rahmen der Schumpeter II ModelIierung) erhält. Bei der Beschreibung und Analyse der Entwicklung von Industrien wird in vielen Fällen eine industrie-spezifisch isolierte Sicht eingenommen. Dies läßt die interindustriellen Abhängigkeiten technologischer und ökonomischer Art außer Betracht. Während sich empirische Untersuchungen im Rahmen von Technologiestrom-Analysen diesem Fragenkreis schon seit längerem zuwenden, sind formale Ansätze hierzu noch wenig entwickelt. Eine wichtige Fragestellung innerhalb dieses Problemkreises bezieht sich darauf, wie Akteure voneinander lernen können und wie sich dabei unterschiedliche Technologien gegenseitig befruchten. Es geht hier also nicht um Innovator-Imitator Beziehungen (wie oben in Abschnitt IV), sondern um cross-Jertilization Effekte und damit um Rekombinationsmäglichkeiten, sowie die dazu notwendigen absorptiven Fähigkeiten der Akteure. Einige Ideen hierzu finden sich im Rahmen einer Lotka-Volterra Formulierung in Cantner (1996) sowie in einem synergetischen Modell in Cantner / Pyka (1998a), das zeigt, wie intra-industrielle Strukturen durch die Nutzung inter-industrieller Spillovers geprägt werden können. Daneben werden diese Effekte auch im Rahmen einer Simulationsstudie zur evolutorischen Industrieentwicklung von Cantner / Hanusch / Pyka (1998) und Cantner/Pyka (1998b) untersucht, die in ihrer ModelIierungsphilosophie sehr nahe an diejenige in Klepper (1996) herankommt. Hier werden Akteure unterstellt, die ihre Marktstrategien myopisch optimieren; die F&E-Strategien allerdings werden in Form eines Suchprozesses formuliert. Es zeigt sich, daß in vielen Fällen eine an cross-Jertilization Effekten und Rekombination orientierte Innovationsstrategie den vergleichsweise größten Erfolg verspricht. Welche offenen Fragestellungen werden die weitere Forschungsagenda bestimmen? Die Liste hierzu ist nahezu endlos, denn bei allen hier vorgestellten Forschungsbeiträgen sind sowohl auf theoretischer wie auf empirisch-konzeptioneller Ebene noch viele Fragen offen. Die Definition und Abgrenzung von Industrie, die Berücksichtigung von Kompetenzen, Spezialisierungen, Organisationsstrukturen, etc. auf der Unternehmensebene, User-Producer-Beziehungen, der institutionelle Wandel, u. v.a.m sind einige, vor allem in bezug auf die Entwicklung von Industrien noch wenig verstandene Problembereiche. Untersuchungen hierzu sind ein weiterer wichtiger Schritt hin zu einer Theorie der strukturellen Evolution. Eine

288

Uwe Cantner und Horst Hanusch

solche geht über die hier vorgestellten Analysen der strukturellen Dynamik in dem Sinne hinaus, daß vor allem die Quellen der Innovationstätigkeit stärker hinterfragt werden. Es geht dann insbesondere um Erklärungsansätze, die sich mit dem Entstehen neuer Sektoren, mit der Generierung neuer Technologien, mit der Entwicklung und der Veränderung von spezifischen Fähigkeiten und Kenntnissen, mit dem Phänomen von Netzwerken sowie auch mit der Bedeutung von institutionellem Wandel für die industrielle Entwicklung beschäftigen und darauf eine zufriedensteIlende Antwort geben können. Neben Fragen direkt die strukturelle Entwicklung und Evolution betreffend, sind natürlich auch die sich indirekt ergebenden Konsequenzen für andere ökonomische Problemstellungen von Interesse. Von besonderer Bedeutung scheinen uns hier die makroökonomische Wachstumsentwicklung und die Beschäftigungsproblematik zu sein. Auf der Makroebene gilt es vor allem einige konzeptionelle Probleme zu lösen, da bei besonderer Berücksichtigung der Heterogenität der Akteure eine einfache Aggregation von der Mikroebene zur Meso- und dann zur Makroebene nicht mehr möglich ist. Modellansätze, die sich auf einen repräsentativen Akteur berufen, wie etwa in der Neuen Wachstumstheorie, tun sich hier weitaus leichter. Der dafür zu zahlende Preis ist unserer Ansicht nach aber sehr hoch: Man ist gezwungen, die strukturelle Dynamik aus der Analyse zu verbannen. Der Problemkreis Beschäftigungsentwicklung im Zusammenhang mit strukturellem Wandel ist ebenfalls noch wenig verstanden. Vor allem fehlt es hier noch an gut strukturierten empirischen Erhebungen, die auf klassifizierende Art und Weise Innovationsverhalten, Struktureffekte und Strukturdynamik zueinander in Beziehung setzen. Eine besondere Rolle spielt dabei wohl die Beziehung zwischen der Ausbildung von Arbeitskräften und den Anforderungen der Unternehmen an das Know-how und die Kompetenzen der Mitarbeiter. Erst wenn diese Zusammenhänge auf breiter empirischer Basis zugänglich sind, können sich hierzu theoretische Analyse und Modellbetrachtung fruchtbar entwickeln. Ein letzter Punkt weist auf eine grundlegende Problematik innerhalb der Theorie der Industrie-Evolution hin - die formal-analytische Fundierung der vermuteten Zusammenhänge. In diesem Bereich zeigt der evolutorische Ansatz noch viele Lücken. Diese zu schließen sollte sicherlich ein Hauptanliegen zukünftiger Forschungsarbeiten sein. Wenn aber die entsprechenden Modelle history-friendly - wie sich Malerba, Nelson, Orsenigo und Winter (1996) ausdrücken - konzipiert sein sollen, dann müssen auch die empirischen Ansätze in Form des sogenannten appreciative theorizinl5 vorangetrieben werden.

45

Siehe hierzu Nelson/Winter (1982).

Industrie-Evolution

289

Literatur Abernathy, W. J.I Utterback, J. M. (1978): A dynamic model of product and process innovation, Omega 3(6), 1978 Allen, R. C. (1983): Collective invention, Journal 01 Economic Behaviour and Organisation 4, 1983, 1-24 Arrow, K. J. (1962): Economic Welfare and the Allocation of Resources for Invention, in: Nelson R. R. (ed.) (1962), The Rate and Direction olInventive Activity: Economic and Social Factors, Princeton: Princeton University Press, 1962, 609 - 25 Audretsch, D. (1997): Technological regimes, industrial demography and the evolution of industrial structures, Industrial and Corporate Change 6(1), 1997, 49 - 82 Baily, M. I Chakrabarty, A. K. (1985): Innovation and productivity in the US industry, Brooking Papers on Economic Activity 2, 1985, 609 - 32 Bain, J. S. (1956): Barriers to new competition, Cambridge, Mass.: Harvard University Press, 1956 Beath, J. I Katsoulacos, Y. I Ulph, D. (1988): Strategic innovation, in: Dempster M. A. H. (ed.), Mathematical models in economics, Oxford: Oxford University Press, 1988 Bernard, J.lCantner, U. (1998): Retombees technologiques, effects de rattrapage et dynamique intra-sectoriell, in: Bernard J., M. Catin (eds), Les Conditions Economiques du Changement Technologique, Paris, Montreal: L'Harmattan, 1998,95 -116 Cantner, U. (1996): Heterogenität und technologische Spillovers - Grundelemente der ökonomischen Theorie des technologischen Fortschritts, Habilitationsschrift, Universität Augsburg, 1996 - (1997a): Industrial Dynamics and Structural Development - R&D, Spillovers and Absorptive Capacity, Research Seminar on "Evolutionary Theory and Empirical Research", Stockholm School of Economics, Stockholm, 10.-11. Oktober 1997 - (I 997b): Evolutionäre Dynamik und Sektorale Strukturentwicklung, mimeo, Universität Augsburg, 1997

Cantner, U. I Hanusch, H. (1997): Intrasektorale technologische Dynamik, in: Helmstädter E., G. Poser, H. J. Ramser (Hrsg.), Beiträge zur angewandten Wirtschaltslorschung, Festschrift K. H. Oppenländer, Berlin: Duncker & Humblot, 1997, 187 - 216 Cantner, U. I Hanusch, H. I Pyka, A. (1998): Innovation strategies - comparative performances in a simulation study, in: Lesourne J. (ed.), Selforganization and evolutionary economics: new developments, erscheint demnächst Cantner, U. I Pyka, A. (1998a): Technological evolution - an analysis within the knowledge based approach, Structural Change and Economic Dynamics 9( 1), 1998, 85 - 108 - (1998b): Performance Economique et Technologique Comparee des Strateges d'Innovation: Un Modele de Simulation Dynamique de Concurrence Monopolistique, in: Bernard, J., M. Catin, M., (eds.), Les Conditions Economiques du Changement Technologique, Paris, Montreal: L 'Harmattan, 1998, 63 - 94

Cantner, U. I Westermann, G. (1998): Localized technological progress and industrial dynamics - an empirical approach, Economics 01 Innovation and New Technology 6, 1998 19 Selbstorganisation, Bd. 9

290

Uwe Cantner und Horst Hanusch

D 'Aspremont, c./Jacquemin, A. (1988): Cooperative and noncooperative R&D in duopoly with spillovers, American Economic Review 78, 1988, 1133 - 37 Dasgupta, P.I Stiglitz, J. E. (1980): Industrial Structure and the Nature oflnnovative Activity, Economic Journal 90, 1980, 266 - 93 Dosi, G. (1984): Technical change and industrial transformation, London: Macmillan, 1984 - (1982): Technological paradigms and technological trajectories: a suggested interpretation of the determinants and directions of technical change, Research Policy 2(3), 1982, 14762 - (1988): The nature of the innovative process, in: Dosi G., C. Freeman, R. Nelson, G. Silverberg, L. Soete, Technical Change and Economic Theory, London: Pinter Publishers, 1988,221-38

Dosi, G.I Pavitt, K.I Soete, L. (1990): The economics of technical change and international trade, New York et al.: Harvester Wheatsheaf Dunne, T.I Roberts, M. J.I Samuelson, L. (1988): Patterns of firm entry and exit in US manufacturing industry, Rand Journal of Economics 19, 1988,495 - 515 Eliasson, G. (1990): The firm as a competent team, Journal of Economic Behaviour and Organization 13, 1990, 273 - 98 Fisher, R. A. (1930): The genetical theory of natural selection, Oxford: Clarendon Press, 1930 Freeman, C.I Perez, C. (1988): Structural crisis of adjustment: business cycles and investment behaviour, in: Dosi G., C. Freeman, R. Nelson, G. Silverberg, L. Soete, Technical Change and Economic Theory, London: Pinter Publishers, 1988, 38 - 66 Geroski, P. A.I Jacquemin, A. (1988): The persistence of profits, Economic Journal 98, 1988, 375 -90 Gort, M.I Klepper, S. (1982): Time paths in the diffusion of product innovations, Economic Journal 92, 1982,630-53 Griliches, z. (1986): Productivity, R&D and basic research at the firm level, American Economic Review 76, 1986, 141 - 54 Harris, C. J.I Vickers, J. (1987): Racing with uncertainty, Review of Economic Studies 49, 1987,372 - 87 Ijiri, Y.I Simon, H. (1977): Skew distributions and sizes of business firms, Amsterdam: North Holland, 1977 Klein, B. (1977): Dynamic economics, Cambridge, Mass.: Harvard University Press, 1977 Klepper S. (1996): Exit, entry, growth, and innovation over the product-life-cycle, American Economic Review 86(3), 1996, 562 - 83 Klepper, S.I Graddy, E. (1990): The evolution of new industries and the determinants of market structure, Rand Journal of Economics 21, 1990, 2 - 44 Klepper, S.I Simons, K. L. (1997): Technological extinctions of industrial firms: an inquiry into their nature and causes, Industrial and Corporate Change 6(2), 1997, 379 - 460

Industrie-Evolution

291

Kwasnicki, W. (1996): Knowledge, innovation and economy: an evolutionary exploration, Aldershot: Edward Eigar, 1996 Kwasnicki, W. / Kwasnicka, H. (1992): Market, innovation, competition: an evolutionary model of industrial dynamics, Journal 0/ Economic Behaviour and Dynamics 19, 1992, 343 - 68 Lee, T. / Wilde, L. L. (1980): Market structure and innovation: a reformulation, Quarterly Journal 0/ Economics 94, 1980, 429 - 36 Levin, R. C. / Reiss, P. C. (1984): Tests of a Schumpeterian model of R&D and market structure, in: Griliches Z. (ed.), R&D, patents, and productivity, Chicago, London: University of Chicago Press, 1984 - (1988): Cost-reducing and demand creating R&D with spillovers, RAND Journal nomics 19/4, 1988, 538 - 56

Loury, G. C. (1979): Market structure and innovation, Quarterly Journal 1979,395 - 410

0/ Eco-

0/ Econmics

93,

Malerba, F./Orsenigo, L. (1993): Technological regimes and firm behaviour, Industrial and Corporate Change 2(1), 1993, 45 - 72 - (1996): The dynamics and evolution of industries, Industrial and Corporate Change 5(1), 1996,51- 88 - (1997): Technological regimes and sectoral patterns of innovative activities, Industrial and Corporate Change 6(1), 1997,83 -1l8

Malerba, F. / Orsenigo, L. / Peretto, P. (1997): Persistence of innovative activities, sectoral patterns of innovation and international technological spillovers, International Journal 0/ Industrial Organization, 1997 Malerba, F. / Nelson, R. /Orsenigo, L. / Winter, S. (1996): A model of the computer industry, Bocconi University, Milan, mimeo Mason, E. S. (1939): Price and production policies of large enterprises, American Economic Review, 1939,61 -74 Mazzucato, M. / Semmler, W. (1998): Market share instability and financial dynamics during the industry life cycle: the US automobile industry, erscheint demnächst in: S. Klepper, U. Cantner, H. Hanusch (eds), Speciallssue des Journal 0/ Evolutionary Economics, 1998 Metcalfe, S. (1994): Competition, Fisher's Principle and increasing returns in the selectionprocess, Journal 0/ Evolutionary Economics 4, 1994, 321 - 46 Mueller, D. (1990): The dynamics of company profits, Cambridge, Mass.: Harvard University Press, 1990 Nelson, R. R. (1991): Why do firms differ, and how does it matter?, Strategie Management Journal 12, 1991,61-74 Neson, R. / Winter, S. (1982): An evolutionary theory 0/ economic change, Cambridge, Mass.: The Belknap Press of Harvard University Press, 1982 Pavitt, K. (1984): Sectoral patterns of technical change: towards a taxanomy and a theory, Research Policy 13(6), 1984,343 -73 19*

292

Uwe Cantner und Horst Hanusch

Pavitt, K./ Patel, P. (1991): Europe's technological performance, in: Freeman C., M. Sharp, W. walker (eds), Technology and thefuture oi Europe, London: Francis Pinter, 1991 Phillips, A. (1971): Technology and Market Structure: A Study oi the Aircraft Industry, Lexington, Mass.: Heath, Lexington Books, 1971 Reinganum, J. (1985): Innovation and industry evolution, Quarterly Journal oi Economics, 100, 1985,81- 99 - (1989): The timing of innovation: research, development, and diffusion, in: Schmalensee R., R. D. Willig (eds), Handbook oi Industrial Organization Volume I, Elsevier Science Publishers B.Y., 1989, 849 - 908 Rosenberg, N. (1976): Perspectives on technology, Cambridge: Cambridge University Press, 1976 Sahal, D. (1981): Patterns oitechnological innovation, New York: Addison Wesley, 1981 - (1985): Technology guide-posts and innovation avenues, Research Policy 14(2), 1985, 61-82 Saviotti, P. / Mani, G. S. (1995): Competition, variety and technological evolution: a replicator dynamics model, Journal oi Evolutionary Economics 5, 1995, 369 - 92 Scherer, F. M. (1980): Industrial market structure and economic performance, Chicago: Rand McNally, 1980, (2nd edition) Schmalensee, R. / Willig, R. D. (eds) (1989): Handbook oi lndustrial Organization, Amsterdam: North-Holland, 1989 Schumpeter, J. A. (1912): Theorie der wirtschaftlichen Entwicklung, Berlin: Duncker&Humblot, (1912) 1935,5. Auflage - (1942): Socialism, capitalism and democracy, London: Unwin, (1942) 1987, reprint Silverberg, G. (1990): Adoption and diffusion of technology as a collective evolutionary process, in: Freeman c., L. Soete (eds), New explorations in the economics oi technical change, 1990 Silverberg, G. / Verspagen, B. (1994): Learning, innovation and economic growth: a long-run model of industrial dynamics, lndustrial and Corporate Change 3, 1994, 199 - 223 Silverberg, G. / Lehnert, D. (1994): Growth fluctuations in an evolutionary model of creative destruction, in: Silverberg G., L. Soete (eds), The economics oi growth and technical change, Aldershot: Edward Elgar, 1994 - (1996): Evolutionary chaos: growth fluctuations in a Schumpeterian model of creative destruction, in: Barnett W.A., A. Kirman, M. Salmon (eds), Nonlinear dynamics in economics, Cambridge: Cambridge University Press, 1996 Simon, H. / Bonini, C. P. (1958): The size distribution of business firms, American Economic Review 48(4), 1958,607 - 17 Smith, A. (1776): The Wealth oi Nations, Chicago, 1776 Solow, R. M. (1956): A Contribution to the Theory of Economic Growth, Quarterly Journal oi Economics 70, 1956, 65 - 94

Industrie-Evolution

293

Spenee, M. (1984): Cost Reduction, Competition, and Industry Performance, Eeonometriea 521 1,1994,101-21 Storper, M. (1996): Innovation as collective action: conventions, products and technologies, lndustrial and Corporate Change 5(3), 1996, 761 - 90 Suzumura, K. (1992): Cooperative and non-cooperative R&D in duopoly with spillover, Ameriean Eeonomie Review 82, 1992, 1307 - 20 Sylos-Labini, P. (1967): Oligopoly and teehnieal progress, Cambridge, Mass.: Harvard University Press, 1967, 2nd edition Teeee, D.I Rumelt, R. 1Dosi, G. 1 Winter, S. (1994): Towards a Theory of Corporate Coherence, Journal of Eeonomie Behaviour and Organization 15, 1994 Utterbaek, J. M. 1Suarez, F. (1993): Innovation, competition and industry structure, Research Poliey 22, 1993 Viekers, J. (1986): The Evolution of market structure when there is a sequence of innovations, Journal of lndustrial Economies XXXV, 1986, 1- 12 Witt, U. (1993): Introduction, in: Witt U. (ed.), Evolutionary Economies, London: Aldershot, 1993, xiii - xxvii

Interacting Consumers, Externalities and Waves in Demand* By Robin Cowan, Maastricht, William Cowan, Waterloo, and Peter Sw.;:nn, Manchester I. Introduction

The methods of statistical physics are well-adapted to describing systems having a very large number of identical elements that interact under the influence of welldefined dynamical laws. They have been successfully generalized to systems where the elements differ one from another and where the dynamical laws are incompletely known (mixtures of gases or universal critical exponents, for example). The techniques of statistical physics are attractive for micro-economic modelling: producers and consumers interact as agents in a market, and the modeller wishes to know, not the precise behaviour of any individual agent, but the aggregate behaviour of all agents. Inevitable variations among the agents can be incorporated using heuristic techniques developed for non-equilibrium analysis of softmatter systems. Approximate dynamic laws can be postulated and explored analytically, or by simulation. In statistical physics, of course, dynamical laws are constrained by underlying symmetries and conservation laws, which often differ from those of economic systems. As a result, phenomena that are uncommon in statistical physics arise in statistical models of economic systems. This paper is a simple illustration of these general statements. It develops a model of the temporal evolution of demand in the presence of important consumer-consumer interactions: the consumption choices of each agent are influenced by the intrinsic properties of the good, and also by the observed consumption choices of other consumers. Inter-consumer interaction is assumed to depend on a single variable, related to social dass. A value of this variable is possessed by every consumer, and is considered to be unchanging. This, in effect, arrays the consumers along a line. The simple model analysed in this paper assumes that the inter-consumer interaction has three parts: an aspiration effect, in which consumers prefer to consume the same good as other consumers who are significantly above them in social dass;

* We acknowledge helpful discussions with Christiano Antonelli. Stan Metcalfe, and Staffan Hulten, none of whorn is responsible for any rernaining errors.

296

Robin Cowan, William Cowan, and Peter Swann

a peer effect, in which consumers share some consumption preferences of other consumers who have roughly the same social class; and a contrast effect, in which consumers prefer to differentiate their consumption from those consumers who are significantly below them in social class. Thus, the inter-consumer interaction is attractive (positive) for positive status differences and negative (repulsive) for negative status differences, but without being zero for zero status difference. The interaction therefore has both even and odd parts. In this it differs from interactions normally encountered in mechanics, the odd parts of which are normally forbidden by symmetry. When symmetry-breaking occurs in mechanics, as it does in transport equations, it is broken by extemal fields added to inherently symmetric equations. Hence, the model of this paper demonstrates dynamic properties rarely encountered in the physical sciences, but which are expected to be common in mathematical models in the social sciences. The structure of the paper is as follows. Section 2, recognizing that evolutionary models of production and the firm have contributed much to our understanding in that field, shows that there is an important need for an evolutionary theory of consumption to develop in parallel. Section 3 summarizes some of the main literature on consumption that recognises inter-dependencies between consumers and argues that this provides some important foundations for such an evolutionary theory of consumption. Section 4 then gives a very brief illustration of some of the very many empirical demand questions for which this sort of evolutionary analysis of would be relevant. Following the lead identified in Section 2, Section 5 describes the model used in this paper and Section 6 illustrates some of the results graphically. Section 7 discusses the possibility of broadening the setting of the model and the possibility of clustering in consumption behaviour, suggesting that the modelling of clusters and inter-dependencies in consumption has much in common with the modeling of clusters of production activity.!

11. An Evolutionary Approach to Consumption

The production capabilities of firms change over time, and the final state in which an economy finds itself is determined by the path this evolution takes. Modelling the dynamics of firms is now an accepted part of industrial economics? Innovation is most commonly described in this framework by using a variable like "knowledge" to describe the time-dependent state of firms or groups of firms. This 1 For example, R. Cowan and W. Cowan "Quality Differentials and the Location of R&D", Economics of Innovation and New Technology, 5(1 ),(forthcoming); P.A. David, D. Forayand J.-M. Dalle "Marshallian Extemalities and the Emergence and Spatial Stability of Technological Enclaves". Economics of Innovation and New Technology, 5(1), (forthcoming) 2 R. R. Nelson "Recent Evolutionary Theorizing about Economic Change" Journal of Economic Literature, 33, 1995, reviews some recent work.

Interacting Consumers, Externalities and Waves in Demand

297

knowledge is normally considered to be localized in one of many dimensions: geographic space, product characteristics, technological competence, and so on. Firms search for new things elose to the things that they know and do weIl, following technological trajectories conditioned by what worked for them in the past. 3 For example, an innovating firm is constrained by its current set of competencies, and also by its current set of linkages with the suppliers of its inputs, and the distributors and consumers of its product. 4 Such a firm co-evolves with with firms up and down stream of it, not to mention with a rich variety of other institutions. These concerns have been developed into a rich set of models of firm behaviour and industry evolution. When many firms are modelIed as a system the macro picture shows self-organization, the spontaneous emergence of structure. One much studied example of this is in the literature on choice of technology or standardization. In this literature, models have been developed to examine how choices by individual agents result in a coherent structure in the distribution of technologies. Initially, the literature was concerned with global standardization. 5 More recently, however, this subject has been broadened to the spatial distribution of technology.6 In all of these models, pecuniary or non-pecuniary externalities produce inter-agent interactions that organize the choices of individual agents, producing and reinforcing structure in their patterns of behaviour. All such models are path-dependent and evolutionary because changes are incremental, the current state of each system being highly constrained by past states. Like firms, institutions can be seen to have evolutionary dynamics. 7 Institutional change is constrained by the current state of the institution itself, and by the current state of firms and institutions to which it is linked. Changes are incremental, and some features may harden, becoming difficult to change. 3 G. Dosi "Technological Paradigms and Technological Trajectories: A Suggested Interpretation of the Determinants and Directions of Technical Change" Research Policy, 12, 147 - 62, 1982. 4 See G. Silverberg, G. Dosi and L. Orsenigo "Innovation, Diversity and Diffusion: A Self-Organization Model" Economic Journal 98, 1032 -54, 1988; or J.S. Metcalfe and M. Gibbons, "Technological Variety and the Process of Competition" Economie Appliqui, 39, 493 - 520, 1986. 5 WB. Arthur "Competing Technologies, Increasing Returns, and Lock-In by Historical Events" Economic Journal, 99, 116-131, 1989; R. Cowan "Tortoises and Hares: Choice Among Technologies of Unknown Merit" Economic Journal, 101, 801 - 814,1989; P.A. David, "CLIO and the Economics of QWERTY" American Economic Review, 75, 332 - 336, 1985; J.R. Farrell and G. Saloner, "Standardization, Compatibility and Innovation", RAND Journal of Economics, 16, 70 - 82, 1985. 6 R. Cowan and W Cowan, Loca1 Externalities and Spatia1 Equi1ibria: On the Nature and Degree of Technological Standardization Research Report #9421 Department of Economics, University of Western Ontario, 1994; Cowan and Cowan (FN 1); David et al. (FN 1) 7 A. Schotter, The Economic Theory of Social Institutions, New York : Cambridge Uni versity Press, 1981; David (FN 1).

298

Robin Cowan, WilIiam Cowan, and Peter Swann

Despite this work on institutional change and on the evolution of production, there is little comparable work on the evolution of consumption. Despite some work on conformity and fad behaviour,8 and on pattern formation in consumption,9 it is not mentioned in Nelson's recent survey of evolutionary theorizing about economic change. IO While analysis of technology standards recognises that standards emerge because there are in effect economies of scale in consumption, and evolutionary analyses of consumption by Keilback , Kwasnicki, Feichtinger et a1., and Weise, exist, the literature is limited. 11 Section 3 summarizes such work, which can provide the foundation of an evolutionary theory, even though little of it is cast in a evolutionary framework. Evolutionary models of consumption should, of course, be mated to similar models of production, since both sides of a market are equally important, and must co-evolve if the market is to work at all. Many empirical studies show demand to be an important pressure for change in production, not to mention the necessity of changing demand to create a market for changing production. Pasinetti's work is a small step in the right direction, but the overall failure to integrate production and consumption is a shortcoming of the evolutionary model of economic change. t2 This paper, however, does not attempt to integrate production and consumption because under the right conditions the temporal evolution of consumption and production are independent of one another. For example, if production changes very slowly relative to the consumption side, then changes in production are weIl approximated as exogenous shocks to the environment in which consumption occurs. Contrarily, if production changes rapidly, consumption can be assumed to occur against a background of average production, perturbed by uncorre1ated noise. Such approximations are used explicitly by Cowan and Cowan and by Weidlich and Braun. 13 In short, whenever the time scales of changes in production and consump8 D. Bernheim "A Theory of Conformity" Journal 0/ Political Economy 105, 841- 877, 1994. 9 M. Granovetter and R. Soong "Threshold Models of Interpersonal Effects in Consumer Demand" Journal 0/ Economic Behaviour and Organization, 7(1), 83 - 100,1986. 10 Nelson (FN 2) 11 M. Keilbach, Network Externalities and Path Dependent Consumer Preferences, IIASA Working Paper WP-95-97, Laxenburg, Austria, 1995; W Kwasnicki, Chance and Necessity in Industrial Development, IIASA Working Paper, WP-95-65, Laxenburg, Austria, 1995; G. A. Feichtinger, Prskewetz, W Herold and P. Zinner, "Habit Formation with Threshold Adjustment: Addiction May Imply Complex Dynamics" Journal 0/ Evolutionary Economics, 5, 157 -172, 1995; P. Weise, "Evolution of a Field of Socioeconomic Forces", in U. Witt (ed.) Explaining Process and Change, Ann Arbor: Michigan University Press, 1992. 12 L.L. Pasinetti, Structural Change and Economic Growth: A Theoretical Essay on the Dynamics 0/ Wealth Creation, Cambridge: Cambridge U P, 1981, chapter 4. 13 Cowan and Cowan (FN 6); W. Weidlich and M. Braun, "The Master Equation Approach to Nonlinear Economic Processes" in U. Witt (Ed.) Evolution in Markets and Institutions. Heidelberg: Physica, 1993.

Interacting Consumers, Extemalities and Waves in Demand

299

tion are very different, partial equilibrium models are appropriate. But when they are similar a general equilibrium approach is necessary. Section 4 of this paper describes examples that are not weIl described by an equilibrium model with rigidly fixed tastes. The tastes needed to describe them are not, however, indefinitely mutable, but can be described by a small number of variables which, intermixed with very simple sources of path dependence, produce a rich set of patterns of consumption.

111. Consumption with Inter-dependencies: The Traditional Literature

Tastes, which are the basis of consumer behaviour, are normally considered to be exogenous to economics. Such organized changes as occur, preferences that change over the life-cyc1e, for example, are related to factors uninfluenced by economics, such as habit formation and family composition. An obvious exception, weIl developed in marketing, is modification of tastes by advertising and other promotional activity provided by producers. For some writers it is the main reasons why tastes change. Galbraith and Packard, for example, described the creation of needs by advertising. 14 However, important as these effects may be, they are not the focus of this paper. Rather, we' investigate how changing consumption behaviour can depend on an individual's own past consumption, and that of other people, without the intervention of any extraneous agency. For the purposes of economic analysis, the factors influencing demand can be grouped into four broad groups: 1: price and product attributes; 2: socio-economic attributes of the buyer (inc1uding income); 3: the consumer's past consumption history; 4: consumption patterns of the consumer's peer group and rivals.

The first three of these groups of factors have been studied with varying success, but not the fourth, which is the focus of this paper. The absence of research on the fourth group is perhaps surprising, because the recognition that tastes are relative to the behaviour of other consumers is an old one. Adam Smith noticed that "the chief enjoyment of riches consists in the parade of riches".15 The idea of conspicuous quality can be found also in Marshall, who recognized that with every step of his ascent, man requires not just greater quantities of goods, but an increase in the quality of goods consumed. And moreover, "strong as is the desire for variety, it is 14 l.K. Galbraith, The Afjluent Society Boston: Houghton Mifflin, 1958; V. Packard The Hidden Persuaders London: Longman, 1957. 15 Wealth oi Nations, Book I, Chapter 11, Part 2.

300

Robin Cowan, William Cowan, and Peter Swann

weak compared with the desire for distinction.'d6 But it was Veblen who first developed a theory of conspicuous consumption, in which consumption is undertaken as much to create an impression as to satisfy needs. 17 The tastes underlying such consumption are necessarily dependent on the consumption of other consumers: both recognized and approved by a peer group, and obviously distinguished from the consumption of ordinary people. This analysis anticipates qualitative features of the behaviour we model. One of the best known contributions in economics to the analysis of consumption patterns is the work of Duesenberry.18 He recognized that there is inertia in consumption: when incomes fall, families run down savings to maintain the standard of consumption to which they have become accustomed. A pioneering econometric contribution was that of Brown who analyzed habit formation in demand behaviour as a positive autoregressive component in a traditional demand model. 19 There have been some important subsequent contributions on the endogeneity of preferences. 20 Some empirical studies of trade and consumption have also shed light on these questions. 21 It is also important to recognize here the literature on diffusion of innovations. Following the pioneering studies of Rogers, and Mansfie1d's "epidemie" model, it has been recognized that diffusion depends on new consumers being exposed to other consumers who have already bought. 22 While this doesn't imply an interdependence of preferences, it does indicate correlation in consumption patterns. One of the major recent contributions to our understanding of inter-dependence in consumption patterns is the literature on path dependence,z3 Moreover, the lit16

A. MarshalI, Principles of Economics 1920, Book III Chapter ii, Seetion I.

17

T. Veblen, The Theory of the Leisure Class: An Economic Study of Institutions New

York: MacMillan, 1988.

18 J.S. Duesenberry, Income, Saving and the Theory of Consumer Behaviour Cambridge, Mass: Cambridge University Press, 1949. 19 T.M. Brown, "Habit Persistence and Lags in Consumer Behaviour" Econometrica 20, 355-71,1952. 20 See for examp1e G.S. Becker and K.M. Murphy, "A Theory of Rational Addiction" Journal of Political Economy, 96, 675-700, 1988; E.J. Donckner and G. Feichtinger, "Cyclical Consumption Patterns and Rational Addiction" American Economic Review, 83( I), 256 - 263, 1993; WM. Gorman, "Tastes, Habit and Choices" International Economic Review, 8, 21822, 1967; H. Gintis, "Welfare Criteria with Endogenous Preferences: The Economics of Education" International Economic Review, 15,415-30,1974; R.A. Pollak, "Habit Formation and Dynamic Demand Functions" Journal of Political Economy, 78, 60 - 78, 1970; l. Steedman, From Exploitation to Altruism London: Polity Press, 1989; e.e. Von Weizsaecker, "Notes on Endogenous Changes of Tastes" Journal of Economic Theory, 3, 345 - 72, 1971. 21 See for examp1e S. Hirsch, Rich Man S, Poor Man S, and Every Man S Goods Tubingen: J.C.B. Mohr (Paul Siebeck), 1997. 22 E.M. Rogers, Diffusion of Innovations, Third Edition, New York: The Free Press (first edition, 1962), 1983; E. Mansfield, "Technical Change and the Rate of Imitation" Econometrica 29(4) 741 - 66, 1961. 23 Arthur (FN 5), and David (FN 5)

Interacting Consumers, Extemalities and Waves in Demand

301

erature on network externalities and de facto standards demonstrate that there are economies of scale in consumption so that consumers benefit from being part of a large network of users. 24 This is also recognized by Gaertner. 25 In some core areas of economic theory (for example Dasgupta and Stiglitz), individual consumers may demand variety, but the origin of this demand for diversity is not developed. 26 A possible source is the desire to differentiate current consumption patterns from past ones, or to differentiate personal consumption from that of other consumers. Other important contributions to evolutionary theories of consumption lie outside mainstream economics. Fine and Leopold compare economic, sociological and psychological approaches to consumption. 27 The sociology of consumption recognizes the social and interdependent nature of consumption. 28 In Bourdieu, tastes change over time to distinguish themselves from those of reference groups as in our model. But his model is denied the quantitative power available from an evolutionary economic theory of consumption. IV. Empirical Examples

Anecdotal observations of inter-dependencies in consumption are legion. Solid quantitative econometric analysis, on the other hand, is effectively non-existent. The examples given below illustrate trends observed when aspiration, peer and distinction effects occur in consumption. Consumption inter-dependencies of all kinds occur in the market for holiday resorts. Some holiday makers seek resorts where they can be with chosen friends or peer groups, a peer effect. Some seek to take holidays where they brush with the rich and famous, an aspiration effect. The rich and famous in turn attempt to avoid vulgar arrivistes, a distinction effect. These effects provoke interesting dynamics, including cyc1ical popularity. A variety of patterns are observed, inc1uding the following common pattern. A new resort opens as a distinctive and select venue. Then, as it grows in popularity, it appears vulgar to its initial customers, driving them away. It has, in effect gone down-market. In short, demand is dynamic be24 See M. Katz and C. Shnpiro, "Network Extemalities, Competition and Compatibility" American Economic Review, 75, 424 - 440, 1985, and Farrell and Saloner (FN 5).

25 W Gaertner; "A Dynamic Model of Inter-Dependent Consumer Behaviour", Zeitschrift für Nationalökonomie, 34, 327 - 44, 1974. 26 P. Dasgupta and J. Stiglitz, "Uncertainty, Industrial Structure and the Speed of R&D" Bell Journal of Economics, 11, 1-28, 1980. 27 B. Fine and E. Leopold, The World ofConsumption London: Routledge, 1993. 28 M. Douglas, Implicit Meanings: Essays in Anthropology London: Routledge Kegan Paul, 1975; M. Granovetter, "Threshold Models of Collective Behaviour" American Journal of Sociology, 83(6), 1420 - 1443, 1978; P. Bourdieu, Distinction: A Social Critique of the Judgement of Taste London: Routledge Kegan Paul, 1984.

302

Robin Cowan, William Cowan, and Peter Swann

cause demand patterns today depend on the history of demand, and on inter-dependencies between the demand patterns of different groups. Consumption inter-dependencies are also seen in the emergence and decline of different areas of a city. Many currently fashionable areas of London were down at heel earlier this century. Gradually they became fashionable, first amongst bohemians (a distinction effect), and then amongst their fashionable associates (an aspiration effect). Chelsea (London) is a striking example. Conversely, by distinction and peer effects, ghettos can form out of formerly respectable areas as new residents attract others like them (a peer effect) and repel current residents (a distinction effect).29 The process is like clustering in production. Vibrant clusters form because of externalities in co-Iocation, while moribund clusters decay when they are populated by old industries generating few positive and many negative externalities. Status-producing products of earlier decades fit nicely with this framework. Particular sports cars were synonymous with 'yuppy' success in the 1980s, and highly sought after. By the mid 1990s, in contrast, the association of these cars with an out-of-favour group resulted in low second-hand values for such machines (a distinction effect). Technologies with positive network externalities, such as fax, e-mail and mobile phones, have positive correlations in consumption patterns. In theoretical analysis, these externalities are generally associated with an anonymous mass of other users, but this indifference to the identity of other consumers is unlike1y. Swann shows that each individual consumer has a particular network with whom he wishes to communicate, and it is the diffusion of the technology to members of that network that generates externalities, and not the random diffusion amongst anonymous members of the public, an obvious peer effect. 30 Other products, such as in computer software, hi-fi CDs, and video software, have network externalities that are positive but indirect. In such cases, some externalities are proportional to the number of adopters, irrespective of their identity. For example, the purchaser of a software package with a large installed base can be confident that it will continue to be supported by the producer, a network externality independent of the identity of other consumers. At the same time, other users are the dominant source of technical information about such products, isolating a particular group of consumers with which there is astrang inter-dependency, again a peer effect. In short, peer effects arise in network technologies because network externalities depend on who is in the network. If the "right" people are in the network, then the externalities are large; but if the wrong people, then the externalities are negligible. 29 S.N. Durlauf, "Spillovers, Stratification and Inequality" European Economic Review, 38(3/4),836-845, 1994; T. Schelling "Dynamic Models of Segregation" Journal 0/ Mathematical Sociology, I, 143 - 96, 1971. 30 G.M.P. Swann, The Functional Form of Network Externalities, Unpublished Paper, Manchester Business School, Manchester, 1996.

Interacting Consumers, Externalities and Waves in Demand

303

Even more so, the wrong people in the network sometimes reduce the value of the technology. This can happen very simply, if the "wrong" users congest the network, without compensating benefits. Alternatively, such effects could arise because consumers wish to distinguish themselves from these "wrong" users. Thus for example, some have suggested that the association of the mobile phone with "yuppy" users has lead some other consumers to shun the device. Even more strongly, particular "wrong" users can create congestion that is positively objectionable, like internet spam. All these examples are distinction effects. Another category of products is subject to intensely social consumption, such as theatre, film, magazines, fashion dothing, which are subject to strong inter-dependencies. Habit formation is important for television viewing. Viewers choose to associate themselves with peer and aspirational groups while distinguishing themselves from other groups?1 Particular products show cydes of popularity, like those observed in holiday resorts. Pioneers select an innovative new product for consumption, and their peers follow. Those who aspire to join this elite follow, but the pioneers attempt to distinguish themselves from this group, turning away from their earlier preferences to seek new products for consumption. Given names also show cydes of popularity. The elite choose distinctive names, and are irnitated by other groups who aspire to join the elite. Again, the elite turn away from what are now commonplace, innovating anew. When they are once again followed by other groups, the previously fashionable names are ready for revival. A final example of path-dependent consumption compares the diffusion of satellite and cable television. Because of the aerial the former is conspicuous, while the latter is inconspicuous. In some countries, satellite TV was early positioned as lower middle dass consumption, upon which rniddle dass viewers, wishing to avoid the contempt of their rniddle dass neighbours were reluctant to indulge in the conspicuous activity of viewing satellite TY. Contrarily, they were quite willing to take up the less conspicuous activity of subscribing to cable TY. Had satellite TV been positioned more up-market from the start, rniddle dass uptake of satellite TV would have been more rapid. This selection of illustrative examples motivated the model that follows.

v. A Model of Inter-dependencies in Consumption Schematically, the model works as follows. A new good appears at time zero, and its consumption is distributed over the population. The genesis of this distribution is unspecified. At each moment, some consumers re-consider their consump31 See G.M.P. Swann and M. Tavakoli. "An Econometric Analysis of Television Viewing, and the Welfare Economics of Introducing an Additional Channel in the UK" Information Economics and Policy. 6, 25 - 51, 1994.

304

Robin Cowan, William Cowan, and Peter Swann

tion decision, choosing now to consume if instantaneous utility is positive. Utility is generated by the objective properties of the good, externalities from other consumers as discussed above, and by a component idiosyncratic to each consumer. The distribution of consumption evolves over time, as consumers change their behaviour in response to the actions of nearby consumers. We address both the steady state and the dynamics of the system. There is a continuum of consumers, distributed over the real line, indexed by s. The scalar s is an incomplete representation of an agent in that it is insufficient information to predict behaviour. Thus we are interested in probabilistic statements about consumption patterns. We refer to s as "social status", and assurne it is unchanging over time. 32 Consumers choose whether or not to consume a single good. Utility from consumption has three sources: there is utility inherent in the properties of the good itself-the degree to which a consumer gets utility from this good will depend on his type. For example, we might think that some types of consumers get considerable utility from holiday resorts in which c1assical music is a feature, whereas other types of consumers find this a negative feature, preferring jazz. The second source of utility is from externalities from the actions of other agentsthe peer, distinction and aspiration effects discussed above. Finally, there is an idiosyncrasy to each consumer. That is, even though consumers of a single type, s, have a tendency to like a particular type of music, the degree to which a particular consumer does is idiosyncratic to hirn and may change from period to period. For a consumer of type s, utility from consumption can then be written as (I)

U =f(s,P)

+ g(s) +f,

where P represents the actions of all consumer types, f(s, P) captures distinction and aspiration effects; g(s) indicates the inherent value of the good to consumers of type s; and f is a random variable representing the idiosyncratic component of utility. We assurne that f has a symmetric distribution, and without loss of generality, a mean of zero. Each period a proportion of consumers, 0: < 1, re-chooses whether to consume or not, deciding on the basis of instantaneous utility. Defining p(s, t) as the proportion of consumers of type s who consume at time t, if the economy starts out of equilibrium, the following dynamics will exist: (2)

p(s, t + ~t)

= (I -

a)p(s, t)

+ ap*(s, t + ~t).

32 We use the term "social status" as it fits weil with the sociological literature on demand determination. This single dimension of heterogeneity could as easily be income, education, ... That the model uses a scalar to describe agents indicates that they are incompletely specified. Agents can be more completely specified by increasing the dimension of s. In principle the analysis is identical, (provided there is always some incompleteness in the specification, as seems likely) but has the cost of considerable notational and analytical inconvenience.

Interacting Consumers, Externalities and Waves in Demand

305

where p*(s, t + ßt) is the proportion of those who re-consider who decide to consume at time t + ßt. Rewriting: (3)

p(s, t + ßt) - p(s, t) = a(p*(s, t + ßt) - p(s, t)).

If we assurne, without loss of generality, that the good has a zero price, a consumer will consume if he gets positive utility from consumption. We assurne the distribution of consumers over s is dense, so the proportion of s-types who consume will be equal to the probability that an arbitrary s-type consumes. Consumers choose simuitaneously, which means they must make their decisions about the next period on the basis of current knowledge. Following the tradition of evolutionary game theory, we assurne that consumers have myopic expectations. (Given that an agent with rational expectations would have to solve simultaneously the problem of every agent, this seems perfectly reasonable, the more so as 0: gets small.)

P(t) describes the proportions of agents of each type consuming in that period. 33 Based on that information, an agent will calculate a value for /(s, P(t)) + g(s) with which to make adecision when E is realized. If /(s, P(t)) + g(s) + E(t) > 0 then

the agent will consume in the next period. Of those agents free to change their decisions between t and t + ßt, what proportion will consume? This is equal to the probability that E > -(f(s, P(t)) + g(s)). Thus we can write (4)

p*(s,t+ßt)

= Pr(E >

-(f(s,P(t))+g(s));

p*(s,t+ ßt) = R(r(P(s,t)) +g(s)).

The function R(·) is the cumulative distribution of E, and will have a standard ogive shape. We approximate this by a linear function R(x) = a + bx having the property that R(O) = a = 1/2 and b > O. This approximation holds for non-extreme values of x. For large values, x> XH, R(x) = 1; for small values, x< XL, R(x) = 0. 34 Thus p* (s, t + ßt) ~

(5)

1/2 + b(f(s, P(t)) + g(s)).

Substituting this into the dynamics from above, (6) (7)

p(s, t + ßt) - p(s, t) = a p(s, t + ßt) - p(s, t)

[1/2 + bf(s, P(t)) + bg(s) -

= abf(s, P(t)) + a(I/2 + bg(s) -

p(s, t)], p(s, t)).

33 If we had a discrete number of agent types, P would be a vector, one element for each type, the value of that element being the proportion of consumers of that type who are consuming. In the continuous model, P(t) will be a function, p(s', t). 34 In the analytic results that follow, we restrict attention to systems in which boundary effects are not important. With this restriction we need not consider the possibility that agents have consumption probabilities of either zero or one.

20 Selbstorganisation. Bd. 9

306

Robin Cowan, William Cowan, and Peter Swann

This difference equation describes the dynamics of the system. Dividing by ßt and taking limits, we can write equation 7 as a differential equation, in which a is the rate at which agents re-consider their actions: (8)

dp(s, t)/dt = a[p*(s, t) - p(s, t)],

and as before, substituting for p* (s, t): (9)

dp(s, t) / dt = abf(s, P(t))

+ a( 1/2 + bg(s) -

p(s, t)),

or (10)

dp(s,t)/dt = F(s,P(t))

+ a(Pn(S) -

p(s,t)).

Equation 10 fully describes the dynamics, and can be solved for the steady state of the system. It can also be used to examine properties of the path to the steady state. Before proceeding on those lines, however, we can write one proposition regarding the steady state immediately.

Proposition 1: In the absence of inter-consumer interaction (extemalities in consumption) the equilibrium probability that type s consumes the good is Pn(s). Inter-consumer interaction is contained in the term F(s, P(t)), so in its absence the dynamics become dp(s, t)/ dt = a(Pn(S) - p(s, t)), which is a simple partial adjustment model, converging to Pn(s). This proposition provides an interpretation of Pn(s). It can be interpreted as the "natural distribution" of consumption. It is the distribution that would prevail if there were no extemalities. Consumers consider only the objective properties of the good, so the distribution of consumption over consumer types flows entirely from the features of the good and the correlation between taste for those features and the value of s. To derive further results regarding both the steady state and the dynamics of the system, we now specify more completely the interaction or extemalities among consumers. Above, we spoke of distinction, peer and aspiration groups, each group providing different types of extemalities. We generalize this to allow a consumer to be affected by extemalities from any other member of the population. Dropping momentarily the time argument, we write the interaction effect on a consumer of type s as 35 F(s,P) =

1:

35 Note that in the derivation above, F(·) to facilitate exposition.

F(s,s')p(s')ds'.

= abf(·). We maintain the F notation here only

Interaeting Consumers, Extemalities and Waves in Demand

307

The funetion F(s, Si) measures the degree to whieh the consumption by an agent of type Si makes the good attraetive to an agent of type s. This ean be positive or negative. This interaetion term, F(s, Si), ean always be written as a sum of two funetions: F(s, Si) = Fo(s - Si) + F j (s, s - s'). The first funetion eaptures effects that are determined solely by distance between consumers. The second eaptures extemality effects that depend on the absolute location in status of the eonsumer. For the analysis that folIows, we assurne that F j (.) = 0 so we ean write F(s,P) = Fo(s - SI)p(SI)ds' . Virtually all sources of heterogeneity that might impinge on consumption decisions have finite support. There is a riehest person in the world, and his income or wealth is finite. For agents near the extremes of the support of the heterogeneity, (those with large or small s) F j will differ from that of those away from the extremes. Beeause the riehest person has no one above hirn, there will be boundary effeets which must be taken into aecount when treating his behaviour. The reaetion of the riehest person to the faet that he is on a boundary will in general be visible for a eertain distance away from the boundary, as his "altered" behaviour will affeet the behaviour of those just beneath hirn in wealth. (Similarly for the poorest person.) In this paper we do not make any attempt to incorporate this sort of effect, whieh must be done through F j • We are thus restricting our attention to agents away from the extremes of the support. We can now write the dynamies, equation 10, as:

1::

(11 )

dp(s, t)/dt =

I:

Fo(s - s')p(s', t)ds'

+ a(Pn(S) -

p(s, t)).

Solving equation 11 is done by transforming both sand t. 36 A Fourier transform on sand a Laplaee trans form on t generate the eonjugate variables k and z respectively. We eall the distribution of the transformed variables P(k, z), so that P(k, z) = J?"oo e- iks J;' eiZ/p(s, t)dtds. We ean write the solution in terms of k as ( 12)

aPn(k) P(k, t) = a _ Fo(k)

aPn(k) - (a - Fo(k) )P(k, 0) -(a-Fo(k))/ a - Fo(k) e ,

36 The solution is presented in R. Cowan, W Cowan and P. Swann, "A Model of Demand with Interaetion Among Consumers" International Journal o/Industrial Organization, vol. 15: 711-732,1997. 37 We leave the solution in terms of the transformed variable k, as it is more transparent than when transformed baek into s. Large values of k should be interpreted to indieate loeal effeets-extemalities stemming from the aetions of nearby eonsumers. Small values of kare interpreted to indieate global extemalities-responses to aetions of the entire population of eonsumers.

20'

Robin Cowan, William Cowan, and Peter Swann

308

Proposition 2: The equilibrium probability changes in a non-trivial way when inter-consumer interaction is present. The actual equilibrium probability deviates from the "natural" probability according to lim t

--+ 00

P(k,t) = CiPn(k)/(Ci - Fo(k)),

= J~oo e- iks FO(s)ds and Pn(k) = J~oo e-iksPn(s)ds. are-arrangement of equation 12. If Fo(s) = 0, then Fo(k) = 0 and

where again FO(k)

This is we recover proposition one, wherein the steady state distribution was the natural distribution. But if Fo(s) i= 0 the proposition states that the distribution of consumption is "distorted" from the natural distribution. The larger are the extemalities in consumption, the larger is the distortion. The precise nature of the distortion will obviously depend on the nature of F(s - Si). Both propositions one and two deal with the steady state of the system. Propositions three and four deal with the path to the steady state solution.

Proposition 3: When FO(s - s') is an even function (consumers react identically to those higher and lower in the status distribution, FO(s - s') = FO(s' - s) the dynamic behaviour of the probability distribution is strictly diffusive: the initial state spreads continuously in status and decays exponentially while the equilibrium state builds up exponentially new line, no indent the dynamics, in terms of k and t can be written as

(13)

P(k t) ,

=

CiPn(k) Ci - Fo(k)

(I _ e(-Fo(k))I) + (Ci -

=

CiPn(k) Ci - Fo(k)

(1 _ e(-Fo(k))I) + P(k,O)(e(-Fo(k))I).

Fo(k))P(k,O) e(-Fo(k))1 (Ci - Fo(k))

In equation 13, the first term shows the growth of the final state (the final state as seen in Proposition 2); and the second term shows the decay of the initial state p(s,O).

Proposition 4: When Fo(s - s') is an odd function (consumers react inverse1y to those higher and lower in the status distribution, so Fo(s - s') = -FO(S' - s) the dynamic behaviour of the system consists of travelling waves (peaks in the distribution that move in status with time), damped by 0:, the rate at wh ich consumers are able to change their behaviour. Both of propositions three and four follow from basic properties of Fourier transforms. For more details see Cowan et al. 38

38

Cowan et al. FN 36

Interacting Consumers, Externalities and Waves in Demand

309

Remark: All funetions Fo(s - s') ean be written uniquely as sums of even and odd funetions. When Fo(s - s') eontains both even and odd funetions non-trivially, the solution is the sum of two solutions having the behaviours deseribed in Propositions 3 and 4. The qualitative features of this solution depend on the detailed form and value of the different parts. These four propositions have dealt with very general properties of the dynamies and steady states of the distribution of eonsumption of a good. Proposition 5 addresses the observation that some goods enter a population, migrate through it and disappear, while other goods enter, mi grate and settle in a more or less permanent niche.

Proposition 5: If Pn(s) = 0 then the steady state distribution is that no eonsumers eonsume the good. This follows direetly from substituting Pn(s) = 0 into the equilibrium distribution in proposition 2. If eonsumers gain no utility from the objeetive properties of the good, gaining utility only from the extemalities, (that is, if it is a pure status good) then the good will enter the population, migrate through it, and eventually disappear from it. Pet rocks, eertain children's names, c10thing fashions all provide examples. Conversely, if the objeetive properties of the good provide utility for some eonsumers (Pn(s) I- 0 for some s), then the good will be eonsumed by some eonsumers in equilibrium. VI. Four Illustrations

This section eontains illustrations of the first four propositions. Figure one shows the simplest ease, eorresponding to Proposition One. Here there are no extemalities in eonsumption, and agents deeide whether to eonsume based solelyon the properties of the good. Following the appearanee of the good, initial eonsumers slowly abandon it, as they get to opportunity to re-eonsider, because its properties do not fit weIl with their tastes. A new group of eonsumers emerges, in a different part of the status distribution, for whom the properties of the good are appropriate. The second group is located at the natural distribution. The initial distribution of eonsumers is shown with a dotted line, the final, 'natural' distribution is shown with a asolid line. These two distributions serve as the base ease for the other figures. In all of these figures, 0 is the highest social status, and 500 is the lowest. Figure two illustrates the effeet of consumption extemalities. 39 Here, distinetion and aspiration effeets are present-consumers try to imitate those above them in 39 In figures two and four, there are effects in the tails of the distribution that stern from the boundary considerations discussed above. The figures do not correspond with the model towards the bounds of the support, because, unlike the model, the figures have finite support, which implies that boundary effects will be present. These should be ignored while interpreting the figures as illustrations of the propositions.

310

Robin Cowan, William Cowan, and Peter Swann

o

100

200

300

400

500

400

500

Figure 1: No Externalities in Consumption

o

100

200

300

Figure 2: Distinction and Aspiration Effects

Interacting Consumers, Extemalities and Waves in Demand

311

social status, and distinguish themselves from those below. The final distribution is distorted from the natural one. Mass is distributed over more social states and the peak is less pronounced. For these parameter values, the distribution in fact has two modes, though the mode nearer the mode of the 'natural' distribution is more pronounced. The mode here is shifted to the right, as consumers are trying to move away from those below them. At the same time the peak is broader and flatter, as there is more mass away from its modal value. Figure three illustrates the dynamies of the system when F(·) is even, that is, when extemalities are symmetrie in the social space. Consumers gain positive extemalities from those both above and below them, but the strength of the extemality diminishes with distance. Again, the initial distribution is shown with a dotted line, the final. distribution in asolid line, and one intermediate distribution in a dashed line. Here we can observe that over time the peak seen in the initial distribution shrinks, and the peak seen in the final distribution grows, both of them slowly spreading the while. But as is stated in the proposition, the modal values of the distribution do not change over time .

.... ci

M

ci

N

ci

o

ci

o

100

200

300

400

500

Figure 3: Symmetrie Extemalities fram Nearby Cansumers, F(·) is even

Figure four includes two intermediate cases, the first being the shorter dashed line, the second being the longer. 40 In this illustration F(·) is odd. That is, agents 40

Again, boundary effects in this figure should be ignored.

312

Robin Cowan, William Cowan, and Peter Swann

receive positive extemalities from having behaviour similar to those above them and negative extemalities from having behaviour similar to those below them. The unique mode of the initial distribution is at about 100, indicated by a vertical line. The earlier intermediate distribution shows a trough below 100, and a peak at about 110, a second trough at about 230 and a second, more important peak at about 310. The second intermediate state (the longer dashed line) shows a less deep trough at about 80, a less high peak at 190, a less deep trough at 235 and a second peak at 315. The final distribution shows a peak at 180, a trough at 235, and the major mode at 320. What we see then is that the distribution is, as in the case of figure two, in general spreading out. The spreading process involves a wave of consumption that moves to the right, bringing a trough behind it. But as the wave travels, it diminishes in height, and spreads.

g ci

o

'"ci '"ci

'"o

ci

o

ci

o

100

200

300

400

500

Figure 4: Distinction and Aspiration Effects, F(·) is odd

VII. Discussion-c1ustering The formal model contains a single good, and no attempt has been made to deal with the more complex case in which consumers are faced with the choice among several goods. That case, however, has similarities with other models in the literature dealing with the location of economic activity. We can think of goods as occupying locations in product characteristic space in as in the work of Prescott and

Interacting Consumers, Externalities and Waves in Demand

313

Vischer. 41 If that space is crossed with social status space, over which our parameter s is defined, we produce aspace in which we can observe the distribution of status over products. The setup now resembles those used in multi-dimensional 10cation models with the qualification that one of the dimensions (the status dimension) may have different dynamic considerations than the others. Clustering of activity is a very common behaviour in these models, though the precise form that the clustering takes is very specific to the details and parameter values of them. Positive externalities in consumption imply that consumers locate near each other in product space. There will be clusters of products with high demand, surrounded by, or side by side with, products having low demand. This result appears in models of industriallocation,42 product characteristics,43 or R&D location. 44 The presence of aspiration and distinction effects in a spatial model of this sort introduce the possibility of a second type of clustering. We would expect to see clusters in product space, but the spatial results will be less distinct, as the social status effects can work across the product space dimension. In other words, as clusters begin to form in product space, they can be either exagerated or destroyed by the dynamics caused by externality effects. The possibility of endogenous movement of clusters might arise from aspiration and distinction effects in the status dimension. The interaction between movement generated in this dimension and the stability of the clustering in other dimensions is an effect yet to be worked out.

VIII. Conclusions

This paper has explored the patterns of demand that emerge when there are social interactions between different consumers. We have focussed exposition on the case in which consumer preferences are influenced by the consumption behaviour of three reference groups: a peer group of similar consumers, a contrast group (or distinction group), and an aspirational group. The paper showed how this structure evolves over time and described the nature of the state toward which it tends. The tension between the objective properties of the good and the externalities in consumption deterrnine the final distribution of consumption over the attributes of agents. The precise details of the externalities determine the properties of the evolution toward that state. We discussed a wide variety of empirical applications, and argue that knowledge regarding the likely nature of externalities within a good will make it possible to predict the nature of its passage through a population of consumers. The relevance and potential applications of this model was demonstrated by 41 E. Prescott and M. Vischer, "Sequential Location Among Firms with Foresight" Bell Journal of Economics, 8, 378 - 93, 1977.

42 WB. Arthur, "Silicon Valley Locational Clusters: Do Increasing Returns Imply Monopoly?" Mathematical Social Sciences, 19,235 - 51, 1991. 43 Prescott and Vischer (FN 38) 44 Cowan and Cowan (FN 1).

314

Robin Cowan, William Cowan, and Peter Swann

a number of illustrative examples. While these were only suggestive, and not rigourously researched, they suggest that consumer preferences are frequently infIuenced by at least one of the three reference groups, and that the patterns of consumption generated in the simulations are frequently found in practice.

Der Preismechanismus als ökonomischer Selbstorganisationsprozeß Von Peter Weise, Kassel

I. Einleitung

Einerseits steht in jedem besseren ökonomischen Lehrbuch auf S. 1, welches Wunder es ist, daß Individuen mit dem eigennützigen Ziel handeln, ihre eigenen Bedürfnisse maximal zu befriedigen, und doch, geleitet durch eine Invisible Hand ohne wechselseitige Absprachen und ohne dies gewollt zu haben, einen Zustand höchster harmonischer Ordnung erreichen - und welch noch größeres Wunder es ist, daß Wissenschaftler dies entdeckt und erklärt haben. Und das größte Wunder: Diese Wissenschaftler waren Ökonomen! So schreibt beispielsweise Schumann I: "Die mikroökonomische Theorie untersucht, ob und wie in den gegebenen Entscheidungsspielräumen einer Marktwirtschaft die unzähligen Einze1entscheidungen der Wirtschaftseinheiten aufeinander abgestimmt werden, also koordiniert werden." So schreiben Arrow und Hahn 2 : "The notion that a social system moved by independent actions in pursuit of different values is consistent with a final coherent state of balance, and one in which the outcomes may be quite different from those intended by the agents, is surely the most important intellectual contribution that economic thought has made to the general understanding of social processes. " Kann man es noch deutlicher sagen? Ähnliche Formulierungen finden sich auch bei vielen anderen Autoren. Diese Aussage, daß nämlich eine Ordnung als Resultat individueller Handlungen entsteht, ohne daß aber die Individuen diese Ordnung geplant haben, wird oft auch als "Invisible-Hand-Theorem" bezeichnet, um daran zu erinnern, daß Adam Smith bereits 1776 in seinem bahnbrechenden Werk "Wealth of Nations" entsprechende Ausführungen zu der Ordnungs macht der "Invisible Hand" gemacht hat. Eine mathematisch exakte Beweisführung gelang allerdings erst Anfang der fünfziger Jahre dieses Jahrhunderts. 3 I

S.1.

Jochen Schumann, Grundzüge der mikroökonomischen Theorie, Berlin u. a.m. 1992,

2 Kenneth J. Arrow / Frank H. Hahn, General Competitive Analysis, San Francisco and Edinburgh 1971, S. 1. 3 Siehe dazu Gerard Debreu, Theory of Value, New York 1959.

316

Peter Weise

Fast identische Formulierungen des Invisible-Hand-Theorems finden sich andererseits seit Mitte der sechziger Jahre in der modemen Selbstorganisationstheorie. So beispielsweise bei Küppers 4 : "Wie kann aus Kräften, die nichts als Bewegungsveränderungen bewirken, aber mit Blick auf Ziele "blind" sind, Ordnung entstehen oder aufrecht erhalten werden? Erst die modeme Selbstorganisationsforschung gibt auf diese Frage eine plausible Antwort." - also nicht die Ökonomik. Wie zur Bestätigung führt Mußmann 5 in einem umfangreichen Buch über Selbstorganisation acht unterscheidbare Urkonzepte der Selbstorganisation wie dissipative Strukturen, molekulare Selbstorganisation, Lasertheorie, selbstorganisierende Kommunikations- und Kognitionssysteme, autopoietische Systeme, deterministisches Chaos, Katastrophentheorie und ökologische Ungleichgewichtssysteme an, erwähnt den ökonomischen Markt- und Preismechanismus aber mit keinem Wort. Damit deuten sich die Ziele dieses Aufsatzes bereits an. Im folgenden soll gezeigt werden, daß 1. der ökonomische Preismechanismus tatsächlich ein Selbstorganisationsprozeß ist, 2. das "Invisible-Hand-Theorem" allerdings keinen Selbstorganisationsprozeß, sondern einen Postiven-Feedback-Mechanismus bezeichnet, 3. der Preismechanismus als negativer Feedback zu unterscheiden ist von dem Wettbewerbsmechanismus als positivem Feedback, 4. also cum grano salis der Preis- und der Wettbewerbsmechanismus den Konzepten der Selbstorganisation beziehungsweise Evolution in anderen Wissenschaften entsprechen. 11. Selbstorganisation

Es ist noch nicht lange her, da nahm man Strukturen und Ordnungen als vorgegeben an oder bemühte als Erklärungsursache einen letzten Schöpfer: Gott. Dies ist aber eine Magie der Namensgebung und keine Theorie. Akzeptiert man keine Letztbegründungsversuche oder ist man unzufrieden mit einem Weg durch die Gedankensteppe der bloßen Kenntnisnahme von gegebenen, wenn auch unterschiedlichen Strukturen und Ordnungen, so muß man zunächst geeignete Fragen stellen (und auf das Glück hoffen, daß andere die gleichen Fragen gestellt und bereits beantwortet haben): Wie können aus Unordnung wohlgeordnete Strukturen aus unbelebter Materie entstehen? Entstehen derartige Strukturen auf die gleiche Art auch in der belebten Natur, also auch im Mit- und Gegeneinander der Menschen? 4 Günter Küppers (Hrsg.), Chaos und Ordnung: Formen der Selbstorganisation in Natur und Gesellschaft, Stuttgart 1996, Vorwort, S. 8. 5 Frank Mußmann, Komplexe Natur - Komplexe Wissenschaft, Opladen 1995.

Der Preismechanismus als ökonomischer Selbstorganisationsprozeß

317

Bevor man diese Fragen beantworten kann, muß man vorab eine andere Frage stellen und auch beantworten: Wie kann man überhaupt komplexe Systeme analysieren, und was versteht man unter Struktur und Ordnung eines Systems? In erster Annäherung versteht man unter einem System eine Menge von Elementen und deren Beziehungen untereinander. Ein System weist eine Ordnung oder eine Struktur auf, wenn gewisse Regelmäßigkeiten in den Beziehungen herrschen; können diese nicht entdeckt werden, heißt das Verhalten des Systems chaotisch. Man hat zwei Möglichkeiten, das Verhalten von Systemen zu analysieren: a) Man analysiert die Funktionsweise von einzelnen Teilen nach bestimmten Regeln und entdeckt auf diese Weise bei mehrmaligen Abläufen bestimmte Strukturen, falls diese existieren. Man betrachtet also Bewegungsabläufe, Prozesse, Simulationen. b) Man analysiert allgemeine Gesetzmäßigkeiten, nach denen sich Strukturen bilden. Man betrachtet also Endzustände von Bewegungsabläufen und Muster und Ordnungen direkt. Diese Möglichkeiten haben eine lange Tradition. Möglichkeit a) beginnt bei Demokrit und ist heute bei der Suche nach den Elementarteilchen angelangt; Möglichkeit b) beginnt mit Platos Ideen und erscheint heute in der Suche nach Symmetrien und Strukturen. Der Möglichkeit b) bedient sich die Synergetik, die für das hier zu behandelnde Thema der Selbstorganisation besonders bedeutsam ist. 6 Die Synergetik analysiert Gesetzmäßigkeiten, die zu gleichen Strukturen führen, wobei es unerheblich ist, in welchen Systemen diese Strukturen auftreten. Beispiele für solche Systeme sind: Gesellschaft mit den Teilen "Gesellschafts mitglieder" , Zelle mit den Teilen "chemischer Aufbau der Zelle", Laser mit den Teilen "Atome", Galaxie mit den Teilen "Sterne", Gas mit den Teilen "Moleküle", Atome mit den Teilen "Elektronen" und "Kerne", Atomkerne mit den Teilen "Nukleonen" u. a.m. Das Ziel der Synergetik besteht darin, das Gemeinsame der Strukturbestimmung in allen diesen, und in vielen anderen, Systemen zu entdecken. So repräsentieren Eiskristalle, Pflanzen, Wirtschaftssysteme, Staaten verschiedene Ordnungszustände; haben sie etwas gemeinsam? Die Kühnheit dieser Problemstellung erschreckt sicherlich zunächst einmal, wird doch nach der Ausnahmestellung des Menschen - durch Darwin - auch die freiheitlich-bewußte Gestaltung seiner Ordnungen in Frage gestellt. Wenn die Synergetik die Gesetzmäßigkeiten der Selbstorganisation untersucht und solche Gesetzmäßigkeiten auch entdeckt, müßte es dann nicht ein Grundprinzip geben, auf das sich diese Gesetzmäßigkeiten zurückführen lassen? Dieses Grundprinzip gibt es in der Tat, und der theoretisch ausgebildete Ökonom wird enttäuscht sein, denn es ist ihm bereits geläufig: Auf der ersten Seite jedes besseren 6

Vgl. dazu Hermann Haken, Synergetik, Berlin usw. 1982.

318

PeterWeise

ökonomischen Lehrbuches wird es, wie bereits erwähnt, angeführt: Ordnungsstrukturen entstehen und werden aufrechterhalten, indem sie rückkoppelnd die Ursachen stabilisieren, aus denen sie entstehen und aufrechterhalten werden. Oder einfacher: Die Einzelteile eines Systems werden von einer Invisible Hand gelenkt, wobei die Invisible Hand von allen Einzelteilen zusammen geschaffen wird. Die Invisible Hand heißt in der Synergetik Ordner; der Ordner versklavt, d. h. lenkt, die Einzelteile, während der Ordner selber durch das Zusammenwirken der Einzelteile erzeugt und stabilisiert wird. Die Essenz der synergetischen Betrachtung liegt nun darin, herauszufinden, auf welche Art und Weise das kollektive Verhalten der einzelnen Teile oder Individuen durch Konkurrenz und Kooperation Zwänge auf die einzelnen Teile oder Individuen ausübt. Die allgemeine Definition der Synergetik lautet demnach: Die Synergetik ist die Wissenschaft vom geordneten, selbstorganisierten, kollektiven Verhalten, wobei dieses Verhalten allgemeinen Gesetzen unterliegt. Die Aufgabe der Synergetik besteht darin, diese Gesetzmäßigkeiten der Selbstorganisation herauszufinden. Die Synergetik wird daher komplexe Systeme nicht nach den üblichen Kriterien der Systemtheorie klassifizieren, sondern nach den langlebigen Größen, den Ordnern, die die kurzlebigen versklaven. Sie wird darüber hinaus zeigen, wie derartige komplexe Systeme aus dynamischen Vorgängen erklärt werden können. Die Grundidee und die Sichtweise der Synergetik werden wir im folgenden als methodischen Ansatz für den Nachweis nutzen, daß der ökonomische Preismechanismus ein Selbstorganisationsprozeß ist. Ähnlich wie die Synergetik versteht Küppers unter Selbstorganisation "die spontane Entstehung von Ordnung, ohne daß externe Anweisungen oder interne Programme diese Ordnung bestimmen. Die Bildung von Ordnung muß deshalb als eine Leistung einer bezüglich ihres Produkts (Ordnung) ,blinden' Dynamik verstanden werden ... Selbstorganisation ist die Entstehung dynamischer Strukturen, die sich selbst reproduzieren. Sie ist in physikalischen Systemen an eine Dynamik gebunden, die durch Ausgleichsprozesse in Ungleichgewichten getrieben wird. Damit sie nicht in kurzer Zeit zum Erliegen kommt, muß der Ausgleich des Ungleichgewichts durch dessen Aufrechterhaltung verhindert werden. Selbstorganisation ist deshalb auf eine Umwelt angewiesen, die die Ressourcen für die Aufrechterhaltung solcher Ungleichgewichte bereitstellt. .. Diese Rückkopplungsschleife zwischen Ungleichgewicht (Ursache) und Ausgleichsprozeß (Wirkung) kann offen bleiben oder sich schließen. Bleibt sie offen, können Ursache und Wirkung sich ständig gegenseitig verändern. .. Schließt sich die Rückkopplung, bedingen Ursache und Wirkung einander. Dann produziert eine Ursache gerade die Wirkung, die sie selbst zur Ursache hat".7 Überträgt man diese Ausführungen auf die ökonomische Selbstorganisation, so können wir Selbstorganisation definieren als einen Prozeß, bei dem Strukturen zirkulär-kausal erzeugt werden, indem sie rückwirkend die Ursachen stabilisieren, 7

Küppers (FN 4), S. 122, 136, 138.

Der Preismechanismus als ökonomischer Selbstorganisationsprozeß

319

aus denen sie entstehen. 8 Dabei sind die folgenden Eigenschaften dieses Prozesses bedeutsam: 1. Es gibt keine externe Kraft, die das System ordnet und organisiert; es gibt aber einen externen Energie-Input in das System, um zu verhindern, daß das System seine Struktur verliert und sich dem Entropiemaximum annähert. 2. Es gibt keine interne Kraft, die das System ordnet und organisiert; es gibt also keine zielgerichteten oder geplanten Aktivitäten, die eine Ordnung herstellen. 3. Es wird durch die Interaktionen ein Ordner (oder eine Hierarchie von Ordnern) erzeugt, der sich langsamer verändert als die Interaktionen selbst und der rückwirkend die Ordnung stabilisiert. III. Das Invisible-Hand-Theorem von Adam Smith

Im übernächsten Abschnitt wird gezeigt, daß der Markt- und Preismechanismus diese Eigenschaften erfüllt und mithin ein Organisationsprozeß im eigentlichen Sinne ist. Zuvor allerdings möchte ich zeigen, daß das Invisible-Hand-Theorem von Adam Smith keinen Selbstorganisationsprozeß bezeichnet, obwohl dies in der Literatur zumeist so behauptet wird, sondern einen Positiven-Feedback-Prozeß zum Inhalt hat. Die Interpretation der "Invisible Hand" als Koordinationsmechanismus, der über einen negativen Feedback in Form von Preissignalen oder Erwartungen das Verhalten der individuellen Akteure in kollektive Übereinstimmung bringt, ist lediglich eine modeme Lesart, entspricht aber nicht der Intuition von Adam Smith. 9 Die Weltsicht von Smith entsprach im wesentlichen der Philosophie der Stoa. In dieser Philosophie ist das Weltgeschehen von einer immanenten Gesetzlichkeit bestimmt. Diese wird bewirkt durch eine Kraft, Gott oder die Vorsehung. In Übereinstimmung mit der Natur zu leben und nicht in den natürlichen Gang der Dinge aktiv einzugreifen ist die Konsequenz und mithin Lebensmaxime. In diesen Ideen hat das Konzept der "Invisible Hand" seine Wurzeln. Es basiert also auf dem traditionellen Gedanken einer vorherbestimmten Ordnung und nicht auf dem modemen einer Selbstorganisation. Tatsächlich hatte Smith an dem Problem der Selbstorganisation kein Interesse. Für ihn war sie überhaupt kein Problem. Das eigentliche Problem lag seiner Meinung nach darin zu begründen, welche Anreize Menschen haben, den Wohlstand aller zu mehren, und nicht nur den eigenen. Nicht die Rückkopplung von Signalen zum Zwecke der Verhaltenskoordination, sondern die Analyse von Handlungs8 Siehe dazu ausführlich Peter Weise, Der synergetische Ansatz zur Analyse der gesellschaftlichen Selbstorganisation, in: Ökonomie und Gesellschaft, Jahrbuch 8, Frankfurt/New York 1990, S. 12-64 9 Vgl. zum folgenden Peter Weise, Die "Invisible Hand": Negativer oder positiver Feedback?, in: Ethik und Sozialwissenschaften, Vol. 8, 1997, S. 239 - 240.

320

PeterWeise

ketten zur Mehrbeschäftigung von Arbeit war sein Thema. Nicht also Koordinationsprozesse mit negativem Feedback, sondern Entwicklungsprozesse mit positivem Feedback werden von Smith betrachtet. Die eine Ursache der Beförderung fremden Wohlstands liegt in der Moral des Menschen. Dies begründet Smith in seiner Theory of Moral Sentiments. Die andere Ursache liegt im Markttausch und in der Natur des ökonomischen Prozesses. Dies begründet Smith in seinem Wealth of Nations. Lassen wir die erste Ursache hier unkommentiert, und konzentrieren wir uns auf die zweite. Wenn demnach die Berücksichtigung der Interessen anderer durch Moral ausscheidet und wenn jeder seine eigenen egoistischen Interessen verfolgen will, inwiefern können dann noch die Interessen der anderen berücksichtigt werden? Auf diese Frage gibt Smith zwei Antworten. Er zeigt zum einen, wie die direkte Anlage von Kapital zur Mehrbeschäftigung von produktiver Arbeit führen und damit den Wohlstand steigern kann, und zum anderen, wie indirekt durch Kauf und Verkauf von Waren jeder den anderen für seine Kosten entschädigt und somit der Käufer dem Verkäufer den Erhalt seines eingesetzten Kapitals garantiert. Dies ist insofern von fundamentaler Bedeutung, als für Smith der Wohlstand nicht, wie in der modemen Theorie, durch den Nutzen, sondern durch den Bestand an (dauerhaften) Konsum- und Kapitalgütern gemessen wird. Dieser Bestand kann vermehrt oder verringert werden, der Wohlstand also steigen oder sinken. An dieser Stelle ist es nützlich, auf die Erwähnung der "Invisible Hand" in der Theory of Moral Sentiments einzugehen. Wohlstandsmehrung kommt bei Smith immer durch Beschäftigung zustande, direkt durch den produktiven Kapitaleinsatz selbst, indirekt durch den Tausch von Waren, in denen Kapital enthalten ist. Die Frage lautet lediglich: In welcher Branche und bei welchen Aktivitäten ist der produktive Arbeitseinsatz pro eingesetztes Kapital am höchsten? Das Zitat lautet: "Von einer Invisible Hand werden die Grundherren dahin geführt, beinahe die gleiche Verteilung der zum Leben notwendigen Güter zu verwirklichen, die zustande gekommen wäre, wenn die Erde zu gleichen Teilen unter alle ihre Bewohner verteilt worden wäre; und so fördern sie, ohne es zu beabsichtigen, ja ohne es zu wissen, das Interesse der Gesellschaft und gewähren die Mittel zur Vermehrung der Gattung". 10 Wohlgemerkt: Nur die zum Leben notwendigen Güter werden gleichverteilt, nicht die Luxus-Güter! Der Grund liegt platterdings in der beschränkten Magenkapazität der Grundherren, so daß sie die Ernte nicht vollständig auffuttern können und mit dem Überschuß an geernteten Grundnahrungsmitteln produktive Arbeit zum Hausbau usw. eintauschen. Jeder wird folglich gleichmäßig satt, und der Grundherr trägt stoisch seine Luxuslast. Was meint also Smith mit der "Invisible Hand"? Das obige Zitat macht das deutlich: Der "Schöpfer der Natur", der "Endzweck" aller Dinge, das "göttliche Wesen", die "Vorsehung", die "wohlwollende Natur", die "natürliche Ordnung", IO

Adam Smith, Theorie der ethischen Gefühle, Hamburg 1977 (zuerst 1759), S. 316 f.

Der Preismechanismus als ökonomischer Selbstorganisationsprozeß

321

der "rationale Plan" oder eben die "Invisible Hand" - alle Begriffe werden von Smith synonym gebraucht, um die die Gesetzlichkeit der Welt bestimmende Kraft zu bezeichnen - hat die Menschen mit einer sehr begrenzten Aufnahmefähigkeit für die lebensnotwendigen Güter ausgestattet. Diese segensreiche Einrichtung führt immer dann zu einer beinahe gleichmäßigen Verteilung dieser Güter, falls der Grundherr sie nicht verpraßt oder verderben läßt, sondern mit ihnen produktive Arbeit beschäftigt. Dadurch wird die Arbeitsteilung befördert und der Wohlstand gemehrt. Die "Invisible Hand" ist demnach - wie die synonymen Begriffe ebenso nur ein Ausdruck, um die Wohlgeordnetheit der Folgewirkungen einer egoistischen Handlung, um also einen positiven Feedback im doppelten Wortsinn zu bezeichnen. Die "Invisible Hand" als Metapher für den Preismechanismus zu nehmen, einen Mechanismus mit negativem Feedback, taugt nichts. Die "Invisible Hand" ist zwar unsichtbar, Adam Smith weiß aber, wem sie gehört: dem Schöpfer der Natur. Der ist zwar auch unsichtbar, aber Adam Smith erkennt seinen Plan durch das unbeabsichtigte segensreiche Wirken von Menschen, die ihre eigenen Interessen verfolgen. Wie ein Maler durch seinen Stil, so wird der Schöpfer erkennbar durch die Wohlgeordnetheit der von ihm geschaffenen Struktur. Der Begriff "Invisible Hand" kommt im Werk von Smith noch an einer anderen Stelle vor, nämlich im Wealth of Nations und dort im Zusammenhang mit einer Diskussion über Auswirkungen des Handels zwischen Geschäftsleuten, und bestätigt diese These: "Und er wird in diesem wie auch in vielen anderen Fällen von einer Invisible Hand geleitet, um einen Zweck zu fördern, den zu erfüllen er in keiner Weise beabsichtigt hat". II (Auch Troitzsch stellt einen Bezug zwischen diesem Zitat von A. Smith und dem Konzept der Selbstorganisation her, spricht aber von einer "Neuformulierung" einer analogen Aussage von v. Hayek. 12) Erhellend ist aber der Zusatz, den Smith macht: Der Mensch wird, "wie auch in vielen anderen Fällen", so auch hier durch die "Invisible Hand" geleitet. Und wieder geht es bei dieser Textstelle um die Frage, wie produktive Arbeit beschäftigt wird und warum sie im Inland und nicht im Ausland vermehrt wird. 13 Denn beim Binnenhandel ersetzt ein Kaufmann im Tausch zwei Verkäufern deren Kapitaleinsatz, der dann wieder zur Beschäftigung von Arbeit genutzt werden kann; im Außenhandel halbiert sich dieser Effekt, wenn das eigene Land mit einem anderen Land handelt, und verschwindet ganz, wenn der Kaufmann mit zwei fremden Ländern handelt. Da aber die Anlage im Binnenhandel insgesamt einen höheren Profit verspricht, legt der private Investor sein Kapital im Inland an; und so tritt wieder die "Invisible Hand" auf und mehrt den Wohlstand des eigenen Landes. Adam Smith, Der Wohlstand der Nationen, München 1983 (zuerst 1776), S. 371. Siehe Klaus G. Troitzsch, Individuelle Einstellungen und kollektives Verhalten, in: Günter Küppers (Hrsg.), Chaos und Ordnung: Formen der Selbstorganisation in Natur und Gesellschaft, Stuttgart 1996, S. 200-228, S. 200/1. 13 Vgl. dazu Albert Jeck, Über Mensch und Natur sowie einige Bewegungsgesetze des Kapital(ismu)s, in: Ökonomie und Gesellschaft, Jahrbuch 9, Frankfurt/New York 1991, S.168-223. 11

12

21 Selbstorganisation, Bd. 9

Peter Weise

322

Warum hat nun zum einen aber die Metapher der "Invisible Hand" Furore gemacht, und nicht die Metapher der "Vorsehung", des "göttlichen Wesens" usw., die doch das gleiche bezeichnen? Die Antwort ist einfach: Der "Invisible Hand" sieht man nicht an, daß der Arm des Schöpfers dran steckt; sie ist philosophieneutral und theologiefrei. Warum hat zum anderen überhaupt diese Metapher eine derartige Bedeutung gewinnen können? Die Antwort ist wiederum einfach: Weil sie zur Kennzeichnung eines tatsächlichen und schwer zu lösenden Problems geworden ist, der Selbstorganisation vieler unabhängiger Akteure in Form eines Gleichgewichts und Optimums. Spricht man in der heutigen Theorie von der "Invisible Hand", so meint man genau dieses Problem des negativen Feedbacks. 14 Und damit bin ich bei dem Problem, der "Invisible Hand" eine selbstorganisatorische Interpretation zu geben. IV. Marktgleichgewicht und Selbstorganisation

Denn der Preismechanismus ist hingegen tatsächlich ein Negativer-FeedbackProzeß und entspricht uneingeschränkt dem, was heute als Selbstorganisation bezeichnet wird. Wie kann man sich diesen über Preise gelenkten Selbstorganisationsprozeß verdeutlichen? Angenommen, eine sehr große Anzahl Individuen, von denen jedes eine bestimmte Ausgangsausstattung an Ressourcen (Güter, Arbeit, Kapital, Boden) besitzt, die getauscht oder in Produktionsprozessen umgewandelt werden können, stehen sich zunächst unverbunden gegenüber. Jedes Individuum vermag alle Ressourcen ordinal zu bewerten und ist bestrebt, eine möglichst nutzenmaximale Ressourcenkombination zu realisieren. Privateigentum und Vertragsfreiheit seien garantiert. Ist es dann möglich, daß ein konsistentes Handlungsmuster zwischen allen Individuen entsteht, ohne daß ein exogener Koordinator die korrekten Handlungsweisen ermittelt und vorschreibt, oder entwickeln sich Chaos und Unordnung? Ersteres ist richtig, falls ein Preismechanismus vorhanden ist und jedes Individuum seine Handlungen an den jeweils gegebenen Preisen ausrichtet. Eine kleine Abbildung mag den Gedankengang verdeutlichen:

Preise Nutzenmaximierung beigegebenen Preisen

Pläne, Handlungen

14 Siehe hierzu Hans G. Nutzinger; Das System der natürlichen Freiheit bei Adam Smith und seine ethischen Grundlagen, in: Ökonomie und Gesellschaft, Jahrbuch 9, Frankfurt/New York 1991, S. 79-100.

Der Preismechanismus als ökonomischer Selbstorganisationsprozeß

323

Bei gegebenen Preisen bestimmt jedes Individuum seine nutzenmaximalen Pläne und Handlungen; sind diese Pläne nicht miteinander kompatibel, verändern sich die Preise gemäß den Überschußnachfragen; bei den veränderten Preisen passen sich alle Individuen wieder an usw., bis alle Pläne gerade derart sind, daß keine Preisveränderung mehr stattfindet: Das System von Individuen befindet sich in einem (optimalen) Gleichgewicht. Dieser Selbstorganisationsprozeß kann im wesentlichen auf zwei verschiedene Arten stattfinden. Die Handlungen können nämlich nur bei Gleichgewichtspreisen oder auch bei Ungleichgewichtspreisen stattfinden. a) Selbstorganisation bei Gleichgewichtspreisen: Es ergibt sich ein fiktiver Anpassungsprozeß über Preise; die Gleichgewichtspreise räumen den Markt und führen zu einem effizienten Punkt mit zulässigen und kompatiblen Handlungen aller Individuen; da nur zu Gleichgewichtspreisen tatsächlich getauscht und produziert wird, wird der effiziente Punkt in einem Schritt bei gegebenen Ausgangsdaten erreicht; Handlungen bei Ungleichgewichtspreisen wären nicht zulässig und inkompatibel; das Gleichgewicht genügt dem Fundamentalsatz der welfare economics, der bekanntermaßen besagt, daß jedes Gleichgewicht relativ zu einem Preissystem ein Optimum ist und jedes Optimum als ein Gleichgewicht relativ zu einem Preissystem etabliert werden kann. b) Selbstorganisation bei Ungleichgewichtspreisen: Ein Gleichgewicht wird nicht in einem Schritt, d. h. über ein Preissystem, erreicht, sondern über eine Folge von in jedem Moment uneinheitlichen Preissystemen; bei Ungleichgewichtspreissystemen wird tatsächlich getauscht und produziert; zum Unterschied von a) werden Vermögensverteilungen nicht lediglich bewertet, sondern es finden im Regelfall Vermögens-Umverteilungen statt; da in jedem Moment unterschiedliche Preise herrschen (und da Läger existieren), sind auch Handlungen zu Ungleichgewichtspreisen zulässig und kompatibel; bei Spezifizierung der Anpassungspfade genügt auch dieser Mechanismus dem Fundamentalsatz der welfare economics. In beiden Fällen gilt aber, daß sich das betrachtete System von Individuen mit Hilfe des endogenen Koordinators Preissystem selbst organisiert hat: Eine Ordnungsstruktur ist entstanden und wird aufrecht erhalten, indem sie rückkoppelnd die Ursachen stabilisiert, aus denen sie entstanden ist und aufrecht erhalten wird. Die wesentliche Bedingung hierfür ist, daß sich die Ordnungsgröße hinreichend langsam verändert, so daß sich die Handlungen an die Ordnungsgröße anpassen können. Bleiben alle Daten unverändert, verbleibt das System in seinem Ordnungszustand; unterstellt man Zukunftsmärkte für alle Handlungen, so erstreckt sich der Ordnungszusammenhang auch über die Zeit. Verändern sich die Daten mit einer langsameren Eigenzeit als die Handlungen, entsteht ein evolutorischer Prozeß, in dem die Handlungen jeweils an die Daten instantan angepaßt sind. Der Selbstorganisationsprozeß und die resultierende Ordnung sind in diesem Modell klar definiert: Selbstorganisation geschieht über die Beschränkung von frei 21 *

324

PeterWeise

wählbaren Handlungen und bewirkt einen gleichgewichtigen und optimalen Ordnungszustand. Worin liegen die Freiheitsbeschränkungen? Zum einen im Individuum selbst in Form seiner Präferenzen (sprich: internen Handlungsbeschränkungen), diese kann es nicht frei wählen; dann in seiner Ausgangsausstattung, diese kann es auch nicht frei wählen. Weiterhin resultieren Freiheitsbeschränkungen für jedes Individuum daraus, daß die anderen Individuen ebenfalls handeln; es gilt aber, daß jeder individuelle Handlungsspielraum maximal unter der Nebenbedingung der anderen Handlungsspielräume ist. Schließlich resultieren Freiheitsbeschränkungen auch aus der natürlichen Umgebung: Naturgesetze und Vorräte an Ressourcen sind gegeben. Obwohl jegliches Verhalten für alle Individuen zusammen selbstorganisatorisch als determiniert erscheint, ist die Freiheit nach bestimmten Kriterien maximal: Keine Verhaltensmaximen irgendwe1cher Art können die Individuen besserstellen! Vollständiger Blödsinn oder die "bedeutendste Leistung ökonomischen Denkens zum Verständnis sozialer Prozesse"? Beide Ansichten werden vertreten; Streitereien können dann naturgemäß nicht ausbleiben. Vermieden werden könnten sie durch eine genaue Betrachtung d~r zugrundeliegenden Annahmen; und hier stürzt die Wirklichkeit wie ein reißender Strom in die abstrakte Modellwe1t. Tatsächlich sind die Präferenzen undeutlich und widersprüchlich; die Rationalität ist beschränkt; die Eigentumsrechte sind schlecht definiert; nicht alle Güter sind handel bar, und nicht alle Märkte - schon gar nicht die Zukunftsmärkte - existieren; es gibt öffentliche Güter, externe Effekte und steigende Skalenerträge; es gibt das Problem kleiner Zahlen; Menschen handeln auch strategisch und nicht nur adaptiv; die natürliche Umgebung verändert sich infolge des Produktionsprozesses etc. Aber bedeutet dies bereits die Irrelevanz dieses Selbstorganisations-Modells? Für manche Wissenschaftler ist es der Startpunkt, um die Konsequenzen der realistischeren Annahmen zu untersuchen; für andere Wissenschaftler gewinnt der Preis- und Marktmechanismus ein Eigenleben: Gerade in der realen Welt funktioniere er gut. Ich möchte die unterschiedlichen Gesichtspunkte hier nicht diskutieren. Für mich enthält das Modell, wenn auch unter recht restriktiven Bedingungen, eine exakte Formalisierung einer gesellschaftlichen Selbstorganisation bei freien Wahlhandlungen. Auf realistischere Annahmen gehe ich im folgenden Kapitel noch ein. Zuweilen wird behauptet, daß Selbstorganisation nur fernab von einem Gleichgewicht möglich sei und daß deshalb das Marktgleichgewicht gerade keine selbstorganisatorisch erzeugte Ordnung ist. Diese Aussage beruht aber auf einem Mißverständnis und verwechselt das ökonomische Marktgleichgewicht mit dem physikalischen Gleichgewicht. Das ökonomische Marktgleichgewicht entspricht einem (biologischen) Fließgleichgewicht und liegt aufgrund der exogenen Ressourcenzufuhr fernab vom physikalischen Gleichgewicht, das einen entropiemaximalen Zustand meint, in dem keine Energiegradienten mehr existieren. Der Preismechanismus ist also ein Selbstorganisationsprozeß, der fernab vom physikalischen Gleichgewicht einen wohlgeordneten, gleichgewichtigen Zustand erzeugt, indem von außen eine Energiezufuhr erfolgt und von innen eine Handlungsstrukturierung geschieht.

Der Preismechanismus als ökonomischer Selbstorganisationsprozeß

325

v. Hierarchie von Ordnern und Selbstorganisation Im folgenden betrachte ich das Prinzip der Selbstorganisation unter realistischeren ökonomischen Bedingungen und dehne es auf den gesellschaftlichen Bereich aus. In der realen gesellschaftlichen Welt gibt es eine menschengemachte Umgebung, die weit über ein reines Zahlensystem (das Preissystem) hinausgeht: die Kultur, die aus den von Menschen gemachten Dingen, Regeln, Erwartungen, Verhaltens- und Interaktionsmustern, Attitüden und Überzeugungen besteht. Diese Kultur existiert nur solange, wie ihre Einheiten reproduziert werden, genauso wie eine Art nur existiert, wenn sich ihre Mitglieder reproduzieren; und sie entwickelt sich durch Veränderungen und Selektion dieser Einheiten, also in einem evolutorischen Prozeß. Diese können materiell sein und kopiert werden (wie Güter), sie können verhaltensbezogen sein und imitiert werden (wie Sprache und Verhaltensregeln), und sie können mental sein und auf die Nachkommenden symbolisch tradiert werden (wie Attitüden oder Glaubenshaltungen). So unterschiedlich sie sind, eines haben sie gemeinsam: Sie erfüllen alle die Funktion eines endogenen Koordinators und Ordners, und zwar dann, wenn das menschliche Handeln auf sie bezogen ist und wenn sie sich langsamer verändern als das Handeln selber. Werden sie nicht reproduziert, verlieren sie die Funktion als endogener Koordinator und Ordner; werden sie dagegen reproduziert, stabilisieren sie wiederum die Ursachen ihres Entstehens. Die kleine Abbildung des Preismechanismus weiter oben kann man daher erweitern zu der folgenden: natürliche Umgebung menschengemachte Umgebung (Kultur)

1

Anpassung Maximierung Optimierung

Interaktionen Variation der Umgebung

1 Handlungen

Die gesellschaftliche Selbstorganisation läßt sich aus dieser Sicht auf eine Hierarchie von endogenen Ordnern zurückführen. Die wenig veränderbaren Größen stehen in dieser Hierarchie ganz oben und können bereits als exogene Ordner bezeichnet werden; darunter stehen die langsam veränderlichen Größen wie zum Beispiel Regeln, gefolgt von relativ schnell veränderlichen Größen wie Preisen, die weiter oben diskutiert wurden, bis hin zu Gestik und Mimik. Die jeweils schneller veränderlichen Ordner passen sich an die langsamer veränderlichen Ordner an und verändern diese gegebenenfalls wiederum relativ langsam. Wir haben eine Hierar-

326

Peter Weise

chie - und über die Verzweigungen auch eine Interdependenz - von gesellschaftlichen Selbstorganisationsprozessen. In der gesellschaftlichen Selbstorganisation wird Ordnung durch die Erzeugung von Freiheitsbeschränkungen geschaffen, die "blinde" oder freie Aktionen strukturieren, indem sie nämlich zwischen den Individuen Verhaltensbeschränkungen definieren. Aus Freiheit-Chaos wird Ordnung. Jede Variation einer Verhaltensbeschränkung wird durch Beschränkungen auf einer höheren Ebene selektiert, diese Beschränkungen sind dann die Handlungs-Umgebung. Indem Normen, Sitte, Moral, Regeln, Rechte, Preise usw. Handlungen mit (internen und externen) Beschränkungen belegen, beschränken sie die freie Wahl, verbessern dadurch aber die Koordination der Handlungen, erzeugen mithin eine Ordnung. 15 Anhand des folgenden hierarchischen Systems von Differentialgleichungen kann man diese Idee der Selbstorganisation exakt formalisieren: (1) (2)

(3)

~ = -a3~ dt

b3z

Dabei sollen mit der Variablen z die Handlungen der Individuen, mit der Variablen y die Preise und mit der Variablen x die Normen bezeichnet werden. Dem Differentialgleichungssystem liegt die Annahme zugrunde, daß die Normen die Preise und Handlungen bestimmen, während die Handlungen die Preise und die Preise die Veränderung der Normen beeinflussen. Die Parameter b l , bz und b3 geben die Geschwindigkeit der Eigenanpassung der drei Systeme an und bewirken je nach Vorzeichen eine Selbstverstärkung oder eine Anpassung. Gilt die Bedingung b 3 » b2 » b l , so variieren die drei Systeme mit unterschiedlichen Eigenzeiten. System (3) verändert sich sehr viel schneller als System (2) und System (2) sehr viel schneller als System (1); z ist also eine sehr schnelle, y eine mittelschnelle und x eine langsame Variable. System (1) bestimmt das Verhalten von System (2) und System (3), während System (3) rückwirkend System (2) und System (2) rückwirkend System (1) beeinflußt. Die Teil-Systeme (1), (2) und (3) bilden folglich ein gekoppeltes Gesamtsystem, das sich über die Ordner y und x, die mit unterschiedlichen Zeitskalen variieren, selbstorganisatorisch strukturiert. Dabei bezeichnen die Parameter al, a2 und a3 den Grad der "Reibung" oder "Hemmung", d. h. die Stärke der wechselseitigen Freiheits- und Handlungs15 Vgl. dazu ausführlich Thomas Eger / Peter Weise, Liberalismus und gesellschaftliche Selbstorganisation, in: Hans G. Nutzinger (Hrsg.), Liberalismus im Kreuzfeuer, Frankfurt am Main 1986, S. 60 - 78.

Der Preismechanismus als ökonomischer Selbstorganisationsprozeß

327

beschränkungen. Die Parameter Cl und Cz schließlich bestimmen die Größe der Bevorzugung einer Entwicklungsrichtung gegenüber einer anderen. Unterstellt man, daß bei einer Veränderung der Normen (Teil-System (1» sich sowohl die Preise (Teil-System (2» als auch die Handlungen (Teil-System (3» im Gleichgewicht befinden, kann man sich einen Eindruck von dem Verhalten des Systems verschaffen. Setzt man unter Beachtung, daß dz/ dt näherungsweise gleich Null ist, (3) in (2) ein und setzt man unter Beachtung, daß dy/dt näherungsweise gleich Null ist, den resultierenden Ausdruck in (1) ein und ermittelt die entsprechende Potentialfunktion, so erhält man, wobei sich die Koeffizienten a, b, c, d aus den Koeffizienten des Differentialgleichungssystems zusammensetzen, V(x) = 1/6x6 + 1/4ax4

+ 1/3bY! + 1/2cx2 + dx;

diese Potentialfunktion entspricht der Katastrophe "Schmetterling" und beschreibt das entsprechende Gleichgewichtsverhalten des Systems. 16 Mithin erhält man in einem zeitlich hierarchisch gegliederten dynamischen System, das vergleichsweise einfach strukturierte Teilsysteme enthält, über zwei Ordner, von denen der eine durch den anderen selektiert wird, eine komplexe Verhaltenslandschaft im vier-dimensionalen Raum. Der eigentliche Selbstorganisationsprozeß kann demnach sehr einfach sein, obwohl die resultierende Verhaltenslandschaft (die Schmetterlings-Katastrophe) ziemlich komplex ist. VI. Preismechanismus und Wettbewerb als Selbstorganisation und Evolution

Evolution und Selbstorganisation kann man als Prozesse auffassen, die sich aus Zufall und Notwendigkeit zusammensetzen. Der Zufall sorgt für Entwicklung und Veränderung, die Notwendigkeit sorgt für Funktion und Struktur. Jede Evolution und Selbstorganisation enthält einen Trade-off zwischen diesen beiden Prozessen. Ist die Zufallskomponente gering und ist die Notwendigkeitskomponente groß, nähert sich die Evolution einem deterministischen, vorherbestimmten Prozeß; ist die Zufallskomponente groß und ist die Notwendigkeitskomponente gering, nähert sich die Evolution einem stochastischen, zufallsbedingten Prozeß. Die biologische Evolutionstheorie hat es sich zum Ziel gesetzt, das Entstehen der Millionen verschiedener Arten von Lebewesen zu erklären. Bis ins achtzehnte Jahrhundert war man der Meinung, daß neue Typen ohne allmählichen Übergang aus alten Typen plötzlich entstehen. Dies ist aber unmöglich, da sich die aneinan16 Für ein einfacheres Modell, aber eine ausführlichere Darstellung siehe Thomas Eger / Peter Weise, Die Evolution kapitalistischer und laboristischer Unternehmungen als Prozeß der Selbstorganisation, in: Felix R. FitzRoy I Kornelius Kraft (Hrsg.), Mitarbeiterbeteiligung und Mitbestimmung im Unternehmen, Berlin I New York 1987, S. 295 - 316.

328

PeterWeise

der angepaßten Strukturen und Funktionen eines Typus nicht in einem Schritt verändern und neu abstimmen lassen. Später glaubte man, daß Typen sich allmählich verändern, indem sie erworbene Eigenschaften an die Nachkommen vererben. Doch ist dies ebenfalls unmöglich, da zwar die Information der Nukleinsäuren (Genotyp) in die Proteine, nicht aber die Information der Proteine (Phänotyp) in die Nukleinsäuren übertragen werden kann, d. h. der Genotyp bestimmt den Phänotyp, nicht aber umgekehrt. Schließlich glauben viele bis heute, daß sich die Typen von innen heraus zielgerichtet von einem niedrigen zu einem hohen Grad der Komplexität entwickeln. Aber auch dies ist unmöglich, da es keine Gene gibt, die eine derartige Zielrichtung vorgeben könnten. Die einzige Erklärung, die heute als gesichert gilt, ist die Darwinsche Evolutionstheorie. Gemäß dieser Theorie entstehen und verändern sich Arten, indem nicht der einzelne Typus abgeändert wird, sondern indem sich eine Population verändert. Bei sich geschlechtlich fortpflanzenden Arten entsteht durch genetische Rekombination eine Vielzahl genetischer Varianten. Diese Variation zusammen mit der Mutation erzeugt eine große Variabilität von Individuen in jeder Generation. Durch die Selektion bleiben in jeder Generation einige wenige übrig, die dann wiederum Nachkommen der nächsten Generation haben. Direkt ausgelesen werden demnach Individuen; indirekt ausgelesen werden die entsprechenden Gene und die Gruppen, falls sie einen überdurchschnittlichen Überlebensvorteil bewirken. Evolution ist also ein Prozeß, der sich aus Zufall und Notwendigkeit zusammensetzt: Die Erzeugung der genetischen Variabilität ist ein stochastischer Prozeß, die Auslese im wesentlichen ein deterministischer. Diejenigen Individuen werden in der Evolution am meisten begünstigt, die ihren Feinden am besten widerstehen sowie sich am besten an die Umwelt anpassen können (natürliche Auslese) und die den größten Fortpflanzungserfolg haben (geschlechtliche Auslese). Die Entwicklung bestimmter Eigenschaften auf der Makroebene entsteht dabei durch das Auftreten dieser Eigenschaften bei einem Individuum, d. h. auf der Mikroebene, und durch allmähliche Diffundierung dieser Eigenschaft via Selektion. Naturgemäß enthält die biologische Evolutionstheorie Elemente und Übertragungsmechanismen, die ihrem spezifischen Erklärungsgegenstand geschuldet sind: Gene, geschlechtliche Rekombination, Variation, Selektion u. a.m. Eine direkte Übertragung dieser Begriffe auf die Analyse ökonomischer Prozesse scheint unangemessen. Vielmehr muß zuvor gefragt werden, weIche ökonomischen Tatbestände den biologischen entsprechen. Da menschliche Individuen Informationen direkt und nicht nur durch paarweise Kontakte - austauschen sowie lernen und erfinden können und da menschliche Individuen über vielfältige Mechanismen miteinander konkurrieren und kooperieren können, scheinen andere Konzepte nützlicher zu sein. 17 17 Für eine Diskussion derartiger Konzepte siehe Bernd Bierven / Martin Held (Hrsg.), Evo1utorische Ökonomik, Frankfurt / New York 1992.

Der Preismechanismus als ökonomischer Selbstorganisationsprozeß

329

Hier wird vorgeschlagen, statt der Gene als Übertragungsträger die Handlungen der Individuen als Einheiten zu nehmen, an denen Evolution bzw. Selektion ansetzt. Genau diese Handlungen habe ich daher auch der bisherigen Diskussion der Selbstorganisation zugrunde gelegt. Diese Handlungen können innoviert und stabilisiert werden, sie können aber auch durch Imitation im "Handlungspool" vervielfacht werden oder aus diesem durch Selektion verschwinden. Um die Variabilität der Handlungen erklären zu können, wird angenommen, daß menschliche Individuen zwischen Handlungen wählen und neue Handlungen erfinden können, d. h. zwischen Handlungen fluktuieren können. Die Begriffe der Mutation und der Selektion werden demnach ersetzt durch die Begriffe der Innovation und des Wettbewerbs. Andere Autoren verallgemeinern den Begriff der Gene zum Begriff des Replikators. Ein Replikator ist eine Einheit, die Informationen enthält, rekombinationsfähig ist und hinreichend lange überlebt, um Informationen auf mehrere Generationsfolgen übertragen zu können. So wird zum einen als Replikator analog zum Gen das Mem vorgeschlagen, das als elementare Wissenseinheit die übertragungsfähige Grundeinheit der kulturellen Evolution sein soll. Dieser Vorschlag ist aber zu eng gegriffen, da das Mem ohne Handlung nicht überlebensfähig ist, während die Handlung die entsprechenden Wissenseinheiten mit enthält. So wird zum anderen als Replikator die Routine vorgeschlagen, die via Imitation weitergegeben wird. Dieser Vorschlag ist aber zu weit gegriffen, da eine Routine erst über Lern- und Gewöhnungseffekte (sprich: über Selbstverstärkung und Hemmung) aus einer Handlung aufgebaut und stabilisiert wird.

Im wesentlichen basiert der ökonomische Evolutions- und Selbstorganisationsprozeß dann, neben einer Bevorzugungskraft, auf den drei folgenden verschiedenen Kräften: 1. Fluktuationskraft: Mutationen, Variationen, Innovationen entstehen und zerstören die etablierte Struktur, woraus eine Tendenz zur Unordnung entsteht, bis hin zum Zustand der maximalen Entropie. Gleichzeitig wird durch diese Kraft eine Variabilität von Handlungen erzeugt. Diese Fluktuationskraft ist eine Form des Wettbewerbs, die sich darin ausdrückt, daß Innovationen stattfinden. 2. Selbstverstärkungskraft: Durch Interaktionen mit positivem Feedback, durch Konformitätsprozesse und Selbstverstärkungsprozesse bewegt sich das System vom Zustand der maximalen Unordnung weg und begibt sich in einen Zustand höherer Ordnung. Gleichzeitig werden durch diese Kraft Strukturen aufgebaut. Diese Selbstverstärkungskraft ist eine Form des Wettbewerbs, die sich darin ausdrückt, daß Strukturen verändert werden. 3. Hemmungskraft: Durch Interaktionen mit negativem Feedback, durch Antikonformitätsprozesse und Reibungsprozesse wird ein unbegrenztes Wachstum des Systems gebrochen und eine Tendenz zum Gleichgewicht hergestellt. Gleichzeitig werden durch diese Kraft Freiheits- und Handlungsbeschränkungen erzeugt. Diese Kraft ist eine Form des Wettbewerbs, die sich darin ausdrückt, daß

330

PeterWeise

Ausgleichsprozesse stattfinden; der Wettbewerb entspricht hier quasi einem Arbitrageprozeß.

In der Evolution ist das wirtschaftliche Geschehen ein zeitkonsumierender Prozeß, der sich selbstorganisatorisch reguliert und der unvorhergesehene Neuerungen zuläßt. Damit haben einerseits im Zeitablauf entstandene und sich vergleichsweise langsam entwickelnde quasi-starre Strukturen Rückwirkungen auf die "blinden" oder frei gewählten Handlungen. Damit haben andererseits die Individuen dennoch Handlungsmöglichkeiten und können Strukturen selbstorganisatorisch erzeugen oder destabilisieren. Evolutions- und Selbstorganisationsprozesse, bei denen Strukturen entstehen und durch die handelnden Individuen erzeugt werden, wobei sich die Strukturen aber langsamer verändern als die Handlungen selbst, verlaufen also in dem großen Bereich zwischen struktureller Fremdbestimmung und freier Eigenbestimmung der Individuen. Je nach Stärke der vier Kräfte der Bevorzugung, Fluktuation, Selbstverstärkung und Hemmung entsteht ein eher selbstorganisatorischer Gleichgewichtsprozeß oder ein eher evolutorischer Veränderungsprozeß. VII. Schluß

Hiermit ist gezeigt worden, daß der ökonomische Preismechanismus ein Selbstorganisationsprozeß und der ökonomische Wettbewerb ein Evolutionsprozeß ist: "Die Umgebung belohnt manche Handlungen mehr als andere und beeinflußt dadurch systematisch das individuelle Verhalten; umgekehrt verändern alle individuellen Handlungen zusammen die Umgebung - es entsteht ein evolutorischer Prozeß in der historischen Zeit ... ; der Entwicklungsprozeß schreitet voran in Form eines selbstorganisierenden Systems".18 Darüber hinaus ist argumentiert worden, daß A. Smith's berühmtes Invisible-Hand-Theorem tatsächlich kein Theorem über einen Selbstorganisationsprozeß ist, sondern eher einer teleologischen Harmonieidee verpflichtet ist. Man kann dennoch somit festhalten, daß die Ökonomen seit langer Zeit, wenn auch unter den Begriffen Preismechanismus und Gleichgewicht sowie Wettbewerb, Selbstorganisations- und Evolutionsprozesse analysieren; die ökonomische Denkmethode ist mithin, wenn nicht gar ein bedeutender Vorläufer, so doch jedenfalls eingebettet in das große Gebiet der Selbstorganisationsforschung. Literatur Arrow, Kenneth J./ Hahn, Frank H., General Competitive Analysis, San Francisco and Edinburgh 1971 Biervert, Hemd/ Held, Martin, (Hrsg.), Evolutorische Ökonomik, Frankfurt/New York 1992 Debreu, Gerard, Theory of Value, New York 1959 18

Peter Weise, Neue Mikroökonomie, Würzburg/Wien 1979, S. 48/49, 38/39.

Der Preismechanismus als ökonomischer Selbstorganisationsprozeß

331

Eger, Thomas I Weise, Peter, Liberalismus und gesellschaftliche Selbstorganisation, in: Hans G. Nutzinger (Hrsg.), Liberalismus im Kreuzfeuer, Frankfurt am Main 1986, S. 60-78

- Die Evolution kapitalistischer und laboristischer Unternehmungen als Prozeß der Selbstorganisation, in: Felix R. FitzRoy I Kornelius Kraft (Hrsg.), Mitarbeiterbeteiligung und Mitbestimmung im Unternehmen, Berlin/New York 1987, S. 295 - 316 Haken, Hermann, Synergetik, Berlin usw. 1982 Jeck, Albert, Über Mensch und Natur sowie einige Bewegungsgesetze des Kapital(ismu)s, in: Ökonomie und Gesellschaft, Jahrbuch 9, Frankfurt/New York 1991, S. 168 - 223 Küppers, Günter, (Hrsg.), Chaos und Ordnung: Formen der Selbstorganisation in Natur und Gesellschaft, Stuttgart 1996

- Selbstorganisation: Selektion durch Schließung, in: Günter Küppers (Hrsg.), Chaos und Ordnung: Formen der Selbstorganisation in Natur und Gesellschaft, Stuttgart 1996, S. 122148 Mußmann, Frank, Komplexe Natur - Komplexe Wissenschaft, Opladen 1995 Nutzinger, Hans G., Das System der natürlichen Freiheit bei Adam Smith und seine ethischen Grundlagen, in: Ökonomie und Gesellschaft, Jahrbuch 9, Frankfurt/New York 1991, S. 79 -100 Schumann, Jochen, Grundzüge der mikroökonomischen Theorie, Berlin u. a.m. 1992 Smith, Adam, Theorie der ethischen Gefühle, Hamburg 1977 (zuerst 1759)

- Der Wohlstand der Nationen, München 1983 (zuerst 1776) Troitzsch, Klaus G., Individuelle Einstellungen und kollektives Verhalten, in: Günter Küppers (Hrsg.), Chaos und Ordnung: Formen der Selbstorganisation in Natur und Gesellschaft, Stuttgart 1996, S. 200 - 228 Weise, Peter, Neue Mikroökonomie, Würzburg/Wien 1979

- Der synergetische Ansatz zur Analyse der gesellschaftlichen Selbstorganisation, in: Ökonomie und Gesellschaft, Jahrbuch 8, Frankfurt/New York 1990, S. 12 - 64 - Die ,Jnvisible Hand": Negativer oder positiver Feedback?, in: Ethik und Sozialwissenschaften, Vol. 8, 1997, S. 239-240

Wirtschaftspolitische Steuerung versus institutionelle Selbstorganisation politisch-ökonomischer Systeme: Die Transformation post-sozialistischer Volkswirtschaften 1 Von Carsten Herrmann-Pillath, Witten

I. Wirtschaftspolitische Steuerung: Die herrschende Lehre auf schwankendem Boden

Zu den bemerkenswerten, wenn auch weniger beachteten Ergebnissen der nun rund zehn Jahre ablaufenden Transformation sozialistischer Planwirtschaften gehört ohne Zweifel, daß die "mainstream"-Wirtschaftswissenschaft eine überragende Rolle bei der Analyse der Prozesse, insbesondere aber bei Beratung und Gestaltung gespielt hat: Dies, obgleich die Kritik an dieser Rolle nicht zuletzt in den betroffenen Ländern weit verbreitet war und ist? Trotz vielfältiger Programme und Projekte für die Förderung einer besonderen Spezialisierung in den Wirtschaftsund Sozialwissenschaften hat sich weder eine spezielle "Transformationstheorie" etablieren können, noch hat es die erwartete Bewegung in den theoretischen Grundlagen der Wirtschaftswissenschaft selbst gegeben: Hatten doch viele Beobachter anfangs gemeint, daß ein derart einzigartiges Sozialexperiment wie dasjenige der Transformation doch wesentliche Einsichten auch theoretischer Natur produzieren müsse. 3 Dieser Sieges zug der "mainstream economics" hatte verschiedene Gründe vornehmlich wissenschafts soziologischer Natur. Von überragender Bedeutung war I Dieser Beitrag ist eine gekürzte und überarbeitete Fassung des Diskussionspapiers Nr. 52 der Fakultät für Wirtschaftswissenschaft der Universität Witten I Herdecke. 2 Vgl. Jdnos Mdtyds Kovdcs, Which Institutionalism? Searching for Paradigms of Transformation in Eastem European Economic Thought, in: Hans-Jürgen Wagener, Hrsg., The Political Economy of Transformation, Heidelberg 1994, S. 85 - 94 und Ldszl6 Csaba, Wirklichkeitsfeme Politikberatung, in: Carsten Herrmann-Pillath lOtto Schlecht! Horst-Friedrich Wünsche (Hrsg.), Marktwirtschaft als Aufgabe. Wirtschaft und Gesellschaft im Übergang vom Plan zum Markt, Stuttgart I New York 1994, S. 669 - 682. Der Begriff des "mainstream ist freilich diffus, wird oft polemisch gebraucht und auf bestimmte Orte ("Chicago oder Institutionen ("IMF bezogen. Wir verstehen hier grob eine bestimmte Methode (Modellbildung auf im weitesten Sinne neoklassischer Basis) und bestimmte normative Positionen (etwa Primat rascher Privatisierung). 3 Vgl. Bruno Dallago et al., The State and Future of Comparative Economics, in: Economic Systems, Vol. 21, No. 1, 1997, S. 57 - 86. H

H

H

)

)

334

Carsten Hernnann-Pillath

sicherlich die Tatsache, daß alle Transformationsprozesse von intensiver Beratung durch internationale Organisationen begleitet wurden: Diese wiederum gingen selbstverständlich auf das wirtschaftswissenschaftliche Establishment zu, um den vermeintlich bestmöglichen Input zu finden. Die regionalwissenschaftlichen Spezialisten wurden weitestgehend links liegen gelassen, war doch von ihnen kein theoretisch fundiertes Urteil zu erwarten. Heterodoxe Positionen wie die Evolutorische Ökonomik waren nicht geeignet, politisch möglichst umgehend operationalisierbare Empfehlungen zu generieren. Wer außerdem behauptete, daß die Transformation ein experimentum crucis für die Fortentwicklung der Theorie sei, expedierte sich selbst aus dem Beratungszusammenhang heraus, denn das hieß ja, erst nach theoretischer Durchdringung des Phänomens und intensiver empirischer Arbeit zu theoretisch begründeten Empfehlungen in der Lage zu sein: Also in jedem Fall viel zu spät, um zum Zeitpunkt, als wirtschaftspolitische Entscheidungen zu fällen waren, mit substantiellen normativ-pragmatischen Aussagen auftreten zu können. Auf der anderen Seite ist bemerkenswert, daß sich in den Diskursgemeinschaften der betroffenen Länder ebenfalls Fronten gegen die "mainstream economics" gebildet haben, die freilich außerhalb dieser Länder zumeist gar nicht wahrgenommen wurden. 4 Wenngleich es hier zum Teil auch um die Verteidigung konkreter Interessen ging (wie etwa des militärisch-industriellen Komplexes in Rußland), so spielte doch auch der Gedanke eine wichtige Rolle, daß der Tatbestand umfassenden institutionellen Wandels zur Entwicklung neuer Sichtweisen und zu anderen Schlußfolgerungen Anlaß geben solle. Der "mainstream economics" wurde vorgehalten, die Komplexität der Prozesse über alle Gebühr zu vereinfachen und letzten Endes also auch zu pragmatisch-politischen Empfehlungen zu gelangen, die mit hohen, allzu Kosten der Transformation verbunden sind. 5 Bei genauer Betrachtung sind aber die Parteien eigentlich weniger inhaltlich-normativ, sondern methodisch differenziert: Viele Kritiker der "mainstream cconomics" neigen zu einer "thick description" der Transformation, weisen auf die Vielfalt der Interdependenzen nicht nur innerhalb der Wirtschaft, sondern auch zu Politik, Kultur und Gesellschaft hin, während diese selbst in großen Aggregaten und Prozeßeinheiten denkt, die im wesentlichen denjenigen der Marktwirtschaft entsprechen: Zahlungsbilanz und Inflation, Privatisierung und Stabilisierung. 6

4 Zum Fall Chinas siehe meine ausführliche Studie, Institutioneller Wandel, Macht und Inflation in China: Ordnungstheoretische Analysen zur Politischen Ökonomie eines Transformationsprozesses, Baden-Baden 1991, S. 131-210. Zum Teil hängen solche theoretischen Sonderwege mit der personellen Kontinuität akademischer Positionen über den Systemwandel hinweg zusammen sowie mit eigenständigen Denktraditionen. Als Beispiel für das erste möge die starke Position der Akademiemitglieder in Rußland gelten, für das zweite die Besonderheiten der intellektuellen Entwicklung in Ungarn. 5 Im Originalton zum Beispiel Aleksandr Nekipelov, Ob'ektivnye osnovanija dlja promysennoj politiki v uslovjach postsocialisticeskoj transformacii, in: Politekonom Nr. 4/ 1996, S.19-22.

Die Transfonnation post-sozialistischer VolkswirtsChaften

335

Rückblickend läßt sich sagen, daß erst mit der Fortentwicklung der Transformation tatsächlich auch die Notwendigkeit breitere Anerkennung fand, institutionellen Wandel in seinen komplexen Interdependenzen zu analysieren. Eine zentrale Rolle besitzt hier das Problem der Privatisierung in seinen Bezügen zum Strukturwandel. Erst mit den vielfältigen Schwierigkeiten in diesem Bereich wurde nämlich deutlich, daß eine funktionsfähige Marktwirtschaft mehr ist als der Markt der neoklassischen Theorie: 7 Die gewaltige Fülle institutioneller Interdependenzen nicht nur auf der formalen, sondern auch der informalen Ebene wird sogleich zum Problem, wenn etwa die Frage nach der Rolle der Banken im Prozeß der Umstrukturierung von ehemaligen Staatsunternehmen gestellt wird. Wichtiger jedoch noch: Nach den anfänglichen Erfolgen der "mainstream economics" ist der Steuerungsoptimismus allmählich verflogen, der Transformation als weitestgehend gestaltbar ansah. Der Grund für diese Entwicklung ist nicht nur die Erfahrung, daß der politische Prozeß selbst nicht vollständig steuerbar ist, über den sämtliche Transformationsmaßnahmen konzipiert und implementiert werden müssen. Es ist auch die Komplexität der institutionellen Bedingungen selbst, die zum Problem der Steuerung wird. Es wird zunehmend unplausibel, diese Komplexität auf einfache Aussagen zu reduzieren wie die Forderung nach einer Verringerung der "Staatsquote" als Bedingung für anhaltendes Hochwachstum während und vor allem nach der Transformation. 8 Insofern verschiebt sich die Perspektive allmählich: "Transformation" wird mehr und mehr als Prozeß wahrgenommen, der aus einer langfristigen Sicht selbstorganisiert und nicht fremdorganisiert verläuft: - Intuitiv bedeutet dies, daß die institutionellen Bedingungen (sei es als Ausgangs-, sei es als Randbedingungen) der Transformation als eigenständige Ursachen institutionellen Wandels erkannt und nicht mehr ausschließlich auf individuelle Interessen und politische Entscheidungen reduziert werden. 6 Im amerikanischen Sprachraum ist einer der anerkanntesten Vertreter der heterodoxen Position Peter MurreIl, siehe etwa Peter MurrelI, Can NeocIassical Economics Underpin the Refonn of Centrally Planned Economies?, in: Journal of Economic Perspectives, Vol. 5, No. 4, 1991, S. 59 - 76, und ders. et al., The Culture of Policy-Making in the Transition from Socialism: Price Policy in Mongolia, in: Economic Development and Cultural Change, Vol. 45, No. 1, 1996, S. 175 - 194. Um erneut auch auf Stimmen aus den Transfonnationsökonomien selbst hinzuweisen: In China findet zur Zeit eine explizite methodologische Auseinandersetzung zur Frage statt, welche Bedeutung Fallstudien für die Transfonnationstheorie haben, und wie weit hier ein spezifisch chinesischer Beitrag zur Theorieentwicklung zu sehen ist. Siehe den Band Zhang Shuguang, Hrsg., Zhongguo zhidu bianqian de anli yanjiu, Shanghai 1996 und die Rezensionen und Diskussionen im Chinese Social Sciences Quarterly (Hong Kong)Nr.18119,1997,S.234-260. 7 Noch relativ nah an der "mainstream economics" befindlich, hat dies in den letzten Jahren besonders die "New Institutional Economics" herausgearbeitet, siehe besonders prägnant Rudolf Richter / Eirik Furubotn, Neue Institutionenökonomik, Tübingen 1996, S. 288 - 302. 8 So etwa Jejfrey D. Sachs, The Transition at Mid-Decade, in: American Economic Review, Vol. 86, No. 2, 1996, S. 129 - 133.

336

Carsten Herrrnann-Pillath

Fonnal ließe sich Transfonnation analysieren als ein dynamisches System, bei dem neben exogenen Größen (Politikvariablen, Kapitalausstattung, weltwirtschaftliche Rahmenbedingungen etc.) die Anfangsbedingungen (z. B. formale Institutionen der Planwirtschaft) und die spezifische Abfolge von Transfonnationszuständen, die der Beobachter analytisch separiert, den Zustand des Systems in der Gegenwart determinieren. 9 - Analytisch würde dies bedeuten, neben der Ebene individueller Entscheidungen und Interessenlagen die Ebene der Institutionen als eigenständigen Typus von Kausalfaktoren im Transfonnationsprozeß anzuerkennen; dies ergibt sich aus dem einfachen Umstand, daß Institutionen zwar Gegenstand interessengeleiteter individueller Handlungen sind, gleichzeitig aber auch oft schwer hintergehbare Restriktionen. Aus diesem Grunde werden Institutionen zu einer Detenninante des Systemwandels sui generis. lO Verdeutlichen wir diese besondere Rolle von Institutionen und damit von Prozessen der Selbstorganisation auf dieser Ebene zunächst anhand der Frage nach den Erfolgskriterien von Transfonnation. 11. Indikatoren für den Transformationserfolg: Nachhaltiges Wachstum und globale Wettbewerbsfähigkeit

Der Gegensatz von "mainstream economics" und heterodoxen Auffassungen wurde lange Zeit mit dem Gegensatz von "Schocktherapie" und "Gradualismus" gleichgesetzt. Obgleich von Anfang an klar war, daß es sich hier um einen unrealistischen Gegensatz handelt, weil manche Bereiche der Transfonnation schlichtweg gar nicht anders als "gradualistisch" gehandhabt werden können, wird auch ex post die Bewährung der "mainstream economics" daran bemessen, daß die Länder, die weitestgehend den Vorschlägen der "Schocktherapeuten" folgten, auch am raschesten mit der wirtschaftlichen Erholung einsetzten. 11 Im Kern steht dabei die eigentliche Domäne der Schocktherapie, nämlich die Stabilisierung: Gerade in Rußland 9 Vgl. die allgemeine fonnale Kennzeichnung von "Selbstorganisation" bei Uwe an der Heiden, Selbstorganisation in dynamischen Systemen, in: Wolfgang Krohn I Günter Küppers, Hrsg., Emergenz: Die Entstehung von Ordnung, Organisation und Bedeutung, Frankfurt 1992, S. 57 - 88. 10 Ich kann hier keine ausführliche Begründung für eine solche ontologische Interpretation von Institutionen geben (also der Anerkennung von Institutionen als "realen" Systemkomponenten); ein Ansatz kann aus der weit verbreiteten Auffassung entwickelt werden, Institutionen seien Träger von Infonnation, siehe Carsten Hernnann-Pillath, Wettbewerb als ontologische Universalie: Natürliche Arten, wettbewerbliche Interaktionen und Internalisierung, in: U. Fehl/K. von Delhaes, Hrsg., Dimensionen des Wettbewerbes, Stuttgart/Jena/New York 1997, S. 321 - 356. II Die "herrschende Lehre" wird sicherlich am besten im sehr differenzierten Weltentwicklungsbericht 1996 der Weltbank, Vom Plan zum Markt, Washington 1996, hier S. 22, 33 ff. repräsentiert.

Die Transfonnation post-sozialistischer Volkswirtschaften

337

gab es viele interne Stimmen, die von einer zu krassen Stabilisierung aus strukturellen Gründen abrieten bzw. die Stabilisierung gegebenfalls anderen Zielen unterordnen wollten. 12 Doch zeigt sich ex post eindeutig ein negativer Konnex von Inflation und Wachstum. 13 Ebenso eindeutig läßt sich nachweisen, daß Fortschritt bei der Systemtransformation insgesamt - also unter Berücksichtigung aller Komponenten der institutionellen Liberalisierung - zu mehr Wachstum und weniger Inflation führt: Länder, die wesentliche Reformmaßnahmen verzögern, bleiben in einer Falle von Inflation und Rezession verhaftet. Solche Fälle können noch durch unterschiedliche positive Rückkopplungen verstärkt werden: Zum Beispiel entstehen pessimistische Erwartungen bei ausländischen Investoren, so daß die Kapitalknappheit im Vergleich zu den reformfreudigen Ländern verschärft wird. 14 Sogar vordergründig komplexere Zusammenhänge lassen sich auf einfache Aussagen reduzieren: So zum Beispiel die positive Auswirkung politischer Reformen (Demokratisierung) auf Grad und Geschwindigkeit der Transformation und damit natürlich auch auf Wachstum und Stabilisierung. 15 Insofern gibt die Erfahrung der letzten Jahre eindeutig jenen Recht, die konventionelle Positionen der Wirtschaftswissenschaft vertreten haben. Die Beispiele zeigen jedoch gleichzeitig, daß bei genauer Betrachtung die "mainstream economics" in dem Falle besonders erfolgreich angewendet werden kann, wenn die institutionellen Bedingungen der zugrundeliegenden Prozesse entweder einfach sind oder aufgrund eines hohen Aggregationsgrades der betrachteten Größen nicht Berücksichtigung zu finden brauchen. Viele Aussagen sind auch von partieller Natur und vermeiden jede Form der Ursachenanalyse, die komplexere Kausalmechanismen ins Auge fassen müßte, wie zum Beispiel die Aussage, daß negative Erwartungen und institutionelle Defekte (etwa beim Bodenrecht) die Investitionsneigung dämpfen. Wenn festgestellt wird, daß Korruption schlechte Rahmenbedingungen für die Entwicklung der Privatwirtschaft setzt, so ist dies ohne Zweifel eine richtige Aussage, erklärt aber beileibe nicht, wie diesbezügliche Unterschiede zwischen den Ländern entstehen. 16 12 Zum Beispiel Ju. V. Jaremenko et al. Ekonomiceskie reformy v Rossii: analiz rezul'tatov i neobchodimost' al'ternativy, in: Oleg Bogomolov, Hrsg., Reformy glazami amerikanskich i rossijskich ucenych, Moskva 1996, S. 147 -162. 13 Stanley Fischer I Ratna Sahay I Carlos A. Vigh, Stabilization and Growth in Transition Economies: The Early Experience, in: Journal of Economic Perspectives, Vol. 10., No. 2, 1996, S. 45 - 66. 14 Marcelo Selowsky I Richard Martin, Policy Perfonnance and Output Growth in the Transition Economies, in: American Economic Review, Vol. 87, No. 2, 1997, S. 349 - 353. 15 Martha de Melol Alan Gelb, Transition to Date: A Comparative Overview, in: Salvatore Zecchini, ed., Lessons From the Economic Transition - Central and Eastern Europe in the 1990s, Dordrecht 1997, S. 59-78. 16 Andrei Shleifer, Government in Transition, in: European Economic Review, Vol. 41, 1997, S. 385 - 410, weist daher auf das Erfordernis hin, den Staat stärker als endogenes Element der Transfonnation zu betrachten. Solche Überlegungen weisen schon über das steuerungsoptimistische Paradigma hinaus.

22 Selbslorganisation, Bd. 9

338

Carsten Herrmann-Pillath

Gerade solche institutionelle Faktoren sind jedoch eindeutig entscheidend für die Beurteilung der langfristigen Wachstumsperspektiven der betrachteten Länder. Nicht zuletzt in Rußland hat eine intensive Diskussion über die Frage stattgefunden, inwieweit kurzfristige Transformationserfolge Pyrrhus-Siege sein können, wenn sie mit der strukturellen Zerstörung wesentlicher Elemente des Kapitalstokkes einhergehen. Dieses Argument spielt eine entscheidende Rolle bei der Begründung industriepolitischer und interventionistischer Vorstellungen zur Transformation. Ungeachtet seiner Problematik tritt diese Frage jedoch auch im Zusammenhang der Bewertung des Transformationserfolges derjenigen Länder zutage, die zur EU beitreten sollen. "Wachstum" muß hier im weiteren Sinne als Entstehung eines Potentials der globalen Wettbewerbsfähigkeit gedeutet werden. I? Dann wird aber sofort deutlich, daß auch im Rahmen eines eher konventionellen Ansatzes für die Beurteilung des Transformationserfolges entscheidend sein muß, wie weit die heutigen Transformationsprozesse die Möglichkeit schaffen, daß die postsozialistischen Länder langfristig ein stabiles Hochwachstum realisieren, um auf diese Weise den Anschluß an die industriellen Marktwirtschaften zu bewältigen: Die Nachhaltigkeit gegenwärtiger Wachstumsprozesse ist die eigentlich interessierende Größe. Aus neoklassischer Sicht ist ein solcher Konvergenzprozeß zwar langsam, aber unvermeidlich. Aus der Sicht der Neuen Wachstumstheorie gibt es aber durchaus die Möglichkeit, daß die Transformation in einer endgültigen Differenzierung der Weltwirtschaft endet, falls es nicht gelingt, die für das anhaltende Wachstum erforderlichen Externalitäten etwa im so entscheidenden Bereich der Humankapitalbildung zu stabilisieren. 18 In der Mitte zwischen diesen Positionen stehen Vorstellungen zur Ausdifferenzierung der Welt nach "Konvergenzc1ubs", denn auch die neoklassische Wachstumstheorie setzt für eine Konvergenz voraus, daß die betrachteten Volkswirtschaften gleiche strukturelle und institutionelle Rahmenbedingungen aufweisen. Selbst im Kontext einer solchen eher konventionellen Betrachtungsweise wird also deutlich, daß die Beurteilung des Erfolges von Transformation weniger anhand von Ex-post-Daten zum Wirtschaftswachstum erfolgen sollte, sondern anband komplexerer Kriterien einer zukunftsorientierten Analyse globaler Wettbewerbsfahigkeit der Transformationsökonomien. Wie die jüngere Literatur zur Frage der Wettbewerbsfähigkeit von Volkswirtschaften gezeigt hat, müssen hierzu Faktoren Berücksichtigung finden, die weit über die Wirtschaft im engen Sinne hinausreichen. 19 17 Siehe Paul J.J. Welfens, Osteuropäische Transfonnation, EU-Integrationsdynamik und Perspektiven der Osterweiterung, Beitrag zur Jahrestagung "Europäische Integration als ordnungspolitische Gestaltungsaufgabe", Ausschuß für Wirtschaftssysteme, Gesellschaft für Wirtschafts- und Socialwissenschaften - Verein für Socialpolitik, September 1997, Breisach. 18 Hierzu und zum folgenden siehe prägnant Herbert Brücker/Wolfgang Sehrettl, Entsteht eine neue wirtschaftliche Kluft in Europa? in: Aus Politik und Zeitgeschichte B 44 - 45 / 97, 1997, S. 17 - 26. 19 Vgl. hierzu etwa das Konzept der "systemischen Weubewerbsfähigkeit" bei Dirk Messner, Die Netzwerkgesellschaft, Wirtschaftliche Entwicklung und internationale Wettbewerbsfähigkeit als Probleme gesellschaftlicher Steuerung, Köln 1995.

Die Transformation post-sozialistischer Volkswirtschaften

339

Damit verweisen solche Überlegungen in jedem Fall auf die Notwendigkeit einer wesentlich detaillierteren institutionell-strukturellen Analyse: Werden Determinanten der Wirtschaftspolitik in einem weiteren Sinne hinzugezogen, dann stellen sich so schwierige Fragen wie jene, ob sich gegenwärtig im Osten Europas eine tiefe Kluft zwischen "westlich" orientierten Transformationsökonomien und den "östlichen" herausbildet, die verblüffend eng an den Grenzen der orthodoxen Kultur verläuft. 2o Gefragt ist eine Analyse institutioneller Gesamtkomplexe: Während die rußländische Diskussion um den Verfall der technologisch-wirtschaftlichen Potentiale auf Konzepte wie die "National Systems of Innovation" verweist, legen gern gezogene Vergleiche zum "ostasiatischen Wirtschaftswunder" die Frage nach weicheren institutionellen und normativen Rahmenbedingungen von Wachstum nahe?l Wie können jedoch derart komplexe Fragestellungen, die zum Teil auch eine beträchtliche historische Tiefendimension aufweisen, systematisch angegangen werden? Wie bereits angedeutet, könnte die Antwort in der Entfaltung eines Paradigmas institutioneller Selbstorganisation zu suchen sein. Ein solches Paradigma müßte unter anderem folgenden Erfahrungen mit der Transformation gerecht werden, um gleichzeitig auch zu einer Beurteilung von Transformationserfolg in der Lage zu sein: Transformationsökonomien durchlaufen unterschiedliche Entwicklungspfade je nach den Besonderheiten ihrer institutionellen Ausgangsbedingungen - es treten Phänomene der Pfadabhängigkeit auf. Nach dem Zusammenbruch des Sozialismus kommen institutionelle Schichten wieder zum Vorschein, die vor der Einführung der Planwirtschaft dominant waren, d. h. es bilden sich historische Kontinuitäten über den Bruch des sozialistischen Systems hinweg. - Während die Transformationspolitik im Wesentlichen auf der Ebene der Schaffung formaler Institutionen wirksam ist, werden die tatsächlichen Verläufe der Transformation häufig durch institutionelle Restriktionen bestimmt, die informale Natur haben. Die Transformation der Wirtschaft ist tatsächlich ein Prozeß der institutionellen Ausdifferenzierung verschiedener gesellschaftlicher Funktionsbereiche aus20 Stefan Panther, Historisches Erbe und Transformation: "Lateinische" Gewinner - "Orthodoxe" Verlierer? Papier präsentiert beim 2. Workshop für Institutionelle und Evolutorische Ökonomik an der Universität Witten/Herdecke, September 1996. Welfens (Anm. 17) argumentiert, daß gerade der EU-Beitritt das Gefälle zwischen Ländern Ost-Mittel-Europas und Oste uropas langfristig verstärken könnte. 21 Ich habe diese unterschiedlichen Perspektiven von Wachstumsprozessen ausführlicher diskutiert in Carsten Herrmann-Pillath, Endogenes Wachstum, Externalitäten und Evolution. Industriekulturen und gesamtwirtschaftliche Entwicklung im evolutionsökonomischen Paradigma - eine Einführung, Diskussionsbeiträge des Fachbereichs Wirtschaftswissenschaft der Gerhard-Mercator-Universität Duisburg Nr. 213. Ähnlich siehe Mario Cimoli/Giovanni Dosi, Technological Paradigms, Patterns of Learning and Development: An Introductory Roadmap, in: Journal of Evolutionary Economics, Vol. 5 (1995), S. 243 - 268.

22*

340

Carsten Herrmann-Pillath

gehend von einem System, das insbesondere Politik und Wirtschaft integrierte entsprechend entsteht eine Wechselwirkung zwischen verschiedenen institutionellen Entwicklungen in diesen Teilbereichen. Es zeichnen sich zunehmend Phänomene der Abstimmung, Koordination und sinnhaften Zusammenfügung von Institutionen in verschiedenen Bereichen und informaler wie formaler Natur ab, die als Formation von spezifischen Wirtschaftsordnungen interpretiert werden können - dieser Prozeß kann im Hayekschen Sinne zwar als kausale Konsequenz individueller Handlungen aufgefaßt werden, nicht aber als intendierte Folge ("spontane Ordnungen"). Für den Zusammenhang zwischen der Änderung von Institutionen und den sich einstellenden individuellen Verhaltensweisen ist offenbar die Wahrnehmung des institutionellen Wandels durch die Wirtschaftssubjekte eine entscheidende intermediäre Variable - wie diese Wahrnehmung aber ihrerseits formiert und nach welchen Mustern sie erfolgt, ist wiederum nicht individuell wählbar und bestimmbar, sondern geschieht vor dem Hintergrund eines institutionellen Kontextes ("Framing"). Diese und andere Beobachtungen rechtfertigen es, Transformation auch - nicht ausschließlich - als institutionelle Selbstorganisation zu begreifen, denn in allen genannten Fällen treten individuelle Wahlhandlungen nur als sekundäre vermittelnde Variablen zwischen institutionellen Veränderungen auf. Das heißt, auf der deskriptiven wie analytischen Ebene kann es himeichend sein, auf Institutionen und deren Wechselwirkung ausschließlich Bezug zu nehmen. Versuchen wir, einen entsprechenden Ansatz zu entwickeln. Um die Aufgabe nicht über alle Maßen kompliziert werden zu lassen, konzentrieren wir uns im Sinne der soeben erwähnten Ausdifferenzierung von Teilbereichen auf die Wirtschaft und die Politik,22 also das politisch-ökonomische System - das heißt, Transformation wird vor allem durch die Endogenisierung der Politik und des Staates als Phänomen der Selbstorganisation begreifbar. III. Das Grundmodell der Transformation als institutionelle Selbstorganisation

Die wesentlichen Determinanten und Prozeßmerkmale der Transformation als institutionelle Selbstorganisation können anhand von Abbildung 1 herausgearbeitet werden (durchgezogene Linien zeigen starke, strichlierte schwache Zusammenhänge an, die Numerierung verweist auf die entsprechenden Passagen im Text). Betrachtet wird das politisch-ökonomische System als enges Interaktionsgeflecht zwischen dem Politiksystem und dem Wirtschaftssystem. Politik- und Wirt22 Vgl. Leszek Balcerowicz. The Interplay Between Economic and Political Transition, in: Salvatore Zecchini, Lessons From the Economic Transition - Central and Eastern Europe in the 1990s, Dordrecht 1997, S. 153 - 168.

Die Transfonnation post -sozialistischer Volkswirtschaften

341

Polit isch-ökonomisches System

I: Informale Illstitutiollell I: Formale Institutionen K: Kognitive Schemata

Abb. 1: Kategorien der Transfonnation

schaftssystem werden je als Komplexe von formalen Institutionen, informalen Institutionen und kognitiven Schemata begriffen?3 Die formalen Institutionen des Politiksystems erfassen Merkmale wie die Wahlmodi, den Staatsaufbau oder die Verwaltungsstrukturen. Informale Institutionen bezeichnen die Spielregeln des politischen Prozesses wie etwa die normativen Bestimmungsgründe des Wählerverhaltens, die impliziten Abstimmungsregeln in den Parlamenten oder die politische Kultur auf lokaler Ebene und in den Parteien. Kognitive Schemata sind im wesentlichen Politikmodelle, also die Vorstellungen der politischen Akteure beispielsweise über die Funktionsweise des Wirtschaftssystems, aber auch Ideologien und politische Überzeugungen. 24 23 Das Grundmodell orientiert sich also im Wesentlichen an den Kategorien von Douglass C. North, Institutions, Institutional Change and Economic Perfonnance, Cambridge et al. 1991; unter Bezug auf die Transfonnation siehe Carsten Hernnann-Pillath, Infonnal Constraints, Culture and Incremental Transition from Plan to Market, in: Hans-Jürgen Wagener, Hrsg., On the Theory and Policy of Systemic Change, Heidelberg 1993, S. 95 -120. 24 Vgl. Thrafnn Eggertson, The Old Theory of Economic Policy and the New Institutionalism, Lectiones Jenenses, Jena 1997 zu "policy models" und Albert T. Denzau/Douglass C. North, Shared Mental Models: Ideologies and Institutions, in: Kyklos Vol. 47(1), 1994,

342

Carsten Herrrnann-Pillath

Analog sind im Wirtschaftssystem die formalen Institutionen (etwa Gesellschaftsrecht) von den informalen zu unterscheiden (letzteres bezeichnet etwa das Geschäftsgebaren, informelle stakeholder-Positionen in der Unternehmensorganisation oder kulturelle Determinanten von Unternehmertum). Kognitive Schemata sind hier insbesondere Vorstellungen zur Funktionsweise der Wirtschaft. Die drei Elemente von Politik- und Wirtschaftssystem werden nicht als statisch, sondern als wandelbar betrachtet. Ihre Veränderung kann durch exogene Faktoren bewirkt werden (etwa den Import kognitiver Schemata aus dem Ausland), wird hier aber hauptsächlich als endogene analysiert. Agenten von Veränderungen sind selbstverständlich immer Individuen; jedoch sind Institutionen und kognitive Schemata gleichzeitig Restriktionen wie Gegenstand ihrer Handlungen, so daß ein einfacher Reduktionismus nicht greifen kann: Stattdessen wird institutioneller Wandel zu einem Phänomen der Selbstorganisation, bei dem Institutionen über die Vermittlung individueller Handlungen Institutionen schaffen und verändern. Aus der Vielfalt der denkmöglichen Beziehungen zwischen den Teilsystemen erscheinen folgende als die entscheidenden - die vorgestellten Mechanismen sind als Hypothesen, nicht als Tatsachenaussagen zu Struktur und Prozeß institutioneller Selbstorganisation zu verstehen. Output des Politiksystems in seiner Gesamtheit sind die formalen Institutionen des Wirtschaftssystems (1): Damit kann die Politik aber nur einen Teil des Wirtschaftssystems gezielt "transformieren". Dessen Performanz hängt wesentlich vom Zusammenwirken mit den zwei anderen, unabhängigen Systemkomponenten ab. Dabei wird eine gerichtete Einflußnahme der kognitiven Schemata in der Politik auf diejenigen im Wirtschaftssystem angenommen (2), weil davon ausgegangen wird, daß die Politik eine wesentlich stärkere Rolle in der Öffentlichkeit und in den Medien spielt. Umgekehrt hat die Wahrnehmung des Wirtschaftssystems und seiner Performanz durch die Politik Veränderungen kognitiver Schemata zur Folge (3). Zwischen Wirtschafts- und Politiksystem gibt es außerdem eine Wechselwirkung auf der Ebene informaler Institutionen (4), die sich vor allem durch die Vermischung zwischen den sozialen Eliten in beiden Bereichen erklärt (etwa auf der lokalen Ebene oder im Bereich der organisierten Kriminalität). Dann bleiben unter Umständen informale Institutionen des alten Politiksystems über einen gewissen Zeitraum für das Wirtschaftssystem prägend?S Beide Systeme wirken auch auf ihre eigenen Bestandteile ein. Zum einen kann nur das Politiksystem selbst seine eigenen formalen Institutionen verändern (5). S. 3 -32 zu "mental models". Wir folgen hier der von Lambert Koch vorgeschlagenen Terminologie, siehe sein: Kognitive Determinanten der Problementstehung und -behandlung im wirtschaftspolitischen Prozeß, Papier für die Jahrestagung des Ausschusses für Evolutorische Ökonomik beim Verein für Socialpolitik, 3.-5. 7.1997, Osnabrück. 25 Die mangelnde Berücksichtigung der spezifischen informalen Institutionen der unterschiedlichen planwirtschaftlichen Systeme vor der Transformation war einer der entscheidenden Fehler der frühen Transformationskonzepte. Darauf wies unter anderem deutlich hin lohn M. Litwack, Legality and Market Reform in Soviet-Type Economies, in: Journal of Economic Perspectives Vol. 5, No. 4,1991, S. 77 - 89.

Die Transformation post-sozialistischer Volkswirtschaften

343

Zum anderen generiert der wirtschaftliche Wandel spontan neue informale Institutionen (6), die solange informalen Charakter behalten, als sie nicht durch das Politiksystem formalisiert (legalisiert) werden. Es entstehen also Wirkungskeuen der Transformation wie zum Beispiel (4 ---> 6 ---> 3 ---> 1), die als Teilprozesse institutioneller Selbstorganisation zu verstehen sind. Dabei können in der Abbildung 1 leider die internen Mechanismen der Teilsysteme nicht erfaßt werden, müssen aber natürlich Berücksichtigung finden (z. B. stabilisieren bestimmte kognitive Schemata informale Institutionen). Das politisch-ökonomische System erzeugt als Output einen institutionellen Gesamtkomplex, wie beispielsweise den "Kaderkapitalismus" in der VR China mit einer starken unternehmerischen Funktion von lokalen Verwaltungen oder die mafiöse Wirtschaft Rußlands. Wir wollen diesen im Anschluß an ältere Kategorien der deutschsprachigen Nationalökonomie als "Ordnungen" bezeichnen, und zwar als Gesamtheit der durch Institutionen (formal wie informal) geschaffenen, regulierten und durch bestimmte Wahrnehmungen (kognitive Schemata) legitimierten und kontextualisierten Handlungschancen der Wirtschaftssubjekte. Diese Ordnungen wirken nun auf einen gegebenen realen Kapitalstock (7) ein und verändern seine Nutzungsbedingungen in nachhaltiger Weise, d. h. bestimmte Bestandteile werden entwertet, und für andere entstehen neue Nutzungsmöglichkeiten. Intermediäre Größe sind die durch Ordnungen definierten Handlungsmöglichkeiten für die Wirtschaftssubjekte. Die institutionellen Veränderungen stoßen also einen Strukturwandel an, der dann Auswirkungen auf das Wirtschafts wachstum nach sich zieht (8). Ähnliches gilt für den Bestand der Volkswirtschaft an Wissen, das in Form von Humankapital gespeichert und nutzbar wird (9). Auch hier entstehen neue Anforderungen und Chancen, die schließlich den Pfad der Neuerungen bestimmen, den die Volkswirtschaft beschreitet (10). Die Struktur des Wissensstokkes bestimmt gleichzeitig die Art und Weise, wie die Wirtschaftssubjekte die neuen Handlungsmöglichkeiten für die Umstrukturierung des Kapitalstockes nutzen (11). Wachstum und Neuerungen sind dann die Determinanten der globalen Wettbewerbsfähigkeit der Wirtschaft (12). Wir wollen nun die gewonnenen Kategorien auf einen der wichtigsten Bereiche von Transformationspolitik anwenden, nämlich die Privatisierung, und deren konkrete Verläufe und Ergebnisse nicht nur allgemein auf der Basis eines politischökonomischen Ansatzes betrachten, sondern als Folge der institutionellen Selbstorganisation komplexer Arrangements kognitiver Schemata und formaler und informaler Institutionen, die zur Emergenz bestimmter Formen von Ordnungen führen.

344

Carsten Herrmann-Pillath

IV. Privatisierung, Emergenz von Ordnungen und globale Wettbewerbsfähigkeit 1. Das Problem: unerwartete Verläufe der Privatisierung

Ohne Zweifel ist die Privatisierung das eigentliche Kernstück der Systemtransformation, denn schon die klassischen Sozialismus-Kontroversen hatten gezeigt, daß Kriterien wie die Freiheit der Preisbildung eher systemneutral sind. Mit der Privatisierung hängen im Grunde alle Teilbereiche der Systemtransformation zusammen; dennoch wurde zu Beginn der Transformation die Privatisierung tendenziell nur als ein technisches Problem der Neuverteilung des volkswirtschaftlichen Vermögens betrachtet bzw. der Marktöffnung für Neugründungen: Die Komplexität des Problems wurde ebensowenig gesehen wie seine enge Verflechtung mit politischen Aspekten des Systemwandels. 26 Die steuerungsoptimistische Position behauptete in diesem Fall, daß unter gegebenen Bedingungen eine bestimmte Form der Privatisierung auszuwählen sei, und daß die Zuordnung des Kapitalstockes an private Eigner auch die gewünschten Potentiale der Umstrukturierung in Richtung einer Optimierung langfristigen Wachstums schaffen würde. Dieser Steuerungsoptimismus hat größtenteils versagt, und zwar aus folgenden Gründen: - Ähnliche Privatisierungsstrategien können bei unterschiedlichen Ausgangsbedingungen zu anderen Resultaten führen. Unterschiedliche Ausgangsbedingungen können die Wahl der Privatisierungsstrategie selbst stark einschränken. 27 Eine zentrale Rolle spielen dabei die Verteilung von informalen Stakeholder-Rechten im alten System (vor allem Belegschaft, Management, Verwaltungen) sowie die Art und Weise, wie die Privatisierungsinstanzen selbst organisiert sind: Hier kommt also das Problem der Art und Weise der Grenzziehung zwischen Politikund Wirtschaftssystem zum Tragen sowie institutioneller Interdependenzen. 28 26 Gerard Roland, Political Economy Issues of Ownership Transformation in Eastern Europe, in: Masahiko Aoki/Kim Hyung-Ki, eds. (1995): Corporate Governance in Transitional Economies - Insider Control and the Role of Banks, Washington, S. 31 - 57. 27 V gl. lose! C.Brada, Privatization Is Transition - Or Is It?, in: Journal of Economic Perspectives Vol. 10, No. 2, 1996, S. 67 - 86. 28 In Polen beispielsweise mußte das offizielle Privatisierungsprogramm die besondere Position der Arbeiterräte in den Unternehmen berücksichtigen, die das Erbe der SolidarnoscBewegung war. Dementsprechend wurden im Privatisierungsgesetz Präferenzen für die Mitarbeiter geschaffen (15 % der Stammaktien können von ihnen kostenlos erworben werden), die gewissermaßen ein Ausgleich dafür waren, daß die Aktienmehrheit an die National Investment Funds ging, die Arbeiterräte also einen Kontrollverlust erlitten, siehe ausführlicher Center for Social and Economic Research, National Report on Human Development: The Changing Role of the State - Poland '97, Warsaw 1997, S. SOff. Das tschechische VoucherProgramm brauchte solche Ansprüche nicht zu berücksichtigen. Die Art und Weise der Gestaltung von Privatisierungsinstanzen ist entscheidend für die Form der Endogenisierung des Regierungshandelns während der Transformation, siehe hierzu etwa Damien Besansenot / Radu Vranceanu, On the Dynamic Consistency of Economy-Wide Privatization: A Theoretical Approach, in: Economic Systems, Vol. 21, No. 2,1997, S. 151-164.

Die Transfonnation post-sozialistischer Volkswirtschaften

345

Privatisierungsstrategien führen nicht zwingend auch zu einem funktionsfähigen System der Corporate Governance, mithin zu einer Ordnung, die auch die Anreiz strukturen im Sinne einer Optimierung der Entscheidungen über die Nutzung des Human- und Realkapitals setzt. Das System der Corporate Governance wiederum ist bestimmend für den effektiven Beitrag der Privatisierung zur Umstrukturierung der Unternehmen, und zwar nicht nur hinsichtlich der Zuführung neuer Finanzmittel, sondern vor allem auch des konzentrierten Einsatzes unternehmerischen Humankapitals. 29 - Die Privatisierung als Entstaatlichung der Wirtschaft setzt voraus, daß die staatliche Verwaltung und das Rechtssystem geeignete Rahmenbedingungen bieten. Dies gilt vor allem für komplexere Formen privater Eigentumsrechte wie Rechtsansprüche aus Konkursverfahren und Schuldbeziehungen. Wie weit die Rahmenbedingungen entwickelt werden, prägt den Pfad der Emergenz neuer informaler Institutionen nachhaltig (etwa Geschäftsmoral). Insbesondere ist das Rechtssystem auch bestimmend für die Art und Weise, wie die Privatisierung auf das unternehmerische Verhalten und damit an der Schnittstelle zwischen Institutionen und Kapital- bzw. Wissensstock wirkt. Dabei ist zu beachten, daß auch eine Rückkopplung zwischen Transformation und Entwicklung des Rechtssystem existiert, allein indem eine Nachfrage nach Recht entsteht. 3o Unabhängig von den formalen Privatisierungsstrategien wird die konkrete Verteilung von Handlungschancen (und damit die spezifische Gestalt der entstehenden Ordnung) auch von den Kapazitäten des Staates abhängen, diese Strategien tatsächlich zu implementieren. Hier gelangen politische Transaktionskosten der Transformation zum Tragen bzw. ein internes Principal-Agent-Problem des Staates. Zum Beispiel kann die Privatisierung zu Problemen bei der Steuererhebung führen, die seitens der Verwaltung Anlaß zu Ausweichstrategien geben, welche wiederum die Rahmenbedingungen für das private Unternehmertum verschlechtern. Unklare Kompetenzabgrenzungen zwischen unterschiedlichen Behörden können erhebliche Implementationsbarrieren aufbauen. 3l - Der kurzfristige Effekt von Privatisierungsstrategien wird stark durch Marktunvollkommenheiten während der Transformation geprägt, da zunächst Zeit benötigt wird, die für die Marktwirtschaft erforderliche Informations-Infrastruktur 29 Umfassend hierzu die verschiedenen Beiträge in Masahiko Aoki I Kim Hyung-Ki, Hrsg., Corporate Governance in Transitional Economies - Insider Control and the Role of Banks, Washington 1995 sowie [gor Filatotchev, Review Article: Privatisation and Corporate Governance in Transitional Economies, in: The World Economy, Vol. 20, No. 4, 1997, S. 497 - 510. 30 Timothy Frye I Andrei Shleifer, The Invisible Hand and the Grabbing Hand, in: American Economic Review, Vol. 87, No. 2, 1997, S. 354-358, und Andrzej Rapaczynski, The Roles of the State and the Market in Establishing Property Rights, in: Journal of Economic Perspectives Vol. 10, No. 2, 1996, S. 87 -103. 31 Zur Vernachlässigung administrativer Reformen während der polnischen Transfonnation siehe Center for Social and Economic Research (Anm. 28), S. 63 ff.

346

Carsten Hemnann-Pillath

zu schaffen und beispielsweise neue Lieferbeziehungen anstelle der planwirtschaftlich festgelegten auszubilden. 32 Längerfristig wirksam wird vor allem die Art und Weise, wie das verfügbare Humankapital genutzt wird, da in allen Transfonnationsökonomien unternehmerisch relevante Fähigkeiten knapp sind. Insofern sollte der Zusammenhang zwischen Privatisierung und Umstrukturierung der Unternehmen nicht ausschließlich von der Seite des Kapitalmarktes her betrachtet werden, sondern vor allem auch von der Seite des Managermarktes. 33 Interdependenzen der Privatisierungs prozesse in unterschiedlichen Sektoren bedingen unterschiedliche Ergebnisse bei sonst ähnlichen Privatisierungsstrategien bzw. können umgekehrt zu ähnlichen Ergebnissen unterschiedlicher Strategien führen. Eine Schlüsselrolle spielt hier die Entwicklung des Finanzsektors. 34 Unabhängig vom Verlauf der Privatisierung im produzierenden Sektor können spezifische Ergebnisse der Privatisierung der Banken (etwa eine simultane InsiderPrivatisierung) die Leistungsfähigkeit der Corporate Governance entscheidend beeinflussen. Wir wollen im folgenden diese Überlegungen im Kontext unseres allgemeinen Modells zur Transfonnation und anhand von Beispielen vor allem aus Rußland und China konkretisieren, wobei wir bestimmte besonders wichtige Bereiche herausgreifen (die eingeklammerten Ziffern im Text verweisen wieder auf die verschiedenen Wirkungsmechanismen, die in Abbildung 1 dargestellt werden). Beide Länder werden gerne als Gegensatz von "Schocktherapie" und "Gradualismus" diskutiert, insbesondere auch vor dem Hintergrund ausbleibender politischer Re32 Vgl. lanos Komai, Transfonnational Recession: The Main Causes, in: Journal of Comparative Economics, Vol. 19, S. 47 ff., und Olivier Blanchard, Theoretical Aspects of Transition, in: American Economic Review, Vol. 86, No. 2, 1996, S. 117 - 122. 33 Siehe Pavel Pelikan, The Dynamics of Economic Systems, or How to Transfonn a Failed Socialist Economy, in: Hans-Jürgen Wagener, Hrsg., On the Theory and Policy of Systemic Change, Heidelberg, S. 75 ff. Barbara G. Katzl loel Owen, Optimal Voucher Privatization Fund Bids When Bidding Affects Firm Performance, in: Journal of Comparative Economics Vol. 24, 1997, S. 25 - 43, entwickeln ein entsprechendes formales Modell. 34 Bezeichnenderweise konvergieren gegenwärtig nahezu alle Privatisierungs modelle gegen ein System der Corporate Governance, in dem die Banken eine zentrale Position spielen, also das sog. "deutsch-japanische" Modell im Vergleich zum angelsächsischen Modell der Kontrolle über den Kapitalmarkt. Dies hängt in Tschechien mit der Tatsache zusammen, daß die Investment-Fonds, die Aktien aus privaten Vouchern verwalten, von Banken finanziert sind. In Ländern ohne Voucher-Privatisierung wie Ungarn spielen die Banken wiederum eine wichtige Rolle, weil sie angesichts der zögerlichen Handhabung von Konkursregelungen weiterhin die Unternehmen alimentieren. Zur Privatisierung der Banken siehe Anna MeyendorffI Edward A. Snyder; Transactional Structures of Bank Privatizations in Central Europe and Russia, in: Journal of Comparative Economics, Vol. 25, No. 1, 1997, S. 5 - 30, und aus theoretischer Sicht Masahiko Aoki, Controlling Insider Control: Issues of Corporate Governance in Transition Economies, in: Masahiko Aoki/Kim Hyung-Ki, eds. (1995): Corporate Governance in Transitional Economies - Insider Control and the Role of Banks, Washington: The World Bank, S. 3 - 29.

Die Transformation post-sozialistischer Volkswirtschaften

347

fonnen in der VR China?5 Es ist in diesen und anderen Fällen jedoch viel wichtiger, die Wechselwirkung zwischen politischer Steuerung und institutioneller Selbstorganisation der Systeme zu begreifen, die dann zur Entstehung spezifischer Ordnungsfonnen führt. "Privatisierung" im engen Sinne meint nämlich zunächst nur den Output des Politiksystems in Gestalt fonnaler Institutionen (Marktöffnung und Verteilung des Staatseigentums an Private nach verschiedenen Verfahren). Hinzu tritt das gesamte institutionelle Arrangement zur Sicherung privater Eigentumsrechte und vertraglicher Beziehungen. Dies spielt nun mit kognitiven Schemata im Wirtschaftssystem zusammen und vor allem mit infonnalen Institutionen. Im Extremfall ist denkbar, daß eine Privatisierung daran scheitert bzw. in beträchtliche Schwierigkeiten gerät, weil private Eigentumsrechte weder als kognitives Schema internalisiert sind noch vertragliche Beziehungen durch infonnale Institutionen abgestützt sind. 36 2. Kognitive Schemata

Augenfälligste Differenz zwischen Rußland und China ist sicherlich die Tatsache, daß die VR China erst seit dem Herbst 1997 ein partielles Programm der Privatisierung von Staatsbetrieben verfolgt. Das bestehende Politiksystem verbietet die Vorstellung, daß im Sozialismus Privateigentum eine dominante Position haben könne (2). Diese an sich banale Feststellung hat jedoch auch weitreichende Wirkungen auf die kognitiven Schemata, die im Wirtschaftssystem Verbreitung finden. Denn ungeachtet des hohen Anteils privaten und quasi-privaten Unternehmertums herrschen staatskorporatistische Vorstellungen vor, in deren Rahmen staatlichen Stellen implizite Lenkungsfunktionen zugesprochen werden bzw. privates Unternehmertum einen spezifischen politischen Legitimationsbedarf besitzt. 37 Im Gegensatz hierzu ist in Rußland die Autonomie des Wirtschaftssystems und damit auch des Unternehmertums im Prinzip anerkannt. Allerdings wirkt die Tatsache auf die Politik zurück (3), daß die tatsächliche Funktionsweise des Wirtschaftssystems nach wie vor in vielen Bereichen eng mit staatlichen Institutionen verbunden ist, und daß die neuen unternehmerischen Eliten eine dichte Kollusion mit den staatlichen Eliten suchen (4).38 35 Vgl. Ldszl6 Csaba, The Political Economy of the Reform Strategy: China and Eastern Europe Compared, in: Communist Economies & Economic Transformation, Vol. 8, No. I, 1996, S. 53 - 65. 36 Dieses Argument scheint für die divergierende Entwicklung zwischen den GUS-Staaten und Ost-Mittel-Europa wichtig, denn letztere können noch auf zivilrechtliche Traditionen zurückblicken, siehe abwägend Andrei Shleifer (Anm. 16) und Ste/an Panther (Anm. 20). Aufschlußreich ist die Studie von Peter MurreIl et al. (Anm. 6) zur Preisliberalisierung in der Mongolei, wo sämtliche Akteure zwar expressis verbis eine Liberalisierung anstrebten, diese jedoch im Wechselspiel kognitiver Schemata, Interessen und informaler Normen des Verwaltungshandelns scheiterte. 37 Vgl. Sebastian Heilmann, Auf dem Weg zu einer postkommunistischen Gesellschaftsordnung: "Kaderkapitalismus" in der Volksrepublik China, in: Zeitschrift für Politik, 43. Jg., Nr. 4, 1996, S. 375 - 393.

348

Carsten Herrmann-Pillath

Dieser zuletzt genannte Punkt hebt die Bedeutung der Verflechtung zwischen Politik- und Wirtschaftssystem über infonnale Institutionen auch für den Wandel kognitiver Schemata in der Politik hervor (4 -> 6 -> 3). Die schrittweise Systemtransformation in der VR China hat zu einer Fülle von Zwitterorganisationen besonders auf lokaler Ebene geführt, bei denen die Grenze zwischen Staat und Wirtschaft unscharf ist und viele Kader der KP tatsächlich als Unternehmer aktiv werden. Diese Rolle kann in unterschiedlichster Weise ausgeübt werden: Als Betriebsleiter eines Provinzunternehmens in Hong Kong, als politischer Hintennann von Unternehmen des Militärs oder auch als Manager von ländlichen Industrieunternehmen. Wenngleich also das Privateigentum fonnal als problematisch gilt, so haben sich also faktisch Vorstellungen von der Legitimität unternehmerischer Autonomie auch in der Politik verbreitet. In Rußland ist umgekehrt zu verzeichnen, daß mit dem Fortbestehen alter Eliten und der weit verbreiteten Insider-Kontrolle in privatisierten Unternehmen Politikrnodelle bewahrt bleiben, die etatistisch sind (4 -> 6 -> 3 -> 2).39 Die rußländische Bevölkerung insgesamt ist auch wesentlich mehr als die chinesische an eine starke Rolle des Staates insbesondere in Wohlfahrtsbelangen gewohnt, vor allem wenn die chinesische Landbevölkerung als Vergleich hinzugezogen wird. Insofern dauern Lernprozesse auf der Ebene kognitiver Schemata länger, bei denen die notwendige Entstehung von informalen Institutionen der Selbsthilfe und privater Sicherung (6) dann auch mit entsprechenden Veränderungen des Verständnisses von Wirtschaftspolitik und Staatsaufgaben einhergeht. 4o 3. Formale Institutionen / WirtschaJtssystem Der Privatisierungsprozeß in der VR China hat sich vornehmlich auf die Dynamik von Neugründungen und den spontanen Systemwandel auf lokaler Ebene gestützt (Wechselbeziehung zwischen 1 und 6). Rußland hingegen hat ein zweistufiges Privatisierungsprogramm realisiert (1), das sich zunächst am Konzept der Voucher-Privatisierung orientierte, danach am Modell des Verkaufs von Aktien umgewandelter Unternehmen (sog. "Geld-Privatisierung"). Interessanterweise sind die rechtlichen und realen Strukturen der chinesischen Entwicklung in dem Sinne nicht unähnlich, als auch in China das 1994 in Kraft getretene Gesellschaftsrecht vorsieht, alle Unternehmen unabhängig von der Eigentumsfonn in Kapitalgesell38 Vgl. Natalia Lapina, Die Wirtschaftseliten im Kräftefeld der rußländischen Politik, Berichte des Bundesinstitutes für ostwissenschaftliche und internationale Studien 16 - 1997, Köln. 39 Siehe z. B. Roman Frydmanl Andrzej Rapaczynsky, Corporate Governance and the Political Effects of Privatization, in: Salvatore Zecchini, Lessons From the Economic Transition - Central and Eastern Europe in the 1990s, Dordrecht 1997, S. 263-275. Dort werden Umfrageergebnisse referiert, die zeigen, daß "Insider" rußländischer privatisierter Unternehmen eher konservativen Politikmodellen folgen und etwa für die Kommunisten stimmen. 40 Für den Fall Ungarns vgl. lanos Komai, The Reform of the Welfare State and Public Opinion, in: American Economic Review, Vol. 87, No. 2, 1997, S. 339 - 343.

Die Transformation post-sozialistischer Volkswirtschaften

349

schaften zu verwandeln. Faktisch bedeutet dies nach den jüngsten Entscheidungen des 15. Parteikongresses, daß der Anteil des Staates variabel sein kann, die Unternehmen aber gleichwohl weiterhin als "staatliche" bezeichnet werden. Durchaus vergleichbare Konstruktionen werden in Rußland rechtlich bereits als "Privatunternehmen" behandelt, auch wenn der Staat noch beträchtliche Anteile oder gar die sog. "Goldene Aktie" mit Veto-Rechten besitzt (1 -> 3 -> 2 -> 1).41 Die rußländische Voucher-Privatisierung war ganz offensichtlich stark durch bestehende stakeholder-Positionen beeinflußt (6 -> :3 -> 1).42 In dieser Hinsicht sind die Vergleiche zu Tschechien und zu Polen instruktiv. In Rußland hatte sich ganz offensichtlich ein System der de-facto-Kontrolle der Betriebe durch deren Leitungen herausgebildet, die wiederum enge Beziehungen zur Belegschaft unterhielten. Bereits Phänomene der "spontanen Privatisierung" während der Perestrojka demonstrierten die Stärke dieser Position des sowjetischen Managements. So war es politisch unmöglich, diese informalen Institutionen nicht auch formal anzuerkennen. Eine vergleichbare Rolle spielten in Polen die Arbeiter-Räte, während in Tschechien solche starken stakeholder-Positionen nicht bestanden und daher die Voucher-Privatisierung am ehesten nach dem gedachten Ideal konzipiert wurde und auch ablief. Angesichts der überragenden Bedeutung ländlicher Industrieuntemehmen in der VR China ist dort auch die Wechselwirkung zwischen informalen Institutionen und Privatisierung zu beachten. Die ländliche Industrie weist komplexe Mischformen zwischen privaten und kollektiven Eigentumsrechten auf, die darüber hinaus im Zeitablauf Veränderungen durchlaufen. Der ständige Prozeß von Verhandlungen über die Verteilung von Verfügungsrechten verläuft lokal sehr unterschiedlich und wird von der schrittweisen Entwicklung eines spezifischen rechtlichen Rahmens (das sog. "Aktiengenossenschaftssystem") begleitet. Diese langsame und nachlaufende Anpassung der formalen Institutionen ist das eigentliche Merkmal des chinesischen "Gradualismus".43 41 Solche diffusen Abgrenzungen von Eigentumsrechten sind selbst für die stark marktwirtschaftlich orientierten ost-mitteleuropäischen Volkswirtschaften typisch. In Tschechien sind etwa viele Staatsbanken nur pro forma privatisiert und erlauben dem Staat noch erheblichen Einfluß auf den produzierenden Sektor. Ein Beispiel diskutieren im Detail Edward A.Snyderl Roger C. Kormendi, Privatization and Performance of the Czech Republic's Korner enf Banka, in: Journal of Comparative Economics Vol. 25, 1997, S. 97 - 128; vgl. Filatotchev (Anm. 29), S. 504. 42 Vgl. Lasziv Csaba, Privatisation and Distribution in Central and Eastern Europe: Theory from Evidence, Kopint-Datorg Diskussion Papers, No. 32, 1995, Budapest, der die Privatisierung als Frage der Neuverteilung von Macht deutet. 43 Hierzu grundlegend Russell Smyth, The Township and Village Enterprise Sector As a Specific Example of Regionalism - Some General Lessons for Socialist Transformation, in: Economic Systems, Vol. 21, No. 3, 1997, S. 235 - 264, und zum Wechselspiel zwischen formalen und informalen Institutionen Carsten Herrmann-PillathlHiroyuki Kato: Ein "Dritter Weg" in Chinas Dörfern? Das "Aktien-Genossenschaftssystem" und die Transformation der ländlichen Unternehmen, Duisburger Arbeitspapiere zur Ostasienwirtschaft Nr. 31/1996.

350

Carsten Herrmann-Pillath

4. Fonnale Institutionen/ Politiksystem Die radikalste Veränderung in Rußland war neben der Demokratisierung im weiteren Sinne ohne Zweifel das Verbot der KPdSU (5). Mit diesem Schritt wurden ganz andere Mechanismen für die Wechselwirkung zwischen formalen und informalen Institutionen geschaffen als in China (5 -> 1 -> 4). Während über den Wahlmechanismus nun durchaus auch Wählerpräferenzen Berücksichtigung finden müssen, ist auf der anderen Seite das alte Beziehungsgeflecht der Partei vollständig informalisiert worden, ist also auch nicht mehr deren internen Disziplinierungsmechanismen unterworfen. Dies ist ein wesentlicher Faktor für die Kriminalisierung auch von Teilen der Politik gewesen. In China drücken sich ähnliche Übergangserscheinungen zwar auch in massiver Korruption aus, doch wirken noch interne Kontrollen des Nomenklatura-Systems. Insbesondere auf lokaler Ebene gibt es jedoch viele Ähnlichkeiten, denn in beiden Ländern ist zwar der Aufstieg einer Unternehmerschicht zu beobachten, jedoch rekrutiert sich diese teilweise aus den alten politischen Eliten (4).44 Dies ist insofern bemerkenswert, als dementsprechend geringer Druck zu einer nachhaltigen Selbstransformation der formalen Institutionen des Politiksystems entsteht, also für China insbesondere die "Mittelstandshypothese" der Demokratisierung vermutlich nicht gültig ist. Ein wichtiger Bereich der Selbsttransformation des Politiksystems in beiden Ländern betrifft die Beziehung zwischen Zentrum und Regionen (5 -> 1 -> 6 -> 4 -> 5). In China hatte sich ein informales System des regionalen Korporatismus herausgebildet, bei dem die enge Interessenkollusion zwischen Wirtschaft und Politik sich auf lokaler Ebene durch die fiskalischen Anreize für dezentralen Behörden einstellte. 45 Dieses System war sehr folgenreich für das entstehende Wachstumsmuster (7, 8): Vor allem die regionale Konvergenz der Industrialisierungsprozesse bis zu Beginn der neunziger Jahre erklärt sich durch die dezentrale Wirtschaftspolitik mit extremen Maßnahmen wie eines lokalen Protektionismus zum Schutze örtlicher Industrien, durch die auch lokale Humankapitalressourcen optimal eingesetzt werden konnten (geringere Anreize für Abwanderung) (9). Langfristige Folge sind jedoch Fehlallokationen von Kapital (etwa suboptimale Betriebsgrößen), die im Falle intensiverer interregionaler Verflechtungen zum Tragen kommen (mangelnde Wettbewerbsfähigkeit regionaler Industriesysteme) (9 -> 11 -> 7 -> 8 -> 12). Für die internen Verhältnisse des Politiksystems resultierte ein zunehmender Machtverfall des Zentrums. Es bleibt abzuwarten, ob und wie die seit 1994 betriebene Steuerreform und damit Umstrukturierung der Beziehungen zwischen Regionen und Provinzen diese Zusammenhänge langfristig wird verändern können. 44 Hans-Henning Schräder, Russische Wirtschafts- und Gesellschaftseliten im Übergang, in: Bundesinstitut für ostwissenschaftliche und internationale Studien, Hrsg., Der Osten Europas im Prozeß der Differenzierung: Fortschritte und Mißerfolge der Transformation, München I Wien 1997, S. 266 - 277, und Sebastian Heilmann (Anm. 37). 45 Carsten Herrmann-Pillath, Marktwirtschaft in China: Geschichte - Strukturen - Transformation,Opladen 1995, besonders KapitalS.

Die Transformation post -sozialistischer Volkswirtschaften

351

In Rußland hat sich die Beziehung zwischen Zentrale und Regionen noch nicht zu einem festen Muster kristallisiert. Von dieser Instabilität gehen eindeutig negative Impulse für die Wirtschaftsentwicklung aus. Problematisch ist vor allem, daß der Kapitalstock in der Vergangenheit durch rein politische Entscheidungen den speziellen raumwirtschaftlichen Bedingungen in der Sowjetunion angepaßt worden war (insbesondere wegen der Nutzung der ressourcenreichen nordöstlichen Gebiete). Der Systemwandel entwertet diesen Kapitalstock und verstärkt daher das Erfordernis ausgleichender fiskalischer Mechanismen. Moskau setzt dies jedoch in eine diskretionäre Politik zur Festigung der eigenen, labilen Machtposition im Verhältnis zu den Regionen um. 46 In beiden Ländern ist eine Folge der fiskalisch-administrativen Strukturen, daß der tatsächliche Verlauf von Privatisierungsprozessen stark von lokalen Bedingungen und Politikpräferenzen bestimmt wurde und wird, und daß es auf lokaler Ebene Widerstände der Verwaltungen gegen die Aufgabe von Vermögensgütern (insbesondere Immobilien) gibt.

5. Informale Institutionen

In Rußland und China sind informale Institutionen eine wesentliche Determinante des tatsächlichen Verlaufes von Privatisierungsprozessen gewesen. Während in Rußland Stakeholder-Positionen auch auf der formalen Ebene zentral staatlicher Gesetzgebung Berücksichtigung fanden (3 ~ 6 ~ 1), ist dies in China vor allem im Bereich der ländlichen Industrie erst sehr spät formal berücksichtigt worden (6 ~ 3 ~1). Es gibt hier die bereits erwähnte weite Spannbreite von faktischen Eigentümer-Rechten, und erst Modelle wie das "Aktiengenossenschaftssystem" sollen diese komplexen Verhältnisse in einen formalen Rahmen gießen. Zu beachten ist die Tatsache, daß es erhebliche regionale Unterschiede bei der Natur informaler Institutionen gibt, die auf den Verlauf der Privatisierung Einfluß nehmen, wie etwa die große Bedeutung von informal organisierten Familienverbänden in Südost-China, die zum Teil formale Leitungspositionen in Politik und Wirtschaft okkupieren. Neben dieser institutionellen Gemengelage macht sich das Staatseigentum bislang noch als recht klares Gebilde aus. Allerdings wirken in wichtigen Segmenten die informalen Strukturen der "danwei" (Einheit) fort, also des Staatsunternehmens als totaler Institution der individuellen Lebenswelt, und werden interessanterweise gerade in den wirtschaftlich weit entwickelten Gebieten des ländlichen Raumes sogar in Gestalt einer informalen "Resozialisierung" neu geschaffen (2 ~ 6 ~ 4 ~ 1).47 46 Ausführlich hierzu Claudia Bell. Fiskalischer Föderalismus in der Rußländischen Föderation, Baden-Baden 1998 sowie Leonid Vardomskij et al., Probleme der strukturellen Transformation des postsowjetischen Raumes, Berichte des Bundesinstitutes für ostwissenschaftliche und internationale Studien 19 - 1997, Köln. 47 Siehe die bei Carsten Herrmann-Pillathl Kato Hiroyuki (Anm. 48) zitierten Feldforschungen und chinesischen Quellen und Weixin Chen, The Political Economy of Rural In-

352

Carsten Herrmann-Pillath

In Rußland hingegen ist ohne Zweifel die mafiöse Durchdringung der Wirtschaft ein entscheidendes Merkmal informaler Institutionen. 48 Hier tritt der Aspekt der Selbsttransformation des Systems besonders deutlich hervor (6). Neben der ang~­ sprochenen Illegalisierung alter Beziehungsgeflechte innerhalb der Partei haben vor allem die allgemeine Rechtsunsicherheit und die spezifische Entwicklung des Bankensektors zur Verbreitung der Mafia beigetragen. Die russische Mafia erzielt ihre Einnahmen teilweise dadurch, daß sie Mittel zur Durchsetzung von Verträgen bereitstellt, ist also ein Spiegel der Schwäche formaler staatlicher Institutionen. 49 Gleichzeitig hatte die Bankenreform in Rußland einen unerwartet dynamischen Verlauf genommen. 50 Die frühe Liberalisierung hat während der Phase der Hyperinflation viele Chancen für eine Expansion privater Banken gegeben, die dann auch sehr leicht Beziehungen zur kriminellen Sphäre der rußländischen Wirtschaft eingehen konnten. Während der Privatisierung konnte auf diese Weise die Mafia auch über die Bankenkontrolle Anteile des Unternehmenskapitals an sich ziehen. So verdichteten sich die Beziehungen zwischen der Mafia und den neuen Eliten in Wirtschaft und Politik weiter, mit konkreten Folgen für die Allokation knappen unternehmerischen Humankapitals (1 -> 6 -> 4 -> 1 -> 6 -> 9 -> 7). Die russische Situation zeigt auch, daß eine getrennte Analyse informaler Institutionen in Politik- und Wirtschafts system wenig sinnvoll ist. Zum einen können informale Institutionen zum Teil auf eine gemeinsame kulturell-normative Wurzel zurückgeführt werden, so daß sich unter unterschiedlichen formalen Institutionen dennoch ähnliche Muster informal regulierten Verhaltens ausbilden;51 zum anderen haben informale Institutionen in der Politik unmittelbar Auswirkung auf das institutionelle Umfeld des Wirtschaftssystems, etwa hinsichtlich des Verhaltens lokaler Behörden gegenüber Kleinunternehmern. Hierbei ist dann erneut der Aspekt des Eliten-Wandels von Relevanz, denn die Kontinuität von Eliten insbesondere auf lokaler Ebene bedingt den Fortbestand bestimmter informaler Institutionen im Politiksystem, die unmittelbar auch mit informalen Institutionen des Wirtschaftsdustrialization in China: Village Conglomerates in Shandong Province, in: Modem China, Vol. 24, Nr. I, S. 73 - 96). 48 Einen guten Überblick bietet Swetlana Glinkina, Kriminelle Komponenten der russischen Wirtschaft, Typen und Dimensionen, Berichte des Bundesinstituts für ostwissenschaftliche und internationale Studien Nr. 29 - 1997, Köln. Eine detailliertere institutionenökonomische Analyse des Phänomens bieten u. a. Stefan Voigt / Daniel Kiwit, Black Markets, Mafiosi and the Prospects for Economic Development in Russia - Analyzing the Interplay of External and Internal Institutions, Diskussionsbeitrag 05 - 95 des Max-Planck-Institutes zur Erforschung von Wirtschaftssystemen, Jena. 49 Jonathan Hay et al., Toward a Theory of Legal Reform, in: European Economic Review, Vol. 40,1996, S. 559-567. 50 Weltbank (Anm. 10), S. 123. 51 Dies gilt zum Beispiel für die besondere Kultur der "guanxi", der Beziehungen, in China. Dieser Punkt wird ausgearbeitet in Carsten Herrmann-Pillath, China's Transition to the Market: A Paradox of Transformation and Its Institutionalist Solution, in: Hans-Jürgen Wagener, Hrsg., The Political Economy of Transformation, Heidelberg 1994, S. 209 - 241.

Die Transfonnation post-sozialistischer Volkswirtschaften

353

systems korrelieren; an dieser Stelle bilden sich dann auch die Übergänge zu mafiotischen Strukturen (4 ----> 6 ----> 3 ----> 5 ----> 1 ----> 6 ----> 4).52 Insofern muß den informalen Institutionen eine entscheidende Rolle bei der Entstehung konkreter Ordnungen zugeschrieben werden. Hier wäre noch eine Fülle weiterer Aspekte zu berücksichtigen, wie etwa die Frage eines Einflusses spezifischer unternehmerischer Kulturen auf die Entwicklung der Unternehmensstrukturen und damit die konkrete Umsetzung von Handlungschancen in den strukturellen Wandel des Kapitalstockes (7).53 Viel beachtet sind hier die denkbaren Einflüsse des Konfuzianismus und der chinesischen Volksreligion auf die chinesische Transformation insbesondere in den ländlichen Räumen. Die Wechselbeziehung zwischen diesen Faktoren und dem Erbe des Sozialismus und seiner "danwei" Kultur erklärt andererseits die besonderen Formen von Beziehungsgeflechten in den Städten. Ein höchst interessanter Gegensatz zu Rußland könnte etwa in der Frage der Fristigkeit unternehmerischer Orientierungen zu suchen sein: Für den ostasiatischen Kulturraum wird hier gewöhnlich unterstellt, daß wegen familiärer Bindungen, kultureller Anreize zum Sparen, einer Vertrauensethik etc. eine eher langfristige Orientierung besteht. 54 Für Rußland weisen hingegen traditionelle Faktoren (Fehlen einer autochthonen Unternehmerkultur) ebenso wie das Erbe der sowjetischen Planwirtschaft eher in die Richtung einer systematisch höheren Zeitpräferenzrate. 55 Auf diese Weise ließen sich Differenzen wie die zum Teil erstaunlich hohe Stabilität informaler Verträge in China und die äußerst schlechte Geschäftsmoral in Rußland erklären.

6. Ordnungen/ Kapitalstock

Die skizzierten Wechselwirkungen innerhalb des politisch-ökonomischen Systems generieren Phänomene der Ordnung, die über Vermittlung individueller Handlungen auf den Kapitalstock einwirken (7). Wir haben einige Aspekte dieses Kausalzusammenhangs bereits berührt. Es ist für die meisten Transformationsökonomien charakteristisch, daß der Systemwandel zu dualistischen oder gar zu Mehrsektoren-Ökonomien führt, mit zum Teil ausgeprägten institutionellen Differenzen 52 Vgl. Andrei Shleifer (Anm. 12), S. 400f., der unter diesem Gesichtspunkt auf den wesentlich weitergehenden Elite-Wandel in Polen im Vergleich zu Rußland hinweist. Zur Beziehung zwischen Elitewandel und Ausbildung mafiotischer Strukturen siehe Natalia Lapina (Anm.44). 53 S. Gordon Redding, The Distinct Nature of Chinese Capitalism, in: The Pacific Review, Vol. 9, No. 3, 1996, S. 426-440. Martin L. Weitzman, Economic Transition - Can Theory Help?, in: European Economic Review, Vol. 37, 1993, S. 549-555, spekuliert über unterschiedliche Grade kultureIl verankerter Kooperativität in Asien und Europa. 54 So etwa Geert Hofstede, Cultures and Organizations. Software of the Mind, London et al. 1991,S. 159-176. 55 Vgl. Colin White, Russia and America: The Roots of Economic Divergence, London et al. 1987, S. 98 - 126.

23 Selbstorganisation. Bd. 9

354

Carsten Hemnann-Pillath

zwischen den Sektoren, die sich dann auch in der spezifischen Nutzung des Kapitalstockes niederschlagen. Besonders für China ist zu konstatieren, daß Staatssektor, ländliche Industrieunternehmen und Privatbetriebe in zum Teil sehr unterschiedlichen institutionellen Kontexten operieren, die sich auch zu spezifischen regionalen politisch-ökonomischen Systemen verdichten können, die von der Wirtschaftspolitik auch als solche wahrgenommen werden (3) (etwa "Modell von Wenzhou"). Die Sonderstellung der Staatsunternehmen ist auch in anderen Ländern erkennbar und wird in der Regel über die Privatisierung hinweg wirksam. 56 Der wesentliche Effekt solcher Verhältnisse besteht in der Verlangsamung des Strukturwandels. In nahezu allen Transformationsökonomien wird festgestellt, daß der Strukturwandel in den Fällen am schnellsten stattfindet, wenn ausländische Eigentümer hinzutreten, die im Grunde außerhalb des bestehenden politisch-ökonomischen Systems operieren und autonom über den Einsatz von Kapital entscheiden (9 --> 11 --> 7 --> 8 --> 12).57 Bezeichnend ist auch die Beobachtung, daß erfolgreicher Strukturwandel (insbesondere als Erreichung internationaler Wettbewerbsfähigkeit auf Unternehmensebene) in der Regel bei jenen Unternehmen stattfindet, die bereits vor der Transformation leistungsfähig waren. Diese Defizite werden in der Literatur regelmäßig mit Defekten der Corporate Governance in Verbindung gebracht: Sind zum Beispiel in Tschechien indirekt die staatlichen Banken sehr stark an der Umstrukturierung von Unternehmen beteiligt, dann tritt eine Verlangsamung auf, da diese zum einen sehr viele unterschiedliche Kriterien jenseits der reinen Profitabilität zu beachten haben, andererseits aber selbst an einem Mangel unternehmerischen Humankapitals leiden (11). Insgesamt gewinnt daher in der Literatur inzwischen die Auffassung stärker Anerkennung, daß Wachstum als Ergebnis von Systemtransformation nur als lokale Evolution innerhalb konkreter institutioneller Szenarien und unter konkreten Bedingungen der Ausstattung mit Real- und Humankapital erklärbar ist. In vielen Fällen läßt sich etwa die Performanz von Unternehmen nicht pauschal durch das herrschende eigentumsrechtliche Regime erklären, sondern nur durch die spezifische Situation, d. h. also zeitlich und räumlich spezifische institutionelle Komplexe bzw. Ordnungen. 58 Natürlich gibt es systematische Faktoren wie etwa die Alimentierung des maroden Staatssektors durch die Staatsbanken in China oder die fehlende Eigentümer-Mentalität vieler rußländischer Banken, die mit Unternehmensanteilen eher Portfolio-Ziele verfolgen. Doch bleiben Forderungen wie eine ent56 Für den Fall Polens siehe etwa Robert E. Kennedy, A Tale of Two Economies: Economic Restructuring in Post-Socialist Poland, in: World Development, Vol. 25, No. 6, 1997, S. 841 - 865. 57 Im Überblick Rumen Dombrinsky, Microeconomic Adjustment in the Transition to Market Economy: Enterprise Behavior in Central and Eastern Europe, Wiener Institut für internationale Wirtschaftsvergleiche, Bericht No. 221, Wien 1995. 58 Siehe schon die frühe Fallstudie zu Ungarn von Adam Török, Trends and Motives of Organizational Change in Hungarian Industry - A Synchronie View, in: Journal of Comparative Economies, Vol. 17, 1993, S. 366 - 384.

Die Transfonnation post -sozialistischer Volkswirtschaften

355

sprechende Beschleunigung der Privatisierung des Bankensektors oder die Verschärfung der dort gültigen Budgetrestriktionen weit hinter der Realität zurück: Die Komplexität der Zusammenhänge auf den unterschiedlichen Ebenen etwa des Privatisierungsprozesses zwingt zur Adoption von piecemeal-Strategien gezielter lokaler Evolution. 59 7. Ordnungen/Wissensstock Die Diskussion um die Corporate Governance hat sehr deutlich gezeigt, daß die institutionellen Veränderungen auf dem Markt für Humankapital eine wichtige Rolle im strukturellen Wandel spielen (9 --+ 11 --+ 7). In China beispielsweise gibt es erhebliche Barrieren für die Mobilität von ausgebildeten Arbeitskräften zwischen Stadt und Land, so daß die ländliche Industrie an einem Mangel von Facharbeitern leidet und in ihrem Strukturwande1 behindert ist. Wie entscheidend dies ist, zeigt die große Dynamik in der regionalen Ökonomie Shanghai / Provinz Jiangsu, wo die ländliche Industrie in Jiangsu sehr viel leichteren Zugang zum Shanghaier Arbeitsmarkt besitzt. Langfristig jedoch wird dieser Mangel an Humankapital eine wesentliche Rolle für die chinesische Entwicklung auch hinsichtlich des strukturellen Wandels des realen Kapitalstockes spielen. In Rußland konzentriert sich gerade die konservative Kritik an der gewählten Transformationsstrategie auf den Verfall des technologisch-ökonomischen Potentials. Hier wird deutlich, daß Privatisierungsstrategien von einer gezielten Umgestaltung all jener Schnittstellen zwischen öffentlichem und privatem Sektor begleitet sein müssen, an denen Inventionen generiert und in Innovationen umgesetzt werden (Universitäten, Forschungsinstitute, Betriebliches F&E etc.) (1 --+ 9 --+ 10 --+ 12). Eine fehlende Koordination zwischen Privatisierung und Umgestaltung des öffentlichen Sektors kann zu einem Wachstumsmuster ohne Innovationsdynamik führen. Letzten Endes können Transformationsstrategien nur im Lichte des allgemeinen Indikators globaler Wettbewerbsfähigkeit beurteilt werden, der die Wechselwirkung zwischen Wachstum und Neuerungsdynamik abbildet.

V. Schlußfolgerungen Die Ausführungen des vorherigen Abschnittes zeigen deutlich, daß sich die Privatisierung in Rußland und China gerade hinsichtlich ihrer Spezifika (z. B. ländliche Industrie Chinas, Kriminalisierung oder Insider-Privatisierung in Rußland) nicht ausschließlich als Ergebnis wirtschaftspolitischer Steuerung begreifen läßt, sondern nur als Folge eines komplexen Zusammenwirkens institutioneller Veränderungen zu unterschiedlichen Zeitpunkten des Systemwandels. Die Sicht der 59 So auch Sweder van Wijnbergen, On the Role of Banks in Enterprise Restructuring: The Polish Example, in: Journal ofComparative Economics Vol. 24,1997, S. 44-64.

23*

356

Carsten Herrrnann-Pillath

Transfonnation als institutionelle Selbstorganisation faßt die konkreten Anfangsund Randbedingungen der Transfonnation stärker ins Auge. 6o In der Tat zeigt schon die Rede von der "exceptional politics" der Transfonnation, daß die Vorstellungen von der Steuerbarkeit des Systemwandels sich nur unter sehr spezifischen Bedingungen realisieren lassen, in der weitestgehende Autonomie der politischen Akteure besteht. 61 Gewöhnlich wirken aber wesentlich engere Restriktionen auf die wirtschaftspolitische Gestaltung ein und sind mit komplexen, für die Politik kaum überschaubaren Interdependenzen verbunden. Es entsteht eine Eigendynamik auf institutioneller Ebene, die zwar eine fortlaufende Veränderung der Handlungsbeschränkungen und -chancen der Individuen erzeugt, aber nicht vollständig auf deren Verhalten und Wahlhandlungen reduzierbar ist. Institutionen und kognitive Schemata generieren ihrerseits institutionelle Veränderungen, und Ordnung ist mithin ein emergentes Phänomen der Handlungen der Transfonnationsakteure. Diese Veränderungen schlagen sich dann in bestimmten Mustern von Wachstum und Neuerungsprozessen nieder, die an den Beständen von Real- und Humankapital ansetzen und diese ihrerseits transformieren (Strukturwandel). In diesem Sinne sind die Bedingungen von nachhaltigem Wachstum als Erlangung und Persistenz globaler Wettbewerbsfähigkeit nur innerhalb eines Paradigmas der institutionellen Selbstorganisation begreifbar. Eine besondere Rolle spielen hier informale Institutionen, also im weitesten Sinne soziale Normen, die in der Regel nur schwer vollständig auf individuelle Wahlhandlungen reduzierbar sind. Kognitive Schemata unterliegen einer eigenen Dynamik und gründen in Kommunikations- und Reflektionsprozessen jenseits von Wirtschaft und Politik im engeren Sinne. Daher läßt sich durch konventionelle wirtschaftswissenschaftliche Ansätze nur die Wirkung fonnaler Institutionen in Teilaspekten erklären: Sie muß als Steuerungstheorie notwendig scheitern. Was ist aber das normative und prognostische Resultat unserer Überlegungen zur Transfonnation? Aufmerksame Beobachter haben insbesondere im Kontext der Diskussionen um die "Corporate Governance" schon längst festgestellt, daß sich die postsozialistischen Volkswirtschaften nicht eindeutig in Richtung eines bestimmten marktwirtschaftlichen Modells verändern, sondern daß sie spezifische Lösungen insbesondere an der Schnittstelle Politik / Wirtschaftssystem entwickeln, die ihren Ordnungen besondere Prägungen geben und letzten Endes schwer veränderbare Daten für ihren letztendlichen Erfolg im Sinne der Indikatoren Wachstum und Wettbewerbsfähigkeit setzen: Institutionelle Selbstorganisation führt zu ausgeprägten Phänomenen der Pfadabhängigkeit. 62 Diese Entwicklungen können nur Siehe aber auch Weltbank (Anm. 8), S. 11 ff. Vgl. Leszek Balcerowizc (Anm. 22). 62 Brada (Anm. 27), S. 81, vermutet beispielsweise, daß sich die osteuropäischen Volkswirtschaften in Richtung eines "nonstate socialism" bewegen. Wing Thye Woo, The Art of Reforming Centrally Planned Economies: Comparing China, Poland, and Russia, in: Journal of Comparative Economics, Vol. 18, 1994, S. 276 - 308, vermutete für China, daß es sich in Richtung eines Systems mit "Iocal public ownership" entwickele, beim dem die Unterschiede zwischen "Iocalised socialism" und "stockholder capitalism" verschwänden. 60 61

Die Transfonnation post -sozialistischer Volkswirtschaften

357

auf dem Wege einer "thick description" ihrer gesellschaftlichen, wirtschaftlichen und politischen Verfaßtheit beschrieben und prognostiziert werden: In diesem Sinne wird also die transformationstheoretische Heterodoxie bestätigt, die wir im ersten Abschnitt dieser Arbeit ansprachen. Im Grundsatz ist dies im engen Zusammenspiel der verschiedenen sozial- und regionalwissenschaftlichen Disziplinen kein Problem. Jedoch wird den wachsenden Unterschieden und Eigenheiten der post-sozialistischen Systeme unter diesem Umständen immer mehr Gewicht verliehen, so daß Prognosen sich weniger auf verallgemeinerungsfähige Urteile stützen können. 63 Gerade der künftige EU-Beitritt mancher ost-mitteleuropäischer Staaten könnte andererseits eine exogene Kraft institutioneller Konvergenz werden und verweist auf einen in diesem Papier vernachlässigten Faktor, nämlich die Rolle außenpolitischer und weltwirtschaftlicher Rahmenbedingungen. 64 Problematisch werden aber normative Aussagen: Denn jede "thick description" verfällt leicht der normativen Kraft des Faktischen. In diesem Sinne dürfte die "Mainstream Econornics" eine wesentliche Rolle als regulatives Prinzip analytischer Reflektion bewahren. Jedoch ist sie nur noch eines der vielen analytischen Werkzeuge, die der Theoretiker der Transformation als institutioneller Selbstorganisation in seinem Werkzeugkasten haben sollte, und muß den Anspruch aufgeben, "Master-Pläne" der Transformation generieren zu können.

63 Vgl. schon Peter Murrell, What Is Shock Therapy? What Did it 00 in Poland and Russia?, in: Post-SovietAffairs, Vol. 9, No. 2,1993, S. 11-41. 64 Siehe die Diskussion bei Paul J.J. Welfens (Anm. 17).

111. Innovation und technologischer Wandel

Technologischer Wandel und Innovation - Stochastische Modelle für innovative Veränderungen in der Ökonomie Von Eberhard Bruckner, Wemer Ebeling und Andrea Schamhorst, Berlin* I. Einleitung

In der ökonomischen und soziologischen Forschung wie auch in der Gesellschaft selbst nimmt die Erkundung und Abschätzung der Rahmenbedingungen und Folgewirkungen der Einführung neuer Technologien einen herausragenden Platz ein, wobei die breitgefächerte Erörterung auch Standpunkte der Verneinung "unerwünschter" technologischer Neuerungen einschließt. Primär gegenüber diesen Diskussionen ist die Frage, aus welcher Eigengesetzlichkeit heraus technologischer Wandel jahrhundertelang immer wieder neue, in gewisser Weise "bessere", Lösungen erzeugt hat, seien sie von einzelnen nun gewollt oder nicht. Nimmt man rational begründetes Handeln als alleinige Ursache an, so kann nicht erklärt werden, warum neben den "guten" auch immer wieder "schlechte" Varianten erzeugt und erprobt werden und sich erst auf lange Sicht die "besseren" gegenüber den "schlechteren" Varianten durchsetzen. Auch die Präsenz und Wirksamkeit hierarchischer Sozialstrukturen allein kann als Ursache nicht befriedigen. Unterstellt man sie, so könnte der Gesamtprozeß der Abstimmung zwischen Wissenschaftlern, Technikern, Existenzgründern, Kapitalgebern, Werbeagenturen, Käufern, Verkäufern, Anwendern und Konsumenten, der zur Erzeugung und Durchsetzung neuer Technologien führt, wie von Geisterhand gesteuert erscheinen, da es letztlich keine politische Institution oder Administration gibt oder geben kann, die diesen Prozeß kontrollieren oder bürokratisch verwalten könnte. Technologische Evolution kann rational nicht erzeugt, administrativ nicht angewiesen und politisch nicht kontrolliert werden, von einzelnen oder einzelnen Gruppen kann sie weder geschaffen noch vernichtet werden. Ihre Realität und ihre Qualität erklärt sich vielmehr als Realität und Qualität eines bestimmten Typs von Handlungskoordination zwischen Hunderttausenden und Millionen von Individuen in der Gesellschaft, die so funktioniert, daß sie eben gerade zu dem erstaunlichen Resultat immer wieder neuer, produktiver Systemlösungen führt, das wir in unserer Gesellschaft beobachten. Durch welche Gesetzlichkeit wird diese Handlungskoordination erzeugt und am Leben erhalten? Durch welche Gesetzmäßigkeiten wird

*

Korrespondenz an A. Scharnhorst.

362

Eberhard Bruckner, Werner Ebeling und Andrea Scharnhorst

sie garantiert und durch welche Handlungen kann sie beschädigt werden? Vermittelt über welche Theorie können wir ihre Funktionsweise verstehen? In evolutions orientierten Theorien, die ökonomischen und technologischen Wandel thematisieren, stellt der Innovationsbegriff einen zentralen Begriff dar. 1 Inzwischen gibt es eine breite Literatur, die sich der evolutionary economics zuordnen läßt. 2 Der technologische Wandel nimmt im Kontext der ökonomischen Entwicklungsauffassungen eine Schlüsselrolle ein und stellt gleichzeitig das Bindeglied zwischen Wissens- und ökonomischer Entwicklung dar? Innovationen werden dabei empirisch, theoretisch und modelltheoretisch untersucht. Neben einem beständigen Rückgriff auf Vorstellungen der biologischen Evolution4 haben auch moderne naturwissenschaftliche Theorien der nichtlinearen Dynamik, der Selbstorganisationsprozesse und der Chaostheorie die Theorienbildung in Ökonomie und Soziologie nachhaltig beeinflußt. Verbunden mit der Entwicklung evolutionsorientierter Vorstellungen aus der Sicht der Physik5 haben sich immer wieder Physiker 1 Siehe z. B. Giovanni Dosi, Sources, Procedures, and Microeconomic Effects ofInnovation, in: Journal of Economic Literature 1988, vol. XXVI, pp. 1120 - 1171; Charles Edquist (Ed.), Systems ofInnovations: Technologies, Institutions, and Organizations, London 1997. 2 Für eine Einführung siehe Ulrich Witt (Ed.), Evolutionary Economics, The International Library of Critical Writings in Economics 25, Aldershot 1993; vgl. auch: David Battenl lohn L. Castil Börje lohansson (Eds.), Economic Evolution and Structural Adjustment, Berlin 1987; Horst Hanusch (Ed.), Evolutionary Economics: Applications of Schumpeter's Ideas, Cambridge, Mass. 1988; Malte Faberllohn L. R. Proops, Evolution, Time, Production and the Environment, Berlin 1990; Ulrich Witt (Ed.), Studien zur Evolutorischen Ökonomik I, Berlin 1990; Günter HaaglUlrich MuellerlKlaus G. Troitzsch (Eds.), Economic Evolution and Demographie Change: Formal Models in Social Sciences, Berlin 1992; Richard H. Day I Ping Chen (Eds.), Nonlinear Dynamics and Evolutionary Economics, New York 1993; Frank BeckenbachlHans Diefenbacher (Eds.), Zwischen Entropie und Selbstorganisation: Perspektiven einer ökologischen Ökonomie, Marburg 1994; Peter Burleyllohn Foster (Eds.), Economics and Thermodynamics: New Perspektives on Economic Analysis, Boston 1994; Suran Goonatilake I Philip Treleaven (Eds.), Intelligent Systems for Finance and Business, Chichester 1995. 3 Siehe dazu die Pionierarbeiten von Nelson und Winter (Richard R. NelsonlSidney G. Winter, An Evolutionary Theory of Economic Change, Cambridge, Mass. 1982); vgl. auch Giovanni DosilChristopher FreemanlRichard R. NelsonlGerald SilverberglLuc Soete (Eds.), Technical Change and Economic Theory, London 1988; P. Paolo Saviottil I. Stanley Metcalfe (Eds.), Evolutionary Theories ofEconomic and Technological Change, Chur 1991; Loet Leydesdorffl Peter van den Besselaar (Eds.), Evolutionary Economics and Chaos Theory: New Directions in Technology Studies, London 1994. 4 Zur Relevanz biologischer Evolutionstheorien für Prozesse der ökonomischen Entwicklung und des technologischen Wandels vgl. z. B. Ulrich Witt, Evolutionary Concepts in Economics, in: Eastern Economic Journal 1992, vol. 18, pp. 405-419; Geoffrey M. Hodgson, Economics and Evolution, Cambridge 1993, loel Mokyr, Evolution and Technological Change: A New Metaphor for Economic History?, in: Robert Fox (Ed.), Technological Change: Methods and Themes in the History of Technology, Chur 1996, pp. 63 - 83. 5 Im Sinn einer Physik der Evolution, wie sie bereits Lotka 1911 vorgeschlagen hat (Alfred I. Lotka, Die Evolution vom Standpunkte der Physik, in: Ostwaids Annalen der Naturphilosophie 1911, vol. 21, p. 435).

Technologischer Wandel und Innovation

363

zu Wort gemeldet und die Verallgemeinerbarkeit und Relevanz ihrer Modelle für außerphysikalische und insbesondere auch soziale Ordnungsphänomene diskutiert. 6 Die damit verbundene Herausforderung ist in jedem Fall wahrgenommen und in je spezifischer Weise unterschiedlich reflektiert worden, wobei die Schattierungen von euphorischer Begrüßung7 über die Ausbildung spezifischer theoretischer Ansätze 8 bis zu grundsätzlicher Skepsis9 reichten. 1O In der evolutorischen Ökonomik spielen die Ideen der Selbstorganisation sowohl bei der Entwicklung konzeptioneller Überlegungen als auch in modelltheoretischer und mathematischmethodischer Hinsicht eine wichtige Rolle. 11 Dabei sind eine Reihe auf den Kontext ökonomischer und technologischer Entwicklung re-spezifizierte Modelle aus der Selbstorganisationstheorie entwickelt worden. In der vorliegenden Arbeit wird gezeigt, wie sich das Entstehen des Neuen in einer bestimmten Modellklasse abbilden läßt, welche Aussagekraft die verwende6 Vgl. etwa Hermann Haken, Erfolgsgeheimnisse der Natur, Stuttgart 1981; llya Prigogine I Micheie Sanglier; Laws of Nature and Human Conduct, Brussels 1985. 7 Amo Bamme, Wenn aus Chaos Ordnung wird - die Herausforderung der Sozialwissen-

schaften durch die Naturwissenschaftler, in: Soziologisches Mitteilungsblatt der Deutschen Gesellschaft für Soziologie 1986, vol. 2, S. 117 -145. 8 Vgl. z. Bsp. Wolfgang KrohnlGünter Küppers, Wissenschaft als selbstorganisierendes System, in: Wolfgang KrohnlGünter Küppers (Hrsg.), Selbstorganisation, Aspekte einer wissenschaftlichen Revolution, Braunschweig, Wiesbaden 1990, S. 303 - 328; Günter Küppers (Hrsg.), Chaos und Ordnung - Formen der Selbstorganisation in Natur und Gesellschaft, Stuttgart 1997. 9 Renate Mayntz, The Influence of Natural Science Theories on Contemporary Social Science, in: Meinolf DirkeslBemd Biervert (Eds.), European Social Science in Transition, Frankfurt/Main 1992, pp. 27 -79. 10 Zur neueren Standortbestimmung des Verhältnisses von Synergetik und Sozialwissenschaften siehe auch die Diskussion in Ethik und Sozialwissenschaften 1996, vol. 7, no. 4, S. 587 ff.. 11 Als Beispiel für relativ frühe Arbeiten siehe: Peter M. Allen (Ed.), Management and Modelling of Dynamic Systems. European Journal of Operational Research 1986, vol 25; David Batten, On the Dynamics of Industrial Evolution, in: Regional Science and Urban Economics 1982, vol. 12, pp. 449-462; Günter HaaglWolfgang WeidlichlGerhard O. Mensch, The Schumpeter Clock, in: Batten I Casti I Johansson (FN 2), pp. 187 - 226; Miguel A. Jimenez-MontaiiolWemer Ebeling, A Stochastic Evolutionary Model of Technological Change, in: Collective Phenomena, 1980, vol. 3, pp. 107 -114; Gerald Silverberg, Embodied Technical Progress in a Dynamic Economic Model: the Self-Organization Paradigm, in: Richard M. Goodwinl Michael Krüger I Alessandro Vercelli (Eds.), Nonlinear Models of Fluctuating Growth, Berlin 1984, pp. 192 - 208. Zu nichtlinearen Ansätzen in der ökonomischen ModelIierung vgl.: Goodwinl Krügerl Vercelli, 1984 (ebenda); W. Brian Arthur, Competing Technologies, Increasing Returns, and Lock-in by Histoncal Events, in: The Economic Journal 1989, vol. 99, pp. 116-131; William A. Bamettllohn GewekelKarl Shell (Eds.), Economic Complexity: Chaos, Sunspots, Bubbles, and Nonlinearity, Cambridge 1989; Hans- Walter Lorenz, Nonlinear Dynamical Economics and Chaotic Motion, Berlin 1989; Dayl Ping Chen (FN 2); Frank Schweitzer (Ed.), Self-Organization of Complex Structures: From Individual to Collective Dynamics, London 1997; Frank Schweitzer, Modelling Migration and Economic Agglomeration with Active Brownian Particles, in: Journal of Complex Systems 1/1 (1998) 11 - 38.

364

Eberhard Bruckner, Werner Ebeling und Andrea Scharnhorst

ten Modelle haben und wo ihre Grenzen liegen. Beispielhaft sollen dabei Prozesse des technologischen Wandels untersucht werden. Was als Innovation angesehen wird, hängt wesentlich von der Definition des betrachteten Systems ab. 12 Das beschreibbare Bild des Systems und der Systemdynamik (einschließlich von Neuerungsprozessen) wird durch die Wahl des Modellapparates wesentlich beeinflußt. Im Abschnitt 11 gehen wir der Frage nach, wie sich in verschiedenen Operationalisierungszugängen und formalen Modellen Neuerung und Innovation widerspiegeln. In einem schrittweisen Prozeß der Respezifizierung allgemeiner Modellannahmen führen wir diese Diskussion anhand eines Beispielmodellsystems. Für ein spezielles, eingegrenztes Phänomen des technologischen Wandels - den Substitutionsprozeß - wird schließlich im Abschnitt III diskutiert, welche Aspekte von Innovationsprozessen wie durch formale diskrete Modelle beschrieben werden können. Anhand der ausgewählten Modellbeispiele soll exemplifiziert werden, wie der konzeptionelle Rahmen der Theorie der Selbstorganisation, die dazugehörigen formalen Modelle und mögliche analytische und simulationsgestützte bzw. empirische Aussagen einen spezifischen Bezugsrahmen eröffnen, der eine auf besondere Art charakteristische Systematisierung und Integration von in ökonomisch-soziologischen Kontexten untersuchten Fragestellungen technologischen Wandels ermöglicht.

11. Wandel und Innovation - Das Neue in formalen Beschreibungen des technologischen Wandels

In den Theorien der Selbstorganisation, insbesondere entsprechend der Auffassungen der Brüsseler Schule und der Stuttgarter Schule der Synergetik, denen wir hier folgen, nimmt die Innovationsproblematik einen spezifischen Platz ein. Sie ist verbunden mit Instabilität, der Rolle von Fluktuationen und Strukturwandel bzw. einer Folge von Strukturbildungsprozessen. In diesen evolutionstheoretischen Kontext läßt sich die Problematik des technologischen Wandels sowohl konzeptionell einbetten als auch modelltheoretisch bzw. empirisch abbilden. Will man technologischen Wandel konzeptionell in den Termini eines Evolutionsprozesses beschreiben und die Rolle der Innovationen in diesem Kontext bestimmen, so ist zunächst zwischen Mikro- und Makroebene der Betrachtung zu unterscheiden. Die Erscheinungsweise einer technologischen Innovation wird in der Literatur zumeist an das Erstauftreten einer technischen Veränderung in einem Unternehmen gebunden, während bereits das zweite Unternehmen, das die technische Veränderung einführt, i.S. des Systems keine Innovationsleistung mehr vollziehen muß. Betrachten wir dazu ein Zitat von Schmookler: "When an enterprice produces a given good or service or uses a method or input that is new to it, it makes a tech12 Wemer Ebeling, Das Neue in der natürlichen und technischen Evolution, in: Heinrich Parthey (Hrsg.), Das Neue, Berlin 1990.

Technologischer Wandel und Innovation

365

nical change. The first enterprise to make a given technical change is an innovator. Its action is innovation. Another enterprise making the same technical change later is presumably an imitator and its action, imitation. ,,13

Eine Innovation setzt sich im betrachteten System um so mehr durch bzw. breitet sich um so mehr aus, je mehr individuelle Unternehmen sie einführen. Sie ist zu jedem Zeitpunkt im System zweifach repräsentiert: durch ihre qualitativen Eigenschaften und durch die Anzahl der Unternehmen, die sie eingeführt haben, gleichgültig ob die Einführung der Innovation auf der Ebene des Unternehmens selbst eine innovative Leistung darstellt oder nicht. Das Auftreten des Neuen auf der Mikroebene (für das einzelne Unternehmen) ist folglich wohl zu unterscheiden von den im System definierten technologischen Innovationen. Der Innovationsbegriff kennzeichnet mithin eine Neuerung für das betrachtete Gesamtsystem. Auch umgekehrt müssen Neuerungen auf der Ebene des Unternehmens nicht notwendig gleichzeitig auch Innovationen im Gesamtsystem sein. Wie im obigen Zitat wird der Begriff der "Innovation" meist an das Auftreten von Neuemfür das System gebunden l4 , während der Begriff des Neuen im allgemeinen auch Veränderungen innerhalb des bestehenden Systems einschließt. 15 Neben der Systemabgrenzung (Systemrand) beeinflußt die Art der Systembeschreibung (die Definition der Elemente und der Wechselwirkungen zwischen diesen Elementen) die Darstellungsmöglichkeiten des Neuen. Schon bei Darwin sowie auch in der klassischen Populationsdynamik sind Populationen als Ort und Einheit der Evolution identifiziert. Nach Roughgarden ist eine Population eine Ansammlung von Individuen l6 , deren Zusammengehörigkeit sich daraus ergibt, daß sie als eine Einheit im Sinne der Evolution funktionieren. 17 Technologische Popu13 Jacob Schmookler, Invention and Economic Growth, Cambridge 1966, p. 2 (Hervorhebungen im Original). 14 im Sinne einer Erweiterung der Systemgrenzen. 15 In dem obigen Zitat von Schmookler steht der Begriff des technologischen Wandels für Neuerungen, die nicht Innovationen im Sinne von Systemneuerungen sind. Diese verschiedenen Aspekte von Neuerung spiegeln sich - wenn auch unter Verwendung eines anderen Begriffspaars - auch in dem folgenden Zitat von Mokyr: ..Technological change is thus composed of invention, which increases [0 ist die Vereinigung aller Mengen individuell vorhandenen Wissens, d. A.l, and diffusion which increases the sum of all interseetions, r." (Mokyr FN (4), p. 73). 16 Das sind im engeren populationsdynamischen Sinne Organismen und Elemente beliebiger Natur im allgemeinen systemtheoretischen Ansatz. 17 Siehe .. A population is a collection of organisms that we have lumped together because we believe they function together as a unit. ... All we require is that the collection of organisms function together evolutionarily and ecologically as a unit." (Jonathan Roughgarden, Theory of Population Genetics and Evolutionary Ecology - An Introduction, New York 1979, p. 1). Im populationsdynamischen Sinne kann eine Population eine Gruppe von Mikroorganismen, von Pflanzen oder auch von sich fortpflanzenden Individuen sein. Im letzteren Fall spricht man auch von Spezies. Andererseits kann eine Population auch Teil einer Spezies sein, z. B. die sogenannten lokalen Populationen (siehe Roughgarden, ebenda). Im folgenden

366

Eberhard Bruckner, Werner Ebeling und Andrea Schamhorst

lationen können in diesem Sinne nur vermittelt über menschliche Tätigkeit als evolutive Einheiten funktionieren. Innerhalb einer Population variieren die Individuen bezüglich ihrer Eigenschaften. Die Struktur dieser individuellen Vielfalt und Variabilität, d. h. die Struktur der Population verändert sich in der Zeit und bildet die Quelle der Evolution. Im Rahmen der traditionellen Populationsdynamik sieht man die Einheiten der Evolution als klassifizierbar und voneinander unterscheidbar an. Die entsprechenden mathematischen Modelle sind diskrete Modelle und im allgemeinen durch Systeme gewöhnlicher nichtlinearer Differentialgleichungen 18 repräsentiert. Im Rahmen der Synergetik beschreiben solche diskreten Modelle die Dynamik der Ordner. Wie die Synergetik herausgearbeitet hat, wird die Variabilität individuellen Verhaltens auf der Mikroebene durch selbstorganisierte Koordinationseffekte reduziert. Die Herausbildung einiger weniger Ordner ist ein kooperativer Effekt, der als Synchronisierung der individuellen Verhaltensmöglichkeiten in Erscheinung tritt. Letztendlich ist es die Existenz verschiedener Zeitskalen (d. h. langsam und schnell variierender Systemgrößen), die eine Entkopplung von mikroskopischer und makroskopischer Beschreibung möglich macht. 19 Mit dieser Art der Systembeschreibung läßt sich die Herausbildung makroskopischer Ordnungszustände für verschiedene Modi der Initialisierung des Systems 20 und der SystemUmwelt-Kopplung 21 verstehen. Die mit den Ordnern verbundenen Systemvariablen stehen für Ordnungsphänomene auf der Makroebene. Diese bilden die Vielfalt der Verhaltensmöglichkeiten der Individuen oder Elemente auf der Mikroebene auf die Konkurrenz von Gruppen bzw. Populationen22 in einem verallgemeinerten Sinne auf der Makroebene ab. Für Prozesse des technologischen Wandels sind solche diskreten Modelle z. B. für die Beschreibung von Substitutionsprozessen zwischen verschiedenen Technologien entwickelt worden. Beispiele hierfür sind Lotka-Volterra-Systeme 23 , Replikatoransätze 24 und diskrete stochastische soll die Feinunterscheidung zwischen Spezies und Population im originären biologischen Kontext nicht weiter verfolgt werden. Die Begriffe "Population" und "Spezies" werden vielmehr - wie auch in einem großen Teil der Literatur - in einem verallgemeinerten Sinne und synonym gebraucht. 18 bzw. Differenzengleichungen im Fall einer diskreten Zeitvariable. 19 Für die Relevanz des Versklavungsprinzips für soziale Systeme siehe: Wolfgang Weidlich, Physics and Social Science - the Approach of Synergetics, in: Physics Reports, vol. 204(1), 1991, pp. 1-163. 20 i. S. von Anfangsbedingungen. 21 i. S. von Randbedingungen. 22 Es sei daran erinnert, daß in der Synergetik sowohl Lasermoden einer bestimmten Wellenlänge, chemische Sorten, biologische Populationen und soziale Gruppen als Populationen verstanden werden. 23 Vgl. beispielsweise Batten (FN 11); Karmeshu/S. C. Bhargava/v. P. Jain, A Rationale For Law of Technological Substitution, in: Regional Science and Urban Economics 1985, vol. 15, p. 137 - 141. 24 Vgl. beispielsweise P. Paolo Saviotti/G. S. Mani, Competition, Variety and Technological Evolution: a Replicator Dynamics Model, in: Journal of Evolutionary Economics 1995, vol. 5, pp. 369 - 392.

Technologischer Wandel und Innovation

367

Modelle 25 . Dabei bilden Technologien, die sich in Produkuypen oder verschiedenen Herstellungsprozessen spiegeln, die (technologischen) Populationen. In diskreten Modellen werden die Populationen formal durch die Zahl bzw. Häufigkeit Xi von Elementen eines bestimmten Typs i beschrieben. Der Zustand des Systems zu einem bestimmten Zeitpunkt t ist folglich durch die Werte der Besetzungszahlen aller im System befindlichen Populationen zum Zeitpunkt t charakterisiert. Die Beschreibung der Systemdynamik kann durch deterministische oder stochastische Modelle erfolgen. Je nachdem, ob die relevante Systemvariable Xi für die Besetzung der Populationen kontinuierliche oder diskrete Werte annehmen kann, erhält man auf der Ebene der stochastischen Beschreibung verschiedene Modelle. Im Fall diskreter Werte der Besetzung geht man zu ganzzahligen Besetzungszahlen Ni über und benutzt den Mastergleichungsformalismus. 26 Mit Hilfe dieses Formalismus wird individuelles Verhalten auf der Mikroebene spezifisch mit dem Trendverhalten des Systems auf der Makroebene verknüpft. Zwar werden die einzelnen Populationen diskret - und damit in einem gewissen Sinne typologisch - beschrieben, die Systemdynamik aber resultiert aus Regeln für das Verhalten der einzelnen Mitglieder der Population. 27 Das stochastische Bild, das nur Wahrscheinlichkeitsaussagen über die individuellen Aktionen macht, sichert die Variabilität innerhalb der Population und ermöglicht damit die Beschreibung von Evolutionsprozessen. Die Relevanz solcher - im doppelten Sinne diskreter stochastischer Modelle, insbesondere zur Beschreibung von Neuerungsprozessen, ergibt sich daraus, daß eine neue Qualität in der Regel nicht kontinuierlich aus der alten hervorgeht, sondern in ihrem ersten Exemplar als Ergebnis eines sprunghaften Prozesses plötzlich erscheint. Der Mastergleichungsformalismus mit seinen ganzzahligen Besetzungszahlen ist daher als Modell der Entstehung und Durchsetzung von Innovationen gut geeignet, wobei dem Sprung von Null auf Eins, der 2S Vgl. beispielsweise Eberhard Bruckner / Wemer Ebeling / Andrea Schamhorst, Stochastic Dynamics of Instabilities in Evolutionary Systems, in: System Dynamics Review 1989, vol. 5, pp. 176 - 191; Willi Semmler, Infonnation, Innovation and Diffusion of Technology, in: Journal of Evolutionary Economics 1994, vol.4, pp. 45 - 58; Joao Lizardo de Araujo, Are Technology Diffusion Processes Inherently Historieal?, in: Technological Forecasting and Social Change 1995, vol. 48, p. 243-257; Eberhard Bruckner/Wemer Ebeling/Miguel A. Jimenez-Montafio/ Andrea Schamhorst, Nonlinear Stochastic Effects of Substitution - An Evolutionary Approach, in: Journal ofEvolutionary Economics 1996, vol. 6, pp. I-3D. 26 Für den mathematischen Fonnalismus vergleiche etwa Wemer Ebeling / Rainer Feistei, Physik der Selbstorganisation und Evolution, Berlin 1982; Wolfgang Weidlich/Günter Haag, Concepts and Models in Quantitative Sociology, Berlin 1983. 27 Die individuellen Verhaltensmöglichkeiten werden dabei auf Übergangsprozesse zwischen Systemzuständen abgebildet, wobei sich maximal zwei Besetzungszahlen gleichzeitig ändern können. Die Systemdynamik ist vollständig durch die Übergangswahrscheinlichkeiten definiert, die vom vorherigen Zustand abhängen können und durch Systemparameter gewichtet werden. Letztere stehen mit den Systemparametern des detenninistischen Trendverhaltens in Beziehung. Zu den Elementarprozessen gehören Zugangs- und Abgangsprozesse von Individuen oder Elementen zu / aus einer Population und zu / aus dem System; und Übergangsprozesse von Elementen zwischen den Populationen.

368

Eberhard Bruckner, Wemer Ebeling und Andrea Scharnhorst

die Entstehung der neuen Qualität dokumentiert, spezifische Bedeutung zukommt. 28 Die bisher vorgestellten Modelle erlauben die Beschreibung des Neuen auf jeweils unterschiedliche Weise. Im allgemeinsten Sinne spiegeln sich Veränderungen im System zunächst in der zeitlichen Variation der Systemvariablen Xj(t), sei es nun durch eine kontinuierliche Veränderung ihrer Werte in der deterministischen Beschreibung oder durch diskrete Elementarprozesse im stochastischen Bild. Wie Wandel in einem solchen eher quantitativen Sinne in Innovation im Sinne einer qualitativen Systemveränderung umschlagen kann, soll anhand eines spezifischen Modellsystems für Prozesse der technologischen Evolution diskutiert werden. Dabei wird der Unterscheidbarkeit von Neuerung und Innovation im Wechselspiel von Mikro- und Makroebene der Systemdynamik nachgegangen. Verallgemeinerbare Aussagen werden abgeleitet.

1. Mikroökonomische Träger des technologischen WandelsEin Beispieljürdas Wechselspiel von Wandel, Neuerung und Innovation Die Anwendung eines diskreten Modells auf Phänomene des technologischen Wandels schließt die Rekonstruktion der Systemelemente aus einer ökonomischen bzw. soziologischen Beschreibung des Sachverhalts im Sinne einer Re-Spezifizierung des allgemeinen Modells ein. Betrachten wir als ein Beispiel, welche Systemelemente sich als Repräsentanten der technologischen Populationen in einer diskreten Beschreibung ergeben. Das erste Auftreten einer neuen Technologie im System (Makroebene) kann nur in ihrer Einführung durch ein Unternehmen (Mikroebene) bestehen. Mikro- und Makroebene werden in diesem Fall beide durch den gleichen Prozeß charakterisiert, der auf beiden Ebenen Neuerungscharakter hat. Insofern spielt bei der Besiedelung der technologischen Populationen der Sprung von Null auf Eins eine besondere Rolle. Die nun folgende Phase der Durchsetzung der neuen Technologie ist indessen durch Wachstum bedingt, d. h. durch Prozesse, die auf der Ebene des Systems keinen Innovationscharakter (i. S. der Erscheinung einer neuen Qualität) mehr haben. Auf der Ebene der Unternehmen (Mikroebene) wird die Durchsetzung der neuen Technologie von einer Vielzahl von Prozessen begleitet, die je spezifisch verschiedenen Charakter haben können, jedoch makroökonomisch alle zu dem 28 Das zentrale Argument dabei ist, daß die Entstehung des Neuen immer ein singuläres, individuelles Ereignis ist (d. h. mathematisch ein diskretes Ereignis im Sinne eines Übergangs von Nn = 0 auf Nn = 1, n steht dabei für eine bis dato nicht besiedelte also für das System nicht existente Population). Ein solcher Übergang kann nicht adäquat mittels kontinuierlich variierender Systemvariablen abgebildet werden (s. a. Bruckner I Ebeling I Schamhorst (FN 25); Eberhard Bruckner I Wemer Ebeling I Miguel A. Jimenez-Montano I Andrea Schamhorst, Technological Innovations - a Self-Organisation Approach, WZB papers FS 11 93 -302, Berlin 1993).

Technologischer Wandel und Innovation

369

gleichen Resultat beitragen. Einige von ihnen haben für die Ebene des Unternehmens (auf unterschiedliche Weise) Neuerungscharakter, andere nicht. Neu für das Unternehmen kann sowohl die Übernahme der neuen Technologie sein als auch einer etablierten, die beide schon in anderen Unternehmen des Systems Verwendung finden. Diese mikroökonomische Erneuerung kann überdies auf ganz unterschiedliche Weise erfolgen, je nachdem ob die Anwendung der neuen Technologie mit dem Aufbau einer neuen Firma bzw. einer neuen Produktionseinheit eines bestehenden Unternehmens einhergeht, oder ob sie in der Ersetzung einer alten Technologie in einer bestehenden Firma bzw. Produktionseinheit besteht. Ferner kann zur Durchsetzung der neuen Technologie ein Prozeß beitragen, der mikroökonomisch keinerlei Neuerungscharakter hat, etwa. wenn in einem bestehenden Unternehmen, das die neue Technologie bereits anwendet, eine weitere Produktionseinheit mit dieser Technologie hinzugefügt wird: In diesem Sinne tragen unterschiedliche Elementarprozesse, die im Modell zu spezifizieren sind, zur Durchsetzung der neuen Technologie im System bei. Betrachten wir dazu ein Modellbeispiel aus der Klasse der diskreten Modelle. 29 Nehmen wir an, technologischer Wandel ließe sich in einem System von Technologien (Populationen) beschreiben, die jeweils um Firmen bzw. Produktionseinheiten innerhalb von Firmen konkurrieren. Die Konkurrenz zwischen Firmen, deren differentia specifica die Einführung bzw. Übernahme einer neuen Technologie ist, wird damit auf ein quasi inverses Problem - der Konkurrenz von Technologien um Firmen - transformiert. Führen wir als abstrakte Größe eine Produktionseinheit ein, die jeweils einem bestimmten Kapitalbestand bzw. einer Produktionsgröße entspricht, dann können Wachstums- und Schrumpfungs prozesse von Firmen auf die Zu- bzw. Abnahme der Anzahl von Produktionseinheiten projiziert werden. Damit bilden Produktionseinheiten von Firmen, die eine bestimmte Technologie benutzen bzw. einführen, die Elemente des Systems. Ihre Anzahl fungiert als Besetzungszahl. Mittels des Modells kann das Auftreten des Neuen in diesen verschiedenen Kategorien klassifiziert und entsprechenden Elementarprozessen der Systemdynamik zugeordnet werden. 3D (Tabelle 1).

29 Siehe Bruckner I Ebeling I Jimenez-Montano I Scharnhorst 1993 (FN 28), Bruckner I Ebeling I Jimenez-Montano I Scharnhorst 1996 (FN 25). 30 In der mathematischen Beschreibung nutzt dieses Modell in seiner stochastischen Form den bereits erwähnten Mastergleichungsformalismus. Die einzelnen Technologien i = 1, ... , n sind durch Besetzungszahlen Ni charakterisiert, deren Veränderung (Ni -> Ni ± 1) entsprechend bestimmter Übergangswahrscheinlichkeiten erfolgt. Für die Übergangswahrscheinlichkeiten wird dabei ein generalisierter Fisher-Eigen-Formalismus benutzt. Für Details des Modells und insbesondere dessen mathematischer Formalisierung sei auf die folgenden LiteratursteIlen verwiesen (Jimenez-Montano I Ebeling (FN 11), Bruckner I Ebeling I Jimenez-Montanol Scharnhorst 1993 (FN 28); diess. 1996 (FN 25».

24 Selbstorganisation. Bd. 9

370

Eberhard Bruckner, Wemer Ebeling und Andrea Schamhorst Tabelle 1 Ereignis

Elementarprozeß

Schaffung einer im System neuen Technologie durch Existenzgründung (Fall I)

Zugangsprozeß (entry) i.S. einer spontanen Erzeugung

Aufbau einer neuen Produktionseinheit (Fall 11)

Selbstreproduktion

Umrüstung einer bestehenden Produktionseinheit (Fall III)

innovativer Substitutionsprozeß

Anwendung einer neuen, im System aber schon bekannten Technologie durch Existenzgründung (Fall IV)

Zugangsprozeß (entry) i.S. einer spontanen Erzeugung

Aufbau einer neuen Produktionseinheit (Fall V)

Selbstreproduktion

Ersetzung einer etablierten Technologie in einer bestehenden Produktionseinheit (Fall VI)

Imitationsprozeß

Aufbau einer neuen Produktionseinheit (Technologie auch in der Firma bereits etabliert) (Fall VII)

Selbstreproduktionsprozeß

Tabelle 1 zeigt, daß Neues innerhalb des betrachteten Systems sowohl durch neue Systembestandteile als auch durch die (Re)-Kombination bestehender und neuer Systembestandteile eingeführt werden kann. Die Ausdehnung von Produktionskapazitäten bestehender Firmen (Wachstum) wird im Rahmen des Modells als ein Zugangsprozeß von Elementen (Produktionseinheiten) in das System abgebildet. Zugangs- und Abgangsprozesse spiegeln die Offenheit des Systems wider. Auf der Firmenebene kann ein solcher Wachstumsprozeß durchaus innovativ sein, wenn die neue Produktionseinheit mit einer Technologie arbeitet, die in der Firma bislang nicht gebraucht wurde, auch wenn im gesamten System dies keine neue Technologie ist. Dieser Rekombinationsfall stellt gleichzeitig einen innovativen Wachstumsprozeß für die bestehende Firma und einen Selbstreproduktionsprozeß für die bestehende Technologie dar. Ein anderer Zugangsprozeß besteht in einer Firmenneugründung, die bestehende Technologien benutzt. Neuerungsprozesse für die einzelnen Systembestandteile können sich auch in der Rekombination vorhandener Elemente verbergen. Der Substitutionsprozeß einer Technologie innerhalb einer Firma durch eine andere Technologie infolge von Imitation verändert den

Technologischer Wandel und Innovation

371

"technologischen" Zustand der Firma, ohne daß damit im System neue Elemente (Produktionseinheiten, Firmen oder Technologien) auftreten müssen. Bestimmte Rekombinationen allerdings verändern die Struktur des Systems. Immer wenn es durch Firmenneugründung, Erweiterung von Kapazitäten in neue technologische Bereiche oder technologische Veränderungen in bestehenden Produktionseinheiten zu einer im System als neu zu klassifizierenden Technologie kommt, ist die Möglichkeit für eine Strukturveränderung gegeben. Das Modell bietet die Möglichkeit, verschiedene Erneuerungsprozesse zu klassifizieren, sie mit Elementarprozessen auf der Mikroebene zu verbinden und sie gleichzeitig in ihrer möglichen Auswirkung auf die Systemstruktur auf der Makroebene zu untersuchen. Wenn wir annehmen, daß es im System bestehender Technologien zu einer gewissen stabilen Verteilung der Elemente - d. h. der Größe der technologischen Populationen - gekommen ist, so stellen alle Prozesse der Fälle (1- III) Störungen dieses Zustandes dar. Inwiefern sich eine solche Störung verstärken kann und damit letztendlich zu einer Innovation im Sinne der Erweiterung, Veränderung oder Ersetzung des vorhandenen Technologienpools führt, hängt wesentlich von der Gesamtheit und dem Wechselspiel sowohl der innovativen als auch der nichtinnovativen Prozesse im System ab. Besonders hinzuweisen ist in diesem Zusammenhang auf die Existenzgründungen (Fall I). Existenzgründungen spielen für die Erzeugung und Übernahme neuer Technologien in der Wirtschaft eine besondere Rolle. 31 Die schon bestehenden Firmen arbeiten vor der Einführung der neuen Technologie mit Gewinn (oder Verlust), in jedem Fall ohne unbedingt zuviel Geld für die Einführung einer neuen Technologie übrig zu behalten bzw. zur Verfügung stellen zu wollen, da sie ihre Gewinne im normalen Wirtschaftskreislauf (stationäres Gleichgewicht) anlegen, d. h. auf herkömmliche Art investieren können. Die Bedeutung der neuen Technologie vor ihrer Anwendung ist noch wenig bekannt und wird zwischen den einzelnen potentiellen Anwendern zumeist unterschiedlich beurteilt. In jedem Fall ist ihre Einführung ein Wagnis. Alle in Frage kommenden Individuen orientieren sich gleichermaßen im Systemganzen und wägen ihre Chancen ab, sie kommen jedoch bei hinreichender Komplexität des Systems zu sehr unterschiedlichen Ergebnissen. Die Zahl der potentiellen Anwender, die zu diesem Wagnis bereit sind und über das entsprechende know how verfügen, ist nicht unbedingt identisch mit der Zahl der potentiellen Anwender, die die Einführung der neuen Technologie vorfinanzieren könnten oder wollten. Zu dem entsprechenden Risiko haben bestehende Firmen zudem weniger Affinität als neue, die jedoch meist noch über wenig finanzielle Mittel verfügen. Der Prozeß der Durchsetzung der neuen Technologie ist andererseits akribisch abhängig von den Anfangsbedingungen, d. h. von der Anzahl der Firmen, die am Anfang des Prozesses für die Übernahme der neuen Technologie zur Verfügung stehen. Kredite sind daher von grundsätzlicher Bedeutung, um eine hinreichende Zahl von Anwendern und damit 31 Siehe dazu: Eberhard Bruckner; Zur evolutionsphysikalischen ModelIierung sozialer Prozesse am Beispiel von Existenzgründungen, Berlin 1996 (mirneo).

24*

372

Eberhard Bruckner, Wemer Ebeling und Andrea Schamhorst

die Einführung der neuen Technologie überhaupt zu ermöglichen. 32 Insofern stellt Risikokapital, wenn es relativ unbürokratisch bereitgestellt wird, eine entscheidende Starthilfe in der ersten Phase der Durchsetzung einer neuen Technologie dar.

2. Zusammenfassung - Innovation als Instabilisierung Zusammenfassend läßt sich sagen, daß das Auftreten von Innovationen auf der Ebene des Gesamtsystems immer mit Instabilisierung eines bestehenden und Restabilisierung eines neuen Zustandes in einem weiteren Selbstorganisationsschritt verbunden ist (Abbildung 1).

~tabilisierunG -":-t-rukturb:l:ng

I ;,

Selbstorganisation JIW

~

SO

~

- ...

Evolution als Folge von Selbstorganisationsschritten Abbildung I

Die Durchsetzung des Neuen, d. h. die Etablierung der Innovation im System im Verlauf eines Selektionsprozesses kann dabei zu einer Vergrößerung 33 , Verkleinerung 34 oder Veränderung 35 des Populationspools des Systems führen. In der Klasse der diskreten Modelle wird damit die Zahl der konkurrierenden Populationen - der Teilsysteme im System - zu einer zeitlich variablen Größe. Die mathematische Behandelbarkeit solcher systemstruktureller Veränderungen im Rahmen formaler Modelle wirft eine Reihe von Fragen auf. In der Simulation eines diskreten Systems können neue Varianten mit bestimmten Eigenschaften zufällig erzeugt und den herrschenden Wachstums- und Konkurrenzprozessen unterworfen werden. Dann sind z. B. Fragen nach dem Einfluß von Innovationsraten auf den Verlauf ebenda. Etwa wenn eine neue Technologie mit neuen Anwendungsbereichen zu den herrschenden Technologien (ergänzend) dazukommt. 34 Etwa wenn eine neue Technologie zum allmählichen Verschwinden einer Reihe von Technologien führt. 35 Etwa wenn eine bestehende Technologie durch eine andere ersetzt wird. 32

33

Technologischer Wandel und Innovation

373

von Trajektorien der Systementwicklung möglich. 36 Für eine analytische Beschreibung (etwa im Rahmen eines diskreten deterministischen Modells) ergeben sich eher Schwierigkeiten, da sich mit jeder neuen Population die Taxonomie des Systems verändert. Es tritt eine neue Systemvariable und entsprechend eine neue Differentialgleichung auf. Eine Möglichkeit der Approximation eines im Grunde als infinit anzunehmenden evolutionären Prozesses besteht in der Annahme eines hinreichend großen finiten Modells, bei dem die meisten möglichen Populationen nicht besetzt sind (sog. underoccupied systems 3?). 111. Aspekte von Innovationsprozessen: die Rolle von Nischen in einem technologischen Substitutionsprozeß

Betrachten wir den Substitutionsprozeß zwischen zwei Technologien (Ersetzungsprozeß einer bestehenden Technologie durch eine neue, bessere Technologie). Dabei handelt es sich um ein Problem, daß bereits seit Anfang der 60er Jahre mathematisch modelliert wird38 . Wir unterscheiden im folgenden zwischen Innovationen erster und zweiter Art. Unter einer Innovation erster Art verstehen wir einen Durchsetzungsprozeß, der einem linearen Wachstumsgesetz folgt und mit einem sog. normalen Selektionsprozeß verbunden ist. Eine Innovation zweiter Art liegt dann vor, wenn der Durchsetzungsprozeß einem quadratischen Wachstums gesetz folgt und eine hyperselektive Situation vorliegt. Der "klassische" Substitutionsprozeß stellt eine Innovation erster Art dar. Dabei wird die Durchsetzung einer neuen Technologie in Form eines S-förmigen, im wesentlichen logistischen, Wachstums 39 des Anteils dieser Technologie am gemeinsamen Markt beschrieben. 36 Siehe dazu als ein Beispiel die Untersuchungen von Silverberg und Verspagen zum Zusammenhang zwischen endogener Marktstruktur (etwa gemessen durch einen Konzentrationsindex) und einem stochastisch modellierten technischem Wandel (Geraid Silverbergl Bart Verspagen, Collective Leaming, Innovation and Growth in a Boundedly Rational, Evolutionary World, in: Journal of Evolutionary Economics, vol. 4, 1994, pp. 207 - 226; dieselben, From the Artificial to the Endogenous: Modeling Evolutionary Adaptation and Economic Growth, in: Ernst Helmstädterl Mark Perlman (Eds.), Behavioral Norms, Technological Progress, and Economic Dynamics. Studies in Schumpeterian Economics, Ann Arbor, MI 1996). 37 Werner Ebeling, lngrid Sonntag, A Stochastic Description of Evolutionary Processes in Underoccupied Systems, in: BioSystems 1986, vol. 19(2), pp. 91-100. 38 Siehe dazu die klassischen Arbeiten von Mansfield (Edwin Mansfield, Technical Change and the Rate of Imitation, in: Econometrica 1961, vol. 29, pp. 741-766) und Fisher und Pry (J. C. Fisher I R.H. Pry, A Simple Substitution Model of Technological Change, in: Technological Forecasting and Social Change 1971, vol. 3, pp. 75 - 88). Für einen Überblick über Arbeiten zu Innovationsausbreitung siehe: Everett M. Rogers, Diffusion of Innovations, New York 1962, I. Aufl., New York 1995,4. Aufl. 39 Für einen Überblick über spätere Generalisierungen des Fisher-Pry-Modells und der entsprechenden Lösungsfunktion (Verhulst-Pearl-Gesetz) siehe: Xiao Tingyan, A Combined Growth Model for Trend Forecasting, in: Technological Forecasting and Social Change 1990, vol. 38, pp. 175 - 186.

374

Eberhard Bruckner, Werner Ebeling und Andrea Schamhorst

Dieser Substitutionsprozeß kann als Resultat eines Wettbewerbs zwischen zwei technologischen Populationen verstanden werden. 4o Verschiedene aus diesem Ansatz hervorgegangene Modellentwicklungen dienen dabei vor allem einem besseren Verständnis der Mechanismen der Innovationsdiffusion, sowohl im Hinblick auf die Verknüpfung von ökonomischen und technologischen Prozessen41 als auch bezüglich der Rolle von Zufallsprozessen auf der Mikroebene der Akteure 42 • Insbesondere die stochastische Beschreibungsweise öffnet ein Möglichkeitsfeld zwischen extremen Situationen, wie "das (bessere) Neue setzt sich immer durch" auf der einen Seite43 und "das Vorherrschende blockiert die Entwicklung, so daß sich Neues nicht durchsetzen kann" auf der anderen Seite44 . Betrachten wir als Illustration dafür zunächst die - von Brian Arthur45 eingeführte - Modellierung einer Konkurrenzsituation zwischen zwei alternativen Technologien mit Hilfe eines stochastischen Polya-Urnen-Prozesses 46 • Ob die fortlaufenden Entscheidungen der Akteure für die eine oder die andere Technologie zu 40 Für erste ModelIierungen aus einer solchen populationsdynamischen Sicht vgl. z. Bsp.: V. Mahajanl R.A. Peterson, First-Purchase Diffusion Models of New-Product Acceptance, in: Technological Forecasting and Social Change 1979, vol. 15, p. 127; Batten (FN 11); KanneshulBhargavalJain (FN 23); S.c. Bhargava, Generalized Lotka-Volterra Equations and the Mechanism of Technologica1 Substitution, in: Technological Forecasting and Social Change 1989, vol. 35, pp. 319 - 326. 41 Siehe dazu etwa: Hugh M. Cameronl J. Stanley Metcalfe, On the Economics of Technological Substitution, in: Technological Forecasting and Social Change 1987, vol. 32, pp. 147162; J. Stanley Metcalfe, The Diffusion of Innovations: an Interpretative Survey, in: Dosil Freemanl Nelson I Silverberg I Soete (FN 3), pp. 560 - 589; Witold Kwasnickil Halina Kwasnicka, Long-Term Diffusion Factors of Technological Development: An Evolutionary Model and Case Study, in: Technological Forecasting and Social Change 1996, vol. 52, pp. 31 - 57; Gerald Silverberg I Giovanni Dosil Luigi Orsenigo, Innovation, Diversity and Diffusion: a Self-Organisation Model, in: The Economic Journal 1988, vol. 98(393), pp. 1032 - 1054; SilverberglVerspagen 1996 (FN 36). 42 Gerald Silverberg, Adoption and Diffusion of Technology as a Collective Evolutionary Process, in: Technological Forecasting and Social Change 1991, vol. 39, pp. 67 - 80; W Brian Arthur, Competing Technologies, Increasing Returns, and Lock-in by Historical Events, in: The Economic Journal 1989, vol. 99, pp. 116- 131; Joäo Lizardo de Araujo (FN 25); Loet LeydesdorffI Peter Van den Besselaar, Competing Technologies: Disturbance, Selection, and the Possibilities of Lock-In, in: Daniel M. Dubois (Ed.), Computing Anticipatory Systems, Liege 1997, pp. 60 - 64; Thomas Brenner, A Leaming Perspective on the Diffusion of Innovations - Path Dependence and Lock-ins, Jena 1997 (mimeo); BrucknerlEbelinglJimenezMontafiolScharnhorst 1996 (FN 25). 43 einfache oder Darwinsche Selektion 44 Hyperselektion 45 W Brian Arthur, Competing Technologies: an Overview, in: Dosil Freemanl Nelson I SilverberglSoete (FN 3), pp. 590 - 607; ders. (FN 42). 46 Historisch wurden Urnenmodelle von Ehrenfest zur stochastischen ModelIierung des Wärmeaustauschs eingeführt (P. EhrenfestlT. Ehrenfest, Über zwei bekannte Einwände gegen das Boltzmannsche H-Theorem, in: Physikalische Zeitschrift 1907, vol. 8, S. 311-314). Zu einer Klassifikation verschiedener Typen von Urnenmodellen siehe auch William Feiler, An Introduction to Probability Theory and its Applications, vol. I, New York 1970.

Technologischer Wandel und Innovation

375

einer Koexistenz oder Selektion zwischen den beiden Alternativen führt, hängt bekanntlich von der Art der Verknüpfung der zu erwartenden Erträge (returns) mit dem bisherigen Verlauf des Diffusionsprozesses zusammen. 47 Im Fall der Existenz von Netzwerkeffekten (increasing returns) beobachtet man das Auftreten von absorbierenden Barrieren. Wächst in dem stochastischen Entscheidungsprozeß die Differenz zwischen den Nutzem der zunächst in einem gewissen Sinne gleichwertigen Technologien über einen kritischen Wert, so beobachtet man eine Symmetriebrechung im Sinne des konsequenten Einlaufens in eine der Technologien ("Lock-in") und den Ausschluß der anderen Alternative. In diesem Fall gewinnt die Technologie, die zuerst eine gewisse "kritische Masse" erreicht. 48 Das Auftreten von "Lock-ins" ist ein Langzeiteffekt, zwischenzeitlich ist Koexistenz möglich. Die Geschwindigkeit des Einlaufens in die absorbierenden Zustände hängt wesentlich von der Größenordnung des Netzwerkeffektes ab. Dabei können verschiedene Einflüsse einen beginnenden "Lock-in"-Prozeß auch urnkehren. 49 Einflüsse von Anfangsbedingungen, Marktgröße und der Natur der modellierten elementaren Entscheidungsprozesse auf der Akteursebene auf den Durchsetzungsprozeß technologischer Innovationen sind auch in anderen Modellkontexten untersucht worden 5o . Die Resultate führen zu differenzierteren Aussagen über System-Umwelt-Bedingungen, unter denen sich Innovationen in einem System behaupten können. Modifikationen des Systemverhaltens durch die Berücksichtigung von Fluktuationen haben auch die Autoren des vorliegenden Beitrags bei der Modellierung des Substitutionsprozesses zwischen konkurrierenden Technologien mit Hilfe eines speziellen stochastischen Evolutionsmodells untersucht. 51 Am Beispiel dieses Modellansatzes wollen wir in diesem Abschnitt der Frage nachgehen, wie mögliche Aussagen derartiger Modelle über die Bedingungen von Innovationsprozessen zu bewerten sind. Dabei werden die grundlegenden Modellannahmen, mögliche Modellaussagen und ihre empirische Relevanz dargestellt. 52

47 Arthur unterscheidet zwischen konstanten (unabhängig von der Zahl der bisherigen Nutzer), abnehmenden (invers zur Zahl der bisherigen Nutzer) und wachsenden zu erwartenden Erträgen. 48 Ullrich Witt, "Lock-in" vs. "Critical Masses" - Industrial Change under Network Externalities, in: International Journal of Industrial Organisation 1997, vol. 15, pp. 753 - 773. 49 Zur Untersuchung verschiedener Möglichkeiten des Systemverhaltens im Rahmen dieses Modells siehe auch LeydesdorfflVan den Besselaar (FN 42). Wie diese Autoren diskutieren, ist der Lock-in Effekt relativ stabil gegenüber einem Wechsel in den Präferenzen der Nutzer, während das System auf Veränderungen im Netzwerkparameter sensibler reagiert. Unsicherheit der Nutzer über Marktanteile kann ferner dazu führen, daß das Einlaufen in eine Technologie für längere Zeit aufgeschoben wird und sich das System in einem metastabilen Koexistenzzustand aufhält. 50 vgl. etwa Araujo (FN 25), Brenner (FN 42). 51 Bruckner I Ebeling I liminez-Montafio I Schamhorst 1996 (FN 25). 52 Für technische Details sei auf die Originalarbeit verwiesen.

376

Eberhard Bruckner, Wemer Ebeling und Andrea Schamhorst

Den Ausgangspunkt bildet ein stochastischer Entscheidungsprozeß53 , wobei die Wahl zwischen zwei Technologien durch bestimmte Wahrscheinlichkeitsraten festgelegt wird. Durch eine Anfangsbedingung, in der die neue Technologie B mit einem Innovator startet und alle anderen Akteure (i. S. von Firmen oder Produktionseinheiten) der bestehenden (dominanten) Technologie A zugeordnet werden, wird ein Infektionsprozeß des Systems mit einer neuen Variante beschrieben. Die neue Technologie erscheint dabei als Störung eines stabilen Systemzustandes. Betrachten wir zunächst eine Innovation erster Art. Charakteristisch für den Ansatz ist dann, daß die Rekrutierungswahrscheinlichkeit von Nutzern durch eine Technologie mit der bereits vorhandenen Zahl von Nutzern dieser Technologie wächst. 54 Eine weitere Besonderheit entsteht durch die Begrenzung des Marktes bzw. der Zahl aller Akteure. Unter der Bedingung, daß sich diese Zahl (Raum der Konkurrenz bzw. Marktgröße) nicht ändert, sind alle Entscheidungsprozesse per Definition Übergangsprozesse von Akteuren zwischen den beiden existierenden technologischen Varianten. Das hat Konsequenzen, die im mathematischen Formalismus sichtbar werden. Die Wahrscheinlichkeit von einer Technologie A zu einer Technologie B überzugehen, hängt dann neben der Zahl der Nutzer dieser Technologie B auch von der Zahl der Nutzer der Technologie A ab. Das Wachstum der Technologien ist die Folge von wechselseitigen Imitationsprozessen. Im Fall einer linearen Kopplung der Übergangsrate an die Größe der Ziel-Population 55 läßt sich zeigen, daß die stochastische Dynamik im Limes für große Ensembles (bzw. kleine fluktuationen) zu einem Substitutionsprozeß im Sinne von Fisher-Price führt. Die Stringenz der Durchsetzung einer neuen (besseren)56 Technologie im deterministischen Bild im Sinne einfacher Darwinscher Selektion wird allerdings im stochastischen Bild dahingehend modifiziert, daß sich 1. die neue Technologie nicht mit Sicherheit, sondern nur mit einer bestimmten Wahrscheinlichkeit durchsetzt, und 2. auch Technologien mit ungünstigeren Parametern eine (wenn auch geringe) Überlebenswahrscheinlichkeit besitzen. Im Fall einer Innovation zweiter Art sind bei der Ausbreitung der Technologien nichtlineare Wachstums- (bzw. Ausbreitungs-)Effekte im Spiel. Dann löst sich die Stringenz der Durchsetzung des "Besseren" auf57 und wir beobachten ein grundsätzlich anderes Systemverhalten. Betrachten wir dazu zunächst das deterministische Modell. Im einfachsten Fall eines rein quadratischen Wachstums 58 existieren

modelliert als Markov-Prozeß mit einern Mastergleichungsformalismus. Dies entspricht einern autokatalytischen Prozeß. 55 D. h. die Übergangswahrscheinlichkeit Weines Nutzers von der Technologie Azur Technologie B ist definiert als W(A --> B) = EBN ANBIN. 56 im Sinne größerer Wachstumsraten E B . 57 Im einfachsten Fall sind die Wachstums- bzw. Ausbreitungsraten der Technologien quadratisch (hyperlogistisches Wachstum) und die entsprechenden Übergangsraten im stochastischen Modell proportional zum Quadrat der Ziel-Technologie; d. h. Wahrscheinlickeit des Übergangs von Technologie B zu Technologie A ist proportional zu Nl und NB. 53

54

Technologischer Wandel und Innovation

377

drei stationäre Systemzustände (Technologie A gewinnt, Technologie A und B koexistieren und Technologie B gewinnt). Der Koexistenzfall ist instabil gegenüber Fluktuationen, er markiert die Separatrix zwischen den beiden anderen Attraktoren (Bistabilität). Das Modell der Konkurrenz von Technologien mit solchen Wachstumseigenschaften ist analog zur Selektion zwischen Hyperzyklen. Befindet sich das System erst einmal in einem der beiden Zustände, d. h. hat sich eine Technologie durchgesetzt, dann entspricht das Innovationsproblem (Infektion) der Frage, ob und unter welchen Bedingungen das System zwischen den beiden Attraktoren wechselt. Der Vergleich beider Technologien (alter und neuer) hinsichtlich ihrer Wachstumseigenschaften ist dabei eher sekundär. 59 Das Charakteristische des Hyperselektionsfalls liegt gerade darin, daß der einmal stabilisierte Zustand stabil gegenüber allen Störungen ist, auch wenn die neue Technologie "besser" ist. Entscheidend ist, in welchem Attraktorbassin, d. h. mit welcher Anfangsbedingung beide Technologien in Konkurrenz treten. Die Symmetriebrechung hängt dabei von dem Verhältnis der Anfangsgrößen und der Ausbreitungsgeschwindigkeiten beider Technologien ab. Die Separatrix definiert den Schwellwert N* für die neue Technologie, es gilt: (1)

NN* =0:+1

wobei N die Systemgröße (N = NA raten der Technologien

+ NB)

und a der Quotient der Wachstums-

(a = !:) oder der Selektionsvorteil der Technologie B

ist. 6o Für NB(t = 0) < N* verschwindet die neue Technologie und das System läuft in den Zustand, in dem die Technologie A dominant ist, für NB(t = 0) > N* gewinnt die Technologie B mit Sicherheit. Der Selektionsvorteil geht in die Lage des Schwellwertes ein. Aus Gleichung 1 ist unmittelbar zu ersehen, daß N* linear mit N wächst und hyperbolisch mit a abnimmt. Je größer das Gesamtsystem ist, desto größer muß die Anfangszahl der Nutzer sein, um einer "besseren" Technologie zum Durchbruch zu verhelfen. Ist die Technologie B schlechter als die Technologie A, so kann sie nur gewinnen, wenn wir von einer Anfangssituation ausgehen, in der diese Technologie bereits über 50 % des Marktes beherrscht. Andererseits ist dies genau der Mechanismus, mit dem sich bereits etablierte Technologien gegen Alternativen behaupten können. Auch wenn die Technologie B bessere Wachstumschancen bietet, muß sie immer noch mit der Übernahme großer Marktanteile starten. Ein einzelner Nutzer oder Akteur müßte mit einer um das (N-l)-fache besseren Alternative starten, um andere Akteure zu einem Substitutions schritt zu be58 D.h. die Rekrutierung von Nutzern durch eine Technologie wächst mit dem Quadrat der bereits vorhandenen Zahl von Nutzern dieser Technologie. 59 Der Selektionsvorteil spielt insofern eine Rolle als das Verhältnis der Parameter beider Technologien die Lage der Separatrix bestimmt. 60 Für 0: > 1 ist die Technologie B "besser" oder fitter im Sinne der Kopplung der Fitness an die Wachstums- oder Reproduktionseigenschaften der Population.

378

Eberhard Bruckner. Wemer Ebeling und Andrea Schamhorst

wegen. Der Fall eines hyperbolischen Wachstums also scheint die Situation einer ..once for ever"-Selektion zu beschreiben. in der die innovative Folge von Substitutionsprozessen abbricht. Der Übergang zum stochastischen Bild modifiziert diese strenge Aussage nicht nur. er zeigt auch die einzige Möglichkeit. wie singuläre Ereignisse auch in solchen scheinbar eingefahrenen Situationen den Weg der Evolution wieder neu öffnen. Startet eine neue Technologie. die doppelt so gut ist wie die bestehende (a = 2). mit einem einzelnen Nutzer bzw. Anbieter (NB (t = 0) = I), so hat sie im deterministischen Modell keine Durchsetzungschance, wenn sie auf mehr als 2 Konkurrenten trifft. 61 In einem Fluktuationen berücksichtigenden stochastischen Modell sind die Chancen in großen Populationen immer noch gering, aber sie sind nicht mehr aussichtslos. Bei insgesamt zehn Konkurrenten hat eine um das Doppelte bessere Technologie immerhin schon eine Überlebenswahrscheinlichkeit von 2 % und diese erhöht sich auf 20 % bei einer weiteren Halbierung der Zahl der sich im Wettbewerb befindlichen Akteure. 62 (Abbildung 2)

Nischeneffekt bei der Durchsetzung einer Innovation (Hyperselektionsfall)

.""..

~ 0.8

- N=2 _ N=10

i:

'Qj

.s::. 0

l!!

_ N=20

.s::. 0,6 ca

~ c:

- N=50 - N=100

1:

..

~ 0,4

.0

'::l

0,2

0 0,01

0,1

10

100

Selektionsvorteil

Abbildung 2 61 Startet die Innovation mit einem singulären Ereignis (NB(t = 0) = I). dann liegt die kritische Größe des Marktes (NA + NB) in dem eine Duchsetzung möglich ist bei (a + I). 62 Die entsprechenden Separatrixpunkte liegen bei N* = 3,3 für N = 10 und bei N* = 1,7 für N = 5. Aus Gleichung 1 folgt. daß eine Technologie mit verdoppelten Wachstumsaussichten bei ihrem Eintritt über 30 % des Marktes einnehmen muß.

Technologischer Wandel und Innovation

379

Die Aussagen des stochastischen Bildes tragen Wahrscheinlichkeitscharakter. Die verschiedenen Realisierungen eröffnen daher einen weiteren Spielraum des Systemverhaltens. Simulationen zeigen, wie der erfolgreiche Durchsetzungsprozeß an das Auftreten und Verstärken von Fluktuationen gebunden ist. Die neue Variante kann dabei auch zeitweilig wieder verschwinden, aber eine zufällige Verstärkung kann das System auch über die Separatrix tragen und den Übergang in einen strukturell neuen Systemzustand auslösen. Die starke Abhängigkeit der Überlebenswahrscheinlichkeit einer Innovation von der Ensemblegröße legt den Schluß nahe, daß die Einführung einer neuen Technologie über Nischen im Sinne begrenzter Wettbewerbsräume erfolgt. Empirische Analysen zur Einführung alternativer Technologien scheinen dies zu bestätigen. 63 Die neue Technologie hat in ihrer Anfangs gestalt nahezu keine Chance gegen eine monopolistisch existente Technologie. 64 In einer Marktnische kann sich die neue Technologie mit kleinen Produktionszahlen entwickeln, um in einer zweiten Phase der Durchsetzung auf dem gesamten Markt mit der bis dato herrschenden Technologie erfolgreich zu konkurrieren. Das im geschützten Raum vollzogene Wachstum sorgt für eine verbesserte Ausgangsposition für den Wettbewerb in einem erweiterten Markt. Im Modell spiegelt sich das in der Abhängigkeit der Überlebenswahrscheinlichkeit von der Anfangsgröße der neuen, besseren technologischen Variante wider. Bei gegebenen Werten (N, a) wächst die Überlebenswahrscheinlichkeit mit wachsendem Anfangs wert. 65 Begrenzte Wettbewerbsbereiche wirken als Nischen für das Überleben von Neuem und stellen insbesondere in einer Situation einer dominierenden, 63 In einer vergleichenden Analyse der Entwicklung verschiedener Eisengußtechnologien und ihrer Diffusionsverläufe in Deutschland und Frankreich kamen Foray und Grübler zu dem Schluß, daß die Einführung einer neuen Technologie in zwei Phasen verläuft. In der ersten Periode kommt es zu einer schnellen Übernahme der neuen Technologie in Marktnischen (Losgrößenproduktion). Erst in einer zweiten Phase erfolgt die Übernahme in Bereiche der Massenproduktion (Dominique Foray / Amuif Grübler, Morphological Analysis, Diffusion and Lock-Out of Technologies: Ferrous Casting in France and the FRG, in: Research Policy 1990, vol. 19, pp. 535 - 550). 64 Foray und Grübler schreiben dazu: "According to Rosenberg and Frischtak [Long Waves and Economic Growth, in: The American Economic Review - Paper and Proceedings, May 1983]:'New inventions are typically very primitive at the time of their birth. Their performance is usually poor, compared to existing (alternative) technologies as weil as to their future performance.' Thus, when a new technology is introduced in its initial ... form, it has virtually no chance of imposing itself, even if the old technology is 'inherently inferior'. The latter has profited from its monopolistic period ... In this respect, our case study displays the crucial nature of an initial diffusion in a highly specialized marke!. In this first period the new technology, 'protected' by a high value-added differential, may improve within a 'quasi in vitro' development, so to speak. Thus shielded, the new technology may acquire industrial properties via the mechanisms related to the increasing returns to adoption, gradually armouring itself for competition. Between 1950 and 1970, the GP process [gasifiable pattern process technology, d. A.] improved ina virtually underground fashion in the FRG; it was later able to enter the main competition area under auspicious conditions. Having missing the first phase, France is now missing the second one." (Foray/Grübler (FN 63), S. 548). 65 siehe Bruckner / Ebeling / limenez-Montaiio / Schamhorst 1996 (FN 25).

380

Eberhard Bruckner, Wemer Ebeling und Andrea Scharnhorst

ausschließlichen Technologie (Hyperselektionsfall) die einzige Möglichkeit dar, wie ein einmal angenommener Zustand wieder verlassen werden kann. In den Nischen sind die globalen Selektionsregeln in gewisser Weise neutralisiert. Nachdem sich das Neue in solchen Nischen behauptet hat, kann es schrittweise größere Bereiche erobern und sich letztendlich im Gesamtsystem durchsetzen. Die Nische ist also in einern gewissen Sinne dynamisch. Das hier diskutierte Beispielsystem beleuchtet einen Selbstorganisations- oder Strukturbildungsprozeß in miteinander verwobenen evolutionären Folgen. Die Einschränkung der Wettbewerbssituation auf bestimmte Wachstums- und Marktbedingungen und die Betrachtung nur zweier Technologien spezifiziert diesen Strukturbildungsprozeß zu einem einfachen Substitutionsfall. Ohne weiteres lassen sich derartige Modellvorstellungen auf eine Folge von solchen Substitutionsschritten erweitern. Verbunden mit einer Entwicklung der herrschenden Technologie während einer einzelnen Wettbewerbsperiode (etwa im Sinne eines Reifungsprozesses oder Lebenszyklus) kann ein solches Modell zur Erklärung von Wechseln von kontinuierlichen und sprungweisen Phasen innovativer Prozesse dienen. 66 IV. Zusammenfassung

Technologischer Wandel läßt sich durch kontinuierliche und diskrete, deterministische und stochastische Modelle beschreiben. In der vorliegenden Arbeit wurde gezeigt, wie durch gezielte Anwendung verschiedener Beschreibungsfonnen einer Modellklasse differenzierte Aussagen zur Durchsetzung von Innovationen gemacht werden können. Insbesondere wurde die Frage diskutiert, auf welche Weise unterschiedlich sich das Entstehen des Neuen in verschiedenen Modelltypen abbilden läßt, welche Aussagekraft solche Modelle haben und wo ihre Grenzen liegen. Der Prozeß der Entstehung und Durchsetzung einer neuen Technologie spielt sich auf den unterschiedlichen Ebenen des ökonomischen Systems unterschiedlich ab. Zu der Erscheinungsweise der Innovation auf der Systemebene (Makroebene) wurden in einem Beispiel die Prozesse in Beziehung gesetzt, die auf der Unternehmensebene (Mikroebene) die Durchsetzung der neuen Technologie bedingen. Das erste Auftreten einer neuen Technologie im System (Makroebene) kann nur in ihrer Einführung durch ein Unternehmen (Mikroebene) bestehen. In diesem Fall werden Mikro- und Makroebene durch den gleichen Prozeß charakterisiert, der auf beiden Ebenen Neuerungscharakter hat. Der Sprung von Null auf Eins spielt insofern bei der Besiedlung der technologischen Populationen eine besondere Rolle. An dieses singuläre Ereignis schließt sich eine Durchsetzungsphase der neuen Technologie an, die durch Wachstum bedingt ist, d. h. durch Prozesse, die auf der 66 siehe Werner Ebeling I Miguel A. Jimenez-Montano I Karmeshu, Dynamics of Innovations in Technology and Science Based on Individual DeveIopment, in: Schweitzer 1997 (FN 11), pp. 407 - 414.

Technologischer Wandel und Innovation

381

Ebene des Systems keinen Innovationscharakter (i. S. der Erscheinung einer neuen Qualität) mehr haben. Die Durchsetzung der neuen Technologie wird auf der Ebene der Unternehmen (Mikroebene) von einer Vielzahl von Prozessen begleitet. Einige von ihnen haben auf der Mikroebene Neuerungscharakter, andere nicht. Unabhängig von ihrem unterschiedlichen Charakter tragen jedoch alle diese Prozesse makroökonomisch zu dem gleichen Resultat bei. Neu für das Unternehmen kann sowohl die Übernahme einer neuen Technologie sein als auch einer etablierten, die beide schon in anderen Unternehmen des Systems Verwendung finden. Diese mikroökonomische Erneuerung kann überdies auf ganz unterschiedliche Weise erfolgen: die Anwendung der neuen Technologie kann mit dem Aufbau einer neuen Firma bzw. einer neuen Produktionseinheit eines bestehenden Unternehmens einhergehen oder sie kann in der Ersetzung einer alten Technologie in einer bestehenden Firma bzw. Produktionseinheit bestehen. Zur Durchsetzung der neuen Technologie kann ferner ein Prozeß beitragen, der mikroökonomisch keinerlei Neuerungscharakter hat, etwa wenn in einem bestehenden Unternehmen, das die neue Technologie bereits anwendet, eine weitere Produktionseinheit mit dieser Technologie hinzugefügt wird. In diesem Sinne tragen unterschiedliche Elementarprozesse, die im Modell zu spezifizieren sind, zur Durchsetzung der neuen Technologie im System bei. Diese unterschiedlichen Prozesse müssen durch Ökonomie und Soziologie einzeln erforscht und ihre Bedeutung für den kollektiven Gesamtprozeß ausgewiesen werden. Eine Übersicht wurde in dieser Arbeit diskutiert und in Tabelle I dargestellt, wobei auf die Rolle des Aufbaus kleiner Firmen bzw. neuer Produktionseinheiten großer Firmen eingegangen wurde. Der für die Einführung neuer Technologien besonders relevante Fall der Existenzgründungen wurde diskutiert. Wie Untersuchungen zur Funktion kleiner Unternehmen für die Innovationsfähigkeit eines Wirtschaftssystems gezeigt haben, spielen bei der Einführung und Verbreitung von Innovationen Existenzgründungen eine herausragende Rolle. Die Einführung einer neuen Technologie ist in jedem Fall ein Wagnis. Über ihre Marktchancen wird es vor der Einführung wenige Informationen und sich unter Umständen widersprechende Abschätzungen geben. Für eine bestehende Firma kann es jedenfalls ratsamer erscheinen, den risikoreicheren Investitionsbereich der neuen Technologie zu meiden und ihre Gewinne im normalen Wirtschaftskreislauf (stationäres Gleichgewicht) anzulegen, d. h. auf herkömmliche Art zu investieren. Die Zahl der potentiellen Anwender, die die Einführung der neuen Technologie vorfinanzieren könnten oder wollten, ist daher nicht unbedingt identisch mit der Zahl der potentiellen Anwender, die zu einem solchen Wagnis bereit sind und über das entsprechende know how verfügen. Für Firmenneugründungen mag dagegen die einzige Überlebenschance in dem entsprechenden Risiko der Einführung einer Innovation bestehen. Da neue Firmen zumeist kaum über eigene finanzielle Mittel verfügen und andererseits auch nicht auf sie verzichtet werden kann, da der Prozeß der Durchsetzung der neuen Technologie akribisch von den Anfangsbedingungen abhängt, d. h. von der Anzahl der Firmen, die am Anfang des Prozesses für die Übernahme der neuen Technologie zur Verfügung

382

Eberhard Bruckner, Werner Ebeling und Andrea Scharnhorst

stehen, sind Kredite von grundsätzlicher Bedeutung, um eine hinreichende Zahl von Anwendern und damit die Einführung der neuen Technologie überhaupt zu ermöglichen. Insofern stellt Risikokapital eine entscheidende Starthilfe in der ersten Phase der Durchsetzung einer neuen Technologie dar. Auf die Sensibilität und Relevanz der Anfangsphase bei der Durchsetzung von Innovationen weisen auch mathematische Analysen verschiedener Innovationsdynamiken in Substitutionsprozessen hin. Wie solche Analysen, insbesondere mittels stochastischer Evolutionsmodelle, zeigen, ist die schematische Übertragung des Darwinschen "survival of the fittest" kein geeignetes Modell der Technologieentwicklung. Unter den Bedingungen eines superschnellen Wachstums wäre die technologische Evolution vermutlich schnell beendet und durch "Hyperselektion" ersetzt (einen Zustand, in dem bestehende Technologien ihre Dominanz gegenüber jedweder Veränderung erfolgreich behaupten). Die mathematische Analyse zeigt, daß im Fall ausgeprägter Nichtlinearitäten neben der Produktqualität ("besser") vor allem auch der Zeitpunkt und die Art und Weise der Einführung einer neuen Technologie entscheidend für ihre Durchsetzung am Markt ist. Neue Technik ist am Markt zunächst meist durch eine dynamische Nische geschützt, in der die noch weithin unbekannte Variante nur einem begrenzten Wettbewerbsdruck unterliegt. Empirische Analysen zur Einführung alternativer Technologien scheinen dies zu bestätigen. Eine neue Technologie hat in ihrer Anfangsgestalt nahezu keine Chance gegen eine monopolistisch existente Technologie. In einer geschützten Marktnische und mit kleinen Produktionszahlen kann sich eine neue Technologie entwikkein, um in einer zweiten Phase der Durchsetzung auf dem gesamten Markt mit der bis dato herrschenden Technologie erfolgreich zu konkurrieren. Die geschützte Marktnische in der ersten Phase der Durchsetzung stellt dabei eine notwendige Bedingung für eine langfristig dauerhafte Innovation dar.

The Innovation vs. Standardization Dilemma: Some Insights from Stochastic Interactions Models 1 By Jean-Michel Dalle, Cachan and Dominique Foray, Paris

I. Introduction A new set of questions is today emerging in the economic literature. These questions deal with the decisive (or negligible) character of any individual action. This issue is general (raised in many theoretical fields), challenging the obvious idea of invariability regarding the economic value (or impact) of individual behaviors. In their paper 'When are agents negligible', Levine and Pensendorfer2 observe that in a dynamic setting equilibria can be radically different in a model with a finite number of agents than in a model with a continuum of agents. This difference is caused by a feature of disappearance of information in the continuum. While with a finite number of players, any deviation of a player is perfectly observable (even though individual actions are unobservable, a slight deviation of aggregate play from the equilibrium outcome indicates that someone must have deviated), the play of one single agent does not affect the observed outcome in the continuum case. Thus, in this case agents are negligible; that is to say the individual action is unobservable at the agregate level. At first glance, the same type of question appears today, as a result of the evolution of a rather different research programme. This research programme devoted to 'stochastic interactions modelling', develops tools and technics in order to study the spontaneous emergence of structures (technology, norms, institutions) in the presence of positive feedbacks. One important (but still neglected) result of this programme deals with the variability of the economic values which can be associated with innovative and irnitative behaviors, respectively. The economic values of innovation and imitation (or of exploration and exploitation) should not be considered as invariable dimensions. They change along the technological cycle: in general the economic value of exploration and innovative behaviors is very high at 1 We are grateful to Frank Schweitzer and Gerald Silverberg for encouragement and invaluable editorial help and we are indebted to Paul A. David for scholarly advice. The final responsability for the contents of the paper of course rests with uso 2 D. Levine and W. Pesendoifer, 1995, When are agents negligible?, in:American Economic Review, 85.

384

Jean-Michel Dalle and Dominique Foray

the beginning of the technological life cycle. When the system is in a phase of great uncertainty regarding the respective properties and values of various options, these behaviors are highly beneficial, allowing it to broaden the field of experiments and to explore a large variety of options. Then the value of exploration is decreasing as uncertainty about qualities and properties of its variants declines. It can even be negligible if it is carried out beyond the critical point where enough information has been gained. To be potentially valuable creativity and innovation must, therefore, be associated with a system which is in its experimentation phase. However, to be effectively valuable for the system, creativity must be associated with some kinds of informational structures wh ich can support the coordination of experiments and knowledge sharing. Thus, a given individual action can be decisive at certain periods of time, while negligible at some other periods. We cannot once and for all ascribe a given economic value to innovation and imitation. The question 'when agents are negligible' takes here a new sense. Through that question, we address a problem of technological cycle; each phase of the cycle (diversity and standardization) being a specific context for the analysis of the properti es of individual actions. It is of course a very different problem than the issue of non-observability and information disappearance addressed by Levine et al. 3 In our approach, the technological cycle must be analysed and partitioned into different phases, in order to understand when agents are negligible and when they are decisive. One difficulty is that the technological cycle is two-sided, including both spatial and temporal aspects. This dual structure means that some kinds of transfer will occur between time and space, as principles determining the nature of actions (decisive or negligible).

In this paper, we first need to differentiate between various technologie al situations and to explain why these differences matter for analysing the econornic value of individual actions. We will then define the economy of creativity as an economy in which the econornic value of innovative behavior is positive. We will argue then that the innovator can hirnself produce the economy in which his actions acquire a great economic value, either by delaying the critical moment of standardization or by rnigrating to other spaces. Finally we will develop some tools - based on stochastic interactions models - to define some of the parameters of an economy of creativity. 11. The framework The fact that the economic value of an individual action is dependent upon technological cycles is a simple result of the economics of technical change: it is, obviously, in the presence of high uncertainty about the future payoffs of various new 3

Levine and Pensendorfer (FN 2).

Some Insights from Stochastic Interactions Models

385

technologies (during the initial period of the cycle) that the value of experimentation, exploration and creativity is very high. When uncertainty starts to decrease, selection and standardization become actions of high economic value.

1. Technological cycle and the economic value of creativity4

When a new technology first appears as a possible solution to economic or technical problems, it is typically not well-understood. The degree to which any particular technology is subject to uncertainty about its characteristics and costs varies with the extent to which the technology is new and novel, but for some technologies it can be extreme. When this is the case, developing the technology will involve a considerable amount of leaming about its functions, performance, and operational characteristics. Different types of leaming tend to occur during different phases. When there is a large amount of uncertainty about the technical functions and economic merits of a new technology, its first introduction typically ushers in aperiod during which many variants are formulated, tried out and even tested with potential consumers or users. After this period of experimentation, one, or perhaps a small number of variants will emerge as 'standard practice' or 'dominant design'. The selection can be passive, through the competitive market mechanism, for example; or active, as in the case when a dominant economic or political actor decides that a particular variant should become the standard. When the development of a technology conforms to this pattern, two types of leaming are distinguishable. The first type of leaming is extensive learning or 'leaming from exploration', which involves experimentation with a variety of options, and through the results of the experimentation, leads to the elimination of certain avenues of development. In this phase, the objective is to gain broad knowledge of many possible avenues by which the problem at hand can be attacked. The second type of learning can be called intensive leaming or 'leaming from exploitation and standardization', in which attention is concentrated on one technological variant, making it easier to identify empirical irregularities, anomalies and problem areas deserving further investigation, correction and elaboration5 . Here, a choice has been made, either actively or passively, and one solution has 4 This section draws upon R. Cowan and D. Foray, 1995, Quandaries in the economics of dual technologies and spillovers from military to civilian research and development, in: Research Policy, 24, 851- 868.; and R. Cowan and D. Foray, 1996, The changing economics of technological learning: Implications for the distribution of innovative capabilities in Europe, in Vence-Deza and Metcalfe, eds., Wealth from Diversity (Dordrecht: Kluwer), 75 - 102. 5 P. A. David and G. Rothwell, 1996, Standardization, diversity and learning: strategies for the coevolution of technology and industrial capacity, in:lnternational Journal of Industrial Organization, 14, 181 - 201; R. Cowan, 1991, Tortoises and hares: choice among technologies of unknown merit, in: The Economic Journal, 101,801- 814.

25 Selbstorganisation, Bd. 9

386

Jean-Michel Dalle and Dominique Foray

been selected. The learning here involves discovery, no longer of broad implications regarding exploration of different solutions, but rather of the details about how to make this particular solution most effective. We have, thus, a model involving two phases. The optimal timing of a changeover from a diversity of technical solutions to standardisation on one technology depends on the amount of experimentation that has been done with different variants of the technology. Introducing a standard too early could prematurely end the period of experimentation and lead to the diffusion of an inferior technology, whereas late introduction may result in excess of novelty, and the formation of wrong expectations about the chances of competing technologies - there will be users who adopt technologies which will not be selected as the future standard. From this generic representation of technical change and evolution, one can derive various avenues for modelling technical choices in the presence of uncertainty 6. Both learning regimes have a specific value. The value of experimentation is to increase the probability of selecting the best variant. The value of standardization is to realize static efficiency gains through economies of scale and the accumulati on of learning on a particular option. But those values are not fixed once and for all. Neither exploration nor exploitation are 'good or bad by nature'. These options will be desirable in a certain set of circumstances; and undesirable in other contexts. This suggests a need for policies to maintain exploration, but with the foresight that at some point in time exploration can decrease benefits by preventing economies of scale, areduction in costs through intensive learning about a technical option, and the potential for network extemalities. 2. From potential to effective pdyofffrom creativity

A market with many firms, each doing its own experiments, will be characterized by considerable technologie al diversity, as each firm is likely to have a slightly different approach to the technical challenges it encounters. The market may face a dilemma, however, when trying to capture the benefits from this diversity. In order for a diversity of approaches in the early stages of a technology to be valuable in its future development, the information or knowledge generated by the different experiments must become re1atively public. Only when this is the case does the experience of one agent reduce the uncertainties of other agents, and play a part in cross-fertilization. But if information is made public, there is an incentive to free ride. But empirie al evidences show that some organizational designs can allow agents to cope with those problems; that is to say they can increase the social value of innovation and creativity by organizing the wide and quick dissemination of the new information. 6

See in particular Cowan (FN 5).

Some Insights from Stochastic Interactions Models

387

111. On the economy of creativity

The arguments developed above emphasize the time sensitivity of technological cycles. The timing of the process seems to be structured by the existence of a 'tipping point', splitting the selection process into two phases; a first one in which a certain flexibility is preserved and learning about the various options occurs; and a second one in which the system is collectively oriented towards the standardization of one solution which allows it to benefit from economies of scale, network extemalities and common expectations. We thus get a first broad principle of explanation with regard to the variability of the economic value of individual actions. Any creative action carried out during the first phase allows the collective system to learn. These actions, thus, acquire a certain economic value, provided that the organizational structures of the economy permit information exchanges and coordination among the decentralized creative projects. Any creative action carried out during the second phase can be analysed as generating an inefficient distribution of cognitive resources within the system because such a distribution reduces the gains expected from the concentration of resources on one (or a few number of) option. There is thus a temporal window in which creativity must be supported. Various classes of stochastic interaction models allow the development of tools and techniques to identify and measure the length of this temporal window. In the modelling approach based on the framework of Polya um models 7 , the length of the window corresponds to the initial phase during which the adoption probabilities of the various options remain rather similar. Simulations show that the length is highly variable and depends upon the sequence of initial drawings. Under an extreme condition of strong regularity and symmetry in the entry process among agents having opposite preferences, the length can be infinite (in that case the performance of the competing technologies can increase in the same proportion).

In the modelling approach based on stochastic interactions among a finite population of agents who have to made individual revision policies 8, the temporal window corresponds to a first period - perhaps very short, perhaps very long - in which the newagents take up positions randomly in the graph - each of whom come with an initial policy assignment reflecting his inherent preferences. During this first, creative period, the population will tend to increase without limit and correspondingly, the proportion of both ensembles of agents in the growing total 7 WB. Arthur, 1989, Competing technologies, increasing returns and lock-in by historical events, in: Economic Journal, 99,116-131; WB. Arthur, Y. Ermoliev & Y. Kaniovski, 1987, Path-dependent processes and the emergence of macro-structure, European Journal of Operational Research, 3D, 294 - 303. 8 P. A. David and D. Foray, 1994, Percolation Structures, Markov Random Fields and the Economics of EDI Standard Diffusion, in Pogorel, ed., Global Telecommunications Strategies and Technological Changes (North-Holland), 135 - 170.

25*

388

Jean-Michel Dalle and Dominique Foray

would tend towards random fluctuations between the extremes. This first process thus leads to a distribution of choices that reflects preferences and which is not influenced by any local or global 'precedents'. The second period then starts when the entry rate becomes sufficiently slow, so that only the stochastic replacement process (based on positive feedbacks) is driving further changes in the share of the total assignment. It is this theoretical structure that we will use in the third part for identifying and formalizing some parameters for the economy of creativity. The interest (and the difficulty) of this problem is that the length of the period during which creativity is valuable is endogeneous. In other words, by multiplying experiments on various options and discovering new possible routes agents delay the tipping moment drawing out the period of creativity and innovation. Thus, innovative agents can themselves produce the economy in which their actions acquire a great economic value. This argument, however, needs so me qualifications. As argued above, the period cannot be indefinitely drawing out. At some point, diversity will become costly, and too long experiments and variety explorations can impede any scale economies and specialization effects. Innovators are, however, not only dependent upon temporal chains (from diversity to standardization). They are also situated in aspace. In order to escape from a system in which the creative period is drawing to a elose, they can look for a new space in which creativity still keeps a high economic value. The temporal chain is complemented by a spatial chain. We propose to use the notion of 'scope', which has two sides (temporal and spatial) to encapsulate the dual character of the economy of creativity. A collective system of innovation can thus be represented as a percolation structure, with many local neighborhoods and some random interconnected links among the local structures. Each neighboorhood can be analyzed as a sub-system in which the temporal chain (diversity-standardization) is operating at a particular speed, while the general structure provides the possibility of spatial chains for innovators who are blocked in their own neighborhood. This figure presents four economies of creativity which present distinctive features, according to two criteria: the factors influencing the speed of standardization within a subsystem (size of the subsystem, connectiveness within the subsystem, openness of the nodes, see below); and the factors influencing the availability of 'emergency exits'; that is, regions which are weakly connected to the rest of the system. In economy 1, these possibilities of 'taking flight' are very important and the system exhibits a structure of a 'migration economy', since when a local neighborhood is locked in to a standard (through a perfect correlation of choices), many other territories can offer opportunities for creativity and innovation. The particular structure of percolation in case 1 does not allow the system to reach extreme correlation of choices. Some sub sets of agents are sufficiently isolated to be protected from any propagation of a given choice through the local networks. The economy 4 is a 'global economy': many intersectoral networks are connecting almost all the

Some Insights from Stochastic Interactions Models

389

subsystems, so that there are only very few possibilities to migrate from a system having reached a phase of standardization to a system still in a phase of exploration.

1

Lb 1

~~~ 50

II gro"P"

tIb~'

:~ 60

7 gro"P"

65

4 gro"P"

Figure 1: Four economies 0/ creativit/

Here again, the opportunities provided by multiple creative spaces must be analyzed partly as endogeneous; that is to say dependent upon the percolation probabilities of the general network considered. This complex interplay between space and time is very weIl exemplified in the history of technical choices in the domain of car engines. Kirsch 10 shows very weIl that during a very short period (1850 - 1910), developers, with predilections depending upon their previous engineering experience, produced constantly improving versions of the steam, gasoline and electric automobiles. During that period, any choice was possible among the three options; any decision was decisive in improving the general level of knowledge on the distribution of variety of the generic technology and could have a high leverage effect on the process of adoption. This period is, however, dramatically short (see table 1): it took one decade for the system to be locked in to one option. With the emergence of the de facto standard, even heavy actions (such as the huge investments to promote electric vehicle in the sixties) have no effect. 9 Source: P. Cohendet and E. Zuscovitch, 1982, Progres technique et percolation, BETA Working paper, Universite de Strasbourg 10 D. Kirsch, 1995, Flexibility and stabilization of technological systems: the case of the second battle of the automobile engine, Program in History of Science and Technology, Department of History, University of Stanford.

Jean-Michel Dalle and Dominique Foray

390

Table 1 The shortness of the creative period in car engines 11

Year 1899 1904 1909 1914

electric 1575 1425 3826 4669

steam 1681 1568 2374 NA

petrol 936 18699 120393 564385

The innovators have, nevertheless, some possibilities of migrating. Foreman Peck 12 studied the patterns of diffusion of the three technologies in four 'independant' spaces (U.S., UK, France and Germany). Looking at the data it is c1ear that the length of the temporal window in which creativity has a high econornic value is highly variable. Although the outcomes of the local competitions are similar (petrol engine won everywhere) the transition paths from the initial conditions to the emergence of the standard are very different among the four countries. That suggests that one innovator who is blocked in his own system can play with ' geography'. If all innovators who addressed their work to the improvement of electric engines had migrated to Germany (the system in which the electric option was maintained during a significant period after 1910), this agglomeration would have the effect to increase the length of the temporal window in this particular system and to maintain a high econornic value of innovation and creativity in this particular domain, which in turn would have influenced the emerging structure. IV. Developing tools and techniques to analyze creative periods and places

As a main conc1usion to the previous seetions, technological cyc1es have been shown to be composed of successive periods whose nature and properties appear to be profoundly different. More precisely, individual actions are not expected to bear the same weight on collective outcomes during all of these periods. Some of them could be designed as creative periods, i.e. periods during which individual actions matter and are collectively effective since they each represent new experiments and therefore contribute to the global reduction of technological uncertainty; and some others as consensus periods, i.e. times when individual actions could not possibly modify the collective standardization state on a given technology and also when collective efficiency does not increase when new experiments are made but rather is increasing as standardization benefits are realized: individual creativity is in fact needed elsewhere, perhaps in some other creative places. Such adescription thus paves the way for a few, some of them rather new, theoretic issues which can 11

Source: Kirsch (FN 9).

12

J. Foreman-Peck, 1996, Technologicallock in and the power source for the motor car,

in Discussion Paper in Economic and Social History, University of Oxford, 7.

Some Insights from Stochastic Interactions Models

391

probably only be taclded with the help of adapted models: these issues deal with possible laws governing at least some aspects of the appearance and duration of such periods and places. Due to the complexity of the underlying dynamics, some modelling is necessary here. During the past decades, econornists have in fact greatly enriched their own analytic toolbox so as to be able to properly analyze technological dynamics. Many models 13 have indeed been recently suggested, in which all agents have relevant neighbors, whose decentralized decisions create positive external econornies with their own. Furthermore, these individual neighborhoods are interconnected. Positive feedback effects are transmitted among agents through these interconnected neighborhoods, which together constitute an interaction structure. These models therefore belong to the interacting particles class, if one wishes to make reference to more mathematical matters. In this framework, the number of agents also has to be finite if one wants to be in line with econornic, rather than physical, considerations. All of these models then try to answer the first relevant question: whether or not standardization is an inevitable outcome. In this context, behavioral heterogeneity of agents has been argued to be one of the main parameters influencing standardization. Heterogeneity plays the role of astate parameter and, in at least some cases, gives birth to 'phase transition' phenomena: when behavioral heterogeneity is low, standardization almost certainly occurs; when it is high, i.e. above a certain level, standardization almost never occurs, either temporally or statistically. The existence of such a critical level is a consequence of the existence of positive feedbacks which drive individual actions to sirnilar outcomes, and the sharpness of the transition characterizes a phase transition, as it does in physics. Still along the same line, the existence of interaction structures has also been shown to be a good candidate to explain why diffusion curves almost always exhibit a so-called logistic shape 14 . Everything happens as if a tipping point, in the sense of Schelling 15 , 13 see e.g. Arthur (FN 7); David and Foray (FN 8); J. P. Aubin and D. Foray, The emergence of network organizations in processes of technological choice: a vi ability approach, IIASA WP 96-110, September; J.-M. Dalle, 1995, Dynamiques d'adoption, coordination et diversite, in: Revue Economique, 46, 1081-1098; J.-M. Dalle" 1997, Heterogeneity vs. externalities: a tale of possible technologicallandscapes, Journal of Evolutionary Economics, 7, forthcoming; P. A. David, 1992, Path-dependence and predictability in dynamic systems with local network externalities: a paradigm for historical econornics, in Foray and Freeman, eds., Technology and the Wealth of Nations (London: Pinter), 208 - 231; P. A. David, D. Forayand J.-M. Dalle, 1997, Marshallian externalities and the emergence and spatial stability of technological enclaves, in: Economics of Innovation and New Technology, 5, forthcoming; G. Dosi, Y. Ermoliev and Y. Kaniovski, 1994, Generalized um schemes and technological dynarnics, in: Journal of Mathematical Economics, 23, 1-19; G. Dosi and Y. Kaniovski, 1994, On badly behaved dynamics: Some applications of generalized um schemes to technological and economic change, in: Journal of Evolutionary Economics, 4, 93 - 123. 14 J.-M. Dalle, 1998, Local interaction structures, heterogeneity, and the diffusion of technological innovations, forthcoming in Lesourne J., ed., Self-organization and evolutionary approaches: new developments (Economica: Paris).

392

Jean-Michel Dalle and Dominique Foray

was reached as a consequence of correlated individual adoptions: such a tipping point, which in a way separates the initial creative period from the following consensus one, is therefore totally endogenous, which of course does not mean that it cannot be influenced by other, for instance public agency, actions. As a consequence, one hopes to stern from these new models some clues about conditions and economic parameters influencing the appearance of consensus periods and especially the length of the initial preliminary creative periods. What we will do now is just to outline some preliminary insights about which parameters we consider relevant in dealing with such issues. 1. The model

Let us define consensus time as the average time taken for the industry to dynamically reach a technological consensus state, where all agents have adopted the same technology, whichever it may be. The mathematical question is then to get results about consensus times for interacting particle models with a finite number of particles. Unfortunately, there are, to the best of our knowledge, very few analytical results of this kind. However, the voter model on a torus, as proposed by David l6 , and although it does not always fit perfectly well when some other considerations are taken into account 17 , is a good candidate for preliminary results here since, thanks to Cox 18, a few analytical results have been made available. It is a special feature of the voter model, namely the existence of absorbing states, although otherwise open to criticism since it does not fit well, to say the least, with dynamic issues regarding heterogeneity, which, somewhat paradoxically, provides us with explicit analytical formulae. As a consequence, consensus time appears here as the average time needed for the model to reach, with a given initial probability measure for ex ante preferences, one of the existing absorbing states, from which it will never get free in this particular case. Assurne that associated with each point of a graph we have a firm and with each firm we have a reference set of other firms (possibly including the firm itselt) 19. Then the model may be described informally as follows: each firm selects a stanT. C. Schelling, 1978, Micromotives and macrobehavior (Norton: New York). See David (FN 12), as weil as R. Kinderman and J. L. Snell, 1980, Markov Random Fields and their Applications, American Mathematical Society, Providence, Rhode Island 17 J.-M. Dalle and D. Foray, 1995, Des fourrnis et des hommes: modeles stochastiques d'interactions et rationalite individuelle active, in: Cahiers d'Economie et de Sociologie Rurale, 37, 70 - 92. 18 J. T. Cox, 1989, Coalescing random walks and voter model consensus times on the torus in Zd, in: Annals of Probability, 17 . 19 The description of the model's structure as weil as the explanation of the results are drawn upon David and Foray (FN 8) who have used this model to analyse the economics of diffusion and adoption of technological standards in the field of electronic data interchange. 15

16

Some Insights from Stochastic Interactions Models

393

dard U or a. At random points in time it will reassess its choice. At these times it will commit to the choice u with a probability equal to the proportion of u-assigned firms in its reference set. Consider the graph consisting of the points [-N, -N+ h ... , 0,1, ... ,N]. The reference set of i consists of the points LI and i+ 1 for -N < i < N. The reference set for N consists of the points N_ I and -N, and for -N it consists of -N+ I and N. This particular neighborhood arrangement could represent a trans action matrix that has a ring structure: a firm gets impulses from a preceeding one and sends impulses to a succeeding one, the last firm being connected with the first in the array. One important feature of the local structures described in the inter-industry ring model is that the reference sets or relational neighborhoods are not disjoint. Because one of the neighbors of an agent is also a neighbor of another agent, individual unit's decision become linked indirectly by the interlocking networks of local relationships, which serve to transmit their effects. The dynamics of this model is quite simple, as it is assumed that the times between successive reassessments made by any given organization follow an exponential distribution with mean duration 1. Thus, the occurence of micro-level reevaluations at each node is independent of the timing of reorientations that might take place among the other firms that share the same neighborhood. The global process of migration between competing standards now can be described by a finite state continuous time Markov chain, with states being configurations of the form x = (u, a, u, u, a, ... , u, a, u) where xci) is the choice of firm i. Several properties follow from this. It is evident that the extremal states X U = (u, u, U, . .• , u, u, u) and xa = (a, a, a, . .. , a, a), in which there is a perfect correlation of standards choices throughout the population, constitute absorbing states for this system. Once such astate is entered, there can be no further change. The most important property for this system is that for any starting stage the system eventually will end up in either one of these absorbing states (X U or xa ). Thus, in the limit, the process must become locked-in into one of its extremal solutions.

2. The length 01 endogenous creative periods

According to Cox 20 , consensus time for the voter model on a finite torus is then given by: T(N) e;< -GdsN

[B log B+ (I - B) log(1 - B)]

where N is the size of the d-dimensional torus, where t~n) denotes consensus time for the d-dimensional torus of size N (N agents), Gd is a numerical constant depending only on d, () is the coefficient of the initial product measure - there are only two alternative standards here -, and SN a parameter whose value is given by: 20

Cox (FN 17).

394

Jean-Michel Dalle and Dominique Foray

A proof of this fonnula is given by COX 21 for d >= 2, and it appears to be a straightforward conjecture for d = 1. The proof essentially makes use of the dual description of the voter model, i.e. coalescing random walks. What can we infer from this framework regarding the parameters influencing the length of the creative period? Four parameters can be discussed. a) It is first of all interesting to note that the magnitude of the results is very sensitive to population size considerations - parameter N -, i.e. to the number of potential adopters. Consensus times - standardization times -, depend on the size of the population, and this dependence is even greater than N squared. As we might have guessed, large populations should take more time to reach consensus, but also non-proportionately so, a less intuitive property which itself derives from the existence of an interaction structure. In a large population, individual agents will probably have long enough time to experiment with new technologies before standardization occurs. For the case of a very large system, a random walk being perfonned on all the real integers, it is found that there will not be a time after which the system remains in an absorbing state; the process oscillates between the extrema of perfectly correlated policies - with all finns adopting one standard at one moment, and all finns adopting the other policy at some other. Thus, even under stationary structural conditions, such populations should not be expected to become inextricably locked in to one of a number of locally stable equilibria. But, as noted below, they may linger for many periods of time in those neighborhoods. On the contrary, small systems will tend to quickly lock-in on standardization states: the weight of the path is heavier in small populations, and obsolete intentions often persist long after the conditions of their birth has disappeared 22 . To put it differently, sub-optimal states are likely to appear since small populations offer innovators only a very short creative period. b) Another relevant parameter for the length of creative periods is {}, i.e. the initial proportion 0/ potential innovators preferring each of the two alternative technologies. Dependence on such initial conditions had already been emphasized by David 23 when he proved that the probability of each eventual outcome was the proportion of initial choices favoring each technology. By deriving the above fonnula in {}, it is easy to see that consensus time is maximum for {} = 0.5, i.e. when heterogeneity is maximum, i.e. when adopters have initial preferences which are equally Cox (FN 17). D. Foray, 1997, The dynarnic irnplications of increasing returns: technological change and path-dependent inefficiency, in: International Journal of Industrial Organization, 15, 733 -752. 23 P. A. David, 1988, Path dependence: putting the past in the future of econornics, Stanford University, Institute for Mathernatical Studies for the Social Science. 21

22

Some Insights from Stochastic Interactions Models

395

split among technologies. As a consequence, entry phases might be introduced in the models to better analyze the proper determinants of potential adopters' initial preferences 24 . Emphasizing proportions of adopters confirms that heterogeneity is a critical parameter when interacting agents models are to be used to describe co 1lective phenomena. In this respect, a major criticism associated with the voter model is the weakness of its behavioral grounding. This is the cost we had to pay to get analytical results. Other works, mostly relying on simulations studies, are then needed to obtain a better picture of individual behavior in the population of potential adopters. c) COX 25 has another result which helps also us to analyze consensus time dependence on yet another parameter, i.e. the number 0/ alternative technologies. In fact, consensus time with k technologies and with uniform initial product measure is given by, for d >= 2: E[r]

= Gd(k -

k I) log k _ I

As an immediate derivation would show, consensus time converges to a finite value when k goes to infinity, and this convergence is rather quick (Table 2 below). Table 2

Convergence of consensus time k 2 3 4 5 6 7 8 9 10

E[T]/Gd 0,69 0,81 0,86 0,89 0,91 0,92 0,93 0,94 0,95

Dependence on the number of alternative technologies is therefore rather important for very small k's, but also negligible as soon as k is higher than a few candidate standards. d) The nature 0/ the interaction structure, i.e. the way in which individual neighborhoods are interconnected, also appears as a very relevant parameter as far as consensus times are concerned. This refers to a question which has not yet been properly tackled in economics: which characteristics of the interconnected neighborhood structure - of the interaction structure - are relevant from the economist's 24 25

David, Foray and Dalle (FN 12). Cox (FN 17).

396

Jean-Michel Dalle and Dominique Foray

point of view. Dimension - parameter d - elearly belongs to this set, and our results tend to confirm the intuition economists had already gained when they had ceased to make use of one-dimensional structures both due to their well-known rather pathological properties and to their lack of pertinence for actual economic phenomena. But two- and higher-dimensional structures also exhibit rather different properties: in the case of the voter model, this comes from the fact that random walks always intersect in dimension 1 and 2, but not necessarily in higher dimensions. One can indeed see the consequence in the definition given for sN. Too many works to date have dealt with two-dimensional structures for tractability reasons. Some further research is thus needed here, but also about other aspects of interaction structures, notably their connectivity, as has been emphasized by David & Foray 26 in their work on percolation theory. Connectivity elearly has something to do with the speed with which consensus states are reached: it is also relevant, as we will see below, to the long-term survival of creative places. A more precise analysis of interaction structures and of their economically relevant properties now represents a field wide open to adventurous economists. 3. The emergence and persistence of endogenous creative places

Focusing only on time considerations would, however, lead to erroneous conelusions, since the existence of interaction structures also contributes to another kind of phenomena, which we might call spatial if such a terrninology was not directly related to physical space, but only to the existence of interconnected neighborhoods. What we have in mind here is the appearance of technological niches or creative places, i.e. places where a technology benefits from positive external economies and therefore persists among a limited number of users, and is sometimes suitable to diffuse on a much wider basis. Alternative standards persist in niches due to behavioral heterogeneity; older technologies persist in enelaves whereas newer ones have invaded the market, while new technologies often seem to appear first in niches 27 . In all cases, agents' idiosyncratic actions benefit from positive externalities when they are similar and elose to each other, and therefore make niches endogenously appear and persist and last, at least for a while. This persistence of niches is very important for the economics of creativity because it modifies individual strategies. According to the terrninology outlined above, these niches typically play the role of creative places, open to individual entrepreneurial strategies: when standardization sets in, the long-term survival of a few technological enelaves , while consensus has been reached elsewhere, can be exploited by individuals seeking to devote their own creativity to these particular technologies, even while they might be on their way to neglect. David and Foray (FN 8). D. Foray and A. Grübler, 1991, Morphological analysis, diffusion and lock-out of technologies, Research Policy, 19, 535 - 550. 26

27

Some Insights from Stochastic Interactions Models

397

The economics of creativity is only at the beginning of its necessary efforts to deal with such phenomena. As a supplemental eiue, we would just like to stress that at least three reasons can be invoked to explain the emergence and persistence ofniches. The first one is endogenous coordination of choiees, as in the voter model, or better in Gibbs fields and subsequent stochastic interaction models,28 because they also deal with heterogeneous behaviors. In this case, the existence of interconnected neighborhoods induces positive external economies and supports the emergence and persistence of niches. We have already encountered the second reason when we mentioned the connectivity of interaction structures as a relevant parameter for the length of creative periods. Here the reason is paradoxieally the relative absence of interconnections between neighborhoods! This absence is obvious when it is due to purely geographical factors: in this case, niehes exist because some agents are far away from others with whom they do not interact because they are located in different and distant parts of the world. Entrepreneurs might then consider alternative strategies of the kind we already outlined above to benefit from more geographical considerations, i.e. from quasi-exogenous or ex ante niches such as other countries or continents. But in the general case, one should certainly turn to percolation studies so as to understand how and when such phenomena are likely to be encountered in a population of agents, i.e. to incorporate into the models more complex interaction structures 29 . A critical property is then due to the existence of potential phase transition phenomena. If we consider that an agent is connected with another with probability P, for instance, then there often exists a critical value Pe of P above which the interaction structure is almost completely connected - because it is almost always possible to go from one agent to another by following links along the interaction structure -, and below which it is not. But it might even be better to understand how interaction structures are themselves endogenously created and shaped. For instance, when P is higher than some threshold, we get the curious result that all pairs of agents have in the limit a common neighbor 30, and when all agents have the same common neighbor, the properties of the system as a whole are different, especially as regards the persistence of niehes, which is much less common. In all respects, geographical niche strategies appear to be the most visible example of niche-playing strategies, a set whose size might prove much bigger than it originally appeared to be. David, Foray and Dalle (FN 12), Dalle (FN 13). See, J. M. Hammersley and D. J. Welsch, 1980, Percolation theory and its ramification, in: Contemp. Phys., voL21 (6); and, for a more recent exposition of the percolation theory with numerous physical applications, see G. Grimmett, 1989, Percolation, New York: Springer Verlag. The more usual tenninology in the mathematical litterature associates the vertices and edges of a graph with 'atoms' and 'bonds', respectively, and so refers to the probabilities of atom percolation and bond percolation. 30 A. P. Kirman, 1983, Communication in markets, in: Economic Letters, 12, 101 - 108. 28

29

398

Jean-Michel Dalle and Dominique Foray

FinaIly, there is also a third reason, which was indeed the very first one which led economists, in particularly ScheIling 31 , to focus on the emergence of niches. Niches indeed also appear because agents move and change neighborhoods, and Schelling used a movement model to explain the emergence of ghettos in city suburbs. Individual agents tend to go to pi aces where neighborhoods correspond better to their own preferences and choices. Movements also contribute to the emergence and persistence of other kinds of creative places: this is even more the case since standardization phenomena precisely create incentives for individual agents to go to such places because their creativity would no longer be useful and rewarding elsewhere. As a consequence, the emergence and persistence of creative places due to pure coordination phenomena (first reason) on more or less connected interaction structures (second reason) is in fact at least reinforced by movement strategies (third reason), i.e. by higher-Ieve1 strategies toward which individual agents are driven by standardization phenomena and by the limited length of creative periods. 4. Policy issues: how to associate creativity with high economic value?

We have proposed to define an economy as a very simple stochastic interaction structure. In such an economy, we have identified some parameters which determine the scope of the economy of creativity. The size of the system, the heterogeneity of agents, the number of alternative options, as weIl as the particular nature of the interaction structures are important to determine the consensus time; that is the length of the period during which creativity has a positive value. On the other hand, interconnected structures can determine the persistence of creative places elsewhere in the system. A central agent or a public policy maker might be interested in maintaining creativity with high economic value. In this end, he can either act to extent the temporal window of the creative period, or he can work for maintaining some places and niches in which creativity is continuously of high economic value and can be re-injected into the rest of the system. The first option refers to the weIl-known policy rationale dealing with technological choices in systems with increasing returns and uncertainty 32. Slowing down the process of standardization can be a desirable policy goal in order to support more experimentation among the variants and thus extend the period of creativity. Supporting and sponsoring the alternatives which are «in danger» proves to be a useful strategy, at least during a certain period of time. 31 T. C. Schelling, 1971, Dynamic models of segregation, in:Journal of Mathematical Sociology, I, 143 - 186. 32 See Cowan (FN 5 ), David (FN 12), and P. A. David, 1987, New Standards for the Economics of Standardization, in Dasgupta P. and Stoneman P., eds., Economic Policy and Technological Performance (London: Cambridge University Press), 206 - 239.

Some Insights from Stochastic Interactions Models

399

The second option refers to the value of keeping some places and some subsystems in a re1ative1y disconnected state, in order to avoid a too rapid contamination of the system as a whole by a uniform choice. Such an insulation is not necessarily based on geographical distance but can be generated by an institutional discontinuity. For instance, military research has played a great role as experimental laboratory because of the length of its development cyc1es 33 . While the civilian systems were rapidly locked in to a single standard, the military domain was supporting longer period of experimentations and innovations on the same technology. Percolation theory represents a useful framework to shed light on the 'economics of deconnection,34. Let G be a graph in which some, none, or all of the edges may be directed. Thus G consists of a set of vertices or nodes, 0, connected by a set of (possibly directed) edges or connections, T. Let R be some given set of source organizations, from which a particular standard emerges into G. We call the parameters Po,Pt respectively the receptivity and the connectivity of the process. In other words, in a large population, it can be expected that a proportion Po are receptive to their neighbors' choices of a standard, while a proportion 1 - Po are unreceptive. The transactional lines of G connect neighbourhing pairs of organizations and the model supposes that an 'infected' organization (i.e. already co mmitted into a given standard) has a chance pt of 'infecting' a neighbour provided that the latter is receptive. Then P(po, Pt R,G) is the probability that a standard initially established in the source organizations R will become adopted universally. Indeed the parameters Po and Pt (the receptivity and the connectivity of the system) are not perfectly symmetric in their influence on the percolation probability P. In other words, the receptivity of the system is more "brittle" than its connectivity. The following general property of P: Po(P) < Pt(p) whenever 0< P < 1

suggests that a standard percolates more easily via an imperfect set of connections between receptive nodes than through a completely connected graph whose nodes (organizations) are imperfectly receptive. A further generalization of this is provided by the theorem due to Hammersley and Welsch 35 : P(poß,Pt) < P(po,Ptß) whenever 0< Po< 1,0< Pt, < 1,0< ß < 1 .

This inequality can be given the following epidemiological interpretation: to prevent a pandemic (universal adoption) it is more effective to reduce the receptivity of members of a population than to reduce the probability of infectious contacts among them (the connectivity among organizations). In other words, if one deCowan and Foray (FN 4). David and Foray (FN 8) and, P. A. David and D. Foray, 1995, Dependance du sentier et economie de l'innovation: un rapide tour d'horizon, in: Revue d'Economie Industrielle, HOfs serie, numero exceptionnel, 27 - 52 35 Hammersley and Welsch (FN 28). 33

34

400

Jean-Michel Dalle and Dominique Foray

grades the node probability Po, the percolation probability is lower than if one equi-proportionally degrades the connection probability Pt. Thus, when the costs of alternative policy actions are identical at the margin, the proper policy course for decreasing the percolation probability - so that some niches and enelaves can survive - would be one that is 'receptivity-directed' rather than 'connectivity-directed'. The indicated policy would not rely on efforts to decrease the density of external transactions. Rather, it would elose the opened nodes. 5. Conclusion

The very preliminary policy perspectives we have just presented are very far from the design of operational instruments for public policy. This is a point we could generalize to all the literature devoted to self-organized dynamics exhibiting complex properties of multiple equilibria, path-dependent inefficiency and lock-in. There is still a large gap between the rationale for public policy in this context which is today well-structured and in principle accepted - and the tools for such interventions (ineluding the empirical observation tools). Having tried to go further in the development of this paradigm in identifying and analyzing contexts that help to qualify the economic value of individual behaviors, we have perhaps increased the perception of an economics out of the necessary policy tools. And the drift is still very large between this elass of new knowledge on the properties of dynamic systems exhibiting increasing returns, and the ability of policy makers to command and control the mechanisms which are accurately analyzed.

Was läßt sich aus physikalischen Nichtgleichgewichtsprozessen bezüglich Innovationsvorgängen in der Ökonomie lernen? Von Georg Erdmann, Berlin

I. Wesen ökonomischer Nichtgleichgewichtsprozesse

1. Skizze deräkonomischen Gleichgewichts- und Ungleichgewichtstheorie

In der neoklassischen ökonomischen Theorie wird das wirtschaftliche Geschehen dahingehend interpretiert, daß Einzelpersonen und Unternehmen, die ökonomischen Akteure, unabhängig voneinander Wirtschaftspläne entwickeln, die sie durch Markttransaktionen zu verwirklichen versuchen und bei erkennbarer NichtRealisierbarkeit modifizieren, wobei sie dabei die bereits gewonnenen Erkenntnisse über wirtschaftliche Vorgänge, insbesondere geforderte oder angebotene Preise, berücksichtigen. Entsprechend dieser Auffassung ist eines der zentralen ökonomischen Probleme, ob es einen Zustand gibt, in dem die dezentral aufgestellten Wirtschaftspläne miteinander kompatibel sind und sich gemeinsam verwirklichen lassen. Bei einer derartigen Koordination dezentraler Pläne hätte kein Akteurmehr Veranlassung, seine eigenen Handlungen zu modifizieren. Ein solcher Zustand der Koordination kann demnach als ein Gleichgewicht interpretiert werden. Eine nähere Analyse zeigt, daß zwischen diesem ökonomischen Gleichgewichtsbegriff und dem physikalischen Gleichgewichtsbegriff der klassischen Mechanik formale Analogien hergestellt werden können, womit das bei der Lösung von Problemen aus der klassischen Mechanik verwendete mathematische Handwerkszeug in naheliegender Weise auf ökonomische Fragestellungen übertragen werden kann. Schon ein oberflächlicher Blick in die einschlägigen wirtschaftswissenschaftlichen Fachzeitschriften zeigt die Bedeutung der Anwendung mathematischer Optimalitätsbedingungen für die Ableitung der Eigenschaften von ökonomischen Gleichgewichten. Das Vorgehen ist dabei denkbar einfach. Bei der Aufstellung ihrer Pläne orientieren sich die Akteure am Ziel, einen entsprechend ihrer individuellen Präferenzen möglichst attraktiven Zustand zu erreichen. Bei den privaten Haushalten wird das Streben nach einem möglichst hohen Nutzen unterstellt, während bei den Unternehmen im einfachsten Fall Gewinnstreben anzunehmen ist. Auf der Basis dieser Annahmen gelang den beiden Wirt26 Selbstorganisation. Bd. 9

402

Georg Erdmann

schaftswissenschaftlern Kenneth Arrow und Gerard Debreu ein axiomatischer Beweis für die Existenz von Koordinationsgleichgewichten (vgl. Arrow und Debreu 1954). Das Bemerkenswerte an diesem Beweis ist die Tatsache, daß keine Informationen über die Präferenzen der anderen Marktteilnehmer berücksichtigt werden; die Koordination dezentraler Pläne beruht einzig auf der Kenntnis aller Preise von Gütern und Dienstleistungen (Preistransparenz), wohingegen ein zentrales Wissen über Produktionsmengen oder Konsumentenpräferenzen offensichtlich nicht erforderlich ist. In Erweiterung dieses Gleichgewichtskonzepts sind in den letzten Jahrzehnten Ungleichgewichtsmodelle entwickelt worden, die darauf basieren, daß zumindest kurzfristig kein Gleichgewicht erreicht wird, weil Preise, Löhne und / oder Produktionsmengen zu wenig flexibel sind, etwa wegen der Bindung an langfristige Verträge oder auf Grund hoher Transaktionskosten. Dies hat zur Folge, daß die Akteure von den zum Erreichen des Gleichgewichts erforderlichen Anpassungsvorgängen absehen und ein dauerhafter Zustand des Ungleichgewichts eintreten kann. Mit derartigen Modellansätzen ergibt sich unter anderem ein Zugang zur Behandlung der anhaltenden Massenarbeitslosigkeit (Malinvaud 1977). Doch aus verschiedenen Gründen hat sich dieser Ansatz nicht generell durchgesetzt. Zentraler Gegenstand der ökonomischen Theorie ist nach wie vor überwiegend die Untersuchung der wesentlichen Eigenschaften von Koordinationsgleichgewichten. Dazu gehören die Frage nach dem gleichgewichtigen Produktions- und Wohlstandsniveau, die resultierende Einkommens- und Vermögens verteilung oder die Untersuchung der Pareto-üptimalität des Koordinationsg1eichgewichts; in diesem kann kein Akteur seine Position verbessern, ohne daß gleichzeitig zumindest ein anderer Akteur in Bezug auf seine Präferenzen schlechter gestellt wird. Die Eigenschaft der Pareto-üptimalität des Koordinationsgleichgewichts ist verletzt, sofern vom Handeln einzelner Akteure Effekte ausgehen, die nicht in den Preisen inkorporiert und in diesem Sinn "extern" sind. Bei deren Internalisierung ließe sich das Wohlfahrtsniveau vergrößern, eine Aussage, die mehr oder weniger allen aus der Gleichgewichtstheorie abgeleiteten umweltpolitischen Empfehlungen zugrunde liegt. Eine andere Weiterentwicklung der Gleichgewichtstheorie ergibt sich aus der Annahme, daß die Akteure ihre Handlungen von Erwartungen bezüglich der Zukunft abhängig machen und deshalb Entscheidungen unter Unsicherheit treffen. Bahnbrechend für die daraus entstandene ökonomische Theorie des Risikos waren Publikationen von J. Pratt (1964) und K. Arrow (zusammengefaßt in Arrow 1974), deren Forschungen von anderen aufgegriffen wurden und dabei eine Fülle wichtiger Erkenntnisse erreichten. Zentrales Element ist die Annahme, daß nutzenmaximierende Akteure überwiegend bestrebt sind, Risiken zu vermeiden (Risikoaversion). Die unter dieser Annahme berechneten Gleichgewichte unterscheiden sich zwangsläufig von Koordinationsgleichgewichten, bei denen Risikoaversion keine Rolle spielt. Beispielsweise läßt sich die gesamtwirtschaftliche Nachfrage

Nichtgleichgewichtsprozesse bezüglich Innovationsvorgängen in der Ökonomie

403

nach Versicherungsleistungen nur durch die Annahme der Risikoaversion mit einem Gleichgewichtskonzept vereinbaren. Bei dynamischer Betrachtung wird die ökonomische Gleichgewichtstheorie dahingehend erweitert, daß die Bedingung der Koordination dezentraler Akteure nicht nur für einen einzigen Zustand, sondern für den gesamten Betrachtungszeitraum erfüllt sein muß. An die Stelle des statischen Gleichgewichts tritt eine dynamische Gleichgewichtstrajektorie, ein Zeitpfad des Vektors der relevanten Zustandsvariablen. Die zeitliche Struktur solcher Trajektorien kann formal als Lösung eines Differentialgleichungssystems interpretiert werden, welches die Annahmen über die Präferenzen und Handlungsrestriktionen der Akteure mathematisch abbildet. Während in den ersten Forschungsansätzen primär stabile steady state-Gleichgewichts pfade mit konstanten Relationen zwischen den Zustandsvariablen untersucht wurden, hat sich die Forschung dynamischer ökonomischer Systeme inzwischen auch mit komplexeren Mustern von Gleichgewichtstrajektorien beschäftigt. Die Mathematik dynamischer Systeme wird dabei weitgehend aus den Naturwissenschaften übernommen, womit sich die wirtschaftswissenschaftlichen Untersuchungen auf die ökonomischen Sachverhalte konzentrieren können, beispielsweise die Konjunkturtheorie (erstmals Rose 1967), die Theorie spekulativer Preisentwicklungen (z. B. Heri 1986) oder auch die Entwicklung des Erdölmarkts (z. B. Wirl 1990, Erdmann 1997). Die Problematik derartiger Studien beruht wesentlich auf den jeweils erforderlichen ceteris paribus-Annahmen, die im Zusammenhang mit längerfristigen Strukturaussagen weder theoretisch noch empirisch gerechtfertigt sind. 2. Mehifach-Gleichgewichte und Symmetriebrüche

Sofern im Rahmen der Gleichgewichtstheorie für alle Akteure streng konvexe Kosten- und Nutzenfunktionen unterstellt werden, resultiert jeweils ein einziges und damit eindeutiges Koordinationsgleichgewicht. Sobald jedoch die Konvexitätsannahme aufgehoben wird, ist die Eindeutigkeit des Koordinationsgleichgewichts nicht mehr gewährleistet. Wie bereits Alfred Marschall 1891 vermutete, gibt es in diesem Fall mehrere Marktkonstellationen, in denen die Pläne aller Akteure in der eingangs skizzierten Weise koordiniert sind (vgl. als Übersicht Arrow und Hahn 1971). Die ökonomische Literatur beschäftigt sich in jüngerer Zeit eingehend mit Nicht-Konvexitäten oder - dynamisch formuliert - positiven Feedbacks. Man findet derartige Situationen generell in ökonomischen Situationen mit steigenden Skalenerträgen bzw. sinkenden Grenzkosten. Als spezifische Ursachen für NichtKonvexitäten können Lerneffekte, Unteilbarkeiten ökonomischer Größen, etwa im Bereich der Infrastruktur und Energieversorgung, oder Anomalien bei der Erwartungsbildung (z. B. selbsterfüllende Erwartungen) genannt werden. Besonders 26*

404

Georg Erdmann

interessant und aktuell sind Nicht-Konvexitäten auf Grund von Spillover-Effekten zwischen den Handlungen autonomer Akteure. Diese sogenannten NetzwerkEffekte spielen namentlich in der modemen Theorie des internationalen Handels (Stichworte: internationale Wettbewerbsfähigkeit, Standorte-Wettbewerb) oder bei der Analyse moderner Kommunikationstechnologien eine zentrale Rolle. Wann immer ökonomische Konstellationen durch Nicht-Konvexitäten bzw. positive Feedbacks gekennzeichnet sind, ist das Koordinationsgleichgewicht nicht eindeutig. Es gibt dann mehrere mögliche Situationen, in denen die Handlungen der Akteure miteinander kompatibel sind, wobei die resultierenden (stabilen) Koordinantionsgleichgewichte freilich nicht dem Ideal des vollkommenen (atomistischen) Wettbewerbs entsprechen, sondern durch oligopolistische oder monopolistische Machtkonzentrationen gekennzeichnet sind. Bleibt man bei der gleichgewichtstheoretischen Vorstellung, wonach die Ergebnisse dezentral handelnder Akteure durch ökonomische Gleichgewichte beschrieben werden können, gibt es unter Umständen mehrere voneinander unterscheidbare Koordinationsgleichgewichte und demzufolge können gelegentliche Selektionsprobleme auftreten. Wenn das wirtschaftliche Geschehen durch mehrere mögliche stabile Gleichgewichte charakterisiert werden kann, so ist es nicht unerheblich, welches davon durch die Handlungen autonomer Akteure aufgesucht wird. Diese Überlegung liefert einen naheliegenden Zugang zu Irreversibilitäten in der ökonomischen Entwicklung. Man muß nur annehmen, daß zu gewissen Zeitpunkten derartige Selektionsprobleme entschieden werden: Vorher sind verschiedene stabile Gleichgewichte als mögliche Ergebnisse der Koordination denkbar. Nachher ist diese Kontingenz (Verzweigungssituation) aufgehoben und der weitere Gang der wirtschaftlichen Entwicklung irreversibel entschieden (sog. path dependence; vgl. Arthur 1988). In der Theorie physikalischer Nichtgleichgewichtsprozesse spricht man in derartigen Situationen von einem Symmetriebruch, eine Terminologie, die offensichtlich auf ökonomische Vorgänge übertragbar ist. 3. Die Rolle von Phasenübergängen

Zur Komplettierung dieses Denkansatzes verbleibt die Beantwortung der Frage, durch welche Vorgänge das wirtschaftliche Geschehen in Situationen geraten kann, in denen Symmetriebrüche über den weiteren Gang der Dinge irreversibel entscheiden. Eine aus der Physik Nichtgleichgewichtsprozesse abgeleitete Antwort stützt sich auf den Begriff des Phasenübergangs und läßt sich im einfachsten Fall über eine Potentialfunktion veranschaulichen. Die in Figur 1 gezeigte Potentialfunktion beruht auf der Differentialgleichung für eine endogene Variable x(y), z. B. das Marktvolumen eines bestimmten Produkts, die von einer exogenen Variablen y (z. B. die für die Entwicklung, Herstellung und Vermarktung dieses.,produkts eingesetzten Investitionen) sowie von zwei Parametern a und b abhängt:

Nichtgleichgewichtsprozesse bezüglich Innovationsvorgängen in der Ökonomie dx dy

405

= -2=-4bx3 •

Die Differentialgleichung ist äquivalent zu der in Figur I dargestellten Potentialfunktion V(x) : =

J

dx dx dy

= =2 + bx4 .

Die endogene Variable x befindet sich bei

dxl dy =

0 im Gleichgewicht. Bei

alb = 0 gibt es nur ein einziges Gleichgewicht, andernfalls deren drei, davon zwei

stabile Gleichgewichte (Attraktoren) und ein instabiles (Repeller). Von einem Phasenübergang spricht man, wenn im Zuge der Veränderung der Parameter a und b der Grenzwert alb = 0 passiert wird. In diesem Fall ändert sich die Zahl der stabilen Gleichgewichte, und wenn die Entwicklung von alb> 0 nach alb< 0 verläuft, ergibt sich die oben erwähnte Kontingenz in xo, die durch einen Symmetriebruch zwischen den beiden stabilen Gleichgewichten Xl und X2 entschieden wird.

V(x)=ax 2+bx4 mit a/b O

--xo

Zustandsvariable x

XI

X()

X2

Zustandsvariable X

Figur I: Phasenübetrgang in der Darstellung einer Potentialfunktion

Übertragen auf die ökonomische Gleichgewichtstheorie können aus der Veränderung von Technologien, Präferenzen oder anderen Parametern singuläre Situationen entstehen, die mathematisch äquivalent zu Phasenübergängen sind. Im Rahmen der Koordination autonomer Akteure treten dabei zwangsläufig Symmetriebrüche mit einer irreversiblen Festlegung des künftigen Koordinationsgleichgewichts auf. Das Besondere an derartigen Situationen ist die Tatsache, daß sich das nach dem Symmetriebruch einstellende Koordinationsergebnis nicht mehr einzig und allein aus der (perfekten) Kenntnis der bisherigen Gleichgewichte herleiten läßt, sondern zusätzliche Elemente eine entscheidende Rolle spielen. Im Rahmen der Theorie physikalischer Nichtgleichgewichtsprozesse spricht man von Fluktua-

406

Georg Erdmann

tionen; im Rahmen der weiteren Ausführungen wird es insbesondere auf eine geeignete Interpretation von Fluktuationen bei ökonomischen Symmetriebrüchen ankommen. Doch hier kann bereits festgehalten werden, daß mit der Möglichkeit von Phasenübergängen jede ökonomische Entwicklung als zukunftsoffen aufgefaßt werden kann, und zwar dergestalt, daß sie nicht mehr zu jedem Zeitpunkt aus der Vergangenheit heraus bestimmt ist. Ulrich Witt spricht in diesem Zusammenhang von Neuerungen (Witt 1987: 9). In Erweiterung dieser Überlegung muß die ökonomische Entwicklung als eine Kaskadenfolge von Phasenübergängen und Symmetriebrüchen aufgefaßt werden. Jeder Phasenübergang bedeutet eine grundlegende Veränderung der relevanten ökonomischen Handlungs- und Randbedingungen und zwingt die Akteure zu Anpassungen. Unmittelbar nach einem Symmetriebruch - dem irreversiblen Wechsel zwischen den Attraktionsgebieten ökonomischer Koordinationsgleichgewichte kann eine mehr oder weniger lange Phase der relativen Stabilität folgen, die mit einem erneuten Phasenübergang mit der Notwendigkeit neuer Anpassungen abgeschlossen wird. Der zeitliche Wechsel zwischen vergleichsweise stabilen und instabilen wirtschaftlichen Entwicklungsphasen erfolgt dabei "von selbst", ohne daß die zugrunde liegenden Einflußgrößen eine grundlegende Beschleunigung oder Verlangsamung erfahren haben. Die Kaskadenfolge von Phasenübergängen und Symmetriebrüchen beschreibt die wirtschaftliche Entwicklung als einen kontingenten, autokatalytischen Prozeß, bei der jeder Symmetriebruch die nachfolgenden Phasenübergänge und Symmetriebrüche vorbestimmt.

11. Übertragung auf innovationstheoretische Fragestellungen

1. Innovationen im Rahmen der Gleichgewichtstheorie

Die vorstehend skizzierten abstrakte Darstellung einer möglichen Übertragung physikalischer Nichtgleichgewichtsprozesse auf die Ökonomie läßt sich durch die Anwendung auf innovationstheoretische Fragestellungen weiter konkretisieren. Mit dem Begriff der Innovation ist dabei der gesamte Prozeß von der Forschung und Entwicklung über die erstmalige Markteinführung neuer Produkte und Produktionsprozesse bis hin zu deren Verbreitung über Nachahmer gemeint. Die hier beabsichtigte Übertragung erfordert zunächst eine Festlegung des Gleichgewichtsbegriffs im Zusammenhang mit Innovationsvorgängen. Dieses Vorgehen ist allerdings in der Literatur höchst umstritten. Die ökonomische Gleichgewichtstheorie verkennt zweifellos ein Wesensmerkmal des Innovationswettbewerbs, wie es Josef Schumpeter bereits 1911 beschrieben hat, wonach die Markteinführung von Neuerungen auf dem Pionierverhalten von Unternehmern beruht, die - wenn überhaupt - nur eingeschränkt die Erfolgsaussichten ihrer Innovationstätigkeit quantifizieren und damit in einen Kosten / Nutzen-Kalkül integrieren können. Erst die Imitatoren verfügen über eine hinreichende Informationsbasis zur

Nichtgleichgewichtsprozesse bezüglich Innovationsvorgängen in der Ökonomie

407

rationalen Beurteilung der Neuerung - nämlich die besonders hohen Gewinne der erfolgreichen Pioniere. Aus einer Gleichgewichtsbetrachtung heraus sorgen die vorstoßenden Pioniere im Erfolgsfall dafür, das sich das Marktgeschehen vorübergehend außerhalb eines Gleichgewichts befindet, und zwingen die anderen Akteure, die Imitatoren, zu einer Revision ihrer Pläne. Von daher läßt sich der Kern des Innovationsverhaltens vorstoßender Pioniere kaum in das ökonomische Gleichgewichtskonzept zwängen .. Entsprechend kann die Diffusion von Neuerungen als ein Vorgang aufgefaßt werden, bei dem die Ökonomie von dem durch einen Pionier ausgelösten Ungleichgewichtszustand aus einem neuen Koordinationsgleichgewicht zustrebt, und zwar dadurch, daß die von der Neuerung angesteckten Akteure - Hersteller und Kunden - nach und nach reagieren durch Übernahme der Innovation einen Zustand der Koordination wiederherstellen. Bei der empirischen Untersuchung derartiger Diffusionsprozesse stößt man immer wieder auf logistische Wachstumskurven (z. B. Rogers 1983), die sich damit als ein formales Grundmuster für das se1bstorganisierte Streben autonom handelnder Akteure gegen einen Gleichgewichtszustand erweisen. Bei dieser Interpretation bleibt jedoch völlig offen, welche Faktoren dafür verantwortlich sind, daß der Prozeß der Übernahme von Innovationen sich über einen längeren Zeitraum erstreckt und nicht unmittelbar zu einem neuen Gleichgewicht führt (vgl. hierzu Erdmann 1993: 100ff.). Vor diesen an Josef Schumpeter anknüpfenden innovationstheoretischen Vorstellungen scheint der Begriff des Innovationsgleichgewichts theoretisch wenig plausibel zu sein. Berücksichtigt man aber die einschlägige Gleichgewichtsliteratur (vgl. als Übersicht Stoneman 1983, Erdmann 1993: 67ff.), so kann man als Innovationsgleichgewicht eine Situation definieren, in der keines der am Innovationswettbewerb beteiligten Unternehmen Veranlassung hat, seine Innovationsstrategien zu modifizieren, also beispielsweise seine Ausgaben für Forschung und Entwicklung (F&E) gegenüber dem Ist-Zustand zu vergrößern oder zu reduzieren. Unter Berücksichtigung traditioneller Handlungsmotive ist diese Bedingung dann erfüllt, wenn kein Unternehmen erwarten kann, durch eine Veränderung der eigenen F&EAusgaben eine Vergrößerung des erwarteten Gewinns erreichen zu können. Typischer Weise wird der Innovationswettbewerb dabei als ein oligopolistischer Wettbewerb aufgefaßt. Es ist naheliegend, daß ein solcher Gleichgewichtszustand kein permanenter Dauerzustand sein kann, sondern eine nur vorübergehende Bedingung für optimales Handeln beschreibt. Im Innovationswettbewerb werden nämlich gelegentliche eigene Innovationserfolge, Innovationsdurchbrüche der Konkurrenz oder andere Vorgänge (z. B. die Einsicht in die Erfolglosigkeit der bisherigen F&E-Projekte) die Handlungsbedingungen immer wieder nachhaltig verändern. Damit muß die Untersuchung von Innovationsgleichgewichten auch die Möglichkeit veränderter Handlungsbedingungen ins Kalkül ziehen, womit ein konkreter Bezug zu Phasenübergängen und Symmetriebrüchen vorliegt. Im Rahmen der Symmetriebrüche

408

Georg Erdmann

spielen die oben angesprochenen Pionierunternehmen die ihnen von Josef Schumpeter zugewiesene Schlüsselrolle. Im Rahmen der wirtschaftstheoretischen Untersuchung von Innovationsgleichgewichten stehen Fragen wie beispielsweise die gleichgewichtige Höhe der gesamtwirtschaftlichen F&E-Ausgaben, die gleichgewichtige Zahl der am Innovationswettbewerb beteiligten Unternehmen oder die gleichgewichtige Richtung von Innovationsbemühungen im Mittelpunkt. Zur Beantwortung derartiger Fragen müssen für jedes Unternehmen Annahmen über den Zusammenhang zwischen den eigenen F&E-Aufwendungen und den erwarteten Gewinnen getroffen werden. Dazu werden meist für alle Unternehmen identische Verhältnisse unterstellt - eine theoretische Vereinfachung, die ihre Berechtigung durch die Beobachtung findet, daß auf oligopolistischen Märkten häufig die Tendenz einer gegenseitigen Assimilierung von Produkten, Marketingstrategien, Unternehmensstandorten etc. anzutreffen ist. Darüber hinaus muß im Rahmen der gleichgewichtsorientierten Innovationstheorie auch festgelegt werden, ob und in welcher Form die am Innovationswettbewerb beteiligten Unternehmen die Innovationsaktivitäten der Wettbewerber bei den eigenen Entscheidungen berücksichtigen. Man unterscheidet hier zwischen dem Coumot- und dem Bertrand-Gleichgewicht. Der erstgenannte Gleichgewichtstyp basiert auf der Annahme, daß die Unternehmen das mögliche Reaktionsverhalten ihrer Mitbewerber bei der Festsetzung der eigenen F&E-Budgets ausklammern (z. B. im Modell von Dasgupta und Stigitz; 1980). Im zweiten Fall wird die Berücksichtigung der Reaktionen ihrer Wettbewerber unterstellt (so. z. B. das Modell von Levin und Reiss 1984). Die Frage ist allerdings: wie? Einmal könnten die Unternehmen ihre eigenen F&E-Ausgaben in der Hoffnung reduzieren, an den F&E-Ergebnissen ihrer Mitbewerber als free rider partizipieren zu können. Die Folge wären gesamtwirtschaftlich zu geringe gleichgewichtige F&E-Budgets. Andererseits könnten die Unternehmen aus strategischen Gründen in einen F&EWettlauf mit ihren Konkurrenten eintreten, womit zwar insgesamt genügend F&E betrieben würde, jedoch in Form von eingleisiger Doppelt- und Mehrfachforschung. Das entsprechende Innovationsgleichgewicht wäre damit aus gesamtwirtschaftlicher Sicht ebenfalls suboptimal. Eigentlich müßte die hier angedeutete Verhaltensambivalenz der am Innovationswettbewerb beteiligten Unternehmen aus der empirischen Beobachtung entsprechender Marktvorgänge geklärt werden können. Doch gelangen die dazu veröffentlichten ökonometrischen Untersuchungen zu keinen tragfähigen Aussagen. Offensichtlich sind die mit der Innovationstätigkeit verbundenen Markt- und Unternehmensdaten für eine statistisch signifikante Überprüfung von Gleichgewichtsmodellen zu heterogen. Dies mag nicht zuletzt auch an dem bereits angesprochenen temporären Charakter von Innovationsgleichgewichten liegen.

Nichtgleichgewichtsprozesse bezüglich Innovationsvorgängen in der Ökonomie

409

2. Unteilbarkeiten und Skalenerträge im Innovationswettbewerb

Bleibt man dennoch bei der Vorstellung von Innovationsgleichgewichten als theoretisches Konstrukt zur temporären Darstellung bestimmter Phasen des Innovationswettbewerb's -, so lassen sich die bereits angesprochenen möglichen Ursachen für multiple Gleichgewichte präzisieren. Nachfolgend seien jeweils nur kurz Beispiele für Unteilbarkeiten und Skalenerträge diskutiert. Unteilbarkeiten des Innovationserfolgs bestehen beispielsweise im Bereich des Patentrechts oder bei der Durchsetzung neuer technischer Nonnen (vgl. z. B. hier das Modell von Sah und Stiglitz 1987). Befinden sich ursprünglich mehrere äquivalente Unternehmen in einem symmetrischen Wettbewerb um den entsprechenden Innovationserfolg, so wird die ursprüngliche Symmetrie mit dem Erreichen des Innovationsziels durch ein einziges Unternehmen offensichtlich aufgehoben. Welches Unternehmen wird den Wettlauf gewinnen? Welches der möglichen Koordinationsgleichgewichte selektioniert? Die Antwort ist trivial, wenn man unterstellt, daß einzelne Unternehmen besser als andere die Innovationsaufgabe zu lösen verstehen, also kein symmetrischer Wettbewerb vorliegt. Doch zum Innovationswettbewerb gehört gerade, daß die entsprechenden Verhältnisse für die Beteiligten ex-ante nicht so offensichtlich sind, denn sonst würden die von vorne herein benachteiligten Unternehmen diesen Wettbewerb gar nicht erst beginnen. Skalenerträge im Innovationswettbewerb ergeben sich aus Lemeffekten (learning by doing, learning by using, learning by learning) und der damit verbundenen Kumulation von spezifischem Know-how. Man denke beispielsweise an eine Situation, in der alternativ verschiedene F&E-Strategien eingeschlagen werden können, darunter auch eine, die durch einen Vorsprung an Know-how ausgezeichnet ist. In diesem Fall erscheint eine weitere Spezialisierung auf diese Innovationsrichtung ökonomisch vorteilhaft, während ein Wechsel der Innovationsrichtung zum (teil weisen) Verlust des bereits gewonnenen Erfahrungswissens führt. Man kann auch hier wieder von einem Koordinationsgleichgewicht im Innovationswettbewerb sprechen, welches durch einen anfänglichen Symmetriebruch selektioniert wurde. Wie aber kommt es zu der anfänglichen Spezialisierung unter mehreren F&E-Strategien, wenn keine der betrachteten F&E-Alternativen ex-ante besonders ausgezeichnet ist? Zwar können die Zeitpunkte charakterisiert werden, in denen solche Entscheidungen fallen, also Phasenübergänge vorliegen - in dieser Situation wird beispielsweise die eingeschlagene F&E-Strategie als ökonomisch aussichtslos beurteilt oder aber es gerät ein neues Problem ins Blickfeld, welches durch F&E-Bemühungen gelöst werden soll. Doch die Frage nach der Selektion der dann einzuschlagenden F&E-Strategie ist theoretisch nicht lösbar, sofern man nicht exante- Wissen über den jeweils erwarteten Innovationserfolg annimmt, also das grundlegende Problem in die exogenen Annahmen verbannt. Als Zwischenfazit kann hier festgehalten werden, daß die Anwendung der ökonomischen Gleichgewichtstheorie auf Innovationen wesentliche Fragen unbeant-

410

Georg Erdmann

wortet läßt. Bei genauerer Analyse dieser Fragen gelangt man auf das Wechselspiel zwischen stabilen Phasen, die mit dem Konzept des Innovationsgleichgewichts interpretiert werden können, und kurzfristig instabilen Situationen, die mathematisch isomorph zu Phasenübergängen sind. Symmetriebrüche im Sinne der physikalischen Nichtgleichgewichtsprozesse gehören demnach zu den entscheidenden Kennzeichen ökonomischer Innovationsprozesse, und dies bedeutet, daß die Entwicklung einer durch Innovationen geprägten Volkswirtschaft nicht allein aus der Vergangenheit heraus herleitbar ist. Die im Verlauf von Phasenübergängen und Symmetriebrüchen ablaufenden Vorgänge beruhen auf Fluktuationen, die als geringfügige Störungen normalerweise im allgemeinen Rauschen verschwinden, zu den kritischen Momenten von Symmetriebrüchen jedoch den Ausschlag für die weitere Entwicklung geben.

3. Treibende Kräfte des Innovationswettbewerbs

Angesichts der von Joseph Schumpeter entwickelten Theorie des schöpferischen Pioniers als die treibende Kraft für Innovationen ist es naheliegend, die für das Ergebnis von Symmetriebrüchen verantwortlichen Fluktuationen bei ökonomischen Phasenübergängen auf das Wirken singulärer Akteure zurückzuführen. Solche Akteure können besonders nachhaltige Wirkungen auslösen, wenn sich die wirtschaftliche Entwicklung in der Nähe von Phasenübergängen befindet und folglich durch ein besonderes Maß an Instabilität ausgezeichnet ist. Dadurch können zu bestimmten Zeitpunkten schon von vergleichsweise schwachen Impulsen einzelner Innovatoren Wirkungen ausgehen, die zu Zeiten relativer Stabilität nicht möglich sind. Dies entspricht der jedem Praktiker geläufigen Erfahrung, daß es für den Erfolg innovationsbezogener Handlungen entscheidend auch auf den Zeitpunkt ankommt, wann sie ergriffen werden. Was aber zeichnet die genialen Innovatoren gegenüber den anderen Akteuren aus? Im Rahmen der wirtschaftswissenschaftlichen Forschung wurde viel über die besonderen behavioristischen und psychologischen Eigenschaften der Innovatoren nachgedacht und diesen Individuen eine besondere Tüchtigkeit in Bezug auf Kreativität, Motivation, Selbstverwirklichung, Durchsetzungsfähigkeit, Management und Risikobereitschaft attestiert (z. B. sehr eingehend Kirzner 1973). Doch was sind die zugrunde liegenden strukturell stabilen Persönlichkeitsmuster, die im Rahmen einer individualistischen "Theorie der Findigkeit und Genialität" zu identifizieren und systematisch zu untersuchen wären - ähnlich wie es die mikroökonomische Theorie mit der Konstruktion der nutzen- und gewinnorientierten Akteure vormacht? Ein solcher Forschungsansatz erscheint schon deshalb wenig erfolgversprechend, weil Innovationen jeweils durch einige wenige, meist unkonventionell handelnde Pioniere vorangetrieben werden, während die große Masse zunächst abwartet. Die Theorie müßte also erklären, auf Grund welcher Faktoren einzelne Akteure

Nichtgleichgewichtsprozesse bezüglich Innovationsvorgängen in der Ökonomie

411

zu bestimmten Zeitpunkten ein von der Masse der Akteure abweichendes Handeln an den Tag legen. Wenn man dabei grundsätzlich am Konzept rational handelnder Individuen festhält, müßte man in diesem Kontext beantworten, wieso - im Fall des späteren Innovationserfolgs - nicht alle Akteure gleichzeitig diese Innovation betreiben. Man könnte an dieser Stelle argumentieren, daß der Innovationserfolg ex-ante nicht logisch aus den Eigenschaften und Anwendungspotentialen bestimmter Technologien sowie aus früheren Innovationserfahrungen heraus rational kalkulierbar ist und damit die Richtigkeit einer Innovationsentscheidung immer erst im nachhinein beurteilt werden kann. In dieser Ungewißheitssituation mag der / die Eine optimistischer und / oder risikobereiter sein als Andere, und so bleibt selbst eine sich später als attraktiv herausstellende Innovationsaktivität zunächst singulär. Doch mit dieser Argumentationslinie wird nur das Problem verschoben anstatt es zu lösen: Weshalb sollen die Erfolgseinschätzungen oder die Risikobereitschaft individuell unterschiedlich sein? Der einzige tragfähige Erklärungsversuch erscheint mir im Modell der Verhaltensheterogenität zu liegen (vgl. Erdmann 1993, insbesondere S. 103 ff.). Zwar beruht mehr oder weniger jeder individuelle Innovationsvorstoß auf einer (subjektiv) positiven Einschätzung des möglichen Innovationserfolgs - und kann deshalb auch durch innovationsfördernde wirtschaftspolitische Maßnahmen beeinflußt werden. Doch insgesamt sind Informationen über Innovationspotentiale, subjektive Innovationsfähigkeiten und -motive derart vielfältig und heterogen, daß die individuellen Innovationsaktivitäten im Einzelnen nicht auf einige wenige bestimmende Einflußgrößen zurückführbar sind. Wann immer das Verhalten eines Systems auf eine unüberschaubare Vielzahl von Einzelfaktoren zurückführbar ist und damit mathematisch gesprochen unendlich viele Freiheitsgrade vorliegen, so weist das entsprechende Systemverhalten einen stochastischen Charakter auf und ist über Zufallsvariable zu modellieren. Übertragen auf das individuelle Innovationsverhalten ist in diesem Fall keine rein deterministische Beschreibung möglich; vielmehr müssen individuelle Innovationsaktivitäten als Zufallsvariable dargestellt werden, womit der gesamte Prozeß des Innovationswettbewerbs stochastisch überlagert ist und als ein stochastischer Prozeß aufgefaßt werden muß. Akzeptiert man diese Überlegung, so folgt daraus, daß die für den Innovationsprozeß entscheidenden Symmetriebrüche interpretiert werden müssen als das Resultat von Zufallsfluktuationen. Wie in physikalischen Nichtgleichgewichtsprozessen ist das für den Ausgang des Symmetriebruchs entscheidende Element nicht aus dem zugrunde liegenden Systemverhalten selbst, sondern durch zusätzliche, in normalen Situationen irrelevante Faktoren bestimmt. Wenn aber das über den Innovationserfolg entscheidende Element nicht mehr das deterministisch berechnende Verhalten der am Innovationswettbewerb beteiligten Akteure ist, sondern letzten Endes Ergebnis eines Zufallsprozesses ist und

412

Georg Erdmann

damit unter Einschluß von Zufallsvariablen modelliert werden muß, hat dies natürlich erhebliche Implikationen für die Innovationstheorie und die daraus abgeleiteten Empfehlungen. So entscheidet sich der Innovationswettbewerb - entsprechend der vorstehenden Ausführungen - nicht unbedingt dergestalt, daß dem tüchtigeren Innovator der Innovationserfolg zufallt; es kann sich auch schlicht um den glücklicheren handeln. Diese Vorstellung erscheint aus sozialwissenschaftlicher Sicht nicht besonders attraktiv. Doch sofern man an der Vorstellung festhält, daß die wirtschaftliche Entwicklung modellhaft durch das Vorliegen multipler Gleichgewichte sowie gelegentliche Phasenübergänge und Symmetriebrüche aufgefaßt werden muß, ist das Konzept der Wahrscheinlichkeit aus sozial wissenschaftlicher Sicht gar nicht so inhaltsleer wie es auf den ersten Blick erscheint. Zur Motivation dieser Aussage sei Figur 2 herangezogen.

Potential V(x)

--- -x2

Zustandsvariable x Figur 2: Potentialfunktion mit zwei lokalen Minima

Die hier dargestellte Potentialfunktion zeigt zwei unterschiedliche lokale Minima, die jeweils als stabile Gleichgewichte interpretiert werden. Das gesamtwirtschaftliche Optimum X2 kann aus der Gleichgewichtssituation Xl heraus jedoch nicht erreicht werden, ohne daß die Potentialschwelle in Xo überschritten wird. Arthur (1988) spricht in diesem Fall von lock-in einer suboptimalen Situation. Zur Überwindung der Potentialschwelle müssen aktive Innovationsvorstöße erfolgen, deren Wirkung ausreicht, um den Systemzustand über die Potentialschwelle Xo hinaus zu verändern. Danach kann das Gleichgewicht X2 über Diffusionsprozesse erreicht werden. Die Figur 2 soll folgendes verdeutlichen: Offensichtlich gelingt die Überwindung der Potentialschwelle um so leichter, je kräftiger die Innovationsvorstöße der beteiligten Akteure sind. Entsprechend der vorstehenden Interpretation von indivi-

Nichtgleichgewichtsprozesse bezüglich Innovationsvorgängen in der Ökonomie

413

duellen Innovationshandlungen ist dies gleichbedeutend mit der Aussage, daß der Innovationserfolg um so größer ist, je heterogener und vielfältiger die Innovationshandlungen der Akteure sind. Wird diese Heterogenität als Varianz einer entsprechenden stochastischen Variable gemessen, so folgt die Aussage, daß eine Volkswirtschaft eine um so stärkere Innovationskraft besitzt, je größer die Verhaltensvarianz oder - gleichbedeutend - die Verhaltens vielfalt der Akteure ist. Mit dieser Interpretation sind Innovationsdurchbruche nicht nur in den singulären Phasenübergängen möglich (und fallen dabei gewissennaßen in den Schoß), sondern auch "in der Nähe" solcher Singularitäten. Dadurch kommt das Leistungsprinzip im Innovationswettlauf doch noch zur Geltung. Dennoch kann immer nur Wenigen der beabsichtigte entscheidende Durchbruch gelingen, viele - auch tüchtige - Innovatoren kommen nicht ans Ziel. Doch ohne immer neue, auch letztlich scheiternde Innovationsversuche ist in einer durch beschränkte Vorausschau gekennzeichneten Welt kein ständiger fluß erfolgreicher Innovationen möglich. III. Implikationen der neuen Theorie für innovationsorientiertes Handeln

Die hier skizzierte, teilweise aus der Erforschung physikalischer Ungleichgewichtsprozesse abgeleitete Theorie ökonomischer Innovationsvorgänge hat eine Reihe bedeutender praktischer Konsequenzen. Deren Basis ist die komplexe Dynamik der vielfach nicht-konvexen ökonomischen Beziehungen und Strukturen, in denen laufend neue potentielle Marktnischen (Gleichgewichte) sowie gelegentlich äußerst instabile Situationen entstehen, in denen besondere Innovationsgelegenheiten bestehen. Für die am Innovationswettbewerb beteiligten Unternehmen besteht demzufolge Aussicht darauf, daß Innovatiosvorstöße immer wieder einmal erfolgreich sein werden, insbesondere wenn sie zum richtigen Zeitpunkt mit einem besonderen Innovationsaufwand jenseits ausgetretener Pfade erfolgen. Doch leider lassen sich diese Erfolgsfaktoren von unternehmerischen Innovationen nicht ex-ante eindeutig identifizieren. Zwar haben Marktanalysen, Technikfolgeabschätzungen und Innovationsstrategien durchaus eine hilfreiche Funktion, vor allem zur frühzeitigen Wahrnehmung von Fehlentwicklungen und bei der Eventualfallplanung. Alle noch so elaborierten Analysen können allerdings nicht verhindern, daß jede auf die Erschließung grundlegender Innovationen ausgerichtete unternehmerische Aktivität prinzipiell riskant ist. Der Innovationserfolg ist abhängig von einem besonderen Maß an Instabilität auf den Märkten, und daher läßt sich ex-an te allenfalls ein Bruchteil der mit bestimmten Innovationsaktivitäten verbundenen Auswirkungen auf das eigene Unternehmen, die Wettbewerber und die Märkte abschätzen. Entsprechend kann es ohne Wagnisbereitschaft und Unternehmergeist (entrepreneurship) keine grundlegenden Innovationen - neue Technologien, Produkte, Märkte, Institutionen - geben.

414

Georg Erdmann

Auch die Innovationspolitik muß sich den innovationstheoretischen Gesetzmäßigkeiten beugen. Zwar verfügen staatliche Institutionen - allein schon wegen des von ihnen heute bewegten Finanzvolumens - Spielräume zur Förderung bestimmter Innovationen. Der Staat kann Pilotmärkte etablieren, beispielsweise durch die eigene Nachfrage nach Innovationen oder über das Ordnungsrecht. Er kann aktive Forschungsförderung bis hin zur Finanzierung von Demonstrations- und Pilotanlagen betreiben. Schließlich kann er im Bereich des Innovationswettbewerbs stimulierend einwirken. Doch gibt es darüber hinaus keinen Anlaß zur Vermutung, daß öffentliche Behörden oder Politikberater einen prinzipiellen Informationsvorsprung gegenüber den Märkten besitzen. In diesem Zusammenhang ist beispielsweise vor einer Fehlinterpretation der Möglichkeiten von Technikfolgeabschätzungen (technology assessment), sowie Sozial- und Umweltverträglichkeitsprüfungen zu warnen. Nicht selten treten derartige Untersuchungen mit dem Anspruch auf, ein wissenschaftliches Frühwarnsystem gegenüber technischen Fehlentwicklungen zu sein, produzieren jedoch kaum mehr als unbeweisbare Spekulationen, Vorurteile und Ideologien. Ferner unterliegt auch der Staat bei seinen innovationspolitischen Aktivitäten der komplexen nicht-linearen Wirtschaftsdynamik, wodurch der Erfolg bestimmter Maßnahmen auch vom Zeitpunkt abhängt, zu dem sie ergriffen werden. Es darf also keine reine Instrumentendiskussion geben, sondern ebenso wichtig ist Entwicklung von Zeitstrategien, bei denen die Frage im Mittelpunkt steht, wann der richtige Moment des HandeIns gekommen ist. Die praktische Umsetzung dieser Überlegungen scheitert freilich meist an der erwähnten Beschränktheit des Wissens: Zu den für die Impulse besonders attraktiven Zeitpunkten von Phasenübergänge liegt ein hohes Maß an Instabilität und Unsicherheit vor. Die Marktteilnehmer wie auch die öffentlichen Entscheidungsträger können in derartigen Situationen nur lokal und beschränkt, nicht global und umfassend aus theoretischen Überlegungen heraus zielkonform entscheiden. Es muß als geradezu paradox erscheinen: Gerade zu Zeiten, wo dank einer besonders hohen Instabilität mit wirtschaftspolitischen Maßnahmen besonders viel bewegt werden könnte, sind zielkonforme Entscheidungen durch schwache Informationsgrundlagen behindert. Dies legt es nahe, die innovationspolitischen Bemühungen verstärkt auf eine ordnungs- und wettbewerbspolitische Strategie auszurichten. Um hierzu einige weiterführende Hinweise zu geben, sei noch einmal daran erinnert, daß -. entsprechend dem hier entwickelten theoretischen Konzept - die Innovationskraft einer Volkswirtschaft von der individuellen Verhaltensheterogenität der Akteure bestimmt wird. Damit geraten u. a. die folgenden Rahmenbedingungen ins Blickfeld: Erstens sollten die Bemühungen auf eine Ausweitung der individuellen Handlungsvarianz gerichtet sein, denn damit steigt die gesamtwirtschaftliche Chance für das Entdecken von Marktnischen. Die Dezentralisierung von Entscheidungsbefugnisse (z. B. in Form von profit centers) wäre ein Weg dazu. Wesentlich ist

Nichtgleichgewichtsprozesse bezüglich Innovationsvorgängen in der Ökonomie

415

hierbei, daß Handlungsbefugnisse das Recht beinhalten müssen, anders als Andere zu entscheiden zu dürfen, selbst wenn dies sich ex-post als Irrtum (im Sinne des trial and error) herausstellt. Selbstverständlich darf dieser Grundsatz nicht ohne Grenzen implementiert werden. Ein zweiter Aspekt ist die Zugänglichkeit von Informationen im weitesten Sinne. Hier hat das Patentrecht eine ebenso wichtige Funktion wie das Bildungswesen und künftig wohl das Internet. Ein und dieselbe Information kann von verschiedenen Akteuren unterschiedlich interpretiert werden und zu unterschiedlichen Schlüssen - im Sinne der Handlungsvielfalt - führen. Damit ist der freie Informationszugang eine Quelle für gesamtwirtschaftliche Innovationskraft. Genießen innovative Akteure den Schutz einer Risikovorsorge (ohne dabei jegliche Verantwortung ihres Tuns auf die Allgemeinheit abwälzen zu können), so begünstigt dies die Bereitschaft zu vorstoßendem Pionierhandeln. Eine der wesentlichen Ursachen für die Innovationskraft westlicher Industriegesellschaften muß darin gesehen werden, daß die erfolglosen Innovatoren nicht in den mittelalterlichen Schuldturm gesteckt werden, sondern über das Instrument der beschränkten Haftung sowie das moderne Sozialsystem abgesichert sind. Man sollte die Mär von der ineffizienten Doppelforschung ad acta legen. Natürlich kann es sich keine Volkswirtschaft leisten, auf allen denkbaren Gebieten an der Spitze der Forschung und Entwicklung zu stehen. Eine Konzentration der öffentlichen Forschungsförderung auf bestimmte Forschungsthemen ist auch aus haushaltspolitischen Gründen geboten. Doch sollte die öffentliche Forschungsförderung - unter diesen Restriktionen - ihren strategischen Ansatzpunkt in der Förderung der Vielfalt und Breite von Forschungs- und Innovationsansätzen sehen und dabei auf die Stärkung der individuellen Handlungsvielfalt achten. Die Realität sieht leider meist anders aus. Der Staat neigt dazu, den Marktzutritt neuer Forscherteams und -richtungen zu behindern, und läßt das Entstehen von "Erbhöfen" zu. Wenn schon bei der privat oder öffentlich finanzierten Großforschung kein Wettbewerb zwischen verschiedenen F&E-Projekten finanzierbar erscheint, so sollte zumindest ein projektintemer Wettbewerb zwischen den Forschergruppen erfolgen. Zwar wird ein Teil der gewonnenen Kenntnisse später nicht genutzt, doch wer vermag schon im voraus zu beurteilen, welche Teilprojekte erfolgreich, welche zu Fehlschlägen werden?

Literatur Arrow, K. (1974): Essays in the Theory of Risk Bearing. Amsterdam: North Holland Arrow, K./Debreu, G. (1954): Existence of an Equilibrium for a Competitive Economy. Econometrica 22, 265 - 290 Arrow, K. J./Hahn, F. (1971): General Competitive Analysis. New York: Holden-Day

416

Georg Erdmann

Arthur; W. B. (1988): Self-reinforcing mechanisms in economics. In: Anderson, P. W. / Arrow,

K.J. / Pines, D. (eds.), The Economy as an Evolving Complex System. Redwood City: Addison-Wesley, 9 - 31

Dasgupta, P. J. / StigZitz, J. (1980): Industrial Structure and the Nature oflnnovative Activity. The Economic Journal 90, 266 - 293 Erdmann, G. (1993): Elemente einer evolutorischen Innovationstheorie. Tübingen: Mohr

(Paul Siebeck)

- (1997): Ein nichtlineares Modell zur mittel- bis langfristigen Prognostizierbarkeit des Erdölpreises. In: Fulda, E. / Härter, M. (Hrsg.) Neue Ansätze in der Prognostik. Frankfurt: Lang Heri, E. W. (1986): Irrationales rational gesehen: Eine Übersicht über die Theorie der "Bubb-

les". Schweizerische Zeitschrift für Volkswirtschaft und Statistik 122, 163 -186

Kirzner; I. M. (1973): Competition and Entrepreneurship. Chicago: Chicago University Press;

dt.: Wettbewerb und Unternehmertum. Tübingen 1978: Mohr

Levin, R. C. / Reiss, P. C. (1984): Tests of a Schumpeterian Model of R&D and Market Struc-

ture. In: Griliches, Z. (ed.) R&D, Patents, and Productivity. Chicago, London: University of Chicago Press, 175 - 204

Malinveaud, E. (1977): The Theory of Unemployment Reconsidered. Oxford: Basil Black-

weIl

MarshalI, A. (1962 - 1891e): Principles of Economics. 8th edition. London: Macmillan Pratt, J. W. (1964). Risk Aversion in the Small and in the Large. Econometrica 32,122- 136 Rogers, E. M. (1983): Diffusion of Innovations. 3rd edition, New York: Free Press Rose, H. (1967): On the Nonlinear Theory of the Employment Cycle. Review of Economic

Studies 34, 153 - 173

Sah, R. K. / Stiglitz, J. E. (1987): The invariance of market innovation to the number of firrns.

Rand Journal of Economics 18, 98 - 108

Schumpeter; J. (1912). Theorie der wirtschaftlichen Entwicklung. Eine Untersuchung über

Unternehmergewinn, Kapital, Kredit, Zins und Konjunkturzyklus. 5. Auflage 1952. Berlin: Duncker & Humblot

Stoneman, P. (1983). The Economic Analysis of Technical Change. Oxford: Oxford Univer-

sity Press

WirZ, F. (1990): The Future of World Oi! Prices. Energy Policy, October 1990, 756 - 763 Witt, U. (1987): Individualistische Grundlagen der evolutorischen Ökonomik. Tübingen:

Mohr

"Saltationismus" versus "Kumulative Variation-Selektion" - Die Entstehung einer Invention als Selbstorganisationsprozeß Von Günter Hesse und Lambert T. Koch, Jena I. Das Problem: Die Entstehung einer Problemlösung

Neuerungen stellen im alltäglichen Prozeß sozio-ökonomischen Wandels ein konstitutives Moment dar. I Bekanntlich durchlaufen sie verschiedene Phasen, wobei eine gebräuchliche Einteilung die Phasen der Invention, der Innovation und der Diffusion unterscheidet. 2 Unter Invention versteht man dabei die Erarbeitung einer neuen Problemlösuni; als Innovation wird der Vorgang bezeichnet, in dem sich eine solche Problemlösung am Markt der Beurteilung anderer Akteure stellt; und der Vorgang der Diffusion beschreibt schließlich die Art der Aufnahme einer Innovation in der Volkswirtschaft.

Der vorliegende Beitrag beschäftigt sich mit der Frage, wie der erste Schritt, die Entstehung einer Problemlösung, gedanklich erfaßt werden kann. Da jeder Innovation und ihrer Ausbreitung notwendig die Inventionsentstehung vorausgehen muß, könnte man vermuten, daß diesem Phänomen bereits ähnlich viel Aufmerksamkeit geschenkt wurde, wie den nachfolgenden Phasen des Neuerungsprozesses. Doch dies scheint nicht der Fall zu sein; verfolgt man die einschlägige Literatur, zeigt sich vielmehr, daß allein die Innovations- und Diffusionsforschung auf eine reiche Tradition in der Ökonomik zurückblicken können. 4 I Schumpeter unterscheidet dabei fünf Neuerungsvarianten: Neben der Herstellung neuer Güter, der Einführung neuer Produktionsmethoden und der Erschließung neuer Absatzmärkte nennt er die Eroberung neuer Bezugsquellen von Rohstoffen und Halbfabrikaten sowie die Durchführung von Neuorganisationen. Vgl. Joseph A. Schumpeter, Theorie der wirtschaftlichen Entwicklung, 7. Aufl., Berlin 1911/ 1987, S. lOOf. 2 Vgl. etwa Christoph Maas, Determinanten betrieblichen Innovationsverhaltens, Berlin 1990, S. 21. 3 Nach Giovanni Dosi, Sourees, Procedures, and Microeconomic Effects of Innovation, Journal 01 Economic Literature, Vol. 26, 1988, S. 1125, involvieren Inventionen, "in very general terms, ... the solution of problems". 4 Vgl. etwa Everett M. Rogers, The Diffusion of Innovations, New York 1962; Nathan Rosenberg, Perspectives on Technology, Cambridge 1976; J. Stanley Metcalfe, Impulse and diffusion in the study of technical change, Futures, Vol. 13, 1981, S. 347 - 359; Richard R. Nelson/ Sidney G. Winter, An Evolutionary Theory of Economic Change, Cambridge 1982;

27 Selbstorganisation. Bd. 9

418

Günter Hesse und Lambert T. Koch

Im Folgenden soll diesem Defizit begegnet und gezeigt werden, wie sich die Entstehung einer Problemlösung als Entstehung eines Systems adaptiver Komplexität begreifen läßt. Denn Problemlösungen bestehen in aller Regel aus einer Vielzahl einander sinnvoll zugeordneter Teile. Man kann sie in dieser Hinsicht mit einem Organismus vergleichen und ihre Entstehung - wie später gezeigt werden soll- durch die Anwendung von Grundgedanken der modernen Evolutionsbiologie erhellen. Blickt man in die aktuelle Innovations-Literatur, so drängt sich freilich der Eindruck auf, daß hier unbewußt in Analogie zu einer (anderen) Evolutionstheorie gedacht wird, die gegen Ende des 19. Jahrhunderts und um die Jahrhundertwende en vogue war: Nach Auffassung der sogenannten "Saltationisten,,5 entstehen Baupläne für neue Arten schlagartig, beispielsweise durch Mutation, und stellen sich anschließend der Selektion. Das heißt, die Bauplanentstehung selbst wäre nach dieser Vorstellung nicht als Variations-Selektionsprozeß zu denken - so wie analog in der Neuerungsliteratur die Inventionsentstehung üblicherweise nicht als Variations-Se1ektionsprozeß gedacht wird. 6 Auch dort entstehen Inventionen schlagartig und unerklärt und werden anschließend dem Selektionsprozeß des Marktes ausgesetzt. Eine solche "saltationistische" Variation von Inventionen ist aus einer Reihe von Gründen unbefriedigend. Zunächst einmal bietet sie dem bereits von Penrose gegen Alchian vorgebrachten Argument gegen die Anwendbarkeit der Evolutionstheorie in der Ökonomik eine günstige Angriffsfläche. Inventionen entstehen offensichtlich in aller Regel nicht durch blinden Zufall, sondern sind wenigstens teilweise das Resultat intentionalen Handeins der Menschen. 7 Die Vorstellung der Entstehung einer Invention auf einen Schlag widerspricht darüber hinaus ResulGiovanni Dosi, Technical Change and Industrial Transformation: The Theory and an Application to the Semi-conductor Industry, London 1984; Gerald Silverberg / Bart Verspagen, Collective 1earning, innovation and growth in a boundedly rational, evolutionary world, Journal 0/ Evolutionary Economics, Vol. 4, S. 207 - 226. 5 Vgl. Ernst Mayr; Die Entwicklung der biologischen Gedankenwelt, Berlin 1984, S.436ff. 6 Selbst in bekannten Herausgeberwerken, wie beispielsweise denjenigen von Christopher Freeman, The Economics of Innovation, A1dershot 1990; P. Paolo Saviottil J. Stanley Metcalfe, Evo1utionary Theories of Economic and Techno10gical Change: Present Status and Future Prospects, Chur usw. 1991; oder auch Yuichi Shionoya/Mark Perlman, Innovation in Technology, Industries, and Institutions: Studies in Schumpeterian Perspectives, Ann Arbor 1994, ist kein Beitrag enthalten, der sich expressis verbis mit dem Prozeß der Entstehung von Inventionen befaßt. Wyatt hingegen beschreibt zwar den Prozeß, versucht jedoch nicht zu erklären, wie eine Problemlösung als System adaptiver Komplexität entsteht. Vgl. Geoffrey "yatt, The Economics of Invention: A Study of the Determinants of Inventive Activity, Brighton 1986, S. 28ff. 7 Vgl. Edith T. Penrose, Biological Ana10gies in the Theory of the Firm, American Economic Review, Vol. 42., 1952, S. 819; Armen Alchian, Uncertainty, Evolution, and Economic Theory, Journal 0/ Political Economy, Vol. 58, 1950, S. 220. Siehe genauer FN 37.

"Saltationismus" versus "Kumulative Variation-Selektion"

419

taten der Kreativitätsforschung 8 und ist ganz offensichtlich empirisch falsch, da Inventionen - wie viele Beispiele zeigen - aus einem zeitkonsumierenden Forschungsprozeß resultieren. Inventionen sind, da sie per definitionem unter anderem nicht-antizipierbare Elemente enthalten, auch nicht mit einem "constraint choice Modell" (Auswahl der Alternative mit dem höchsten Zielerreichungsgrad aus einer Menge gegebener Alternativen) erfaßbar, denn die letztlich realisierte Lösung kann nicht schon Bestandteil der Alternativenmenge zu Beginn des Forschungsprozesses sein. 9 Und schließlich ist noch zu erwähnen, daß selbstverständlich auch "Maschinenmodelle" ungeeignet sind, den Prozeß der Entstehung einer Invention gedanklich angemessen zu erfassen. 1O Als "Maschine" kann man in Anlehnung an H. v. Förster einen Zusammenhang zwischen einem bestimmten Outputzustand Y(t) zur Zeit t, einem vermittelnden "internen Zustand" Z(t) zur Zeit t und einem Inputzustand X(t) zur Zeit t bezeichnen, bei dem Z entweder invariant gesetzt (triviale Maschine) oder auf eine vorgegebene Weise verändert wird (nicht-triviale Maschine).l1 Ist eine derartige Erfassung möglich, läßt sich das Explanandum (E) mit Hilfe der deduktiven Logik - oder genauer: mit Hilfe des modus ponens - aus einem Aussagensystem, das aus Sätzen über Ausgangsbedingungen (A) und Gesetzesaussagen (A -> E) besteht, "deduzieren".12 Um diese Art der "beweisenden" Wissenschaft auf einen Erklärungsgegenstand anwenden zu können, müßte man nicht nur die Antecedensbedingungen identifizieren, sondern auch entsprechende Zuordnungs vorschriften, Funktionen oder Gesetzesaussagen (universelle Konditionalsätze) aufstellen können. Ein wissenschaftlicher Beobachter ist hierzu für gewöhnlich nur in der Lage, wenn er "über" dem beobachteten System steht - wie sich dies etwa bei einem Physiker oder Chemiker in Relation zur eigenen Versuchsanordnung oder einem Biologen, der das Verhalten von Graugänsen erforscht, verhält. Nur ein solchermaßen beobachtender Wissenschaftler kann alle möglichen Reaktionen seiner Apparatur oder alle Verhaltensweisen seiner animalischen Probanden aufzählen; allein er kann - im gedanklichen Extremfall - bei einer hinreichenden Beobachtungsqualität und Versuchsdauer das komplette mögliche "Ereignisfeld" angeben. 8 Vgl. die Kritik von Robert Weisberg, Creativity, New York 1986, S. 137ff. an dem Konzept der "one step creation". 9 Vgl. hierzu auch Jochen Röpke, Die Strategie der Innovation: Eine systemtheoretische Untersuchung der Interaktion von Individuum, Organisaton und Markt im Neuerungsprozeß, Tübingen 1977, S. 72ff.; sowie Ulrich Witt, Individualistische Grundlagen der Evolutorischen Ökonomik, Tübingen 1987, u. a. S. 183 ff. IO Zu den Begriffen vgl. Mayr (FN 5); Norbert Bischof, Ordnung und Organisation als heuristische Prinzipien reduktiven Denkens, in: Heinrich Meier (Hrsg.), Die Herausforderung der Evolutionsbiologie, München 1988. 11 Vgl. Heinz von Förster; Sicht und Einsicht, Braunschweig 1985, S. 12ff. und S. 177ff. 12 Dies entspricht einer Anwendung des sogenannten Hempel-Oppenheim-Schemas der deduktiv-nomologischen Erklärung.

27*

420

Günter Hesse und Lambert T. Koch

Im Kontext der Entstehung einer Invention hingegen sind diese Voraussetzungen, wie gesagt, nicht gegeben. Mit der Einbeziehung kreativer Menschen als Akteure können vielmehr zu jedem Zeitpunkt der Inventionsgenese auch solche Elemente auftreten, die vom Beobachter-Wissenschaftler nicht antizipierbar sind. Man kann in einem solchen Fall von einer "relativistischen Komplexität" sprechen: 13 Das bedeutet, beobachtetes und beobachtendes System sind von gleichem Komplexitätsniveau, weshalb die Erklärung des konkreten Verhaltens des beobachteten Systems ein äußerst schwieriges Problem darstellt. Ein möglicher Umgang mit dieser Schwierigkeit besteht darin, sich bezüglich der Erklärung des konkreten Verhaltens von Systemen gleicher Komplexität auf die Analyse bereits erfolgter Prozesse der Komplexitätsreduktion (Geschichte) zu beschränken. 14 Will man das Verhalten von Systemen gleicher Komplexität demgegenüber in allgemeiner Weise beschreiben, so kann dies nur in Form eines Erklärungsmusters geschehen. An diesem Punkt nun stößt man wieder auf die Evolutionsbiologie, die sich bereits seit geraumer Zeit mit ähnlich schwierigen Fragestellungen auseinandersetzt. Es erscheint daher als zielführend, von ihr zu lernen und dazu im zweiten Abschnitt kurz darzulegen, wie in ihrem Kontext die Entstehung von Systemen adaptiver Komplexität erklärt wird. Im dritten Abschnitt wird dieses Erklärungsmuster dann in die Ökonomik übertragen. . 11. Das Erklärungsmuster der biologischen Evolutionstheorie Ernst Mayr, einer der Begründer der modemen synthetischen Evolutionstheorie, unterscheidet zwei Biologien: Die "Funktionsbiologie" und die ,,Evolutionsbiologie". Die Funktionsbiologie befaßt sich als "Biologie des Körpers" mit chemischphysikalischen Vorgängen in Körpern und wird weitgehend in Analogie zu den "exakten" Wissenschaften betrieben; die Evolutionsbiologie als "Biologie des genetischen Programmes" versucht zu erklären, wie das genetische Programm einer biologischen Struktur zustandekommt. 15 In unserem Zusammenhang interessiert lediglich die Evolutionsbiologie, die nicht erst seit Darwin zwei zentralen Fragen nachgeht: Wie ist zum einen die Existenz zweckmäßiger biologischer Systeme (Organismen) und wie sind zum anderen Vielfalt und Wandel der Arten (Phylogenese, Abstammung) zu erklären? Vgl. Helmut Blaseio, Das Kognos-Prinzip, Berlin 1986, S. 28. Vgl. genauer Günter Hesse, Geschichtswissenschaft und evolutorische Ökonomik, in: Michael North/Olaf Märke (Hrsg.), Die Entstehung des modemen Europas 1600-1900, Böhlau 1997a, S. 2. 15 Vgl. hierzu Ernst Mayr, Die Darwinsche Revolution und die Widerstände gegen die Selektionstheorie, in: Heinrich Meier (Hrsg.), Die Herausforderung der Evolutionsbiologie, München 1988, S. 244; sowie ders., Eine neue Philosophie der Biologie, München 1991, S.29f. 13

14

"Saltationismus" versus "Kumulative Variation-Selektion"

421

Die zweite Frage wird kurz im vierten Abschnitt angesprochen. Die erste Frage hingegen steht nun im Mittelpunkt unseres Interesses. Eine Antwort auf sie wird durch das Konzept der kumulativen Variation-Selektion gegeben, das Dawkins als "die einzige bekannte Erklärung für adaptive Komplexität" bezeichnet. 16 Kemelemente dieses Konzeptes sind die Reproduktion (oder Replikation) des genetischen Programmes eines Organismus, die Variation dieses Programmes und schließlich seine Selektion durch unterschiedlichste Umweltfaktoren. Der Maßstab für die Qualität von "Anpassungsleistungen" an den entstehenden Selektionsdruck ist der differentielle Fortpflanzungserfolg der Organismen. Wenn die relevante Selektionsumgebung über hinreichend viele Reproduktionsakte hinweg unverändert bleibt, entsteht eine Population von an diese Umwelt "angepaßten" Organismen. 17 Mit dem Konzept der kumulativen Variation-Selektion kann man somit erklären, warum Lebewesen und ihr genetisches Programm auf ein Ziel hin organisiert zu sein scheinen, ohne daß ein Organisator angegeben werden muß. 18 Bei der Erklärung eines konkreten beobachteten Bauplanes (Art) sieht sich die Evolutionsbiologie vor ähnliche methodologische Schwierigkeiten gestellt, wie sie oben für die Innovationsforschung ausgemacht wurden. Denn zu dieser Aufgabe gehören sowohl die Rekonstruktion der Vorfonn als auch die Rekonstruktion der Umwelt, "auf die hin die Systemstruktur sich organisiert hat". 19 Eine solche Ana16 V gl. Richard Dawkins, Auf welche Einheiten richtet sich die natürliche Selektion?, in: Heinrich Meier (Hrsg.), Die Herausforderung der Evolutionsbiologie, München 1988, S. 76. 17 Vor Mißverständnissen bei der Verwendung des Begriffes "Anpassung" warnt allerdings Hesse (FN 14), S. 4. Man könne nicht zeigen, ob ein '"angepaßtes System" irgendein "Optimum" im Sinne eines bestmöglichen Zustandes realisiere. Denn um mathematische Optimierungsverfahren im strikten Sinne anwenden und dann zeigen zu können, daß ein Element einer möglichen Menge das bestmögliche sei, müßte man den Gegenstand als "Maschine" im oben beschriebenen Sinne modellieren können. Vgl. ähnlich auch Gerhard Roth, Selbstorganisation - Selbsterhaltung - Selbstreferentialität: Prinzipien der Organisation der Lebewesen und ihre Folgen für die Beziehung zwischen Organismus und Umwelt, in: Andreas Dress et al. (Hrsg.), Selbstorganisation, München 1986, S. 162 f. 18 In der vorliegenden Arbeit wird der Begriff "Selbstorganisation" nur zur Bezeichnung von Vorgängen verwendet, die als kumulativer Variations-Selektionsprozeß im angedeuteten Sinne modelIierbar sind. In anderen Fällen könnte man vielleicht von "Selbstordnung" oder "Selbststrukturierung" sprechen. Vgl. Hermann Haken / A. Wunderlin, Die Selbststrukturierung der Materie: Synergetik in der unbelebten Umwelt, Braunschweig 1991. Zur Problematik der Verwendung des Selbstorganisationsbegriffs vgl. bes. Bischof(FN 10), S. 125; Wolfgang Krohn/Günter Küppers, Selbstreferenz und Planung, in: Uwe Niedersen/Ludwig Pohlmann (Hrsg.), Selbstorganisation: lahrbuchfür Komplexität in den Natur-, Sozial- und Geisteswissenschaften, Bd. I, Berlin 1990, S. 201 ff.; Gtibor Kiss, Grundzüge und Entwicklung der Luhmannschen Systemtheorie, 2. Aufl., Stuttgart 1990, S. 30ff.; Werner Kirsch/Dodo zu Knyphausen, Unternehmungen als "autopoietische" Systeme?, in: Wolfgang H. StaehlelJörg Sydow (Hrsg.), Managementforschung 1, Berlin/New York 1991, S. 78ff.; Lambert T. Koch, Evolutorische Wirtschaftspolitik: Eine elementare Analyse mit entwicklungspolitischen Beispielen, Tübingen 1996, S. 38 ff.; Peter M. Hejl, Konstruktion der sozialen Konstruktion: Grundlinien einer konstruktivistischen Sozialtheorie, in: Siegfried J. Schmidt, (Hrsg.), Der Diskurs des radikalen Konstruktivismus, 7. Aufl., Frankfurt a.M. 1996, S. 322 ff. 19 Vgl. Bischof(FN 10), S. 118.

422

Günter Hesse und Lambert T. Koch

lyse erfordert in aller Regel intensive empirisch-historische Feldforschung und ist nur in den seltensten Fällen in erschöpfender Weise möglich. Selbst wenn Vorform und relevante Selektionsumwelt umfassend dargestellt werden könnten, so wäre daraus noch nicht in deduktiv-nomologischer Weise der betrachtete Organismus "ableitbar", weil im Rahmen der Evolution stets auch "Neues" im eigentlichen Sinne des Wortes entsteht. 20 In der Evolutionsbiologie kann es nicht, wie in anderen naturwissenschaftlichen Disziplinen eine "exakte" Beweisführung geben; realistisch erscheint allein der Versuch, "die Verursachung eines historischen Vorganges ... indirekt, oder wie man auf Englisch sagt: ,by inference' wahrscheinlich [zu] machen".21 Mayr spricht daher davon, daß Charles Darwin die "Methodologie einer historischen Wissenschaft" begründet habe?2 IU. Kumulative Variation-Selektion als Erklärungsmuster für die Entstehung einer Invention

Inventionen wurden als Problemlösungen bezeichnet, die in aller Regel aus einer Vielzahl einander sinnvoll zugeordneter Elemente bestehen: als Systeme adaptiver Komplexität. In diesem Abschnitt soll gezeigt werden, wie sich das Erklärungsmuster, das die Evolutionsbiologie für die Entstehung von Systemen adaptiver Komplexität bereithält, in der ökonomischen Innovationsforschung anwenden läßt. Ein einfaches Beispiel für die Entstehung einer Problemlösung kann schon das Schreiben dieses Beitrages zum Jahrbuch für Komplexität darstellen. Denn auch er läßt sich als ein komplexes System aus vielen mehr oder weniger sinnvoll aufeinander abgestimmten Elementen interpretieren. In diesem Falle bestehen die Elemente aus Wörtern, Satzzeichen, Teilsätzen und Sätzen, wobei entscheidend ist, daß sie auf einen Zweck hin - hier: auf die gedankliche Erfassung der Entstehung einer Problemlösung - organisiert sind. Wie jede andere wissenschaftliche Arbeit entsteht die betrachtete Problemlösung in einem zeitkonsumierenden Prozeß, in dem weder das konkrete Endergebnis noch die einzelnen Schritte antizipierbar sind?3 20 Vgl. hierzu etwa Martin Mahner, Anmerkungen zu Ernst Mayr: "Evolution - Grundfragen und Mißverständnisse", Ethik und Sozialwissenschaften, Bd. 5,1994, S. 235. 21 Vgl. Mayr, Revolution (FN 15), S. 244. 22 Vgl. Mayr, Revolution (FN 15), S. 243; Michael Drieschner, Die begriffliche Struktur der (neo)darwinistischen Theorie, Ethik und Sozialwissenschaften, Bd. 5., 1994, S. 216, merkt an: "Die Evolutionstheorie ist keine deduktiv-nomologische Theorie im Sinne des Hempel-Oppenheim-Schemas". Und Ebeling betont mit Blick auf ihren zentralen Gegenstand: "Evolution ist ihrem innersten Wesen nach ein historischer Prozeß und ihre Resultate können nur historisch verstanden werden". Wemer Ebeling, Instabilität, Mutation, Innovation, Erneuerung aus evolutions-theoretischer Sicht, in: Uwe Niedersen/Ludwig Pohlmann (Hrsg.), Selbstorganisation: lahrbuchfür Komplexität in den Natur-, Sozial- und Geisteswissenschaften, Bd. I, Berlin 1990, S. 55. 23 Es liegt daher, wie im ökonomischen Kontext gesagt wird, ex ante "echte Unsicherheit" vor, womit eine Imponderabilitätskategorie gemeint ist, die im Gegensatz zum statistisch

"Saltationismus" versus "Kumulative Variation-Selektion"

423

Um einen derartigen Prozeß als kumulativen Variations-Selektionsprozeß, an dessen "Ende" eine Problemlösung steht, gedanklich erfassen zu können, muß man ihn zunächst in einzelne Variations-Selektionsakte zerlegen (Mikrofundierung der Theorie der Inventionsentstehung). Auf diese Weise erhält man als analytisches "Elementarteilchen" die "Handlung in einer Gegenwart,,?4 Das Schema zur Erfassung der Komponenten dieses "Elementarteilchens" (Abbildung 1) besteht aus drei Teilen, den Handlungsgrundlagen (1), der mentalen Situation (11) und dem Verhalten (111) sowie zwei verbindenden Prinzipien. Die Teile 1 und 11 werden durch das "Prinzip der kognitiven Kreation" und die Teile 11 und 111 durch das "Rationalprinzip" verbunden. Die in Abbildung 1 eingezeichnete Doppellinie umgibt den sogenannten situationslogischen Teil der "Handlung in einer Gegenwart", bestehend aus der mentalen Situation des Akteurs, seiner letztlich realisierten Handlung als Teil der wahrgenommenen Handlungsalternativenmenge und dem Rationalprinzip. Es ist dies zugleich der auch von der "exakten" mikroökonomischen Theorie im Rahmen ihres "constraint choice-Ansatzes" in zahlreichen Varianten thematisierte Teil einer "Elementarhandlung". Darstellen läßt er sich mittels eines deduktiv-nomologischen Erklärungsschemas, wobei dem Rationalprinzip die Rolle der nomologischen Hypothese zukommt. Im Sinne eines "Brückenprinzips,,25 besagt es, daß Menschen im Rahmen reflektierter Handlungen aus allen wahrgenommenen Alternativen immer diejenige mit dem höchsten Zielerreichungsgrad realisieren. Die Ordnung der Alternativen erfolgt nach Maßgabe einer Bewertungsfunktion, die ebenfalls Teil der mentalen Situation ist. Ein anderer, gedanklich vorzuschaltender und zugleich (vor)entscheidender Schritt in dem Gesamtschema "Handlung in einer Gegenwart" ist hingegen nicht mit Hilfe "exakter" Theorie darstellbar, weshalb er möglicherweise in der neoklassischen ökonomischen Theoriebildung vernachlässigt wird. Es gibt keinen Algorithmus, der es erlauben würde, den Schritt von den beobachtbaren Handlungsgrundlagen (1) hin zur nicht beobachtbaren mentalen Situation (Il) zu berechnen. Ausschlaggebend hierfür ist die Funktionsweise des menschlichen Wahrnehmungsapparates, der die von außen kommenden Reize nicht einfach passiv-rezeptiv abbildet, sondern aktiv-konstruktiv mit vorhandenen kognitiven Strukturen verbindet. Jede Wahrnehmung wird gewissermaßen "konstruiert", wobei Phänomene berechenbaren "Risiko" die Anwendung "mathematischer ModelIierungen" ausschließt. V gl. Kenneth J. Arrow, Alternative Approaches to the Theory of Choice in Risk-Taking Situations, Econometrica, Vol. 19. 1951, S. 417. 24 Vgl. eingehend hierzu Günter Hesse, Evolutorische Ökonomik oder Kreativität in der Theorie, in: Ulrich Witt (Hrsg.), Studien zur Evolutorischen Ökonomik I, Berlin 1990, S. 56 ff.; ders., Wirtschaftswissenschaftliche Evolutionstheorie, in: Reinhard Haupt! Werner Lachmann (Hrsg.), Selbstorganisation in Markt und Management?, Neuhausen 1995, S. 27 ff. 25 Vgl. hierzu Noretta Koertge, Popper's Metaphysical Research Program for the Human Sciences, Inquiry, Vol. 18,1975, S. 437 ff.

424

Günter Hesse und Lambert T. Koch

wie Perzeption (Reizaufnahme durch Sinneszellen und -organe), Inferenz (implizite Schlußfolgerungen), Erinnerung und Attribution (Ursachenzuschreibung) als mentale Operationen fungieren. 26 Der Tätigkeit unseres Gehirns kommt außerdem ein autonomer oder spontaner Charakter zu, der sich zum Beispiel darin zeigt, daß Wahrnehmungsinhalte auch dann geändert werden, wenn in den Sinnesdaten keine Änderung eintritt. All diese Merkmale des kognitiven Apparates werden hier mit dem "Prinzip der kognitiven Kreation" erfaßt, welches in unserer Darstellung das noch fehlende Bindeglied zwischen den in der Abbildung 1 als ,J" und ,JI" bezeichneten Teilen einer "Elementarhandlung" darstellt. In ihm kommt gewissermaßen die Kreativität und damit die "echte Unsicherheit" in die ökonomische Welt, womit man zugleich auf den logischen Ausgangspunkt für das Auftreten von Inventionsprozessen stößt. spontane, intrapersonaJe Vorgänge und nicht intendierte, in t,. entdeckte Folgen eigene r Handlungen in t,..m

intendierte Konsequenzen aus eigenen Handlungen in tn. m

, I I I

,r I

Konsequenzen, resultierend aus Handlungen anderer Individuen

Routinen

I

- "Vermögen" - Ziele, Zwecke

Handlungsgrundlage tn

partiell von anderen Individuen beobachtbar

Prinzip der kognitiven Kreation II mentale Situation

- Alternativen - Ordnung der Alternativen

~

nicht beobachtbar

Rationalprinzip Nebeneffekte für andere Individuen

Nebeneffekte für eigene Handlungen in t,,+m

III Realisation ....~.--

der am höchsten bewerteten Alternative tn



intendierte Konsequenzen für eigene Handlungsgrundlagen in~+m

,

partiell von anderen Individuen beobachtbar

Routinen

Abb. I: Handlung in einer Gegenwart (t n ) (Hesse 1990) 26 Für diese Zusammenhänge hat bereits die kognitive Psychologie der siebziger Jahre zahlreiche wohl fundierte theoretische und empirische Ergebnisse bereitgestellt. Vgl. stellvertretend Ulrie Neisser, Cognition and reality, San Francisco 1976.

"Saltationismus" versus "Kumulative Variation-Selektion"

425

Unser kognitiver Apparat präsentiert seine "Arbeitsergebnisse" in einem zeitlichen Rhythmus. Dies äußert sich darin, daß er physiologische Ereignisse oder "Sinnesreize", die während eines bestimmten Zeitraums geschehen, zu einem Bewußtseinsinhalt integriert, um sie nach kurzem durch einen anderen zu ersetzen. Die Obergrenze für die Dauer eines solchen Bewußtseinsinhaltes liegt nach neueren Forschungsergebnissen - namentlich denen von Pöppe1 - bei ungefähr drei Sekunden. 27 Jegliches menschliche Handeln ist offenbar eingebettet in aufeinanderfolgende ,,zeitfenster" von dieser Dauer, wobei kognitive Inhalte innerhalb eines ,,zeitfensters" aus neurophysiologischen Gründen invariant sind. 28 Vor diesem Hintergrund ist "die erlebte Kontinuität ... eine Illusion. In Wirklichkeit müssen wir eine zeitliche Segmentierung annehmen. ,,29 Man erhält somit diskrete Analyseeinheiten, vergleichbar etwa mit einer ontogenetischen Einheit in der biologischen Evolutionstheorie. Die Handlung in einer Gegenwart hat dann nicht mehr, wie sonst üblich, den Charakter eines interpretatorischen Konstruktes,30 sondern einer ontologischen Entität. 31 In einer "Handlung in einer Gegenwart" ist mit dem Prinzip der "kognitiven Kreation" die Variationskomponente und mit dem "Rationalprinzip" die Selektionskomponente des evolutionstheoretischen Erklärungsmusters enthalten. Damit liefert das analytische "Elementarteilchen" der "Handlung in einer Gegenwart" "beide Beine ... , die die Evolution zum Laufen benötigt,,32: Variation und Selektion oder, anders ausgedrückt, Schöpfung und Auswahl. Führt man sich nun wieder vor Augen, daß die Invention in einem zeitkonsumierenden Prozeß entsteht, so sind für seine modellhafte Erfassung viele der eben vorgestellten "Elementarteilchen" hintereinander zu schalten. Man erhält aufeinanderfolgende und zugleich aufeinander bezogene "Handlungen in Gegenwarten", deren Ergebnisse mittels Gedächtnis und / oder Aufzeichnungen "vererbt" werden. Die 27 Vgl. Ernst Pöppel, Grenzen des Bewußtseins, Stuttgart 1985; und ders., Eine neuropsychologische Definition des Zustands "bewußt", in: Ernst Pöppel (Hrsg.), Gehirn und Bewußtsein, Weinheim 1989, S. 29, der zusammen mit Edingshaus in Ernst Pöppel/ Anna-Lydia Edingshaus, Geheimnisvoller Kosmos Gehirn, München 1994, S. 168, feststellt: "Worauf sich unsere Aufmerksamkeit richtet, bleibt bewußt nur für etwa drei Sekunden". Diese Feststellung bestätigt im übrigen die alte Vermutung Shackles, daß die Gegenwart eine kurze Zeitspanne umfaßt, "whose contents ... the mind grasps as a whole". Vgl. Geoge L. S. Shackle, The Complex Nature of Time as a Concept in Economics, Economia Internazionale, Vol. 7, 1954,S. 743. 28 Zum Begriff des ,,zeitfensters" und zu entsprechenden theoretischen und empirischen Hintergründen vgl. Pöppel/Edingshaus (FN 27), S. 165 ff. 29 Pöppel / Edingshaus (FN 27), S. 181. 30 Vgl. Hans Lenk, Handlung(stheorie), in: Helmut Seiffert/Gerard Radnitzky (Hrsg.), Handlexikon zur Wissenschaftstheorie, München 1989, S. 126. 31 Das ist einer der Unterschiede zu einem 1972 von Weise vorgestellten "rekursiven Handlungs- und Rektionsschema". Vgl. Peter Weise, Rationale Wahl- und Organisationsmechanismen, Arpud 1, 1972, S. 6 - 27. 32 Vgl. Hesse, Evolutorische Ökonomik (FN 24), S. 64.

426

Günter Hesse und Lambert T. Koch

Richtung läßt sich in Parallele zum evolutions biologischen Modell mit der relativen Konstanz bestimmter Selektionsfaktoren sowie der Fortexistenz von Ergebnissen der Variations-Selektionsakte erklären. Sowohl Ergebnisspeicherung als auch die Konstanz von wichtigen Teilen der Selektionsumgebung sind damit entscheidend für die Generierung eines kumulativen Variations-Selektions prozesses, der schließlich in einer Invention "endet" und den Abbildung 2 nachfolgend visualisieren möchte.

biologische Identität Z e i t - - - - -..

psychische Identität Selektionsfaktoren (darunter Ziele, Absichten)

-~ -

-

.e.

R DU·

n

-

j

I

-

-;;a:I:g: :

n

Hand· "6• ....,ta1e SI....IIo' Rraad-

'II1II'. t !aRID

-

-

n·1

---11

I

UI

Hand·

ReaIWolio.

......d-

'"

ii

I

D·I

I

1 1

0-1

If "

. meatale

..... I{

1.....-

i:;. !l

I

::f~naie~o;:':n-"~g:w+~"l~s_Uoa

~

r--

I

1



I

i li-

I

D

UI

~

RaIlsolloa _

I

n

1

1

r--

-

11- n Hoad- "6......ta1e I

1UDp-

gnuodlqea

I

r---

~ SilllaliOD

...



m

RealhatlOIl ,.

J:So t.

i '"::a. !l I!:'

In+lll

r

I

0+1

JJ

t

f+

lL. 0+1

andere Individuen

Abb. 2: Kumulativer Variations-Selektionsprozeß (Hesse 1997a)

Die Überlegungen sollen anhand eines weiteren Beispiels illustriert werden. Man denke an die Invention eines neuartigen Turbodiesel-Motors: Die über den gesamten Zeitraum des Inventionsprozesses hinweg invarianten Selektionsfaktoren oder Restriktionen - als im Sinne der obigen Argumentation notwendige Bedingung - wären dann etwa das dem Konstrukteur oder Konstrukteursteam vorgegebene Ziel, einen Antrieb für ein "Dreiliterauto" zu schaffen, sowie ein einzuhaltendes Forschungs- und Entwicklungsbudget. Auch "technologische Grundmuster,,33 (hier zum Beispiel die Grundeigenschaften eines Dieselmotors) können sich bei der Vorgabe von Entwicklungszeit und -budget als (recht rigide) Restriktion erweisen. Dem Modell der kumulativen Variation-Selektion entsprechend ließe sich jetzt der Gesamtprozeß einer solchen Problemlösungsentstehung in viele einzelne Teil33 Dosi u. a. spricht hier auch von der Bindung der Neuerungsaktivitäten an "technologische Trajektorien". "Let us define as a technological trajectory ... the activity of technological process along the economic and techological trade-offs defined by a paradigm." Dosi (FN 3), S. 1128.

"SaItationismus" versus "Kumulative Variation-Selektion"

427

schritte aufgliedern. In jeden neuen Schritt werden Erfahrungen aus Zuvor mißglückten Versuchen, Schlußfolgerungen aus nicht eingehaltenen Meßwerten, Wissensbestandteile aus besuchten Fortbildungen und spontane Ideen über mögliche Neukombinationen der Ausgangselemente einfließen. Während des Prozesses können wirksame Selektionsfaktoren auch variieren. Das mag unbeabsichtigt geschehen - man denke hier etwa an die Änderung relativer Preise von Vorprodukten oder an Gesetzesänderungen. Die Änderung der für die Forschungs- und Entwicklungsabteilung eines Unternehmens gültigen Selektionsfaktoren kann aber auch Resultat eines vorgelagerten Problemlösungsprozesses sein. Beispielsweise könnte die geplante Entwicklungszeit durch die Geschäftsleitung verkürzt werden, weil sie einen neuen Konkurrenten wahrnimmt. Solche Vorgänge lassen sich im Gegensatz zur saltationistischen Variante mit dem hier vorgestellten prozessualen Modell der Inventionsenstehung problemlos einfangen. Welche Faktoren in solch einem Anwendungsfall tatsächlich relevant sind und wie sie den jeweiligen Variations-Selektionsprozeß konkret beeinflussen, ist - ähnlich wie in der Evolutionsbiologie - in vielen empirischen Untersuchungen und unter Einsatz der jeweils passenden analytischen Instrumente zu erforschen. Dieser Aspekt möge hier jedoch nicht vertieft werden, sondern es soll auf einige weitere Implikationen des evolutionsökonomischen Modells der kumulativen VariationSelektion hingewiesen werden. So wird ein Problembearbeitungsprozeß stets abgebrochen in dem Sinne, daß seine Beendigung nicht einem Optimierungskalkül nach neoklassischem Muster folgt. Danach würde die Suche nach einer Lösung beendet, sobald die Grenzkosten der weiteren Suche gleich den Grenzerträgen der dadurch zu erlangenden Erkenntnisse wären. 34 Weder zukünftige Kosten noch zukünftige Erträge sind jedoch angesichts der konstitutiven "echten Unsicherheit" von Inventionsprozessen kalkulierbar. Außerdem kann aus diesem Grund auch nicht bewiesen werden, daß eine gefundene die bestmögliche Lösung ist. 35 Ein verbreiteter Versuch, diesem Problem zu begegnen, ist deshalb die Annahme, eine Problemlösung werde als befriedigend empfunden und daher realisiert, weil ein individuelles Anspruchsniveau erreicht wurde. 36 Das evolutionsökonomische Inventionsmodell zeigt, daß bei der Entstehung "angepaßter Systeme" im sozio-ökonomischen Kontext sowohl die Absicht von Akteuren als auch "blinde" Variation eine Rolle spielen. Der Akteur kann sich 34 V gl. George J. Stig/er. The Economics of Information, wiederabgedruckt in: Donald M. Lamberton (Hrsg.), Economics of Information and Know1edge, Harmondsworth 1961/1971; und zur Kritik zum Beispiel Günter Hesse, Verteilung öffentlicher Tatigkeiten, Berlin 1975, S.217. 35 Zum "Optimalitätsproblem" vgl. Fred L. Bookstein, Optimality as a Mathematical Rhetoric for Zeroes, Behavioral and Brain Sciences, Vol. 14, 1991. 36 Vgl. hierzu bes. Witt (FN 9), S. 140ff.; Herbert A. Simon, Homo rationalis: die Vernunft im menschlichen Leben, Frankfurt a.M. 1993.

428

Günter Hesse und Lambert T. Koch

nicht entschließen, etwas bestimmtes Neues zu entdecken, sondern ist auf die spontanen (zufälligen) "Angebote" des kognitiven Apparates angewiesen. Er kann jedoch unter den "Angeboten" auswählen und auf diese Weise seine Intentionen verfolgen. Mit diesem Argument kann der eingangs erwähnte Vorwurf, der bis heute immer wieder in abgewandelter Fonn vernehmbar ist, entkräftet werden, daß biologische Metaphern in der Ökonomik schon deswegen nicht anwendbar seien, weil im Gegensatz zur "blinden" Zufallsmutation in der Biologie eine Invention das Resultat absichtsvollen, zielgerichteten HandeIns sei. 37 Ein anderer Einwand gegen die Anwendung des Konzeptes der kumulativen Variation-Selektion in den Sozialwissenschaften hebt hervor, daß Menschen - im Gegensatz zu den in der Evolutionsbiologie untersuchten Lebewesen - ihre Umwelt und die darin enthaltenen Selektionsfaktoren ändern könnten. Daher sei die Argumentationsfigur der biologischen Evolutionstheorie im Kontext unserer Fragestellung gar nicht anwendbar. Auch diesem Einwand kann aus der obigen Darstellung heraus begegnet werden. Zum einen können sich in einem sozialen Gefüge menschengesetzte Restriktionen als zumindest vorläufig und für Einzelne invariant erweisen (zum Beispiel Regeln des positiven Rechts) - abgesehen davon, daß man in Fonn von Selbstbindungen auch "künstlich" invariante Selektions faktoren schaffen kann. Zum anderen lassen sich zahlreiche natürliche Restriktionen höchstens gedanklich, aber keineswegs realiter ändern. 38 Schließlich sei noch angemerkt, daß hier eine Invention in der Ökonomik - ähnlich wie in der biologischen Evolutionstheorie - als aus Vorfonn und gerichtetem Wandel resultierend gedacht wird. James Watt beispielsweise erfand nicht "die" Dampfmaschine, sondern den getrennten Kondensator zu einer Dampfmaschine vom Typ Newcomen; und er brauchte fast ein Jahrzehnt, um eine zuverlässig funktionierende, neue Dampfmaschine herzustellen. Dieser gerichtete Wandel wird mit dem Konzept der kumulativen Variation-Selektion erklärt. Die in der Problemlösung wahrnehmbare Ordnung resultiert somit nicht aus "Chaos" oder "Unstruktur", sondern aus Ordnung (manifestiert in der Vorfonn) und gerichtetem Wande1. 39

37 Vgl. Penrose (FN 7), S. 819. Penrose hielt dieses Argument A1chian entgegen, der 1950 evolutionsbiologische Konzepte in die ökonomische Theorie einführte und in diesem Zusammenhang die Invention der Mutation gleichsetzte. Vgl. Alchian (FN 7), S. 220. Vgl. in jüngerer Zeit beispielsweise auch Hermann Schnabl, Biologische Evolution vs. Evolution von Firmen und Märkten - Ein Vergleich, in: Ulrich Witt (Hrsg.), Studien zur Evolutorischen Ökonomik I, Berlin 1990, S. 233 f. 38 Vgl. hierzu etwa Koch (FN 18), S. 75 ff. 39 In diesem Zusammenhang muß Erwin Schrödinger, Was ist Leben?, Neuausgabe, München 1989 (Erstausgabe: Cambridge 1944), S. 120, erwähnt werden.

"Saltationismus" versus "Kumulative Variation-Selektion"

429

IV. Von der Invention zur Innovation und zu strukturierten Mengen von "Systemen adaptiver Komplexität"

Wir kommen nun zu einem kurzen Ausblick, in dem die im dritten Abschnitt vorgetragenen Überlegungen in einen größeren Rahmen gestellt werden sollen: Die eben vorgenommene, gedanklich isolierende Darstellung der Entstehung einer Invention als Resultat des Problembearbeitungsprozesses eines Individuums oder einer Gruppe von Akteuren impliziert natürlich nicht die Vorstellung von monadisch herumschwirrenden Individuen oder isolierten Gruppen, welche - ebenso unverbunden - Inventionen hervorbringen, die irgendwann später erst aufeinandertreffen. Nahezu jede Problemstellung, als gedanklicher Ausgangspunkt der Entstehung eines Systems adaptiver Komplexität, ist vielmehr eingebettet in sozial vermittelte Problemlagen - Kontexte also, mit denen auch andere Akteure als Anbieter und / oder Nachfrager konfrontiert sind. Inventionen, die sich auf in Populationen gegenwärtige Problemlagen beziehen, werden daher, wie dies ja bereits angedeutet wurde, schon im Verlaufe ihrer Entstehung von zahlreichen gesellschaftlichen Faktoren qualitativ beeinflußt. Dazu gehören komplementäre und substitutive Ideen, die sich möglicherweise aus bereits auf Märkten angebotenen Problemlösungen des gleichen Problemkontextes ergeben, sowie natürlich auch deren relative Preise. Der Übergang von einer Invention zur Innovation ist allerdings mit einer mehr oder weniger einschneidenden Änderung der Selektionsumwelt dieser Problemlösung verbunden. Zwar hat der Inventor in aller Regel - zumindest als kommerziell agierender Akteur - bereits vorher versucht, die vermuteten Selektionskriterien anderer Individuen als "vicarious selectors,,4o in seine Auswahlkriterien aufzunehmen, doch jetzt trifft er auf das tatsächliche Verhalten anderer Akteure, das aus prinzipiellen Gründen nicht genau antizipierbar ist. Damit kommen vielfältige neue Probleme technischer und sozialer Art auf ihn zu, deren Gestalt hier jedoch nicht eingehender thematisiert werden SOll.41 Entscheidend ist, daß mit der Erweiterung der relevanten Selektionsumgebung, der sich ein Inventor beim "Rollentausch" zum Innovator gegenübergestellt sieht, keine neue kategoriale Ebene der Anpassung entsteht. Es ändert sich im marktlichen Wettbewerb allein der Ansatzpunkt der Selektion. Während im Prozeß der 40 Vgl. Donald T. Campbell. Unjustified Variation and Selective Retention in Scientific Discovery, in: Francisco J. Ayala/Theodosius Dobzhansky (Hrsg.), Studies in the Philosophy ofBiology, London 1974, S. 146. 41 Hier setzen die eingangs erwähnten Untersuchungen Schumpeters ein. Vgl. bes. Schumpeter (FN 1). Stellvertretend für viele in diesem Zusammenhang in neuerer Zeit untersuchte Fragestellungen vgl. aber beispielsweise auch Wolfgang Kerber; Recht als Selektionsumgebung für evolutorische Wettbewerbsprozesse, in: Birger P. Priddat/Gerhard Wegner (Hrsg.), Zwischen Evolution und Institution, Marburg 1996, der Probleme der Änderung von Handlungsrechten thematisiert.

430

Günter Hesse und Lambert T. Koch

Inventionsentstehung Eigenschaften der Problemlösung zur "Selektionszielscheibe" werden, sind auf Märkten die Problemlösungen als ganzes dem Se1ektionsdruck ausgesetzt. Dies gilt nicht nur für Güter und Dienstleistungen, sondern etwa auch für institutionelle Problemlösungen. Zwar unterscheiden sich jeweils die Märkte, ihre Marktregeln und Akteure, doch in allen Fällen entscheiden gleichermaßen natürliche Personen über Qualitäten und Quantitäten der betreffenden "Systerne adaptiver Komplexität". Weitet man die Perspektive weiter aus, könnte man ähnlich auch Unternehmen als strukturierte Bündel von Problemlösungen begreifen, die in permanenter kreativer Auseinandersetzung mit Nachfragern und Konkurrenten stehen. 42 Ein nächster (großer) Schritt würde dann zur Betrachtung des gesamten, zu bestimmten Zeitpunkten vorfindbaren Gefüges von Problemlösungen technischer und sozialer Art (dem "Ökosystem") in einer Volkswirtschaft und den vielfältigen systemimmanenten Anpassungsvorgängen - darunter auch negativen und positiven Rückkoppelungen - führen. Im letzten Schritt könnte man schließlich die sozio-ökonomische Evolution "als Aufeinanderfolge einzigartiger Mengen von Problemlösungen technischer und sozialer Art,,43 thematisieren. Jeweils beobachtbare, strukturierte Mengen von Problemlösungen wären aus dieser Sicht Momentaufnahmen eines Prozesses, der von einem Gefüge von Variablen mit sehr unterschiedlichen Wandlungstempi gehalten wird. Jede Problembearbeitung innerhalb dieses Gefüges nimmt einen Teil als invarianten Hintergrund und thematisiert bzw. ändert einen anderen Teil. Dies eröffnet die Möglichkeit, Hierarchien von Restriktionen beispielsweise anhand der Höhe von Änderungskosten zu identifizieren. 44 Der gerichtete Wandel des gesamten Gefüges, die sozio-ökonomische Evolution, würde dann als vielschichtige innovative Anpassung an volkswirtschaftlich besonders relevante - für den untersuchten Zeitraum invariante - elementare Restriktionen erklärbar. Die Suche nach solchen Restriktionen und die Darlegung von Folgen der innovativen Anpassung für die 42 Vgl. hierzu Nelson/Winter (FN 4), S. 96 ff.; Wolfgang Kerber; Wettbewerb als Hypothesentest: Eine evolutorische Konzeption wissenschaffenden Wettbewerbs, in: Karl v. Delhaes / Ulrich Fehl (Hrsg.), Dimensionen des Wettbewerbs, Stuttgart 1997. 43 Günter Hesse, Evolutionsökonomik, MS (erscheint 1998), Jena 1997b, S. 21. Betrachtet man die Problemlösung als "Einheit der Evolution in den Sozialwissenschaften", so kann man in Anlehnung an Ayala, der die biologische Evolution als "a succession of unique states of populations" charakterisiert, die sozio-ökonomische Evolution als Aufeinanderfolge einzigartiger Mengen von Problem lösungen technischer und sozialer Art bezeichnen. Vgl. Francisco J. Ayala, The Concept of Biological Progress, in: Francisco J. Ayala / Theodosius Dobzhansky (Hrsg.), Studies in the Philosophy of Biology, London 1974, S. 317. 44 Vgl. dazu Günter Hesse, Die Entstehung industrialisierter Volkswirtschaften, Tübingen 1982, S. 9 f. und S. 82. Peter F. E. Sloane, ... Vernunft der Ethik - Ethik der Vernunft ... Zur Kritik der Handlungswissenschaft, Köln 1988, S. 222 ff. spricht in diesem Zusammenhang von einer zeithorizont-abhängigen "relativen Erstarrung von Strukturelementen". Erst der gewählte Zeithorizont in Abhängigkeit vom Analysezweck determiniere dabei den Grad der Gestalt- und Veränderbarkeit von Systemvariablen. Vgl. ähnlich auch Koch (FN 18), S. 76ff.

"Saltationismus" versus "Kumulative Variation-Selektion"

431

Entstehung und den Wandel von Grundgerüsten von Mengen technischer und sozialer Problemlösungen ist Aufgabe der evolutorischen Theorie der langfristigen wirtschaftlichen Entwicklung. 45 Bei der gehaltvollen Erklärung der sozio-ökonomischen Evolution ist neben dem Konzept der kumulativen Variation-Selektion auch das Konzept der "Problemverschiebungen und Problemketten,,46 anzuwenden. Dabei dient die langfristige Entwicklung des Gesamtgefüges gleichzeitig als Hintergrund im Rahmen der Analyse konkreter Problemlösungen, die an bestimmten Raum-Zeit-Punkten beobachtet werden können - ähnlich wie in der Biologie ein konkreter Organismus stets vor dem Hintergrund der biologischen Evolution betrachtet wird.

v. Fazit Mit dieser Ausweitung des Horizontes sollte das grundsätzliche Potential des vorgestellten Erklärungsansatzes nur angedeutet werden. Im Mittelpunkt unserer Untersuchung stand hingegen eine Anwendung des Konzeptes der kumulativen Variation-Selektion auf das Phänomen der Inventionsentstehung. Danach sind Inventionen das Resultat eines zeitkonsumierenden Prozesses, dessen Elemente als "Handlungen in Gegenwarten" erfaßt werden können. Einer der Vorzüge dieses Ansatzes ist damit die Vermeidung der höchst anfechtbaren Vorstellung, Inventionen entstünden "auf einen Schlag", eine Auffassung, die hier in Anlehnung an eine biologische Denkrichtung als "Saltationismus" bezeichnet wurde. In die Gefahr, saltationistisch zu argumentieren, gerät man immer dann, wenn man im Zusammenhang mit der Analyse von Neuerungen allein die Ebene von Märkten im Auge hat und dort den einzigen Ansatzpunkt von Variations-Selektionsprozessen sieht. Zwar werden Inventionen oder dann Innovationen auf Märkten tatsächlich als Ganzes zum Objekt wettbewerbsbedingter Variation und vor allem Selektion, doch geht ihrer externen Präsentation bereits ein komplexer interner Prozeß kumulativer Variations- und Selektionsabläufe voraus. Inventionen werden somit erst als Folge zahlloser inhaltlich aufeinander bezogener "Handlungen in Gegenwarten" zu dem, als was sie Marktakteuren letztendlich präsentiert werden.

45 VgI. u. a. Hesse 1982 (FN 44); Günter Hesse, Innovationen und Restriktionen, in: Manfred Borchert I Ulrich Fehl I Peter Oberender (Hrsg.), Markt und Wettbewerb, Bem 1987; Günter Hesse, Von der Geschichtsphilosophie zur evolutorischen Ökonomik, Baden-Baden 1996. 46 VgI. Günter Hesse, Innovative Anpassung in sozio-ökonomischen Systemen - Ein Beispiel: Landnutzungssysteme und Handlungsrechte bezüglich Boden, in: Bemd Bievert I Martin Held (Hrsg.), Evolutorische Ökonomik: Neuerungen, Normen, Institutionen, Frankfurt a.M. 1992, S. 123; Hesse (FN 43), S. 34ff.

432

Günter Hesse und Lambert T. Koch

Literatur Alchian, Armen (1950), Uncertainty, Evolution, and Econornic Theory, Journal of Political Economy, Vol. 58 Arrow, Kenneth J. (1951), Alternative Approaches to the Theory of Choice in Risk-Taking Situations, Econometrica, Vol. 19 Ayala, Francisco J. (1974), The Concept of Biological Progress, in: Ayala, Francisco J.I Dobzhansky, Theodosius (Hrsg.), Studies in the Philosophy of Biology, London Bischof. Norbert (1988), Ordnung und Organisation als heuristische Prinzipien reduktiven Denkens, in: Meier, Heinrich (Hrsg.), Die Herausforderung der Evolutionsbiologie, München Blaseio, Helmut (1986), Das Kognos-Prinzip, Berlin Bookstein, Fred L. (1991), Optimality as a Mathematical Rhetoric for Zeroes, Behavioral and Brain Sciences, Vol. 14 Campbell, Donald T. (1974), Unjustified Variation and Selective Retention in Scientific Discovery, in: Ayala, Francisco J./Dobzhansky, Theodosius (Hrsg.), Studies in the Philosophy of Biology, London Dawkins, Richard (1988), Auf welche Einheiten richtet sich die natürliche Selektion?, in: Meier, Heinrich (Hrsg.), Die Herausforderung der Evolutionsbiologie, München Dosi, Giovanni (1984), Technical Change and Industrial Transformation: The Theory and an Application to the Semi-conductor Industry, London

- (1988), Sourees, Procedures, and Microeconomic Effects of Innovation, Journal of Economic Literature, Vol. 26, S. 1120 - 1171 Drieschner; Michael (1994), Die begriffliche Struktur der (neo-)darwinistischen Theorie, Ethik und Sozialwissenschaften, Bd. 5 Ebeling, Werner (1990), Instabilität, Mutation, Innovation, Erneuerung aus evolutions-theoretischer Sicht, in: Niedersen, Uwe/Pohlmann, Ludwig (Hrsg.), Selbstorganisation: Jahrbuch für Komplexität in den Natur-, Sozial- und Geisteswissenschaften, Bd. I, Berlin, S. 55 -62 Förster; Heinz von (1985), Sicht und Einsicht, Braunschweig Freeman, Christopher. (Hrsg.) (1990), The Economics ofInnovation, Aldershot Graf!, Peter (1977), Die Wirtschaftsprognose, Tübingen Hermann Haken I A. Wunderlin (1991), Die Selbststrukturierung der Materie: Synergetik in der unbelebten Umwelt, Braunschweig Hesse, Günter (1975), Verteilung öffentlicher Tlitigkeiten, Berlin

- (1982), Die Entstehung industrialisierter Volkswirtschaften, Tübingen - (1987), Innovationen und Restriktionen, in: Borchert, Manfred I Fehl, Ulrich IOberender, Peter (Hrsg.), Markt und Wettbewerb, Bern, S. 195 - 226 - (1990), Evolutorische Ökonomik oder Kreativität in der Theorie, in: Witt, Ulrich (Hrsg.), Studien zur Evolutorischen Ökonomik I, Berlin, S. 49 -73

"Saltationismus" versus "Kumulative Variation-Selektion"

433

- (1992), Innovative Anpassung in sozio-ökonomischen Systemen - Ein Beispiel: Landnutzungssysteme und Handlungsrechte bezüglich Boden, in: Bievert, Bernd I Held, Martin (Hrsg.), Evolutorische Ökonomik: Neuerungen, Normen, Institutionen, Frankfurt a.M. 1992,S. 110-142 - (1995), Wirtschaftswissenschaftliche Evolutionstheorie, in: Haupt, Reinhard I Lachmann, Werner (Hrsg.), Selbstorganisation in Markt und Management?, Neuhausen - (1996), Von der Geschichtsphilosophie zur evolutorischen Ökonomik, Baden-Baden - (l997a), Geschichtswissenschaft und evolutorische Ökonomik, erscheint 1998 in: North, Michael/Mörke, Olaf (Hrsg.), Die Entstehung des modemen Europas 1600 - 1900, Böhlau - (l997b), Evolutionsökonomik, MS (erscheint 1998), Jena

He}l, Peter M. (1996), Konstruktion der sozialen Konstruktion: Grundlinien einer konstruktivistischen Sozialtheorie, in: Schmidt, Siegfried J. (Hrsg.), Der Diskurs des radikalen Konstruktivismus, 7. Aufl., Frankfurt a.M., S. 303 - 339 Kerber; Wolfgang (1996), Recht als Selektionsumgebung für evolutorische Wettbewerbsprozesse, in: Priddat, Birger P. IWegner, Gerhard (Hrsg.), Zwischen Evolution und Institution,

Marburg

- (1997), Wettbewerb als Hypothesentest: Eine evolutorische Konzeption wissenschaffenden Wettbewerbs, in: Delhaes, Karl v. I Fehl, Ulrich (Hrsg.), Dimensionen des Wettbewerbs, Stuttgart Kirsch, Werner I Knyphausen, Dodo zu (1991), Unternehmungen als "autopoietische" Systeme?, in: Staehle, Wolfgang H. I Sydow, Jörg (Hrsg.), Managementforschung, Bd. I, Berlin I New York, S. 75 -101 Kiss, G::ibor (1990), Grundzüge und Entwicklung der Luhmannschen Systemtheorie, 2. Aufl.,

Stuttgart

Koch, Lambert T. (1996), Evolutorische Wirtschaftspolitik: Eine elementare Analyse mit ent-

wicklungs politischen Beispielen, Tübingen

Koertge, Noretta (1975), Popper's Metaphysical Research Program for the Human Sciences, Inquiry, Vol. 18, S. 437 -462 Krohn, Wolfgangl Küppers, Günter (1990), Selbstreferenz und Planung, in: Niedersen, Uwel

Pohlmann, Ludwig (Hrsg.), Selbstorganisation: Jahrbuch für Komplexität in den Natur-, Sozial- und Geisteswissenschaften, Bd. 1, Berlin, S. 109 - 128

Lenk, Hans (1989), Handlung(stheorie), in: Seiffert, HelmutlRadnitzky, Gerard (Hrsg.), Handlexikon zur Wissenschaftstheorie, München, S. 119 - 127 Lübbe, Hermann (1973), Was heißt: "Das kann man nur historisch erklären"?, in: Koselleck,

Reinhartl Stempel, Wolf-Dieter (Hrsg.), Geschichte - Ereignis und Erzählung, München

Maas, Christoph (1990), Determinanten betrieblichen Innovationsverhaltens, Berlin Mahner; Martin (1994), Anmerkungen zu Ernst Mayr: "Evolution - Grundfragen und Miß-

verständnisse", Ethik und Sozialwissenschaften, Bd. 5

Mayr; Ernst (1984), Die Entwicklung der biologischen Gedankenwelt, Berlin

- (1988), Die Darwinsche Revolution und die Widerstände gegen die Selektionstheorie, in: Meier, Heinrich (Hrsg.), Die Herausforderung der Evolutionsbiologie, München 28 Selbstorganisation, Bd. 9

434

Günter Hesse und Lambert T. Koch

- (1991), Eine neue Philosophie der Biologie, München

Metcalfe, J. Stanley (1981), Impulse and diffusion in the study of technical change, Futures, Vol. 13, S. 347 - 359 Neisser, Ulric (1976), Cognition and reality, San Francisco Nelson, Richard R. I Winter Sidney G. (1982), An Evolutionary Theory of Economic Change, Cambridge Penrose, Edith T. (1952), Biological Analogies in the Theory of the Firm, American Economic Review, Vol. 42 Pöppel, Ernst (1985), Grenzen des Bewußtseins, Stuttgart - (1989), Eine neuropsychologische Definition des Zustands "bewußt", in: Pöppel, Ernst (Hrsg.), Gehirn und Bewußtsein, Weinheim

Pöppel, Ernst I Edingshaus, Anna-Lydia (1994), Geheimnisvoller Kosmos Gehirn, München Röpke, Jochen (1977), Die Strategie der Innovation: Eine systemtheoretische Untersuchung der Interaktion von Individuum, Organisaton und Markt im Neuerungsprozeß, Tübingen Rogers, Everett M. (1962), The Diffusion of Innovations, New York Rosenberg, Nathan (1976), Perspectives on Technology, Cambridge Roth, Gerhard (1986), Selbstorganisation - Selbsterhaltung - Selbstreferentialität: Prinzipien der Organisation der Lebewesen und ihre Folgen für die Beziehung zwischen Organismus und Umwelt, in: Dress, Andreas et al. (Hrsg.), Selbstorganisation, München, S. 149 - 180 Saviotti, P. Paolol Metcalfe, J. Stanley (Hrsg.) (1991), Evolutionary Theories of Economic and Technological Change: Present Status and Future Prospects, Chur usw Schnabi, Hermann (1990), Biologische Evolution vs. Evolution von Firmen und Märkten Ein Vergleich, in: Witt, Ulrich (Hrsg.), Studien zur Evolutorischen Ökonomik I, Berlin Schrödinger, Erwin (1989), Was ist Leben?, Neuausgabe, München (Erstausgabe: Cambridge 1944) Schumpeter, Joseph A. (1911 I 1987), Theorie der wirtschaftlichen Entwicklung, 7. Aufl., Berlin Shackle, Geoge L. S. (1954), The Complex Nature of Time as a Concept in Economics, Economia Internazionale, Vol. 7 Shionoya, Yuichi/ Perlman, Mark (Hrsg.) (1994), Innovation in Technology, Industries, and Institutions: Studies in Schumpeterian Perspectives, Ann Arbor Silverberg, Geraldl Verspagen, Bart, Collective learning, innovation and growth in a boundedly rational, evolutionary world, Journal of Evolutionary Economics, Vol. 4, S. 207 - 226 Simon, Herbert A. (1993), Homo rationalis: die Vernunft im menschlichen Leben, Frankfurt a.M. Sloane, Peter F. E. (1988), ... Vernunft der Ethik - Ethik der Vernunft ... Zur Kritik der Handlungswissenschaft, Köln Spencer, Herbert (1864), The Principles of Biology, Vol. I, London

"Saltationismus" versus "Kumulative Variation-Selektion"

435

Stigler, George J. (1961/1971), The Economics of Information, wiederabgedruckt in: Lamberton, Donald M. (Hrsg.), Economics of Information and Knowledge, Harmondsworth Weisberg, Robert (1986), Creativity, New York Weise, Peter (1972), Rationale Wahl und Organisationsmechanismen, Arpud, Nr. I, S. 6-27 Witt, U1rich (1987), Individualistische Grundlagen der Evolutorischen Ökonomik, Tübingen Wyatt, Geoffrey (1986), The Economics of Invention: A Study of the Determinants of Inventive Activity, Brighton

28*

Edition The Law of Evolution as a Maximal Principle (1945) Von Alfred James Lotka Ausgewählt und herausgegeben von Gerald Silverberg, Maastricht und Hans-Jürgen Krug, Berlin

Editorische Vorbemerkung I. Alfred James Lotka - Biographische Daten

Der amerikanische Statistiker Alfred James Lotka wurde am 2. März 1880 in Lemberg (damals Österreich-Ungarn) als Sohn französisch sprechender Eltern mit amerikanischer Staatsbürgerschaft geboren. 1 Nach seiner Schulzeit in Frankreich, Deutschland und England erhielt er 1901 als ersten akademische Titel den B.Sc. (Bachelor of Science) des Mason Colleges der Universität Birmingham. 1912 folgte dort der D.Sc. (Doctor of Science). Von 1901 bis 1902 studierte Lotka in Leipzig Chemie, wo er durch die Vorlesungen 2 Wilhelm Ostwaids (1853 -1932) den entscheidenden Impuls für seine lebenslange Beschäftigung mit den physikalischen und mathematischen Grundlagen der Evolution erhielt. 3 1902 kam er in die Vereinigten Staaten und arbeitete dort zunächst als Industriechemiker. Seit 1908 war er in der Cornell University in Ithaca, New York, als Doktorand in den Fächern Physik und Mathematik eingeschrieben. Ein Jahr später verließ er jedoch diese Universität mit dem Titel M. A. (Magister of Arts). Die nächsten beruflichen Stationen waren: Patentprüfer im staatlichen Patentbüro, Physiker im Amt für Standardisierung, freier Schriftsteller, Herausgeber beim Scientific American Supplement und Chemiker bei der General Chemical Company. 1922 bekam er eine befristete Forschungsstelle in der Human Biology Group von RayI Als Quelle der biographischen Angaben diente der Beitrag von Joel E. Cohen, Alfred James Lotka, in: J. Eatwell/M. Milgate/P. Newman (Hrsg.), The New Palgrave: A Dictionary of Economic Theory and Doctrine, Vol. 3, London I New York 1987, S. 245 - 247. 2 Lotka bezog sich später auf die gedruckten Vorlesungen des Sommersemesters 1901 von Wilhelm Ostwald, Vorlesungen über Naturphilosophie, Leipzig 1902. 3 Siehe hierzu den Briefwechsel zwischen Lotka und Ostwald im vorliegenden Band.

438

Edition

mond Pearl an der Johns Hopkins University in Baltimore, Maryland, wo er bis 1924 sein Hauptwerk, die "Elements of Physical Biology,,4 fertigstellen konnte. Von 1924 bis zur Pensionierung im Jahre 1948 arbeitete Lotka für die New Yorker Metropolitan Life Insurance Company als Supervisor for Mathematical Research im Büro für Statistik (1924-1933), General Supervisor (1933-1934) und Assistant Statistician (1934 - 1948). Er war von 1938 bis 1939 Präsident der Population Association of America und 1943 Präsident der American Statistical Association. Ferner war er Vizepräsident der International Union for the Scientific Investigation of Population Problems und Mitglied der Royal Economic Society. Am 5. Dezember 1949 starb Lotka in Red Bank, New Jersey. Lotka verfaßte über 100 Publikationen und fünf Bücher. Die Originalität seiner Arbeiten beruhte auch darauf, daß er durch seine frühen chemischen und späteren biologischen Studien in der Lage war, die Evolutionsproblematik unter einem interdisziplinären Gesichtspunkt zu behandeln. Wie in den heutigen Konzepten zur Beschreibung komplexer Systeme praktiziert, war er bereits damals bestrebt, allgemeine Gesetze für die Stoff- und Energiefltlsse in der evolvierenden Biosphäre festzustellen. Lotka hat damit eine Traditionslinie fortgesetzt, die im 19. Jahrhundert von dem Biologen Karl Erst von Baer (1792 - 1876)5 und dem Physikochemiker Wilhelm Ostwald begründet worden war. Die vorliegende Schrift aus dem Jahre 1945 ist einer der letzten Essays, in dem Lotka seine Gedanken zur Evolution zusammenfaßt. Er beruht im wesentlichen auf dem bereits genannten Hauptwerk "Elements of Physical Biology" von 1925. Viele dieser dort geäußerten Gedanken und Begriffsbildungen sind bereits im Anschluß an Lotkas Leipziger Studienzeit (1901 bis 1902) entstanden, wie der in diesem Band abgedruckte Briefwechsel mit Wilhelm Ostwald sowie Lotkas 1909 verfaßte Schrift "Die Evolution vom Standpunkte der Physik,,6 dokumentieren. 11. Bewertung von Lotkas Schrift

Lotka kam von der physikalischen Chemie zur Evolution. Seine Beschäftigung mit diesem Thema geht nach seinen eigenen Angaben auf eine eher beiläufige Bemerkung von Ostwald zurück, 7 mit dem ihn auch eine im Laufe seines Berufslebens immer universalistischere Sichtweise verbindet. Eine Generation später 4 Alfred James Lotkn, Elements of Physical Biology, Baltimore 1925; Neuausgabe: Elements of Mathematical Biology, New York 1956. 5 Karl Ernst von Baer hatte sich bereits 1860 ausführlich über die Nahrungskreisläufe und Evolutionsvorgänge in der Biosphäre geäußert, vgl. von Baer, Welche Auffassung der lebenden Natur ist die richtige? (1860), in: Reden, gehalten in wissenschaftlichen Versammlungen und kleinere Aufsätze vermischten Inhalts, I. Teil, Braunschweig 1886, S. 237 - 284. 6 Alfred James Lotkn, Die Evolution vom Standpunkte der Physik, in: OstwaIds Annalen der Naturphilosophie 10 (1911), S. 59 -74. 7 Siehe Fußnote 14 seiner Schrift aus dem Jahre 1945.

Alfred James Lotka: The Law of Evolution as a Maximal Principle (1945)

439

durchläuft jemand wie Ilya Prigogine eine ähnliche Entwicklung bis hin zu der Beschäftigung mit grundliegenden Fragen der Irreversibilität. In der Tat bietet in unserem Jahrhundert eine physikalistische Perspektive zunächst keinen schlechten Einstieg in Fragen des Lebens und der Evolution. Lotka bemühte sich vor allem, eine Sichtweise zu finden, die von der verwirrenden Vielfalt des Lebens abstrahiert, aber gleichzeitig wesentliche Grundmerkmale herausstellt, ohne auf irreführenden Analogien zu basieren. 8 Dafür konnte die Thermodynamik Einiges beitragen und zwar gerade zur Klärung der Frage, was das Leben von scheinbar ähnlichen Wachstumsphänomen wie z. B. Kristallisation unterscheidet: die thermodynamische Offenheit und das Ungleichgewicht. Es ist fast atemberaubend, mit welcher Selbstverständlichkeit er diese zwei Faktoren erwähnt, wenn man bedenkt, wie viele Autoren im Laufe des zwanzigsten Jahrhunderts immer wieder auf diese zwei Grundprinzipien zurückkommen mußten, bis sie heute zu den Hauptthemen einer weitgefächerten Forschungsrichtung geworden sind. 9 Ausgehend von diesen Überlegungen prägt er auch den Begriff ,energy transformer' , der große Ähnlichkeit mit Prigogines ,dissipative systems' hat, und die Ökologie für energetische Fragestellungen öffnet, die heute dringender denn je sind. Im vorliegenden Aufsatz "The Law of Evolution as a Maximal Principle" wendet sich Lotka einer Frage zu, die bis heute keine befriedigende Antwort gefunden hat: orientiert sich die Evolution an einer vorher bestimmbaren allgemeinen Richtung und kann diese quantitativ gekennzeichnet werden? Es hat natürlich vor (und auch nach) Lotka unterschiedliche qualitativen Antworten auf diese Frage gegeben, die Lotka jedoch allesamt als entweder unhaltbar oder inhaltsleer verwirft. Er sucht nach einem Prinzip, das nicht nur empirisch haltbar ist, sondern auch den Charakter eines Naturgesetzes für sich in Anspruch nehmen kann. Dabei geht er auf statistische Überlegungen ein, die wieder an Aktualität gewonnen haben, bevor er zu einer thermodynamischen Perspektive gelangt. Insofern decken sich seine Überlegungen mit moderneren Arbeiten von z. B. Allen lO , der in bestimmten Fällen von ökologischer Interaktion mathematisch nachweist, daß eine bestimmte Größe tatsächlich durch die Evolution maximiert wird. In der gegenwärtigen Diskussion vertritt z. B. auch Ulanawicz 11 eine solche Position. Aber im allgemeinen läßt sich nicht beweisen, daß die Evolution immer durch ein Maximalprinzip zu 8 Daß es ihm um eine substantielle Anwendung von physikalischen Prinzipien ging und nicht um bloße Metaphern wird z. B. aus Fußnote 12 des vorliegenden Textes klar, wo er sich von ,loose transferences' vom Le Chateliers Prinzip auf biologische Phänomen distanziert. 9 Ein drittes Thema - die Nichtlinearität - wird von Lotka in diesem Zusammenhang nicht erwähnt. Nichtsdestotrotz hat er auch hier entscheidende Impulse mit seiner mathematischen Forschung zur Ökologie und chemischen Reaktionen gegeben. 10 P. M. Allen, Darwinian Evolution and a Predator-Prey Ecology, in: Bulletin of Mathematical Biology 37 (1975), S. 389 - 405; ders., Evolution, Population Dynamics, and Stability, in: Proceedings ofthe National Academy of Sciences USA 73 (1976), S. 665 - 669. 11 R. E. Ulanowicz, Growth and Development: Ecosystems Phenomenology, New York 1986. 1*

440

Edition

charakterisieren ist, und es ist nicht schwer, Fälle zu konstruieren, wo dies gerade nicht der Fall ist. 12 Von größerem Interesse für unsere Zwecke dürften andere Aspekte von Lotkas Abhandlung sein. Erstens betrachtet er den Evolutionsprozeß immer als Gesamtheit und nicht nur in Bezug auf einzelne Arten. Wichtig ist die Biosphäre als Ganzes, wie sie Energie aufnimmt, umsetzt, und was für Biomasse dabei zustandekommt. Insofern nimmt er die Diskussion um die Gaia-Hypothese 13 vorweg. Zweitens führt er den überaus innovativen Begriff ,exosomatic evolution' ein, um den durch Menschen erfundenen Technologien einen Platz im Evolutionsgeschehen zu verschaffen. Exosomatische Evolution versteht er dabei sowohl als energetische Verlängerung der menschlichen Organe als auch als Wissensanhäufung, die einen kumulativen Prozeß der Wissensaneignung ermöglicht. Gerade der letztere Aspekt spielt in der neueren Wachstumstheorie eine entscheidende Rolle. Das technologische Stadium der Evolution führt Lotka fast zu Widersprüchen mit seinem Hauptprinzip, da er zumindest vor dem Hintergrund der Erfahrungen der 30er Jahre einen tendenziellen Rückgang der menschlichen Bevölkerung festzustellen glaubt. Natürlich ist ihm auch bewußt, daß dies ebenso konjunktureller Natur sein kann. Die Konjunkturschwankungen der industriellen Gesellschaft bringt er in Verbindung mit der unsteten Nachfrage nach Luxusgütern. Hier scheint er eine wichtige Erkenntnis gerade verfehlt zu haben. Zwar ordnet er die Technik in den gesamten Evolutionsprozeß ein, betrachtet sie aber immer noch nur als ,Verlängerung' des menschlichen Organismus im Daseinskampf, d. h. als Mittel zu Erhöhung der menschlichen Fitneß. Konsequenter kann man die Technik, da sie spätestens seit der industriellen Revolution die Definition eines ,energy transformer' erfüllt, auch als eigenständige ökologische Art betrachten, die symbiotisch mit der Spezies Mensch (oder zumindest mit gewissen Bevölkerungsschichten) zusammenlebt und weiterentwickelt wird. Diesen Standpunkt hat schon Samuel Butler im 19. Jahrhundert vertreten, und im Rahmen einer Lotka sehr nahen physikalischen Evolutionslehre im 20. Jahrhundert auch Wes1ey.14 So gesehen trifft Lotkas Maximalprinzip, und zwar ,with a vengeance' zu: der Energieumsatz, die Anzahl der Maschinen, die Produktivität, und sogar die menschliche Bevölkerung nehmen seit 150 Jahren mit einer noch nie bekannten Geschwindigkeit zu. In den reicheren Ländern vermehren sich die Maschinen schneller als die Menschen, in den ärmeren Ländern ist es meist umgekehrt. Die Konjunkturschwankungen ergeben sich also 12 Ausführlich wird die Gültigkeit von unterschiedlichen Maximalprinzipien in Wemer Ebeling/Rainer Feistei, Physik der Selbstorganisation und Evolution, Berlin 1982, behandelt. 13 Siehe z. B. fames Lovelock, The Ages of Gaia: A Biography of Our Living Earth, New York 1988; S. H. Schneider / P. f. Boston, Scientists on Gaia, Cambridge, MA 1991. 14 Samuel Butler, Darwin among the Machines, in: The Works of Samuel Butler. Vol. I, New York 1863/1968; ders., Erewhon, or over the Range, H. P. Breuer / D. F. Howard (Hrsg.), Newark, NI 1872 / 1981; fames Paul Wesley, Ecophysics. The Application of Physics to Ecology, Springfield, III. 1974.

Alfred James Lotka: The Law of Evolution as a Maximal Principle (1945)

441

nicht so sehr aus der unsicheren Nachfrage nach Luxusgütern, sondern aus dem unsteten Verlauf der Investitionen, die die Produktionskapazitäten für die Erzeugung aller Güter (einschließlich der Produktionskapazität selber wie auch Waffen) schaffen. Es ist Lotkas Verdienst, die Grundlagen für die heutige Selbstorganisationstheorie und ökologische Evolutionslehre gelegt zu haben, auch wenn das den wenigsten Forschern bekannt sein dürfte. Mit dem Nachdruck seiner Abhandlung "The Law of Evolution as a Maximal Principle" wollen wir eine Arbeit wieder zugänglich machen, die heute wie vor 53 Jahren wichtige Denkanstöße zu geben vermag.

The Law of Evolution as a Maximal Principle* By Alfred J. Lotka

Undoubtedly fundamental to the concept of evolution is the idea that it is in some significant sense a directed process. As soon, however, as we seek to define in precise terms its presumably characteristic direction we meet with difficulties. To say, as some have said or implied, that the direction of evolution is the direction of progress, is merely to substitute for an undefined term another at best ill defined,l and contarninated with anthropomorphic flavor. Such phrases as "passage from lower to higher forms" which are sometimes used to deseribe the direetion of evolution, are open to the same objeetion. If, on the other hand, it is stated that evolution proceeds from simpler to more complex forms, from less speeialized to more specialized forms, the direetion of evolution is but poorly defined, for the rule is one with disturbing exeeptions, and what we seek is not an empirical rule, but a law of nature that brooks no exceptions. One description of the direction of evolution whieh has a eertain superficial appearanee of greater seientific preeision is that evolution [168] proeeeds from less probable to more probable states. That this appearanee of preeision is fallaeious can be seen from a simple example. In a new pack of eards the first thirteen eards are the Ace to Ten, Knave, Queen, King, of Spades, arranged in that order. If we shuffle the cards thoroughly, we shall presently find the suit of spades distributed approximately evenly throughout the pack. We can express this by saying that in the original arrangement the spades had a density of one, or 100 percent, in the first quarter of the pack, and a density zero, in the rest of the pack, whereas at the end of the shuffling they approached mueh more nearly a uniform density of 13/52 or 25 pereent throughout the whole pack. In an aetual trial the following distribution was observed after thorough shuffling:

* Erstabdruek in: Human Biology (Ed.: Johns Hopkins [University) Press, Baltimore, Maryland) 17, No. 3 (September 1945), S. 167 -194. 1 B. Petronievies (Science Progress, 1919, p. 407) express1y distinguishes progressive, regressive, and mixed evolution. leite this, not in evidenee for, or refutation of, progress as a eharaeteristie of evolution, but merely to show that the term "progress" is itself too indefinite to be used to eharaeterize the direetion of evolution.

Edition

444

SPADES Number Density (per cent) First quarter of pack

3

23.1

Second quarter

3

23.1

Third quarter

2

15.4

Fourth quarter

5

38.4

In a certain sense it can here be said that the pack of cards, in the shuffling process, has passed from a less probable to a more probable state. But this is not an objective property of either the pack or the process of shuffling. It is a subjective property of the shuffler, or the observer, who takes a special interest in the suit of spades picked out for observation, and who uses two fundamentally different modes of description for the initial and the final state of the pack: In describing the initial state he teIls us specifically what the first 13 cards are; he describes the final state only in terms of a density. There is only one specification that correctly describes the arrangement of the new pack; there are a great many different arrangements that would have the particular density observed in the shuffled pack. If the final state is defined with the same detail as the initial state, namely by indicating each card and its position in the pack, then the final state is just as probable or improbable as the initial state. In the shuffling of the cards the passage is not from a less probable to a more probable state, but from a precisely known to a less weIl known state. The distinction is not objective but psychological. The future is here known only statistically [169] because we deliberately shuffle in such manner as to have only statistical knowledge of the course of events. Evidently, then, the statement that evolution proceeds from less probable to more probable states is, not so much a false statement, as it is a statement devoid of meaning, unless it is further supplemented by a specification as to how and in what respects the probabilities of these states are measured. 2 The example of the card shuffling is also suited to illustrate another point. It has been remarked by various writers 3 (inc1uding the present),4 that evolution is an irreversible process: Now the term irreversible process has acquired a very special meaning in the vocabulary of the physicist, and not every process that might be 2 The significance of the particular kind of passage from less probable to more probable states which plays a role in statistical mechanics arises from its connection with certain energy relations, namely from the fact that processes so characterized can be made to yield a balance of work. The shuffling of a pack of cards is devoid of this characteristic. 3 In particular, L. Dollo. See B. Petronievics, Sur la loi de l' evolution irreversible, Science Progress, 1919, p. 406. See also pp. 418 - 419 for bibliography. 4 A. J. Lotka, Elements 01 Physical Biology, 1925, pp. 23 et seq. But the concept of irreversibility is there introduced mainly to distinguish an evolutionary process from a purely periodic process and to characterize the forward direction in time.

Alfred J. Lotka: The Law of Evolution as a Maximal Principle

445

described in ordinary speech as irreversible falls into the category of irreversible processes as the physicist understands the term. The shuffling of the pack of cards is an irreversible process in the sense that ne ver by me re shuffling could the initial state of the pack be restored. The cards would be wom to rags before the spades ever appeared in order at the top of the pack. But note that, except for the peculiar psychological effect which the marks on the cards have upon certain human minds, the 52 cards of the pack are physically as good as identical. Except again as through their peculiar action on human minds, the particular order of the cards is practically without effect upon the course of physical events. Such shuffling as this is physically in the same category as the interdiffusion of two quantities of the same gas when intercommunication is established between the two vessels containing them at the same temperature and pressure. This is not the type of process which the physicist terms irreversible; it is thermodynarnically indifferent. An irreversible process [170] as the physicist uses the words, is associated with decrease in thermodynamic potential, with capacity for yieldlng a balance of work, as when one gas diffuses into another gas. By a purely physical device (semipermeable membrane or porous partition) such diffusion can be made to operate, for example, apointer moving over a graduated dial, to warn of the presence of an explosive gas mixture. Now it may be objected that the shuffling of the pack of cards, though it cannot affect the course of events through the action of any simple physical device, could indeed be made to do so by the aid of a sufficiently intricate "purely physical" contrivance, such as an electric eye (as distinguished from psychological interference). This is true, but the fact is itself instructive. For there is an important difference between the operation of the danger signal pointer under the infIuence of gaseous diffusion, for example, and the automatic door opener actuated by the aid of an electric eye: The energy for the operation of the former is fumished by the diffusing gas itself, whereas the electric eye acts merely as the "trigger" or "key" to release energy supplied by aseparate source. In this it truly copies the human eye, and indeed all our sense organs, the role of which, in their part in human behavior, is typically to act as "triggers,"S operated, as a rule, by the application of a very small dose 6 of extemal energy, the "stimulus," to set in action a wholly dispropor5 The significance of trigger action seems to be have been first pointed out by N. L. S. Carnot, and more specifically by Barre de Saint Venant, who speaks of it as travail de decrochement, as in the pulling of a declic (trigger). See Boussinesq, Cours de physique mathematiqtue, Tome III, p. XXXII (in section "Conciliation du veritable determinisme avec 1'existence de la vie et de la liberte morale"). Paris, Gauthier-Villars, 1922, but referring to original publications in 1872, 1878. 6 According to S. Hecht, under the most favorable conditions, the smallest amount of light which the human eye can detect is 58 - 148 quanta, representing an energy of 2 - 6 X 10- 10 ergs. Actually only about one-tenth of this is absorbed by the retina; the rest is lost by corneal reflection, absorption by ocular media and passing on beyond the retina. (Abstract in Nature, July 1, 1944, p. 13)

446

Edition

tionate amount of energy drawn from the total sources available in the living body, or, by secondary trigger action, from still more abundant sources outside the body. These are cases of "relay" action, of which probably the most advanced example, in contrivances of human construction, is the amplifier of a radio set. The fact is, in the last analysis irreversibility is a relative thing, and is due to restrictions placed naturally (by physical or economic [171] constraints) or arbitrarily upon operations permiued. Just as the trisection of an angle is or is not an impossible feat, according as we prohibit or allow the use of instruments other than straight edge and compass, so a process may be described as irreversible or not, according as we are restricted (by physical or economic constraints) to operations in bulk, or are allowed to operate separately upon individual elements. While these facts bear an important relation to the central problem of organic evolution, the vagueness of the concept of irreversibility in its broader interpretation demands very special caution in its application to the general problem of evolution. It is quite true that a species of irreversibility very like that contemplated in thermodynamics, as applied to processes on a molecular scale, plays an important role also in large sc ale processes, in which our faculty of "sorting," or "unshuffling," i. e. reversing the spontaneous "mixing" processes of nature gives us a material advantage. But merely to state that "a biological species never retraces its steps," or that "when a race has lived its term it comes no more again," does not characterize an "irreversible" process in any useful sense, for this does not distinguish the chain of events from a mere "changeful sequence." If the world's events taken in historical order A, B, C, ... are a changeful sequence, the same would be true of the inverted sequence ... C, B, A. This kind of "principle of irreversibility" has no prognostic value. lt teIls us at best that if the sequence A, B, C happens, then the sequence C, B, A will not happen, and vice versa; but it does not tell us which of the two actually will happen. After the event it calls the one that has happened "irreversible.,,7 Another characterization of the direction of evolution that has been given is that it is the direction of increasing organization. Those who have in the past propounded this view have not told us how to measure organization, as would be necessary in order either to establish or to refute such characterization. 8 But assuming that an appropriate measure were forthcoming, this could at best lead to an empirical observation [172] that evolution in a large number of cases has proceeded along the line of increasing organization. While such studies have adefinite inter7 "Dollo's Law of Irreversibility, even in its modem phrasing: Evolution is reversible in that structures or functions once gained may be lost, but irreversible in that structures once lost can never be regained," is not borne out by facts. A. 1. E. Cave and R. Wheeler Haines, Nature, Nov. 4, 1944, p. 579. 8 C. C. Lienau has presented an interesting suggestion for the mathematical treatment of this problem. But this applies to special cases. It does not enable us, for example, to appraise quantitatively, and to compare with each other, as to degree of organization, the elephant, the frog, the housefly, the oyster or amoeba.

Alfred J. Lotka: The Law of Evolution as a Maximal Principle

447

est, they belong in the domain of descriptive science. What. we seek is a deductive scheme in wh ich the law of evolution is seen to flow as anecessary consequence from fundamental la ws, as a result of the physical properties of the organisms and the system of which they form part. The standards of the exact sciences look beyond mere description. They aim at establishing coherent disciplines within which, by the application of re1atively few fundamental principles, the course of events can be rigorously deduced for innumerable specific situations. So, for example, an application of the first and second laws of thermodynamics (the laws of conservation and of dissipation of energy) to a system composed of any liquid and its saturated vapor enables us to deduce the latent heat of vaporization of the liquid if three characteristic properties of the substance are known, namely its specific volume in the liquid and vapor form, and the temperature coefficient of its vapor pressure. The phenomenon of increasing organization, which in a somewhat loose qualitative sense may be admitted to be a comrnon characteristic of organic evolution, is far too complicated and too inexactly defined 9 a conception to be classed with such basic principles as the two laws of thermodynamics, for example. It is rather the sort of thing that we might hope to derive as a consequence of the properties of living organisms and some other more basic principle or principles. To accept a "law" of increasing organization as a basic principle would be to shut the door to further important analysis by prematurely pronouncing as solved a problem that actually is hardly even approached: to establish the fundamental law goveming the course of evolution in a system composed of aggregations of energy trans formers of a [173] peculiar type, competing for the substances and energies requisite for their continued existence and operation. In this search we are looking, not for a new empirical formulation, but for necessary relations deduced from known universal principles. From a purely formal lO statement in mathematical symbols of the fact that in general the rate of growth of each organic species is "some function" of the amounts of coexisting species, it is possible, on rather broad assumptions, to set up 9 To speak vaguely of increasing organization, without indicating any method of measuring, is merely another way of stating the obvious fact that certain of the most successful competitors owe their success to adaptation enabling them to deal with a greater and greater variety and diversity of circumstances. This is achieved by the acquisition of certain structures performing certain functions - that is, by organization. But this is only one direction in which evolution may proceed. While certain species have thus moved in the direction of greater and greater capacity for individual survival under varied conditions, others have assured race survival by great fertility of the species in the face of a lower degree of adaptation of the individual. These two types survive together, the one, in many cases, depending on the other for food. A shining example of this bilateral adaptation is man and certain domestic animals kept for slaughter. 10 Such a purely formal statement does not necessarily have any deeper significance. Cf G. D. Birkhoff, "One can manage to obtain a variational principle appropriate to almost any physicalor mathematical theory," Scientific Monthly, 1944, vol. 58, p. 54.

Edition

448

a function (or, indeed, a whole dass of functions) of the amounts (masses) of the several species, which has the property of approaching a maximum or a minimum as the several coexisting species proceed toward a stable adjustment. Such purely formal expressions have been indieated by Lotka,11 and in greater detail and perfection by Volterra. 12 The latter author names the function thus established by hirn the "demographie potential" of the system. This use of the term "potential" cannot be commended. Potential is a [174] technieal term in physics, of the dimensions of an energy, and Volterra's analysis nowhere introduces considerations of energy or of the peculiar mechanical properties of the organism. If we were dealing in problems wholly unconnected with energetics, the borrowing of a term from that field in a purely figurative sense might be condoned. But, quite on the contrary, the energy relations of the system of organic nature are a deeply fundamental feature, in whieh potentials of some kind, in the physicist's meaning, may be expected to play a role. To christen a function as a potential, which does not have the dimensions and qualities of a potential in the physicist's meaning, is to create the impression that a problem has been solved whieh, actually, still awaits solution. This does not make for the advancement of science. A better signpost to point us in the right direction is given in Bertrand Russell's

An Outline of Philosophy: 13

Every living thing is a sort of imperialist, seeking to transform as mueh as possible of its environment into itself and its seed .... We may regard the whole of evolution as flowing from this 'ehemieal imperialism' of living matter. Of this man is the last example (so far). He transforms the surfaee of the globe by irrigation, mining, quarrying, making eanals and railways, breeding eertain animals and destroying others; and when we ask ourselves, from the standpoint of an outside observer, what is the end aehieved by all A. J. Lotka, Evolution and Irreversibility, Science Progress, 1920, vol. 14, pp. 406, 412. V. Volterra, Prineipes de biologie mathematique, Acta Biotheoretica, 1937, vol. 3, part 1. See especially pp. 18, 20, 30, where also the terms energie demographique and principe de moindre action en biologie are used in a sense not eonforming with their striet usage in physies. Other authors who have employed the term "potential" in similarly loose fashion are R. N. Chapman, Animal Ecology, 1926, p. 145, and L. Herseh, Publications des sciences economiques et sociales de I'Universiti de Geneve, 1944, p. 64. Another loose transferenee of a verbalism from the domain of physies to that of biological phenomena, made without adequate eritieal examination of the underlying assumptions and the eonditions for its validity, is the tentative applieation of the Principle of Le Chatelier by various authors (e.g., O. D. Chwolson, F. Le Dantee, W. D. Baneroft). How ineautious sueh applications are ean be seen from the faet that even in the domain of physieal systems, where eonditions are mueh simpler and more clearly defined, erroneous applieations have been eommon, as pointed out by P. Ehrenfest (Zeitschr. f phys. Chemie, 1911, p. 735). An analysis of the eonditions for the valid applieations of the principle eannot be entered into within the seope of this article. For such the reader must be referred to my Principles of Physical Biology (1925), Chapter XXII, Displacement of Equilibrium, espeeially pp. 281 et seq., and the references there cited, in particular, A. J. Lotka, The General Conditions for the Validity of the Principle of Le Chatelier, Proc. Amer. Acad. Arts and Sciences, 1922, vol. 27, p. 21; The Principle of Le Chatelier in Biology and Medicine, Am. JI. of Hygiene, 1923, vol. 3, p. 35. 13 Bertrand RusselI, An Outline of Philosophy, London, 1927, p. 27. 11

12

Alfred J. Lotka: The Law of Evolution as a Maximal Principle

449.

these activities, we find that it can be summed up into one very simple formula: to transform as much as possible of the earth's surface into human bodies .... And in pursuing the simple purpose of maximizing the amount of human life, we have at any rate the consolation of feeling at one with the whole movement of Iiving things from their earliest origin on this planet.

Now a good signpost points the way, but it also teils us that we have not yet arrived. If each species seeks to maximize its own mass, what is the over-all result? It is, of course, conceivable that ultimately one single species (perhaps man) might dominate the scene to the exclusion of all others. But short of this eventuality, or at any rate until it is attained, the problem is one of distribution. What determines the distribution of the total matter of the system among the several species and individual organisms, and the successive changes in this distribution? Is there some signifieant physical quantity which these competing organisms maximize by their collective activities? [175] Problems of distribution are not new to the physical sciences. The whole topie of Change of State deals with precisely such problems: The distribution of a mass of water between the liquid and the vapor phase, or between the solid and the liquid phase under specified conditions of volume, temperature, etc.; the distribution of hydrogen and oxygen between the three components of a system composed of these substances in elementary form, H2 and O2 on the one hand, and in combination as water, H2 0, on the other, again under specified conditions, etc. As applied to these cases the law of evolution is weil known and clearly defined. It states that for an isolated system, for example, the entropy of the system increases to a maximum as the system approaches equilibrium; or, more generally, that certain clearly defined functions of the parameters specifying the state of the system - its thermodynamic potentials - approach aminimum. A special example whieh has often been cited, because of a certain superficial analogy to the growth of a colony of bacteria in a suitable nutrient medium, is that of the crystallization from a supersaturated solution, upon the introduction of a crystal "germ" of the dissolved substance. So long as the supersaturated solution is left undisturbed it may remain as such for long, perhaps indefinite periods, though seemingly spontaneous crystallization mayaiso take place. This restricted type of stability has sometimes been spoken of as the metastable state. Its thermodynamic potential is not at the minimum possible for the system, and hence, as soon as an available "path" is presented (by the introduction of the crystal germ), the transformation to the crystal form is initiated. It continues until that partieular amount of the solid has formed whieh is required to bring about stable equilibrium, that is, to make the thermodynamic potential aminimum. If this were merely outward appearance of analogy, the oft repeated example would hardly be worth quoting again here. But it is literally true that the nutrient solution is "metastable" in the absence of a germ of an organism capable of growth in it. Whether in primordial nature somewhere locally such astate presented itself, 29 Selbstorganisation. Bd. 9

450

Edition

and whether the metastable state could pass over into some kind of elementary "living" matter without the presence of a preexisting germ, just as crystallization of a supersaturated solution can take place even in the absence of a [176] crystal germ, that is today still one of the unsolved problems of science. 14 But if such was the origin of life, we know that it was followed by a long chain of evolutionary development. And just as the continued growth of the crystal, from the first germ to the completely formed solid phase, is governed by the law that this process proceeds with continuous diminution of thermodynamic potential of the system solution plus crystal, so we may expect that the law of organic evolution takes the form that it is accompanied in the long run with diminution of some function, analogous to thermodynamic potential, of the parameters defining the physical state of the system as a whole. While the problem of organic evolution, as a problem in the distribution of matter among the components of a material system, formally in the same general category as these problems of distribution in physico-chemical systems, it differs, of course, in certain important respects from the specific problems considered in physico-chemical dynamics and statics. What are actually the significant points of difference? First, that the ultimate individual components recognized in physico-chemical transformation - molecules and atoms - escape direct observation by any of the ordinary methods. It is the bulk properties and effects, such as volume, pressure, temperature, etc., of the massive components, which are directly accessible to observation, and in terms of wh ich thermodynamics receives its data and states its concIusions. The investigation of the detailed actions of individual molecules and atoms requires altogether different, highly refined techniques. The establishment of the statistical relations between the individual actions and the bulk effects is an additional discipline of great interest - statistical mechanics but is not primarily necessary for the knowledge of the bulk effects, since they are directly observed with greater ease than the individual actions. Diametrically opposite is the situation when we study organic evolution. Here it is the individuals, the separate organisms, that are accessible to direct observation, while the collective or bulk effects of aggregates of organisms, as a whole, (in terms of which we must expect [177] the law of organic evolution to be primarily expressed) will necessitate the development of a special branch of statistical dynamics. Secondly, physico-chemical transformations, in all their variety, are nevertheless limited by certain narrow restrictions which hold for all time. These transforma14 This observation, casually introduced by Ostwald in one of his lectures in 1902, was the "trigger" that set off the trains of thought developed in my subsequent publications, and summarized, in part, in my Elements of Physical Biology (1925) and Theorie Analytique des Associations Biologiques (1934, 1939).

Alfred J. Lotka: The Law of Evolution as a Maximal Principle

451

tions run, as it were, along a single track. So for example in the case already cited, in a system composed of specified amounts of hydrogen and oxygen, the relative amounts of H2 , O2 , and HzO may undergo a progressive change (toward an equilibrium if external conditions are constant), but they will never give rise to hydrochloric acid, for example. This may be expressed by saying that ordinary physico-chemical transformations (exclusive of transrnutations of elements) are bound by certain equations of constraint (the "reaction equations") which are fixed for aB time. The transformations between and within organic species are of a different order, because they are in the main transformations of structure, wh ich is capable of infinite variation. It is true that here also there are equations of constraint. An eagle is not hatched from a duck's egg. But a white duck may have parti-colored ducklings. Again, it is not possible at the present epoch of the world's history for grass or hay to be converted into mammoth. But some tens or hundreds of thousands of years aga this transformation, or something very much like it, was not only possible, it was a daily occurrence. Thus the equations of constraint that delimit the possible transformations of organic evolution are not only more liberal than those of physico-chemical evolution, they are distinguished by the fact that they are functions of the time, whereas the physico-chemical equations of constraint (e. g. the "reaction equations" of chemistry) are rigidly fixed for aB time. One consequence of this distinctive character of the equations of constraint in organic evolution is that the process is one that never ends, since structure is capable of infinite variations. In contrast to this, areaction such as that already cited between hydrogen and oxygen proceeds (under given condition) to an equilibrium, often reached within a short space of time. 15 The fact that the equations of constraint in organic evolution are functions of the time is closely related to a third characteristic. Whereas the components of the systems considered in physico-chemical [178] dynamics - elements, compounds, "phases" - are strictly homogeneous, the component biological species in the system of nature are only relatively homogeneous. In comparison with the discontinuous gaps that separate different species, the variations within each species, describable in terms of frequency distributions of characteristics among its individuals, are either practicaBy continuous, or, if discontinuous, proceed by steps much less extreme than those that separate the several species. In accordance with this, analytic formulation distinguishes two aspects of organic evolution: changes in the distribution of matter among the different species - inter-species evolution; and changes in the distribution of the individuals within each species, as defined by suitable frequency functions of their characteristics intra-species evolution. 15 That is, for all practical purposes. Theoretically the end state may never be fully reached, but only approached to within a negligible distance. 29*

452

Edition

It is the changing character of organic species that imparts to the equations of constraint their dependence on time. This feature has no counterpart in physicochemical evolution, since there the components are homogeneous and invariable and present no opportunity for intra-species evolution. On the contrary, in the system of organic nature, intra-species evolution has so prominently engaged the attention of biologists, that attempts to indicate the direction of evolution have commonly been couched with reference to individual species. Actually, as already hinted, any adequate treatment of the problem must envisage the evolving system as a whole - the aggregate of coexisting species and their inorganic environment. 16 Anyone accustomed to the discipline of physico-chemical dynamics knows that it would be quite out of the question to formulate the law of evolution of the system by reference to one of the components alone. The law of organic evolution, likewise, must undoubtedly be formulated in terms of the system as a whole evolving under the flood of light received from the sun.

And this brings us to the fourth typical difference that distinguishes organic evolution from most of the physico-chemical transformations usually considered (adiabatic or isothermal reactions), namely that the latter are envisaged as taking place under conditions leading to an equilibrium. Absolutely fundamental to organic evolution is that it takes its course in a system exposed to a continuous stream of energy from the sun, so that the approach is not towards equilibrium, but towards [179] a stationary state maintained with continuous expenditure of free energy.17 And directly related to this is the fact to which reference has already been made in passing, namely that trigger action plays an important role in organic evolution. For trigger action presupposes a fund of free energy ready to be released, and, as was pointed out years aga by Boltzmann, the life struggle is primarily a competition for available energy. What we have before us in organic nature is a system composed of aggregates of energy trans formers adapted by their composition and structure to guide available energy into such channels as lead to their maintenance and growth. A special branch of physics needs to be developed, the statistical dynamics of systems of energy transformers. In the development of this it will not be necessary or even desirable to deal primarily with specific living organisms, but rather with transformer types possessing certain properties characteristic of the physical modus operandi of living organisms. The kind of problem then to be studied will be the relation between the distribution of matter in the system on the one hand, and on the other the particular properties and variation in properties of the 16 For a particularly illuminating survey of the planetary relations involved, see W. Vemadsky, La Geochemie, Paris (Alcan), 1924. 17 In this respect it is similar to photochemical reactions, and indeed, it might be regarded as a photochemical reaction on a heroic scale, accompanied by important structural changes. However, in organic evolution, owing to intra-species changes, the state is only relatively stationary; it resembles rather what has been (inaccurately) termed a "moving equilibrium."

Alfred J. Lotka: The Law of Evolution as a Maximal Principle

453

several types of transformers of which the system is composed. In so far as the system of organic nature is subject to physical law, certain at least of the relations deduced for the systems studied in this branch of physics should be found applicable to the system of organic nature and its evolution, just as that system is, for example, subject to the law of conservation of energy which is usually thought of as applicable primarily to inorganic systems. 18 Among the trans formers which this branch of physics will have to consider, one important dass obtains its supply of available energy from sources distributed discontinuously, in separate masses, through the system in which they operate. This necessitates structures or "apparatus" whereby "'collisions" or "encounters" between those transformers and their energy sources are rendered probable. The more perfect the functioning of this apparatus, the greater will be the probability [180] of these encounters, and the less the energy expended in proportion to the energy captured in the encounter, so as to yield a net balance of gain. In the apparatus by which the probability of favorable encounters is ensured or enhanced four typical elements are to be distinguished, as follows: 1. Receptors. The action of the transformer must be a function of the position of the sources. But that action is primarily a function of the state of the trans former itse1f. Hence there must be apparatus to provide that the state of the environment is in some manner "represented" or "depicted" in the trans former. This may be by optical image formation by a lens, as in the human eye or in an automatic door opener operated by a photoe1ectric cell; but more generally, the process of "depicting" 19 may take a variety of forms. What is characteristic is that the amount of energy involved in the process may be very small. 2. Free energy. Associated with the transformer is afund offree energlO ready to be released by trigger action, that is, by an expenditure of an amount of energy bearing in general no quantitative relation to the energy released, which can thus be far in excess of the energy applied at the "trigger." . 18 Though the principle was originally recognized by J. R. Mayer on the basis of physiological observations. 19 That is, of establishing a one-to-one correspondence between certain features of the environment and certain appropriate features of the transformer. It is no mere accident of language that we speak of this generalized process of "image formation" in ourselves as information. By it we are informed of conditions in the environment. In the case of man the primary representation (depiction) of the environment in the individual is further supplemented or elaborated by a faculty or a set of faculties which we may designate as the elaborators. Their most refined product is the scientific world picture. 20 It can be noted here only in passing that the pos session of such a fund of free energy is what gives the opportunity for purposive action and the exhibition of the phenomenon of will, that is, action teleologically aimed at future effects. For a discussion of this the reader may be referred to Chapters XXVIII et seq. of my Elements of Physical Biology, and, for a more recent review, to A. J. Lotka, Evolution and Thermodynamics, Science and Society, 1944, vol. 8, p. 161.

454

Edition

3. Effectors, that is, structures by which the energy released by trigger action from the available fund is applied to react upon the environment so as to bring about an encounter with an energy source to be captured, or so as to avoid an encounter in which the transformer itself will be captured or injured, i. e., made more or less inoperative. [181] For since these transformers possess a fund offree energy they can themselves become objects for capture by competing transformers. The avoidance of capture is made possible by the existence of refuges scattered through the topography over which they operate. 4. Adjustors. Lastly, in order that the receptors and effectors may function successfully in ensuring the probability of encounters with energy sources and in warding off unfavorable encounters, the transformer must comprise apparatus by which the action of the effectors upon the environment is suitably adjusted to the "information" supplied by the receptors.

Since it is characteristic of trigger action that the energy released may far exceed the energy spent in working the trigger, while the energy captured may still further exceed the energy expended from the available fund of the trans former, it follows that a transformer or an aggregate of transformers equipped with apparatus of the type described is capable of continued functioning, obtaining sufficient energy from captured sources to defray the energy cost of capturing further sources. In fact, there may be a balance left over for accumulation, which may take the form of growth of the transformer or of the aggregate of transformers. In the discussion it has been assumed that there exist "discrete" sources available for capture, scattered through the field of operation of the transformers of the type so far considered. That such sources exist and are continually replenished in nature is due to the existence of another type of energy trans formers, which themselves draw their supply of energy and substance from sources continuously distributed in space, namely sunlight on the one hand, and on the other, gaseous or dissolved substances which drift to them spontaneously by diffusion and seepage. These transformers can accordingly remain essentially passive and do not require the "ingenious" apparatus for capturing energy by trigger action. At the same time they lose the benefit of the power actively to avoid unfavorable encounters. They do, of course, possess various passive means of protection, some of which, incidentally, are available also to animals. Such are the fundamental data with which the statistical dynamics of aggregates of energy trans formers will have to deal. Indications of the direction in which the development of this branch of physics [182] may be expected to move have been given by the writer elsewhere. 21 For our present purpose only certain broad observations will here be made. 21 A. J. Lotka, ElemenJs of Physical Biology, pp. 36, 37, and especially Chapters XXIV to XXXIV. Also, Families of Curves of Pursuit and Their Isochrones, American Mathematical

Alfred J. Lotka: The Law of Evolution as a Maximal Principle

455

While the transfonners in nature are "living" animals and plants, it will be desirable to develop the discipline of statistical dynamics of aggregates of transformer irrespective of this fact. The results achieved must then be applicable to the world of organisms in so far as they are energy transfonners having the physical properties taken in view in that discipline, just as the law of conservation of energy, is applicable to them. Dealing with purely physical data affords certain important advantages. We have complete control of the particular properties which we may assign to the transfonners under consideration, without raising the question whether such a transformer actually exists or ever has existed. As Karl Pearson has remarked: "In dealing with natural phenomena .... the mathematician has to simplify the conditions until they reach the attenuated character wh ich lies within the power of his analysis." This process can be carried much farther both experimentally and conceptually in purely physical than in biologie al systems. The relative simplicity and direction of physical laws is in no small measure due to the fact that experimentally we can control conditions so as to isolate the factors essential to our enquiry, from adventitious circumstances in which for the moment we are not interested. 22 The fact that we ourselves are of the dimensions of the units (transfonners) contemplated in this discipline gives us an inside view of [183] the processes under discussion, and thus enables us to select the appropriate ensemble of properties to assign to the conventionalized models of the actual transfonners presented to us in nature's organisms. At the same time we shall retain full freedom, in this process of conventionalization, to place the development of the subject on a postulational basis, if we conduct the enquiry solely in tenns of physically defined transfonners, since we thus avoid carrying on the discussion in terms of "hypothetical animals and plants," to which some biologists might take exception. An admittedly primitive illustration of the mode of approach to the problem is the case of a "pursuing" transfonner of velocity seeking encounter with a "pursued" transfonner of velocity VI while the latter flees in a straight li ne toward a refuge of safety. The pursuer, constantly directed toward the pursued, then follows a so-called "curve of pursuit." Whether capture occurs or not then depends on the relative position of the pursuer and the pursued at the time when first stage of the Monthly, 1928, vol. 35, p. 421; Contribution to the Mathematical Theory of Capture, Proceedings 01 the National Academy 01 Sciences, 1932, vol. 18, p. 172. See also V. Lalan, Compt. Rend., 1931, vol. 192, p. 468. 22 The history of Science weil illustrates the importance of this simplification for the progress, and especially the early progress, of a science. Thus astronomy was able to make a very early start because nature herself has simplified some of the basic problems by reducing the data practically to mathematical points, the position of stars (and far the naked eye also the planets) in the sky. At the other extreme we have the case of chemistry, one of the last sciences to develop effectively, because no considerable progress could be made until recognition and separation of the fundamental units of chemistry - elements and pure compounds - had been achieved.

456

Edition

pursuit, the "stalk," begins (that is, when the pursuer first directs his course toward the pursued); and depends further on the time when the second stage begins, namely when the pursued first reacts by "flight' to the "attack" of the pursuer. The problem thus conventionalized resolves itself into a problem of geometry. Capture certainly occurs, or does not occur, according as a certain circ1e does or does not fall within a certain ellipse of dimensions depending on the efficiency of the receptor-effector apparatus of the two types of transformers. If the circ1e and the ellipse intersect, capture occurs for some initial positions and does not occur for others. In this conventionalized case we can, for example, discuss the influence, upon the probability of capture, of variations in the velocities VI and V2 or in the degree of perfection of the receptors, etc. Carrying the model somewhat further, the influence of the density of distribution of refuges in the territory may be discussed?3 It may be objected by some that such primitive - not to say naive - conventionalizations of the natural phenomena of pursuit and capture observed among living organisms, are too far removed from any realities to be of any value.

To this the answer is, first, that the case described is used merely as a simple example ofthe kind ofprocedure to follow, with appropriate [184] refinements and extensions. And second, that it is weIl to be very cautious in pronouncing useless a conventionalization merely because it is a seeming over-simplification. Such highly attenuated conventionalizations have done excellent service in certain fields. The Camot heat engine, with its perfectly conducting and perfectly insulating parts, is a case in point, and so is the use of the "perfect gas,,24 in illustrating the derivation of the second law of thermodynamics by a Camot cyc1e. As is weIl known, the results so derived are of far-reaching consequence and of the widest applicability. While the future development of such a discipline of statistical dynamics of aggregates of energy trans formers should eventually prove of great interest and importance in relation to the problems of organic evolution, certain broad observations with which its result presumably will conform may be stated even now. 23 For details the reader is referred to my two papers cited above, on eurves of pursuit and on the theory of eapture. 24 As to this, it is admitted that both logically and for didaetic reasons it is preferable to avoid the use of an unreal working substanee in this derivation of the efficieney of a reversible heat engine. It is not the ideal way of treating the subjeet, though it has a eertain heuristie and illustrative value. I have noted that some who had so been initiated into the foundations of thermodynamics gained the impression that the use of a "perfect" gas was a necessary point of the argument whereas just the opposite should have been impressed upon them - that the argument and its cQnclusions are independent of the working substanee and that therefore, in the interest of simplicity of the mathematical manipulations it is permissible to conduct the argument on the basis of a fietitious working substanee - the conclusion is independent of the fact that such a particular substance does not exist.

Alfred J. Lotka: The Law of Evolution as a Maximal Principle

457

It has been remarked 25 that the influenee ofliving organisms is to retard the dissipation of energy. So far as the plant world is coneerned this seems essentially true. Green plants act as aecumulators storing sunlight whieh would otherwise shortly be converted into heat at terrestrial temperatures. But the influenee of animals is essentially in the opposite direction, sinee their aetivities are eondueted with dissipation of energy, eatabolism exceeding anabolism. At first sight there is something perplexing about these two opposing tendencies. But this perplexity exists only so long as we seek to express the drift of organic nature in terms of a retardation or a promotion [185] of the dissipative proeess. As soon as we frankly aecept the fact that both are going on side by side the perplexity vanishes. A simile may be helpful in illustrating the situation. Consider a reservoir eonstrueted to eolleet rainwater. Now let there be two agencies at work, one tending to enlarge the eatehment area, the other tending to enlarge the outlet or outlets from the reservoir. In one sense these two influenees seem antagonistie, one tends to increase the volume of water in the reservoir, the other tends to deerease it. But in one thing they eooperate: Together they increase the totalflow through the reservoir. From this illustration by analogy, let us return to the aetual ease before uso The argument, as I have presented it elsewhere,26 runs as follows: As already noted, "it has been pointed out by Boltzmann that the fundamental objeet of eontention in the life struggle, in the evolution of the organie world, is available energy." In accord with this observation is the prineiple that in the struggle for existenee the advantage must go to those organisms whose energy-eapturing deviees are most effieient in direeting available energy into ehannels favorable for the preservation of the speeies. "The first effect of natural selection thus operating upon competing species will be to give relative preponderance to those most efficient in guiding available energy in the manner indicated. Primarily the path of the energy flux through the system will be affected. "But the species possessing superior energy-capturing and directing devices may accomplish something more than merely to divert to its own advantage energy for which others are competing with it. If sources are presented, capable of supplying available energy in excess of that actually being tapped by the entire system of living organisms, then an opportunity is furnished for suitably constituted organisms to enlarge the total energy flUX 27 through the system. Whenever such organisms arise, natural selection will operate to preserve and increase them. The result, in this case, is not a mere diversion of the 25 See J. Johnston, The Mechanismn 01 Life, 1921, pp. 220, 221, especially the footnote on page 221. 26 A. J. Lotka, Contribution to the Energetics of Evolution, Proceedings 01 the National Academy olSciences, 1927, vol. 8, p. 147. 27 The term energy fiux is here used to denote the available energy absorbed by and dissipated within the system per unit of time.

458

Edition energy flux through the system of organic nature along a new path, but an increase of the total flux through that system. "Again, so long as sources exist, capable of supplying matter of a character suitable for the composition of living organisms, in excess of that actually embodied in the system of organie nature, so long is [186] opportunity fumished for suitably constituted organisms to enlarge the total mass of the system of organic nature. Whenever such organisms arise, natural selection will operate to preserve and increase them, provided always there is presented a residue of untapped available energy. The result will be to increase the total mass of the system, and, with !his total mass, also the total energy flux through the system, since, other things equal, this energy flux is proportional to the mass of the system. "Where a limit, either constant or slowly changing,28 is imposed upon the total mass available for the operation of life processes, the available energy per unit of time placed at the disposal of the organisms for application to their life tasks and contests, may be capable of increase by increasing the rate of tumover of the organie matter through the life cyc1e. Suppose, as a simple, though rather extreme illustration, that man found means of doubling the rate of growth of crops, and of growing two crops a year instead of one. Then, without changing the average crop actually standing on the fields, the land would be capable of supporting double the present population. If this population were attained, the energy flux through the system composed of the human population and the organisms upon which it is dependent for food, would also be doubled. This result would be attained, not by doubling the mass of the system (for the matter locked up in crops, etc., at a given moment would be, on the average, unchanged) but by increasing the velocity of circulation of mass through the life cyc1e in the system. Once more it is evident that whenever a group29 of organisms arises which is so constituted as to increase the rate of circulation of matter through the system in the manner exemplified, natw-al selection will operate to preserve and increase such a group, provided always that there is presented a residue of untapped available energy, and, where circumstances require it, also a residue of mass suitable for the composition of living matter. "To recapitulate: In every instance considered, natural selection will so operate as to increase the total mass of the organic system, to increase the rate of circulation of matter through the system, and to increase the total energy flux through the system, so long as there is presented an unutilized residue of matter and available energy. "This may be expressed by saying that natural selection tends to make the energy flux through the system a maximum, so far as compatible with the constraints to which the system is subject. [187] "It is not lawful to infer immediately that evolution tends thus to make this energy flux a maximum. For in evolution two kinds of influences are at work: selecting influences, and generating influences. The former select, the latter fumish the material for selection.

28 As, for example, if the total mass of the system is capable of accretion, but only at a limited velocity, in which case the phenomenon of a "moving equilibrium" may present itself. Compare Lotka, A. J., Proc. Nat. Acad. Sei., 1921, vol. 7, p. 168. 29 Owing to the fact that in existing organisms the anabiotic and catabiotic functions are very largely segregated in different types (plants and animals), evolution will here operate upon systems or groups of at least two species, one species of autotrophie anabions, and one of heterotrophic catabions.

Alfred J. Lotka: The Law of Evolution as a Maximal Principle

459

"If the material furnished for selection is strictly limited, as in the case of a simple chemical reaction, which gives rise to a finite number of products, the range of operation of the selective influences is equally limited. "In the case of organic evolution the situation is very different. We have no reason to suppose that there is any finite limit to the number of possible types of organisms. In the present state of our knowledge, or rather our ignorance, regarding the generating influences that furnish material for natural selection, for organic evolution, an element of uncertainty enters here. It appears, however, at least apriori probable that, among the certainly very large (if not infinite) variety of types presented for selection, sooner or later those will occur which give the opportunity for selection to operate in the direction indicated,30 namely so as to increase the total mass of the system, the rate of circulation of mass through the system, and the total energy flux through the system. If this condition is satisfied, the law of selection becomes also the law of evolution: "Evolution, in these circumstances, proceeds in such direction as to make the total energy flux through the system a maximum compatible with the constraints.,,31

As for these constraints, over relatively short periods of time, when we are dealing mainly with inter-species evolution, they are defined essentially by transformation coefficients indicating in what ratio the mass added in the growth of one species stands to the masses captured from other species or from the environment. For, growth in mass of organisms takes place by the assimilation of food, though growth in numbers takes place by reproduction (births), which thus acts as pacemaker for the growth in mass. Over extended periods of time, as already noted, the constraints are functions of the time, and the empirical data which define them are supplied [188] mainly - but with one highly significant exception - by the findings of genetics. The one outstanding exception is the human species. Here evolution, especially in more recent times, has followed an entirely new path. In place of slow adaptation of anatomical structure and physiological function in successive generations by selective survival, increased adaptation has been achieved by the incomparably more rapid development of "artificial" aids to our native receptor-effector apparatus, in a process that might be termed exosomatic evolution. 32 30 One is inc1ined here to give at least qualified assent to the saying of Herodotus: "If one is sufficiently lavish with time, every thing possible happens." (Cited by C. E. Guye, Physicochemical Evolution, Methuen & Co., London, 1925, p. 30. This is essentially a republication in English of aseries of papers originally appearing in various French journals, 1917 to 1920.) 31 A further analytical development based upon this principle has been suggested by N. Rashevsky, OutIine of a New Mathematical Approach to General Biology, 11, Bulletin of Mathematical Biophysics, 1943, vol.5, p. 49. 32 I have elsewhere (Proceedings of the American Philosophical Society, 1939, vol. 80, p. 625) graphically represented in quantitative measure the rocket-like ascent, in modem times, of human knowledge and technical skilI. See also, the editorial "Forty Years of Plenty" in the Bulletin of the American Association for the Advancement of Science, 1944, vol. 3, no. 10, p. 73.

460

Edition

Until recently the net effect of these new implements of evolution has been essentially in the same direction as the main current. Man, one of the latest, and in his own judgment the highest product of evolution, has hitherto signally conformed with the principle of increasing energy flUX. 33 By ingenious contrivances he has immensely refined and multiplied the operation of his receptor-effector apparatus. The excess of energy captured, over the energy barely sufficient for mere maintenance, has in his case grown to a wholly unparalleled magnitude. Normally this leaves hirn with a large balance available for "play" activities and luxuries. And some of his play activities have turned out to be a most profitable reinvestment. For among them must be classed scientific research indulged in primarily out of curiosity, but resulting among other things in that complete recasting of methods of production which is known as the industrial and agricultural revolution. Aside from its direct benefits this "has made it possible to spend relative1y large amounts on sanitary improvements, on medical education and research, and, above all, on better living among the masses of the people. This increase [189] in the productivity of human labor may, therefore, very properly be called the basis of the decline in the death rate which has taken place in almost all parts of the Western World during the last century.,,34 This is one side of the picture. But there are also less pleasing aspects. The same ingenious contrivances that extend our view, that speed our travel, and multiply our strength in beneficent pursuits, are equally potent to destroy. Then, in a world at war as today, contending armies exchange death against death,35 while among the inhabitants of the occupied countries "a disproportionate expenditure of energy is required merely to maintain life and satisfy the most elementary demands of food and cleanliness, with the almost inevitable result that in many cases habits of personal hygiene are relaxed and all interests beyond the mere struggle for existence are stifled.,,36

33 Of this the exploitation of solar energy stored up from past ages in coal is in the present era the outstanding, though perhaps transitory, example: "The problem of economy in husbanding resources will not rise to its full importance until the available resources are more completely tapped than they are today. Every indication is that man will learn to utilize some of the sunlight that now goes to waste. The general effect will be to increase the rate of energy flux through the system of organic nature .... " (A. J. Lotka, Elements 0/ Physical Biology, 1925, pp. 357 - 358). Compare also F. H. Pike, The Driving Force in Evolution, Ecology, 1929, p. 167. This also contains bibliographical notes. 34 W. S. Thompson, Plenty 0/ People, Jaques Cattell Press, 1944, p. 64. 35 The latest development in this field is the unlocking of atomic energy for purposes of war. It remains to be seen whether this new channel for the flux of energy through the evolving system of which human society forms part, will in the course of time be put to constructive use. In that case this will be the superlative example of the principle of maximum energy flux as characterizing the direction of evolution. 36 International Labour Office, The Health 0/ Children in Occupied Europe, Montreal, November 1943, p. 28.

Alfred J. Lotka: The Law of Evolution as a Maximal Principle

461

It is not only in war that the trend of human evolution has brought special problems. With the vastly multiplied efficiency of modem industry, as compared with primitive labor, the necessities of life can be produced in much less than the full working time of the gainfully employed population. 3 ? Hence, to secure full employment much of the industrial activity must be expended on the production of luxuries and near-Iuxuries. This in itself would be no disadvantage. Quite on the contrary, if continued full or approximately full productive activity were assured, this would mean the enjoyment of these luxuries by the consumers, among whom are the producers themselves. But there is [190] this serious drawback. While the necessities of life, from their very nature, insistently demand continued production, no such powerful inherent drive exists for the luxury trades. And so, with our present economic system, when from time to time periods occur during which the production of luxuries and near luxuries is depressed, this results in a plague of unemployment, since idleness at such times is quite unevenly divided, some retaining full time employment, while others are wholly without work. Then we have the incongruous spectacle that in the midst of plenty there is widespread want. 38

While the occurrence of the more severe economic fluctuations are, to say the least, annoying and do cause much hardship, it cannot be said that they offer any serious threat to the maintenance of the species, and it may reasonably be hoped that in time better adjustments of production, distribution and consumption may be achieved, with reduction or elimination of at least the more extreme fluctuations. But the effect of the greatly increased productivity of labor in shifting the center of gravity of the total activity toward luxury production has other more serious results. It is obviously in the interest of producers to stimulate demand for luxuries. This demand, unlike that for necessities, is very elastic. The demand for personal necessities needs no particular stimulation - that is what we mean by necessities nor could it be very greatly enhanced by any attempt at stimulation. People's appetite for food is limited. Their appetite for automobiles, radios, fur coats, jewelry, actually seems to follow the rule of the French proverb l' appetit vient en mangeant. At any rate it is highly susceptible to suggestion, which our advertising fraternity has developed, if not to a fine art, at least to an importunate technique. Now overstimulation of the demand for luxuries is not without its dangers. Necessities for the species are not always feIt as necessities for the individual. Few 37 Compare W. B. Kaempffert, Technological Advance in Relation to Population Trends, Proceedings oJ the American Philosophical Society, 1939, vol. 80, p. 563: "In the decade from 1920 to 1930 .... the nation's output increased 46 percent, but the labor force only 16 percent." Compare also the editorial "Forty Years of Plenty," Bulletin oJ the American Society Jor the Advancement oJ Science, 1944, .vol. 3, no. 10, p. 73. In the four decades 1900 to 1940 the population of the United States increased 70 percent, while the number of farm workers decreased more than 10 percent. 38 The desperate measure adopted by Germany, of absorbing excess productivity by preparing for and waging aggressive war, has proved a catastrophic failure even from a criminally nationalistic point of view.

462

Edition

persons may be tempted to go hungry in order to buy jewels. But many actually do go without children, or without an adequate number of them, in order to maintain certain standards of [191] living. 39 Nature tricks the individual into doing things advantageous to the species, by linking the doing of them with pleasure for the individual. The trick works well, until the individual discovers ways of separating the links, and reaping the pleasure without accepting the cost. Here again man's ingenuity has worked against the advantage of the species, or at least of certain branches of the species, as the statistics show. The net reproduction rate, that is the ratio of total births in successive generations, has fallen well below unity, the required minimum, for many of the countries of Western civilization, as shown in Table I. TABLEI Net reproduction rate, * according to age-specijic mortality and fertility at specijied dates COUNTRY

DATE

RATE

Austria Belgium Czechoslovakia Denmark England and Wales

1935 1941 1935 1941 1933 1938 1938 1939 1933 1940 1941 1939 1940 1941 1931-35 1939 - 41

.64 .67 .79 .96 .73 .81 .96 .90 .70 .98 1.16 .86 .79 .90 .98 1.01

Finland France Gerrnany Holland Norway Sweden Switzerland United States (white persons)

*

Ratio of total births in two successive generations.

The meaning of these figures is that certain contingents of mankind are headed for extinction, if present attitudes continue. This is not saying that in the case of the human species the principle of maximum [192] energy flux is on the point of failing. For, in the first place, that principle contains a reservation: a maximum compatible with the constraints. The principle teHs us what is selected; what is pre39 For a discussion of the social influences making for restrietion in the size of families see J. J. Spengler, France Faces Depopulation, Duke University Press, 1938, especially pp. 157 et seq. Also the same author's articJe "Pareto on Population" in the Quarterly Journal of Economics, August, 1944.

Alfred 1. Lotka: The Law of Evolution as a Maximal Principle

463

sented for selection is determined by other principles - just as in physico-chemical evolution the principles of thermodynamics teIls us which of possible transformations actually take place. What transformations are possible is determined by the facts of stoichiometry .. Secondly, the principle of maximum energy flux presumably continues to be operative among the remaining components of the system of nature, if one of them drops out. Any species, or contingent of a species, that signally fails to keep in the current of the law of maximum energy flux is headed for elimination from the evolving system. Thus the law is preserved. That such elimination of species occurs from time to time is a familiar fact engraved in the earth's fossil record, though tht; precise cause of these disappearances may remain unknown. One conjecture is that, in certain cases at least, the extinction was due to a certain fatal drift in the cumulative inheritance of certain characteristics from generation to generation by what has been termed orthogenesis. Whether physiologically speaking orthogenesis is fact or fiction is a matter of dispute, but the exosomatic evolution of the human species is indisputably subject to orthogenesis. Knowledge breeds knowledge, and with present-day methods of recording, this means unceasing accumulation of knowledge and of the technical skills based upon it. 40 But in a way hardly dreamed of by Tennyson, it is true that "knowledge comes, but wisdom lingers," if by wisdom we understand that adjustment of action to ends wh ich is for the good of the species. It is precisely this that has gone awry in the schemes of men: The receptors and effectors have been perfected to a nicety; but the development of the adjustors has lagged so far behind, that the resultant of our efforts has actually been reversed. From preservation of li fe we have tumed to the destruction [193] of life; and from expansion of the human race we have, in some of the most advanced communities, tumed to its curtailment. If certain contingents of the human species are to be preserved and perpetuated, arevision of prevailing valuations will be necessary. As R. S. Lillie has remarked, "The avoidance of useless conflict, and the subordination of individual interests to the integrated whole, which includes the individual, would seem to be a rational aim for conscious beings.,,41 In particular, as procreation, from the essentially instinctive drive, is passing into the domain of deliberately controlled actions, it becomes necessary that the adjustment of reproduction be equally controlled in ac40 This property of knowledge has been much exalted by A. Korzibski (Manhood of Humanity, Dutton, 1921) who seemed to be under the impression that he had discovered a new principle. The idea was of course far from new. It had for example been clearly set forth by W. Ostwald in Energetische Grundlagen der Kulturwissenschaften, 1909, pp. 121, 122. Korzibski's characterization of man on this account, as "time binder," can hardly be praised either as a happy choice of terms or as altogether setting man apart from other species. 41 R. S. Lillie, The Psychic Factors in Living Organisms, Philosophy of Science, 1943, vol. 10, p. 270. Similar reflections also are developed, especially in the closing chapters, in my Elements of Physical Biology (1925).

464

Edition

cordance with the needs of the species. This may be difficult to accomplish. For, as Whelpton has pointed out, "The average size of planned families has been substantially smaller than that of unplanned fami1ies in the past and will be smaller in the future, though perhaps in lesser degree. Any tendency for the average size of planned families to increase in the future will be more than offset by the increase in the relative frequency of planned families which will result from the continuing spread through the population of information about effective methods of contraception.,,42 We find ourselves at a most remarkable epoch in history. As never before, man looking back contemplates a vista of miraculous progress; and as never before he finds hirnself casting searching glances into the future. Our gratification in being at once spectators and participators in a captivating drama is considerably damped by the fact that the prospect does not please. In the solution of scientific and technical problems we have achieved brilliant results. Social problems, as conceived broadly from the point of view of the species, we have bungled. To us, at this critical period, the two-fold threat to the very existence of large sections of the human race dominates our immediate interest in world history. In the longer view all this is but an episode in the great drama of the evolution of the earth and its inhabitants. The [l94]larger scientific outlook aspires to an objective survey of events quite aside from any peculiar relation which they may have to human affairs. It is with this broader conception that we have viewed the evolution of life on our planet as the changing distribution of matter among the various organic species and their inorganic environment. Whatever line the development of this branch of science may ultimately take, this can be confidently asserted, that no treatment can be effective which fails to give a prominent place to the competition for substance and energy among the diverse organic species, in relation to the characteristic physical and dynamical properties which the individual organism pos ses ses for waging the competitive struggle. We may further set it down that the formulation of the law of evolution must unquestionably be made in terms of the evolving system as a whole; that it cannot be adequately expressed by reference to only one component, such as a single species. It is the system as a whole, under the flood of light energy received from the sun, that evolves. From our experience in the disciplines of the physics of change of state and physical chemistry we know that it would be quite out of the question to formulate the law of evolution of a physicochemical system by reference to one of the components alone. No more can we expect to express the basic directional principle of organic evolution in terms of the "organization" or any other property or assemblage of properties of individual species considered separately. It is in the collective activities and effects of the organisms that we must look for an indication of the direction of evolution. These 42 P. K. Whelpton, War and the Birth Rate. Paper presented before the Ameriean Publie Health Assoeiation, Oet. 2, 1944.

Alfred J. Lotka: The Law of Evolution as a Maximal Principle

465

collective effects tend to maximize, on the one hand, the energy intake of organic nature from the sun, and on the other, the outgo of free energy by dissipative proces ses in living and in decaying dead organisms. The net effect is to maximize in this sense the energy flux through the system of organic nature. Such, it seems, is the shape of the basic principle defining the direction of organic evolution.

30 Selbstorganisation, Bd. 9

Briefwechsel zwischen Alfred James Lotka und Wilhelm Ostwald Herausgegeben und kommentiert von Hans-Jürgen Krug, Berlin

I. Editorische Vorbemerkung In der hier edierten Folge von acht Briefen zwischen Alfred James Lotka (1880-1949) und Wilhelm Ostwald (1853 -1932) aus den Jahren 1910, 1913 und 1927 geht es vornehmlich um die Publikation von Lotkas Arbeiten über die physikalischen Grundlagen der Evolution im deutschsprachigen Raum. Der spätere Versicherungsmathematiker Lotka hatte in den Jahren 1901 und 1902 in Leipzig Chemie studiert und war durch Ostwaids "Vorlesungen über Naturphilosophie"l zu lebenslangen eigenen Studien zur Evolutionsproblematik angeregt worden. Ostwald war Adressat der Briefe Lotkas in zweifacher Hinsicht: einmal als akademischer Lehrer aus der Leipziger Zeit sowie als mögliche Kontaktperson zu deutschsprachigen Verlagen und wissenschaftlichen Vereinigungen, nicht zuletzt als Herausgeber von "Ostwaids Annalen der Naturphilosophie". Ostwald, der Begründer der physikalischen Chemie in Deutschland, hatte sich seit 1905 vom Lehrbetrieb der Leipziger Universität in sein Landhaus "Energie" in Großbothen bei Leipzig zurückgezogen und wirkte dort als international renommierter Forscher und Schriftsteller weiter. 2 Lotka arbeitete seit 1902 in den USA in den verschiedensten Stellungen und Berufen: in der Zeit um 1913, in der ersten Phase des Briefwechsels, im amerikanischen Patentbüro. 3 Die in den Briefen von 1913 angesprochene Publikation einer Arbeit von Lotka scheiterte an dem damals in Deutschland geringen Interesse an einer Mathematisierung von Evolutionsprozessen; eine für 1914 geplante Reise nach Deutschland ist nicht überliefert. Sie verhinderte wohl der Ausbruch des 1. Weltkrieges, der auch eine langjährige Unterbrechung der wissenschaftlichen Kontakte zwischen Deutschland und der übrigen Welt zur Folge hatte. Lotka publizierte seine Arbeiten

Wilhelm Ostwald, Vorlesungen über Naturphilosophie, Leipzig 1902. V gl. N. Rodnyil J. Solowjew, Wilhelm Ostwald, Leipzig 1977. 3 Siehe die biographischen Angaben in der Vorbemerkung zur Lotka-Publikation aus dem Jahre 1945 im vorliegenden Band. 1

2

30'

468

Edition

zur Evolutionsproblematik dann in amerikanischen Zeitschriften,4 um 1925 seine Ideen zu diesem Thema schließlich in seinem Hauptwerk, den "Elements of Physical Biology"S kulminieren zu lassen. In den bei den letzten Briefen aus dem Jahre 1927 geht es um OstwaIds in jenem Buch nicht ausdrücklich erwähnte Priorität bei der Begründung der Auszeichnung der Zeitrichtung durch natürliche irreversible Prozesse. 6 Die hier edierten Briefe stammen aus dem Archiv der Berlin-Brandenburgischen Akademie der Wissenschaften in Berlin, dem hier für die freundliche Genehmigung zur Publikation ausdrücklich zu danken ist. Die Überlieferung der Briefe ist im einzelnen angegeben, wobei folgende Abkürzungen verwendet wurden: H: handschriftlich von eigener Hand, ms: maschinenschriftlich, NL-WO: Wilhe1mOstwald-Nachlaß der Berlin-Brandenburgischen Akademie der Wissenschaften. Bei mehrseitigen Briefen ist die Blattnummer in eckigen Klammem angegeben. Kleinere Rechtschreibfehler wurden in den Texten stillschweigend korrigiert.

11. Briefwechsel zwischen Alfred James Lotka und Wilhelm Ostwald

1. Lotka an Ostwald7 Herrn Professor Dr. W. Ostwald Grossbothen Königreich Sachsen

Room 308 U.S. Patent Office Washington D.C d. 5. März 1910

Sehr geehrter Herr, Den Empfang Ihrer hochgeschätzten Mitteilung [2] betreffend meiner Notiz über halbdurchlässige Wände sowohl wie die Rücksendung dieser letzteren, erlaube ich mir mit Dank zu bestätigen. In vorzüglichster Hochachtung Alfred J. Lotka.

4 V gl. u. a. A. I. Lotka, Contribution to the General Kinetics of Material Transformations, in: Proc. Amer. Acad. Arts & Sei. 55 (1920), S. 137 -153; ders., Contribution to the Energetics ofEvolution, in: Proc. Natl. Acad. Sei. 8 (1922), S. 147 -151. 5 Erschienen bei Williams & Wilkins Co. in Baltimore. 6 Vgl. hierzu u. a. Uwe Niedersen/Hans-Iürgen Krug/Ludwig Pohlmann, Wilhelm Ostwald - von der Reversibilität zur Irreversibilität, in: Chemie in unserer Zeit 26 (1992), Heft 6, S. 304 - 313; H.-I. Krug / L. Pohlmann, Die Dichotomien der Zeit, in: M.- L. Heuser-Keßler/W. G. Jacobs (Hrsg.), Selbstorganisation. Jahrbuch für Komplexität in den Natur- Sozialund Geisteswissenschaften, Band 5, Berlin 1994, S. 257 - 270. 7 Überlieferung: 2 BI. 13,5 x 17 cm, H, NL-WO Nr. 2585/ i.

Briefwechsel zwischen Alfred James Lotka und Wilhelm Ostwald

469

2. Lotka an Ostwald 8

Herrn Professor Dr. Wilhelm Ostwald, Annalen der Naturphilosophie, Grossbothen, Sachsen.

23 South Elliott Place Brooklyn, N.Y. den 4. April 1913.

Sehr geehrter Herr Geheimrat: Letzten Herbst sandte ich Ihnen meine Schrift: "Zur Systematik der stofflichen Umwandlungen,,9, hörte jedoch zu meinem großen Bedauern in Antwort auf meinen an Sie gerichteten Brief, daß Sie wegen ungenügender Gesundheit für mehrere Monate verreist seien. Von Herrn Kaempffert erfahre ich nun, daß Sie jetzt nach Deutschland zurückgekehrt seien, und ich erlaube mir daher, das Manuskript nochmals einzusenden. Ich hoffe, daß Sie zur Zeit so weit wiederhergestellt sind, daß Sie Ihre für uns so kostbare Arbeit aufzunehmen im Stande sind. In vorzüglichster Hochachtung, Alfred James Lotka. 3. Ostwald an LotkalO

23.4.1913 Herrn Alfred J. Lotka, Brooklyn, N.Y. 23 South Elliott Place Sehr geehrter Herr, Ich habe Ihre Arbeit sofort mit großem Interesse durchgesehen, d. h. nur soweit gelesen, um den Zusammenhang zu erkennen, Ihre Rechnungen dagegen nicht verfolgt. Ihre Arbeit ist sehr schwer an das zugehörige Publikum zu bringen. In Ihrer gegenwärtigen Gestalt ist sie bereits zu umfangreich für einen Zeitschriften artikel und andererseits zu reichlich mit Formeln behaftet, um als Buch auf irgendwelchen Absatz hoffen zu dürfen. Soviel ich übersehen kann, würde der beste Plan, Ihre wertvollen Untersuchungen zur Wirksamkeit zu bringen, darin liegen, wenn Sie den Umfang Ihrer Schrift noch um einige Bogen vermehrten, zu dem Zweck, dasjenige, was Ihre Formeln dem Erfahrenen sagen, noch mit Worten für den auseinanderzusetzen, der sich mehr für die Ergebnisse der Untersuchung als für den [2] Überlieferung: I BI. 20 x 26,5 cm, ms, NL-WO Nr. 2585/2. In "OstwaIds Annalen der Naturphilosophie" war bereits 1911 eine ähnlich angelegte Arbeit von Lotka unter dem Titel "Die Evolution vom Standpunkte der Physik" (Bd. 10, S. 5974) erschienen. 10 Überlieferung: 2 BI. 16 x 21,5 cm, ms, NL-WO Nr. 258517. 8 9

470

Edition

Weg interessiert, auf welchem Sie zu Ihren Resultaten gelangen. Alsdann würde das ganze ein Buch von höchstens hundert Seiten darstellen, für welches ich einen Verleger glaube ausfindig machen zu können. Allerdings muß das Publikum, welches ein solches Buch liest oder gar kauft, sozusagen für den Zweck erst hergestellt werden, so daß von einem pekuniären Erfolg für den Verleger schwerlich die Rede sein kann und es beiderseitiger Opfer, sowohl beim Autor wie beim Verleger bedürfen wird, um die Publikation zu ermöglichen. Schreiben Sie mir bitte, was Sie darüber denken, und ich werde dann das weitere veranlassen. Da, wie erwähnt, Ihre Arbeit in der gegenwärtigen Form kaum irgendwie publizierbar ist, lege ich sie diesem Schreiben gleich bei. Ihr ganz ergebener (Wilhelm Ostwald) 4. Lotko. an Ostwald"

Herrn Geheimrat Prof. Dr. W. Ostwald Grossbothen Sachsen

23 South Elliott Place Brooklyn, N.Y. d. 28. Nov. 1913.

Sehr geehrter Herr, Sie mögen sich erinnern, daß ich Ihnen vor einiger Zeit [2] eine Arbeit einsandte über "Systematik der stofflichen Umwandlungen und das Evolutionsproblem". Seitdem habe ich zu meinem Bedauern nicht die Gelegenheit gefunden, die Arbeit Ihren Anleitungen gemäß zur Publikation [3] in Buchform fertig zu stellen. Nicht, daß ich den Plan gänzlich aufgegeben hätte. Veranlassung für mein heutiges Schreiben finde ich in dem Umstande, daß es wahrscheinlich erscheint, ich werde im Januar [4] nächsten Jahres Deutschland besuchen. Falls meine Pläne sich verwirklichen, hoffe ich, daß ich vielleicht die Gelegenheit haben werde, mit Ihnen persönlich zu sprechen. Auch möchte ich gern, wenn dies möglich sein sollte, mein Arbeitsfeld [5] direkt und mündlich vor geeigneten Versammlungen zur Rede zu bringen. Ob sich dies in einem nötigerweise langen Aufenthalt ausführen läßt, darüber kann ich allerdings nicht urteilen. Ihre Ansicht hierüber würde mir [6] von größtem Interesse sein. Ich habe natürlich inzwischen meine Arbeit etwas weiter gebracht, wenn auch nicht so weit, wie ich es wünschen würde. Die Sache scheint lebensfähig zu sein und wächst sozusagen von selbst. [7] Darin glaube ich ein gutes Zeichen zu erblicken. 11

Überlieferung: 7 BI. 13 x 16 cm, H, NL-WO Nr. 2585/3.

Briefwechsel zwischen Alfred James Lotka und Wilhelm Ostwald

471

Meine Adresse bleibt wahrscheinlich bis ungefähr den 1ten Januar 1914 wie oben angegeben. In vorzüglichster Hochachtung Alfred J. Lotka. 5. Ostwald an Lotka 12

Herrn Alfred J. Lotka 23 South Elliott Place, Broooklyn

Wilhe1m Ostwald Gross-Bothen, Kgr. Sachsen Landhaus Energie. 9. 12. 1913

Sehr geehrter Herr, Ich werde mich sehr freuen, Sie bei Ihrem bevorstehenden Besuch in Deutschland in meinem Hause, Großbothen bei Leipzig, begrüßen zu können. Was Ihren Wunsch angeht, Ihre Gedanken einem geeigneten Zuhörerkreis vorlegen zu können, so wüßte ich ihn nicht zu erfüllen. Denn die Zuhörer der Deutschen Chemischen Gesellschaft in Berlin sind fast ausschließlich Organiker, die für die Sache gar kein Interesse haben. Diejenigen, welche Ihre Darlegungen verstehen würden, sind nicht zahlreich und in der ganzen Welt vereinzelt. Immerhin können Sie den Versuch machen, an einem der regelmäßigen Versammlungstage der Deutschen Chemischen Gesellschaft Ihre Gedanken vorzubringen. [2] Und wenn Sie einige Wochen vorher an den Generalsekretär, Prof. Jacobson 13, Berlin Sigismundstr. 5, geschreiben haben, so wird auch eine besondere Einladung dafür ergehen. Aber die Aussicht auf einen unmittelbaren Erfolg ist recht gering. Ihr ganz ergebener (Wilhelm Ostwald) 6. Lotka an Ostwald1 4

Herrn Prof. Dr. Wilhelm Ostwald Landhaus Energie Grossbothen, Sachsen

23 South Elliott Place Brooklyn, N.Y. d. 22. Dez. 1913.

Sehr geehrter Herr, Ihr wertes Schreiben vom 9ten dieses Monats habe ich soeben empfangen. [2] Ich sehe mit dem größten Erwarten der Gelegenheit entgegen, über meine Arbeit Überlieferung: 2 BI. 18 x 25,5 cm, MS, Briefkopf gedr., NL-WO Nr. 2585/8. Der Organiker Paul H. J acobson (1859 - 1929) war von 1896 bis 1911 Generalsekretär und Herausgeber der Berichte der Deutschen Chemischen Gesellschaft. 14 Überlieferung: 4 BI. 16 x 20 cm, H, NL-WO Nr. 2585/4. 12 13

472

Edition

und verwandtes mit Ihnen zu sprechen. Ihrer freundlichen Einladung, Sie in Ihrem Hause zu besuchen, hoffe ich zu folgen, sobald ich meine Schritte nach Deutschland [3] wende. 15 Ich fahre am 14ten Januar auf der Lusitania nach Liverpool und werde von England aus nochmals an Sie schreiben. Ihre Bemerkungen über die Schwierigkeiten, welche mir beim Aufsuchen eines geeigneten Zuhörerkreises im Wege stehen, [4] sind nur leicht verständlich. Ich glaube, ich werde die Angelegenheit vor Herrn Prof. Jacobson legen. In vorzüglicher Hochachtung Alfred J. Lotka. 7. Lotka an Ostwald1 6

Metropolitan Life Insurance Company Haley Fiske, President New York City Statistical Bureau Louis I. Dublin Statistician Edwin W. Kopf Asst. Statistician George H. van Buren, Alfred A. Lotka Supervisor

March 11, 1927

Professor Wilhelm Ostwald Grossbothen Saxony, Germany Dear Sir: In one of your books you mentioned Des Coudres 17 as the originator of the conception that the distinguishing characteristic of the forward direction of time is that it is the direction in which the [ir]reversibel processes proceed. 18 You do not give Ein Aufenthalt Lotkas in Deutschland im Jahre 1914 ist nicht überliefert. Überlieferung: I BI. 21 x 16,5 cm, ms, Briefkopf gedr., NL-WO Nr. 2585/5. 17 Der Leipziger Physiker Theodor Des Coudres (1862 - 1926) war ein Schüler Heimholtz ' und Wiedemanns. 1903 übernahm er als direkter Nachfolger Boltzmanns das Ordinariat für Theoretische Physik an der Leipziger Universität. Gegenstand seiner Vorlesungen waren kinetische Gastheorie, Fourierreihen und Hydrodynamik. 18 Lotka bezieht sich auf den Abdruck des Vortrages "Das Problem der Zeit", den Ostwald am 3. Januar 1898 zur Eröffnung des neuen Physikalisch-chemischen Institutes der Universität Leipzig gehalten hatte. Siehe W Ostwald, Abhandlungen und Vorträge allgemeinen Inhalts (1887 -1903), Leipzig 1904, S. 241- 257. Dort heißt es auf S. 250 in einer Fußnote 15

16

Briefwechsel zwischen Alfred James Lotka und Wilhelm Ostwald

473

any reference to the literature. 19 Might I ask you to have the kindness to indicate to me where I can find Des Coudres' original publication? I should be grateful to you for this favor. Very truly yours Alfred 1. Lotka Supervisor of Mathematical Research

8. Lotka an Ostwald 2o Metropolitan Life Insurance Company Haley Fiske, President New York City Statistical Bureau Louis I. Dublin Statistician Edwin W. Kopf Asst. Statistician George H. van Buren, Alfred J. Lotka Supervisor

April 4, 1927

Professor W. Ostwald Grossbothen, Saxony Germany Dear Professor Ostwald Please accept my cordial thanks for your note of recent date giving me the information which I have requested regarding the origin of the conception of the forward direction of time as related to irreversible thermodynamic processes. G.N. Lewis 21 , in his recently published book22 credits this idea to Professor Frankzur Definition der "Dissipativen Zeit": "Die Grundlagen dieser Gedankenreihe sind in Gesprächen entstanden, welche ich mit Th. Des Coudres geführt habe, dem ein wesentlicher Anteil daran zukommt." 19 Des Coudres hat seine Gedanken zur Begründung der Zeitrichtung nicht veröffentlicht. Es finden sich jedoch in seinen Tagebüchern die Grundzüge einer von ihm so benannten "Probabilitätsphilosophie", in der er auf den irregulären Verlauf des Weltgeschehens als Folge seiner unbekannten Anfangs- und Grenzbedingungen verwies. Vgl. O. Wiener, Nachruf auf Theodor des Coudres, in: Ber. Verh. Sächs. Akad. Wiss., Math.-Phys. KI. 78 (1926). 20 Überlieferung: 1 BI. 21 x 16,5 cm, ms, Briefkopf gedr., NL-WO Nr. 2585/6. 21 Gilbert Norton Lewis (1875-1946), amerikanischer Physikochemiker. Er befaßte sich mit Problemen der Thermodynamik, der chemischen Bindung, der Säure-Base-Theorie und der Photochemie. Auf ihn gehen die Begriffe ,Fugazität', ,Aktivität' und ,Photon' zurück.

474

Edition

lin 23 but, of course, this is quite erroneous, and I have been farniliar with the idea ever since attending your lectures. 24 In my own book25 , I did not think necessary to quote authority for this conception, as I thought it would be familiar to everybody. Should, however, my book proceed to a second edition I shall see that proper credit is given?6 Possibly you rnight be interested to see a prospectus of my book and I enc10se one herewith. Very truly yours, Alfred J. Lotka Supervisor of Mathematical Research

22 G. N. Lewis, The Anatomy of Science, New Haven 1926. Auf S. 144 heißt es dort: "Here are phenomena so entirely unlike the simple reversible process we have considered hitherto that we are tempted to believe that our idea of unidirectional time is is due to the existence of irreversible phenomena. This thought was, I believe, first expressed by professor W. S. Franklin [Entropy and Time, in: Phys. Rev. 30 (1910), S. 776, and it is one which immediately gives us deeper insight into the meaning of time." 23 William Suddards Franklin (1863 -1930), amerikanischer Physiker und Elektroingenieur. Er lehrte u. a. von 1915 bis 1929 am MIT in Cambridge. 24 Lotka bezieht sich auf OstwaIds im Sommer 1901 in Leipzig gehaltenen Vorlesungen über Naturphilosophie. Vgl. W Ostwald, Vorlesungen über Naturphilosophie, Leipzig 1902. 25 . A. J. Lotka, Elements of Physical Biology, Baltimore 1925. 26 Eine zweite Auflage von Lotkas Hauptwerk erschien erst 1956 als unveränderter Nachdruck der ersten Ausgabe von 1925 unter dem leicht veränderten Titel "Elements of Mathematical Biology" in New York. Der angekündigte Hinweis auf OstwaIds Priorität wurde also nicht eingearbeitet.

Buchbesprechungen W Brian Arthur. Steven N. Durlauf, and David A. Lane (eds.), The Economy as an Evolving Complex System 11. Proceedings Volume XXVII, Santa Fe Institute Studies in the Science of Complexity, Reading, MA: Addison-Wesly, 1997. How does one instigate a scientific revolution, or more modestly, a shift of scientific paradigm? This must have been on the minds of the organizers of the two conferences "The Economy as an Evolving Complex System, land 11" and the research program in economics at the Santa Fe Institute documented in the present volume and its predecessor of ten years ago. I Their strategy might be reconstructed as folIows. First, the strangIehold of neocIassical economics on the Anglo-Saxon academic community since World War 11 is at least partly due to the ascendency of mathematical rigor as the touchs tone of serious economic theorizing. Thus if one could beat the prevailing paradigm at its own game one would immediately have a better footing in the community than the heretics, mostly from the left or one of the various 'institutional' camps, who had been sniping at it from the sidelines all the whiIe but were never above the suspicion of not being mathematically up to comprehending it in the first place. Second, one could enlist both prominent representatives and pathbreaking methods from the natural sciences to legitimize the introduction of (to economists) fresh and in some ways disturbing approaches to the subject. This was particularly the tack taken in 1987, where roughly equal numbers of scientists and economists were brought together in an extensive brain storming session. Physics has always been the role model for other aspiring 'hard' sciences, and physicists seem to have succeeded in institutionalizing a 'permanent revolution' in their own methodology, i.e., they are relatively less dogmatic and willing to be more ecIectic in the interests of getting results. The fact that, with the exception of abrief chapter by Philip Anderson in the present volume, physicists as representatives of their discipline are no longer present, presumably indicates that their services can now be dispensed with in this enterprise. 2 Finally, one should sponsor research of the highest caliber, always laudable in itself, and make judicious use of key personalities. Care should also be taken that the work is of a form and style which, rather than explicitly provoking the profession, makes it appear as if it were the natural generalization of previous mainstream research and thus reasonably amenable to incIusion in the canon. This while tacitly encouraging and profiting from a wave of publicity in the popular media, a difficult li ne to tread if one do~s not want to appear fri volous and I Anderson, P. W., Arrow, K. J. and Pines, D. (eds), 1988, The Econamy as an Evalving Camplex System, Redwood City, CA: Addison-Wesley. 2 To be sure, computer scientists (incIuding erstwhile physicists) and mathematical biologists have become more actively involved in the modelling effort. It should be noted that one of the greatest bones of contention in the first meeting revolved around what many physicists perceived as the economists' fetish of mathematical rigor at the expense of empirical relevance. Perhaps this was an additional argument against arepetition of the original exercise.

476

Buchbesprechungen

offend sensibilities. All of these sometimes conflicting considerations are necessary, it should be observed, because we are dealing with something about which the new 'Santa Fe' theory itself from its very inception has had something very relevant to say, namely lockin to an inferior technology. For indeed the economics profession, particularly in the United States, displays many aspects of a system characterized by increasing returns to adoption, where it becomes increasingly impossible, more for sociological than for substantive reasons, to break out of a narrow mold enforced by a circular system of publication and promotion procedures. This had already been borne out by the experiences of both American and European iconoelasts of the 50s to the 80s in attempting to establish bounded rationality, increasing returns, evolutionary modeling, nonlinear dynamics, dissipative systems, synergetics and what have you in more than just marginal niches in the economics research agenda. 3 Has the Santa Fe Institute succeeded where others have had only mixed success (but dared to tread)? This is not as simple a question to answer as it would appear, since there are many different criteria one could apply to measure success. In terms of popular consciousness the answer is certainly yes. It has succeeded in putting a certain style of reasoning into the media limelight,4 but as I have noted, this can be a doubIe-edged sword and thus a difficult act to balance with professional considerations, as the example of catastrophe theory has amply demonstrated. In terms of the mainstream, and in particular, the American mainstream (which may be almost synonymous), it has also succeeded in placing complexity onto some agendas, such as special sessions of the annual meetings of the American Economic Association, without becoming tainted by the patronizing odor previously associated with radical economics, Marxist economics, or possibly feminist economics, in such forums. In the forum that really counts, however - publication in leading mainstream journals - only now can one really identify a slow penetration, while more marginal journals still playamajor role. And the Santa Fe Institutes's own publication and working paper series should be recognized in themselves as significant contributions. Mor~ remarkable is the fact that another evolutionary school is already weil established in the fast lane of the journal superhighway, namely evolutionary game theory. The reason may lie in its basically lesser radicalism, since it mainly resorts to radical new methods and bounded rationality to address an immanent game theoretic problem, that of equilibrium selection, and return the theoretical world to the comforts of uniqueness while opening a new mathematical playground to the suitably inelined. The criteria I would finally Iike to apply are the internal and external substantive ones one would like to believe should ultimately guide scientific research (and in some long run probably do). Some of these are enunciated with great lucidity in the editors' introduction and grouped under the following headings, which for convenience I will separate into two categories: I. dispersed interaction (plus: no global controller I cross-cutting hierarchical organization); cognitive foundations; structural foundations; H. continual adaptation; perpetual novelty; out-of-equilibrium dynamics; what counts as a problem and as a solution. But before applying these substantive categories it is useful to see what kinds of contributions make up this volume. The first category consists of surveys and research contributions 3 Names worth recalling in this context are Herbert Si mon, Richard Day, Richard Nelson, Sidney Winter, I1ya Prigogine, Herman Haken, and Wolfgang Weidlich, to name only a few. 4 As evidenced by the success of Waldrop, M. M., 1992, Complexity. The Emerging Science at the Edge 0/ Order and Chaos, New York: Simon & Schuster, which, while a remarkably coherent popularization of 'complex' ideas, veers towards an almost romanticized personalization of how science is done, and exposure in other media.

Buchbesprechungen

477

of a more technical variety by some of the principal people involved in or related to the Santa Fe enterprise. These in turn can be classified into primarily analytical vs. computational modelling exercises, and form the core of what one would expect from such a conference proceedings. The second consists of the chapters by Lane and Maxfield and by Geanakopolos, which are intriguing mixtures of business history storytelling and verbal theorizing in the former, heavier analytics in the latter. The third is what, for lack of a better phrase, I would call 'observations by distinguished outsiders': papers by North, Leijonhufvud, and Anderson that discourse freestyle on concrete economic topics related to the Santa Fe research agenda, but neither themselves employ any of the new methodological innovations nor show any great readiness to connect to the relevant existing literature in order to suggest a step in that direction. How do the contributions in the first category measure up to the ambitious goals outlined in the introduction? In terms of the structural considerations I think there can be no doubt about the originality of the enterprise. With the exception of Arthur et al. (stock market double auction, but with heterogeneous, boundedly rational agents), Shubik (game theory) and Geanakoplos (general equilibrium), many authors do investigate a wide range of (nonstandard, i.e., non star shaped, non full strategie game theoretic, and in the meantime non random matching) interaction structures. This is particularly the case in the chapters by Durlauf, loannides, Blume, and Kirman. Endogenously evolved network structures seem to be the way to go for many applications, and this book is an excellent resource to find out which mathematical methods look promising and what the literature already offers in terms of results. Bounded rationality is another piece of the puzzle to which more than Iip service is being rendered, receiving considerable modelling attention and gradually finding its place in the methodological puzzle. This is mostly due to a loose consensus about the applicability of certain computational methods, particularly genetic algorithms and classifier systems, to the problem of choice, behavior, and (social) learning. A number of chapters have learning algorithms and social interaction as their primary focus. To my mind the two most valuable ones are Arthur et al. and Lindgren, for not only do they address central economic and social problems (the stock market in the former, the evolution of cooperation in the stylized form of the iterated Prisoner's Dilemma in the latter), but they also most explicitly take up the challenge of the second half of the editors' catalog. First, boundedly rational behavior is coded in high dimensional and sparely populated spaces. In fact, one of Lindgren's models operates in an unbounded space through the use of a clever genetic operator: the 'chromosomes' coding for the next move on the basis of a finite history of previous moves can double in length by selfduplication. This should be contrasted with the analytic literature on evolutionary games, where the strategy space is usually finite and small (often consisting of only two strategies), and full support is assumed (all strategies are initially represented in the population, i.e., there is no novelty). At one fell swoop the promised land of continual adaptation, perpetual novelty, and perennial out-of-equilibrium dynamics comes into view. Second, the emphasis on computational analysis opens another fruitful can of worms - the question of what constitutes an analysis and a 'solution.' Take the example of Arthur et al.'s artificial stock market. There agents can formulate a huge variety of trading rules which are activated with a propability proportional to their previous success. The evolution of the market is then the result of the continuing interaction of this 'ecology of rules' bidding and trading with each other, against the background of another dynamic governing the injection of new rules and the elimination of old ones. What we get out of the model, varying with the parameter determining these relative time scales, on the one hand is an artificial time series

478

Buchbesprechungen

which can be compared with the predictions derived from a rational expectations equilibrium of an efficient markets model. On the other it is the realization that agents' expectations remain heterogeneous and that the ecology of rules, for high values of this parameter, does not appear to converge to some long-period statistical equilibrium, Le., it may not be stationary. While the time-series properties of empirical asset prices have been intensely studies and are still controversial (and the authors could certainly go further in benchmarking robust features of their model against such features as fat tails, GARCH properties, long memory, self-similarity, etc.), the conclusions about expectations and nonstationarity (in terms of market 'moods,' herd effects, technical trading) are still only amenable to 'anecdotal' verification and thus may not make much of an impression on believers in efficient markets. Serious thought still has to be given to how such models can be tied to reality and what statistical data have to be gathered to make their conclusions plausible, a problem that plagues to an even greater extent the more remote abstractions of other chapters. What can we take away from the other computational contributions? Alas, much will be internal to questions of modelling, I am afraid, and less about verifiable aspects of the real worid, but at this stage in the game I do not think this is necessarily a damning criticism of a young and rapidly developing field. Lindgren's treatment of the iterated Prisoner's Dilemma is remarkable as weil for its nonstationarity conclusions: rules may come to dominant the system for long periods, but they are usually overthrown eventually. The representation of the strategy space (e.g., memory look-up rules vs. finite state machines) and the imposition of spatial structure can make a huge difference in outcomes. The contributions of Darley and Kauffman; Padgett; Kollman, MiIler, and Page; and Tesfatsion (who should win a prize for the insolence of her title alone, although the full connotations of the pun may be obscure to non-Americans) take us into often surprising applications and some technical thickets. What may be an obstacle to the wider acceptance of this style of modelling is that these applications, while dealing with highly stylized and abstract versions of their subject, are still too particular and idiosyncratic to lend themselves to easy generalization. Therefore the investment in the modelling effort may appear excessive compared to the robustness of the results, which lack the canonical appeal of such an obviously simplified representation of reality as Prisoner's Dilemma. This may be the Modeller's Dilemma: whether to go for a real-world problem in all its specific gory detail, or find a highly stylized problem which is transparent and can be analyzed in detail but remains only a suggestive metaphor far the real world. The fate of anything in between may simply be to get lost in the literature of high sunk cost, one-off models. Thus Darley and Kauffman propose replacing 'rational' agents by adaptive agents, and show that complex dynamics can result from their particular setup. But will any of this structure be applicable to another economic context, i.e., will it form part of a growing evolutionary / adaptive toolkit? I doubt it, although the conclusion is weil taken. Padgett, and Kollman et al. explore problems a bit far from the interests of a majority of economists, I suspect, and I am not in a position to judge what lasting value these initiatives will have in their domains, as technically interesting as these models are. Tesfatsion certainly addresses those interests more closely in her chapter on trading networks. The value of what she discusses, as she herself recognizes, however, lies more in the demonstration effect of showing how such problems can be attacked and what difficulties arise in reaching specific results, rather than in establishing robust conclusions. These may weil be in the offing with some combination of simulational and analytical efforts, but it looks like a substantial technological thicket still has to be traversed befare we will come into that clearing.

Buchbesprechungen

479

I have already talked a bit about the more mathematically formulated papers in terms of structural foundations. As to specific methods, the volume presents a rich mixture of overviews and elaborations. Lane returns to Santa Fe's inspirational source - the Polya um and increasing returns - to explore aspects of the information contagion model and the tensions between individual and social choice. Durlauf and Krugman provide masterful overviews of statistical mechanics approaches to interaction, and nonlinear dynamics in economic geography, respectively. While Durlauf displays a firm command of the technical jargon and notational complexity, Krugman's chapter is a model of nontechnical and lucid exposition, and it is a matter of taste as to which style one prefers. In one respect they both suffer from the 'not invented here' syndrome, however, where 'here' refers perhaps less to the USA than publication in mainstream economic journals. 5 The chapters by Ioannides, Blume, and Kirman also deliver high quality reviews of interaction models, both evolutionary game theoretic and otherwise. What is paradoxical about all these analytical approaches to evolution, however, is that they always seem to come back to a stochastic or systems dynamic concept of equilibrium, and thus fall short in this respect of the editors' vision of open endedness (although Blume does devote a section to the question "How long is the long run?" and the practical relevance of asymptotic results). High theory naturally leads to high econometrics to make the connection with data. This book provides two examples. Brock contributes a comprehensive guide to the time-series empirics of asset prices as weil as a tie-in to various complex dynamics models, and as usual this review is about as definitively state-of-the-art as we will probably ever get. Manski's chapter on "Identification of Anonymous Endogenous Environments" is a highly abstract approach to this topic, but I for one would have been weil served by a concrete example of an application to real data. But this volume also treats us to two unusual - for an economics treatise - chapters taken from the book of life itself, so to speak, and among all of this high-level theory, econometrics, and ALife they are a breath of fresh air. At the same time, they illustrate in two rather different ways just how problematic the scientific enterprise may really be, and that for all the fun and games of modelling a certain scepticism should be brought to the question of its real, everyday decisionmaking relevance. First there is Geanakoplos' reflections as an academic economic theorist on his five years as a practitioner on Wall Street. This personal memoir on what this turbulent experience meant should be applauded for its selfcritical openness, culminating in the question (p. 29\): what good did Kidder Peabody do, and how can it be that in a world of rational investors it is possible to make money on the seil side of a market, and then on the buy side of the same market?

5 Thus statistical mechanics methods and Ising-type models of exactly the type Durlauf discusses were developed and extensively applied to the social sciences starting in the 1970s not only by Föllmer - whom he cites - but also by the Stuttgart school of synergetics (Weidlich, W. and Haag, G., 1983, Concepts and Models of a Quantitative Sociology, Berlin: Springer-Verlag; Weidlich, w., 1991, "Physics and Social Science - the Approach of Synergetics", Physics Reports, 204: 1- 163). And much of the complex dynamics in spatial models Krugman discusses was also being intensively investigated in the 1970s by the Brussels school (e.g., Allen, P. M. and Sanglier, M., 1981, "Urban Evolution, Self-Organization, and Decisionmaking", Environment and Planning A, 13: 167 -183).

480

Buchbesprechungen

Yet Geanakoplos then proceeds to formulate a general equilibrium model of his problem in which, at least to my way of thinking, all of this turbulence and out-of-equilibrium behavior (in the sense of the Arthur et al. asset model) get thrown out the theoretical window. Evidently one cannot teach an old horse, however brilliant, new tricks, although the model may be a general equilibrium tour de force. Lane and Maxfield's chapter is an equally valuable first-hand excursion into the world of business, this time the entrance of the Rolm Corporation into the nascent PBX telecommunications market of the 1970s. The first half of the chapter describes the evolution of the PBX market as a user / producer learning process in which no one had any entirely clear idea of what they were doing, but where in retrospect certain strategies proved eminently successful. This makes for a good read, since Maxfield, like Geanakoplos, was a key player with an inside view of mentalities and events. The second half attempts to derive 'Iessons' from this story, such as Lesson 4 (p. 186): The "window of predictability" for the attributional shifts and structural changes that characterize complex foresight horizons are very short - and virtually nonexistent outside the particular generative relationship from which they emerge. Here, in their attempt at extracting some sort of generality from their particular narrative, the authors may have inadvertentIy hit on a deep problem in the complex systems perspective when it comes up against decisionmaking reality. For the danger may lie either in its dissolving into highflown inanities of littIe or no practical utility (something I am afraid it probably shares with much of the management literature ). Or it may wind up making such specialized predictions, under such restrictive but in practice unverifiable conditions, that one can never know when it will be applicable. Can we ever step into the same Heracleitan river twice?6 And that is possibly why the two stories in this volume seem to stand head and shoulders above the theoretical exercises (formal or informal) their authors seem compelled to pair them with. In the recognition that perpetual novelty and out-of-equilibrium dynamics are the touchstones of the next modelling revolution, may we not be forced, whether we like it or not, to come full circle to the position of the German Historical School in the long-buried Methodenstreit - that each historical situation is unique, and thus only narrative is possible and not axiomatic theory a la physics? I personally do not think the situation is quite as hopeless as this (although I am always in favor of a good narrative, and the editors should be commended for the unusual experiment of including these two). On the one hand there are statistical regularities, such as Anderson mentions, which characterize large domains of the social sciences, and are still begging for explanation.? On the other there are a number of developmental patterns and (ir)regularities in the historical record of institutional and technological change crying out for systematization and a basic theory, to which North partly alludes. But it is remarkable to note that, for a book purporting to be on the economy as an evolving complex system, there is next to noth6 Cf. Winter, S. G., 1986, "Comments on Arrow and on Lucas", in R. M. Hogarth and M.

W. Reder (eds), The Behavioral Foundations 0/ Economic Theory, special issue of The Journal of Business, 59: S427 - 434. ? The virtual neglect of fractality and self-organized criticality (cf. Bak, P. and Chen, K., 1991, "Self-Organized Criticality", Scientific American, January 1991: 26-33) in this volume

is surprising, considering how weil established they have become in the complex systems literature.

Buchbesprechungen

481

ing on technical change as one of the fundamental driving forces of economic change. We have indeed come a long way from Nelson and Winter. In summary, this book sets out an ambitious pro gram to which it only partially lives Up.8 But even in failing to achieve all of its goals it presents a spectrum of attempts of the very highest order. Thus the first ten years of the Santa Fe Institute have amply demonstrated that economists can get ALife if they want to. The question that still remains to be answered, however, is whether there is reallife after ALife. Gerald Silverberg, Maastricht Paul Krugman: The Self-Organizing Economy. Cambridge, Mass., Oxford: Blackwell Publishers 1996, vi + 122 S.

Der Begriff der "Selbstorganisation" ist in den letzten Jahrzehnten in verschiedenen Theorie- und Disziplinkontexten immer wieder neu gefaßt worden. Wichtige Beiträge dazu haben die Thennodynamik irreversibler Prozesse, Autopoesis, Synergetik, die Theorie der molekularen Evolution, Katastrophentheorie, Chaosforschung, die Theorie dynamischer Systeme oder, in jüngster Zeit, vor allem die Komplexitätsforschung geleistet. Wie Wellen, die aufeinanderfolgen, durchlaufen die wissenschaftliche Welt immer elaboriertere Erklärungsmuster für spontane Strukturbildungsprozesse. Ausgelöst von jeweils neuen Phänomenen sind diese Ansätze Ausdruck einer veränderten WeItsicht, die Komplexität, Selbstorganisation und Evolution zum herrschenden Paradigma erhebt. Die Suche nach universellen Prinzipien von Strukturbildung führt zu einem zunehmend vollständigeren Bild komplexer Phänomene, auch wenn die einzelnen Forschungsrichtungen dabei mehr oder weniger stark aufeinander Bezug nehmen. Die verschiedenen, zunächst innerhalb der Naturwissenschaften entwickelten Ansätze haben, dem Credo der Einheit von Natur und Gesellschaft folgend, immer wieder zu einem Ideentransfer zwischen den beiden unterschiedlichen Wissenschaftskulturen geführt. Mit dem Buch von Paul Krugman "The SeIJ-Organizing Eeonomy" greift ein Ökonom die Fragestellung der Übertragbarkeit von Modellen und Konzepten naturwissenschaftlicher Prägung auf ökonomische Fragestellungen auf. Paul Krugman ist Professor am Department of Eeonomies des MIT. Er ist Autor, Mitautor bzw. Herausgeber einer Vielzahl von Büchern zu Themen wie Market Strueture and Foreign Trade, Trade Poliey and International Eeonomies, und Geography and Trade. Das vorliegende Buch gliedert sich in zwei Teile. Einleitend wird die Relevanz von Komplexitätsforschung für ökonomische Probleme thematisiert. Die Bedeutung positiver Rückkopplungen und die Existenz emergenter Eigenschaften in der Ökonomie fungieren als Anknüpfungspunkte, um nach der Übertragbarkeit von Mechanismen von Strukturbildung zu fragen (wie sie etwa von der Komplexitätsforschung fonnuliert werden). Zwei Prinzipien von Selbstorganisationsprozessen werden dabei im folgenden beleuchtet: das Prinzip "order from instability" und das Prinzip "order from random growth". Mit dem ersten Prinzip bezeichnet der Autor den bekannten Mechanismus von Strukturbildung aus einem relativ homogenen, instabilen Ausgangszustand, wobei eine Verstärkung von Fluktuationen und Konkurrenz verschiedener Moden letztlich zur Symmetriebrechung führt. Das zweite Prinzip weist auf einen stochastischen Prozeß mit bestimmten Eigenschaften als Erklärungsmuster für schiefe Verteilungen von Objekten unterschiedlicher Größe hin. Diese beiden Prinzipien wer8

ing.

A more prosaic goal also needs some attending to, namely, the quality of the copy edit-

31 Selbstorganisation, Bd. 9

482

Buchbesprechungen

den anhand einer Reihe von räumlichen und zeitlichen Mustern in der Ökonomie veranschaulicht und kommentiert. Im ersten Teil des Buches wird der Leser mit Fragestellungen und entsprechenden Modellansätzen zu räumlichen ökonomischen Strukturen (Landnutzung, Städte verteilung, Städtewachstum) vertraut gemacht (Kapitel I Selj-Organization in Space). Der Autor beginnt mit klassischen Problemen der geographischen Ökonomie (Von Thünen-Modell, Theorie der zentralen Orte). Ein Segregationsmodell von Schelling und ein vom Autor selbst entwickelter Modellansatz (edge city dynamics) dienen dazu, erste Mechanismen von räumlicher Selbstorganisation (etwa das Prinzip "order from instability") zu diskutieren. Die Vorstellung und Diskussion der verschiedenen Modelle wird dabei vom Autor - bewußt - ohne jeglichen Rückgriff auf mathematische Formalisierungen auf einer konzeptionellen Ebene geführt. Im Kapitel 2 (Complex Landscapes) zieht der Autor eine Verbindungslinie zwischen realen Landschaften und jenen abstrakten Landschaftsvorstellungen (im Phasen- oder Zustandsraum), die für die Analyse von Stationarität und Stabilität von Zuständen dynamischer Systeme zentral geworden sind. Im dritten Kapitel (An Urban Mystery) dient das Phänomen der Größen verteilung von Städten (Zipf-Verteilung) zur Einführung des Prinzips "order from random growth". Der erste Teil des Buches endet mit einer kurzen Zusammenfassung der beiden zentralen Prinzipien (Kapitel 4 Principles of Selj-Organization, Kapitel 5 Where We Stand). Im zweiten Teil des Buches (Selj-Organization in Time and Space) erweitert der Autor die bis dato aufgeworfenen Fragen zu Selbstorganisationsprinzipien in der Ökonomie inhaltlich um zeitliche Aspekte und methodisch um explizit mathematische Beschreibungen. Im Kapitel 6 (Dynamics in Selj-Organizing Systems) wird zunächst der Wechsel zwischen verschiedenen stabilen Strukturen (bzw. stationärem Verhalten) unter dem Aspekt des punctuated equilibrium diskutiert. Als Beispiel aus dem Bereich des technologischen Wandels fungiert dabei die Konkurrenz zwischen verschiedenen Speicherrnedien in der Videotechnik (laser disc vs. video tape). Im folgenden Kapitel 7 (Temporal Selj-Organization) wird zyklisches Verhalten in der Ökonomie (business cycle) als zentrales Beispiel einer zeitlichen, endogen erzeugten Musterbildung betrachtet. Ähnlich wie bei Phänomenen urbaner Entwicklung (Kapitel I) werden auch hier verschiedene Sichtweisen und Modellansätze diskutiert. Auf der Suche nach Erklärungsmustern für solche Zyklen wird die Rolle kritischer Grenzwerte für die Funktionsweise komplexer Systeme und das Auftreten von Synchronisationsphänomenen zwischen gekoppelten oszillierenden Systemen berührt. Kapitel 8 (Models of Spatial Selj-Organization) schließt den Bogen zu den am Anfang des Buches dargestellten räumlichen Strukturen. Die bis dahin phänomenologische Problem beschreibung und konzeptionelle Modellpräsentation wird nunmehr mit mathematisch-formalen Modellbeschreibungen verbunden. Der Autor stellt dabei drei verschiedene Modellansätze vor: das city edge model, das central place model und Simon 's urban growth model. Weitere technische Details zu diesen Modellen finden sich in einem Appendix. Das Credo des Buches von Krugman kommt in den folgenden Sätzen zum Ausdruck: ,,1 believe that the ideas of selj-organization theory can add substantially to our understanding of the economy; whatever their ultimate usefulness, these ideas are very exiting, and playing around with them is tremendous fun." (S. VI) Einen Teil seiner Überlegungen kommentiert er mit den Worten: " ... all of this is somewhat wild speculation. 1 include it because 1 think it is interesting and also 10 illustrate the way that thinking about selj-organization stimulates you to think about familiar issues in novel, if not always sensible, ways. " [Hervorhebung, A.S.] (S. 73) Das vorliegende Buch hebt sich ab aus dem engeren fachwissenschaftlichen Diskurs um Selbstorganisationsphänomene und evolutive Prozesse in der Ökonomie. Es ist hervorgegan-

Buchbesprechungen

483

gen aus einer Vorlesungsreihe (Mitsui lectures) an der Universität Birmingham (UK) und bietet auch einem nicht vorinformierten Leser einen Zugang zu der Problematik. Der Vorlesungscharakter spiegelt sich auch in der subjektiven Auswahl der Literatur. An vielen Stellen wird auf den laufenden Diskurs nur summarisch verwiesen (etwa im Fall nichtlinearer Theorien ökonomischer Zyklen). Hier ist der Leser darauf angewiesen, sich selbst weiter zu informieren. Dazu wären einige weiterführende detailliertere Hinweise, etwa auf neuere Sammelbände oder Monographien, durchaus wünschenswert gewesen. Der vom Autor selbst immer wieder betonte essayistische Stil des Buches geht einher mit der bewußten Entscheidung, bis zum Kapitel 8 Modellvoraussetzungen und -annahmen konzeptionell, aber ohne expliziten Formalismus zu diskutieren. Hier bewegt sich der Autor zwischen Skylla und Charybdis. Einerseits erleichtert die einfache Modellpräsentation den Zugang für mathematisch weniger geschulte Leser. Andererseits wird dadurch die Nachvollziehbarkeit der Modelle im Kontext formaler Beschreibung erschwert. Die Stärke des Buches liegt im differenzierten Umgang des Autors mit der Frage, welches Erklärungspotential in Konzepten und mathematischen Modellen der Selbstorganisation für ökonomische Fragestellungen verborgen ist. Durch ständige Rückbezüge auf reale Prozesse und Phänomene stellt der Autor anschaulich schrittweise die unterschiedliche Reichweite verschiedener Modellansätze dar. Er hinterfragt die jeweiligen Modelle sowohl bezüglich der ökonomischen Realität als auch in Hinblick auf die Modelldynamik selbst. Auf diese Weise präsentiert Krugman die spezifische Methodik interdisziplinärer Modellbildung komplexer Systeme par excellence. Ohne zu technisch (i.S. von mathematischem Formalismus) zu sein, ohne zu euphorisch zu werden, gelingt dem Autor eine kritische und dennoch bejahende Aufnahme der "neuen Prinzipien". Die Darstellung ist klar und verständlich; die Fragestellungen sind interessant. Wie weit die ausgewählten Beispiele und Modelle tragen, kann nur durch den fachspezifischen Diskurs im Detail entschieden werden. Hier muß der Leser auf die Spezialliteratur und die sich darin findenden z.T. kontroversen Diskussionen verwiesen werden. Empfohlen werden kann das Buch für Studenten und andere interessierte akademische Leser, die einen Einstieg in die Betrachtung von räumlichen und zeitlichen Ordnungsphänomenen in der Ökonomie aus Sicht von Selbstorganisationsprozessen suchen. Für Wissenschaftler, die in dem Feld arbeiten, mag das Buch manche, wenngleich auch provokative Anregung geben. Eine Verknüpfung der von Paul Krugman skizzierten Konzepte und Modelle mit laufenden Diskursen zu Selbstorganisation und Evolution in der Ökonomie kann für die weitere Verbreitung dieses Gedankenguts nur förderlich sein. Andrea Scharnhorst, Berlin

Frank Schweitzer, (ed.), Self-Organization of Complex Structures. From Individual to Co 1lective Dynamics, Foreword by Hermann Haken, Amsterdam: Gordon and Breach Science Publishers, 1997,596 + XXIVp.

Die im vorliegenden Buch versammelten Aufsätze stellen eine Auswahl von Beiträgen für die gleichnamige Konferenz dar, welche vom 24. bis zum 28. September 1995 in Berlin stattfand. Ein erklärtes Ziel der Konferenz war es, die verschiedenen Ansätze der Selbstorganisationsforschung in physikalischen und biologischen Systemen einerseits mit der Erforschung komplexer Phänomena in sozialen und ökonomischen Systemen andererseits zusammenzubringen und den interdisziplinären Dialog zu stimulieren. 31 *

484

Buchbesprechungen

Da es den Rahmen dieser Rezension sprengen würde, auf jeden der 47 Beiträge gesondert einzugehen, kann hier nur eine subjektive Auswahl vorgestellt werden, welche aber den Appetit auf mehr Lektüre wecken soll. Der vorgestellte Band ist in zwei große Themenkomplexe unterteilt ("Evolution of Complexity and Evolutionary Optimization" und "Biological and Ecological Dynamics, Socio-Economic Processes, Urban Structure Formation and Traffic Dynamics"), welche sich in weitere Unterkapitel gliedern. Sehr bedeutsam sind die Versuche in den Aufsätzen von F. T. Arecchi, 1. S. Shiner und Yu. L. Klimontovich im ersten Kapitel ("Evolution of Complexity"), sowie von F. Schweitzer in der Einleitung, möglichst präzise und operationale Definitionen der Schlüsselbegriffe "Selbstorganisation", "Ordnung" und "Komplexität" zu geben. Eine formal sehr ausgearbeitete Analyse dieser Kategorien von N. A. Baas führt zur Definition einer "Hyperstruktur", welche die Begriffe der Emergenz und der hierarchischen Strukturierung miteinander verknüpft. Interessanterweise wird in diesem Aufsatz die häufig stillschweigend angenommene Behauptung, daß aus einfachen Elementen ("Agenten") und einfachen Wechselwirkungen beliebig komplexe Strukturen entstehen können, in Frage gestellt. Nach Meinung dieses Autors kann man auf diese Weise nur eine bestimmte, begrenzte Form von Komplexität erzielen. In komplizierteren Fällen muß die Information über die emergente Komplexität zumindest teilweise schon in den Agenten selbst kodiert sein, d. h. die Agenten müssen eine gewisse minimale "Kompetenz" besitzen. Das führt ihn zur Aussage, daß während des Prozesses der Evolution Kompetenz geschaffen wird (da die Elemente selbst immer komplexer werden), welche durch einzelne Selbstorganisationsprozesse (z. B. im Rahmen der Ontogenese) dann entfaltet wird. Eine glänzende Illustration dieser Vermutung wird in der Arbeit von L. Schimansky-Geier, F. Schweitzer und M. Mieth geliefert. Hier werden mit Hilfe stochastischer Modelle und numerischer Simulationen Systeme aus sogenannten aktiven Brownschen Teilchen untersucht. Diese aktiven Teilchen unterscheiden sich von den herkömmlichen Brownschen Teichen dadurch, daß sie ein Feld beliebiger Natur erzeugen können, welches auf ihre Bewegungen sowie auf ihre Erzeugungs- und Vernichtungswahrscheinlichkeiten rückzuwirken vermag. Durch diese höhere "Kompetenz" der Teilchen sind sie in der Lage, komplexe Strukturen, wie z. B. regelmäßige Gitterstrukturen, Liesegang-Ringe und wandernde Wellen zu erzeugen. Wenn man den Teilchen eine noch höhere Stufe der "Kompetenz" verleiht, indem man ihnen innere Freiheitsgrade zugesteht (d. h. eine Art primitiven Gedächtnisses), so kann man mit ihrer Hilfe beispielsweise die Entstehung von Pfaden in Ameisenkolonien täuschend echt simulieren (siehe aber auch die Arbeit über die Simulation des Wachstums urbaner Strukturen von F. Schweitzer und J. Steinbrink im zweiten Teil des Bandes). Ein anderes wichtiges Gebiet angewandter Selbstorganisationsforschung beschäftigt sich mit Methoden der evolutionären Optimierung. So können T. Asselmeyer und W. Ebeling zeigen, daß Optimierungsstrategien, welche thermodynamische ("simulated annealing") und biologische (Reproduktion und Selektion) Strategien kombinieren, eine größere Chance besitzen, das gesuchte globale Minimum in einer endlichen Zeit zu finden. Naturgemäß ist die Anwendung von Ideen der Selbstorganisation in der Biologie naheliegend. Trotzdem überrascht der Beitrag von E. Ben-Jacob und I. Cohen über "Adaptive SelfOrganization in Bacterial Colonies" mit experimentellen Bildern von Bakterienkulturen, welche man ohne weiteres mit den verschiedensten Formen dendritischen Kristallwachstums verwechseln könnte. Die Entstehung dieser Strukturen kann mit dem Modell der "kommunizierenden Wanderer" erklärt werden, welches verschieden Formen chemischer Kommunika-

Buchbesprechungen

485

tion zwischen den Bakterien berücksichtigt und natürlich viele Gemeinsamkeiten mit dem oben beschriebenen Modell der aktiven Brownschen Teilchen besitzt. Eine zunehmende Bedeutung kommt der Selbstorganisationsforschung im Bereich der sozialen Systeme zu. Interessant ist dabei, daß auch die Kulturtheorie (Aufsatz von H. C. Harton und B. Latane) zunehmend Ideen der Selbstorganisation verwendet. Kulturen können danach als das Resultat eines sich selbst organisierenden Systems von kommunizierenden Individuen verstanden werden. Auf dieser Basis können die Begriffe der Clusterbildung (regionale und Subkulturen), der gegenseitigen Anpassung und der Konsolidierung (Ritualisierung), aber auch der fortbestehenden Diversivität innerhalb der Kulturen erklärt werden. Dieser Band des Jahrbuches "Selbstorganisation" ist ein Beweis dafür, wie sehr die Theorie der Selbstorganisation die ökonomischen Theorien zu befruchten vermag. Entsprechend ist auch diese Forschungsrichtung im besprochenen Buch mit wichtigen Beiträgen vertreten. So betont G. Silverberg in seinem Beitrag, daß die heute noch als gültig angenommene neoklassische ökonomische Theorie eine Reihe von Annahmen macht, welche in der Realität kaum erreicht werden können. So wird angenommen, daß alle ökonomisch handelnden Individuen ein komplettes Wissen über alle Wahlmöglichkeiten und die damit verbundenen möglichen Gewinne besitzen und daß alle Individuen vollkommen rational handeln. Nur unter diesen Annahmen aber sind die mit mathematischer Strenge bewiesenen Theoreme der neoklassischen Theorie, etwa daß die rationalen Entscheidungen der einzelnen Agenten zur individuellen Gewinnmaximierung automatisch zu einer optimalen Strategie für die gesamte Volkswirtschaft führen, gültig. Geht man aber von der realistischen Annahme aus, daß die Individuen nicht alles wissen und erst durch Ausprobieren die einzelnen Gewinnchancen lernen können, so entsteht ein völlig anderes Bild. Solch eine Theorie wechsel wirkender Agenten ist naturgemäß nichtlinear und kann nicht mehr, wie in der neoklassischen Theorie, axiomatisch bewiesen werden. An diese Stelle müssen Modelle und numerische Simulationen treten. Anhand solcher Modells kann in verschiedenen Beiträgen gezeigt werden, daß nichtlineare ökonomische Theoriebildungen viele reale Erscheinungen zu beschreiben vermag, welche von der neoklassischen Theorie nur mit ad-hoc-Annahmen erfaßt werden konnten: so das Auftreten von Innovationszyklen in Technologie und Wissenschaft, der Wechsel von graduellen und sprungartigen Entwicklungen, kürzere und längere zeitliche "Wellen" in der Wirtschaftsentwicklung etc. Schließlich sei noch das letzte Kapitel erwähnt, in welchem nichtlineare Modelle des urbanen Wachstums und der Verkehrsdynamik (so das Fußgängerverhalten, aber auch der Verkehr innerhalb ganzer Verkehrsnetze) analysiert werden. Das vorliegende Buch enthält eine Fülle interessanter Beiträge, welche alle vor Augen führen, daß ernstgenommene Selbstorganisationsforschung nur betrieben werden kann, wenn sie sich die eigentliche Stärke dieses Konzepts, eine verbindende Klammer zwischen den verschiedensten realen System zu sein, bewußt nutzbar macht. Eine große Vielfalt interessanter und teilweise auch kontroverser Ideen stellt für den Leser eine reiche Quelle für Anregungen dar. Dem Herausgeber ist es durch seine sorgfältige Edition gelungen, die Beiträge so auszuwählen und zu plazieren, daß die Zusammenhänge zwischen den unterschiedlichen Arbeiten deutlich werden. Ludwig Pohlmann, Berlin

Autorenverzeichnis Prof. Peter M. Allen, International Ecotechnology Research Centre, Cranfield University, Bedford, MK43 OAL, U.K., e-mail: [email protected] Dr. Eberhard Bruckner, Wissenschaftszentrum Berlin für Sozialforschung, Reichpietschufer 50, 10785 Berlin, e-mail: [email protected] PD Dr. Uwe Cantner, Lehrstuhl für Volkswirtschaftslehre, Universität Augsburg, Uni versitätsstraße 16, 86135 Augsburg, e-mail: [email protected] Prof. Robin Cowan, Maastricht Economic Research Institute on Innovation and Technology (MERIT), University of Maastricht, Postbus 616, NL-6200 MD Maastricht, The Netherlands, e-mail: [email protected] Prof. William Cowan, Department of Computer Science, University of Waterloo, Waterloo, Ontario N2L 3G I, Canada Prof. Jean-Michel Dalle, Institutions et Dynamiques Historiques de I'Economie (IDHE), Ecole Normale Superieure de Cachan, 32 av. Carnot, 94230 Cachan, France Prof. Dr. Werner Ebeling, Institut für Physik, Humboldt Universität zu Berlin, Unter den Linden 6,10099 Berlin, e-mail: [email protected] Prof. Dr. Georg Erdmann, Institut für Energietechnik, Technische Universität Berlin, Einsteinufer 25,10587 Berlin, e-mail: [email protected] Prof. Dr. Malte Faber, Alfred-Weber-Institut, Universität Heidelberg, Grabengasse 14,69117 Heidelberg, e-mail: [email protected] Prof. Dominique Foray, Institut pour le management de la recherche et de I'innovation (IMRI), Universite Paris-Dauphine, Place du Marechal de Lattro De Tassigny, 75775 Paris cedex 16, France, e-mail: [email protected] Prof. Dr. Horst Hanusch, Lehrstuhl für Volkswirtschaftslehre, Universität Augsburg, Universitätsstraße 16, 86135 Augsburg, e-mail: [email protected] Prof. Dr. Carsten Herrmann-Pillath, Fakultät für Wirtschaftswissenschaft, Universität Witten-Herdecke, Alfred-Herrhausen-Straße 50, 58448 Witten, e-mail: [email protected] Prof. Dr. Günter Hesse, Wirtschaftswissenschaftliche Fakultät, Friedrich-Schiller Universität Jena, Carl-Zeiss-Straße 3, 07740 Jena, e-mail: [email protected] Prof. Alan Kirman, Groupement de Recherche en Economie Quantitative d' Aix-Marseille (GREQAM), Universites d' Aix-Marseille, 2 rue de la Charite, 13002 Marseille, France, e-mail: [email protected]

488

Autorenverzeichnis

Dr. Lambert T. Koch, Wirtschaftswissenschaftliche Fakultät, Friedrich-Schiller Universität Jena, Carl-Zeiss-Straße 3, 07740 Jena Dr. Hans-Jürgen Krug, Institut für Theoretische Physik, Technische Universität Berlin, Hardenbergstraße 36, 10623 Berlin, e-mail: [email protected] Prof. Witold Kwasnicki, Institute of Economics and Social Science, Wroclaw University of Technology, Wyb. Wyspianskiego 27, 50 370 Wroclaw, Poland, e-mail: [email protected] Prof. Dr. Marco Lehmann-Waffenschmidt, Fakultät für Wirtschaftswissenschaften, Technische Universität Dresden, Mommsenstraße 13,01062 Dresden, e-mail: [email protected] Prof. Dr. Hans-Walter Lorenz, Wirtschaftswissenschaftliche Fakultät, Friedrich-Schiller-Universität Jena, Carl-Zeiss-Straße 3, 07740 Jena, e-mail: [email protected] Dr. habil. Reiner Manstetten, Alfred-Weber-Institut, Universität Heidelberg, Grabengasse 14, 69117 Heidelberg, e-mail: [email protected] Dr. Ludwig Pohlmann, Hahn-Meitner-Institut, Glienicker Straße 100, 14109 Berlin, e-mail: [email protected] Dr. Andrea Scharnhorst, Wissenschaftszentrum Berlin für Sozialforschung, Reichpietschufer 50, 10785 Berlin, e-mail: [email protected] Prof. Richard E. Schuler, Department of Economics, Comell University, 404 Uris Hall, Ithaca, NY 14853-7601, U.S.A., e-mail: res I @comell.edu Dr. Dr. Frank Schweitzer, Institut für Physik, Humboldt-Universität zu Berlin, Unter den Linden 6, 10099 Berlin, e-mail: [email protected] Joachim Schwerin, Fakultät für Wirtschaftswissenschaften, Technische Universität Dresden, Mommsenstraße 13,01062 Dresden Gerald Silverberg, Maastricht Economic Research Institute on Innovation and Technology (MERIT), University of Maastricht, Postbus 616, NL-6200 MD Maastricht, The Netherlands, e-mail: [email protected]

Prof. Peter Swann, Manchester Business School, University of Manchester, Manchester MI5 6PB, United Kingdom Prof. Bart Verspagen, Maastricht Economic Research Institute on Innovation and Technology (MERIT), University of Maastricht, Postbus 616, NL-6200 MD Maastricht, The Netherlands Prof. Dr. Peter Weise, Fachbereich Wirtschaftswissenschaften, Universität / Gesamthochschule Kassel, Nora-Platiel-Straße 4, 34127 Kassel, e-mail: [email protected] PD Dr. Bemd Woeckener, Wirtschaftswissenschaftliches Seminar, Universität Tübingen, Mohlstraße 36, 72074 Tübingen, e-mail: [email protected]