Kommunikation - Objekt und Agens von Wissenschaft 9783205792895, 9783205794899

145 59 3MB

German Pages [204] Year 2015

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Kommunikation - Objekt und Agens von Wissenschaft
 9783205792895, 9783205794899

Citation preview

Wissenschaft · Bildung · Politik Herausgegeben von der Österreichischen Forschungsgemeinschaft 16

Kommunikation – Objekt und Agens von Wissenschaft

Herausgegeben von

Reinhard Neck Heinrich Schmidinger Susanne Weigelin-Schwiedrzik

Böhlau Verlag Wien · Köln · Weimar

Gedruckt mit der Unterstützung des Bundesministeriums für Wissenschaft und Forschung, Wien, und der Österreichischen Forschungsgemeinschaft

Bibliografische Information der Deutschen Bibliothek. Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. ISBN 978-3-205-79489-9 Das Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdruckes, der Entnahme von Abbildungen, der Funksendung, der Wiedergabe auf fotomechanischem oder ähnlichem Wege und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. © 2013 by Böhlau Verlag Ges. m. b. H. und Co. KG, Wien · Köln · Weimar www.boehlau-verlag.com Gedruckt auf umweltfreundlichem, chlor- und säurefreiem Papier. Satz: Bernhard Wistawel, Mödling Druck: Prime Rate kft., Budapest

Inhalt Vorwort.................................................................................................................... 1 Tecumseh Fitch The Biology and Evolution of Language: The View from Cognitive Biology............ 7 Harald Lesch Erfolgreich interdisziplinär kommunizieren........................................................... 31 Ulrich Ammon Wissenschaftssprachen im Wandel der Zeiten........................................................ 45 Karl Sigmund Mathematik als universelle Wissenschaftssprache................................................... 71 Stefan Griller Kommunikation in der Rechtswissenschaft und die Sprache des Rechts: Sprachspiele oder Machtspiele?.............................................................................. 87 Gernot Gruber Das kommunikative Potential der Künste – am Beispiel der Musik..................... 107 Geraldine Fitzpatrick Information Technology and Human Interaction: Putting technologies to work in everyday life and interaction.............................. 121 Ingrid Paus-Hasebrink Kommunikative Kompetenz in Alltags- und Wissenschaftskommunikation........ 143 Die Sprachenfrage in den Wissenschaften: Nationalsprache versus Lingua franca Beiträge zu einer Podiumsdiskussion: Ralph Mocikat Die Sprachenfrage in den Naturwissenschaften................................................... 165 Irmela Hijiya-Kirschnereit Die Sprachenfrage in den „Kleinen Fächern“ – Das Fallbeispiel Japanologie........ 172 Barbara Seidlhofer Hegemonie oder Handlungsspielraum? Englisch als Lingua Franca in der Wissenschaft....................................................................................................... 178 Winfried Thielmann Nationalsprachen versus lingua franca in der Wissenschaft.................................. 186 Autorenverzeichnis................................................................................................ 199

Vorwort Im Jahr 2012 hat der Wissenschaftliche Beirat der Österreichischen For­ schungs­gemeinschaft das Thema „Kommunikation: Objekt und Agens von Wissen­schaft“ für den Österreichischen Wissenschaftstag ausgewählt und in diesem Zusammenhang ein Programm von großer Vielfalt zusammengestellt, das im vorliegenden Band dokumentiert wird. Es deckte ein breites Spektrum von der biologischen Evolution der Sprache bis hin zur Kommuni­ ka­tion zwischen Mensch und Maschine ab und regte eine im wahrsten Sinne transdisziplinäre Diskussion an, zu deren Weiterführung die Österreichische Forschungsgemeinschaft durch Vorlage dieses Bandes beitragen möchte. Kommunikation – so bringt es auch der Titel des Wissenschaftstages zum Ausdruck – ist zentraler Bestandteil der Wissenschaft: Sie ist der Wissen­ schaft inhärent und zugleich in vielen Wissenschaftsdisziplinen Gegen­stand der Forschung. Sie ist aber auch das wichtigste Bindeglied zwischen Wissen­ schaft und Gesellschaft. Ohne diese zusätzliche Funktion von Kom­muni­ ka­tion in der Wissenschaft würde sich diese der Fähigkeit berauben, ihre Erkenntnisse in eine breitere Öffentlichkeit zu tragen und im Dialog mit dieser Öffentlichkeit neue Anstöße für die Forschung zu identifizieren. Wissenschaft beruht auf dem dialogischen Prinzip, das sowohl in der Kommunikation zwischen Forschenden derselben Disziplin als auch disziplinübergreifend den Erkenntnisprozess in der Wissenschaft möglich macht. Ohne Dialog, ohne Diskussion und bisweilen auch Streit ist Fortschritt in der Wissenschaft nicht zu erreichen. Das dialogische Prinzip greift in der Wissenschaft aber auch im Verhältnis von forschendem Subjekt und zu erforschendem Objekt. Egal ob wir hypothesengetrieben arbeiten oder meinen, die Erkenntnisse voraussetzungslos dem Gegenstand entlocken zu können, der Prozess der Erkenntnisfindung ist in der Wissenschaft ein Dialog des Forschenden mit dem Gegenstand der Forschung und damit auch ein Prozess der Kommunikation. Auch in diesem Sinne ist Kommunikation der Wissenschaft inhärent. Sprache ist das wichtigste Mittel der Kommunikation in der Wissenschaft. Dementsprechend stehen am Anfang und Ende dieses Bandes zwei Beiträge, die sich sehr grundlegend mit dem Phänomen Sprache und Kommunikation auseinandersetzen. Tecumseh Fitch nähert sich als Evolutionsbiologe dem Thema und erläutert, wie die Entwicklung der Biolinguistik in den letzten rund zwanzig Jahren dazu beigetragen hat, das Mysterium der Sprache in der Evolution zu überwinden. Im Sinne eines komparatistischen Ansatzes

2

Vorwort

nutzt er den Vergleich mit Tieren, um Aufschluss über das zu gewinnen, was angeblich den Menschen vom Tier grundlegend unterscheidet: die Fähigkeit, sich mittels Sprache gezielt und differenziert artikulieren zu können. Ingrid Paus-Hasebrink erinnert am Ende des Bandes an die wichtige Bindefunktion von Sprache im Prozess der Kommunikation und der Not­ wendigkeit, Kommunikationskompetenz innerhalb der Wissenschaft und im Alltag einzusetzen. Sie versteht Kommunikation als kulturelles Phänomen und weist der Fähigkeit des Menschen zur Kommunikation eine so zentrale Position im menschlichen Dasein zu, dass sie in ihrem Beitrag vom „homo communicator“ spricht. Alles was der Mensch tut, ist ohne Kommunikation undenkbar. Nur indem der Mensch zur Kommunikation befähigt ist, kann er die Welt schaffen, die er zu schaffen in der Lage ist, und darüber reflektieren, was er geschaffen hat. Nur indem er zur Kommunikation befähigt ist, kann er sich mit anderen Menschen verbinden und damit das Überleben sichern. Das gilt für die Alltagskommunikation wie für die Wissen­schafts­ kommunikation. In beiden Fällen hat die Entwicklung der letzten Jahre dazu geführt, dass Kommunikations- und Medienkompetenz eng mit einander verbunden sind. Für die Wissenschaft bedeutet dies, dass sie in den Medien präsent sein und eine den Medien entsprechende Form der Kommunikation erlernen muss, um sich in der Gesellschaft zu legitimieren und sich vor dieser verantworten zu können. Wissenschaftskommunikation ist dem Wissenschaftskommunikator Harald Lesch bereits zur zweiten Natur geworden. In zahlreichen Fernseh­ sen­dungen tritt er als Mittler zwischen der Welt der immer neuen Wissen­ schafts­­erkenntnisse und dem Alltagserleben der Menschen auf, die spüren, dass ihr Leben zunehmend von Wissenschaft beeinflusst wird, zugleich jedoch den Eindruck gewinnen, dass sie den Zusammenhang von Wissen­ schaft und Leben nicht nachvollziehen, geschweige denn begreifen können. Dieses Gefühl des Unvermögens, die Wissenschaft in allen ihren Facetten nachvollziehen zu können, überkommt jedoch nicht nur den interessierten Laien. Die immer stärker sich ausdifferenzierende und spezialisierende Wissenschaft lebt mit diesem Paradox und potenziert es, indem sie die Unmög­lichkeit, jenseits der eigenen Spezialisierung Wissenschaft zu verstehen, zugleich positiv als Ausdruck vertieften Verständnisses auf einem Gebiet und negativ als Leiden an der Unfähigkeit, auch nur die Nachbardisziplin zu begreifen, auffasst. Der Schritt über die Grenzen des eigenen Faches ist deshalb hoch gefährlich und zugleich notwendig. Er wird seit langem unter dem Stichwort der Interdisziplinarität gefordert und selten wirklich vollzogen. Dass dem so ist, so Harald Lesch, liegt nicht nur daran, dass viele

Vorwort

3

Wissenschaftler und Wissenschaftlerinnen das Risiko der Interdisziplinarität scheuen. Es liegt auch daran, dass die Interdisziplinarität einer spezifischen Form der Kommunikation bedarf, damit sie Wirklichkeit werden kann. Diese zu erlernen sollte möglichst früh integraler Bestandteil des Studiums sein. Wissenschaftskommunikation ist untrennbar mit Wissenschaftssprache verbunden. Gemeint ist hierbei nicht nur die jeweils fachspezifische Sprache, die jede Disziplin im Laufe ihrer Entstehung und Entwicklung hervorbringt. Ulrich Ammon nähert sich dem Thema vielmehr aus historischer Sicht und zwar in Hinblick auf die jeweils dominante Sprache, mittels derer die Wissenschaft ihre Erkenntnisse kommuniziert. All jenen, die sich Sorgen darüber machen, dass die deutsche Sprache, lange von großer Bedeutung in der Wissenschaftskommunikation, seit Beginn des 20. Jahrhunderts zunehmend vom Englischen aus ihrer dominanten Position verdrängt wird, zeigt Ulrich Ammon, dass die Dominanz von Sprachen in der Wissenschaft sich historisch mehrfach geändert hat und damit zu den transitorischen Phänomenen gehört. Dabei bedurfte Wissenschaft seit jeher einer über die jeweilige Lokalsprache hinausgehenden Sprache und damit einer so genannten echten Lingua franca wie dem Lateinischen im Mittelalter, die im Prinzip von jedem Mitglied der wissenschaftlichen Gemeinschaft verlangte, sich in einem Medium auszudrücken, das nirgendwo als Alltagssprache existierte. Im Gegen­satz zum Griechischen und zum heutigen Englisch ist die echte Lingua franca in der Wissenschaftskommunikation für alle eine Fremdsprache und damit niemand aufgrund seiner Muttersprache in der Wissen­schafts­ kommunikation privilegiert. Karl Sigmund erläutert in seinem Beitrag, inwiefern die Mathematik als Lingua franca verstanden werden kann und zwar nicht nur innerhalb der Wissenschaften, die sich der Mathematik als Methode bedienen und innerhalb der Mathematik selbst, sondern sogar jenseits jeglicher Form von Alltagskommunikation. Schließlich ist die Mathematik eine Sprache, die über den Sprachen und Kulturen steht, also eine Universalsprache im eigentlichen Sinne des Wortes und zugleich eine „echte“ Lingua franca, da sie nirgendwo als Alltagssprache verwendet werden kann. Sie bietet vielen Bereichen Methoden und Lösungen an und ist deshalb in den verschiedensten Wissenschaften (nicht nur den Natur- und Ingenieurwissenschaften) nicht wegzudenken. Indem sie ihre eigene Einheit hütet, bietet sie sich als verbindendes Element über die Grenzen der jeweiligen Fachdisziplinen an und schafft damit eine Einheit, die den Wissenschaften im Zuge der um sich greifenden Spezialisierung längst verloren gegangen ist und nur von denen

4

Vorwort

für unmöglich betrachtet wird, die sich der gnadenlosen Abstraktion der Mathematik meinen widersetzen zu müssen. So universell die Sprache der Mathematik ist, so sehr ist sie doch auch eine Fachsprache, die sich immer mehr ausdifferenziert und letztlich nur noch jenen verständlich ist, die jahrelang diese Sprache erlernen. Der Prozess der Ausdifferenzierung ist dabei ein Prozess, der die Mehrdeutigkeit und Vagheit von Aussagen reduziert. In der Rechtswissenschaft, so der Beitrag von Stefan Griller, ist das nicht der Fall, weil paradoxerweise hier zwar genauso wie in der Mathematik angestrebt wird, die Vieldeutigkeit sprachlicher Kommunikation zu überwinden, zugleich aber die Vieldeutigkeit integraler Bestandsteil des Rechtsdiskurses ist. Die Sprache, derer sich Rechts­ setzung, Rechtsfindung und Rechtswissenschaft bedienen, ist freilich nicht die der Mathematik, sondern eine Fachsprache, die zugleich Teil einer esoterischen Kommunikation unter Eingeweihten ist und als Instrument der Kommunikation mit in den Prozess von Rechtssetzung und Rechtsfindung integrierten Laien dient. Darüber hinaus ist das Spiel von Viel- und Ein­ deu­tigkeit in Machtverhältnisse eingebunden, die direkten Einfluss auf die Rechtsauslegung nehmen. Die Spielregeln des Umgangs mit Sprache sind zwar festgelegt, doch zugleich auch immer an einen Aushandlungsprozess gebunden, der nicht möglich wäre, wenn der Sprache die Vieldeutigkeit nicht inhärent wäre. Ästhetische Kommunikation lebt genauso von der Mehrdeutigkeit. Gernot Gruber widmet sich in seinem Beitrag der Musik und deren kommu­ ni­kativer Kompetenz. Dabei stellt sich auch hier wieder das Problem, dass die Musik selbst eine Form der Kommunikation, ja eine Sprache ist und zugleich wir der Sprache bedürfen, um über Musik kommunizieren zu können. Das Kommunizieren mittels Musik ist schon voller Ambivalenz und Unwägbarkeit; das Sprechen über den Akt der Kommunikation jedoch noch vieldeutiger. Musik, so zitiert Gernot Gruber Dirk Baecker, ist die „Paradoxie der nur kommunikativen Zugänglichkeit des kommunikativ nicht Zugänglichen“. Und dennoch: Auch die ästhetische Kommunikation ist bewusst eingesetzte, zielgerichtete Kommunikation, die Massen mobilisiert, manipuliert oder zumindest beeinflusst. Sie wird politisch eingesetzt, oft unpolitisch gedacht, politisch gewendet und damit genau wie die Sprache selbst, gebraucht, missbraucht, verhandelt und ausverhandelt. In keinem Bereich ist die Wissenschaft mit Hilfe der Technologie so sehr zum Motor neuster Entwicklungen geworden wie im IT-Sektor und den von ihm mit Hilfe der Ingenieurswissenschaften eröffneten neuen Möglichkeiten der Kommunikation zwischen Mensch und Maschine. Geraldine Fitzpatrick

Vorwort

5

widmet ihren Beitrag diesem Phänomen und richtet unseren Blick auf neue Entwicklungen der Internet-Technologie wie Twitter und YouTube, die als neue Entwicklungen der Aneignung technologischer Möglichkeiten betrachtet werden und dazu beitragen, die anfängliche Skepsis gegenüber dem Medium abzubauen und den Umgang mit dem Medium weit über die anfänglich damit befasste Expertengruppe hinaus auszudehnen. Indem die Wissenschaft von der Interaktion zwischen Mensch und Maschine die Schnittstelle zwischen Mensch und Maschine immer wieder neu gestaltet, bereichert sie die Vielfalt der Kommunikationsmöglichkeiten und eröffnet zugleich immer neue Felder wissenschaftlicher Forschung über die daraus entstehenden Formen der Kommunikation und deren Auswirkung auf das Zusammenleben der Menschen. Dass sie dabei immer wieder von Laien überholt wird, die in ihrer alltäglichen Praxis Schnittstellen zwischen Mensch und Maschine erfinden, zeigt das Beispiel der Nutzung von YouTube als Plattform intergenerationeller Kommunikation, das Geraldine Fitzpatrick in ihrem Beitrag anführt. Den Abschluss des Bandes bilden die Beiträge der Teilnehmerinnen und Teilnehmer an der Podiumsdiskussion, die sich noch einmal der Sprachen­ problematik in der Wissenschaftskommunikation zuwandte. Dabei ging es zentral um den Umgang mit der dominanten Position des Englischen und den sich daraus ergebenden Konsequenzen sowohl für die Auswahl von Publikationsorgan und –sprache als auch für die Selbstpositionierung im Feld der Wissenschaften. So hilfreich das Englische als „echte Lingua franca“ der entgrenzten und hoch internationalisierten Wissenschaft zur Seite steht, so sehr drängt es, weil eben nicht die „echte Lingua franca“, als die sie von manchen wahrgenommen wird, Forscherinnen und Forscher mit nichtenglischen Erstsprachen in eine prekäre Position. Die daraus entstandene Asymmetrie bedroht die prinzipielle Gleichheit des Zugangs zur Wissen­ schafts­öffentlichkeit, über den nicht mehr ausschließlich aufgrund der Qualität der Erkenntnis, sondern auch aufgrund der sprachlichen Qualität der Kommunikation entschieden wird. Darüber hinaus stört eine ausschließlich für nicht-englischsprachige Mitglieder der Wissenschaftsgemeinschaft fremdsprachlich geprägte Publikationstätigkeit in den Wissenschaften die Kommunikation zwischen Wissenschaft und Gesellschaft bis zu dem Punkt, dass in manchen Sprachen bereits kein Vokabular mehr für die Bezeichnung bestimmter Entwicklungen in der Wissenschaft zur Verfügung steht. In Disziplinen, die sich nicht ausschließlich der Sprache bedienen, um ihre Erkenntnisse zu entwickeln und zur Diskussion zu stellen, scheint das von sekundärer Bedeutung. Hier hat sich in der Vergangenheit auch am deut-

6

Vorwort

lichsten das Englische als „echte Lingua franca“ entwickeln können, da die Publikationen mit multiplen Zeichensystemen arbeiten und die Texte oftmals aus Sprachmodulen zusammengesetzt sind, die kaum als individueller Text gelesen werden. Ganz anders in den Geistes- und Sozialwissenschaften, in denen der jeweils individuelle Text und seine sprachliche Qualität Bestand­teil der Überzeugungsstrategie und damit auch Teil des intendierten Rezeptions­prozesses sind. Wenn die Wissenschaft in der Kommunikation sich selbst und die sie umgebende Umwelt vorgibt antreiben zu können, wird sie sich stets an prominenter Stelle mit dem Problem der Sprachlichkeit der Kommunikation und damit auch der Vielsprachigkeit als Bestandteil der Pluralität von Wissenschaft auseinandersetzen und die modernen Medien dazu nutzen müssen, zeitgemäße und innovative Lösungen zu finden. Wien, im Mai 2013

Reinhard Neck Heinrich Schmidinger Susanne Weigelin-Schwiedrzik

W. Tecumseh Fitch

The Biology and Evolution of Language: The View from Cognitive Biology1 The evolution of human language has long been seen as a deep and insoluble mystery. Hypotheses about how this core feature of our species evolved have been seen as little more than untestable “fairy tales”, a kind of playground for scholars to let their imaginations run wild. But in the last two decades the field has changed in many ways, and it is now fair to say that a significant transformation is underway from speculation to an empirical science of biolinguistics, including the core evolutionary issues. Although the data that speak to the evolution of language are indirect, they are numerous. Note that the indirectness of the evidence is typical of many natural sciences: we have no direct evidence of the Big Bang or large-scale continental drift, but that does not lead physicists and geologists to disregard or disdain such topics. This fact should serve as inspiration for a hypothesis-testing approach to the biology and evolution of language, where biolinguists seek consilience among various apparently disparate data. Language evolution is fast becoming a respectable interdisciplinary topic for scientific research, increasingly attractive to a wide range of scholars.2 Although there are several valuable advances that contribute to this change (e.g. brain imaging, computer modeling, comparisons between music and language…), I will focus here on one core source of relevant evidence: comparative biology. Because language, in its modern form, appears to be unique to humans, scholars have traditionally ignored or overlooked the value of comparisons with other species. However, once we break down language into multiple, interacting components, we find many examples of overlap with other species that provide extremely valuable insights into lan1 This text is based on a talk given by Tecumseh Fitch at the Österreichische Wissenschaftstag 2012, 26 October at Semmering. A closely similar keynote lecture will be given in Geneva at the International Congress of Linguists in July 2013. The document below will appear, in slightly modified form, in the ICL Proceedings. 2 For recent overviews of this progress see R. P. Botha, Unravelling the Evolution of Language, Amsterdam 2003; W. T. Fitch, Three Meanings of “Recursion”: Key Distinctions for Biolinguistics. In: R. Larson, V. Déprez, H. Yamakido (ed.), The Evolution of Human Language: Biolinguistic Perspectives, Cambridge 2010, 73-90.

8

W. Tecumseh Fitch

guage as it exists in humans. It seems clear that many important components of human language are shared with other species, either due to their presence in ancestral vertebrates or mammals (“homology”) or convergent evolution in separate lineages (“analogy”). In this contribution, I will start with a few crucial strategic points about the scientific study of language evolution, from a biologist’s viewpoint. I will highlight issues where a “standard” linguistic approach might deviate from the comparative biological framework I favor. Then, I will review two bodies of research: one where the comparative results are already relatively clear (“past”, involving speech and vocal production), and one in which comparative research is in full swing (“present”, concerning syntax). In the last, shorter, section I will discuss the future, and where I think the field may be heading in the coming years.

Part I : Strategy There are several issues to face in designing a comparative research programme for studying the biology and evolution of language. I will give only a brief overview of these issues here, but references are given to publications providing more detailed explications. “Divide and Conquer” – But how to Divide? The first and most prominent issue could be labeled “divide and conquer”.3 Language involves many components which linguists typically refer to as subdisciplines: phonetics, phonology, morphology, syntax, semantics and pragmatics. Broadly speaking, any linguistic system will have at least three domains: a signaling system (involving some sort of motor output and some perceptual inputs), a conceptual/intentional system which involves thoughts, beliefs, and emotional states, and some form of rule-governed computational system (“syntax” in a very broad sense) which maps between these two domains. Although in a simple animal communication system, there could be a direct mapping between signals and meanings (e.g. a particular call is always and only emitted when food is seen, another exclusively for predators), we know that the mapping between signals and meaning in human language is much more complex than this, involving a hierarchical buildup of more and 3 Fitch (see fn. 2).

The Biology and Evolution of Language

9

more complex signals from a finite set of primitives (phonemes and words) into an unlimited range of possible sentences and meanings. This core computational system allows language to make “unlimited use of finite means”, as first observed by Wilhelm von Humboldt4 and more recently emphasized by Chomsky and many others.5 Recognizing that there are sub-components of language is not enough to proceed in studying these components: we also need to state precisely what these sub-components entail. If we hope to study these components biologically, we cannot assume that the traditional linguistic subdisciplinary boundaries actually make biological or neural sense. For instance, “phonetics” involves both a motoric signal generation system (the larynx and vocal tract) and a perceptual mechanism (the auditory system). It is now clear that while the capacity to produce speech signals is limited to only a small subset of nonhuman species (see below), the capacity to hear them, and to process them in surprisingly human-like ways, may be far more widespread.6 Furthermore, it is also clear that human language can be transmitted, in signed languages, via a totally different sensory-motor modality from speech (namely, the eyes and hands/face7). Thus “phonetics” would be a poor choice as a biologically relevant component of language, and we need to distinguish auditory perception (which may be widely shared among species) from vocal production abilities (which are much more limited, but still present in some nonhuman animals). Here I will adopt a rather simple subdivision of language into three categories of components: signal, syntax, and semantics. This subdivision is based on a careful comparison of humans with our nearest living primate relatives, the great apes (and especially chimpanzees and bonobos). In each of these three categories, there appear to be fundamental qualitative differences 4 W. von Humboldt, Über die Verschiedenheit des menschlichen Sprachbaues, London 1836. 5 N. Chomsky, Cartesian Linguistics: A Chapter in the History of Rationalist Thought, New York / London 1966. N. Chomsky, Language and Mind, 1st ed., New York 1968. 6 P. K. Kuhl, Discrimination of speech by nonhuman animals: Basic auditory sensitivities conducive to the perception of speech-sound categories. In: Journal of the Acoustical Society of America 70 (1981), 340-349. M. D. Hauser, W. T. Fitch, What are the uniquely human components of the language faculty? In: M. Christiansen, S. Kirby (ed.), Language Evolution, Oxford 2003, 158-181. L. A. Heimbauer, M. J. Beran, M. J. Owren, A Chimpanzee Recognizes Synthetic Speech with Significantly Reduced Acoustic Cues to Phonetic Content. In: Current Biology 21/14 (2011). 7 K. Emmorey, Language, Cognition and the Brain: Insights from sign language research, New York 2002. E. S. Klima, U. Bellugi, The Signs of Language, Cambridge MA 1979.

10

W. Tecumseh Fitch

between chimpanzees and humans, justifying the inference that these features evolved in humans in the last six million years or so (the time of the last common ancestor of chimpanzees, bonobos, and humans). However, although I suggest that each of these broad categories has novel unique aspects, there are multiple other aspects that are shared, not only with chimpanzees but often much more broadly. Tinbergen’s Four Questions In a classic paper, the great Dutch ethologist Niko Tinbergen offered a road map for the biological study of any evolved behavioural component of any species.8 Tinbergen was active during a period of conflict in ethology and animal behaviour, where ethologists, mostly in Continental Europe favoured the study of animal behaviour in the natural environment, and a comparison of multiple species to study the phylogeny and evolution of a trait. These ethologists also readily accepted a strong role of instinct and inborn proclivities, varying among species, as a core explanatory concept. In contrast, especially in the English-speaking world, the favoured approach was to study animal perception and learning, in the laboratory, in a limited set of “model” species (such as rats, pigeons, and rhesus macaques). The goal of this research tradition was to discover over-arching “laws” of learning that applied equally to all species, and the investigation of species differences was discouraged.9 Vociferous debates centered on issues such as instinct versus learning, developmental/physiological explanations versus adaptive/evolutionary explanations.10 As a Dutch scientist teaching at Oxford, Tinbergen was in the center of this debate. But he recognized that these debates were likely to be inconclusive because they conflated different levels of explanation. There are multiple valid questions that we can ask about any biological system, and it is a mistake to think that the answer to one question is necessarily relevant to another (or worse to see one question as the “right” question, and others as “wrong” – only answers can be right or wrong, not questions). Tinbergen rec8 N. Tinbergen, On aims and methods of ethology. In: Zeitschrift für Tierpsychologie 20 (1963), 410-433. 9 For a humorous overview of the state of affairs in 1961, see K. Breland, M. Breland, The misbehavior of organisms. In: American Psychologist 16 (1961), 681-684. 10 See for example Leherman’s critique of Konrad Lorenz and Lorenz’s eloquent response: D. S. Lehrman, A critique of Konrad Lorenz’s theory of instinctive behavior. In: Quarterly Review of Biology 28 (1953), 337-363. K. Lorenz, Evolution and modification of behavior, Chicago 1965.

The Biology and Evolution of Language

11

ognized at least four valid levels of biological inquiry: mechanism, ontogeny, phylogeny and function (adaptation). For example, if asked why a blackbird sings, one can give at least four correct answers. First, the bird sings to defend a territory and attract mates. This is the question of function (and a more properly formulated answer would be “this bird sings because its ancestors who sang left more descendents than those birds which didn’t”). Second, the bird sings because it has a special vocal organ, the syrinx, which produces sound, along with the proper brain regions to control this organ. This is a mechanistic answer. Third, the bird sings a particular song because, as a young bird, it heard that song produced by its father and other neighboring males. This is an answer concerning development or ontogeny. Finally, a phylogenetic answer might concern any of the mechanisms noted above (e.g. the syrinx evolved in the ancestor of all birds, and is unique to birds, while the specific neural mechanisms involved in song learning are shared only by oscine passerine birds). While these answers illustrate the scope of Tinbergen’s questions, they do not exhaust it. For instance, various other answers may also be valid mechanistic causes of song. Thus “the bird sings because testosterone levels are high”, or “the bird sings (psychologically) it is in the mood for singing” are also potentially correct. Tinbergen insightfully noted that a complete understanding of any evolved biological trait will involve answers to all of these questions, and it is a mistake to think that “the bird sings to defend its territory” explanation is incorrect, simply because “the bird sings because its testosterone levels are high” happens to be true. Although Tinbergen’s (1963) paper is widely read and cited among biologists, particularly ethologists, its central lesson remains germane and often overlooked to discussions of language evolution, where questions about mechanisms are often conflated with questions about adaptive function.11 The Comparative Approach The third main plank of the approach adopted in my own research involves comparisons among multiple species: what biologists term “the comparative approach” (and which is not conceptually unrelated to what comparative linguists mean by this term). Although some of the terms used predate Darwin, the comparative approach was really born with Darwin’s theory of evolution 11 Cf. W. T. Fitch, M. D. Hauser, N. Chomsky, The Evolution of the Language Faculty: Clarifications and Implications. In: Cognition 97 (2005), 179-210.

12

W. Tecumseh Fitch

by natural selection, and Darwin remains one of the pre-eminent practitioners of this approach (along with ethologists like Tinbergen and Lorenz). The comparative approach starts by selecting some trait of interest, and then checking for its presence or absence in multiple species, and also examining variations in the trait. From this phylogenetic pattern, comparative biologists then seek to draw various inferences. There are two crucial categories of “shared traits” which must be distinguished since they permit very different forms of inference: homology and analogy. Homology occurs when a given trait is present, in the same form, in two or more closely-related species, so that the inference can be made that it was present in the common ancestor of those species. Thus, all mammals possess hair and nurse their young with milk, permitting the inference that the ancestral mammal also had these traits. Note that while we may have fossil evidence for certain traits (e.g. hair12) there are many other traits for which we are unlikely to find relevant fossil evidence (e.g. nursing of young with milk). It is also important to note that the ancestral mammal is extinct: no living mammal represents this ancestor. Nonetheless, the comparative approach allows us to draw very firm, evidence-based inferences about homologous traits. Given that language does not fossilize, and that we lack time machines, homologous traits provide an extremely important tool for rebuilding the past. The second category of shared traits are sometimes termed “analogies” and result from convergent evolution. For example, both humans and birds are bipedal (we walk on our two hind limbs), but this similarity is due to separate, independent evolutionary events. In other words, the common ancestor of birds and mammals (a cold-blooded, egg-laying tetrapod that lived more than 300 million years ago) was not bipedal – it walked on four legs like an alligator, frog or dog. While convergently-evolved traits can be a nuisance for taxonomists (who are interested in homology, not analogy), they are very useful for evolutionary biologists who are interested in the reasons that traits evolved (adaptive functions) and also in specifying the crucial components of particular evolved mechanism. For example, although bipedalism has evolved in many vertebrates, it always involves the hindlimbs. Besides the occasional circus entertainer, no living organism walks on its two front limbs. This supports the hypothesis that one driving force for bipedalism was to free the forelimbs (hands in the case of humans, wings in the case of birds). 12 Q. Ji et al., The earliest eutherian mammal. In: Nature 416 (2002), 816-822.

The Biology and Evolution of Language

13

Thus, homology and analogy play important different roles in the comparative method. When considering the inferences we derive from shared traits, a further crucial observation concerns the statistical independence of the trait in each species. Testing hypotheses statistically requires that the data points are independent of one another. Clearly, analogous traits are by definition independent evolutionary events. Thus each of the separate clades (phylogenetic group) in which the trait evolved constitute valid data points. In contrast, homologous traits by definition all derive from a single evolutionary event, and thus constitute a single datum. Even though thousands of mammals use hair to keep themselves warm, this only constitutes one comparative data point in favor of the idea that hair evolved for thermoregulation. Below I will provide examples illustrating that both homology and analogy play their parts in understanding language evolution from a comparative perspective.

Part II: Data Why Can’t Chimpanzees Acquire Spoken Language? It has long been known that chimpanzees (or other primates) raised in a human home do not learn to speak.13 Even with intensive training, chimpanzees cannot learn more than a few poorly articulated words.14 This shows that the capacity for vocal control, and specifically the ability to imitate heard sounds vocally, is a novel trait in humans. Because of their difficulties with vocal production, an alternative approach to studying ape’s language-learning abilities has involved manual gestures (drawn mostly from American Sign Language) or the use of keyboards or other external objects.15 Given these output mechanisms, apes do distinctly better than with speech. Nonetheless, their productive vocabularies remain limited to a few hundred words (a lexicon equaled by some dogs16). More 13 R. M. Yerkes, A. W. Yerkes, The Great Apes, New Haven 1929. 14 C. Hayes, The Ape in Our House, New York 1951. K. J. Hayes, C. Hayes, The cultural capacity of chimpanzees. In: Human Biology 26 (1954), 288-303. 15 R. A. Gardner, B. T. Gardner, Teaching sign language to a chimpanzee. In: Science 165 (1969), 664-672. D. Premack, Language in chimpanzee? In: Science 172 (1971), 808-822. E. S. Savage-Rumbaugh, J. L. Pate, J. Lawson, T. Smith, S. Rosenbaum, Can a chimpanzee make a statement? In: Journal of Experimental Psychology: General 112 (1983), 457-492. 16 Cf. J. Kaminski, J. Call, J. Fischer, Word learning in a domestic dog: evidence for ‘fast mapping’. In: Science 304 (2004), 1682-1683.

14

W. Tecumseh Fitch

importantly, the syntactic complexity of their “utterances” remains very low, in the best cases not exceeding those of a two-year old child.17 Why do these differences exist between our closest existing cousins and ourselves? What are the mechanistic bases for these differences, and why did humans evolve our peculiar vocal and syntactic abilities? These are the questions I will now use to illustrate the power of a comparative approach to language evolution. Signal: The Human Capacity for Vocal Imitation There are two long-standing hypotheses to explain why humans, but not other primates, have a capacity for fine vocal control and vocal imitation. Both of them were known to, and discussed by, Charles Darwin.18 One possibility is that differences in the peripheral vocal apparatus are the core causal element. In other words, the differences in our larynx, tongue, lips or vocal tract from those of a chimpanzee allow us to speak, but prevent a chimpanzee from doing so. A second possibility is that differences in the brain, and specifically differences in the control of the vocal apparatus, are the key factors explaining these differences in vocal ability. Although both may be correct, we will proceed by contrasting them, to illustrate the value of comparative data in testing multiple plausible mechanistic and evolutionary hypotheses. A very well-known hypothesis citing differences in the peripheral vocal apparatus concerns the so-called “descent of the larynx” in humans. In most mammals, including apes, the normal resting position of the larynx is high in the throat. The tongue, which is linked to the larynx via the hyoid bone, rests in the floor of the mouth. However, in humans during early childhood the larynx descends into the neck, pulling the hyoid and tongue downward as well. The result of this human descent of the larynx is that tongue shape changes, allowing us a greater range of movements of the tongue within the reconfigured vocal tract, which in turn allows a wide range of speech sounds to be created. Most mammals, including chimpanzees and other apes, do not share this reconfigured resting vocal tract configuration. This leads directly to the hypothesis that the reason nonhuman primates cannot speak is that 17 E. S. Savage-Rumbaugh et al., Language comprehension in ape and child. In: Monographs of the Society for Research in Child Development 58 (1993), 1-221. 18 C. Darwin, On the origin of species, 1st ed., London 1859. C. Darwin, The Descent of Man and Selection in Relation to Sex, 1st ed., London 1871.

The Biology and Evolution of Language

15

they lack a descended larynx and reconfigured vocal tract,19 and today the descended larynx is often quoted as the key factor preventing ape speech. Unfortunately, this conclusion was based on an untested assumption: that resting vocal tract configuration provides an adequate guide to the range of movements possible during vocalization.20 This assumption turns out to be false: x-ray examination of multiple mammals during vocalization shows that mammals in general reconfigure their vocal tract, dynamically, when they vocalize. This reconfiguration is quite extreme in some species. For example, when barking, dogs lower the larynx considerably, pulling the tongue down into the throat, into a human-like configuration.21 Given this temporarily reconfigured vocal tract, a dog would have a wide range of tongue positions and vocal tract shapes available, if its neural control mechanisms were adequate to make use of this potential. These x-ray data show that we cannot accurately judge a species’ vocal tract potential simply based on anatomical inspection of its resting larynx position. Furthermore, given that all mammal species so far examined show dynamic vocal tract reconfiguration during vocalization, they suggest that such dynamic reconfiguration represents an ancient mammalian homology, illustrating a capacity that was probably already present in the last common ancestor of living mammals. Finally, the data show that the importance of the permanently descended larynx of human beings has been overestimated: if all mammals can lower their larynx when required, this cannot be the key factor preventing them from speaking, or imitating novel vocalizations they perceive in their environment. Although the descended larynx was long believed to be uniquely human, further data now show that many other species possess a permanently descended larynx, including koalas, lions and other big cats, multiple deer species, and various ungulates.22 This is an example of repeated convergent evolution of laryngeal descent in multiple different species. 19 P. H. Lieberman, D. H. Klatt, W. H. Wilson, Vocal Tract Limitations on the Vowel Repertoires of Rhesus Monkey and other Nonhuman Primates. In: Science 164 (1969), 1185-1187. P. Lieberman, The Biology and Evolution of Language, Cambridge MA 1984. 20 V. E. Negus, The Comparative Anatomy and Physiology of the Larynx, New York 1949. 21 W. T. Fitch, The phonetic potential of nonhuman vocal tracts: Comparative cineradiographic observations of vocalizing animals. In: Phonetica 57 (2000), 205-218. 22 W. T. Fitch, D. Reby, The descended larynx is not uniquely human. In: Proceedings of the Royal Society B 268 (2001), 1669-1675. R. Frey, T. Riede, Sexual dimorphism of the larynx of the Mongolian Gazelle (Procapra gutturosa Pallas, 1777) (Mammalia, Artiodactyla, Bovidae). In: Zoologischer Anzeiger 242 (2003), 33-62. G. E. Weissengruber, G. Forstenpointner, G. Peters, A. Kübber-Heiss, W. T. Fitch, Hyoid

16

W. Tecumseh Fitch

As noted above, convergent evolution allows us to test hypotheses about adaptive function of a trait. The implications of these data for the “descended larynx” issue are clear. None of these species have particularly complex vocalizations, nor are any known to have a capacity for vocal imitation. Instead, the purpose of the descended larynx in this species appears to be simulating larger body size, which occurs because lowering the larynx elongates the vocal tract, which in turn leads to lower and more closely-spaced formant frequencies.23 This provides an alternative hypothesis to explain why the larynx descended permanently in our own species: that the original function of this trait was to exaggerate size, and nothing to do with speech production. This hypothesis explains an otherwise curious fact: the human larynx descends a second time, in men only, at puberty,24 a fact which is hard to explain from the perspective of speech production but makes perfect sense in the context of size exaggeration. These data show that a permanently descended larynx is neither necessary, nor sufficient, for speech production or vocal imitation. They suggest that any animal, with the proper neural control mechanisms, could produce speechlike vocalizations by dynamically reconfiguring its vocal tract, and thus that the significance of the descended larynx for the biology and evolution of human speech has been drastically overestimated. This does not mean, of course, that the descended larynx does not play a role in human speech: it of course does. There can be little doubt that dog speech would sound different from that of humans, and it is possible that having a permanently descended and thus stable larynx enables finer control of complex consonants (such as plosives and fricatives). It also seems clear that the evolution of early laryngeal descent that occurs in both males and females in infancy was mainly driven by the needs of speech production (since size exaggeration seems an unlikely function in infants). Nonetheless, these data strongly suggest that the core inability keeping chimpanzees (or dogs or cows) from speaking is not the anatomy of their peripheral vocal tract, but rather factors concerning neural control. apparatus and pharynx in the lion (Panthera leo), jaguar (Panthera onca), tiger (Panthera tigris), cheetah (Acinonyx jubatus), and domestic cat (Felis silvestris f. catus). In: Journal of Anatomy 201 (2002), 195-209. B. D. Charlton et al., Cues to body size in the formant spacing of male koala (Phascolarctos cinereus) bellows: honesty in an exaggerated trait. In: Journal of Experimental Biology 214 (2011), 3414-3422. 23 Fitch/Reby (see fn. 22). 24 W. T. Fitch, J. Giedd, Morphology and development of the human vocal tract: a study using magnetic resonance imaging. In: Journal of the Acoustical Society of America 106 (1999), 1511-1522.

The Biology and Evolution of Language

17

Fig 1: Reconstruction of a primitive hominid vocalizing. Based on x-ray videos of contemporary mammals, we know that living mammals can lower their larynx dynamically during vocalization, reconfiguring the vocal tract temporarily into a form mirroring that of a modern human, as in the right panel. Therefore, having a permanently descended larynx is not necessary to produce a wide range of speech sounds (painting copyright 2009 by W. Tecumseh Fitch)

What might these neural differences be? The leading hypothesis comes again from an application of the comparative method. Vocal control in most mammals is only indirectly modulated by the cerebral cortex.25 A set of ancient midline structures, focusing in a midbrain region called the periaqueductal gray, has direct neural connections onto the motor neurons which control the tongue, jaw and larynx, and this region alone is adequate to generate the complete vocal repertoire of most mammal species.26 In most mammals, and all non-human primates so far examined, the motor cortex has only indirect connections to vocal motor neurons, particularly those that control the lar-

25 T. W. Deacon, The neural circuitry underlying primate calls and human language. In: J. Wind, B. A. Chiarelli, B. Bichakjian, A. Nocentini (ed.), Language Origins: A Multidisciplinary Approach, Dordrecht 1992, 301-323. G. F. Striedter, Principles of Brain Evolution, Sunderland 2004. D. Sutton, C. Larson, R. C. Lindeman, Neocortical and limbic lesion effects on primate phonation. In: Brain Research 71 (1974), 61-75. 26 U. Jürgens, The role of the periaqueductal grey in vocal behaviour. In: Behavioural Brain Research 62 (1994), 107-117. U. Jürgens, Neural pathways underlying vocal control. In: Neuroscience & Biobehavioral Reviews 26 (2002), 235-258.

18

W. Tecumseh Fitch

ynx in the nucleus ambiguous.27 This homologous system thus represents the ancestral mammalian vocal motor control circuit. Humans are unusual in that we possess, in addition to this ancient circuit, direct connections, from motor cortex, down to the motor neurons controlling the larynx,28 leading to the hypothesis that such direct connections play a crucial mediating role in the human capacity to control our vocal tracts in a manner that allows us to mimic novel vocalizations (requiring the coordination between auditory input and vocal motor output). This is now the best supported hypothesis for the crucial difference that gives humans, and not other primates, our capacity for complex vocal imitation, which lies at the heart of speech and song.29 While plausible, this “direct connections” hypothesis is based only on a correlation: humans have vocal imitation, and have direct connections, while other primates lack vocal imitation, and lack direct connections. By itself this is not a very compelling argument. Fortunately, the comparative approach again offers a way to test this mechanistic hypothesis, this time via analogy. Although not found in primates, the capacity for complex vocal imitation has evolved, convergently, in many other vertebrate species, in birds (parrots, songbirds, and hummingbirds30), in many marine mammals (e.g. some whales, dolphins and seals), in both species of elephants and in at least one species of bats.31 This provides an excellent opportunity to test the “direct 27 Jürgens 2002 (see fn. 26). U. Jürgens, Neuronal control of mammalian vocalization, with special reference to the squirrel monkey. In: Naturwissenschaften 85 (1998), 376-388. 28 T. Iwatsubo, S. Kuzuhara, A. Kanemitsu, H. Shimada, Y. Toyokura, Corticofugal projections to the motor nuclei of the brainstem and spinal cord in humans. In: Neurology 40 (1990), 309-312. H. G. J. M. Kuypers, Corticobulbar connections to the pons and lower brainstem in man: an anatomical study. In: Brain 81 (1958), 364-388. K. Simonyan, B. Horwitz, Laryngeal Motor Cortex and Control of Speech in Humans. In: Neuroscientist 17 (2011), 197-208. 29 Deacon 1992 (see fn. 25). U. Jürgens, A. Kirzinger, D. Y. von Cramon, The effects of deep-reaching lesions in the cortical face area on phonation: A combined case report and experimental monkey study. In: Cortex 18 (1982), 125-139. G. F. Striedter, The vocal control pathways in budgerigars differ from those of songbirds. In: Journal of Comparative Neurology 343 (1994), 35-56. 30 E. D. Jarvis, Neural systems for vocal learning in birds and humans: a synopsis. In: Journal of Ornithology 148 (2007), 34-44. 31 W. T. Fitch, The evolution of speech: a comparative review. In: Trends in Cognitive Sciences 4 (2000), 258-267. W. T. Fitch, The biology and evolution of music: A comparative perspective. In: Cognition 100 (2006), 173-215. V. M. Janik, P. B. Slater, Vocal learning in mammals. In: Advances in the Study of Behavior 26 (1997), 59-99.

The Biology and Evolution of Language

19

connections” hypothesis. While neural data are lacking for mammalian vocal imitators, they are available and clear for both parrots and songbirds. These vocally-imitating clades have direct connections, from the avian equivalent of motor cortex to the motor neurons controlling the vocal organ.32 These data illustrate the importance of convergent evolution for testing biological hypothesis, and provide strong support for the direct connections hypothesis. In summary current data suggest that the critical biological factors allowing human speech are neural, not peripheral, and specifically that the human capacity for vocal imitation in general, and speech and song in particular, is rooted in a difference in neural anatomy, not vocal tract anatomy. More broadly, the data just reviewed nicely illustrate the power of the comparative approach, utilizing both analogy and homology, to derive evolutionary inferences and test evolutionary and mechanistic hypotheses. Of course, as emphasized above, speech is only one aspect of language, and not even a crucial factor, given that linguistic communication is possible in its absence (e.g. via sign or written language). I now turn to a different topic, one that is clearly a core aspect of language: syntax. Syntax: The Human Proclivity for Complex Structures Human language has as a defining characteristic the ability to express anything that we can think. Because there is no numerical limit to the number of possible thoughts, this ability in turn demands the capacity to generate an unlimited diversity of signals to convey these thoughts unambiguously. This is accomplished via a generative system including phonology, morphology and syntax. I will use the term “syntax” in a very broad sense to include any L. A. Kelley, R. L. Coe, J. R. Madden, S. D. Healy, Vocal mimicry in songbirds. In: Animal Behaviour 76 (2008). M. Knörnschild, M. Nagy, M. Metz, F. Mayer, O. von Helversen, Complex vocal imitation during ontogeny in a bat. In: Biology Letters 6 (2010), 156-159. A. S. Stoeger et al., An Asian elephant imitates human speech. In: Current Biology 22 (2012), 2144-2148. R. L. Eaton, A beluga whale imitates human speech. In: Carnivore 2 (1979), 22-23. R. J. Schusterman, Vocal learning in mammals with special emphasis on pinnipeds. In: D. K. Oller, U. Griebel (ed.), The Evolution of Communicative Flexibility: Complexity, Creativity, and Adaptability in Human and Animal Communication, Cambridge MA 2008, 41-70. 32 Striedter (see fn. 25). Jarvis (see fn. 30). J. M. Wild, Neural pathways for the control of birdsong production. In: Journal of Neurobiology 33 (1997). E. D. Jarvis, Neural systems for vocal learning in birds and humans: a synopsis. In: Journal of Ornithology 148 (2007). J. M. Wild, Neural pathways for the control of birdsong production. In: Journal of Neurobiology 33 (1997), 653-670.

20

W. Tecumseh Fitch

rule-governed system that combines units to form larger units. In the perceptual domain, we can investigate syntax in terms of the ability to extract such rules, given positive evidence in the form of legal patterns. Thus, “syntax perception” in a broad sense simply means the perception of patterns in data, in any modality and at any scale (and not just the combination of words into phrases and sentences). In the last decade a considerable amount of research has been conducted that combines the empirical technique of artificial grammar learning with the theoretical framework of formal language theory.33 Artificial grammar learning (AGL) is a technique in which a subject is presented with a set of “strings” (visual or acoustic) which are patterned according to some rule.34 After exposure to these positive examples (“training stage”), the subject is then probed to determine what (if anything) was learned during the training stage. This typically involves a comparison of novel stimuli which follow the training pattern (“grammatical stimuli”) with other novel stimuli that violate the rule in some way (“ungrammatical stimuli”). If subjects can distinguish these two classes, we can infer that they learned something, although not necessarily the rule that was used by the experimenter to generate the stimuli. A rather detailed and complete set of violations and novel grammatical stimuli are needed to reach any strong conclusions about what was learned (which may differ between individual subjects35). However, two crucial types of test stimuli are required to understand that participants actually learned the rule: logical extensions that go beyond the training stimuli (e.g. that are longer than those perceived before), which should be accepted as grammatical, and violations which break the rule in specific ways (which should be rejected). The real power of AGL becomes evident when it is combined with a theoretical framework allowing specification of different types of rules, and the potentially infinite sets of patterns that different rule types can generate. For this, the theory of computation in general, and formal language theory in particular, provide solid starting points.36 The theory of computation con33 W. T. Fitch, A. D. Friederici, Artificial Grammar Learning Meets Formal Language Theory: An Overview. In: Philosophical Transactions of The Royal Society B 367 (2012), 1933-1955. 34 A. S. Reber, Implicit learning of artificial grammars. In: Journal of Verbal Learning and Verbal Behavior 6 (1967), 855-863. J. R. Saffran, R. N. Aslin, E. L. Newport, Statistical learning by 8-month-old Infants. In: Science 274 (1996), 1926-1928. 35 C. A. A. van Heijningen, J. de Vissera, W. Zuidema, C. ten Cate, Simple rules can explain discrimination of putative recursive syntactic structures by a songbird species. In: Proceedings of the National Academy of Sciences 106 (2009), 20538-20543. 36 Fitch/Friederici (see fn. 33).

The Biology and Evolution of Language

21

cerns the properties and generative power of algorithms (rule governed procedures) and formal language theory concerns the properties of sets generated by rules. In particular, formal language theory has defined a hierarchy of rule-governed systems, the formal language hierarchy (often termed the “Chomsky hierarchy” to acknowledge the important contributions to this body of theory made by the young Noam Chomsky). Since Chomsky’s time, it has been evident that the simplest rule-governed systems, corresponding to regular grammars, are not adequate to deal with certain central phenomena in phrasal syntax.37 Such phenomena require, at least, context-free grammars, and it now seems clear that mildly-context sensitive grammars are adequate to deal with all syntactic phenomena in all known human languages.38 Combining these two conceptual tools, my colleagues and I have attempted in the last decade to begin exploring the pattern-perception capabilities of a range of different animals, to explore a hypothesis voiced by George Miller many years ago: that humans have a peculiar proclivity to favor hierarchical, context-free interpretations of patterns, even when not specifically required to do so by the data.39 We have aimed to explore the degree to which this proclivity is also present in non-human animals. Despite a large number of studies using the AGL paradigm in infants, adults, brain-damaged patients and animals, until recently, all of these concerned rule systems at the finite state or regular level. A considerable body of data supports the idea that the ability to infer rules at this level exists in nonhuman animals (at the perceptual level), and is adequate to describe the production of vocalizations such as birdsong.40 The first study which went beyond the level of regular grammars used a classic simple rule which cannot be captured by any regular grammar: AnBn. This grammar, in which the number of As must precisely match the number of Bs, cannot be accomplished in a regular grammar because these have no 37 N. Chomsky, Syntactic Structures, The Hague 1957. 38 A. K. Joshi, K. Vijay-Shanker, D. J. Weir, The Convergence of Mildly Context-Sensitive Formalisms. In: P. Sells, M. Stuart, M. Shieber, T. Wasow (ed.), Processing of Linguistic Structure, Cambridge MA 1991, 31-81. E. P. Stabler, Varieties of crossing dependencies: structure dependence and mild context sensitivity. In: Cognitive Science 28 (2004), 699-720. K. Vijay-Shanker, D. J. Weir, The equivalence of four extensions of context-free grammars. In: Mathematical Systems Theory 27 (1994), 511-546. 39 G. A. Miller, Project Grammarama. In: G. A. Miller (ed.), Psychology of Communi­ cation, New York 1967. 40 C. ten Cate, K. Okanoya, Revisiting the syntactic abilities of non-human animals: natural vocalizations and artificial grammar learning. In: Philosophical Transactions of The Royal Society B 367 (2012), 1984-1994.

22

W. Tecumseh Fitch

mechanism for counting the number of As and testing for a match with the number of Bs. This study showed that although humans easily master this grammar, cotton-top tamarins cannot.41 Both species are able to master a comparable pattern at the regular level, (AB)n. This study suggested that the capacity to acquire the supra-regular rule was limited to humans, and opened the door to a series of studies in other species. Although this research is still in full swing, and there are many further species to test, current data show that nonhuman animals either fail to learn the AnBn grammar, or take considerable training to do so. Even the few positive results that exist (for songbirds:42) have been strongly criticized on methodological grounds.43 My current working hypothesis based on these data can be called the “supra-regular distinctiveness” hypothesis. This suggests that humans possess a domain general proclivity to produce and readily perceive patterns that go beyond the regular (“finite state”) level, and that this ability is unusual or perhaps unique to our species. By this hypothesis, our species has a core computational ability that applies not only to language, but also to music and visual patterns. This is consistent with other findings which suggest that other abilities that appear very basic (and intuitively simple) to us are rather difficult or impossible for other species. A prominent example is visual symmetry: this seemingly simple property seems to be very difficult for those bird species that have been tested to understand.44 In accordance with these earlier data, we found that two bird species were unable to learn the AnBn grammar even when it was visually presented (thus making symmetry a very simple way for humans to analyse patterns generated by this grammar). I will end by attempting to forestall three frequent sources of misunderstanding about the AnBn grammar, and the research programme introduced above. 41 W. T. Fitch, M. D. Hauser, Computational constraints on syntactic processing in a nonhuman primate. In: Science 303 (2004), 377-380. 42 K. Abe, D. Watanabe, Songbirds possess the spontaneous ability to discriminate syntactic rules. In: Nature Neuroscience 14 (2011), 1067-1074. T. Q. Gentner, K. M. Fenn, D. Margoliash, H. C. Nusbaum, Recursive syntactic pattern learning by songbirds. In: Nature 440 (2006), 1204-1207. 43 Heijningen/Vissera/Zuidema/Cate (see fn. 35). G. J. L. Beckers, J. J. Bolhuis, K. Okanoya, R. C. Berwick, Birdsong neurolinguistics: Songbird context-free grammar claim is premature. In: NeuroReport 23 (2012), 139-145. 44 J. P. Swaddle, D. A. Ruff, Starlings Have Difficulty in Detecting Dot Symmetry: Implications for Studying Fluctuating Asymmetry. In: Behavior 141 (2004), 29-40. L. Huber et al., Limits of symmetry conceptualization in pigeons. In: Quarterly Journal of Experimental Psychology 52B (1999), 351-379.

The Biology and Evolution of Language

23

The first concerns recursion. In an oft-cited paper, Hauser, Chomsky and Fitch45 suggested that, although many components of language are shared with other animals, or across cognitive domains, recursion is a candidate for a mechanism unique to language and unique to humans. Because recursion provides the mathematical basis for “infinite use of finite means”, this hypothesis puts recursion in a core location in the overall architecture of the language faculty. While this remains an interesting hypothesis, it has proven difficult to test, and there remains very little empirical work exploring this hypothesis rigorously.46 Perhaps because two of the authors were shared, many authors have misinterpreted the AnBn/AGL paradigm introduced in Fitch & Hauser (2004)47 as a test for recursion. This is incorrect for several reasons. We never mention recursion in that paper, and never intended our test for supra-regularity to be interpreted as a test for recursion. In fact, any level of the Chomsky hierarchy requires recursion, or the equivalent, if the generated sets are to be infinite. (AB)n can also be generated recursively (using the rule S -> AB S). Thus, the question of recursion is quite separate (and more difficult to answer) than the question of supra-regularity. The second misconception concerns “counting”. AnBn patterns can easily be recognized by simply counting the number of As and checking if they match with the number of Bs. This is all that is required and it mathematically requires supra-regularity. There is no need for each A to be linked to a particular B, e.g. in a center-embedded relationship.48 Indeed other supraregular grammars could generate a serial linkage, or none at all. The crucial point is that any system that can recognize the AnBn rule, over unrestricted n, is supra-regular. What some critics have failed to appreciate is the great computational power of “simple counting”, and the inability of regular systems to reach this level of power. But there are other interesting supra-regular grammars, such as mirror grammars, that do involve linkages. For experimentalists interested in investigating such issues, these grammars may prove more appropriate than AnBn. 45 M. Hauser, N. Chomsky, W. T. Fitch, The Language Faculty: What is it, who has it, and how did it evolve? In: Science 298 (2002), 1569-1579. 46 W. T. Fitch, Three Meanings of “Recursion”: Key Distinctions for Biolinguistics. In: R. Larson, V. Déprez, H. Yamakido (ed.), The Evolution of Human Language: Biolinguistic Perspectives, Cambridge 2010, 73-90. 47 See fn 41. 48 Contra: P. Perruchet, A. Rey, Does the mastery of center-embedded linguistic structures distinguish humans from nonhuman primates? In: Psychonomic Bulletin and Review 12 (2005), 307-313, and many others.

24

W. Tecumseh Fitch

Finally, a more interesting issue concerns symmetry. As noted above, AnBn generates symmetrical structures. In contrast, much research on phrasal syntax emphasizes the anti-symmetry of syntactic trees, which tend to be right- or left-branching.49 I have two responses to this observation. First, AnBn is only one of many interesting grammars worthy of testing, and it is suited to a particular purpose. But the research programme is not limited to this or any other grammar, or to the investigation of language per se, but rather seeks to understand pattern perception in a very broad sense to determine where language fits into this more general framework. The second, more speculative, response concerns the origins of the antisymmetry of syntax. I suggest that semantic structures are complex-high dimensional networks of trees, and that our capacity to conceive of many bizarre conceptual possibilities (“man bites dog” is just as easy as “dog bites man”) reflects an underlyingly symmetrical conceptual generation system. However, for these complex structures to be expressed on a serial interface (“serialized”) their symmetry needs to be broken. Traditional phrasal syntax, from this perspective, may constitute a middle ground between the highdimensional, potentially symmetrical world of conceptual structures, and the intrinsically low- or one-dimensional output medium of expression. By this hypothesis, the antisymmetry of syntax would reflect the interface demands of serialization, rather than a deep fact about human structure-generating capacities. The Future: The Genetic Goldmine Where will scientists focused on language evolution concentrate in the future? I will conclude with a few thoughts about where the interdisciplinary study of the biology and evolution of language might be heading in the coming decades. My greatest hope is that biolinguists will focus on the considerable power to test evolutionary hypotheses stemming from modern genetics and genomics. Human genetics is one of the fastest-moving areas in modern science. Genetics has now entered what is referred to as the “post-genomic” era: we have a detailed, publicly-available readout of nearly every “letter” (base pair) of the human genome, along with the genomes of many other species. Biologists are now attempting to “decode” this information, using many different approaches. Unfortunately, decoding and understanding the human 49 L. Jenkins (ed.), Variation and universals in biolinguistics, Amsterdam 2004. R. S. Kayne, The Antisymmetry of Syntax, Cambridge MA 1994.

The Biology and Evolution of Language

25

genome is an extremely complex and challenging task, far more challenging in retrospect than simply sequencing it. Most of our roughly twenty five thousand genes have multiple, complex functions, and virtually all of them are parts of complex regulatory and physiological networks, so that single genes cannot typically be understood in isolation. Another difficulty is that a substantial proportion of the genome does not code for proteins, but nonetheless plays an important role in up- and down-regulation of gene expression. Our tools for understanding the function of protein coding genes are much more advanced and effective than those for understanding this “noncoding DNA”. Nonetheless, just as for the examples above, a comparative approach provides major advantages in disentangling the many complex interactions that underlie the transformation of genetic information to developing brains and bodies.50 For example, the sequencing of the chimpanzee genome, and its comparison with the human genome, provides a list of all the genetic changes that have accumulated since we each parted from our last common ancestor. Unfortunately, this list contains roughly 35 million changes (at the level of single nucleotides), most of which probably have no biological effect but simply constitute a kind of biological “noise” accumulated by random mutation over the last six million years. Finding those genetic differences that really make a difference is akin to searching for a needle in a haystack.51 One valuable approach to analyzing this problem is to search for specific genes which bear so-called “signatures of selection”,52 meaning that they have undergone clear selection over a stretch of DNA. This list is far shorter, and roughly 600 genes show such evidence.53 Another useful approach is to examine, not the gene sequences themselves, but differences in the level at which these genes are expressed as RNA or protein products. These differ considerably between

50 W. Enard, S. Paabo, Comparative primate genomics. In: Annual Review of Genomics and Human Genetics 5 (2004), 351-378, doi:10.1146/annurev.genom.5.061903.180040. 51 A. Varki, T. K. Altheide, Comparing the human and chimpanzee genomes: Searching for needles in a haystack. In: Genome Research 15 (2005), 1746-1758. 52 R. Nielsen, Molecular signatures of natural selection. In: Annual Review of Genetics 39 (2005), 197-218. M. Przeworski, The signature of positive selection at randomly chosen loci. In: Genetics 160 (2002), 1179-1189. 53 I. Hellmann et al., Selection on human genes as revealed by comparisons to chimpanzee cDNA. In: Genome Research 13 (2003), 831-837, doi:10.1101/gr.944903 13/5/831 [pii].

26

W. Tecumseh Fitch

species,54 and can provide valuable clues as to which genes play important roles in different tissues, including the brain. Although these approaches are time-consuming and require significant resources, they are already beginning to bear fruit in our understanding of the genetic changes that underlie human-specific changes such as our capacity to acquire language. A prominent example is the transcription factor FoxP2, a gene involved mainly in vocal motor control.55 FoxP2 is a transcription factor, which means that the protein coded by this gene binds to DNA, and helps to regulate the expression of other genes. It is a member of the large and important Fox family of transcription factors (so-named for the “forkhead box” that they all contain, a highly-conserved portion of DNA which codes for the part of the protein that binds to DNA). The importance of the FoxP2 gene in human language was first discovered due to a large British family, many of whose members bear a mutated version of the gene. This family has been studied for many years by Faraneh VarghaKhadem, a cognitive neuroscientist who has played a central role in research on FoxP2. Her group’s painstaking work with this family over many years revealed a suite of language-related issues, but with a focus on speech production difficulties.56 Through a combination of hard work and good luck (when another patient with a mutation in the same gene popped up), Simon Fisher and Cecilia Lai were able to modify the gene itself, which turned out to be FoxP2.57 Note that a short and premature publication in Nature by Myrna 54 P. Khaitovich et al., Parallel patterns of evolution in the genomes and transcriptomes of humans and chimpanzees. In: Science 309 (2005), 1850-1854, doi:1108296 [pii] 10.1126/science.1108296. 55 W. Enard et al., A humanized version of Foxp2 affects cortico-basal ganglia circuits in mice. In: Cell 137 (2009), 961-971, doi:S0092-8674(09)00378-X [pii] 10.1016/j. cell.2009.03.041. W. Enard et al., Molecular evolution of FOXP2, a gene involved in speech and language. In: Nature 418 (2002), 869-872. S. E. Fisher, C. Scharff, FOXP2 as a molecular window into speech and language. In: Trends in Genetics 25 (2009), 166-177. F. Vargha-Khadem, D. G. Gadian, A. Copp, M. Mishkin, FOXP2 and the neuroanatomy of speech and language. In: Nature Reviews Neuroscience 6 (2005), 131-138. S. C. Vernes et al., Foxp2 regulates gene networks implicated in neurite outgrowth in the developing brain. In: (Public Library of Science) PLoS Genetics 7 (2011) e1002145. 56 F. Vargha-Khadem, K. E. Watkins, K. Alcock, P. Fletcher, R. Passingham, Praxic and nonverbal cognitive deficits in a large family with a genetically-transmitted speech and language disorder. In: Proceedings of the National Academy of Sciences 92 (1995), 930-933. 57 S. E. Fisher, F. Vargha-Khadem, K. E. Watkins, A. P. Monaco, M. E. Pembrey, Localisation of a gene implicated in a severe speech and language disorder. In: Nature

The Biology and Evolution of Language

27

Gopnik made the inaccurate claim that the KE family’s language issues were confined to what Gopnik termed “feature blindness”.58 This claim, based on it was on a small selection of tasks performed over a short time period, was inappropriately blown up in the popular press,59 and more serious research on this topic has been dogged by this ever since. FoxP2 is not “the language gene”, and contra-Gopnik it is not correlated with feature-specific impairments, but it is an extremely useful window into some of the changes Although the FoxP2 gene is found in most vertebrates, and is generally highly conserved, comparative research by Wolfgang Enard and Svante Pääbo quickly showed that the human FoxP2 gene is peculiar.60 A few small changes in the gene lead to a different protein in humans from that found in chimpanzees or other primates, and this difference is conserved across all humans: this is precisely the pattern required for a gene involved in a panhuman ability like language which is not present in chimpanzees. This gene also shows clear signatures of selection, indicating that it swept from being a rare mutant to be omnipresent during human evolution. Once a gene with a particular language-related function is located, a wide variety of tools immediately become available for understanding its function. For example, the human version of the FoxP2 gene has been added to a specific strain of mice using the tools of genetic engineering.61 A very extensive test battery showed that these mice are normal in most respects (and they, of course, are not able to speak or understand language, since many genes other than FoxP2 are required for linguistic ability) but they do show some intriguing differences from normal mice. In particular, neurons in particular brain regions, including the striatum (part of the basal ganglia involved in motor control) show an enrichment of dendritic branching and greater synaptic plasticity. Mice with one dysfunctional copy of the FoxP2 gene show related effects in the opposite direction, for example impairments of motor learning.62 This approach with mice opens the door to a very detailed exploration of the role in FoxP2 in brain development and function at the cellular level. Genetics 18 (1998), 168-170. C. S. L. Lai, S. E. Fisher, J. A. Hurst, F. VarghaKhadem, A. P. Monaco, A forkhead-domain gene is mutated in a severe speech and language disorder. In: Nature 413 (2001), 519-523. 58 M. Gopnik, M. Feature-blind grammar and dysphasia. In: Nature 344 (1990), 715. 59 S. Pinker, The Language Instinct, New York 1994. 60 Enard et al. 2002 (see fn. 55). 61 Enard et al. 2009 (see fn. 55). 62 M. Groszer et al., Impaired Synaptic Plasticity and Motor Learning in Mice with a Point Mutation Implicated in Human Speech Deficits. In: Current Biology 18 (2008), 354-362.

28

W. Tecumseh Fitch

Unfortunately, mice are not vocal learners and thus provide a poor model to understand the phonological aspects of language.63 Another important line of work opened up by the discovery of FoxP2 was the investigation of the role of this gene in songbird vocal learning, in the laboratory of Constance Scharff.64 Perhaps surprisingly, FoxP2 and its close relative FoxP1 appear to play a significant role in song learning: FoxP2 levels are increased in key brain areas during the period of song learning, and experimental reduction in FoxP2 levels leads to impaired song learning. Because songbird vocal learning evolved independently of human vocal learning, this provides an intriguing example of what is sometimes termed “deep homology”.65 Deep homology is the term used when a convergent trait turns out to derive from homologous genetic or developmental mechanisms. The shared role of FoxP2 (a homologous gene) in vocal learning and humans and birds (a convergent trait) provides the first known example of deep homology in the domain of language.66 This is cause for excitement, because it shows that even distant relatives like birds can play a central role in testing hypotheses about genetic mechanisms. Last but not least, the discovery of the role of FoxP2 in oro-motor control and vocal learning has allowed insight into the timing of language evolution via research on “fossil DNA”. It is now possible to extract DNA from bones of extinct species, including Neanderthals and other human ancestors.67 DNA in fossils degrades over time, making it unlikely that adequate samples can be gathered from bones more than about 30.000 years old. Fortunately, however, it now appears that multiple hominid species existed during this 63 T. Kikusui et al., Cross Fostering Experiments Suggest That Mice Songs Are Innate. In: (Public Library of Science) PLoS ONE 6 (2011) e17721. 64 S. Haesler et al., FoxP2 Expression in Avian Vocal Learners and Non-Learners. In: Journal of Neuroscience 24 (2004), 3164-3175. S. Haesler et al., Incomplete and inaccurate vocal imitation after knockdown of FoxP2 in songbird basal ganglia nucleus Area X., In: (Public Library of Science) PLOS Biology 5 (2007) e321. 65 N. Shubin, C. Tabin, S. Carroll, Deep homology and the origins of evolutionary novelty. In: Nature 457 (2009), 818-823. 66 W. T. Fitch, “Deep Homology” in the Biology & Evolution of Language. In: A. M. Di Sciullo C. Boeckx (ed.), The Biolinguistic Enterprise: New Perspectives on the Evolution and Nature of the Human Language Faculty, Oxford 2011, 135-166. C. Scharff, J. Petri, Evo-devo, deep homology and FoxP2: implications for the evolution of speech and language. In: Philosophical Transactions of The Royal Society B 366 (2011), 2124-2140. 67 R. E. Green et al. et S. Pääbo, A draft sequence of the Neandertal genome. In: Science 328 (2010), 710-722. M. Meyer et al. et S. Pääbo, A High-Coverage Genome Sequence from an Archaic Denisovan Individual. In: Science 338 (2012), 222-226.

The Biology and Evolution of Language

29

time period, from which samples can be analyzed. The crucial time is not the age of the fossils themselves, but rather the time back to their last common ancestor with humans. For example, Neanderthals shared a last common ancestor with modern Homo sapiens roughly 400.000 years ago. The discovery that their FoxP2 gene was the same as ours shows that the human mutation occurred before the split, and is thus at least 400.000 years old.68 Other genes, involved in other aspects of language, can be dated in similar ways, and as such genes are discovered this should allow us to construct a timeline of genetic changes involved in language. As the rapid progress following the discovery of FoxP2 shows, once we have genetic tools available to probe specific components of language we can very rapidly make biological progress. While FoxP2 is not itself the secret to language, it provides a beautiful illustration of how quickly progress can be made, as we discover additional genetic correlates of human-specific brain differences involved in language.69 Thus I am optimistic that genetic research will not only become a key source of data relevant to the biology of language, but also that it can provide keystone dates for the timing of our acquisition of specific traits during our evolutionary history. Conclusions It seems clear that comparative data, from a wide variety of species, are central in any effort to understand the biology and evolution of language. In order to know what is shared and what is unique, we need data from a wide range of animal species. As the examples above illustrate, it is not enough to have data from an assortment of primates, because convergent evolution also plays a key role in the comparative method. I provided concrete evidence above that data from birds, bats, elephants, deer, lions, koalas, and other species are relevant to understanding the evolution of spoken language in our own species. When similarities are found (homologies or analogies, as in the domain of vocal production), they provide us with powerful tools to derive phylogenetic inferences and to test evolutionary hypotheses. 68 J. Krause et al., The derived FOXP2 variant of modern humans was shared with Neandertals. In: Current Biology 17 (2007), 1908-1912. 69 V. Folia, C. Forkstam, M. Ingvar, P. Hagoort, K. M. Petersson, Implicit artificial syntax processing: Genes, preference, and bounded recursion. In: Biolinguistics 5 (2011), 105-132. S. C. Vernes et al., A Functional Genetic Link between Distinct Developmental Language Disorders. In: New England Journal of Medicine 359 (2008), 2337-2345.

30

W. Tecumseh Fitch

Although I am a biologist and the work above is focused on biological data, I believe that linguists, and linguistics, should play an increased role in future empirical research on the biology and evolution of language. Linguists have traditionally shied away from genetics, neuroscience and (especially) animal research, which have often been considered to be irrelevant to the core concerns of modern linguistics. I think it is time to rethink this attitude. Recent advances in biology, and the biology of language, have much to offer linguists in many different disciplines from phonetics to pragmatics.70 For example, my own work in animal cognition has led me to think that the parallels between animal communication and phonology are much stronger, than any tenuous parallels with linguistic phrasal syntax. But empirical work on “animal phonology” has barely begun,71 so we know very little about the degree to which phonological phenomena are or are not shared with communication in other species. Thus, I think the time is right to initiate active, productive, interdisciplinary collaborations between linguists and researchers in other disciplines. This requires bridge-building work on both sides, but I think such work promises to yield substantial payoffs for our understanding of human language. Far from being limited to speculative fairytales, the study of the biology and evolution of language is rapidly becoming a real science, and I predict a bright future.

70 Cf. R. Jackendoff, Possible stages in the evolution of the language capacity. In: Trends in Cognitive Sciences 3 (1999), 272-279. R. Jackendoff, Foundations of Language, Oxford 2002. 71 M. J. Yip, The search for phonology in other species. In: Trends in Cognitive Sciences 10 (2006), 442-446.

Harald Lesch

Erfolgreich interdisziplinär kommunizieren1 „Stärker als je in unserer Zeit ist eine Entfremdung zwischen der Welt der Wissenschaft und der Welt des täglichen Lebens eingetreten. Die außerordentliche Verfeinerung wissenschaftlicher Methoden hat auf den Gebieten der physikalischen ebenso wie der biologischen Wissenschaften eine solche Wandlung aller Wissensbestände mit sich gebracht, daß der Nicht­wissen­schaftler sie nicht mehr mit der Erfahrung des täglichen Lebens zusammenzuschließen vermag; er hört zwar staunend von den Ergebnissen der Relativitätstheorie oder der Biochemie, er wagt auch nicht zu bezweifeln, was ihm mit dem Autoritätsanspruch fachwissenschaftlicher Wahrheit vorgetragen wird, aber er vermag mit solchen Berichten über ihm fremde Welten nichts anzufangen, er sieht nicht, wie sie mit den Erlebnisbeständen zusammenhängen sollen, die er Welt, Umwelt, Wirklichkeit, Leben nennt, und kann deshalb bei aller Bewunderung ein Gefühl der Leere nicht überwinden, welches ihn trotz bestem Willen zu einer inneren Anteilnahme an den Gütern der Wissenschaft nicht kommen läßt. Mehr als für den Gebildeten, der durch reichliche Schulung nur allzu sehr daran gewöhnt ist, zwischen Geist und Herz eine Grenze zu ziehen, gilt dies für die großen Schichten derjenigen, denen höhere Bildung durch die Not sozialer Verhältnisse verschlossen blieb und die in unverbildetem Instinkt sich nicht daran gewöhnen können, ein Doppelleben zwischen der Welt der Wissenschaft und der Welt des Tages zu führen.“

Dieser Ausschnitt aus einem Text von Hans Reichenbach2 über die philosophische Deutung der Physik stammt aus dem Jahre 1931. Woher nimmt die Wissenschaft das Recht zu solcher Entfernung von der unmittelbaren Anschauung der Welt? 1 Der folgende Text stellt eine redigierte Fassung des Transkripts der Ausführungen des Autors am Österreichischen Wissenschaftstag dar. 2 Hans Reichenbach, geboren 1891 in Hamburg, gestorben 1953 in Los Angeles, war Physiker, Philosoph und Logiker. Auf Vorschlag Albert Einsteins wurde er 1926 zum a.o. Professor für Philosophie der Physik an der Universität Berlin ernannt. Der Text entstammt dem Aufsatz Die philosophische Bedeutung der modernen Physik. In: Erkenntnis 1, Berlin 1930, 49-71.

32

Harald Lesch

Interdisziplinäre Kommunikation hat, meiner Ansicht nach, drei große Pfeiler. Der erste ist die Lehre. Interdisziplinäre Kommunikation kann für die Lehre ein ganz wichtiger Eckpfeiler sein. Studenten verlangen eine Einordnung der Fächer zueinander. Eine Einordnung für das Fach Physik innerhalb der Naturwissenschaften vorzunehmen, ist eine ganz wesentliche Motivationsquelle, wenn man Studierende hat, für die sich üblicherweise das Physikstudium am Beginn schwierig gestaltet. Inmitten der Übungsaufgaben gehen die großen Linien, weshalb man Physik studiert, verloren. Ich halte seit längerer Zeit an der Universität München eine Vorlesung „Physik des Universums“. Ein größeres Thema gibt es nicht, über das Universum hinaus kann nichts mehr gemessen werden – gedacht schon, aber nicht mehr gemessen werden. Diese Vorlesung ist dazu da, den Studierenden die großen Linien in unseren Naturbildern aufzuzeigen. Was sind die ganz großen Geschichten, die wir zu erzählen haben? Das Schöne an dieser Vorlesung: Es kommen Studierende aus den verschiedensten Fächern – Literaturwissenschaftler, Theologen, aus allen Ecken der Universität kommen Studierende und hören sich das an. Weil sie sagen: Physik ist eine der Leitwissenschaften und es ist wichtig zu wissen, wo gehört das hin was dort gemacht wird, wie ist das mit dem verbunden, was ich betreibe. Für Theologen ist dies inzwischen beinahe eine Pflichtvorlesung geworden, zum Beispiel für die Priesterausbildung in katholischer Theologie. Sie erfahren: so ist der Gang der Dinge – und vergleichen: Was hat das mit den heiligen Texten zu tun. Das hat u.a. dazu geführt, dass ich mit einem katholischen Fundamentaltheologen regelmäßig im Sommersemester ein Seminar halte. Da kann es vorkommen, dass ich zu meinem Kollegen Armin Kreiner hinübergehe – der weiteste Weg, den man innerhalb des Hauptgebäudes gehen muss – und ein Kollege fragt mich: Wohin gehst du? Ich sage: Zur katholischen Theologie. Er fragt: Was machst du dort? Wir halten ein Seminar über weltanschauliche Konsequenzen der Quantenmechanik. Bei den katholischen Fundamentaltheologen? Ja, das ist großes Kino, da kommen die Hälfte der Zuhörer aus der Physik und die andere Hälfte aus der katholischen Theologie. Und dann höre ich oft den Satz: Hast du nichts anderes zu tun? Ich könnte nun eine Festtagsrede darüber halten, wie Wissenschaft an den Universitäten dieser Welt zu sein hat: offen, neugierig, tolerant etc. Dafür ist die interdisziplinäre Zusammenarbeit eine Voraussetzung. Dann aber kommt der Alltag an der Universität mit Zielvereinbarungen, Drittmittelakquisition und interdisziplinären Projekten, die bei einer Fördereinrichtung durchzubringen sind – zumindest in Deutschland nicht einfach. Denn entweder es urteilt ein Gutachter aus dem einen oder aber aus dem anderen Fach. Wenn

Erfolgreich interdisziplinär kommunizieren

33

ein Projekt genau dazwischen liegt, hängt es vom guten Willen der Gutachter ab, zu sagen: Da könnte etwas dran sein, da könnte etwas herauskommen. Interdisziplinarität wird auf der einen Seite sehr gern gefordert und auch sehr gut begründet – für die Lehre und sogar für die Forschung –, aber letztlich wird sie nicht wirklich unterstützt. Interdisziplinarität ist ein Transformationsvorgang, bei dem Menschen aus verschiedenen Disziplinen auf einmal auf einer Plattform etwas Gemeinsames entdecken, was ohne diese gemeinsame Plattform nicht vorhanden wäre. Interdisziplinarität wird gern öffentlich gemacht und auch gern als Scha­ b­lone verwendet. Wenn man es tatsächlich betreibt, ist Verzicht notwendig. Als ich angefangen habe, massiv Öffentlichkeitsarbeit zu betreiben, bei der es nicht nur darum ging, zwischen den Disziplinen sondern auch mit der Öffentlichkeit zu kommunizieren, da musste ich mich entscheiden. Ich stelle, wenn es irgendwie geht, keine Anträge mehr. Weil es immer heißen könnte: Mit seiner Präsenz in den Medien nützt er die Situation für sein eigenes Fach aus. Es ist tatsächlich notwendig, wenn man so viel Öffentlichkeitsarbeit betreibt wie ich, sich aus allem herauszuhalten, ansonsten könnten die eigenen Studenten darunter leiden, dass der Chef so häufig im Fernsehen zu sehen ist. Das ist bereits einige Male vorgekommen. Das heißt, es war hier tatsächlich notwendig, zu verzichten. Abgesehen davon, dass auch mein Tag nur 24 Stunden hat. Obwohl gerade die „Eier legende Wollmilchsau“, die gern von den Universitäten verlangt wird, immer wieder aufgefordert wird: Du bist gut in der Forschung, du bist hervorragend in der Lehre, jetzt mach doch bitte noch etwas Interdisziplinäres in der Lehre, am besten in der Öffentlichkeitsarbeit. Das wird im universitären Alltag ständig gefordert, jedoch kaum gewürdigt. Der interdisziplinäre Dialog wird auch dadurch erschwert, dass man sich zuvor spezialisieren muss, z.B. um eine Professur zu erreichen. Spezialisieren heißt aber, sich entscheiden. Und diese Entscheidung ist eine Verzichts­ erklärung, weil man sich reduziert auf einen bestimmten Bereich. Auch gilt es, sorgsam zu sein, damit man innerhalb der wissenschaftlichen Community als Forscher immer noch wahrgenommen wird. Mit dem Pfund, das du an öffentlicher Präsenz erreicht hast, darfst du dich nicht in die Wissenschaft zurück begeben. Schuster bleib bei deinem Leisten. Wie heißt es in der katholischen Kirche: Auf meine Demut bin ich besonders stolz, da kann mich niemand übertreffen. Das ist eine ganz wichtige Einschränkung, auf die man auf den ersten Blick vielleicht nicht kommt. Ein Beispiel für ein interdisziplinäres Forschungsprojekt ist die Astro­bio­ logie. Es geht um die Frage, ob es noch andere Lebensformen im Uni­ver­

34

Harald Lesch

sum gibt oder nur jene, die wir auf der Erde kennen. Mit anderen Worten: Sind wir allein im Universum? Das werden wir so ohne weiteres nicht feststellen können, aber vielleicht können wir feststellen, dass es auf einem anderen Planeten Indikatoren für einen biochemischen Prozess wie zum Beispiel die Photosynthese gibt. Auch das werden wir nicht so schnell feststellen können. Zumindest aber nach Planeten suchen, um andere Sterne herum, das können wir gut. Es sind ca. 1.000 gesichert und es gibt zur Zeit weitere 5.000-6.000 Kandidaten; während wir hier diskutieren, werden pro Stunde 2-3 Kandidaten ausgemacht. Die Physik hat sich zusammengetan mit der Biologie und der Chemie um nachzuschauen, was die naturwissenschaftlichen Grundlagen für diese Antwort sind. Das heißt, hier kommen auf einmal Wissenschaftler aus ganz unterschiedlichen Fachbereichen zusammen – nicht nur Naturwissenschaftler, auch Kulturwissenschaftler – die ganz unterschiedliche Sprachen verwenden und darüber sprechen, was die Voraussetzungen dafür sind, dass ein Planet sich so entwickelt, wie er sich entwickelt. Sie tun dies zunächst aus Neugier. Das ist überhaupt die Voraussetzung für interdisziplinäre Kom­mu­ni­ kation: Neugier. Warum machen die anderen nicht das, was ich mache, und wenn sie etwas anderes machen, was machen sie wie und warum und was und wo. Diese Art von Neugier ist tatsächlich die Voraussetzung dafür, dass man damit anfängt, sich zum Beispiel auf eine Tagung wie diese zu begeben und zu hören, was andere tun. Der Österreichische Wissenschaftstag ist ein Paradebeispiel für eine interdisziplinäre Plattform, wo Wissenschaftlerinnen und Wissenschaftler zusammen kommen, die sich möglicherweise ansonsten nicht treffen würden, und die wenigsten von uns gehen da hin. Die wenigsten in den Wissenschaften neigen dazu, ihre Zeit zu nutzen, um einmal eine Tagung zu besuchen, wo Kollegen sind, die ganz etwas anderes machen. Auf diese Weise bin ich aber in diesen interdisziplinären Strudel hineingeraten. Unter anderem aus Frust darüber, dass eine Berufung an eine andere Universität als die Ludwig-Maximilians-Universität München (LMU) nicht geklappt hat, bin ich eines Tages auf eine Tagung „Der Mensch und der Kosmos“ auf einem Schloss in Franken gefahren. Nach meinem Vortrag sagte ein Herr zu mir: Ich bin ganz in ihrer Nähe, an der Hochschule für Philosophie, in der Kaulbachstraße. Ich erzähle das nur deshalb, weil es erklärt, weshalb Interdisziplinarität manchmal auch raum-zeitliche Gründe hat. In der Luftlinie ist die Hochschule für Philosophie von der Physik nur 150 Meter entfernt. Wenn man den richtigen Schlüssel hat, kann man durch den Garten der Ludwigskirche hinüber gehen. Schlussendlich haben wir festgestellt: Er ist Philosoph und Biologe an der Hochschule für Philosophie der

Erfolgreich interdisziplinär kommunizieren

35

Jesuiten, also SJ, „Schlaue Jungs“. Wir fingen an, gemeinsam Seminare über Selbstorganisation zu machen. Und dann kam heraus, dass ich Protestant bin – für die Jesuiten kein Problem, ich bin der Quotenketzer an der Hochschule für Philosophie. Wie man weiß, wurden die Jesuiten gegründet, um den Protestantismus zurückzudrängen! Daraus hat sich eine sehr enge Zusammenarbeit ergeben. Und das geht nur, weil die Fakultät für Physik an der LMU sich entschlossen hat, mir die Möglichkeit zu geben, die Hälfte meines Lehrdeputats in Philosophie abzuleisten. Weil es einen enormen Druck auf die Fakultäten der LMU und der TU München gab, Alleinstellungsmerkmale zu definieren, ansonsten hätte man unter Umständen zusammengelegt. Ein wunderbares Beispiel für ein Alleinstellungsmerkmal der Physik ist: Wir sind die mit der Sternwarte. Ein anderes Merkmal: Wir haben einen Professor, der Physik und Philosophie unterrichtet. Für die Physikstudenten ganz wichtig, denn sie haben ein Neben­ fach damit zur Verfügung, das sie natürlich auch an der TU wählen könnten, aber da gibt es keinen Physiker, der Philosophie unterrichtet. So ergibt sich für alle Beteiligten eine Win-Win-Situation und wir haben pro Semester zwischen 20 und 30 Physikstudenten, die Philosophie im Nebenfach studieren. Das ist außerordentlich wichtig, weil Studierende anfangen darüber nachzudenken, was sie eigentlich tun, wenn sie eine Wissenschaft wie Physik betreiben. Da wird es interessant, weil es weggeht von der Frage der Wissenschaft als interessante Wissenschaft, hin zu den relevanten Fragen: Was soll ich tun, woher kommen die Gründe für unser Handeln? Das sind dann auch die Gründe für eine Vorlesung wie „Das Anthropozän“: dass der Mensch die Welt verändert hat. Eine der interdisziplinärsten Vorlesungen, eines der interdisziplinärsten Projekte, die man sich vorstellen kann. Es beginnt damit, dass der Mensch im Kosmos erscheint, also eine große Anthropologie, es geht weiter über die Physik des Klimawandels zur Frage: Was haben wir eigentlich angerichtet? Täter und Opfer – wann haben wir das gemacht, wie haben wir das gemacht, und natürlich: Wie sollen wir uns in Zukunft entscheiden? Hier kommen alle Naturwissenschaften zum Tragen. Und wenn jemand eine solche Vorlesung im Rahmen der Philosophieausbildung hört, dann sieht er sofort, wie Philosophie als Instrument zu benutzen ist. Habe Mut, dich des eigenen Verstandes zu bedienen, lass dich nicht veräppeln, auch nicht von einem hysterischen Medium wie dem Internet, auf keinen Fall und unter keinen Umständen. Hier oben, mit der Hutgröße 59 bis 60, das ist der Erkenntnisapparat, auf den du dich verlassen kannst. Der Zweifel nicht als Gemütszustand, sondern als Instrument der Vernunft. Das versuche ich den Studierenden beizubringen, und natürlich zwischendurch auch einmal eine

36

Harald Lesch

Vorlesung zu halten, wo ich sage: Herrschaften, ist das nicht eine unglaublich starke Wissenschaft, ist es nicht großartig, was wir alles erklären können. Wir beginnen mit dem Anfang des Universums und können dazwischen alles Mögliche verstehen, wie die Elemente entstanden sind, wie die Strukturen im Universum entstanden sind etc. Ist das nicht bemerkenswert. Warum ist das so, warum funktioniert das Verfahren in der Physik so stark? Und dann kommt man darauf: Dieses Verfahren hat auch seine Grenzen, denn es handelt von der Hypothesenüberprüfung, von der Überprüfung empirischer Hypothesen durch den kritischen Rationalisten, und das sind wir natürlich als Naturwissenschaftler. Es heißt, empirische Hypothesen müssen an der Erfahrung scheitern können. Man muss sie testen können, man muss Beobachtungen, Experimente machen können. Dann fange ich an, mit den Studenten zu klären: Was ist ein Experiment? Etwas das im Physikstudium überhaupt nicht behandelt wird, es wird einfach gemacht. Man kommt in den Physikhörsaal hinein und sofort gibt es eine Luftkissenbahn, werden Dinge übereinander geschossen, werden Experimente gemacht. Aber was das eigentlich ist, ein Experiment, im Vergleich zur Beobachtung, das wird nicht thematisiert. Warum auch. Es kommt ja genau das heraus, was wir schon immer gedacht haben. Und dann kommt noch die Mathematik dazu – da kann uns dann gar nichts mehr passieren. Strukturwissenschaften mit Naturwissenschaften – und das Ganze mit einem durchaus weltanschaulichen Hintergrund: Was soll ich tun? Die Frage, was Mensch und Natur miteinander zu tun haben, ist für viele Studenten eine völlig neue Betrachtung. Dass es verschiedene Bereiche gibt, wie z.B. in der Natur, das wird überall unterrichtet, das ist völlig klar: Da gibt es die verschiedenen Sphären, es gibt die Lithosphäre, das ist der Boden unter unseren Füßen, die Hydrosphäre, das ist alles was fließt, die Kryosphäre, das Eis, die Biosphäre, die Atmosphäre und so weiter. Dagegen steht all das, was wir Menschen anrichten: Das ist die Anthroposphäre, das sind wir mit Verkehr, Wirtschaft, Bevölkerung, Werten, Einstellungen, sozialen Orga­ni­sationen und so weiter. Auf einmal wird Naturwissenschaft zu einer Handlungswissenschaft, zu der Wissenschaft, die allen unseren Handlungen zugrunde liegt. Es ist geradezu ein Skandal, wenn wir als Gesellschaft, die ihren Wohl­ stand den Naturwissenschaften verdankt, so gut wie keine naturwissenschaftlichen Studierenden haben. Das sind die tragenden Wissenschaften dieser Gesellschaft, das sind jene, die treiben. Moment, da gibt es doch auch noch andere Wissenschaften. Stimmt, aber offenbar erzeugen wir in den Schulen, zumindest in Deutschland, nicht unbedingt das Gefühl, dass dieje-

Erfolgreich interdisziplinär kommunizieren

37

nigen, die prometheusartig nach vorwärts gehen, die Tragfähigen sind, sondern es wird sehr stark auf die Epimetheus-Komponente zugegangen, diejenigen, die zurückblicken, die reinblicken. Die Sozialwissenschaften, zum Beispiel, haben einen Studierendenboom, der sich zumindest aus dem Image der Wirtschafts- und Sozialwissenschaften nicht begründen lässt. Die Schüler sind nicht unbedingt scharf darauf, aber die Studierendenzahlen sind überirdisch. Kollegen und Kolleginnen aus diesen Fächern wissen gar nicht, wohin damit. Ein Jahrgang reicht für die nächsten 20 Jahre, so viele empirische Sozialforscher können wir gar nicht gebrauchen. Wieso gelingt es nicht, das klar zu machen, dass es für das jetzige Leben, sogar für das Überleben unserer Gesellschaft, wichtig ist, möglichst viele Menschen mit naturwissenschaftlichen Inhalten in Kontakt zu bringen, und auch mit den Möglichkeiten, naturwissenschaftliche Inhalte in Technologie umzusetzen, und mit den Gefahren, die damit zusammenhängen? Wie soll eine Gesellschaft in Zukunft entscheiden, was wir tun sollen? In Deutschland hat eine Physikerin vor eineinhalb Jahren die Energiewende ausgerufen. Wir haben eine Kanzlerin, die Physikerin ist, und zurzeit wird in Deutschland die Energiewende zernörgelt. Das können wir gut: nörgeln. Der Parameter ist sehr hoch und niemand kann richtig erklären, was damit gemeint ist. Ein typischer Fall dafür, wie eine Gesellschaft vor eine Entscheidung gestellt wird, auf die sie nicht vorbereitet ist. Wir sind alle froh, wenn der Strom aus der Steckdose kommt. Man sieht auch, wie schlecht die Bürger informiert sind, wenn es z.B. darum geht, was die Kilowattstunde kostet. Es gibt keine einzige öffentliche Diskussion in Deutschland darüber, dass es eigentlich der einzige vernünftige Weg ist, uns von fossilen Ressourcen unabhängig zu machen und damit gleichzeitig Technologien anzutreiben, die uns auch in Zukunft einen gewissen Wohlstand in Mitteleuropa garantieren können und damit gleichzeitig dem Klima etwas Gutes zu tun. Es gibt keine Alternative, aber das wird nicht diskutiert, es werden Kleinigkeiten diskutiert. Das geht gut, denn die Öffentlichkeit ist sehr gut manipulierbar. Hätten wir eine aufgeklärte Öffentlichkeit, die weiß, wovon die Rede ist, was wir tun und wie wir es tun, dann hätte das politische Establishment, zumindest in Deutschland, nicht die Möglichkeit, uns derart an der Nase herum zu führen. Und darum geht es. Bei interdisziplinärer Kommunikation geht es tatsächlich um Aufklärung im allerweitesten Sinne. Also nicht um die Konzentration auf irgendetwas Kleines, sondern darum, eine große Linie zu ziehen. Ich zitiere einen anderen Bundeskanzler, ein großer Raucher vor und nach dem Herrn: „Wer Visionen hat, möge zum Arzt gehen“. Es ist schon länger her, dass er das gesagt hat,

38

Harald Lesch

aber es ist genau unser Problem: Das, was wir in den einzelnen Fächern machen, ist wenig visionär. Interdisziplinäre Kommunikation kann Visionen herstellen, weil sie anfangen kann, verschiedene Bereiche, zum Beispiel in der Universität, so zusammenzubringen, dass es für die Studierenden wirklich zu einem Weltbild wird, nicht nur zu einem Bild von der Natur – das Naturbild, das die Naturwissenschaften machen können. Ein Weltbild speist sich aus Begriffen wie Werte und Einstellungen. Wie deuten wir das, was in der Welt passiert, über die Gesetze hinaus? Wir müssen also mehr tun, als nur die von uns formulierten Gesetze deuten. Wie deuten wir das, wie deuten wir unsere eigenen Handlungen? Da kommt dann wieder der Physiker durch: Es fängt unten an, wie üblich, bei den Quarks, und geht hinauf bis zu den Kulturwissenschaften. Warum? Weil die untersuchen, wie zum Beispiel Lebewesen, wie der Homo sapiens, wenn sie über genügend Reflexionsvermögen verfügen, auf einmal die Natur manipulieren, von der sie abhängig sind, und sich dann wundern, dass die veränderte Natur auf sie zurückwirkt. Das ist nichts anderes als das Anthropozän. Ein weiterer typisch interdisziplinärer Begriff: Evolution. Damit meine ich nicht den biologischen Evolutionsbegriff, sondern einen ganz allgemeinen Evolutionsbegriff. Wenn es z.B. darum geht, ob wir allein im Universum sind. Wenn es stimmt, dass es eine allgemeine kosmische Evolution gibt, dann heißt das, dass unser Platz auf der Welt nichts Besonderes ist, die Naturgesetze, die wir auf der Erde kennen, gelten überall im Universum. Das ist eine Hypothese. Wenn das aber so sein sollte und sich das Universum entwickelt hat, dann können wir nachschauen, welchen Evolutionsbegriff wir auf alles, was sich im Universum darstellt, anwenden können. Und damit haben wir die Möglichkeit, die Natur als ein großes Ganzes zu behandeln. Die Natur ist das, was sich selbst macht. Wir kommen auf die ganz einfache Definition von Aristoteles zurück: Sie macht sich selbst, sie kann sich sogar selbst reproduzieren. Artefakte können das im Allgemeinen nicht. Und diese Natur ist eins. Es gibt keine Harry Potter-Inseln im Universum, wo andere Gesetze herrschen als bei uns. Und der Mensch mit seiner Evolution, mit seiner kulturellen Evolution steht mitten drin. Und schon haben wir die Brücke von den Naturwissenschaften zu den Kultur- und Geisteswissenschaften geschlagen. Zu einem interdisziplinären Gespräch muss man sich Zeit nehmen. Da gibt es zwei Möglichkeiten: Sie können sich mit Benjamin Franklin an dem Ausspruch „Time is money“ orientieren. Dann müssen sie sich nicht nur Zeit nehmen, sondern offenbar auch Geld. Obwohl es schwierig ist, in den heutigen Zeiten davon zu sprechen, denn die Zeit wird immer weniger, das

Erfolgreich interdisziplinär kommunizieren

39

Geld wird immer mehr. Irgendetwas stimmt da nicht. Im Übrigen heißt es, es sei ein Missverständnis gewesen. Benjamin Franklin habe gesagt: „Time is honey“, jemand habe das falsch verstanden. So ist das mit der Benutzung von Sprache. Jetzt habe ich verschiedene Varianten aufgezeigt. Wenn man es ganz kurz machen will, sieht eine Anthropozän-Vorlesung so aus: Am Anfang haben wir Werkzeuge gemacht, waren Jäger und Sammler, dann waren wir Bauern, und seitdem wird es immer schlimmer. Jetzt könnten wir noch ein Stichwort hinzufügen: Digitalisierung, dann wird es noch schlimmer. Es gab unlängst die Meldung, zwischen London und New York sei ein neues Transatlantikkabel verlegt worden, 6.021 km lang, Kosten 300 Millionen Dollar; es wird die Handelszeit zwischen den beiden Börsen um 6 Millisekunden verringern. 6 Millisekunden: Wenn sie einmal mit den Augen zwinkern, sind 300 Millisekunden vergangen. Von 65 Millisekunden auf 59 Millisekunden herunter, das kann man ausrechnen – das tun Physiker gern – Weg durch Zeit usw. 102.000 km pro Sekunde, das ist 1/3 Lichtgeschwindigkeit. Das heißt, die Börsen dieser beiden Städte handeln mit 1/3 Lichtgeschwindigkeit. Wenn sie in irgendeinem öffentlich-rechtlichen oder sonstigen Sender jemanden mit einem Mikrophon sehen, der über die Psychologie des Anlegers berichtet, geht es immer nur um „das Mäuschen“; das was sich tatsächlich in dieser digitalen Welt abspielt, „der Elefant“, darüber wird nicht berichtet. Ob es nun die Geschäfte sind, die over the counter gehen, die keiner mehr kontrollieren kann, oder das so genannte Flash Trading: Das ist alles so schnell geworden, dass die Gesellschaft es inzwischen völlig aus der Hand gegeben hat. Irgendjemand macht irgendwelche Geschäfte und auf diese Weise entsteht auf der Welt ein Kapital von 951 Billionen Dollar an Devisengeschäften, 655 Billionen Dollar in Derivaten. Das Weltbruttosozialprodukt beträgt nur knapp 90 Billionen Dollar, dazu gibt es auch ca. 90 Billionen Aktien und Fonds. Den Rest, nämlich 1,5 Billiarden Dollar, hat die digitale Welt mit 1/3 Lichtgeschwindigkeit erzeugt. Da zeigt sich, wie schlecht es ist, wenn Bürger keine ordentliche philosophische Ausbildung haben. Man hätte längst fordern müssen, von Lichtgeschwindigkeit wieder auf Schallgeschwindigkeit herunterzufahren. Der Finanzmarkt wäre viel stabiler und wir hätten viel weniger Probleme und möglicherweise nicht so hoch verschuldete Länder in Europa. Das heißt, es ist möglich, im interdisziplinären Ansatz sehr weit zu greifen und vor allem – für die Lehre halte ich das für extrem wichtig – immer sehr aktuell zu werden. Was gerade passiert, zusammen zu bringen mit dem, wovon diese Wissenschaften handeln. User, du bist Benutzer von

40

Harald Lesch

Wissenschaft, und diese lässt sich umso besser benutzen, je mehr du von den Wissenschaften weißt. Kann die Physik die Welt erklären? Es geht darum, die Grenzen der physikalischen Beschreibungsweise herauszufinden. Das ist kein Thema der Physik, es ist ein Thema der Philosophie. Man kann aber daraus ein physikalisches Thema machen. Dann kommt man zum Beispiel zu einer Master­arbeit, bei der es darum geht, warum die Relativitätstheorie nicht Theorie von der absoluten Lichtgeschwindigkeit heißt. Die Studierenden kommen darauf, dass die Physik als eine von ganz wenigen Wissenschaften von absoluten Größen handelt, obwohl sie immer behauptet, es sei alles nur vor­übergehend. Kenntnis sei immer nur transient, es könnte morgen schon etwas ganz anderes passieren. Kein Mensch in der Physik glaubt, dass morgen schon etwas ganz anderes passiert. Wenn etwas anderes passiert, etwas Neues, dann sind das leichte Anomalien, die wir irgendwie in unsere jetzigen Theorien einbauen werden. Umfassungstheorie. Wir haben keine Kopernikanische Revolution mehr vor uns, die Quantenmechanik ist ein Kontinent, der entdeckt ist, ebenso die Relativitätstheorie. Neue Kontinente auf dem Planeten der Erkenntnis sind in der Physik derzeit nicht zu finden, selbst im 27 km großen Beschleuniger in der Schweiz – teilweise auf französischem Gebiet, aber trotzdem Schweizer Verwaltungsbereich. Selbst dort tut sich nichts wirklich Neues. Das HiggsTeilchen ist entdeckt. Das kann man sich gut merken: 3x42. Wer Douglas Adams gelesen hat weiß, dass 42 die Antwort auf alle Fragen des Universums ist, und 3 ist die Trinität. Die Verbindung zwischen Kosmologie und Theologie ist hier beim Higgs-Teilchen unmittelbar zu finden. Das HiggsTeilchen hat eine hohe Masse von 126 Giga-Elektronenvolt, also 3x42, das muss richtig sein, ansonsten kann man es sich nicht mehr vorstellen. Quantenmechanik ist zum Beispiel auch zuständig für diesen roten Punkt: Laserlicht, Light Amplification by Stimulated Emission of Radiation, Lichtverstärkung durch stimulierte Emission von Strahlung. Auf Knopfdruck werden Billiarden von Elektroden dazu gezwungen, im gleichen Moment das Gleiche zu tun, von einem Energieniveau auf das nächste zu springen. Das muss so sein, es geht gar nicht anders. Und dass diese Quantenmechanik für den Zustand der ganzen Welt zuständig ist, ist wie man hier sieht, der Tag aus dem Gestern, dass alles so geworden ist, wie es geworden ist. Wie kann eine Kreatur, die vielleicht seit 100.000 Jahren auf diesem Planeten vor sich hin kriecht und fliegt und seit 400 Jahren Natur­wissen­ schaf­ten betreibt, sich zu solchen Aussagen versteigen, nur aus einem Erkennt­nis­apparat heraus? Weil es eine Hypothese ist, die sich bis jetzt in einer Art und Weise bestätigt hat, dass man es nicht glauben kann. Wir

Erfolgreich interdisziplinär kommunizieren

41

könnten keine Astronomie betreiben, wenn das nicht so wäre. Damit werden aber auch Fragen angesprochen, von denen Kant bereits in der Vorrede zur Reinen Vernunft gesagt hat, die Vernunft sei eine Art (in unsere heutige Umgangssprache übersetzt) Overengineering. Beim Automobil nennt man Overengineering all das, was man nicht braucht. Es gibt Premiummodelle, die mit allem Möglichen ausgerüstet sind, und so könnte man meinen, dass unser Erkenntnisapparat auch mit Overengineering zu kämpfen hat, weil er viel mehr kann, als er eigentlich muss, und sich daraus auch das Problem ergibt, dass er viel mehr kann, als er unter Umständen soll. Denn das, was er schon angerichtet hat, macht ihm erhebliche Probleme. Und er kann sich Fragen stellen, von denen er im Vorhinein weiß, dass er niemals eine Antwort erhalten wird. Und trotzdem quält er sich zum Beispiel mit der Frage: Was war vor dem Urknall? Aristoteles hat den unbewegten Erstbeweger eingeführt, also die Erst­ ursache, die selber keine Ursache hat. Heutzutage kann man natürlich sagen, man könne dazu gar nichts sagen, das könnte irgendetwas gewesen sein. Was wir kosmologisch machen, ist immer nur Innenarchitektur des Kosmos, es gibt weder ein Außerhalb noch ein Davor. Und es geht noch weiter: Die interessantere Frage ist: Wie kommt es, dass sich in einem Kosmos wie dem unseren so etwas wie wir gebildet hat? Wenn die Physiker Recht haben mit ihrer Aussage, das Universum expandiere, dann gibt es zwei Rätsel: 1. Wieso finde ich immer seltener einen Parkplatz? Und 2. Wieso gibt es überhaupt etwas, das sich verdichten konnte zu einer Galaxie, zu einem Stern, zu einem Planeten? Woher kommt das? Woher kommt das Prinzip, das dahinter steckt? Das ist wieder die große Evolutionsgeschichte vom Urknall bis zum Gehirn. Und das sind interdisziplinäre Kommunikationsversuche, bei denen Studierende und Angehörige aus allen möglichen Fächern dazu beitragen, dieses Bild zu entwerfen. Interdisziplinäre Kommunikation ist die Erstellung unseres Bildes von der Welt. Nicht nur von irgendeinem Teilbereich. Das ist die Plattform, wo alle beitragen und fragen können: Wie sehen wir die Welt? Man kann diese Geschichte vom Urknall über die Elementarteilchen, über die Hinter­grund­ strahlung zu den Galaxien und den Sternen entwickeln, vom Menschen und seiner Sprachentwicklung, der gesellschaftlichen Entwicklung, der kulturellen Entwicklung bis hin zur Moral. Die kommt zu guter Letzt. Erst kommt der Urknall und dann kommt die Moral. Die Physiker sind natürlich sofort dabei mit der Quantentheorie und der Relativitätstheorie. Dann kommen die Geowissenschaften und die Chemie, die Molekularbiologie, die Biologie, die Neurowissenschaften, die Kom­

42

Harald Lesch

muni­kations­wissenschaften, die Kulturwissenschaften, Soziobiologie und so weiter. Im gesamten interdisziplinären Dialog sind alle Themen wichtig für eine verpflichtende Ringvorlesung. Für Studierende im 1. Semester wäre so eine Vorlesung absolut notwendig. In Toronto, zum Beispiel, werden jene für die großen Vorlesungen ausgesucht, die am besten vortragen können. Warum? Irgendwer ist einmal auf den Gedanken gekommen, es könnte jemand im Auditorium sitzen, der später einmal in einem Ministerium arbeitet und sich dann an die beste Vorlesung während des Studiums erinnert: Das war die Überblicksvorlesung im 1. Semester. Das habe ich mitgenommen aus Kanada: Für die Orientierungsphase im 1. Semester ist es absolut notwendig eine Vorlesung zu haben, die nicht darauf verweist: das werden sie dann im n-ten Semester hören, sondern wo wirklich erklärt wird: Das ist die Position, wenn ich als Physiker hier stehe, oder als Philosoph, wenn ich dieses Fach unterrichte; wir machen das aus diesen und jenen Gründen und glauben deshalb an diese und jene Verfahren. Das ist für Studierende sehr wichtig. Das ist zumindest der Eindruck, den ich und einige Kollegen an der LMU haben. Eine große Vorlesung anzubieten und einen interdisziplinären Dialog zu betreiben, soweit es nur geht. Durch die Veränderungen an den Universitäten durch den Bologna Prozess hat sich nicht nur für die Studierenden viel geändert, sondern auch für die Professorinnen und Professoren. Ein Wust an Formalitäten, aber vor allem auch der unsinnige Druck ist entstanden, jede Veranstaltung mit einem Leistungsnachweis abzuschließen – schon im 1. Semester benotete Leis­tungs­ nachweise, die nachher im Zeugnis erscheinen, müssen erbracht werden. Ich kann nur sagen: Wir machen die Prüfungsordnung, sie könnte auch ganz anders aussehen. Seitdem wird zum Beispiel der Aspekt, dass Studierende nicht nur an die Universität kommen, um ausgebildet zu werden, sondern auch, um sich zu bilden, vielleicht auch, um nochmals eine Phase der Persönlichkeitsbildung durchzumachen, völlig ausgeblendet. Für mich gehört zur Bildung dazu, dass man weiß, woher man kommt. Und das nicht nur im familiären oder historischen Sinn sondern auch im Sinn von: Woher kommt das Phänomen Leben auf unserem Planeten, woher kommt der Mensch, was hat er gemacht? Der historische Ansatz ist für die interdisziplinäre Kommunikation ein sehr fruchtbarer, und gerade dann, wenn man versucht, Naturwissenschaftler mit Geisteswissenschaftlern an einen Tisch zu bringen, wird es interessant historisch, weil Geschichte die zentrale Geisteswissenschaft ist, die normalerweise in den Naturwissenschaften gar keine Rolle spielt. Naturwissenschaften versuchen, möglichst zeitlose Gebilde zu erzeugen, indem sie Experimente

Erfolgreich interdisziplinär kommunizieren

43

machen, die zu jeder Zeit auf unserem Planeten reproduzierbare Ergebnisse liefern. Die interessanten Fragen sind jedoch die historischen Fragen: Woher kommt das Universum, woher kommt das Leben, woher kommt irgendwas, wie ist das gelaufen? Das sind einmalige Abläufe, die man nicht wiederholen kann. Man kann immer nur Schnappschüsse davon wiederholen und schauen, ob das, was man mit den empirischen Hypothesen über diese Phase der kosmischen Evolution sagen kann, mit dem übereinstimmt, was die Theorien vorhersagen. Mehr können wir nicht tun. Selbst für die Öffentlichkeitsarbeit ist der historische Ansatz ein extrem fruchtbarer. Immer wieder mit Fragen zu kommen, wie ist das passiert, damit kann man unglaublich viele interessierte Menschen abholen. Weil wir alle schon etwas davon gehört haben. Wir haben es nur vergessen oder verdrängt. Man kann zum Beispiel die Rolle von quantenmechanischen Prozessen erörtern. Wenn der Recht hatte 1865, dass Ladungen, die unterschiedlich sind, sich anziehen, dann kann doch etwas nicht stimmen mit dem Atommodell. Im Atom sind doch die Atomkerne positiv und die Elektroden negativ, die müssen sich doch anziehen, da stimmt doch etwas nicht, das müsste doch alles zusammenfallen. Man kann praktisch vor den Gehirnen des Audi­ to­riums entwickeln, vor welchen historischen Problemen man stand, die man dann versucht hat, mit der Straßenverkehrsordnung der Materie, der Quantenmechanik, zu lösen. Man kann sich dann auch die Frage stellen, wie wird es in Zukunft werden? Eine ganz wichtige Frage. Man kann sich auch lustig machen, zum Beispiel über die Engländer. Vor 20.000 Jahren waren Großbritannien und der Kontinent noch fest miteinander verbunden, da hätten die Briten vielleicht ein anderes Gesetzbuch, wer weiß. Man kann diese Dinge immer wieder auf das menschliche Maß bringen, auch dann, wenn sie sehr weit von unserer direkten Anschauung entfernt sind. Wer weiß schon, dass ein Atomkern positiv ist oder nicht, außer vielleicht wenn man einmal eine Kernspintomographie machen musste, ansonsten haben wir doch scheinbar mit diesen merkwürdigen Welten nichts zu tun. Und doch haben wir etwas damit zu tun, weil 42% des Weltbruttosozialprodukts mit Quantenmechanik erworben wird. Man sollte wissen, womit da gearbeitet wird. Am Ende landet man bei dem Weltbild eines wissenschaftlichen Reduk­ tionisten. Für den oder die muss es ja so sein, dass selbst psychologische oder soziologische Phänomene im Zweifel auf eine unmittelbare oder eine letzte Theorie zurückzuführen sind – die Quantengravitation, die Theorie für alles, die große Weltformel, von der immer wieder gesprochen wird in entsprechend dicken Sachbüchern. Immer wieder ist auch davon die Rede, ob das

44

Harald Lesch

jetzt ein elegantes Universum sei oder das Universum einer Nussschale. Diese wunderbaren Ideen über 11 Dimensionen, die irgendwo zusammengerollt sind, oder Paralleluniversen, Multiversen ..., und schon sind wir im esoterischen Bereich, vor dem ich die Studierenden immer warne. Seid vorsichtig, habt Mut, euch eures eigenen Verstandes zu bedienen. Was da an den Rändern der Wissenschaften passiert, ist hoch gefährlich. Wenn wir anfangen, uns in unserer theoretischen Forschung auf Paralleluniversen zu konzentrieren, von denen wir im vorhinein wissen, wir können überhaupt keine Experimente damit machen, dann macht das keinen Sinn. Das ist zwar hoch interessante Mathematik, aber wenn da nichts zu holen ist, dann sollte man die Finger davon lassen. Dieser Ansatz, zu glauben, man könnte Psychologie am Ende doch in irgend eine Art relativistische oder nichtrelativistische Quantenmechanik übersetzen, davor warne ich. Ich weiß, dass es im 4. oder 5. Semester in der Physikausbildung für junge Männer die Tendenz gibt, Beziehungsprobleme mit ihrer Lebensabschnittspartnerin in Form von nichtlinearen Gleichungen lösen zu wollen – und bin immer wieder froh darüber, dass die Damen früh genug die Reißleine ziehen. Unsere essentiellen Fragen – von Wittgenstein war die Rede – lassen sich nicht durch Naturwissenschaften beantworten. Er hat es auf den Punkt gebracht: Selbst wenn alle naturwissenschaftlichen Fragen beantwortet wären, wäre nicht eine einzige essentielle Frage unseres Lebens davon betroffen. Das heißt, wenn wir unsere Funktion als Professoren und Professorinnen an der Universität ernst nehmen, dann gibt es nur eine Möglichkeit unsere Aufgabe gut zu machen, nämlich interdisziplinär zu kommunizieren.

Ulrich Ammon

Wissenschaftssprachen im Wandel der Zeiten Die grossen Wissenschaftssprachen im Überblick Zur Eingrenzung des Themas, zu dem ich eingeladen wurde, beschränke ich mich auf die Stellung und Funktion von Wissenschaftssprachen – den Umfang und die geographische sowie fachliche Ausrichtung ihres Gebrauchs – und verzichte weitgehend auf Ausführungen zu ihrer Struktur im eigentlich linguistischen Sinn. Dabei befasse ich mich mehr mit Wissenschaft im engeren Verständnis und weniger mit Technologie und konzentriere mich auf die zur jeweiligen Zeit vorherrschenden Wissenschaftssprachen. Wissenschaft verstehe ich in diesem Kontext in der Weise, dass ihr Interesse sich hauptsächlich auf die Optimierung von Wissen richtet – im Gegensatz zum in der Technologie vorherrschenden Interesse an der Optimierung menschlichen Handelns (Erleichterung oder Beschleunigung von Arbeitsvorgängen etc.).1 In der Beschränkung auf Sprachen mit hauptsächlich wissenschaftlicher Funktion schließe ich auch solche Sprachen aus meiner Darstellung aus, die in erster Linie religiösen Zwecken dienten oder dienen. Als vorherrschende Wissenschaftssprachen verstehe ich vor allem diejenigen, die über ihre Muttersprachgemeinschaft hinaus für die Kommunikation von und über Wissenschaft gebraucht werden, tendenziell im gesamten Kommunikationsraum der jeweiligen international kommunizierenden Gemeinschaft von Wissenschaftlern.2 Aufgrund dieser Spezifizierungen kommen vor allem viele frühe Schrift­ sprachen, mit denen sich die Altertumswissenschaften befassen, für meine Ausführungen nicht in Betracht, z.B. Sumerisch, Aramäisch oder AltTamilisch.3 Innerhalb des so begrenzten Horizonts bleiben die folgen1 Vgl. z.B. Derek de Solla Price, The Difference Between Science and Technology. In: Derek de Solla Price, Science Since Babylon. Enlarged Ed., New Haven, London 1975, 117-135. 2 Siehe zum Begriff ‘internationale Sprache’ Ulrich Ammon, Die internationale Stellung der deutschen Sprache, Berlin, New York 1991, 9-15. 3 Siehe dazu z.B. Roger D. Woodard (Hg.), The Cambridge Encyclopedia of the World’s Ancient Languages, Cambridge 2004; auch Henry und Renée Kahane, Decline and Survival of Western Prestige Languages. In: Language 55 (1979), 183-198.

46

Ulrich Ammon

den Sprachen, von denen ich die prominentesten hervorhebe: Sanskrit, Chinesisch, klassisches Griechisch, Latein, klassisches Arabisch, Italienisch, Spanisch, Französisch, Niederländisch, Deutsch, Russisch, Japanisch und Englisch. Im Weiteren werde ich mein Hauptaugenmerk auf die durch Kursivsatz hervorgehobenen Sprachen richten und die anderen eher en passant behandeln. Einige davon, die im Weiteren nicht mehr oder kaum noch zur Sprache kommen, seien hier zumindest kurz als große Wissen­schafts­ sprachen im oben explizierten Sinn charakterisiert. Im Sanskrit Indiens sind nicht nur die berühmten religiös ausgerichteten Veden verfasst, sondern auch die umfangreiche und systematische Grammatik dieser alten indoeuropäischen Sprache von Panini (5. oder 4. Jh. v.u.Z.), die noch bis in die neuere Sprachwissenschaft herein wirkt, sowie bedeutsame philosophische und mathematische Schriften, vor allem zur Zahlen- und zur Logarithmentheorie. Die vielleicht berühmteste Erfindung klassischer, in Sanskrit verfasster indischer Wissenschaft ist die Zahl 0 als Grundlage unseres heutigen Zahlensystems.4 Sanskrit fungiert jedoch schon seit dem Mittelalter nicht mehr als große Wissenschaftssprache, und seine historischen Nachfolgersprachen, von denen Hindi die gewichtigste ist, sind als Wissenschaftssprachen im Schatten des in ihrem Heimatland, Indien, in dieser Funktion vorrangigen Englischen verblieben. Was das klassische Arabisch betrifft, so ist Georg Wilhelm Leibniz ein Zeuge des einstigen Ruhms des Arabischen als große Wissenschaftssprache, der diese Sprache den damaligen Deutschen – gemeint sind alle Deutsch­ sprachigen – als Vorbild vor Augen hielt. Seine Ermahnung an sie, ihre eigene, die deutsche Sprache „auszubauen“ (wie Soziolinguisten sagen würden), hebt an wie folgt: „1. Es ist bekandt, daß die Sprach ein Spiegel des Verstandes, und dass die Völcker, wenn Sie den Verstand hoch schwingen, auch zugleich die Sprache wohl ausüben, welches der Griechen, Römer und Araber Beyspiele zeigen.“5 Das Arabische spielte vor allem im Mittelalter auch eine wichtige Rolle als Vermittlersprache indischer und griechischer wissenschaftlicher Errungenschaften an die europäische Wissenschaft. Diese Errungenschaften wurden aus den ursprünglichen Sprachen, Sanskrit und klassischem Griechisch, ins Arabische übersetzt und von dort weiter ins 4 Zur – zugegeben provisorischen – Einführung eignen sich die Stichwörter „Panini (Grammatiker)“, „Indische Philosophie“ und „Indische Mathematik“ in Wikipedia. 5 Gottfried Wilhelm Leibniz, Unvorgreiffliche Gedancken, betreffend die Ausübung und Verbesserung der Teutschen Sprache (entstanden 1697, publiziert 1717). In: Wissenschaftliche Beihefte zur Zeitschrift des Allgemeinen Deutschen Sprachvereins 4/ 30 (1908), 327-356, 327.

Wissenschaftssprachen im Wandel der Zeiten

47

Lateinische. Jedoch haben arabische Philosophen und Mathematiker nicht nur als Vermittler Hervorragendes geleistet, sondern auch als Kommen­ta­ toren, besonders von Aristoteles, und als Weiterentwickler ihrer Vorbilder. Indizien dafür sind unter anderem die Etymologien von Wörtern wie „Algebra“ oder „Algorithmus“ aus dem Arabischen. Zu nennen sind als Philo­sophen und Mathematiker vor allem Al-Farabi (872 – 950), Avicenna (980 – 1037) und Averroës (1126 – 1198). Ein Problem für die Vermittlung arabischer Wissenschaft an die Europäer waren aber offenbar deren lückenhafte Kenntnisse der arabischen Sprache und – vermutlich dadurch bedingt – die teilweise kryptischen Übersetzungen ins Lateinische, an denen die Rezipienten in der Zeit der Renaissance herum rätselten.6 In der Neuzeit verlor das klassische Arabisch seinen Rang als große Wissenschaftssprache und wurde auf religiöse Funktionen im Islam reduziert. Das Neu-Arabische, um dessen Standardisierung die verschiedenen arabischen Staaten noch ringen, spielt als Wissenschaftssprache eine allenfalls lokale Rolle. Das Chinesische war in seiner klassischen Ausprägung einst die wichtigste Wissenschaftssprache in Ostasien, mit Ausstrahlung auch auf Japan. Nach Europa wirkte Chinesisch als Wissenschaftssprache allerdings erst verspätet, in der Neuzeit, vor allem durch Übersetzungen von Jesuiten, die bei ihrer Missionstätigkeit damit in Berührung gekommen waren. Von den deutschen Philosophen war besonders Christian Wolff in seiner Morallehre von Konfuzius und seiner Schule beeinflusst.7 Die schon zuvor nach Europa gebrachten berühmten chinesischen Techniken wie die Herstellung von Papier, Porzellan oder Schießpulver wurden weniger aus sprachlichen Quellen als über Kontakte und Anschauung erlernt. Das moderne Chinesisch, in Form des Mandarin, ist heute eine aufsteigende Wissenschaftssprache, die – wie die internationalen Abstrakt- und Referatendienste ausweisen – mittlerweile in manchen naturwissenschaftlichen Fächern zur weltweit zweithäufigsten Publikationssprache aufgestiegen ist – wobei der Abstand zu Englisch allerdings groß und in absehbarer Zukunft unaufholbar bleibt.8 Anlässlich des Chinesischen möchte ich bereits an dieser Stelle darauf hinweisen, dass die großen Wissenschaftssprachen immer eine wirt6 Leonardo Olschki, Die Literatur der Technik und der angewandten Wissenschaften vom Mittelalter bis zur Renaissance, Heidelberg 1919, 452-457. 7 Siehe z.B. Henrik Jäger, Konfuzius als Katalysator der Aufklärung. In: Frankfurter Allgemeine Zeitung 11. August 2012, Z2. 8 Siehe Ulrich Ammon, Die internationale Stellung der deutschen Sprache (neu, 2. Aufl., Berlin, New York, in Arbeit), Kap. G.3; vgl. auch Abbildung 1 weiter hinten im vorliegenden Text.

48

Ulrich Ammon

schaftlich besonders starke Muttersprachgemeinschaft zur Grundlage hatten. Es ist wohl richtig, dies als eine notwendige, wenn auch nicht hinreichende Bedingung für die Entfaltung von Wissenschaft zu verstehen, ohne die auch keine bedeutende Wissenschaftssprache entstehen kann. Dies gilt auch für die großen westlichen Wissenschaftssprachen, denen ich mich im nächsten Abschnitt zuwende. China, Indien und Arabien gehörten zur Blütezeit ihrer Wissenschaft und Wissenschaftssprachen zu den wirtschaftlich stärksten Sprachgemeinschaften der Welt. Dies gilt insbesondere auch für jenes Imperium, das die westliche Wissenschaftssprache mit der längsten „Lebensdauer“, das Latein, hervorgebracht hat: das Römische Reich.9 Aber auch dessen wissenschaftliches und sprachliches Vorbild, das klassische Griechenland, war – wie sich schon aus seiner weitreichenden Kolonial­ tätigkeit und seinen militärischen Erfolgen schließen lässt – zu seiner Zeit eine wirtschaftliche Großmacht, bis es schließlich von Rom besiegt und annektiert wurde. Ich wende mich nun dieser westlichen Entwicklung zu, von der die heutige weltweite Konstellation der großen Wissenschaftssprachen am nachhaltigsten geprägt ist.

Die Entwicklung im Westen: von zwei unechten Linguae francae10 über eine echte Lingua franca zu internationaler Mehrsprachigkeit Die in der Zwischenüberschrift angedeutete Einteilung der Entwicklung ist nicht die einzig mögliche. Man könnte vor allem wirtschaftliche, gesellschaftliche oder politische Aspekte stärker akzentuieren, z.B. vom Feudalismus zum Kapitalismus oder von der Nationalstaatenbildung zur Globalisierung, um nur Ausschnitte anderer Möglichkeiten anzudeuten. Ich habe mich hier jedoch 9 Siehe dazu und zur Entstehung anderer Wirtschaftsmächte Angus Maddison, Contours of the World Economy, 1-2030 AD. Essays in Macro-Economic History, Oxford 2007. Dankenswerter Hinweis von Markus Taube. 10 Hans Goebl hat mich zu Recht per E-Mail auf die italienische Herkunft des Terminus „lingua franca“ hingewiesen, wonach der Plural eigentlich „lingue franche“ lauten müsste. Jedoch herrscht inzwischen offenbar der lateinische Plural vor, besonders für Verkehrssprachen anderer als romanischsprachiger Provenienz. In dieser Einschätzung stimme ich überein mit Wikipedia (bei aller sonstigen Skepsis gegenüber dieser Enzyklopädie): „Wenn der Begriff in der erweiterten Bedeutung gebraucht und dann der Plural benötigt wird, lautet dieser gemäß der lateinischen Form Linguae francae.“ (abgerufen am 14.01.2013) Allerdings halte ich auch Hans Goebls Vorschlag für akzeptabel.

Wissenschaftssprachen im Wandel der Zeiten

49

für eine direkter auf die Funktion der Sprachen bezogene Sichtweise entschieden, von der aus ich aber dennoch auf zugrundeliegende wirtschaftliche und andere gesellschaftlich-politische Entwicklungen hinweise. Anknüpfend an den vorausgehenden Abschnitt möchte ich noch einmal an die solide ökonomische Grundlage des griechischen „Wissenschaftswunders“, wie man es nennen könnte, erinnern. Norbert Froese hat der Hauptüberschrift seiner Abhandlung „Antikes Griechenland“ die Unterüberschrift „Erfindung eines neuen Typs von Wissenschaftskultur“ hinzugefügt,11 die – wie von ihm reichlich belegt – in punkto wissenschaftlicher Kreativität alles Vorausgehende in den Schatten stellte. Außer der Wirtschaftskraft waren dafür weitere Bedingungen wichtig, wie • die verhältnismäßig geringe Ressourcenverschwendung durch „Tyrannen“ oder für religiöse Zwecke (z.B. kein Bau von Pyramiden) • die relativ großen ideologischen Freiräume (bei aller Repression, indiziert z.B. durch die Todesstrafe an Sokrates) • die sozialen Freiräume, vor allem in Form der Freistellung aller Politen (vollberechtigter männlicher Bürger) von praktischer Arbeit, auf dem Rücken von Sklaverei, sowie • das wissenschaftliche Interesse mancher Herrscher (man denke nur an Alexander den Großen, dessen Erziehung und dann seine Errichtung der Bibliothek von Alexandria). Unter solchen hiermit nur grob angedeuteten Bedingungen kreierte, zugespitzt formuliert, das klassische Griechenland die „reine“ Wissenschaft – in dem zu Anfang dieses Aufsatzes spezifizierten Sinn des Interesses am Wissen als solchem, einschließlich seiner erkenntnistheoretischen und methodischen Grundlagen. (Dabei versteht sich von selbst, dass daneben auch anwendungsbezogenes Wissen von Interesse war.) Dass zur Konzeption und Kommunikation solchen Wissens die eigene Sprache diente, deren verschiedene Dialekte durch Kontakte zur Koiné (mit vorherrschender attischer Komponente) vereinheitlich wurden, ist selbstverständlich. Ebenso nachvollziehbar ist ein gewisser Hochmut gegenüber den umgebenden, fremden („barbarischen“) Völkern, auch gegenüber den mittelöstlichen, von denen man manches gelernt hatte, wie auch gegenüber den wirtschaftlich und militärisch zunehmend überlegenen Römern im Westen. Sogar noch nach den Kriegsniederlagen gegen sie, dem Verlust politischer Souveränität und schließlich der Annexion durch Rom, die mit dessen Einverleibung auch Kretas im Jahr 63 v.u.Z. zum Abschluss kam, 11 http://www.antike-griechische.de/Antikes.Griechenland.odt – abgerufen 08.08.2012.

50

Ulrich Ammon

blieb Griechenland noch lange das wissenschaftliche und „(wissenschafts) sprachliche Zentrum“ der Antike. Als ein solches „Zentrum“ bezeichnen Soziolinguisten eine Gesellschaft (oder ein Staatswesen),12 deren Sprache als (wissenschaftliche) Lingua franca fungiert. (Entsprechend bei einer Lingua franca der Wirtschaft oder der Diplomatie.) Das wesentliche Merkmal einer Lingua franca ist, dass sie auch von Nicht-Muttersprachlern, also als Fremd­ sprache, gebraucht wird. Genau genommen war Griechisch damals eine „unechte Lingua franca“. Damit ist gemeint, dass die Sprache auch von Mutter­sprachlern gebraucht wurde – damals den Griechen. Demgegenüber ist eine „echte Lingua franca“ eine Nicht-Muttersprache (Fremdsprache) aller Kommunikationsteilnehmer, wie z.B. das Latein im Mittelalter, auf das ich sogleich zurück komme. In einer generellen Fremdsprache kommunizieren alle Beteiligten sprachlich auf gleicher Augenhöhe, während bei einer unechten Lingua franca die Muttersprachler kommunikativ im Vorteil sind.13 Dieser Unterschied ist wichtig als mögliche Quelle von Ressentiments und Konflikten, was auch für die gegen Ende dieses Beitrags erörterten wissenschaftssprachlichen Verhältnisse der heutigen Welt relevant ist. Die Römer haben Wissenschaft und Kultur von den Griechen übernommen und auch, zusätzlich zu ihrem muttersprachlichen Latein, die griechische Sprache. Dies führte zu einem „besonders in der gebildeten Oberschicht seit dem 2. Jahrhundert vorherrschenden griechisch-lateinischen Bilingualismus“,14 der freilich mit wachsendem Selbstbewusstsein Roms in Frage gestellt wurde. Ein Beispiel liefert Cicero, der wesentlich zur Kultivierung und zum Ausbau des Lateinischen beitrug, jedoch nicht die Kenntnis und den Gebrauch des Griechischen an sich kritisierte, sondern lediglich den Spott gegen „die Einstreuung griechischer Elemente in die lateinische Rede“ für gerechtfertigt erklärte.15 Gleichwohl blieb Griechisch neben Latein bis ins 2. Jahrhundert n.u.Z. neben Latein verbreitete Bildungs- und Wissenschaftssprache des Römischen Reichs.16 Erst in dessen Spätzeit erlangte die autochthone Sprache, Latein, eine weitgehende Monopolstellung, gestärkt dann später noch durch seine litur12 Siehe Ammon (wie Anm. 8), Kap. A.6. 13 Siehe zu den Begriffen „echte/ unechte Lingua franca“ ebd., Kap. A.2. 14 Thorsten Fögen, Patrii sermonis egestas. Einstellungen lateinischer Autoren zu ihrer Muttersprache, München, Leipzig 2000, 35. 15 Ebd. 130. 16 Siehe Thomas Baier, Die Entstehung der lateinischen Wissenschaftssprache aus der hellenistischen griechischen Literatur. In: Wieland Eins, Helmut Glück, Sabine Pretscher (Hg.), Wissen schaffen – Wissen kommunizieren. Wissenschaftssprachen in Geschichte und Gegenwart, Wiesbaden 2011, 19-33.

Wissenschaftssprachen im Wandel der Zeiten

51

gische Funktion im Rahmen des zur Staatsreligion erhobenen Christentums. Auch die nachfolgenden germanischen Eroberer Roms pflegten Latein und ersetzten es nicht durch die eigene Sprache. Sie empfanden sich – mehr wohl noch als zuvor die Römer gegenüber den Griechen – nach Zivilisationsstand und Bildung unterlegen und hatten Mühe, das akquirierte kulturelle „Erbe“ zu erhalten. So erklärt sich auch, dass sie ihre eigene Sprache nicht als mögliche Alternative zum Latein einschätzten, sondern an diesem für „gehobene Ansprüche“ festhielten. Dadurch blieb Latein das ganze Mittelalter hindurch und teilweise bis in die Neuzeit vorherrschende Wissenschaftssprache in Europa,17 neben seiner liturgisch-religiösen Vorrangstellung. Die Perennität des Lateinischen und auch des Griechischen als Wissenschaftssprachen wirkt sogar bis in die Gegenwart herein, indem beide Sprachen immer noch als wichtige Quellen der wissenschaftlichen Terminologiebildung dienen – einer Terminologie, die vermittels des Englischen weltweit verbreitet wird. Im Mittelalter war Latein in ganz Europa die Hoch- oder Prestigesprache in einer „Außendiglossie“. So bezeichnete Heinz Kloss18 eine gesellschaftliche Zweisprachigkeit mit zwei verschiedenen Sprachen, die funktional klar verteilt sind auf einerseits die alltägliche und andererseits die gehobene oder öffentliche Kommunikation. Eine „Binnendiglossie“ besteht dagegen – bei analoger funktionaler Verteilung – nicht aus zwei verschiedenen Sprachen, sondern aus zwei Varietäten derselben Sprache, typischerweise einerseits den Dialekten (für die Alltagskommunikation) und andererseits der Standardvarietät (für die Kommunikation in den prestigeträchtigen Domänen). Insofern Latein spätestens im Mittelalter für alle, auch für Italiener, Fremd­sprache geworden war, begegneten sich alle Benutzer sprachlich auf etwa gleicher Augenhöhe. Niemand hatte den „Muttersprachvorteil“. Insoweit war Latein einerseits egalisierend. Zudem ermöglichte es die einzel­ sprachübergreifende Kommunikation, und zwar in großen Teilen Europas und stellenweise sogar darüber hinaus. Andererseits war die Kenntnis des Lateins auf eine kleine, geradezu winzige Bildungsschicht eingeschränkt und der übergroßen Mehrheit der Bevölkerung unzugänglich. Insofern war Latein zugleich elitär und sogar sozial diskriminierend. Daher ist es nicht 17 Dazu Wilfried Stroh, Latein ist tot, es lebe Latein! Kleine Geschichte einer großen Sprache, 4. Aufl., Berlin 2007, bes. 237-244. 18 Heinz Kloss, Über „Diglossie“. In: Deutsche Sprache 4 (1976), 313-323; Ders., Abstandsprachen und Ausbausprachen. In: Joachim Göschel, Norbert Nail, Gaston van der Elst (Hg.), Zur Theorie des Dialekts. Aufsätze aus 100 Jahren Forschung mit biographischen Anmerkungen zu den Autoren, Wiesbaden 1976, 301-322.

52

Ulrich Ammon

erstaunlich, dass die sprachliche Konstellation mit Latein als quasi einziger Wissenschaftssprache nicht von Dauer war. Schon im Mittelalter entstanden Ratgeberbüchlein in den „Volksspra­ chen“, denen dann später anwendungsbezogene wissenschaftliche Werke folgten. Uwe Pörksen hat diese Entwicklung nachgezeichnet,19 wobei er sich unter anderem auf die akribischen Vorarbeiten von Leonardo Olschki20 stützen konnte. Dieser verwies auf den Praxisbezug, vor allem für Militär­ technik und Kunst, z.B. der großartigen Pionierleistung für Deutsch als Wissenschaftssprache des genialen deutschen Malers Albrecht Dürer in seinem vierbändigen deutschsprachigen Werk zur Mathematik, das er schon 1525 vorlegte: „Underweysung der messung mit dem zirckel und richtscheyt in Linien ebnen unnd gantzen corporen“.21 Es wurde später ins Lateinische übersetzt, was die Voraussetzung war für seine Rezeption weit über das deutsche Sprachgebiet hinaus. Auch Galileo Galilei (1564-1642) hat es für seine Vorlesungen noch benützt. Dürer war mit seiner Sprachwahl der Zeit voraus, jedenfalls in der Wissenschaft. Erst später, teilweise sogar erst in späteren Jahrhunderten, erfolgte die breitere Hinwendung von Wissenschaftlern zur jeweils eigenen Muttersprache, weg von Latein. Dieses hatten die bildungsbeflissenen Humanisten durch die Rückführung des volksnahen „Küchenlateins“ zum klassischen Latein nach dem Vorbild Ciceros noch unzugänglicher gemacht für die breite Bevölkerung und damit – sicher gegen ihre Absichten – der Hinwendung zu den Volkssprachen weiteren Vorschub geleistet. Allerdings stand das Latein auch für überholte Denkweisen, weshalb Neuerer wie Galilei sich der Volkssprache zuwandten. Auf diesem Wege suchten sie Verbündete für ihre dem „gesunden Menschenverstand“ so einleuchtenden empirischen Methoden und Befunde, deren Anerkennung ihnen die in Traditionen und Dogmen gefangenen Scholastiker verweigerten. So lässt sich – verkürzt und stark vereinfacht – die Motivation gerade von Galilei für die Wahl seines toskanischen Italienisch für die Auseinandersetzung mit seinen wissenschaftlichen Gegnern charakterisieren. Sein bekanntes19 Uwe Pörksen, Deutsche Naturwissenschaftssprachen. Historische und kritische Studien, Tübingen 1986. 20 Leonardo Olschki, Die Literatur der Technik und der Angewandten Wissenschaften vom Mittelalter bis zur Renaissance (=Geschichte der neusprachlichen Wissenschaftlichen Literatur 1), Heidelberg 1919; Ders., Bildung und Wissenschaft im Zeitalter der Renaissance in Italien (=Geschichte der neusprachlichen Wissenschaftlichen Literatur 2), Leipzig, Firenze, Roma, Genève 1922; Ders., Galilei und seine Zeit (Geschichte der neusprachlichen Wissenschaftlichen Literatur 3), Halle 1927. 21 Näheres dazu in Olschki 1919 (wie Anm. 20), 414-451.

Wissenschaftssprachen im Wandel der Zeiten

53

tes und vielleicht brillantestes Werk ist „Il Saggiatore“ (Die Goldwaage), das 1623 erschien und in dem er nicht davor zurückschreckte, sich – in polemischer Absicht – auch „niedriger“ Stilelemente zu bedienen. Allerdings fand er für die Wahl der Muttersprache keineswegs nur Anerkennung. Damit durchbrach er nicht nur die festgefügten Ordo-Grenzen zwischen den „Gebildeten“ und der breiten Bevölkerung, sondern ebenso die sprachliche Einheit der europaweiten Lingua franca. Johannes Kepler, der Galileis Italienisch offenbar nicht verstand – ein Indiz, wie weit es sich strukturell und lexikalisch vom Lateinischen entfernt hatte – war frustriert „und sprach, in unvergleichlicher doppeldeutiger Formulierung, von einem crimen laesae humanitatis […], einem Verbrechen sowohl gegen die ‚Mitmenschlichkeit’ als auch gegen die ‚Bildung’“.22 Man ahnt schon, dass dieses „Verbrechen“ ein Vorbote der Nationalstaatsentwicklung war, in der einerseits die muttersprachliche Verbundenheit mit der Zeit mehr Gewicht bekam, auch für die Identität der Beteiligten, als die transnationale Verbindung über eine Lingua franca, und in der andererseits die dialektale Vielfalt der Volkssprachen durch Standardisierung (Entwicklung einer Standardvarietät) überbrückt wurde. Jedoch kann ich dieses Thema im vorliegenden Zusammenhang nicht weiter ausführen, sondern nur andeuten und auf seinen Zusammenhang mit dem Thema ‚Wissenschaftssprachen’ hinweisen. Geisteswissenschaftliche, nicht zuletzt sprachwissenschaftliche Werke erschienen in verschiedenen europäischen Sprachgemeinschaften eher früher in den Muttersprachen als naturwissenschaftliche, mehr und mehr schon seit dem 15. Jahrhundert. Ein berühmtes Beispiel des Spanischen ist Antonio de Nebria’s „Gramática da la lengua castellana“ (1492). Ende des 16. Jahrhunderts entstand die erste staatliche Institution, die betraut wurde mit der Pflege, aber auch der Erforschung der Muttersprache: die Accademia della Crusca (1583, in Florenz), die 1612 das „Vocabulario degli Accademici della Crusca“ herausbrachte, das erste Wörterbuch der italienischen Sprache. In Frankreich wurde 1635 die Académie française mit analogen Aufgaben betraut. Mit diesen Institutionen wurde zugleich der kontinuierliche Gebrauch der Muttersprachen für die Sprach- und Geisteswissenschaften etabliert. In den Naturwissenschaften wurden die Abkehr von Latein und die Hin­ wendung zur eigenen Sprache am nachhaltigsten in England und Frankreich fundamentiert. In England durch die Gründung der Royal Society im Jahr 1662, die ab 1665 die regelmäßig erscheinende Zeitschrift „Philosophical 22 Wilfried Stroh, Latein ist tot, es lebe Latein! Kleine Geschichte einer großen Sprache, 4. Aufl., Berlin 2007, 244.

54

Ulrich Ammon

Transactions“ veröffentlichte, und in Frankreich durch die Gründung der Académie des Sciences (Gründungsdatum 1666) mit der ebenfalls schon ab 1665 erscheinenden periodischen Zeitschrift „Journal des Sçavans“. Zwar schrieben die meisten Gelehrten überwiegend weiter auf Latein; einige, auch besonders renommierte, wagten sich jedoch auch schon bald an größere wissenschaftliche Publikationen in der Volkssprache. Ein berühmtes Beispiel ist Isaak Newton’s bahnbrechendes Werk „Opticks“ (1704) zur Spektralanalyse und Zusammensetzung des Lichts. Das deutsche Sprachgebiet hinkte dieser Entwicklung ein wenig hinterher. Dies war wohl einerseits bedingt durch die allgemeine Rückständigkeit infolge der furchtbaren Zerstörungen des Dreißigjährigen Krieges, andererseits durch die Sprachenvielfalt des Heiligen Römischen Reichs Deutscher Nation, für deren Überbrückung man an Latein festhalten zu müssen glaubte. Dennoch gab es schon im 17. Jahrhundert mutige Anstöße in Richtung der Verwendung von Deutsch. Ein berühmtes Beispiel in der Hochschullehre bot Christian Thomasius mit seiner Vorlesung „Discours Welcher Gestalt man denen Frantzosen in gemeinem Leben und Wandel nachahmen solle“ im Jahr 1687 an der Universität Leipzig, der 1688 eine weitere sowie die 1688 und 1689 publizierten deutschsprachigen „Monats-Gespräche“ folgten. Dies war zwar nicht die erste, aber die erste weithin beachtete deutschsprachige Vorlesung; einzelne andere gab es schon zuvor. Die genauere Entwicklung an den Hochschulen im deutschen Sprachgebiet, mit Einzelheiten am Beispiel der Universität Freiburg im Breisgau, hat Jürgen Schiewe untersucht.23 Der vielleicht entschlossenste und wirkmächtigste Pionier deutscher Wissenschaftssprache war der Philosoph und Mathematiker Christian Wolff (1679 – 1754).24 Herausragend und bahnbrechend sein Buch „AnfangsGründe Aller Mathematischen Wissenschaften“ (1710). Ihm verdanken wir auch eine große Zahl von heute ganz selbstverständlichen Termini wie „Begriff“ (für ‚idea’), „Eigenschaft“ (für ‚attributum’), „Ausnahme“ (für ‚exceptio’) usw.25 Allerdings übersetzte Wolff seine Werke später selbst

23 Jürgen Schiewe, Sprachwechsel – Funktionswandel – Austausch der Denkstile. Die Universität Freiburg zwischen Latein und Deutsch, Tübingen 1996. 24 Näheres in Wolfgang Menzel, Vernakuläre Wissenschaft. Christian Wolffs Bedeutung für die Herausbildung und Durchsetzung des Deutschen als Wissenschaftssprache, Tübingen 1996. 25 Entnommen aus Wilfried Stroh (wie Anm. 22), 242. Weitere Beispiele in Uwe Pörksen, Der Übergang vom Gelehrtenlatein zur deutschen Wissenschaftssprache. In: Zeitschrift für Literaturwissenschaft und Linguistik 13 (1983), 227-258, 254.

Wissenschaftssprachen im Wandel der Zeiten

55

ins Lateinische, um sie über das deutsche Sprachgebiet hinaus bekannt zu machen.26 Deutsch war damals nämlich noch keine internationale Sprache, auch nicht in der Wissenschaft. Bei Leibniz (1646-1716), der zeitlebens nur auf Latein und Französisch publizierte (seine „Unvorgreiffliche[n] Gedancken“ erschienen posthum), war das noch offenkundig. Jedoch blieb Deutsch auch danach noch lange weitgehend auf das Gebiet seiner muttersprachlichen Verbreitung eingeschränkt. Seine Entfaltung als Wissenschaftssprache wurde auch dadurch behindert, dass im deutschen Sprachgebiet – anders als im französischen und englischen – damals keine zentrale Wissenschaftsakademie entstanden ist. Die Kurfürstlich-Brandenburgische Societät der Wissenschaften (seit 1700) wurde sogar zeitweilig (1763-1786) von Paris aus geleitet – auf Französisch, von den Sekretären der französischen Académie des Sciences: Jean-Baptiste le Rond, genannt „d‘Alembert“, und Marie Jean Antoine Nicolas Caritat, Marquis de Condorcet. Goethe ließ noch 1784 seine Studie zum Zwischenkieferknochen ins Lateinische übersetzen, um sie vor allem dem niederländischen Anatom Petrus Camper zugänglich zu machen.27 Nicht einmal einem niederländischen Wissenschaftler traute er also ausreichende Lesekenntnisse in Deutsch zu! Nicht nur aus Tradition, sondern auch wegen der mangelnden Inter­ nationalität der deutschen Sprache blieben Französisch und Latein noch bis ins 19. Jahrhundert wichtige Publikationssprachen deutschsprachiger Wissenschaftler, neben dem aufkommenden Deutsch. Ein berühmtes Beispiel ist der Mathematiker Carl Friedrich Gauß (1777-1855), der noch – soweit mir bekannt, ohne Bedenken – auf Latein publizierte, z.B. seine „Disquisitiones generales circa superficies curvas“ (Allgemeine Unter­ suchungen über gekrümmte Flächen) (1827) oder seine „Principia generalia theoriae figurae fluidorum in statu aequilibrii“ (Allgemeine Grundlagen einer Theorie der Gestalt von Flüssigkeiten im Zustand des Gleichgewichts) (1829). Die Einstellung zu den Sprachen und die Sprachwahl änderten sich durchgreifend erst in der zweiten Hälfte und ganz entschieden gegen Ende des 19. Jahrhunderts. Unter dem Eindruck des nationalen Aufstiegs Deutschlands verdrängten die meisten Wissenschaftler das Problem, das sicher schon Kepler in sei26 Siehe dazu Christian Wolff, Gesammelte Werke in drei Abhandlungen (I. Deutsche Schriften, II. Lateinische Schriften, III. Materialen und Dokumente), Hildesheim 1964-2004. 27 Pörksen (wie Anm. 19).

56

Ulrich Ammon

ner Kritik an Galilei vorschwebte und das dann d’Alembert 1751 in seiner Vorrede zur großen französischen „Encyclopédie“ wie folgt zugespitzt hatte: „Notre Langue étant répandue par toute l‘Europe, nous avons crû qu‘il étoit tems de la substituer à la Langue latine, qui depuis la renaissance des Lettres étoit celle de nos Savans. […] Les Savans des autres nations à qui nous avons donné l‘exemple, ont crû avec raison qu‘ils écriroient encore mieux dans leur Langue que dans la nôtre. L‘Angleterre nous a donc imité  ; l‘Allemagne, où le Latin sembloit s‘être refugié, commence insensiblement à en perdre l‘usage : je ne doute pas qu‘elle ne soit bien-tôt suivie par les Suédois, les Danois, & les Russiens. Ainsi, avant la fin du dix-huitième siecle, un Philosophe qui voudra s‘instruire à fond des découvertes de ses prédécesseurs, sera contraint de charger sa mémoire de sept à huit Langues différentes ; & après avoir consumé à les apprendre le tems le plus précieux de sa vie, il mourra avant de commencer à s‘instruire.”28

Bei aller Übertreibung, deren sich d’Alembert bewusst gewesen sein dürfte, enthält diese Warnung doch auch richtige Einsichten. Eine davon ist die, dass Nationalsprachen als solche, also in ihrer national beschränkten Geltung, den Ansprüchen an die wissenschaftliche Kommunikation nicht voll genügen können, insofern Wissenschaftler auch international kommunizieren wollen oder sollten. Die andere wichtige Einsicht ist die, dass nicht alle Nationalsprachen zugleich auch internationale Geltung haben können, weil dies – bei der Vielfalt der Nationalsprachen – die Sprachlernfähigkeiten der Kommunikanten übersteigen würde. Daher bedarf es einer – in hohem Maße beschränkten – Selektion von Sprachen für die internationale Kom­mu­ni­ kation, so dass möglichst viele Wissenschaftler sie auch erlernen können: mindestens eine davon aktiv (schriftlich und mündlich) und die übrigen passiv. Diese Auswahl erfolgte dann – unter dem Druck der Verhältnisse – so, dass zunächst für längere Zeit, vor allem im 18. Jahrhundert, Französisch vorrangig war, und im Verlauf des 19. Jahrhunderts Englisch und Deutsch ungefähr gleichrangig als internationale Wissenschaftssprachen hinzukamen. Wenn man die dadurch erreichten Verhältnisse holzschnittartig vereinfacht, wurde Deutsch vor allem eine internationale Sprache der Wissenschaft, während Englisch außerdem im Handel und Französisch in der Diplomatie bevorzugte Rollen spielten. Vielleicht war Deutsch zeitweilig sogar die international vorherrschende Wissenschaftssprache oder hatte zumindest teilweise 28 „Discours des editeurs“, Encyclopédie, Tombe I, 1751, 39f. ; dankenswerte Zusendung Hans Goebl.

Wissenschaftssprachen im Wandel der Zeiten

57

dieses Image.29 Neben diesen drei vor allem gegen Ende des 19. Jahrhunderts und anfangs des 20 Jahrhunderts weltweit vorherrschenden internationalen Wissenschaftssprachen kamen – allerdings in begrenzterem Maße – auch noch andere ins Spiel, wie Italienisch, Niederländisch und Spanisch. Auch sie dienten nicht nur zur Kommunikation innerhalb der eigenen Sprach­ gemeinschaft, sondern – in spezielleren Zusammenhängen – auch zur internationalen Lingua-franca-Kommunikation. Genauer handelte es sich bei all diesen Wissenschaftssprachen um „unechte Linguae francae“, um die obige Begriffsspezifizierung wieder aufzugreifen, insofern außer den NichtMuttersprachlern auch Muttersprachler involviert waren.30 Hier nun einige Daten, die vor allem belegen sollen, dass vor nicht allzu langer Zeit Deutsch, Französisch und Englisch eine ungefähr gleichrangig prominente Stellung als internationale Wissenschaftssprachen innehatten. Diesen Daten ließen sich leicht weitere, allerdings weniger repräsentative hinzufügen.31 Zu beachten ist, dass die hier folgenden Daten teilweise bis in die neueste Zeit hereinreichen und dann auch schon eine Entwicklung anzeigen, mit der ich mich erst im nächsten Abschnitt näher befasse, nämlich den dramatischen Stellungsverlust von zwei dieser Sprachen, Deutsch und Französisch, und den Stellungsgewinn der dritten Sprache, Englisch. Abbildung 1 liefert einen Überblick über die weltweiten Anteile an Publikationen in den bedeutendsten Naturwissenschaften einschließlich der Medizin und Mathematik in der Zeitspanne von 1880 bis 2005.32

29 Vgl. dazu Ammon (wie Anm. 2), 212-282; Ders., Ist Deutsch noch internationale Wissenschaftssprache? Englisch auch für die Lehre an den deutschsprachigen Hochschulen, Berlin, New York 1998, vor allem 1-15. 30 Abschnitt „Die Entwicklung im Westen …“ und Anmerkung 12. 31 Z.B. in Ammon (wie Anm. 2 und Anm. 29). 32 Das Diagramm wurde aufgrund der von mir vorgelegten Daten erstellt von Bettina Thode und Wenting Sheng.

58

Ulrich Ammon

Abb. 1: Sprachenanteile an den naturwissenschaftlichen Publikationen weltweit 1880 – 2005, in Prozent. Ordinate logarithmiert. Anteile anderer Sprachen durchgehend unter 1%. Mittelwerte verschiedener Disziplinen aus Datenbanken verschiedener Staaten.33

Bei der Interpretation der Abbildung ist die Logarithmierung der Ordinate zu berücksichtigen, die den Größenunterschied zwischen den Extremen visuell drastisch reduziert, dafür aber die Sprachen mit niedrigen Anteilen deutlicher auseinander hält. Diese Befunde, die ich – weniger vollständig als hier – schon anderorts veröffentlicht habe,34 wurden verschiedentlich hinsichtlich der Da­tengrundlage angezweifelt. So wurde bemängelt, dass die Anteile von Deutsch zu Anfang 33 Ältere Zahlen aufgrund von Minoru Tsunoda, Les langues internationales dans les publications scientifiques et techniques. In: Sophia Linguistica 13 (1983), 144-155; jüngere Zahlen nach Ammon 1998 (wie Anm. 28), 146-151 sowie aus Analysen von Ammon und – nach Anleitung – von Abdulkadir Topal und Vanessa Gawrisch, aus „Biological Abstracts“ (Biologie, nur bis 2004), „Chemical Abstracts“ (Chemie), „Medline“ (Medizin), „INSPEC“ (Physik) und „Mathematical Reviews“ (Mathematik, nur bis 1996). 34 Ulrich Ammon, Deutsch als Wissenschaftssprache: Wie lange noch? In: Claus Gnutzmann (Hg.) English in Academia. Catalyst or Barrier? Tübingen 2008, 25-43; Ulrich Ammon, Wird die deutsche Sprache (von anderen Sprachen, vor allem Englisch) verdrängt? In: Der Deutschunterricht 61 (5) 2009, 14-21; Ulrich Ammon, English and Other International Languages under the Impact of Globalization. In: Neuphilologische Mitteilungen 61/1 (2010), 9-28; Ulrich Ammon, The Hegemony of English. In: World Social Science Report. Knowledge Divides, Paris 2010, 154 f.; Ulrich Ammon, The Concept of ‘World Language’: Ranks and Degrees. In: Niklas Coupland (Hg.) The Handbook of Language and Globalization, Malden MA, Oxford 2010, 101-122.

Wissenschaftssprachen im Wandel der Zeiten

59

des 20. Jahrhunderts übertrieben sein könnten, da die Deutschen den ausgewerteten periodischen Bibliographien jede nur denkbare Veröffentlichung zugeschickt hätten. Jedoch ist zu bedenken, dass in die zugrunde liegende Statistik Tsunoda’s35 für diese Zeitspanne periodische Bibliographien verschiedener Staaten einbezogen und deren Spra­chen­anteile (deutsche, französische, russische, britische und amerikanische) gemittelt wurden. Zwar erscheint bei Einbeziehung nur angelsächsischer Bibliographien Englisch durchgehend, also auch zu Beginn des 20 Jahr­hunderts, als vorherrschend, jedoch liegen die Anteile von Deutsch und Französisch für jene Zeit auch dabei kaum niedriger.36 Diese Daten belegen somit die Prominenz und annähernde Gleichrangigkeit von Deutsch, Englisch und Französisch gegen Ende des 19. und im ersten Drittel des 20. Jahrhunderts, speziell für die Naturwissenschaften. Eine von mir selbst (also nicht von den Institutionen des Impactfaktors: Institute for Scientific Information oder Thomson Reuters) durchgeführte repräsentative Zitatenanalyse von Zeitschriften der Chemie aus sechs Staaten verschiedener Nationalsprache über die Zeitspanne 1920-1990 kann als weiteres Indiz dienen. Sie zeigt um 1920 allenthalben (also in den Zeitschriften aller untersuchten Staaten) einen deutlichen Vorrang von Zitaten aus deutschsprachigen Publikationen (Durchschnitt 50,5 %; Englisch 14,3 %, Französisch 10,0 %), was auf die Prominenz von Deutsch in der Chemie hinweist, wofür es viele weitere Belege gibt. Auch diese Untersuchung belegt allerdings – um erneut auf den nächsten Abschnitt voraus zu weisen – den dramatischen Abstieg von Deutsch und den Aufstieg von Englisch in der folgenden Zeit mit um 1990 quantitativ umgekehrten Proportionen der Zitatenquellen (57,6 % aus englischsprachigen Texten, 10,7 % aus deutschsprachigen und 3,2 % aus französischsprachigen).37 Leider liegen für die Sozialwissenschaften keine so repräsentativen Daten für frühere Zeiten, Ende des 19. und Anfang des 20. Jahrhunderts, vor oder sind mir zumindest nicht bekannt. Partielle Indizien liefert meine Zitatenanalyse wirtschaftswissenschaftlicher Zeitschriften, ebenfalls aus sechs Staaten und über dieselbe Zeitspanne (1920-1990). Sie zeigt über die ganze Zeitspanne hinweg eine größere Sprachenvielfalt zitierter Texte als in der Chemie. Dennoch ergab sich, freilich auf viel niedrigerem Niveau, für frühere 35 Tsunoda (wie Anm. 33). 36 Siehe dazu William Mackey, Determining the Status and Function of Languages in Multilingual Societies. In: Ulrich Ammon (Hg.), Status and Function of Languages and Language Varieties, Berlin, New York 1989, 3-20, bes. 11. 37 Ammon 1998 (wie Anm. 29), 38-56, bes. 53.

60

Ulrich Ammon

Zeiten der Vorrang deutschsprachiger und die ungefähre Gleichrangigkeit englisch- und französischsprachiger Zitatenquellen (12,5 %, 9,8 %, bzw. 3,0 %). Für die spätere Zeit zeigt sich kaum ein Rückgang für Deutsch und Französisch, jedoch ein beachtlicher Zuwachs für Englisch, so um 1990 an englischsprachigen Zitatenquellen 57,6 %, deutschsprachigen 10,7 % und französischsprachigen 3,2 %.38 Jedoch bleibt die Dominanz des Englischen bescheidener als in den Naturwissenschaften. In die gleiche Richtung weist eine Analyse der Sprachenanteile an den weltweiten sozialwissenschaftlichen Publikationen für die Zeit nach dem Zweiten Weltkrieg, deren Ergebnisse in Abbildung 2 veranschaulicht sind. Leider ist die Rückführung solcher Analysen bis in frühere Zeiten derzeit noch ein Forschungsdesiderat.

Abbildung 2: Sprachenanteile an den sozialwissenschaftlichen Publikationen weltweit 19512005, in Prozent (Ordinate logarithmiert. Zahlen aufgrund von „International Bibliography of the Social Sciences (IBSS)”. Analysen von Ulrich Ammon, Vanessa Gawrisch und Wenting Sheng)39

Jedoch lässt sich aus dem Befund, dass Deutsch und Französisch zweitbzw. drittplaziert sind, (mit Vorbehalten betreffs weiterer Prüfung) auf frühere Zeiten zurück schließen, dass auch in den Sozialwissenschaften die drei Sprachen Englisch, Französisch und Deutsch schon seit längerem die wichtigsten internationalen Wissenschaftssprachen sind. Vermutlich waren sie 38 Ammon (wie Anm. 29), 56-66, bes. 64. 39 Näheres dazu in Ammon (wie Anm. 8), Kap. G.5. Das Diagramm wurde aufgrund der von mir vorgelegten Daten erstellt von Bettina Thode und Wenting Sheng.

Wissenschaftssprachen im Wandel der Zeiten

61

gegen Ende des 19. und zu Anfang des 20 Jahrhunderts gleichrangiger als neuerdings. Die Annahme einer Tradition erheblicher internationaler Bedeutsamkeit von Deutsch speziell in der Soziologie wird gestützt durch eine Erhebung des Internationalen Soziologenverbandes (International Sociological Association, ISA), der durch eine weltweite Mitgliederbefragung die 10 soziologischen Bücher des 20. Jahrhunderts ermitteln ließ, die nach Einschätzung der Verbandsmitglieder das Fach am stärksten beeinflusst haben. Tabelle 1 zeigt das Ergebnis, das beim Weltkongress des Verbandes in Montreal 1998 vorgestellt wurde. In 1997 the ISA program committee surveyed members to identify the ten books published in the twentieth century that respondents considered to be the most influential for sociologists. This produced a 16% response rate and the list of books below. Max Weber, Economy and Society C. Wright Mills, The Sociological Imagination Robert K. Merton, Social Theory and Social Structure Max Weber, The Protestant Ethic and the Spirit of Capitalism Peter Berger and Thomas Luckmann, The Social Construction of Reality Pierre Bourdieu, Distinction: A Social Critique of the Judgment of Taste Norbert Elias, The Civilizing Process: Power and Civility Jürgen Habermas, The Theory of Communicative Action Talcott Parsons, The Structure of Social Action Erving Goffman, The Presentation of Self in Everyday Life Tabelle 1: Die Bücher des 20. Jahrhunderts mit dem größten Einfluss auf die Soziologie, aufgrund weltweiter Mitgliederbefragung des Internationalen Soziologenverbandes 1998 (Unterstreichung ursprünglich deutschsprachiger Titel U.A.)40

Die von mir hinzugefügten Unterstreichungen markieren die ursprünglich auf Deutsch verfassten Titel, die allerdings später alle ins Englische übersetzt wurden. Auch Berger und Luckmann waren deutschsprachige Autoren, die ihr Buch allerdings schon damals – es erschien 1966 – auf Englisch publizierten. Ob es von Anfang an auf Englisch verfasst wurde, ist mir nicht bekannt. Auffällig ist in den Sozialwissenschaften die größere Zahl von Wissen­ schaftssprachen als in den Naturwissenschaften, auch vermutlich in der internationalen Kommunikation, und noch in neuester Zeit. Dies gilt erst 40 www.isa-sociology.org/bookswww.isa-sociology.org/books – abgerufen 03.03. 2011.

62

Ulrich Ammon

recht für die Geisteswissenschaften, für die mir jedoch keine repräsentativen Daten für vergangene Zeiten vorliegen. Auf diese Fächerunterschiede, die schon Sabine Skudlik41 aufgrund einer umfangreichen, gegenwartsbezogenen Untersuchung hervorgehoben hat, komme ich im nun folgenden, letzten Abschnitt noch näher zu sprechen.

Die neuere weltweite Entwicklung: von internationaler Mehrsprachigkeit zu einer unechten Lingua franca für die ganze Welt Wie schon im vorigen Abschnitt angedeutet und aus Abbildung 1 und 2 ersichtlich, stellt Englisch in neuerer Zeit als internationale Wissen­schafts­ sprache alle anderen Sprachen in den Schatten. Diese Erfahrung machen heute Wissenschaftler weltweit bei ihrer täglichen Arbeit. Auch kritische Einwände gegen Belegdaten, wie z.B. in Abbildung 1, widerlegen nicht diesen grundlegenden Befund. Sie argwöhnen z.B., dass die benutzten Daten­ quellen die englische Sprache bevorzugten. Dabei denken die Kritiker vielleicht an den Impactfaktor, der in der Tat englischsprachige Zeitschriften bevorzugt, allerdings in der nicht unbegründeten Annahme, dass sie am weitesten verbreitet sind. Jedoch handelt es sich bei den Datenquellen, die Abbildungen 1 und 2 zugrunde liegen, um wesentlich anders konzipierte periodische Bibliographien oder bibliographische Datenbanken, um deren Voll­ständigkeit und mithin sprachliche Ausgewogenheit die Hersteller wegen des Renommees und der Verkaufschancen ihres Produkts bemüht sein müssen. Die dennoch vorkommenden Einseitigkeiten, die vereinzelt auch nachgewiesen wurden, stellen die daraus ermittelten Sprachanteile nicht grundsätzlich in Frage. Die Dominanz des Englischen wird durch zahlreiche weitere Beob­ach­ tungen bestätigt, von denen ich hier nur wenige nenne. Eine davon ist die Anglisierung ehemals deutsch- oder französischsprachiger Zeitschriften, vor allem wieder in den Naturwissenschaften, die schon die Anglisierung ihrer Titel verrät, wie z.B.: • „Archiv für Verdauungskrankheiten“ > „Gastroenterologia“ > „Digestion“ • „Radiologische Rundschau“ > „Radiologia Clinica“ > „Diagnostic Imaging“ • „Zeitschrift für Tierpsychologie“ > „Ethology“. 41 Sabine Skudlik, Sprachen in den Wissenschaften. Deutsch und Englisch in der internationalen Kommunikation, Tübingen 1990.

Wissenschaftssprachen im Wandel der Zeiten

63

Viele weitere ließen sich hinzufügen. Die Sprache des Titels indiziert die Sprache der Beiträge. Ein mehrsprachiger oder lateinischer Titel zeigt meist Mehrsprachigkeit an und bildet oft eine Übergangsstufe. Ein englischer Titel bedeutet dagegen meist, dass Beiträge in anderen Sprachen als Englisch ausgeschlossen sind. Auch das berühmte Institut Pasteur in Paris hat 1989 seine drei „Annales“ auf Englisch umgestellt. Ein vielleicht noch fundamentaleres Indiz für diese Entwicklung ist die Sprachumstellung deutscher periodischer Bibliographien oder bibliographischer Datenbanken, typischerweise zunächst die Anglisierung des Titels und darauf folgend dann sogar die Übernahme durch die angelsächsische Konkurrenz, wie z.B. ( → = Titeländerung, ⊂ = Übernahme): • „Chemisches Zentralblatt“ (seit 1830) ⊂ „Chemical Abstracts“ (1969) oder • „Physikalische Berichte“ (seit 1845) → „Physics Briefs“ (1979) ⊂ „Physics Abstracts“ (1995). Die in verschiedene Fachrichtungen aufgeteilten deutschen Abstraktdienste der Biologie wurden schon nach dem Ersten Weltkrieg durch „Biological Abstracts“ verdrängt. Ein Sonderfall – fast möchte man von einem Über­ bleibsel sprechen – ist das „Zentralblatt für Mathematik (...) und ihre Grenz­ gebiete/ Mathematics Abstracts“, das zwar einen englischen Zusatztitel angenommen hat, aber von „Mathematical Reviews“ (noch?) unabhängig ist. Detailliertere Analysen verraten auch die Zeitspanne, in der die jeweiligen Fachwissenschaftler sich hauptsächlich sprachlich umstellten. So konnte ich z.B. für „Biological Abstracts“ und „MathSci Disc“ (CD-Version von „Mathematical Reviews“) über eine längere Zeitspanne ermitteln, in welchen Sprachen die Beiträge der aus Deutschland stammenden Autoren verfasst waren. Tabelle 2 zeigt an, wie sich ihr Anteil an den englischsprachigen und deutschsprachigen Beiträgen, die in diese Datenbanken aufgenommen wurden, entwickelt hat. Wie man sieht, wächst ihr Anteil an den englischsprachigen Beiträgen, was sich damit erklären lässt, dass die Autoren aus Deutschland zunehmend auf Englisch als ihre Publikationssprache umsteigen. Allerdings ist der Anstieg verhalten. Der Anteil an den deutschsprachigen Publikationen wächst ebenfalls, und sogar viel rasanter; er schießt geradezu in die Höhe. Diese Entwicklung lässt sich kaum anders erklären, als dass die Autoren aus Deutschland mit der deutschen Sprache unter sich bleiben – weil Autoren anderer nationaler und sprachlicher Herkunft daraus fliehen und nicht länger auf Deutsch publizieren. Offenbar entsteht diese

64

Ulrich Ammon

Dynamik, jedenfalls in den beiden untersuchten Fächern, erst gegen Ende des 20. Jahrhunderts. „Biological Abstracts“

1980

1984

1988

1992

1995

An deutschsprachigen Beiträgen

22,0

23,6

26,7

10,7

77,2

An englischsprachigen Beiträgen

0,7

3,0

3,1

1,4

5,3

„MathSci Disc“

1940 1945 1950 1955 1960 1965 1970 1975 1980 1982 1983 1985 1990 1995

An deutschsprachigen Beiträgen

1,3

-

-

1,3

0,9

1,8

2,4

1,3

2,1

4,4 27,7 38,8 51,2 58,0

An englischsprachigen Beiträgen

5,3

5,6

4,8

5,3

4,8

5,9

6,3

6,0

6,0

6,2 10,2 12,2 12,1 12,3

Tabelle 2: Entwicklung der Anteile von Autoren aus Deutschland in „Biological Abstracts“ und „MathSci Disc“ über eine längere Zeitspanne, in Prozent.42

Die Ursachen des Stellungsverlusts von Deutsch und Französisch sind bislang nicht systematisch erforscht. Meinungsäußerungen dazu sind zwar, wie man in Gesprächen schnell feststellt, wohlfeil. Wenn man aber in die Details geht, wird es schwieriger und – beim derzeitigen Forschungsstand – oft in hohem Maße spekulativ. Dennoch erlaube ich mir im Folgenden einige – hoffentlich zur weiteren Forschung anregende – hypothetische Hinweise.43 Der Bedarf an einer differenzierenden Sicht zeigt sich vor allem bei den Fächerunterschieden im Grad der Anglisierung, die ich nun auch noch anspreche. Einige elementare Ursachen des Stellungsverlusts der beiden einst großen internationalen Wissenschaftssprachen Deutsch und Französisch gegenüber Englisch liegen auf der Hand: • Der wirtschaftliche Ruin der Mutterländer des Deutschen und Fran­zö­ si­schen durch die beiden Weltkriege und der gleichzeitige Aufstieg der USA zur überragenden Weltwirtschaftsmacht. 42 Ammon (wie Anm. 29), 154. 43 Vgl dazu auch ebd., 179-204.

Wissenschaftssprachen im Wandel der Zeiten

65

• Hauptsächlich für Deutsch: die Vernichtung und Vertreibung deutscher, keineswegs nur als jüdischer diskrimierter und verfolgter Wissenschaftler in der Nazi-Zeit. • Der fortdauernde Rückstand der deutschsprachigen und französischsprachigen Staaten gegenüber der angelsächsischen Welt bezüglich Wirt­ schaftskraft und Finanzierung von Wissenschaft und als Folge davon ein nachhaltiger brain drain. Neuerdings weisen die deutschen Medien auf die Rückkehrbereitschaft beträchtlicher Teile der in die USA übersiedelten deutschen Wissenschaftler hin, verschweigen aber die – wie die Zahlen verraten – beträchtlichen nicht rückkehrwilligen Teile. Weniger allgemein bekannt ist der Boykott gegen die deutsche Sprache und ihre Wissenschaftler nach dem Ersten Weltkrieg.44 Es gibt allerdings noch andere denkbare, weniger offenkundige Ursachen für die Zurückdrängung aller internationalen Wissenschaftssprachen außer einer einzigen, so dass – bis auf Reste – nur eine einzige Lingua franca der Wissen­schaft übrig bleibt, die nicht unbedingt Englisch sein müsste. Auf eine dieser Ursachen, die für Sprachwissenschaftler untersuchenswert wäre, stößt man bei der Beobachtung, dass Wissenschaftler anderer Fächer die Reduktion auf eine einzige Lingua franca nicht sonderlich erstaunlich finden. Aus nicht-sprachwissenschaftlicher Sicht und Interessenlage wundert man sich kaum, dass drei gleichrangige internationale Wissenschaftssprachen, darunter Deutsch, nicht auf Dauer haltbar waren, nötigten sie doch die Mutter­ sprachler aller anderen Sprachen dazu, zusätzlich zu ihrer Mutter­sprache drei Fremdsprachen zu lernen: mindestens eine davon bis zu einem soliden aktiven Kenntnisniveau (ähnlich C2 des Gemeinsamen Europäischen Referenzrahmens) und zwei weitere zumindest so weit, dass darin wissenschaftliche Texte gelesen und möglichst auch Vorträge verstanden werden konnten. Andernfalls waren die Wissenschaftler von bedeutsamen Teilen ihrer fachlichen Kommunikation abgeschnitten. Allem Anschein nach gab es nämlich kaum eine Wissenschaft, außer vielleicht kleinen Spezialgebieten, in denen nicht wichtige Kommunikation in allen drei Sprachen stattfand. Die Muttersprachler der drei bevorzugten Sprachen konnten sich dage44 Ulrich Ammon, Entwicklung der deutschen Wissenschaftssprache im 20. Jahrhundert. In: Friedhelm Debus, Franz G. Kollmann, Uwe Pörksen (Hg.), Deutsch als Wissen­ schaftssprache im 20. Jahrhundert. Vorträge des Internationalen Symposions vom 18./19. Januar 2000, Stuttgart 2000, 59-81, bes. 68-73; Roswitha Reinbothe, Deutsch als internationale Wissenschaftssprache und der Boykott nach dem Ersten Weltkrieg, Frankfurt am Main u.a. 2006.

66

Ulrich Ammon

gen mit nur passiven Kenntnissen zweier Fremdsprachen behelfen. In dieser Situation einseitiger, hoher Sprachbelastung der Sprecher aller anderen Sprachen außer Englisch, Französisch und Deutsch waren Ressentiments und Widerstände gewissermaßen vorprogrammiert. Allerdings blieb im Gegen­satz zu d’Alembert’s oben zitierter apokalyptischer Vision die Zahl der zu erlernenden Sprachen beschränkt. Für manche Sprachwissenschaftler ist es unbegreiflich, dass das Erlernen von und der Umgang mit – nur – drei Fremdsprachen ein Problem sein sollte. Jedoch gewinnt man in Gesprächen mit Naturwissenschaftlern schnell einen anderen Eindruck, wenn sie z.B. die Anforderungen ihrer Disziplin, nicht zuletzt in punkto Mathematik, schildern oder auf Beispiele sprachlicher Nichtbegabung von berühmten Fachkollegen hinweisen, wie etwa – wenn auch gerne übertrieben – von Einstein, der noch nach langem Aufenthalt in den USA inquisitive Studierende mit dem Satz vertröstet haben soll: „I have to a little think“.45 Bemerkenswert ist aus heutiger Sicht, dass es offenbar die angelsächsischen Wissenschaftler waren, denen damals die Sprachungleichheit in der Wissenschaftskommunikation am eindringlichsten auffiel und die über Lösungs­möglichkeiten nachdachten. Jedenfalls legten die British Association for the Advancement of Science und die American Association for the Advancement of Science im Jahr 1921 vereint dem Völkerbund einen Antrag vor, zu prüfen, ob nicht zweckmäßiger- und fairerweise die Plansprache Esperanto als weltweite Lingua franca der Wissenschaft eingeführt werden sollte, und zwar mit der folgenden Begründung: „The acceptance of any modern national language would confer undue advantages and excite jealousy […] Therefore an invented language is best.“46 Jedoch ist diese Initiative gescheitert, und zwar – wie wir heute wissen – hauptsächlich auf Betreiben Frankreichs, wie ebenso der weitergehende Versuch, Esperanto auch zur Amtssprache des Völkerbundes zu machen (neben den durch den Versailler Vertrag etablierten Amtssprachen Französisch und Englisch).47 Durch die Zurückweisung jener Initiative der angelsächsischen Wissenschaftsverbände 45 Dazu auch Armin Hermann, Das goldene Zeitalter der Physik. In: Debus et al. (wie Anm. 44), 209-227, bes. 224. 46 Science 60 (1922), 1416. 47 Ulrich Lins, Die gefährliche Sprache. Die Verfolgung der Esperantisten unter Hitler und Stalin, Gerlingen 1988, 49-61, bes. 54-61 und 308; Ulrich Ammon, Axel Hübler, Sprachplanung und Plansprachen: Zukunftsvisionen einer Welthilfssprache. In: Der Rektor der Universität Duisburg (Hg.), Visionen und Revisionen. 34. Duisburger Universitätstage 84, Duisburg 1985, 17-43, bes. 40 f.

Wissenschaftssprachen im Wandel der Zeiten

67

nahm die Entwicklung einen Verlauf, deren Ergebnis heute womöglich gerade Frankreich besonders missfällt. Anstelle einer echten Lingua franca, wie es Esperanto gewesen wäre, haben wir nun die unechte Lingua franca Englisch als Weltwissenschaftssprache (nicht – wie Frankreich einst erhoffte – sein Idiom oder das sicher auch von manchen ersehnte Deutsch), und damit die mit einer unechten Lingua franca unweigerlich verbundene Asymmetrie zugunsten der Mut­ter­sprach­ ler. Philippe van Parijs hat die damit gekoppelte „sprachliche Unge­rech­ tigkeit“ eingehend untersucht,48 die unter anderem darin besteht, dass die Anglophonen am gemeinsamen öffentlichen Gut der Lingua franca ohne eigene Kosten teilhaben und daraus durch Sprachunterricht und „Spra­ch­ industrie“ (Lehrmaterialien, Medienerzeugnisse usw.) sogar noch enorme Gratifikationen beziehen. Allerdings brauchen die Muttersprachler anderer Sprachen – im Gegensatz zu den vorausgehenden Zeiten – nur noch eine einzige Fremdsprache zu lernen, oder bräuchten es zumindest, wenn Englisch vollends eine Monopolstellung in der internationalen Wissen­ schaftskommunikation erlangen würde. Diese „Erleichterung“ – vor allem für die Sprachwissenschaftler setze ich das Wort in Anführungszeichen – ist vermutlich eine wesentliche, wenngleich sich nicht ohne Weiteres erschließende Ursache für die Zurückdrängung von Deutsch und Englisch. Ein weiterer, nicht gerade offenkundiger Grund für die wachsende Stel­ lungs­stärkung von Englisch und vor allem für die Stabilität der herausragenden Stellung ist die inzwischen ungeheure Anzahl englischsprachiger Publikationen und die riesige Menge darin gespeicherter wissenschaftlicher Erkenntnisse. Derek J. de Solla Price hat schon in den 1960er Jahren auf das enorme, exponentielle „Wissenschaftswachstum“ in der modernen Zeit hingewiesen. „Exponentielle Zunahme wird am besten durch die Verdoppelungszeit charakterisiert. Heute hat das Wissenschaftsvolumen, gemessen in Manpower und Publikationen, eine Verdoppelungszeit von 10 bis 15 Jahren.“49 Wie Abbildungen 1 und 2 zeigen, ist aber das überwältigende Gros wissenschaftlicher Veröffentlichungen in Englisch verfasst. Daraus kann man schließen, dass die Zahl der wissenschaftlichen Publikationen in Englisch inzwischen größer ist als die Zahl der wissenschaftlichen Publikationen in allen anderen Sprachen zusammen genommen, einschließlich aller je in einer anderen Sprache verfassten wissenschaftlichen 48 Philippe van Parijs, Linguistic Justice. In: Politics, Philosophy & Economics 1 (2001): 59-74 ; Ders., Linguistic Justice – for Europe and for the World, New York 2011. 49 Derek de Solla Price, Little Science, Big Science … and Beyond. Von der Studierstube zur Großforschung, New York 1963 (englisch), 17; Frankfurt am Main 1974 (deutsch), 23.

68

Ulrich Ammon

Texte. Auf Englisch eröffnet sich damit eine Fundgrube, die geradezu unerschöpflich anmutet und in deren Anbetracht die Suche in anderen Sprachen sich, nach Kosten und Nutzen betrachtet, kaum zu lohnen scheint. Dies gilt für viele Fächer und vor allem für interdisziplinäre Forschungen – nicht aber wirklich generell. Englisch ist nämlich zwar einer Monopolstellung als internationale Wis­ sen­schaftssprache nahe, hat sie aber nicht erreicht. Vielleicht kommt es sogar nie so weit. Dieser Frage möchte ich abschließend noch meine Auf­ merksamkeit schenken, einschließlich der damit verbundenen Frage nach der verbleibenden Stellung von Deutsch als internationale und auch nationale (intranationale) Wissenschaftssprache. Eine Antwort bedarf der differenzierten Betrachtung der Fächer oder Fächergruppen, in Anknüpfung an schon zuvor angedeutete Unterschiede. Die theoretischen Naturwissenschaften sind am stärksten anglisiert. Gründe dafür sind die meist universal interessierenden Themen. Ferner der besonders hohe Grad an fachlicher Spezialisierung, so dass es oft nur noch wenige engere Fachkollegen innerhalb der eigenen Sprachgemeinschaft gibt und international, sogar global vernetzte „unsichtbare Kollegien“50 entstehen, deren Kommunikation unter einander oft intensiver ist als an der eigenen Institution (Hochschule oder Forschungseinrichtung). Für diese Kommunikation eignet sich Englisch aufgrund seiner Weltstellung weitaus am besten. Dagegen ist in den angewandten Naturwissenschaften, also gewissermaßen den Technologien, die Nationalsprache meist unverzichtbar. In dieser Hinsicht unterscheiden sich z.B. Biologie und Landwirtschaftslehre (Forst­ wirtschaft usw.) oder theoretische Humanmedizin und klinische Medizin. Ein wesentlicher Grund ist die notwendige Kommunikation mit den „Kunden“ und der übrigen Gesellschaft, die nicht über ausreichende Eng­ lischkenntnisse verfügen. Auch in den Sozialwissenschaften ist, wie der Vergleich von Abbildung 2 mit Abbildung 1 verrät, Englisch nicht so dominant wie in den theoretischen Naturwissenschaften. Die Themen beziehen sich hier eher auf die eigene Gesellschaft, wo deshalb auch die häufigsten Adressaten der Publikationen zu finden sind. Aber Sprachen wie Deutsch oder Französisch haben hier noch eine, wenn auch marginale, internationale Stellung bewahrt, vielleicht weil die unsichtbaren Kollegien noch nicht in gleichem Maße globale Ausmaße angenommen haben wie in den theoretischen Naturwissenschaften. 50 Ebd., (dt. Ausgabe), 74-102.

Wissenschaftssprachen im Wandel der Zeiten

69

Die Gründe für die angewandten und die Sozialwissenschaften gelten a fortiori für die Geisteswissenschaften, in denen die Nationalsprachen nach wie vor fest verankert sind, wenn auch neben Englisch. Zusätzlich wirksam sind in diesen Fächern Textkonventionen mit fast künstlerischen Ansprüchen, denen nur durch differenzierte Anwendung auch der Alltags- oder Umgangssprache entsprochen werden kann. Das Verfassen solcher Texte erfordert außerordentlich hohe Sprachkenntnisse, die selten in einer Fremdsprache erreicht werden, was den Übergang zu Englisch als Wissenschaftssprache bremst. Hinzu kommt eine große eigene Forschungstradition in Deutsch und Französisch, auch Italienisch, aus der ein reicher Fundus von immer noch nur in diesen Sprachen verfügbaren Erkenntnissen vorliegt. Dies gilt für Deutsch vor allem für verschiedene Altertumswissenschaften, deren reiche Förderung zu früheren Zeiten, nicht zuletzt in Preußen und im Wilhelminischen Reich,51 nicht ohne weiteres zu darüber kursierenden stereotypischen Vorstellungen passt. In einer von mir durchgeführten Sekundäranalyse von Untersuchungen der „Nischenfächer“ – so ein von Harald Weinrich vorgeschlagener Terminus – von Deutsch als internationale Wissenschaftssprache haben sich die folgenden Fächer als am häufigsten genannt herausgestellt: • Germanistik, (Klassische) Archäologie, Ägyptologie, Musik(wissenschaft), Philosophie, Theologie (je 4 Nennungen) • Altertumswissenschaft, Kunstgeschichte, (Alt)Orientalistik, Klassische Philologie (je 3 Nennungen) (zusammenfassend: (Alte) Geschichte). Ich habe hier zur Verdeutlichung der Strukturen die besonders selbstständigen Fächer und meine Zusammenfassung der letzten Gruppe durch Kursivsatz hervorgehoben.52 Als allgemeine Ursachen für den Stellungsverlust von Deutsch und Fran­ zösisch lassen sich noch die Globalisierung und die damit zusammenhängenden Tendenzen des – von Jürgen Habermas so genannten – Über­gangs von der nationalen zur „Postnationalen Konstellation“ benennen, ohne dass die Zusammenhänge hier im Einzelnen dargelegt werden können. Diese Tendenzen treten auch zutage in einer sich aus nationalen Bindungen lösenden Einstellung der in diese Entwicklung eingebundenen Sozialgruppen, die nach Auffassung mancher Soziologen in Ansätzen schon eine eigen51 Siehe z.B. Stefan Rebenich, „Das System Althoff.“ Wissenschaft und Politik im Deutschen Kaiserreich. In Forschung & Lehre 19 (2012), 906-908. 52 Ulrich Ammon, Die Nischenfächer für Deutsch als internationale Wissenschaftssprache und die Zukunftsperspektiven. In: Quo vadis Romania? 40 (2012), 39-61.

70

Ulrich Ammon

ständige „transnationale Klasse“ bilden.53 Teil ihrer neuen Identifikation ist auch die Akzeptanz der „globalen Sprache“ Englisch und die Lockerung der Bindung an die Muttersprache, also Deutsch, Französisch usw. Etwas zugespitzt gesagt, gehören die theoretischen Naturwissenschaftler eher zu dieser neuen sozialen Klasse als die Geisteswissenschaftler. Erstere akzeptieren z.B., bei allen Ausnahmen, eher den Gebrauch von Englisch als Wissenschaftssprache als Letztere – wie ich übrigens in vielen Gesprächen am Rande des Österreichischen Wissenschaftstags 2012 selbst wieder einmal erfahren konnte. Damit meine ich die Akzeptanz unabhängig vom speziellen Bedarf oder Nicht-Bedarf im eigenen Fach. Aufgrund dieser Tendenzen, die – wie es scheint – um sich greifen, bedarf die Erhaltung der Stellung von Deutsch in den Nischenfächern und darüber hinaus großer Anstrengung seitens der deutschsprachigen Fachvertreter und seitens der Sprachenpolitik der deutschsprachigen Staaten und ihrer Hochschulen. Dies gilt ebenso oder erst recht für die Erhaltung von Deutsch als Sprache der Hochschullehre, deren partielle Anglisierung in der im vorliegenden Band dokumentieren Podiumsdiskussion zur Sprache gekommen ist. Denn ohne eine wirksame Sprachenpolitik wird die Anglisierung der Wissenschaften in den deutschsprachigen Staaten auf allen Ebenen weiter voranschreiten. Eine solche Sprachenpolitik wird sich aber nur entwickeln lassen auf der Grundlage genauer Kenntnis der tatsächlichen Verhältnisse und Wirkkräfte – deren Erforschung noch in ziemlich kleinen Kinderschuhen steckt. Vielleicht wird solche Forschung stimuliert durch „Aufschreie“, wie z.B. von Hans Goebl, oder durch Aktivitäten wie die des Arbeitskreises Deutsch als Wissenschaftssprache e.V. (ADAWIS), unter Leitung von Ralph Mocikat.54

53 Dazu Jürgen Gerhards, Mehrsprachigkeit im vereinten Europa. Transnationales Kapital als Ressource in einer globalisierten Welt, Wiesbaden 2010, 54. 54 Hans Goebl, English only – ein Aufschrei. In: Hartmut Schröder, Ursula Bock (Hg.), Semiotische Weltmodelle. Mediendiskurse in den Kulturwissenschaften. Festschrift für Eckhard Höfner zum 65. Geburtstag, Berlin 2010, 189-214. Zum Arbeitskreis Deutsch als Fremdsprache (ADAWIS) siehe www.adawis.de; auch z.B. Ralph Mocikat, Ein Plädoyer für die Vielfalt. Die Wissenschaftssprache am Beispiel der Biomedizin. In: Forschung & Lehre 14 (2007), 90-92.

Karl Sigmund

Mathematik als universelle Wissenschaftssprache Die Zeichensysteme der Mathematik Jede Wissenschaft hat ihre Sprache. Darüber hinaus gilt: Die Mathematik ist eine Sprache – eine beliebte Metapher. Schon Galileo schreibt im ‚Saggiatore‘: „Die Mathematik ist das Alphabet, mit dessen Hilfe Gott die Welt beschrieben hat, und die Natur spricht die Sprache der Mathematik: Die Buchstaben dieser Sprache sind Dreiecke, Kreise und andere mathematische Figuren.“ Und Goethe befindet in seinen ‚Maximen und Reflexionen‘: „Die Mathematiker sind eine Art Franzosen: Redet man zu ihnen, so übersetzen sie es in ihre Sprache, und dann ist es alsobald ganz etwas anderes.“ Das ist recht scharf beobachtet. Sprachen sind Zeichensysteme, mit deren Hilfe man sich verständigen kann. Die Zeichensysteme der Mathematik entwickeln sich fortwährend und rasant weiter. Die Kreise und Dreiecke, von denen Galileo spricht, tauchen auf den Seiten von Euklids ‚Elementen‘ und in zahlreichen anderen Büchern auf, so etwa in Newtons ‚Principia Mathematica‘. Zahlen kommen natürlich auch häufig vor, in vielerlei Gestalt. Aber die Mathematik hat gelernt, was Kindern oft Kopfzerbrechen bereitet, nämlich Buch­staben­ rechnen statt Zahlenrechnen, und so sind wir nicht erstaunt, wenn es in Mathematikbüchern von Formel wimmelt. Heutzutage beherrscht jeder Mathematiker ‚TeX‘, eine raffinierte Art, mathematische Formeln zu schreiben. Mathematiker denken in Formeln, so wie sie etwa auf eine Tafel geschrieben werden. Um aber einen druckfertigen Text zu schreiben, muss man die Formeln in eine Kodierung übersetzen, die ganz anders ausschaut. Darüber hinaus gibt es großartige Programme wie ‚Mathematica‘ oder ‚Maple‘, um zu rechnen, also dem Mathematiker die Routinearbeit mit Formeln und Gleichungen abzunehmen, Ausdrücke zu vereinfachen oder Aufgaben der darstellenden Geometrie zu lösen. Wieder eine Übersetzungsarbeit. Man tippt einen Befehl ein, in wieder einer anderen Zeichensprache, und heraus kommt eine Rechnung, oder eine Figur. Es muss freilich betont werden, dass nicht jeder Mathematiker mit Formeln oder Figuren arbeitet.

72

Karl Sigmund

Die Formalisierung der Mathematik Grundsätzlich lässt sich jede mathematische Aussage formalisieren und im Sinn David Hilberts auffassen als ein Spiel mit bedeutungslosen Zeichen nach gewissen einfachen Regeln. Man kommt mit sehr wenigen Zeichen aus (ein Dutzend reicht ohne weiteres). Eine mathematische Aussage kann demnach als eine gewisse Aneinanderreihung dieser Symbole aufgefasst werden, und ein Beweis als ein Text, bei dem jede Zeile nach gewissen ganz einfachen Regeln aus den vorausgehenden Zeilen abgeleitet wird – Einsetzregeln und Abtrennungsregeln, die ein Computer ganz leicht überprüfen kann. Das sieht dann beispielsweise so aus:

( ∀x )[ x + 0 = x ] ( ∀x )[ x + 0 = x ] → 0 + 0 = 0 0+0= 0

0 + x = x → ( 0 + Sx = S ( 0 + x ) → 0 + Sx = Sx )

( 0 + x = x → ( 0 + Sx = S ( 0 + x ) → 0 + Sx = Sx )) → ( 0 + Sx = S ( 0 + x ) → ( 0 + x = x → 0 + Sx = Sx ))

( 0 + Sx = S ( 0 + x ) → ( 0 + x = x → 0 + Sx = Sx )) …

( ∀y )[ 0 + y = y ]

Natürlich muss man bei solchen Beweisen irgendwo beginnen, mit Aus­ sagen, die man als Axiome voraussetzt. Diese brauchen ebenso wenig eine Recht­fertigung, wie es Spielregeln brauchen. Ob jetzt etwa das Parallelen­ axiom dazu verwendet wird oder nicht, ist dem Mathematiker grundsätzlich gleich. Man muss sich nur auf den Ausgangspunkt einigen. Was dann als letzte Zeile eines solchen Beweises aufscheint, ist ein Lehrsatz oder Theorem. Die Zeilen eines formalen Beweises können sehr lang sein, und ob man sie versteht oder nicht, ist meist irrelevant. Wohlgemerkt, in Wirklichkeit wird kein Mathematiker so vorgehen, dass er Zeile für Zeile herleitet. Wichtig ist nur, dass es grundsätzlich möglich ist. Ein frühes Beispiel für eine solche Zeichensprache bieten die Principia Mathematica von Russell und Whitehead anno 1910. So stehen auf Seite 323 des zweiten Bandes nur logische Symbole, mit Ausnahme der letzten zwei Zeilen, wo in einem Kommentar darauf hingewiesen wird, dass jetzt

Mathematik als universelle Wissenschaftssprache

73

alles bereit sei, um 1+1=2 zu beweisen. Natürlich wussten Whitehead und Russell, dass eine solche Aneinanderreihung bedeutungsloser Symbole ebenso wenig Mathematik ist wie das Aneinanderreihen von kaulquappenförmigen Notenzeichen Musik. Wichtig ist nur, dass es grundsätzlich möglich ist, die Mathematik zu formalisieren. Das erlaubt, mathematische Aussagen über mathematische Strukturen herzuleiten, also Meta-Mathematik zu betreiben, losgelöst von jeder mathematischen Vorstellung. Was man sich vorstellt, bleibt Privatsache.

Die kumulative Vorgangsweise der Mathematik Mathematikerinnen und Mathematiker stellen sich natürlich etwas vor und denken selbstverständlich nicht in Symbolen, sondern in wohldefinierten Begriffen, die zu erlernen Jahre verlangt. Um ein Beispiel von Tim Gowers1 aufzugreifen: jeder Mathematiker weiß, was ein Hilbertraum ist. Fragt man ihn danach, so antwortet er: ein Vektorraum mit einem inneren Produkt, der vollständig ist. Jetzt kann man ihn fragen, was ein Vektorraum ist, und ein inneres Produkt. Und was ‚vollständig‘ heißt? Er präzisiert: ‚Voll­ständig in Bezug auf die Metrik, die über die Norm durch das innere Produkt definiert wird.‘ Was ist eine Norm, was eine Metrik? Und danach kann man erklären, was ‚vollständig‘ heißt: dass jede Cauchy-Folge einen Grenzwert besitzt. Was ist ein Grenzwert? Und was ist eine Cauchy-Folge? Letzteres, sagt der Mathematiker, ist eine Folge an, so dass für jede noch so kleine reelle Zahl ε > 0 (epsilon) eine Zahl M existiert, so dass für alle noch größeren natürlichen Zahlen n und m gilt, dass der Abstand von an zu am kleiner als ε ist. Noch Fragen? Ja, was ist eigentlich eine Folge? Und was wird mit Abstand gemeint? Das Beispiel macht es deutlich: Die Begriffe der Mathematik, also ihre Worte, wenn sie so wollen, beruhen auf anderen, und diese wiederum auf anderen. Daher ist diese Sprache so schwer zu erlernen. Wenn jemand wissen will, was ‚tree‘ heißt, sagt man es ihm in seiner Muttersprache, oder deutet auf einen Baum, d.h. man verwendet eine andere Sprache oder außersprachliche Mittel. Wenn jemand wissen will, was ein Hilbertraum ist, kann man es nur ‚binnenmathematisch‘ erklären. Hier wird jahrelanges Training vorausgesetzt. 1 W.T. Gowers, Mathematics, a very short introduction, Oxford 2003.

74

Karl Sigmund

Dieses Zurückführen stößt natürlich auf ein Ende: die Axiome. Das sind ebenfalls Zeichenketten, weiter nichts, im Prinzip. Also nichts, was der Vorstellungskraft einen Halt gibt. Früher war das anders. Euklid konnte noch als Axiom verwenden: ‚Ein Punkt ist das, was keine Teile hat‘, und Georg Cantor, der Schöpfer der Mengenlehre, konnte die Mengen definieren als ‚Zusammenfassungen wohlunterschiedener Objekte zu einer Gesamtheit‘. Heute haben solche Aussagen in einem formalen Axiomensystem nichts mehr verloren. Freilich, sie dienen dazu, den Anfängern ein didaktisches Hölzl zuzuwerfen. Irgendetwas muss man sich ja vorstellen können! Wenn einmal die Grundlagen gelegt, die Spielregeln festgesetzt sind, kann es losgehen. Die Mathematik ist kumulativ, eins baut auf dem anderen auf, und da alles bewiesen wird, ist nichts falsch. Daher wird nie etwas weggeworfen – allerdings wird manchmal aufgeräumt. Was diesen andauernden Kumulationsprozess betrifft, so machen sich viele keine rechte Vorstellung von seinem Umfang. Auch bei hochgebildeten Gesprächspartnern trifft man oft auf die Frage: Gibt es in der Mathematik denn noch Neues zu entdecken? Mathematik ist heute aktiver denn je. Nur einige Hinweise: Heute leben weit mehr Mathematiker als in allen vergangenen Jahrhunderten zusammen. In Österreich gehen 12-14 Prozent aller Fördermittel des Wissenschaftsfonds an die Mathematik, anderswo wird es ähnlich sein. Weltweit gibt es über 500 wissenschaftliche Journale. Jedes Jahr werden Millionen von neuen Lehr­sätzen entdeckt. Mathematik ist der unerlässliche Schlüssel für jede Hoch­technologie, denken Sie nur an Computertomographie, drug design, Navigationsgeräte oder Google. Doch es gibt einen guten Grund für die falsche Annahme, in der Mathe­ matik sei bereits alles bekannt: Was in der Mathematik entdeckt wird, bleibt für alle Zeit gültig. Wie ungewöhnlich das ist, zeigt der Vergleich mit der Physik: Aristoteles vermutete, dass es vier Elemente gibt, Himmelssphären sich um die Erde drehen, alles nach unten fällt etc. Seine Auffassungen sind fast alle grundfalsch. In der Mathematik blieb dagegen alles richtig, was bereits in den Büchern Euklids steht, es ist nur noch viel Neues dazugekommen. Im Schulunterricht kann man nur eine begrenzte Menge behandeln und muss im Grunde dort aufhören, wo die Mathematik vor dreihundert Jahren stand.

Mathematik als universelle Wissenschaftssprache

75

Die logizistische Auffassung der Mathematik Wenn also die Mathematik eine Sprache ist, worüber spricht sie? Oder besser gefragt, wovon handelt sie? Sie ist ja auch eine Wissenschaft, nicht nur eine Sprache, die anderen Wissenschaften dient. Alle Natur- und Geistes­ wissenschaften haben ihre klar umrissene Domäne: Biologie handelt von Lebe­wesen (wie immer man diese definiert), Archäologie von unseren menschlichen Vorfahren und ihren Hinterlassenschaften. Womit befasst sich die Mathematik? Manche, so Gottlob Frege oder der junge Bertrand Russell, waren der Auffassung: mit den allgemeinsten Eigenschaften, mit dem, was immer wahr ist. Heute vertreten viele die Auffassung, sie handelt von nichts. Bevor ich diese Auffassung näher erörtere, zunächst eine etwas oberflächliche Bemerkung: Ein Großteil der Geometrie kann durch Koordinatensysteme studiert werden, also durch reelle Zahlen, ein Großteil der reellen Zahlen kann auf die natürlichen Zahlen Eins, Zwei, Drei … zurückgeführt werden. Sind diese nun der Weisheit letzter Schluss, gewissermaßen ‚gottgegebene‘ Bausteine für das Fundament? Nein, heute führt man alle Gebiete der Mathematik, insbesondere auch die Zahlen Eins, Zwei, Drei … auf die bereits erwähnte Mengenlehre zurück. Und wie führt man die natürlichen Zahlen mittels der Mengen ein? Eine Menge ist eine Zusammenfassung von Elementen, haben wir gerade gehört. So etwa, wie in Ihrem Computer ein Ordner eine Zusammenfassung von Dateien ist. Nun kann eine Menge leer sein (so wie ein Ordner). Und weiter kann eine Menge Element einer Menge sein, so wie ein Ordner in einem Ordner enthalten sein kann. Die folgende Konstruktion der natürlichen Zahlen geht auf den berühmten John von Neumann zurück, einer der Väter des modernen Computers, einst Lieblingsschüler von Hilbert. { } ist die leere Menge 0 := {

} 1 := {{ }} 2 := {{{ }}}

{{{{ }}}} 4 := {{{{{ }}}}} 3 :=

Die Null entspricht demnach der leeren Menge; die Eins der Menge, die diese enthält (und etwas anderes ist als die leere Menge; ganz so wie ein Ordner, der

76

Karl Sigmund

nichts als einen leeren Ordner enthält, kein leerer Ordner ist). Die Zwei ist die Menge, die als einziges Element die Eins enthält usw. So können wir, von der leeren Menge ausgehend, den Zählvorgang und damit die natürlichen Zahlen darstellen. Addition und Multiplikation sind leicht zu definieren. Von da zu den ganzen Zahlen (hier kommen noch 0, -1, -2 … zu den natürlichen Zahlen dazu), zu den rationalen Zahlen, also den Bruchzahlen, zu den reellen Zahlen (also den unendlichen Dezimalbrüchen), zu den komplexen Zahlen, zu höherdimensionalen Räumen ist Routine. Sie sehen, alles baut auf der leeren Menge auf, also auf buchstäblich Nichts! Doch jetzt zu einer gewichtigeren Argumentation, deren Verbreitung auf Ludwig Wittgenstein zurückgeht und auf den Wiener Kreis, deren Mit­ begründer Hans Hahn, ein berühmter Mathematiker war. Er ist übrigens in einer Villa am Semmering aufgewachsen, sie liegt oberhalb des Golfplatzes. Ich halte mich an Hahns Schriften2 – nicht nur, um dem Genius loci zu huldigen, sondern weil, was er sagt, inzwischen in der Gemeinschaft der Mathematiker mehrheitsfähig geworden ist. ‚Es war Wittgenstein‘, so schreibt Hahn, ‚der den tautologischen Charakter der Logik erkannte, und der betonte, dass den sogenannten logischen Konstanten (wie ‚und‘, ‚oder‘ usw.) in der Welt nichts entspricht.‘ Hier wird der Ausdruck ‚Tautologie‘ im allgemeinsten Sinn verwendet: als Satz, der durch seine bloße Form wahr ist. Da nun gemäß Russell die Mathematik auf die Logik zurückgeführt werden kann, ist auch die Mathematik eine Tautologie. Diese Auffassung wird von vielen Mathematikern, für die ‚Tautologie‘ einen Beigeschmack des Trivialen hat, entschieden zurückgewiesen. ‚Und in der Tat‘, schreibt Hahn, ‚es scheint auf den ersten Blick kaum glaublich, dass die ganze Mathematik mit ihren so schwer erkämpften Sätzen, mit ihren oft so überraschenden Resultaten, sich sollte in Tautologie auflösen lassen. Aber diese Argumentation übersieht nur eine Kleinigkeit: Sie übersieht den Umstand, dass wir nicht allwissend sind. Ein allwissendes Wesen freilich wüsste unmittelbar, was alles bei Behauptung einiger Sätze mitbehauptet ist, es wüsste unmittelbar, dass auf Grund der Verabredungen über den Gebrauch der Zahlzeichen und des Zeichens ‚x‘ mit 24x31 und 744 dasselbe gemeint ist; ein allwissendes Wesen braucht keine Logik und keine Mathematik‘. Und an anderer Stelle: ‚Ein allwissendes Subjekt braucht keine Logik, und im Gegensatz zu Plato können wir sagen: Niemals treibt Gott Mathematik.‘

2 H. Hahn, Empirismus, Logik, Mathematik, Frankfurt 1988.

Mathematik als universelle Wissenschaftssprache

77

Denn ‚der Anlass dafür, eine Symbolik einzuführen, ... die es gestattet, dasselbe verschieden zu sagen, liegt darin, dass wir nicht allwissend sind.‘ Die Logik ist demnach nichts weiter als ‚eine Vorschrift, um dasselbe auf verschiedene Weisen zu sagen und aus dem Gesagten alles herauszuziehen, was (im strengen Sinn) seine Bedeutung ist.‘ ‚Wollte man die Logik‘ führt Hahn aus, ‚auffassen als die Lehre von den allgemeinsten Eigenschaften der Gegenstände, so stünde hier der Empirismus tatsächlich vor unüberwindlichen Schwierigkeiten.‘ Bei einem Satz wie ‚zwei und zwei ist vier‘ ist es ja unvorstellbar, dass er etwa morgen nicht gelten könnte, er kann daher nicht aus der Erfahrung stammen. Aber: ‚Unsere Auffassung hingegen besagt: Die Logik handelt keineswegs von sämtlichen Gegenständen, sondern sie handelt nur von der Art, wie wir über die Gegenstände sprechen; die Logik entsteht erst durch die Sprache. Und gerade daraus, dass ein Satz der Logik überhaupt nichts über irgendwelche Gegenstände aussagt, fließt ... seine Unwiderleglichkeit.‘ Zusammenfassend: ‚Die Logik sagt also über die Welt gar nichts aus, sondern sie bezieht sich nur auf die Art, wie ich über die Welt spreche.‘

Eine Sprache, die man überall spricht Soviel zu Mathematik und Sprache. Warum Universalsprache? Das kann auf zweierlei Art verstanden werden. Eine Sprache, die man überall spricht, oder eine Sprache, die für alles verwendet werden kann. Zunächst zur Universalsprache, im Sinne von: überall gesprochen. Auf dem zwanzigtausend Jahre alten so genannten Ishango Knochen sind Kerben eingeritzt. Ob damit gerechnet wurde, ist unklar: in einer Reihe findet man die Primzahlen zwischen zehn und zwanzig (also 11, 13, 17, 19), aber das ist vermutlich Zufall. Gezählt wird fast überall, es scheint ein universelles menschliches Merk­ mal zu sein. Bemerkenswert ist, dass es Stämme gibt, die nur ‚eins, zwei, viele‘ zählen können, und Völker, die für gewisse Zahlwörter (etwa die Zwei) verschiedene Worte verwenden, je nachdem, ob es sich um zwei Menschen, zwei Eier oder zwei Berge handelt. Schon hinter dem allgemeinen Zahlbegriff ‚Zwei‘ steckt, wenn man es recht bedenkt, eine ungeheure Abstraktionsleistung. Zwei und zwei ist vier. Deux plus deux font quatre. Das hängt nicht von der Landessprache ab. Diese ändert nichts daran, dass zwei und zwei vier ergibt, auch wenn sich manche daran stoßen. Einer davon war Lord Byron: ‚I know that two and two make four & should be glad to prove it too if I could

78

Karl Sigmund

– though I must say if by any sort of process I could convert two and two into five would give me much greater pleasure.’3 Und Fyodor Mikhailovitsch Dostoyewskii pflichtet bei: ‘Zwei und zwei macht vier scheint mir einfach eine Unverschämtheit zu sein. Zwei und zwei macht vier ist ein frecher Stutzer, der mit verschränkten Armen den Weg verstellt und auf den Boden spuckt. Ich gebe zu, dass zwei und zwei macht vier eine ausgezeichnete Sache ist, aber wenn wir alles recht bedenken, kann zwei und zwei gleich fünf auch ganz charmant sein.‘4 Diese zwei Schriftsteller hätte der schon etwas bärtige Witz von den Hotsitutsis erfreut, einem Stamm, wo doch tatsächlich zwei und zwei macht fünf gilt, und sie das auch beweisen können: denn sie haben, wie die alten Inkas, ein Zahlsystem mit Schnüren und Knoten. Eine Schnur mit zwei Knoten bedeutet zwei. Wenn man zwei solche Schnüre nimmt und zusammenknüpft, kommt tatsächlich fünf heraus, ganz so wie Byron und Dostojewski es wünschten. Ein gutes Bezeichnungssystem kann offenbar äußerst nützlich sein, um uns vor Irrtümern zu bewahren. Wir wissen, dass unser Dezimalsystem keineswegs das einzig mögliche ist. Die Babylonier zählten zur Basis 60. Die Römer hatten ein Dezimalsystem, aber eine unerhört komplizierte Schreibweise. Man versuche nur einmal, auf ‚lateinisch‘ 24x31=744 nachzurechnen. Die so genannten arabischen Ziffern kommen aus Indien und stammen aus dem 3. Jahrhundert vor Christus, aber erst im 9. Jahrhundert lieferten die Inder die Null nach – eine geniale Erfindung, denn sie erlaubte die uns geläufige Dezimalschreibweise. Wir brauchen keine eigenen Symbole, wie im Latein für die Zehn (X), die Hundert (C), die Tausend (M) usw. Und beim Computer sind die Vorteile des Binärsystems ebenfalls evident. Da braucht man nicht mehr zehn Ziffernsymbole (für jeden Finger eins), sondern nur mehr zwei, die Null und die Eins. Hier wird also nicht mit den Fingern, sondern mit den Fäusten gezählt. Dass zwei und zwei vier ergibt, egal in welcher Sprache man rechnet, ist freilich nicht viel anders, als dass Wasser aus Wasserstoff und Sauerstoff besteht, auch das ist überall gleich. Und dass die Kreiszahl Pi überall dieselbe ist, ist auch nicht erstaunlich. Für die Feinstrukturkonstante der Physiker gilt das ebenso. Übrigens: Das mit der Kreiszahl war nicht immer so. Im Alten Testament wird ein kreisrundes Becken beschrieben mit einem Durchmesser von 10 Ellen und einem Umfang von 30. Da ist also Pi=3. Nie hat der Autor der Bibel es für nötig gehalten, ein Erratum anzubringen. 3 Leslie A. Marchand (ed), G. G. Byron’s Letters and Journals 3, Cambridge MA 1973. 4 F. Dostojewskij, Aufzeichnungen aus dem Kellerloch, Stuttgart 1984.

Mathematik als universelle Wissenschaftssprache

79

Eine Vereinheitlichung der Bezeichnungsweisen ist in jeder Natur­ wissen­schaft selbstverständlich. In den Geisteswissenschaften kann es verschiedene Schulen geben, die sich über Generationen hin lustvoll bekämpfen, in den Naturwissenschaften und der Mathematik kommt dergleichen nicht vor. Enzensberger hat die Mathematik als die radikalste aller Geistes­ wissenschaften bezeichnet,5 aber in ihrer Fähigkeit zum Konsens sind die Mathematiker eher mit den Naturwissenschaftlern vergleichbar. In gewisser Hinsicht sind sie sogar einhelliger. Obwohl es hunderte von verschiedenen mathematischen Fachgebieten gibt, wird die Einheit der Mathematik eifersüchtig bewahrt, allein schon, weil sie – und das ist das Schönste an der Mathematik – oftmals zu völlig unvermuteten Querverbindungen zwischen den Gebieten (z.B. komplexen Zahlen und euklidischer Geometrie) führt. Es gibt zahlreiche äußerliche Indikatoren für die Einheit der Mathe­mati­ ke­rinnen und Mathematiker. Alle vier Jahre veranstalten sie einen Welt­ kongress (so etwas wie olympische Spiele), während es keinen Weltkongress aller Physiker oder aller Biologen gibt. Wissen­schafts­journalisten haben auch bemerkt, dass über die interne Rangordnung unter den Mathematikern (ein sehr beliebtes, fast obsessives Thema in den Kaffee­pausen bei mathematischen Treffen) fast so etwas wie Konsens herrscht (in den Wirtschaftswissenschaften etwa ist das ganz anders). In diesem gewissermaßen ‚soziologischen‘ Sinn ist also die Mathematik einheitlicher als andere Wissenschaften. Und obwohl mathematische Texte dem Laien oft wie verschlüsselt erscheinen, hat die Mathematik wenig von einer Geheimwissenschaft. Zur Zeit des Pythagoras war das anders. Möglicherweise gibt es heute mathematische Resultate über Verschlüsselungen, die von den Angestellten der National Security Agency unter Verschluss gehalten werden, aber das ist eine Marginalie. Die Mathematik bemüht sich, so offen wie möglich zu sein. Dass sie dennoch nur so wenige näher zu berühren vermag, wird von ihren Adepten allgemein bedauert, und dass sie ob ihrer schweren Verständlichkeit im Schulunterrichtet als Einschüchterungsmittel eingesetzt werden kann, ist eine Tragödie. Die Mathematik ist überall auf unserem Planeten dieselbe. Aber ist sie tatsächlich universal? Das anzunehmen scheint fast unvermeidlich. Jedenfalls stellt man sich vor, dass wir, falls wir je mit Außerirdischen in Kontakt kommen sollten, zunächst mittels der Mathematik kommunizieren werden. Das war in den frühen Sechzigerjahren Thema der Science Fiction TV Serie ‚A for Andromeda’ des Kosmologen Fred Hoyle. 5 H.M. Enzensberger, Drawbridge Up: Mathematics – A Cultural Anathema / Zugbrücke außer Betrieb: Die Mathematik im Jenseits der Kultur (dt., engl.), Natick MA 1999.

80

Karl Sigmund

Übrigens blieb es nicht bei der Fiktion. Im Jahr 1974 wurde unter großem Aufwand vom Arecibo- Observatorium aus eine Botschaft an Außerirdische geschickt, und zwar ‚auf mathematisch‘. Die Nachricht besteht aus 1979 Bit. Der Empfänger wird sofort verstehen, dass diese Zahl in zwei Primfaktoren 23 und 73 zerlegt werden kann, und die Folge der Bits also in eine 23x73 Matrix. Der erste Absatz zeigt die Zahlen 1 bis 10 in binärer Kodierung (wir dürfen ja nicht annehmen, dass die Wesen gerade zehn Finger haben). Der zweite Absatz zeigt die Ordnungszahlen (Protonen) von Wasserstoff, Stickstoff, Sauerstoff, Kohlenstoff und Phosphor (die Atome, aus denen DNA aufgebaut ist), und so geht das weiter. Später kommt eine grobe Skizze der menschlichen Figur und eine Größenangabe hinzu (vierzehn: wir sind etwa vierzehnmal so groß wie die Wellenlänge, auf der gesandt wird). Dann noch ein paar Angaben über das Sonnensystem und die Lage des Arecibo Observatoriums. Alles in Zahlen codiert! Es ist also klar, dass hier die Mathematik als Universalsprache angesehen wird. Es ist möglich, dass die außerirdischen Wesen keine Finger haben, keine Ohren, für Musik völlig unempfänglich sind – aber ein bisserl Mathematik müssen sie schon beherrschen, um uns empfangen zu können. Wir wenden uns nicht an Nebochanten, so die unterschwellige Botschaft. Dass freilich nur ein Bruchteil eines Prozents von uns Irdischen mit der codierten Botschaft etwas anfangen kann, wirft ein bezeichnendes Licht auf deren Verfasser.

Die universelle Anwendbarkeit der Mathematik Und nun zur Rolle der Mathematik als universell anwendbarem Werkzeug, sozusagen dem Schweizermesser des analytischen Denkens. Das beruht unter anderem auf den schon angesprochenen, ganz erstaunlichen Querverbindungen innerhalb der Mathematik. Um ein ganz einfaches Beispiel zu nennen, das uns so vertraut ist, dass wir gar nicht mehr darüber staunen: In der Geometrie untersucht man etwa Punkte, Geraden oder Kegelschnitte wie Parabel, Ellipse und Hyperbel. In der Algebra (schon in der einfachsten Schulalgebra) untersucht man lineare Gleichungen ax+by+c=0 oder quadratische Gleichungen. Seit Descartes weiß man, dass man Punkte in der Ebene durch Paare von Zahlen darstellen kann. Dann entsprechen die linearen Gleichungen den Geraden, und die quadratischen den Kegelschnitten, und alle geometrischen Resultate lassen sich auf Gleichungen zurückführen. Sehr sonderbar.

Mathematik als universelle Wissenschaftssprache

81

Ein anderes einfaches Beispiel: Gewisse quadratische Gleichungen, etwa

x 2 + 1 = 0,, besitzen keine Lösung. Man möchte aber doch eine haben,

daher führt man eine imaginäre Einheit ein, die Wurzel von Minus Eins, und rechnet damit einfach so, wie man es gewohnt ist. Es scheint Wahnsinn zu sein, aber es liefert interessante Resultate, nicht nur über komplexe Zahlen, sondern auch über die reellen. Und zur Zeit von Gauß erkannte man: Die mysteriöse Wurzel von Minus Eins ist einfach ein Punkt in der Ebene, die Multiplikation mit einer komplexen Zahl eine Drehstreckung. Und die komplexen Zahlen, die zunächst wie ein Zaubertrick erscheinen (und übrigens tatsächlich durch einen berüchtigten Falschspieler namens Cardano eingeführt wurden), sind längst unverzichtbar, in der Physik wie in den Ingenieur­ wissenschaften. Elektrotechniker gebrauchen sie ständig. Und Ähnliches geschieht immer wieder. Völlig unerwartete Anwendungen tauchen auf. Sie sind meist gar nicht beabsichtigt, manchmal gar nicht willkommen. Vor circa 80 Jahren schrieb der englische Zahlentheoretiker G.H. Hardy,6 der Reinste der Reinen, in ‚A Mathematician’s Apology‘, dass er alle Anwendungen verachte, sie gewissermaßen als Kollateralschaden betrachte. Gott sei Dank, fügt er hinzu, gibt es Gebiete der Mathematik, die sich jeder Anwendung entziehen und immer entziehen werden. Und die zwei Beispiele, die er nennt, sind Zahlentheorie (grob gesprochen, die Lehre von den Primzahlen) und Relativitätstheorie. Wie hat sich das geändert! Nicht nur, dass die Relativitätstheorie in der Kernphysik eine entscheidende Rolle spielt, sogar etwas so alltägliches wie das GPS funktioniert mit der nötigen Genauigkeit nur, weil relativistische Korrekturterme berücksichtigt werden. Und alle ihre Mails, Kreditkarten, e-cards sind verschlüsselt durch raffinierte Methoden der Faktorisierung in Primzahlen, die auf hochentwickelter Zahlentheorie beruhen. Man hat den ersten Weltkrieg einen Krieg der Chemiker, den zweiten als Krieg der Physiker bezeichnet, ein kommender Krieg wird vielleicht ein Krieg der Mathematiker sein. Übrigens, schon im vorigen Weltkrieg konnten beide Seiten die verschlüsselten Nachrichten der anderen entziffern, mit mathematischen Methoden, hinter denen Mathematiker wie etwa Alan Turing7 standen. Hier ist ein weiterer Bezug zur Universalität der Mathematik gegeben. Schon in den Dreißigerjahren entwarf Alan Turing ein Gerät, das grundsätzlich alle Algorithmen durchführen konnte, die irgendeine Maschine durchführen kann. Ein universeller Computer, heute oft Turing Maschine genannt, entstand um ein höchst abstraktes Problem von Hilbert zu lösen. Der uni6 G. H. Hardy, A Mathematician’s Apology, Cambridge 1940. 7 A. Hodges, Alan Turing, Enigma, Berlin 1994.

82

Karl Sigmund

verselle Computer ist ein lächerlich umständliches und langsames Gerät, das Symbole auf einem Bandstreifen gemäß einer Tabelle von einfachen Regeln manipuliert. Es hat die Eigenschaft, dass es im Prinzip jeden Algorithmus, jedes Programm durchführen kann. Im Zweiten Weltkrieg baute eben dieser Turing riesige Rechner (die so genannten Colossus Maschinen), um die deutsche Enigma-Verschlüsselung zu knacken, und in den Nachkriegsjahren entwickelten er und andere daraus einen der ersten programmierbaren Computer, als Realisierung der Universal-Maschine. In den Sechzigerjahren schrieb der Physik-Nobelpreisträger Eugene Wigner einen berühmten Artikel ‚On the unreasonable effectiveness of mathematics‘.8 Der Artikel beginnt mit einem Witz (hier etwas ausgebaut). Zwei Schulfreunde treffen sich. Der eine ist reich geworden, der andere Bevöl­ kerungs­statistiker, Demograph. Sie erkundigen sich, was der jeweils andere tut. ‚Na ja‘, sagt der Reiche, ‚ich bin im Großhandel. Also ich kaufe hundert Kartons um drei Dollar, verkaufe sie um sechs, und von diesen läppischen drei Prozent lebe ich. Und was machst du?‘ Der Statistiker zeigt ihm einen Sonderdruck seiner letzten Arbeit. Dort kommt natürlich, wie meist in der Statistik, die Normalverteilung vor, die Formel für die Gaußsche Glockenkurve. ‚Was soll denn das heißen?` fragt der Freund und zeigt auf das Integralzeichen. Ein Integral, sagt der andere. Das schreibt man, wenn man viele kleine Sachen aufaddiert. ‚Aha‘, sagt sein Schulfreund, schon recht skeptisch, ‚und das?‘ Er zeigt auf das Pi im Nenner. ‚Das solltest du kennen, das ist die Kreiszahl Pi. Du weißt ja, Umfang des Kreises durch Durchmesser‘. ‚Jetzt veräppelst du mich‘, sagt der andere verärgert. ‚Ich muss nicht jeden Blödsinn glauben. Ein Kreis kann doch unmöglich etwas mit einer Bevölkerung zu tun haben!‘ Viele von uns sind schon zu verbildet, um darüber staunen zu können. Aber es ist tatsächlich höchst staunenswert. Mathematik ist als das non plus ultra des Technologie-Transfers bezeichnet worden. Dieselben Methoden lassen sich anwenden auf die Stabilität eines elektrischen Regelkreises, oder einer chemischen Reaktion, oder einer mechanischen Steuerung. Es geht immer darum, ob ein Eigenwert in der rechten Halbebene der komplexen Zahlen liegt, oder nicht. Auf der Berechnung der Eigenwerte riesiger Matrizen beruht übrigens das so genannte page-rank Verfahren, das dem Erfolg der Suchmaschine Google zugrunde liegt.

8 E. P. Wigner, The unreasonable effectiveness of mathematics in the natural sciences. In: Communications on Pure and Applied Mathematics 13 (1960), 1-14.

Mathematik als universelle Wissenschaftssprache

83

Abstraktion und Möglichkeitssinn Das Rezept der Mathematiker ist die Abstraktion. Diese Eigenschaft wird ihr oft als Fehler vorgeworfen, so als brächte sie dieser unselige Hang zur Abstraktion auf die schiefe Bahn. Ganz im Gegenteil. Das ist gerade das Erfolgsgeheimnis der Mathematik: die Bereitschaft, bei einem Problem alles, was überflüssig erscheint, gedanklich zu eliminieren, dafür aber einen ausgedehnteren Bereich als den der Wirklichkeit zu betrachten und das tatsächlich Vorhandene mit allen möglichen und sogar unmöglichen Alternativen zu vergleichen. Die Mathematiker sind die Virtuosen des Gedankenexperiments, des ‚so tun, als ob‘. Besonders schön wird das bei der Methode des indirekten Beweises vorgeführt: Da wird eine Annahme gemacht (z.B.: es gibt eine größte Primzahl), daraus werden Schlüsse gezogen, man kommt zu einem Widerspruch und darf daraus folgern, dass die Annahme nicht gelten kann (hier also: dass es unendlich viele Primzahlen gibt). Robert Musil hat vom Möglichkeitssinn des Mathematikers gesprochen (im Gegensatz zum Wirklichkeitssinn, der im Alltag recht nützlich sein kann). Man tut so, als ob die Axiome gültig wären; oder, um die Gedankenspiele auf die Wirklichkeit anwenden zu können, als ob diese durch ein bestimmtes Modell beschrieben wird. Beispielsweise: Wir werfen einen Stein (hier folge ich wieder dem obzitierten Buch von Tim Gowers). Wie fliegt der Stein? Wie steil muss der Winkel sein, damit der Stein möglichst weit fliegt? Im Modell wird der Stein durch einen Massepunkt ersetzt. Wir nehmen also an, dass es keinen Luftwiderstand gibt. Des Weiteren, dass die Schwerkraft überall gleich stark ist, was nicht ganz stimmt; dass unsere Körperkraft, oder genauer, die Geschwindigkeit, die wir dem Stein verleihen, nicht vom Winkel abhängt, was auch nicht ganz stimmt, usw. Resultat: Der Stein fliegt längs einer Parabel (wieder so ein Kegelschnitt!), und am weitesten, wenn wir ihm 45 Grad Neigung verleihen. Das gilt in Timbuktu genau so wie am Semmering. Sogar am Mars wäre es richtig. Wenn der Stein, sagen wir, durch einen Golfball ersetzt wird, können wir dasselbe Modell verwenden. Freilich, wenn er durch einen Eimer voll Wasser ersetzt wird, oder durch eine Tuchent, dann nicht. Jedes Modell hat Grenzen. Jetzt nehmen wir zwei Würfel. Im Prinzip wäre es denkbar, dass wir ähnlich vorgehen können. Wenn wir den Wurf hinreichend genau beschreiben, im Modell, und die Rotationsgeschwindigkeit des Würfels oder seine Elastizität berücksichtigen, und wie hoch über den Tisch wir ihn loslassen, könnte es möglich sein, auszurechnen, welche Augenzahl gewürfelt wird.

84

Karl Sigmund

Aber wir ahnen bereits: Das wird nicht klappen. Statt das Modell also präziser zu machen, indem wir weitere Informationen berücksichtigen, gehen wir den entgegengesetzten Weg und sagen: Wir wissen gar nichts, daher ist jede Seite gleich wahrscheinlich. Ein Modell für den Wurf mit zwei Würfeln ist also die Menge aller Paare (1,1), (1,2), (3,5) etc. von möglichen Augenzahlen. Es gibt sechsunddreißig davon. Wir nehmen an, dass sie gleich wahrscheinlich sind. Und schon können wir interessante Fragen stellen. Mit zwei Würfeln lässt sich die Augensumme 9 auf zweierlei Weise erhalten, als 3+6 oder als 4+5. Ebenso kann man die Augensumme 10 auf zweierlei Weise erhalten, als 4+6 oder 5+5. Wieso kommt es dann häufiger zur Augensumme 9 als zur Augensumme 10? Wenn man mit drei Würfeln spielt, kann man die beiden Augensummen 9 und 10 auf jeweils sechs verschiedene Weisen erhalten. Aber diesmal kommt die 10 häufiger vor als die 9. Das verlangt nach Erklärung. Und tatsächlich, mit einem Schlag beschäftigten sich Geistesgrößen wie Pascal, Fermat, Newton und Huyghens mit dieser anscheinend läppischen Frage. Wie Sie wissen, hat sich inzwischen die Wahrscheinlichkeitsrechnung von den Spielsalons emanzipiert. Heute ist sie aus Physik, Chemie, Wirt­ schaft, Biologie nicht wegzudenken.9 Wir können mit dem Zufall rechnen und haben das gewissermaßen spielerisch gelernt. Wie sonderbar, zu bedenken, dass dies erst im 17. Jahrhundert geschah, dass hingegen die Griechen, die doch gern würfelten und sich sogar die Erfindung des Würfelspiels zuschrieben (als Zeitvertreib der Belagerer Trojas), den Zufall ihren Göttern überließen und nicht damit rechneten. Auch andere Gebiete schienen zunächst für die Mathematik tabu zu sein. So etwa die Biologie. Wie können denn formale Überlegungen etwas aussagen über die Wunderwelt des Lebendigen, das Reich des Unvorhersehbaren? Solches Erstaunen findet man gelegentlich jetzt noch, hundert und fünfzig Jahre nach Gregor Mendel, der übrigens an der Wiener Universität ein ausgezeichneter Mathematikstudent war, aber bei der Lehramtsprüfung dreimal durchfiel, und zwar in Botanik. Heute ist Genetik ohne mathematische Grundlage gar nicht vorstellbar, ob es sich nun um Populationsgenetik oder Bioinformatik handelt. Auch in Ökologie oder Immunologie sind mathematische Methoden unverzichtbar. Interessant ist hier die Geschichte der Verzweigungsprozesse. Diese beschreiben Individuen, die sich unabhängig voneinander fortpflanzen können oder sterben. Die Theorie wurde erstmals entwickelt, um die Verbreitung 9 K. Sigmund, Spielpläne, Hamburg 1994.

Mathematik als universelle Wissenschaftssprache

85

und das Aussterben von Familiennamen zu beschreiben. Später wandte der große Evolutionsbiologe Haldane Verzweigungsprozesse auf Bakterien und andere Mikroorganismen an. Und erst wesentlich später bemerkten die Physiker (Schrödinger gehörte zu ihnen), dass den Kettenreaktionen Verzweigungsprozesse zugrunde liegen. Natürlich entwickelten sie sehr schnell die notwendige Theorie, ohne zu ahnen, dass ihnen diesmal die Biologen zuvorgekommen waren. Von Familiennamen über Bakterien zu Neutronen. Übrigens sind auch die Finanzwissenschaftler einmal den Physikern zuvor gekommen.10 Noch vor dem jungen Einstein hat sich ein Student von Poincaré namens Louis Bachelier von den Börsekursen anregen lassen, Irrfahrten zu studieren. Die Physiker entdeckten das alles noch einmal, als sie die Brownsche Bewegung untersuchten. Und das wurde wieder in die Finanzmathematik zurücktransferiert, zur Black Scholes Formel, mit der allerhand Unfug angestellt wurde. Festhalten wollen wir nur: Auch in den Sozial- und Wirtschafts­wissen­ schaften und in den Geisteswissenschaften, wie etwa der Linguistik, ist die Mathematik ein wichtiges Werkzeug. Bleibt also die Frage: Gibt es überhaupt etwas, das der Mathematik unzugänglich ist? Ich glaube, nein. Genauer ausgedrückt: Alles, worüber man sprechen kann, ist der Mathematik zugänglich. Ich verwende den Ausdruck ‚worüber man sprechen kann‘ im Sinn von Wittgensteins Tractatus: im Bezug auf die Darstellungsfunktion des Sprechens. Die Sprache hat auch eine Ausdrucksfunktion. Hier hilft die Mathematik nicht. Es gibt das, worüber man nicht sprechen kann. Aber darüber schweigen möchte man auch nicht. Natürlich kann solches Reden, auch wenn es keinen Inhalt hat, sehr wichtig sein. Manchmal kann es durch Seufzen ersetzt werden, durch Summen oder einen Hilferuf. Hier hat die Mathematik natürlich nichts verloren. Aber dort, wo man über etwas spricht, dort wo es Sinn macht, präzise zu sein, dort kann die Mathematik eine Rolle spielen, als jene Sprache, die es unmöglich macht, unpräzise zu sein. Das heißt insbesondere, dass die Mathematik nicht nur den Natur- und Sozialwissenschaften ein Werkzeug ist, sondern auch Fächern wie etwa der Moralphilosophie. Das wirkt auf den ersten Blick erstaunlich. Hier geht es doch nicht um Sachverhalte, die man eventuell falsifizieren kann, sondern um Werte. Trotzdem, über solche Werte kann man reden. Moral und Recht werden durch die Existenz von Interessenskonflikten notwendig gemacht, 10 G. G. Szpiro, Pricing the Future, Singapore 2011.

86

Karl Sigmund

und es gibt eine mathematische Theorie der Interessenskonflikte, nämlich die Spieltheorie. Und schon wenige Jahre nachdem sie durch Oskar Morgenstern, John von Neumann und John Nash geschaffen wurde, lange vor den ersten ernstzunehmenden Anwendungen in der Wirtschaft, wurde die Spieltheorie als ein Werkzeug der Moralphilosophie erkannt und verwendet, um Fragen wie die nach gerechtem Teilen, nach Verpflichtung oder nach Solidarität zu behandeln, oder die Evolution von sozialen Normen und den Sozialkontrakt.11 Schon Leibniz hat von einer ‚characteristica universalis‘ geträumt als Grund­lage der ‚scientia universalis‘. Den Dingen sollen Zeichen und den Beziehungen zwischen den Dingen Beziehungen zwischen den Zeichen entsprechen. Leibniz schrieb einem Freund: ‚Das einzige Mittel, unsere Schluss­ folgerungen zu verbessern, ist, sie ebenso anschaulich zu machen, wie es die der Mathematiker sind, derart, dass man seinen Irrtum mit den Augen findet und, wenn es Streitigkeiten unter Leuten gibt, man nur zu sagen braucht: Rechnen wir! ohne eine weitere Förmlichkeit, um zu sehen, wer Recht hat.‘12 Klingt das wie Utopie? Vielleicht. Aber weit davon entfernt, gescheitert zu sein, zieht sich das Programm von Leibniz wie ein roter Faden durch das rasant wachsende Gebiet mathematischer Anwendungen.

11 K. Sigmund, Calculus of Selfishness, Princeton 2010. 12 G. W. Leibniz, Zur allgemeinen Charakteristik. Hauptschriften zur Grundlegung der Philosophie. Philosophische Werke 1. Übersetzt von Artur Buchenau, Hamburg 1966.

Stefan Griller

Kommunikation in der Rechtswissenschaft und die Sprache des Rechts: Sprachspiele oder Machtspiele? Recht und Macht A. Grundlegung Recht ist ein System von Normen, die von Menschen für Menschen gesetzt sowie im Großen und Ganzen zwangsbewehrt und effektiv sind. Dies ist eine in Anlehnung an Hans Kelsen, den Begründer der „Reinen Rechtslehre“ gebildete, vereinfachte Definition des Begriffs des Rechts. 1 Dieser dient gleich­zeitig zur Abgrenzung des Gegenstands der Rechtswissenschaft. Kontrovers ist diese Definition hauptsächlich wegen des pointierten Rechts­positivismus, den sie transportiert, also die Leugnung so genannten überpositiven, etwa durch göttliche Autorität oder Vorgaben der Natur (Natur­recht) legitimierten und gleichermaßen – oder sogar vorrangig – verbindlichen Rechts. Hingegen wird die Abgrenzung, und vor allem der für sie wesentliche Begriff der Norm, „für die tägliche Arbeit“ auch von Kritikern des Positivismus nicht fundamental in Frage gestellt.2 Danach ist, ebenfalls vereinfacht und zusammengefasst, eine Norm der Sinn eines menschlichen Willensaktes, der auf das Verhalten anderer gerichtet ist, indem er dieses gebietet, verbietet oder erlaubt.3 Was das Verhältnis zwischen Recht und Macht betrifft, so lässt sich ungeachtet der Kontroverse um den Rechtspositivismus sagen: Wenn Macht die Fähigkeit ist, das Verhalten anderer (nach eigenen Präferenzen) zu bestim1 Etwa Hans Kelsen, Reine Rechtslehre, 2. Aufl., Wien 1960, insb. 3 ff, 31 ff. Dazu auch die (der Intention nach) einführende und hinführende Darstellung dieses Autors: Stefan Griller, Grundlagen und Methoden des Verfassungs- und Verwaltungsrechts, Wien 2012, 1 ff, insb. 14 ff. 2 Statt vieler Franz Bydlinski, Juristische Methodenlehre und Rechtsbegriff, 2., Erg. Aufl., Wien 1991, 177 ff, 299 ff; Robert Alexy, Begriff und Geltung des Rechts, Freiburg, München 1992. 3 Hans Kelsen, Allgemeine Theorie der Normen, Wien 1979, 1 ff. Freilich sind die Nuancen zahlreich, und vieles im Detail strittig: Vgl. etwa Karl Larenz, Methodenlehre der Rechtswissenschaft, 5. Aufl., Berlin et al. 1983, 240 ff mwN.

88

Stefan Griller

men, dann sind Rechtsetzung und Rechtsanwendung eine Spielart der Aus­ übung von Macht.4 Recht ist „eine bestimmte Ordnung (Organisation) der Macht“.5 Diese wird in den Formen und nach Maßgabe der Grenzen ausgeübt, welche die konkrete Rechtsordnung zur Verfügung stellt. Das jeweilige Verfassungssystem der Rechtsgemeinschaft bestimmt, wer6 die generellen Regeln festlegt und wer7 diese vollzieht, also konkretisiert und notfalls zwangsweise durchsetzt. Die Festlegung von generellen Regeln könnte man als Ausübung der primären, die Vollziehung derselben als Ausübung der sekundären Macht in einer Rechtsgemeinschaft bezeichnen. B. Die Rolle der Rechtswissenschaft Rechtswissenschaft als „Jurisprudenz“ beschäftigt sich mit dem Verstehen und der (richtigen) Anwendung, bisweilen auch der Fortentwicklung des Rechts.8 Längst nicht erledigt ist der, durch die Entstehung der empirisch orientierten Naturwissenschaften verschärfte Disput, ob die Bezeichnung „Wissenschaft“ überhaupt gerechtfertigt erscheint, oder ob es sich eher um eine „Kunst“ oder eine praktische Tätigkeit handelt.9

4 Aus der Fülle der einschlägigen und teilweise gänzlich disparaten Literatur dazu sei hier bloß eklektisch auf einige einflussreiche und auch heute noch besonders lesenswerte Abhandlungen aus dem 20. Jahrhundert, und auf deren weiterführende Angaben hingewiesen: Norberto Bobbio, Das Zeitalter der Menschenrechte. Ist Toleranz durchsetzbar? Berlin 1998, Friedrich August von Hayek, Die Verfassung der Freiheit, 2. Aufl., Tübingen 1983, insb. 161 ff, Karl R. Popper, Die offene Gesellschaft und ihre Feinde II (Hegel, Max und die Folgen), München 1958, 145 ff, John Rawls, A Theory of Justice, Cambridge 1971. 5 Kelsen (wie Anm. 1), 221. 6 Etwa das Volk, direkt durch Abstimmungen, oder repräsentiert im Parlament, oder ein Autokrat. 7 Etwa Gerichte, die Verwaltung, oder aus der „Regel-Organisation“ der Rechtsgemeinschaft weit gehende ausgegliederte Agenturen. 8 Dazu und zu anderen Disziplinen wie der Rechtsphilosophie, der Rechtstheorie, der Rechtsgeschichte und der Rechtssoziologie vgl. Larenz (wie Anm 3), 181 ff. 9 Dazu mit teils neuen Fragestellungen jüngst die Beiträge in Matthias Jestaedt, Oliver Lepsius (Hg.), Rechtswissenschaftstheorie, Tübingen 2008.

Kommunikation in der Rechtswissenschaft

89

Die Rechtswissenschaft – etwas vereinfacht gesagt – • systematisiert die Normenflut und analysiert die Inhalte, einschließlich aller Unklarheiten, • versucht, diese zu reduzieren, • nimmt auf diese Weise an der Anwendung und Konkretisierung teil, und • wirkt auf die Fortentwicklung der Gesetzgebung ein. Unleugbar bewegt sich rechtswissenschaftliche Tätigkeit somit im engsten Umfeld der Macht, aber – überwiegend – mit dem Anspruch auf Wissen­ schaft­lichkeit. Anders und mit einem Fokus auf die Rechtsanwendung gesagt: Die gedanklichen Vorgänge beim Verstehen und Konkretisieren sind so gut wie identisch, wenn Normen einerseits durch Rechtswissenschaftler und andererseits durch Organe der Rechtsanwendung (etwa Gerichte und Ver­waltungs­ behörden, aber auch Bürger untereinander) „interpretiert“ werden. Die Pers­ pek­tive bzw. die institutionelle Einbindung ist allerdings gänzlich unterschiedlich. Die Außenperspektive der Rechtswissenschaft kontrastiert zur Innenperspektive der Rechtsanwendung. Anwendungsorgane denken und agieren entscheidungsorientiert, müssen „den Fall“ regeln bzw. erledigen, können Vagheit und Mehrdeutigkeiten somit nicht „offen“ lassen. Rechts­ wissen­schaftler hingegen können (und sollten!) mit den Methoden der Rechts­wissenschaft nicht lösbare Schwierigkeiten bloß aufzeigen. Nicht alles lässt sich wissenschaftlich „erkennen“. Ein Beispiel: § 99 Abs 4 Kraftfahrgesetz 1967 (KFG 1967)10 lautet: „ … Fernlicht darf auf Freilandstraßen bei Dunkelheit nicht verwendet werden … e) vor Gruppen von Fußgängern …“. Es kommen Ihnen a) 1, b) 2, c) 3, d) 4 Fußgänger gemeinsam entgegen. Müssen Sie abblenden? Rechtswissenschaftlich lässt sich sagen: bei einem einzelnen Fußgänger sicher nicht; bei vier Fußgängern jedenfalls. Ob auch schon bei 2 oder 3 Fußgängern ist sehr wahrscheinlich mit wissenschaftlichen Methoden nicht zu klären. Beides ist vertretbar. Diesbezüglich besteht ein Entscheidungsspielraum der Rechtsanwendungsorgane. Diese sind teilweise heteronom, nämlich durch das Gesetz determiniert, teilweise hingegen autonom. Wenn das Problem auftritt müssen sie entscheiden, sie können die Frage nicht offen lassen.

10 Bundesgesetzblatt (BGBl.) Nr. 267/1967, in der geltenden Fassung.

90

Stefan Griller

Freilich berühren wir hier einen Kern der rechtswissenschaftlichen Methodenund gleichzeitig Positivismusdebatte. Einflussreiche Wissenschaftler behaupten, dass sich, unter Umständen unter Zuhilfenahme allgemein gültiger Rechts­prinzipien, so gut wie immer eine „richtige“ Lösung finden lässt, und zwar auch durch die Jurisprudenz.11 Durchaus nicht deckungsgleich, aber zu ähnlichen Ergebnissen führend ist die These, ein herrschaftsfreier Diskurs könne häufig wahrheitsfähige Ergebnisse hervorbringen, auch bei sprachlich unklaren Normen.12 Die Unschärfe der Grenze zwischen wissenschaftlicher Erkenntnis und praktischer Tätigkeit (Rechtsanwendung) ist gleichzeitig eine Problemzone der Abgrenzung zwischen Recht und Macht. Die Versuchung ist groß, im Interesse der praktischen Problemlösung auch dann noch unter dem Etikett wissenschaftlicher Erkenntnis aufzutreten, wo längst der Boden der Dezision oder gar der Umdeutung beschritten ist. Die Versuchung des – mehr oder weniger verschleierten – Rechtsbruchs im Interesse der Stabilisierung oder Veränderung von Machtverhältnissen ist damit noch gar nicht angesprochen. Rechtswissenschaft und Rechtspraxis (Rechtsetzung und Rechts­an­wen­ dung) sind also eng verbunden und beeinflussen einander. All dies geschieht hauptsächlich durch das Mittel der Sprache. Dies führt uns zur Frage, welche Rolle die Sprache in dieser Interaktion spielt, die grafisch stark vereinfachend folgendermaßen dargestellt werden kann:

Norm Normunterworfener

Novellierung

Rechtsanwendung, Rechtswissenschaft 11 Vgl. insb. Ronald Dworkin, Taking Rights Seriously, Cambridge 1977. Kritisch dazu: Stefan Griller, Der Rechtsbegriff bei Ronald Dworkin. In: Stefan Griller, Heinz-Peter 9 Rill (Ges.red.), Rechtstheorie. Rechtsbegriff – Dynamik – Auslegung, Wien, NewSeite York 2011, 56-79. 12 Ziemlich am Beginn der Rezeption dieser Debatte in der Jurisprudenz stand die einflussreiche Dissertation von Robert Alexy, Theorie der juristischen Argumentation, Frankfurt 1978.

Kommunikation in der Rechtswissenschaft

91

Recht und Sprache A. Grundlegung Recht als geordnete Machtausübung zielt wesentlich auf die Verhaltens­steu­ e­rung der Normadressaten. Deshalb haben Rechtsetzer, mindestens grund­ sätzlich, keine Wahl: Sie müssen sich bei der Normerlassung am Emp­fän­ ger­horizont orientieren. Regelmäßig bedienen sie sich dabei der normalen Sprache. Diese ist vielgesichtig und bisweilen mehr als vage und mehrdeutig.13 Nicht zuletzt deshalb entwickeln, wie in anderen Bereichen des Lebens auch, Rechtsetzer, und mit ihnen auch die Rechtswissenschaft, eine Fach­ sprache des Rechts. Sie ist Ausdruck und Konsequenz der Spezialisierung und Arbeitsteilung, in der hauptsächlich Juristen mit der Erzeugung und Anwen­dung des Rechts befasst sind. Die Fachsprache ist gleichzeitig Aus­ druck der Anstrengung, die Unklarheiten bei Verwendung der normalen Sprache einzudämmen. Selbstverständlich mit dem Risiko und um den Preis, dass die Verständlichkeit für die Nichtspezialisten, die Bürger, leidet. Ähnlich etwa wie Mediziner mit der Diagnose und Heilung von Krankheiten, oder Mathematiker oder Physiker mit ihrem Gegenstand sprachlich umgehen. Im Recht ist damit immer zugleich auch die Gefahr verbunden, mit der Verständlichkeit die Akzeptanz beim Normadressaten und damit die Effek­ti­ vität des Rechtssystems aufs Spiel zu setzen. Im Bemühen, Verstehen und Anwendung des Rechts zu befördern, ist Rechtswissenschaft angesichts dieser Umstände unvermeidlicherweise auch „Sprachwissenschaft“. Im gedanklichen Ansatz und den verwendeten „Methoden“ besteht kein kategorialer Unterschied zu anderen am Text arbeitenden Disziplinen wie etwa der Literaturwissenschaft oder der Theologie. Der jeweilige Kontext, und dabei unter anderem auch die unterschiedlichen Bezüge und Verbindungen zur Macht, bewirken freilich einen wesentlichen Unterschied. Dies ist ein sachlicher, d.h. für die Auslegungsarbeit wesentlicher Unterschied. Für die Rechtswissenschaft bewirken die Ungenauigkeiten der menschlichen Sprache in Verbindung mit der – teils engen – tatsächlichen oder institutionalisierten Verbindung der Juristen zur Macht ein spezifisches Verführungs- und Missbrauchspotenzial. Die Gefahr besteht darin, wissenschaftliche bzw. wissenschaftlich vertretbare Vorgangsweisen zu Gunsten interessengesteuerter Ziele zu verfremden oder zu missachten. 13 Vgl. etwa Eike von Savigny, Die Philosophie der normalen Sprache, 2. Aufl., Frankfurt 1980. Weiterführend zu den vielfältigen, sich in diesem Zusammenhang ergebenden Aspekten etwa die Beiträge in Carsten Bäcker, Matthias Klatt, Sabrina Zucca-Soest (Hg.), Sprache – Recht – Gesellschaft, Tübingen 2012.

92

Stefan Griller

B. Die juristischen „Methoden“ Die traditionelle juristische Methodenlehre14 kennt einerseits die Auslegungs­ methoden innerhalb des so genannten möglichen Wortsinns, die als Standard zur Verfügung stehen und bei allen Unklarheiten anzuwenden sind: • die grammatikalische oder Wortsinninterpretation, • die systematische, • die historische, und • die teleologische Auslegung. Davon zu unterscheiden sind die Auslegungsmethoden jenseits des so genannten möglichen Wortsinns, die besonderer Voraussetzungen und Recht­ fertigung bedürfen, nämlich zum Beispiel einer Regelungslücke. Eine solche gilt insbesondere als Voraussetzung der so genannten Analogie, der Anwen­ dung der Norm auf einen vom Wortsinn nicht mehr erfassten Fall. Dabei ist es verbreitet zu sagen, dass das, was jenseits des möglichen Wort­sinns liegt, nicht als „Inhalt“ des Gesetzes gelten kann; eine Auslegung, die solche Instrumente einschließt, wird gern als „ergänzende Rechts­fort­ bildung“15 oder „richterliche Rechtsfortbildung“ bezeichnet.16 Gut zum Ausdruck gebracht ist dieser traditionelle Ansatz der Methoden­ lehre in den mit „Auslegung“ überschriebenen, auch heute noch in Kraft stehenden §§ 6 und 7 Allgemeines bürgerliches Gesetzbuch (ABGB) – in der Sprache der Zeit (1811): „§ 6. Einem Gesetze darf in der Anwendung kein anderer Verstand beygelegt werden, als welcher aus der eigenthümlichen Bedeutung der Worte in ihrem Zusammenhange und aus der klaren Absicht des Gesetzgebers hervorleuchtet. § 7. Läßt sich ein Rechtsfall weder aus den Worten, noch aus dem natürlichen Sinne eines Gesetzes entscheiden, so muß auf ähnliche, in den Gesetzen bestimmt entschiedene Fälle, und auf die Gründe anderer damit verwandten Gesetze Rücksicht genommen werden. Bleibt der Rechtsfall noch zweifelhaft, so muß solcher mit Hinsicht auf die sorgfältig gesammelten und reiflich erwogenen Umstände nach den natürlichen Rechtsgrundsätzen entschieden werden.“

Freilich zeigt sich auch hier sofort, sozusagen auf der Metaebene, ein Grund­ pro­blem: Was bedeutet das? Und weiter: Da dies ein „einfaches Gesetz“, aber kein Verfassungsgesetz ist und da es sich primär auf das ABGB und das Privat­recht bezieht, gilt das auch für das Verfassungs- und Verwaltungsrecht? 14 Zum Folgenden z.B. Bydlinski (wie Anm. 2), 428 ff, Larenz (wie Anm. 3), 298 ff. 15 Bydlinski (wie Anm. 2), 472 ff. 16 Larenz (wie Anm. 3), 329, 351.

Kommunikation in der Rechtswissenschaft

93

Kurz gesagt: Auch gesetzliche Auslegungsregeln bedienen sich der menschlichen Sprache und sind daher ihrerseits auslegungsbedürftig. Was die Qualifikation dieser „Methoden“ oder besser „Auslegungscanones“ betrifft, so ist es eine ebenfalls verbreitete und kaum anzweifelbare Meinung, dass es sich dabei – bei den Regeln für das wissenschaftlich korrekte Verhalten des Interpreten – um das Ergebnis einer Selbstreflexion, manche meinen: einer hermeneutischen Selbstreflexion, der Jurisprudenz handelt.17 C. Die linguistische Wende in der Philosophie und die Jurisprudenz 1. Die Gebrauchstheorie der Bedeutung Ungeachtet der weit reichenden Akzeptanz der soeben skizzierten traditionellen „juristischen Methoden“ dem Grundsatz nach ist – wohl nicht erst heute – sowohl hinsichtlich der Grundlegung als auch der Details ein Methoden­ pluralismus festzustellen.18 Die Ansätze unterscheiden sich hauptsächlich im Gewicht, dem der Teleologie, also der am Zweck und weniger am Ausdruck orientierten Interpretation, und auch danach, welche Rolle überpositiven „Gesichts­punkten“, meist im Interesse der Gerechtigkeit, zugemessen wird. Die Berücksichtigung oder gar die Weiterentwicklung sprachphilosophischer Ansätze spielt dabei eine durchaus untergeordnete Rolle, wenigstens was die herrschende Auffassung und Vorgangsweise betrifft. Im Gegensatz dazu ist der diesem Beitrag zugrunde liegende – hier nur skizzierte – Standpunkt stark von der linguistischen Wende in der Philosophie beeinflusst und plädiert für deren reflektierte Rezeption durch die Rechtswissenschaft.19 Daraus folgt keineswegs eine prinzipielle oder in allen maßgebenden Aspekten diver17 Ebd., 233 ff. 18 Von traditionellen über „postpositivistische“ bis zu philosophisch-linguistisch beeinflussten Ansätzen findet sich „beinahe alles“. Eher traditionell: Bydlinski (wie Anm. 2); Larenz (wie Anm. 3); „postpositivistisch“: Alexander Somek, Nikolaus Forgó, Nachpositivistisches Rechtsdenken. Inhalt und Form des positiven Rechts (1996); philosophisch-linguistisch: Hans-Joachim Koch, Helmut Rüßmann, Juristische Begründungslehre (1982). 19 Näher Stefan Griller, Michael Potacs: Zur Unterscheidung von Pragmatik und Semantik in der juristischen Hermeneutik. In: Hellmuth Vetter, Michael Potacs (Hg.), Beiträge zur juristischen Hermeneutik (1990) 66-105; Stefan Griller, Gibt es eine intersubjektiv überprüfbare Bedeutung von Normtexten? Bemerkungen zur Sprachphilosophie Ludwig Wittgensteins. In: Stefan Griller, Karl Korinek, Michael Potacs (Hg.), Grundfragen und aktuelle Probleme des öffentlichen Rechts, Festschrift für Heinz Peter Rill zum 60. Geburtstag (1995) 543-567. Dazu auch Rainer Hegenbarth, Juristische Hermeneutik und linguistische Pragmatik (1982); Koch/Rüßmann (wie Anm. 18); Peter Schiffhauer, Wortbedeutung und Rechtserkenntnis (1978).

94

Stefan Griller

gierende Vorgangsweise. Manche Schwierigkeiten und Ungereimtheiten der traditionellen Methodenlehre lassen sich aber überwinden, manche Inter­pre­ ta­tions­probleme in der Tat besser bewältigen. Der traditionellen juristischen Methodenlehre liegt, so kann man vereinfachend sagen, die so genannte gegenstandstheoretische Gebrauchstheorie zu Grunde. Danach bildet ein sprachlicher Ausdruck gleichsam die Welt ab. Damit eng verbunden ist die geläufige Auffassung, ein Wort habe eine irgendwie von vornherein feststehende Bedeutung – in der Auslegung wäre das dann die „Wortbedeutung“, mit der traditionellerweise alle Auslegung beginnt. Diese könne allenfalls „an den Rändern“ gewisse Unschärfen aufweisen, was wiederum die Redeweise vom „Begriffskern“ und „Begriffshof“ nahelegt. Im Begriffskern sei die Auslegung unproblematisch beziehungsweise „klar“, im Begriffshof könne es dagegen Schwierigkeiten geben. Das Gegenstück dazu ist die so genannte Gebrauchstheorie der Bedeu­ tung: „Die Bedeutung eines Wortes ist sein Gebrauch in der Sprache.“20 Das gilt auch für Sätze.21 Das besondere – und von vielen, keineswegs bloß Juristen, offensichtlich als verunsichernd empfundene – Element dieser Lehre besteht in der Leugnung von vorgefundenen Gewissheiten. Die Bedeutung eines Wortes oder Satzes ergibt sich je und je aus dem konkreten Gebrauch und kann sich im Lauf der Zeit ändern. Dies geschieht im jeweiligen sozialen Umfeld, im „Sprachspiel“,22 in dem sich Sprachgebrauch und bestimmte Tätigkeiten verbinden. Pragmatische, also vor allem situativ abhängige Gehalte können nicht von vornherein als bedeutungstranszendierend ausgeschlossen werden. Eine Beispiel: § 22 Abs 1 Salzburger Marktordnung 199423 lautet: „Auf den Märkten und Gelegenheitsmärkten ist es untersagt, … c) Hunde mitzunehmen …“. Sie besitzen keinen Hund, aber einen zahmen Affen. Dürfen Sie ihn am Universitätsplatz lustig über die Lebensmittel turnen lassen. Die Antwort ist – jedenfalls wird das hier behauptet:24 Nein! Hunde fungieren als Stellvertreter (nämlich als in der Praxis häufigster Typus für Haustiere, die Hygieneprobleme auf Märkten verursachen können): Obwohl nach den Regeln der 20 Ludwig Wittgenstein, Philosophische Untersuchungen, Werkausgabe I, Frankfurt am Main 1984, § 43. 21 Ebd., §§ 20, 421. 22 Ebd., § 7. 23 Gemeinderatsbeschluss vom 9.11.1994, Amtsblatt Nr. 22/1994, in der geltenden Fassung. 24 Für eine ausführlichere Diskussion des Beispiels vgl. Griller/Potacs (wie Anm. 19), 98 ff.

Kommunikation in der Rechtswissenschaft

95

Semantik Hunde keine Affen sind, dürfen auch Affen in Salzburg nicht auf Märkte mitgenommen werden. Man kann auch sagen: „Affen sind Hunde“ im Sinne der Salzburger Marktordnung!

2. Radikaler Regelskeptizismus – Anything Goes? Vorgefundenen Gewissheiten des „korrekten“ Sprachgebrauchs wird gleichsam der Boden entzogen. Für die Interpretation von Rechtsvorschriften – sowohl durch die Jurisprudenz als auch die rechtsanwendenden Organe – gehen auf diese Weise, so steht zu fürchten, Ausgangspunkt und Grenze der Auslegung (Wortbedeutung und möglicher Wortsinn) verloren. Die Bedeutung entwickelt sich im Sprachspiel der Rechtsgemeinschaft, an dem – abhängig von der konkreten Verfasstheit der jeweiligen Gemeinschaft – der Ver­fassungs­gesetzgeber, der einfache Gesetzgeber, die Gerichte, die akademische Lehre, die Bürger (Normadressaten) usw. beteiligt sind. Eine von vornherein feststehende Grenze für die Entwicklung dieses „Spiels“ gibt es nicht. Tatsächlich finden sich in der Jurisprudenz methodische Auffassungen, die in diese Richtung gehen.25 Die Bedeutung einer Norm ist dann das, was auf einer konkreten Entwicklungsstufe des Sprachspiels von einem mehr oder weniger einflussreichen Spieler dafür gehalten und entsprechend praktiziert (gebraucht) wird. Dies könnte man eine hyperskeptische Bedeutungstheorie nennen, weil nach ihr Bedeutungen keinen Orientierungswert haben, sondern je und je erst (mehr oder weniger neu) entstehen. Freilich erscheint ein derart radikaler Regelskeptizismus unbegründet, jedenfalls nicht leicht auf Wittgenstein26 stützbar. Denn jedes Spiel folgt Regeln, auch das Sprachspiel. Regeln können verletzt werden, wenn der Spieler sie falsch anwendet oder durch seine Aktion vielleicht gar das Spiel verlässt. Es gibt also, so könnte man auch sagen, Regeln für den kor­rekten Gebrauch eines Wortes oder Satzes. Sie mögen nicht einfach durch das Nachschlagen im Wörterbuch ermittelbar sein, welches ebenfalls nur eine Momentaufnahme durch einen bestimmten Spieler darstellt. Nichtsdestotrotz bildet die im (bisherigen) Sprachspiel entwickelte Regel zugleich den Maßstab für die Beurteilung des Gebrauchs. Es kann auch falschen Gebrauch geben. In einer klassischen Formulierung, lange vor der linguistischen Wende: „Ist die Rechtsanwendung dem Belieben des 25 Es lässt sich argumentieren, dass z.B. die antipositivistische Stoßrichtung des Prin­zi­ pienarguments Dworkins so rekonstruiert werden kann: Vgl. Griller (wie Anm. 11), 77 f. 26 Wittgenstein (wie Anm. 20), §§ 80 ff.

96

Stefan Griller

Rechtsanwenders anheimgegeben … dann ist damit etwas Anzuwendendes bestritten, dann sind die Schranken, die dem Rechtsanwender … errichtet sind, hinweggeräumt, dann ist er unter dem verschämten, ja falschen Titel des Rechtsanwenders zum Rechtserzeuger umgedichtet.“27 Die Bandbreite des korrekten Gebrauchs – hier: der korrekten Rechts­ an­wendung – dürfte auf dem Boden der Gebrauchstheorie der Bedeu­ tung dennoch größer sein als nach der traditionellen Auffassung. Die säuberliche Trennung der juristischen Auslegungsargumente oder Aus­le­gungs­ canones (Wortsinn, grammatische, systematische, historische, teleologische Interpretation) ist bestenfalls eine gedankliche Stütze der einzelnen Unter­ suchungsschritte, die aber weder eine besondere Reihen- noch Rang­folge beanspruchen können, wenn es um die Ermittlung des bisherigen Gebrauchs und damit auch der Bedeutung einer rechtlichen Anordnung geht. Der vorweg feststehende „mögliche Wortsinn“ bietet keine Sicherheit, es gibt ihn nicht. Überdies sind Gebrauchs- und damit Bedeutungsänderungen durch die am Spiel Beteiligten niemals auszuschließen. Seit Mitte der 1980er Jahre hat der Verfassungsgerichtshof seine Judikatur zum Grundrecht auf freie Erwerbsbetätigung grundlegend geändert.28 Er führt seither bei gesetzlichen Beschränkungen eine strenge Verhältnismäßigkeitsprüfung durch. Solche sind demnach nur dann rechtmäßig, wenn sie einem öffentlichen Interesse dienen und die dazu ergriffenen Mittel geeignet, erforderlich und angemessen sind. Vorher hat die Auffassung des Gerichtshofs, etwas überpointiert, gelautet, eine Grundrechtsverletzung sei erst dann anzunehmen, wenn der Gesetzgeber eine Verstaatlichung der gesamten Unternehmungen mit großem Kapitalbedarf und der gesamten Grundstoffindustrie verfüge.29 Wer wollte heute noch behaupten, die Rückkehr zu dieser älteren Auffassung wäre gleichermaßen „richtig“ wie die jüngere, nunmehr auch schon beinahe 30 Jahre alte Judikatur? Es hat sich inzwischen die Bedeutung der grundrechtlichen Garantie geändert. In Standardlehrbüchern des Verfassungsrechts kommt die ältere Judikatur daher zutreffend gar nicht mehr vor.30

27 Adolf Merkl, Das doppelte Rechtsantlitz, Juristische Blätter 1918, 425, 444, 463, wieder abgedruckt und hier zitiert nach Hans R. Klecatsky, René Marcic, Herbert Schambeck (Hg.) Die Wiener rechtstheoretische Schule (1968) 1091 (1106). 28 Beginnend mit VfSlg 10.279/1984 und 10.932/1986. Vgl. etwa die Darstellung bei Christoph Grabenwarter, Rechtliche und ökonomische Überlegungen zur Erwerbsfreiheit, Wien 1994, 17 ff. 29 VfSlg 3118/1956. 30 Vgl. etwa Walter Berka, Verfassungsrecht, 4. Aufl., Wien 2012, RZ 1557 ff.

Kommunikation in der Rechtswissenschaft

97

Die Erlassung und die Anwendung von Rechtsnormen kann somit als kompliziertes Sprachspiel oder besser vielleicht als Lebensform gelten, worauf die Verfasstheit der jeweiligen Rechtsgemeinschaft erheblichen Einfluss hat und woran nicht nur der Rechtsetzer, sondern auch die Rechtsanwender mit bedeutungsgebendem Einfluss teilnehmen. Das schließt die Präzisierung von Spiel­ räumen ebenso ein wie die Weiterentwicklung preaeter und bisweilen auch contra legem. Letztere könnte durch die Gebrauchstheorie der Bedeutung in ein neues Licht gerückt werden: Fehlerhafte Rechtsanwendungspraxis ist zwar zunächst – als Verstoß gegen die Spielregeln – rechtswidrig, kann bei entspre­ chen­der Reaktion der Mitspieler (Gesetzgeber, Höchstgerichte usw.) aber gleich­zeitig eine Regel- und damit Bedeutungsänderung bewirken. Diese Schwierigkeiten sind, nicht zuletzt wegen der Benützung der normalen Sprache durch den Gesetzgeber, unvermeidbar. Zugleich ist dies der Grund für die schwierige Grenzziehung zwischen falsch, richtig und vertretbar und die Einfallspforte für die Missbrauchsanfälligkeit der Jurisprudenz im Gefüge der Macht. Ausgehend von dieser Position soll nunmehr einigen Haupttypen der Gemengelage zwischen Sprachspielen und Machtspielen nach­gegangen werden.

Machtspiele und Sprachspiele A. „Offener“ Rechtsbruch Die Anführungszeichen sollen andeuten, dass Machthaber in den allerseltensten Fällen einräumen oder sich gar damit brüsten, geltendes Recht zu missachten. Viel häufiger sind die Bemühungen, Kontinuität mindestens zu behaupten, selbst wenn sie – d.h. die Einhaltung des geltenden Rechts – eigentlich unerwünscht ist. Dahinter steht wohl das Bedürfnis, die Legitimität der überkommenen Ordnung für die eigenen Zwecke zu benützen und destabilisierende Verunsicherung bei den Bürgern möglichst zu vermeiden. Dies gilt sogar für totalitäre Regime, jenem des Nationalsozialismus an erster Stelle. Ein noch zu erörternder Mechanismus ist, das positive Recht im Lichte der herrschenden Ideologie „neu zu interpretieren“. Häufig wird dabei eine Art Vorbehalt in das geltende Recht „hineingelesen“, demzufolge die Zwecke der Bewegung immer Vorrang haben und nötigenfalls auch gegen den überkommenen Wortlaut durchzusetzen sind.31 31 Erhellend etwa Hannah Arendt, Totalitarianism (1948), hier zit. nach der Ausgabe im Verlag Harvest, San Diego et al. 1968) 159 ff.

98

Stefan Griller

Eine besondere Spielart eines von den Machthabern wie Rechtsanwendern durchaus erkannten, aber nicht einbekannten Rechtsbruchs ist das Phänomen des „Doppelstaats“ im so genannten Dritten Reich.32 Der „Normenstaat“ machte die im Wesentlichen unveränderte Anwendung, freilich auch (kontinuierliche) Fortentwicklung der überkommenen Normenordnung und deren verfassungsrechtlichen Rahmens glauben. Daneben trat jedoch der „Maß­nahmen­staat“, dessen wesentliches Merkmal die jederzeit mögliche Ver­ drängung der Normenordnung durch Befehle des Führers (und solcher der nationalsozialistischen Herrschaftsverbände) war. Diese konnten jederzeit und ohne die Einhaltung der sonst geltenden verfassungsmäßigen (rechtsstaatlichen, gewaltentrennenden usw.) Schranken ergehen. Vordergründig wurde die Entstehung des Maßnahmenstaates ursprünglich auf die Notverordnung des Reichspräsidenten zum Schutz von Volk und Staat gestützt.33 Diese Verordnung wurde im Anschluss an den Reichstagsbrand „zur Abwehr kommunistischer staatsgefährdender Gewaltakte“ erlassen und erlaubte weit reichende Grundrechtsbeschränkungen sowie alle „nötigen Maß­nahmen“ zur „Wiederherstellung der öffentlichen Sicherheit und Ord­ nung“. Fraenkel berichtet von der zunächst erfolgreichen anwaltlichen Ver­ tretung vormaliger Angestellter des gleichgeschalteten FreidenkerVerbandes. Diese hatten Abgangsentschädigungen geltend gemacht, die ihnen nach einem einigermaßen turbulenten Verfahren durch das Reichsarbeitsgericht auch zugesprochen wurden. Wenige Tage danach erging eine Verfügung der Gestapo, wonach die zugesprochenen Beträge zu Gunsten des preußischen Staates beschlagnahmt und eingezogen wurden.34

Es sollte nicht verschwiegen werden, dass selbst diese Entwicklungen und noch häufiger jene, die im nächsten Unterabschnitt anzusprechen sind, teilweise mit der stillschweigenden und ausdrücklichen – freilich auch teilweise erpressten – Zustimmung von Rechtswissenschaftlern vollzogen, ja teilweise von diesen vorbereitet wurden.35 32 Ernst Fraenkel, Der Doppelstadt, 3. Aufl., Hamburg 2012. Zur durchaus diffizilen und erörterungsbedürftigen Definition ebd. S. 49. 33 Verordnung vom 28. Februar 1933, Reichsgesetzblatt I, Seite 83. 34 Fraenkel (wie Anm. 32), 260 ff. Reiches Anschauungsmaterial zu (strukturell) ähnlichen, aber auch zu Vorgängen, wie sie im nächsten Unterabschnitt angesprochen werden, findet sich in der außergewöhnlich instruktiven Studie von Lothar Gruchmann, Justiz im Dritten Reich 1933-1940, München 1988. 35 Siehe insb. Horst Dreier, Die deutsche Staatsrechtslehre in der Zeit des Nationalsozialismus (=Veröffentlichungen der Vereinigung der Deutschen Staatsrechtslehrer 60), Berlin,

Kommunikation in der Rechtswissenschaft

99

Die erwähnte Verordnung des Reichspräsidenten etwa wurde auf Art. 48 Abs. 2 der Weimarer Reichsverfassung gestützt, wonach der Reichspräsident die „zur Wiederherstellung der öffentlichen Sicherheit und Ordnung nötigen Mahnahmen treffen, erforderlichenfalls mit Hilfe der bewaffneten Macht einschreiten“ und eine Reihe von Grundrechten vorübergehend ganz oder teilweise „außer Kraft setzen“ konnte. In der Bestimmung trete, so wurde beispielsweise, kurz vor Erlassung der Verordnung, geschrieben, die „rechtswissenschaftliche Wahrheit zu Tage, daß Normen nur für normale Situationen gelten“.36 Der Reichspräsident machte dann von seiner Ausnahmebefugnis hauptsächlich dadurch Gebrauch, dass er sie ohne weitere inhaltliche Vor­ gaben und zeitliche Beschränkung an die Reichsregierung delegierte. B. Verschleierter Rechtsbruch Schon die letzten Beispiele zeigen, dass die Übergänge zwischen den verschiedenen Gruppen des Machtmissbrauchs fließend sind. Immer wird versucht, hinter dem schützenden Schleier des Rechts zu bleiben. Besondere Einfallspforten dafür sind Generalklauseln und unbestimmte Gesetzesbegriffe wie etwa die „guten Sitten“, deren Missachtung einen Ver­ trag zwischen Privaten nichtig machen kann (in Österreich § 879 ABGB). Das bereitet schon in „ganz normalen“ Zeiten erhebliche Schwierigkeiten,37 umso mehr jedoch in Zeiten der „unbegrenzten Auslegung“,38 in denen die rechtswissenschaftlichen Methoden bloß noch Vehikel für die Durchsetzung außerrechtlich vorentschiedener Zielsetzungen sind. Es fällt nicht immer sofort ins Auge, wenn solche Klauseln ideologisch umgedeutet werden. Die Schwierigkeiten beim Verstehen unserer Sprache begünstigen bisweilen derartige Entwicklungen. Deutlich ist freilich die folgende Vorgangsweise, ebenfalls aus der Zeit des Nationalsozialismus:39 Hier werden rassistische Diskriminierungen ohne nähere Problematisierung einfachgesetzlichen Generalklauseln imputiert. Das Reichsgericht entwickelte, im Anschluss an den – grundsätzlich schwer anfechtbaren – Gedanken, dass sich die Auffassung über den Begriff der New York 2001, 10 ff, Bernd Rüthers, Geschönte Geschichten – Geschönte Biographien, Tübingen 2001. 36 Carl Schmitt, Legalität und Legitimität, München, Leipzig 1932, 71 f. 37 Bydlinski (wie Anm. 2), 495 f. 38 Bernd Rüthers, Die unbegrenzte Auslegung. Zum Wandel der Privatrechtsordnung im Nationalsozialismus, 5. Aufl., Heidelberg 1997. 39 Ebd., 218, mit Nachweisen.

100

Stefan Griller

guten Sitten wandeln könnte, die These, sein Inhalt bestimme sich durch das seit dem Umbruch „herrschende Volksempfinden, die nationalsozialistische Weltanschauung“. Nichtig seien daher Rechtsgeschäfte, die gegen das „gesunde Volksempfinden“ und die „Belange der Volksgemeinschaft“ verstießen. Dies galt auch für Verträge, die vor dem Machtwechsel abgeschlossen worden waren. Auch andere Rechtsinstitute waren von solchen Umdeutungen betroffen. Ein Beispiel: Der gesetzliche Mieterschutz wurde folgendermaßen ausgehebelt:40 Mieterschutz setze die Zugehörigkeit zur Haus­ gemein­schaft voraus – ein Begriff, den das Gesetz nicht kannte –, die wiederum ein Ausschnitt der Volksgemeinschaft sei. Wegen des Rassenunterschieds könnten Juden schlechterdings nicht zur Haus­ gemein­schaft gehören, und es sei den anderen Mietern unzumutbar, mit ihnen zu leben. Komme ein jüdischer Mieter dem Räumungs­ verlangen nicht nach, so störe er die Hausgemeinschaft. Im Ergebnis beseitigte dies seinen Mieterschutz.

Vorbereitet und begleitet wurden derartige Entwicklungen durch „rechtswissenschaftliche Vordenker“. Sie schufen unter anderem Konstrukte wie das „konkrete Ordnungs- und Gestaltungsdenken“ (kOD).41 Eine zentrale These dieses Ansatzes war, dass die Wirklichkeit ihre Ordnung bereits in sich trage, die insoweit der Rechtsnorm vorausgehe und deren Korrektur erlaube. Heute mag dies Empörung auslösen, in den 1930er Jahren fanden sich prominente Wegbereiter: „Für das konkrete Ordnungsdenken ist … die Regel nur ein Bestand­teil und ein Mittel der Ordnung … Die Norm oder Regel schafft nicht die Ordnung; sie hat vielmehr nur auf dem Boden und im Rahmen einer gegebenen Ordnung eine gewisse regulierende Funktion …“42 Und noch deutlicher an anderer Stelle: „Wir denken die Rechtsbegriffe um … Wir sind auf der Seite der kommenden Dinge.“43 C. Vagheit und Mehrdeutigkeit In der juristischen Praxis und rechtswissenschaftlichen Analyse zahlenmäßig vermutlich am häufigsten sind jene „hard cases“,44 in denen mindestens 40 Ebd., 167 f. 41 Ebd., 277 ff, insb. 293 ff. 42 Carl Schmitt, Über die drei Arten des rechtswissenschaftlichen Denkens, Hamburg 1934, 11. 43 Carl Schmitt, Nationalsozialistisches Rechtsdenken. In: Deutsches Recht 4 (1934), 225. 44 Dworkin (wie Anm. 11), 81 ff (ohne Dworkins Lösungen zu befürworten).

Kommunikation in der Rechtswissenschaft

101

auf den ersten Blick widersprechende Lösungen in Betracht kommen. Dies ist sozusagen der Normalfall juristischer Schwierigkeiten, abseits der bislang angesprochenen pathologischen Bemühungen, das Recht zu brechen, es zu umgehen oder ohne großes Aufsehen umzudeuten. Der Hauptgrund für diesen „Normalfall einer Schwierigkeit“ ist die Vagheit und Mehrdeutigkeit der Sprache, die der Gesetzgeber benützt. Bisweilen ist solchen Schwierigkeiten auch durch sorgfältigste Anwen­ dung der Auslegungsregeln nicht beizukommen, sodass auch am Ende allen Bemühens mehrere Entscheidungsmöglichkeiten offen stehen. Für die Rechtsanwendung bleibt dann die Dezision, also die Auswahl aus den kon­kurrierenden Normhypothesen. Solche Entscheidungen sind deshalb noch lange nicht willkürlich, sondern orientieren sich (hoffentlich) an den Wertungen der jeweiligen Rechtsordnung.45 Für die Rechtswissenschaft ist die Herausforderung, einerseits derartige Unklarheiten möglichst auszuräumen bzw. zu reduzieren und andererseits der Versuchung zu widerstehen, in diesem Bemühen der Norm Präferenzen zuzuschreiben, die sich nicht nachweisen lassen.46 Keineswegs immer oder überwiegend stehen dabei Machtfragen im Vor­ der- oder Hintergrund. Ein Beispiel: § 24 Abs 3 der Straßenverkehrsordnung47 lautet: „Das Parken ist … verboten: … b) vor Haus- und Grundstückseinfahrten …“. Gilt das Verbot auch für den Eigentümer eines Einfamilienhauses für seine eigene Einfahrt? Der Verwaltungsgerichtshof (VwGH) hat das verneint und damit das Verbot „teleologisch reduziert“. Der Haupt­zweck, die Freihaltung von Einfahrten für die Nutzungs­be­ rechtigten, erfordere es nicht, das Parkverbot auch auf den Eigen­ tümer anzuwenden.48 Aber wäre die gegenteilige Entscheidung wirklich „falsch“ gewesen?

Aber es gibt natürlich auch Fälle, in denen die Machtfrage mindestens im Hinter­grund eine erhebliche Rolle spielt, und es gibt mit Sicherheit die Ver­ suchung, den Aspekt der Entscheidung oder Parteinahme in einer Machtfrage hinter der am Ende als weniger ambivalent hingestellten Rechtsfrage verschwinden zu lassen. 45 Siehe etwa Larenz (wie Anm. 3), 205 ff. 46 Dies ist wohl, neben der immer wieder vorkommenden „Umdeutung“, der Hauptfall, der von Johann Wolfgang Goethe, Zahme Xenien II, angesprochen wird: „Im Auslegen seid frisch und munter! Legt ihr‘s nicht aus, so legt was unter.” 47 StVO 1960 BGBl. Nr. 159/1960, in der geltenden Fassung. 48 12.05.1956, Zahl (Zl) 2261/63 = Juristische Blätter (JBl) 1965, 273.

102

Stefan Griller Ein Beispiel:49 Der Europäische Gerichtshof (EuGH) war mit der Beschwerde eines Bürgers befasst, dessen Gelder „eingefroren“ worden waren, ihm also von seiner Bank nicht herausgegeben werden durften. Dies geschah auf der Grundlage einer Resolution des Weltsicherheitsrates der Vereinten Nationen. Alle Staaten sind demnach verpflichtet, Gelder von Al-Qaida-Mitgliedern und Sympathisanten einzufrieren. Erfasst sind die namentlich im Anhang genannten Personen und Einrichtungen. Dort fand sich (bis 5.10.2012) auch Herr Kadi. Seine Beschwerde richtete er gegen einen Rechtsakt der EU, nämlich eine so genannte Verordnung, durch welche die internationale Verpflichtung ins Europarecht und damit auch in den EU-Mitgliedstaaten umgesetzt worden war. Diese Verordnung war es, welche die Bank zu beachten hatte. Der EuGH war mit der Schwierigkeit einer Kollision zwischen der klaren Verpflichtung zum Einfrieren der Gelder und EU-rechtlich geschützten Grundrechten des Herrn Kadi konfrontiert. Denn dieser hatte keine Chance gehabt, sich in einem fairen, gerichtsförmigen Verfahren gegen die Anschul­digungen zur Wehr zu setzen. Verschärft wurde die Schwierigkeit durch Art 103 der Satzung der Vereinten Nationen: „Widersprechen sich die Ver­pflichtungen von Mitgliedern der Vereinten Nationen aus dieser Charta und ihre Ver­ pflichtungen aus anderen internationalen Übereinkünften, so haben die Verpflichtungen aus dieser Charta Vorrang.“ Die schwierige Frage entschied der EuGH zu Gunsten des Vorrangs des EU-rechtlichen Grundrechtsschutzes und gegen die Anwendung der Sanktion. Die Verpflichtungen aus einer internationalen Über­ ein­kunft könnten die Verfassungsgrundsätze der EU nicht beeinträchtigen. Alle Handlungen der Union müssten die Menschenrechte achten, „da die Achtung dieser Rechte eine Voraussetzung für ihre Rechtmäßigkeit ist, die der Gerichtshof … überprüfen muss.“50

Der EuGH war bemüht, die Frage „strikt normativistisch“, nämlich unter Bezug­nahme auf die zur Debatte stehenden Normtexte abzuhandeln. Dass diese völlig eindeutig wären, kann kaum behauptet werden. Die erste Instanz – das Gericht erster Instanz, heute: Allgemeines Gericht – hatte genau gegenteilig entschieden. Unerwähnt blieb im Urteil des EuGH auch die durch das Ergebnis zweifellos eingetretene Schwächung der Autorität des Welt­sicher­ 49 Genauer zu diesem hier stark vereinfacht dargestellten Fall Stefan Griller, Die Bindung der EU an das Recht der Vereinten Nationen unter besonderer Berücksichtigung der Rechtswirkungen von Beschlüssen des Sicherheitsrates im Unionsrecht. In: Walter Obwexer (Hg.), Die Europäische Union im Völkerrecht. In: Europarecht, Beiheft 2 (2012), 103-121. 50 Verb Rs C 402/05 P und C 415/05 P, Yassin Abdullah Kadi (Kadi I), Slg 2008, I-6351, Rz 285.

Kommunikation in der Rechtswissenschaft

103

heits­rats und damit der Vereinten Nationen. Es setzt sich auf diese Weise die Rechtsordnung der EU gegen jene der Vereinten Nationen durch. Diese können gegensteuern, indem sie das Niveau des für Resolutionen des Welt­sicher­ heits­rats geltenden Grundrechtsschutzes anheben, im Ergebnis also: dem vom EuGH postulierten Niveau annähern. Gleichgültig, ob man dieses Ergebnis rechtspolitisch begrüßt oder nicht: Es läuft darauf hinaus, dass sich in diesem Fall die EU durchsetzt und das Verhalten der Vereinten Nationen zu verändern sucht. Es ist dies eine durchaus charakteristische Gemengelage zwischen Sprachspielen und Machtspielen.51 D. Rechtsfortbildung Es ist schon mehrfach angedeutet worden: Bei allen bestehenden Schwie­ rig­keiten der Grenzziehung ist daran festzuhalten, dass „Rechts­fort­bildung“ auch auf dem Boden der Gebrauchstheorie der Bedeutung nur insofern ein zulässiger Vorgang ist, als die Entscheidung für eine von mehreren vertretbaren Auslegungshypothesen zweifellos zur Befugnis von Rechts­an­wen­dungs­ organen, namentlich auch von Gerichten, gehört. Jenseits dessen liegt die Ent­scheidung für unvertretbare Varianten. Es gibt also auch methodisch fehlerhafte Rechtsanwendungsentscheidungen, und auch die Juris­prudenz kann sich von den Anforderungen der Methodik nicht frei spielen. Dennoch kommt dies manchmal vor. Die Gründe sind vielfältig, sie reichen von Fehlern bei der Anwendung der juristischen Methoden bis zu deren teils bewusst in Kauf genommener Missachtung. Gar nicht so selten spielt dabei ein mehr oder weniger deutlich offengelegter Machtkonflikt eine Rolle. Dies war etwa – so jedenfalls die hier vertretene Auffassung,52 solche Fragen sind nicht zufällig regelmäßig kontrovers – in den ersten Jahrzehnten des Bestands der Europäischen Union, damals noch: Europäische Gemein­ schaften, der Fall. Die einheitliche und effiziente Durchsetzung des Rechts der Europäischen Gemeinschaften in den Mitgliedstaaten war unter anderem dadurch gefährdet, dass im Konfliktfall nationales Recht angewendet wurde und dessen Beseitigung mühsam war und lange dauerte. Man kann auch sagen: Es lag unzweifelhaft im Interesse der Stärkung der Macht der 51 Genauer Griller (wie Anm. 49), 113 ff. Konkret sind an diesem Spiel auch noch die nationalen Verfassungsgerichte, namentlich das Deutsche Bundesverfassungsgericht (BVerfG), und der Europäische Gerichtshof für Menschenrechte (EGMR) beteiligt. 52 Stefan Griller, Die Europäische Union. Ein staatsrechtliches Monstrum? In: Gunnar Folke Schuppert, Ingolf Pernice, Ulrich Haltern (Hg.), Europawissenschaft, BadenBaden 2005, 201 (211 ff).

104

Stefan Griller

Europäischen Gemeinschaften, deren Recht im Konfliktfall ohne weiteres gegen nationales Recht durchzusetzen. Dem diente die Pflicht der nationalen Rechtsanwendungsorgane (Gerichte und Verwaltungsbehörden), nationales Recht sofort unangewendet zu lassen, noch bevor die konfligierenden nationalen Gesetze beseitigt waren. Genau diese Position bezog der EuGH,53 was ihm teils heftige Kritik eintrug, weil den einschlägigen Normen der Gründungs­verträge nichts dergleichen, sondern eher die gegenteilige Lösung zu entnehmen war. So methodisch fragwürdig die ursprüngliche Herleitung durch den EuGH gewesen sein mag: Heute wird man sagen müssen, dass sich die Bedeu­tung der vertraglichen Ermächtigungen im Laufe der Zeit durch den bestän­digen Gebrauch verändert hat und die Vorrangwirkung mindestens hin­sichtlich des unterverfassungsgesetzlichen nationalen Rechts eine auch von den Mitgliedstaaten, also wichtigen Mitspielern im System, akzeptierte Fort­entwicklung der Gründungsverträge ist.54 Der 2009 in Kraft getretene Vertrag von Lissabon rundet diese Ent­ wick­lung ab: Zwar wurde die explizite Vorrangklausel, die im Entwurf des Verfassungsvertrags vorgesehen gewesen war,55 im Vertrag von Lissabon vermieden. Es findet sich dort aber eine Erklärung Nummer 17 zum Vorrang, in der darauf hingewiesen wird, dass die Verträge und das abgeleitete Recht „im Einklang mit der ständigen Rechtsprechung des Gerichtshofs der Europäischen Union unter den in dieser Rechtsprechung festgelegten Bedingungen Vorrang vor dem Recht der Mitgliedstaaten haben.“

Fazit Recht ist definitionsgemäß (auch) Macht, genauer: die Organisation von Macht. Sein Mittel ist hauptsächlich die Sprache. Rechtsetzer und Rechts­ anwender bedienen sich grundsätzlich der „normalen“ Sprache, da sie sich am Empfängerhorizont, jenem der Normadressaten, orientieren müssen. Trotz­ 53 Rs 26/62, van Gend & Loos, Slg 1963, 1, Rz 10; Rs 6/64, Costa/ENEL, Slg 1964, 1241 (1269 f ); Rs 11/70, Internationale Handelsgesellschaft, Slg 1970, 1125 Rz 3; Rs 106/77, Simmenthal II, Slg 1978, 629, Rz 17/18. 54 Vgl. schon Georg Ress, Verfassungsrechtliche Auswirkungen der Fortentwicklung völkerrechtlicher Verträge. In: Walter Fürst et al (Hg.), Festschrift für Wolfgang Zeidler (1987), 1775 (1778 ff, 1785 ff). 55 Art. I-6 Vertrag über eine Verfassung für Europa: „Die Verfassung und das von den Organen der Union in Ausübung der der Union übertragenen Zuständigkeiten gesetzte Recht haben Vorrang vor dem Recht der Mitgliedstaaten.”

Kommunikation in der Rechtswissenschaft

105

dem entsteht in einer arbeitsteiligen Gesellschaft unvermeidlicherweise eine Fachsprache, die bisweilen zu besonderen Verständnisschwierigkeiten führt. Die Rechtswissenschaft arbeitet mit der Sprache des Rechts. Daher kämpft auch sie mit den Ungenauigkeiten der menschlichen Sprache, insbe­ son­dere mit Vagheit und Mehrdeutigkeit. Rechtswissenschaft ist aufgrund ihres Gegenstands aber auch besonders nahe an der Macht und unterliegt deren Versuchungen. Vor diesem Hintergrund kann der Befund kaum überraschen: Es gibt beides: Sprachspiele und Machtspiele, eng verzahnt. Mancher Fehler sowohl der Rechtspraxis als auch der Rechtswissenschaft erklärt sich durch die Eigenheiten des Gegenstands (Recht) und die Schwie­ rigkeiten des Mittels (Sprache). Manchmal hingegen sind schlechte Juristen, seien es Entscheidungsträger oder Wissenschaftler, am Werk. Mancher Fehler erklärt sich aber besser durch das angesprochene Spannungs­feld: Manchmal setzt sich die Macht gegen das Recht durch.

Gernot Gruber

Das kommunikative Potential der Künste – am Beispiel der Musik Der Kommunikationsbegriff ist eine theoretische Erfindung des 20. Jahr­hun­ derts1. Als solcher ist er vielfach differenziert worden. Bevor ich auf die Frage nach dem „kommunikativen Potential der Künste“ eingehe, sei auf einen dieser ausdifferenzierten Begriffe, den der „ästhetischen Kommunikation“ näher eingegangen. „Aisthesis“ bedeutet Wahrnehmung. Ästhetische Kommunikation ist demnach jene Kommunikation, die ihren Akzent auf die Wahrnehmung, besonders von Kunst legt. Damit können verschiedene Perspektiven gemeint sein. Ihr Wesen, zumindest dem Anschein nach, unmittelbar treffend ist eine ästhetische Kommunikation innerhalb eines künstlerischen Handelns: zwischen Schauspielern auf der Bühne oder zwischen Musikern etwa beim Streichquartettspielen. Was sich hierbei ereignet, ist ein sehr komplexer Vorgang, nämlich das spontan reagierende Wechselspiel zwischen beobachtender Wahrnehmung und dem Verfolgen einer konzeptuellen Vorstellung vom zu erreichenden Ergebnis. Dieses Wechselspiel läuft nicht nur zwischen den Schauspielern auf der Bühne oder den Musikern am Podium, sondern auch zwischen ihnen und ihrem Publikum, ihren Zuschauern und Zuhörern. Eine andere, distanziertere Art ästhetischer Kommunikation ist die Ver­ stän­digung über Kunstgegenstände. Sie kann über Blicke und Gesten laufen, aber normaler Weise erfolgt sie durch Worte. Die sich daraus ergebenden Probleme sind die des Medien- oder zumindest Genrewechsels. Über ein Bild, ein Musikstück oder über den Gehalt eines Gedichtes in einer intersubjektiv verständlichen Sprache zu reden, Argumente zu formulieren oder sich ‚bloß’ in seinen intimen Eindrücken mit einem anderen auszutauschen, ist eben ein Problem, eines, über das in den einschlägigen Kunstwissenschaften viel diskutiert wurde und wird. Eine wiederum andere Perspektive auf „ästhetische Kommunikation“ betrifft Fragen, die hinter den individuellen Eindrücken und dem Wechsel­ spiel des Sich-Verständigens stehen: Wie gehen wir/gehe ich mit der – wohl 1 Dirk Baecker, Kommunikation. In: Ästhetische Grundbegriffe. Ein Historisches Wörterbuch in sieben Bänden, 3, Stuttgart 2001, 384-426, bes. 384.

108

Gernot Gruber

als selbstverständlich und unumgänglich anzunehmenden – Intention eines Kunstgegenstandes bzw. eines Kunstakts um? Was wollte oder will ein Künstler mit seinem Werk, seinem künstlerischen Handeln? Was an Intention enthält das Werk über die Intention seines Autors hinaus? Wie verhalten sich ein Werk, ein Autor und die in ihnen enthaltenen Intentionen, aber auch deren unmittelbare Resonanz und die historisch nachträgliche Rezeption, zu den sie jeweils umgebenden Kontexten? Werden bei einem derart auf „ästhetische Kommunikation“ gerichteten, beobachtenden Blick Kausalitäten nicht nur erkennbar, sondern auch methodisch sauber zu entschlüsseln? Schon aus solch einer skizzenhaften Abstraktion konkreter Phänomene wird klar: Kommunikation ist in den Künsten ein sensibel beweglicher Vorgang, und er stellt sich in den einzelnen Künsten unterschiedlich dar. Aber was ist diesen unterschiedlichen Phänomenen und Perspektiven ihrem Wesen nach gemeinsam? Ich versuche es in zwei Schritten anzusprechen. Zunächst möchte ich – jeden Seitenblick auf Theorie-Schemata vermeidend – meine Erfahrung mit Kunst, speziell mit Musik, und mit Menschen, die sich mit Kunst beschäftigen, pointieren und zunächst fragen, was denn das Gegenteil von Kommunikation in Kunst und über Kunst wäre. Auch darauf ist die Antwort vielfältig: Extrem wäre ein Sich-Verweigern gegenüber der Sphäre von Kunst, auch gegenüber einer diesbezüglichen Kommunikation – dann eine erzwungene oder frei gewählte Künstlerflucht in einen Solip­ sis­mus - oder ein Sich-Verkriechen in Kunst-Rezeption. Im subjektiven Empfinden des Einzelnen gibt es das, aber par distance als spezifischer Vor­ gang betrachtet, kann es keine Kommunikationslosigkeit geben. Folglich sind „Kommunikativität“ und „Selbstgenügsamkeit“ keine sich-ausschließenden Gegensätze, sondern abstrakte Extrem-Positionen innerhalb eines Raums des Möglichen für ein konkret sich vollziehendes Wechselspiel. Diesem SpielRaum verhaftet ist auch mein Thema, die Frage nach dem „kommunikativen Potential der Künste“. Was konstituiert aus unserem alltäglichen bunten Erlebens-Fluss heraus diesen „ästhetischen Raum des Kommunizierens“ als etwas Besonderes? Aus eigener Erfahrung gesprochen, ergibt er sich aus einem Zustand der Bereitschaft, sich zu öffnen für eine aufmerkende Wahrnehmung dessen, was auf mich zukommt, mich dann affiziert, etwas in mir auslöst, also einen Impuls gibt, der entweder zu mehr Kommunizieren und mehr Sich-auf-etwas-Konzentrieren, oder in weiterer Folge auch zu einem SichWieder-Herausnehmen aus dem laufenden Kommunikationsfluss und einer Distanzierung zu anderen potentiellen Angeboten führen kann. Was auch immer es dann – in meinem subjektiven Empfinden – ist, kann es Impuls für

Das kommunikative Potential der Künste

109

einen neuen „Raum“’ sein oder sich im grauen Rauschen des Lebensflusses wieder verlieren. Wobei dieses „graue Rauschen“, in dem ich mich bewege, doch meine sensible Bereitschaft voraussetzt, um das Potential zu haben, gleichsam spontan zum Besonderen, zum Augenblick, zum „Nu“ (im Sinne des Augustinus) zu werden. Der so überaus feinsinnige Komponist Claude Debussy meinte, Musik sei „spontan“. Dennoch, was kann das Gemeinsame solcher Erfahrungs- und Kom­mu­ ni­kationsräume sein? Vielleicht sogar eine Einsicht in einen Sach­ver­halt? Ich möchte eine Antwort über ein Beispiel geben. Eine ästhetische Kommuni­ kation liegt zweifellos vor, wenn einer über ein Musikstück urteilt oder es beschreibt und dabei versucht, mit Worten dessen Wesen zu erfassen, und dies dann publiziert, in der selbstverständlichen Erwartung, dass seinen Text jemand liest, sich bestätigt fühlt oder ihn kritisiert. Nun zu einem konkreten Beispiel: Ich habe mich viel mit der Rezep­ tionsgeschichte W. A. Mozarts beschäftigt. Bei der Fülle und Buntheit der Aussagen über Mozarts Musik durch über 200 Jahre hindurch drängt es einen, nachzudenken, ob es Grundmerkmale dieser Musik gäbe, die schon zu Mozarts Lebzeiten wie noch heute angesprochen wurden und werden. Ich fand zwei: Das eine konstante Merkmal betrifft die Werke, so wie sie uns in Parti­ turen geschrieben vorliegen und danach musiziert werden. Was an ihnen immer wieder hervorgehoben wird, ist der „Reichtum“ dieser Musik – durchaus nicht immer positiv. Zu Mozarts Lebzeiten wurde oft kritisiert, dass solch ein „Reichtum“ den Hörer überfordere. Seit dem frühen 19. Jahrhundert dominiert eine positive Einschätzung, ja Bewunderung für dieses Phänomen. Derartige Urteile sozusagen über die Sache selbst beziehen sich offensichtlich nicht ausschließlich auf Partituren, sondern auf den Rezeptionsvorgang insgesamt, also auf Musizieren, Hören und Lesen von Mozarts Musik. Das andere, ebenfalls recht konstante Merkmal, das mir auffiel (übrigens auch an meinem eigenen Verhalten), geht vom Rezeptionsvorgang als Erlebnisfaktor aus und sucht dann das Empfundene auf den Partiturbefund rückzubeziehen. Das Adjektiv, das merkwürdig häufig dies charakterisieren soll, heißt „lebendig“. Viele Autoren, die sich mit einer Merkmalsaufzählung für diese musikalische „Lebendigkeit“ nicht zufrieden geben, sondern sie ihrerseits auf den Punkt bringen möchten, greifen gerne zu paradoxalen Wortprägungen wie „Unbestimmt-Bestimmt“ oder „Schrankenlos-Begrenzt“,

110

Gernot Gruber

so bereits 1802 der Literarhistoriker Franz Horn.2 Paradoxie ist offensichtlich das Letzte, Äußerste, was an Aussage zu erreichen ist. Doch wie lässt sich die irritierende Pointe dieses Beispiels und überhaupt das bisher zu einem kommunikativen Erkenntnisprozess über Kunst Gesagte auf den Boden einer sauber angelegten und in ihren Schritten überprüfbaren Betrachtung bringen? Üblicher Weise, indem man anerkannte rationale Modelle anwendet, elementare Bausteine formuliert und dann schrittweise komplexe Gebilde errichtet, um so Kunstwerke zu durchleuchten und im weiteren interpretieren zu können. Um mögliche Einsichten und Schwierigkeiten aufzuzeigen, seien unterschiedliche solcher Ansatz­ möglichkei­ten und Wege skizziert. Da eine Kommunikation über Künste, freilich nicht immer und ausschließlich, aber doch meist über Worte läuft, liegt es nahe, einen Blick auf die Linguistik zu werfen. Um zu möglichst eindeutigen Aussagen zu gelangen, scheint es zweckdienlich, nicht von „Kommunikation“, sondern von dem ihr vorgelagerten Begriff der „Repräsentation“ auszugehen. Die Zeichenlehre von Charles Sanders Peirce bietet sich dabei an. Nach Peirce wird Ausdruck als Repräsentation eines Inhalts durch einen Komplex sprachlicher Zeichenarten erreicht. Dieser Komplex besteht aus „symbolischen“ (konventionellen) und zusätzlich aus „ikonischen“ (basierend auf Analogie zwischen Ausdruck und Inhalt, z.B. zwischen Text und Bild) sowie „indexalischen“ (Verweise enthaltenden) Zeichen. Der aktuelle Stand einer hier ansetzenden Forschung wurde von Gerhard Budin und Wolfgang Dressler 2010 im Rahmen einer interdisziplinären Tagung zum Thema „Repräsentation(en)“ an der Österreichischen Akademie der Wissenschaften kritisch diskutiert.3 An konkreten Beispielen für die Komplexität von unterschiedlichen Formen der Indexalität und Ikonität gelangten die beiden Autoren zu Forderungen an die linguistische Forschung: zum einen, unterschiedliche Begrifflichkeiten, Methoden und Theorien anzuerkennen und im weiteren eine „interdisziplinäre Betrachtung des Themas ‚Sprache und Kommunikation’ zu wählen“. Zum anderen wiesen sie auf den Unterschied zwischen individuell-mentaler und kollektiv-öffentlicher Repräsentation (als Basis für Kommunikation) hin und betonten nachdrücklich, dass in der Realität „mentale und öffentliche Repräsentation stets neu interpretiert und dabei auch stets verändert oder transformiert werde“. Das Sprachliche sei 2 Zitiert nach: Gernot Gruber, Mozart und die Nachwelt, Salzburg 1985 (diverse Übersetzungen und Nachdrucke, zuletzt revidiert in Das Mozart-Handbuch 5, Laaber 2009), 111-114. 3 Tagungsbericht im Erscheinen.

Das kommunikative Potential der Künste

111

eingebunden in „interlinguale, intermediale und digitale Prozesse“. Das heißt aber, dass ein Baukastenprinzip, nach dem mit elementaren Bausteinen ein komplexes Gebäude zu errichten sei, wesentliche Merkmale der sprachlichkommunikativen Realität nicht erfasst. Einen anderen Ansatz bietet die Informationstechnologie, die ich freilich nur aus einer, auf das Ästhetische gerichteten Perspektive betrachte. Im Laufe des 20. Jahrhunderts scheint sich im Begriff der Kommunikation der Akzent vom Ästhetischen auf das Technische verschoben zu haben. Angestrebt wurde die kausale Kontrolle von Abläufen. Eine gelingende Kommunikation ist dann das kontrollierte Zusammenspiel von Sender, Kanal und Empfänger. Nach Claude E. Shannon ist dabei das Element der Selektion besonders wichtig. Warren Weaver sieht aber diese (mithilfe einer mathematischen Theorie) kontrollierten Abläufe nicht auf die Sprache beschränkt, sondern betont ausdrücklich: „This … involves not only written and oral speach, but also music, the pictorial arts, the theatre, the ballet, and in fact all human behavior.“4 Radikal über diese Begriffsbestimmung hinaus geht der Soziologe Niklas Luhmann,5 wenn er für die Selektivität der Kommunikation fordert, sie im Kontext von Sinnverweisen zu betrachten. Luhmann und noch mehr Dirk Baecker weiten den Horizont dieser kontextuellen Selektion, indem sie Bestimmtes wie Unbestimmtes, Wissen und Nicht-Wissen, Sichtbares und Unsichtbares, Anwesendes wie Abwesendes, Gewisses wie Ungewisses in diesen Raum mit einschließen. Baecker fasst das knapp so zusammen: „Kommunikation lebt … von ungleich verteiltem Wissen/Unwissen.“6 Damit aber sind wir von einem informationstechnologischen Ansatz her wiederum zu paradoxalen Wortprägungen gelangt, die auffällig, zum Teil sogar wörtlich, jenen ähneln, von denen in Hinblick auf Mozarts Musik vorhin die Rede war. Selbst das Wort vom „Leben“/Lebendigen der Kommunikation taucht bei Dirk Baecker wieder auf. Ich wechsle einmal mehr die Perspektive und blicke nun, sehr viel ausführlicher, auf eine aktuelle sozialhistorische Diskussion. An der Universität Konstanz wird derzeit im Fachbereich „Geschichte und Soziologie“ ein Forschungsprojekt „Globale Prozesse“ vom Historiker Jürgen Osterhammel geleitet. Im jüngsten Heft des Periodikums Geschichte und Gesellschaft7 haben die Autoren Osterhammel und Sven Oliver Müller 4 Warren Weaver (mit Claude E. Shannon), The Mathematical Theory of Communication, Urbana 1963, 3. 5 Die Gesellschaft der Gesellschaft, Frankfurt am Main 1997. 6 Baecker (wie Anm. 1), 409. 7 Göttingen 2012, 5-20.

112

Gernot Gruber

einen Impulstext mit dem Titel „Geschichtswissenschaft und Musik“ und daran anschließende Fallbeispiele anderer Autoren veröffentlicht. Diese Texte haben mich als Musikwissenschaftler sehr überrascht, da musikalische Phänomene im Unterschied zu literarischen, bildnerischen oder theatralischen in der Geschichtswissenschaft häufig marginalisiert werden. Nun fordern die beiden Autoren nach „linguistic turn“, „iconic“ und „visual turn“ auch einen „acoustic“ oder „musical turn“, und dies ausdrücklich in Hinblick auf den Begriff der „Kommunikation“, der bei unserer Tagung im Zentrum steht. Die Argumentationslinie von Müller und Osterhammel sei kurz erläutert und dann, aus meiner Sichtweise, einige Gedanken daran geknüpft. Die Autoren gehen von der Feststellung aus, dass allen Künsten eine „sozialintegrative Wirkung … eigen“ (6) sei. Aber sie betonen: „Musik ist mit großem Abstand die sozialste aller Künste“, sie sei ein „ideales Feld für die Verschwisterung von Sozial- und Kulturgeschichte“ (9). Damit sind die Funktion des Faktors „Musik“ und die Ziele geplanter Untersuchungen klar markiert. Als dafür geeigneter Ansatzpunkt bietet sich ihnen besonders die Art an, in der Elias Canetti in seinem Buch Masse und Macht (1960) die Musik beschreibt: nämlich als ein Massen mobilisierendes und auch bändigendes Phänomen (10). Dies ist offenkundig und lässt sich reich belegen. Nehmen wir das Beispiel der Hymnen, auf das Müller und Osterhammel nachdrücklich hinweisen (10f.). Hymnen haben stets einen Verweis-, ja Appell-Charakter, doch sehr unterschiedlicher Schattierungen. „Hymnos“ ist schon in der griechischen Antike und später im Christentum ein an eine Gottheit gerichtetes geistliches Lied. Eine von daher kommende Aura behalten Hymnen auch in weltlich-repräsentativer Funktion. Die weltanschaulichen Inhalte und der musikalische Gestus von „God save the king“ - Marseillaise – „Gott erhalte Franz, den Kaiser“ (oder über dieselbe Melodie das Deutschlandlied) sind sehr unterschiedlich, und dies durchaus mit bedeutungsstiftender Intention. Solche Hymnen sind identitätsstiftend, sei es territorial oder in schärferer Weise nationalistisch, sie heben sich von anderen Identitäten ab oder richten sich ausdrücklich gegen das Fremde. Unter ihrem Singen und Erklingen wurde in Kriege gezogen, aber mit ihnen werden auch sehr viel harmlosere Fußballländerspiele mit auratischer Bedeutsamkeit eingeleitet oder Sieger im Sport geehrt. Doch all diese inhaltlich unterschiedlich gewichteten Erscheinungsformen von Hymnos/Hymne haben eines gemeinsam: sie bilden im Gestus ihres Erklingens Kommunikationsgemeinschaften, welcher Art und personeller Zusammensetzung auch immer. Doch mit solchen, in ihrer zielgerichteten Funktionalität musikalisch eindeutig ausgerichteten, um nicht zu sagen simplen Gegenständen erschöpft

Das kommunikative Potential der Künste

113

sich mein Thema nicht. Müller und Osterhammel weisen zu Recht und mit Nachdruck darauf hin, dass im Unterschied zu Literatur und bildender Kunst Musik einen wesentlich „kommunikativen Charakter“ hat. „Musik funktioniert nur in einer gemeinsamen Kommunikation.“ (14) Vom Komponisten Boris Blacher wird erzählt, er habe auf die Frage, was Musik sei, geantwortet: „ein Drei-Mann-Job“, einer komponiert, einer spielt, einer hört zu. Die Pointe der saloppen Formel liegt auf dem Zusam­ men­wirken der Drei im Musikmachen. Wahrscheinlich anders als Blacher sehen die beiden Autoren in dieser Kommunikation keinen primär musikalischen Vorgang, sondern betonen die kulturellen, ökonomischen und sozialen Abhängigkeiten zwischen Komponist, Musikern, Auftraggebern, Verlegern und schließlich auch dem Publikum. Folglich äußern sie im Resumee ihres Grundsatz-Textes auch die Annahme, „dass die Wirkung der Musik weniger aus ihrer objektiv bestimmbaren Qualität resultiert als vielmehr aus der interpretierenden Bestimmung durch die situative Auswahl, die Geltung der Institutionen und das Verhalten der Zuhörer.“ (20) Unmittelbar dazu Folgendes: Ich schließe mich gerne der Ansicht von Müller und Osterhammel an: Musik sei „niemals allein ein werkimmanentes Phänomen“ (13). Selbstverständlich gibt es keine „objektiv bestimmbare Qualität“ eines Kunstwerkes, sondern einen unabschließbaren interpretatorischen Prozess. Das gilt spätestens seit Kants Ästhetik und „Werk“-Begriff. Das heißt, jedes musikalische Handeln – Komponieren, Improvisieren, musizierendes oder hörendes Interpretieren – ist von individuellen wie kollektiven Vorprägungen und sozialen Kontexten umfangen. Ich wende mich nur gegen ein „weniger“ versus ein „viel mehr“ zwischen „Text“ und „Kontext“. Texte, also auch musikalische Werke, und Zweck sowie Umgang sind von Fall zu Fall verschieden. Ein von einem Militärkapellmeister komponierter Marsch und ein Streichquartett von Johannes Brahms aus der gleichen Zeit und am selben Ort entstanden, sind auch – und gerade - in ihrer Funktionalität und Wirkungsintention sehr unterschiedliche Gegenstände. Aber die Gewichtung zwischen einer funktionalen und einer kunstästhetischen Wertung basiert sicher nicht auf einer „objektiv bestimmbaren Qualität“ des musikalischen Phänomens, aber auch nicht auf einer objektivierbaren sozialen Funk­tiona­li­ tät eines Ereignisses. Diese Gewichtung im konkreten Fall mag einem noch so sehr von kollektiven Identitäten, sozialen Gruppenbildungen sowie persönlicher Kennerschaft und prägenden Erfahrungen nahegelegt werden, sie ist letztlich doch eine individuelle Entscheidung. Das bedeutet, jeder von uns hat das Potential sich zu distanzieren oder sich hinzugeben. Was hier auf-

114

Gernot Gruber

taucht, ist das für eine „ästhetische Kommunikation“ zentrale Problem: Wie verhalten sich Individuum und Kommunikation zueinander? Dieses Problem liegt im Zentrum der Ästhetik-Diskussion seit dem 18. Jahrhundert. Schon John Locke beunruhigte seine Beobachtung und anschließende Frage: Ein Individuum bezeichnet mit seinen Worten seine eigenen Vorstellungen, nicht die Vorstellungen anderer, noch die Realität der Dinge/etwa der Kunstgegenstände. Aber wie gelingt es dem Menschen in seiner verschlossenen Individualität seine Vorstellungen zu bezeichnen? Aktuell hat dieses Dilemma Dirk Baecker als eine „Paradoxie der nur kommunikativen Zugänglichkeit des kommunikativ nicht Zugänglichen“ (390) auf den Punkt gebracht. Als Kompromiss gibt es nur die Antwort: Mitteilungsfähig wird eine subjektive Empfindung nur dank Angeboten, mit denen die Gesellschaft dem Individuum sozusagen zu Hilfe kommt (384). Damit aber wird die, heutzutage gerne hochgespielte Entweder-Oder-Alternative von ‚Text versus Kontext’ in fundamentaler Weise irritiert, wenn nicht unsinnig. Welch weiter Bogen an Möglichkeiten sich daraus ergibt, sei an konkreten Beispielen erläutern. Der bei Kultur-, Musik- und Theaterhistorikern wie bei Soziologen beliebteste einschlägige Untersuchungsgegenstand ist die Oper. Die Bezüge zwischen den beteiligten Medien an solch einem Gesamtkunstwerk lassen sich ebenso wie soziale, politische oder gattungsbedingte Vernetzungen recht verlässlich näher bestimmen. Ähnlich ist die Konstellation bei geregelten Konzertveranstaltungen, bei Musikgesellschaften und Musiklehranstalten, wie sie vor allem in den Jahrzehnten um und nach 1800 vielerorts entstanden sind und als etwas Neues, Zukunftsweisendes empfunden wurden. Wie komplex und je spezifisch Musik und Kontext sich konfigurieren, sei am Beispiel der „Gesellschaft der Musikfreunde in Wien“ erläutert. Sie wurde 1812 gründet. Die 200 Jahr-Feiern 2012 brachten auch Tagungen zu ihrer Geschichte, deren Fazit nun skizziert sei. Besonders für die frühe Geschichte der „Gesellschaft“, auch danach und bis heute, war und ist es offensichtlich von zentraler Wichtigkeit, mit allem strategischen Geschick eine Balance zu halten zwischen einer durch Wohlverhalten gegenüber dem Hof sowie späteren demokratischen Mächten zu erreichenden Protektion und dem Willen zum selbstbestimmten Handeln einer aristokratisch-bürgerlichen Gesellschaft. Gar nicht funktioniert hat dies für die „Gesellschaft“ zwei Mal: In den Folgen der Revolution von 1848 war das Misstrauen des Kaiserhofes gegenüber der „Gesellschaft der Musikfreunde“, die mit der Revolution zu lange sympathisiert hatte, groß

Das kommunikative Potential der Künste

115

– und während des Nazi-Regimes ab 1938 blieb nur ihr Name erhalten, das Geschehen aber wurde von einem politischen Kommissar fremdbestimmt. Die von vornherein festgelegten Ziele richteten sich, wie immer wieder betont wurde, auf die „Emporbringung der Musik in allen ihren Zweigen“. Mit diesem Bildungsstreben war eine weltanschauliche und politische Haltung verknüpft, die als ein Bewahren des josephinischen Erbes zu bezeichnen ist. Träger waren und blieben die unter Joseph II. und seinen zentralistischen Reformen entstandenen gehobenen Beamtenschichten (neuer Frei­herren­stand). Diese übernahmen höfische und hocharistokratische For­ men der Kunst- und besonders der Musikpflege und verbanden sie mit neuen musikalischen Produktions- und Rezeptionsweisen, wie sie sich spätestens seit der Französischen Revolution besonders im Bürgertum europaweit ausbreiteten. Aus dieser sozusagen „gemischten“ Aktualität heraus rückten in den Fokus der neuen „Gesellschaft“: die Pflege und Bewahrung eines musikalischen Erbes, der Aufbau eines säkularen musikalischen Kanons, die Sammlung musikalischer bzw. musikbezogener Gegenstände (Noten, Instrumente, Bilder, Archivalien usw.), aber auch die Anregung und Wert­ schätzung neuer hervorragender Kompositionen. Bezeichnend für das Selbstverständnis der „Gesellschaft der Musikfreunde des österreichischen Kaiserstaates“ ist, dass die Propagatoren und ersten führenden Persönlichkeiten (überwiegend Adelige) so gut musikalisch vorgebildet waren, dass sie als Musiker öffentlich auftreten konnten und es auch taten. Auf diese Weise entstand (wie an anderen Orten) die ideale Vorstellung einer sich durch Selbertun zur Kennerschaft bildenden Gemeinschaft von im öffentlichen Leben wohl verankerten Musikliebhabern. Diesem Ziel diente auch die frühe Gründung einer Musiklehranstalt („Conservatorium“). Die Funktion so genannte „Gesellschaftskonzerte“ wurde wichtig genommen, doch verstand sich die „Gesellschaft“ nicht primär als unternehmerischer Konzertveranstalter“. Aber was geschieht „in actu“ beim Kammermusik- und Orchesterspiel, beim Sololied- und Chorgesang? Dominant präsent ist dabei jene, zu Beginn hervorgehobene, „ästhetische Kommunikation“ zwischen den Musizierenden. Sicher ist sie getragen von einem sozialen Gruppenbewusstsein, umfangen von Prägungen und Erfahrungen, kollektiver und auch sehr individueller Art. Aber in der damaligen Situation löste sich im Verlauf dieses Tuns die vorgegebene soziale Diastratik hin zu einer Vision von einer „besseren Welt in Musik“ und zu einer „anderen, freien Sphäre“ – wohl auch mit dem Wunsch, ein Sich-Mühen um eine gelingende Harmonie des Miteinander-Tuns sollte sich aus der glückenden musikalischen in die alltägliche soziale Realität aus-

116

Gernot Gruber

weiten. Im Blick aus unserer Distanz erscheinen „Text“ und „Kontext“ hier derart verquickt, dass ihre methodische Trennung den Gegenstand verfehlte. Sehr viel klarer gerichtet ist das kommunikative Potential der Künste, und speziell das der Musik, bei ihrem Einsatz zur politischen Manipulation oder einer weltanschaulichen Überzeugungsarbeit. Doch ergibt sich die Eindeutigkeit der zu vermittelnden Botschaft meist im Zusammenwirken verschiedener Künste und im Rahmen eines ohnehin schon auf sie gerichteten Vorgangs. Vom Aufbau solcher Assoziationsnetze scheint besonders die un-begriffliche und aus sich heraus bildlose Musik in ihrer Wirkungs­ mächtigkeit abhängig zu sein. Aber Geschichte und Gesellschaft kommen ihr zu Hilfe. Es gibt eine durch Konvention entstandene, der Musik anhaftende Semantik. Ein einfaches Beispiel dafür geben die vorhin erwähnten Hymnen. Der Gestus der „Marseillaise“ mit auftaktiger, nach oben strebender, rhythmisch punktierter Melodielinie enthält, auch ohne Text, etwas energisch Vor­ wärts­drängendes. Er wäre ungeeignet für die englische oder die deutsche (zunächst österreichische) Hymne. Joseph Haydn hat sicherlich mit Absicht sein „Volks-Lied“ im Kampf gegen Napoleon „Gott erhalte“ mit einer kreisenden Melodie komponiert, denn die ihr anhaftende Semantik (Figur der „Circulatio“ aus der barocken musikalischen Rhetorik) allegorisiert musikalisch etwas Zeitlos-Gültiges, Ewiges, In-sich-Ruhendes. Der gleiche Ansatz stellt sich komplexer dar bei den nationalsozialistischen Feiern zum Anschluss Österreichs an das Deutsche Reich. Vom Auftreten Adolf Hitlers am Wiener Heldenplatz am 11. März 1938 bis zum „Tag des Großdeutschen Reichs“ am 9. April (einem Tag vor der Volksabstimmung) wurde eine Folge von Veranstaltungen konzipiert. Am Heldenplatz wurde nach jahrhundertealten Vorbildern öffentlicher Repräsentation eine Art „Gesamtkunstwerk“ arrangiert, das alle, politisch Handelnde und Volk mit einbezog und zu einer Erlebnis-Einheit verschmelzen sollte. Genaue ZeitPläne mit ebenso genauer Positionierung der musikalischen Anteile wurden realisiert. Die Hauptaufgabe der Musik bei allen diesen Veranstaltungen war es, die Massen zu emotionalisieren und sie schon im Rahmenprogramm der Kundgebungen und bei wichtigen Stationen des Verlaufs zu führen. Dem dienten Aufzüge von Militärkapellen mit flotten Märschen sowie das gemeinsame Singen von Deutschlandlied und Horst Wessel-Lied. Über die Emotionalisierung hinaus ist die Musik ein zeitlich strukturierendes und ritualisierendes Mittel der Inszenierung. Mit diesen Faktoren verbindet sich, besonders wirksam, die assoziative Semantik bloßer Instrumentalmusik: z.B. des Badenweilermarsches beim Auftreten Hitlers oder die Spielmannszüge der Deutschen Wehrmacht. Ihr Instrumentalklang unterscheidet sich deut-

Das kommunikative Potential der Künste

117

lich von dem österreichischer Militärmärsche, wie er dem anwesenden „Volk“ von der Tradition her geläufig war. So wurde jedermann unmittelbar verständlich: Nun gehören wir zu den Deutschen des großen „Reiches“. Anders sind die Gewichte verteilt, wenn sich die „ästhetische Kommu­ ni­kation“ auf Kunstmusik richtet. Als Beispiel für dieses andere Verhältnis von „Text“ und „Kontext“ diene Joseph Haydns „Abschieds­symphonie“ (Hob.Nr. I: 45), die 1772 in der Sommerresidenz des Fürsten Nikolaus I. in Esterhaza uraufgeführt wurde. Die große Bekanntheit dieser Symphonie hat ihren Grund weniger in ihrer hohen künstlerischen Qualität als in einem sehr ungewöhnlichen Effekt am Schluss der Symphonie: dem schrittweisen Sich-Verabschieden von Musiker-Gruppen, bis zuletzt nur zwei Geiger übrig bleiben. Eine Fülle von Überraschungseffekten hat Haydn in seinen Symphonien und seiner Kammermusik ja öfter eingesetzt. Sie gehören häufig, aber nicht immer, in die Kategorie des „musikalischen Humors“. Solche Irritationen der Hörerwartung treten im musikalischen Verlauf der „Abschiedssymphonie“ verschiedentlich auf. Unüberhörbar ist etwa der Blendenwechsel mitten im heftig bewegten 1. Satz durch eine mit Pausen davor und danach abgesetzten kantablen „piano“-Passage in D-Dur (T. 108-141) im sonst in fis-moll stehenden Verlauf. Was davon zu halten ist oder konkret gemeint sein könnte, bleibt offen, aber dieses abrupte Umblenden regt jedenfalls die assoziative Phantasie des Hörers an. Sehr viel gravierender irritiert der sich sozusagen verbröselnde Schluss der Symphonie, der jeder Erwartung an den Aufbau eines großen Stückes mit klarem Anfang und überzeugender Schlussbestätigung (wie es in der Rhetorik seit der Antike gefordert ist) zuwider läuft. Daher wird beim Rezipienten der Drang, für diesen irregulären Vorgang eine einleuchtende Erklärung zu suchen, sehr stark. Sie fand sich in folgender Story: Nach einem langen Sommer in Esterhaza wollten die Musiker endlich zu ihren Familien heimfahren; deshalb nötigten sie den Fürsten durch den „Witz“ einer musikalischen Metapher, ihrem Wunsch zu entsprechen und den Befehl zum Aufbruch zu geben. Die Herkunft dieser Story ist nicht aufgeklärt, es gibt sie auch in verschiedenen Versionen. Historisch ist sie sehr unwahrscheinlich, denn ein noch absolutistisch regierender Fürst wie Nikolaus Esterhazy ließ sich von Bedienten nicht zu irgendetwas nötigen. Darüber kann man sehr schön diskutieren. Unleugbar scheint nur der Umstand zu sein, dass Haydn eben nicht einen strahlenden Symphonieschluss komponierte und folglich eine darauf gerichtete Erwartung schrittweise destruierte.

118

Gernot Gruber

Doch, vielleicht trügt der Anschein – sobald man näher hinhört? Lasse ich mich als Rezipient auf diese Symphonie ein und öffne mich für ein aufmerkendes Wahrnehmen, ändert sich die „Kommunikation über einen ästhetischen Gegenstand“ ganz erheblich. Freilich ereignet sich eine konzentrierte Wahrnehmung auf der Basis individueller Erfahrung. Doch lässt sich darüber intersubjektiv verständlich fachlich argumentieren. Der amerikanische Haydn-Forscher James Webster hat ein ganzes Buch über diese Symphonie geschrieben.8 Ohne in eine musikwissenschaftliche Diktion überzugehen, sei ein Resümee aus seinen Untersuchungen gezogen: Webster verdeutlicht in aller wünschenswerten Detailliertheit, dass die im Verlauf der Symphonie zahlreich auftretenden Irritationen der Konvention letztlich in einer denkbar ungewöhnlichen Weise eine Lösung finden. Eine Symphonie der Haydn-Zeit hat gewöhnlich vier, eventuell nur drei, aber nicht fünf Sätze. Und schon gar überrascht, dass dieser Schlussteil in einem sehr langsamen Tempo zu spielen ist und in piano endet. Doch er ist dennoch ein Probleme lösender, also positiver Schluss. Dies umso mehr, als die Symphonie von Anbeginn in der sehr ungewöhnlichen Tonart fis-moll steht, aber im Schluss-„Adagio“ nach A-Dur und ganz zuletzt nach Fis-Dur wechselt (meines Wissens eine bei Haydn sonst nie gewählte Tonart). Bei einem auf den Tonartenplan achtenden Hören wird dieser Schluss eben nicht als Destruktion der Gattung Symphonie zu verstehen sein. James Webster meint, wenn man schon imaginative Assoziationsspiele treiben will, müsse man die bekannte Story umschreiben, etwa in der Art: Die Musiker, die nach der langen Sommersaison nach Hause wollen, sind in einer sehr aufgewühlten Stimmung. Die Symphonie in fis-moll beschreibt über weite Strecken eine Art klingende Imagination, eine Meditation über die Möglichkeit, die Heimat in Gestalt des Dur-Tongeschlechts zu finden. Dies gelingt zuletzt, aber nicht in Form eines triumphalen Schlusses, sondern in „Adagio“ und „piano“. Das hieße dann, das erreichte Ziel – in der zu fismoll parallelen Tonart A-Dur und in der den Kreis zum Symphonieanfang schließenden gleichnamigen Tonart Fis-Dur – bliebe eine „schöne Chimäre“ ohne Realität. Aber natürlich ist das keine sachlich-nüchterne und eindeutige Entschlüsselung einer vom Komponisten intendierten musikalischen Semantik, sondern ein in Anbetracht der musikalischen Satzstruktur plausibles Zurechtrücken einer Story, freilich durch einen Kenner wie Webster, der bei seiner Rezeption wohl auch den Impuls verspürte, sich beim Wahr­neh­ men der Irritationen auf einen sinnvollen Gesamtverlauf hin zu orientieren. 8 James Webster, Haydn’s „Farewell“ Symphony and the Idea of Classical Style, Cambridge 1991.

Das kommunikative Potential der Künste

119

Doch, was „in“ der Musik ist, ist nicht mehr als eine Folge von Klängen. Darauf bezieht sich jenes hoch sensibel verstandene „strukturelle Hören“, das Theodor W. Adorno in seiner Einleitung in die Musiksoziologie (1968) als höchste Form des Musikhörens klassifizierte. Es ist jedoch kein Phänomen abstrakter Reinheit, sondern es ist vom Humus der Kontextualität umfangen. Das heißt konkret: Jenes von Haydn, wie bei vielen anderen Symphonien, angestrebte und häufig mit Wirklichkeitsbezügen verflochtene kompositorische Raffinement vielfältiger Art sollte und wurde vom Fürsten und seiner Hofgesellschaft wohl mit einem wissenden Schmunzeln rezipiert (sonst hätte er es seinem Hofkapellmeister, auch einem Bedienten, nicht gestattet). Es schmeichelte seiner und ihrer Kennerschaft und förderte ihre gemeinschaftliche Identität als Elite: auf einem Feld, das sich über die ständischen Machtverhältnisse des gelebten Alltags erhebt, sie sublimiert, aber nicht vergessen macht. Welch ein Faszinosum diese Vorgänge damals besessen haben mussten, wird einem par distance bewusst, wenn man – mit beträchtlichem gelehrten Aufwand – das Ineinander von musikalischer Partitur und Aufführungspraxis, sowie von deren Kontextgebundenheit an einem ganz bestimmten Ort mit seiner gesellschaftlichen Konstellation, historisch zu rekonstruieren sucht, aber selbst bei hohem Bemühen um historisches Wissen und Einfühlung von der „in actu“ sich ereignet habenden „ästhetischen Kommunikation“ als etwas „Lebendigem“ vom Reiz des Unvorhersehbaren hoffnungslos ausgeschlossen bleibt. Eine Lehre gibt uns aber die Betrachtung der verschiedenen Erscheinungs­ formen des kommunikativen Potentials der Künste und speziell der Musik: „Ästhetische Kommunikation“ ist in zentraler Weise ein Phänomen gegenwärtigen Geschehens in und zwischen den Beteiligten, mit allen Chancen der Sublimierung des individuellen und kollektiven Sensoriums, der Weitung des Erfahrungshorizonts, aber auch, und damit unlösbar verwoben, der Funktionalisierung für was auch immer. Hier stehen dann Entscheidungen an, die in den Bereich der Ethik fallen.

Geraldine Fitzpatrick

Information Technology and Human Interaction: Putting technologies to work in everyday life and interaction Without a doubt we are living in a time of radical change in the media and devices through which we can now communicate and interact. As researchers within the field of Human Computer Interaction, we engage at the intersection of computer and engineering sciences, behavioural sciences, design sciences and several other fields to design, implement and evaluate interactive technologies and their use by people. However, much of the rhetoric and discourses around Information Technology and human interaction are framed at high-level theoretical explanations and outcome impacts of IT, which are often framed as problematic. It is the contention of this paper that IT only opens up a space of possibilities and it is what we choose to do with it, both as users and as designers of technology, that ultimately determines the value we gain and the communicative experiences that are enabled. To illustrate, this paper draws from various domain examples and case studies with a particular focus on new social media such as Twitter and YouTube. These examples will point to diverse and nuanced experiences and to the ‘work’ to make them happen. They will illustrate some specific and ongoing transformations of ‘familiar’ interactions. Other examples will illustrate radically different forms of interaction, enabled by maturing mobile and sensor-based technologies. These in particular are suggestive of where future IT and communication might be going: augmenting communication with other forms of data such as location, bio-data etc; and supporting implicit as well as explicit communicative practices. Hence, technology itself is not deterministic. Its uses and impacts are situated within, and co-evolve with, complex socio-technical-cultural contexts.

Background Human beings have been exploring the potential of new technologies to support human interaction and communication for centuries, from writing to

122

Geraldine Fitzpatrick

printing, to the telegraph and the telephone, to newer digital technologies. Each new invention has proven to be disruptive, creating a radical change in communication and human interaction. They also share a common feature: often the technology is misunderstood or feared at the beginning, or its actual potential and value is totally under-estimated. The telephone is a classic case in point, with this quote attributed to the Western Union: “This ‘telephone’ has too many shortcomings to be seriously considered as a means of communication. The device is inherently of no value to us”.1 Yet we could not imagine modern life, personal and business, operating now without the phone. Another common feature is that it always takes time for new technologies to be adopted and co-evolved with everyday practices, as people explore potential uses of the technology to work out what it is, how to use it and what it can be good for. It is also the case that the cycles of time for gaining widespread diffusion and use are rapidly shortening. This is particularly so in the more recent era where mobile phones, smart phones and social networking technologies are even more radically transforming how we live, work, play, socialise, do business, do science, engage in politics, deliver healthcare, create music and art, manage emergency response etc. Sitting here in 2013, it can be surprising to remember the relatively recent history of social networking applications given their seeming ubiquity: Facebook was only launched in 2004, YouTube in 2005, and Twitter in 2006. Smartphones and tablet PCs also seem to be becoming ubiquitous but the first Apple iPhone was only released in June 2007 and the Apple iPad in 2010. Yet as at Sept 2012, Facebook had already passed one billion active users.2 At Twitter’s seventh birthday in March 2013, it reported over 200 million active users, with 400 million tweets sent per day.3 There is every reason to expect that this rate of change will continue, and that we will continue to be notoriously bad at anticipating what these new technologies and their uses might be. There are a number of research disciplines exploring issues around Information Technology (IT) and human interaction. For example, many researchers address issues of innovation and diffusion to understand adop1 http://www.telephonetribute.com/telephonetrivia.html (accessed 22 March 2013): Western Union Internal memo 1876. 2 http://newsroom.fb.com/News/457/One-Billion-People-on-Facebook Accessed 22 March 2013. 3 http://blog.twitter.com. ‘Celebrating #Twitter7’ Posted March 21 2013. Accessed 22 March 2013.

Information Technology and Human Interaction

123

tion paths, and develop theoretical models e.g., as in Roger’s diffusion of innovation theory.4 Others, e.g., from communications sciences, focus more on the media itself, how it affords and changes communicative practices, with the aim of developing more objective and empirically informed models or theories of communication. Yet others are concerned with the environmental and socio-political impacts of technologies from a life cycle perspective: e.g., precious metal supplies, the labour practices, and obsolete hardware disposal. There is also an ongoing discussion about the extent to which technology drives social change, versus change being socially constructed where human choice and action shapes technology. All of these are of course legitimate concerns and perspectives of IT and human interaction. As researchers within the field of Human Computer Interaction (HCI) however, we take a particular and somewhat different stance. Ultimately we are not so concerned with developing theories or models for their own sake but rather with engaging at the intersection of computer and engineering sciences, behavioural sciences, design sciences and several other fields to design, implement and evaluate interactive technologies and their use by people in everyday life. In this sense, coming from a computer science perspective, we are more like engineers constructing software artefacts, than traditional scientists ‘constructing’ knowledge in the form of testable hypotheses. In earlier HCI work, the focus was on the design of screens and interactions, taking individual interacting with a computer as the unit of analysis, and often with an emphasis on usability in support of a productivity and efficiency agenda. Since the 1960s when computers first started being networked together however, there has been an increasing focus on IT-enabled communication and human interaction since it is not just computers but humans who are now networked through technology. This has taken on a new impetus in the 21st century with the advent of social networking/social media technologies and where computing and connectivity can now be part of everyday social life. As HCI researchers, we complement understandings of generalised impacts of IT, and of broad-brush theories and models, with understandings of the ‘particular’. This ‘particular’ can be of how people as embodied agents make sense of technologies in their particular contexts of use, and what we can learn from these for informing future designs. These understandings can also be about our roles as designers of new technologies in shaping a space of possibilities for human communication and interaction. In doing so we 4 E.M. Rogers, Diffusion of Innovations, 5th ed. New York 2003.

124

Geraldine Fitzpatrick

embrace more of a ‘social shaping of technology’ perspective5 that emphasises the role of choices and agency on the part of both the designer and the user. We are often the ‘critical voice’ within computer science and engineering, cautioning against technological utopianism and drawing attention to the human perspectives and values that need to be accounted for, and to the broader socio-cultural-spatial contexts into which technologies need to be situated. The design of IT for human interaction is a ‘wicked problem’ that can only be reflectively understood as we try out solutions and in turn change the nature of the problem and the solution space.6 In this paper we first map out a general understanding of the landscape of IT and human interaction, with a particular focus on more recent social media/Web 2.0 technologies. We then complement this general account with a range of specific examples across different domains and cases, to illustrate the diversity of everyday situated experiences with technology and interaction as people put them to use in their everyday contexts, i.e., how uses emerge in and through practice and through design. These examples point to much more nuanced and situated ways of understanding the role of IT in human interaction in everyday life than generalised theories might suggest. We then point to some examples illustrating the potential of newer IT, in this case sensors and related wearable technologies, to support implicit and embodied aspects of human interaction. We conclude with some more general reflections to foreground the agency we have as individuals, as designers, and as multi-disciplinary researchers to be part of the social shaping of technology and the values that are important in this shaping.

Media technologies and platforms for communication Before moving on to some specific cases illustrating the mutually shaping of IT and human interaction, it is interesting to first explore some general understandings about the communicative affordances of different media and the strategies that people develop to make full use of them. One of the earliest ways of classifying different media for communication and collaboration was Johansen’s time-space matrix (with quadrants of same 5 R. Williams, D. Edge, The social shaping of technology. In: Research Policy 25/6 (1996), 865-899. 6 G. Fitzpatrick, The Locales Framework: Understanding and designing for Wicked Problems, Dordrecht 2003.

Information Technology and Human Interaction

125

time, different time, same place, different place).7 In this model, the telephone offers synchronous audio communication over distance; video conferencing supports same-time, different place communication; email offers a text-only form of asynchronous distributed interaction; and semi-synchronous distributed conversations are enabled by other types of text-based environments, such as instant messaging and online discussion groups. As people learn to use these media there is strong evidence that they also learn to adapt to the affordances and constraints of the media. For example, in the absence of visual cues on the telephone, conversational partners make accentuated use of speech coordination mechanisms and overt speech gestures to maintain conversational intimacy.8 In online text-based communication, people have made up for the lack of paralinguistic and visual cues by, for example, evolving ‘emoticons’ as a way to convey emotional content9. While video conferencing potentially addresses the loss of visual and paralinguistic cues of the telephone, studies of synchronous video communication have still highlighted the ways in which the video medium can negatively impact conversations compared to face-to-face communication, namely in terms of reorchestration of gaze and turn taking10 and the difficulties of sharing physical context in distributed collaborative work.11 More recent work has explored the impact of video framing on subtle cues related to empathy, suggesting that when the entire upper body is visible, compared to a heads-only view, “there is no evidence of deficit in [video] communication effectiveness compared to face-to-face meetings”.12 The technology-mediated landscape for communication and human interaction has been transformed even further with the advent of Web 2.0, providing more persistent conversational spaces than do some ephemeral 7 R. Johansen, Groupware: Computer Support for Business Teams. In: The Free Press 1988. 8 I. Hutchby, Conversation and Technology: from the telephone to the internet, Cambridge 2001. 9 J. T. Hancock, C. Landrigan, C. Silver, Emotion and empathy: Expressing emotion in text-based communication. In: Proceedings of CHI’07 Conference on Human Factors in Computing Systems, San Jose CA 2007, 929-932. 10 E.g. A.J. Sellen, Remote Conversations: The effects of mediating talk with technology. In: Human-Computer Interaction 10/4 (1995), 401-444. 11 E.g. S.R. Fussell, L.D. Setlock, R.E. Kraut, Effects of head-mounted and sceneoriented video systems on remote collaboration on physical tasks. In: Proceedings CHI 2003 Conference on Human Factors in Computing Systems, Fort Lauderdale 2003, 513-520. 12 D. Nguyen, J. Canny, More than face-to-face: empathy effects of video framing. In: Proceedings of CHI 2009 Conference on Human Factors in Computing Systems, New York 2009, 423-432, 423.

126

Geraldine Fitzpatrick

chat and video spaces. Web 2.0 refers to uses of the World Wide Web to enable people to not just passively consume web content but to actively generate their own content and to interact and collaborate together. Web 2.0 then is essentially about social networking, i.e., connectivity and relationships, not just communication and information sharing. Other terms referring to such applications include ‘social media’ and ‘social networking service (SNS)’. Some of the early examples of Web 2.0 applications are wikis and blogs. Wikis offer web-based authoring environments that allow people to collaboratively author content. Blogs offer a different form of asynchronous textbased communication, similar to a forum, but where (usually) individuallyauthored posts are posted to the author’s own site and made available via the Internet in a manner akin to a radio show.13 Video blogs (vlogs), as on YouTube, use a similar broadcast model but with video not text. In both forms of blogs, there can also be elements of asynchronous communication, facilitated by the ability for audience members to post comments and for the author to respond, creating a conversational context.14 There are also richer social networking platforms that enable people, in various ways, to establish profiles, connect to friends/colleagues, pass private or public messages, use broadcast or directed communication modes, interact synchronously or asynchronously, share experiences, play games, and so on. Prominent examples are Facebook and Twitter (as mentioned previously) as well as others such as LinkedIn, and Google+. Concurrent to the emergence of these new social networking platforms has been the explosion of mobile handheld devices and smart phones, increasing the use of mobile devices as everyday computing platforms and transforming the landscape of IT and human communication. It is reported that 5.6 billion people own a mobile device,15 584 million people check out what their friends are doing every day16 and more than half of Facebook

13 B.A. Nardi, D.J. Schiano, M. Gumbrecht, Blogging as Social Activity, or, Would You Let 900 Million People Read Your Diary? In: Proceedings of CSCW’04 Workshop on Social Networks, Chicago 2004, 222-231. 14 S.C. Herring, I. Kouper, J.C. Paolillo, L.A. Scheidt, M. Tyworth, P. Welsch, Conversations in the Blogosphere: An Analysis From “the Bottom Up”. In: Proceedings of the 38th Annual Hawaii International Conference on System Sciences, Manoa Hawaii 2005, 1-11. 15 Gartner, http://www.gartner.com/newsroom/id/1759714 Accessed 22 March 2013. 16 Facebook, http://newsroom.fb.com/content/default.aspx?NewsAreaId=22 Accessed 22 March 2013.

Information Technology and Human Interaction

127

users access Facebook on mobile devices.17 This has very literally shifted computing and interaction away from the office and the desktop machine to become enmeshed in every day life and spaces and activities.

Diversity of everyday in-situ experiences with technology and communication Emerging studies on these new social networking platforms can offer a very mixed picture and often raise a number of serious concerns about their impact on human communication and relationships. It is also not uncommon to see this research reported on in the popular press, leading to some quite negative and problematised narratives around electronic media use in general and SNS in particular. See for example, the recent book18, and a related New York Times article19, by Sherry Turkle, a highly influential MIT professor of social studies of science and technology, that raise concerns about the impact of social networking in shifting interaction from “conversation to connection”. Many such accounts of IT and human interaction report on population-level and generalised views of the impact of technology. While these are important, they can hide the diversity of actual experiences and the nuanced complexities of how individuals practically use technology for their own purposes. The following discussions present some particular domains and a case study as examples to illustrate the diversity of experiences around IT and human communication. The domain examples explore the situated potential of social networking for specific application domains, and how people identify and evolve new unanticipated uses for social networking technologies. The case study is of a particular older individual’s engagement with Web 2.0. Together these illustrate different ways of exploring the potential opened up by new technologies in specific contexts. They also illustrate the co-evolutionary ways in which technologies open up a space of new interactional possibilities and the work involved in putting these technologies to work and/or evolving their designs in use. 17 Sengupta, Somini. “Facebook’s Prospects May Rest on Trove of Data”. The New York Times. 14 May, 2012. http://www.nytimes.com/2012/05/15/technology/facebookneeds-to-turn-data-trove-into-investor-gold.html Accessed May 15, 2012 18 S. Turkle, Alone Together: Why We Expect More from Technology and Less from Each Other, Cambridge MA 2012. 19Turkle, Sherry, The flight from conversation. The New York Times, 21 April 2012. http://www.nytimes.com/2012/04/22/opinion/sunday/the-flight-from-conversation. html?pagewanted=all&_r=0 Accessed 22 March 2013.

128

Geraldine Fitzpatrick

Domain 1: New ways of doing science An interesting domain is that of science and scientific work. There are numerous examples of scientists changing the ways in which they conduct scientific research making use of Web 2.0 technologies and mobile devices. Various ‘citizen science’ projects20 are a case in point, where “mobile devices, social media and other technology have played a major role in raising the profile of citizen science, enabling volunteers to gather data, capture digital images and transmit this information from the field”.21 Such approaches have also been explored within schools to enable new forms of learning around scientific enquiry, through direct hypothesis testing, data collection and collaboration with remote scientists using mobile devices and internet connectivity.22 Web 2.0 technologies have been used to enhance collaborative efforts among scientists. An example is MyExperiment23, a publicly available collaborative virtual environment building on the notion of wikis. It was designed to enable scientists “to contribute to a pool of scientific methods, build communities and form relationships - reducing time-to-experiment, sharing expertise and avoiding reinvention”.24 MyExperiment now supports an active community of scientists and claims to have the largest repository of scientific workflows in the world. Social networking is also changing how scientists communicate their results and it is changing who can be engaged in discussions about science. Stafford and Bell, for example, describe the ways in which online social media such as blogging and Twitter are fundamentally changing the scientific process for cognitive scientists, “where communication is characterised by rapid scientific discussion, wider access to specialist debates, and increased 20 See for example: http://www.scientificamerican.com/citizen-science/ Accessed 22 March 2013. 21 L. Greenemeier, Strength in numbers: Citizen scientists lending more helping hands (and handhelds) to help the pros. In: Scientific American (2012). Available from: http:// blogs.scientificamerican.com/observations/2012/08/01/strength-in-numbers-citizenscientists-lending-more-helping-hands-and-handhelds-to-help-the-pros/ [Accessed 27 March 2013]. 22 Y. Rogers, S. Price, C. Randell, D. Stanton Fraser, M. Weal, G. Fitzpatrick, Ubi-leaning: Integrating indoor and outdoor learning experiences. In: Communications of the Association for Computing Machinery (ACM) 48/1 (2005), 55-59. 23 D. De Roure, C. Goble, R. Stevens, The Design and Realisation of the myExperiment Virtual Research Environment for Social Sharing of Workflows. In: Future Generation Computer Systems 25 (2009), 561-567. 24 http://wiki.myexperiment.org/index.php/Main_Page Accessed 22 March 2013.

Information Technology and Human Interaction

129

cross-disciplinary interaction”. 25 Such discussions are also becoming recognised as having impact: “the fact that highly cited articles on social media also become highly cited in the academic literature and scientific articles are now written in response to online debates suggest that scientific discussions on the internet are more than ‘idle chatter’”26. Individual scientists are also increasingly using social media to promote their own publications by self-citation on social media such as blogs, Twitter and Facebook.27 Here we might be seeing patterns and impacts emerge in unexpected ways: Shema’s (albeit limited) data set points to a potentially important gender difference in the exploitation of social media for self-citation, where “women cited statistically significantly less than men in Ecology and Computer Science. Even when women have science blogs (or write in a group blog) they talk less about their own research and so promote themselves less than men do.” Domain 2: New ways of engaging in political activism and emergency management Social media are also transforming opportunities for citizen engagement, from political activism to participatory emergency management. Rotman et al., for example, argue that social media and content sharing sites are opening up new opportunities for “wide-scale online social participation [for areas] such as public health, political unrest, disaster relief, and climate change”. 28 They also argue though that this is a very emergent phenomenon, being worked out through design and use, and that we are yet to really understand the benefits and impacts. This has given rise to a very new interdisciplinary area of research called ‘Crisis Informatics’.29 25 T. Stafford, V. Bell, Brain network: social media and the cognitive scientist. In: Trends in Cognitive Sciences 16/10 (2012) 489-490, 489. 26 Ibid., 499. 27 H. Shema, Self-citing bloggers: my research is the coolest thing ever (let me tell you about it!). In: Scientific American (2012). Available from: http://blogs.scientificamerican. com/information-culture/2012/07/28/self-citing-bloggers-my-research-is-the-coolestthing-ever-let-me-tell-you-all-about-it/ [Accessed 22 March 2013]. 28 D. Rotman, S. Vieweg, S. Yardi, E. Chi, J. Preece, B. Shneiderman, P. Pirolli, T. Glaisyer, From slacktivism to activism: participatory culture in the age of social media. In: Proceedings of the 2011 annual conference extended abstracts on Human factors in computing systems (2012), 819-822. 29 https://www.cs.colorado.edu/~palen/Home/Crisis_Informatics.html Accessed 22 March 2013

130

Geraldine Fitzpatrick

There are numerous examples from recent events to illustrate studies of social media use for citizen engagement, and to show how this research agenda is being developed. For example, Starbird and Palen report on the 2011 Egyptian uprising and how Twitter, specifically the re-tweet function, was used during the uprising by people “on the ground” and people in the broader audience who want to be supportive in a politically active way and show solidarity and support by re-tweeting messages.30 In particular their analysis showed the key role of some individuals on the ground in Cairo in tweeting out information, and the role then of remote participants in choosing what and who to re-tweet, as a form of filtering and recommendation, showing “how the crowd did the ‘work’ of information processing (through retweeting)”.31 To illustrate the point about still needing to work out how to develop this potential, the authors also discuss the implications of this understanding, of the role of re-tweets as recommendations and information propagation, to think about new IT tools related to Twitter that could enable better “situational awareness during events”. Emergency Management, e.g., around natural disasters, is another specific area that illustrates the emergent co-evolution of technology and use. There are numerous studies of emergencies, similar to the political uprising one illustrated above, analysing how social media has been co-opted by people, both people directly affected by an emergency event, informal citizen helpers, the formal emergency responders, and remote people who want to offer support. Liu et al., for example, conducted a qualitative analysis of photo data posted onto Flickr (a photo sharing site with Web 2.0 features) by 29 groups across six disasters and showed how, over the three years of the study, people evolved particular social norms and practices around the use of photo sharing in disaster situations to create “a community forum for disaster-related grassroots activity”.32 Vieweg et al. similarly analysed the use of microblogging, specifically Twitter, in relation to two emergency events in the United States: a grassfire and a flood.33 Their findings highlighted the 30 K. Starbird, L. Palen, (How) will the revolution be retweeted?: information diffusion and the 2011 Egyptian uprising. In: Proceedings of the ACM 2012 conference on Computer Supported Cooperative Work Companion, 7-16. 31 Ibid., 8. 32 S. Liu, L. Palen, J. Sutton, A. Hughes, S. Vieweg, In Search of the Bigger Picture: The Emergent Role of On-Line Photo-Sharing in Times of Disaster. In: Proceedings of the Information Systems for Crisis Response and Management Conference (ISCRAM 2008). 33 S. Vieweg, A. Hughes, K. Starbird, L. Palen, Microblogging during two natural hazards events: what twitter may contribute to situational awareness. In: Proceedings of the

Information Technology and Human Interaction

131

ways in which Twitter was used to rapidly produce and disseminate information, similar to the political uprising, and the value of being able to retrieve this data for helping with ‘situational awareness’ because it provided geographical information, e.g., through geo-location meta-data associated with the tweets etc. Similar to Rotman et al., Palen et al. also point to the work yet to be done to fully explore how IT could be exploited and the new opportunities that arise for supporting this very particular form of IT and human interaction.34 They argue that the critical topics to be addressed include: the need to understand the quality and quantity of information produced via social media; how to handle trust and security aspects of information; the need to integrate informal citizen-collected information with specialist information; and better information extraction techniques.

Fig. 1. Project Epic Situational awareness map showing locations and types of data being tweeted during a US snow storm35

SIGCHI Conference on Human Factors in Computing Systems, New York 2010, 1079-1088. 34 Rotman et al (see fn. 28). L. Palen, K. Anderson, G. Mark, J. Martin, D. Sicker, M. Palmer, D. Grunwal, A vision for technology-mediated support for public participation assistance in mass emergencies disasters. In: Proceedings of 2010 ACM-BCS Visions of Computer Science Conference, Article 8, 12 pages. 35 From http://epic.cs.colorado.edu/?page_id=11

132

Geraldine Fitzpatrick

One example starting to build on the understanding of how people use social media in emergency situations, and what can be done to enhance the value of this for different audiences, is a tool developed by Project Epic: a map of geolocated tweets (see Figure 1). It builds on some of the understandings already gained above, for example about situational awareness, and explores how a new mapping tool could better support the use of the situational awareness data contained in tweets. This tool collects twitter data and analyses it in virtual real time for data such as the location of the tweet, the content of the tweet and so on. This information is then processed and displayed as an overlay on a map and can be updated in real time. To help promote the quality of tweets to make them easier to process in this tool, a further tool has been developed, called ‘Tweak the Tweet’ (TtT), that encourages users to send a tweet using a correct syntax for the analysis tool. According to the project website, TtT has already been used for multiple significant events around the world during 2010 and 2011.36 There are numerous other domains and case examples e.g., for health care, motivation and behaviour change, business marketing, sporting events and so on (beyond the scope of this paper to discuss), about the ways in which new social media are being co-opted. As with the examples above, there is increasing evidence of the potential opened up by new social media in particular, and ways in which system designers are developing yet further technologies specifically targeting the needs of particular domains and groups, as they study emergent uses and explore opportunities to build on these. This is not meant as a technology utopian view of the potential of Web 2.0 but rather points to the co-evolution of exploring both new potentials and new technologies in specific contexts of use, and to the specific accounts of social media use and impact that can be lost in generalised accounts. Case Study: Breaking stereotypes – Aging as a context for IT appropriation and human interaction37 The next example is a case study that offers a more in-depth look at one older person’s evolving use of video blogs on YouTube. The point of this case is to show how individuals can idiosyncratically create meaning for social media technologies in the contexts of their own lives. Because we are dealing with 36 http://epic.cs.colorado.edu/?page_id=11 Accessed 26 March 2013. 37 This section draws on the thesis work of D. Harley, Older People’s Appropriation of Computers and the Internet. PhD Thesis. Department of Informatics, University of Sussex, UK 2011.

Information Technology and Human Interaction

133

an older person, this case also illustrates that it matters how we conceptualise who we are designing for, in terms of what gets designed and who we think it is for, as will be discussed later. As Harley describes,38 Peter is a widower in his 80s, who lives independently in his own home in a semi-rural area in the north of England and has some mobility problems due to arthritis. Some years prior he had acted as sole carer for his wife and it was only after her death that he decided to learn about computers by taking courses at his local college.

Fig. 2: Extract from YouTube home page ‘channel’ for Geriatric192739

In August 2006, at the age of 79, he came upon YouTube and subsequently decided to start a video blogging experiment by posting videos onto the YouTube website under the pseudonym of ‘Geriatric1927’ (see Figure 2 for his current page). Almost immediately after posting his first video, Peter started to attract a lot of attention from the YouTube community. Numerous people responded to him in chat and video responses, giving overwhelmingly positive feedback to him, offering helpful suggestions for how he could further develop his vlogging skills, and most importantly engaging with him as a person and asking to hear more about his life and interests. In a very short period of time, his ‘channel’ became very popular and he was profiled on the YouTube home page as a highly-viewed contributor, with his posts even attracting international press attention. Harley and Fitzpatrick report on an analysis of the content of Peter’s first eight videos, and the related responses 38 Ibid. 39 http://www.youtube.com/user/geriatric1927 Accessed 21 March 2013.

134

Geraldine Fitzpatrick

they generated from his viewers, showing how his engagement with the YouTube community co-developed during these early encounters.40 Since coming onto YouTube, he has posted 397 videos on different themes and his ‘channel’ has been visited 9,274,920 times with 40,911 of these visitors signing up as dedicated subscribers to his videos (as at 21 March 2013). This YouTube involvement was to reframe his use of computers and the Internet, providing him with a new online social context and a new sense of relevance for his use of technology. What is interesting about Peter’s case is how he has evolved different types of relationships with people viewing his videos: from passive viewers, to those who choose to make a text or video response in the same online space, to those with whom he has subsequently built a relationship outside of YouTube, e.g., via chat, Skype video calls, email and even face-to-face visits. It is noteworthy too that many of these are with much younger participants and from all parts of the globe. What is also interesting is how he and his respondents have creatively appropriated video as a medium for interaction and conversation,41 making YouTube a living community rather than just a video library. Rather than taking the functional limitations of YouTube as obstacles to communication, they were creative and proactive in using a range of communicative modes. These included: use of the physical setting or layout (arrangement of the room); manipulation of physical objects (arrangement or movement of objects in the field of view); body movement (postures, hand gestures, head movements, etc.); video production techniques (editing of footage, titles, recorded music or on-screen timers); speech and vocal gestures (spoken language, intonation, reading and/or laughter) and other sounds (recorded music, recorded speech and/or noise from the surrounding environment These illustrate a notion of appropriation that captures the mundane coadaptations of technology, space and social interaction to establish a conversational context despite the constraints of the medium. It also exposes the subjective and socially embedded nature of engagement with social media and shows how motivated individuals can establish the relevance, benefits and meaning of such technologies as part of their everyday experience of aging. 40 D. Harley, G. Fitzpatrick, YouTube and Intergenerational Communication: The case of Geriatric1927. In: Universal Access in the Information Society 8/1 (2009a), 5-20. 41 For a more in depth analysis of this multimodal video dialogue and its implications for computer-mediated communication see D. Harley, G. Fitzpatrick, Creating a conversational context through video blogging: A case study of Geriatric1927. In: Computers in Human Behavior 25/3 (2009b), 679-689.

Information Technology and Human Interaction

135

This case illustrates too that how we conceptualise what we are designing for matters in terms of what gets designed and who we think it is for, particularly for older people where negative stereotypes dominate. To date, the design of IT for older people has often focussed on the functional disabilities associated with age, and so conceptualises design for aging as being about bigger text font or bigger buttons. Technology is seen as the critical enabler for being able to deal with the challenges of an aging population42 especially around issues of managing chronic illnesses associated with age. Notions, such as telecare, assistive technology, ambient assisted living, are becoming increasingly common in both research and commercial contexts. While the importance of being able to provide such care should not be underestimated, there is often an unintended consequence where such approaches can leave people physically cared for but still socially isolated and lonely at home. For many older people, the experience of growing older can be one of increasing levels of social isolation and loneliness anyway, which in turn can negatively impact emotional well being, increasing an older person’s susceptibility to depression43 and poor health.44 The case of Geriatric1927, and others like this, point to the opportunity to extend our thinking about the role of technology for older people beyond accessibility and care needs. The question that arises then, and the opportunity for technology designers, is how can we address not only people’s health needs at home but also their social needs, for example, making use of the same infrastructure, where a webcam and/or internet connection can be used not only for remote consultation with a care giver but also for social interaction with family friends. This can move a care-driven ‘aging in place’ agenda to a quality of life-driven ‘living in place’ agenda in which SNSs can play a key role for enabling new forms of social connections and opportunities to contribute in ways that matter to people. In a similar way to the ‘crisis informatics’ cases, by understanding the ways in which SNSs can be appropriated, as shown by Peter, we can look for opportunities to more proactively facilitate and support this as a form of social engagement, e.g., through guidelines for how to use video blogging, 42 United Nations, World Economic and Social Survey 2007: Development in an Ageing World, New York 2007. Available from: http://www.un.org/esa/policy/wess/ wess2007files/wess2007.pdf [Accessed 26 March, 2013]. 43 E.g. N.G. Choi, G. J. McDougall, Comparison of Depressive Symptoms between homebound older adults and ambulatory older adults. In: Aging and Mental Health 11 (2007), 310-322. 44 E.g. J.S. House, K.R. Landis, D. Umberson, Social relationships and health. In: Science 241/4865 (1988), 540.

136

Geraldine Fitzpatrick

through creating specific opportunities for more older and younger people to connect online such as via local initiatives, and through designing accessible tools that can make it easier for conversational partners to interweave their video contributions. This case of appropriation of YouTube as social media by an older person highlights the importance of a design agenda that embraces a richer conceptualisation of aging that can acknowledge positive adaptations to maintain quality of life and where social benefit can frame motivated use of social media even given technical constraints.

Supporting implicit human interaction – IT and non-verbal communication In all of the previous examples, the focus has been on various IT applications as media to support human interaction via explicit communicative acts, initiated by the interactants and extending or augmenting content-based communication using various combinations of text, voice, images etc. However there are also a number of other approaches that support human interaction by either helping to facilitate people meeting one another or by addressing the more subtle sub-conscious aspects of communication. Both approaches foreground the role of ‘bodies in context’ as a basis for supporting IT-mediated interaction. Case: Supporting meeting new people through ‘bodies in context’ One application area to illustrate this is support for meeting new people. Meeting and networking with new people at events such as conferences or in semi-public spaces can be difficult to do and not just for people who experience shyness in such situations. There are a number of technology applications being developed as prototypes to explore how this can be made easier by making use of the co-presence and movement of people in a shared space, and taking advantage of wearable devices that can hold information about a person. The basic approach of such systems is the following. People are asked to fill out an online profile and then to carry some identifying device with them. When people are then in the vicinity of a base station or ‘reader’, their information can be read by the system. More advanced systems can conduct some form of pattern matching on the data to identify people who might have similar interests. This usually triggers some notification and vir-

Information Technology and Human Interaction

137

tual introduction to the person in the vicinity. Others more simply display or exchange that information. One example of a simple system is Ticket2Talk,45 a system built specifically for conferences, where conference attendees wear RFID-enabled nametags. When they stand near a screen display, the system shows their information for those around to read. This approach relies on people themselves recognising other people they want to meet and interact with based on this information. Another system is iBand,46 also based on wearable technology, where people wear a bracelet-like device that detects a handshake and can exchange information triggered by the handshake movement. Both of these systems are prototypes that were developed for the purpose of exploring the possibilities of wearable and location based systems to make it easier to ‘break the ice’ to meet people and exchange information. Both have been used in authentic social networking settings to study how people interact with the systems and to learn from these experiences about where and how such technologies might best be interpreted technically and applied socially. Studies to date indicate that many people appreciated the help in being able to put a face to a name or to have help in initiating a conversation.47 For other people however, use of the system required a degree of extrovert behaviour to feel comfortable having their presence ‘announced’ in such a public way48 and others had concerns about control over their personal data.49 Having met people, interactions often then move on to direct communication. A large part of our communication is not just in the content but also in its embodied and non-verbal aspects, i.e., the non-linguistic and para-linguistic cues. We have already seen suggestions of the ways in which these more subtle aspects of communication matter, e.g., in the previously given example of upper body views supporting a stronger sense of empathy between participants in a video conference than head only views. We also saw 45 J. McCarthy, D. McDonald, S. Soroczak, D. Ngyuyen, A. Rashid, Augmenting the Social Space of an Academic Conference, In: Proceedings of the ACM Conference on Computer Supported Cooperative Work (2004), 39-48. 46 M. Kanis, N. Winters, S. Agamanolis, A. Gavin, C. Cullinan, Toward Wearable Social Networking with Iband. In: Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (2005), 1521-1524. 47 McCarthy et al (see fn. 45). 48 D.W. McDonald, J. McCarthy, S. Soroczak, D. Nguyen, D. Rashid, Proactive Displays: Supporting Awareness in Fluid Social Environments. In: ACM Transactions on Computer-Human Interaction 14/4 (2008), 1-31. 49 Kanis et al. (see fn. 46).

138

Geraldine Fitzpatrick

in the example of Geriatric1927 that participants brought into play their knowledge that the video captures more than just the spoken word and so they appropriated the use of the space and objects around them to communicate at multiple levels e.g., through their placement of objects and images, by choice of dress etc. One of the appeals of YouTube for Peter was also that people ‘knew what they were getting’ in that they could clearly see by his embodied presence that he was an older male. This is in contrast to other text-only or virtual media where people can create false identities, e.g., a male pretending to be a female. Case: Supporting communications training – the embodied aspects of public speaking However technology can also play a role in other yet more subtle and subconscious aspects of communication and interaction. This is an emerging area of research, in the early stages of exploring the possibilities for co-opting technologies to provide different forms of feedback about sub-conscious taken-for-granted aspects of communication as well as opening up new forms of technology-mediated communication. One example is around public speaking, a very powerful communication skill but an experience that many people find stressful. There are numerous ‘how to’ books and courses available. In face-to-face training situations, participants are encouraged to practice presentations in front of the class. The role of the trainer is to give feedback to the students, not just on content and argument structure, but also paying special attention to non-verbal embodied aspects, such as posture, gesture, eye contact, and vocal volume, nuance etc.50 These aspects are often outside of conscious attention during the presentation where the greater part of conscious effort is directed to the content. Trainers often make use of video then as an aid for a post-presentation discussion with the student. However, while useful, this feedback necessarily happens after the event itself and the video is only able to access the overtly visual aspects of the presentation. Recent advancements in sensor and gesture based technologies open up new possibilities for supporting the work of the trainer to capture some of the embodied aspects of the presentation and represent them back to the presenter as a resource for real-time awareness and reflection so that they can 50 A. Lenzen, Präsentieren, Moderieren: Inhalte überzeugend darstellen und umsetzen. Präsentationsmedien wirkungsvoll einsetzen. Gruppen souverän leiten, 2. Aufl. Berlin 2006.

Information Technology and Human Interaction

139

change their body language and habits in-situ. The captured data can also be used to support the post-presentation discussion. To explore the technology possibilities here, a sensor-based tool called SenseRhetoric was developed following a series of interviews, observations and design workshops with trainers and participants.51 SenseRhetoric was composed of largely off-the-shelf components to measure different non-verbal aspects: a heart rate monitor to capture heart rate; Microsoft Kinect to capture whole body movement and arm gestures; Nintendo Wiimotes and corresponding Nunchuks for audience members to register perceived eye contact; integrated microphone in a laptop to measure voice; and of course video. These signals were then processed and presented back to the speaker as an ambient display in the back of the room that only they could see. The real-time display for the speaker is shown in Figure 3; note that heart rate was not included because participants gave feedback during design sessions that they would prefer not to see this while talking. Figure 4 shows the full information, complete with heart rate, overlaid on the video, for use in the postpresentation discussion. The prototype system has been trialled in an authentic public speaking course as part of a pilot study and received very positive feedback from both the trainer and the participants.

Fig. 3: Ambient display: hand-position (left), eye-contact made (centre), voice volume (right).

51 C. Kopfer, SenseRhetoric: using sensor technologies to improve communication skills. Masters thesis. Faculty of Informatics, Vienna University of Technology 2011.

140

Geraldine Fitzpatrick

Fig. 4: Overlay of captured data on the recorded video, with additional information, for post-presentation discussion [face removed for anonymity]. Numbers at left: the distance the hands were moved. Red elements: the progression of the heart rate and actual level.

In other work we have also explored also explored the potential of technology to influence rapport in social interactions. Here we drew on the possibilities of wearable sensors to detect gestures and of ambient displays for peripheral information awareness to magnify the subconscious production of social cues associated with synchronous gestures. In-lab studies have indicated that this can lead to increased evidence of rapport in interactions between two people, as rated by observers52. Hence, while both are still only at technology trial stages, they point to the possibilities of new technologies to support as yet unattended-to embodied aspects of IT and human interaction.

Conclusion This broad ranging paper has sought to open up understandings about the role of IT and human interaction and communication to complement more generalised and often problematized accounts with cases of the particular, illustrating that the story of IT and human interaction is diverse and nuanced. This is particularly so if we step back from grand picture views to consider more qualitative and subjective accounts, the lived experiences, of people and technology use and the very practical situated ways in which people appropriate technology into their everyday lives and create meaning 52 M. Balaam, G. Fitzpatrick, J. Good, E. Harris, Enhancing interactional synchrony with an ambient display. In: Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (2011), 867-876.

Information Technology and Human Interaction

141

with and through technology. It also points to the role of designers in helping to explore new possibilities based on in-depth understandings of people and technology. Through a selection of different domains and cases, this paper has illustrated practically that technology is neither deterministic in its impact, nor totally socially constructed, but very much socially shaped through iterative engagement and reflection. It highlights the ways in which new technologies can open up a space of possibilities for supporting human interaction but prioritises the role of human agency in realising the possibilities. This agency is on the part of the people who use the technology for their own purposes and in particular the presented cases illustrate through example the many creative and often unanticipated ways that people find their own uses for technologies and situate these within their own needs, values and contexts. This agency is also on the part of researchers and technology designers who seek to understand through study of actual practices what people make of these technologies and consider implications for how next generations of the technology, or new related technologies, can be developed to further build on and support these emergent uses, and in doing so create yet new possibilities for human action and interaction. This is a story of appropriation and adoption and innovation, not in terms of theoretical models but in terms of everyday emergence in specific contexts.As HCI researchers, our concerns have moved beyond “the mechanics of the interface”53 to how we, consciously or not, can fundamentally contribute to what it means to be human and to interact and communicate in this modern age. We can do this by embracing a co-evolutionary ‘understanding and designing’ agenda54 but necessarily have to do so in close collaboration with many other disciplines. This is especially the case now as technology is a part of all aspects of our work, business, play and social life. Again many of the cases presented here point to some of these disciplines, such as the human sciences (e.g. communication sciences, psychology, sociology), domain-specific disciplines (e.g. gerontology, medicine/ healthcare), technical and design disciplines (e.g. engineering, architecture, product design, etc) and so on. This sentiment has been clearly articulated by Harper et al., reporting on an international symposium of HCI researchers in a book titled “Being Human: Human Computer Interaction in the Year 2020”: “HCI can no longer be solely the scientific investigation of what role technology might 53 R. Harper, T. Rodden, Y. Rogers, A. Sellen, Being Human: Human Computer Interaction in 2020, Cambridge UK 2008. 54 Fitzpatrick (see fn. 6).

142

Geraldine Fitzpatrick

have – it will need to be part of the empirical, philosophical and moral investigation of why technology has a role. It will entail asking new questions about how we ought to interact with technology in this new world and it will even entail asking what the use of computing implies about our conceptions of society. Even philosophical questions will be important. […] All of this implies that other disciplines from the Arts and Humanities will become more relevant as the remit of HCI becomes broader.”55 This is not just a call for HCI researchers, but for all of us who can have some agency, both as individuals putting technology to use in our own lives, and as researchers who can contribute to how technology is designed and evaluated. If we are to develop new technologies in principled ways to really fit with the diversity of human action in such heterogeneous contexts, and enhance human values, we need to draw on the knowledge and expertise that is available and explore the synergies at the intersections of disciplines. In conclusion, this paper reinforces the view that IT for human interaction is at the same time both a universal story, that can be explained to some extent by grand theories, and also a very individual and personal story, where individuals have agency, can make choices and make a difference. We are the people who will collectively shape and define how IT is embedded in everyday human life and interaction. In the end, IT is not just about information but about making connections to one another and connecting to human values. To paraphrase Harper et al in support of the new collaborations needed to shape a future we will want to live in: “[…] the design of computers is helping 
to create a new socio-digital landscape. [We] can contribute to making this landscape one that reflects the values we hold as well as provide opportunities for the expression of diversity in those values.”56

55 Harper et al (see fn. 53), 5. 56 Ibid.

Ingrid Paus-Hasebrink

Kommunikative Kompetenz in Alltags- und Wissenschaftskommunikation Drei Äpfel fielen vom Himmel. Der erste für den, der erzählt. Der zweite für den, der zugehört. Der dritte für den, der verstanden hat. Auf diese Worte ist der russische Lyriker und Essayist Ossip Mandelstam, der 1936 in den Lagern von Stalin ums Leben kam, in armenischen Märchen gestoßen. Erzählen, Zuhören und Verstehen markieren im Kern, worum es bei dem Alltagsbegriff Kommunikation geht. Kommunizieren heißt, einander etwas vermitteln zu wollen und sich – mit Hilfe von Sprache – miteinander zu verständigen. Auch wenn Kommunikation im Alltag als ganz selbstverständlich gilt, steht der Begriff Kommunikation doch für komplexe und zuweilen auch schwierige Prozesse im menschlichen Miteinander. Kommunikation ist auf kommunikative Kompetenz angewiesen – in der Alltags- wie auch der Wissen­schafts­kommunikation. Der vorliegende Beitrag geht aus der Perspektive einer sich sozialwissenschaftlich verortenden Kommunikationswissenschaft in fünf Kapiteln der Rolle von kommunikativer Kompetenz im Zeichen einer konvergenten und crossmedialen Medienfülle in der Alltags-, aber auch in der Wissen­schafts­ kommunikation nach und zeigt Möglichkeiten auf, wie sich Alltags-, aber auch Wissenschaftskommunikation effektiver gestalten lassen. Im ersten Kapitel wird (mediale) Kommunikation als Teil sprachlich gefassten kulturellen Handelns eingeordnet. Das zweite Kapitel behandelt die Ursprünge des Begriffs kommunikative Kompetenz und beleuchtet seine Voraussetzungen in der Alltagskommunikation. Im dritten Kapitel wird mit Blick auf technisch bedingte mediale Wandlungsprozesse kommunikative Kompetenz in der Wissenschaftskommunikation diskutiert. Vor diesem Hintergrund werden im letzten Kapitel Strategien vorgestellt, wie sich Wissenschaftskommunikation ausgehend von den Informationsbedürfnissen der Bevölkerung im Sinne eines auf Verständigung ausgerichteten kommunikativen Handelns verbes-

144

Ingrid Paus-Hasebrink

sern lässt. Das fünfte Kapitel schließt den Argumentationsbogen mit einer Conclusio.

(Mediale) Kommunikation als sprachlich gefasstes kulturelles Handeln Verschiedene Wege der Annäherung an den Begriff Kommunikation Kommunikation – auch mediale Kommunikation – ist als Teil sprachlich gefassten, kulturellen Handelns zu verorten, eine Sichtweise, der ein breites Verständnis von Kultur zu Grunde liegt. Danach lebt der Mensch in einer symbolisch vermittelten Realität, in einem „symbolischen Universum“ 1, wie es Ernst Cassirer formuliert hat.2 Aus soziologischer Perspektive hat Friedrich H. Tenbruck diese Konzeption geschärft. Danach unterliegt das „soziale Geschehen“ der Bedingtheit und den Bedeutungszuschreibungen der Kultur.3 Von Wittgenstein und Cassirer sowie von dessen Schülerin Susanne K. Langer beeinflusst, kennzeichnet der Anthropologe Clifford Geertz geistige Phänomene nicht länger als ‚Behälter‘ oder als ‚Produkt‘, sondern vielmehr als Prozess4 mit regelgeleitetem5 – also keinesfalls privatem – Charakter. Geertz versteht Kultur „als ineinander greifende Systeme auslegbarer Zeichen“6. Kultur stellt sich danach als „ein geordneter Komplex von Bedeutungen und Vorstellungen (dar), der sich im sozialen Handeln realisiert“7. Dieser Tradition folgend bedeutet Kultur „die Gesamtheit der Formen der Lebensführung einer Gesellschaft oder eines Milieus innerhalb einer Gesellschaft – und verweist so auf ihren Plural, das Nebeneinander 1 Siehe zu Cassirer auch seine Schrift aus dem Jahre 1910 über die Grundfragen der Erkenntniskritik: Ernst Cassirer, Substanzbegriff und Funktionsbegriff: Untersuchungen über die Grundfragen der Erkenntniskritik, Berlin 1910. 2 Vgl. Ernst Cassirer, Versuch über den Menschen. Einführung in eine Philosophie der Kultur, Frankfurt am Main 1990 [1944], 50. Vgl. auch Rainer Winter, Der produktive Zuschauer. Medienaneignung als kultureller und ästhetischer Prozeß, München 1995. 3 Wolfgang Lipp, Friedrich H. Tenbruck, Zum Neubeginn der Kultursoziologie. In: Kölner Zeitschrift für Soziologie und Sozialpsychologie 31/3 (1979), 393-421. 4 Vgl. Gerold Scholz, Teilnehmende Beobachtung. In: Friederike Heinzel (Hg.), Methoden der Kindheitsforschung. Ein Überblick über Forschungszugänge zur kindlichen Perspektive, 2. Aufl., Weinheim, Basel 2012, 128. 5 Siehe dazu auch weiter unten die Ausführungen zur kommunikativen Kompetenz. 6 Clifford Geertz, Dichte Beschreibung. Bemerkung zu einer deutenden Theorie von Kultur. In: Clifford Geertz, Dichte Beschreibung. Zum Verstehen kultureller Systeme, Frankfurt am Main 1987, 22. 7 Winter (wie Anm. 2, 77).

Kommunikative Kompetenz

145

verschiedener Kulturen“ 8. Um menschliches Handeln als kulturell vermitteltes, soziales Handeln begreifen zu können, bietet sich die sinnfällige Definition des „Symbolischen“ von Umberto Eco an. Er bezeichnet das Symbolische als den Bereich all der Aktivitäten, „durch die der Mensch seine eigene Erfahrung in ein System von Inhalten organisiert, dem ein Aus­drucks­system entspricht. Das Symbolische ist die Aktivität, durch die Erfahrung nicht nur koordiniert, sondern auch kommuniziert wird“ 9. Danach spannt Kultur den Bedeutungsrahmen sozialen Handelns, sie bildet die Grundlage des Sinnvorrats, aus dem die Gesellschaft schöpft und kulturelle Erscheinungsformen ausdifferenziert. Kultur repräsentiert daneben den Wissensbestand, mit dem Kommunikationsteilnehmer in ihren Interaktionen verstehend agieren und der es ihnen gestattet, sich miteinander zu verständigen.10 Kultur umfasst als Gesamtheit symbolischer Prozesse vornehmlich die Sprache, daneben aber auch alle anderen Bereiche kultureller Gefasstheit wie Wissenschaft, Kunst, Recht, Religion und Ökonomie. Ihre spezifische Gestalt gewinnt Kultur im Prozess aktiver Bedeutungsverleihung der Handelnden, in dessen Kern die Kommunikation steht. Kommunikation ist ein Grundkonstituens menschlicher Existenz; das menschliche Wesen stellt sich in der Kommunikation dar.11 Demnach ist Kommunikation nicht nur als fundamentales Mittel des Menschen zu verstehen, um sich (wie es Dieter Baacke 1973 mit Bezug auf Goffman formuliert hat) „seines In-der-Welt-Seins zu vergewissern, sondern als Fähigkeit des Menschen zur Konfliktaufnahme mit der Welt auch eine seiner fundamentalen Eigen­ schaften, nicht als psychische oder sonstige Ausstattung eines einzelnen, sondern als universelle menschliche Natur (…). Der Mensch ist danach nicht ein Einzelwesen, sondern er konstituiert sich in geregelten oder sich einregulierenden Situationen und übergreifenden Situationsbestimmungen der menschlichen Gesellschaft“12. Baacke bezeichnete den Menschen als homo communicator, der in Kommunikations-Situationen ist, „was er ist, und 8 Hans-Georg Soeffner, Kulturmythos und kulturelle Realität(en). In: Hans-Georg Soeffner (Hg.), Kultur und Alltag, Göttingen 1988, 5. 9 Umberto Eco, Semiotik und Philosophie der Sprache, München 1985, 199. 10 Vgl. Jürgen Habermas, Der philosophische Diskurs der Moderne. Zwölf Vorlesungen, 3. Aufl., Frankfurt am Main 1986 [1985], 349. 11 Vgl. George Herbert Mead, Geist, Identität und Gesellschaft, 4. Aufl., Frankfurt am Main 1980 [1934]. 12 Dieter Baacke, Kommunikation und Kompetenz. Grundlegung einer Didaktik der Kommunikation und ihrer Medien, Weinheim, München 1973, 193 [Hervorh. im Original].

146

Ingrid Paus-Hasebrink

wird, was er sein kann“13. Darunter fasst Baacke jede Art unvermittelten und vermittelten Erlebens und Handelns. Kommunikation wird, im Unterschied zu Information auf Verständnis, Austausch und Teilhabe angelegt und als soziales Verhalten und Inter­ aktion verstanden.14 Kommunikation – ihr ist immer ein Inhalts- und Bezie­hungs­aspekt inhärent, wobei der letztere den ersteren dominiert – ist somit eine spezifische Form des sozialen Verhaltens und bedeutet wechselseitig vollzogene, symbolisch vermittelte Interaktion. Kommunikation zielt immer auf Verständigung, also auf wechselseitige Bedeutungsvermittlung. Kommunikation ist in diesem Verständnis also symbolvermitteltes Handeln von Menschen für Menschen, in bestimmten Situationen und bestimmten Soziallagen15 – und oft auch mit bestimmten Medien. „Zwischenmenschliche Kommunikation ist in der Regel sprachliche Kommunikation“16, zwar ist alle verbale Kommunikation auch immer an non-verbale gebunden; aber die verbale Kommunikation ist für den Menschen das „alleintypische und bei weitem am höchsten entwickelte Kommunikationsmittel“17. „Sprache ist ohne den Sprachbenützer nicht denkbar“18; sie ist nach Austin immer erst im Gebrauch bedeutsam.19 Danach ist „für das Verstehen einer sprachlichen Äußerung nicht bloß das Entziffern bedeutungstragender sprachlicher Zeichen“20 von Nöten; sprachliche Kommunikation bedarf vielmehr stets einer symbolischen Dimension, der Handlungsdimension. Habermas bezeichnet sie als die Ebene der Gegenstände: „Verständigung kommt nur dann zu Stande, wenn beide Kommunikationspartner im Moment der Kommunikation sowohl die sprachlichen Zeichenkombinationen als auch 13 Ebd. 14 Vgl. Werner Faulstich, Einführung in die Medienwissenschaft, München 2002, 34. Vgl. auch Günter Bentele, Klaus Beck, Information – Kommunikation – Massenkommunikation: Grundbegriffe und Modelle der Publizistik- und Kommunikations­wissenschaft. In: Otfried Jarren (Hg.), Medien und Journalismus 1. Eine Einführung, Opladen 1994. 15 Vgl. Jo Reichertz, Kommunikations- und/oder Medienwissenschaft? In: AVISO 22 (1998), 8-9. 16 Roland Burkart, Kommunikationswissenschaft. Grundlagen und Problemfelder. Umrisse einer interdisziplinären Sozialwissenschaft, 4. Aufl., Wien 2002, 76. 17 Hartmut M. Griese, Soziologische Anthropologie und Sozialisationstheorie, Weinheim, Basel 1976, 28. 18 Burkart (wie Anm. 16), 79. 19 John L. Austin, Zur Theorie der Sprechakte [How to do things with words], Stuttgart 1972 [1962]. 20 Burkart (wie Anm. 16), 79.

Kommunikative Kompetenz

147

die gesetzten sprachlichen Handlungen (wenigstens annäherungsweise) identisch interpretieren.“21 Zentral für eine derartige Bestimmung des Begriffs Kommunikation ist der so genannte ‚Linguistic Turn’ bzw. auch der ‚Pragmatic Tun‘, der auf sprachphilosophischen Überlegungen von Wittgenstein und Austin beruht. Die in Wittgensteins ‚Philosophischen Untersuchungen‘ formulierte ‚Gebrauchstheorie‘22 kennzeichnet den Beginn des ‚Pragmatic Turns‘. Mit diesen Begriffen wird die in den 1970er Jahren in den Geisteswissenschaften vollzogene Wende hin zur Anerkennung der Strukturierungskraft der Sprache ausgedrückt. Nach diesen erkenntnistheoretischen Folgerungen und Positionen zum Verhältnis von Bewusstsein und Wirklichkeit werden Kommunikationsprozesse – mediale wie nicht-mediale – nicht mehr als voneinander unabhängige Phänomene beschrieben; wichtig erschien dabei vor allem eine hegemoniale, das meint eine dominierende ‚Lesart‘ in der theoretischen Annäherung und Diskussion wissenschaftlicher Kontexte und Gegenstände zu vermeiden. Danach richtet sich das Augenmerk auf die Relevanz unterschiedlicher ‚Grammatiken‘, sprich Ausdrucks- wie Gebrauchs­weisen und, damit verbunden, auf die Bedeutung unterschiedlicher medial-kultureller ‚Les- und Gebrauchsarten‘, die es in ihrer jeweiligen Genese und in ihrem jeweiligen Bedingungsgeflecht zu identifizieren, zu beschreiben, zu verstehen, also zu ‚lesen‘ gilt.23 Der Begriff ‚Pragmatic Turn‘ hebt deutlich hervor, dass sich die Bedeutung des Gesagten erst im konkreten Gebrauch der Sprache, mithin auch des medialen Kommunizierens als Ausdrucks- und Verständigungsmittel, vollzieht. Wittgenstein: „Es gibt unzählige verschiedene Arten der Verwendung alles dessen, was wir ‚Zeichen‘, ‚Worte‘ und ‚Sätze‘ nennen. Und diese Mannig­ faltigkeit ist nichts Festes, ein für allemal Gegebenes, sondern neue Typen der Sprache, neue Sprachspiele, wie wir sagen können, entstehen und andre veralten und werden vergessen“24. Mit der Hinwendung zum konkreten Gebrauch der Sprache geht es also um ihre Bedeutung in konkreten gesellschaftlichen Verwendungszusammenhängen, um ihre Kontextgebundenheit. 21 Ebd., 85. 22 Damit dokumentiert Wittgenstein seine seit dem Tractatus logico-philosophicus vollzogene Wendung hin zur Sprache als „Phänomen“. Siehe dazu auch Johannes Fromme, Pädagogik als Sprachspiel. Zur Pluralisierung der Wissensformen im Zeichen der Postmoderne, Neuwied u.a. 1997, 88. 23 Ein derartiges Verständnis kann hilfreich sein für eine interdisziplinäre wissenschaftliche Verständigung. 24 Ludwig Wittgenstein, Philosophische Untersuchungen (PU). In: Ludwig Wittgenstein, Schriften 1, Frankfurt am Main 1969 [1949], 300, PU §23.

148

Ingrid Paus-Hasebrink

Pragmatisch bedeutet damit anwendungsbezogen. Es wird nicht länger nach einem verborgenen Sinn gesucht, sondern nach einer Art „Tatsachensinn“25, der sich im konkreten Gebrauch zeigt. Betont wird, dass Sprache „nicht auf logisch fixierbare und eindeutige Elementarsätze zurückgeht, sondern erst in konkreten Verwendungszusammenhängen gefunden werden kann“26. Mit der Hinwendung zum konkreten Gebrauch der Sprache, aber auch des medialen Kommunizierens, werden konkrete gesellschaftliche Verwendungszusammenhänge von Kommunikation in den Mittelpunkt gerückt und ihre Kontextgebundenheit betont. Sprache bzw. mediale Kom­ mu­nikation wird als dynamisches und lebendiges Phänomen gezeichnet. Auch technisch vermittelte Medienangebote zählen zu den zentralen Ausdrucks- und Verständigungsmitteln des Menschen und sind damit als Teil von Kultur zu verstehen, die ihrerseits Bedeutungen konstruieren und vorgeben und derer sich Menschen mit eigener Bedeutung füllend als Ausdrucks- und als Verständigungsmittel aktiv bedienen.27 Sprechen – mithin auch mediales Handeln – hängt mit der Lebensform28 zusammen. Vor diesem Hintergrund ist auch aller Umgang mit Medien zu verstehen als „alltäglicher Modus des aktiven, sinnhaften sozialen Handelns, der anderen Formen sozialen Handelns prinzipiell ähnlich ist“29. Nicht-mediale und mediale Kommunikation lässt sich danach als ein dynamisch-transaktionales Beziehungsgeflecht definieren.30 Sie kann gelingen – aber aufgrund ihrer Komplexität und Schwierigkeit im Alltag eben auch allzu häufig misslingen. Geht es um mediale Angebote, heißt dies, dass nicht nur diese in der Analyse in den Blick zu nehmen sind, sondern auch immer die lebensweltlichen und systemischen Rahmenbedingungen von Rezeption und Produktion. 25 Ebd. 26 Fromme (wie Anm. 22), 88. 27 Vgl. Ingrid Paus-Hasebrink, Zum Begriff ‚Kultur‘ als Basis eines breiten Verständnisses von (AV-)Kommunikation im Rahmen von Alltagskultur. In: Ingrid Paus-Hasebrink, Jens Woelke, Michelle Bichler, Alois Pluschkowitz, Einführung in die Audiovisuelle Kommunikation, München, Wien 2006, 13-52. 28 Siehe dazu auch Wittgensteins Ausführungen in den Philosophischen Untersuchungen (1969 [1949]). 29 Heinz Bonfadelli, Die Sozialisationsperspektive in der Massenkommunikationsforschung. Neue Ansätze und Methoden zur Stellung der Massenmedien im Leben der Kinder und Jugendlichen, Berlin 1981, 165. 30 Vgl. Klaus Schönbach, Werner Früh, Der dynamisch-transaktionale Ansatz II: Konsequenzen. In: Rundfunk und Fernsehen 3 (1984), 314-329 sowie Werner Früh (unter Mitarbeit von Anne-Katrin Schulze und Carsten Wünsch), Unterhaltung durch das Fernsehen. Eine molare Theorie, Konstanz 2002.

Kommunikative Kompetenz

149

Kommunikative Kompetenz in der Alltagskommunikation31 Damit Kommunikation gelingen kann, ist kommunikative Kompetenz von Nöten. Der Begriff der kommunikativen Kompetenz, der den homo communicator befähigt, „aktiv an der Weltkonstruktion teilzunehmen“32 stellt in den Human- und Gesellschaftswissenschaften eine zentrale Ziel-Größe dar und markiert eine Herausforderung in modernen, von Medien dominierten Gesellschaften. Auch in der Kommunikationswissenschaft ist er nicht mehr wegzudenken. Entwickelt wurde der Kompetenzbegriff von Chomsky33 in Weiterführung von Gedanken Descartes’ und Humboldts; Chomsky verwendet ihn „für die von ihm angenommene, im Menschen verankerte Fähigkeit des Menschen, aufgrund eines immanenten (nicht durch Reiz-Reaktionen erlernten) Regelsystems, eine potentiell unbegrenzte Anzahl von Sätzen zu erzeugen“34. In die Annahmen zu regelgeleitetem menschlichen Handeln fließen die zwei Ebenen der sozialen Realität – einer objektiven und einer subjektiven –, die den sozialpsychologischen Ansatz George Herbert Meads kennzeichnen, ebenso mit ein wie die Sprechakt-Theorie35, der Genetische Strukturalismus Piagets36, die strukturale Anthropologie37 sowie Habermas’ „Vorbereitende Bemerkungen einer Theorie der kommunikativen Kompetenz“ und dessen Theorie des kommunikativen Handelns38. Der Begriff der Regel wird in Bezug auf den sozialwissenschaftlichen Objekt­ bereich dabei im Gegensatz zu den Naturwissenschaften als sprachlich konstitutiver Gegenstandsbereich angesehen.39 Es wird unterstellt, dass es im 31 Siehe zu den folgenden Ausführungen auch: Ingrid Paus-Hasebrink, Dieter Baacke: Der homo communicator als homo politicus (Reihe „Klassiker der Kommunikationsund Medienwissenschaft heute“). In: Medien und Kommunikationswissenschaft 59/1 (2011), 75-96. 32 Dieter Baacke, Medienpädagogik, Tübingen, 1997, 51. 33 Vgl. Noam Chomsky, Cartesian linguistics. A chapter in the history of rationalist thought, New York 1966. 34 Ebd. 35 Vgl. John L. Austin, Zur Theorie der Sprechakte [How to do things with words], Stuttgart 1972 [1962]; sowie John R. Searle, Sprechakte [Speachacts]. Ein sprachphilosophischer Essay, Frankfurt am Main 1971 [1969]. 36 Vgl. Jean Piaget, Das Weltbild des Kindes [La construction du rée chez l´enfant], Frankfurt am Main, Berlin, Wien 1980 [1937]. 37 Vgl. Claude Levi-Strauss, Strukturale Anthropologie, Frankfurt am Main 1987 [1958]. 38 Vgl. Jürgen Habermas, Theorie des kommunikativen Handelns. Zur Kritik der funktionalistischen Vernunft, 2 Bd., Frankfurt am Main 1981. 39 Vgl. Jürgen Habermas, Rekonstruktive versus verstehende Sozialwissenschaften. In: Jürgen Habermas (Hg.), Moralbewußtsein und kommunikatives Handeln, Frankfurt am

150

Ingrid Paus-Hasebrink

Denken und Handeln Regeln gibt, denen insofern ein universaler Charakter zukommt, als sie erst die Sozialität des Menschen konstituieren. Nach Habermas bedeutet kommunikative Kompetenz, „die Fähigkeit eines (verständigungsbereiten) Sprechers […], einen wohlgeformten (d.h. einen einem grammatikalischen Regelsystem entsprechenden) Satz in Realitätsbezüge ein­ zu­betten“40. Danach handelt ein verständigungsbereiter Sprecher „aber nicht bloß ‚sprachfähig‘, sondern vor allem auch ‚kommunikationsfähig‘ und muss das Vorhandensein dieser Fähigkeiten (Kompetenzen) auch bei seinem jeweiligen Gegenüber voraussetzen“41 – ein großer Anspruch, der, wie wir alle wissen, Verständlichkeit, Wahrheit, Wahrhaftigkeit und Richtigkeit voraussetzt, und der auf nichts weniger als „die Maximalbedeutung von ‚Ver­stän­di­ gung‘“42 abzielt. Als wegweisend erwies sich für die Kommunikationswissenschaft das noch heute mit Gewinn zu lesende Buch „Kommunikation und Kom­pe­ tenz“ von Dieter Baacke43; er befragt darin diese Theoriebestände auf ihre Essenz für seine Grundlegung der Didaktik der Kommunikation und ihrer Medien. Baacke differenzierte darin den Begriff kommunikative Kompetenz aus und beleuchtete ihn in seiner anthropologischen Komplexität und Mehrperspektivik auch als wichtiges Lernziel. Der Mensch wird als ein sprach- (sprich handlungsmächtiges) Wesen verstanden, das über kommunikative Kompetenz verfügt. Dabei gilt es mit zu bedenken, dass Kom­mu­ ni­kation nicht nur aus sprachlichen Interaktionen besteht und dass es daher nicht genügt, bei der Sprachkompetenz stehen zu bleiben. „Was Chomsky für die Produktion von grammatikalisch-sinnvoller Sprache fordert, gilt für den Bereich der gesamten Wahrnehmung“44. Kommunikative Kompetenz ist daher die Fähigkeit des Menschen, „potenziell situations- und aussagenadäquate Kommunikation auszugeben und zu empfangen, ohne an Reize und von ihnen gesteuerte Lernprozesse gebunden zu sein. Der so weiterentwickelte Kompetenzbegriff bezieht sich auf die pragmatische Ebene von Sprache und Wahrnehmung. Während sich die Betrachtung der sprachlichen Kompetenz allein der Semantik und der Grammatikalität von Sätzen widmet, bezieht der Begriff ‚kommunikative Kompetenz‘ Wahrnehmung Main 1983, 29-52. 40 Burkart (wie Anm. 16), 437. 41 Ebd. 42 Ebd. 43 Dieter Baacke, Kommunikation und Kompetenz. Grundlegung einer Didaktik der Kommunikation und ihrer Medien, Weinheim, München 1973. 44 Baacke (wie Anm. 12), 52.

Kommunikative Kompetenz

151

ebenso ein wie biographische, sozialstrukturelle und kulturell-gesellschaftliche Ablagerungen“45. Der so verstandene Begriff legt vor dem Hintergrund zentraler Prämissen des bereits erwähnten Symbolischen Interaktionismus – wie bereits oben ausgeführt – den Grund für eine Betrachtung der Medienkommunikation als eine spezifische Form menschlicher Kommunikation. Kommunikative Kompetenz – mithin Medienkompetenz – realisiert sich in der Lebenswelt oder Alltagswelt von Menschen, also in Familie, Kindergarten, Schule, in der Ausbildung, der Universität, im Beruf und in speziellen Gruppen wie der Peer-Group als Gleichaltrigengruppe. Sie wird mitbestimmt durch historische und gesellschaftliche Bedingungen, die ihrerseits eine Folie darstellen für die biographische Entwicklung und die Lerngeschichte von Men­ schen, somit auch für ihre kommunikative Kompetenz.46 Der Begriff der Medienkompetenz versucht die Fähigkeiten zu fassen, die für einen selbstständigen Umgang mit (immer wieder neuen) medialen Entwicklungen erforderlich scheinen. Inzwischen ist Medienkompetenz zu einem vielfach bemühten Schlagwort und politischen Argument avanciert, was nicht zuletzt mit einer begrifflichen Vieldeutigkeit einhergeht. Als eine zentrale Aufgabe und Zielstellung unserer Zeit bildet eine so umfangreich verstandene Medienkompetenz den Kern der handlungsorientierten Kommunikationskompetenz. Diese richtet sich auf die Stärkung eines selbsttätigen, eigenverantwortlichen Medienumgangs und fördert insbesondere die „Fähigkeit zur inhaltlichen Nutzung der Medien als Mittel und Mittler von Kommunikation“47. Die Befähigung zur gesellschaftlichen Partizipation steht hier im Mittelpunkt, eine Forderung, die weit über eine informationstechnische Qualifikation für die so genannte Informations- oder Wissensgesellschaft hinausgeht.48 Schließlich ist mediale Kommunikation infolge der Verkürzung von Informationswegen und einer daraus resultierenden Erhöhung von individueller Nachfrage bzw. individueller Angebote zu einem ganz zentralen Faktor in der fortschreitenden Globalisierung der Märkte geworden. Sie ist Folge wie Motor einer wachsenden Informationsflut 45 Ebd. 46 Vgl. Dieter Baacke, Medienkompetenz als Netzwerk. Ein Begriff hat Konjunktur. In: Medien praktisch 20/2 (1996), 4-10. 47 Bernd Schorb, Handlungsorientierte Medienpädagogik. In: Günther Anfang, Katrin Demmler, Bernd Schorb (Hg.), Grundbegriffe Medienpädagogik Praxis, München 2009, 106. 48 Vgl. Hans-Dieter Kübler, PISA auch für die Medienpädagogik. Warum empirische Studien zur Medienkompetenz nottun. In: Ben Bachmair, Peter Diepold, Claudia de Witta (Hg.), Jahrbuch Medienpädagogik 3, Opladen 2003, 27-49.

152

Ingrid Paus-Hasebrink

und Umwälzung traditioneller Lebensweisen. Nicht zu kommunizieren oder gar von Kommunikation ausgeschlossen zu sein, das meint auch nicht angemessen kommunizieren zu können, gilt damit nahezu als pathologisches Phänomen, als Devianz. Davon können gerade heute junge Menschen ein Lied singen, die sich in Facebook tummeln und allzu oft schon den inneren Druck fühlen, kommunizieren zu müssen, um in ihrer Peer-Group vorhanden zu sein, wahrgenommen zu werden.49 Medienkompetenz wird vor diesem Hintergrund als Fähigkeit verstanden, „in die Welt aktiv aneignender Weise auch alle Arten von Medien für das Kommunikations- und Handlungsrepertoire von Menschen ein­zu­ setzen“50 und gilt somit als Bestandteil einer allgemeinen kommunikativen Kompetenz.51 Zu den Basiselementen von Medienkompetenz zählen – und dies gilt auch vor dem Hintergrund einer rasanten Zunahme medialer Angebote – die Fähigkeit zur Medienkritik, Medienkunde, Medien­nutzung sowie die aktive, kreative Mediengestaltung.52 Medienkritik meint in diesem Zusammenhang die analytische Auseinandersetzung mit den Medien­ angeboten sowie die Fähigkeit zur Selbstreflexion. Medienkunde umfasst zum einen das allgemeine Wissen über die Medien (z.B. Mediensystem, Funktionsweisen etc.) und zum anderen die Fähigkeit, die Medien bedienen zu können. Die Dimension Mediennutzung setzt sich zusammen aus einer Rezeptionskompetenz sowie der Fähigkeit, die Medien für eigene Belange nutzen zu können. Die Fähigkeit zur Mediengestaltung soll die Individuen darüber hinaus in die Lage versetzten, die Medien für die Artikulation eigener Anliegen zu nutzen und somit an gesellschaftlichen Prozessen teilzuhaben.53 Um Informationen kritisch und selbständig zu verstehen, bedarf es im Sinne einer umfassenden Bedeutung des Begriffs der kommunikativen Kompetenz neben Wahrnehmungskompetenz auch Sprachensensibilität.54 Insbesondere der Begriff der Wahrnehmung aber erschließt die „Verwoben­

49 Vgl. Ingrid Paus-Hasebrink, Christine Wijnen, Thomas Brüssel, Social Web im Alltag von Jugendlichen und jungen Erwachsenen: Soziale Kontexte und Handlungstypen. In: Jan-Hinrik Schmidt, Ingrid Paus-Hasebrink, Uwe Hasebrink (Hg.), Heranwachsen mit dem Social Web. Zur Rolle von Web 2.0-Angeboten im Alltag von Jugendlichen und jungen Erwachsenen, Berlin 2011 [2009], 121-209. 50 Baacke (wie Anm. 46), 8. 51 Vgl. Baacke (wie Anm. 44). 52 Vgl. Baacke (wie Anm. 46). 53 Vgl. Baacke (wie Anm. 46), 4-10. 54 Baacke (wie Anm. 32), 195.

Kommunikative Kompetenz

153

heit von Kommunikation und Handeln, die erst über Kogni­tionen, Wahr­ neh­mungsprozesse, sinnbildend wirken“55. In heterogenen, unübersichtlichen Lebenswelten sind Menschen vor die schwierige Aufgabe gestellt, die mediale und nicht-mediale Vielfalt zu durchdringen, um den je eigenen Ort zu finden. Dazu müssen sie in einem ersten Schritt wahrnehmen können, sowohl die Umwelt als auch sich selbst, um in einem zweiten Schritt das Wahrgenommene (ein-)zuordnen und zu ihrem Selbstkonzept in Beziehung zu setzen. Eine derartige Kompetenz lässt sich unter dem Begriff der ‚Aisthesis‘ fassen. Darunter ist die Art und Weise zu verstehen, wie wir die Vielfalt der Wahrnehmungen in unseren Alltag, unsere Lebenswelt integrieren.56 Daher darf Medienkompetenz nicht verkürzt auf Qualifizierungsaspekte im Sinne eines zweck- und zielgerichteten Mediengebrauchs begriffen werden; vielmehr ist neben den oben genannten vier Dimensionen noch die Dimension der Wahrnehmung, die ‚ästhetische Dimension‘, mithin die Wahrnehmungskompetenz zu ergänzen.57 Zur Orientierung in ihrer Lebenswelt sind Menschen auf Informationen angewiesen. Als zentraler Bestandteil der kommunikativen Kompetenz zählt in der Informationsgesellschaft daher auch die Informationskompetenz. Zur Vermittlung von kommunikativer Kompetenz Wie lässt sich nun kommunikative Kompetenz vermitteln? Kommunikative bzw. mediale Kompetenz gründet immer im Alltag der Menschen; er ist die Basis für die Art und Weise, wie Menschen mit Medien aller Art umgehen und umgehen können. Kommunikative Kompetenz ist eingebettet in die Sozialisation eines Menschen, in seine Lern-Geschichte. Zur effektiven Förderung kommunikationskompetenter Handlungsweisen scheint daher eine stärkere Orientierung am Bildungsgedanken nötig. Kommunikative Kompetenz als wichtige Zielgröße des homo communicator bedarf damit auch der Sicht auf den Menschen als homo educandus. Der Aufbau einer derartig verstandenen kommunikativen oder speziell auch der Medienkompetenz realisiert sich in der Lebenswelt oder Alltagswelt von Menschen, also in Familien, Kindergärten, Schulen, formellen und informellen Freizeitkontakten, 55 Dieter Baacke, Zur Ambivalenz der neuen Unterhaltungsmedien oder vom Umgang mit schnellen Bildern und Oberflächen. In: Hans-Uwe Otto, Paul Hirschauer, Hans Thiersch (Hg.), Zeit-Zeichen sozialer Arbeit. Entwürfe einer neuen Praxis, Neuwied 1992, 40. 56 Vgl. ebd., 41. 57 Vgl. ebd.

154

Ingrid Paus-Hasebrink

im Beruf – also überall dort, wo Menschen mit Medien umgehen. In der Lebens­weise liegen vor allem vielfältige Begrenzungen und Restriktionen verborgen, die den Auf- und Ausbau kommunikativer Kompetenz erschweren oder gar behindern. Es gilt daher, Menschen von frühauf als aktiv am Bildungsprozess Beteiligte anzusehen. Der Begriff der Medienbildung betont vor allem die Reflexion der Bedeutung der Medien für sich selbst sowie die Fähigkeit, sich auf neue, unbekannte medienbezogene Situationen einstellen zu können. Medienbildung wird als mediatisierter Aspekt der allgemeinen Persönlichkeitsentwicklung verstanden.58 Kommunikative Kompetenz, mithin auch Medienkompetenz, sollte somit „als ein Teil der allgemeinen Bildung“59 verstanden werden. Dazu zählen nicht zuletzt auch formelle Bildungskompetenzen, z.B. die Lesekompetenz oder die Fertigkeiten zum Umgang mit Software.60 Auch nicht außer Acht bleiben dürfen in diesem Kontext ethische, das heißt auf Wertfragen bezogene Aspekte der kommunikativen bzw. der Medienkompetenz.61 Medienmündigkeit gilt daher als pädagogische Zielkategorie im Sinne von Selbstbestimmung und Emanzipation mit und durch Medien. Ausgangspunkt können – und dies gilt es zu betonen – aus dieser Perspektive nicht länger die Medien sein, aus denen sich normative Anforderungen an die Medienkompetenz ableiten lassen; es geht vielmehr um die Bedeutung der Medien für das jeweilige Subjekt in seinem Alltag. Hier schließt sich der Kreis: Was für Menschen insgesamt formuliert wurde, gilt für Wissenschaftler und Wissenschaftlerinnen ebenso. Auch sie sind auf kommunikative Kompetenz in ihrem Wissenschaftsalltag angewiesen – und dies in doppelter Weise; denn ihnen obliegt zudem die gesellschaftliche Verantwortung, ihre wissenschaftlichen Ergebnisse an die Gesellschaft zurück zu binden. Sie stehen vor der Herausforderung, gesellschaftliche Verantwortung zu übernehmen und stärker als bisher ihre Forschung an die 58 Vgl. Dieter Spanhel, Medienkompetenz als Schlüsselbegriff der Medienpädagogik? In: Forum Medienethik 1 (2002), 48-53. 59 Stefan Welling, Chatten, Gamen, Downloaden – eine kritische Auseinandersetzung mit den Potenzialen einer milieusensitiven computerunterstützten Jugendarbeit. Dissertation am Fachbereich Kulturwissenschaften der Universität Bremen, 2007, 55. Siehe auch: Stefan Welling, Computermedienpraxis Jugendlicher und medienpädagogisches Handeln, München 2008. 60 Vgl. ebd. 61 Vgl. ebd. sowie: Tilman Sutter, Michael Charlton, Medienkompetenz – einige Anmerkungen zum Kompetenzbegriff. In: Norbert Groeben, Bettina Hurrelmann (Hg.), Medienkompetenz: Voraussetzungen, Dimensionen, Funktionen, Weinheim, München 2002, 140.

Kommunikative Kompetenz

155

‚Beforschten‘ zurück zu binden – und wo dies möglich ist – zur Aufklärung in der Gesellschaft beizutragen bzw. ihre Ergebnisse und Erkenntnisse der Öffentlichkeit zur Orientierung bzw. zur Problemlösung zur Verfügung zu stellen, mithin Wissenschaftskommunikation zu betreiben. Dies gilt umso mehr als in individualisierten Gesellschaften die Bedeutung vertrauenswürdiger Institutionen, darunter der Wissenschaft, wächst, zur Orientierung von Menschen beizutragen. Diese greifen denn auch verstärkt auf wissenschaftliche Erkenntnisse – etwa über Radio, Fernsehen, Zeitungen und Zeitschriften sowie mittlerweile stark auch über das Internet – zurück. Das folgende Kapitel geht nun der Bedeutung kommunikativer Kom­ pe­tenz im Rahmen der Wissenschaftskommunikation nach und diskutiert notwendige Voraussetzungen dafür, wie es gelingen kann, der interessierten Öffentlichkeit wissenschaftliche Erkenntnisse und Ergebnisse adäquat zu vermitteln.

Kommunikative Kompetenz in der Wissenschaftskommunikation Um ihre Ergebnisse öffentlich zu machen, sie verständlich zu gestalten, bedarf es also auch in der Wissenschaftskommunikation kommunikativer Kompetenz. Welche Anforderungen stellen sich aber nun mit Blick auf eine kommunikativ kompetente und partizipativ ausgerichtete Alltagskommunikation für die zur Orientierung in der Lebenswelt notwendige Wissensvermittlung? Zum ethischen Grundverständnis in der Wissenschaft zählt das Wissen darum, dass Wissenschaftler und Wissenschaftlerinnen in ihrem Tun der Gesellschaft verpflichtet sind; sie können es sich nicht leisten, Wissenschaft im so genannten ‚Elfenbeinturm‘ zu betreiben. Vielmehr muss Wissenschaft ihre Stuben verlassen62, um die notwendige Verbindung zwischen Universität und gesellschaftlicher Praxis herstellen zu können. Bereits bei Humboldt sollte der Universität, so der Berliner Erziehungswissenschaftler Elmar Tenorth, eine Vermittlerposition zukommen.63 Wie andere gesellschaftliche Institutionen auch leidet das Wissen­schafts­ system unter sinkendem Vertrauen der Bevölkerung. Diese Diagnose hat 62 Diese Aussage nimmt ein Wort des Bielefelder Pädagogikwissenschaftlers und Medienpädagogen Dieter Baacke auf; siehe dazu: Paus-Hasebrink (wie Anm. 31), 75-96. 63 Heinz-Elmar Tenorth, Wilhelm von Humboldts (1767-1835) Universitätskonzept und die Reform in Berlin – eine Tradition jenseits des Mythos. In: Zeitschrift für Germanistik, Neue Folge 20/1 (2010), 15-28.

156

Ingrid Paus-Hasebrink

die Deutsche Forschungsgemeinschaft zum Anlass genommen, 2008 ein Schwerpunktprogramm „Wissenschaft und Öffentlichkeit“ ins Leben zu rufen.64 Das Projekt antwortet auf die Herausforderungen, die sich der Wissenschaft durch moderne Informationstechnologien stellen; diese bieten der Öffentlichkeit eine große Vielfalt an wissenschaftsbezogenen Infor­ ma­tionen und verwischen die Grenzen zwischen dem Wissen, das für Laien potenziell verständlich ist, und dem Fachwissen, das nur Spezialisten zugänglich ist.65 Mit Bezug auf dieses Projekt weist Hasebrink auf die Widersprüchlichkeit und Fragilität wissenschaftlicher Evidenz sowie die zunehmend skeptisch wahrgenommene Rolle einzelner Wissen­schafts­diszi­ plinen in Krisen – etwa der aktuellen Schuldenkrise – hin. Sie führt „zu neuen Formen der Wissenskommunikation, mit Hilfe derer die Bevölkerung Orientierung in der unübersichtlichen Wissenslandschaft sucht. Dabei spielen gruppen- bzw. community-bezogene Kommunikationsformen, aber auch einzelne als vertrauenswürdig wahrgenommene Kommunikatoren – seien dies journalistische oder aber wissenschaftliche Einrichtungen – eine besondere Rolle.“66 Als zentrales Ingredienz von kommunikativer Kompetenz ist Infor­ ma­tionskompetenz auf beiden Seiten der Wissenschaftskommunikation von hoher Relevanz, schließlich müssen Akteure der Wissenschaft infor64 Der Senat der Deutschen Forschungsgemeinschaft (DFG) hat 2008 die Einrichtung des Schwerpunktprogramms 1409 „Wissenschaft und Öffentlichkeit: Das Verständnis fragiler und konfligierender wissenschaftlicher Evidenz“ (Science and the General Public: Understanding Fragile and Conflictual Scientific Evidence) beschlossen. Ziel dieses Schwerpunktprogramms ist es, „das Schnittfeld zwischen Wissenschaft und Öffentlichkeit“ (DFG 2012) empirisch zu untersuchen. Durch moderne Informationstechnologien steht der Öffentlichkeit eine große Vielfalt an wissenschaftsbezogenen Informationen zur Verfügung (ebd.). „Das bedeutet, dass die Grenzen zwischen dem Wissen, das für Laien potenziell verständlich ist, und dem Fachwissen, das nur Spezialisten zugänglich ist, unscharf geworden sind. Insbesondere im Internet ist ein einfacher Zugriff auf Informationen aus vielen Wissenschaftsbereichen möglich. Menschen, die Probleme zu lösen versuchen, erwarten beziehungsweise erhoffen sich Lösungsmöglichkeiten aus der Wissenschaft“ (ebd.); siehe dazu ausführlicher die Projektbeschreibung der DFG: http://www.dfg.de/foerderung/info_wissenschaft/ info_wissenschaft_12_49/index.html. Aufgerufen am 03.01.2013. 65 Schwerpunktprogramm 1409 „Wissenschaft und Öffentlichkeit der DFG: Das Verständnis fragiler und konfligierender wissenschaftlicher Evidenz. Online unter: http://www.dfg.de/foerderung/info_wissenschaft/info_wissenschaft_12_49/index.html. Aufgerufen am 03.01.2013.

66 Uwe Hasebrink, Strukturelle Veränderungen der Rahmenbedingungen für den Wissenstransfer. Unveröffentl. Manuskript für die Kommission „Neue Medien und Wissenstransfer“ der Hochschulrektorenkonferenz HRK, Hamburg 2012.

Kommunikative Kompetenz

157

mations-kompetent sein und erkennen, was wann – auch im Sinne gesellschaftlicher Relevanz – als mitteilenswert gilt und wie am besten Wissen­ schaft vermittelt werden kann, um die gewünschten Adressaten zu erreichen. Auch Wissenschaftler untereinander bedürfen in hohem Maße der kommunikativen Kompetenz, um über die Grenzen der ihre Disziplinen prägenden Wissenschaftssprachen hinweg kommunizieren zu können – schließlich gilt Interdisziplinarität heute als ein ‚Königsweg‘ des wissenschaftlichen Fortschritts, den wir in gewisser Weise gehen müssen. Wissenschaftliche Mitteilungen müssen für die an wissenschaftlichen Ergebnissen Interessierten in Politik und Wirtschaft, aber auch in der Bevölkerung so präsentiert werden, dass diese – selbstverständlich immer gebunden an ihre eigene Informationskompetenz – aus diesem Angebot für ihre Alltagsgestaltung Relevantes herausfiltern können. Um erfolgreich zu sein, ist Wissenschaftskommunikation – und dies gilt vor dem Hintergrund medialer Wandlungsprozesse in besonderer Weise – herausgefordert, die Informationsbedürfnisse von Menschen ernst zu nehmen. Geht es um den Transfer wissenschaftlicher Informationen, fordert diese Entwicklung auch wissenschaftliche Einrichtungen heraus, sich auf die verschiedenen wissenschaftsbezogenen Informationsbedürfnisse und ihre jeweiligen Besonderheiten einzustellen und Konzepte für den Wissenstransfer zu entwickeln, die alle Bedürfnisebenen bedienen.67 Mittlerweile liegen zwar umfangreiche Erfahrungen und Erkenntnisse zur Zusammenarbeit mit Jour­ na­listen der allgemeinen Publikumsmedien und der Special Interest-Medien vor, in Bezug aber auf die Frage, wie wissenschaftliches Wissen durch soziale Netzwerke oder durch individualisierte Informationsangebote verfügbar und nutzbar gemacht werden kann, besteht noch ein großes Defizit. Hasebrink schlägt daher vor, über angemessene Strategien der Wissen­schafts­ kommunikation als Wissenstransfer aus der Perspektive der potenziellen Nutzer und Nutzerinnen von wissenschaftsbezogenen Informationen nachzudenken.68 Damit könne auch deutlich gemacht werden, wie sich insgesamt menschliches Informationsverhalten als ein zentraler Teil kommunikativer Kompetenz differenzieren lässt.

67 Vgl. ebd. 68 Vgl. ebd.

158

Ingrid Paus-Hasebrink

Strategien und Modelle in der Wissenschaftskommunikation Wie Forschungen von Peters et al. zeigen, suchen Wissenschaftler und Wissenschaftlerinnen zunehmend häufiger den Kontakt zu Medien, um ein breiteres Publikum zu erreichen. In der Wissenschaftskommunikation lassen sich nach den Erkenntnissen der Autoren insbesondere zwei unterschiedliche Modelle der Vermittlung identifizieren69: das so genannte „GradientenModell“ und das „Popularisierungs-Modell“. Das „Gradienten“-Modell, in dem das (eher intellektuelle) nicht-wissenschaftliche Publikum in einer passiven Rolle in die wissenschaftliche Kommunikation einbezogen werde, findet sich vornehmlich in den Geistes-, Kultur- und Gesellschaftswissenschaften; öffentliche Kommunikation bietet dabei eine Art vereinfachte, verständlich gemachte Kommunikation wissenschaftlicher Ergebnisse und Erkenntnisse.70 In den Naturwissenschaften dominiert dagegen das „PopularisierungsModell“71, das sich durch eine relativ strikte Trennung von wissenschaftlicher und öffentlicher Kommunikation, die in verschiedenen „Arenen“ stattfindet, charakterisieren lässt72. Die Inhalte für die öffentliche Kommunikation werden, so die Autoren, speziell für die Kommunikation produziert. Sie unterscheiden sich jedoch, nicht nur in ihrem Genauigkeits- und Ver­ ständ­lichkeitsniveau wissenschaftlicher Inhalte, die wissenschaftlichen Publikationen erscheinen zudem außerhalb der speziellen Fach-Community kaum mehr nachvollziehbar und unverständlich.73 „We interpret our findings as pointing to two ideal types of science-public interface: Public communication as the ‘outskirts’ of science communication, where the interested attentive public is partly (and mostly in a listener role) included in scholarly communication, and public communication as popularisation, where the arenas of inner-scientific and public communication are clearly separated and the audience is informed by science specifically reconstructed for the public.

69 Vgl. Hans-Peter Peters, Albena Spangenberg und Yin-Yueh Lo: Variations of scientistjournalist interactions across academic fields: results of a survey of 1600 German researchers from the humanities, social sciences and hard sciences. In: Massimo Bucchi, Brian Trench: Quality, Honesty and Beauty in Science and Technology Communication, PCST 2012, 12th.International Communication of Science and Technology, Book of Papers, 257-263. 70 Vgl. ebd. 71 Vgl. ebd., 261. 72 Vgl. ebd., 257-263. 73 Vgl. ebd.

Kommunikative Kompetenz

159

The outskirts type of interface dominates in the humanities and social sciences while the popularisation type dominates in the hard sciences”74. Eine Wissenschaft, die sich so vermittelt, ist, so Seethaler und Denk75, herausgefordert, „ihren Anspruch auf ‚Wahrheit’ zu überdenken“, da Wahrheit nicht zur Diskussion stehe, „sondern nur in ihrer Komplexität reduziert ‚popularisiert’ werden kann – und damit im schlimmsten Fall in der dem wissenschaftlichen Diskurs entkoppelten politischen Öffentlichkeit für populistische Lösungen missbraucht wird“76. Wissenschaftskommunikation ist daher verstärkt herausgefordert, ihr Verständnis modernen Herausforderungen anzupassen. Dies bedeutet, das mittlerweile „überholte“ Verständnis von Wissenschaftskommunikation zu ändern und „den Fokus nicht mehr auf der ‚erfolgreichen’ Vermittlung, sondern auf der Rezeption und Integration wissenschaftlich fundierten Wissens in den Lebenszusammenhang der Menschen“77 zu positionieren, um nicht an den Bedürfnissen der Menschen vorbei zu gehen und das Ziel von Kommunikation, Verständigung, zu verfehlen. Wissenschaft gehört, so Seethaler und Denk „mitten ins Leben“78. Ein Schritt, diese Forderung zu erfüllen, liegt darin, die Informationsbedürfnisse von Menschen ernst zu nehmen.

Conclusio Als Teil sprachlich gefassten, kulturellen Handelns gilt Kommunikation als zentrales Mittel der Verständigung zwischen Menschen. Auch mediale Kommunikation kann als soziale Handlung aufgefasst und verortet werden. Das Gelingen von Kommunikation, medialer wie nicht-medialer, hängt in entscheidendem Maße von kommunikativer Kompetenz, mithin auch von Medienkompetenz jedes Einzelnen ab; sie kann daher als zentrale ZielKategorie bezeichnet werden. Soziale Wandlungsprozesse und die darin eingelagerten medialen Ver­än­ derungen haben insgesamt, so lässt sich resümieren, zu einer Zunahme der Bedeutung von Medien im Alltag von Menschen geführt. Medien durch74 Ebd., Hervorh. im Original. 75 Josef Seethaler, Helmut Denk, Bedeutung des öffentlich-rechtlichen Rundfunks für die Wissenschaft in Österreich. In: ORF. Öffentlich-rechtliche Qualität im Diskurs, Public Value 2012/8, 12. 76 Ebd. 77 Ebd., 11. 78 Ebd., 12.

160

Ingrid Paus-Hasebrink

dringen mittlerweile nahezu sämtliche Alltagskontexte in hohem Maße und prägen die Lebensführung von Menschen mit. Prozesse rasanten sozialen Wandels, etwa im Zuge der Globalisierung, und, darin integriert, auch des medialen Wandels, führen auf der einen Seite zu einem Verlust vorgegebener Strukturen und erfordern neue Entscheidungen und Verantwortungen. Sie bieten auf der anderen Seite aber auch neue Kommunikationsmöglichkeiten, die Menschen im positiven Sinne fordern, aber sie auch überfordern können. Die neuen Anforderungen, denen sich Menschen durch die Veränderung der gesellschaftlichen Rahmenbedingungen und neuer Informationsangebote gegenübersehen, schärfen die Notwendigkeit der Frage, wie sich Menschen mit Hilfe massen- und individualkommunikativer Angebote in ihrem Alltag informieren und wie sie miteinander kommunizieren. In einer von Medien dominierten Gesellschaft, in der unterschiedliche Mediendienste bis tief in das Alltagsleben von Menschen hineinreichen, dienen auch Medien als Teil des Alltagshandelns in herausragender Weise zur Verständigung. Zur Identitätsbildung und Positionierung von Individuen wie von Gruppen wird mediale Kommunikation ein wichtiges Mittel gesellschaftlicher Partizipation. In einer auf die Partizipation aller Mitglieder setzenden Gesellschaft gehört die Förderung von Partizipationsmöglichkeiten zu einer wichtigen, ethisch unerlässlichen Herausforderung und Verantwortung. Da gesellschaftliches Zusammenleben heute außerhalb der Medien kaum mehr möglich ist, wird die Förderung kommunikativer Kompetenz bzw. von Medienkompetenz zu einer wichtigen Aufgabe. Dieser Forderung kann sich auch die Wissenschaft als Teilsystem der Gesellschaft nicht entziehen; ihr obliegt es daher – auch unter einem zunehmenden Druck der öffentlichen Hand, ihre gesellschaftliche Verantwortung wahrzunehmen bzw. ihr Tun auch öffentlich sichtbar und nutzbringend zu rechtfertigen – ihre Forschungen und Ergebnisse einer breiten Öffentlichkeit verständlich zu unterbreiten. Dazu erscheint es in einem ersten Schritt wichtig, dass sich die Akteure und Akteurinnen der Wissenschaftskommunikation bemühen, ihre unterschiedlichen Ziel­ gruppen genauer zu identifizieren und deren Informationsbedürfnisse zu kennen. Um erfolgreiche Wissenschaftskommunikation betreiben zu können, bietet es sich an, eine Differenzierung von Informationsbedürfnissen in „ungerichtete Informationsbedürfnisse“, „thematische Interessen“, „gruppenbezogene Bedürfnisse“ und „konkrete Problemlösebedürfnisse“ vorzu­ nehmen und sie in Bezug auf die Erwartungen interessierter Einzelner, Gruppen bzw. Teilöffentlichkeiten an wissenschaftlichen Ergebnissen ernst zu nehmen und die Vermittlung von Wissenschaft daran auszurichten. Der Sozialwissenschaftler Hans-Peter Peters fordert denn auch, dass Wissenschaft

Kommunikative Kompetenz

161

einen „Auszug“ wagen müsse: Dies hieße dann, „dass sich am Verhältnis der Wissenschaft zu ihrer Umwelt etwas ändert, insofern sich Wissenschaftler verstärkt in außerwissenschaftliche Gesellschaftsbereiche begeben. Etwas abstrakter formuliert: die Grenzziehung ist dynamisch und entwickelt sich gegenwärtig in Richtung einer engeren Verzahnung von Wissenschaft und gesellschaftlicher Umwelt einschließlich der Öffentlichkeit und der Massen­ medien.“79 Nach Peters weist die Metapher „Auszug“ auf einen organisierten Vorgang hin, wie ihn Universitäten und Forschungseinrichtigen bereits vornehmen. Als Beispiel führt er die Entwicklung von Pressestellen sowie die 1999 von den großen Wissenschaftsorganisationen beschlossene Initiative „Public Understanding of Science and Humanities“ (PUSH) und die Einrichtung der Institution ‚Wissenschaft im Dialog‘ als einen „Auszug“ aus dem ‚Elfenbeinturm‘ der Wissenschaften an. Damit spricht Peters eine Entwicklung an, die der Forderung Baacke nachkommt, dass Wissenschaft „ihre Stuben verlassen“ müsse, um eine notwendige Verbindung zwischen Universität und gesellschaftlicher Praxis herstellen zu können.

79 Hans-Peter Peters, Interview mit Georgios Chatzoudis zum Thema „Geisteswissenschaftler bevorzugen Zeitungen“. Das Verhältnis zwischen Wissenschaft und Medien, 2012. Online: http://www.lisa.gerda-henkel-stiftung.de/content.php?nav_id=1802. Aufgerufen am 03.01.2013.

Ralph Mocikat

Die Sprachenfrage in den Naturwissenschaften Wissenschaft ist eine internationale Veranstaltung, daher ist ein gemeinsames Verständigungsmedium für die weltweite Kommunikation unter Wis­ sen­schaftlern zwingend erforderlich. Es steht außer Frage, dass die Rolle der internationalen Verkehrssprache in den Wissenschaften heute dem Englischen zukommt. Dass auf diese Weise neue Erkenntnisse in kurzer Zeit allen Kollegen auf der Welt zugänglich gemacht werden können, ist ein unschätzbarer Vorteil. Bei der Sprache des internationalen Publikations- und Kongresswesens handelt es sich jedoch meist um ein simplifiziertes Idiom mit einem restringierten Lexikon und formelhaften Wendungen. Da dieses Kom­mu­ni­ka­ ti­ons­mittel also keineswegs jenem elaborierten Englisch entspricht, wie es anglophone Muttersprachler gebrauchen und wie es in der Regel nur diese in allen Nuancen beherrschen, sei im Folgenden die Bezeichnung „lingua franca“ gestattet. Wenn neue, hinreichend gesicherte Ergebnisse in internationalen Publikationsorganen mitgeteilt werden sollen, mag die Verwendung dieses Idioms zumindest in den Naturwissenschaften oftmals unproblematisch erscheinen.

Einzelsprachen oder „lingua franca“ im Publikationswesen? Es gibt jedoch auch in den Disziplinen, in denen die Verwendung anderer Publikationssprachen außer der englischen immer kompromissloser unterbunden wird, also in den Natur- und Ingenieurwissenschaften sowie der Medizin, durchaus Forschungsfelder, in denen Publikationen in der jeweiligen Landessprache ihre Berechtigung hätten. Das sind insbesondere die anwendungsbezogenen oder interdisziplinären Wissensbereiche, also zum Beispiel die Umweltwissenschaften, viele medizinische Fächer oder die Sozialwissenschaften. Diese Disziplinen zeichnen sich oftmals durch Wissenskomponenten aus, welche kulturkreisspezifisch oder regional geprägt sind. Gerade die Medizin ist ein Fach mit komplexen Wissensstrukturen, in dem natur-, sozial- und geisteswissenschaftliche Aspekte ineinander grei-

166

Ralph Mocikat

fen und wo insbesondere ein unmittelbarer Anwendungsbezug besteht. Erkenntnisse der biomedizinischen Grundlagenforschung finden immer schneller Eingang in die Klinik. Juristische und ethische Aspekte müssen diskutiert werden, was nur vor dem Hintergrund der eigenen geistig-kulturellen Traditionen möglich ist, und neue Methoden müssen dem Patienten erläutert werden können. Daher bedarf es auch bereits auf der Ebene der Grundlagenforschung einer Sprachkompetenz im Grenzbereich zur Alltagssprache. Ärzte sollen Kenntnisse auf der Grundlage der neuesten Forschungsergebnisse anwenden. Umfragen unter Ärzten haben gezeigt, dass ein großer Teil von ihnen sich von der aktuellen Forschungsfront abgeschnitten fühlt, weil die neuesten biomedizinischen Publikationen ausschließlich auf Englisch vorliegen. Es sind bereits Fälle bekannt, in denen Patienten zu Schaden kamen, weil Produktbeschreibungen oder Gerätehandbücher nicht in der Landessprache zur Verfügung standen. Die Abschaffung der Landessprache in den Journalen hat wahrscheinlich sehr viel mit der gegenwärtigen Praxis der Wissenschaftsevaluation zu tun, welche die Leistung von Forschern und ganzen Forschungseinrichtungen mithilfe von Zitatenindices, wie sie etwa die US-amerikanische Firma Thomson Reuters anbietet, zu messen versucht. Da die Publikationssprache Englisch die Aufnahme einer Zeitschrift in die Datenbank von Thomson Reuters begünstigt, haben in den Natur- und Ingenieurwissenschaften sowie in der Medizin die deutschen Journale fast ausnahmslos auf die Publikationssprache Englisch umgestellt. Dies hat weitreichende Konsequenzen, die den Stil der Veröffentlichungen, aber auch die wissenschaftlichen Inhalte betreffen. Beispielsweise besteht die Gefahr einer zunehmenden Konformität der Forschungsparadigmata sowie einer Benachteiligung von anwendungsbezogenen oder interdisziplinären Themen und von unkonventionellen Ansätzen. Intransparenz und Manipulationen seitens der Anbieter von bibliometrischen Daten sowie Zitierkartellen und Wissenschaftsfälschung seitens der Autoren wird der Weg bereitet. Eine bekannte Verlagsgruppe verbietet den Autoren, Referenzen zu zitieren, die nicht englischsprachig sind, und zwingt sie, falsche Zitate anzugeben. Frühere nicht-englischsprachige Arbeiten und ganze Forschungstraditionen fallen dem Vergessen anheim. Das führte dazu, dass Forschungsprojekte neu aufgelegt wurden, nur weil nicht-englischsprachige Publikationen zu demselben Thema ignoriert wurden. Auch die historisch-kulturellen Bezüge der Wissenschaft werden zunehmend ausschließlich aus dem Blickwinkel der anglo­amerikanischen Tradition wahrgenommen. Edward Jenner (1749-

Die Sprachenfrage in den Naturwissenschaften

167

1823)1 ist vielen unserer Studierenden wohl bekannt, die Bedeutung eines Claude Bernard (1813-1878)2 oder eines Friedrich Miescher (1844-1895)3 jedoch kaum noch.

Die Sprache als erkenntnisleitendes Instrument in den Wissenschaften Die Verzerrungen, die der Ausschließlichkeitsanspruch des Englischen mit sich bringt, wiegen im täglichen Forschungsbetrieb und in der Lehre noch wesentlich schwerer als im Publikationswesen. Insbesondere in Deutschland ist die Situation eingetreten, dass auch im täglichen Wissenschaftsbetrieb die Landessprache zunehmend verdrängt wird. Selbst wenn alle Beteiligten der deutschen Sprache mächtig sind, finden interne Seminare oder Besprechungen oft nur noch auf Englisch statt. Das ist ein Einfallstor für andere Bereiche. So wird auch schon in Gremien der wissenschaftlichen Selbstverwaltung oder in der privaten Korrespondenz auf Englisch verhandelt. Die Landessprache droht damit für die Vermittlung ganzer Wissensdomänen untauglich zu werden. Mit dem Verlust deutschsprachiger Terminologien erfolgt ein konsequenter Rückbau der Sprache mit weitreichenden Auswirkungen für die gesamte Sprachgemeinschaft, für das demokratische Selbstverständnis der Wissen­schaft und für das weltweite Ansehen unserer Kultur. Der Verlust der Einzelsprachen hat einen wichtigen epistemologischen Aspekt: Naturwissenschaftler rechtfertigen die sprachliche Engführung oft mit der Auffassung, das sprachfreie Erkennen einer objektiv gegebenen „Wahrheit“ sei möglich. Der Sprache bedürfe man nur, um das neue Wissen mitzuteilen. Das ist ein schwerwiegendes Missverständnis. Denn Sprache hat nicht nur eine kommunikative, sondern auch eine kognitive Funktion. Sprache ist auch ein heuristisches Werkzeug. Ziel der Naturwissenschaften kann nur die Konstruktion von Theorien sein. Diese sind nicht das Abbild einer objektiv erkennbaren „Wahrheit“, sondern existieren nur in unseren Gehirnen. Insofern können die Naturwissenschaften – ebenso wie die Geistes- und Kulturwissenschaften – allenfalls Deutungen über die Wirk­lich­ 1 Englischer Landarzt, der die Wirksamkeit der Impfung gegen menschliche Pocken experimentell überprüfte. 2 Französischer Physiologe, der unter anderem die Rolle des Pankreassekrets bei der Verdauung von Fetten und jene der Leber beim Glukose-Stoffwechsel entdeckte und damit den Ursachen der Zuckerkrankheit auf die Spur kam. 3 Schweizer Mediziner und Physiologe, der im Jahr 1869 die Nukleinsäuren entdeckte.

168

Ralph Mocikat

keit abgeben. Theorien sind unanschaulich, oft kontraintuitiv, und bedürfen zu ihrer Vergegenwärtigung alltagssprachlicher Bilder, welche aus ganz anderen – sinnlich zugänglichen – Bereichen stammen. Gerade der gesell­ schaftliche Diskurs sowie der inter- und transdisziplinäre Dialog benötigen die Anschaulichkeit alltagssprachlicher Bilder, die die Grundlage für disziplinspezifische Terminologien sind und stets bleiben müssen. Der eigentlich kreative Akt des Forschers ist nicht das Beobachten und Messen, sondern die Formulierung von Hypothesen, die in einem zweiten Schritt experimentell überprüft werden können. Die Hypothesengenerierung ist ein diskursiver Prozess, der von den Sprachbildern geleitet wird. Für den Forscher spielt dabei die jeweilige Muttersprache eine besondere Rolle, da es einer umfassenden semantischen Vernetzung sowie eines Bewusstseins für die kulturell-historische Aufladung des Wortschatzes bedarf, um das intuitiv oder durch Analogie Erahnte zu präzisieren. Die Behauptung, aufgrund der zunehmenden Bedeutung bildgebender Verfahren in vielen For­schungs­ feldern oder aufgrund der Anwendung theoretischer Sprachen, wie der Formel­sprache in der Mathematik oder der Chemie, werde die Wissenschaft unabhängig von der natürlichen Sprache, ist nicht zutreffend: Die Produkte der Bildgebung sind lediglich Artefakte, über deren Interpretation gerungen werden muss – und zwar in der Alltagssprache. Und in eine theoretische Sprache muss der Adept ebenfalls mithilfe der Alltagssprache eingeführt werden. Entscheidend ist, dass auch in den Naturwissenschaften verschiedene Sprachen die Wirklichkeit in unterschiedlichen Bildern fassen. Die Wissen­ schaft, die stets ein Ganzes der Erkenntnis anstrebt, darf daher unter keinen Umständen auf das Potenzial unterschiedlicher Sprachen verzichten. Uniformität der Sprache bedeutet Uniformität des Denkens. Mag die Ver­ wen­dung der „lingua franca“, die sich in unserem Wissenschaftsbetrieb etabliert hat und die nur eine schmale Funktionssprache darstellt, in bestimmten Publikationsformaten also noch unproblematisch sein, so ist deren ausschließlicher Gebrauch im Erkenntnisprozess, im Stadium der Hypothesen­ generierung, äußerst kontraproduktiv. Das Streben nach umfassenden The­o­ rien systematischen Wissens, die Internationalität der Wissen­schaft und die Plurilingualität gehören untrennbar zusammen.

Die Sprachenfrage in den Naturwissenschaften

169

Die Sprachenfrage und die Internationalisierung von Forschung und Lehre Die Internationalisierung unserer Hochschulen und außeruniversitären For­ schungs­einrichtungen ist selbstverständlich ein dringendes Desiderat. Um ausländische Studierende und Gastwissenschaftler anzuwerben, wird allent­ halben Englisch als Sprache der akademischen Lehre bzw. als einzige Ver­ kehrs­sprache in Forschungsinstitutionen etabliert. Auch dies entspringt dem Missverständnis, Ausweis der Internationalität sei der ausschließliche Gebrauch der englischen Sprache. Für den Erwerb interkultureller Kompetenzen sind jedoch Kenntnisse über das Gastland, seine Traditionen, seine Lebensweise und seine Sprache eine entscheidende Voraussetzung. Untersuchungen zeigen, dass Ausländer, die während ihres Studiums an einer deutschen Hochschule von der deutschen Sprache ferngehalten werden, sich ausgegrenzt fühlen und ein negatives Deutschlandbild aufbauen.4 Sie werden schwerlich als die Multiplikatoren im Ausland auftreten, derer unsere Wissenschaft und Wirtschaft bedürfen. Viele ausländische Studierende leben bei uns in einer Parallelwelt und verlieren oft sogar die Deutschkenntnisse, die sie in ihren Heimatländern bereits erworben hatten. Viele Wissenschaftler mit dauerhafter Anstellung sprechen auch noch nach über 10 Jahren kein Deutsch. Zudem zeigt sich, dass auch die Englischkenntnisse der ausländischen Studierenden oft völlig unzureichend sind, um ein Studium erfolgreich zu absolvieren. Weitere Studien zeigten, dass viele der in Deutschland studierenden Ausländer hier auch ihre langfristigen beruflichen Perspektiven sehen, jedoch diesen Wunsch nicht verwirklichen können, weil sie nach dem Studium an einer deutschen Hochschule nur über rudimentäre Deutschkenntnisse verfügen5 – im Hinblick auf den sich abzeichnenden Fachkräftemangel ein bedenkenswerter Befund! Akademische Lehre muss sich dadurch auszeichnen, dass Wissen nicht bloß weitergegeben, sondern immer wieder neu erarbeitet wird. Studierende sollen am Prozess der Erkenntnisfindung teilhaben und die wissenschaftliche Methode erlernen. Der Aufbau von Wissen, das anhand theoriegeleiteter Kriterien repräsentiert wird, die Hinführung zu selbstständigem kri4 K. Petereit, E. Spielmanns-Rome, Sprecht Deutsch mit uns. In: Forschung und Lehre 3 (2010). 5 Siehe dazu: Sachverständigenrat Deutscher Stiftungen für Integration und Migration, 2012; und C. Fandrych, B. Sedlaczek, „I need German in my life.“ Eine empirische Studie zur Sprachsituation in englischsprachigen Studiengängen in Deutschland, Tübingen 2012.

170

Ralph Mocikat

tischem Denken, die Fähigkeit, Aussagen zu hinterfragen, das Denken in Zusammenhängen sollten die Ziele der universitären Lehre sein. In der akademischen Lehre spielt der kognitive Aspekt der Sprache also eine wichtigere Rolle als der kommunikative. Es verwundert daher nicht, dass fremdsprachige Lehre zu inhaltlichen Defiziten führen kann. Dies belegen Beob­ach­ tungen des Verfassers, die jedoch nicht den Anspruch empirischer Studien erheben, aber auch systematische Untersuchungen aus anderen Ländern. Dort wurde gezeigt, dass der Lernerfolg seitens der Studierenden erheblich sinkt, wenn der Dozent nicht die Muttersprache gebraucht.6 Vergleichbare Untersuchungen aus dem deutschen Sprachraum liegen nicht vor, sind jedoch dringend geboten. Die Aufforderung an unsere Akademiker, sie müssten, um den geschilderten Problemen zu begegnen, endlich nur besser Englisch lernen, geht vollends ins Leere. In Deutschland sind die Englischkenntnisse der heutigen Forscher, Dozenten und Studierenden so gut wie nie zuvor. Doch werden sie in der Fremdsprache in aller Regel niemals die Souveränität eines Muttersprachlers erreichen. Zu einem gelungenen Vortrag gehören nicht nur die Beherrschung des Wortschatzes und die Kenntnis der Grammatik, sondern insbesondere das Gefühl für die feinen Nuancen, das Gespür für das zwischen den Zeilen Gesagte, die Intonation, die Körpersprache, der Esprit. Die Argumentationsstrategien bleiben immer den Strukturen verhaftet, die die eigene Muttersprache vorgibt. Dies alles mögen Gründe dafür sein, warum die Qualität englischsprachiger Vorlesungen sinkt, warum sich die Lernstrategien der Studierenden ändern, warum eher stupide Wissens­ reproduktion eingeübt wird und weniger ein Wissen aufgebaut wird, das auf Transfer und Reorganisation angelegt ist.

Fazit Auf internationalem Parkett brauchen wir selbstverständlich die „lingua franca“, die sich aus dem Englischen entwickelt hat. Unbeschadet dessen muss es möglich sein, in bestimmten Zusammenhängen auch Artikel in der Landessprache zu veröffentlichen. Damit solche Arbeiten gewürdigt werden, müssen wir uns vom Diktat amerikanischer Zitatenindices frei machen und eine mehrsprachige Publikationsdatenbank auf europäischer Ebene aufbauen. Journale, die Artikel in verschiedenen Sprachen akzeptieren, sollten 6 Zum Beispiel: J. Airy, C. Linder, Language and the experience of learning university physics in Sweden. In: European Journal of Physics 27 (2006), 553-560.

Die Sprachenfrage in den Naturwissenschaften

171

wieder selbstverständlich werden, und eine Kultur des Übersetzens sollte gepflegt werden. Weiterhin darf die Etablierung einer „lingua franca“ nicht dazu führen, dass wir auch im internen Forschungs- und Lehrbetrieb die Einzelsprachen völlig aufgeben. Ziel einer erfolgreichen Internationalisierungspolitik kann nicht die Fixierung auf eine „lingua franca“ sein, das Ziel muss vielmehr eine kontextbezogene Mehrsprachigkeit sein, in der die jeweilige Landessprache Priorität genießen muss. Das bedeutet, dass Austauschwissenschaftler und Gaststudierende – sofern es sich nicht um Kurzaufenthalte handelt – die Landessprache erlernen müssen. Im Fall von Kurzaufenthalten sollte man sich vermehrt einer rezeptiven Mehrsprachigkeit bedienen. Konzepte einer differenzierten Mehrsprachigkeit wurden zum Beispiel jüngst in einem Empfehlungspapier der deutschen Hoch­schul­rektoren­kon­ ferenz7 sowie in einem Memorandum des Deutschen Akademischen Aus­ tausch­dienstes8 formuliert. Die darin beschworene Komplementarität zwischen dem Deutschen und der „lingua franca“ ist ein erstrebenswertes Ziel, dessen Umsetzung angesichts der Fehlentwicklungen der letzten Jahre jedoch mittlerweile eine energische Stärkung des Deutschen in den Wissen­schaften geböte. Es ist höchste Zeit, die verschiedenen Empfehlungen nun auch in die Realität umzusetzen.

7 Sprachenpolitik an deutschen Hochschulen, Empfehlung der 11. Mitgliederversammlung der HRK am 22.11.2011. 8 Siehe   http://www.daad.de/de/download/broschuere_netzwerk_deutsch/ Memorandum_veroeffentlicht.pdf

Irmela Hijiya-Kirschnereit

Die Sprachenfrage in den „Kleinen Fächern“ – Das Fallbeispiel Japanologie Bis vor nicht allzu langer Zeit noch als Orchideenfach abgestempelt, wird die Japanologie mittlerweile als „Kleines Fach“ geführt, gemessen an einer relativ kleinen Zahl an Studierenden, auch wenn sie im Kreis der „Kleinen Fächer“ – von Ägyptologie oder Buchwissenschaft bis zur Technikgeschichte – eher zu den großen gehört. Ein großer Teil der „Kleinen Fächer“ fällt unter die so genannten Regionalwissenschaften, von der Afrikanistik über die Finnougristik bis zur Vorderasiatischen Archäologie. Wenn meine im Fol­ gen­den ausgebreiteten Überlegungen in gewissem Umfang verallgemeinerbar sind, so gilt dies wohl vor allem für diejenigen, die sich mit nicht-europäischen Gegenständen beschäftigen. Gerade die „Kleinen Fächer“ decken allerdings oftmals besonders große Bereiche ab. Die asiatischen Nationen mit ihrer jahrtausendealten Geschichte etwa machen einen bedeutenden Anteil an der Weltbevölkerung aus. Je nach Fach ist hier eine unterschiedlich ausgeprägte Binnendifferenzierung zu erwarten. Lassen Sie mich zunächst kurz skizzieren, welche innerwissenschaftlichen Kommunikationskontexte für die Japanologie maßgeblich sind, wobei ich von meiner eigenen disziplinären Ausrichtung auf Literatur und Kultur aus­gehe. Da ist, erstens, zunächst die deutschsprachige Japanforschung mit ihrer gut hundertjährigen Geschichte in diversen Disziplinen – zunächst eher philologisch und historisch, seit den 1970er Jahren dann zunehmend auch sozialwissenschaftlich ausgerichtet. Die internationale japanbezogene Literaturforschung als zweiter Kommunikationsrahmen artikuliert sich vornehmlich auf Englisch. Als „Mutterdisziplin“ ist, drittens, die japanische Philologie und Wissenschaft zu nennen, wobei sich in der Reihenfolge der hier aufgezählten Bezugsrahmen keine Priorisierung ausdrückt. Innerhalb der deutschsprachigen Wissenschaften, etwa den benachbarten Philologien und Kulturwissenschaften, bietet sich natürlich ein Austausch auf Deutsch an, und das gilt auch für das den wissenschaftlichen Kontext überschreitende Gespräch mit der Öffentlichkeit. All diese Adressaten sind unverzichtbar, erfordern aber eine sprachliche Anpassung, denn mit den Sprachen verbinden sich bekanntlich jeweils ver-

Die Sprachenfrage in den „Kleinen Fächern“

173

schiedene Redeweisen und Wissenschafts“kulturen“, die über das rein Sprach­ liche hinaus möglichst beherrscht werden sollten. So wird ein Vortrag, aber auch ein Aufsatz oder Buchbeitrag, auch wenn er ein und demselben Gegen­ stand gewidmet ist, deutlich anders sprachlich gestaltet und aufbereitet, gegliedert, mit anderen Vergleichsbeispielen und womöglich auch mit unterschiedlichen Leitfragen versehen sein, je nachdem, ob ich ihn für ein deutschsprachiges, ein japanisches oder ein anglophones Fachpublikum konzipiere. Selbstredend – oder erst recht – gilt dies für die Kommunikation außerhalb der Akademie. Natürlich nötigt die Beherrschung dieser unterschiedlichen Sprachen und Diskursformen – für die Japanologie wären es mindestens die drei genannten – Wissenschaftlern eine gewisse Anstrengung ab, doch anders als durch aktiven Austausch mit den sich nur teilweise überschneidenden, in jeweils eigenen sprachlichen und wissenschaftlichen Traditionen stehenden Forschergemeinschaften war und ist Wissenschaft nicht denkbar. So weit, so banal. Es will geradezu wie ein Paradox erscheinen, dass ausgerechnet in einer Zeit nie zuvor gekannter erleichterter Kommunikation durch Glo­balisierung und Medienwandel eine Einschränkung im Hinblick auf das Kommunikationsmedium Sprache erfolgt, indem sich die Bevorzugung eines (vereinfachten) Englisch auf allen Ebenen durchsetzt. Ich beschreibe die gegen­wärtige Situation in meinem Fach anhand einiger Streiflichter: • Durch fachpolitische Maßnahmen, etwa die Umstellung des international sichtbarsten Publikationsorgans der deutschsprachigen Japanforschung auf das Englische oder die Einstellung des Projekts „Großes japanischdeutsches Wörterbuch“ am Deutschen Institut für Japanstudien, Tokyo,1 durch Evaluierungen u.a.m. werden anglophone Publikationen aufgewertet mit der Folge, dass deutsch- und anderssprachige Publikationen deutlich zurückgestuft werden. Dies gilt übrigens auch für japanischsprachige Veröffentlichungen in einem Fach, das sich damit der Kritik aussetzt, unterschwellig neokolonialistisch zu agieren.2 • In diesem Zusammenhang werden innerfachliche Differenzen deutlicher: Für die sozialwissenschaftlich orientierte Japanforschung scheint die Bedeutung des Englischen noch zentraler. Das Publizieren auf Englisch wird noch dezidierter eingefordert, wobei allerdings die Bedeutung von Sprache als Erkenntnisinstrument weitgehend ausgeblendet wird. Auch 1 Genaueres hierzu bei Irmela Hijiya-Kirschnereit, Deutsch in der Wissenschaft – das Beispiel

Japanologie. In: Heinrich Oberreuter et al. (Hg.), Deutsch in der Wissenschaft: Ein politischer und wissenschaftlicher Diskurs, München 2012, 196-201. 2 Vgl. hierzu die Anmerkungen des japanischen Literaturwissenschaftler K. Aizawa, ebenda, 200.

174

Irmela Hijiya-Kirschnereit

scheint ein nicht immer faktisch abgedecktes Selbstbewusstsein hinsichtlich der Beherrschung des Wissenschaftsenglischen zu dominieren. Aus dieser innerfachlichen Differenzierung ergibt sich eine potentiell größere Präsenz der sozialwissenschaftlichen Japanforschung im anglophonen Bereich. Das führt zu unterschiedlicher Wahrnehmung wissenschaftlicher Leistungen in den jeweiligen Disziplinen, angesichts der neuerdings eingeführten Evaluierungsparameter selbst im deutschsprachigen Raum. • Das Englische als Wissenschaftssprache besitzt in der deutschen Japano­ logie einen gewissermaßen „natürlichen“ Prestigewert, der ins Irrationale spielt. So gilt es als magischer Türöffner für Nach­wuchs­karrieren, was die Vernachlässigung der Vermittlung von Forschungsergebnissen für ein deutsch­sprachiges Publikum rechtfertigen soll. Bisher lässt sich jedenfalls kein entsprechender positiver Effekt einer Verlagerung der Pub­lika­tions­ tätigkeit auf das Englische nachweisen.3 Im Gegenteil müsste es, wenn es mit rechten Dingen zuginge, bei Bewerbungen auf Positionen im deutschsprachigen Raum zu Nachteilen führen, wenn auf der Publikationsliste kein substantieller Beitrag die Kommunikationsfähigkeit im deutschen Wissenschaftskontext und mit deutschsprachigen Studierenden zu belegen vermag. Wenn etwa der Direktor des Deutschen Instituts für Japan­ studien das Englische als „the richest, most articulate and adaptable symbolic code humankind has developed“ bezeichnet,4 so kommt dies einer Art „Heiligsprechung des Englischen“ gleich.5 • Die eigene und die Fachgeschichte anderer, europäischer und asiatischer Provenienz wird ignoriert, da im Zuge anglophoner Publikationspraxis 3 Ob Bücher, Aufsätze, organisierte Tagungen, Lehrerfahrung u.ä.m. auf Nicht-Englisch

bei Bewerbungen im europäischen Ausland oder auf anderen Kontinenten wirklich nicht zählen, ist für mich nicht ausgemacht. 4 Florian Coulmas, English monolingualism in scientific communication and progress in science, good or bad? In: Augusto Carli, Ulrich Ammon (Hg.), Linguistic inequality in scientific communication today: What can future applied linguistics do to mitigate disadvantages for non-anglophones? (=AILA Review 20), Amsterdam 2008, 5-13. Der Artikel fehlt übrigens auf der (erweiterten) Publikationsliste des Autors (http://www.dijtokyo.org/about_us/ director&full=1#articles). Ein abstract ist auf der HP der AILA Review „not available“. (Eingesehen am 20.12.2012). 5 Den Hinweis auf das Coulmas-Zitat und die Lächerlichkeit der „Heiligsprechung des Englischen“ verdanke ich meinem Kollegen Wolfgang Schamoni, Heidelberg, der dies auf der Mailing-Liste der Japanologen, J-Studien, am 20.11.2009 in einer Stellungnahme zum „Sprachenstreit“ innerhalb des Faches ausführte. Er machte allerdings sogleich geltend, dass das Englische derzeit eher als „die billigste Sprache der Welt ge- und behandelt [werde]: als die Sprache, die man beliebig schludrig verwenden darf, als die Sprache, die sich alles gefallen lassen muss.“

Die Sprachenfrage in den „Kleinen Fächern“

175

das Zitieren daraus mit Übersetzungsarbeit verbunden wäre oder auch die Bezugnahme auf andere als anglophone (und japanische) Quellen redaktionell unterbunden wird. Angesichts des hohen Prestiges, das anglophone Publikationen gerade bei der jüngeren Wissenschaftlergeneration besitzen, werden so die genuinen wissenschaftlichen Beiträge des Faches im hiesigen Kontext gar nicht mehr wahrgenommen und Pionierleistungen unterschlagen. Dabei betrifft das anglophone Negativ-Zitierkartell nicht nur frühere Generationen, sondern sogar die noch lebenden und aktiven deutschsprachigen Japanologen, deren einschlägige Arbeiten zugunsten später erschienener anglophoner Publikationen nicht mehr rezipiert bzw. als Wissensquellen nicht mehr nachgewiesen und diskutiert werden. • Ungeachtet allgemeiner Lippenbekenntnisse zur „Diversität“ und ohne Not wird diese in der japanologischen Forschung unterbunden. Urteils­ fähigkeit, Erkenntnisdichte und Erkenntnisqualität in der Arbeit am Mate­ rial speisen sich aber aus dem Zugriff auf wissenschaftliche Vor­leis­tun­ gen. In weiten Bereichen der Japanologie finden indes japanische (!), deutsche, französische, chinesische und andere Forschungen keine adäquate Berücksichtigung mehr. Dies moniert auch ein jüngerer Kollege: „Fähig­ keiten des unabhängigen Zugangs zu den Zeichensätzen asiatischer Kul­ turen drohen abzunehmen, und hiermit die Urteilsfähigkeit darüber, wie verlässlich und wie dicht Aussagen über Kultur und Kulturgeschichte gewonnen werden. Dabei geht es nicht allein um die Arbeit am Material, insbesondere an den Quellen aus der Zeit bis 1945. Die Tendenz, wissenschaftliche Ergebnisse in der (vermeintlichen) lingua franca unserer Zeit zu publizieren, birgt die allseits wahrgenommene Gefahr, große Anteile der Adepten könnten meinen, der Sprachwechsel konstituiere eine andere Öffentlichkeit und könne nun als Passierschein dafür gelten, im Stile vieler angelsächsischer Studien nicht nur japanisch- wie englisch-, sondern vornehmlich französisch- oder deutschsprachige, zunehmend auch chinesischsprachige u.a. Vorleistungen – der Kenntnis um ihre Existenz zum Trotz – vollkommen aus dem Überlieferungsprozess der Japanologie zu verdrängen und in der Pose von Raderfindern auf dem Buchmarkt auf­zu­warten.“6 • Ebenso wird die Forschungsagenda zunehmend durch anglophon-global geprägte, oftmals nicht aus dem Gegenstand selbst oder der Fach­ge­schichte heraus entwickelte Fragestellungen bestimmt. Dies ist einer der problematischen Nebeneffekte der Forderung nach Vernetzung im Rahmen von 6 Markus Rüttermann, Überlieferungsstrukturen als Schlüssel zur Mentalitätsgeschichte. In: Nachrichten der Gesellschaft für Natur- und Völkerkunde Ostasiens (NOAG) 181-182 (2007), 211-227, hier 213.

176

Irmela Hijiya-Kirschnereit

Exzellenzinitiativen und sonstigen forschungspolitischen Vor­gaben. Zwar hat sich das Fach tatsächlich in den letzten Jahren zunehmend in solchen Verbünden engagiert – mit dem positiven Effekt größerer inner-akademischer Sichtbarkeit –, doch aufgrund seiner sehr begrenzten personellen und institutionellen Ressourcen stößt die Japan­ologie damit sehr schnell an ihre Grenzen mit dem Ergebnis, dass vor lauter interdisziplinärer Vernetzung Forschung, die sich aus dem Fragen­horizont und der Entwicklung des eigenen Faches ergibt, immer weniger möglich ist. Fraglich bleibt auch, ob die Japanologie in diesen Verbünden gleichberechtigte Diskussionspartnerin ist oder doch nur Dienstleister oder Stofflieferant. • Die Kommunikation mit anderen Fächern und der deutschsprachigen Öffentlichkeit findet zunehmend in (notgedrungen reduzierter) englischer Sprache bzw. Deutsch als deren Derivat statt, wie sich beispielsweise an internationalen Tagungen in Deutschland hinlänglich beobachten lässt, die nur selten intelligente Mehrsprachigkeit zulassen, sondern bei ausländischen Teilnehmern von vornherein damit rechnen, dass allein das Englische für Vorträge und Diskussionen tauge. Die Forschung kann ihr Innovationspotential durch die sprachliche „Gängelung“ nicht entfalten, wäre aber gerade auf die Differenzierungsmöglichkeiten angewiesen, die nur in einer Erstsprache voll zur Entfaltung kommen. Unter dem Druck der bedeutungsnivellierenden Einsprachigkeit scheint insgesamt das Gespür für die Bedeutung von Sprache für wissenschaftliche Erkenntnis zu schwinden. Damit aber zeichnet sich eine Entwicklung zur Selbstabschaffung zumindest der historisch-hermeneutischen Wissen­ schaften ab, die sich kaum noch von leerem Geschwätz werden unter­ scheiden lassen können. Die innerhalb der Japanologie betriebene Lächer­ lichmachung derjenigen, die für eine reflektierte Mehrsprachigkeit eintreten, bedeutet zugleich die Aufgabe des für die humanities wesentlichen Grundsatzes, die eigene Vorurteilsstruktur mitzudenken beim Ver­ such, den anderen, das andere zu verstehen. Zu „wissen, dass ein japanisches Phänomen von Europa aus anders aussehen kann als von Japan aus, dass ein Phänomen des 18. Jahrhunderts sich dem späten 19. Jahr­ hundert anders darstellen mag als dem frühen 21. Jahrhundert“, wie es W. Schamoni formuliert,7 diese Selbstverständlichkeiten werden im Zuge der sich machtvoll durchsetzenden Tendenz zur Einsprachigkeit in der Wissenschaft gleich mit beerdigt. 7 In seinem bereits zitierten Beitrag vom 20.11.2011 auf der Mailing-Liste J-Studien.

Die Sprachenfrage in den „Kleinen Fächern“

177

Gewiss, manch einer mag in dieser Bestandsaufnahme ein einziges, einseitiges Lamento sehen. Zumal hier keine Vorschläge zu einer Überwindung der Lage angeboten werden. Auf das Zitieren der Stimmen, die mit dem Gebrauch des Englischen einen erlösenden Ausgang aus dem provinziellen Gefängnis des Deutschen (oder Japanischen oder anderer Sprachen) in die weite Welt der globalen Wissenschaft sehen, habe ich verzichtet, denn es hat ja nie, zu keinem Zeitpunkt, zur Debatte gestanden, ohne das Englische auszukommen. Unschwer lässt sich ahnen, wie polemisch die Diskussion innerhalb der Japanologie ausfällt, denn beiden Seiten, den Verfechtern des globalen Englisch wie denen, die die Mehrsprachigkeit bewahren möchten, geht es um fundamentale Positionen im Interesse ihrer Wissenschaft. Der Zug scheint so gut wie abgefahren, denn viele der beschriebenen Entwicklungen lassen sich kaum noch aufhalten oder gar zurückdrehen. Mit triumphaler Geste wird dies auch verkündet.8 Einige Maßnahmen liegen auf der Hand, um der von mir, jawohl, beklagten Kultur- und Geschichtsvergessenheit im Fach entgegenzusteuern. Noch sind nicht alle Fachzeitschriften sprachlich gleichgeschaltet, auch nicht auf europäischer Ebene.9 Sie zu stärken, auch durch Änderungen in der Einstufung von Publikationen im Zusammenhang mit internationalen Rankings, wäre ebenso wünschenswert wie die Pflege der Mehrsprachigkeit bei wissenschaftlichen Tagungen und eine angemessene Berücksichtigung nicht-englischer Sprachbeherrschung bei der Ausschreibung von Stellen und Stipendien. Am wichtigsten erschiene mir jedoch, dass die hier beschriebenen Entwicklungen, die von den Wissenschaftlerinnen und Wissenschaftlern im Fach selbst mitverantwortet, wenn nicht gar vollends verantwortet werden, ernsthafter und aufrichtiger diskutiert würden, als es bisher der Fall war. Letztlich geht es bei dieser Frage um den künftigen Ort der deutschsprachigen Geisteswissenschaften in der internationalen Wissenschaft. 8 Vgl. die Replik von Jürgen Trabant auf F. Coulmas, der in der NZZ „es noch einmal für nötig befunden [hat], ...das Englische als weltweite Wissenschaftssprache anzupreisen – unter nachdrücklicher Schmähung der reaktionären Kräfte, die sich diesem progressiven Trend widersetzen und in den alten europäischen Wissenschaftssprachen weiterarbeiten wollen, etwa in Deutsch.“ Vgl. Jürgen Trabant, Ein Plädoyer für die Vielsprachigkeit. In: Frankfurter Allgemeine Zeitung 77 (1. April 2010), 9.

9 Beispiele hierzu aus Italien, Frankreich und der Schweiz: Die Annali dell‘Università degli Studi di Napoli „L‘Orientale“, enthalten Beiträge auf Italienisch, Englisch, Französisch und Deutsch. Mehrsprachig gehalten sind auch die Cahiers du Centre Européen d‘Études Japonaises d‘Alsace und die Asiatischen Studien/Etudes Asiatiques, die Zeitschrift der Schweizerischen Asiengesellschaft.

Barbara Seidlhofer

Hegemonie oder Handlungsspielraum? Englisch als Lingua Franca in der Wissenschaft Englisch ist die dominante Sprache der Ära des kapitalistischen Westens bzw. Nordens, und keine Sprachenpolitik kann daran etwas ändern. Auch der globalisierte Wissenschaftsbetrieb wird in absehbarer Zukunft mehr und mehr über Englisch laufen. Während die Forschung und die wissenschaftliche Lehre zu einem großen Teil noch an den verschiedensten Standorten und in einer Vielzahl von Sprachen lokalisiert sind, steigt der Anteil an international verbreiteten englischsprachigen Publikationen stetig an – speziell in Fachzeitschriften je nach Disziplin auf oder sogar über 90 %.1 Ich stimme meinen Ko-ReferentInnen durchaus zu, wenn sie die übertrieben forcierte Verbreitung des Englischen im (offensichtlich vor allem deutschen) Universitäts- und Verlagsbetrieb bedauern und schildern, dass diese oft seltsame Blüten treibt, wie etwa wenn in Ausschreibungen für Germanistik-Lehrstühle in Deutschland gefordert wird, dass KandidatInnen in der Lage sein müssen, auf Englisch zu unterrichten. Besonders aus der Sicht der kulturwissenschaftlich-philologischen Fächer erscheint der entweder verordnete oder manchmal einfach unnötige Einsatz einer Lingua Franca oft kontraproduktiv und gibt Anlass zur Sorge um die Pflege der verschiedenen Sprachen und um die Rezeption der wichtigen Texte, die ja den Kern der philologischen Disziplinen bilden. Ich glaube allerdings, dass es zwar notwendig aber nicht ausreichend ist, Einwände und Gegenargumente vorzubringen. Dies lehrt uns auch die Erfahrung der letzten Jahrzehnte, besonders der letzten zehn bis fünfzehn Jahre, denn die Globalisierung und damit die Entwicklung in Richtung Englisch haben sich trotz weit verbreiteten Bedauerns und vehementer Kritik beschleunigt. All die erwähnten negativen Auswüchse berechtigen meiner Meinung nach nicht zur pauschalen Ablehnung von Englisch als Lingua Franca für 1 Siehe z.B. Rainer Enrique Hamel, The dominance of English in the international scientific

periodical literature and the future of language use in science. In: Augusto Carli, Ulrich Ammon (Hg.), Linguistic Inequality in Scientific Communication Today (AILA Review 20), Amsterdam, Philadelphia 2007, 53-71; Theresa Lillis, Mary Jane Curry, Academic Writing in a Global Context. The Politics and Practices of Publishing in English, London 2010.

Hegemonie oder Handlungsspielraum?

179

jene zahlreichen Kontexte, die ein Kommunikationsmedium für interkulturelle Verständigung erfordern. Vielmehr bedarf es im heutigen Wissenschaftsbetrieb und angesichts der ständig wachsenden Anforderungen, die an ForscherInnen und UniversitätslehrerInnen gestellt werden, klar formulierter Kriterien für die Sprachwahl und den Sprachgebrauch für verschiedene Zwecke – Kriterien, die wir selber formulieren und begründen können. Es geht vordringlich darum, die eigenen Bedingungen in größtmöglichem Maße mitzugestalten. Gefragt sind daher nicht Lamenti und Polemiken, sondern Eigeninitiative und Kreativität, vor allem der nicht-anglophonen Betroffenen. Es gilt also, unseren (zugegebener Maßen beschränkten) Handlungsspielraum voll auszuschöpfen und dazu beizutragen, Fehler der letzten Jahre sichtbar zu machen und dagegen zu wirken. In dieser Hinsicht stimme ich mit den meisten Punkten überein, die Philippe van Parijs in seinem Buch ‚Linguistic Justice for Europe and for the World‘2 vorbringt. Der belgische Philosoph und Ökonom argumentiert für eine möglichst flächendeckende und beschleunigte Verbreitung einer Lingua Franca, vor allem aber nicht nur in Europa. Er tut dies unter der Bedingung, dass Fairness in von ihm genau ausgeführten ‚Dimensionen‘3 beharrlich angestrebt wird: Provided fairness is vigorously pursued along each of these three dimensions, it is possible to accept without indignation or resentment the increasing reliance of English in Europe and in the world. We need a lingua franca, and only one, if we are to be able to work out and implement efficient and fair solutions for our common problems on a European and on a global scale, and indeed if we are to be able to discuss, characterize, and achieve linguistic justice itself. But the sheer existence of a lingua franca is not sufficient. We must urgently use it to argue, mobilize, innovate, reform, and revolutionize the way our countries, our Union, our world are run.4

Englisch als Lingua Franca stellt laut van Parijs also nicht nur ein notwendiges Kommunikationsvehikel dar, sondern muss auch für die Auseinandersetzung mit und (Um)gestaltung von unseren Arbeits-und Lebensbedingungen eingesetzt werden. 2 Oxford 2011. 3 Diese können hier nur erwähnt, aber nicht näher ausgeführt werden: Der Autor widmet ihnen jeweils ein Kapitel und nennt sie “fair cooperation” (Kap. 2), “equal opportunity” (Kap. 3) und “parity of esteem” (Kap. 4). 4 Philippe Van Parijs, Linguistic Justice for Europe and for the World, Oxford 2011.

180

Barbara Seidlhofer

Aus meiner eigenen, sprachwissenschaftlichen/soziolinguistischen Pers­ pek­tive bedeutet dies vor allem, dass es an uns liegt, uns nicht in voraus­ei­ len­den Gehorsam gegenüber der ‘anglo-amerikanischen Übermacht’ zu ergeben, sondern unseren Handlungspielraum zu erkunden und auszubauen. Dafür ist es hilfreich, sich folgende Aspekte vor Augen zu halten: a) Englisch als Lingua Franca ist zu verstehen als Kommunikationsmittel, auf das sich SprecherInnen verschiedender Erstsprachen in bestimmten Situationen einigen – “any use of English among speakers of different first languages for whom English is the communicative medium of choice, and often the only option”.5 Dies ist eine funktionale Definiton, aus der folgt, dass an Interaktionen mittels Englisch als Lingua Franca sowohl muttersprachliche als auch nicht-muttersprachliche SprecherInnen beteiligt sein können. Es gibt viele, zwangsläufig sehr grobe, Schätzungen der Anzahl von Englisch-SprecherInnen auf der Welt. Was jedoch eindeutig belegt ist, ist die weitaus größere Anzahl nicht-muttersprachlicher als muttersprachlicher SprecherInnen, in einem Verhältnis von etwa 4:1.6 Das beispiellose Phänomen von ‘global English’ erfordert auch ein grundlegendes, d.h. radikales, Neu-Denken über die sprachliche Situation in der Welt, welches über gewohnte, etablierte Konzepte hinausgeht. Angesichts der Globalisierung und ihrer Begleiterscheinungen wie sich rasant entwickelnde Technologien, extreme Mobilität, neue soziale Strukturen / ‘Communities of Practice’ usw. geraten unsere althergebrachten Begriffe von Einzel- bzw. Nationalsprachen ins Wanken, und auch die weitverbreitete Konnotation des Terminus ‘Lingua Franca’ ändert sich in diesem Prozess: von der ältesten, nur behelfsmäßigen Pidginsprache für ein kleines Repertoire von routineartigen Sprach­ handlungen zur ‘Ausbausprache’, die geeignet ist „für qualifizierte Anwendungszwecke und –bereiche“.7 Zu diesen Anwendungszwecken 5 Barbara Seidlhofer, Understanding English as a Lingua Franca, Oxford 2011, 7. Van

Parijs (wie Anm. 4, 9) definiert eine Lingua Franca als “any language widely used for communication between people with different mother tongues, whether or not it enjoys an exclusive or privileged official status, and whether or not it has been from the start, or has gradually become, the native language of some of the linguistic communities it links together”. 6 Vgl. David Crystal, English as a Global Language, 2. Aufl., Cambridge 2003; Ders., English worldwide. In: R. Hogg, D. Denison (Hg.), A History of the English Language, Cambridge 2006; David Graddol, English Next: Why Global English May Mean the End of ‘English as a Foreign Language’, London 2006. 7 Heinz Kloss, Die Entwicklung neuer germanischer Kultursprachen seit 1800, 2. erw. Aufl., Düsseldorf 1978, 25.

Hegemonie oder Handlungsspielraum?

181

gehört z.B. durchaus auch die Arbeit und Kommunikation in internationalen Forschungsgruppen, und mir ist keine Studie bekannt, die aufzeigt, dass sprachlich homogene bzw. muttersprachliche Gruppen von WissenschaftlerInnen bessere Forschungsergebnisse erzielen als solche, die untereinander mittels Englisch als Lingua Franca kommunizieren. b) Aus a) folgt, dass Englisch als Lingua Franca nicht die Erstsprache der britischen, amerikanischen, australischen usw. Native Speakers ist. ‘English as a Lingua Franca’ (ELF) ist prinzipiell von ‘English as a Native Language’ (ENL) zu unterscheiden, und niemand wird als ELFSprecherIn geboren. Daraus ergibt sich, dass das globale ELF nicht das der anglophonen Länder sein kann, und dass wir uns jenes Englisch, das die nicht-muttersprachliche Mehrheit für Wissenschaftskommunikation in Publikationen und Vorträgen verwendet, explizit und nachdrücklich zu eigen machen und mitgestalten können. Dies ist durchaus nicht unrealistisch, weil ‘Academic English’ ja auch nicht die Erstsprache der englischen Muttersprachler ist, sondern auch von ihnen in der sekundären und tertiären Sozialisation gelernt werden muss. Es besteht also kein Anlass zu a priori-Minderwertigkeitskomplexen gegenüber ENL-SprecherInnen, denn ELF-Interaktionen finden nicht in deren Territorium statt und müssen daher auch nicht deren Gesetzen gehorchen. ELF ‘gehört’ allen jenen, die es benutzen: … the English language no longer belongs numerically to speakers of English as a mother tongue, or first language. The ownership (by which I mean the power to adapt and change) of any language in effect rests with the people who use it, whoever they are, however multilingual they are, however monolingual they are. The major advances in sociolinguistic research over the past half century indicate clearly the extent to which languages are shaped by their use. . . . Statistically, native speakers [of English] are in a minority for language use, and thus in practice for language change, for language maintenance, and for the ideologies and beliefs associated with the language … 8

c) Diese Denkweise ist deshalb gewöhnungsbedürftig, weil wir, besonders in den einzelnen Nationalstaaten Europas, der Vorstellung verhaftet sind, dass ausschließlich Native Speakers wirklich legitime SprecherInnen einer Sprache sind. Trotz vieler Erkenntnisse der Soziolinguistik, die uns die Willkürlichkeit von Sprachgrenzen und die Unvermeidbarkeit von Sprachwandel vor Augen führen, beharren wir noch immer auf 8 Christopher Brumfit, Individual Freedom in Language Teaching: Helping Learners to Develop a Dialect of their Own, Oxford 2001, 116.

182

Barbara Seidlhofer

einer Tradition von (nationalen) Einzelsprachen. Aus dieser Perspektive heißt ‘eine andere Sprache sprechen’ immer ‘jemandes anderen Sprache sprechen’, also eine Sprache, die anderen gehört. Und dann ist es auch nicht verwunderlich, wenn man oder frau bei der (oft zwangsläufigen) Verwendung der Sprache, die das ‘Eigentum’ anderer ist, sprachliche Unterwürfigkeit entwickelt und sich immer wieder bemüßigt fühlt, sich für sein ‘schlechtes Englisch’ zu entschuldigen. Dieses Verhalten kann man bei allen Sprachen beobachten, ist aber in Bezug auf Englisch ob seiner globalen Rolle unangebracht. Die nie dagewesene globale Verbreitung einer Sprache sollte mittlerweile auch eine nie dagewesene Konzeptualisierung zulassen, nämlich die einer ausbaufähigen und ausgebauten Lingua Franca, die nicht an muttersprachlichen Kriterien gemessen wird. Dies erfordert eine Rekonzeptualisierung von Sprache(n): neben Englisch als Sprache der Engländer, U.S.-Ameri­kaner etc. ist gleichberechtigt Englisch als Lingua Franca zu stellen. Dieser Meinung ist auch ein (aufgeklärter) Engländer: “How English develops in the world is no business whatsoever of native speakers in England, the United States, or anywhere else. They have no say in the matter, no right to intervene or pass judgement. They are irrelevant. The very fact that English is an international language means that no nation can have custody over it. To grant such custody over the language is necessarily to arrest its development and so undermine its international status.”9 d) Die Entwicklung von Englisch als internationale Sprache, wie von Widdowson hier angesprochen, ist seit einigen Jahren auch Gegenstand der empirischen Forschung. Das an der Universität Wien entwickelte, durch ein FWF-Projekt finanzierte Computerkorpus namens VOICE (ViennaOxford International Corpus of English)10 enthält ELF-Interaktionen mit SprecherInnen einer Vielzahl verschiedener Erstsprachen sowie in einer großen Bandbreite von Schauplätzen (‘settings’) und Domänen/ Tätigkeitsbereichen, die auch Wissenschaftskommunikation mit einschließen. Die Sprechereignisse in VOICE umfassen private und öffentliche Dialoge, Gruppendiskussionen, Pressekonferenzen, Seminare und gesellige Unterhaltungen sowie einige Interviews.

9 Henry Widdowson, Defining Issues in English Language Teaching, Oxford 2003, 43. 10 Siehe http://www.univie.ac.at/voice/; Barbara Seidlhofer, Giving VOICE to English as a Lingua Franca. In: Roberta Facchinetti, David Crystal, Barbara Seidlhofer (Hg.), From International to Local English – and Back Again, Frankfurt 2010, 147-163.

Hegemonie oder Handlungsspielraum?

183

Wie Janina Brutt-Griffler in ihrem Buch ‘World English’ 11 überzeugend darlegt, ist Bi- bzw. Multilingualismus ein wichtiges Charakteristikum dieser Weltsprache, und somit auch der Einfluss der jeweiligen Erstsprache(n) der Sprecher. Im Gegensatz zur Kritik am ‘linguistischen Imperialismus’ à la Phillipson12 argumentiert Brutt-Griffler für die Anerkennung der aktiven Rolle aller SprecherInnen des Englischen: Diese sind Akteure in der weltweiten Verbreitung und Weiterentwicklung des Englischen und somit nicht nur passive Rezipienten und Beobachter; ganz im Gegenteil, sie tragen erheblich bei zu jenen Formen, die die Sprache in Erfüllung ihrer globalen Rolle annimmt, und sie bemächtigen sich ihrer in einem Prozess, den Brutt-Griffler ‘macroacquisition’ nennt, und womit sie eine Art gesellschaftlichen (im Unter­schied zu individuellem) Spracherwerb meint. Aus der empirischen ELF-Forschung vor allem des letzten Jahrzehnts13 wissen wir, dass ELF-SprecherInnen die Sprache aktiv prägen und gestalten, dass englische (mutter)sprachliche und soziokulturelle Normen in Bezug auf Korrektheit und Idiomatizität in ELF-Interaktionen zu einem gewissen Grad suspendiert sind und dass es eher andere Faktoren wie z.B. subtile Aushandlungsprozesse sind, die zu erfolgreicher Kommunikation führen. Was jedoch besonders wichtig erscheint, ist nicht so sehr das Aufzeigen bestimmter sprachlicher ‘Abweichungen’ vom muttersprachlichen Englisch, sondern die allgemeineren Prozesse, die in diesem bisher beispiellosen Sprach­gebrauch ablaufen, ganz unabhängig von Erstsprache und Niveau der jeweiligen Sprecher. Diese bauen natürlich auf den Einsichten in bis zu einem gewissen Grad vergleichbare Abläufe auf, wie sie z.B. in der his­tor­ ischen Sprachwissenschaft, der Sozio- und Variationslinguistik, Kontakt­ linguistik, Spacherwerbsforschung, interkulturellen Pragmatik und Kom­mu­ nika­tionswissenschaft seit Langem beforscht werden. Aus dieser Perspektive ist das Studium von Englisch als Lingua Franca vor allem ein Studium massiven und beschleunigten Sprachwandels. Und auch ein Wandel in Sprecher­einstellungen beginnt sich abzuzeichnen.14 Die normative Kraft 11 Janina Brutt-Griffler, World English. A Study of its Development, Clevedon 2002. 12 Robert Phillipson, Linguistic Imperialism, Oxford 1992. 13 Für Literaturhinweise siehe Seidlhofer (wie Anm. 5) bzw. http://www.univie.ac.at/voice/ page/publications.

14 Jennifer Jenkins, Accommodating (to) ELF in the international university [=Special issue:

English as a lingua franca in the international university]. In: Journal of Pragmatics 43/4 (2011), 926-936, und Diess., English as a Lingua Franca in the International University. The Politics of Academic English Language Policy, London, in Vorbereitung; Anna Mauranen, Exploring ELF: Academic English Shaped by Non-Native Speakers, Cambridge 2012; Anna Mauranen, Carmen Pérez-Llantada, John M. Swales, Academic Englishes: A standardised

184

Barbara Seidlhofer

des Faktischen wird das ihre tun, denn allein durch die zahlenmäßige Über­ macht der ELF-SprecherInnen wird es allmählich auch zu einer Werte- bzw. Normenverschiebung kommen.

Schlussbemerkung Es liegt mir fern, die Problematik der Hegemonie des Englischen in der internationalen Wissenschaftskommunikation zu verneinen oder zu verharmlosen. Vielmehr geht es mir darum, dem überholten ‘vorauseilenden Gehorsam’ gegenüber international irrelevanten muttersprachlichen Normen entgegenzuwirken, der die globale Verwendung des Englischen noch immer begleitet. Wie in der ELF-Literatur erörtert,15 ist die ELF-Sprechergemeinschaft nicht eine ‘speech community’ im konventionellen Sinn, sondern eher eine ‘community of practice’ im Sinne von Wenger.16 Aus dieser Per­ spektive hat erfolgreiches Kommunizieren sehr wenig zu tun mit ‘perfekter Sprachbeherrschung’. Vielmehr gilt es, allgemeinere, sprachübergreifende Fähigkeiten und Strategien zu entwickeln, zu verfeinern und wohl auch explizit zu unterrichten. Auf den Gebieten der Sprachbewusstheit/ Language Awareness, Kommunikationsstrategien, Accommodation Theory und der wichtigen Monitoring- und Optimierungsstrategien, die Kommuni­ kation auch unter schwierigen Bedingungen ermöglichen, gibt es eine Fülle von bislang noch zu wenig genutzten Forschungsergebnissen und Erklärungsmodellen, die einen wesentlichen Beitrag zu einem abgerundeteren und faireren Verständnis von internationaler und interkultureller Kommunikations­fähigkeit leisten könnten. An der Tatsache, dass Englisch bis auf Weiteres die vorherrschende Wissenschaftssprache ist, ist wohl nicht zu rütteln. Aber wir können aktiv gestalten, wie wir damit umgehen, wie wir uns darin behaupten und wie es uns dabei geht. In diesem Sinne würde ich Englisch als Lingua Franca, wie in diesem Beitrag dargelegt, auch inkludiert wissen wollen in der Passage des Ent­wick­ knowledge? In: Andy Kirkpatrick (ed.), The World Englishes Handbook, London, New York 2010, 634-652. 15 Juliane House, English as a lingua franca: A threat to multilingualism? In: Journal of Sociolinguistics 7/4 (2003), 556-578; Barbara Seidlhofer, English as a lingua franca and communities of practice. In: Sabine Volk-Birke, Julia Lippert (ed.), Anglistentag 2006 Halle Proceedings, Trier 2007, 307-318. 16 Etienne Wenger, Communities of Practice, Cambridge 1998.

Hegemonie oder Handlungsspielraum?

185

lungs­plans der Universität Wien, auf die Susanne Weigelin-Schwiedrzik, Vizerektorin für Forschung dieser Universität, während der Podiums­ diskussion verwies: 2.1.4 Die Internationalität der Universität: Forschung führt zu Erkenntnissen, deren Geltungsbereich nicht auf nationalstaatliche Territorien begrenzt ist. Wissenschaft ist international. Darüber hinaus ergibt sich aus der Tradition und dem Selbstverständnis der Universität Wien der Anspruch, eine international sichtbare und attraktive Universität zu sein. Sie trägt ihrer geografischen und historischen Verortung Rechnung, indem sie sich zur Vielfalt des Internationalen bekennt und sich international betätigt. Dementsprechend publizieren ihre WissenschafterInnen in der dem jeweiligen Wissenschaftsgebiet angemessenen Sprache.17

In Bezug auf den Titel der Podiumsdiskussion wäre mein Vorschlag, die Frage „Nationalsprache versus lingua franca“ umzuformulieren, auf Komple­men­ tarität statt Widerspruch und auf ein ‘sowohl - als auch’ statt eines ‘entweder - oder’.

17 Universität Wien 2015. Entwicklungsplan. http://public.univie.ac.at/fileadmin/user_

upload/public/pdf/Entwicklungsplan_interaktiv.pdf (letzter Zugriff 6/1/2013), 8f., meine Hervorhebung).

Winfried Thielmann

Nationalsprachen versus Lingua Franca in der Wissenschaft Die Diskussion der Sprachenfrage in den Wissenschaften bedarf vor allem der Klärung der folgenden beiden Fragen: a) Ist Wissenschaft einzelsprachenabhängig? Und, falls a) zu bejahen ist, b) Welche Konsequenzen sind aus der Einzelsprachenabhängigkeit des Unternehmens Wissenschaft zu ziehen? Ich werde im folgenden zu zeigen und zu begründen versuchen, dass das Unternehmen Wissenschaft sowohl sprach- als auch einzelsprachenabhängig ist; dass eine Pluralität der Wissenschaftssprachen kein Skandalon, sondern notwendige Konsequenz neuzeitlicher Wissenschaft ist; dass in einer lingua franca keine Wissenschaft betrieben werden kann und, schließlich, dass Einsprachigkeit in der Wissenschaft das Unternehmen Wissenschaft in seiner Substanz vernichtet.

Zur Sprach- und Einzelsprachenabhängigkeit des Unternehmens Wissenschaft Wissenschaft ist neugiergeleitetes Fragen. Wissenschaft-Treiben heißt Instanzen der Wirklichkeit als befragbar setzen. Die apparatefreie griechische Philosophie setzte hierzu an der Sprache, genauer: der Gemeinsprache, selbst an. Die aristotelischen Kategorien sind der griechischen Sprache abgelauscht,1 die aristotelische Physik beginnt, nachdem sie das Werden als Grundmoment der Natur erkannt hat, mit der Frage: ‚Wie sprechen wir von Werden?’ An einem Beispielsatz, der in seiner handlungsentbundenen Qualität aus einer Grammatik stammen könnte, nämlich „Ein ungebildeter Mensch wird ein gebildeter Mensch“ gewinnt Aristoteles eine Einsicht mit weitreichenden Konsequenzen: Allem Werdenden liegt etwas zugrunde, das sich im Werden durchhält. Diese Entdeckung des hypokeimenon, dieses zwischen substantia und subiectum schillernden Begriffes, markiert den Beginn abendländischer Naturwissenschaft. Die Methode, am Leitfaden der Sprache das eigene 1 Vgl. Émile Benveniste, Problems in General Linguistics, Coral Gables 1971.

Nationalsprachen versus lingua franca in der Wissenschaft

187

begriffliche Wissen zu explizieren, ist noch heute ein wichtiges wissenschaftliches Verfahren. Nicht umsonst hat die moderne Physik, an den Grenzen der Empirie, das ernsthaft-begriffliche Spiel des Gedankenexperimentes wiederentdeckt, mit dem einst die Fallgesetze, und damit ihr Anfang, begründet wurde. Wer Fragen stellen will, kann dies nur in einer Sprache tun. Auch wenn mathematische Kalküle oder bildgebende Verfahren hierauf scheinbar den Blick verstellen: Das Kalkül ist stets auf Sprachliches rückführbar; das Bild, das keine Frage beantwortet, ist wissenschaftlich wertlos. Mithin: Keine Wissenschaft ohne Sprache, und ohne Sprache keine Wissenschaft. Wissenschaft ist aber nicht nur sprachabhängig, sondern auch einzelsprachenabhängig, wie ich im Folgenden zu zeigen versuche. Dass Wissen­ schaft einzelsprachenabhängig sein soll, wissenschaftliche Erkenntnis also von der Sprache abhängig ist, in der man Wissenschaft betreibt, erscheint zunächst als absurd: Die Innenwinkelsumme eines Dreiecks in der euklidischen Ebene entspricht sprachunabhängig der Summe zweier rechter Winkel; physikalische Erhaltungssätze sind nicht an eine besondere Einzelsprache gebunden. Solche Beispiele, von denen man beliebig viele aufzählen könnte, werden gerne herangezogen, wenn es darum geht, die scheinbare Einzelsprachenunabhängigkeit des wissenschaftlichen Geschäfts zu verdeutlichen. Wissenschaft, so wird die Argumentation meistens geführt, hat es mit Wahrheiten zu tun, die einzelsprachenunabhängig sind.2 Eine solche Argumentation verkennt aber, dass Wissenschaft-Treiben nicht im Einsammeln objektiver Wahrheiten besteht, die sozusagen auf der Straße herumliegen. Das wissenschaftliche Geschäft ist eine kollektive Unternehmung, es besteht ganz wesentlich in einem gemeinsamen Ringen um Erkenntnis, es ist diskursiv, es hat die Form einer Debatte: „[…] jeder reale Weltbezug verlangt zur Kontrolle der Objektivität und Überwindung perspektivischer Regionalität oder Provinzialität die freie Kooperation mit anderen Personen, die Entprovinzialisierung der Regionalperspektive durch Perspektivenwechsel. Strenges Verstehen verlangt freie Sprachkompetenz.“3

2 Exemplarisch: Henry G. Widdowson, The Description of Scientific Language. In: Ders., Explorations in Applied Linguistics, Oxford 1979. 3 Pirmin Stekeler-Weithofer, Die Bedeutung der eigenen Sprache für das Denken. Zur Lage des Deutschen in der Philosophie. In: Wieland Eins, Helmut Glück, Sabine Pretscher (Hg.), Wissen schaffen – Wissen kommunizieren. Wissenschaftssprachen in Geschichte und Gegenwart, Wiesbaden 2011, 77.

188

Winfried Thielmann

Es ist nun gerade diese eristische Dimension4 von Wissenschaft, die dafür verantwortlich ist, dass beim Übergang vom Mittelalter zur Neuzeit das Lateinische, die „wissenschaftliche Universalsprache“ Westeuropas, zugunsten vormaliger Vernakulärsprachen wie Italienisch, Englisch, Französisch und schließlich auch Deutsch aufgegeben wurde. Die Wissenschaftler, die diesen Prozess vorantrieben, waren genau von derjenigen Art, der man am wenigsten unterstellen würde, dass sie sich, da ja scheinbar mit objektiven Gegebenheiten befasst, um Sprachliches scheren würden: Sie waren Naturwissenschaftler. Die frühen neuzeitlichen Naturwissenschaftler hatten an den Uni­ver­ si­täten noch eine im wesentlichen scholastische Ausbildung genossen. Der scholastische Wissenschaftstyp war autoritätsbasiert. Der Wissenschaftler richtete Fragen (quaestiones) an einen autoritativen Text und beantwortete sie mit Hilfe dieses Textes auf dem Wege logischer Explikation. Für diese Verfahren war das Lateinische der Scholastik sprachlich hervorragend ausgerüstet. Mit dem Beginn der modernen Naturwissenschaft wendet sich aber der Blick des Wissenschaftlers von den tradierten Texten ab und richtet sich auf die Wirklichkeit. Dies bringt neue sprachliche Anforderungen mit sich. Es geht nicht mehr darum, über Texte zu debattieren, sondern darum, andere davon zu überzeugen, was in der Wirklichkeit der Fall ist. An Galileis ‚Discorsi’ und Newtons ‚Opticks’ lässt sich deutlich zeigen: Diese Wissenschaftler haben das Lateinische aufgegeben, weil es – in seiner scholastischen Ausprägung – für die Erfordernisse des neuen, offenen Wissenschaftstyps, nämlich für das intersubjektive Durchsetzen neuer Erkenntnisse, nicht die erforderlichen sprachlichen Mittel mitbrachte. Hier­ für ein kleines Beispiel5: In den ‚Opticks’ verwendet Newton aus der englischen Gemeinsprache geschöpfte Formulierungen, mit denen er seine eigene Argumentation transparent macht und die Gedankengänge seiner Leser miteinbezieht: ‚may be considered’ und ‚therefore I have chosen’. In der lateinischen Übersetzung, die er später von den ‚Opticks’ noch anfertigen ließ, reduzieren sich diese Formulierungen auf ‚dici possit’ („kann gesagt werden“) und ‚malui’ („wollte lieber“). Der mentale Bezug von ‚consider’ ist hier völlig weg, und der 4 Cf. Konrad Ehlich, Deutsch als fremde Wissenschaftssprache. In: Jahrbuch Deutsch als Fremdsprache 19, München 1993, 13-42. 5 S. Winfried Thielmann, „...it seems that light is propagated in time...“ – zur Befreiung des wissenschaftlichen Erkenntnisprozesses durch die Vernakulärsprache Englisch. In: Konrad Ehlich, Dorothee Heller (Hg.), Die Wissenschaft und ihre Sprachen, Frankfurt am Main 2006, 297-320.

Nationalsprachen versus lingua franca in der Wissenschaft

189

begründete Argumentationsschritt ist auf die reine Präferenz reduziert. Noch gravierender ist eine andere Lösung für ‚consider’. Wo Newton schreibt: ‚mathematicians usually consider rays of light to be straight lines’, wurde übersetzt: ‚mathematici secum ... fingunt’, also ‚fingere’ (‚vorstellen’, aber eben auch ‚einbilden’, ‚erdichten’) statt ‚auffassen’. Hier wird die sprachliche Handlungsqualität, die Illokution, gravierend verändert: Aus der – neutralen – Wiedergabe einer Auffassung wird ein Vorwurf. An solchen Beispielen sieht man deutlich: Der Aufbruch in die europäischen Einzelsprachen und ihr sukzessiver Ausbau zu Wissenschaftssprachen erfolgte um der neuen Wissenschaft willen, die auf sprachliche Ressourcen angewiesen war, die nicht von einer kleinen Kaste, sondern von großen Sprach­gemeinschaften vorgehalten wurden. Das Lateinische in seiner scholastischen Varietät verhält sich zu diesen neuen Anforderungen bereits wie ein reduziertes Idiom, eine lingua franca, die genau für diejenigen Zweckbereiche keine Ressourcen vorhält, die für die moderne Wissenschaft zentral sind: die Zubereitung des neuen Wissens für die wissenschaftliche Auseinandersetzung in der Gemeinschaft der Wissenschaftler. Im Prozess der Herausbildung vormaliger Vernakulärsprachen als Wis­ sen­schafts­sprachen geschieht mit diesen Sprachen etwas: Sie werden für die Zwecke der Wissenschaft, für das wissenschaftliche Geschäft, sozusagen fit gemacht. Dabei erfahren gemeinsprachliche Ressourcen eine wissenschaftstypische In-die-Pflicht-Nahme, sie erhalten wissenschaftsspezifische Bedeutungen, wie man dies an dem Verb ‚consider’ oder dem Modal­ verb ‚may’ sieht. Ein solcher Prozess wird in der Sprachwissenschaft als Sprach­ausbau bezeichnet. Die Ressourcen, die für den wissenschaftlichen Sprachausbau genutzt werden, sind einzelsprachenspezifisch. Dies sieht man sehr deutlich, wenn man die Geschichte der englischen oder italienischen Wissenschaftssprache mit der deutschen vergleicht. Die frühen neuzeitlichen Naturwissenschaftler können praktisch die gesamte lateinische Terminologie in die romanischen Sprachen oder in das stark romanisch geprägte Englische übernehmen und den Sprachausbau zunächst vor allem in der eristischen Dimension betreiben. Im Deutschen ist dies hingegen nicht möglich. Daher setzt Christian Wolff, der Vater der deutschen Wissenschaftssprache, an der Terminologie an. Seiner Arbeit an der deutschen Sprache verdankt die Wissenschaft Ausdrücke wie ‚Begriff’ (für lat. ‚notio’), ‚Ausnahme’ (für lat. ‚exceptio’) oder ‚Wort-Erklärung’ (für lat. ‚definitio nominalis’).6 Ein kurzer Blick auf diese Ausdrücke zeigt, dass hier Wortbildungsverfahren zum 6 Ulrich Ricken, Zum Thema Christian Wolff und die Wissenschaftssprache der deutschen Aufklärung. In: Heinz L. Kretzenbacher, Harald Weinrich (Hg.), Linguistik der

190

Winfried Thielmann

Einsatz kommen, und zwar die Ableitung von Verben, die so genannte deverbale Ableitung (‚begreifen’ – Begriff; ‚ausnehmen’ – ‚Ausnahme’), sowie die Komposition (‚Wort-Erklärung’). Der Ausbau des Deutschen zur Wissenschaftssprache setzt also – anders als etwa im Englischen oder Italienischen – bei denjenigen sprachlichen Mitteln an, mit denen wissenschaftliche Gegenstände und Verfahren begrifflich benannt werden, also sprachlich verfügbar gemacht werden können. Hier wird nun die gnoseologische, die wissensfixierende und erkenntnisleitende Funktion von Sprache7 im Bereich des Wissenschaft-Treibens relevant. Mit Blick auf diese unterschiedlichen Sprachausbaugeschichten wäre es daher an der Zeit, in größerem Rahmen die Rolle wissenschaftlicher Mehr­ sprachigkeit bei der wissenschaftlichen Innovation zu untersuchen, d.h. mit Konrad Ehlichs Forderung nach einer Komparatistik der Wissenschafts­ sprachen Ernst zu machen. Es ist noch kaum etwas darüber bekannt, wie sich die Charakteristika spezifischer Sprachen auf das Wissenschaft-Treiben auswirken. Erste Befunde des Deutsch und Italienisch im Rahmen universitärer Lehre vergleichenden euroWiss-Projekts8 lassen auf erhebliche Differenzen schließen, die nicht nur die Verbalisierung von Wissen betreffen, sondern auch seinen Status, d.h. unter welchen Bedingungen etwas als wissenschaftliches Wissen gilt. Auch bezogen auf das Sprachenpaar Englisch-Deutsch liegen erst wenige Ergebnisse vor. In einer größeren Untersuchung9 habe ich mich diesbezüglich sprachvergleichend mit den Strukturen der wissenschaftlichen Einleitung, der Funktion der Konnektoren ‚weil’ und ‚because’ sowie den sprachlichen Mitteln auseinandergesetzt, die bei der Benennung des wissenschaftlichen Erkenntnisgegenstandes zum Einsatz kommen. Hierbei ist vor allem eines deutlich geworden: Die deutsche Wissen­ schafts­tradition, wie sie sich sprachlich manifestiert, ist stark auf das Ver­ Wissenschaftssprache (= Akademie der Wissenschaften zu Berlin. Forschungsbericht 10), Berlin 1995, 41-90. 7 Vgl. Konrad Ehlich, Medium Sprache. In: Ders. (Hg.), Sprache und sprachliches Handeln I, Pragmatik und Sprachtheorie, Berlin, New York 2007, 151-165. 8 In dem im Rahmen der „Deutsch plus“-Initiative geförderten Projekt „Linguistische Profilierung einer europäischen Wissenschaftsbildung“ (euroWiss) werden Gemeinsamkeiten und Differenzen deutscher und italienischer mündlicher Hochschulkommunikation in Lehrveranstaltungen an den Standorten Hamburg (Angelika Redder), Chemnitz (Winfried Thielmann), Bergamo (Dorothee Heller) und Modena (Antonie Hornung) untersucht.

9 Winfried Thielmann, Deutsche und englische Wissenschaftssprache im Vergleich: Hinführen – Verknüpfen – Benennen. Heidelberg 2009.

Nationalsprachen versus lingua franca in der Wissenschaft

191

stehen, die englische hingegen auf das Überzeugen ausgerichtet. Für deutsche wissenschaftliche Einleitungen ist demzufolge ein sprachliches Hand­ lungs­muster textartkonstitutiv geworden: das Begründen. In einer Folge von Begründungsschritten, die als solche textuell nicht ausgewiesen sind, stellen die Autoren Verstehen hinsichtlich der Notwendigkeit des neuen Wissens her. Englische Einleitungen sind demgegenüber wesentlich stärker vertextet; ihr Hauptzweck besteht in der Orientierung einer einschlägig vorinformierten Leserschaft auf das Neue hin. Der verstehensorientierte, hermeneutische deutsche Einleitungstyp ist daher, wenn er einfach im Englischen reproduziert wird, dysfunktional. Da der englische Leser nicht über das einschlägige Musterwissen verfügt, erscheinen ihm die deutschen Begründungsschritte als erratische Textblöcke. Ferner hatte sich herausgestellt, dass das Einbringen alternativen neuen Wissens in angelsächsische Diskussionszusammenhänge, also eines Wissens, das nicht im Zusammenhang der dort bereits vorhandenen Denkrichtungen und Schulen steht, höchster sprachlicher Virtuosität und der steten Motivierung am common sense bedarf – für deutsche Wissenschaftler, die den diffusen und in sich widersprüchlichen Wissens­ formen des gesunden Menschenverstandes von jeher misstrauen, ein nicht unerhebliches intellektuelles Verrenkungserfordernis. Die Konnektoren ‚weil’ und ‚because’ sind höchst unauffällige sprachliche Ausdrucksmittel, die sich syntaktisch praktisch gleich verhalten und auch dieselbe Bedeutung zu haben scheinen. Umso überraschender ist es zu sehen, dass ‚because’ in englischen wissenschaftlichen Aufsätzen nicht nur wesentlich häufiger vorkommt als ‚weil’ in deutschen, sondern dass mit diesen Mitteln auch zum Teil völlig verschiedene sprachliche Handlungen vollzogen werden. Mit ‚weil’ wird im Deutschen in der Regel dasjenige Wissen versprachlicht, das für die mit dem Hauptsatz vollzogene sprachliche Handlung entscheidungsrelevant geworden ist.10 In der Wissenschaft wird ‚weil’ demzufolge dafür genützt, die Argumentation an den zentralen Stellen auf diejenigen Schritte hin transparent zu machen, die für sie entscheidungsrelevant geworden sind – typischerweise erfolgt dies im Zusammenhang der Fassung eines argumentativen Ausgangspunktes, der Lancierung neuen Wissens oder 10 Nebensätze mit ‚weil’ treten typischerweise dort auf, wo der Sprecher die Entscheidungsprozesse, die zu der mit dem Hauptsatz vollzogenen sprachlichen Handlung, geführt haben, im Hinblick auf das für diese Prozesse relevant gewordene Wissen durchsichtig machen möchte. Mit dem Nebensatz wird mithin ein Wissen bezüglich der Vorgeschichte der mit dem Hauptsatz vollzogenen Sprechhandlung verbalisiert. Mit ‚Kausalität’ hat die Subjunktion hingegen nichts zu schaffen, vgl. Thielmann (wie Anm. 9), 97ff.

192

Winfried Thielmann

der Formulierung einer wissenschaftlichen Erkenntnis. Die Strittigkeit wissenschaftlichen Wissens wird so durch die Herstellung von Verstehen bearbeitet. Demgegenüber geschehen im Englischen mit ‚because’ z.B. oft Rückführungen auf anderen Wissenschaftlern unterstellte Beweggründe („Nevertheless, P adopts the solution, because it eliminates the need for tritonal accents“). Das neue Wissen wird – im Rahmen einer antagonistischen Konzeption des wissenschaftlichen Erkenntnisprozesses – in Profilierung am wissenschaftlichen Gegner durchgesetzt. Das Ziel ist es hierbei, den Leser zu überzeugen. Im Bereich der sprachlichen Mittel, die für die Benennung des wissenschaftlichen Erkenntnisgegenstands zum Einsatz kommen, zeigen sich die großen typologischen Gegensätze zwischen den beiden Sprachen besonders deutlich. Im Deutschen werden hierfür traditionell Abstrakta verwendet, die von Verben abgeleitet sind, also z.B. ‚Verlauf ’. Im Englischen, das nur eingeschränkt über Wortbildungsmittel verfügt, werden aus dem – sehr großen – Wortbestand möglichst „passende“ Ausdrücke ausgesucht, die nicht selten eine starke metaphorische Qualität aufweisen, z.B. ‚contour’ dort, wo im Deutschen ‚Verlauf ’ verwendet wird. Wird die contour-Metapher zur Benennung eines Erkenntnisgegenstandes eingesetzt, der sich zeitlich verändert (z.B. Intonation), wird hierbei nur noch der Blick auf den simultanen Aspekt, sozusagen den „Graphen“ der Entwicklung, zugelassen. Es lässt sich allgemein beobachten, dass es in diesem Zweckbereich im Englischen vergleichsweise zu wesentlich stärkeren ontologischen Vorab-Festlegungen kommt. Diese können, wenn die Metapher „zündet“, die Forschung befruchten; sie können aber auch Blickrichtungen auf den Gegenstand verstellen. Dies ist ein für wissenschaftliche Theoriebildung besonders zentraler Befund: Im Bereich der erkenntnisleitenden sprachlichen Mittel, die für die gnoseologische Funktion von Sprache (Ehlich) einschlägig sind, verhalten sich das Deutsche und das Englische weitgehend alternativ zueinander. Zusammenfassend: Mit der Herausbildung der empirischen Natur­ wissen­schaften verlagert sich der Blick des Wissenschaftlers von kanonischen Texten auf die Wirklichkeit. Es geht mithin nicht mehr darum, über Texte zu debattieren, sondern andere davon zu überzeugen, was in der Wirklichkeit der Fall ist. Für die intersubjektiven Verfahren des Umgangs mit neuem Wissen und seiner Durchsetzung stellte die scholastische Varietät des Lateinischen nicht die erforderlichen Ressourcen zur Verfügung, weswegen die Wissenschaftler sukzessive ihre Muttersprachen zu Wissenschaftssprachen ausbauten. Der Aufbruch in die Einzelsprachen und die Aufgabe der vormaligen Universalsprache ist mithin nicht als Skandalon,

Nationalsprachen versus lingua franca in der Wissenschaft

193

sondern als Motor der Innovation anzusehen. Um der Wissenschaft willen und derer, die sie tragen, büßt die Wissenschaft ihre Universalsprache ein. Der wissenschaftliche Sprachausbau setzt dabei an den Möglichkeiten an, die je spezifisch von den Einzelsprachen vorgehalten werden. So kommt es dazu, dass sich die Ressourcen einzelner Wissenschaftssprachen in Bezug auf spezifische wissenschaftliche Zweckbereiche alternativ zueinander verhalten können, wie das für das Deutsche und das Englische der Fall ist. Aber nicht nur das: Auch die Frage, wodurch etwas zu einer wissenschaftlichen Erkenntnis wird, ist sprach- und wissenschaftskulturabhängig, wie sich anhand der einander gegensätzlichen Verfahren des Begründens und des Überzeugens gezeigt hat.

Zur Nutzung des Englischen als lingua franca der Wissenschaft Die erste lingua franca ist, als rudimentäre Verkehrs- und Handelssprache, zugleich auch das erste bezeugte Pidgin. Es handelt sich um ein Idiom, in dem sich allenfalls elementare wirtschaftliche Zwecke verfolgen lassen. In der Wissenschaft sind aber die Zwecke, wie aus den vorangegangenen Bemerkungen hervorgegangen sein dürfte, erheblich komplexer. Wie Givón sehr deutlich gemacht hat, ist wissenschaftlicher Diskurs auch auf Englisch kein Schmusediskurs.11 Was für den Diskurs gilt, gilt noch in weitaus höherem Maß für wissenschaftliche Texte. Eristik ist nicht unabhängig von einer Sprachgemeinschaft zu haben, die auf gemeinsprachlicher Ebene die Differenzierungsmöglichkeiten bereitstellt und am Leben hält. Sie ist gesellschaftsspezifisch und erhält ihre Präzision von der Gesellschaft, die sie ausbildet und trägt. Der Unterschied zwischen der inneren und äußeren Seite der Wahrnehmung, wie er z.B. in ‚it seems’ und ‚it appears’ zum Ausdruck kommt und als Differenzierungsmöglichkeit von der anglophonen Sprachgemeinschaft sowie ihrer Wissenschaftler genutzt wird, darf bei 11 S. das zehnte Kapitel in Givóns Buch “Bio-Linguistics” “On the ontology of academic negativity” – insbesondere: “The facts surveyed above, when taken together, conspire to make the academic intellectual environment inherently hostile. One may be fully aware of this and struggle to cushion the impact – tone down the rhetoric, soften one’s verbal chops. But it is hard to gloss over the fact that the scientific discourse we owe each other, as colleagues in the same discipline, often demands the speech-act of negation, directed not at neutral subject matter but at the very heart of a colleagues being – his/her cherished mental constructs”, in Thomas Givón, Bio-Linguistics. The Santa Barbara Lectures, Amsterdam, Philadelphia 2002, 342.

194

Winfried Thielmann

der Nutzung des Englischen als lingua franca verschwimmen; wer jedoch den Unterschied als Wissenschaftler nicht kennt, disqualifiziert sich für die Teilnahme am anglophonen Wissenschaftsdiskurs. Mit anderen Worten: Das Englische ist – wie alle Sprachen – zwar als lingua franca möglich. In einer lingua franca ist aber keine Wissenschaft möglich. Mithin ist für deutsche Wissenschaftler eine Teilnahme am angelsächsischen Wissenschaftsdiskurs fast nur durch Initiation erreichbar. Es ist davon auszugehen, dass Wissen­ schaftler, die das Englische für „einfach“ und problemlos hantierbar erachten, Texte produzieren, die im angelsächsischen Sprachraum aufgrund ihrer Hermetik ebenso problemlos ignoriert werden können12. Das Argument „the language of good science is bad English“ führen diejenigen im Mund, denen nicht klar ist, wie viel Mühe angelsächsische Muttersprachler auch gerade in den Naturwissenschaften auf ihre Texte verwenden. Dies ist jedenfalls durch die Untersuchungen angelsächsischer Sprachwissenschaftler wie Swales, Bazerman sowie Berkenkotter und Huckin, um nur einige zu nennen, hervorragend dokumentiert.

Zur Vernichtung des Unternehmens Wissenschaft durch Einsprachigkeit Für deutsche Wissenschaftler kann das Englische mithin nicht mehr sein als ein Idiom, in dem sie – oft mehr schlecht als recht – neue Befunde mitteilen können. In dieser Sprache Neues zu fixieren, es gegen andere Auffassungen zu verteidigen, ist ihnen hingegen nur schwer möglich. Damit liegt die Hoheit, Neues in die Wissenschaft einzuführen und durchzusetzen, ganz wesentlich bei anglophonen Wissenschaftlern. Wird der deutschen (und der europäischen) Wissenschaft das Englische durchgehend verordnet, wird sich das angelsächsische Monopol, das bereits weitgehend bei den „international refereed Jounals“ und den Zitationsindizes besteht, auch zur Gänze auf die Theoriebildung ausdehnen. Denn es werden die englischen Muttersprachler sein, die die terminologische Münze prägen, die dann in Europa gilt. Ausgerechnet das konkurrenzielle Unternehmen Wissenschaft wird sich in Europa dann so abspielen, dass angelsächsische Theorien und Texte autoritativen Status besitzen und Wissenschaft hierzulande dann bestenfalls noch in der Imitation besteht. Damit sind diejenigen kanonischen Verhältnisse 12 Einem deutschen Leser mag es nicht einmal auffallen, wenn ein deutscher Autor ‚Fundament’ mit ‚fundament’ wiedergibt; ein englischer Leser fragt sich kopfschüttelnd, warum auf einmal vom ‚Gesäß’ die Rede ist.

Nationalsprachen versus lingua franca in der Wissenschaft

195

wieder hergestellt, denen man einst durch Mehrsprachigkeit entkommen ist: Scholastik statt Renaissance. Um zu zeigen, wohin konsequente Einsprachigkeit in der Wissenschaft führen könnte, ein Beispiel aus meinem eigenen Fach, der Sprachwissenschaft. In den 60er und vor allem 70er Jahren des 20. Jahrhunderts etablierte sich zunächst im angelsächsischen und dann auch im deutschen Raum (dort allerdings nicht ausschließlich) eine sprachwissenschaftliche Schule, die vor allem mit ihrem Begründer, Noam Chomsky, assoziiert ist. Für dessen Sicht auf Sprache ist etwas charakteristisch, was im Englischen sozusagen systematisch angelegt ist, nämlich die sprachliche Nicht-Differenzierung zwischen Gegenstandsbereich und wissenschaftlicher Forschung, wie dies durch die folgenden Adjektive veranschaulicht sei: ‚physical’ vs. ‚physisch’ und ‚physikalisch’; ‚linguistic’ vs. ‚sprachlich’ und ‚linguistisch’; ‚psychological’ vs. ‚psychisch’ und ‚psychologisch’; ‚chemical’ vs. ‚chemisch’ und ‚chemikalisch’. So kann es dazu kommen, dass für Chomsky Grammatik, die ja eigentlich wissenschaftliche Sprachbetrachtung ist, zur Möglichkeit schlechthin, ja zum Erzeugendensystem von Sprache mutiert, das als universell, d.h. in jedem Menschen auf neuronaler Ebene verankert zu denken ist. Hier mutiert mithin die Wissenschaft von der Sprache zur Bedingung von Sprache, eine Hypostasierung, die sich auch mitunter als „kognitive Revolution“ feiert. Der Sprachwissenschaftler Ludwig Jäger hat sich ausführlich damit befasst, wie sich im Rahmen dieser Revolution das Verhältnis zwischen Sprache und Denken gestaltet. Er resümiert: „Das kognitionstheoretische Konzept von Geist, Symbol, und Repräsentation steht in der Tradition einer Zeichenund Erkenntnistheorie, in der alle Denkgewinne wieder aufgegeben sind, die bereits für die Vernunftkritik Kants, vor allem aber für die Sprach- und Zeichenphilosophie Hamanns, Herders, Humboldts und Hegels charakteristisch sind und die in nicht unerheblichem Maße durch die Erkenntnisse der modernen Biologie und Neurowissenschaften bestätigt werden.“13 Wir haben es hier mit der meines Erachtens wohlfundierten Einschätzung eines auf Deutsch schreibenden Sprachwissenschaftlers zu tun. Auch wenn man dessen Einschätzung nicht teilt – an ihr werden bestimmte Aspekte deutlich, die die Sprachenfrage in den Wissenschaften betreffen.

13 Ludwig Jäger, Die Linguistik des Innern. Historische Anmerkungen zu den zeichen- und erkenntnistheioretischen Grundlagen der kognitivistischen Sprachwissenschaft. In: Ludwig Jäger, Bernd Schwitalla (Hg.), Germanistik in der Mediengesellschaft, München 1994, 318, Hvg. i. O.

196

Winfried Thielmann

1. Jäger kritisiert Chomsky von der Warte einer deutschen und deutschsprachigen zeichen- und erkenntnistheoretischen Tradition aus. 2. Damit diese Kritik überhaupt möglich ist, muss sich der Kritisierende auf diese Tradition beziehen können. Solche einfachen Beobachtungen hören auf, Selbstverständlichkeiten zu sein, wenn das Englische nicht einfach nur als Wissenschaftssprache, sondern auch zusammen mit seinen Institutionen, also „international refereed journals“, Zitatenindizes etc. anderssprachigen Wissenschaftstraditionen verordnet wird. Da wird dann plötzlich keine anderssprachige Literatur mehr zugelassen, wie wir dies auch mehrfach auf dieser Tagung gehört haben, und selbst der übersetzende Bezug auf nicht-englischsprachige Literatur ausgebremst.14 Denkt man dies weiter, so ist man rasch bei einer Wissenschaftsdiktatur US-amerikanischer Prägung, die ihre Theorien, Termini und Traditionen weltweit durchsetzt und die Voraussetzungen dafür schafft, dass eine externe, das heißt anderen (und eben auch anderssprachigen) Traditionen sich verdankende Kritik nicht mehr möglich ist. Das ist zwar gut für diejenigen, die am wissenschaftlichen Geschäft verdienen, aber das wissenschaftliche Geschäft, das sich aus der Differenz speist, ist damit beseitigt – und seine anderssprachig verfassten Erkenntnis- und Denkgewinne auch. Aus deutscher Perspektive: Dass man sich auf internationalem Parkett zur Kommunikation wissenschaftlicher Erkenntnisse einer Sprache bedient, in der die kontinentalphilosophische Entwicklung ab dem späten 18. Jahrhundert nicht ernsthaft sprachausbauend mitvollzogen wurde (‚Erkenntnistheorie’ ist nicht ‚theory of knowledge’; ‚Anschauung’ nicht ‚intuition’), mag sicher unter bestimmten Aspekten dennoch sinnvoll sein. Dass man aber über die wissenschaftlichen Institutionen (Wissenschaftsförderorganisationen wie die Deutsche Forschungsgemeinschaft (DFG), den Deutschen Akademischen Austauschdienst (DAD), das Bundesministerium für Bildung und Forschung (BMBF) anglophone Theorien und Traditionen durchdrückt, kann nicht hingenommen werden. Hätten wir vor zwanzig, dreißig Jahren hierzulande schon solche Verhältnisse gehabt, wie sie heute bereits in etlichen Disziplinen gang und gäbe sind, wäre ich wohl ein Sprachwissenschaftler generativistischer Prägung, der sich aus Mangel an externen Reibungspunkten wohl auch folgender Auffassung bezüglich des Verhältnisses von Sprache und Kommunikation angeschlossen hätte: „Entweder, so scheint es, müssen wir 14 Mein Kollege Christian Fandrych berichtet, dass einer Wissenschaftlerin, die ihn in einem ins Englische zu übertragenden Beitrag zitiert hatte, empfohlen wurde, das Zitat zu streichen, da es sich nur schwer übersetzen lasse.

Nationalsprachen versus lingua franca in der Wissenschaft

197

den Begriff ‚Kommunikation’ jeden empirischen Gehalts entkleiden, oder wir müssen die Ansicht verwerfen, dass Kommunikation ein Zweck der Sprache ist.“15 Ich hätte wahrscheinlich syntaktische Bäumchendiagramme gemalt und wäre aufgrund der Inexistenz einer Funktionalen Pragmatik, eines u.a. auch durch Kant, Hamann, Herder, Humboldt und Hegel informierten sprachwissenschaftlichen Ansatzes, nie darauf gekommen, Wissen­schafts­ kommmunikation zu untersuchen. Und selbst wenn ich dies getan hätte, wäre ich wahrscheinlich nicht darauf gekommen, dass es in der – dann ja schon obsolet gewordenen – deutschen Wissenschaftskommunikation jemals um das Begründen gegangen sei. Denn diese deverbale Ableitung hat kein englisches Pendant.

Fazit Wissenschaft ist seit ihrem Beginn eine sprachabhängige Unternehmung, die ihre Fragen sprachlich formuliert und ihre Ergebnisse sprachlich fixiert. Wissenschaftssprache ist demzufolge eine Varietät, die durch die wissenschaftstypische Nutzung der von einer spezifischen Einzelsprache vorgehaltenen Möglichkeiten für wissenschaftliche Zwecke entsteht. Wissenschaftsgeschichtlich ist zu beobachten, dass das Lateinische, die Sprache der europäischen Scholastik, in dem Moment von frühen Naturwissenschaftlern aufgegeben wurde, als es darum ging, Debatten nicht um kanonische Texte zu führen, sondern intersubjektiv die Strittigkeit neuen, an der Wirklichkeit aufgewiesenen Wissens zu bearbeiten. Mehrsprachigkeit ist ein Motor der europäischen Wissenschaftsgeschichte gewesen, indem die Wissenschaftler in ihren jeweiligen Muttersprachen für das wissenschaftliche Geschäft Ressourcen vorfanden, die gesamtgesellschaftlich vorgehalten werden. Hierbei erfuhren etliche europäische Sprachen den Ausbau zu Wissenschaftssprachen, wobei sich diese Ausbaugeschichten stark unterscheiden – so konnte man z.B. in den romanischen Sprachen und im Englischen die lateinische Terminologie übernehmen; im Deutschen musste erst eine Terminologie geschaffen werden. Dies bedeutet, dass in den europäischen Wissenschaftssprachen unterschiedliche Ressourcen sowohl für die sprachliche Anleitung wissenschaftlicher Erkenntnis als auch für ihre argumentative Durchsetzung vorgehalten sind. Dieser – der Wissenschaft förderliche – Zustand wird gegenwärtig dadurch unterlaufen, dass zunehmend 15 Noam Chomsky, Regeln und Repräsentationen [1980, dt. 1981] zitiert nach Ludger Hoffmann (Hg.), Sprachwissenschaft. Ein Reader, Berlin 1996, 92.

198

Winfried Thielmann

eine ausgebaute Wissenschaftssprache, und dies auch noch zusammen mit den an diese gebundenen Institutionen und Ratifizierungsinstanzen, dem gesamten europäischen Raum nicht zuletzt auch von den Institutionen der Wissenschaftsförderung verordnet wird. Damit werden nicht nur die Erkenntnisse und Denkgewinne, die in den verschiedensprachigen Wissenschaftstraditionen angelegt sind, preisgegeben, sondern es wird das innovationsstiftende Potential, das in den durch jahrhundertelange gesellschaftliche Arbeit ausgebauten Wissenschaftssprachen steckt, leichtfertig verschenkt. Die Teilnahme am angelsächsischen Wissenschaftsdiskurs erfordert es, das Englische nicht als lingua franca, sondern als ausgebaute Wissenschafts­ sprache zu beherrschen. In einer lingua franca ist keine Wissenschaft möglich. Hieraus die von Ammon auf dieser Tagung mehrfach vorgetragene Forderung abzuleiten, Studierende sofort auf Englisch zu sozialisieren, führt, wie ich zu zeigen versucht habe, nicht nur zur Präponderanz vor allem US-amerikanischer Theorien, sondern zu konkreten Wettbewerbsnachteilen, indem die fehlende Differenz im gnoseologischen und eristischen Bereich wie auch im Bereich der – einzelsprachengebundenen – Denktraditionen zur Imitation verdammt. Das ist wie im Schach: Schwarz verliert, wenn es nur die Züge von Weiß kopiert. Die deutsche Linguistik wäre um Jahrzehnte zurückgeworfen worden, wenn sie sich weitgehend der Generativistik verschrieben hätte. Vielmehr kann der europäische Weg nur darin bestehen, die einzelnen ausgebauten Wissenschaftssprachen in der Lehre beizubehalten und ihre Beibehaltung in der Forschung dort zu fördern, wo es um die Erkennt­ nisgewinne und ihre Diskussion (und noch nicht um ihre internationale Kommunikation) geht. Dies würde erfordern, dass europäische Institutionen und Entscheidungsträger sich nicht zu Agenten eines Wissen­schaftsraumes machen, dessen hegemoniales Agieren schon längst augenfällig ist, sondern – und auch dies gehört zum konkurrenziellen Unternehmen Wissenschaft – die längst fälligen konkurrierenden Insti­tu­tionen der Wissenschaftsförderung, -dokumentation und -beurteilung schaffen.