Fehler [1 ed.] 9783737009980, 9783847109983

135 107 5MB

German Pages [262] Year 2019

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Fehler [1 ed.]
 9783737009980, 9783847109983

Citation preview

Diagonal Zeitschrift der Universität Siegen

Jahrgang 2019

Herausgegeben vom Rektor der Universität Siegen

Gero Hoch / Hildegard Schröteler-von Brandt / Angela Schwarz / Volker Stein (Hg.)

Fehler

Mit 21 Abbildungen

V& R unipress

Inhalt

Gero Hoch / Hildegard Schröteler-von Brandt / Angela Schwarz / Volker Stein Keine Angst vor Fehlern! Eine Einführung . . . . . . . . . . . . . . . . .

7

Ulrich Seidenberg Fehler, Fehlerkulturen und Qualität . . . . . . . . . . . . . . . . . . . . .

11

Nicolas Mues / Karoline Braun / Carolin Uebach / Lisa Völkel Der Umgang mit Fehlern in Organisationen – eine fallbasierte Analyse

.

37

Arnd Wiedemann / Patrick Hertrampf Fehler im Anlegerschutz – Der Fall »Wolf of Wall Street« im Spiegel unserer Zeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

61

Marius Albers Lügen als Fehler in der (sprachlichen) Kommunikation?

. . . . . . . . .

79

Jannik Müller Fingierte Fehler. Simulierte Wirklichkeiten, technische Störungen und inszenierte Outtakes in den Computeranimationsfilmen von Pixar . . . .

93

Jörg M. Wills Leonardo da Vinci: Fehler oder Absicht? . . . . . . . . . . . . . . . . . . 107 Thorsten Raasch Numerische Fehleranalyse . . . . . . . . . . . . . . . . . . . . . . . . . . 115 Markus Kötter Fremdsprachliche Fehler in Schule und Hochschule am Beispiel des Englischen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125

6

Inhalt

Sonja Hensel Der Rechtschreibfehler – zwischen »Deppenapostroph« und konstruktiver Fehlschreibung . . . . . . . . . . . . . . . . . . . . . . . . 143 Pia Winkel »Es heißt gegenüber dem Rathaus, nicht gegenüber des Rathauses« – Der Genitiv nach gegenüber : Fehler oder Fortschritt? . . . . . . . . . . . 155 Carolin Baumann / Viktjria Dabjczi Kein Fehler! – Grammatische Zweifelsfälle als Ausdruck sprachlicher Kompetenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169 Gustav Bergmann Fähler. Ein Versuch über Fehler, Irrwege, Makel und Scheitern – und was mensch daraus lernen kann . . . . . . . . . . . . . . . . . . . . . . . . . 191 Astrid Bremer Neue urbane Quartiere – Ausdruck einer verfehlten Wachstumspolitik? . 211 Jörg Potthast Fehlermeldungen und Elitenversagen am Beispiel des Öffentlichen Verkehrs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 Monika Jarosch Vom Fehler zur Abweichung – zum Generationenwechsel in der Beschreibung der Genauigkeit . . . . . . . . . . . . . . . . . . . . . . . . 245

Gero Hoch / Hildegard Schröteler-von Brandt / Angela Schwarz / Volker Stein*

Keine Angst vor Fehlern! Eine Einführung

Fehlern kommt eine auch aus wissenschaftlicher Perspektive herausragende Rolle im menschlichen Schaffen zu, denn wie würden wir ohne Fehler wissen, woran wir zu arbeiten haben oder was verbessert werden muss (George 2007, S. 154). Fehler sind daher als Auslöser von Lernprozessen erwünscht. Andererseits markieren sie eine Zielverfehlung und können unerwünscht oder gar gefährlich sein. Insofern kann der Fehlerbegriff vielseitig interpretiert und bewertet werden: von der falschen Handlung in Bezug auf das angestrebte Ziel bis zum erwünschten Effekt zur schrittweisen Erreichung desselben im Sinne eines Lernens aus Fehlern. Das eine gilt als eher negativ und zufällig im Sinne eines Fehlgriffs oder Lapsus und ist unter Umständen mit einer Dummheit konnotiert, das andere eher als positiv und systematisch, idealerweise als ein Lernprozess im Sinne von Versuch und Irrtum. Die Vernunft gebietet, Fehler klein zu halten, also sogenannte kapitale Fehler mit entsprechenden Folgen zu vermeiden, mindestens aber aus Fehlern zu lernen, an ihnen zu wachsen, sich weiterzuentwickeln. Fehler gehören offensichtlich zum Leben – und damit auch zum Forschungsleben. Forschung kann von Fehlern nicht nur betroffen sein, sondern sie macht Fehlerarten, Fehleranalyse, Fehlervermeidung und Fehlerbereinigung in ihren Fachgebieten aktiv zum Forschungsgegenstand und nutzt auftretende Fehler kreativ zur Innovation.

* Univ.-Prof. Dr. Gero Hoch, Universität Siegen, Fakultät III (Wirtschaftswissenschaften – Wirtschaftsinformatik – Wirtschaftsrecht), vormals Lehrstuhl für Unternehmensrechnung. Univ.-Prof. Dr.-Ing. Hildegard Schröteler-von Brandt, Universität Siegen, Fakultät II (Bildung – Architektur – Künste), Department Architektur, Stadtplanung und Planungsgeschichte. Univ.-Prof. Dr. Angela Schwarz, Universität Siegen, Fakultät I (Philosophische Fakultät), Geschichte – Neuere und Neueste Geschichte. Univ.-Prof. Dr. Volker Stein, Universität Siegen, Fakultät III (Wirtschaftswissenschaften – Wirtschaftsinformatik – Wirtschaftsrecht), Lehrstuhl für Betriebswirtschaftslehre, insb. Personalmanagement und Organisation.

8

Gero Hoch / Hildegard Schröteler-von Brandt / Angela Schwarz / Volker Stein

Greift man sich exemplarisch ein Gebiet kapitaler Fehler heraus, so landet man in der Betriebswirtschaftslehre schnell bei der Insolvenz: Unternehmen können scheitern, nicht selten nach langem, erfolgreichem Wirken am Markt. Interessant und lehrreich wird die Suche nach den Gründen hierfür. Aus tausenden von Insolvenzakten lassen sich empirisch Erkenntnisse ableiten. Ein wichtiges Ergebnis dabei ist – und das gilt sicher nicht nur in der Insolvenzforschung –, dass es (fast) immer mehrere Fehler sind, die ein Scheitern bedingen: Man identifiziert drei bis vier Ursachen (Heuer/Hils/Richter 2006, S. 11). Als besonders häufige Insolvenzgründe wurden starke strategische, führungsbezogene Mängel wie das starre Festhalten an veralteten Konzepten sowie das Fehlen von Controlling, Kostenrechnung und Unternehmensplanung ermittelt, zudem Finanzierungsfehler wie mangelndes Eigenkapital und fehlende Rücklagen sowie ein autoritärer Führungsstil nebst Kommunikationsfehlern (Staab 2015). Was man hieraus lernt? Sicherlich zunächst, dass Fehler, so bekannt sie auch sein mögen, immer wieder begangen werden. Dies geschieht in der Regel nicht aus Fahrlässigkeit, sondern mit der Eigenwahrnehmung der Handelnden, alles richtig machen zu wollen und dann auch richtig zu machen. Darüber hinaus aber auch, dass man aus eigenen sowie von anderen begangenen Fehlern lernen kann (z. B. Mandl 2017) – hoffentlich! Dies führt zum einen zu der Frage, warum eine systematische Fehlersuche in Bezug auf das eigene Verhalten so schwierig ist, dass es häufig ganz unterbleibt. Zum anderen sensibilisiert dies für die Tatsache, dass der subjektiven Einschätzung von »falsch« und »richtig« eine enorme Bedeutung zukommt. Denn der Definition des Fehlerhaften wird stets ein Normenkatalog zugrunde gelegt, der allerdings keineswegs statisch ist, nicht einmal in der Ethik. Was in einer historischen Situation als falsch galt, konnte in einer anderen als richtig aufgefasst werden: Fehler haben also eine zeitliche Dimension. So können sich zum Beispiel Planungsprojekte, die mit einem großen Enthusiasmus und entsprechend den herrschenden gesellschaftlichen Leitbildern entwickelt wurden, im Nachhinein als Fehler erweisen. Ein Beispiel hierfür ist die im 20. Jahrhundert im Zuge des Fordismus propagierte rationalisierte und industrialisierte Wohnungsbauerstellung (Ronneburger 1999; Bernhardt/Vonau 2009): Im historischen Kontext wurden die Projekte als eine Antwort auf die drängende Lösung der Wohnungsfrage angesehen, heutzutage stellen sie sich als Fehler mit entsprechenden Vermarktungsproblemen dar. In der historischen Betrachtung liegt daher in dem Bemühen um Rekonstruktion und Verständnis einer vergangenen Sachlage ein Schwerpunkt auf der jeweiligen Definition von Fehler und damit auf den Wertmaßstäben der historischen Akteurinnen und Akteure in ihrer jeweiligen Situation, während die Beurteilung des Geschehens aus Sicht späterer Historikergenerationen und ihrer aktuellen Zuordungnen von falsch und richtig in der wissenschaftlichen Analyse

Keine Angst vor Fehlern! Eine Einführung

9

keine Rolle spielen sollte. In der populären Betrachtung, wie aktuelle Rankingshows und Webseiten mit den größten Irrtümern zeigen, kommt es in erster Line darauf an, die folgenschwersten und sensationellsten Fehler zum Gegenstand zu machen (z. B. Romanillos 2015). Demungeachtet war und ist bis heute in der Geschichte und der Geschichtsschreibung von Fehlern als diskursleitender Kategorie praktisch zu jeder Zeit und überall die Rede. So fassten im späten 15. Jahrhundert die meisten Menschen die Existenz eines amerikanischen Kontinents als eine fehlerhafte Annahme auf, bis Christoph Kolumbus, unter der fehlerhaften Annahme übrigens, ein völlig anderes Land zu erreichen, mit seinen drei Schiffen auf die dem Doppelkontinent vorgelagerten Inseln stieß und die systematische Erforschung und Aneignung der Region initiierte. Ganz nebenbei: Die bis heute verbreitete Behauptung, die Menschen jener Epoche hätten sich die Erde irrigerweise noch als eine Scheibe vorgestellt, zählt zu den hartnäckigsten Irrtümern der Geschichte. An dieser Stelle wird offensichtlich, dass man in das sprichwörtliche Wespennest »Fehler« nur an wenigen Stellen und ganz harmlos hineinstechen muss, um bereits eine Vielzahl von Fragen zu provozieren, von denen einige für die Betroffenen durchaus schmerzhaft werden können – sowohl, wenn sie gestellt werden, als auch, wenn sie beantwortet werden. Es liegt daher nahe, dem Umgang mit Fehlern in diesem Band aus vielen unterschiedlichen Fachdisziplinen und individuellen Perspektiven heraus Aufmerksamkeit zu widmen. Es wäre verwunderlich, wenn man nicht über die Fächergrenzen hinweg voneinander lernen könnte, welche Risiken und welche Potenziale Fehler aufweisen, vielleicht sogar mehr noch, wann etwas aus welchen Gründen als Fehler definiert wurde und wird und wann eben nicht. Und es ist gerade der Anspruch der Siegener Universitäts-Jahreszeitschrift DIAGONAL, den interdisziplinären Wissenstransfer anzuregen. Sie kann hierfür auf den reichhaltigen Erfahrungsschatz ihrer Forscherinnen und Forscher unterschiedlicher Couleur zurückgreifen. Das sich ergebende Spektrum des Fehlerbegriffs sowie der Erkenntnissinteressen bezüglich Fehlern ist breit. So haben Fehler in Kunst und Ästhetik aufgrund schwer objektivierbarer Urteile einen besonderen forschungsbezogenen Reiz. Im Miteinander von Individuen, Gruppen und Gesellschaften mit ihren verbundenen Eigendynamiken stellen Fehler eine Herausforderung für damit Befasste dar. Dynamische Kontexte werfen in den Wirtschaftswissenschaften Fragen zu Fehlentscheidungen oder der Sinnhaftigkeit von Null-FehlerStrategien auf, ebenso in den Ingenieurwissenschaften in Bezug auf Konstruktionsfehler und in den Politikwissenschaften im Hinblick auf politische Fehlurteile. In den Rechtswissenschaften sind Verfahrensfehler schon eindeutiger identifizierbar, und in der Mathematik können Rundungsfehler tolerierte Abweichungen darstellen.

10

Gero Hoch / Hildegard Schröteler-von Brandt / Angela Schwarz / Volker Stein

Als weites Feld erscheint die Fehleranalyse, bei der man nicht nur im Rahmen einer Abweichungsanalyse mögliche Fehler erster und zweiter Art unterscheiden kann, sondern auch Planungs-, Realisations- und Auswertungsfehler kennt. Besonders konfrontiert wird die Öffentlichkeit mit wenig reversiblen Planungsund Baufehlern, die über lange Zeiträume hinweg ihre umweltprägende Wirkung zeigen. Überall da, wo es um menschliches Handeln geht, spielt auch immer der Irrtum, das Fehlerhafte eine Rolle. Unter den vielfältigen literarischen Umsetzungen findet sich etwa die augenzwinkernde Bemerkung von Oscar Wilde, dass Erfahrung der Name sei, den man seinen Fehlern gebe. Lernen aus Fehlern scheint also eine zentrale Rolle zu spielen. Henry Ford formulierte in diesem Sinne »Suche nicht nach Fehlern, suche nach Lösungen« (aus George 2007, S. 83). Der römische Philosoph Seneca hat es auf den Punkt gebracht: »Irren ist menschlich, im Fehler aber beharren teuflisch«. Den Herausgeberinnen und Herausgebern ist bewusst, dass sich dieser 40. Band von DIAGONAL in der Tradition der Publikation nur auf ausgewählte Problemfelder der Thematik beschränken kann. Dennoch bieten die Beiträge Anregungen vielerlei Art und insofern erscheint das Versprechen von Lesegenuss nicht übertrieben.

Literatur Bernhardt, Christoph/Vonau, Elsa (2009): Zwischen Fordismus und Sozialreform. Rationalisierungsstrategien im deutschen und französischen Wohnungsbau 1900–1933. Zeithistorische Forschungen/Studies in Contemporary History 6 (2), S. 230–254. George, Norman (2007): Die perfekten englischen Zitate von Jane Austen bis Oscar Wilde. Wiesbaden. Heuer, Jan/Hils, Sylvia/Richter, Anika (2006): Insolvenzursachen und Insolvenzprophylaxe. Ergebnisse einer Befragung von Geschäftsführern insolventer Unternehmen im Auftrag der Seghorn Inkasso GmbH. https://www.seghorn.de/fileadmin/img/Publika tionen/Studie_Insolvenzursachen_01.pdf (zuletzt abgerufen am 05. 08. 2019). Mandl, Christoph (2017): Vom Fehler zum Erfolg. Effektives Failure Management für Innovation und Corporate Entrepreneurship. Wiesbaden. Prause, Gerhard (1998): Niemand hat Kolumbus ausgelacht. Populäre Irrtümer der Geschichte richtiggestellt. München. Romanillos, Pere (2015): Die großen Irrtümer der Menschheit. Darmstadt. Ronneburger, Klaus (1999): Biomacht und Hygiene. Normalisierung im fordistischen Wohnungsbau. In: Prigge, Walter (Hrsg.), Ernst Neufert. Normierte Baukultur im 20. Jahrhundert. Frankfurt am Main, S. 432–465. Staab, Jürgen (2015): Die 7 häufigsten Insolvenzgründe erkennen und vermeiden. Wiesbaden.

Ulrich Seidenberg*

Fehler, Fehlerkulturen und Qualität

1.

Intuitive Annäherung an den Fehlerbegriff

Menschen machen oder begehen Fehler. Insofern wird mit dem Begriff »Fehler« das Ergebnis eines Tuns oder dieses Tun selbst bezeichnet, wobei ein Unterlassen als Fehlen eines adäquaten Tuns (z. B. Vergessen) eingeschlossen ist. Der Ausdruck »begehen« ist hier, worauf auch seine Verwendung im Zusammenhang mit Straftaten hindeutet, negativ konnotiert. Menschliche Fehler scheinen demnach an negativ zu bewertende Handlungen oder Entscheidungen gebunden zu sein. Da das Merkmal der »Negativität« andere menschliche Handlungen, wie Fälschungen oder Sabotage, ebenfalls aufweisen, muss das Fehlermachen noch etwas anderes auszeichnen: die fehlende Absicht (so schon Weimer 1925, S. 1), den negativ bewerteten Effekt herbeizuführen. Objekte materieller Art, zum Beispiel technische Geräte und ihre Bestandteile, und immaterieller Art wie etwa Software können Fehler haben, besitzen oder aufweisen. (Die Unterscheidung zwischen Fehler machen und Fehler haben ist bereits bei Weimer 1925, S. 1, zu finden.) Der Sprachgebrauch bildet ab, dass sich der Fehler vom handelnden Subjekt und den Begleitumständen gelöst hat und zu einer Eigenschaft des Objekts wird. »Fehlerhaft« oder »fehlerbehaftet« können somit zwar eine menschliche Leistung und der davon beeinträchtigte Gegenstand sein, nicht jedoch die Person, die die Fehlleistung erbracht und dadurch den Objektfehler verursacht hat. Dass die Zuordnung eines Fehlers zu den beiden Kategorien »machen« und »haben« nicht immer eindeutig ist, demonstriert der Fehlercode »Error 404 Not Found«, den jede Internet-Nutzerin und jeder Internet-Nutzer kennt. Habe ich selbst etwas falsch gemacht, mich etwa beim manuellen Eingeben der URL-Zeile vertippt, oder ist die angeforderte Seite nach dem letzten Update nicht wieder * Univ.-Prof. Dr. Ulrich Seidenberg, Universität Siegen, Fakultät III (Wirtschaftswissenschaften – Wirtschaftsinformatik – Wirtschaftsrecht), Professur für Betriebswirtschaftslehre, insb. Produktions- und Logistikmanagement.

12

Ulrich Seidenberg

veröffentlicht worden (hat die Website einen Fehler)? Im Einzelfall, etwa bei Flugzeugunfällen, kann die Identifikation der Fehlerursache(n) – Crew (»machen«), Technik (»haben«), Kombination (»machen und haben«) – aufgrund der Komplexität der Situation extrem schwierig sein. Dekker (2014, S. 73, 75) hält die Unterscheidung von menschlichem und technischen Versagen grundsätzlich für nicht haltbar, da die Grenzen zwischen beiden Kategorien bei intensiver Ursachenanalyse seiner Meinung nach verschwimmen. Im Zusammenhang mit Krankheiten oder negativ bewerteten Charaktereigenschaften von Menschen wird ebenfalls von Fehlern gesprochen. Jemand hat zum Beispiel einen angeborenen Herzfehler oder einen »Charakterfehler«. In diesen Fällen stehen von normativen Vorstellungen abweichende Eigenschaften des Menschen im Vordergrund, das heißt der Mensch wird hier nicht als Fehlersubjekt, sondern -objekt gesehen. Einem Arzt hingegen mag ein »Kunstfehler« unterlaufen, wobei dieser Begriff insinuiert, dass der Fehler sich quasi verselbständigt hat (was wohl zugleich die Verantwortung des Arztes für den Fehler relativiert). Von Fehlern, die unterlaufen, ist es nicht weit zu Fehlern, die auftreten oder einfach passieren. Handelnde und verantwortliche Menschen oder Institutionen sind scheinbar nicht identifizierbar, der Fehler selbst scheint die Rolle des handelnden Subjekts eingenommen zu haben. Die metaphorische Sprechweise vom Fehler, der passiert, verstellt allerdings leicht den Blick dafür, dass ein Fehler eine oder mehrere Ursachen haben muss, die, verfolgt man sie zurück bis zum Beginn der Ursache-Wirkungs-Kette, in der Regel auf einer Kombination menschlicher Unzulänglichkeiten basieren (zumeist nicht einer einzigen Person und auch nicht unbedingt in Form eines Fehlers). Lassen sich Fehler abstellen oder korrigieren, verlieren sie ihren negativen Charakter, indem sie neutralisiert werden. Darüber hinaus eröffnen Fehler auf der Basis von Ursachenforschung die Chance zu Lern- und Verbesserungsprozessen und erweisen sich damit sogar als Motor des Fortschritts, indem Fehler nachhaltig vermieden werden können. Mit dem Fehler eng verwandt ist der Irrtum, in dem sich ein Mensch befinden kann (Weimer 1925, S. 2). Dabei handelt es sich um einen mentalen Zustand, »ein Fürwahrhalten des Falschen, das bedingt ist durch die Unkenntnis gewisser Tatsachen, die für die richtige Erkenntnis von wesentlicher Bedeutung sind« (Weimer 1925, S. 5). Nicht nur fehlendes Wissen (auf fehlende Informationen stellt z. B. auch Wehner 2018, S. 51, ab), sondern auch – in Bezug auf einen Zweck, etwa eine Aufgabenstellung – inadäquates Fakten- oder Methodenwissen bilden die Grundlage für Irrtümer (Grams 2001, S. 135, 137). Allgemein liegen Irrtümern Informationsmängel zugrunde: »Irrtümer drohen, wenn mentales Modell und Wirklichkeit nicht zusammenpassen« (Grams 2001, S. 102).

Fehler, Fehlerkulturen und Qualität

13

Aus einem Irrtum resultieren nicht zwingend Fehler, sondern nur dann, wenn der Irrtum handlungsleitend wirkt. Daraus folgt, dass die Existenz von Irrtümern keine hinreichende Bedingung für das Begehen von Fehlern ist. So kann jemand an die Realisierbarkeit eines Perpetuum mobile glauben, ohne dass dies irgendwelche negativen Konsequenzen hätte. Sollte sich diese Person jedoch entscheiden, finanzielle Mittel für ein Projekt zu opfern mit dem Ziel, die Funktionsfähigkeit eines Perpetuum mobile nachzuweisen, dann führt der Irrtum zu einer Fehlentscheidung. In einem solchen Fall geht der Irrtum dem Fehler nicht nur zeitlich voraus, sondern verursacht diesen oder begünstigt ihn zumindest (fehlerbewirkender oder vorlaufender Irrtum). Da Fehler auch andere Ursachen als Irrtümer haben können, stellt ein Irrtum keine notwendige Bedingung für das Auftreten von Fehlern dar. Blinkt beispielsweise ein Autofahrer oder eine Autofahrerin links und biegt nach rechts ab, so kann die Fehlhandlung auf Unachtsamkeit, Überforderung, Ablenkung oder Ähnlichem beruhen. Es kommt vor, dass wir uns in Bezug auf einen begangenen Fehler irren und absolut davon überzeugt sind, alles richtig gemacht zu haben. In diesen Fällen folgt ein Irrtum zeitlich dem Fehler und beinhaltet eine unzutreffende Information über den Fehler, zum Beispiel eine kontrafaktische, unser Handeln nicht selten rechtfertigende Interpretation (fehlerexplizierender oder nachlaufender Irrtum). Gelingt es uns selbst und auch mit der Hilfe anderer nicht, einen fehlerbewirkenden Irrtum aufzuklären, stellt dieser eine systematische Fehlerquelle dar, und die Wahrscheinlichkeit für Fehlerwiederholungen ist hoch. Umgekehrt eröffnet die Analyse wiederholt auftretender gleicher oder gleichartiger Fehler die Möglichkeit, den zugrunde liegenden Irrtum zu beseitigen.

2.

Fehlerdefinition und -klassifikation im Unternehmenskontext

Im Folgenden wird der Fehlerbegriff für die Anwendung in Unternehmen präzisiert und operationalisiert, wobei der Schwerpunkt auf der Entwicklung und Herstellung materieller und immaterieller Produkte liegt. Ein einheitliches Begriffsverständnis kann in diesem Zusammenhang nicht erwartet werden, da in Bezug auf Produktionsprozesse verschiedene Sichtweisen auf Fehler von Bedeutung sind. Es gehört zu den Managementaufgaben, technische, ergonomische, statistische, betriebswirtschaftliche, juristische und psychologische Fehlerperspektiven zu integrieren. Drei fehlerbezogene Themenkreise stehen in den folgenden Ausführungen im Vordergrund: erstens handlungsbezogene Fehler, das heißt Fehlhandlungen des arbeitenden Menschen, zweitens objektbezogene Fehler und drittens der Einfluss handlungs- und objektbezogener Fehler auf die Produktqualität. Da Fehl-

14

Ulrich Seidenberg

handlungen im Unternehmen in einem organisatorischen und sozio-technischen Umfeld stattfinden, müsste eine Betrachtung, die auf die Ebene des handelnden Mitarbeiters beschränkt bleibt, zu kurz greifen. Insbesondere die fehlerbegünstigenden Bedingungen im Zusammenwirken von Mensch und Maschine (Mensch-Maschine-Interaktion) stehen hier im Fokus.

2.1

Handlungsbezogene Fehler: Fehlhandlungen des arbeitenden Menschen

Produktionsprozesse vollziehen sich in Produktionssystemen (z. B. Blohm et al. 2016, S. 27). Arbeitssysteme, auch als Mensch-Maschine-Systeme oder soziotechnische Systeme bezeichnet, sind Produktionssysteme, die dadurch gekennzeichnet sind, dass neben den erforderlichen Betriebsmitteln mindestens ein arbeitender Mensch als Element vorhanden ist (z. B. Blohm et al. 2016, S. 117–118). Zum Input eines Arbeitssystems gehören neben den Arbeitsobjekten insbesondere Informationen über die Arbeitsaufgabe, die deren Inhalt (»Was?«), die Hilfsmittel (»Womit?«), den Ablauf (»Wie?«) und den zeitlichen Rahmen (»Wann«? und »Wie lange?«) definieren. Der erforderliche Umfang, Detaillierungs- und Konkretisierungsgrad einer Aufgabenbeschreibung können in Abhängigkeit von der Art der Aufgabe und dem Qualifikationsniveau stark variieren. Die materiellen und/oder immateriellen Arbeitsergebnisse bilden den erwünschten Output und damit auch das Sachziel des Arbeitssystems. Die Wahrscheinlichkeit, dass die Transformation des Inputs in Output fehlerlos abläuft, ist stets kleiner als 1. Lfd. Definition Nr. 1 Arbeitsfehler : »Menschliche Handlung, die eine gesetzte Akzeptanzgrenze überschreitet.«

Quelle VDI 4006-1 2015, S. 3

2

»Fehler sind eine Abweichung von einem als richtig angesehenen Hofinger 2012, Verhalten oder von einem gewünschten Handlungsziel, das der S. 37 Handelnde eigentlich hätte ausführen bzw. erreichen können.«

3

»Ein Fehler in unserem Sinne ist wertfrei definiert als eine nicht Rall et al. 2001, beabsichtigte, oft auch nicht erwartete negative Reaktion auf S. 324 eine bewusst, [sic] oder unbewusst ausgeführte, [sic] oder unterlassene Maßnahme.«

4

»Errors in the execution of prescribed instructions are analysed Herry 1988, in terms of deviations between the operator’s action logic and the S. 239 action logic of the designer of the instructions.«

Tab. 1: Fehlerdefinitionen im Zusammenhang mit menschlicher Arbeit

Fehler, Fehlerkulturen und Qualität

15

Auf der Basis der in Tab. 1 vorgestellten Fehlerdefinitionen soll unter einem Arbeitsfehler ein Verhalten (Handeln, Entscheiden, Unterlassen) des arbeitenden Menschen verstanden werden, das die Erreichung der Ziele, die mit dem Arbeitssystem verfolgt werden, unbeabsichtigt beeinträchtigt. Zu der hier verwendeten Fehlerdefinition seien folgende Erläuterungen gegeben: – Ohne die implizite oder explizite Festlegung eines Ziels, anhand dessen die menschlichen Handlungen bewertet werden können, kann nicht von einem Fehler gesprochen werden. Dem arbeitenden Menschen muss mit Beginn der Arbeitsausführung bekannt sein, was (als Arbeitsergebnis und/oder -ablauf etwa in Form einer Vorgabe) von ihm erwartet wird. Nur eine normative Festlegung, das heißt eine Definition des »Richtigen« ex ante als Referenz, erlaubt die Feststellung von etwas Falschem ex post. Fehlerdefinitionen, die auf eine Abweichung rekurrieren (siehe stellvertretend Nr. 2 und 4 in Tab. 1), beinhalten zumindest implizit eine normative Setzung: das »Wovon« der Abweichung. – Nicht ausdrücklich in der hier verwendeten Definition erwähnt, weil für selbstverständlich erachtet, ist folgende Voraussetzung für das Vorliegen eines Fehlers: Die gesetzten Ziele müssen unter den gegebenen Umständen (Qualifikation der Arbeitsperson, verfügbare Hilfsmittel etc.) erreichbar sein. Im Fall einer nicht ausführbaren Aufgabe (beispielsweise aufgrund einer zu geringen Vorgabezeit) kann nicht von einem Fehler gesprochen werden: »Sollen impliziert Können« (zur Diskussion dieses Satzes vgl. Albert 1991, S. 91–92). – Stehen einzelne Ziele des Arbeitssystems in einem Konkurrenzverhältnis, existiert etwa ein Trade-off zwischen Schnelligkeit und Sicherheit, so bedarf es einer klaren Anweisung, wie ein solcher Zielkonflikt von der Arbeitsperson aufzulösen ist. Anderenfalls ist jede von der ausführenden Person gewählte Lösung gleich richtig oder gleich falsch. Eine nachträgliche Interpretation als »Fehler«, die unter Verwendung zusätzlicher Informationen zustande kommt, die dem Arbeitenden in der betrachteten Situation nicht zur Verfügung standen, ist weder fair noch sachgerecht (Dekker 2014, S. 30–31). – Bei komplexen, innovativen Aufgaben, das heißt schlecht strukturierten Problemen (z. B. Klein/Scholl 2011, S. 54–56), kann bereits die Zieldefinition unscharf sein, Lösungswege müssen möglicherweise erst gesucht werden und das Resultat ist im Einzelnen nicht prognostizierbar, sodass die Formulierung des »Richtigen« Schwierigkeiten bereitet (ähnlich Hofinger 2012, S. 54). Dieses »Soll« stellt jedoch eine logische Voraussetzung für die Qualifizierung des »Ist« als »Fehler« oder »kein Fehler« dar.

16

Ulrich Seidenberg

– Eingeschlossen sind nur Handlungen, die in unbeabsichtigter Weise die Erreichung der dem Arbeitssystem vorgegebenen Ziele beeinträchtigen, sei es, dass die Handlung unbewusst fehlerhaft ist (bei der Maschinenbedienung dreht die Arbeitsperson ein Stellrad versehentlich nach rechts, obwohl ihr klar war, dass es nach links hätte gedreht werden müssen), sei es, dass die Handlung aufgrund eines fehlerhaften mentalen Modells bewusst so vorgenommen wurde, wie sie vorgenommen wurde (die Arbeitsperson dreht das Stellrad nach rechts, weil sie irrtümlich glaubt, rechts sei die richtige Richtung). Kriminelle Handlungen (Sabotage, Diebstahl, Unterschlagung etc.) und absichtliche Regelverstöße (von 10 Checklistenpunkten werden bewusst nur 8 abgearbeitet) stellen keine Fehler dar (Hagen 2016, S. 316), sondern Probleme, denen mit anderen Maßnahmen als den hier zu besprechenden begegnet werden muss (Rall et al. 2001, S. 324). Mit Abb. 1 wird ein deskriptives Überblicksmodell der Fehlerentstehung und -wirkung vorgestellt. Es besteht aus den vier Elementen (I) Fehlerbeeinflussende Faktoren, (II) der aus den Einflussfaktoren resultierenden Fehlerhäufigkeit/ -wahrscheinlichkeit, (III) den tatsächlich aufgetretenen Fehlern (Fehlerklassifikation) und (IV) den sich ergebenden Fehlerfolgen, von denen hier die Auswirkungen auf das Arbeitsergebnis, insbesondere die Produktqualität, interessieren.

Abb. 1: Deskriptives Modell der Fehlerentstehung und -wirkung

2.1.1 Fehlerbeeinflussende Faktoren Die Kenntnis der Faktoren, die menschliche Fehler begünstigen, ist eine wesentliche Voraussetzung für die Fehlerprophylaxe. Entsprechend den Elementen Mensch und Betriebsmittel (Maschine) des Arbeitssystems lassen sich (1) menschen- und (2) maschinenbezogene Einflussfaktoren unterscheiden. Die Beziehungen (3) zwischen (3.1) Mensch und Maschine einerseits und (3.2) zwischen den involvierten Menschen andererseits (soziale Beziehungen wie die Kommunikation innerhalb des Arbeitssystems sowie über die Systemgrenzen hinweg) bilden eine weitere Gruppe von Einflussfaktoren. Des Weiteren können (4) von der Arbeitsaufgabe und (5) von der Umgebung des Arbeitssystems fehlerbeeinflussende Wirkungen ausgehen. Im Folgenden werden zu den genannten Gruppen von Einflussfaktoren exemplarisch Faktoren aufgezählt, die

Fehler, Fehlerkulturen und Qualität

17

die Wahrscheinlichkeit für menschliche Fehler erhöhen (vgl. hierzu etwa Hofinger 2012, S. 55–56; VDI 4006–3 2013, S. 18). Alle Aussagen gelten tendenziell und ceteris paribus. (1) Menschenbezogene Einflussfaktoren: Aus psychologischer Sicht diskutieren Rascher/Schröder (2017, S. 181–188) fehlerhafte Wahrnehmung (inadäquate Informationsselektion), falsche Schlussfolgerungen (Denkfehler, siehe hierzu auch Dobelli 2011), sozialen Druck (Groupthink), Selbstüberschätzung, Sorglosigkeit und Unterschätzung von Komplexität (»Patentlösungen«) als personenbedingte Gründe für Fehler. Zu den Einflussfaktoren aus der Sphäre des arbeitenden Menschen zählen ferner Ermüdung, negative Lerneffekte (»Entübung«), erhöhte Arbeitsbeanspruchung, geringe Motivation, aus dem Privat- in das Berufsleben hineinwirkende Probleme, Drogen-, Alkohol- und Medikamenteneinfluss, Krankheiten, ein schlechter Ernährungszustand, Zielverschiebung zu persönlichen Zielen, die in Konkurrenz zu den Zielen des Arbeitssystems treten (z. B. »Abkürzungen«, um die gewonnene Zeit als Pause zu nutzen). Insbesondere das letztgenannte Beispiel deutet an, dass im Bereich der personenbezogenen Einflüsse eine Grauzone existiert, die eine scharfe Trennung zwischen Regelverstoß und Fehler erschwert oder sogar verhindert (Rascher/Schröder 2017, S. 189). (2) Maschinenbezogene Einflussfaktoren: Beispiele für betriebsmittelbedingte fehlerbegünstigende Faktoren sind veraltete Maschinen oder solche, die sich in einem schlechten Wartungszustand befinden. Daraus resultieren eine geringe Zuverlässigkeit, die Zeitdruck erzeugt, sowie die Schwierigkeit, maschinelle Parameter korrekt einzustellen und konstant zu halten. Hohe Komplexität von Anlagen infolge Verkettung begünstigt die Ausbreitung von Fehlern. Für die Arbeitsaufgabe unzureichendes oder ungeeignetes Werkzeug beeinträchtigt die Qualität des Arbeitsergebnisses unmittelbar. (3) Beziehungen: (3.1) Mensch-Maschine-Beziehung: Im Zusammenspiel zwischen Mensch und Maschine wirken eine eingeschränkte Handhabbarkeit, Zugänglichkeit und Bedienbarkeit fehlertreibend. Sind die physischen (Bedien- und Stellteile) und informationellen Schnittstellen (Anzeigen) nicht menschengerecht gestaltet und angeordnet, so sind Bedienund Ablesefehler programmiert. Ein Overload an Informationen und die Vernachlässigung der Softwareergonomie begünstigen Fehler direkt und indirekt über eine verstärkte Ermüdung (siehe Punkt 1). Fehlende Hilfen und Warnungen im Fall sich abzeichnender Fehlbedienungen wirken ebenfalls fehlerbegünstigend. Im Zuge der Digitalisierung und des verstärkten Einsatzes von Assistenzsystemen und cyber-physischen Produktionssystemen muss die Aufgaben- und Rollenverteilung zwischen Mensch und Maschine eindeutig geklärt

18

Ulrich Seidenberg

sein (Ansari/Seidenberg 2016; Ansari et al. 2018). Ist ein MenschMaschine-System beispielsweise so konzipiert, dass dem Menschen eine Überwachungsfunktion in der Weise zukommt, dass er eingreifen muss, wenn die Maschine in außergewöhnlichen Situationen ihre normale, automatisierte Funktion nicht erfüllen kann, der Mensch dem automatisierten Ablauf aber bedingungslos vertraut und möglicherweise bereits verlernt hat, adäquat zu reagieren, dann ist das Versagen des Mensch-Maschine-Systems wahrscheinlich (Sträter 2019, S. 165). (3.2) Mensch-Mensch-Beziehung: Im Bereich der sozialen Interaktion spielen etwa Unklarheiten in der Auftragserteilung, nicht-adressatengerechte Anweisungen oder Kommunikationskanäle (z. B. Pflicht zur Verschriftlichung, obwohl Personen damit Schwierigkeiten haben), mangelnde Arbeitsplanung oder fehlende Kommunikationswege für Rückfragen eine fehlerbegünstigende Rolle. (4) Arbeitsaufgabe: Je komplexer und schwieriger eine Aufgabe ist, desto größer ist die Fehleranfälligkeit. Besonders fehlerträchtig ist ein knappes Zeitbudget, womit das Verhältnis von benötigter und zur Verfügung stehender Zeit bezeichnet wird (VDI 4006–1 2015, S. 20). Um eine signifikante Reduktion der Fehlerwahrscheinlichkeit zu erreichen, sollte das Zeitbudget den Wert 0,5 nicht überschreiten (VDI 4006–1 2015, S. 15, 20). Monotonie bei Überwachungsaufgaben stellt wegen der eingeschränkten Vigilanz eine weitere Fehlerquelle dar. Das Tragen von Schutzkleidung kann die Arbeitsschwierigkeit und somit die Fehlerhäufigkeit erhöhen (VDI 4006–1 2015, S. 25). Angaben für Fehlerwahrscheinlichkeiten bei der Aufgabenerfüllung bewegen sich in einem Bereich von einem Promille (für einfache und routinemäßig durchgeführte Aufgaben bei geringem Stress, ausreichender Zeit in gewohnten Situationen ohne Zielkonflikte) bis zu annähernd 1 bei Vorliegen von Kombinationen besonders ungünstiger Bedingungen (VDI 4006–2 2017, S. 30). (5) Umgebung des Arbeitssystems: Zu den Fehlertreibern in der Arbeitsumgebung gehören hohe Temperaturen und eine hohe Luftfeuchtigkeit sowie Lärm, die einzeln, aber insbesondere auch in Kombination die Konzentration der Arbeitenden herabsetzen. Eine für die Arbeitsaufgabe unzureichende Beleuchtung, Arbeitszeiten in den Minima des Tageszyklus der physiologischen Leistungsbereitschaft und die mangelnde Umsetzung anthropometrischer Erkenntnisse bei der Arbeitsplatzgestaltung wirken ebenfalls fehlertreibend.

19

Fehler, Fehlerkulturen und Qualität

2.1.2 Fehlerwahrscheinlichkeit Zur Quantifizierung der Wahrscheinlichkeit einer menschlichen Fehlhandlung dient die Größe HEP (Human Error Probability), die als Verhältnis der beobachteten Fehleranzahl n zur Gesamtzahl N an Fehlermöglichkeiten definiert ist: HEP = n/N (VDI 4006–1 2015, S. 10; VDI 4006–2 2017, S. 28). Die menschliche Zuverlässigkeit HRP (Human Reliability Probability) ergibt sich als Komplement der Fehlerwahrscheinlichkeit zu 1: HRP = 1 – HEP (Hofinger 2012, S. 57; VDI 4006–1 2015, S. 11). Problematisch an diesen Kennzahlen ist die unvollständige Kenntnis der Fehlermöglichkeiten. Zur Abschätzung der Größen steht ein umfangreiches Methodenrepertoire zur Verfügung (VDI 4006–2 2017, S. 31–38). 2.1.3 Fehlerklassifikation Fehlerklassifikationen dienen dazu, eine Antwort auf die Frage zu geben, welche Fehler, die sich gedanklich jeweils einer Fehlerkategorie zuordnen lassen, auftreten können oder tatsächlich aufgetreten sind. Damit unterstützen sie sowohl die Fehlerprophylaxe als auch die Fehlerdiagnose. Tab. 2 präsentiert ein (nicht überschneidungsfreies) Klassifikationsschema mit kurzen Erläuterungen. Fehlermerkmal Wiederholungscharakteristik (Unterscheidung setzt ein vom Einzelfall abstrahierendes Fehlerverständnis voraus, d. h. die Beantwortung der Frage, wann zwei Fehler als »gleich« anzusehen sind.)

Fehlerausprägungen Erstmalig auftretender Fehler

Verfügbarkeit eines Erklärungsmodells (Bubb 2005, S. 361)

Systematische Fehler sind Fehler, für die ein Erklärungsmodell existiert; sie stellen eine Art programmiertes Versagen dar, basieren auf einer nicht als fehlerhaft erkannten Voraussetzung, z. B. einem Irrtum oder einer fehlerhaften Anweisung, Regel etc., sind tendenziell gut prognostizier- und korrigierbar (z. B. Rall et al. 2001, S. 324)

Wiederholungsfehler sollten bei erfolgreichem Lernen aus Fehlern vermieden werden können.

Unsystematische Fehler sind Fehler, für die aktuell kein Erklärungsmodell existiert; sie sind oder erscheinen zufallsbestimmt, kaum prognostizierbar und kaum vermeidbar. Gegenmaßnahmen setzen an der Abschwächung der Fehlerfolgen (Bubb 2005, S. 361; Hofinger 2012, S. 49) an (Redundanzen, fehlertolerante Techniken, Poka Yoke etc.).

20

Ulrich Seidenberg

(Fortsetzung) Fehlermerkmal Organisatorische Ebene der Fehlerentstehung (Reason 2000, S. 769; 2008, S. 173)

Fehlerausprägungen Latente Fehler/Fehlerbedingungen (Systemebene) resultieren aus Entscheidungen und Festlegungen des Managements (z. B. Anreiz- und Organisationssystem) und erzeugen fehlerprovozierende Bedingungen am Arbeitsplatz (etwa durch Zeitdruck, ungeeignete Betriebsmittel, unzureichende Arbeitsunterweisung) oder bewirken anhaltende Lücken in der Fehlerabwehr (etwa durch nicht ausführbare Abläufe).

Mentale Ebene der Fehlerentstehung entsprechend dem GEMS (Generic Error Modelling System) (Reason 2008, S. 61–68)

Skill-based Level: Flüchtigkeitsfehler, Schnitzer, Ausrutscher wie Wahrnehmungs-, Erinnerungs-, Aufmerksamkeitsfehler bei der Ausführung von Automatismen und Routinen

Rule-based Level: Fehler (z. B. Vertauschen einer Reihenfolge, Auslassen eines Schritts) beim Abarbeiten von regelbasierten Abläufen, Algorithmen etc.

Aktive Fehler (Individualebene) sind Handlungen oder Unterlassungen der ausführend Tätigen, die am Ende der Entstehungskette als Konsequenz und in Kombination mit latenten Fehlern auftreten und einen unmittelbaren nicht erwünschten Effekt erzeugen. (Beispiel: Werker an einer Maschine spannt ein Werkstück falsch ein.) Knowledge-based Level: Irrtumsbasierte Fehler, Fehler aufgrund von Wissensdefiziten, Denkfehler, Fehler bei der Bildung von Modellen und der Interpretation von Daten …

Tab. 2: Klassifikation handlungsbezogener Fehler

Das in Tab. 2 erwähnte Generic Error Modelling System (GEMS) von Reason (2008, S. 61–68) verknüpft die drei Ebenen Skill-based, Rule-based und Knowledge-based zu einem dynamischen Modell (Abb. 2). Im Folgenden sei das Modell kurz erläutert, jedoch, um Wiederholungen zu vermeiden, ohne die bereits in Tab. 2 dargestellten ebenbezogenen Fehler. Auf der fähigkeitsbasierten Ebene (Skill-based Level) erledigen Menschen Routineaufgaben in eingeübter Art und Weise, gegebenenfalls begleitet von

Fehler, Fehlerkulturen und Qualität

21

Abb. 2: Generic Error Modelling System (GEMS) von Reason (2008, S. 64, aus dem Englischen übersetzt)

gelegentlichen Prüfungen, »ob alles nach Plan läuft.« Die Maschinenbedienung in einer industriellen Fertigung etwa kann auf diese Weise in großer Wiederholhäufigkeit erfolgreich ablaufen, bis eine Störung (z. B. ein Werkzeugbruch) auftritt und damit die Aufmerksamkeit der Arbeitsperson gefordert ist. Gewissermaßen wird jetzt ein Problem in das Bewusstsein gehoben und damit die regelbasierte Ebene (Rule-based Level) erreicht, um eine Lösung entsprechend einem bekannten Muster zu suchen, zu implementieren (Austausch des defekten

22

Ulrich Seidenberg

Werkzeugs) und den Erfolg der Maßnahme zu überprüfen. Lässt sich das Problem nicht auf Anhieb lösen, können weitere regelbasierte Versuche unternommen werden, sodass sich eine unter Umständen mehrfach zu durchlaufende Rückkopplungsschleife ergibt (Reason 2008, S. 66–67). Der Übergang zur wissensbasierten Ebene (Knowledge-based Level) erfolgt, wenn die Arbeitsperson erkennt, dass für das Problem keine Standardlösung verfügbar ist (z. B. weil kein gewöhnlicher Werkzeugbruch aufgetreten ist, sondern ein umfangreicher Schaden an der Maschine). In diesem Fall ist ein anspruchsvolleres methodisches Vorgehen unter Verwendung von Analogien, Modellen und Hypothesen gefordert (Reason 2008, S. 67).

2.2

Objektbezogene Fehler

Während in Abschnitt 2.1 menschliche Fehlhandlungen und ihre Entstehungsbedingungen (das »Fehlermachen«) im Vordergrund standen, liegt der Fokus der folgenden Ausführungen auf Fehlern, die Objekte aufweisen können (das »Fehlerhaben«). Zu den Objekten gehören die Betriebsmittel (z. B. Maschinen) als Elemente des Produktionssystems, dessen Input (von dem hier nur die Materialien angesprochen werden), die Prozesse innerhalb des Produktionssystems sowie dessen Output, das heißt die Produktbestandteile und Produkte. Mit Bezug auf Betriebsmittel kann ein Fehler als »Zustand eines Objekts, in dem es unfähig ist, eine geforderte Funktion zu erfüllen« (DIN EN 13306 2018, S. 31), verstanden werden (planmäßige Maßnahmen wie Wartungen ausgenommen). Damit stellt wie schon der handlungsbezogene Fehlerbegriff auch dieser auf eine normative Festlegung (»geforderte Funktion«) ab, unterscheidet sich jedoch durch sein statisches Verständnis (»Zustand«) von jenem. Ein latenter (verdeckter) Fehler ist ein »Fehler, der noch nicht offensichtlich geworden ist« (DIN EN 13306 2018, S. 31). Maßnahmen zur Fehlererkennung, -ortung und Ursachenfeststellung werden in diesem Zusammenhang unter dem Begriff »Fehlerdiagnose« subsummiert (DIN EN 13306 2018, S. 43). Zentral für das Betriebsmittelmanagement, insbesondere das Instandhaltungsmanagement, ist der zum Fehler komplementäre Begriff der Zuverlässigkeit, unter dem die »Fähigkeit eines Objekts, eine geforderte Funktion unter gegebenen Bedingungen für eine gegebene Zeitspanne zu erfüllen« (DIN EN 13306 2018, S. 15) verstanden wird. Diese Auffassung war auch grundlegend für den unter 2.1 erläuterten, per Analogiebildung entstandenen handlungsbezogenen Zuverlässigkeitsbegriff. Betriebsmittelfehler können durch menschliche Fehlhandlungen wie Konstruktions- und Herstellungsfehler oder Bedienungsfehler (mit-)verursacht sein. Der Versuch, menschliche Fehler durch Automatisierung zu eliminieren, verlagert zwar den Einfluss des Menschen auf vorgelagerte Wertschöpfungs-

Fehler, Fehlerkulturen und Qualität

23

stufen oder ein höheres Qualifikationsniveau (z. B. in Richtung Software-Programmierung oder Überwachung), kann ihn aber nicht ausschalten (Sträter 2019, S. 146). »By taking away the easy parts of his task, automation can make the difficult parts of a human operator’s task more difficult.« (Bainbridge 1988, S. 271) Zu ergänzen ist, dass sich seit der Entstehung des Zitats das, was als wenig anspruchsvoller Teil der Aufgabe gilt, infolge immer leistungsfähigerer lernfähiger Algorithmen zunehmend in Richtung »schwierig« verschiebt, sodass Fragen der optimalen Arbeitsteilung zwischen Mensch und Maschine (Ansari/ Seidenberg 2016; Ansari et al. 2018) unter Fehler- und Zuverlässigkeitsgesichtspunkten eine steigende Bedeutung erhalten. Auf den Inputfaktor Material lässt sich die Fehlerdefinition des internationalen Normenwerks ISO 9000/9001 zum Qualitätsmanagement anwenden. Dort wird ein Fehler als Nichterfüllung einer Anforderung (Nichtkonformität) verstanden (DIN EN ISO 9000 2015, S. 40), wobei Nichtkonformität als »die bevorzugte Benennung« und Fehler als »zulässige Benennung« (DIN EN ISO 9001 2015, S. 2) deklariert werden. Auch Nichtkonformität und Konformität erfordern eine normative Setzung, die explizit mit der »Anforderung« gegeben ist. Selbst bei primitiven Zukaufteilen wie einer Unterlegscheibe sind in der Regel mehrere Anforderungen von Bedeutung, die einzeln spezifiziert sein müssen (z. B. Dicke, Innen- und Außendurchmesser innerhalb ebenfalls festzulegender Toleranzen). Normalerweise ist eine Scheibe fehlerhaft, wenn mindestens eine Anforderung nicht erfüllt ist. Ein einzelnes fehlerhaftes Teil macht jedoch nicht unbedingt ein ganzes Beschaffungslos fehlerhaft; für dieses sind ebenfalls Anforderungen zu vereinbaren, etwa eine Obergrenze für den Anteil nichtkonformer Scheiben in dem Los. Mit anderen Worten: Anforderungen an das Material sind spezifisch in Abhängigkeit von den gewählten Systemgrenzen (hier : Einzelteil vs. Los) zu formulieren. Fehlerhaftes Material kann im Wege von Sonderfreigaben noch zugelassen werden oder ist – insbesondere im Fall von geringwertigem Material – vom Empfänger zu entsorgen oder an den Lieferanten zurückzusenden. Prozesse nehmen im Input-Output-Modell der Produktion eine Brückenfunktion wahr. Sie werden durch handlungsbezogene menschliche Fehler sowie objektbezogene Fehler von Material und Maschine beeinträchtigt und beeinflussen ihrerseits das Prozessergebnis, das heißt die Produkte im Fall der direkt wertschöpfenden Prozesse. Fehler können darüber hinaus in den indirekt zur Wertschöpfung beitragenden Dienstleistungsprozessen, etwa der Logistik (Beschaffung, Lagerung, Transport) oder des Qualitätswesens (Prüfen und Messen), auftreten. Die Fehlerquote bei fehlerentdeckenden Prüfprozessen wird mit der Größe Durchschlupf = 1 – Kontrollwirkungsgrad abgebildet, wobei der Kontrollwirkungsgrad als das prozentuale Verhältnis von ausgelesenen fehlerhaften

24

Ulrich Seidenberg

Einheiten zu vorhandenen fehlerhaften Einheiten definiert ist (z. B. Kamiske/ Brauer 2011, S. 117). Fehlerhafte Produktionsprozesse sind durch nicht eingehaltene Prozessparameter gekennzeichnet, in den verfahrenstechnischen Industrien insbesondere die Größen Druck und Temperatur. In der Massen- und Großserienproduktion der fertigungstechnischen Industrien findet die statistische Prozesskontrolle (besser : Prozessregelung) Anwendung (zu Details z. B. Kamiske/Brauer 2011, S. 281–290; die folgenden Ausführungen sind eng an Blohm et al. 2016, S. 228– 231 angelehnt). Prozessparameter und/oder qualitätsbeeinflussende Produktparameter, die in detaillierten Prüfvorschriften festgelegt sind, werden laufend, das heißt in definierten Zeitabständen, – möglichst automatisch – erfasst. Ergibt der Vergleich mit entsprechenden Sollwerten Abweichungen, die ein tolerables Maß überschreiten, sind Maßnahmen einzuleiten (z. B. eine Neujustierung des Prozesses), um die Konformität des Produktionsprozesses durch Angleichung der Ist- an die Vorgabewerte zu wahren. Wichtige Eigenschaften von Produktionsprozessen sind deren Stabilität und Fähigkeit. Ein Prozess wird als stabil (beherrscht) bezeichnet, wenn sich seine Parameter im Zeitablauf nur in zulässigen Grenzen ändern. Für einen der Normalverteilung unterliegenden Prozess bedeutet dies, dass sich Mittelwert und Streuungsmaß (Standardabweichung) jeweils in einer definierten Bandbreite bewegen müssen. Ein Prozess ist fähig, wenn die Messwerte des relevanten Parameters mit einer festzulegenden Wahrscheinlichkeit innerhalb der Toleranzgrenzen schwanken. Die Prozessfähigkeit (process capability) eines beherrschten Prozesses lässt sich mit Hilfe des Prozessfähigkeitsindexes cp quantifizieren. Der cp-Wert setzt die Toleranz zur Prozessstreuung ins Verhältnis, wobei für letztere üblicherweise das Sechsfache der Standardabweichung herangezogen wird. Produktfehler werden im folgenden Abschnitt im Zusammenhang mit ihrer Wirkung auf die Qualität diskutiert.

3.

Fehlereinfluss auf die Qualität

Die bereits zitierte internationale Norm EN ISO 9000 definiert den Begriff Qualität als »Grad, indem ein Satz inhärenter Merkmale eines Objekts Anforderungen erfüllt« (DIN EN ISO 9000 2015, S. 39). Zum Verständnis des Inhalts dieser Definition seien die nachfolgenden Erläuterungen gegeben (Blohm et al. 2016, S. 224–225; Seidenberg/Ansari 2017, S. 162–163). Das Adjektiv »inhärent« soll klarstellen, dass die Merkmale nicht als dem betreffenden Objekt zugeordnet, wie etwa der Preis eines Produkts, sondern als diesem innewohnend aufgefasst werden. Die Merkmalsausprägungen können je nach Art des Merkmals objektiv messbar oder subjektiv beurteilbar sein. Qua-

Fehler, Fehlerkulturen und Qualität

25

lität ist ferner eine mehrdimensionale Größe (Satz von Merkmalen); selbst einfachste Massenprodukte wie Unterlegscheiben (s. o.) weisen mehr als nur ein qualitätsbestimmendes Merkmal auf. Eine Aussage über die Qualität eines Objekts bezieht sich stets auf Anforderungen, was erstens die große inhaltliche Nähe zur Fehler- und Zuverlässigkeitsdefinition (s. o. [Nicht-]Konformität) demonstriert und zweitens auch hier die Bezugnahme auf ein normatives Element erfordert. Drittens ist Qualität nichts Absolutes, sondern »ein relationaler Begriff« (Zollondz 2011, S. 174). Da der Grad der Übereinstimmung zwischen vorhandenen und geforderten Merkmalsausprägungen die Qualität bestimmt, ist Qualität keine Eigenschaft des betreffenden Objekts an sich, sondern eine Relation zwischen dem Objekt und den gestellten Anforderungen. Während ein Objekt in dichotomer Weise einen Fehler hat oder nicht hat, ist Qualität regelmäßig kein bivalentes Phänomen (mit den Ausprägungen »vorhanden« oder »nicht vorhanden«), sondern eher ein stetiges, zumindest aber Abstufungen zulassendes Phänomen (Grad der Übereinstimmung). Bei Fehlern handelt es sich um eine Feststellung hinsichtlich der Nichtkonformität bezüglich einzelner Anforderungen, möglicherweise einer einzigen Anforderung, die unmittelbar für das gesamte Objekt gilt: Mindestens ein Fehler macht das gesamte Objekt fehlerhaft. Demgegenüber wird mit einer Aussage zur Qualität ein über die einzelnen Anforderungen aggregiertes Urteil über das Objekt abgegeben. Dabei wird zum einen berücksichtigt, dass Anforderungen hinsichtlich einzelner Merkmale oder hinsichtlich der Gesamtheit der interessierenden Merkmale mehr oder weniger gut erfüllt sein können und zum anderen, dass den einzelnen Merkmalen eine unterschiedliche Bedeutung (Gewichtung) für das gesamte Objekt zukommt. Die Merkmalserfüllung kann sich auf sehr verschiedenartige Objekte (Material, Betriebsmittel, Prozesse, Produkte) beziehen; hier stehen Produkte im Fokus. Mit Bezug auf Produkte können Entwurfs- (Konzept-, Design-) Qualität einerseits und Ausführungs- (Fertigungs-) Qualität andererseits unterschieden werden (z. B. Blohm et al. 2016, S. 225–226). Je besser die Konzeption eines Produkts den Markt- respektive Kundenanforderungen entspricht, desto höher ist dessen Entwurfsqualität. Handlungsbezogene Fehler, die die Designqualität beeinträchtigen, können in der Fehleinschätzung von Kundenbedürfnissen, -wünschen und -erwartungen, aber auch in der Nichtbeachtung gesetzlicher Vorgaben oder technischer Normen bestehen. Daraus resultierende Objektfehler sind mangelhafte Produktentwürfe, die ein nicht-marktkonformes Produkt definieren (etwa infolge von Under- oder Overengineering) bis hin zu Konstruktionsfehlern, die die Produktsicherheit gefährden können. Bewährte Instrumente, mit denen der Tendenz, nicht »die richtigen Produkte« zu entwickeln (Effektivitätsaspekt der Qualität), entgegengewirkt werden kann, sind das Quality Function Deployment (QFD) und die Fehlermöglichkeits- und Einfluss-

26

Ulrich Seidenberg

analyse (FMEA). QFD unterstützt die Umsetzung von Kundenanforderungen in Produktmerkmale und Merkmalsausprägungen (z. B. Schmitt/Pfeifer 2015, S. 585–588) und FMEA auf der Basis einer Risikoanalyse und -bewertung die Einleitung fehlervermeidender, fehlerentdeckender und auswirkungsbegrenzender Maßnahmen während der Produktentwicklung (z. B. Schmitt/Pfeifer 2015, S. 559–565; Wappis/Jung 2016, S. 259–264). Sowohl QFD als auch FMEA tragen dem als Zehnerregel bezeichneten Zusammenhang Rechnung, »dass ein Fehler mit jeder Phase, in der er später in Bezug auf seinen Entstehungszeitpunkt entdeckt und beseitigt wird, in seinen Kosten verursachenden Auswirkungen um den Faktor 10 zunimmt« (Schmitt/Pfeifer 2015, S. 3). Die Ausführungsqualität wird durch das Ausmaß bestimmt, in dem die Herstellung des Produkts, das heißt seine konkrete Realisation, die Anforderungen des Entwurfs erfüllt. Die Ausführungsqualität ist umso höher, je größer der Grad der Übereinstimmung mit den Spezifikationen ist, bei materiellen Produkten zum Beispiel bezüglich der Einhaltung von Materialstärken, Toleranzen usw. (Blohm et al. 2016, S. 225). Typische Beispiele für handlungsbezogene Fehler, die die Ausführungsqualität beeinträchtigen, sind die fehlerhafte Be- beziehungsweise Verarbeitung von Rohstoffen und Zwischenprodukten, Montagefehler (z. B. Verwechseln der Einbaurichtung, Vertauschen der Montagereihenfolge), eine unzureichende Qualitätskontrolle, die Verarbeitung von Material, das den konstruktiv festgelegten Spezifikationen nicht entspricht, das Nichteinhalten spezifischer Umgebungsbedingungen: Staubfreiheit (Elektronikbauteile), Hygiene (Arznei- und Lebensmittel). Ein wirksames Instrument, mit dem der Tendenz, Produkte »nicht richtig herzustellen« (Effizienzaspekt der Qualität), entgegengewirkt werden kann, ist Poka Yoke. Dabei handelt es sich um ein Prinzip, das durch technische Vorkehrungen oder organisatorische Maßnahmen menschliche Fehler verhindern und gegebenenfalls so frühzeitig aufdecken soll, dass kein Fehler am Produkt entsteht (z. B. Kamiske/Brauer 2011, S. 102; Schmitt/Pfeifer 2015, S. 579–580; Wappis/Jung 2016, S. 256–258). Ziel ist es, typische Fehlhandlungen auf dem Skill-based Level des GEMS (Abb. 2) wie Auslassen, Übersehen, Vertauschen, Vergessen, Verwechseln etc. zu vermeiden. Beispiele für Poka-Yoke-Maßnahmen sind die farbliche Kennzeichnung leicht zu verwechselnder Teile, die Wahl einer spezifischen geometrischen Form für Vorrichtungen, die den Einbau nur in korrekter Weise erlauben, der Einsatz von Sensoren, die im Fall vergessener oder fehlerhaft montierter Bauteile einen Alarm (optisches oder akustisches Signal) auslösen oder den Prozess stoppen. Wiederholtes Auftreten von Fehlern wird mit einer Fehlerquelleninspektion (Source Inspection) vermieden, indem die Kausalkette zwischen Fehlhandlung und Produktfehler analysiert und Abhilfemaßnahmen eingeleitet werden (z. B. Kamiske/Brauer 2011, S. 102–103).

Fehler, Fehlerkulturen und Qualität

27

Die Einordnung eines Produkts in die dichotomen Kategorien »fehlerhaft« oder »nicht fehlerhaft« vermag die sehr unterschiedliche Relevanz eines Produktfehlers für die Qualität nicht abzubilden. Aus diesem Grund werden hinsichtlich der Schwere des Fehlers, das heißt der Fehlerfolgen, die drei Fehlerklassen kritische Fehler, Hauptfehler und Nebenfehler unterschieden (z. B. Zollondz/Ketting/Pfundtner 2016, S. 305). Ein kritischer Fehler kann eine für Menschen und/oder Umwelt gefährliche Situation verursachen oder zum Ausfall von Infrastruktur (Energieversorgung, Kommunikationsnetze) führen. Ein kritischer Fehler bei einem Pkw wäre der Ausfall der Bremsen. Hauptfehler sind nicht-kritische Fehler, die voraussichtlich zu einem Ausfall oder einer wesentlichen Beeinträchtigung der Brauchbarkeit des Produkts führen, wie eine defekte Starterbatterie eines Pkw, die das Anlassen des Motors verhindert. Nebenfehler führen zu einer voraussichtlich nur unwesentlichen Beeinträchtigung der Brauchbarkeit, wie der Ausfall der Innenbeleuchtung oder Sitzheizung eines Pkw. Nichtkonforme Produkte sind nach der Zertifizierungsnorm DIN EN ISO 9001 (2015, S. 43) zu kennzeichnen und so zu »steuern«, dass deren unbeabsichtigter Gebrauch oder deren Auslieferung verhindert wird. Die in der Norm genannten Maßnahmen umfassen (einzeln oder in Kombination): Korrektur, Aussonderung, Sperrung, Rückgabe oder Aussetzung der Bereitstellung solcher Produkte, Benachrichtigung des Kunden, Einholen der Autorisierung zum Versand mit Sonderfreigabe. Nachdem fehlerhafte Erzeugnisse nachgebessert wurden, müssen die Konformität mit den Anforderungen verifiziert sowie die beseitigte Nichtkonformität und die ergriffenen Maßnahmen dokumentiert werden (DIN EN ISO 9001 2015, S. 43). Ein hinsichtlich der Ausführungsqualität konformes Produkt kann Schwächen in der Entwurfsqualität nicht kompensieren. Konformität in der Ausführung wirkt als eine Art Hygienefaktor, der ein Produkt für Kunden nicht attraktiver machen kann; Nichtkonformität in der Ausführung kann hingegen ein von der Konzeption her erfolgversprechendes Produkt am Markt scheitern lassen.

4.

Umgang mit Fehlern: Fehlerkulturen

In der Literatur werden zwei verschiedene Auffassungen zur Fehlerkultur vertreten. Zum einen ist der Begriff positiv besetzt, sodass in einer Organisation entweder eine Fehlerkultur (als erstrebenswert) vorhanden oder (als defizitärer Zustand) nicht vorhanden ist (so z. B. Baecker 2003 und Pfaff/Ernstmann/von Pritzbuer 2005). Zum anderen wird der Begriff »Fehlerkultur« neutral verwendet (z. B. von Kriegesmann/Kerka/Kley 2006 und Herzig 2018) mit der Folge, dass

28

Ulrich Seidenberg

jede Organisation eine individuell ausgeprägte Fehlerkultur hat. Hier wird der letztgenannten Auffassung gefolgt und unter Fehlerkultur die Art und Weise, wie ein Unternehmen mit potenziellen und tatsächlichen handlungs- und objektbezogenen Fehlern sowie Fehlerfolgen umgeht, verstanden (ähnlich Zollondz/ Ketting/Pfundtner 2016, S. 309). Die Fehlerkultur ist ein Element der Unternehmenskultur. In Tab. 3 werden anhand charakteristischer fiktiver Statements idealtypisch zwei Fehlerkulturen, die zunächst neutral mit Typ A und Typ B bezeichnet sind, gegenübergestellt. Im Anschluss werden diese Aussagen kommentiert und die beiden Fehlerkulturen abschließend bewertet. Fehlerkultur Typ A (1) »Fehler sind normal; da kann man nichts machen.« (2) »Um Fehler kümmern wir uns dann, wenn einer auftritt.« (3) »Bei einem Fehler ist die Suche nach dem Schuldigen wichtig.« (4) »Die Auseinandersetzung mit Fehlern sorgt für Ärger und Kosten.« (5) »Nicht Fehler sind das Problem, sondern dass Fehler ›an die große Glocke gehängt‹ werden.« (6) »Ein Produktfehler wird durch Nacharbeit beseitigt.« (7) »Ist die Fehlerquote zu hoch, sind die Kontrollen zu intensivieren.« (8) »Die wirksamste Fehlerverhütung besteht darin, dass sich ausführende Mitarbeiter auf ihre Arbeit konzentrieren.« (9) »Kundenbeschwerden enthalten nichts, was wir nicht selbst schon wissen.«

Fehlerkultur Typ B (1) »Jeder vermeidbare Fehler ist ein Fehler zu viel.« (2) »Der beste Fehler ist der, der gar nicht erst auftritt.« (3) »Bei einem Fehler steht die Suche nach den Ursachen im Vordergrund.« (4) »Aus Fehlern kann man lernen.« (5) »Nur aus entdeckten Fehlern kann man lernen, nicht aus vertuschten.« (6) »Ein Produktfehler ist ein Symptom, die Krankheit ist zu beseitigen.« (7) »Ist die Fehlerquote zu hoch, sind die Ursachen zu ermitteln und zu beseitigen.« (8) »Zur Fehlerverhütung gehört, dass ausführende Mitarbeiter auf Ereignisse und Entwicklungen hinweisen, die zu Fehlern führen können.« (9) »Kundenbeschwerden sind eine wertvolle Informationsquelle.«

Tab. 3: Fehlerkulturen (Seidenberg/Ansari 2017, S. 177, Nummerierung hinzugefügt)

4.1

Fehlerkultur Typ A

(1) Aus der Aussage 1 spricht eine eher gleichgültige Haltung; Fehler werden als schicksalhaft hingenommen. Damit kann eine Tendenz zur Verharmlosung von Fehlern einhergehen, die sich in Formulierungen andeutet wie »Weil Fehler im Arbeitsprozess immer mal wieder passieren …«, »wenn doch einmal ein Fehler passiert«, »wenn mal etwas schiefgegangen war« (Herzig

Fehler, Fehlerkulturen und Qualität

(2) (3)

(4)

(5)

29

2018, S. 270; Hervorhebungen nicht im Original). Diejenigen, die die These A 1 vertreten, können jeden weiteren Fehler als Bestätigung auffassen, sodass sich die Haltung im Wege einer Self-fulfilling Prophecy verfestigt. Gegen diesen Standpunkt wenden sich die Null-Fehler-Ansätze wie das kultur- und führungsbasierte Konzept von Crosby (1990, S. 82–91) und das statistikbasierte Six-Sigma-Konzept (z. B. Wappis/Jung 2016). Die Kritik an Aussage 1 bezieht sich im Wesentlichen auf Fehler auf dem Skill-based und Rule-based Level des GEMS (Abb. 2, Tab. 2). Statement 2 repräsentiert eine passive Ad-hoc-Haltung, die die Irrelevanz einer Fehlerprophylaxe unterstellt. Die Suche nach einer/m Schuldigen – und das schnelle Finden – ist ein in der Praxis verbreitetes Vorgehen, das unter der Bezeichnung »naming, blaming, shaming« Eingang in die Literatur (Reason 2000, S. 768; Hofinger 2012, S. 43, Rascher/Schröder 2017, S. 189) gefunden hat. Dieses Vorgehen führt dazu, dass vorschnell diejenige Person, bei der der Fehler beobachtet worden ist, auch für verantwortlich gehalten wird (Personenansatz). Aber so wie der Ort des Auftretens eines Fehlers in räumlicher und organisationaler Hinsicht nicht mit dem Ort der Fehlerverursachung identisch zu sein braucht, kann das, was auf den ersten Blick als individuelles Fehlverhalten erscheint, in der Ursache-Wirkungskette »upstream« seinen Ursprung haben. Ein handlungsbezogener Fehler ist insofern nicht nur die Ursache von Problemen, zum Beispiel Qualitätsdefiziten oder Unfällen, sondern immer auch die Folge eines anderen vorgelagerten Problems, das als latenter Fehler (s. Tab. 2) auf der Systemebene (Systemansatz) liegen kann (Reason 2000, S. 768; Dekker 2014, S. XV). Das »Schweizer-Käse-Modell« von Reason (2000, S. 769) bringt diesen Zusammenhang dadurch zum Ausdruck, dass ein Ereignisverlauf bereits die latenten Fehler (Löcher im Käse) mehrerer Fehlerbarrieren (Käsescheiben) auf den verschiedenen Führungsebenen passiert haben muss, bevor sich am Ende, auf der Ebene der ausführenden Person, der Fehler manifestiert. Eine Schuldige oder einen Schuldigen zu benennen, mag zwar für Führungskräfte bequem sein und die Fehleruntersuchung verkürzen, verhindert aber das Vordringen zu den »eigentlichen« Ursachen. Das 4. Statement offenbart den defensiven Charakter des Kulturtyps A. Nicht die Fehler selbst werden als problematisch empfunden, sondern die Beschäftigung mit diesen, die als lästig und als Ressourcenverschwendung angesehen wird. Aussage Nr. 5 korrespondiert mit der vorhergehenden, indem die Kommunikation über Fehler, die eine Voraussetzung für ein aktives Fehlermanagement (Fehlererkennung, -kommunikation, -analyse und -korrektur) darstellt (Hagen 2016, S. 316), kritisch gesehen wird. Die frühzeitige Kom-

30

(6)

(7)

(8)

(9)

4.2

Ulrich Seidenberg

munikation eines Fehlers beinhaltet überdies die Chance, die Fehlerfolgenkette zu durchbrechen und noch rechtzeitig Gegenmaßnahmen einzuleiten, um den entstehenden Schaden zu minimieren. These 6, die sich als Konkretisierung der 2. These interpretieren lässt, basiert auf der Vorstellung, Produktqualität am Ende des Produktionsprozesses durch »Herausprüfen« und Nachbessern zu erzeugen, statt in den Prozess einzubauen (End-of-pipe- statt Built-in-Qualität, Blohm et al. 2016, S. 231). Diese »Strategie« führt regelmäßig zu überhöhten Kosten. Diese These beruht auf einem Denkfehler. Kontrollen liefern eine Information über die (Nicht-)Konformität von Objekten, ändern jedoch nichts am Sachverhalt. Intensivierte Kontrollen können dazu führen, dass Nichtkonformitäten, die bisher nicht bekannt waren, aufgedeckt werden und die Fehlerquote aufgrund der verbesserten Informationsbasis sogar ansteigt. Dieser Aussage ist zuzustimmen unter der Bedingung, dass entsprechend Tayloristischer Prinzipien ein »Mitdenken« der ausführend Tätigen nicht erwünscht ist. Mitarbeiterorientierte Konzepte dagegen wie das Total Quality Management (z. B. Kamiske/Brauer 2011, S. 310–314) und Kaizen (z. B. Seidenberg 2012, S. 19–23) nutzen das arbeitsplatzbezogene Expertenwissen der Mitarbeiterinnen und Mitarbeiter, um kontinuierliche Verbesserungen anzustoßen und umzusetzen. »Fehler oder fehlerhafte Produkte sind in der Regel die Ursache für Kundenbeschwerden« (Schmitt/Pfeifer 2015, S. 438). Sollte tatsächlich bereits bekannt sein, was von Kunden reklamiert wird, stellt sich die Frage, warum der betreffende Fehler nicht schon beseitigt wurde.

Fehlerkultur Typ B

(1) Aussage 1 impliziert die im Einzelfall problematische Unterscheidung zwischen vermeidbaren und nicht vermeidbaren Fehlern. Allgemein sind Wiederholungsfehler und systematische Fehler (Tab. 2) leichter vermeidbar als ihre jeweiligen Pendants; schwer vermeidbar sind irrtumsbasierte Fehler. Letztere treten jeweils erst dann nicht mehr auf, wenn der zugrunde liegende Irrtum beseitigt ist. Organisatorische Vorkehrungen wie das VierAugen-Prinzip und Poka Yoka können Fehler auf dem Skill- und Rule-based Level vermeiden helfen. Das Auftreten vermeidbarer Fehler deutet darauf hin, dass die Chancen, aus Fehlern zu lernen (siehe B 4), nicht (vollständig) genutzt werden. Unabhängig davon, ob ein Fehler vermeidbar war oder nicht, »geht es darum, die negativen Konsequenzen gemachter Fehler auszuschalten« (Hagen 2016, S. 315).

Fehler, Fehlerkulturen und Qualität

31

(2) Aussage 2 ähnelt der vorherigen und erscheint auf den ersten Blick trivial. Ein mögliches Missverständnis besteht jedoch darin, mit dieser Aussage das Postulat »Mache keinen Fehler!« zu verbinden. Erstens ist das Verbot von Fehlern Ausdruck einer intoleranten Ethik (Popper 2011, S. 227). Zweitens ist es aus logischen und praktischen Gründen unmöglich, das Postulat zu erfüllen, da es grundsätzlich sehr viel mehr Möglichkeiten gibt, eine Sache falsch als sie richtig zu machen. Der Versuch, es durchzusetzen, erscheint als geradezu absurdes Unterfangen, da es die Kenntnis sämtlicher falscher Möglichkeiten voraussetzen müsste, die dann bewusst zu (ver)meiden wären. Weder Führungskräfte noch ausführend Tätige sind dazu in der Lage. Stattdessen müssten erstere wohl mit paralysierten Mitarbeitenden rechnen, wenn diese sich darauf konzentrierten, einem perfektionistischen Ideal zu entsprechen und nichts falsch zu machen. Das Mitdenken sämtlicher Fehlermöglichkeiten ist aber auch gar nicht erforderlich. Denn wer dem positiv gewendeten Postulat »Tue das Richtige!« folgt, schließt die fehlerhaften Alternativen, ohne dass diese bekannt sein müssten, zwangsläufig aus. Damit tritt das von Baecker folgendermaßen beschriebene paradoxe Szenario genau nicht ein: »Was ausgeschlossen sein soll, das falsche Verhalten, ist als Ausgeschlossenes eingeschlossen« (Baecker 2003, S. 26). Crosby hat die Maxime des Richtigmachens durch die Zielsetzung präzisiert, »jede Arbeit von vornherein richtig zu machen« (Crosby 1990, S. 84). Das als »richtig« Erkannte, das heißt der Standard, bleibt allerdings nur solange richtig, bis Hinweise, Erkenntnisse etc. auftreten, die Zweifel an der geübten Praxis aufkommen lassen. Es ist die kritische Haltung gegenüber dem stets nur als vorläufig aufzufassenden Richtigen, die eine Korrektur nahelegt. Ein auftretender Fehler darf keine Überraschung oder gar Abwehrreaktionen auslösen, weil man glaubt, alles richtig gemacht zu haben, sondern ist Anlass, den Ursachen auf den Grund zu gehen (s. B 3) und den Fehler zu korrigieren. (3) Die Ursachenanalyse lässt sich methodisch unterstützen. Hierzu eignen sich insbesondere die leicht zu handhabenden Instrumente, die für die Qualitätszirkelarbeit (z. B. Kamiske/Brauer 2011, S. 236–240) entwickelt wurden. Dazu zählen Fehlersammellisten (z. B. Schmitt/Pfeifer 2015, S. 517) zur Erhebung statistischer Urdaten, die Pareto-Analyse (z. B. Wappis/Jung 2016, S. 97–98) zur Abbildung von Fehlerhäufigkeiten und zur Priorisierung der zu behandelnden Probleme, die 5x-Warum-Fragetechnik (z. B. Schmitt/ Pfeifer 2015, S. 70) und das Ursache-Wirkungs-Diagramm (z. B. Zollondz 2011, S. 118–120). Die beiden letztgenannten Werkzeuge sollen verhindern, dass mit einer vorschnell aufgestellten Hypothese über den Ursache-Wirkungs-Zusammenhang mögliche andere Fehlerursachen ausgeschlossen werden.

32

Ulrich Seidenberg

(4) Jeder aufgetretene oder fast aufgetretene Fehler (Beinahe-Fehler) (Baecker 2003, S. 27; Herzig 2018, S. 273) liefert – sofern die Abweichung des Ist vom Soll beobachtet und informationell abgebildet wird – eine Auslöseinformation (Seidenberg 1989, S. 30, 88–89), die auf die Notwendigkeit hinweist, »schlechte« Lösungen weiter auszusortieren. Lernen aus Fehlern bedeutet insofern, zu präzisieren, wie eine Aufgabe richtig ausgeführt wird. Lernen aus Fehlern heißt nicht, dass hierzu die Fehlerzahl erhöht werden müsste, auch wenn die aktuelle Euphorie über das Scheitern von und in Unternehmen (Staun 2018) sowie ältere Managementempfehlungen dies vordergründig nahelegen: »Um noch schneller zu handeln und so Zeit für den Innovationszyklus zu sparen, müssen wir noch mehr Fehler schneller machen.« (Peters 1988, S. 287; Hervorhebungen im Original) Die Aufforderung, Fehler im Sinne der in Abschnitt 2.1 eingeführten Definition zu machen, ist mindestens so absurd wie die, keine zu machen. Mit dem Zitat ist vielmehr gemeint, dass im Innovationsbereich – allgemein: im Fall schlechtstrukturierter Probleme (s. o.) – Fehler unvermeidlich sind, wenn überhaupt gehandelt werden soll. Wer sich auf unbekanntem Terrain vorwärtsbewegt, macht Fehler, weil es nicht anders geht, nicht um Zeit zu sparen. Je höher das Tempo sein soll (um Zeit zu sparen), desto größer muss zwangsläufig auch die in Kauf zu nehmende Fehlerzahl sein. (5) Wenn Lernen aus Fehlern stattfinden soll, stellt das Vertuschen von Fehlern »die größte intellektuelle Sünde« (Popper 2011, S. 228) dar. Der Vertuschung, Verheimlichung und dem schnellen Vergessen von Fehlern kann mit einer offenen Kommunikation entgegengewirkt werden. Sanktionsandrohungen und Sanktionen hemmen die Bereitschaft, Fehler zuzugeben. (6) Produktfehler können – von Ad-hoc-Aktionen abgesehen – nicht durch Maßnahmen bekämpft werden, die am Produkt selbst ansetzen. Das Produkt steht am Ende der Wertschöpfungskette, Fehler werden wie oben dargestellt viel früher durch fehlerhaftes Material, menschliche Fehlhandlungen, ungeeignete Betriebsmittel oder nicht beherrschte Prozesse erzeugt. An diesen Fehlerquellen muss ein nachhaltiges Fehlermanagement ansetzen. (7) Dieses Statement ist selbsterklärend. (8) Unternehmen, denen ernsthaft am Lernen aus Fehlern gelegen ist, sollten Anreize für ausführend Tätige (etwa über ein institutionalisiertes Ideenmanagement) schaffen, auf bestehende und potenzielle Objektfehler (z. B. nicht ausführbare Arbeitsanweisungen) und – etwas heikler – auch handlungsbezogene Fehler ihrer Vorgesetzten aufmerksam zu machen. (9) Ein systematisches Reklamations- und Beschwerdemanagement (z. B. Schmitt/Pfeifer 2015, S. 438–450) ist ein notwendiges und wirksames Werkzeug im Rahmen des Lernens aus Fehlern. Allerdings stellen Kundenbe-

Fehler, Fehlerkulturen und Qualität

33

schwerden auch die teuerste und »letzte« Gelegenheit zum Lernen dar, da sämtliche andere Maßnahmen des Fehlermanagements bereits versagt haben, wenn Kundinnen und Kunden Kenntnis von einem Produktfehler erhalten. Nicht der Hotelgast sollte die Rezeption auf einen schlecht funktionierenden Abfluss hinweisen müssen, sondern der Zimmerservice (s. auch B 8). Resümierend lassen sich die beiden vorgestellten Fehlerkulturen wie folgt charakterisieren. Typ A, der in der Praxis vermutlich (noch) vorherrscht, spiegelt eine deutlich passiv ausgerichtete Haltung wider und stellt kurzfristig den leichteren, weil stark Komplexität reduzierenden, Weg dar, dürfte sich jedoch auf mittlere Sicht dysfunktional auswirken. Die Fehlerkultur des Typs B lässt sich als konstruktiv und prospektiv charakterisieren und entspricht in stärkerem Maße den Eigenschaften einer lernenden Organisation, den Anforderungen der Qualitätsnorm ISO 9001 sowie dem Ideal des Total Quality Management, insbesondere dem Postulat nach ständiger Verbesserung.

Literatur Albert, Hans (1991): Traktat über kritische Vernunft. 5. Aufl. Tübingen. Ansari, Fazel/Khobreh, Marjan/Seidenberg, Ulrich/Sihn, Wilfried (2018): A Problemsolving Ontology for Human-centered Cyber Physical Production Systems. CIRP Journal of Manufacturing Science and Technology 22, S. 91–106. Ansari, Fazel/Seidenberg, Ulrich (2016): A Portfolio for Optimal Collaboration of Human and Cyber Physical Production Systems in Problem-Solving. Proceedings of the 13th International Conference on Cognition and Exploratory Learning in Digital Age (CELDA 2016), Mannheim, October 28–30, International Association for Development of the Information Society, S. 311–315. Baecker, Dirk (2003): Plädoyer für eine Fehlerkultur. OrganisationsEntwicklung 22 (2), S. 24–29. Bainbridge, Lisanne (1988): Ironies of Automation. In: Rasmussen, Jens/Duncan, Keith/ Leplat, Jacques (Hrsg.), New Technology and Human Error. Chichester etc., S. 271–283. Blohm, Hans/Beer, Thomas/Seidenberg, Ulrich/Silber, Herwig (2016): Produktionswirtschaft. 5. Aufl. Herne. Bubb, Heiner (2005): Human Reliability : A Key to Improved Quality in Manufacturing. Human Factors and Ergonomics in Manufacturing 15 (4), S. 353–368. Crosby, Philip B. (1990): Qualität ist machbar. 2. Aufl. Hamburg. Dekker, Sidney (2014): The Field Guide to Understand ›Human Error‹. 3. Aufl. Farnham. DIN EN ISO 9000:2015-11: Qualitätsmanagementsysteme – Grundlagen und Begriffe (ISO 9000:2015); Deutsche und Englische Fassung EN ISO 9000:2015. DIN EN ISO 9001:2015-11: Qualitätsmanagementsysteme – Anforderungen (ISO 9001: 2015); Deutsche und Englische Fassung EN ISO 9001:2015.

34

Ulrich Seidenberg

DIN EN 13306:2018-02: Instandhaltung – Begriffe der Instandhaltung; dreisprachige Fassung EN 13306:2017. Dobelli, Rolf (2011): Die Kunst des klaren Denkens. München. Grams, Timm (2001): Grundlagen des Qualitäts- und Risikomanagements. Braunschweig, Wiesbaden. Hagen, Jan U. (2016): Fehlermanagement. In: Zollondz, Hans-Dieter/Ketting, Michael/ Pfundtner, Raimund (Hrsg.), Lexikon Qualitätsmanagement. 2. Aufl. Berlin, Boston, S. 315–317. Herry, N. (1988): Errors in the Execution of Prescribed Instructions. Design of Process Control Work Aids. In: Rasmussen, Jens/Duncan, Keith/Leplat, Jacques (Hrsg.), New Technology and Human Error. Chichester etc., S. 239–245. Herzig, Michael (2018): Jede Organisation hat eine Fehlerkultur – Ein Plädoyer gegen die Technisierung des Qualitätsverständnisses in sozialen und gesundheitlichen Berufen. praxis ergotherapie 31 (5), S. 270–275. Hofinger, Gesine (2012): Fehler und Unfälle. In: Badke-Schaub, Petra/Hofinger, Gesine/ Lauche, Kristina (Hrsg.), Human Factors. 2. Aufl. Berlin, Heidelberg, S. 39–60. Kamiske, Gerd F./Brauer, Jörg-Peter (2011): Qualitätsmanagement von A bis Z. 7. Aufl. München, Wien. Klein, Robert/Scholl, Armin (2011): Planung und Entscheidung. 2. Aufl. München. Kriegesmann, Bernd/Kerka, Friedrich/Kley, Thomas (2006): Fehlerkulturen und Innovationserfolg: Eine vergleichende empirische Analyse. Zeitschrift für Personalforschung 20 (2), S. 141–159. Peters, Tom (1988): Kreatives Chaos. Hamburg. Pfaff, Holger/Ernstmann, Nicole/von Pritzbuer, Ekkehard (2005): Das Fehlerkultur-Modell – Warum gibt es im Krankenhaus keine Fehlerkultur? Deutsche Gesellschaft für Chirurgie – Mitteilungen 1/05, S. 39–41. Popper, Karl R. (2011): Auf der Suche nach einer besseren Welt. 16. Aufl. München. Rall, Marcus/Manser, Tanja/Guggenberger, Heinz/Gaba, David M./Unertl, Klaus (2001): Patientensicherheit und Fehler in der Medizin. Anästhesiologie Intensivmedizin Notfallmedizin Schmerztherapie 36 (6), S. 321–330. Rascher, Stephanie/Schröder, Robert (2017): Die Gestaltung einer konstruktiven Fehlerkultur als Führungsaufgabe in High Reliability Organizations (HRO) am Beispiel der zivilen Luftfahrt. In: von Au, Corinna (Hrsg.), Struktur und Kultur einer LeadershipOrganisation. Wiesbaden, S. 177–200. Reason, James (2000): Human Error : Models and Management. British Medical Journal 320, S. 768–770. Reason, James (2008): Human Error. 19. Aufl. Cambridge. Schmitt, Robert/Pfeifer, Tilo (2015): Qualitätsmanagement. 5. Aufl. München, Wien. Seidenberg, Ulrich (1989): Auslöseinformationen im organisatorischen Gestaltungsprozeß – Voraussetzung einer flexiblen Organisation. Frankfurt am Main, Bern, New York, Paris. Seidenberg, Ulrich (2012): Ausprägungen und Einsatzbedingungen inkrementaler Managementansätze, Diskussionspapier Universität Siegen. http://dokumentix.ub.uni-siegen. de/opus/volltexte/2012/617/pdf/seidenberg.pdf (zuletzt abgerufen am 16. 06. 2019). Seidenberg, Ulrich/Ansari, Fazel (2017): Qualitätsmanagement in der additiven Fertigung – Herausforderungen und Handlungsempfehlungen. In: Leupold, Andreas/Glossner,

Fehler, Fehlerkulturen und Qualität

35

Silke (Hrsg.), 3D Printing. Recht, Wirtschaft und Technik des industriellen 3D-Drucks. München, S. 159–213. Staun, Harald (2018): Macht Fehler, macht sie schnell! https ://www.faz.net/-gsf-9i64y (zuletzt abgerufen am 30. 12. 2018). Sträter, Oliver (2019): Human Reliability Assessment – State of the Art for Task- and GoalRelated Behavior. In: Varde, Prabhakar V./Prakash, Raghu V./Joshi, Narendra S. (Hrsg.), Risk Based Technologies. Singapur, S. 143–171. VDI-Richtlinie 4006 Blatt 1:2015-03: Menschliche Zuverlässigkeit: Ergonomische Forderungen und Methoden der Bewertung. VDI-Richtlinie 4006 Blatt 2:2017-11: Menschliche Zuverlässigkeit: Methoden zur quantitativen Bewertung menschlicher Zuverlässigkeit. VDI-Richtlinie 4006 Blatt 3:2013-08: Menschliche Zuverlässigkeit: Methoden zur Ereignisanalyse. Wappis, Johann/Jung, Berndt (2016): Null-Fehler-Management. 5. Aufl. München, Wien. Wehner, Theo (2018): Wer vom Scheitern spricht, spricht immer auch vom Handeln. In: Schaffer, Axel/Lang, Eva/Hartard, Susanne (Hrsg.), Im Scheitern lernen. Zur Zukunftsfähigkeit von Systemen. Marburg, S. 43–56. Weimer, Hermann (1925): Psychologie der Fehler. Leipzig. Zollondz, Hans-Dieter (2011): Grundlagen Qualitätsmanagement. 3. Aufl. München, Wien. Zollondz, Hans-Dieter/Ketting, Michael/Pfundtner, Raimund (Hrsg.) (2016): Lexikon Qualitätsmanagement. 2. Aufl. Berlin, Boston.

Nicolas Mues / Karoline Braun / Carolin Uebach / Lisa Völkel*

Der Umgang mit Fehlern in Organisationen – eine fallbasierte Analyse

1.

Einleitung

Obwohl vermehrt die positiven Aspekte von Lernen aus Fehlern für den Unternehmensfortschritt hervorgehoben werden, sind Fehler häufig kostspielig und eine Belastung, nicht zuletzt für das Selbstvertrauen der Unternehmer (Cope 2011, S. 610). Oftmals werden Fehler stärker gewichtet als ihre möglichen positiven Auswirkungen, was unternehmerische Entscheidungsprozesse verfälscht und zu überhöhter Risikoaversion führen kann (McGrath 1999, S. 16). Trotz ihrer Alltäglichkeit sind Fehler mit Scheitern und Schwäche verbunden (Weingardt 2004, S. 11; Baumann-Habersack 2017, S. 111). Dabei kann ein gezielter Umgang mit Fehlern Kreativität freisetzen und so die Mitarbeitermotivation und -bindung steigern (Halbesleben/Wheeler 2008, S. 245). Doch das Fehlerverständnis wandelt sich: Heute werden Fehler als Treiber für den Unternehmenserfolg angesehen (Edmondson/Moingeon 1996, S. 29). Lernprozesse, durch die Chancen genutzt sowie Prozesse dynamisch angepasst werden, gelten nun als entscheidender Wettbewerbsvorteil (Cope 2011, S. 605). Eine gesteigerte Offenheit gegenüber Fehlern setzt sich in der Betriebswirtschaftslehre durch. Doch erfordert dies nicht selten eine Umstellung: Speziell vormals risikoscheue Unternehmen stehen vor der Herausforderung, das »Ler* Nicolas Mues, M.Sc., Universität Siegen, Fakultät III (Wirtschaftswissenschaften – Wirtschaftsinformatik – Wirtschaftsrecht), Lehrstuhl für Betriebswirtschaftslehre, insb. Personalmanagement und Organisation. Dipl.-Kffr. Karoline Braun, Universität Siegen, Fakultät III (Wirtschaftswissenschaften – Wirtschaftsinformatik – Wirtschaftsrecht), Lehrstuhl für Betriebswirtschaftslehre, insb. Personalmanagement und Organisation. Carolin Uebach, B.Sc., Universität Siegen, Fakultät III (Wirtschaftswissenschaften – Wirtschaftsinformatik – Wirtschaftsrecht), Lehrstuhl für Betriebswirtschaftslehre, insb. Personalmanagement und Organisation. Lisa Völkel, Universität Siegen, Fakultät III (Wirtschaftswissenschaften – Wirtschaftsinformatik – Wirtschaftsrecht), Lehrstuhl für Betriebswirtschaftslehre, insb. Personalmanagement und Organisation.

38

Nicolas Mues / Karoline Braun / Carolin Uebach / Lisa Völkel

nen zu lernen« (Appelbaum/Gallagher 2000, S. 55). Eine solche Anpassung des Umgangs mit Fehlern umschließt die internen Werte und Normen. Wirksamer noch sind aber die Prozesse, mit denen Fehler und ihre Folgen gesteuert werden, da Prozesse die Mitarbeiter unmittelbar einbeziehen. Jedoch darf dieser Umgang nicht der übergeordneten Organisationskultur widersprechen. In Einzelfällen geht diese Veränderung sogar so weit, Fehler ausdrücklich zu feiern. So ist die Rede vom »perfect failure« und Organisationen wie die NASAvergeben Preise für innovative, aber während der Testphase gescheiterte Ideen (Shepherd/Covin/ Kuratko 2009, S. 595; Birkinshaw/Haas 2016, S. 93). Die praktische Relevanz der Begrüßung von Fehlern illustriert Thomas Watson Jr., einst Vorstandsvorsitzender von IBM: Die Entwicklung eines später marktbeherrschenden Großrechners sei einzig möglich gewesen, da man die Fehlerquote während der Entwicklung verdoppelt und finanzielle Rückschläge hingenommen habe (Farson/Keyes 2002, S. 64). Allerdings ist diese Einstellung nicht generell empfehlenswert: Während fehlerhafte Produkte beispielsweise in der Gaming-Branche oft toleriert werden, sind Fehler in der Luftfahrt- oder Medizinbranche auf Produktebene nicht nur unerwünscht, sondern lebensgefährdend. Dieser Gegensatz verdeutlicht, dass eine eindimensionale Fehlerdefinition unzureichend ist. Viel stärker als bislang müssen hinsichtlich der Lernprozesse in dynamischer Sicht Verlaufsmuster des Auftretens von Fehlern, des Umgangs mit ihnen sowie der Konsequenzen einbezogen werden. Bisher wird der Umgang mit Fehlern als Teil der Organisationskultur angesehen (Arogyaswamy/Byles 1987, S. 653). Angesichts der Bedeutung des Umgangs mit Fehlern und der verbundenen Lernpotenziale (Harteis/Buschmeyer 2012) und -prozesse aber verdienen Fehler eine eigene Kultur, eine Fehlerkultur. Orientierung bieten hierbei Konzepte der Organisationskultur wie beispielsweise von Schein (1985). Ziel dieses Artikels ist es, Fehler im betriebswirtschaftlichen Kontext tiefergehend zu betrachten. Dabei ist das explizite Begrüßen von Fehlern nur eine mögliche Ausprägung des Umgangs mit Fehlern. Die Fehlervermeidung sollte nicht vernachlässigt werden, nur da sich Unternehmen mittlerweile offener gegenüber Fehlern zeigen. Ein weit und dynamisch gefasster Fehlerbegriff impliziert die Notwendigkeit eines Fehlerkulturkonzepts, welches sowohl isoliert als auch in Abstimmung mit der Organisationskultur ausgearbeitet werden muss. Über die Fehlerursachen hinaus untersucht dieser Artikel den organisationskulturell geprägten Umgang von Organisationen mit Fehlern. Zunächst werden theoretische Grundlagen zu Fehlern und zur Organisationskultur dargestellt. Daraus wird ein erweitertes Fehlerverständnis erarbeitet, dessen charakteristische Ausprägungen durch Fallbeispiele veranschaulicht werden. Die Synthese dieser Erkenntnisse bildet ein Fehlerkulturmodell, das

Der Umgang mit Fehlern in Organisationen – eine fallbasierte Analyse

39

dynamischer als bislang die Wechselwirkung mit der Organisationskultur berücksichtigt.

2.

Theoretische Grundlagen zu Fehlern und zu Organisationskulturen

2.1

Allgemeine Auseinandersetzung mit Fehlern

Seit etwa 100 Jahren erforschen Wissenschaftler Fehler (Weingardt 2004, S. 11). Die nachfolgende Auswahl dieser Forschungen spiegelt ein vorhandenes Spektrum zwischen positiver Einstellung gegenüber Fehlern und einer absoluten Null-Fehler-Toleranz wider und hat einen Bezug zur Arbeitswelt mit ihren Lernprozessen. Allgemein wird unter einem Fehler Folgendes verstanden: »Als Fehler bezeichnet ein Subjekt angesichts einer Alternative jene Variante, die von ihm – bezogen auf einen damit korrelierenden Kontext und ein spezifisches Interesse – als so ungünstig beurteilt wird, dass sie unerwünscht erscheint.« (Weingardt 2004, S. 234)

In den Erziehungswissenschaften werden seit Jahrzehnten vornehmlich Fehler oder Fehlleistungen der Schüler betrachtet, um diese auszumerzen (z. B. Wörle 1835, S. 309). Erste Tendenzen eines positiven Fehlerverständnisses finden sich in der Montessori-Pädagogik, in der ein konstruktiver Umgang mit Fehlern hin zu der Entwicklung einer positiven Fehlerkultur in Schulen und der Betrachtung von Fehlern als Lernchancen gefördert wird (Hammerer 2005). In der Psychologie hat insbesondere Sigmund Freud schon 1917 Überlegungen zu Fehlleistungen und -handlungen entwickelt und den Begriff der »Freudschen Fehlleistung« für den Fall geprägt, dass jemand ein anderes Wort sagt, als er eigentlich wollte. Sigmund Freud kam zu dem Schluss, dass es nichts Zufälliges in der Psyche gibt, sondern ein eigentlich ungewollter Gedanke statt des gewünschten einspringt und sich der zurückgedrängte Gedanke unvermeidbar durchsetzt. In jeder Fehlleistung drückt sich also nach Freud ein eigentlich im tiefsten Inneren Gewolltes aus (Freud 1916–17). Aus der Erkenntnistheorie ergibt sich ein positiver Blick auf Fehler. Hier werden Fehler dahingehend interpretiert, dass Erkenntnisse über Versuch und Irrtum erworben werden. Für Popper beispielsweise sind Fehler zunächst nichts Negatives, sondern sie dienen grundsätzlich der Erkenntnis (Popper 2009, S. 69–69, 355). Demzufolge sind Fehler, die permanent ohne Lernfortschritt wiederholt werden oder aus Nachlässigkeit passieren, eine verpasste Lernchance (Hammerer 2005, S. 372–373). In gesundheits- oder sicherheitsrelevanten Branchen wie Luftfahrt oder Medizin herrscht absolute Null-Fehler-Toleranz

40

Nicolas Mues / Karoline Braun / Carolin Uebach / Lisa Völkel

und tatsächlich auftretende Fehler können hier nicht als Lernchancen erachtet werden (Hammerer 2005, S. 372). Dieses große Spektrum der Einstellung gegenüber Fehlern zwischen NullFehler-Toleranz und Erwünschtheit als Lernchance findet sich in der Betriebswirtschaftslehre wieder : Einerseits wird das Ausmerzen von Fehlern propagiert, wenn es um Massenproduktionen und Kostenverringerung durch Verminderung von Ausschussware und Effizienzsteigerung der Produktion geht (Töpfer/ Günther 2009, S. 3). Andererseits werben Unternehmensberater dafür, Fehler positiv einzuordnen, sie als Lernchance zu betrachten (Ellebracht et al. 2003, S. 142–143; Weingardt 2004, S. 29) und auf diese Weise einen stetigen Verbesserungsprozess in Gang zu setzen. Kreative Abteilungen werben mehr und mehr für ein angstfreies Ausprobieren, um Innovationen zu fördern (Ellebracht et al. 2003, S. 142–143). Insbesondere im dynamischen Projektmanagement werden jüngst Methoden wie »Scrum« (Schwaber/Sutherland 2017) propagiert, die eine Entwicklung komplexer Produkte unterstützen. Hierbei wird davon ausgegangen, dass komplexe Probleme nicht vollumfänglich geplant werden können, sondern Scrum durch die ständige Wiederholung seiner drei Schwerpunkte immer wieder auf veränderte Bedingungen eingeht: (a) der aktuelle Stand an Fortentwicklungen und Herausforderungen wird für alle Verantwortlichen transparent dokumentiert, (b) Ergebnisse werden festgehalten, bewertet und überprüft und (c) in einem weiteren Schritt angepasst (Schwaber/Sutherland 2017, S. 4–5).

2.2

Allgemeine Auseinandersetzung mit Organisationskultur

Der Fokus dieses Artikels liegt darauf, den Zusammenhang zwischen Organisationskulturen und dem Umgang mit Fehlern zu entwickeln, sodass es eines Organisationskulturmodells bedarf. Aufgrund seiner allgemeinen Anwendbarkeit erscheint Scheins Modell von 1985 (Abb. 1) geeignet. Es umfasst sichtbare und unsichtbare Aspekte von Kultur, sodass hiermit die Untersuchung von sichtbaren und von vertuschten Fehlern möglich ist. Darüber hinaus ergeben sich als Reaktion auf Fehler Einflüsse auf die Organisationskultur (Schein 1990, 117). Dieser Aspekt wird besonders in den Fallbeispielen näher untersucht. In Scheins (1985) Organisationskulturmodell befinden sich auf der Ebene der Artefakte die sichtbaren Dinge wie Produkte, Prozesse, Architektur oder Sprache, die im Hinblick auf die Unternehmenskultur, die sie symbolisieren, interpretationsbedürftig sind. Die Ebene der Werte und Normen, die der unsichtbaren Kultursphäre zugeordnet werden, verdeutlicht den Organisationsmitgliedern, was als richtig oder falsch angesehen wird und wie etwas zu tun ist. Gemeinsam geteilte Wertvorstellungen und Normen der Organisationsmitglie-

Der Umgang mit Fehlern in Organisationen – eine fallbasierte Analyse

Artefakte

Werte

Grundannahmen

41

Sichtbare Strukturen und Prozesse im Unternehmen (leicht zu beobachten, aber schwer zu entschlüsseln)

Strategien, Ziele, Philosophie (bekundete Rechtfertigungen)

Unbewusste, selbstverständliche Anschauungen, Wahrnehmungen, Gedanken und Gefühle (Ausgangspunkt für Werte und Handlungen)

Abb. 1: Ebenen der Organisationskultur nach Schein (1995, S. 30)

der können bewusst oder unbewusst sein. Auf der Ebene der Grundannahmen, die ebenfalls unsichtbar und größtenteils unbewusst sind, befinden sich ganz grundlegende, im täglichen Leben nicht mehr hinterfragte, durch gesellschaftliche oder religiöse Sozialisation geprägte Grundeinstellungen, beispielsweise Einstellungen zur Umwelt, zum Risiko oder zu anderen Menschen, reflektiert durch Menschenbilder. Das Modell von Schein ermöglicht zwar eine Analyse der Organisationskultur und somit eine Untersuchung des Umgangs mit Fehlern. Allerdings fehlt im Modell die explizite Darstellung externer Determinanten wie der Landeskultur, die von außen auf das Innere der Organisation einwirken. Zudem bildet das Modell die zunehmende Dynamisierung nur unzureichend ab: Wechselwirkungen zwischen den Ebenen des Modells sind zwar gegeben, allerdings fehlen innerhalb der Ebenen die Interdependenzen verschiedener inhaltlicher Kulturschwerpunkte, wie sie beispielsweise die Fehlerkultur einer ist.

3.

Theoretische Herleitung eines Modells zur Fehlerkultur

3.1

Das Fehlerspektrum

Der Rückgriff auf Ideen zur Organisationskultur ist notwendig, da es bisher kaum Konzepte einer eigenständigen Fehlerkultur gibt und die Forschung hier noch am Beginn steht (Keith/Frese 2010, S. 147). Zudem wird der Fehlerbegriff inhomogen definiert. Im Folgenden wird das Spektrum des Fehlerbegriffes zwischen Fehlervermeidung oder »Avoidance of Failure« (McGrath 1999, S. 20) und Fehlerwertschätzung oder »Appreciation of Failure« (Cope 2011, S. 606) und des darauf bezogenen Umgangs entwickelt (Abb. 2) und später durch Fallbeispiele veranschaulicht. Das Fehlerspektrum gibt noch keine Aussage über die Wertigkeit des jeweiligen Fehlerbegriffes oder der Fehlerkultur ab.

42

Nicolas Mues / Karoline Braun / Carolin Uebach / Lisa Völkel

Angst vor Fehlern

Fehlervermeidung

Serendipität

Bewusste Fehler

Fehlerwertschätzung

Abb. 2: Das Fehlerspektrum

Ist ein Unternehmen bemüht, Fehler zu vermeiden, so ist es im Fehlerspektrum auf der linken Seite zu finden. Das Verständnis dieser Strategie ist, dass Fehler als schädlich angesehen werden und zu jeder Zeit vermieden werden sollen (van Dyck et al. 2005, S. 1228). Keith und Frese (2010, S. 139) führen aus, dass sich eine dem entsprechende Organisation mehr oder weniger zum Ziel setzt, eine maximale Fehlerprävention zu betreiben. Das Extrem der absoluten Fehlervermeidung wird als »Fear of Failure« oder auch »Angst vor Fehlern« benannt. Autio, Pathak und Wennberg (2013, S. 345) beschreiben die Angst vor Fehlern als Furcht vor unternehmensinterner und -externer Unsicherheit sowie vor den Konsequenzen von Fehlern. Cacciotti et al. (2016, S. 305) verweisen darauf, dass Angst vor Fehlern synonym zu »Risiko-Aversion« verwendet werden kann. Zudem bedeutet Angst vor Fehlern aus psychologischer Sicht nicht nur, Fehler vermeiden zu wollen, sondern auch, Gefühle wie Erniedrigung oder Scham zu empfinden, wenn Fehler begangen werden. Zwar wird erkannt, dass Fehlerprävention oder -vermeidung nicht gänzlich möglich ist, doch wird dieser Umgang mit Fehlern als wichtigste »Line of Defense« angesehen (van Dyck et al. 2005, S. 1238). Dadurch, dass eine vollkommene Vermeidung von Fehlern nicht möglich ist, rücken tolerantere Fehlerverständnisse in den Vordergrund. Fehler sollen möglichst vor ihrer Entstehung vermieden werden, und sofern sie dennoch auftreten, verarbeitet und ihre Folgen abgemildert werden (Reason 2000, S. 395; Keith/Frese 2010, S. 140). Somit öffnet sich das Fehlerspektrum hin zu mehr Fehlertoleranz. Der mittlere Punkt des Fehlerspektrums wird mit »Serendipität« bezeichnet. Dieser Begriff bezeichnet einen Glücksfall oder eine zufällige Entdeckung von etwas Vielversprechendem oder Wertvollem (e Cunha/Clegg/Mendonca 2010, S. 320). Napier und Vuong (2013, S. 178) erkennen »Serendipität« jedoch nicht nur als pures Glück, sondern auch als eine Fähigkeit an, ungeahnte Chancen nutzbar zu machen. Ähnlich argumentiert Martello (1994, S. 240): »Serendipität« ist ihm zufolge zwar ein unbeherrschbarer Zufall, der sich nicht selten als Fehler äußert, durch einen gezielten darauf bezogenen Umgang enthält »Serendipität« aber auch ein aktives Element. Der positiven Einstellung gegenüber Fehlern gemäß, der »Fehlerwertschätzung« oder »Appreciation of Failure« (Cope 2011, S. 606), werden Fehler ausdrücklich gefordert und als Erfolgsquelle angesehen. Fehler und besonders der

Der Umgang mit Fehlern in Organisationen – eine fallbasierte Analyse

43

Umgang mit ihnen können als »intelligent« und Treiber des Fortschritts erachtet werden (Edmondson 2011, S. 52). Grundlegend für Fehlerwertschätzung ist die Möglichkeit, riskante Entscheidungen treffen und Wissen aus Fehlern entwickeln zu können (Weinzimmer/Esken 2017, S. 324). »Deliberate Mistakes« oder auch »Bewusste Fehler«, also absichtlich gewollte Fehler, gilt als Maximalpunkt der Fehlerwertschätzung. Die maximale Variante dieser Strategie besagt, dass man bewusst Fehler in Produkte integriert (Schoemaker 2006, S. 111). Im vorliegenden Artikel wird hingegen in abgeschwächter Form von bewussten Fehlern gesprochen, wenn Unternehmen fehlerhafte Produkte auf den Markt bringen, jedoch nicht wissen, wo diese Fehler liegen. Ähnlich gehen Neff und Stark vor (2002, S. 183), die einen Zustand beschreiben, den sie »Permanently Beta« nennen. Hierbei verlässt ein Produkt nie die Testphase, da in einem iterativen Prozess Mängel durch Kundenfeedback identifiziert und neue Produktversionen veröffentlicht werden.

3.2

Methodik

Um die zentralen Aspekte des Spektrums zu konkretisieren, bieten sich explorative Ansätze in Form von Fallstudien (Rowley 2002) an. Bezogen auf die Management-Forschung befürworten Patton und Appelbaum (2003) Fallstudien, da sie die Erschließung neuer Themengebiete sowie die Hypothesenentwicklung fördern. Ein Vorteil ist, dass die Beispiele in ihrem natürlichen Kontext stattfinden und komplexe Zusammenhänge berücksichtigen. Anhand einer deskriptiven vergleichenden Falluntersuchung nach Miles und Hubermann (1994, S. 187–193) werden die zentralen Punkte des Spektrums strukturiert. Daraufhin sollen die Ebenen einer effektiven Fehlerkultur sowie Wechselwirkungen mit der Organisationskultur erörtert werden. Dies stützt sich zum einen auf die theoretischen Grundlagen zu Kulturkonzepten und zum anderen auf die Ergebnisse der Falluntersuchung. Hierbei sollte eine praktische Sichtweise der Fehlerkultur im Fokus stehen, also wie die Fehlerkultur es ermöglicht, Fehler zu vermeiden oder nutzbar zu machen.

4

Fallbeispiele

4.1

Angst vor Fehlern – Kodak

Mit Gründung der Eastman Company 1889 entstand eine über Jahrzehnte hinweg als »Kodak« bekannte Institution der Fotografie (Kodak Alaris Germany GmbH o. J.). Der Gründer George Eastman traf weitreichende Entscheidungen

44

Nicolas Mues / Karoline Braun / Carolin Uebach / Lisa Völkel

für das Geschäftsmodell Kodaks, welche dazu führten, dass das Unternehmen über Jahre wirtschaftlich erfolgreich war (Carroll/Mui 2008, S. 91). Um 1900 waren weltweit 80 bis 90 % der verkauften Filmnegativstreifen von Kodak (Carroll/Mui 2008, S. 91). In den 1960ern und 1970ern gehörte Kodak zu den »›Nifty Fifty‹, a group of stocks that were known as sure bets« (Carroll/Mui 2008, S. 89). Zu Beginn der 1980er Jahre wurde Kodak auf die Frage aufmerksam, wann die digitale Technologie die damals gängige Silberhalogenid-Technologie ablösen könnte (Carroll/Mui 2008, S. 91; Barraba 2011, S. 73). Vincent P. Barraba, Head of Market Intelligence, führte daraufhin eine Untersuchung des Status quo sowie einer möglichen Strategieanpassung von Kodak durch. Ergebnis der Befragungen sowie Diskussionen war eine Liste kritischer Annahmen zur Kodak-Strategie und Prognosen dazu, welche der Technologien bis 1990 dominieren würde (Barraba 2011, S. 74–75). Nachdrücklich wurde darauf hingewiesen, dass der digitale Wandel erwartet wurde und Kodak ein Jahrzehnt lang Zeit zur Vorbereitung haben würde. Folglich nahm das Management an, dass die traditionelle Fotografie in den 1980ern dominant blieb. Demzufolge müsste aus damaliger Sicht eine elektronische Kamera noch viele Hindernisse überwinden, bis sie ein Qualitäts- und Preisniveau erreichen würde, mit dem sie auf dem Massenmarkt verkauft werden könnte (Carroll/Mui 2008, S. 92; Barraba 2011, S. 74–75). Kodak entschied sich schließlich dazu, die bestehende Technologie durch die digitale Technologie lediglich zu unterstützen, jedoch nicht zu ersetzen (Barraba 2011, S. 75). Tatsächlich waren in den 1980er Jahren elektronische Drucker, Anzeigen sowie digitale Kameras für den Massenmarkt noch viel zu teuer, als dass sie für Kodak eine Gefahr für ihre Marktposition darstellen konnten (Carroll/Mui 2008, S. 92, Barraba 2011, S. 75). Doch mit Beginn der 1990er machte sich das Fehlen einer digitalen Strategie bemerkbar. Trotz Warnung verließ sich Kodak auf traditionelle Technologien, deren Vorteile jedoch durch Weiterentwicklung digitaler Technologien zerstört wurden. Die Preise digitaler Kameras fielen im Laufe der Zeit und ihre Qualität wurde zunehmend besser und das Management sah die Warnungen der Untersuchungen eher als Legitimationsgrundlage zur Wahrung der traditionellen Strategie als ein Signal dafür, das Geschäftsmodell zugunsten digitaler Entwicklungen umzugestalten (Carroll/Mui 2008, S. 93). Schon 1975, bevor Barraba die Studie durchführte, konstruierte Steven J. Sasson die erste digitale Fotokamera (Carroll/Mui 2008, S. 93). Daher lässt sich vermuten, dass die weitreichenden Entscheidungen nicht auf der Tatsache beruhten, dass Kodak die internen Voraussetzungen für die Entwicklung von digitalen Produkten fehlten. In einem Interview mit der New York Times sagte Sasson:

Der Umgang mit Fehlern in Organisationen – eine fallbasierte Analyse

45

»it was filmless photography, so management’s reaction was, ›that’s cute – but don’t tell anyone about it‹.« (Deutsch 2008)

Sie trafen die Entscheidung, weiterhin an den Profiten ihrer alten Technologie festzuhalten, und nutzten die internen Potenziale nicht, was sich im Nachhinein als Fehlentscheidung herausstellen sollte. Demzufolge ist Kodak auf dem Spektrum in der Kategorie »Angst vor Fehlern« einzuordnen. Es ist zu vermuten, dass die Angst vor unternehmensinterner und -externer Unsicherheit und den aus möglichen Fehlern resultierenden Konsequenzen (Autio/Pathak/Wennberg 2013, S. 345) ausschlaggebend für die »neither-fish-nor-fowl strategy« (Carroll/Mui 2008, S. 101) von Kodak war. Geblendet von dem profitablen Geschäft der traditionellen Technologie, sah Kodak die Ergebnisse der Untersuchungen als Legitimation der Beibehaltung dieser Strategie an. Die Angst davor, die alte Technologie aufzugeben, in die neue Technologie zu investieren und auf die gewohnten Gewinne zu verzichten, wurde womöglich stärker gewichtet als der Wert der Information über die digitale Zukunft, welche dem Management schon 1980 vorlag: »The future was so visible in 1980 at Kodak, and yet the will to do anything about it did not seem to be there.« (McGrath 2013, S. 138–139)

Dies wurde vermutlich durch die Angst vor zu hohem Wettbewerbsdruck bestärkt. Sony brachte 1984 die erste digitale Kamera »Mavica« auf den Markt. Auch Fuji passte sein Geschäftsmodell an die externen Gegebenheiten an (McGrath 2013, S. 2–3). Kodak hingegen ging 2012 bankrott (McGrath 2013, S. 4). Kodak sah »the world through the prism of prints [and] consistently underestimated the speed with which digital would overtake film and prints.« (Carroll/Mui 2008, S. 101)

4.2

Serendipität – Honda

Der Eintritt Hondas Ende der 1950er in den amerikanischen Motorradmarkt gilt heute noch als Exempel eines unternehmerischen Comebacks und eines effektiven Umgangs mit Fehlern und unerwarteten Chancen. Wie schwer dieser Weg war, bekräftigt die Aussage Takeo Fujisawas, eines der Gründer von Honda: »To take up the challenge of the American market may be the most difficult thing to do« (Honda o. J.). Zu dieser Zeit war Honda in Japan bereits mit kleinen Maschinen, den Super Cubs, marktführend. Ein niedriger Preis und geringes Gewicht führten zu großer Beliebtheit (Rumelt 1996, S. 106). Von 285.000 Motorrädern, die Honda 1959 in Japan produzierte, waren zwei Drittel Super Cubs (Runde/de Rond 2010, S. 437).

46

Nicolas Mues / Karoline Braun / Carolin Uebach / Lisa Völkel

Exportiert wurden allerdings nur 4 % (Mair 1999, S. 27). Obwohl Honda Experte für kleine Maschinen war, beauftragte man Kihachiro Kawashima mit dem Eintritt in den US-Markt, auf dem große Maschinen dominierten. Erschwerend wirkte das skeptische japanische Finanzministerium, welches damals die Freigabe von Auslandswährung kontrollierte. Zudem war Toyota erst ein Jahr zuvor beim Eintritt in den amerikanischen Automarkt gescheitert. Kawashima begann seinen Auftrag mit geringer Marktkenntnis. Bezeichnend ist sein Zitat: »In truth, we had no strategy other than the idea of seeing if we could sell something in the United States.« (Pascale 1984, S. 54)

US-Marktführer war damals Harley-Davidson. Ebenso waren aus Europa Triumph, Norton und Moto Guzzi vertreten. Passend zu Harley Davidson und damaligen Hollywoodfilmen war der Stereotyp eines Motorradfahrers männlich und rebellisch (Pascale 1984, S. 49). Dementsprechend entschied sich Honda zwar dafür, vier Größenklassen an Motorrädern in den USA zu vertreiben, vor allem aber, die schwerste Kategorie zu bewerben. Ende 1960 hatte Honda ein Netzwerk von 40 Händlern aufgebaut, doch die Verkaufszahlen waren schwach. Als Berichte über erhebliche Mängel bei den Großmaschinen aufkamen, war der vorläufige Tiefpunkt erreicht. Kawashima stoppte den Import, ließ die Räder in Japan reparieren und die Käufer entschädigen. Hierzu sagte er : »This was our lowest moment« (Pascale 1984, S. 55). Honda hatte gleich mehrere Fehler begangen. Basierend auf einer unzureichenden Marktsondierung wurde ein undifferenziertes Produktangebot beworben. Zwar passte sich Honda an die Landeskultur und den Wettbewerb an, konstruierte die Maschinen aber fehlerhaft und vernachlässigte eigene Stärken. Honda schien gescheitert. Fünf Jahre später aber hatte man trotz dieser Tiefschläge den Umsatz von 500.000 auf 77.000.000 Dollar gesteigert und einen Marktanteil von mehr als 50 % erreicht (Runde/de Rond 2010, S. 437). Dies gelang insbesondere dadurch, effektiv mit Fehlern umzugehen und die Chancen zufälliger Entwicklungen konsequent zu nutzen. Die Super Cubs hatte Kawashima im US-Markt kaum beworben. Seine Mitarbeiter und er nutzten sie aber, um durch Los Angeles zu fahren (Dew 2009, S. 737). Eines Tages fragte die Kaufhauskette Sears an, ob Honda die kleinen Maschinen bei ihnen vertreiben wolle. Kawashima war skeptisch, da ihm dieser Vertriebsweg sowie die kleinen Räder unattraktiv erschienen, doch waren die Super Cubs die einzig verbliebene Erlösquelle (Mintzberg et al. 1996, S. 87). Entgegen Kawashimas Erwartung setzten sich die Super Cubs durch. Vor allem Studenten kauften die günstigen Räder (Honda o. J.). Beim Antritt in den USA zielte Honda auf einen Anteil von 10 % des Importmarktes ab (Pascale 1984, S. 54). 1966 waren es 63 % (Pascale 1984, S. 50). Der Umstieg auf die kleinen Räder wurde begleitet durch Anpassungen und Schulungen im Dealer Mana-

Der Umgang mit Fehlern in Organisationen – eine fallbasierte Analyse

47

gement, durch die Einführung moderner Informationssysteme und eine starke Serviceorientierung (Stalk/Evans/Shulman 1992, S. 66). Im Nachhinein mag Hondas Erfolg wie die Aneinanderreihung glücklicher Zufälle wirken. Es entstanden neue Vertriebswege und Zielgruppen. Doch ist der Erfolg vor allem in der Fehlerkultur Hondas zu erkennen: »How an organization deals with miscalculation, mistakes, and serendipitous events outside its field of vision is often crucial to success over time.« (Pascale 1984, S. 57)

Extremer formuliert: »Brilliant as its strategy may have looked after the fact, Honda’s managers made almost every conceivable mistake until the market finally hit them over the head with the right formula.« (Mintzberg 1987, S. 70)

Hierbei kam Honda seine innovative Organisationskultur zugute. So konnte Honda sich an diverse Veränderungen anpassen, selbst dann, als man eigentlich schon gescheitert war. Zentral hierfür waren Lernprozesse: »The Honda managers on site in America, driving their products themselves (and thus inadvertently picking up market reaction), did only one thing right: they learned, firsthand.« (Mintzberg 1987, S. 70)

4.3

Bewusste Fehler – PLAYERUNKNOWN’S BATTLEGROUNDS

Das Mehrspieler-Videospiel PLAYERUNKNOWN’S BATTLEGROUNDS (PUBG) des Entwicklers PUBG Corporation wurde am 23. 03. 2017 als Early Access Titel auf der Online-Plattform Steam veröffentlicht (Steam 2017b) und gehört dem Battle-Royale-Genre an. Dabei werden 100 Spielcharaktere auf einer virtuellen Insel abgesetzt, welche sie nach Waffen und Vorräten suchend erforschen, wobei sie sich nur in einem stets kleiner werdenden Bereich aufhalten dürfen. Gewonnen hat der letzte Überlebende (Steam 2017a). PUBG ist nicht das erste Spiel im »Early Access«, einem Modell, bei dem die Kundschaft schon vor der offiziellen Veröffentlichung eines Spiels die Möglichkeit hat, dieses für einen geringeren Preis oder kostenlos zu erwerben. Die Kundschaft kann durch ständiges Feedback Einfluss auf die Entwicklung des Spiels nehmen, es testen und enthaltene Fehler aufdecken (Steam 2019). Dies ist ein offener Prozess, bei dem die Kundschaft durch die Kommunikation untereinander sowie mit dem Entwickler profitieren kann (Holstroem 2001, S. 304). Die Veröffentlichung im Early Access bedeutet im Fall von PUBG, dass sich das Spiel in einer Beta-Version befand (Hollister 2017). Beta-Versionen sind unvollendete Versionen einer Software, die durch außenstehende Personen getestet

48

Nicolas Mues / Karoline Braun / Carolin Uebach / Lisa Völkel

werden. So sollen enthaltene Softwarefehler identifiziert werden (Davis/Steury/ Pagaluyan 2005). Der gewählte Early-Access- und die Beta-Version zeigen auf, dass PUBG zum Zeitpunkt der Vorabveröffentlichung nicht fertiggestellt und fehlerhaft war. Dessen waren sich sowohl die PUBG Corporation als auch die Kundschaft bewusst. Trotz dieser inhärenten Fehler konnte sich PUBG in den ersten Monaten die Vorreiterrolle im Battle-Royale-Genre sichern (Molina 2017). So zählte PUBG 2017 mit 25 Millionen verkauften Einheiten (Hollister 2017) zu den weltweit beliebtesten Spielen (Garren 2017) und ein erstes professionelles Turnier konnte stattfinden (Oelschlägel 2017). Am 20. 12. 2017 erfolgte die offizielle Veröffentlichung von PUBG. Diese wurde begleitet von einem Update, mit welchem viele Inhalte eingeführt wurden, die sich die Kundschaft schon lange wünschte. Dabei versprach die PUBG Corporation, für stetige Verbesserungen und Eliminierung von Fehlern zu sorgen, damit ein professionelles Spielerlebnis realisiert werden könne (Hollister 2017). Doch das exponentielle Wachstum von PUBG hielt nicht an. Mit dem Jahresanfang 2018 gingen die Spielerzahlen stetig zurück und die Beschwerden über Probleme häuften sich. Ein Grund für den Rückgang der Spielerzahlen wird dabei nicht nur in einer mangelhaften Performance von PUBG gesehen, sondern auch im Erfolg des Konkurrenten Epic Games mit dem Spiel Fortnite (Grayson 2018). Die Beschwerden allerdings nahmen ein solches Ausmaß an, dass die PUBG Corporation im August 2018 die Kampagne »Fix PUBG« startete, um gezielt auf diese einzugehen. Die PUBG Corporation räumte dabei ein, dass sie es nicht geschafft habe, die Erwartungen der Kundschaft zu erfüllen. Gerade aber die Kundschaft sei der Grund für den Erfolg, weshalb man nun auf die angesprochenen Probleme eingehen wolle (o. V. 2018). Im November 2018 wurde die Kampagne eingestellt. In einem offenen Brief schildert Taeseok Jang, der Executive Producer, welche Verbesserungen umgesetzt werden konnten. Jang schildert abermals, dass es ein Fehler war, in den Monaten vor Kampagnenbeginn nicht ausreichend auf die Erwartungen einzugehen. Das Team habe sich zu sehr auf die Entwicklung neuer Inhalte konzentriert und so die Fehler, die aus Spielersicht relevant sind, nicht in Angriff genommen (Jang 2018). Die PUBG Corporation schaffte es nicht, nach der offiziellen Veröffentlichung den Erwartungen der Kundschaft gerecht zu werden. Ein wichtiger Erfolgsfaktor in der Branche ist aber gerade die Produktqualität (Jiang et al. 2017, S. 151), die hier ungenügend war. Dies resultierte für die PUBG Corporation in sinkenden Spielerzahlen (Grayson 2018) und darin, dass sie vom Konkurrenten Epic Games überholt wurde (Gurwin 2018). Der Grund dafür wird

Der Umgang mit Fehlern in Organisationen – eine fallbasierte Analyse

49

von Gurwin (2018) vor allem in Epic Games’ Fähigkeit, Fehler schnell und effektiv beseitigen zu können, gesehen. Der Fall PUBG zeigt eine Fehlerkultur auf, die auf dem Spektrum unter »Bewusste Fehler« eingeordnet werden kann. PUBG Corporation wählte eine branchenübliche Veröffentlichungsform, bei der Fehler inhärent sind. Zunächst konnten mit dem Vorgehen des bewussten Fehler-in-Kauf-Nehmens Erfolge erzielt werden, da sich sowohl Entwickler als auch die Kundschaft der enthaltenen Fehler bewusst waren. Nach der offiziellen Veröffentlichung wird allerdings ein fehlerfreies Produkt erwartet. Dieser Erwartung wurde PUBG nicht gerecht, da sich die Entwickler zu sehr darauf fokussierten, neue Inhalte einzubringen, anstatt Fehler zu beseitigen (Jang 2018). PUBG konnte mit der Fehlerkultur der bewussten Fehler temporär große Erfolge erzielen, langfristig resultierte sie jedoch im Verlust des Wettbewerbsvorteils und der Kundschaft an die Konkurrenz.

5.

Vergleichende Analyse der Fallbeispiele

5.1

Das Management von Fehlern und Fehlerkulturen

Sowohl Kodak als auch Honda und die PUBG Corporation begingen Fehler, die ihr Geschäftsmodell maßgeblich beeinflussten. Allerdings brachte der Umgang mit diesen Fehlern unterschiedliche Ergebnisse hervor (Tab. 1). Diesbezüglich wirkte sich auch die Abstimmung der Fehlerkultur mit der Organisationskultur aus. Zunächst wird jedoch auf das Management der Fehlerkultur eingegangen, um darauffolgend die Abstimmung mit der Organisationskultur zu verdeutlichen. Das oben eingeführte Spektrum der Fehlerkulturen hilft dabei, das Management einer solchen Kultur verständlicher zu machen. Das Spektrum geht weiter als vergleichbare Modelle wie jenes von van Rooij (2015, S. 218) und fokussiert sich auf die Arten von Fehlern, die vom Unternehmen tatsächlich beeinflussbar sind. So führt van Rooij neben betriebswirtschaftlichen Fehlern, welche Parallelen zu den Fehlertypen des Spektrum dieses Artikels aufweisen, auch strukturelle Fehler und solche Fehler, die in der Überlegenheit der Konkurrenten begründet sind, auf. Überschneidungen gibt es ebenfalls zur Typologie von Zhao und Olivera (2006, S. 1017) mit ihren drei Fehlertypen: »Slips« bezeichnen Fehler, die zwar mit guter Absicht, aber letztendlich fehlerhaft ausgeführt wurden; »Knowledge-Based Mistakes« hingegen geschehen, wenn Akteure nicht über notwendige Kompetenzen verfügen; »Rule-Based Mistakes« entstehen, wenn existente Prozessregeln nicht kontextangemessen angewendet wurden. Gerade die letztgenannte Kategorie dieser regelbasierten

50

Nicolas Mues / Karoline Braun / Carolin Uebach / Lisa Völkel

Fehler trifft sowohl auf Honda als auch auf Kodak zutrifft: Während Honda zunächst nach den Regeln des amerikanischen Marktes agierte, diese dann aber brach und Erfolg hatte, folgte Kodak den eigenen, innovationsfeindlichen Regeln und scheiterte. Mit der Ausprägung der »Bewussten Fehler« werden neuartige Auffassungen von Fehlern aufgegriffen. So entwickelt auch Edmondson (2011, S. 50) ein Spektrum der Fehler, bezieht sich aber nur auf die Ursprünge von Fehlern. Ähnlich wie die Fehlerwertschätzung spricht auch sie von »lobenswerten Fehlern«, bei denen Chancen und Wissensgenerierung im Fokus stehen. Angst vor Fehlern (Beispiel: Kodak) In den 1980er Jahren ist Kodak ein führendes FotografieUnternehmen. Doch der Wandel zu Digitalkameras kündigt sich an.

Serendipität (Beispiel: Honda) Ab 1958 will Honda den amerikanischen Motorrad-Markt erobern. In Japan ist man mit kleinen Maschinen bereits Marktführer.

Bewusste Fehler (Beispiel: PUBG) Das Videospiel PUBG erscheint 2017 als Early-Access-Titel und erfreut sich trotz inhärenter Fehler schon nach kurzer Zeit hoher Beliebtheit und guter Verkaufszahlen.

Fehler

1975 entwickelt Kodak die erste Digitalkamera. Das Management jedoch setzt weiter auf die analoge Technik.

Basierend auf Marktsondierungen konzentriert sich Honda auf große Motorräder. Die kleinen Maschinen werden vernachlässigt.

Angesichts des Erfolgs in der Testphase entschließt sich der Entwickler Ende 2017 vorschnell, PUBG nun offiziell zu veröffentlichen.

Reaktion

Aus Angst vor Unsicherheit und Kannibalisierungseffekten verwirft Kodak die Strategie der Digitalkameras.

Als die großen Motorräder zurückgerufen werden müssen, setzt Honda auf die kleinen Maschinen und ein neues Vertriebsmodell.

Die offizielle Veröffentlichung macht ein fehlerfreies Spiel erforderlich. Jedoch muss aufgrund zahlreicher Mängel eine Kampagne zur Fehlerbehebung gestartet werden.

Konsequenz

Kodak, obgleich eigentlich Vorreiter, wird von Wettbewerbern überholt. 2012 muss Kodak Insolvenz anmelden.

Innerhalb von fünf Jahren erobert Honda einen Marktanteil von 50 % und entwickelt ein enormes Ansehen in der Käuferschaft.

Die Spielerzahlen von PUBG sinken stetig. Der Hauptkonkurrent Epic Games mit dem Spiel Fortnite übernimmt die Marktführerschaft.

Situation

Tab. 1: Vergleich der analysierten Fallbeispiele

Der Umgang mit Fehlern in Organisationen – eine fallbasierte Analyse

51

Hinsichtlich des Managements der Elemente innerhalb der Fehlerkultur sind drei Kernaspekte zu berücksichtigen: Das Verständnis der Fehlerkultur als dynamischer Prozess, die vertikale Abstimmung der Kulturebenen und die horizontale Abstimmung unterschiedlicher Fehlerkulturen im Unternehmen. Gemeinhin werden Fehlerkulturen als resistent gegenüber Wandel angesehen, speziell auf Ebene der Grundannahmen, wie es auch Schein anerkennt (Hatch 2004, S. 190; Schein 2000, S. XXIV). Eine solche Statik wäre jedoch nachteilig für die Fehlerkultur, welche als ein fortlaufender Prozess aufgefasst werden sollte. Somit sind es speziell die Artefakte der Fehlerkultur, also Prozesse und Praktiken, die einen effizienten Umgang mit Fehlern ermöglichen, da sie sich unmittelbar auswirken (de Long/Fahey 2000, S. 115; Tseng 2010, S. 271). Das Management sollte die Ansatzpunkte der Fehlerkultur also nicht nur nach Sichtbarkeit, sondern auch nach der Steuerbarkeit auswählen (de Witte/van Muijen 1999, S. 500; Ostroff/Kinicki/Muhammad 2012, S. 647). Darüber hinaus ist die Abstimmung der dynamischeren und der eher statischen Ebenen der Fehlerkultur essenziell (Arogyaswamy/Byles 1987, S. 653). Oftmals sind die Artefakte nicht kongruent mit den tieferliegenden Kulturebenen (Buch/Wetzel 2001, S. 41). Honda beispielsweise wollte Fehler zunächst durch Nachbesserungen beseitigen, entschied sich aber dann für die Super Cubs und für einen gänzlich anderen Vertriebsprozess. Doch widersprach dies nicht den Grundwerten der Fehlerkultur, welche Erfindergeist förderte (Pascale 1984, S. 54). Kodak dagegen schien zumindest in Teilprozessen innovativ vorzugehen, doch wurde durch die Grundannahmen der Erhalt des Status Quo gefördert. Kodak veranschaulicht auch, dass es mehrere Fehlerkulturen im Unternehmen geben kann. Das innovative Vorgehen in der Forschung widersprach der Fehlerkultur in anderen Einheiten. Entlang des Produktionsprozesses sollten grundsätzlich Fehlerkulturen herrschen, die einander nicht konträr gegenüberstehen. Dementsprechend begrüßt beispielsweise die NASA in frühen Phasen Fehler, das endgültige Produkt hingegen bedarf unbedingt der Fehlervermeidung. Gleiches gilt für verschiedene Abteilungen: In Forschungsabteilungen sind Fehler unvermeidlich, während das Controlling so viele Fehler wie möglich beseitigen sollte. Dies macht die Relevanz der horizontalen Abstimmung verschiedenartiger Fehlerkulturen innerhalb einer Organisation deutlich. Die effektive Umsetzung der Fehlerkultur hängt stark von der Personalführung ab. Fehlerkulturen müssen jeden Mitarbeiter erreichen, damit der Umgang mit Fehlern gesteuert werden kann. Oftmals erhoffen sich Manager, dass Mitarbeiter risikofreudiger agieren, belohnt wird aber fehlerfreie Arbeit (Kriegesmann/Kley/Schwering 2005, S. 57). Durch eine geeignete Anreizstruktur werden »kreative Fehler« ermöglicht. In einer BMW-Niederlassung in Regensburg wurde ein solcher Ansatz verfolgt. Hier wurde eine »Creative Error of the Month«-Initiative gegründet, welche innovative Projekte auszeichnete, die al-

52

Nicolas Mues / Karoline Braun / Carolin Uebach / Lisa Völkel

lerdings bei der Implementation scheiterten. Die ausgelobte Auszeichnung war kein Geld, sondern ein persönliches Geschenk. Dies verhinderte, dass ein Anreiz geschaffen wurde, um zwar risikofreudig zu arbeiten, aber kostspielige Fehler zu begehen. Stattdessen wurde das Personal motiviert, persönliche und dem Unternehmen förderliche Ziele zu verfolgen, was wiederum die intrinsische Motivation und die Verbundenheit mit dem Unternehmen steigerte (Kriegesmann/ Kley/Schwering 2005, S. 61–63).

5.2

Das Zusammenspiel von Fehler- und Organisationskultur

Obwohl einzig Honda erfolgreich war, bedeutet dies nicht, dass diese Fehlerkultur generell die zu bevorzugende ist. Im Falle Hondas war es besonders die Organisationskultur, die als Katalysator der Fehlerkultur diente. Bei Kodak hingegen führte die Organisationskultur zur Verhinderung eines Wettbewerbsvorteils, während bei PUBG die Organisationskultur auf einen schnellen Erfolg durch die Veröffentlichung abzielte, wobei es eher der Fehlerkultur entsprochen hätte, noch einige Zeit in der Betaphase zu verbringen. Diesbezüglich gibt es drei Wirkungsbeziehungen, die zwischen Fehler- und Organisationskultur herrschen können: Kontrarietät, Indifferenz oder Komplementarität. Anhand des Falles von Kodak werden die nachteiligen Konsequenzen einer konträren Wirkungsbeziehung deutlich. Kodak entwickelte zwar 1974 die erste Digitalkamera der Welt, doch blieb diese Innovation ungenutzt. Als die Erfindung vorgestellt wurde, reagierten die Kollegen kühl. Das Management entschied sich, dass das bewährte und damals lukrative Filmgeschäft nicht gefährdet werden solle (Lucas/Goh 2009, S. 54). So schien es in der Forschungsabteilung von Kodak durchaus Freiraum für Experimente gegeben zu haben, doch stand dies im Kontrast zur innovationsfeindlichen Organisationskultur. In diesem Fall verhinderte die Organisationskultur einen Fortschritt. In schwächerer Ausprägung kann eine konträre Wirkungsbeziehung auch lediglich zur Verschleppung und nicht zur Verhinderung positiver Effekte der Fehlerkultur führen. Eine indifferente Wirkungsbeziehung ist vergleichsweise unrealistisch, da notwendigerweise eine Beziehung zwischen Fehler- und Unternehmenskultur bestehen muss. Zumindest kann unter dieser Art der Beziehung verstanden werden, dass die Organisationskultur die positiven Effekte der Fehlerkultur nicht ausbremst, aber diese auch nicht fördert. Im Falle Kodaks könnte dies beispielhaft bedeuten, dass sowohl Fehler- als auch Organisationskultur ein ähnliches Maß an Innovationsfreundlichkeit aufweisen, wodurch die Durchsetzung der Digitaltechnik nicht unterbunden worden wäre. Bezogen auf Honda könnte Indifferenz bedeuten, dass die Organisationskultur skeptischer geprägt

Der Umgang mit Fehlern in Organisationen – eine fallbasierte Analyse

53

hätte sein können wie es auch Kawashima gegenüber der Super Cubs in Amerika war. Hätte die Organisationskultur nicht derart viel Freiraum gestattet, hätten die Mitarbeiter in Amerika womöglich nicht das Vertrauen gespürt, einen radikalen Strategiewechsel einzuleiten. So aber dient Honda als Beispiel, wie sich Organisations- und Fehlerkultur ergänzen, sofern sie die gleichen Werte teilen. Hondas risikofreudige »against all odds«-Organisationskultur war ausgelegt auf Innovationsfähigkeit und nicht unbedingt auf kommerzielle Ziele (Pascale 1984, S. 52). Ferner verschaffte die als chaotisch bezeichnete Kultur den Mitarbeitern Freiraum. Dies erzeugte das Vertrauen, den Umgang mit dem Fehler radikal zu ändern, wodurch die langfristige Marktführerschaft erreicht wurde. Hingegen zeigt der Fall von PUBG, dass die Organisationskultur auch zu stark auf eine Beschleunigung des Produktfortschritts drängen kann. Das noch fehlerbehaftete Produkt wurde zu schnell offiziell veröffentlicht. Aus Sicht der Fehlerkultur wäre es vorteilhafter gewesen, das Entwicklungsstadium vorerst nicht zu verlassen, wie es für Videospiele üblich ist. So hätte die agile Softwareentwicklung, insbesondere Scrum, genutzt werden können, wodurch der Wissensvorsprung in den Fokus gerückt worden wäre und eine fortlaufende Anpassung an die Kundenanforderungen hätte erfolgen können (Keith 2010, S. 21).

6.

Fazit

Während die Organisationskultur schon länger als wichtiger Faktor für den Unternehmenserfolg gilt, ist die Beziehung zwischen bewusster Fehlerkultur und dem Unternehmenserfolg bislang noch nicht in der gleichen Intensität explizit gemacht worden. Dies liegt unter anderem an konträren und eindimensionalen Fehlerverständnissen. Dabei gibt es unterschiedliche Arten von Fehlern und Verfahrensweisen. Eine dynamische, vielfältige Auffassung der Fehlerkultur in Abstimmung mit der Organisationskultur bietet eine realistischere Sichtweise, speziell bezüglich des Lernpotenzials von Fehlern. Um die Fehlerkultur innerhalb des Unternehmens zu gestalten und die positiven Wirkungen einer derartigen Kultur nutzen zu können, müssen vielfache Beziehungen berücksichtigt werden. Grundlegend ist das Verständnis einer Fehlerkultur als dynamischer Prozess. Der Fokus liegt hier auf den Artefakten, also auf den unmittelbar wirkenden Prozessen und Praktiken. Diese sind speziell geeignet, um den Umgang mit Fehlern zu steuern. Jedoch gibt es für das Management von Fehlerkulturen zwei weitere wichtige Ansatzpunkte: Auf einer vertikalen Ebene ist sicherzustellen, dass die Prozesse und Praktiken nicht im Widerspruch zu Grundannahmen und Werten der Fehlerkultur stehen. Ansonsten kann es zu folgenschweren Fehleinschätzungen kommen. Dies ver-

54

Nicolas Mues / Karoline Braun / Carolin Uebach / Lisa Völkel

deutlicht das Fallbeispiel Kodaks. Auf einer horizontalen Ebene sind verschiedenartige Fehlerkulturen innerhalb der Organisation abzustimmen. Je nach Produktionsstadium oder Abteilung können unterschiedliche Fehlerkulturen vorherrschen. Trotz dieser Unterschiede muss das Management sicherstellen, dass die grundlegende Ausrichtung nicht konträr verläuft. Darüber hinaus besteht aber auch eine Beziehung zur Organisationskultur. Fehlerkultur und Organisationskultur sollten einander ergänzen. Dies zeigt das Beispiel Hondas. Die ohnehin schon innovative Fehlerkultur wurde bei Honda durch die experimentierfreudige »against all odds«-Organisationskultur bekräftigt. Jedoch gibt es noch zahlreiche weitere interne und externe Parameter, die die Kontingenztheorien bislang im Hinblick auf die Ausgestaltung der Fehlerkultur noch nicht mit einbezogen haben (Arogyaswamy/Byles 1987, S. 652; Martins/ Terblanche 2003, S. 68). Beispiele mit weiterem Entwicklungspotenzial sind die Verbindungen zu Landeskulturen und ihren Dynamiken, aber auch der Zusammenhang der Fehlerkultur mit spezifischen Lernprozessen und Lernkulturen (Egan/Yang/Bartlett 2004, S. 282). So kann die Unternehmensleitung aufgrund eines tieferen Verständnisses des Umgangs mit Fehlern die Transparenz erhöhen, wodurch Mitarbeiterbindung und -zufriedenheit gesteigert werden könnten. Die Fehlerkultur kann von Führungskräften somit als Fortschritts- und Stabilitätsquelle genutzt werden. Wird die Fehlerkultur offener gestaltet, können bisher verdeckte Fehler erkannt und die Effizienz gesteigert werden. Mithin kann eine motivierende Fehlerkultur ein größerer Ansporn als Vergütungsmaßnahmen sein. Führungskräfte müssen sich der Fehlerkultur in ihrem Bereich bewusst werden und die Steuergrößen, also vorwiegend Prozesse und Praktiken, identifizieren, mit denen rasch auf Fehler reagiert werden kann. Ebenso aber müssen die zugrundeliegenden Werte der Fehlerkultur hinterfragt werden, nicht zuletzt mit Blick auf die übergeordnete Organisationskultur.

Literatur Appelbaum, Steven H./Gallagher, John (2000): The Competitive Advantage of Organizational Learning. Journal of Workplace Learning 12 (2), S. 40–56. Arogyaswamy, Bernard/Byles, Charles M. (1987): Organizational Culture: Internal and External Fits. Journal of Management 13 (4), S. 647–658. Autio, Erkko/Pathak, Saurav/Wennberg, Karl (2013): Consequences of Cultural Practices for Entrepreneurial Behaviors. Journal of International Business Studies 44 (4), S. 334– 362. Barraba, Vincent P. (2011): The Decision Loom. A Design for Interactive Decision-Making in Organizations. Axminster.

Der Umgang mit Fehlern in Organisationen – eine fallbasierte Analyse

55

Baumann-Habersack (2017): Mit neuer Autorität in Führung: Die Führungshaltung für das 21. Jahrhundert. Wiesbaden. Birkinshaw, Julian/Haas, Martine (2016): Increase Your Return on Failure. Harvard Business Review 94 (5), S. 88–93. Buch, Kimberly/Wetzel, David K. (2001): Analyzing and Realigning Organizational Culture. Leadership & Organization Development Journal 22 (1), S. 40–44. Cacciotti, Gabriella/Hayton, James C./Mitchell, J. Robert/Giazitzoglu, Andreas (2016): A Reconceptualization of Fear of Failure in Entrepreneurship. Journal of Business Venturing 31 (3), S. 302–325. Carroll, Paul B./Mui, Chunka (2008): Billion Dollar Lessons: What You Can Learn from the Most Inexcusable Business Failures of the Last 25 Years. New York. Cope, Jason (2011): Entrepreneurial Learning from Failure: An Interpretative Phenomenological Analysis. Journal of Business Venturing 26 (6), S. 604–623. Davis, John P./Steury, Keith/Pagulayan, Randy (2005): A Survey Method for Assessing Perceptions of a Game: The Consumer Playtest in Game Design. Game Studies 5 (1), S. 1–13. de Long, David W./Fahey, Liam (2000): Diagnosing Cultural Barriers to Knowledge Management. Academy of Management Perspectives 14 (4), S. 113–127. de Witte, Karel/van Muijen, Jaap J. (1999): Organizational Culture. European Journal of Work and Organizational Psychology 8 (4), S. 497–502. Deutsch, Claudia H. (2008): At Kodak, Some Old Things Are New Again. https://www.ny times.com/2008/05/02/technology/02kodak.html (zuletzt abgerufen am 12. 05. 2019). Dew, Nicholas (2009): Serendipity in Entrepreneurship. Organization Studies 30 (7), S. 735–753. e Cunha, Miguel P./Clegg, Stewart R./MendonÅa, Sandro (2010): On Serendipity and Organizing. European Management Journal 28 (5), S. 319–330. Edmondson, Amy C./Moingeon, Bertrand (1996): When to Learn How and When to Learn Why : Appropriate Organizational Learning Processes as a Source of Competitive Advantage. In: Moingeon, Bertrand/Edmondson, Amy C. (Hrsg.), Organizational Learning and Competitive Advantage. Thousand Oaks, S. 17–37. Edmondson, Amy C. (2011): Strategies for Learning from Failure. Harvard Business Review 89 (4), S. 48–55. Egan, Toby M./Yang, Baiyin/Bartlett, Kenneth R. (2004): The Effects of Organizational Learning Culture and Job Satisfaction on Motivation to Transfer Learning and Turnover Intention. Human Resource Development Quarterly 15 (3), S. 279–301. Ellebracht, Heiner/Lenz, Gerhard/Osterhold, Gisela/Schäfer, Helmut (2003): Systemische Organisations- und Unternehmensberatung: Praxishandbuch für Berater und Führungskräfte. Wiesbaden. Farson, Richard/Keyes, Ralph (2002): The Failure-Tolerant Leader. Harvard Business Review 80 (8), S. 64–71. Freud, Sigmund (1916–17): Vorlesungen zur Einführung in die Psychoanalyse. Wien. Garren, Patrick (2017): PLAYERUNKNOWN’S BATTLEGROUNDS is World’s 6th Most Popular PC Game, According to Newzoo. https://esportsobserver.com/pubg-pc-gamestats-newzoo/ (zuletzt abgerufen am 10. 05. 2019).

56

Nicolas Mues / Karoline Braun / Carolin Uebach / Lisa Völkel

Grayson, Nathan (2018): Despite Player Decline, PUBG Isn’t Doomed. https://kotaku. com/despite-player-decline-pubg-isnt-doomed-1823090989 (zuletzt abgerufen am 05. 05. 2019). Gurwin, Gabe (2018): The Winners (and Losers) of Battle Royale in 2018. https://www.digi taltrends.com/gaming/fortnite-vs-blackout-vs-pubg-which-won-battle-royale-2018/ (zuletzt abgerufen am 10. 05. 2019). Halbesleben, Jonathon R./Wheeler, Anthony R. (2008): The Relative Roles of Engagement and Embeddedness in Predicting Job Performance and Intention to Leave. Work & Stress 22 (3), S. 242–256. Hammerer, Franz (2005): Der Fehler – Eine pädagogische Schlüsselsituation und Herausforderung. In: Fischer, Reinhard/Heitkämper, Peter/Montessori-Vereinigung Deutschland (Hrsg.), Montessori Pädagogik: Aktuelle und Internationale Entwicklungen. Festschrift für Prof. Dr. Harald Ludwig. Münster, S. 367–382. Harteis, Christian/Buschmeyer, Katrin (2012): Learning from Mistakes – Still a Challenge for Research and Business Practice. In: Wuttke, Eveline/Seifried, Jürgen (Hrsg.), Learning from Errors at School and at Work. Opladen, S. 31–47. Hatch, Mary J. (2004): Dynamics in Organizational Culture. In: Poole, Marshall S./Van de Ven, Andrew H. (Hrsg.), Handbook of Organizational Change and Innovation. New York, S. 190–211. Hollister, Sean (2017): PUBG Leaves Early Access Tonight – Here’s What’s Next. https:// www.cnet.com/news/pubg-out-of-beta-early-access-c-h-kim-interview/ (zuletzt abgerufen am 08. 05. 2019). Holstroem, Helena (2001): Virtual Communities as Platforms for Product Development: An Interpretive Case Study of Customer Involvement in Online Game Development. In: Storey, Veda/Sarkar, Sumit/DeGross, Janice I. (Hrsg.), International Conference on Information System 2001 Proceedings. New Orleans, S. 299–306. Honda (o. J.): Establishing American Honda Motor Co. / 1959. https://global.honda/heritage/ episodes/1959establishingamericanhonda.html (zuletzt abgerufen am 22. 5. 2019). Jang, Taeseok (2018): Dev Letter : Fix PUBG Campaign. https://steamcommunity.com/ games/578080/announcements/detail/2486445930579204546 (zuletzt abgerufen am 10. 05. 2019). Jiang, Zhengrui/Scheibe, Kevin P./Nilakanta, Sree/Qu, Xinxue (2017): The Economics of Public Beta Testing. Decision Science 48 (1), S. 150–175. Keith, Clinton (2010): Agile Game Development With Scrum. Boston. Keith, Nina/Frese, Michael (2010): Enhancing Firm Performance and Innovativeness Through Error Management Culture. In: Ashkanasy, Neal M./Wilderom, Celeste P. M./ Peterson, Mark F. (Hrsg.), Handbook of Organizational Culture & Climate. Thousand Oaks, S. 137–157. Kodak Alaris Germany GmbH (o. J.): 125 Jahre KODAK MOMENTS. https://www.kodak moments.eu/de/kodak-historie/ (zuletzt abgerufen am 06. 05. 2019). Kriegesmann, Bernd/Kley, Thomas/Schwering, Markus G. (2005): Creative Errors and Heroic Failures: Capturing Their Innovative Potential. Journal of Business Strategy 26 (3), S. 57–66. Lucas Jr., Henry C./Goh, Jie M. (2009): Disruptive Technology : How Kodak Missed the Digital Photography Revolution. Journal of Strategic Information Systems 18 (1), S. 46– 55.

Der Umgang mit Fehlern in Organisationen – eine fallbasierte Analyse

57

Mair, Andrew (1999): Learning from Honda. Journal of Management Studies 36 (1), S. 25–44. Martello, William E. (1994): Developing Creative Business Insights: Serendipity and Its Potential in Entrepreneurship. Entrepreneurship & Regional Development 6 (3), S. 239– 258. Martins, Ellen C./Terblanche, Fransie (2003): Building Organisational Culture that Stimulates Creativity and Innovation. European Journal of Innovation Management 6 (1), S. 64–74. McGrath, Rita G. (1999): Falling Forward: Real Options Reasoning and Entrepreneurial Failure. Academy of Management Review 24 (1), S. 13–30. McGrath, Rita G. (2013): The End of Competitive Advantage. How to Keep Your Strategy Moving as Fast as Your Business. Boston. Miles, Matthew B./Huberman, A. Michael (1994): Qualitative Data Analysis: An Expanded Sourcebook. Thousand Oaks. Mintzberg, Henry (1987): Crafting Strategy. Harvard Business Review 65 (5), S. 66–75. Mintzberg, Henry/Pascale, Richard. T./Goold, Michael/Rumelt, Richard P. (1996): The »Honda Effect« Revisited. California Management Review 38 (4), S. 78–117. Molina, Brett (2017): How ›PUBG‹ Became this Year’s Biggest Video Game. https://eu.usato day.com/story/tech/news/2017/12/13/how-pubg-became-years-biggest-video-game/9 45061001/ (zuletzt abgerufen am 10. 05. 2019). Napier, Nancy K./Vuong, Quan H. (2013): Serendipity as a Strategic Advantage. In: Wilkinson, Timothy J./Kannan, Vijay R. (Hrsg.), Strategic Management in the 21st Century. Santa Barbara/CA, S. 175–199. Neff, Gina/Stark, David (2003): Permanently Beta: Responsive Organization in the Internet Era. In: Howard, Philip N./Jones, Steve (Hrsg.), Society Online: The Internet in Context. Thousand Oaks, S. 173–188. Oelschlägel, Hans (2017): Unveiling the Gamescom PLAYERUNKNOWN’S BATTLEGROUNDS Invitational. https://www.eslgaming.com/article/unveiling-gamescom-play erunknown-s-battlegrounds-invitational-3643 (zuletzt abgerufen am 10. 05. 2019). o. V. (2018): It’s Time to FIX PUBG. https://www.pubg.com/2018/08/07/its-time-to-fixpubg/ (zuletzt abgerufen am 22. 05. 2019). Ostroff, Cheri/Kinicki, Angelo J./Muhammad, Rabiah S. (2012): Organizational Culture and Climate. In: Borman, Walter C./Ilgen, Daniel R./Klimoski, Richard J. (Hrsg.), Handbook of Psychology. Industrial and Organizational Psychology. London, S. 565– 593. Pascale, Richard T. (1984): Perspectives on Strategy : The Real Story Behind Honda’s Success. California Management Review 26 (3), S. 47–72. Patton, Eric/Appelbaum, Steven H. (2003): The Case for Case Studies in Management Research. Management Research News 26 (5), S. 60–71. Popper, Karl R. (2009): Vermutungen und Widerlegungen: Das Wachstum der wissenschaftlichen Erkenntnis. Gesammelte Werke, Band 10, herausgegeben von Herbert Keuth. Tübingen. Reason, James (2000): Human Error: Models and Management. BMJ 320, S. 768–770. Rowley, Jennifer (2002): Using Case Studies in Research. Management Research News 25 (1), S. 16–27.

58

Nicolas Mues / Karoline Braun / Carolin Uebach / Lisa Völkel

Rumelt, Richard P. (1996): The Many Faces of Honda. California Management Review 38 (4), S. 103–111. Runde, Jochen/de Rond, Mark (2010): Evaluating Causal Explanations of Specific Events. Organization Studies 31 (4), S. 431–450. Schein, Edgar H. (1985): Organizational Culture and Leadership. San Francisco. Schein, Edgar H. (1990): Organizational Culture. American Psychologist 45 (2), S. 109– 119. Schein, Edgar H. (1995): Unternehmenskultur. Ein Handbuch für Führungskräfte. Frankfurt am Main, New York. Schein, Edgar H. (2000): Sense and Nonsense about Culture and Climate. In: Ashkanasy, Neal M./Wilderom, Celeste P. M./Peterson, Mark F. (Hrsg.), Handbook of Organizational Culture and Climate. Thousand Oaks, S. XXIII–XXX. Schoemaker, Paul J./Gunther, Robert E. (2006): The Wisdom of Deliberate Mistakes. Harvard Business Review 84 (6), S. 108–15. Schwaber, Ken/Sutherland, Jeff (2017): The Scrum Guide. The Definitive Guide to Scrum: The Rules of the Game. https://www.scrumguides.org/docs/scrumguide/v2017/2017Scrum-Guide-US.pdf#zoom=100 (zuletzt abgerufen am 08. 05. 2019). Shepherd, Dean A./Covin, Jeffrey G./Kuratko, Donald F. (2009): Project Failure from Corporate Entrepreneurship: Managing the Grief Process. Journal of Business Venturing 24 (6), S. 588–600. Stalk, George/Evans, Philip/Shulman, Lawrence E. (1992): Competing on Capabilities: The New Rules of Corporate Strategy. Harvard Business Review 70 (2), S. 57–69. Steam (2017a): PLAYERUNKNOWN’S BATTLEGROUNDS. https://store.steampowered. com/app/578080/PLAYERUNKNOWNS_BATTLEGROUNDS/ (zuletzt abgerufen am 08. 05. 2019). Steam (2017b): Steam Early Access Launch Date Announced. https://steamcommunity. com/games/578080/announcements/detail/661306283823997716 (zuletzt abgerufen am 08. 05. 2019). Steam (2019): Early Access Spiele – Entdecken, spielen und beteiligen Sie sich bei der Entwicklung. https://store.steampowered.com/earlyaccessfaq/ (zuletzt abgerufen am 21. 05. 2019). Töpfer, Armin/Günther, Swen (2009): Mehrere Wege zu verschwendungsfreien Prozessen und Null-Fehler-Qualität: Einführung und Überblick über die Beiträge. In: Töpfer, Armin (Hrsg.), Lean Six Sigma. Erfolgreiche Kombination von Lean Management, Six Sigma und Design for Six Sigma. Berlin, Heidelberg, S. 3–24. Tseng, Shu-Mei (2010): The Correlation between Organizational Culture and Knowledge Conversion on Corporate Performance. Journal of Knowledge Management 14 (2), S. 269–284. van Dyck, Cathy/Frese, Michael/Baer, Markus/Sonnentag, Sabine (2005): Organizational Error Management Culture and its Impact on Performance: A Two-Study Replication. Journal of Applied Psychology 90 (6), S. 1228–1240. van Rooij, Arjan (2015): Sisyphus in Business: Success, Failure and the Different Types of Failure. Business History 57 (2), S. 203–223. Weingardt, Martin (2004): Fehler zeichnen uns aus, transdisziplinäre Grundlagen zur Theorie und Produktivität des Fehlers in Schule und Arbeitswelt. Bad Heilbrunn.

Der Umgang mit Fehlern in Organisationen – eine fallbasierte Analyse

59

Weinzimmer, Laurence G./Esken, Candace A. (2017): Learning from Mistakes: How Mistake Tolerance Positively Affects Organizational Learning and Performance. Journal of Applied Behavioral Science 53 (3), S. 322–348. Wörle, Johann G. C. (1835): Encyclopädisch-pädagogisches Lexikon. Heilbronn. Zhao, Bin/Olivera, Fernando (2006): Error Reporting in Organizations. Academy of Management Review 31 (4), S. 1012–1030.

Arnd Wiedemann / Patrick Hertrampf*

Fehler im Anlegerschutz – Der Fall »Wolf of Wall Street« im Spiegel unserer Zeit

1.

Einleitung

Jordan Belfort gilt als einer der besten Motivations- und Verkaufstrainer der Welt. Bevor er aber Trainer für junge Unternehmer und ambitionierte Manager wurde, saß er im Gefängnis, weil er als Anlageberater und Geschäftsführer des Investmentunternehmens Stratton Oakmont Millionen Dollar über den illegalen Verkauf von hoch spekulativen Aktien verdiente. Kein Zweiter verkörpert so prominent wie der aus dem gleichnamigen Film bekannte »Wolf of Wall Street« das perfide Zusammenspiel von Opportunismus, einem lückenhaften Anlegerschutz und Erfolg. Allerdings lenkt der Film von Martin Scorsese den Fokus besonders auf die künstlerische Darbietung der Protagonisten. Dabei gerät schnell in Vergessenheit, dass es sich um die wahre Geschichte eines straffällig gewordenen Börsenmaklers handelt. Belfort machte es sich zur Aufgabe, die Lücken und Fehler im Anlegerschutz zu identifizieren und für sich auszunutzen. 1962 wurde er als Sohn eines Buchhalters in der Bronx von New York City geboren. Die begrenzten finanziellen Mittel seiner Eltern prägten seine Kindheit. Bereits mit acht Jahren begann er ambitioniert Zeitungen auszutragen, mit 16 nutzte er sein verkäuferisches Talent, um am »Jones Beach« mit überdurchschnittlichem Erfolg Eis zu verkaufen, mit 26 verdiente er durch den Verkauf von Aktien bereits über 40 Millionen Dollar pro Jahr, und mit 37 wurde er wegen Wertpapierbetrugs und Geldwäsche angeklagt und später verurteilt. Der Aufstieg und Fall Belforts, aber auch die Finanzkrise von 2007 und 2008, sind prominente Ereignisse und Beispiele dafür, wohin die Profitgier von Bankern und Börsenmaklern führen kann, wenn es die Systeme zulassen. Wie war es möglich, dass Jordan Belfort in den USA solche Geschäfte machen konnte? Ist so * Univ.-Prof. Dr. Arnd Wiedemann, Universität Siegen, Fakultät III (Wirtschaftswissenschaften – Wirtschaftsinformatik – Wirtschaftsrecht), Lehrstuhl für Finanz- und Bankmanagement. Patrick Hertrampf, M.Sc., Universität Siegen, Fakultät III (Wirtschaftswissenschaften – Wirtschaftsinformatik – Wirtschaftsrecht), Lehrstuhl für Finanz- und Bankmanagement.

62

Arnd Wiedemann / Patrick Hertrampf

ein Fall auch in Deutschland möglich? Können Investoren in Deutschland oder Europa heutzutage ihren Beratern vertrauen? Welche Anreize verleiten Berater dazu, opportunistisch zu handeln? Werden Informationsvorteile gegenüber dem Kunden ausgenutzt, um eine höhere Provision zu erhalten, oder ist es der Verkaufsdruck der Banken, der Berater in ein Korsett rein renditeorientierten Handelns hineinzwingt?

2.

Anlageberatung im Lichte des Falls Stratton Oakmont

2.1

Die Anlageberatung aus gesetzlicher Perspektive

In den Mitgliedsstaaten der Europäischen Union bildet Artikel 9 der Delegierten Verordnung (EU) 2017/565 den juristischen Ausgangspunkt. Demnach ist eine Anlageberatung die persönliche Empfehlung zum Kauf, Verkauf, Zeichnung, Tausch, Rückkauf, Halten oder Übernahme eines bestimmten, den Verhältnissen des potenziellen Anlegers entsprechenden Finanzinstruments. Dieser Definition folgt in Deutschland auch die nationale Gesetzgebung im Kreditwesengesetz (KWG): Anlageberatung ist … »die Abgabe von persönlichen Empfehlungen an Kunden oder deren Vertreter, die sich auf Geschäfte mit bestimmten Finanzinstrumenten beziehen, sofern die Empfehlung auf eine Prüfung der persönlichen Umstände des Anlegers gestützt oder als für ihn geeignet dargestellt wird und nicht ausschließlich über Informationsverbreitungskanäle oder für die Öffentlichkeit bekannt gegeben wird.« (§ 1 Abs. 1a Satz 2 Nr. 1a KWG)

Demnach schlägt der Berater geeignete Finanzinstrumente vor und der Kunde trifft eigenständig eine Auswahl. Der Kunde ist damit in seiner Entscheidung autark (BaFin 2017a, S. 2). Die getroffene Auswahl des Beraters setzt eine Prüfung der persönlichen Umstände des Anlegers voraus. Laut KWG reicht es dabei aus, wenn der Berater allgemeine Informationen über die finanzielle Lage des Kunden erfragt. Gleichermaßen genügt es für die Empfehlung, wenn diese für den Anleger als geeignet dargestellt wird. Demzufolge ist es ausreichend, den Anschein zu erwecken, dass das vorgeschlagene Finanzinstrument dem Anlegerprofil des Kunden entspricht (BaFin 2017a, S. 3). Abzugrenzen ist die Anlageberatung von der klassischen Werbung über öffentliche Kommunikationsmedien wie Radio, Fernsehen, Internet oder öffentliche Veranstaltungen (BaFin 2017a, S. 4). Werbung wird gemäß der Richtlinie 2006/114/EG des Europäischen Parlaments und des Rates als jede Äußerung eines Unternehmens definiert, die zielgerichtet den Absatz von Waren oder Dienstleistungen steigern soll. Während mit Werbung lediglich das Interesse des

Fehler im Anlegerschutz – Der Fall »Wolf of Wall Street« im Spiegel unserer Zeit

63

Kunden an einer Anlageberatung geweckt werden soll, verkörpert die Anlageberatung die Dienstleistung selbst. Des Weiteren ist die Anlageberatung von der reinen Anlagevermittlung zu unterscheiden. Leitet ein Finanzdienstleister als Bote eine Willenserklärung des Anlegers, zum Beispiel zum Kauf oder Verkauf eines Wertpapiers, lediglich weiter, agiert der Finanzdienstleister nach § 1 Abs. 1a Satz 2 Nr. 1 KWG nur als Vermittler.

2.2

Strategie und Taktik von Stratton Oakmont

Ein besonders prominentes Beispiel aus den USA, wie eine Anlageberatung opportunistisch ausgelegt werden kann, ist der Fall Jordan Belfort. Dieser bediente sich mit seinem 1989 gegründeten Investmentunternehmen Stratton Oakmont einer speziellen Variante der Anlageberatung, der »Boiler-RoomTaktik«: Über Cold Calls, das heißt Initiativ-Anrufe, wurden Kunden spekulative Aktien angeboten und an diese verkauft (Bradley et al. 2006, S. 6). Belfort und seine Mitarbeiter nutzten diese Taktik, um ihren Kunden insbesondere Penny-Stocks anzubieten. Laut der US-Börsenaufsichtsbehörde Securities and Exchange Commission handelt es sich hierbei um Aktien, deren Ausgabepreis unter 5 Dollar liegt. Häufig werden solche Aktien außerbörslich notiert, das heißt der Handel findet Over-the-Counter (OTC) direkt zwischen Käufer und Verkäufer ohne Zwischenschaltung einer Börse statt. Damit lassen sich die Transaktionskosten an der Börse sparen (SEC 2013). Gehandelt werden oftmals Aktien von Unternehmen, die nur eine geringe Marktkapitalisierung aufweisen, zum Beispiel kleine oder junge Unternehmen (SEC 2013). Im europäischen Raum liegt der Ausgabepreis von Penny-Stocks unter 1 Euro. Belforts Ausnutzen eines lückenhaften Anlegerschutzes ist eng verknüpft mit der Manipulation von Marktpreisen. Sein Vorgehen lässt sich daher nicht allein auf opportunistische Verkaufspraktiken reduzieren: Hinzu kommt die Manipulation der Preise der verkauften Penny-Stocks. In welchem Ausmaß solche Preismanipulationen möglich sind, hängt von drei Kriterien ab: dem Markteinfluss, der Marktinformation und Netzwerkeffekten. Eine einseitig stark ausgeprägte Marktmacht ist ein wesentliches Merkmal für Manipulatoren. Sie verfügen über umfangreichere Informationen als ihre Wettbewerber und nutzen ihr Netzwerk, das heißt ihre Beziehungen zu anderen Marktteilnehmern, um die von ihnen ausgelösten Dynamiken innerhalb eines Marktes zu ihren Gunsten zu beeinflussen (Kyle/Viswanathan 2008, S. 275). Stratton Oakmont suchte seinerzeit gezielt nach kleinen Unternehmen, die sie bei ihrem Börsengang begleiteten. Im Rahmen des Initial Public Offering (IPO) unterstützten sie diese bei der Preisfindung und Zuteilung der Aktien an po-

64

Arnd Wiedemann / Patrick Hertrampf

tenzielle Anleger. Dabei nutzten sie die Klassifizierung der Aktien als PennyStocks, um von den weniger strengen börsenrechtlichen Auflagen dieser Aktienkategorie zu profitieren (Rubin 2014). Des Weiteren profitierten Belfort und sein Unternehmen von den Kostenvorteilen des OTC-Handels (Bradley et al. 2006, S. 7). Aus deutscher Perspektive grenzen sich Penny-Stocks von den Wertpapieren nach § 2 des Wertpapierhandelsgesetzes (WpHG) ab. Penny-Stocks werden nicht auf einem organisierten Markt gehandelt. Mit Blick auf Deutschland käme für die von Stratton Oakmont beim Börsengang begleiteten Unternehmen als vergleichbares Börsensegment der Freiverkehr (Open Market) in Frage. Die in diesem Segment gelisteten Unternehmen sind nach § 48 Börsengesetz ausschließlich an die Geschäftsbedingungen des Börsenträgers gebunden und unterliegen nur dessen Auflagen. In Analogie zu den USA unterscheidet sich dieses Börsensegment in seinen Auflagen ebenfalls wesentlich von dem börsenregulierten Markt. Dieser ist in Deutschland in § 2 Abs. 11 WpHG geregelt. Die Praktiken von Stratton Oakmont folgten im Anschluss an den IPO dem sogenannten »Pump-and-Dump-Schema«. Die Broker versuchten über eine aggressive Akquise, die Kunden zum Kauf der Aktien zu bewegen. Durch eine künstlich initiierte Nachfrage trieben sie den Aktienkurs in die Höhe. Ab einem von ihnen intern festgelegten Kurs stellten sie ihre Akquisitionsaktivitäten ein. Infolgedessen sanken die Aktienkurse abrupt. Aufgrund der fehlenden Nachfrage konnten die Kunden ihre Bestände nicht mehr oder nur zu deutlich niedrigeren Kursen wieder veräußern. Die Broker aber hatten zu diesem Zeitpunkt ihren Gewinn schon realisiert. Der OTC-Handel war durch seine geringe Regulierung und die geringeren Handelsvolumina besonders prädestiniert für ein solches Vorgehen (Zaki/Diaz/Theodoulidis 2012, S. 554). Stratton Oakmont hatte das Vorgehen perfektioniert. Anstatt die Aktien aus der Neuemission direkt an Anleger zu verkaufen, erwarben zuerst von ihnen angeheuerte Strohmänner die meisten Anteile. Diese verkauften die Aktien anschließend zu einem nur geringfügig höheren Preis wieder an Stratton Oakmont. So konnte das Verbot, Anteile im Rahmen eines von ihnen begleiteten IPOs selbst zu erwerben, umgangen werden. Um nun Gewinne zu erwirtschaften, mussten die Broker von Stratton Oakmont Kunden über Cold Calls von der Aktie überzeugen und diese zum Kauf bewegen. Dafür wurde zuerst ein Vertrauensverhältnis zwischen Broker und Kunde aufgebaut. Um das Vertrauen zu festigen, wurden die Anleger am Anfang der Geschäftsbeziehung mit kleineren Investitionen am Gewinn beteiligt. Anschließend setzten sie die Kunden auf die Aktien des neu emittierenden Unternehmens an. Kurz vor dem ersten Handelstag kontaktierten die Broker ihre Kunden und informierten sie darüber, dass aufgrund der großen Nachfrage nicht alle Orders zum Ausgabepreis abgewickelt werden konnten. Stattdessen platzierten Stroh-

Fehler im Anlegerschutz – Der Fall »Wolf of Wall Street« im Spiegel unserer Zeit

65

männer zu Beginn des Börsenhandels unlimitierte Kauforders. Die gekauften Aktien wurden im Anschluss direkt wieder an Stratton Oakmont verkauft. Auch diese gaben die Aktien gleich wieder in den Markt, aber in kleinen Mengen. Zusätzlich versahen sie die Verkaufsorders mit stufenweise erhöhten Preislimits. Durch die so fingierte Nachfrage stieg der Kurs der Aktie systematisch an. Die ständige Wiederholung des Vorgangs erzeugte einen Kamineffekt, der sich in stetig steigenden Aktienkursen äußerte. Erst nachdem die Aktien einen festgelegten Kurs überschritten, verkaufte Stratton Oakmont ihre Anteile nicht mehr an ihre Strohmänner, sondern an die eigentlichen Kunden. Die Gewinne waren eingestrichen. Damit die Nachfrage im Anschluss nicht direkt wieder einbrach, wurden einen Monat lang Aktien auch wieder zurückgekauft. Um dies jedoch auf ein absolutes Mindestmaß zu reduzieren, versuchten die Broker, ihre Kunden zum Halten der Aktien zu bewegen, ignorierten Anrufe oder verlegten bewusst Verkaufsaufträge (Rubin 2014).

3.

Fehler im Anlegerschutz

3.1

Ineffizienz kleiner Märkte

Mit Blick auf das Vorgehen von Jordan Belfort scheint es, als würde ein entscheidender Fehler im Konzept des Marktes selbst liegen. Denn genau an der Stelle, wo Angebot und Nachfrage aufeinandertreffen, setzte Stratton Oakmont mit seinem Pump-and-Dump-Schema an. Zwei Aspekte sind hierbei genauer zu untersuchen: die Manipulierbarkeit des Marktes, denn andernfalls hätten sie die Kurse nicht beeinflussen können, und die Frage, wie sie Kunden davon überzeugen konnten, in fragwürdige Penny-Stocks zu investieren. Die meisten Kapitalmarktmodelle zur Kalkulation von erwarteten Aktienrenditen basieren auf der Markteffizienzhypothese. Dieser von Eugene Fama formulierte Ansatz geht von einem vollkommenen Markt aus, auf dem alle Beteiligten, das heißt Investoren, Broker und Finanzexperten, über dieselben Informationen verfügen. Verhalten sich die Akteure auf dem Kapitalmarkt mehrheitlich rational, können einige wenige gegenläufige Ausreißer den fairen Preis eines Finanztitels nicht beeinflussen (Fama/Miller 1972, S. 21). Doch folgen auch kleine Märkte demselben logischen Pfad? Je kleiner der Markt, desto größer wird – gleiches Handelsvolumen unterstellt – der (relative) Einfluss eines einzelnen Investors (Sachs 2004, S. 230). Die Kapitalmarktheoretiker würden mit Bezug auf die Markteffizienzhypothese formulieren, dass statistische Ausreißer auf einem kleineren Markt ein größeres Gewicht haben. Der Einfluss eines Einzelnen wird noch größer, wenn dieser wie Stratton Oakmont zusätzlich noch Manipulatoren (die Strohmänner) einsetzt. Der Open

66

Arnd Wiedemann / Patrick Hertrampf

Market ist daher im Vergleich zur regulierten Börse anfälliger gegenüber Manipulationen und kann somit nicht als vollkommen effizient bezeichnet werden. Aus diesem Grund agierte Stratton Oakmont bewusst in diesem Marktsegment, in dem sie mit Hilfe der Strohmänner die Kurse manipulieren konnte. Aber auch vermeintlich effiziente Märkte sind in der jüngsten Vergangenheit an ihre Grenzen gestoßen. Den Auslöser der Finanzkrise von 2007/2008 bildeten Banker in den USA, die Kunden mit niedriger Bonität zum Kauf von Immobilien motivierten (Feurle 2015, S. 30). Das daraus resultierende Risiko wurde verbrieft und an die Börse gebracht. Zu diesem Zweck verkauft die Bank ihre Kundenforderungen aus dem Kreditgeschäft an eine speziell hierfür gegründete Gesellschaft. Diese schnürt (»verbrieft«) aus vielen aufgekauften Krediten ein Wertpapier, das an der Börse breit gestreut an Anleger verkauft wird. Dabei bilden die Zins- und Tilgungsleistungen der eingebrachten Kreditforderungen die Basis für die Verzinsung, aber auch die Rückzahlung der verkauften Wertpapiere (Acharya/Richardson 2009, S. 196). Auch Kunden mit niedriger Bonität konnten aufgrund der niedrigen Zinsen in den USA einige Zeit ihren Zins- und Tilgungsleistungen nachkommen. Die Investoren erhielten daher regelmäßig Erträge aus ihren Verbriefungen. Als die Häuserpreise in den USA jedoch fielen und die Zinsen stiegen, setzte sich die Abwärtsspirale in Gang. Am 15. September 2008 erreichte die Immobilien- und Finanzkrise in den USA mit der Insolvenz der Investmentbank Lehman Brothers ihren Höhepunkt, in dessen Folge ein Dominoeffekt in der gesamten Bankenlandschaft entstand. In Europa und Deutschland setzte sich die Krise fort. Banken (unter anderem die Commerzbank, die Hypo Real Estate und die Westdeutsche Landesbank) mussten mit staatlichen Geldern gestützt werden. Aus der Bankenkrise wurde schlussendlich eine Staatenkrise (Moyer 2012, S. 29). Hier bildete Griechenland den Auslöser. Nachdem der damalige griechische Staatschef George Papandreou 2009 ein Haushaltsdefizit von ca. 16 Milliarden Euro aufdeckte, stand die Europäische Union vor einer Bewährungsprobe. Am Ende stimmten die Staats- und Regierungschefs für eine gemeinschaftliche europäische Lösung zur Rettung Griechenlands (Zahariadis 2012, S. 107) – ein bis dahin unbeschrittener Weg, für den es in den Statuten keine Blaupause gab. Der Dominoeffekt setzte sich weiter fort. Während Portugal ähnlich wie Griechenland eine Blase aus dem Staatssektor heraus entstehen ließ, lagen die Wurzeln der Krise in Spanien und Irland im privaten Sektor. Hier verschuldeten sich Hauseigentümer so sehr, dass sie die Immobilienpreise weiter steigen ließen, bis es zum Kollaps der Wirtschaft kam (Sinn 2012, S. 145). Im Ergebnis führte die Falschberatung von US-amerikanischen Immobilienkäufern nicht nur die unmittelbar Betroffenen, sondern über die Verbriefungstransaktionen noch viele andere in eine Krise.

Fehler im Anlegerschutz – Der Fall »Wolf of Wall Street« im Spiegel unserer Zeit

67

Auch wenn die großen Börsen aufgrund ihrer Handelsvolumina einem vollkommenen Markt gemäß den Unterstützern der Kapitalmarkttheorie ziemlich nahekommen, lassen sich temporäre Anomalien feststellen. Als Verfechter der Gegenseite und prominenter Vertreter der Verhaltensökonomik glaubt Robert Shiller nicht an die Markteffizienzhypothese. Ihm zufolge folgen Investoren auch Trends und handeln nicht ausschließlich rational. Dass sich Aktien nach Überreaktionen wieder auf ihren Fundamentalwert einpendeln, ist für ihn kein Beweis für Markteffizienz. Daher propagiert er einen eklektischen Investmentansatz, der die Schwächen der Markteffizienz akzeptiert und psychologische Einflussfaktoren berücksichtigt (Shiller 2003, S. 101). Ob ein Markt effizient ist, selbst wenn er Anomalien aufweist, ist bis heute ungeklärt. Bemerkenswert ist, dass die beiden Kontrahenten Fama und Shiller im Jahr 2013 gemeinsam den Wirtschaftsnobelpreis für ihre Theorien erhielten. Die Gegensätzlichkeit ihrer Standpunkte befeuerte noch einmal die Diskussion (Kantor/Holdsworth 2014, S. 101). Zumindest mit Blick auf kleinere Märkte oder das Segment des Open Market und die bestehenden Ineffizienzen dürfte eher der Argumentation von Shiller zu folgen sein.

3.2

Informationsasymmetrien zwischen Berater und Kunden

Stratton Oakmont nutzte auch die Informationsdefizite ihrer Anleger aus. Die Annahme, dass alle Marktteilnehmer über dieselben Informationen verfügen, muss daher verworfen werden. Jordan Belfort trat als moderner Svengali inmitten seiner Broker auf und motivierte sie, fragwürdige Penny-Stocks an ihre Kunden zu veräußern. Beeinflusst und insbesondere beeindruckt von den Reden ihres Geschäftsführers verkauften die Broker gemäß dem Pump-and-DumpSchema ihr Kontingent an unwissende, aber überzeugbare Investoren (Colesworthy 2014, S. 1171). In der Theorie kann dieses Vorgehen mit der Prinzipal-Agenten-Theorie erklärt werden, die das Abhängigkeitsverhältnis zwischen zwei Vertragsparteien beschreibt. Der Prinzipal fungiert als Auftraggeber, der dem Agenten Entscheidungsbefugnisse zur Erfüllung seiner Aufgabe einräumt. Der Agent soll im Interesse des Prinzipals handeln. Da beide Parteien ihren Nutzen maximieren wollen und ihre Interessen voneinander abweichen oder teils sogar gegenläufig sein können, sind Konflikte vorprogrammiert (Jensen/Meckling 1976, S. 308). Im vorliegenden Beispiel geht der Broker als Agent proaktiv auf den Prinzipal (den Kunden) zu und wirbt um einen Kaufauftrag. Der Anleger ist zwiegespalten: Auf der einen Seite möchte er mit seiner Anlage eine möglichst hohe Rendite erwirtschaften, auf der anderen Seite nur ein möglichst geringes Risiko eingehen. Der Agent soll für den Kunden eine Anlagevariante finden, die zu seinem

68

Arnd Wiedemann / Patrick Hertrampf

Chancen-Risiko-Profil passt. In der Regel liegt beim Investor ein Informationsdefizit vor. Er kann die wahren Absichten seines Beraters im Vorfeld nicht genau beobachten. Dieses Informationsdefizit birgt für den Investor entweder die Gefahr von Moral Hazard (Ausnutzung von Informationsvorteilen) oder die Gefahr von einem Hold-up (Ausnutzung von Abhängigkeiten). Damit werden im Rahmen von Geschäftsbeziehungen auf einem nicht effizienten Markt zwei mögliche Probleme bei unvollständigen Verträgen angesprochen. Die ungleiche Verteilung von Informationen führt mindestens bei einer Partei zu einem taktischen Vorsprung. Das Hold-up-Problem beschreibt ein beobachtbares missgünstiges Verhalten von einer Partei nach Vertragsabschluss (Schmitz 2001, S. 4). Ein typisches Beispiel wäre ein Erpresser, der nach der Lösegeldübergabe den zuvor vereinbarten Bedingungen nicht nachkommt. Unter Moral Hazard wird hingegen ein nicht beobachtbares opportunistisches Verhalten nach Vertragsabschluss verstanden. Als Beispiel sei ein Versicherungsnehmer genannt, der sein Risikoverhalten in dem Moment verändert, in dem er eine Versicherung abgeschlossen hat (Marshall 1976, S. 880): Ein feuerversicherter Gebäudeeigentümer hat weniger Anreize, besondere Sorgfalt bei der Schadensvermeidung und -begrenzung walten zu lassen, als ein Hausbesitzer ohne Versicherung. Für die Kunden von Stratton Oakmont waren die Absichten der Broker während der Beratung nicht ersichtlich. Sie ließen sich von der Rhetorik der Broker beeindrucken und kauften auf deren Empfehlung hin die Penny-Stocks. Da der Kursrückgang der erworbenen Finanztitel im Nachhinein für sie feststellbar war, unterlagen sie einem Hold-up, ausgelöst durch die zuvor nicht wahrnehmbare, aber bewusste Falschberatung der Broker. Der Fall zeigt, dass auf nicht effizienten Märkten Informationsvorteile ausgenutzt werden können.

3.3

Einflussfaktoren auf die Beratungsqualität

Die Gefahr des einseitigen Ausnutzens von Informationsvorsprüngen kann durch verschiedene Einflussfaktoren verstärkt werden. Zu nennen ist die Eigentümerstruktur, die das Verhalten der Mitarbeiter beeinflussen kann. Steigt, ausgelöst durch entsprechende Renditevorgaben der Eigentümer, der Verkaufsdruck auf die Berater, erhöht sich automatisch die Gefahr von Hold-ups. Die Berater versuchen zuerst, den Anforderungen ihres Jobs gerecht zu werden. Gelingt dies nicht, werden sie risikofreudiger und suchen einen Ausweg in opportunistischem Verhalten. Je geringer die Überwachung, umso mehr Möglichkeiten und Freiräume eröffnen sich ihnen zu einem nicht regelkonformen Verhalten. Eigentümer müssen daher eine Balance zwischen Anreizen und

Fehler im Anlegerschutz – Der Fall »Wolf of Wall Street« im Spiegel unserer Zeit

69

Monitoring finden, um ein möglichst gleichgerichtetes Interesse zwischen ihnen und ihren Mitarbeiter zu erzeugen (Schmielewski/Wein 2015, S. 530). Ein zentrales Instrument, um Anreize zu setzen, ist hierbei die variable Vergütung. Welche Fehlsteuerungsimpulse hierbei auf die Beratung ausstrahlen können, machte bereits der Fall von Stratton Oakmont deutlich. Weitere prominente Beispiele und viele Diskussionen lieferten in der Vergangenheit auch die Boni von Investmentbankern (Hagendorff/Vallascas 2011, S. 1079; Bai/Elyasiani 2013, S. 807). Abgesehen von der ethischen Frage nach der Höhe spiegelt sich in ihnen für eine Bank stets das Spannungsfeld zwischen der Höhe der Vergütung für die individuelle Leistung und Verantwortung, aber auch die damit verbundene Risikobereitschaft wider. Um Missbräuche und Exzesse zu verhindern oder zu mindestens in ihren Auswirkungen zu begrenzen, wurde 2017 die Institutsvergütungsverordnung nochmals überarbeitet. Die Änderungen führten insbesondere zu weiteren Reglementierungen in Bezug auf die variable Beratervergütung. Bereits festgelegt war eine Klassifizierung der Institute und Mitarbeiter gemäß dem Proportionalitätsprinzip, um die Intensität der aufsichtsrechtlichen Vorgaben an der Systemrelevanz der Bank und ihrem Risikoprofil auszurichten (BCBS 2012, S. 12). Mit Blick auf mittelständische Banken stellt die Small Banking Box Initiative beispielsweise heraus, dass die Gehälter dieser Institute in den einzelnen Hierarchieebenen nicht derartig progressiv steigen wie bei größeren Banken (Deutsche Bundesbank 2017, S. 58). Zu den wesentlichen Änderungen zählt auch, dass variable Vergütungspositionen im Nachgang zurückgefordert werden können, wenn mit dem abgeschlossenen Geschäft eine außerordentliche Pflichtverletzung des Beraters verbunden war. Ebenso wird nunmehr eindeutig zwischen fixen und variablen Vergütungsbestandteilen differenziert. Weitere Änderungen beziehen sich auf eindeutige Regelungen bei Abfindungsbeträgen und eine verstärkte Dokumentationspflicht der vereinbarten variablen Vergütungen und der eingesetzten variablen Vergütungsvarianten (BaFin 2017d). Die Vergütungsstrukturen sind allerdings nicht allein für die Fehlentwicklungen der Vergangenheit verantwortlich. Sie waren vielmehr ein Verstärker für ein fehlendes Risikobewusstsein in den Köpfen der Berater. Eine risikobewusste Führung bedarf einer passenden Risikokultur. Hier fehlte es den Banken an einem eindeutigen Rahmenkonzept (Roeschmann 2014, S. 278). Eine ausgeprägte Risikokultur soll das Bewusstsein für Risiken schärfen. Wenn eine risikoaverse und nachhaltige Haltung gegenüber Gewinnen von einer Bank eingefordert wird, ist der Anreiz für Berater geringer, hohe Risiken einzugehen (Wood/Lewis 2018, S. 28). Die Umsetzung einer solchen Kultur erfolgt über vier Ebenen. Die Führungsebene kommuniziert über den »Tone from the Top« die Ziele und Werte,

70

Arnd Wiedemann / Patrick Hertrampf

lebt sie vor und ist verantwortlich, diese in allen Institutsbereichen zu verankern (BaFin 2017c, MaRisk AT 3.1). Dazu zählt die Definition des Risikoappetits für das Gesamtinstitut, der anschließend in Form eines Limitsystems auf die verschiedenen Risiken und Bereiche herunterzubrechen ist (BaFin 2017c, MaRisk AT 4.2; Wiedemann/Wilhelms 2019, S. 29). Neben den Vergütungsstrukturen und der Leitungskultur bedarf es klar verteilter Verantwortlichkeiten: Wer übernimmt wofür die Verantwortung und wer prüft, ob das Risikolimit innerhalb der Bank eingehalten wird? Damit alle Ebenen ineinandergreifen und die Risikokultur über alle Organisationsbereiche implementiert werden kann, muss als vierte Ebene der Risikokultur eine offene Kommunikation sichergestellt sein (Schmidt/Reuse 2018, S. 4). Gerade in den aufgeführten Krisenjahren können Defizite in der Kommunikation zwischen den Organisationsbereichen und Mitarbeitern vermutet werden. Wer hätte das aufkommende Risiko der Falschberatung und den Hang zu risikofreudigen Investments entdecken müssen? Weder der Corporate Governance im Sinne einer ausgeprägten Leitungskultur noch dem Risikomanagement als Abteilung zur Identifikation und Messung von Risiken gelang es in dieser Zeit, dem Dilemma aus Falschberatung und Opportunismus entscheidend entgegenzutreten. Ursächlich ist unter anderem, dass Corporate Governance und Risikomanagement sich zu ausdifferenzierten Funktionen in den Instituten entwickelt haben. Übergeordnete oder übergreifende Defizite, die außerhalb der eigenen Kernkompetenzen liegen, geraten so schnell aus dem Blickfeld, da sich keiner verantwortlich fühlt (Stein/Wiedemann 2016, S. 819). Zukünftig gilt es, wieder stärker den Zusammenhalt innerhalb der Organisation zu fördern. Es muss eine neue netzwerkorientierte Haltung entstehen, die in der Lage ist, auch solche Risiken adäquat abzubilden (Power 2009, S. 853). Diesen Herausforderungen widmet sich in besonderem Maße der an der Universität Siegen federführend entwickelte Ansatz der Risk Governance (www.risk governance.de). Das Konzept der Risk Governance versteht sich als Brücke zwischen Corporate Governance und Risikomanagement und will die Interaktion zwischen den Elementen fördern und eine proaktive Steuerung der Risiken gewährleisten (Stein/Wiedemann/Wilhelms 2018, S. 65). Das Konzept zeichnet sich in besonderem Maße durch seinen engen Bezug zum Geschäftsmodell aus. Aus einer strategischen Perspektive werden die Risiken stakeholderorientiert gesteuert. So gelingt ein Abgleich zwischen den Interessen der verschiedenen Anforderungsgruppen und dem Institut selbst (Stein/Wiedemann 2016, S. 829). In diesem Sinne erscheint die Risk Governance als ein geeignetes Konzept, um Falschberatung als eine entscheidende Risikoquelle der Berater des Institutes einzugrenzen.

Fehler im Anlegerschutz – Der Fall »Wolf of Wall Street« im Spiegel unserer Zeit

4.

Aktuelle Entwicklungen

4.1

Verstärkter Anlegerschutz durch MiFID II

71

Die Verbesserung des Anlegerschutzes ist auch ein (Teil-)Ziel der »Markets in Financial Instruments Directive« (MiFID II), auf Deutsch Wertpapierdienstleistungsrichtlinie. Generelles Ziel dieser Richtlinie ist es, den Wettbewerb unter den Wertpapierhäusern zu stärken und die Integration des europäischen Finanzmarktes durch eine Harmonisierung der Regeln voranzutreiben. Die Richtlinie musste bis Januar 2018 umgesetzt werden. Sie weist den Berater an, den Kunden ausführlich über die geplanten Geschäfte aufzuklären. Im Rahmen des neu definierten Anlegerschutzes müssen auch die anfallenden Kosten eines Geschäftes eindeutig offengelegt werden. Des Weiteren muss für den Kunden ersichtlich sein, wie sich die Gesamtkosten auf die mögliche Rendite auswirken. Ebenso dürfen Banken bei einer unabhängigen Anlageberatung keine Zuwendungen von Dritten erhalten. Mit der Richtlinie sollen also unter anderem die typischen Anreize von Boiler-Room-Taktiken wie bei Stratton Oakmont eingegrenzt werden. Um den Kunden ausreichend zu informieren, muss der Berater dem Kunden Produktinformationsblätter beziehungsweise für Investmentfonds die sogenannten wesentlichen Anlegerinformationen zur Verfügung stellen. Eine weitere Anforderung der Richtlinie ist es, den Zielmarkt bereits bei der Finanzprodukterstellung genau zu definieren. Dadurch soll sichergestellt werden, dass sich die Produkte für die angedachten Investoren(gruppen) eignen und ihre Kenntnisse, Erfahrungen und finanzielle Situation berücksichtigen. Zur Abwicklung von Transaktionen ist neu neben den schon bestehenden Segmenten des regulierten Marktes (die klassischen Börsen) und den multilateralen Handelssystemen (Multilateral Trading Facilities, MTF) das neue Segment der organisierten Handelssysteme (Organised Trading Facilities, OTF) eingeführt worden. Dies soll mehr Transparenz gegenüber den reinen bilateralen OTC-Geschäften schaffen und der Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) einen Überblick über die laufenden Transaktionen auf den Plattformen ermöglichen (BaFin 2018a). Gerade die Abwicklung der Geschäfte »over the counter« war eine weitere Stellschraube, die Stratton Oakmont für ihre Zwecke zu nutzen wusste. Auch der Berater selbst wird neben der Bank stärker reglementiert. Insbesondere das Schlagwort der Transparenz steht im Rahmen der Neuregelungen im Mittelpunkt. So ist ein Berater dazu verpflichtet, eine Geeignetheitsprüfung durchzuführen, um sicherzustellen, dass die Empfehlung im Einklang mit den Anlagezielen, der Risikotoleranz und der Risikotragfähigkeit des Kunden steht. Der Kunde muss in der Lage sein, mit seinen Kenntnissen und Erfahrungen das Risiko des empfohlenen Finanzinstruments zu verstehen. Darüber

72

Arnd Wiedemann / Patrick Hertrampf

hinaus müssen sämtliche Gespräche dokumentiert werden. Dies bedeutet auch die Aufnahme von Telefongesprächen. Widerspricht dem ein Kunde, kann die Transaktion auf diese Art nicht durchgeführt werden. Die Berater müssen zudem über geeignete Qualifikationen verfügen. Eine unsachgemäße Beratung kann im Beschwerderegister der Bundesanstalt für Finanzdienstleistungsaufsicht angezeigt werden (BaFin 2017b). Schon seit langem forderten Verbraucherschützer verbesserte Regelungen für den Anlegerschutz. Eine Studie aus Deutschland der Stiftung Warentest aus dem Jahr 2010 zeigte, dass damals viele Berater weder die finanzielle Situation ihrer Kunden ausreichend berücksichtigten noch das damals gesetzlich vorgeschriebene Beratungsprotokoll an ihre Kunden aushändigten. Zudem wählten sie im Vergleich zum Risikoprofil des Kunden ein zu riskantes Anlageportfolio (Stiftung Warentest 2010). Eine Neuregelung im Sinne von MiFID II schien also angezeigt. So sinnvoll und wünschenswert die aktuellen Reglungen auf der einen Seite im Einzelnen sein mögen, so problematisch sind sie aber auf der anderen Seite. Ein sehr umfassend definierter Anlegerschutz ist für Berater und Investoren Fluch und Segen zugleich. Eine opportunistische und bewusst angelegte Falschberatung erscheint unter den gegebenen Reglementierungen heutzutage nur noch schwer vorstellbar. Boiler-Room-Taktiken wie bei Stratton Oakmont sind nicht mehr möglich. Dennoch weisen die neuen Regeln genau aus diesem Grund auch Schwächen auf. Der Finanzberater wird in eine sehr defensive Rolle gedrängt. Die Bürokratie nimmt zu. Viele Kunden wünschen zwar eine telefonische Ausführung ihrer Transaktion, sehen aber die Aufzeichnung des Gesprächs als Eingriff in ihre Persönlichkeitsrechte (Wagner 2019, S. 27). Auch die erforderliche Übermittlung der Produkt- und Kosteninformationen vor dem Handel des Finanzinstrumentes führt zwangsläufig zu zeitlichen Verzögerungen, die sich negativ auf die Rendite auswirken können. Insbesondere bei Investitionen in volatilere Finanzprodukte kann die Zeit ein kritischer Erfolgsfaktor sein. Allerdings dürfte dieser Aspekt für die meisten Produkte keine wesentliche Einschränkung bedeuten. In der Folge dürften die Kosten der Anlageberatung steigen, denn die Institute müssen ihre IT-Systeme entsprechend programmieren, mehr Compliance-Experten einstellen und ihre Berater schulen (Wagner 2019, S. 27). Auf die Welle der Regulierung könnte also in absehbarer Zeit wieder eine Phase der Deregulierung folgen. Aktuell scheint die Beziehung zwischen Berater und Kunden zu stark von Gesetzen und Verpflichtungen eingeschnürt. Zumindest sollte in Erwägung gezogen werden, das Ausmaß der Vorschriften an die Kenntnisse der Anleger zu koppeln. Je professioneller ein Anleger ist, desto geringer können die Regulierungsvorschriften ausfallen.

Fehler im Anlegerschutz – Der Fall »Wolf of Wall Street« im Spiegel unserer Zeit

4.2

73

Gefahren durch Künstliche Intelligenz

Die Künstliche Intelligenz (KI) zählt zu den schillerndsten und einflussreichsten Themen der heutigen Zeit. Dabei ist das Forschungsgebiet noch relativ jung. Die ersten wissenschaftlichen Beiträge liegen gerade einmal 60 Jahre zurück. In ihrem Ursprung bezog sich KI darauf, Maschinen die Fähigkeit zu geben, wie Menschen zu denken, zu lernen und zu verstehen. Seit ca. 1970 weitete sich das Begriffsverständnis auf Themengebiete wie die Robotik, die Erkennung von Mustern, die Spieltheorie oder die intelligente Steuerung aus (Pan 2016, S. 410). Mittlerweile gibt es schon den Begriff der KI 2.0. Immer mehr wird ihr Anwendungsbereich ausgebaut. Aktuell liegt der Fokus darauf, intelligente Fahrzeuge, intelligente Häuser, intelligente Medizin, intelligente Fertigungen oder eben eine intelligente Ökonomie zu entwickeln (Pan 2016, S. 412). Anwendungsfelder für KI finden sich auch im Bereich der Anlageberatung. Auf den ersten Blick liegen die Chancen und Möglichkeiten in der Anlageberatung auf der Hand. KI kann den Berater bei der Bearbeitung und Prüfung von Mails, der Beobachtung von Marktgegebenheiten im Hinblick auf eine Anlage oder als allwissendes Lexikon für Produktinformationen unterstützen. Mit KI können im Unternehmen Arbeitsprozesse verkürzt, Qualität gesteigert und Kosten gesenkt werden (Hildesheim/Michelsen 2019, S. 126). Die disruptiven Kräfte von durch KI getriebenen Innovationen bedeuten aber auch Risiken und lösen Ängste aus. Gefahren können von intransparenten Entscheidungsprozessen oder der schlichten Angst vor dem Verlust von Arbeitsplätzen ausgehen. Mit Blick auf die Geschichte des Wolf of Wall Street stellt sich die Frage, ob mit Hilfe von KI nicht eine moderne Form des Pump-andDump-Schemas von Stratton Oakmont entwickelt werden kann, um den Markt zu sabotieren (Hildesheim/Michelsen 2019, S. 128). Die Gefahr könnte explizit darin bestehen, dass KI-Systeme schneller und effizienter denken und handeln als Menschen, so dass Preismanipulationen oder ganze Marktmanipulationen für den Menschen nicht oder nur sehr schwer wahrnehmbar sind. Hier wird insbesondere der Punkt der Intransparenz von KI deutlich. In diesen Diskurs ist bereits die BaFin eingestiegen. Bei einem verantwortungsbewussten Umgang mit KI sieht die Aufsicht Potenzial für eine mögliche Effizienz- und Effektivitätssteigerung der Kapitalmärkte. Insbesondere im Zusammenhang mit besseren Datensicherungsmöglichkeiten erhoffen sie sich unterstützende Impulse für alle Geschäftsbereiche eines Finanzinstitutes. Allerdings führen die neuen Verflechtungen auch zu komplexeren Marktstrukturen (BaFin 2018b, S. 11). Gerade die Komplexität verhindert es, dass der Anleger die Datenverwendung und -auswertung noch nachvollziehen kann. Es müssen daher klare Strukturen geschaffen werden, um die neu entstehenden Informationsasymmetrien zu reduzieren (BaFin 2018b, S. 50). Dies gilt in besonderem

74

Arnd Wiedemann / Patrick Hertrampf

Maße für die Aufsicht selbst, denn nur, wenn diese über die geeigneten Fähigkeiten und das Wissen verfügt, kann einer möglichen Finanzkriminalität frühzeitig entgegengetreten werden. Dies zeigt sich schon jetzt in Verschiebungen im Berufsprofil eines Aufsichtsmitarbeiters hin zu mehr mathematisch-analytischen Fähigkeiten (BaFin 2018b, S. 58). Welche Auswirkungen KI auf die Finanzmärkte und ihre Effizienz haben wird, kann heute noch nicht abschließend beurteilt werden. Ein Bild des Wandels kann aber heute schon auf den Finanzmärkten und an den Jobbörsen beobachtet werden. Insbesondere für aufsichtsrechtliche Institutionen wird es entscheidend sein, Strukturen zu schaffen, um die Marktteilnehmer vor dem Hintergrund eines zunehmenden Einsatzes von KI adäquat überwachen und kontrollieren zu können. Dies gilt besonders in Bezug auf den Anlegerschutz, damit eine Wiederholung der Geschichte im Sinne eines modernen Wolf of Wall Street nicht möglich ist.

5.

Fazit

Fehler und Systemschwächen wird es immer geben. Und immer wird es auch Menschen geben, die versuchen werden, aus diesen Fehlern und Schwächen Profit zu schlagen. Dem Staat kommt die Aufgabe zu, ein faires Gleichgewicht und adäquate Anreize für alle Marktteilnehmer zu schaffen und insbesondere bei starken Asymmetrien einen Ausgleich zum Schutz der Schwächeren zu entwickeln. Der Wolf of Wall Street ist ein Paradebeispiel für die aggressive einseitige Ausnutzung eines Marktumfeldes, das solches Handeln (zumindest zeitweise) möglich machte. Die richtige Balance zu erreichen, ist dabei die besondere Herausforderung und Schwierigkeit. So kann auf der einen Seite mit den jetzigen Regelungen von MiFID II bereits eine Überregulierung gegeben sein, auf der anderen Seite bestehen vielleicht noch Defizitbereiche, wie die Ausführungen zur KI gezeigt haben. Auch auf die Institute selber kommen neue Herausforderungen zu, wie die Themen Risikokultur und Risk Governance gezeigt haben. Für die Zukunft bleibt abzuwarten, inwiefern eine Deregulierung für alle Parteien von Vorteil sein könnte, aber auch, welche Bereiche neu hinzukommen werden. An einem sollten aber alle Beteiligten ein besonderes Interesse haben: Das Vertrauen der Anleger muss wieder wachsen. Dazu bedarf es eines Systems, das die Schutzbedürftigkeit von Anlegern aufgrund der bestehenden Informationsasymmetrien mit den Interessen der Finanzindustrie vor überbordender Bürokratie, aber auch der Schutzbedürftigkeit der Anlageberater als Angestellte von Banken ausbalanciert.

Fehler im Anlegerschutz – Der Fall »Wolf of Wall Street« im Spiegel unserer Zeit

75

Literatur Acharya, Viral V./Richardson, Matthew (2009): Causes of the Financial Crisis. Critical Review 21 (2–3), S. 195–210. BaFin – Bundesanstalt für Finanzdienstleistungsaufsicht (2017a): Gemeinsames Informationsblatt der Bundesanstalt für Finanzdienstleistungsaufsicht und der Deutschen Bundesbank zum Tatbestand der Anlageberatung. Bonn, Frankfurt am Main. BaFin – Bundesanstalt für Finanzdienstleistungsaufsicht (2017b): MiFID II und MiFIR – Beitrag aus dem Jahresbericht 2017 der BaFin. www.bafin.de/DE/PublikationenDaten/Jah resbericht/Jahresbericht2017/Kapitel5/Kapitel5_1/Kapitel5_1_1/kapitel5_1_1_node.html (zuletzt abgerufen am 27. 02. 2019). BaFin – Bundesanstalt für Finanzdienstleistungsaufsicht (2017c): Mindestanforderungen an das Risikomanagement. BaFin – Bundesanstalt für Finanzdienstleistungsaufsicht (2017d): Vergütung – Novelle der Institutsvergütungsverordnung in Kraft. www.bafin.de/SharedDocs/Veroeffentlichun gen/DE/Fachartikel/2017/fa_bj_1708_Verguetung.html (zuletzt abgerufen am 10. 04. 2019). BaFin – Bundesanstalt für Finanzdienstleistungsaufsicht (2018a): Anlegerschutz im Fokus: Neuerungen im Zuge der Umsetzung der MiFID II. www.bafin.de/DE/Verbrau cher/Aktuelles/MiFID_II/MiFID_II_node.html (zuletzt abgerufen am 27. 02. 2019). BaFin – Bundesanstalt für Finanzdienstleistungsaufsicht (2018b): Studie: Big Data trifft auf Künstliche Intelligenz. Bonn, Frankfurt am Main. Bai, Gang/Elyasiani, Elyas (2013): Bank Stability and Managerial Compensation. Journal of Banking & Finance 37 (3), S. 799–813. BCBS – Basel Committee on Banking Supervision (2012): Grundsätze für eine wirksame Bankenaufsicht, September 2012. Basel. Bradley, Daniel J./Cooney Jr., John W./Dolvin, Steven D./Jordan, Bradford D. (2006): Penny Stock IPOs. Financial Management 35 (1), S. 5–29. Colesworthy, Rebecca (2014): Capital’s Abstractions. Textual Practice 28 (7), S. 1169–1179. Deutsche Bundesbank (2017): Monatsbericht Oktober : Der aufsichtliche Überprüfungsund Bewertungsprozess für kleinere Institute und Überlegungen zur Proportionalität. Frankfurt am Main. Fama, Eugene F./Miller, Merton H. (1972): The Theory of Finance. New York. Feurle, Bettina (2015): Die Finanzkrise 2008 und ihre Folgen: Eine Analyse des Krisenmanagements. Hamburg. Hagendorff, Jens/Vallascas, Francesco (2011): CEO Pay Incentives and Risk-Taking: Evidence from Bank Acquisitions. Journal of Corporate Finance 17 (4), S. 1078–1095. Hildesheim, Wolfgang/Michelsen, Dirk (2019): Künstliche Intelligenz im Jahr 2018 – Aktueller Stand von branchenübergreifenden KI-Lösungen: Was ist möglich? Was nicht? Beispiele und Empfehlungen. In Buxmann, P./Schmidt, H. (Hrsg.), Künstliche Intelligenz: Mit Algorithmen zum wirtschaftlichen Erfolg. Berlin, Heidelberg, S. 119– 142. Jensen, Michael C./Meckling, William H. (1976): Theory of the Firm: Managerial Behavior, Agency Costs and Ownership Structure. Journal of Financial Economics 3 (4), S. 305– 360.

76

Arnd Wiedemann / Patrick Hertrampf

Kantor, Brian/Holdsworth, Christopher (2014): 2013 Nobel Prize Revisited: Do Shiller’s Models Really Have Predictive Power? Journal of Applied Corporate Finance 26 (2), S. 101–108. Kyle, Albert S./Viswanathan, Sathish (2008): How to Define Illegal Price Manipulation. American Economic Review 98 (2), S. 274–279. Marshall, John M. (1976): Moral Hazard. American Economic Review 66 (5), S. 880–890. Moyer, R. Charles (2012): Contemporary Financial Management. 12. Aufl. Mason. Pan, Yunhe (2016): Heading toward Artificial Intelligence 2.0. Engineering 2 (4), S. 409– 413. Power, Michael (2009): The Risk Management of Nothing. Accounting, Organizations and Society 34 (6–7), S. 849–855. Rubin, Ronald L. (2014): How the ›Wolf of Wall Street‹ Really Did It. The Wall Street Journal 03. 01. 2014, S. A9. Sachs, Lothar (2004): Angewandte Statistik. Anwendung statistischer Methoden. 11. Aufl. Berlin, Heidelberg. Schmidt, Christoph/Reuse, Svend (2018): MaRisk 6.0: Ausgestaltung und Quantifizierung einer adäquaten Risikokultur. Zeitschrift für das gesamte Kreditwesen 71 (5), S. 2–9. Schmielewski, Frank/Wein, Thomas (2015): Are Private Banks the Better Banks? An Insight into the Principal–Agent Structure and Risk-Taking Behavior of German Banks. Journal of Economics and Finance 39 (3), S. 518–540. Schmitz, Patrick W. (2001): The Hold-Up Problem and Incomplete Contracts: A Survey of Recent Topics in Contract Theory. SSRN Electronic Journal. SEC – Securities and Exchange Commission (2013): Penny Stock Rules. www.sec.gov/fastanswers/answerspennyhtm.html (zuletzt abgerufen am 28. 01. 2019). Shiller, Robert J. (2003): From Efficient Markets Theory to Behavioral Finance. Journal of Economic Perspectives 17 (1), S. 83–104. Sinn, Hans-Werner (2012): Die Europäische Fiskalunion Gedanken zur Entwicklung der Eurozone. Perspektiven der Wirtschaftspolitik 13 (3), S. 137–178. Stein, Volker/Wiedemann, Arnd (2016): Risk Governance: Conceptualization, Tasks, and Research Agenda. Journal of Business Economics 86 (8), S. 813–836. Stein, Volker/Wiedemann, Arnd/Wilhelms, Jan Hendrik (2018): Integrative Risikosteuerungsansätze für KMU: Enterprise Risk Management versus Risk Governance. Zeitschrift für KMU und Entrepreneurship 66 (1), S. 61–70. Stiftung Warentest (2010): Die Blamage geht weiter. www.test.de/Banken-im-Test-Die-Bla mage-geht-weiter-4113924-0/ (zuletzt abgerufen am 21. 03. 2019). Wagner, Jan F. (2019): Schwache Beratung statt starkem Schutz. Bankmagazin 68 (1), S. 26–29. Wiedemann, Arnd/Wilhelms, Jan Hendrik (2019): Der Risikoappetit in Banken – Ansätze zu mehr Transparenz in den Geschäftsberichten. Zeitschrift für das gesamte Kreditwesen 72 (4), S. 26–30. Wood, Anthony/Lewis, Anya (2018): Risk Culture Development and its Impact: The Case of the Caribbean Development Bank. International Journal of Business and Economic Development 6 (1), S. 18–37. Zahariadis, Nikolaos (2012): Complexity, Coupling and Policy Effectiveness: The European Response to the Greek Sovereign Debt Crisis. Journal of Public Policy 32 (2), S. 99–116.

Fehler im Anlegerschutz – Der Fall »Wolf of Wall Street« im Spiegel unserer Zeit

77

Zaki, Mohamed/Diaz, David/Theodoulidis, Babis (2012): Financial Market Service Architectures: A »Pump and Dump« Case Study. Proceedings of the 2012 Annual SRII Global Conference, S. 554–563. Zeier Roeschmann, Angela (2014): Risk Culture: What It Is and How It Affects an Insurer’s Risk Management. Risk Management and Insurance Review 17 (2), S. 277–296.

Marius Albers*

Lügen als Fehler in der (sprachlichen) Kommunikation?

1.

Einleitung

Die Geschichte des Wortes Fehler, seine Etymologie, offenbart (nicht nur) eine spannende Perspektive: Das Wort geht zurück auf das lateinische Verb fallere, das so viel bedeutet wie ›betrügen, täuschen, irreführen‹ (o. V. 1993). In dieser Reihe ließe sich die Bedeutung ›lügen‹ gut ergänzen, wenn man darunter ein ›Täuschen mit Worten‹ versteht, wenn man das Lügen also als eine spezifische Form sprachlichen Handelns begreift. Doch nicht nur die Etymologie verbindet den Fehler und das Lügen: Bestimmt man den Fehler gegenwartssprachlich mit dem Großen Wörterbuch der deutschen Sprache als »etwas, was falsch ist, vom Richtigen abweicht« (GWB 2012) und nimmt als Bezugsgröße den »richtigen« Gebrauch der Sprache, dann ließe sich mit Bezug auf Aurelius Augustinus, eine zentrale und bis heute einflussreiche Figur in der Lügenforschung, feststellen: »Und doch ist die Sprache nicht geschaffen, damit die Menschen sich gegenseitig täuschen, sondern damit der eine dem anderen seine Gedanken vermitteln kann. Die Sprache zur Täuschung benutzen und nicht zu dem ihr (von Gott) gesetzten Zweck ist Sünde.« (zitiert nach Gardt 2008, S. 22)

Lügen wäre in diesem Sinne ein Fehler in der sprachlichen Kommunikation, ein falscher, vom richtigen abweichender Gebrauch der Sprache zur Täuschung eines anderen. Natürlich muss man an dieser Stelle fragen, inwiefern das moraltheologische Argument der Sündhaftigkeit in einer weitgehend säkularen Wissenschaft wie der Linguistik verfängt und überlegen, ob noch andere, genuin sprachtheoretische Argumente für die potenzielle Fehlerhaftigkeit des Lügens in der Kommunikation in Anschlag gebracht werden können. Um dieser Frage nachzugehen, muss zunächst einmal geklärt werden, was eigentlich unter * Marius Albers, M.A., Universität Siegen, Fakultät I (Philosophische Fakultät), Germanistik – Linguistik.

80

Marius Albers

sprachlicher Kommunikation verstanden werden kann und welchen Regeln sie unterworfen ist. Auf dieser Basis wird – nach einer anschließenden allgemeinen Bestimmung des Lügens – der Versuch unternommen, die titelgebende Frage zu beantworten. Damit ist der Dreischritt des vorliegenden Beitrags skizziert, der primär theoretische Aspekte der sprach- und kommunikationswissenschaftlichen Perspektive auf das Lügen in den Blick nimmt. Es geht nicht um die moralische Bewertung des Lügens, ebenso wird hier nicht beantwortet, wie man ganz praktisch am effektivsten lügt oder Lügen erkennt.

2.

Allgemein-theoretische Aspekte der Kommunikation

Ein Alltagsverständnis von Kommunikation hat sicher jeder, wie Kommunikation allerdings wissenschaftlich zu definieren ist, darüber lässt sich – wie bei vielen anderen Grundbegriffen auch – trefflich streiten. Nicht zuletzt erschwert die Universalität von Kommunikation und das damit verbundene grundsätzliche Interesse verschiedener Disziplinen wie Kommunikationswissenschaft, Linguistik oder Soziologie (um nur geisteswissenschaftliche Fächer zu nennen) an diesem Gegenstand eine allgemein verwendbare Definition (vgl. Beck 2017, S. 15). Einen breit gefächerten Überblick über verschiedene disziplinäre Zugänge gibt der Band von Richter/Schmitz (2003). Trotz dieser Definitionsproblematik muss klar werden, wie der Begriff Kommunikation in diesem Beitrag verstanden werden will. Zunächst einmal wird dafür ganz generell eine Einschränkung auf zwischenmenschliche Interaktionen vorgenommen; sonstige Formen wie etwa animalische oder (rein) technische Prozesse der Daten- und/oder Signalübertragung werden also von vornherein ausgeschlossen (vgl. Beck 2017, S. 17; zur Frage, ob auch in der animalischen Kommunikation gelogen wird, vgl. z. B. Schnitzler/Denzinger 2011). So kann man Kommunikation nun im Sinne einer interpersonalen und interaktiven Interaktion (face-to-face) verstehen, wobei für die Zwecke dieses Beitrags einzig auf den verbalen Austausch zwischen (mindestens) zwei Kommunikanten fokussiert wird. In diesem Prozess werden von einem (abstrakt gemeinten, daher generisch bezeichneten) Sender Sprachzeichen an einen Empfänger übertragen, aus denen letzterer wiederum Bedeutung und Sinn (re-)konstruieren kann. Dass die Inhalte einer Botschaft nicht im eigentlichen Sinne übertragen, sondern vom Sprecher in sprachliche Zeichen codiert und diese Zeichen vom Hörer wiederum decodiert und interpretiert werden (wobei Interpretation als aktiver und konstruktiver Prozess zu verstehen ist), ist hier ein ganz zentraler Punkt. Der Hörer kann im Kommunikationsprozess nämlich nicht unmittelbar erkennen, »welches nun eigentlich der zu kommunizierende

Lügen als Fehler in der (sprachlichen) Kommunikation?

81

Gedanke gewesen ist« (Ungeheuer 1987, S. 328), er kann die sprachlichen Zeichen des Gegenübers nur interpretieren und dabei versuchen, eine potenzielle Sprecherintention zu rekonstruieren. Auf diese Interpretationsnotwendigkeit wird zurückzukommen sein. Verbale Humankommunikation erfolgt nun nicht völlig regellos. Regeln können in diesem Zusammenhang einerseits soziale Normen sein, die sich etwa in dem Gebot »Du sollst nicht lügen!« (das in dieser Form übrigens nicht Teil des Dekalogs ist!) äußern. Kommunikationsethische Forderungen wie die letztgenannte aus unterschiedlichen Epochen stellt Andreas Gardt (2008) zusammen, wobei er betont, dass es dabei »nicht zuallererst um sprachtheoretische, sondern um gesellschaftliche Fragen geht« (Gardt 2008, S. 18). Andererseits hat die Sprachtheorie versucht, grundsätzliche Regeln des kommunikativen Handelns zu ermitteln, nicht auf einer regulativ-normativen, sondern auf einer grundlegend-konstitutiven Ebene. Der Sprechakttheoretiker John Searle (1979, S. 29) etwa beschreibt Kommunikation per se als »eine regelgeleitete Form des Verhaltens«. Prominent sind in diesem Kontext das Kooperationsprinzip und die Konversationsmaximen, die Herbert Paul Grice in den 1960er Jahren formuliert hat. Dieses Konzept soll im Folgenden kurz vorgestellt werden.

3.

Kommunikation und Kooperation

Grices Ziel ist eine »Untersuchung der allgemeinen Bedingungen […], die – in der einen oder anderen Weise – auf Konversation als solche, unabhängig von ihrem Gegenstand, zutreffen.« (Grice 2010, S. 196). Wichtig ist, dass »Konversation« bei Grice nicht im Sinne »gepflegter Unterhaltung« missverstanden werden darf, weshalb manche Autorinnen und Autoren (z. B. Finkbeiner 2015, S. 22) auch allgemeiner von »Gesprächsmaximen« sprechen. Zentraler Ankerpunkt der Grice’schen Theorie aus dem Jahr 1975 ist das Kooperationsprinzip, das in seiner kanonischen Formulierung lautet: »Mache deinen Gesprächsbeitrag jeweils so, wie es von dem akzeptierten Zweck oder der akzeptierten Richtung des Gesprächs, an dem du teilnimmst, gerade verlangt wird« (Grice 2010, S. 199). Die Einhaltung dieses Prinzips, so nimmt Grice an, wird von allen rational und zielorientiert handelnden Gesprächsteilnehmerinnen und -teilnehmern erwartet und gegenseitig unterstellt – es ist aber nicht als normatives Präskript, sondern rein als vernünftiges Verhalten zu verstehen, das kooperativem Handeln im Allgemeinen (wie auch der Kommunikation im Speziellen) zugrunde liegt. Grice (2010, S. 201) spricht hier von einem erlernten Verhalten, doch die grundlegende Veranlagung zur Kooperation ist, so zeigt Tomasello (2012, S. 45–46), ein Wesenszug, der den Menschen zunächst unabhängig von ihrer Sozialisation eigen ist, der aber im Laufe der Sozialisation durch

82

Marius Albers

die Aneignung sozialer Normen und Werte sowie durch persönliche Erfahrungen verändert wird. Ausgehend vom Kooperationsprinzip und in Anlehnung an die Kant’sche Urteilstafel arbeitet Grice vier Kategorien sowie verschiedene Maximen und Untermaximen sprachlicher Kommunikation heraus (Abb. 1). Quantität 1. Mache deinen Beitrag so informativ wie (für die gegebenen Gesprächszwecke) nötig. 2. Mache deinen Beitrag nicht informativer als nötig. Qualität 1. Versuche deinen Beitrag so zu machen, daß er wahr ist. 2. Sage nichts, was du für falsch hältst. 3. Sage nichts, wofür dir angemessene Gründe fehlen.

Relation 1. Sei relevant.

Modalität 1. Sei klar. 2. Vermeide Dunkelheit des Ausdrucks. 3. Vermeide Mehrdeutigkeit. 4. Sei kurz (vermeide unnötige Weitschweifigkeit). 5. Der Reihe nach! Abb. 1: Konversationsmaximen nach Grice (Darstellung adaptiert nach Rolf 1994, S. 104)

Zusammen mit dem Kooperationsprinzip wird auch die Einhaltung dieser Maximen nach Grice (2010, S. 199) von den Kommunikanten gegenseitig erwartet und unterstellt. Das Wirken und die Folgen der Maximen zeigen sich am besten, wenn man offenkundige Verstöße gegen sie aufzeigt. Dazu ein Beispiel: »Die Geschichte vom Maat und vom Kapitän Ein Kapitän und sein Maat haben seit längerem Streit. Der Maat spricht gern dem Rum zu, und der Kapitän will dies nicht länger dulden. Als der Maat wieder mal besoffen ist, trägt der Kapitän ins Logbuch ein: Heute, 11. Oktober, der Maat ist betrunken. Als der Maat während seiner nächsten Wache diese Eintragung liest, wird er erst wütend, dann überlegt er kurz, schließlich trägt er ins Logbuch ein: Heute, 14. Oktober, der Kapitän ist nicht betrunken.« (Meibauer 2015, S. 192)

Bei der Äußerung des Maats handelt es sich nun auf den ersten Blick um eine offenkundige Verletzung der Relevanzmaxime: Warum ist es relevant anzugeben, dass der Kapitän nicht betrunken ist? Dies sollte den erwartbaren und nicht erwähnenswerten Normalzustand darstellen. Der Empfänger einer solchen Äußerung wird nun, wenn er seinem Gegenüber die Beachtung der Grice’schen Maximen unterstellt, nach Gründen für diesen Verstoß suchen und zugleich versuchen, eine sinnvolle Interpretation für die Äußerung im jeweiligen Kontext zu konstruieren. Dabei wird der Empfänger womöglich darauf kommen, dass es sich eben doch um eine erwähnenswerte Abweichung vom Normalzustand handelt, dass also der Kapitän üblicherweise betrunken ist. Mit Grice (2010)

Lügen als Fehler in der (sprachlichen) Kommunikation?

83

werden solche Schlüsse von explizit geäußerten auf implizit mitgemeinte Inhalte Implikaturen genannt. Die von Grice entwickelte Theorie der Implikaturen beruht genau darauf, dass Inhalte, die nicht explizit formuliert werden, durch Schlussprozesse im Anschluss an solche offenkundigen Maximenverletzungen ermittelt werden. Ein anderer Aspekt, der das Wirken der Maximen erhellt, ist das offene Ansprechen einer anstehenden Verletzung. Wenn beispielsweise jemand sagt »Da muss ich weiter ausholen«, dann wird er gegen die vierte Maxime der Modalität verstoßen, sagt jemand »Ich bin mir nicht sicher, ob das wahr ist«, zeigt er einen flagranten Verstoß gegen die erste Maxime der Qualität an. Das gegenseitige Unterstellen der Maximen kann solche Äußerungen plausibel erklären (vgl. Rolf 1994, S. 107). Gerade ihre Erklärungskraft bei den genannten Phänomenen kann als ein Indiz für die Relevanz des Grice’schen Kooperationsprinzips und der damit verbundenen Maximen aufgefasst werden. Dabei sind sie allerdings auch nicht unwidersprochen (vgl. Schmitz 2008), und eine wichtige Einschränkung macht Grice auch gleich selbst: Obwohl er, wie gesehen, eingangs einen Anspruch für Gespräche im Allgemeinen formuliert, erklärt er später : »Ich habe die Maximen hier so formuliert, als bestünde dieser Zweck [des Gesprächs] in maximal effektivem Informationsaustausch« (Grice 2010, S. 200). Tatsächlich betrifft das aber nur einen Teil der kommunikativen Realität: Knobloch (2003, S. 109) etwa attestiert, dass »wir in erster Linie nicht sprechen, um wahrheitsfähige Darstellungen auszutauschen (es sei denn als Wissenschaftler), sondern erzählen, Vereinbarungen treffen, Smalltalk praktizieren, Meinungen ventilieren«. Für diese verbreiteten Formen der Kommunikation können die Maximen also nicht unbedingt in gleicher Weise in Anschlag gebracht werden, was Grice (2010, S. 200) auch selbst erkennt und die prinzipielle Notwendigkeit einer Verallgemeinerung anspricht (vgl. dazu Rolf 1994). Im Folgenden können (und müssen) nicht alle Maximen thematisiert werden; relevant ist für diesen Beitrag in erster Linie die Kategorie der Qualität, und dort insbesondere die erste Maxime. Dieser schreibt Grice einen besonderen, grundlegenderen Stellenwert zu: »Ja, man könnte den Eindruck haben, zumindest die erste Maxime der Qualität sei von solcher Wichtigkeit, daß sie gar nicht in so ein System gehört, wie ich es gerade entwickele« (Grice 2010, S. 200). Auch Meibauer (2016, S. 34–41) stellt kulturübergreifend die wichtige Rolle dieser Maxime heraus. Letztendlich belässt Grice diese erste Maxime der Qualität jedoch in diesem Kanon, weil er im Rahmen seiner Theorie zeigen kann, dass offenkundige Verstöße gegen diese Maxime zu ganz ähnlichen Erschließungsprozessen und Implikaturen führen wie oben gezeigt: Wenn das Auto im Graben gelandet ist und der Beifahrer sagt: »Das hast du toll gemacht!«, dann wird in den meisten Fällen wohl kaum ein rationaler Gesprächsteilnehmer diese Behauptung

84

Marius Albers

als wahr auffassen. Der Verstoß – denn auch der Sprecher wird die Proposition für falsch halten – ist so offenkundig, dass die implikatierte Bedeutung erschließbar wird, es handelt sich um Ironie. Wird jedoch nicht offenkundig gegen diese Maxime verstoßen, und dies gepaart mit der Absicht, den Hörer zu täuschen, so befinden wir uns auf dem Feld des Lügens. Das ist aus verschiedenen Gründen ein schwieriges Gelände.

4.

Einige Bestimmungen des Lügens

Vier Kriterien scheinen zentral zu sein, wenn es um eine Bestimmung des Lügens geht: »K1: S behauptet, dass p. K2: S glaubt, dass p falsch ist. K3: p ist falsch. K4: S will H täuschen.« (Horn 2016, S. 7)

Diese Kriterien haben nun unterschiedliches Gewicht. Im Kontext der hier vertretenen sprachwissenschaftlichen Perspektive gelten nur solche Akte als Lügen, die sprachlich (nicht durch Gesten oder Bilder) und in Form einer Behauptung (vgl. dazu Meibauer 2015, S. 179–183) vollzogen werden, womit K1 zu einer notwendigen und konstitutiven Bedingung wird. Der zentrale Fall des Lügens liegt vor, wenn alle Kriterien erfüllt sind: »Ken lügt Ken kommt spät nach Hause. Barbie fragt, wo er gewesen ist. Er sagt: ›Ich war noch im Büro.‹ In Wirklichkeit war er mit seinem Kumpel Ben in der Kneipe.« (Meibauer 2015, S. 179)

Doch das Konzept »Lügen« ist prototypisch organisiert, sodass andere Sprechakte ebenso als Formen des Lügens aufgefasst werden können, wenngleich nicht alle der gelisteten Kriterien zutreffen (vgl. Coleman/Kay 1981). Zunächst zu K3: Es zeigt sich, dass die Wahrheit beziehungsweise Falschheit einer Proposition p nicht entscheidend ist für das Lügen, und das in zweierlei Hinsicht: Einerseits kann man etwas Falsches auch zum Spaß sagen (Ironie) oder aber aus Unwissenheit (Irrtum). Andererseits kann man sogar mit wahren Sätzen lügen: »Barbie gibt an Barbie will von Ken bemitleidet werden. Sie sagt: ›Ich habe einen angeborenen Herzklappenfehler.‹ Am Tag drauf besucht sie den Arzt. Er findet heraus, dass sie tatsächlich einen angeborenen Herzklappenfehler hat.« (Meibauer 2015, S. 180)

Obschon der Satz von Barbie wahr ist, hat sie ihn im Glauben an seine Falschheit und mit der Absicht zu täuschen geäußert und damit gelogen. Die Lüge ergibt

Lügen als Fehler in der (sprachlichen) Kommunikation?

85

sich aus der Diskrepanz zwischen Behauptetem und Geglaubtem – was freilich nur dann erkenn- und analytisch fassbar ist, wenn man bereits weiß, was Barbie glaubt. Im Übrigen zeigt sich hier, dass ein Sprecher als notwendige Voraussetzung zum Lügen über eine »Theory of mind« verfügen muss, also die Fähigkeit, zwischen dem eigenen Wissen und dem Wissen des Gegenübers zu unterscheiden (vgl. Knobloch 2014, S. 36). Wie das Beispiel »Barbie gibt an« zeigt, kann man durch den strategischen Einsatz von (mindestens vermuteten) Wissensungleichgewichten irreführende Behauptungen aufstellen. Das Beispiel »Die Geschichte vom Maat und vom Kapitän« zeigt seinerseits einen Fall von Lügen mit der Wahrheit: Der geäußerte Satz ist wahr, erst die Implikatur, die aus der Verletzung der Relevanzmaxime erwächst, ist hier die (be-)trügerische Botschaft. Allerdings ist nicht unumstritten, ob man solche nicht expliziten Inhalte als Lügen auffassen kann: Horn (2016) würde solche Implikaturen nicht als Lügen bezeichnen, anders als Meibauer (2015), der im Grice’schen Sinne sowohl Gesagtes als auch Implikatiertes als intendierte Sprecherbedeutung auffasst. Diese Fälle lassen sich nur unter Rückgriff auf den Glauben (K2) und insbesondere die Täuschungsabsicht des Sprechers (K4) klären. Und hier liegt nun die Crux des Ganzen, wenn man das Lügen nicht nur theoretisch erfassen möchte. Heringer (1990, S. 7) schreibt treffend: »Mit einem Bein steht sie [die Lüge] draußen in der Landschaft der Öffentlichkeit; es ist, was einer sagt. Mit dem andern Bein steht sie drinnen, im Innern des Lügners; es ist, was er glaubt.« Was ein Sprecher sagt, die Zeichen, die er äußert, kann der Hörer wahrnehmen, decodieren und interpretieren, das ist wie gesehen das übliche Prozedere verbaler Kommunikation. Die Frage ist aber, wie man eine mögliche Diskrepanz zwischen dem, was der Sprecher sagt, und dem, was er glaubt, herausbekommt, denn objektiv zugänglich ist sie nicht. Schon Searle war sich darüber im Klaren, dass ein Rückgriff auf den tatsächlichen mentalen Status eines Sprechers problematisch ist, und hat sich daher auf den ausgedrückten mentalen Zustand berufen: »In den Fällen, in denen durch die Aufrichtigkeitsbedingung ein psychischer Zustand bestimmt wird, gilt der Vollzug des Aktes als Zum-Ausdruck-Bringen jenes Zustandes. Dieses Gesetz gilt unabhängig davon, ob der Akt aufrichtig oder unaufrichtig vollzogen wird, d. h. unabhängig davon, ob der betreffenden psychische Zustand bei dem Sprecher wirklich besteht oder nicht.« (Searle 1979, S. 107; Hervorhebungen im Original).

In diesem Fall wäre also durch die Äußerung des Satzes »Ich war noch im Büro« im Beispiel »Ken lügt« eine Behauptung aufgestellt, und mit diesem Sprechakt drückt der Sprecher seine Intention aus, die vorliegende Proposition als wahren Sachverhalt darzustellen – diese ausgedrückte Intention wäre die gleiche, egal ob der Sprecher wahrhaftig ist oder nicht. Um also das Lügen von einer aufrichtigen

86

Marius Albers

Behauptung abzugrenzen, müsste man eine dritte Ebene der Intentionalität einführen: »1. die (offene) Absicht, eine Tatsache oder einen Sachverhalt zu repräsentieren, 2. die (offene) Absicht, daß der Hörer glaubt, daß der Sprecher glaubt, daß etwas der Fall ist, 3. die (verdeckte) Absicht, aus bestimmten Gründen gegen die ausgedrückte Absicht erster Stufe, zu verstoßen« (sic!; Ausborn-Brinker 2003, S. 10).

Das Problem freilich wird dadurch nur verschoben: Denn auch diese dritte Intentionalitätsebene fußt – um in Heringers Bildsprache zu bleiben – im Innern des Sprechers. Darauf hat jedoch die Sprechakttheorie keinen analytischen Zugriff, und ganz ebenso nicht der Hörer (Knobloch 2014, S. 30–31). Wohl nicht zuletzt aufgrund dieses Dilemmas beruhen weite Teile der bisherigen linguistischen Beschäftigung mit dem Lügen auf »Szenarios« (Meibauer 2015, S. 177), und zwar solchen, bei denen die verschiedenen Parameter, die den mentalen Status des Sprechers und/oder ein für die Täuschung relevantes Wissensungleichgewicht zwischen den Aktanten betreffen, für den Analysten offenbar werden, wie in den oben angeführten. Die theoretische Bestimmung des Lügens ist auf diese Weise zwar machbar, aber sie hinkt, weil das zweite Bein immer im Innern des Sprechers feststeckt. Greifbar ist nur die ausgedrückte Intention des Sprechers, doch die ist gerade eine vorgetäuschte: Offenkundig ist die Behauptung, nicht die Lüge. Ob man diesem Dilemma gänzlich entkommen kann, ist fraglich. Die Lügendetektion etwa versucht, dem Lügen auf Basis von beobachtbaren Daten (Hautleitwert, Puls, Herzfrequenz, aber auch sprachliche Phänomene wie Sprechtempo oder Wortwahl) auf die Spur zu kommen, doch das funktioniert zumeist eher schlecht als recht (vgl. Fobbe 2011, Kap. 6). Dieser kurze problemorientierte Rundgang durch das Feld des Lügens aus Sicht der Sprachwissenschaft führt zur eingangs gestellten Frage zurück: Inwiefern kann das Lügen einen Fehler in der Kommunikation darstellen?

5.

Lügen als Fehler in der Kommunikation?

5.1

Eine Antwort …

Prinzipiell ließe sich sagen: Lügen ist zunächst ein Fall von geradezu prototypischem kommunikativem Handeln. Der Lügner muss die Regeln des kommunikativen Spiels bestens beherrschen und glaubhaft machen, dass er kooperativ am Spiel teilnimmt, erst dann kann das Lügen glücken. Das gilt gleich doppelt: Der eine Teil des Spiels, nämlich die Interpretationsbedürftigkeit der Kommunikation an sich und die Unmöglichkeit, die »eigentliche« Botschaft des Spre-

Lügen als Fehler in der (sprachlichen) Kommunikation?

87

chers erkennen zu können, gilt als »Grund für die Wirksamkeit interaktiver Täuschung« (Ungeheuer 1987, S. 328). Wenn die tatsächlichen (betrügerischen) Intentionen offenkundig wären, würde wohl niemand mehr mit einer Lüge reüssieren; sie verbergen sich hinter der Fassade der ausgedrückten Intention. Den anderen Teil des Spiels bilden die Grice’schen Maximen, insbesondere die erste Maxime der Qualität »Sage nichts, was du für falsch hälst« (Grice 2010, S. 199). In einem augefälligen Widerspruch dazu steht nämlich das zweite Kriterium der Lügendefinition, wonach der Sprecher glaubt, dass die von ihm geäußerte Proposition p falsch ist (Horn 2016, S. 7). Trotz dieser vermeintlichen Antinomie ist die Wahrhaftigkeitsmaxime nicht nur eine notwendige Unterstellung zum Funktionieren von Kommunikation, sondern gerade auch von Lügen: Denn nur dann, wenn ein Lügner davon ausgehen kann, dass ihm prinzipiell Kooperationsbereitschaft und Wahrhaftigkeit unterstellt werden, kann er erfolgreich lügen. Gerade das Beispiel Lügen scheint also besonders instruktiv zu sein für die Geltung dieser Maxime: »[D]as freizügige Teilen von Informationen scheint etwas zu sein, das schon bei sehr kleinen Kindern auf natürliche Weise vorkommt. Zwar lernen Kindern auch sehr bald zu lügen, aber dies tritt erst einige Jahre später auf und setzt vorheriges Vertrauen und Kooperationsbereitschaft voraus. Wenn die Menschen nicht davon ausgingen, daß sie sich auf die Hilfsbereitschaft anderer verlassen können, würden Lügen gar nicht erst funktionieren.« (Tomasello 2012, S. 31)

Setzt man also die Grice’schen Maximen als reale Bedingungen der Kommunikation an, so ließe sich gemäß der eingangs genannten Bedeutung von Fehler durchaus sagen, dass das Lügen ein falscher, vom Richtigen abweichender Gebrauch der Sprache ist. Der offenkundige Bruch der Maximen ist – ironischerweise – gerade kein Fehler, weil dadurch Bedeutungsaspekte mitgemeint und erschließbar werden. Die Verletzung der Qualitätsmaxime ist beim Lügen allerdings anders geartet als der offene Verstoß im obigen Beispiel der Implikatur: Sie erfolgt gerade nicht offenkundig und löst daher keinen ähnlichen Schlussprozess aus. Der Sprecher verletzt die Maxime verdeckt, er täuscht das Einhalten der Maxime und Wahrhaftigkeit vor. Und doch: Wieder stehen der Linguist und der Hörer vor dem Problem des Nachweises, denn das, was ein Sprecher für falsch hält, ist nicht beobachtbar. Doch das ist nicht die einzige Antwort. Dass Lügen generell fehlerhaft sein soll, erscheint zu idealistisch und nicht an der Realität der sprachlichen Kommunikation orientiert. Das ist es auch, was Schmitz (2008) an den Grice’schen Maximen kritisiert. Daher soll nun eine zweite Antwort versucht werden.

88 5.2

Marius Albers

… eine andere Antwort

Wenn man nach einem scheußlichen Abendessen dem Gastgeber ein freundliches »Natürlich!« zuruft auf die Frage, ob es geschmeckt hat, dann erscheint diese Antwort nachvollziehbar und kooperativ : Man möchte, »dass Kommunikation möglichst ohne Verdruss erreicht oder fortgeführt wird« (Schmitz 2008, S. 94). Auf der anderen Seite scheint diese Antwort genau den Kriterien des Lügens zu entsprechen, die oben angeführt wurden. Lügen kann demnach also in bestimmten Situationen gerade eine Form kooperativen Handelns sein. Offenbar bahnt sich hier ein Widerspruch an: Die von Grice und anderen hervorgehobene erste Qualitätsmaxime scheint demnach nicht per se mit dem Kooperationsprinzip in Einklang zu stehen, wie Grice (2010, S. 199) annimmt. Stattdessen gilt: »Lügen hilft [manchmal, sollte man ergänzen; M. A.], das eigene Gesicht oder das Gesicht anderer zu wahren, und ist daher ein Zeichen sozialer Kompetenz« (Fobbe 2011, S. 191). Kann nun ein solches »Zeichen sozialer Kompetenz« tatsächlich ein Fehler in einem sozialen System wie der Kommunikation sein? Um solche Fälle zu betrachten, bietet sich eine Erweiterung des Lügenkonzepts an. Es ist nicht falsch, das Lügen zunächst als eine prinzipiell neutrale kognitive Fähigkeit des Menschen zu behandeln (Hornung/Meibauer 2016, S. 26), allerdings »war und ist die Lüge spätestens seit Augustinus zweifelsfrei ein moralischer Wertbegriff, der kaum allein in deskriptiven Kategorien zu erfassen ist« (Müller 2007, S. 33). Ansätze einer differenzierteren Kasuistik des Lügens gibt es, beispielsweise mit Farbkodierungen (unschädliche weiße im Gegensatz zu schädlichen schwarzen Lügen) oder durch die Differenzierung von pro- und antisozialen Lügen unter Berücksichtigung einer Kategorie des Profitierens (Hornung/Meibauer 2016). Im genannten Beispiel etwa profitieren sowohl der Gastgeber als auch der Gast von der Lüge, weil beide ihr Gesicht wahren können, was die Lüge zu einem prosozialen Akt macht. Doch die Angemessenheit des Lügens gilt selbstredend nicht pauschal: »Eine kleine Lüge oder manchmal auch nur der Verdacht, die Unwahrheit gesagt zu haben, genügt, um die Skandalisierungsmaschine in Gang zu setzen und um den Ruf des Betroffenen nachhaltig zu beschädigen« (Ehrhardt 2016, S. 3). Verbunden mit diesen Konsequenzen ist ein offener Lügenvorwurf: Nur wenn der Verdacht tatsächlich geäußert wird, ist er in der Welt, ist er als kommunikatives Faktum greifbar. Die Äußerung eines Lügenverdachts ist dabei ein kommunikativ und sozial hochgradig riskantes Unterfangen: Sowohl für den vermeintlichen Lügner, dem seine Entlarvung und damit Sanktionierung droht, als auch für den Vorwerfer, dessen eigenes Gesicht beschädigt werden kann, wenn sich der Vorwurf als haltlos erweist (vgl. Knobloch 2014, S. 32). Vor diesem Hintergrund lässt sich eine zweite Antwort auf die titelgebende Frage formulieren: Lügen ist nur dann ein Fehler in der Kommunikation, wenn

Lügen als Fehler in der (sprachlichen) Kommunikation?

89

es den Ablauf der Kommunikation in solcher Weise stört, dass es metakommunikativ behandelt wird. Die Notwendigkeit einer expliziten Thematisierung trotz der damit verbundenen sozialen Kosten ist ein Indiz dafür, dass es sich in solchen Situationen um einen falschen, vom richtigen abweichenden Gebrauch der Sprache handelt, der die kommunikative »Normalität« durchbricht. Eng verzahnt ist dies mit allerhand sozialen Aspekten, »weil die unzerstörte Komplexität der sprachlichen Kommunikation gerade in ihrer unlöslichen Verzahnung mit dem Gesamt der gesellschaftlichen Verhältnisse besteht« (Knobloch 2003, S. 104). Lügenvorwurfshandlungen können durchaus unterschiedlich ausfallen, je nachdem, wie nah sich zwei Gesprächspartner stehen. Häufig können etwa alternative Formulierungen verwendet werden, um die gegenseitigen Gesichtsbedrohungen abzumildern, die von einem unzweideutigen »Du lügst!« ausgehen: als Vorwurfshandlung etwa »Bist du dir sicher?«, »Woher weißt du das?«, als Entgegnung etwa »Ich habe mich geirrt.«, »Das wusste ich nicht.« (Knobloch 2014, S. 32). Ansätze zu einem ganzheitlichen Programm, das diese Parameter ebenfalls berücksichtigt, liefern Arbeiten wie die von Deppermann (1997). Er untersucht die Konstruktion von Glaubwürdigkeit in Konfliktsituationen, zu denen auch die diskursive Verhandlung von Lügenvorwürfen zählen. Hier lohnt es, weiter zu forschen, um die konversationelle Organisation lügenhafter Interaktionen herauszuarbeiten. Gerade in solchen Fällen offenbart sich, inwiefern Lügen als fehlerhafte Form der Kommunikation verhandelt wird. Zum Abschluss ein letzter weitender Blick: In bestimmten (öffentlichen und gesellschaftlichen) Bereichen kann man überlegen, welcher Umgang mit dem Lügen sinnvoll ist. Heringer nennt hier etwa die Politik: »Es ist die Idee, daß demokratische Politik ein kommunikatives Gesamtunternehmen ist, daß sie damit einer kommunikativen Moral unterliegt und daß ein Knackpunkt dieser kommunikativen Moral die Wahrhaftigkeit ist« (Heringer 1990, S. 18). Dass Politiker – wie alle anderen Menschen – lügen, erscheint naheliegend, ob sie es (bei der Ausübung ihres Amtes) tun sollten, ist allerdings eine andere Frage. Jüngst hat Angela Merkel bei einer Rede an der Universität Harvard – sicher nicht von ungefähr in den USA – darauf hingewiesen: »Vor allem braucht es Wahrhaftigkeit gegenüber anderen und – vielleicht am wichtigsten – gegenüber uns selbst. […] Dazu gehört, dass wir Lügen nicht Wahrheiten nennen und Wahrheiten nicht Lügen« (Merkel 2019). Eine kommunikative Ethik – damit kommen wir zurück zum Anfang – in bestimmten Gesellschaftsbereichen erscheint also denkbar ; sie wäre dann allerdings kein allgemeines und grundlegendes Prinzip der Kommunikation, sondern nur eine aufgestülpte, gesellschaftlichen Bedingungen unterliegende Regulierung.

90

Marius Albers

Literatur Ausborn-Brinker, Sandra (2003): Über die Lüge. In: Hagemann, Jörg/Sager, Sven F. (Hrsg.), Schriftliche und mündliche Kommunikation. Begriffe – Methoden – Analysen. Festschrift zum 65. Geburtstag von Klaus Brinker. Tübingen, S. 1–14. Beck, Klaus (2017): Kommunikationswissenschaft. 5. Aufl. Konstanz. Coleman, Linda/Kay, Paul (1981): Prototype Semantics: The English Word Lie. Language 57 (1), S. 26–44. Deppermann, Arnulf (1997): Glaubwürdigkeit im Konflikt. Rhetorische Techniken in Streitgesprächen. Prozeßanalysen von Schlichtungsgesprächen. Frankfurt am Main, New York. Ehrhardt, Claus (2016): Lügen: Das Schwarze Loch der Diskurse? Zur Einführung in das Themenheft. Der Deutschunterricht 58 (3), S. 2–5. Finkbeiner, Rita (2015): Einführung in die Pragmatik. Darmstadt. Fobbe, Eilika (2011): Forensische Linguistik. Eine Einführung. Tübingen. Gardt, Andreas (2008): Referenz und kommunikatives Ethos. Zur Forderung nach Wahrheit im Alltag des Sprechens. In: Pappert, Steffen/Schröter, Melani/Fix, Ulla (Hrsg.), Verschlüsseln, verbergen, verdecken in öffentlicher und institutioneller Kommunikation. Berlin, S. 15–30. Grice, Herbert Paul (2010): Logik und Konversation. In: Hoffmann, Ludger (Hrsg.), Sprachwissenschaft. Ein Reader. Berlin, New York, S. 196–213. GWB (2012): Das große Wörterbuch der deutschen Sprache. CD-ROM, 4. Aufl. Berlin. Heringer, Hans Jürgen (1990): Über die Mannigfaltigkeit der Lügenbeine. Mannheim, Wien, Zürich. Horn, Laurence (2016): »Sag sie schräg!« Bausteine zu einer Taxonomie der Täuschung. Der Deutschunterricht 58 (3), S. 6–15. Hornung, Melanie/Meibauer, Jörg (2016): Prosoziale Lügen als pragmatische Kategorie. Der Deutschunterricht 58 (3), S. 26–35. Knobloch, Clemens (2003): Das Ende als Anfang. Vom unglücklichen Verhältnis der Linguistik zur Realität der sprachlichen Kommunikation. In: Linke, Angelika/Ortner, Hanspeter/Portmann-Tselikas, Paul R. (Hrsg.), Sprache und mehr. Ansichten einer Linguistik der sprachlichen Praxis. Tübingen, S. 99–124. Knobloch, Clemens (2014): Was man Sprach- und Kommunikationswissenschaftler über die »Lüge« fragen darf – und was nicht. Cahiers d’Ptudes Germaniques 67, S. 27–44. Meibauer, Jörg (2015): Konzepte des Lügens. Zeitschrift für Sprachwissenschaft 34 (2), S. 175–212. Meibauer, Jörg (2016): Sind Lügenkonzepte kulturabhängig? Zeitschrift für Kulturphilosophie 10 (1), S. 29–42. Merkel, Angela (2019): Rede von Bundeskanzlerin Merkel bei der 368. Graduationsfeier der Harvard University am 30. Mai 2019 in Cambridge/USA. https://www.bundeskanzlerin. de/bkin-de/aktuelles/rede-von-bundeskanzlerin-merkel-bei-der-368-graduationsfeierder-harvard-university-am-30-mai-2019-in-cambridge-usa-1633384 (zuletzt abgerufen am 31. 05. 2019). Müller, Jörn (2007): Lüge und Wahrhaftigkeit. Eine philosophische Besichtigung vor dem Hintergrund der Sprechakttheorie. In: Müller. Jörn/Nissing, Hanns-Gregor (Hrsg.), Die Lüge. Ein Alltagsphänomen aus wissenschaftlicher Sicht. Darmstadt, S. 27–56.

Lügen als Fehler in der (sprachlichen) Kommunikation?

91

o. V. (1993): Fehler. In: Berlin-Brandenburgische Akademie der Wissenschaften (Hrsg.), Etymologisches Wörterbuch des Deutschen. Digitalisierte und von Wolfgang Pfeifer überarbeitete Version im Digitalen Wörterbuch der deutschen Sprache. https://www. dwds.de/wb/Fehler (zuletzt abgerufen am 13. 06. 2019). Richter, Helmut/Schmitz, H. Walter (Hrsg.) (2003): Kommunikation – ein Schlüsselbegriff der Humanwissenschaften? Münster. Rolf, Eckard (1994): Sagen und Meinen. Paul Grices Theorie der Konversations-Implikaturen. Opladen. Schmitz, Ulrich (2008): Konversation im Überfluss. Grice Maximen missachten die wirklichen Sprecher (oder umgekehrt?). In: Eschbach, Achim/Halawa, Mark A./Loenhoff, Jens (Hrsg.), Audiatur et altera pars: Kommunikationswissenschaft zwischen Historiographie, Theorie und empirischer Forschung. Festschrift für H. Walter Schmitz. Aachen, S. 81–97. Schnitzler, Hans-Ulrich/Denzinger, Annette (2011): »Ehrlichkeit« in der akustischen Kommunikation bei Tieren. In: Klosinki, Gunther (Hrsg.), Tarnen, Täuschen, Lügen. Zwischen Lust und Last. Tübingen, S. 205–211. Searle, John R. (1979): Sprechakte. Ein sprachphilosophischer Essay. Frankfurt am Main. Tomasello, Michael (2012): Warum wir kooperieren. 2. Aufl. Berlin. Ungeheuer, Gerold (1987): Vor-Urteile über Sprechen, Mitteilen, Verstehen. In: Ungeheuer, Gerold (Hrsg.), Kommunikationstheoretische Schriften I: Sprechen, Mitteilen, Verstehen. Aachen, S. 290–338.

Jannik Müller*

Fingierte Fehler. Simulierte Wirklichkeiten, technische Störungen und inszenierte Outtakes in den Computeranimationsfilmen von Pixar

1.

Einleitung: Fehler im Film

Die Filme der Pixar Animation Studios sind vollständig computergeneriert. Dennoch übernehmen sie visuelle und inszenatorische Charakteristika des fotografisch produzierten Live-Action-Spielfilms, besser bekannt unter der veralteten Bezeichnung Realfilm (vgl. Manovich 2001, S. 303; Schlichter 2012; Bordwell et al. 2017, S. 350). Zu diesen Charakteristika gehören auch analogtechnisch bedingte Fehler, die in der Computeranimation eigentlich gar nicht vorkommen. Dass Pixar sie gleichwohl reproduziert, könnte leicht als bloßer Gag abgetan werden. Wie dieser Aufsatz im Folgenden zeigen wird, ist es weit mehr als das: Fehler werden als Beglaubigungsstrategie eingesetzt. Im Live-Action-Spielfilm sind Fehler in der Regel negativ behaftet. Ein am Bildrand erkennbares Mikrofon, eine Erschütterung der Kamera oder das Stolpern eines Schauspielers sorgen für unfreiwillige Komik und suggerieren künstlerisches Unvermögen auf Seiten der Filmschaffenden. Um »Fehler« handelt es sich jedoch nur insofern, als sie gegen etablierte Konventionen verstoßen, wie etwa die in der Entstehungsphase des klassischen Hollywoodkinos (etwa 1908–1927) etablierten Konvention der narrativen Motiviertheit filmischer Bilder (vgl. Bordwell 1986, S. 26; Bordwell et al. 2017, S. 460–463). Die Filmgeschichte zeigt, dass der Verstoß gegen diese Konventionen oft zu ästhetisch faszinierenden Innovationen geführt hat. Beispielhaft sei hier Jean-Luc Godards f bout de souffle (Außer Atem, F 1960) erwähnt, welcher fortlaufend Jump Cuts einsetzt, mit denen er gegen das Prinzip des continuity editings verstößt. Wie auch andere Filme der Nouvelle Vague, setzt Godard statt flüssiger und damit unauffälliger Kamerafahrten auf eine Handkameraführung, die das Bild verwackelt, obwohl dies im klassischen Hollywoodfilm als handwerklicher Fehler angesehen und vermieden wurde (vgl. Horak 2012; Bordwell et al. 2017, S. 255– * Jannik Müller, M.A., Universität Siegen, Fakultät I (Philosophische Fakultät), Medienwissenschaft – Lehrstuhl für Medienästhetik.

94

Jannik Müller

256). Vermeintliche filmische Fehler können also als Stilmittel eingesetzt werden und einen ästhetischen Eigenwert bekommen. Um die spezifischen ästhetischen Wirkungen des Einsatzes analogtechnischer Fehler durch die Pixar Animation Studios zu erkunden, müssen zunächst die produktionstechnischen Unterschiede zwischen dem Live-Action- und dem Computeranimationsfilm besprochen werden. Anschließend werden drei Arten von Fehlern untersucht, die in den Pixar-Filmen zu finden sind: gestalterische Fehler, welche die Materialität und die Bewegungen real existierender Gegenstände und Lebewesen nachahmen, filmtechnische Fehler, welche die technischen und ästhetischen Eigenschaften der physischen Kamera simulieren, und schließlich fingierte Outtakes, also Pannen am Filmset, welche für den Animationsfilm eigentlich ein Paradoxon darstellen. Strukturell untersucht dieser Aufsatz also fingierte Fehler auf drei Ebenen: Fehler in der filmischen Diegese, Fehler in der technischen Darstellung dieser Diegese und auf einer Metaebene die Reflexion filmischer Produktionsprozesse.

2.

Grundzüge der Computeranimation

Der Animationsfilm unterscheidet sich von anderen Filmgattungen wie dem Live-Action- oder dem Dokumentarfilm dadurch, dass er zwar einen filmischen Realismus anstreben kann, aber keinen direkten indexikalischen Bezug zur vorfilmischen Realität aufweist, also kein fotochemisches Abbild der Wirklichkeit ist (vgl. Darley 2000, S. 82–84; Schaffer 2004, S. 73). Der Animationsfilm hat damit scheinbar unbegrenzte Möglichkeiten. Weder die Gesetze der Physik noch die optischen Eigenschaften der Kamera oder die ästhetischen Konventionen des Mediums Films sind notwendige Bedingungen für die Computeranimation. Während der Zeichentrickfilm an die materiellen Beschränkungen des Mediums gebunden ist – beispielsweise die Zweidimensionalität eines Blatt Papiers oder einer Glasplatte, auf welche die Bilder gemalt werden –, ist das konstituierende Merkmal der Computeranimation die Offenheit seiner Gestaltungsmöglichkeiten. Statt eines leeren Blattes existiert am Anfang des Computeranimationsprozesses nichts, nicht einmal ein leerer virtueller Raum, da auch dieser zuerst definiert werden müsste – heutige Animationen mit Hilfe von Spiel-Engines klammere ich aus (vgl. Darley 2000, S. 84–85; Schröter 2014, S. 30–31). Um die Rahmenbedingungen der Computeranimation zu schaffen, generierten Programmiererinnen und Programmierer Algorithmen, die sich sukzessive den Wahrnehmungswelten des Menschen annäherten. So bauten Computersimulationen Naturphänomene wie Schwerkraft oder Lichtbrechung nach, durch welche die Verhaltensweisen und das Aussehen von Objekten errechnet und im

Fingierte Fehler

95

virtuellen Raum dargestellt werden (vgl. Darley 2000, S. 85; Manovich 2001, S. 191–194). Frühe Computeranimationen wirkten aufgrund der beschränkten Rechenleistung von Computern noch recht rudimentär. Beispielsweise hatten virtuelle Oberflächen die Eigenschaft, wie Plastik auszusehen. Toy Story (US 1995, R: John Lasseter), der erste vollständig computeranimierte Kinofilm, zeigt daher passenderweise Spielzeuge als Protagonisten (vgl. Schaffer 2004, S. 85). Durch höhere Rechenleistung und vor allem durch die Entwicklung und Weiterentwicklung von Simulationsalgorithmen nähert sich die Computeranimation immer weiter den visuellen Konventionen des Live-Action-Spielfilms und den Sehgewohnheiten des Menschen an (vgl. Schröter 2003, S. 6–7). Durch die Programmierbarkeit der digitalen Bilder sollten demnach Filmfehler, wie sie oben beschrieben wurden, eigentlich nicht mehr vorkommen. Fehler der Computeranimation wären Programmierfehler, sogenannte glitches. Solche Fehler, zum Beispiel frei schwebende Augen ohne Gesicht oder durch Wände laufende Figuren, werden weitestgehend ausgemerzt (vgl. Lasseter et al. 1989, S. 226 u. 232). Umso verwunderlicher ist es, dass Pixar vermeintliche Fehler des Live-ActionSpielfilms in die Filme integriert und so »mediale[…] Paradoxa« (Mersch 2006, S. 224) erzeugt. Schröter ergänzt, in der Computeranimation müssten diese »Störungen kontextualisiert und als intentional ausgewiesen« werden, um als künstlerisches Ausdrucksmittel zu gelten (Schröter 2013, S. 93). Wie sich diese Störungen in Form von fingierten Fehlern äußern und welche ästhetische Wirkung sie haben, wird in den folgenden Kapiteln untersucht.

3.

Diegetische Fehler: Materialität und Figurenbewegungen

Eine erste Form von fingierten Fehlern findet sich in der Gestaltung der Diegese, also der filmischen Welt. Ein Problem der Computeranimation gestaltet sich laut Barbara Flückiger darin, dass Computerbilder als zu perfekt angesehen werden. Während der Live-Action-Spielfilm durch die Produktionsumstände oder schlicht die Materialität der Requisiten an Detailreichtum gewinnt, neigen computergenerierte Gegenstände dazu, nicht komplex genug zu sein (vgl. Flückiger 2015, S. 89–90). Andrew Darley erkennt dies ebenfalls und schreibt, digitale Bilder seien der Kinematografie ähnlich, aber seien »just too pristine«, also zu makellos, sodass sie den Rezipierenden als künstlich auffielen (Darley 2000, S. 85–86). Da die Gegenstände programmiert sind, also vereinfacht gesprochen durch eine Anzahl von Polygonen definiert und mit einer Textur überzogen sind, mangelt es ihnen an »unintendierten Details«, die Realitätseindrücke erzeugen (vgl. Schröter 2003, S. 8). Eine Strategie der Authentifizierung von Computeranimationen besteht daher darin, die virtuellen Bilder mit Details zu versehen

96

Jannik Müller

und ihr Erscheinungsbild somit komplexer zu machen. Simulierte Gebrauchsspuren wie Kratzer oder kleine Macken, aber auch Staub oder Dreck verschleiern demnach die Konstruiertheit digitaler Bilder. Während die Figuren in Toy Story sich, wie oben besprochen, durch ihre Plastikoptik auszeichnen, stellen spätere Pixar-Filme unterschiedlichste Materialien aus, deren Beschaffenheiten simuliert werden. Ein eindrückliches Beispiel findet sich in der Figur des Roboters WALL-E, der im gleichnamigen Film (US 2008, R: Andrew Stanton) seit bereits 700 Jahren damit beschäftigt ist, die verschmutzte Erde aufzuräumen. Der metallene Körper des Roboters ist mit Rost überzogen. Zudem erkennt man in Detailaufnahmen seiner »Augen« oder seiner Hände Kratzer und Macken, die auf einen Materialverschleiß deuten lässt. Dieser Materialverschleiß erfüllt wiederum narrativ die Funktion, die jahrhundertelange Arbeit des Roboters visuell zu belegen. Auch in anderen Pixar-Filmen finden sich deutliche Gebrauchsspuren an den Objekten, seien es abgestoßene Tischkanten oder Flecken an den Wänden, zum Beispiel in Finding Dory (Findet Dorie, US 2016, R: Andrew Stanton, TC 00:22:38 u. 00:26:18). Diese Gebrauchsspuren fallen den Rezipierenden nicht direkt in den Blick, evozieren aber den Gesamteindruck einer bewohnten filmischen Welt, die bereits vor den Ereignissen des Films existierte und auch nach danach weiterexistieren wird. Diese Strukturfehler lenken von der Perfektion der Computeranimationen ab, die Flückiger et al. postuliert haben. Laut Laura U. Marks vermitteln sie den Eindruck einer »haptic visuality« (Marks 2000, S. XI). Thomas Elsaesser und Malte Hagener bauen auf Marks’ Begriff auf und schreiben: »Die Textur des Films, nicht selten die Darstellung einer haptisch aufgeladenen Oberfläche wie etwa die Nahaufnahme eines Körpers […] bzw. eines anderen auffälligen und haptisch interessanten Gewebes, wenn nicht gar des Filmes selbst in seiner Materialität, bringt dabei Erinnerungen hervor, die virtuell vorhanden waren und aktualisiert werden.« (Elsaesser/Hagener 2007, S. 158)

Die Verschleißerscheinungen und Materialfehler in den Pixar-Animationsfilmen erzeugen eine Verbindung zwischen den Erinnerungen an Materialerfahrungen der Rezipierenden und lassen die virtuellen Objekte somit durch ihre Imperfektion »echt« wirken. Eine perfekte Oberfläche ohne Fehler würde damit eine geringere Projektionsfläche für die Wahrnehmung der Rezipierenden bieten. Eine weitere Authentifizierungsstrategie immaterieller Computerbilder sind fehlerhaft ausgeführte Bewegungen von Figuren im Film. Eine Methode, computergenerierte Figuren lebendig wirken zu lassen, ist, sie zu bewegen (animieren), als würden sie nicht durch Computerbefehle, sondern von einem Gehirn gesteuert. Die Pixar-Animatoren Tom Porter und Galyn Susman schreiben: »The underlying notion of Pixar and Disney animation is that action is driven by the character’s cognitive processes – that it reflects intelligence, personality, and emotion.

Fingierte Fehler

97

The animator is constantly challenged to depict in an unmistakable yet compelling way that the brain is driving the action.« (Porter/Susman 2000, S. 27)

Diese Denkprozesse werden beispielsweise in den Sakkaden, den unwillkürlichen Augenbewegungen, deutlich. Durch diese werden die Pixar-Figuren vermenschlicht und ermöglichen somit Empathie. Zu denken heißt jedoch auch, fehlerhaft zu handeln, statt mechanisch Befehle auszuführen. Beispielsweise stößt Mr. Incredible in The Incredibles beim Aufstehen von seinem Schreibtischstuhl einen Stiftebecher auf seinem Tisch um (Die Unglaublichen, US 2004, R: Brad Bird, TC 00:12:35). Ebenso stolpert der Dinosaurier Arlo in The Good Dinosaur beim Aufstieg auf einen Hu¨ gel und fällt auf die Knie (Arlo & Spot, US 2015, R: Peter Sohn, TC 00:32:05). Diese Bewegungen wirken wie Versehen, obwohl sie geplant und animiert werden mu¨ ssen und somit einen zusätzlichen Arbeitsaufwand fu¨ r die Animatorinnen und Animatoren darstellen. Sie verschleiern die starre Konstruiertheit der programmierten Filmwelt und lassen sie flexibel und spontan wirken. Es entsteht der Eindruck, dass die Objekte auf Mr. Incredibles Schreibtisch nicht nur digitale Dekoration sind, sondern dass jeder Gegenstand beweglich und benutzbar ist. Die Bewegungsfehler imitieren die Unberechenbarkeit zufälliger Ereignisse im Alltag, welche beiläufig geschehen und keinen weiteren Einfluss auf das Geschehen haben. Sowohl Materialfehler als auch Bewegungsfehler werden in Computeranimationsfilme eingebaut, da die virtuellen filmischen Welten ohne Fehler paradoxerweise falsch wirken würden. Frühe Computeranimationen wirkten zu perfekt, was sie leblos erscheinen ließ und somit zu einer Dissonanz bei den Rezipierenden führten. Ein Beispiel für eine solche Rezeption ist der Animationsfilm Final Fantasy : The Spirits Within (Final Fantasy – Die Mächte in dir, US/J 2001, R: Hironobu Sakaguchi; vgl. Butler/Joschko 2007). Da die menschliche Wahrnehmung durch Alltagserfahrungen konditioniert ist, kleinere Fehler als normal zu erkennen, sind sie notwendig, um filmische Welten authentisch wirken zu lassen.

4.

Filmtechnische Fehler: Die virtuelle Kamera

Aufgrund ihrer Virtualität bietet die Computeranimation die Möglichkeit alternativer Formen der Darstellungen zu den in der westlichen Kunst tradierten. Beispielsweise müssten Räume nicht zentralperspektivisch organisiert sein, sondern könnten zweidimensional oder isometrisch dargestellt werden (vgl. Schröter 2014, S. 30–31). Dennoch orientieren sich die Pixar-Filme nicht nur an den seit Jahrhunderten etablierten künstlerisch-technischen Standards, sondern simulieren auch die materialästhetischen Eigenschaften analoger Kameras. Dies

98

Jannik Müller

nennt Schröter »Transmaterialität« (Schröter 2014, S. 36). Die durch die Materialeigenschaften eines analogen Mediums erzeugten ästhetischen Eigenschaften werden im neuen Medium des digitalen Films übernommen, obwohl der materielle Grund für ihr Entstehen nicht mehr gegeben ist (vgl. Schröter 2014, S. 30–32). Laut Manovich ist dies eine zentrale Strategie des »synthetischen Realismus« (Manovich 2001, S. 56). Um die Akzeptanz der Rezipierenden zu erlangen, müssen die digitalen Bilder ihren Sehgewohnheiten entsprechen, welche durch filmische Codes erstellt werden (vgl. Manovich 2001). Neben der Simulation von kameradeterminierten Bildeigenschaften wie der Tiefenschärfe und des Motion Blurs können auch vermeintliche Fehler zur Glaubwürdigkeit der Filmbilder beitragen. Am Beispiel des Films Monsters, Inc. (Die Monster AG, US 2001, R: Pete Docter) diskutiert Schröter das Phänomen der Linsenreflexion (engl. lens flare) im Computeranimationsfilm. Diese farbigen Flecken im Filmbild, welche im fotochemischen Film durch Reflexionen von Lichtstrahlen innerhalb der Kameralinse hervorgerufen werden (vgl. Flückiger 2015, S. 89), galten in der Filmgeschichte lange Zeit als produktionstechnisches Artefakt. Dieses hätte gemäß der classical hollywood narration als exzessiv gegolten und wäre somit zu vermeiden gewesen (vgl. Bordwell 1986, S. 26; Thompson 1986, S 133–134). In Filmen wie A Bug’s Life (Das große Krabbeln, US 1998, R: John Lasseter), Monsters, Inc. oder The Good Dinosaur tauchen Linsenreflexionen meistens in Establishing Shots auf, die eine idyllische Naturkulisse zeigen. An dieser Stelle ist festzuhalten, dass die Kameralinse im Computeranimationsfilm keine materielle, sondern eine virtuelle ist und somit nicht zwingend die optischen Eigenschaften einer materiellen Linse haben müsste. Die virtuelle Linse wurde so programmiert, dass sie auf virtuelle Lichtstrahlen auf dieselbe Weise reagiert wie die Kameralinse im Live-Action-Spielfilm (vgl. Schröter 2014, S. 36–37). Dass dieses frühere Artefakt zu einer optionalen formalen Konvention geworden ist, zeigt sich unter anderem daran, dass Linsenreflexionen seit einigen Jahren als Effekte in digitalen Videobearbeitungssoftwares wie Adobe Premiere zu finden sind und beliebig in das eigene Filmmaterial eingefügt werden können. Daher ist nicht verwunderlich, dass laut Flückiger der lens flare durch übermäßige Nutzung sogar zu einem Klischee des digitalen Films geworden ist (vgl. Flückiger 2015, S. 89). Ein weiterer Kamerafehler, welcher in den Pixar-Filmen eingesetzt wird, ist die fehlerhafte Schärfenverlagerung der Kameralinse. Unter einer Schärfenverlagerung versteht man die Verschiebung des Brennpunkts der Linse, wodurch zum Beispiel der vorher scharfe Bildhintergrund unscharf gestellt und der vorher unscharfe Bildvordergrund scharf gestellt wird. So wird die Aufmerksamkeit der Rezipierenden vom Hinter- in den Vordergrund des Bildes verlagert (vgl. Smid 2012, S. 26 u. 33–34). Durch die Simulation der optischen Schärfen-

Fingierte Fehler

99

verlagerung verstecken Computeranimationsfilme laut Tereza Smid ihre eigentliche Machart (vgl. Smid 2012, S. 15). Besonders eindrücklich wird dies durch die fehlerhafte Schärfenverlagerung in Monsters University (Die Monster Uni, US 2013, R: Dan Scanlon): In einer Rückblende betritt der Protagonist Mike Wazoswky während eines Grundschulausflugs einen gefährlichen Bereich. Als seine Lehrerin dies bemerkt, zeigt die Kamera ihren subjektiven Blick: Die Schärfe verlagert sich vom Bildhintergrund auf Mike im Vordergrund. Statt die relevante Bildinformation – der Protagonist im Gefahrenbereich – direkt scharf zu zeigen, wechselt die virtuelle Kameralinse ungenau zwischen Schärfe und Unschärfe hin und her, als mu¨ sse sie den geeigneten Fokuspunkt erst finden (Monsters University, TC 00:04:37). Dies ist heutzutage ein Merkmal des Autofokus bei DSLR-Kameras, welcher ebenfalls rasch den gesamten Fokusbereich abtastet, bis er schließlich das auffälligste Objekt im Bild scharf stellt. Obwohl die Kamera im Computeranimationsfilm virtuell ist, also nicht physisch existiert, setzt Pixar in einigen Szenen eine verwackelte Kamera ein. Beispielhaft ist Inside Out (Alles steht Kopf, US 2015, R: Pete Docter) zu nennen, in dem die Protagonistin Riley durch eine dunkle Gasse läuft. Die virtuelle Kamera zeigt dies leicht verwackelt, als würde die Kamera auf den Schultern einer Kamerafrau oder eines Kameramannes getragen und durch ihre oder seine Schritte erschüttert (Alles steht Kopf, TC 01:03:35). Wie auch die Linsenreflexion wurde das verwackelte Filmbild urspru¨ nglich als Fehler angesehen und später als filmisches Stilmittel etabliert (vgl. Monaco 2009, S. 97–98). So steht die Handkamerafu¨ hrung im Live-Action-Spielfilm fu¨ r eine semi-dokumentarische Inszenierung oder spiegelt die Unruhe der gefilmten Person wider (vgl. Müller 2011, S. 339–340). Pixar adaptiert diesen zum Stilmittel erhobenen Fehler und nutzt ihn narrativ : Die Verwackelung reflektiert zum einen Rileys Gefu¨ hlswelt, da sie nervös und orientierungslos ist. Zum anderen erzeugt die Wackelkamera den Eindruck von Realismus, da suggeriert wird, die Szene sei mit einfachen Mitteln wie einer mobilen Kamera gedreht worden. Laut Flückiger wird durch das simulierte Stilelement der Wackelkamera die Illusion der Authentizität erzeugt, da eine solche Kameraführung insbesondere aus dokumentarischen Formaten bekannt ist (vgl. Flückiger 2015, S. 91–92). Monsters, Inc. führt dies noch weiter und zeigt während einer Verfolgungsjagd, wie Mike mit einem Sprung einem Zusammenstoß mit der virtuellen Kamera entgeht (Monsters, Inc., TC 00:41:51). Die immaterielle virtuelle Kamera des Computeranimationsfilms täuscht also eine materielle Präsenz vor, die nicht nur erschüttert werden, sondern auch ein Hindernis darstellen kann. Sowohl Linsenreflexionen als auch Schärfenverlagerungen und Kameraerschütterungen wurden zwar aus dem analogen Film übernommen, doch ist ihre Wirkung im digitalen Film eine andere: Wie Schröter schreibt,

100

Jannik Müller

»ist die Störung als ästhetisches Verfahren von spezifischen Rahmungen abhängig. Wo Medialität in der Übertragung von Inhalten verschwinden soll, stört sie eben nur. Wo Medialität ausgestellt werden soll, um eine Medienästhetik zu ermöglichen […], sind intendierte Störungen willkommen.« (Schröter 2013, S. 93–94)

Durch die Transmaterialität der digitalen Filmbilder stellen die Pixar Animation Studios Fehler nicht als solche aus. Ihre inszenierten technischen Störungen dienen als Strategie zur Authentifizierung der virtuellen Welten. Frühere Fehler haben als Stilmittel Einzug in die filmische Sprache erhalten und werden im digitalen Animationsfilm genutzt, um die Sehgewohnheiten des Publikums anzusprechen.

5.

Reflexive Fehler: Die Pixar-Outtakes

Das reflexive Potenzial fingierter Fehler wird besonders in den Outtakes der Pixar-Animationsfilme deutlich. In den Abspannen der Filme A Bug’s Life, Toy Story 2 (US 1999, R: John Lasseter) und Monsters, Inc. werden Pannen von den Dreharbeiten gezeigt, obwohl diese gar nicht stattgefunden haben können. Gewöhnlich zeigen Outtakes verunglu¨ ckte Aufnahmen vom Dreh eines Live-Action-Films, die es beispielsweise aufgrund eines Versprechers durch einen Schauspieler oder eines Kamerafehlers nicht in den Film geschafft haben (vgl. Wulff 2011). Mit diesen Fehler-Montagen sorgt Pixar fu¨ r einen Widerspruch: Pixar-Filme werden mit Computern animiert und nicht an einem physischen Set mit realen Darstellern gedreht. Da computeranimierte Sequenzen darüber hinaus jederzeit verändert werden können, dürfte es diese Pannen vom Dreh eigentlich nicht geben. Wie Sebastian Kuhn feststellt, funktioniert dieses angebliche Überschussmaterial aus missglückten Szenen daher »im Animationsfilm notwendiger- und bezeichnenderweise nur als spoof« (Kuhn 2017, S. 69), also als Parodie der Konventionen des analogen Films. Wie gestaltet sich diese Parodie? Die Outtakes zeigen sowohl produktionsbezogene als auch personenbezogene Fehler. Die produktionsbezogenen Outtakes zeigen angeblich missglückte Filmtakes durch technische Fehler oder Störungen am Filmset. Ein mehrmals verwendeter Outtake ist die umfallende Kamera. In mehreren Fällen stolpern, fallen oder laufen Charaktere gegen die Kamera und stoßen sie damit um (A Bug’s Life, TC 01:27:20; Monsters, Inc., TC 01:24:30). Die Kamera wird damit nicht als virtuell, sondern materiell dargestellt, da die Schauspieler mit ihr physisch reagieren können. Ebenso ist in mehreren Szenen zu erkennen, wie die Kamera nach einem scheinbar unvorhergesehenen Ereignis leicht wackelt, als wäre sich die Kamerafrau oder der Kameramann unsicher, wohin er die Kamera richten solle (Monsters, Inc., TC 01:23:25). Selbiges gilt fu¨ r kurze Zoom-ins und

Fingierte Fehler

101

Zoom-outs sowie die Neueinstellung des Fokus, die nach einem Unfall vorgenommen werden (Toy Story 2, TC 01:24:55 u. 01:26:07). Diese kurzen Irritationen in der Kamerafu¨ hrung verweisen auf die Materialität der Kamera, die in der Computeranimation nicht gegeben ist. Durch die Zusammenstellung von scheinbar verunglu¨ ckten Szenen evozieren die Pixar-Outtakes den Eindruck, sie seien aus dem nicht verwendeten Filmmaterial selektiert und zusammengeschnitten worden. Dies setzt jedoch voraus, dass bei den Dreharbeiten eine große Menge von Rohmaterial entstanden sei, aus welchem bestimmte Takes ausgewählt werden konnten, um eine Montage witziger Momente zu erstellen (vgl. Monaco 2009, S. 133–134). In den produktionsbezogenen Outtakes wird zudem suggeriert, es gebe ein physisch existierendes Set. Ein Outtake in Toy Story 2 zeigt Buzz Lightyear an einem geöffneten Fenster, während im Hintergrund ein vom Sonnenuntergang orange eingefärbter Himmel zu sehen ist. Nachdem die Aufnahme missglu¨ ckt, ruft eine Person außerhalb des Bildkaders die Crew dazu auf, in Eile die Szene neu vorzubereiten, da sie das Licht verlieren wu¨ rden (Toy Story 2, TC 01:25:45). Dies suggeriert Dreharbeiten on location, also außerhalb eines Studios. Das Filmteam scheint abhängig von der Natur zu sein, obwohl Animationsfilme im Computer entstehen und somit nicht abhängig von der Witterung sein können. Des Weiteren zeigt ein Outtake in A Bug’s Life, wie eine »Schauspielerin« während eines Takes von Geräuschen außerhalb des Bildkaders aus dem Konzept gebracht wird. Es sind Hammer- und Sägegeräusche zu hören, als bauten Handwerker unweit des Drehorts eine Kulisse auf (A Bug’s Life, TC 01:26:50). Das virtuelle Set wird in den Outtakes als physisches Set dargestellt, an dem diverse externe Faktoren, wie die Lichtbedingungen oder ungewollte Geräusche die Dreharbeiten behindern können. Störungen sorgen hier für fehlerhafte Aufnahmen, welche die Filmproduktion in Zeitdruck versetzen können. Personenbezogene Outtakes sind Versprecher oder Streiche der schauspielenden Personen oder Fehler, die sich auf die Filmcrew hinter der Kamera beziehen. Das Personal vor und hinter der Kamera besteht aus Figuren der jeweiligen filmischen Diegese, also Insekten, Spielzeuge und Monster. Statt auszustellen, dass es sich um computergenerierte Figuren handelt, die von den Filmschaffenden entworfen, modelliert, positioniert, bewegt und gerendert wurden, inszenieren die Outtakes sie als Schauspielende und Filmcrewmitglieder, welche sich versprechen, in Gelächter ausbrechen oder Unfällen und Streichen am Set zum Opfer fallen können. So beschwert sich ein »Schauspieler« aus A Bug’s Life, nachdem seine Schauspielkollegin wiederholt zu lachen beginnt: »This is the 15th take. I cannot work like this. I will be in my trailer« (A Bug’s Life, TC 01:26:42). Dies deutet darauf hin, dass die Szene einige Male wiederholt werden musste, bevor der erfolgreiche Take aufgenommen wurde, der es in den Film geschafft hat. Da im Computeranimationsfilm eine Einstellung immer

102

Jannik Müller

wieder verändert werden kann, existieren keine Takes, welche in Form von Outtakes gesammelt werden können. Demnach handelt es sich bei den PixarOuttakes nicht um ein Nebenprodukt des Spielfilms, sondern um ein Produkt, dessen Animation ebenso viel Zeit und Arbeit erfordert hat, wie der Rest des Films (vgl. Docter 2015, TC 00:51:05). Ebenfalls sind immer wieder Teile der Filmcrew, wie zum Beispiel der Toningenieur, zu sehen, wenn die Kamera zur Seite schwenkt und oder umfällt, sodass die filmische Realität durchbrochen und die Artifizialität der Filmproduktion offenbart werden (A Bug’s Life, TC 01:27:20). Teilweise entstehen fehlerhafte Takes, weil Schauspielende anderen Schauspielenden Streiche spielen. In den Outtakes von Monsters, Inc. überrascht die im Film griesgrämige Sekretärin Roz die Filmcrew mehrfach, indem sie hinter einer Schranktu¨ r, einer Toilettentu¨ r oder einem Vorhang zum Vorschein kommt und dies mit »Tadaa!« oder »Guess who…?« kommentiert (Monsters, Inc., TC 01:22:30, 01:23:00 u. 01:24:07). Darauf folgt Gelächter auf Seiten der Schauspielenden und der Filmcrew. Durch diese Sabotage ist der Take fehlerhaft und für den Film unbrauchbar und kann lediglich für die Outtakes recycelt werden. In den Outtakes der Pixar-Filme A Bug’s Life, Toy Story 2 und Monsters, Inc. wird die Produktion eines Animationsfilms somit wie eine Live-Action-Produktion dargestellt. Es gibt ein physisch existierendes Set mit Kamera-, Ton- und Beleuchtungsequipment und nicht zuletzt mit Schauspielenden und Mitarbeitenden hinter der Kamera, die am Set präsent sind. Während die Live-ActionProduktion von einer Drehsituation dominiert wird, in der die Aufnahmen misslingen können, gibt es solche Drehsituationen im Computeranimationsfilm nicht. Die Filmproduktion ist nicht von der korrekten Ausführung einer Bewegung, der Geräuschkulisse im Hintergrund oder Witterungen abhängig. Die Pixar-Outtakes zeigen somit unmögliche Fehler, die ihre parodistische Qualität eben aus ihrer Unmöglichkeit ziehen. Sie reflektieren durch die Darstellung des Unmöglichen ex negativo die neuen Möglichkeiten der digitalen Filmproduktion: Bekannte Fehler der Live-Action-Produktion können gänzlich vermieden werden und werden durch ihren absichtlichen Einsatz zu Indizes für die Authentizität der digitalen Bilder.

6.

Fazit: Die Fehler des anderen Mediums

Die Pixar Animation Studios inszenieren in ihren Filmen Fehler des traditionellen Hollywoodfilms auf drei Ebenen: Sie versehen ihre filmischen Diegesen mit materiellen Verschleißerscheinungen und imperfekten Bewegungen, simulieren die Eigenschaften physischer Kameras inklusive ihrer technischen Fehler

Fingierte Fehler

103

und reflektieren durch die Inszenierung fiktiver Outtakes den Produktionsprozess analoger und digitaler Filme. Während diese Arten von Fehlern im fotochemischen Film der Technik oder den Produktionsumständen geschuldete Fehler waren, sind sie im Computeranimationsfilm rein optional. Da frühe Computeranimationen für die Rezipierenden zu perfekt wirkten, dient die Integration fingierter Fehler, welche die technisch-ästhetischen Eigenschaften des Hollywoodfilms simulieren, der Authentifizierung computergenerierter Bilder. Bezeichnenderweise simuliert Pixar jedoch nur die Fehler, die bereits durch frühere Filme wie die avantgardistischen Werke der Nouvelle Vague zu Stilmitteln erhoben wurden oder aus OuttakeCompilagen des Live-Action-Films bekannt sind. Ihre Inszenierungsweise ist somit selbst keine Avantgarde, sondern den traditionellen Codes des Hollywoodkinos entsprechend. Zudem geht es bei den simulierten Fehlern aus dem Hause Pixar nicht um einen Illusionsbruch, wie bei Werken der Nouvelle Vague. Stattdessen zeigen die Filme, dass sich die filmische Immersion durch Verweise auf angeblich vorfilmische Aufnahmesituationen steigern lässt. Wie Mersch und Schröter feststellen, müssen die Fehler als intentional ausgestellt werden. Es werden die Fehler des anderen, nicht des eigenen Mediums ausgestellt. Technische Fehler der Computeranimation wie glitches werden vermieden, da sie die Aufmerksamkeit auf die technischen Limitationen des eigenen Mediums hervorheben, was zu Irritationen bei den Rezipierenden führen und die Immersion in die filmische Welt behindern würde. Eine Art Outtake-Kompilation technischer glitches wurde zum Beispiel im Bonusmaterial auf der DVD von The Incredibles veröffentlicht, aber nicht in den Film integriert. Statt als Beglaubigung der filmischen Welt und des Mediums Computeranimation zu dienen, verfremdet dieses tatsächliche Fehlermaterial die Filmbilder und entlarvt sie als künstlich. Die Kunst besteht also darin, Fehler zu generieren, die nicht disruptiv sind, sondern Wahrnehmungskonventionen des Menschen stimulieren. Filmfehler sind somit sowohl vom Zeitpunkt ihrer Entstehung, als auch von dem darstellenden Medium abhängig. Ein heutiger Fehler kann später zum Stilmittel erhoben werden und von zukünftigen Filmformaten simuliert werden. Damit stellt sich die Frage, ob auch der Computeranimationsfilm von einem zukünftigen Medium simuliert werden wird. Ist also die Simulation der Simulation erstens möglich und bietet sie zweitens einen ästhetischen Mehrwert?

104

Jannik Müller

Literatur Bordwell, David (1986): Classical Hollywood Cinema. Narrational Principles and Procedures. In: Rosen, Philip (Hrsg.), Narrative, Apparatus, Ideology. A Film Theory Reader. New York, S. 17–34. Bordwell, David/Thompson, Kristin/Smith, Jeff (2017): Film Art. An Introduction. 11. Aufl. New York. Butler, Matthew/Joschko, Lucie (2007): Final Fantasy or The Incredibles. Ultra-realistic Animation, Aesthetic Engagement and the Uncanny Valley. Animation Studies Online Journal (Sonderausgabe: Animated Dialogues), S. 55–63. Darley, Andrew (2000): Visual Digital Culture. Surface Play and Spectacle in New Media Genres. London, New York. Elsaesser, Thomas/Hagener, Malte (2007): Filmtheorie zur Einführung. Hamburg. Flückiger, Barbara (2015): Photorealism, Nostalgia and Style. Material Properties of Film in Digital Visual Effects In: North, Dan/Rehak, Bob/Duffy, Michael S. (Hrsg.), Special Effects. New Histories/Theories/Contexts. London, S. 78–96. Horak, Jan-Christopher (2012): Handkamera. Lexikon der Filmbegriffe. 27. 01. 2012. https://filmlexikon.uni-kiel.de/index.php?action=lexikon& tag=det& id=1439 (zuletzt abgerufen am 15. 06. 2019). Kuhn, Sebastian (2017): Komische Transformationen filmischer Vorgänger. Anmerkungen zu (Genre-)Parodien im aktuellen US-amerikanischen Animationsfilm. In: Eckel, Julia/Feyersinger, Erwin/Uhrig, Meike (Hrsg.), Im Wandel … Metamorphosen der Animation. Wiesbaden, S. 69–82. Lasseter, John/Reeves, William T./Carpenter, Loren C./Ostby, Eben/Wahrman, Michael/ Blinn, James F./Reynolds, Craig W./Wedge, Chris/Walters, Graham/Kroyer, Bill (1989): Bloopers, Outtakes, and Horror Stories of SIGGRAPH Films. In: ACM SIGGRAPH Computer Graphics 23 (5), S. 223–239. Manovich, Lev (2001): The Language of New Media. Cambridge/MA, London. Marks, Laura U. (2000): The Skin of Film. Intercultural Cinema, Embodiment, and the Senses. Durham/NC, London. Mersch, Dieter (2006): Medientheorien zur Einführung. Hamburg. Monaco, James (2009): Film verstehen. Kunst, Technik, Sprache, Geschichte und Theorie des Films und der Medien. Mit einer Einfu¨ hrung in Multimedia. 5. Aufl. Reinbek bei Hamburg. Mu¨ ller, Robert (2011): Kamera. In: Thomas Koebner (Hrsg.), Reclams Sachlexikon des Films. 3. Aufl. Stuttgart, S. 331–341. Porter, Tom/Susman, Galyn (2000): Creating Lifelike Characters in Pixar Movies. In: Communications of the ACM 38 (1), S. 25–29. Schaffer, William (2004): The Importance of Being Plastic: The Feel of Pixar. Animation Journal 12 (1), S. 72–95. Schlichter, Ansgar (2012): Realfilm. Lexikon der Filmbegriffe. 07. 02. 2012. https://filmlexi kon.uni-kiel.de/index.php?action=lexikon& tag=det& id=5131 (zuletzt abgerufen am 17. 06. 2019). Schröter, Jens (2003): Virtuelle Kamera. Zum Fortbestand fotografischer Medien in computergenerierten Bildern. Fotogeschichte 88 (23), S. 3–16.

Fingierte Fehler

105

Schröter, Jens (2013): Medienästhetik, Simulation und ›Neue Medien‹. Zeitschrift für Medienwissenschaft 8 (1), S. 88–100. Schröter, Jens (2014): Narration und Bildlichkeit in Monsters, Inc. In: Wende, Johannes (Hrsg.), John Lasseter. Film-Konzepte 33. Mu¨ nchen, S. 30–42. Smid, Tereza (2012): Poetik der Schärfeverlagerung. Marburg. Thompson, Kristin (1986): The Concept of Cinematic Excess. In: Rosen, Philip (Hrsg.), Narrative, Apparatus, Ideology. A Film Theory Reader. New York, S. 130–142. Wulff, Hans Jürgen (2011): Out-take. Lexikon der Filmbegriffe. 19. 07. 2011. www.filmlexi kon.uni-kiel.de/index.php?action=lexikon& tag=det& id=476 (zuletzt abgerufen am 15. 06. 2019).

Filme f bout de souffle (Außer Atem), F 1960, R: Jean-Luc Godard. A Bug’s Life (Das große Krabbeln), US 1998, R: John Lasseter. Final Fantasy : The Spirits Within (Final Fantasy – Die Mächte in dir), US/J 2001, R: Hironobu Sakaguchi. Finding Dory (Findet Dorie), US 2016, R: Andrew Stanton. Inside Out (Alles steht Kopf), US 2015, R: Pete Docter. Monsters, Inc. (Die Monster AG), US 2001, R: Pete Docter. Monsters University (Die Monster Uni), US 2013, R: Dan Scanlon. The Good Dinosaur (Arlo & Spot), US 2015, R: Peter Sohn. The Incredibles (Die Unglaublichen), US 2004, R: Brad Bird. Toy Story, US 1995, R: John Lasseter. Toy Story 2, US 1999, R: John Lasseter. WALL-E (WALL-E – Der Letzte räumt die Erde auf), US 2008, R: Andrew Stanton.

Andere Materialien Docter, Pete: Inside the Creative Community. 28. 09. 2015. Westminstertownhall – YouTube, 18. 11. 2015. https://www.youtube.com/watch?v=Lt7yLHl0xbA (zuletzt abgerufen am 15. 06. 2019).

Jörg M. Wills*

Leonardo da Vinci: Fehler oder Absicht?

1.

Die Entdeckung

Abb. 1: Leonardo da Vinci (Grafik: Claus Grupen)

Im Jahr 2011 entdeckte der holländische Designer und Grafiker Rinus Roelofs in einer Zeichnung Leonardo da Vincis einen Fehler (Huylebrouck 2011; 2012). Es war keines der berühmten Gemälde Leonardos und es ging auch nicht um Millionensummen. Dennoch war die Entdeckung eine kleine Sensation. Denn die * Univ.-Prof. em. Dr. Dr. h.c. Jörg M. Wills, Fakultät IV (Naturwissenschaftlich-Technische Fakultät), vormals Mathematik – Geometrie.

108

Jörg M. Wills

Zeichnung war eindeutig ein Werk Leonardos. Sie gehörte zu einem Konvolut von etwa 50 wissenschaftlichen Zeichnungen, die Leonardo von 1498 bis 1502 mit großer Akribie und Sorgfalt angefertigt hatte.

2.

Fehler oder Absicht? Der Disput

Rinus Roelofs, der heimliche Held dieses Berichts, war fest überzeugt, dass Leonardo hier einen Fehler begangen hatte, und ebenso sahen es die ersten Kunsthistoriker und Wissenschaftler, die diese Nachricht per Internet oder mit Vorträgen und Publikationen verbreiteten. Aber bald regten sich Zweifel. Der Fehler wies etliche interessante Besonderheiten auf. Daher vermuteten einige Autoren, dass Leonardo den Fehler absichtlich in die Zeichnung eingebaut hatte. Aber warum? Mit welcher Absicht? Es entwickelte sich eine kontroverse, spannende und zeitweise hitzige Diskussion (an der der Verfasser auch beteiligt war ; siehe Wills 2013). Nach einiger Zeit neigte sich die Waage zugunsten der »Absicht«, und nach etwa zwei Jahren bestand aufgrund einiger überzeugender Argumente kein ernsthafter Zweifel mehr daran, dass Leonardo den Fehler absichtlich eingebaut hatte (S8quin 2011). Es bleibt die Frage nach dem »Warum?«. In diesem Beitrag wollen wir diese Geschichte, das Umfeld und die Argumente nachvollziehen. Wir benötigen dazu (fast) keine Vorkenntnisse: ein wenig Verständnis für Wissenschafts- und Kunstgeschichte, dazu ein wenig Mathematik, genauer Geometrie. Aber : Kein Grund zur Panik. Es geht nur um ein einziges geometrisches Objekt, das schon die alten Griechen kannten und das wir in diesem Artikel gleich mehrmals zeigen. Und falls das noch nicht genügen sollte: Ein modernes Spielzeug, das wir alle kennen, hilft uns zusätzlich.

3.

Leonardo und das Thema »Fehler«

Unwillkürlich stutzt man bei diesem Thema. Kann ein Kunstwerk fehlerhaft sein? Dazu noch bei Leonardo? Das Lächeln der Mona Lisa ist vielleicht rätselhaft und lässt Interpretationen zu. Aber fehlerhaft? Natürlich nicht. Dennoch: Das Universalgenie Leonardo (Marinoni/Brizio/Zammattio 1981) hat auch Fehler gemacht, die schon seit längerem bekannt sind. Unter seinen zahlreichen technischen Zeichnungen und Konstruktionen von fahrenden, schwimmenden und fliegenden Objekten sind einige nicht funktionstüchtig, also aus heutiger Sicht fehlerhaft. Das schmälert Leonardos Leistung nicht, und diese Fehler sind kaum einer Erwähnung wert.

Leonardo da Vinci: Fehler oder Absicht?

109

Anders verhält es sich bei mathematischen Fehlern (von Rechenfehlern etc. einmal abgesehen). Eine mathematische Erkenntnis mag unwichtig sein. Aber sie ist zeitlos und zu Leonardos Zeit genauso richtig oder falsch wie heute. Insofern war der von Rinus Roelofs entdeckte und über 500 Jahre verborgene Fehler so bemerkenswert.

4.

Leonardo und die Geometrie

Eine der größten Errungenschaften der Renaissance-Malerei war die Entdeckung der Zentralperspektive. In der Antike war sie nur in Ansätzen bekannt und im Mittelalter total vergessen. Giotto und Cimabue wagten erste Versuche, und in der Frührenaissance entwickelten Künstler wie Uccello, Masaccio und Piero della Francesca sie fast zur Vollendung. Leonardo und seine Zeitgenossen hatten die Zentralperspektive mit allen Schwierigkeiten bei komplexen Darstellungen voll im Griff. Es lag nahe, diese Perfektion an ausgewählten Beispielen zu testen und zu demonstrieren, ähnlich wie Musiker bei den Kadenzen auf ihren Instrumenten. Und ein Universalgenie wie Leonardo ließ sich etwas Besonderes einfallen. Er wählte die fünf Platonischen Körper, die seit der Antike Symbol für Symmetrie und Vollkommenheit waren. Dazu die 13 Archimedischen Körper, die, wie der Name sagt, auch schon in der Antike bekannt waren, und die aus den Platonischen Körpern durch einfache geometrische Veränderungen entstehen (nochmal für sensible Gemüter : Wir brauchen nur einen davon, und der wird später genau erklärt). Leonardo zeichnete diese 18 Körper, setzte dann auf alle Seiten kleine Pyramiden auf, zeichnete auch diese und, als sei dies noch nicht genug, zeichnete die Hohlversion (vacuus) von allen, also nur die Kanten. Und er führte diese Kanten als dünne Balken aus. Warum das alles? Sicher wollte er auch seine Kollegen und Konkurrenten und vielleicht auch die Nachwelt beeindrucken. Und in einer der kompliziertesten Figuren befindet sich der Fehler – so gut versteckt, dass er erst nach über 500 Jahren entdeckt wurde. Leonardo hatte (natürlich) eine geniale geometrische Vorstellungskraft und Intuition, aber er war kein Mathematiker, weder im klassischen noch im modernen Sinn. Er brauchte also einen Berater, einen Coach. Das war Luca Pacioli, zu dem wir einiges sagen sollten.

110

5.

Jörg M. Wills

Leonardo und Luca Pacioli

Luca Pacioli war Mönch und ein angesehener Mathematik-Professor in Florenz. Heute ist er nur noch im Zusammenhang mit Leonardo bekannt und durch ein einziges Bild (Abb.2) aus dem Jahr 1500 von Jacopo de’ Barbari. Das Bild, Barbaris Meisterwerk, hängt normalerweise in Neapel. Vor ein paar Jahren war es im Frankfurter Städel auf der Manierismusausstellung zu sehen. Im Mittelpunkt des Bildes steht Luca Pacioli.

Abb. 2: Portrait des Luca Pacioli (1445–1517) mit einem Schüler (Guidobaldo de Montefeltro? Albrecht Dürer?) und das RCO (Rhombenkuboktaeder), Jacopo de’ Barbari (1460/1470–vor 1516) zugeschrieben (Museo di Capodimonte, Neapel). Foto: Luc Lauwers/Marleen Willekens. https://upload.wikimedia.org/wikipedia/commons/2/2a/Pacioli.jpg?uselang=de (gemeinfrei; abgerufen am 07. 08. 2019)

Neben ihm ein schöner Jüngling, vielleicht ein Schüler oder ein adliger Gönner. Etliche Kunsthistoriker glauben den jungen Albrecht Dürer darin zu erkennen, der tatsächlich zu dieser Zeit in Florenz weilte. Uns soll es hier egal sein. Die eigentliche »Hauptperson« in diesem Bild ist aber das ungewöhnlich große und sorgfältig gemalte Polyeder links oben. Es ist einer der Archimedi-

Leonardo da Vinci: Fehler oder Absicht?

111

schen Körper. Und zwar genau der, der bei Leonardos Fehler die Hauptrolle spielt. Zufall? Wir wissen es nicht. Übrigens wirft dieses Polyeder in Jacopo de’ Barbaris Bild auch Fragen auf: Kann der Bindfaden das schwere Polyeder tragen? Ist der Behälter wasserdicht? Und stabil? Und vor allem: Sind die Reflexionen und Spiegelungen auf dem Polyeder korrekt? Klar, dass sich einige Computerfreaks rund um den Globus damit schon beschäftigt haben. Wir lassen auch dies links liegen und erwähnen nur abschließend, dass dieser Archimedische Körper den heutigen Namen Rhombic Cuboctahedron (kurz: RCO, auf Deutsch: Rhombenkuboktaeder) trägt. Da er später erneut vorkommt, werden wir nur noch die bequeme Abkürzung benutzen.

6.

Leonardo und das »Polyeder mit dem Fehler«

6.1

Der Fehler

Abb. 3 zeigt den angeblichen Fehler. Links ist Leonardos Original, so wie es seine Zeitgenossen und alle späteren Betrachter gesehen haben. Rechts ist das Polyeder mit Rinus Roelofs Korrekturen, so wie es der Betrachter hätte sehen sollen. Man erkennt die kleinen Unterschiede an den drei Spitzen (Pyramiden) unten: Die drei- und vierseitigen Pyramiden sind vertauscht. Beim Anblick dieser beiden Figuren ist man geneigt, an einen Fehler Leonardos zu glauben. Aber die Situation ist einfacher, als sie aussieht. Leonardo hat, wie schon erwähnt, sehr viel Zeit und Arbeit in die PolyederZeichnungen gesteckt. Sein Biograph Vasari (2006) schreibt, dass er die Zeichnungen nachts unter seinem Kopfkissen aufbewahrte, damit niemand sie ihm entwenden konnte. Nicht alle der 72 möglichen Polyeder sind heute noch vorhanden. Vielleicht ist das eine oder andere Blatt verloren gegangen, vielleicht wurde es Leonardo auch im Laufe der Zeit langweilig; wir wissen es nicht. Unter den verbleibenden etwa 50, die sich in Museen und Bibliotheken finden, ist eines der kompliziertesten unser Polyeder mit dem Fehler, dem wir uns jetzt endlich zuwenden (Abb. 3). Leonardo nannte es »Vigintisex basium elevatus vacuus«, ein voluminöser, aber ziemlich präziser Name: Basispolyeder (basium) mit 26 Seiten (vigintisex) und aufgesetzten (elevatus) Pyramiden, nur mit Kanten, aber ohne Seiten (vacuus).

112

Jörg M. Wills

Abb. 3: Leonardos Original (links) und Roelofs Korrektur (entnommen aus Huylebrouck 2012, S. 244)

6.2

Des Rätsels Lösung

Wir umgehen das komplizierte Polyeder mit einem ebenso einfachen wie überzeugenden Gedanken: Der Betrachter sieht das verwirrende Endprodukt. Aber bei der Herstellung des Bildes hat Leonardo beim Kern, bei dem Basium, dem Basispolyeder beginnen müssen. Wenn er einen Fehler gemacht hat, sei es absichtlich oder nicht, dann hier. Alles Weitere verlief zwingend und ohne Wahl. Und welchen Fehler sollte er gleich am Anfang gemacht haben?

6.3

Die Zwillinge: RCO und Pseudo-RCO

Hier kommt eine geometrische Besonderheit, eine Kuriosität ins Spiel (Abb. 4): Das Basispolyeder RCO ist in sich drehbar. Man kann das untere (oder obere) Drittel gegen das übrige RCO verdrehen und erhält ein neues Polyeder mit denselben Seiten (18 Quadrate, 8 Dreiecke). Es ist nicht mehr so symmetrisch wie das RCO und damit kein Archimedischer Körper. Es ist quasi der etwas weniger feine Zwilling des RCO. Und es hat einen eigenen Namen: Pseudo-RCO. Uns kommt diese Verdrehung irgendwie vertraut vor.

Leonardo da Vinci: Fehler oder Absicht?

113

Abb. 4: RCO (links) und Pseudo-RCO (rechts) (entnommen aus Zefiro/Ardigo 2009)

Und in der Tat: Der berühmte Zauberwürfel (oder Rubik’s Cube) beruht auf genau demselben Prinzip. Weil er nur Quadratseiten hat und dazu farbig, hat er sehr viel mehr Möglichkeiten, aber das Prinzip ist dasselbe. Natürlich kannte Leonardo den Zauberwürfel nicht. Aber ihm oder Pacioli war das Pseudo-RCO bekannt. Und er hat sein Wissen in dem komplizierten Polyeder versteckt, um seine Kollegen und die Nachwelt zu verblüffen. Dass es ein halbes Jahrtausend dauern würde; damit hat er wohl nicht gerechnet.

7.

Ausklang: Kunsthistorische Anmerkungen

Abschließend gehen wir noch auf zwei naheliegende Fragen ein: Erstens, warum hat Leonardo eigentlich diesen Fehler in die Zeichnung eingebaut? Und zweitens: Haben Leonardos geometrische Zeichnungen irgendeinen Einfluss auf die Nachwelt gehabt? Zur ersten Frage: Optische Täuschungen in Bildern waren in der Renaissance und besonders im Barock und Rokoko gang und gäbe. Ab dem Barock nannte man sie »trompe l’oeil«, Augentäuschung. Berühmte Beispiele aus Leonardos Zeit sind das Polyeder in Dürers »Melancholie« und vor allem der Totenkopf in Holbeins »Gesandten« in der National Gallery in London, dazu noch viele Bilder von Hieronymus Bosch. Leonardos »Fehler« fügt sich gut ein. Zur zweiten Frage: Nachwirkungen von Leonardos Polyeder sind in der Mathematik kaum aufgetreten. Zwar sind es die ersten »polyhedral manifolds«, wie man diese Objekte heute nennt, aber keines davon spielt eine Rolle in der modernen Mathematik. Und in der Kunst? In den Jahrhunderten nach Leonardo wurden Intarsien in vielen wertvollen Möbeln nach einfachen Polyedern von

114

Jörg M. Wills

Leonardo gefertigt. Man kann sie heute noch in Schlössern an der Loire, in Wien, Paris und Mailand sehen. Man findet sie in Keplers Kupferstich »Harmonici mundi«, ebenso in einigen Gemälden von Salvador Dali und natürlich im Werk von Maurits Cornelis Escher. Die auffälligsten Nachfolger von Leonardos Polyedern findet man aber in der modernen Architektur. Der kanadische Stararchitekt Richard Buckminster Fuller konstruierte auf der Weltausstellung in Montreal 1967 einen großen Pavillon, der direkt von Leonardo inspiriert schien, und seitdem sind viele Bauten in diesem Stil gebaut worden: die leeren Flächen verglast und die Streben wie bei Leonardo. Insoweit haben Leonardos Polyeder also überlebt. Und der »Fehler«? Natürlich hat er keine Nachfolger. Aber er hat uns einen kleinen Einblick in Leonardos Denken und in seine Zeit erlaubt.

Literatur Huylebrouck, Dirk (2011): Lost in Triangulation: Leonardo da Vinci’s Mathematica SlipUp. 29. 03. 2011. https://www.scientificamerican.com/article/davinci-mathematicalslip-up/ (zuletzt abgerufen am 07. 08. 2019). Huylebrouck, Dirk (2012): Ein Fehler von Leonardo. Mitteilungen der Deutschen Mathematiker-Vereinigung (DMV) 20 (4), S. 244–246. Marinoni, Augusto/Brizio, Anna Maria/Zammattio, Carlo (1981): Leonardo. Der Forscher. Stuttgart, Zürich. S8quin, Carlo H. (2011): Lost in Triangulation?? No, – it is not a mistake, – it is a Pseudo Rhombicuboctahedron! https://people.eecs.berkeley.edu/~sequin/X/Leonardo/leonar do.html (zuletzt abgerufen am 07. 08. 2019). Vasari, Giorgio (2006): Das Leben des Leonardo da Vinci. Herausgegeben von Alessandro Nova. Berlin. Wills, Jörg M. (2013): Leonardo and the Pseudo-RCO. https://arxiv.org/pdf/1307.4936.pdf (zuletzt abgerufen am 07. 08. 2019). Zefiro, Livio/Ardigo, Maria Rosa (2009): What Became oft he Controvesial Forteenth Archimedean Solid, the Pseudo Rhomb-Cuboctahedron? 20. 12. 2009. http://www.mi. sanu.ac.rs/vismath/zefiro2009/___pseudo_RCO_Zefiro-Ardigo%27.htm (zuletzt abgerufen am 07. 08. 2019).

Danksagung Ich danke Herrn Kollegen Prof. Dr. Claus Grupen sehr für wertvolle Hinweise und für die komplette Bebilderung und grafische Gestaltung des Beitrags.

Thorsten Raasch*

Numerische Fehleranalyse

Computer (lat. computare = zusammenrechnen) nehmen uns Menschen viele lästige und eintönige, aber auch komplizierte Berechnungen ab und machen dadurch unseren Alltag ein Stück komfortabler – in manchen Fällen sogar überhaupt erst möglich. Computergestützte Berechnungen reichen vom simplen Erstellen des Bons an der Supermarktkasse über die Routenplanung in Navigationsgeräten und Smartphones bis hin zu so komplexen Problemen wie der Wetter- und Klimasimulation oder virtuellen Crashtests. All diese Berechnungen werden mit Hilfe von Algorithmen durchgeführt, das heißt durch Computerprogramme, die genau festlegen, mit welchen elementaren Einzelschritten (z. B. Additionen und Multiplikationen) und in welcher Reihenfolge die Gesamtrechnung ablaufen soll. Dabei kann es für ein und dasselbe Problem vollkommen unterschiedliche Algorithmen geben. Ist zum Beispiel die Differenz a2 @ b2 zweier Quadratzahlen a2 und b2 zu berechnen, so könnte man zuerst a quadrieren, dann b, und danach die Differenz a2 @ b2 berechnen. Man könnte aber auch (ebenfalls mit 3 Rechenoperationen) zuerst a þ b und a @ b berechnen und danach das Produkt ða þ bÞ = ða @ bÞ ¼ a2 @ b2 . Es ist eine Grundaufgabe der Numerischen Mathematik, unter solchen, vermeintlich gleichwertigen, Alternativen den am wenigsten fehleranfälligen Algorithmus auszuwählen (vgl. Hanke-Bourgeois 2009). Mit welcher Variante würden Sie a2 @ b2 berechnen, wenn a und b fehlerbehaftet sind? Wir lösen das Rätsel am Ende des Artikels auf.

* Univ.-Prof. Dr. Thorsten Raasch, Fakultät IV (Naturwissenschaftlich-Technische Fakultät), Department Mathematik, Arbeitsgruppe Numerik.

116

1.

Thorsten Raasch

Numerische Fehlerarten

Leider ist das von einem Algorithmus auf dem Computer berechnete Resultat in den wenigsten Fällen exakt, sondern es enthält verschiedenartige Fehler. Im Rahmen der Numerischen Fehleranalyse (vgl. Higham 2002, S. 5–6; HankeBourgeois 2009, S. 13–25) untersucht man die Entstehung und Fortpflanzung von Fehlern innerhalb eines Algorithmus. Prinzipiell unterscheidet man die folgenden Fehlerarten: – Eingabefehler, zum Beispiel durch Messfehler oder Rundungsfehler in der Eingabe; – Abschneidefehler, das heißt bewusst in Kauf genommene Fehler durch Näherungsformeln; – Rundungsfehler durch die begrenzte Maschinengenauigkeit; – fortgepflanzte Eingabe- und Rundungsfehler aus vorigen Rechenschritten (Folgefehler). Wir nehmen natürlich an, dass der Algorithmus korrekt implementiert wurde, das heißt, Programmierfehler seien ausgeschlossen. Jede numerische Fehlerart hat ihre eigenen Ursachen und Verantwortlichkeiten: – Eingabefehler lassen sich eigentlich nur durch genauere Messungen begrenzen und haben auf das Design von Algorithmen meist keinen Einfluss. – Sind im Rahmen der Berechnung Näherungsformeln einzusetzen, pffiffiffiffiffi zum Beispiel die Approximation eines komplizierten Ausdrucks 17 durch eine R wie 2 Kommazahl oder die Näherung eines Integrals wie 01 e@x dx durch eine geeignete Quadraturformel, so ist es in der Verantwortung der Numerischen Mathematik, den hierbei entstehenden Abschneidefehler zu quantifizieren und wenn möglich klein zu halten. – Rundungsfehler an sich kann man so gut wie nie vermeiden, da bereits elementare Rechenoperationen wie Addition und Multiplikation auf dem Computer nicht fehlerfrei durchführbar sind (siehe Abschnitt 2). Aufgabe der Numerischen Mathematik ist die Auswahl einer bestmöglichen Anordnung der elementaren Rechenschritte – eines Algorithmus –, bei dem die Größe der fortgepflanzten Fehler aus vorigen Rechenschritten so klein wie möglich ist. In diesem Fall spricht man von einem numerisch stabilen Algorithmus. Nicht in die Verantwortlichkeit der Numerischen Mathematik fällt es dagegen, wenn das zu lösende Problem an sich schon sehr sensitiv auf Störungen in den Eingabedaten reagiert. Man spricht hier von einem schlecht konditionierten Problem (vgl. Higham 2002, S. 8–9; Hanke-Bourgeois 2009, S. 19–20). Als Beispiel betrachte man die Berechnung des Schnittpunkts ð^ x; ^yÞ von zwei Geraden

Numerische Fehleranalyse

117

y ¼ m1 x þ b1 und y ¼ m2 x þ b2 . Für die x-Koordinate des Schnittpunkts gilt b @b m1 ^ x þ b1 ¼ m2 ^ x þ b2 , das heißt ^ x ¼ m21 @m12 . Sind die Steigungen m1 und m2 der beiden Geraden sehr unterschiedlich, zum Beispiel m1 ¼ 1 und m2 ¼ 5, so ist der Nenner m1 @ m2 in der Formel für ^ x betragsgroß, und Eingabefehler in den Achsenabschnitten b1 beziehungsweise b2 werden bei der Berechnung von ^ x (und von ^y ¼ m1 ^ x þ b1 ) nicht allzu stark vergrößert. Anschaulich bedeutet dies, dass sich der Schnittpunkt zweier schief aufeinander treffender Geraden nur wenig ändert, wenn sich die Geraden selbst ändern. Sind die Geraden dagegen annähernd parallel, das heißt m1 & m2 , so ist der Nenner m1 @ m2 in der Formel für ^ x nahezu Null, und ^ x ändert sich dramatisch, auch wenn b1 und b2 nur wenig variieren. Auch der beste Algorithmus zur Berechnung eines Geradenschnittpunkts kann hieran nichts ändern. Das Phänomen schlecht konditionierter Probleme ist uns allen auch aus der Wettervorhersage bekannt, die ja prinzipiell nur für kurze Zeiträume verlässlich sein kann. Dies liegt vor allem daran, dass die Startbedingungen des hochkomplexen und sensitiven Wettermodells, beispielsweise die orts- und höhenabhängigen Temperatur- und Druckdaten der Atmosphäre zum aktuellen Zeitpunkt, nur unvollständig an recht grob verteilten Messpunkten bekannt sind und somit die Ausgabe einer numerischen Wettersimulation nur für kleine Zeiträume die Realität annähernd wiederspiegeln kann.

2.

Maschinengenauigkeit und Rundungsfehler bei elementaren Rechenoperationen

Bei der Durchführung von Algorithmen auf dem Computer ist man zwei prinzipiellen Einschränkungen ausgeliefert: der Speicherung von Zahlen als Maschinenzahlen sowie den daraus resultierenden Rundungsfehlern bei jeder elementaren Rechenoperation. Zum einen kann wegen des insgesamt begrenzten Speicherplatzes nicht jede für den Menschen denkbare Zahl auf dem Computer exakt gespeichert werden. Ein Computer arbeitet in komplizierteren Rechnungen fast ausschließlich mit Maschinenzahlen, bei denen für jede Zahl eine feste Anzahl binärer Speicherplätze (Bits) zur Verfügung stehen, zum Beispiel 32 oder 64 Bit. Hiermit können binäre Kommazahlen aus einem gewissen Laufbereich exakt gespeichert werden. 3 So ist zum Beispiel die Dezimalzahl 0; 375 ¼ 8 ¼ 1; 5 = 2@2 ¼ ð1; 1Þ2 = 2@ð10Þ2 eine binäre Kommazahl mit Mantisse 1; 5 ¼ ð1; 1Þ2 (binäre Kommastellen) und Exponent @2 ¼ @ð10Þ2 (um die binären Kommastellen an die richtige Position zu schieben). Die Anzahl der zur Verfügung stehenden Mantissen- und Exponentenstellen ist dabei allerdings begrenzt. Sind zum Beispiel für eine binäre

118

Thorsten Raasch

Kommazahl insgesamt 64 Bit vorgesehen (sogenannte »doppelte Genauigkeit«), so werden nach dem Industriestandard IEEE 754–2008 genau 52 Bit für die Mantisse, 11 Bit für den Exponenten und ein Bit für das Vorzeichen der binären Kommazahl verwendet (vgl. IEEE Standards Organization 2008). Hieraus folgt, dass Zahlen der Form 1 þ x mit betragskleinem x auf dem Computer nur oberhalb einer gewissen Größe von x gespeichert werden können. So ist die Zahl 1 þ 10@15 nach der Rundung bei doppelter Genauigkeit gerade noch von 1 unterscheidbar, während die Zahl 1 þ 10@16 bereits so nahe an 1 liegt, dass sie zu 1 gerundet werden muss (Abb. 1).

Abb. 1: Rundung von 1 þ x zu 1 bei betragskleinen x auf dem Computer

Aus der Restriktion, während der Rechnung immer nur Maschinenzahlen abspeichern zu können, folgt automatisch die ständige Entstehung von Rundungsfehlern. Denn wenn schon nicht jeder Ausdruck 1 þ x exakt gespeichert werden kann, selbst wenn x schon eine Maschinenzahl ist, so trifft dies natürlich erst recht auf das Resultat jeder elementaren Rechenoperation wie a þ b, a @ b, a = b oder a=b zu. Da Algorithmen aus einer Abfolge genau solcher Elementaroperationen bestehen, ist bei der Durchführung von Algorithmen auf dem Computer jederzeit mit neu entstehenden Rundungsfehlern zu rechnen, die durch nachfolgende Rechenoperationen möglicherweise verstärkt werden. Den bei der Rundung entstehenden Fehler kann man abhängig vom konkreten Maschinenzahlmodell nach oben abschätzen (vgl. Higham 2002, S. 40–43). Um unabhängig gegenüber Skalierungen des Problems zu sein, be~ x@x trachtet man dabei relative Rundungsfehler, das heißt Ausdrücke der Form x , wobei x die zu approximierende Größe bezeichnet und ~ x die Approximation.

119

Numerische Fehleranalyse

Man versucht, den bei der Rundung einer beliebigen Zahl x auf die nächstgele~ x@x gene Maschinenzahl ~ x entstehenden relativen Fehler gemäß j x j , e abzuschätzen. Dabei heißt e relative Maschinengenauigkeit. Konkret kann man sich im Fall doppelter Genauigkeit überlegen, dass e & 1; 1 = 10@16 . Absolute Rundungsfehler j~ x @ xj wachsen demnach wie ejxj, das heißt bei der Rundung einer betragsgroßen Zahl auf die nächstgelegene Maschinenzahl entstehen auch große absolute Fehler. Ähnlich kann man auch die bei der konkreten Durchführung elementarer Rechenoperationen im Computer entstehenden Fehler analysieren. Dazu muss man wissen, dass in einem Computer typischerweise auf Hardwareebene, das heißt in der Gleitkommaeinheit des Hauptprozessors, versucht wird, die relativen Fehler pro Elementaroperation jeweils in der Größenordnung der relativen Maschinengenauigkeit e zu halten. Dies kann zumindest für Additionen, Subtraktionen, Multiplikationen und Divisionen von Maschinenzahlen garantiert werden, indem intern zunächst ein Zwischenergebnis mit erhöhter Genauigkeit berechnet und dieses dann vor der Ausgabe auf die nächstgelegene Maschinenzahl gerundet wird.

3.

Fortgepflanzte Fehler

Durch die latente Entstehung und Fortpflanzung von Rundungsfehlern kann es in komplizierteren Algorithmen schnell passieren, dass sich Rundungsfehler aus vorherigen Rechenschritten aufsammeln und eine Berechnung der Ausgabe bis auf die theoretische Maschinengenauigkeit unmöglich machen. Wir betrachten ein einfaches Beispiel: Es ist bekannt, dass die Zahlenfolge 1 2

1 3

1 n

1, ð1 þ 2Þ , ð1 þ 3Þ , …, ð1 þ nÞ , … für wachsendes n gegen die Eulersche Zahl e & 2; 718281828459 konvergiert. Man könnte also versuchen, e zu approximieren, indem man auf dem Computer 1 n die Formel ð1 þ nÞ für immer größere Werte von n auswertet. Dabei erlebt man jedoch eine Überraschung (Abb. 2). Es ist nicht möglich, e auf diese Weise bis auf die theoretische Maschinengenauigkeit von etwa 15 korrekten Nachkommastellen zu berechnen, sondern nur bis auf einen Fehler von etwas unter 10@7, also bis auf sieben korrekte Nachkommastellen. Der Grund für diese Diskrepanz ist, dass die im Algorith1 mus zuerst berechnete Zahl 1 þ n für fast keinen Wert von n eine Maschinenzahl ist und somit fast immer gerundet werden muss. Das nachfolgende Potenzieren mit n (das heißt (n @ 1Þ-fache Multiplikation) verstärkt diesen Rundungsfehler, und spätestens ab n & 108 erreichen die durch das Potenzieren aufgesammelten

120

Thorsten Raasch

1 n

Abb. 2: Fehler bei der Approximation von e durch ð1 þ nÞ auf dem Computer

Rundungsfehler von jeweils etwa 10@16 die Größenordnung 10@8 und verhindern so eine genauere Bestimmung von e, zumindest auf diese Weise. Man kann zwar einwenden, dass eine Genauigkeit von 10@8 oft ausreicht, aber es gibt nun einmal wesentlich bessere Algorithmen zur Bestimmung von e. Man könnte zum Beispiel die Reihendarstellung 1

1

1

e ¼ 1 þ 2! þ 3! þ ::: þ n! þ ::: ausnutzen, wobei n! ¼ 2 = 3 = ::: = n die Fakultät von n bezeichnet, und auf dem 1 1 1 Computer die Teilsumme 1 þ 2! þ 3! þ ::: þ n! als Approximation verwenden. Hierbei kann man in der Tat nach wenigen Summanden Maschinengenauigkeit erreichen (Abb. 3). Allerdings sollte man bei langsamer konvergenten Reihen etwas vorsichtig sein. So ist zum Beispiel bekannt, dass man die Kreiszahl p über die Reihenentwicklung p2 6

1

1

1

¼ 1 þ 22 þ 32 ::: þ n2 þ :::

121

Numerische Fehleranalyse

1

1

1

Abb. 3: Fehler bei der Approximation von e durch 1 þ 2! þ 3! þ ::: þ n! auf dem Computer

bestimmen kann. Bildet man aber auf dem Computer die Teilsummen 1 1 1 1 þ 22 þ 32 ::: þ n2 in genau dieser Summationsreihenfolge (Vorwärts-Summatip2 on), so beobachtet man, dass man den Grenzwert 6 so nur bis auf eine Genauigkeit von etwa 9 = 10@9 approximieren kann, etwa erreicht bei n ¼ 109 . Bildet 1 1 man dagegen die umgekehrten Teilsummen n2 þ ::: þ 22 þ 1, das heißt summiert man die kleineren Zahlen zuerst (Rückwärts-Summation), kann man eine deutlich höhere Genauigkeit erreichen, zum Beispiel etwa 5 = 10@12 , erreicht bei etwa n ¼ 2 = 1011 . Der Grund liegt darin, dass man bei der Vorwärts-Summation schneller in die Situation gelangt, eine sehr kleine Zahl (neuer Summand) zu einer großen (bereits berechnete Teilsumme) addieren zu müssen, so dass gerundet werden muss. Bei der Rückwärts-Summation sind dagegen die neu hinzukommenden Summanden zumindest eine längere Zeit größer als die der bereits berechneten Teilsumme, so dass sich Rundungsfehler erst ein Stück später bemerkbar machen. Wir merken uns: Auf dem Computer sollte man zuerst die kleinen Zahlen aufsummieren, dann die großen (siehe Higham 2002, S. 26–27 für weitere Daumenregeln). …. aber zugegeben: Zur hochpräzisen Berechnung von p sollte man generell andere und effizientere Algorithmen verwenden als solche nur langsam konvergenter Reihen!

122

4.

Thorsten Raasch

Stabilität elementarer Rechenoperationen

Wie wir gesehen haben, entstehen sowohl bei der Addition als auch der Multiplikation von Maschinenzahlen im Allgemeinen relative Rundungsfehler in der Größenordnung der Maschinengenauigkeit e, das heißt die elementaren Rechenoperationen sind in dieser Hinsicht vergleichbar. Betrachtet man allerdings gestörte Eingaben (z. B. resultierend aus Rundungsfehlern in vorigen Rechenschritten) und analysiert den fortgepflanzten Eingabefehler bei exakter Rechnung, also analysiert man die Stabilität der Addition und Multiplikation (vgl. Higham 2002, S. 61–65), so sieht das Bild unterschiedlich aus. Sind zum Beispiel zwei gestörte Zahlen a und b zu multiplizieren, mit relativen Eingabefehlern a beziehungsweise b in der Größenordnung der Maschinengenauigkeit, das heißt jaj , e und jbj , e, so lautet das exakte Ergebnis dieser Operation ða = ð1 þ aÞÞ = ðb = ð1 þ bÞÞ ¼ a = b = ð1 þ a þ b þ a = bÞ: Das Ergebnis hat also unabhängig von der Größe der zu multiplizierenden 4 Zahlen einen relativen Fehler von ja þ b þ a = bj , 2e þ e2 ¼ 2e, wobei wir Quadrate der Maschinengenauigkeit vernachlässigen. Somit ist die Multiplikation gestörter Zahlen in etwa so fehleranfällig wie das Runden selbst und damit gutartig. Bei einer Addition gestörter Zahlen a und b erhalten wir analog, dass ða = ð1 þ aÞÞ þ ðb = ð1 þ bÞÞ ¼ a = b = ð1 þ aaþbb

aaþbb aþb

Þ:

Hier hängt der relative Fehler aþb von der Eingabe ab, und wir können ihn nach aaþbb jajþjbj oben abschätzen durch j aþb j , jaþbj e. Die relative Abweichung vom exakten Ergebnis a þ b wird somit besonders groß, wenn a & @b gilt, und wegen des besonders großen Verlustes gültiger Stellen im Ergebnis wird dieser Effekt auch als Auslöschung bezeichnet. Wir merken uns: in Algorithmen sollte man die Subtraktion annähernd gleich großer Zahlen unbedingt vermeiden! Das kann man manchmal durch Umforpffiffiffiffiffiffiffiffiffiffiffiffi ffi mungen erreichen. So ist zum Beispiel der Ausdruck x @ x2 @ 1 für große x instabil, da dann in etwa gleich große Zahlen voneinander subtrahiert werden. Erweitert man den Ausdruck dagegen mit Hilfe der binomischen Formel, x@

ffi pffiffiffiffiffiffiffi pffiffiffiffiffiffiffiffiffiffiffiffiffi ðx@pffiffiffiffiffiffi x2 @1Þðxþ x2 @1Þ 1 pffiffiffiffiffiffiffi ffi; x2 @ 1 ¼ ¼ xþpffiffiffiffiffiffi xþ x2 @1 x2 @1

Numerische Fehleranalyse

123

so ist der letzte Ausdruck für große x unkritisch, da nur gleich große Zahlen addiert werden und die Division so stabil ist wie die Multiplikation. Kommen wir nun zum Anfangsbeispiel a2 @ b2 ¼ ða þ bÞ = ða @ bÞ zurück, wobei a und b nahe beieinander liegen und jeweils eine Störung beinhalten. In beiden Varianten tritt dann eine Subtraktion annähernd gleich großer Zahlen auf, die man nicht eliminieren kann. Man muss sich also zwischen den folgenden beiden Varianten entscheiden: – Entweder man quadriert zuerst a beziehungsweise b, macht also hier mit großer Wahrscheinlichkeit Rundungsfehler, und subtrahiert dann die leicht gestörten Zahlen a2 und b2 , was die zu Beginn produzierten Rundungsfehler eventuell drastisch verstärkt; – oder man subtrahiert zuerst a und b, das heißt man beißt direkt in den sauren Apfel, und multipliziert danach mit a þ b, wobei eventuell Rundungsfehler entstehen. Man kann sich rigoros überlegen, dass die zweite Variante weniger fehleranfällig ist als die erste. Wenn man also eine Subtraktion annähernd gleich großer Zahlen nicht vermeiden kann, dann sollte man sie wenigstens so früh wie möglich ausführen (dann hat man es hinter sich). Als Illustration diene lediglich das Zahlenbeispiel a ¼ 50000 þ 10@11 und b ¼ 50000. Dabei ist a keine binäre Maschinenzahl, kann auf dem Computer also nur gerundet abgespeichert werden. Das exakte Ergebnis würde a2 @ b2 ¼ 10@6 þ 10@22 & 0; 00001 lauten. Wir betrachten gestörte Daten ~ ¼ 50000 þ 2 = 10@11 und zeigen die doch recht stark voneinander abweia chenden Ergebnisse der beiden Varianten ohne weiteren Kommentar in Abb. 4.

~&a Abb. 4: Ergebnis von a2 @ b2 versus ða þ bÞ = ða @ bÞ mit gestörten Daten a

124

Thorsten Raasch

Literatur Hanke-Bourgeois, Martin (2009): Grundlagen der Numerischen Mathematik und des Wissenschaftlichen Rechnens. 3. Aufl. Wiesbaden. Higham, Nicholas J. (2002): Accuracy and Stability of Numerical Algorithms. 2. Aufl. Philadelphia/PA. IEEE Standards Association (2008): IEEE 754-2008 – Standard for Floating-Point Arithmetic. 29. 08. 2008. https://standards.ieee.org/standard/754-2008.html (zuletzt abgerufen am 26. 08. 2019).

Markus Kötter*

Fremdsprachliche Fehler in Schule und Hochschule am Beispiel des Englischen

Wer Fehler macht, handelt nicht richtig. Sie oder er agiert fehlerhaft oder verhält sich sogar komplett falsch. Möglicherweise verletzt die betreffende Person Erwartungen und enttäuscht damit andere, da sie es doch besser wissen und somit auch können sollte. Je nach Schwere des Fehlers kann dies kleinere oder größere Sanktionen nach sich ziehen. Dabei kommt es oft darauf an, wer Fehler begeht, wer sie entdeckt, wer sonst davon erfährt und um welche in welchem Kontext begangenen Fehler es geht. Und es ist wichtig, wie gut der den vermeintlichen oder tatsächlichen Fehler machenden Person bekannt war, wie er zu verhindern gewesen wäre, das heißt, ob Regeln unbewusst, bewusst oder gar planvoll überschritten wurden und welche Folgen dies für wen hatte, hat oder haben wird. Schon diese wenigen Sätze zeigen, wie vielschichtig die Beurteilung und vor allem der Umgang mit Fehlern sein können. Verengt man den Blick auf den Bereich der (Fremd-)Sprache, so wird es jedoch nicht etwa einfacher, sondern noch komplizierter. Trotz der scheinbar klaren Regelung von Sprache(n) durch Grammatiken und Lexika gibt es nämlich kaum etwas, das teils unbeabsichtigt, manchmal aber auch gewollt kreativ genutzt und somit nur schwer zu fassen, zu deuten und auch mit Sanktionen zu belegen ist: »Der ›promovierte Arsch‹ darf kündigen, die ›Drecksau‹ nicht«, so überschrieb etwa die Süddeutsche Zeitung einen Beitrag dazu, wie bayerische Gerichte Streitereien zwischen Mietern und Vermietern juristisch bewerten (Rost 2018). Doch auch in weniger krassen Fällen führt der Umstand, dass Sprache zwar im Kern sehr strukturiert ist, dass ihre Ränder jedoch unscharf und daher schwerer zu fassen sind, zu Aussagen, welche die eine für eine Normverletzung hält, während der andere das komplett anders sieht. Geht es dann auch noch um etwas, bei dem die Mittel und/oder das in Rede Stehende mindestens einer Person wenig(er) vertraut sind, was beim Gebrauch fremder Sprachen fast der Normalfall ist, so sind Fehler zumindest ab und an nachgerade unvermeidlich. * Univ.-Prof. Dr. Markus Kötter, Universität Siegen, Fakultät I (Philosophische Fakultät), Anglistik – Didaktik der englischen Sprache.

126

Markus Kötter

Ziel meines Beitrags ist es, zum einen zu beleuchten, wie in Schule und Hochschule in meinem Fachgebiet, der Didaktik der englischen Sprache, mit »Fehlern« beim Gebrauch des Englischen umgegangen wird – wobei die Anführungsstriche bewusst gesetzt sind. Zum anderen soll gefragt werden, wie glücklich dieser Umgang ist. Dazu lege ich zunächst dar, worum es eigentlich geht. Im Anschluss skizziere ich kursorisch den Status von Fehlern in der Geschichte der Englischdidaktik. Der dritte und vierte Teil des Beitrags werfen Schlaglichter auf den aktuellen Umgang mit Fehlern im Englischen in Schule und Hochschule, bevor am Schluss ein knappes Fazit steht.

1.

Fehlerhafter Gebrauch der Fremdsprache – welche Arten von Fehlern gibt es eigentlich?

Jede/r hat sich schon einmal intensiv mit dem Lernen einer fremden Sprache beschäftigt, weil es in Westdeutschland seit dem Hamburger Abkommen von 1964 und in der früheren sowjetischen Besatzungszone sogar schon seit 1951 (vgl. Geißler 2000, S. 185 sowie S. 191–192) unmöglich ist, einen Schulabschluss zu erlangen, ohne sich zumindest eine gewisse Zeit lang mit einer Fremdsprache auseinandergesetzt zu haben. Das bedeutet übrigens nicht, dass in der Fremdsprache auch ein Mindestmaß an Leistung erbracht worden sein muss. Das Hamburger Abkommen insistierte ebenso wie seine Nachfolger nur darauf, dass die Fremdsprache »gelehrt« worden sein muss (vgl. KMK 1964, S. 3–4). Also praktisch alle, die noch nicht in Pension oder Rente gegangen sind, stehen ebenso wie die Fremdsprachendidaktik selbst vor der ultimativ noch immer ungelösten Frage, warum so viele trotz jahrelanger Mühen weiterhin gegen Sprachregeln verstoßen, die eigentlich längst beherrscht werden müssten. Wie kann es sein, dass besonders grammatische Phänomene wieder und wieder geübt wurden (nämlich bei der Erstbegegnung mit ihnen in Unter- oder Mittelstufe, oft erneut, bevor es in die Oberstufe ging, manchmal zudem im Nachhilfeunterricht sowie in sprachpraktischer Lehre an der Uni und gegebenenfalls auch im Selbststudium), aber dass sie vielfach noch immer verletzt werden? Welche Gründe gibt es für dieses »Versagen« der Lernenden? Und ist es überhaupt (einzig) ihr Versagen? Oder trug und trägt zum Beispiel auch die Art, wie gelehrt wurde – und wird – zu diesem Problem bei? Warum fällt es einigen leichter als anderen, ihre Fehler irgendwann doch noch abzustellen? Gibt es auch für die anderen noch Hoffnung? Und wenn ja, was müsste man dann wie ändern? Konsultiert man die einschlägige Literatur, so stößt man sowohl dazu, was ein fremdsprachlicher Fehler ist beziehungsweise was als solcher gelten soll, als auch in Bezug auf den empfohlenen Umgang damit auf unterschiedliche Thesen.

Fremdsprachliche Fehler in Schule und Hochschule am Beispiel des Englischen

127

Zunächst besteht zumindest weitgehend Einigkeit darüber, dass als Richtschnur gelten soll, dass eine semantische, phonologische, morphologische oder syntaktische Norm verletzt wurde – das heißt, dass etwas nicht korrekt bezeichnet wurde, dass es nicht normgerecht gelautet wurde, dass eine Form nicht zutreffend gebildet wurde (z. B. *inhelpful statt unhelpful) oder dass Satzteile nicht zueinander passen, weil Flexionsregeln verletzt oder Konventionen zur Bildung bestimmter Satzarten ignoriert wurden (z. B. die Fragebildung mit einer Form von do). Dabei findet sich oft eine mindestens implizite Gleichsetzung von »Regel« mit »Norm« im Sinne einer Konvention der Mitglieder einer Sprachgemeinschaft darüber, was in ihrer Sprache zulässig ist oder auch nicht. Schon dieser augenscheinlich plausible Ansatz stößt aber unter anderem deshalb bald an seine Grenzen, weil viele Sprachen keineswegs so einheitlich und homogen sind, wie man glauben mag, sondern diverse Varietäten miteinander vereinen, für die auch teils erheblich voneinander abweichende Normen gelten (darunter als eines der prominentesten Beispiele britisches versus amerikanisches Englisch). Es kommt hinzu, dass vielfach gesprochen (noch) als akzeptabel hingenommen wird, was in der Schriftsprache als nicht (mehr) hinnehmbar gilt. Zudem gibt es teils erhebliche Probleme bei der Identifikation der je spezifischen Ursache(n) bestimmter Regelverletzungen, hinsichtlich der Bestimmung des Ausmaßes, in dem eine Regel verletzt wurde, und bezüglich der (angemessenen) Sanktion(en) zur Ahndung sprachlicher Normübertretungen. War ein sprachlicher Fehler zumindest potenziell selbst korrigierbar, so betrachtete man ihn unter Rückgriff auf die Terminologie von S. Pit Corder lange als mistake, das heißt als eine Art »Ausrutscher«, was auch in englischsprachigen Verweisen auf solche Verstöße als slip of the tongue beziehungsweise slip of the pen zum Ausdruck kommt. Einer Selbstkorrektur nicht zugängliche und folglich unterstelltermaßen systematische Normverletzungen wurden hingegen als error betrachtet (vgl. z. B. Corder 1967, S. 167). Hatte man erfolgreich zwischen augenscheinlich nur auf schlechte Performanz zurückzuführenden versus fehlender Kompetenz zuzuschreibenden Normverstößen differenziert, so galt es im Kontext dieses Ansatzes nur noch zu entscheiden, welches Nacharbeiten bei welchem error das beste sei. Zum einen, da sich viele Fehler trotz Korrektur, (nochmaligem) Regelstudium und Üben nicht abstellen ließen, und zum anderen, weil immer klarer wurde, dass die Ursachen für viele Fehler wohl tiefer sitzen und vielfältiger sind als vermutet, kann Corders ursprüngliche Dichotomie, wie er auch bald selbst schrieb (vgl. Corder 1972), heute jedoch nur noch zur ersten groben Orientierung dienen. Wie sich zeigte, lässt sich nämlich zum einen eine ganze Reihe potenzieller Ursachen für Fehler ermitteln, von denen viele inzwischen sogar als wichtiger Teil des Lernprozesses betrachtet werden. Zum anderen ist es nahezu unmöglich, Fehler mit hinreichender Sicherheit auf genau

128

Markus Kötter

einen einzigen Grund zurückzuführen. Zu den typischen Fehlerquellen zählt die moderne Fremdsprachendidaktik (vgl. u. a. James 1998) die Folgenden: – Interferenz, das heißt das gegenseitige Sich-Beeinflussen von Sprachen. Bei Einzelpersonen äußert sich dies im sogenannten Transfer, das heißt dem Übertragen von Wörtern oder Strukturen aus einer Sprache in eine andere. Dabei wird oft zwischen positivem und negativem Transfer unterschieden: Im ersten Fall stimmen die Regeln tatsächlich überein, im zweiten Fall führt das Übertragen hingegen zu Fehlern; – Übergeneralisierung (overgeneralisation), das heißt die Ausweitung der Geltung einer Regel auf Bereiche, für welche diese gar nicht gilt; – Backsliding, das heißt das »Zurückrutschen« oder die Rückkehr hinter einen augenscheinlich bereits erreichten fortgeschritteneren (Er)Kenntnisstand; – Fossilisierung (fossilization), das heißt die »Versteinerung« zielsprachenkonformer ebenso wie falscher Annahmen über die Zielsprache, die sich mutmaßlich mit der Zeit so verfestigt haben, dass sie nur mit größter Mühe oder gar nicht mehr revidiert werden können. Gewissermaßen quer hierzu liegt, ob ein Fehler etwas betrifft, das bereits im Unterricht erarbeitet und daher bekannt sein sollte, oder ob es um Verstöße geht, die gleichsam auf unverschuldet fehlender Regelkenntnis basieren. Zugleich versuchen besonders Anhänger der von Pienemann (1989) aufgestellten Lehrbarkeitshypothese (teachability hypothesis) mit einzubeziehen, ob ihr jeweils erreichter Lernstand es Lernenden überhaupt schon erlaubt, jene Regel(n), die sie verletzt haben, so zu verarbeiten, dass sie diese erfolgreich anwenden können – und damit auch, ob es Sinn ergibt, diese Regel(n) bereits jetzt zu lehren. Drittens kann es, was seit der Einleitung gar mehr nicht zur Sprache kam, aber auch sein, dass Fehler überhaupt nicht aufgrund fehlender Kompetenz oder aus Unkenntnis begangen wurden, sondern absichtsvoll gemacht werden. Dies kann der Fall sein, wenn jemand bewusst mit Sprache spielt und dabei unter anderem ihre semantischen Grenzen auslotet, aber auch, wenn sie oder er herauszufinden versucht, ob etwas selbst in dieser Form noch verständlich und/oder akzeptabel ist, wenn momentan schlicht die passenden Worte fehlen oder auch, wenn etwas trotz dazu noch fehlender Möglichkeiten versprachlicht werden soll oder muss. Dabei hat jeder dieser Faktoren nicht nur einen zumindest mittelbaren (potenziellen) Einfluss darauf, wie man Lernende dabei unterstützen kann, bestimmte Fehler künftig zu vermeiden. Vielmehr berühren diese Zuordnungen beziehungsweise deren Ergebnisse mindestens theoretisch auch die Bewertung der Schwere des Verstoßes, während überdies zumindest schulisches Fremdsprachenlehren und -lernen insbesondere in Testsituationen den Lehrkräften bei jedem erkannten Normverstoß eine eindeutige Zuschreibung dessen zu exakt einer Sprachebene abverlangt. Zwar sind sowohl aus den aktuellen Kernlern-

Fremdsprachliche Fehler in Schule und Hochschule am Beispiel des Englischen

129

plänen (KLP) für das Fach Englisch für die Sekundarstufe I als auch für die Oberstufe (vgl. z. B. MSJK NRW 2004 sowie MSW NRW 2014) nicht nur die in den Vorgängerdokumenten noch enthaltenen Listen der zu nutzenden Korrekturzeichen verschwunden (vgl. KM NRW 1993, S. 174 bzw. MSWWF NRW 1999, S. 99), sondern auch Vorgaben dazu, was als »halbe« und was als »ganze Fehlereinheit« (vgl. KM NRW 1993, S. 174 bzw. MSWWF NRW 1999, S. 99) gilt. Das bedeutet aber natürlich nicht, dass damit auch die auf ihnen fußende Praxis erloschen wäre. Vielmehr liegt es bis auf die Abiturprüfung, für die auf den Seiten des Schulministeriums NRW seit 2015 wieder ein eigenes diesbezügliches Dokument abrufbar ist (vgl. MSW NRW 2015), seitdem schlicht im Ermessen einzelner Lehrkräfte beziehungsweise Fachkonferenzen, was wie sanktioniert wird – was zumindest nach meiner Überzeugung nicht unbedingt ein Fortschritt ist.

2.

Eine kurze Geschichte des Umgangs mit Fehlern in der Englischdidaktik

Wer vor etwa einhundert Jahren korrektes Englisch produzieren wollte, der oder dem standen als Ratgeber ebenso wie heute eigens für diesen Zweck verfasste Anleitungen mit Beispielen zum Gebrauch der Sprache zur Verfügung. Im Bereich der Stilistik erläuterte zum Beispiel Henry Watson Fowlers zuerst 1926 erschienenes Dictionary of Modern English Usage mit in weiten Kreisen anerkannter Verbindlichkeit, wie etwas im britischen Englisch formuliert zu sein hat (wobei die Urteile spätestens über die in den 1990er Jahren erfolgte Aktualisierung dieses Klassikers allerdings nicht nur im Rezensionsbereich von Amazon sehr gemischt ausfallen). Speziell die Aussprache in den Blick nahm Alfred Charles Gimsons 1962 vorgelegte Introduction to the Pronunciation of English, die noch in meinem Studium unverzichtbare Basis des zwingend zu bestehenden Phonetischen Grundkurses war. Nicht zuletzt dank der wachsenden Akzeptanz weiterer Englishes, darunter des (nord)amerikanischen und des kanadischen Englisch, bröckelt die einst unangefochtene Dominanz der britischen Standardvarietät als einziger schulischer Norm nun jedoch schon seit Jahrzehnten. Für die Aussprache heißt dies, dass Austauschschüler und -schülerinnen inzwischen deutlich weniger Sorge haben müssen als früher, dass ihr eventuell erworbener irischer oder nordenglischer Akzent als Mangel gedeutet wird und im Extremfall sogar die Schulnote negativ beeinflusst (vgl. auch Kruse 2016). Auch im Bereich der Schreibung werden speziell Schreibvarianten des nordamerikanischen Englisch wie etwa statt in flavour, behaviour oder neighbour, statt in practise und realise oder auch die Präposition for

130

Markus Kötter

statt of in Wendungen wie typical of something, a good example of something kaum mehr sanktioniert, zumindest dann nicht, wenn ihr Gebrauch konsistent erfolgt. Nicht betroffen von dieser Lockerung der Regeln sind jedoch sowohl die Ebene der Wortwahl als auch jene der syntaktischen Korrektheit. Hier herrscht weiterhin eine große Vielfalt der Meinungen wie auch der auf ihnen basierenden Praxis; und dies liegt zu einem nicht geringen Teil daran, dass auch die Fachdidaktik sich noch immer keineswegs darüber einig ist, wie man am besten mit Fehlern umgehen sollte. Sich normal entwickelnde Kinder haben ihre Herkunftssprache bis spätestens zum fünften Lebensjahr so weit erworben, dass ihre Äußerungen nur noch sehr selten Verstöße im Bereich der Syntax aufweisen (vgl. Szagun 2013), im Deutschen etwa schwach flektierte Formen stark zu beugender Verben wie *werfte (statt warf), und dass auch auf der Bedeutungsebene Normabweichungen in der Regel auf Unkenntnis weniger frequenter Wörter statt auf andere Defizite zurückzuführen sind. Diese erstaunliche Leistung erklärt die Fachwelt damit, dass Kinder aus den sie umgebenden Sprachdaten und den an sie adressierten – oft gerade in den ersten Jahren gegenüber dem, wie mit Erwachsenen kommuniziert wird, vereinfachten – Äußerungen unbewusst die für ihre Herkunftssprache geltenden Parameter herausfiltern, sie als Reaktion auf positive Rückmeldungen anderer zu ihren eigenen Sprachhandlungen konsolidieren und darauf aufbauend internalisieren und automatisieren. Dieser durch das als Eintauchen beziehungsweise Immersion in eine Fülle von verständlichen und damit weitere Verarbeitungsprozesse auslösenden Sprachdaten bezeichnete Prozess funktioniert unter günstigen Bedingungen, das heißt vor allem bei einem quantitativ hohen und qualitativ hochwertigen Input, nicht nur hinsichtlich der Erstsprache, sondern – bei mehrsprachigen Familien beziehungsweise Lebenswelten – auch bezüglich des Erwerbs einer zweiten und sogar einer dritten Sprache. Selbst Erwachsene machen im Rahmen eines längeren Auslandsaufenthaltes oft noch bemerkenswerte Fortschritte. Allerdings sind dieser Entwicklung auch Grenzen gesetzt. Bereits Grundschulkindern müssen fremde Laute bewusst üben, um sie korrekt produzieren zu können (vgl. Piske 2010). Nur darauf zu setzen, dass sie ihre Vorbilder schon von selbst gut genug imitieren werden, reicht hier ebenso wenig aus, wie neben dem Faktor Alter beim Sprachenlernen immer auch weitere Aspekte eine Rolle spielen, darunter in individuell jeweils unterschiedlichem Umfang Motivation, Persönlichkeit und Sprachlerneignung (vgl. Skehan 1991). Das bedeutet für die Fremdsprachendidaktik, dass sie zum einen dafür sorgen muss, dass ausreichend verständliche Sprachdaten (comprehensible input) verfügbar sind, um Lernprozesse überhaupt anzustoßen. Zugleich müssen die Lernenden reichlich Gelegenheit dazu erhalten, Sprache selbst zu erproben und so als zum Erreichen kommunikativer Ziele erfolgreich anwendbar zu erfahren.

Fremdsprachliche Fehler in Schule und Hochschule am Beispiel des Englischen

131

Eine – authentischer Kommunikation vorgelagerte – Maßnahme auf diesem Weg ist das wiederholte Üben von Sätzen und Strukturen in leicht korrigierbaren und daher meist geschlossenen Formaten. Nachhaltiges Lernen erfolgt oft jedoch erst, wenn im Anschluss comprehensible output als Beitrag zu verschiedensten Diskursen produziert werden muss. Diese eigenen Äußerungen Lernender sind nur vergleichsweise selten fehlerfrei. Aus genau diesen Fehlern lässt sich, wie schon Corder in seinem epochalen Aufsatz über The significance of learner errors von 1967 erkannt hat, aber zum einen am meisten für die Zukunft lernen. Zum anderen beginnen oft erst mit diesen Fehlern die bewusste Auseinandersetzung mit den Regeln einer Sprache und vor allem auch die Überarbeitung und Verbesserung diesbezüglich zunächst aufgestellter Eigenregeln. Glaubte man noch bis in die späten 1960er Jahre fast überall, dass die erfolgreiche Aneignung einer Fremdsprache vor allem eine Frage des imitationsbasierten Übens von Strukturen durch Drill sei, so postulierten Corder und seine Kollegen William Nemser und Larry Selinker Anfang der 1970er beinahe zeitgleich, jedoch unabhängig voneinander, dass im Zentrum fremdsprachendidaktischer Arbeit gar nicht die Zielsprache stehen sollte, sondern die sich dank unterschiedlicher Einflüsse je individuell entwickelnden Lernersprachen. Wer eine Fremdsprache lernt, die oder der nähert sich in der Logik Corders und seiner Zeitgenossen ihrer Beherrschung schrittweise an. Auf diesem Weg entwickelt jede und jeder sich stetig verändernde eigene »idiosyncratic dialects« (Corder 1971), »approximate systems« (Nemser 1971) beziehungsweise »interlanguages« (Selinker 1972), das heißt Zwischensprachen – mit dem Clou, dass diese Zwischensprachen trotz ihres Status als noch unfertige Annäherungen an die Zielnorm zumindest für die Lernenden selbst weitgehend logische eigene Sprachen sind. Zwar strotzt, was in dieser Phase frei produziert wird, aus der Perspektive der Zielnorm betrachtet häufig geradezu von Fehlern. Trotzdem ist es nicht nur ein defizitäres Abbild der Zielsprache, sondern auch ein das individuelle Entwicklungspotenzial und die dazu nötigen nächsten Schritte aufzeigendes recht kohärentes System; und genau hierdurch gewinnen die Fehler, die diese Interimsprachen aufweisen, nicht nur für Corder, sondern auch für die gesamte moderne Fremdsprachendidaktik ihre fortdauernde positive Relevanz. Versteht man Fremdsprachenlernen als das Sich-Verbessern von einer Interimsprache zur nächsten, an deren Ende idealtypisch die komplette Beherrschung aller Zielnormen steht, so sind die Fehler, welche Lernende auf diesem Weg produzieren, nicht nur für Corder in dreifacher Hinsicht von Bedeutung: Entwicklungsbedingte Fehler zeigen erstens Lernenden und zweitens der Lehrkraft, wo noch Verbesserungsbedarf besteht. Drittens helfen sie, auch wenn diese Hoffnung sich nur bedingt erfüllt hat, der Wissenschaft, besser zu verstehen, wie Sprachlernprozesse gestaltet werden sollten, um fehlerbehaftete Zwischenstufen möglichst von Vorneherein zu minimieren. Corder (1974, S. 53) bilanzierte

132

Markus Kötter

nämlich bereits Mitte der 1970er Jahre, dass das Studium der Interimsprachen Lernenden zwar Einblicke in ihren Sprachgebrauch gewähre, dass der Grund, warum jemand einen bestimmten Fehler mache, damit aber kaum leichter zu ermitteln sei. Zum einen bleibt nämlich das (sprachliche) Wissen der betreffenden Person ja noch genauso unbekannt wie zuvor, weil ihre vorhandene Kompetenz sich immer nur ausschnittsweise in ihrer Performanz manifestiert. Zum anderen unterliegt Performanz stets diversen potenziellen störenden Einflüssen wie etwa der physikalischen Umgebung oder auch Müdigkeit, Krankheit oder aus sonstigen Gründen abnehmender Aufmerksamkeit, die mit der Sprache selbst nur noch höchstens mittelbar zu tun haben. Schließt man sich diesen Überlegungen an, so sind fremdsprachliche Fehler noch immer etwas, das man nach Möglichkeit vermeiden sollte. Auf dem Weg zu wachsender Kompetenz, um dieses Ziel zu erreichen, sind sie jedoch etwas Positives. Sie zeigen zumindest solange, wie Lernende weiterhin dazu bereit sind, an ihrem Verschwinden zu arbeiten, wo (unter anderem) Lernbedarf besteht. Aber da die Interimsprachen der Mitglieder einer Lerngruppe sich alle mehr oder minder stark voneinander unterscheiden, benötigen Lernende folglich erstens auch teils recht unterschiedliche Materialien und Hilfestellungen, um ihre Fehler künftig zu reduzieren. Zweitens ist nach wie vor offen, ob und, wenn ja, wie Fehler auf dem Weg zu verbesserter fremdsprachlicher Kompetenz sanktioniert werden sollten: Sollte man unterschiedliche Arten von Fehlern abhängig davon, worauf im Unterricht zuletzt das Hauptaugenmerk lag, auch unterschiedlich hart bestrafen? Sollte man immer wieder auftretende Fehler, die Lernende eigentlich abgestellt haben sollten, strenger sanktionieren als fehlerhaft produzierte sprachliche Phänomene, die noch nicht genauso häufig geübt wurden? Sollte man eventuell gar eine je individuelle Komponente in die Fehlerbewertung aufnehmen, um so auch reaktiv deutlich zu machen, dass – und welche präzisen – Fortschritte angezeigt sind, wenn es mit der erreichten Note aufwärts gehen soll? Ein Modell, das viele der benannten Probleme zu vermeiden oder zumindest besser handhabbar zu machen verspricht, weil es nach Angaben seiner Entwickler dabei hilft, den Sprachstand Lernender erheblich präziser und umfassender bestimmen zu können als Lehrkräfte dies oft intuitiv und meist nur anhand einzelner Normverstöße leisten können, ist die Processability Theory (PT). Ausgehend von ebenfalls bereits in den 1970ern begonnener Forschung dazu, ob Kinder mit Englisch als Erstsprache bestimmte grammatische Phänomene lernerunabhängig in einer weitgehend identischen Abfolge erwerben (vgl. Brown 1973), was sich immerhin für das beobachtete knappe Dutzend an Strukturen auch als zutreffend erwies, untersuchten Manfred Pienemann und andere im ZISA Projekt zum Zweitsprachenerwerb italienischer und spanischer Arbeiter (vgl. Clahsen/Meisel/Pienemann 1983) zunächst, ob dies auch für den

Fremdsprachliche Fehler in Schule und Hochschule am Beispiel des Englischen

133

Zweitsprachenerwerb anderer Sprachen und auch bei älteren Lernenden zutraf. Später legte Pienemann mit der schon genannten Lehrbarkeitshypothese sowie mit der PT ein Modell vor, aufgrund dessen sowie mithilfe eines in wenigen Minuten zu erstellenden Rapid Profile zum einen exakt bestimmt werden könne, welche von insgesamt sechs Stufen grammatischer Kompetenz Englisch-Lernende aktuell erreicht haben und zum anderen, welche genauen grammatischen Phänomene die Personen als nächstens angehen müssen, um die nächsthöhere Stufe zu erreichen (vgl. u. a. Pienemann/Keßler 2011). Glaubt man diesen beiden und ihren Mitstreitern, so lässt sich mithilfe der PT nicht nur das Lehren und Lernen grammatischer Strukturen im Englischunterricht deutlich effektiver gestalten als das aktuell der Fall ist (vgl. dazu den folgenden Abschnitt). Dank einer psycholinguistisch begründeten Progression bei der Vermittlung von Grammatik lässt sich sowohl auf Seiten Lehrender als auch Lernender zumindest theoretisch einiges an Frustration verhindern. Warum die Erkenntnisse der PT trotz dieses Versprechens bislang praktisch keinerlei Eingang in die schulische Praxis gefunden haben, erklärte Michael Long, einer der weltweit profiliertesten Fremdsprachenforscher, in seinem Plenarvortrag auf dem 27. Kongress der Deutschen Gesellschaft für Fremdsprachenforschung (DGFF) 2017 in Jena damit, dass die Verantwortlichen der großen Schulbuchverlage entweder keine Ahnung oder Angst vor Veränderung hätten, weil sie glaubten, dass sich PT-konform konzipierte Lehrwerke nicht am Markt durchsetzen ließen. Allerdings ist bei allem Enthusiasmus für die PT auch zu bedenken, dass ihre Verfechter zwar interessante kleinere Studien zu ihrer Wirksamkeit vorgelegt haben (vgl. Keßler/Lenzig/Liebner 2016). Doch weder gibt es bislang eine Langzeitstudie, mit der empirisch belegt wird, dass ein auf der PT beruhender Sprachlehrgang langfristig zu besseren Leistungen im Bereich Grammatik führt als ein auf traditionell konzipierten Lehr- und Lernmaterialien fußendes Vorgehen, noch haben die Verfechter der PT bislang schlüssig dargelegt, was mit all jenen grammatischen Phänomenen passieren soll, die nicht von der PT erfasst werden, das heißt wie diese in das Korsett der PT integriert werden können, sollen oder gar müssen. Das heißt natürlich nicht, dass der PT nicht irgendwann ein breit(er) empirisch fundierter Durchbruch zuzutrauen ist. Doch bis jetzt steht dieser Beweis ebenso weiterhin aus wie gesicherte Informationen dazu, welche Fehler mit der PT mittel- und langfristig in welchem Ausmaß vermieden werden können.

134

3.

Markus Kötter

Fremdsprachliche Fehler im schulischen Fremdsprachenunterricht

Wird schulischer Englischunterricht auf der Basis eines Lehrwerk(verbund)es erteilt, so folgt dieser auch nach der Einführung des Englischunterrichts in der Grundschule weiterhin fast immer einer seit Jahrzehnten praktisch unveränderten Progression. In den Schuljahren 5 bis 8 beziehungsweise 9 werden den Schülerinnen und Schülern peu / peu die zentralen grammatischen Phänomene näher gebracht. Dabei ist ihre Abfolge über die Lehrwerke hinweg dermaßen gleich, dass Lehrkräfte oft schon nach wenigen Jahren im Schuldienst auswendig benennen können, was wann »dran« ist. Gegen Ende der Mittelstufe und in der Oberstufe wird dieser Erstlehrgang in Syntax durch eine stärker auf Textarbeit und das Kennenlernen diverser Textsorten ausgerichtete Praxis abgelöst, in deren Rahmen die Beschäftigung mit Grammatik im Unterricht zunehmend in den Hintergrund rückt. Trotz dieser scheinbaren Abkehr von einem starken Fokus auf Sprachrichtigkeit hin zu offeneren Aufgabenstellungen – so etwa der Kernlehrplan für den Englischunterricht am Gymnasium im Rahmen von G8, in dem es heißt: »Der Anteil offener Aufgaben steigt im Laufe der Lernzeit, er überwiegt in den Jahrgangstufen 8 und 9« (MSW 2007, S. 47) – und einer vermehrten Berücksichtigung (auch) inhaltlicher Aspekte der Leistungen der Lernenden im Laufe der Schulzeit bleibt an vielen Schulen das relative Verhältnis zwischen inhaltlicher und sprachlicher Leistung aber konstant bei ziemlich genau 2 : 3. Zwar steht im aktuellen Kernlehrplan für den Englischunterricht am Gymnasium für einen 8jährigen Lehrgang, dass in Klassenarbeiten »[b]ei der Notenbildung für offene Aufgaben […] der sprachlichen Leistung in der Regel ein etwas höheres Gewicht zu[komme] als der inhaltlichen Leistung« (MSW NRW 2007, S. 47, meine Hervorhebung). Sowohl der Kernlehrplan für Englisch in der Oberstufe als auch das seit 2017 für schriftliche Abiturprüfungen in der Fremdsprache gültige Raster zur Bewertung inhaltlicher Leistungen im Verhältnis zur sprachlichen Leistung und der Darstellungsleistung nennen als Richtschnur jedoch explizit das Verhältnis von 40 : 60 (MSW NRW 2014, S. 56; 2017, S. 1). Dabei entfallen von insgesamt 90 Punkten für Letzteres je 30 auf die »kommunikative Textgestaltung«, auf »Ausdrucksvermögen/Verfügbarkeit sprachlicher Mittel« und auf »Sprachrichtigkeit« im engeren Sinne, wobei dem Wortschatz anders als noch bis 2016 anteilig eine geringfügig höhere Bedeutung beigemessen wird als der Grammatik und korrekter Orthografie. Viele Skeptiker sehen in dieser erneuten Absenkung der Kriterien für den Bereich Sprachrichtigkeit einen planvollen weiteren Schritt der Landesregierung in Nordrhein-Westfalen, es Lehrkräften nahezu unmöglich zu machen, Abitur-

Fremdsprachliche Fehler in Schule und Hochschule am Beispiel des Englischen

135

klausuren im Fach Englisch schlechter als »ausreichend« zu bewerten (vgl. MSW NRW 2006, S. 6), nachdem 2007 bereits der sogenannte Fehlerquotient und damit die Bedingung abgeschafft wurde, pro 100 Wörter maximal 5,9 Fehlerpunkte sammeln zu dürfen, um noch immerhin einen von 30 möglichen Punkten zu erhalten. Betrachtet man die Prozesse aber in ihrer Gesamtheit, so lässt sich das, was sich nun in den Lehrplänen niederschlägt, schlicht als konsequentes Aufgreifen fachdidaktischer Entwicklungen jetzt auch auf Behördenseite interpretieren: Bereits Mitte der 1970er Jahre, auf breiterer Front spätestens zu Beginn der 1980er Jahre, begann im Zuge der sogenannten kommunikativen Wende mit Slogans wie »fluency first« beziehungsweise »fluency before accuracy« eine Erosion der Bedeutung von Fehlern im Fremdsprachenunterricht, die zwar mit dem »focus on form(s)« in den 1990er Jahren eine leichte Gegenbewegung erfuhr (vgl. Doughty/Williams 1998). Zugleich immer stärker an Momentum gewinnende Prozesse wie die Kompetenzorientierung und besonders das Erscheinen des Gemeinsamen Europäischen Referenzrahmens für Sprachen (GER; Europarat 2001) mit seinen Can do-Deskriptoren kurz nach der Jahrtausendwende sorgten jedoch nicht nur in Deutschland dafür, dass vor allem stärker darauf geachtet wurde, was jemand mit Sprache kommunikativ leisten kann, als darauf, welche (fremd)sprachlichen Fehler sie oder er dabei begeht. Keine direkte Folge dieser Entwicklungen, da zu ihrer Entstehung auch unter anderem der PISA-Schock beigetragen hatte, aber eines der ersten staatlich verantworteten Dokumente mit unmittelbaren Folgen für den Fremdsprachenunterricht auf Bundesebene waren die Bildungsstandards (KMK 2004; 2013), die sowohl der Wortschatzarbeit als auch der Grammatikarbeit im Verhältnis zu den sprachlichen Grundfertigkeiten Hören, Sprechen, Lesen und Schreiben nur noch eine »dienende Funktion« (KMK 2004, S. 14; 2012, S. 13) zuschrieben. Doch auch auf Lehrplanebene tat sich einiges. Fand sich »Fehler« einschließlich seiner Komposita wie fehlerhaft, Orthographiefehler oder Fehlerliste in den Richtlinien für den Englischunterricht am Gymnasium auf der Sekundarstufe I von 1993 nämlich noch nicht weniger als 61 Mal (KM NRW 1993), so enthält der sie ersetzende Kernlehrplan von 2007 ohne die im Anhang beigegebenen Auszüge aus dem GER dergleichen nur noch exakt 6 Mal. Hierzu zählen der Verweis auf einen »behutsame[n] Umgang mit Fehlern« als Unterrichtsprinzip (MSW NRW 2007, S. 20) sowie für den Bereich Grammatik am Ende von Klasse 8 folgender Anspruch: »Zwar kommen noch elementare Fehler vor, aber es wird deutlich, was ausgedrückt werden soll.« (MSW NRW 2007, S. 33) Anderswo ist zudem zu lesen, dass die Lernenden – ebenfalls am Ende von Klasse 8 – im Bereich der Orthografie »eigene Fehlerschwerpunkte erkennen und bearbeiten« können sollen (MSW NRW 2007, S. 33); und für den Bereich Grammatik lautet das Ziel am Ende der Mittelstufe:

136

Markus Kötter

»Die Schülerinnen und Schüler können ein gefestigtes Repertoire häufig verwendeter grammatischer Strukturen einsetzen und haben ein Strukturbewusstsein für die englische Sprache entwickelt. Zwar kommen Fehler vor, aber es bleibt klar, was ausgedrückt werden soll.« (MSW NRW 2007, S. 40)

Um diese Vorgaben zu erreichen, stehen Lehrenden wie Lernenden unterschiedliche Hilfsmittel zur Verfügung. Neben Lexika und heute in der Regel in die Schülerbücher integrierten Grammatiken oder Grammar Files helfen vor allem Computerprogramme dabei, typische Fehler zu vermeiden: Die rechte Schreibung kann etwa in Microsoft Word durch das Konsultieren von Wörterbüchern beziehungsweise bei der Texterstellung durch das Vermeiden rot unterschlängelter Zeichenketten erreicht werden. In Deklinations- und Flexionsfragen sowie beim Satzbau helfen Grammatiken plus, bis alle Fehler auf diesem Gebiet behoben sind, in Word grüne Unterstriche weiter. Bei der Zeichensetzung ist oftmals eine erheblich freiere Variation erlaubt als noch vor wenigen Jahren, wie sich nicht nur an liberaleren Kommaregeln ablesen lässt, sondern auch an immer öfter beobachtbaren reduplizierten Satzzeichen oder gleich deren vollständiger Ersetzung durch Icons. Hinsichtlich der Bedeutung sprachlicher Zeichen ist wiederum in den Augen vieler im Lexikon hinreichend festgehalten, worauf mit den dort erläuterten und häufig sogar genau definierten Einträgen fehlerfrei Bezug genommen werden kann. Wie naiv solch eine Sichtweise ist, erläutert jedoch unter anderem Hennig (2012): Erstens werden sprachliche Fehler nie isoliert, das heißt kontextunabhängig begangen. Zweitens wird die Spracherkennung zwar immer besser. Doch längst nicht alles, was Microsoft für einen Fehler hält, und erst recht nicht alles, was Lehrende als »Fehler« ansehen, entpuppt sich bei näherer Betrachtung aber tatsächlich als solcher, sondern es ist häufiger, als man meint, nur eine »Abweichung« (Hennig 2012, S. 124) von den Erwartungen der Lehrkraft, wobei auch Faktoren wie Sprachgefühl eine Rolle spielen können. Drittens, und das scheint mir zentral sein, ist die Passung zwischen der tradierten Annotation und Klassifikation von Fehlern und aktuellen fachdidaktischen sowie sprachwissenschaftlichen Einsichten längst nicht so hoch, wie es scheinen mag, ein Punkt, auf den ich am Schluss meines Beitrags noch einmal zu sprechen komme. Hennig bilanziert: »Das Fehlen eines Regelwerks zur Fehlerkorrektur und -klassifikation lässt darauf schließen, dass die Fehlertypen tatsächlich auf Tradierung und Konvention beruhen und nicht auf linguistisch und/oder didaktisch motivierten Überlegungen.« (Hennig 2012, S. 139)

Fremdsprachliche Fehler in Schule und Hochschule am Beispiel des Englischen

4.

137

Fremdsprachliche Fehler an der Hochschule

Wer in Nordrhein-Westfalen Englisch studieren möchte, muss dafür zum einen Sprachkenntnisse mindestens auf Niveaustufe B2 des GER (vgl. Europarat 2001) nachweisen. Zum anderen verlangen viele Hochschulen (nicht jedoch die Universität Siegen) von künftigen Studierenden das Erfüllen eines Numerus Clausus, das heißt einen bestimmten Notendurchschnitt am Ende der Schullaufbahn. Beides wird in der Regel über das Abiturzeugnis nachgewiesen. Die Überprüfung, ob jemand wirklich Englisch auf B2-Niveau beherrscht, ist Universitäten in NRW durch das Hochschulgesetz jedoch ausdrücklich untersagt. Was per ordre de Düsseldorf durch Dekret als vorhanden gilt, darf erst frühestens nach dem ersten qualifizierten Studienabschluss, also vor Aufnahme des Masters, auf seine Kongruenz mit der Wirklichkeit hin überprüft werden. Wie problematisch dies ist, liegt auf der Hand: Zwar ist seit Langem bekannt, dass Menschen für unterschiedliche Tätigkeiten unterschiedlich begabt sind. Entsprechend selbstverständlich ist daher, dass man sich vor Beginn einer Ausbildung nicht nur als Ärztin, Pilot oder Raumfahrer, sondern zum Beispiel auch im Handwerk teils umfangreichen Eignungstests unterziehen muss. Wer Englischlehrkraft werden will, darf dagegen auch ohne Eignungsnachweis loslegen. Wobei: Auch ein allgemeiner Numerus Clausus hat natürlich eine stark gegen Null gehende Aussagekraft in Bezug auf eine spezifische Anforderung wie die aktive Beherrschung einer Sprache. Dies hat auf den ersten Blick nur wenig mit dem Thema des Bandes zu tun. Führt man sich aber vor Augen, welche Konsequenzen diese Praxis für Studierende, Lehrende und letztlich die Gesellschaft als Ganzes hat, so ändert sich das Bild. Auch wenn verlässliche Zahlen fehlen, deuten diverse Anekdoten und Berichte von Kolleginnen und Kollegen darauf hin, dass längst nicht alle Englisch zu Studienbeginn tatsächlich in einem Maße beherrschen, das ihnen die problemlose Teilnahme an in der Fremdsprache gelehrten Veranstaltungen, eine aktive Teilnahme am Seminardiskurs und das Abfassen sprachlich mindestens ausreichender Texte erlaubt. Als zentrale Fehlerquelle (und damit sind wir zurück beim eigentlichen Thema) akzeptieren gerade leistungsschwächere Studierende oft aber nicht etwa eigene Schwächen, sondern es werden vorgeblich zu hohe Anforderungen Lehrender im Verbund mit deren unterstellter fehlender Bereitschaft angeführt, sich auf die Studierenden adäquat einzustellen beziehungsweise einzulassen. Der weitaus überwiegende Teil unserer Studierenden hat hier, soviel ist klar, keine Probleme. Trotz des Besuchs von einem halben Dutzend sprachpraktischen Seminaren im Verlauf des Studiums und Englisch als Sprache der Wahl auch in den übrigen Veranstaltungen verharrt die Englischkompetenz vieler Studierender allerdings typischerweise auf dem bereits zu Beginn des Studiums

138

Markus Kötter

erreichten Niveau – und daran ändert auch der verpflichtende Auslandsaufenthalt meist nur dann etwas, wenn er die für angehende Lehrkräfte vorgeschriebene Mindestdauer von 3 Monaten (vgl. das LABG von 2009, § 11, Abs. 7) substanziell übertrifft; wobei ergänzend angemerkt sei, dass dessen Dauer bis 2009 für Lehrämter auch noch »mindestens ein Studiensemester oder ein Halbjahrespraktikum« (LPO von 2003, § 43, Abs. 2), also 6 Monate betrug und somit ebenso wie der Umgang mit Fehlern in der schriftlichen Abiturprüfung kaum zu einer Erhöhung der (Eingangs)Standards geführt haben dürfte. Alle drei bislang gegebenen Hinweise, jener auf das Fehlen zuverlässiger Eingangskontrollen bezüglich der Englisch-Kompetenz künftiger Studierender, jener auf gelegentlichen Streit darüber zwischen Lehrenden und Lernenden sowie drittens der Hinweis auf die fortwährende Schleifung von Maßnahmen, um sicher(er) zu stellen, dass Studierende Englisch zumindest am Ende ihres Studiums wirklich gut beherrschen, könnten als wohlfeiles Einstimmen in bekannte Klagen (miss)gedeutet werden. Gerade im Hinblick auf das Thema »Fehler« geht es mir jedoch um etwas ganz anderes: Sollen sprachliche Fehler im obigen Sinne als Lerngelegenheiten dienen (können), so bedarf es nicht nur auf Seiten der Lernenden, sondern auch der Lehrkräfte bestimmter Mindestanforderungen. Um Fehler produktiv zu nutzen, müssen sie adäquat korrigiert werden (können). Damit dies möglich wird, müssen sie aber auch überhaupt erst einmal als solche erkannt werden. Und für beides braucht es zwingend Lehrkräfte, welche die von ihnen vermittelte(n) Sprache(n) nicht nur auf allen Ebenen mindestens auf dem Niveau C1 des GER beherrschen. Alle Lehrkräfte müssen theoretisch ebenso wie praktisch dazu fähig sein, Fehler ihrer Schülerinnen und Schüler zum einen dokumentieren und zum anderen analysieren zu können, was eine extrem solide Ausbildung unverzichtbar macht. Denkt man dies zu Ende, so müsste man eigentlich von sämtlichen angehenden ReferendarInnen aktuelle Nachweise ihrer Fremdsprachenkompetenz nach dem Studium verlangen und ihnen ohne zertifiziertes solides C1 Niveau als Mindestqualifikation die Aufnahme in den Vorbereitungsdienst verweigern. Doch auch die Universitäten müssen ihren Beitrag dazu leisten, dass nicht nur angehende Lehrkräfte, sondern alle AbsolventInnen dies auch erreichen können. Dazu ist es zum einen nötig, so oft – und so klar – wie möglich auch im universitären Austausch Lerngelegenheiten zur künftigen Vermeidung von Fehlern zu schaffen. Zum anderen bedarf es einer konstruktiven Fehlerkultur, das heißt einer Lernatmosphäre, in der zumindest unabsichtlich begangene Fehler als produktiver Teil von Arbeits- und Aushandlungsprozessen nicht nur akzeptiert, sondern auch als Chance zum Einüben positiven didaktischen Handelns gesehen werden. Dazu zwei Beispiele:

Fremdsprachliche Fehler in Schule und Hochschule am Beispiel des Englischen

139

Sollen Studierende nach der Hochschule produktiv mit sprachlichen Fehlern umgehen, so sollte man ihnen dies besonders in Prüfungssituationen vorleben und auch mit ihnen einüben. Dazu gehört ebenso eine ehrliche und konstruktive Auskunft über das Zustandekommen einer Note einschließlich Informationen darüber, inwieweit die (fremd)sprachliche Kompetenz hierzu beigetragen hat, wie eine Positivkorrektur zumindest der gröbsten sprachlichen Verstöße. Auch vor einer Prüfung kann der Umgang mit Fehlern aber häufig noch verbessert werden. Zwar gibt es inzwischen fast überall die sogenannte Standardorientierung. Diese erfolgt häufig aber nur auf der Basis unzureichend formulierter Standards. Somit besteht ein weiteres Desideratum darin, ähnlich wie es auch Lehrkräfte in der Schule praktizieren (müssen), mit Erwartungshorizonten zu arbeiten, das heißt, die verlangten Standards vorab zu operationalisieren und sie später wirklich zur zentralen Bewertungsgrundlage zu machen. Zwar können auch Erwartungshorizonte unterschiedlich interpretiert werden. Als ich etwa im Referendariat mit zehn weiteren angehenden Lehrkräften zu Übungszwecken die besagte Probeklausur (MSW NRW 2006) korrigiert habe, bewerteten ausnahmslos alle von uns sie mindestens eine ganze Schulnote schlechter als die vom Ministerium aufgrund seines Erwartungshorizonts vorgeschlagene Beispielkorrektur. Werden aber Fehler (wie natürlich auch individuelle Stärken) kriterienorientiert beurteilt, so erhöht dies unmittelbar die intersubjektive Nachvollziehbarkeit einer Bewertung. Doch was gilt denn nun als Fehler? Hier könnte mein zweites Beispiel für mehr Klarheit sorgen. Geht es am Anfang des Sprachlernprozesses oft um das Verstehen und Internalisieren von Regeln, so fallen mit steigender Kompetenz auch immer mehr Fragen zu Grenzfällen und Ausnahmen von Normen an. Damit kommt ein Werkzeug ins Spiel, dessen sich die Linguistik seit Jahrzehnten bedient, das jedoch erst in jüngster Zeit auch außerhalb dieser Disziplin vermehrt zum Einsatz kommt, nämlich die Arbeit mit Software, die in Sekunden tausende von Texten hinsichtlich der Nutzung einzelner Wörter wie auch komplexer(er) Strukturen auswerten kann. Diese Konkordanzprogramme, auf die schon seit den 1990er Jahren sowohl bei der Erstellung von Lexika (vgl. Kilgarriff 1997) als auch von Grammatiken zurückgegriffen wird, lassen sich mit etwas Training auch Schülerinnen, Schülern und Studierenden so nahebringen, dass sie nutzbringend mit ihnen recherchieren können. Würden solche Hilfsmittel breiter und gegebenenfalls sogar standardmäßig eingesetzt, so erhöhte dies erstens drastisch das Sprach(lern)bewusstsein der betreffenden Personen. Zweitens würden Lernende aktiv(er) sowohl in die Identifikation und Beschreibung von Fehlern als auch deren Vermeidung eingebunden (vgl. Kötter 2017, Kap. 6).

140

5.

Markus Kötter

Fazit

Dass beim Gebrauch einer fremden Sprache Fehler gemacht werden, ist praktisch unvermeidlich. Immerhin einige von ihnen lassen sich jedoch durch entsprechende Maßnahmen vermeiden oder zumindest so reduzieren beziehungsweise uminterpretieren, dass sie einiges von ihrer Schwere verlieren. Ich habe versucht, mit diesem Beitrag einerseits darüber zu informieren, welche Parameter dabei aus der Sicht der Fremdsprachendidaktik allgemein relevant sind (wobei aus Platzgründen natürlich längst nicht alle wichtigen Aspekte umfassend abgehandelt werden konnten). Zum anderen habe ich versucht, durch ausgewählte Schlaglichter Anregungen für weitere Gespräche und Überlegungen zu geben. Ich hoffe, dass mir dies gelungen ist. Konstruktive Rückmeldungen sind jederzeit willkommen!

Literatur Brown, Roger (1973): A First Language: The Early Stages. Cambridge/MA. Clahsen, Harald/Meisel, Jürgen M./Pienemann, Manfred (1983): Deutsch als Zweitsprache. Der Spracherwerb ausländischer Arbeiter. Tübingen. Corder, S. Pit (1967): The Significance of Learners’ Errors. IRAL 5. Repr. in Corder, S. Pit (1981): Error Analysis and Interlanguage. Oxford, S. 5–13. Corder, S. Pit (1971): Idiosyncratic Dialects and Error Analysis. IRAL 9, 147–160. Corder, S. Pit (1972): Die Rolle der Interpretation bei der Untersuchung von Schulfehlern. In: Nickel, Gerhard (Hrsg.), Fehlerkunde. Berlin, S. 38–50. Repr. in englischer Übersetzung als The Role of Interpretation in the Study of Learners’ Errors. In: Corder, S. Pit (1981): Error Analysis and Interlanguage. Oxford, S. 35–44. Corder, S. Pit (1974): Error Analysis and Remedial Teaching. Paper Presented at the First Overseas Conference of the International Association of Teachers of English as a Foreign Language. Budapest. Repr.: Corder, S. P. (1981): Error Analysis and Interlanguage. London, S. 45–55. Doughty, Catherine/Williams, Jessica (Hrsg.) (1998): Focus on Form in Classroom Second Language Acquisition. Cambridge. Europarat (2001): Gemeinsamer europäischer Referenzrahmen für Sprachen. Lernen, lehren, beurteilen. Berlin. Fowler, Henry W. (1926): A Dictionary of Modern English Usage. Oxford. Geißler, Gert (2000): Geschichte des Schulwesens in der Sowjetischen Besatzungszone und in der Deutschen Demokratischen Republik 1945 bis 1962. Frankfurt am Main. Gimson, Alfred C. (1962): An Introduction to the Pronunciation of English. London. Hennig, Mathilde (2012): Was ist ein Grammatikfehler? In: Günthner, Susanne/Imo, Wolfgang/Meer, Dorothee/Schneider, Jan G. (Hrsg.) Kommunikation und Öffentlichkeit: Sprachwissenschaftliche Potenziale zwischen Empirie und Norm. Berlin, S. 121– 148. James, Carl (1998): Errors in Language Learning and Use. Abingdon.

Fremdsprachliche Fehler in Schule und Hochschule am Beispiel des Englischen

141

Keßler, Jörg-Ulrich/Lenzig, Anke/Liebner, Mathias (Hrsg.) (2016): Developing, Modelling and Assessing Second Languages. Amsterdam. Kilgarriff, Adam (1997): Putting Frequencies in the Dictionary. International Journal of Lexicography 10 (2), S. 135–155. (KMK) Sekretariat der ständigen Konferenz der Kultusminister der Länder in der BRD (1964): Abkommen zwischen den Ländern der Bundesrepublik zur Vereinheitlichung auf dem Gebiete des Schulwesens. Hamburg. https://www.kmk.org/themen/allgemeinbilden de-schulen/unterrichtsfaecher/fremdsprachen.html (zuletzt abgerufen am 26. 02. 2019). (KMK) Sekretariat der ständigen Konferenz der Kultusminister der Länder in der BRD (2004): Bildungsstandards für die erste Fremdsprache (Englisch/Französisch) für den Mittleren Schulabschluss. Beschluss vom 4. 12. 2003. München. (KMK) Sekretariat der ständigen Konferenz der Kultusminister der Länder in der BRD (2013): Bildungsstandards für die fortgeführte Fremdsprache (Englisch/Französisch) für die Allgemeine Hochschulreife. Beschluss vom 18. 10. 2012. Köln. (KM NRW) Kultusministerium des Landes NRW (1993): Richtlinien und Lehrpläne für das Gymnasium – Sekundarstufe 1 in Nordrhein-Westfalen. Englisch. Heft 3417. Frechen. Kötter, Markus (2017): Wortschatzarbeit im Fremdsprachenunterricht. Grundlagen und Praxis in Primarstufe und Sekundarstufe I. Seelze. Kruse, Silvie (2016): Diatopische Varietäten im Englischunterricht: Konzepte, Unterrichtspraxis und Perspektiven der Beteiligten in der Sekundarstufe II. Frankfurt am Main. (LABG) Gesetz über die Ausbildung für Lehrämter an öffentlichen Schulen (Lehrerausbildungsgesetz – LABG) Vom 12. Mai 2009. https://www.schulministerium.nrw.de/ docs/Recht/LAusbildung/LABG/LABGNeu.pdf (zuletzt abgerufen am 26. 02. 2019). (LPO) Ordnung der Ersten Staatsprüfungen für Lehrämter an Schulen (Lehramtsprüfungsordnung – LPO –) vom 27. März 2003. https://www.uni-due.de/imperia/md/con tent/katheol/lpo_2003.pdf (zuletzt abgerufen am 26. 02. 2019). Long, Michael (2017): SLA Research and the Improvement of L2 Learning and Teaching. Vortrag gehalten am 30. 09. 2017 auf dem 27. Kongress der Deutschen Gesellschaft für Fremdsprachenforschung (DGFF) in Jena. (MSJK NRW) Ministerium für Schule, Jugend und Kinder des Landes Nordrhein-Westfalen (2004): Kernlehrplan für die Realschule in Nordrhein-Westfalen. Englisch. Heft 3303. Frechen. (MSW NRW) Ministerium für Schule und Weiterbildung des Landes NRW (2006): E GK 2. 12. Mai 2006. Klausur im Kurshalbjahr 12/II. Ursprünglich angeboten vom MSW NRW. Aktuell verfügbar unter http://msmg.nw.lo-net2.de/lkenglishros/.ws_gen/10/Probe klausur_Englisch_bush-speech.pdf (zuletzt abgerufen am 26. 02. 2019). (MSW NRW) Ministerium für Schule und Weiterbildung des Landes NRW (2007): Kernlehrplan für den verkürzten Bildungsgang des Gymnasiums – Sekundarstufe I (G8) in Nordrhein-Westfalen. Englisch. Heft 3417 (G8). Frechen. (MSW NRW) Ministerium für Schule und Weiterbildung des Landes NRW (2014): Kernlehrplan für die Sekundarstufe II Gymnasium/Gesamtschule in Nordrhein-Westfalen. Englisch. Heft 4704. Frechen. (MSW NRW) Ministerium für Schule und Weiterbildung des Landes NRW (2015): Korrektur von Klausuren Englisch. 13. 08. 2015. https://www.standardsicherung.schulmi

142

Markus Kötter

nisterium.nrw.de/cms/zentralabitur-gost/faecher/getfile.php?file=3770 (zuletzt abgerufen am 26. 02. 2019). (MSW NRW) Ministerium für Schule und Weiterbildung des Landes NRW (2017): Bewertung der sprachlichen Leistung / Darstellungsleistung Englisch, Französisch, Spanisch, Italienisch, Russisch, Niederländisch, Türkisch, Portugiesisch, Neugriechisch. Ab Abitur 2017. 13. 12. 2017. https://www.standardsicherung.schulministerium.nrw. de/cms/zentralabitur-gost/faecher/getfile.php?file=4777 (zuletzt abgerufen am 26. 02. 2019). (MSWWF NRW) Ministerium für Schule und Weiterbildung, Wissenschaft und Forschung des Landes NRW (1999): Richtlinien und Lehrpläne für die Sekundarstufe II – Gymnasium/Gesamtschule in Nordrhein-Westfalen. Englisch. Heft 4704. Frechen. Nemser, William (1971): Approximative Systems of Foreign Language Learners. IRAL 9, S. 115–123. Pienemann, Manfred (1989): Is Language Teachable? Psycholinguistic Experiments and Hypotheses. Applied Linguistics 10 (1), S. 52–79. Pienemann, Manfred/Keßler, Jörg-Ulrich (Hrsg.) (2011): Studying Processabilty Theory. An Introductory Textbook. Amsterdam. Piske, Thorsten (2010): A Small Mouse? A Small Mouth! Zur Entwicklung einer guten Aussprache im frühen Englischunterricht. Grundschulmagazin 9/2010, S. 22–24. Rost, Christian (2018): Der »promovierte Arsch« darf kündigen, die »Drecksau« nicht. SZ Online. 15. 05. 2018. http://www.sueddeutsche.de/bayern/wohnungsmarkt-der-promo vierte-arsch-darf-kuendigen-die-drecksau-nicht-1.3978567 (zuletzt abgerufen am 26. 02. 2019). Selinker, Larry (1972): Interlanguage. IRAL 10, S. 209–231. Skehan, Peter (1991): Individual Differences in Second Language Learning. SSLA 13, S. 275–291. Szagun, Gisela (2013): Sprachentwicklung beim Kind. Ein Lehrbuch. 5. Aufl. Weinheim.

Sonja Hensel*

Der Rechtschreibfehler – zwischen »Deppenapostroph« und konstruktiver Fehlschreibung

Kaum ein anderes linguistisches Thema, scheint es, erfährt so viel öffentliche Aufmerksamkeit wie die Orthographie. Regelmäßig schafft sie es sogar auf die Titelseiten großer Printmedien wie der des Wochenmagazins »Der Spiegel«, das in Heft 25/2013 titelte »Die Recht Schreib-Katastrofe. Warum unsere Kinder nicht mehr richtig schreiben lernen«, oder der Bild Zeitung, die am 15. 11. 2017 mit der Schlagzeile »Eltan alamiat: Darum lärn unsere Kinda Nich mär richtich Schreibn!« aufmachte. Beiden Artikeln gemeinsam ist die Verbindung der Themen Rechtschreibung und Schule, also eine öffentlich geäußerte Besorgnis darüber, dass Schule keine ausreichenden Orthographiekenntnisse vermittle – ein Aspekt, der am Ende dieses Beitrags aufgegriffen wird. Diese Beobachtungen werden verstärkt durch die Tatsache, dass auch die sogenannten »neuen« oder auch die »sozialen« Medien entgegen landläufig anders lautender Vormeinungen dem Thema orthographische Richtigkeit viel Platz einräumen. Allein im deutschsprachigen Teil des sozialen Netzwerks Facebook existieren über hundert Seiten, Gruppen etc. mit zum Teil großer Reichweite zu den Suchbegriffen Rechtschreibung und Orthographie (Stand 5/ 2019), was die These von der großen öffentlichen Aufmerksamkeit für dieses Thema untermauert. Dieser Beitrag geht der Frage nach, warum abweichende Schreibweisen und die hinter ihnen stehenden Normen so viel Beachtung finden, und versucht dabei genauer zu analysieren, welche Perspektiven auf diese Normverstöße unterschieden werden können. Weiterhin wird danach gefragt, wo mögliche Gründe für diese unterschiedlichen Dimensionen liegen und welche Schlüsse aus Sicht von Sprachdidaktik und Deutschunterricht daraus gezogen werden können. Als Basis zur Beantwortung dieser Frage wird zunächst der Gegenstand Orthographie näher beleuchtet.

* Dr. Sonja Hensel (Oberstudienrätin), Universität Siegen, Fakultät I (Philosophische Fakultät), Germanistik – Sprachdidaktik und Sprachpädagogik.

144

1.

Sonja Hensel

Wesen und Funktion der deutschen Orthographie

Grundlegend zum Verständnis des Wesens der Orthographie ist ihre Abgrenzung zur linguistischen Teildisziplin Graphematik. Nach Dürscheid befasst sich die Graphematik mit den »Regularitäten des Schriftsystems auf segmentaler und suprasegmentaler Ebene« (Dürscheid 2016, S. 128–129), also von der Graphembis zur Textebene. Auf der Grundlage der für die Schreibung des Deutschen gebräuchlichen Alphabetschrift beschreibt die Graphematik, wie man schreibt (vgl. Fuhrhop 2009, S. 1) beziehungsweise wie man schreiben könnte, das heißt, welche Schreibungen im Rahmen der zu findenden Regularitäten zulässig sind (vgl. Dürscheid 2016, S. 129). So wäre zum Beispiel eine mögliche alternative Verschriftlichung des Wortes Not, weil die lange Aussprache von Vokalen durchaus durch eine Verdopplung markiert sein kann, wäre dies nicht. Die Orthographie dagegen beschreibt nicht, sondern normiert, das heißt, sie bestimmt »unter möglichen Graphien […], was als richtig gilt« (Ossner 2010, S. 20). Idealerweise baut also die Orthographie auf den Erkenntnissen der Graphematik auf und wählt aus einer mehr oder weniger großen Menge möglicher Schreibungen eine oder mehrere (vgl. beispielsweise die möglichen Varianten zu recht haben auf duden.de) aus, die dann als Norm gelten sollen (vgl. Dürscheid 2016, S. 129). Um die »generellen oder grundlegenden Beziehungen der graphischen Ebene zu anderen Ebenen des Schriftsystems« (Nerius 2007, S. 87) zu bezeichnen, hat sich in der Linguistik der Begriff der orthographischen Prinzipien eingebürgert, über deren genaue Einteilung zwar keine Einigkeit herrscht, wie wohl ihre Inhalte weitgehend konsensfähig sind: – Als Basis gilt dabei das phonographische Prinzip, das darauf beruht, dass sich die Beziehungen zwischen den Lauten und Buchstaben (Phonemen und Graphemen) regelmäßig beschreiben lassen. Jedem Phonem kann so eine »Normalschreibung« (Eisenberg 2009, S. 69) zugeordnet werden; für das Phonem [f] wäre das zum Beispiel , für [i:] . Ein Großteil des Wortschatzes des Deutschen lässt sich anhand dieser sogenannten GraphemPhonem-Korrespondenzregeln (Eisenberg 2013, S. 290) korrekt verschriftlichen. Beispiele wären Wörter wie kalt oder trieben. – Als zweites Prinzip wird meist das silbische angenommen, das auf die Informationen referiert, die die Schreibsilbe und die Struktur derselben für die Verschriftlichung enthalten. So legt beispielsweise der Aufbau einer Silbe fest, ob ein in ihr enthaltener Vokal lang oder kurz ist: Bei mehrsilbrigen Wörtern kann in einer offenen, betonten Silbe der »Vokal nur lang sein« (Eisenberg 2009, S. 72) wie zum Beispiel in der ersten Silbe von Rose oder Gabel, wohingegen ein Vokal in einer Silbe, die auf ein Konsonantengraphem endet,

Der Rechtschreibfehler

145

kurz gelesen wird (Mulde oder Wolke). Das silbische Prinzip erklärt so Schreibungen wie die sogenannten Silbengelenke, die Konsonanten, die beim Sprechen zu zwei Silben gehören, verschriftlichen wie bei Kanne oder Robbe. Auch das »silbeninitiale h« (Eisenberg 2009, S. 75), das das Aufeinandertreffen von zwei silbischen Vokalen verhindert (gehen, Mühe), fällt unter dieses Prinzip. – Das dritte Prinzip ist das morphologische, das dazu führt, dass die »bedeutungstragenden Grundeinheiten (Morpheme), aus denen Wortformen aufgebaut sind, möglichst konstant« (Budde/Riegler/Wiprächtiger-Geppert 2012, S. 119) gehalten werden und so lautliche Veränderungen, die in der gesprochenen Wortform auftreten, nicht verschriftlicht werden: Dies betrifft die Auslautverhärtung – obwohl man [hant] spricht, schreibt man Hand (weil Hände) –, die Umlautschreibung (Bäume weil Baum), sowie die »Vererbung« von Schreibungen, die in einer zweisilbigen Form eines Wortes notwendig sind, an alle anderen Formen (bellt weil bellen, sieht weil sehen). – Schließlich gibt es Regularitäten, die nur auf Satzebene zu erklären sind. Dieses syntaktische Prinzip (Budde/Riegler/Wiprächtiger-Geppert 2012, S. 120) regelt beispielsweise die satzinterne Großschreibung: Großgeschrieben werden neben Eigennamen Kerne von Nominalgruppen unabhängig davon, welcher Wortart sie angehören (vgl. Eisenberg 2006, S. 342–349). Man erkennt sie daran, dass sie einen Artikel und Attribute bei sich haben (können): Man zerstört die (Artikel) kleinen (Attribut) grünen (Attribut) Triebe (Kern der Nominalgruppe). Auch die Getrennt- und Zusammenschreibung sowie die Zeichensetzung lassen sich mit diesem Prinzip erklären. Diese vier Prinzipien bilden also den Hintergrund für die Regularitäten, die in der Schriftsprache gefunden werden können. Sie dienen als Grundlage für die orthographischen Normen, die festlegen, welche Schreibung als richtig und für die Schreibenden als leitend gelten soll. Dieser Eingriff in die Autonomie der Schreibenden wird gerechtfertigt durch die positiven Folgen, die dieser nach sich zieht: eine störungsfreie Kommunikation in einer Situation zu ermöglichen, in der Produzentinnen und Produzenten sowie Rezipientinnen und Rezpienten einer Nachricht in keinem direkten Kontakt zueinander stehen, sondern räumlich und/oder zeitlich voneinander getrennt sind. Veranschaulicht wird dies mit der Bezeichnung der schriftlichen Kommunikation als »zerdehnte Sprechsituation« (Ehlich 1983, S. 483), die deshalb eines besonderen Bemühens um »Verständnis und Verständnissicherung« (Augst/Dehn 2007, S. 18) bedarf. Das gemeinsame Beachten einer schriftsprachlichen Norm hilft also, Kommunikation über räumliche und zeitliche Grenzen hinweg gelingen zu lassen.

146

Sonja Hensel

Die Besonderheiten der deutschen Orthographie wie Großschreibung oder Morphemkonstanz führen dazu, dass diese als leserorientiert beschrieben wird. Im Vordergrund steht also weniger das Bedürfnis der Schreibenden nach einer unkomplizierten Verschriftlichung als vielmehr das Bedürfnis der Lesenden nach schnell und eindeutig zu rezipierenden Texten. Letztlich kann Orthographie also als »Dienst am Lesenden« (Krieger 1997, S. 16) bezeichnet werden.

2.

Dimensionen des Rechtschreibfehlers

Orthographie als Dienst am Lesenden – diese Sichtweise führt auf direktem Wege zu der ersten Perspektive, unter der man Rechtschreibfehler betrachten kann: Wenn »Einheitlichkeit und Konstanz der geschriebenen Form […] funktional von Vorteil« (Eisenberg 2013, S. 288) sind, bringen Verstöße dagegen funktionale Nachteile. Sie stören das Lesen und gefährden so das Gelingen der Kommunikation zwischen Autorinnen und Autoren und ihrer Leserschaft. Damit erfüllt der entstandene Text die ihm zugedachte Funktion nicht, nämlich die in der Kommunikationssituation vorliegende Diatopie und Diachronie (vgl. Ehlich 1983, S. 490) zu überwinden, um damit ein kommunikatives oder auch ein Bedürfnis nach Wissensweitergabe und -speicherung (vgl. Ehlich 1983, S. 489) zu erfüllen. In der Konsequenz kann das für Schreibende, die nicht in der Lage sind, Schrift »konventions- und vereinbarungsgemäß[.]« (Karg 2015, S. 7) einzusetzen, zum einen Probleme in Kommunikationssituationen, die im Alltag bewältigt werden müssen und in denen eine schriftsprachliche Norm angelegt wird, bedeuten, wie beispielsweise beim Verfassen einer Speisekarte oder eines Bewerbungsanschreibens. Darüber hinaus kann man von einem Verlust an kultureller Teilhabe sprechen, in dem Sinne, dass sich die solcherart Schreibenden nicht »in das kulturelle Geschehen der Gegenwart« (Karg 2015, S. 7) einschreiben und zu dessen Bewahrung, aber auch zur Bewahrung der eigenen »mentalen Tätigkeiten« (Ehlich 1983, S. 489) beitragen können. Nur selten finden sich Gegenpositionen zu dieser Annahme, in denen die Notwendigkeit einer Normierung zu diesem Zweck bestritten wird. So fordern Leiss und Leiss in einer Analogie zum Hören, bei dem man gewohnt sei, mit Varianten umzugehen, da eine »Orthoepie« (Leiss/Leiss 1997, S. 97) im Alltagsgebrauch nicht existiere, beim Verschriftlichen in den »subinformativen Positionen eines Wortes« (Leiss/Leiss 1997, S. 99) Varianz zuzulassen. Dies würde sich aufgrund der Redundanz, mit der Informationen kodiert seien, nicht negativ auf den Rezeptionsvorgang auswirken. Für die Orthographiedidaktik jedoch ist das Sichern einer störungsfreien Kommunikation der Ansatzpunkt, ihren Gegenstand als Unterrichtsinhalt zu legitimieren:

Der Rechtschreibfehler

147

»Wer das Können hat, gehört zu einer Gruppe, die sich durch ebendieses Können von anderen unterscheidet. Für demokratisch sich verstehende Gemeinschaften kann diese Teilhabe kein Privileg sein, das bestimmten Gruppierungen vorbehalten ist. Orthographie ist kein Zusatz, sondern die Voraussetzung jeder gesellschaftlichen Teilhabe.« (Karg 2015, S. 7)

Diese gesellschaftspolitische Einordnung des Gegenstands führt zu einer zweiten mit der ersten verwoben scheinenden Perspektive, in der normgerechtes Schreiben zu einem Distinktionsmerkmal wird, indem eine mangelnde Kompetenz in diesem Bereich mit mangelnder Bildung oder gar Intelligenz gleichgesetzt wird. Als plakative Erläuterung kann der Titel einer Facebook-Gruppe angeführt werden, die sich »DASS – DAS richtig setzen * keine Deppenapostrophe * Rechtschreibung« nennt. Die Bezeichnung »Deppenapostrophe« diffamiert Schreibende, die orthographische Fehler machen, als dumm. So erscheint das Beherrschen einer normgerechten Schreibung als eine Facette von Sprachkompetenz, mit der sich, so Steinig, Bildung signalisieren lässt und die den eigenen Äußerungen in gewissen Situationen »Gewicht, Autorität und Ansehen« (Steinig 2016, S. 69) verleiht – unabhängig davon, ob der Inhalt solche Attribute rechtfertigt. Noch weiter gehen Leiss und Leiss in diesem Punkt. Sie stellen die These auf, jede Art von Sprachnormierung stehe in einem Zusammenhang mit einer sprachpuristischen Einstellung, der sie einen »rassistischen und nationalistischen Hintergrund« (Leiss/Leiss 1997, S. 7) unterstellen und eine Ideologie, dass es »bessere und schlechtere Sprachen und Sprachvarianten, bessere und schlechtere Bevölkerungsgruppen« (Leiss/Leiss 1997, S. 7) gäbe. Was im zwischenmenschlichen Umgang fragwürdig bis ärgerlich sein mag, wird problematisch, wenn es sich auf gesellschaftlicher Ebene fortsetzt und Rechtschreibleistung zur Grundlage »gnadenlosen Aussiebens« (Krieger 1997, S. 22) gemacht wird. Diese entscheidet »wie kaum eine andere unterrichtlich vermittelte Fertigkeit über den späteren Schulerfolg« (Scheele 2006, S. 29). Beim Übergang von der Grund- auf die weiterführende Schule könnte ihr sogar eine größere Bedeutung zukommen als der Intelligenz (vgl. Schneider 2008, S. 148) oder der Lesekompetenz (vgl. Beck/Thom8/Thom8 2009). Neben der dargestellten Bedeutung von Rechtschreibleistung als Distinktionsmerkmal dürfte hierbei wohl auch die scheinbar leichte Abprüfbarkeit verantwortlich sein. Diese Art, Rechtschreibfehler zu bewerten, hat zu Abwehrbewegungen geführt. Rechtschreibkompetenz wurde als »Sekundärtugend« gesehen – die »bürgerlich-preußischen Anstandsvorstellungen von Sauberkeit, Ordentlichkeit und Pflichterfüllung« (Krieger 1997, S. 22) – und Rechtschreibunterricht folglich als »Rechtschreibdressur« (Krieger 1997, S. 22) abgelehnt. In letzter Konsequenz wurden die »Befreiung der Schrift aus ihrem orthographischen Gefängnis«

148

Sonja Hensel

(Leiss/Leiss 1997, S. 5) und damit die Befreiung der Schriftbenutzerinnen und -benutzer aus diesem Korsett, das sie beim Schreiben einenge, gefordert. Neben dieser gesellschaftspolitischen Sicht existiert als dritte Dimension ein persönlicher, bisweilen emotionaler Zugang zur normierten Schriftform. Besonders deutlich wurde dies im Zuge der Diskussion um die Rechtschreibreform am Ende des vergangenen Jahrhunderts. So schrieb der Übersetzer, Kritiker und Autor Joachim Kalka, er empfinde traditionellen Schreibweisen gegenüber eine »irrationale[.] und irgendwie unverzichtbare[.] Loyalität« (Maar/Kalka 2006, S. 16). Diese erläutert er anhand der vor der Rechtschreibreform 1997 normierten Schreibweise »Känguruh«, in dem für ihn ein »paradoxes Element von ›Ruh‹« (Maar/Kalka 2006, S. 16) gesteckt habe, das ihm »angesichts des hektischen Hüpfens dieses Tieres immer besonders gut gefallen« (Maar/Kalka 2006, S. 16) habe. Nun haben wahrscheinlich nicht alle ein derart intensives Verhältnis zur Sprache wie Menschen, die professionell mit ihr umgehen. Anhand dieses Beispiels wird jedoch deutlich, dass Orthographie keineswegs nur eine rationale Verschriftungsnorm darstellt, sondern aufgrund der wichtigen Rolle, die Schrift in unserer von Literalität geprägten Gesellschaft hat, auch mit starken Emotionen verknüpft ist. So prägt die Schrift nicht zuletzt das Verhältnis des Menschen zu seiner Kultur: »[I]nsofern fühlt er sich selbst sehr im Inneren, nicht nur im ›äußeren Gewand‹ angegriffen, wenn ihm da Äußerungen zugemutet werden« (Gauger 2006, S. 95). Orthographie kann so als Teil einer »Schrifttradition« (Munske 2006, S. 103) gesehen werden, mit denen sich die Sprachgemeinschaft identifiziert. Rechtschreibung wird so zum Bestandteil einer nationalen Identität (Munske 2006, S. 103). In einem weiteren Sinne kommen Emotionen beim Umgang mit orthographischen Normen ins Spiel: Schreiben dient dem Menschen nicht zuletzt, um etwas von sich kund zu tun. Besonders beim poetischen Schreiben kommt es dabei auf Feinheiten und das Nutzen aller sprachlichen Ausdrucksmöglichkeiten an. Als Beispiel können hier die Ausführungen von Manfred Bierwisch in Bezug auf die bedeutungsverändernde Funktion des Spatiums bei Ausdrücken wie »weiter führend«/»weiterführend« (Bierwisch 2006, S. 63) angeführt werden. Das Nicht-Beachten sprachlicher Normen führt dazu, dass Ausdrucksmöglichkeiten ungenutzt bleiben, aber auch dazu, dass andere Schreibende sich von dem gedankenlosen Gebrauch der Sprache, die ihnen selber wichtig ist, angegriffen fühlen. So erklärt sich teilweise die vehemente Kritik von Schriftstellerinnen und Schriftstellern an der Rechtschreibreform. Ganz anders als die bisher skizzierten Perspektiven auf orthographische Fehler positioniert sich die Rechtschreibdidaktik zu diesen, was zu einer vierten und letzten Dimension führt. Das hängt grundlegend damit zusammen, dass sie nicht die Befolgung einer Norm in den Mittelpunkt stellt, sondern die kognitive

Der Rechtschreibfehler

149

Durchdringung des Lerngegenstands, das heißt der orthographischen Prinzipien (s. o.). Nicht die Vermeidung von Normverstößen ist daher oberstes Ziel des Unterrichts, sondern der Erfolg wird dann als gegeben erachtet, »wenn Schülerinnen und Schüler regelgeleitet hypothesengenerierend und -verifizierend sukzessive Einblicke in das System erhalten, also weniger Systemfehler machen« (Mesch/Noack 2016, S. 1). Was gemeint ist, lässt sich an dem Beispiel aus Abschnitt 1 illustrieren: Eine Verschriftlichung des Wortes »Not« als wäre zwar ein Normverstoß, aber kein Systemfehler, da das System der PhonemGraphem-Korrespondenzen des Deutschen eine solche Verschriftlichung durchaus erlauben würde, sie aber nicht zur Norm erhoben wurde. Sie könnte also als eine konstruktive Fehlschreibung interpretiert werden. Für die Rechtschreibdidaktik müssen nichtnormgerechte Schreibungen folglich differenziert betrachtet werden. Sie lassen sich deuten und geben Hinweise auf den Schriftspracherwerb der Schreibenden (vgl. Eisenberg 2006, S. 288). Sie werden so zu »Hinweise[n] und Hilfen, mit denen in einer Gesamtschau das System der inneren Regeln, die der Rechtschreibkompetenz eines bestimmten Lerners zu einem gegebenen Zeitpunkt zugrunde liegen, rekonstruiert werden kann« (Siekmann/Thom8 2012, S. 13). Es geht also bei der Feststellung von Rechtschreibkompetenz in diesem Kontext nicht in erster Linie um die quantitative Erfassung nicht normgerechter Schreibungen, sondern um die Analyse dieser Fehler durch Zuordnung derselben zu Fehlerkategorien – um die Erfassung der Fehlerqualität also. Zugrunde liegt hierbei die Vorstellung, dass sich im Verlauf des Rechtschreiberwerbs bei den Schreibenden durch eine eigenaktive tentative (vgl. Steinig/Huneke 2011, S. 153) Auseinandersetzung mit dem Lerngegenstand ein System von Eigenregeln ausbildet. Dieses wird sukzessive verfeinert, je mehr der Regularitäten der Schriftsprache, wie sie in Abschnitt 1 dargestellt wurden, in ihnen verarbeitet werden: »Das bestimmende Prinzip ist dabei das Aufgeben einer alten – einfacheren – und das Gewinnen einer neuen – komplexeren – Hypothese« (Eisenberg/Feilke 2001, S. 11). Die »qualitative Veränderung der Fehler« (Eisenberg/Feilke 2001, S. 11) ermöglicht Einblicke in diesen Prozess. Eine Schreibweise wie »nent« statt »nennt« kann beispielsweise Hinweise darauf liefern, dass jemand schon sicher Schreibungen durch Bezug auf die PhonemGraphem-Korrespondenzregeln (s. o.) konstruieren kann. Einsichten in Prinzipien wie das der Morphemkonstanz oder die Silbengelenkschreibung scheinen aber noch zu fehlen. Für die Lehrkraft geben Fehler folglich Anhaltspunkte für die Förderung. Sie zeigen auf, was ein Kind bereits beherrscht und was es sinnvollerweise als nächsten Schritt in seiner Rechtschreibentwicklung tun sollte. Aufgabe der Lehrkraft ist es dann, eine Aufgabenumgebung mit geeignetem Sprachmaterial

150

Sonja Hensel

zur Verfügung zu stellen, so dass eine Ausdifferenzierung des inneren Regelsystems möglich wird.

3.

Schlüsse für Linguistik und Sprachdidaktik

Wie gezeigt weist der Rechtschreibfehler mindestens vier verschiedene Dimensionen auf, die beim Umgang mit ihm eine Rolle spielen (sollten). Zusammengefasst kann festgestellt werden, dass er je nach Perspektive betrachtet wird als Gefährdung für reibungslose Kommunikation, als Zeichen mangelnder Intelligenz und/oder Bildung, als Angriff auf ein persönlich oder auch national wichtiges Kulturgut und schließlich als Fenster, das Einblicke in die individuelle Entwicklung von Lernenden erlaubt. Diese Perspektiven sind wahrscheinlich nur analytisch, nicht aber praktisch, das heißt in Bezug auf einzelne Sprachnutzerinnen und -nutzer zu trennen; so werden sich gerade Deutschlehrkräfte beim Umgang mit kindlichen Rechtschreibfehlern von den anderen Diskursen wohl nicht ganz freimachen können. Auffällig ist dabei, dass es die Perspektiven sind, die dem Augenschein nach, wie es zum Beispiel die eingangs erwähnten Schlagzeilen oder auch FacebookGruppen zeigen, hauptsächlich von Nicht-Fachkundigen eingenommen werden, die besonders viele Emotionen mit dem Thema verbinden. So konstatiert Kalka am Ende der oben zitierten Ausführung zu seiner emotionalen Verbundenheit mit Schreibungen, er habe »keine Lust [s]ich auf vernünftige Argumentationen einzulassen« (Maar/Kalka 2006, S. 17). Die sprachwissenschaftlichen und didaktischen Dimensionen dagegen sehen die orthographische Korrektheit als einen von vielen Aspekten, die bei der Ausbildung von Schreibkompetenz gefördert müssen. Die Fähigkeiten zur Perspektivübernahme – sich also in die Rolle möglicher Leserinnen und Leser hineinversetzen zu können – und Kohärenzherstellung werden beispielsweise als wesentlich entscheidender in dieser Hinsicht gesehen (vgl. Becker-Mrotzek et al. 2015). Die Sichtweise, dass eine Rechtschreibnorm ohnehin nur eine mehr oder weniger willkürliche Festlegung im Rahmen der graphematischen Möglichkeiten ist, kann zudem zu der Schlussfolgerung führen: »Wenn viele dasselbe falsch schreiben, ist das ein Anzeichen für einen Bedarf an Normänderung« (Eisenberg 2006, S. 287). Eine solche Sichtweise macht es schwer, Rechtschreibfehler mit übermäßiger Bedeutung und Emotionen aufzuladen. Mir scheint es, als läge ein tiefer Graben zwischen diesen beiden Positionen, der es für die wissenschaftlichen Akteurinnen und Akteure notwendig macht, Schlussfolgerungen für das eigene Handeln zu ziehen.So erscheint es zunächst nötig, die emotionale Dimension und die individuelle und gesellschaftliche Bedeutung von orthographischem Schreiben (s. o.) anzuerkennen und dem

Der Rechtschreibfehler

151

Gegenstand im Deutschunterricht einen entsprechenden Raum zuzumessen. Orthographisch korrekte Texte schreiben zu können ist eine aus der Sache heraus begründbar wichtige Kompetenz und sie öffnet Chancen für den beruflichen Werdegang und die gesellschaftliche Teilhabe, was einen Stellenwert orthographischer Inhalte in der Schule begründet. Das trifft vielleicht sogar nicht nur auf den schulischen Kontext zu, sondern auch auf die universitäre Ausbildung sowohl von Deutschlehrkräften als auch von Akademikerinnen und Akademikern anderer Disziplinen, so dass diese in der Lage sind, orthographisch korrekt zu schreiben. Was wie eine Selbstverständlichkeit klingt, ist es meiner Beobachtung nach – Studien zu dieser Frage scheinen nicht vorzuliegen – im universitären Alltag nicht. Ob und inwieweit die Beachtung orthographischer Normen im akademischen Schreiben eine Rolle spielt, Studierende beispielsweise eine Rückmeldung zu ihren Kompetenzen in diesem Bereich bekommen, scheint sehr unterschiedlich gehandhabt zu werden. Sprachwissenschaft und Sprachdidaktik müssen des Weiteren das Thema Wissenstransfer, also die Frage, wie ihre Forschungsergebnisse verständlich vermittelt werden können, stärker in den Blick nehmen. Die in diesem Artikel eingangs grob skizzierten Prinzipien der deutschen Rechtschreibung sind durchaus durchschaubar, wenn sie anschaulich dargestellt werden. Das zeigen die inzwischen vorliegenden Studien zu einem kognitiv anregenden Rechtschreibunterricht, wie er in vielen Grundschulen stattfindet (vgl. z. B. Hanisch 2018; Geist 2018 oder für den Anfang der Sekundarstufe I Bangel/Müller 2018). Diskussionen wie die über die richtige Methode, Lesen und Schreiben zu lehren, und die damit verbundene öffentliche Aufregung um das sogenannte »Schreiben nach Gehör« machen dagegen deutlich, dass diese grundlegende Annahme von einer verstehbaren anstatt einer nur beherrschbaren Orthographie (vgl. Eisenberg 2009, S. 65) bei der sogenannten breiten Öffentlichkeit noch nicht angekommen ist. Umso wichtiger ist es, sich von wissenschaftlicher Seite sachlich zu der Debatte zu äußern und sie als Gelegenheit zu nutzen, basale Sachverhalte bekannt zu machen. Grundlegend ist es aber, den Wissenstransfer zu denen zu verbessern, die professionell mit dem Aufbau von Rechtschreibdidaktik befasst sind: zum einen bei Lehramtsstudierenden des Faches Deutsch und bei der Weiterbildung von Deutschlehrkräften. Studien zum sprachwissenschaftlichen und orthographiedidaktischen Wissen von Lehramtsstudierenden zeigen, dass hier noch Luft nach oben ist (Bremerich-Vos/Dämmer 2013; Jagemann 2015). Ähnliches ist für Deutschlehrkräfte anzunehmen (vgl. z. B. Hofmann 2008), die schon im Beruf stehen, zumal aktuelles graphematisches Grundlagenwissen sich erst in den vergangenen 15 bis 20 Jahren durchgesetzt hat, also potenziell Lehrkräfte, die bereits länger die Universität verlassen haben, nicht erreicht hat. Bei beiden Zielgruppen ist es wichtig, den oben aufgezeigten Perspektiven und den damit

152

Sonja Hensel

verbundenen außerfachlichen Diskursen in Bezug auf orthographische Fehler Rechnung zu tragen, um so nicht nur Zuwächse beim deklarativen Wissen erreichen zu können, sondern auch die metakognitive Ebene in den Blick zu nehmen und motivationale und emotionale Faktoren ebenfalls bearbeiten zu können.

Literatur Augst, Gerhard/Dehn, Mechthild (2007): Rechtschreibung und Rechtschreibunterricht. Eine Einführung für Studierende und Lehrende aller Schulformen. Stuttgart. Bangel, Melanie/Müller, Astrid (2018): Strukturorientiertes Rechtschreiblernen. Ergebnisse einer Interventionsstudie zur Wortschreibung in Klasse 5 mit Blick auf schwache Lerner/-innen. Didaktik Deutsch (45), S. 29–49. Beck, Bärbel/Thom8, Günther/Thom8, Dorothea (2009): Schwache Rechtschreiber müssen keine schwachen Leser sein und umgekehrt. Ergebnisse aus der Schulleistungsstudie DESI. In: Valtin, Renate/Hofmann, Bernhard (Hrsg.), Kompetenzmodelle der Orthographie. Empirische Befunde und förderdiagnostische Möglichkeiten. Berlin, S. 40–47. Becker-Mrotzek, Michael/Brinkhaus, Moti/Grabowski, Joachim/Hennecke, Vera/Jost, Jörg/Knopp, Matthias/Schmitt, Markus/Weinzierl, Christian/Wilmsmeier, Sabine (2015): Kohärenzherstellung und Perspektivenübernahme als Teilkomponenten der Schreibkompetenz. Von der diagnostischen Absicherung zur didaktischen Implementierung. In: Redder, Angelika/Naumann, Johannes/Tracy, Rosemarie (Hrsg.), Forschungsinitiative Sprachdiagnostik und Sprachförderung – Ergebnisse. Münster, S. 177–206. Bierwisch, Manfred: Der Variationsspielraum des Schreibens. In: Eisenberg, Peter (Hrsg.), Niemand hat das letzte Wort. Sprache – Schrift – Orthographie. Göttingen, S. 55–71. Bremerich-Vos, Albert/Dämmer, Jutta (2013): Professionelles Wissen im Studienverlauf Lehramt Deutsch. In: Blömeke, Sigrid/Bremerich-Vos, Albert/Kaiser, Gabriele/Keßler, Jörg-U./Schwippert, Knut (Hrsg.), Professionelle Kompetenzen im Studienverlauf. Weitere Ergebnisse zur Deutsch-, Englisch- und Mathematiklehrerausbildung aus TEDS-LT. Münster, S. 47–76. Budde, Monika/Riegler, Susanne/Wiprächtiger-Geppert, Maja (2012): Sprachdidaktik. 2. Aufl. Berlin. Dürscheid, Christa (2016): Einführung in die Schriftlinguistik. 5. Aufl. Göttingen. Eisenberg, Peter/Feilke, Helmuth (2001): Rechtschreiben erforschen. Praxis Deutsch (170), S. 6–15. Eisenberg, Peter (2006). Grundriss der deutschen Grammatik. Band I: Das Wort. 3. Aufl. Stuttgart. Eisenberg, Peter (2009): Der Buchstabe und die Schriftstruktur des Wortes. In: Duden. Die Grammatik. 8. Aufl. Berlin, S. 61–94. Ehlich, Konrad (1983): Text und sprachliches Handeln. Die Entstehung von Texten aus dem Bedürfnis der Überlieferung. In: Assmann, Aleida/Assmann, Jan/Hardmeier, Christof (Hrsg.), Schrift und Gedächtnis. München, S. 24–43. Fuhrhop, Nanna (2009): Orthografie. 3. Aufl. Heidelberg.

Der Rechtschreibfehler

153

Gauger, Hans-Martin (2006): Rechtschreibfriede – jetzt? In: Eisenberg, Peter (Hrsg.), Niemand hat das letzte Wort. Sprache – Schrift – Orthographie. Göttingen, S. 88–96. Geist, Barbara (2018): Wie Kinder in Rechtschreibgesprächen Schreibungen erklären und wie die Lehrkraft sie dabei unterstützt. In: Riegler, Susanne/Weinhold, Swantje (Hrsg.), Rechtschreiben unterrichten. Lehrerforschung in der Orthographiedidaktik. Berlin, S. 111–129. Hanisch, Anna-Katharina (2018): Kognitive Aktivierung im Rechtschreibunterricht. Eine Interventionsstudie in der Grundschule. Münster, New York. Hensel, Sonja (2016): Rechtschreibkompetenz bei Schülern der Sekundarstufe II. Eine empirische Studie zum Orthographieerwerb auf der Basis von Konzepten selbstregulierten Lernens. Bad Heilbrunn. Hofmann, Nicole (2008): Unterrichtsexpertise und Rechtschreibleistungen. Eine empirische Untersuchung in Heidelberger Grundschulen. https://opus.ph-heidelberg.de/frontdoor/ deliver/index/docId/23/file/Unterrichtsexpertise_und_Rechtschreibleistung.pdf (zuletzt abgerufen am 29. 04. 2019). Jagemann, Sarah (2015): Was wissen Studierende über die Regeln der deutschen Wortschreibung? – Eine explorative Studie zum graphematischen Wissen. In: Bräuer, Christoph/Wieser, Dorothee (Hrsg.), Lehrende im Blick – Empirische Lehrerforschung in der Deutschdidaktik. Berlin, S. 255–280. Karg, Ina (2015): Orthographie. Öffentlichkeit, Wissenschaft und Erwerb. Berlin. Krieger, Hans (1997): Wachstumslogik und Regulierungswahn. Von der Unmöglichkeit, die Rechtschreibung zu perfektionieren. Neuveröffentlicht in: Krieger, Hans (Hrsg.) (2000), Der Rechtschreibschwindel. Zwischenrufe zu einem absurden Reformtheater. 2. Aufl. St. Goar, S. 15–28. Leiss, Elisabeth/Leiss, Johann (1997): Die regulierte Schrift. Ein Plädoyer für die Freigabe der Rechtschreibung. Erlangen. Maar, Michael/Kalka, Joachim (2006): Gespräche über die rechte Schreibung. In: Eisenberg, Peter (Hrsg.), Niemand hat das letzte Wort. Sprache – Schrift – Orthographie. Göttingen, S. 15–22. Mesch, Birgit/Noack, Christina (2016): System, Norm und Gebrauch – drei Seiten derselben Medaille? In: Mesch, Birgit/Noack, Christina (Hrsg.), System, Norm und Gebrauch – drei Seiten derselben Medaille? Orthographische Kompetenz und Performanz im Spannungsfeld zwischen System, Norm und Empirie. Hohengehren. Munske, Horst Haider: Über die künftige Pflege der Rechtschreibung. In: Eisenberg, Peter (Hrsg.), Niemand hat das letzte Wort. Sprache – Schrift – Orthographie. Göttingen, S. 100–109. Nerius, Dieter (Hrsg.) (2007): Deutsche Orthographie. 4. Aufl. Hildesheim. Ossner, Jakob (2010): Orthographie. Paderborn. Scheele, Veronika (2006): Entwicklung fortgeschrittener Rechtschreibfertigkeiten. Ein Beitrag zum Erwerb der orthographischen Strategien. Frankfurt am Main. Schneider, Wolfgang (2008): Entwicklung und Erfassung der Rechtschreibkompetenz im Jugend- und Erwachsenenalter. In: Schneider, Wolfgang/Marx, Harald/Hasselhorn, Marcus (Hrsg.), Diagnostik von Rechtschreibleistungen und -kompetenz. Göttingen, S. 145–157. Siekmann, Katja/Thom8, Günther (2012): Der orthographische Fehler. Grundzüge der orthographischen Fehlerforschung und aktuelle Entwicklungen. Oldenburg.

154

Sonja Hensel

Steinig, Wolfgang/Huneke, Hans-Werner (2011): Sprachdidaktik Deutsch. Eine Einführung. 4. Aufl. Berlin. Steinig, Wolfgang (2016): Sprache, Bildung und soziale Herkunft. In: Kilian, Jörg/Brou[r, Birgit/Lüttenberg, Dina (Hrsg.), Handbuch Sprache in der Bildung. Berlin, S. 68–98.

Internetquellen DASS – DAS richtig setzen * keine Deppenapostrophe * Rechtschreibung. FacebookGruppe. https://www.facebook.com/groups/129599363807935/ (zuletzt abgerufen am 05. 05. 2019). www.duden.de.

Pia Winkel*

»Es heißt gegenüber dem Rathaus, nicht gegenüber des Rathauses« – Der Genitiv nach gegenüber: Fehler oder Fortschritt?

1.

Einleitung

Wer auf der Suche nach einem geeigneten Hotel für den lang ersehnten Sommerurlaub ist und sich in verschiedenen Online-Reiseportalen durch Reiseangebote und Bewertungen von Gästen klickt, stolpert schnell über Hotels, deren Lage direkt »gegenüber des nördlichen Strands« (Trivago 2019) angepriesen wird. Auch bei der Immobiliensuche stößt man auf Objekte »gegenüber des Rathauses« (LL& P Immobilien 2019) oder (in derselben Anzeige) »gegenüber vom Rathaus« (ebd.). Aber es heißt doch gegenüber dem Rathaus, mögen sich so manche sprachbewusste Lesende nun denken und ins Grübeln geraten. Ein Blick in den Duden der sprachlichen Zweifelsfälle (Bd. 9, 2016, S. 355) zeigt eindeutig: Auf die Präposition gegenüber folgt eine Phrase im Dativ, standardsprachlich korrekt wäre also die Variante gegenüber dem Rathaus. In Kombination mit einem Ortsnamen ist außerdem ein Anschluss mit von zulässig: (1) »Ludwigshafen liegt gegenüber von Mannheim.« (ebd.) Verwendungen wie das oben genannte Beispiel gegenüber vom Rathaus gelten als umgangssprachlich, da auf von in diesem Fall zwar eine lokale Angabe, aber kein Ortsname folgt. Der Genitiv nach gegenüber wiederum tritt dem Duden zufolge »nur sehr vereinzelt« (ebd.) auf, ein Hinweis auf mögliche Verwendungskontexte bleibt aus. Sowohl in der Duden Grammatik (Bd. 4, 2016, S. 622–623) als auch in anderen Grammatiken wie Helbig/Buscha (2013, S. 358) sowie bei Eisenberg (2013, S. 182) findet die Variante mit dem Genitivanschluss nach gegenüber überhaupt keine Erwähnung, es wird ausschließlich der Dativ als korrekter Anschluss * Pia Winkel, M.A., Universität Siegen, Fakultät I (Philosophische Fakultät), Germanistik – Linguistik.

156

Pia Winkel

aufgeführt. Tatsächlich finden sich jedoch zahlreiche solcher Beispiele im Internet, und das nicht nur in eher alltagssprachlichen Texten, sondern auch in der Pressesprache überregionaler Zeitungen wie der Tageszeitung und der Frankfurter Allgemeinen: (2) »Hier, direkt gegenüber des obersten Wahlgerichts Boliviens (TSE), haben er und vier weitere Mitstreitende ihr Lager aufgeschlagen, um ein Zeichen gegen die erneute Kandidatur des seit über zwölf Jahren regierenden Präsidenten Evo Morales zu setzen.« (Hindrichs 2019) (3) »So baut der Internetgigant Facebook direkt gegenüber des Belvedere alljährlich extra für das viertägige Gipfeltreffen einen Pavillon auf.« (Schleidt 2019) Wenn diese normverletzende Variante aber sogar in überregionalen Zeitungen auftaucht, ist sie dann wirklich nur »fehlerhaft« oder steckt vielleicht mehr dahinter? Zahlreiche kompetente Sprechende und Schreibende, also Personen, deren Spracherwerb abgeschlossen ist, geraten an dieser Stelle tatsächlich in Zweifel, wie beispielhaft die Anfrage an das Sprachberatungsteam »Grammatikfragen.de« der Justus-Liebig-Universität Gießen zeigt: »Was ist gramatikalisch [sic!] richtig? gegenüber des Schlosses oder gegenüber dem Schloss« (o. V. 2018). Bereits 2009 konstatierte Neubauer (2009, S. 165) in seinen Auswertungen der Anfragen an die Sprachberatungsstelle der Martin-Luther-Universität HalleWittenberg »deutliche Unsicherheiten« in Bezug auf die korrekte Kasuswahl nach gegenüber. Es scheint sich also nicht, wie bei einem Fehler im eigentlichen Sinne, direkt feststellen zu lassen, dass eine Variante korrekt und die andere inkorrekt ist. Es scheint sich hier eher um einen grammatischen Zweifelsfall zu handeln, bei dem es für die Verwendung beider Varianten Gründe gibt, obwohl der Duden (Bd. 1, 2017) lediglich eine als standardsprachlich korrekt markiert (für eine ausführliche Definition von grammatischen Zweifelsfällen in Abgrenzung zum Fehler vgl. Klein 2003). Dementsprechend stellt sich die Frage, ob der Dativ- und der Genitivanschluss an gegenüber sich lediglich auf der Stilebene unterscheiden, wie es der Duden (Bd. 9, 2016, S. 355) bei der von-Erweiterung angibt, oder ob mit der Verwendung des Genitivs anstelle des Dativs möglicherweise ein Bedeutungsunterschied einhergeht. Di Meola (2014, S. 157–158) und Klein (2018, S. 268) weisen Letzteres zurück, ihnen zufolge ist der Wechsel zwischen der Genitiv- und der Dativrektion generell semantisch irrelevant: (4) Wegen des/Wegen dem schlechten Wetter/-s bleibt Paul zuhause.

Der Genitiv nach gegenüber: Fehler oder Fortschritt?

157

(5) Gegenüber dem/des Rathaus/-es befindet sich eine Kirche. Ließe sich für gegenüber jedoch ein Bedeutungsunterschied erkennen, würde dies darauf hindeuten, dass die Varianten nicht eins zu eins gegeneinander austauschbar wären und sie sich nicht nur im Hinblick auf ihre stilistische Angemessenheit unterscheiden würden. Dies soll der vorliegende Artikel mithilfe einer Korpusanalyse klären. Ein Korpus bezeichnet in der Sprachwissenschaft eine Sammlung von Texten oder gesprochenen Äußerungen. Das für diese Untersuchung verwendete Korpus, welches vornehmlich aus pressesprachlichen Texten regionaler und überregionaler Zeitungen und Zeitschriften besteht, ist digitalisiert und über das Recherchesystem COSMAS II (2019) des Instituts für deutsche Sprache zugänglich. Über eine Suchmaske lassen sich die Texte in COSMAS II durchsuchen, so auch nach dem Vorkommen der Präposition gegenüber. Als Analysebasis dienen je 500 Treffer für gegenüber jeweils mit einem Dativ- und einem Genitivanschluss. Der Vergleich zwischen den beiden Varianten wird ergänzt durch weitere Beleganalysen zur von-Erweiterung nach gegenüber. Ein kurzer Theorieteil fasst zuvor die Funktionen von Präpositionen im Allgemeinen und gegenüber im Besonderen zusammen und beleuchtet die Bedeutungen von gegenüber.

2.

Funktion, Bedeutung und Entwicklung der Präposition gegenüber

Präpositionen sind sogenannte Funktionswörter, sie tragen weniger zum Inhalt eines Satzes bei als Inhaltswörter (z. B. Hund, Vase oder Tisch), sondern setzen die im Satz vorkommenden Einheiten in Bezug zueinander : (6) Die Vase steht auf dem Tisch. Auf syntaktischer Ebene zeichnen sich Präpositionen dadurch aus, dass sie in der Regel eine Nominalphrase, also ein gegebenenfalls durch einen Artikel oder ein Adjektiv erweitertes Substantiv oder ein Pronomen, fordern und deren Kasus regieren (= bestimmen). In Beispiel (6) ist dem Tisch die Nominalphrase, die von auf regiert wird und daher im Dativ steht. Dabei stehen Präpositionen – wie auch in diesem Fall – meist vor ihrer Bezugsphrase. Einige Präpositionen können aber ebenso hinter ihr stehen. So lässt die Präposition gegenüber neben ihrer Prästellung (gegenüber dem Rathaus) außerdem eine Poststellung (dem Rathaus gegenüber) zu, wobei letztere die sprachgeschichtlich ältere Variante darstellt

158

Pia Winkel

und heute deutlich seltener auftritt als die Prästellung (vgl. Di Meola 2014, S. 135–137). Präpositionen lassen sich im Hinblick auf ihre Struktur und ihre Eigenschaften in eine primäre und eine sekundäre Klasse unterteilen. Zu den primären Präpositionen gehören die prototypischen Vertreter der Wortklasse, wie zum Beispiel in, an, auf, mit und zu. Sie sind meist kurz, stehen vor ihrer Bezugsphrase und regieren in der Regel den Dativ (vgl. Duden Bd. 4, 2016, S. 613). Einige dieser Präpositionen lassen neben dem Dativ (6) außerdem einen Akkusativ (7) zu, was mit einem Bedeutungsunterschied einhergeht: (7) Ich stelle die Vase auf den Tisch. In Beispiel (6) beschreibt die Präposition auf mit dem Dativ eine Position, also ein statisches Verhältnis zwischen Vase und Tisch, in (7) wird mithilfe des Akkusativs ein dynamisches Verhältnis, eine Richtung, ausgedrückt (vgl. ebd., S. 620). Die Präposition gegenüber ist der deutlich größeren Klasse der sekundären Präpositionen zuzuordnen, die sprachhistorisch jünger und offener für Neuzugänge ist als die der primären. In den meisten Fällen regieren sekundäre Präpositionen ursprünglich den Genitiv, aber auch hier kann der Kasus variieren. So schließt beispielsweise wegen in der gesprochenen Sprache häufig einen Dativ an (wegen dem schlechten Wetter statt wegen des schlechten Wetters – vgl. Duden Bd. 9 2016, S. 1012–1013). Bei gegenüber ist es andersherum, denn die Präposition regiert ursprünglich den Dativ und tritt nun mit einem von der Norm abweichenden Genitiv auf. Dies ist darin begründet, dass sich die Präposition gegenüber aus dem formgleichen Adverb (8) entwickelt hat. Dabei unterscheidet sich die präpositionale Variante vor allem dadurch von der adverbialen, dass sie eine Nominalphrase (9) anschließt (vgl. Lindqvist 1994, S. 42–46). (8) Paul wohnt gegenüber. (9) Susi wohnt gegenüber dem Rathaus. Nach Di Meola (2014, S. 63–68) wurde das ursprüngliche Adverb in bestimmten Kontexten als Präposition in Poststellung interpretiert. Nachdem sich diese Interpretation verbreitet hatte, wurde die neue Funktion als Präposition dadurch sichtbar gemacht, dass gegenüber von der Post- und die Prästellung wechselte und sich somit den prototypischen Präpositionen annäherte. Zugleich grenzte sich die neu entstandene Präposition von ihrer Ursprungsstruktur ab. Auch die Kasusvariation zwischen Dativ und Genitiv begründet Di Meola (ebd.; vgl. auch

Der Genitiv nach gegenüber: Fehler oder Fortschritt?

159

Di Meola 2002) mit der Differenzierung zur älteren adverbialen Struktur. Damit entfernt sich die Präposition zwar wieder von den prototypischen Vertretern ihrer Klasse, verhält sich jedoch ähnlich wie die anderen, ursprünglich einen Genitiv regierenden sekundären Präpositionen. Auf semantischer Ebene setzen Präpositionen zwei Einheiten in ein Verhältnis zueinander, wie es an folgendem Beispiel aus dem vorliegenden Zeitungskorpus zu sehen ist: (10) »Gegenüber dem Gotteshaus aus dem 13. Jahrhundert befindet sich die 1887 erbaute Kartoffelbrennerei.« (NKU 04. 05. 2002) Die Präposition gegenüber drückt hierbei das räumliche Verhältnis des Gotteshauses zur Kartoffelbrennerei aus. Diese lokale Semantik gilt als die ursprüngliche der Präposition, was sich mit der oben beschriebenen Entwicklung aus dem lokalen Adverb begründen lässt. Mit zunehmender Verbreitung der Präposition kann gegenüber in immer abstrakteren Kontexten auftreten, sodass – wie im folgenden Beispiel – das lokale Verhältnis von zwei konkreten Objekten auf ein abstrakteres Vergleichskonzept mit temporalem Aspekt übertragen werden kann. (11) »Gegenüber dem vergangenen Jahr verdient er mehr.« (Duden 2015) Das Duden Universalwörterbuch verzeichnet außerdem eine Verwendungsweise, in der gegenüber eine »Beziehung zu einer Person oder Sache« (Duden 2015) beschreibt: (12) »Sie ist älteren Leuten gegenüber besonders höflich.« (ebd.) (13) »Er ist gegenüber allen Reformen/allen Reformen gegenüber zurückhaltend.« (ebd.) In Beispiel (12) legt eine Person (sie) ein bestimmtes, nämlich höfliches, Verhalten im Hinblick auf eine Personengruppe (ältere Leute) an den Tag. Hierbei besteht zwar in der Regel eine räumliche Nähe zwischen den Beteiligten (abweichend davon wäre z. B. ein Telefongespräch denkbar), dieser Bedeutungsaspekt rückt jedoch in den Hintergrund, während der Fokus auf dem Verhalten der Person im Hinblick auf die älteren Leute liegt. Die Bedeutung der Präposition weitet sich somit auf die Beschreibung der abstrakten Beziehung zwischen mehreren Beteiligten aus, gleichzeitig verblasst die ursprüngliche lokale Bedeutung. Dabei verlagert sich auch die Perspektive, indem eine bestimmte Haltung von einer der beiden Entitäten (sie) ausgeht und sich auf die zweite

160

Pia Winkel

(ältere Leute) richtet. In Beispiel (13) schließlich geht die Abstraktion so weit, dass das Gegenüber (alle Reformen) der Person (er) nun kein physisches mehr ist, sondern ein mental-virtuelles. Ein räumliches Verhältnis zwischen den beiden Entitäten ist hier überhaupt nicht möglich.

3.

Gegenüber in der Pressesprache

Die folgende Untersuchung basiert auf drei verschiedenen Suchfragen an ein in COSMAS II (2019) zusammengestelltes Korpus aus knapp 20.000.000 deutschen Pressetexten regionaler und überregionaler Zeitungen (größtenteils aus den Jahren 1990 bis 2019). In den ersten beiden Suchanfragen wurde gegenüber je einmal mit einem Artikel im Genitiv und Dativ angeschlossen, im weiteren Rahmen der Analyse wurde außerdem der Anschluss mit von an gegenüber abgefragt. Um eindeutige Belege für Nominalphrasen im Dativ oder Genitiv im Anschluss an gegenüber zu erhalten, muss feststehen, an welcher Stelle die beiden Kasus miteinander konkurrieren, also wo kompetente Sprechende und Schreibende überhaupt in Zweifel geraten können. Hierfür muss der Kasus eindeutig erkennbar sein, was nur beim Genitiv und Dativ Maskulinum (14) und Neutrum im Singular (15) der Fall ist. Formen wie der Dativ (16) und der Genitiv Singular Femininum (17) sind aus der Analyse ausgeschlossen, denn sie sind identisch und der Kasus lässt sich nur über den Satzkontext identifizieren. (14) gegenüber des Mannes/dem Mann (15) gegenüber des Schlosses/dem Schloss (16) Ich gebe der Frau die Hand. (Dativ) (17) Die Hand der Frau ist klein. (Genitiv) Da bei gegenüber (gegenüber der Frau) eben nicht eindeutig erkennbar ist, ob ein Dativ oder Genitiv vorliegt, kann der Satzkontext in diesem Fall keinen Hinweis auf den Kasus geben. Weiterhin scheiden alle Pluralformen für die Suchanfrage aus, weil der definite maskuline Pluralartikel des Genitivs (der Männer) dem des Genitivs und Dativs im Singular Femininum (der Frau) gleicht. Die Suchanfrage kann hier nicht spezifisch genug gestellt werden, um diese Formen von vornherein herauszufiltern. Folglich schließen sich in den beiden Suchanfragen mit Kasusanschluss jeweils der definite und der indefinite Artikel im Maskulinum/

Der Genitiv nach gegenüber: Fehler oder Fortschritt?

161

Neutrum Singular einmal im Genitiv und einmal im Dativ an gegenüber an, wobei auch die Großschreibung an Satzanfängen berücksichtigt wird (Gegenüber/gegenüber des/eines/dem/einem). Für die dritte Suchanfrage wurde gegenüber mit der Präposition von kombiniert. Folgen Phrasen mit maskulinen oder neutralen Substantiven (gegenüber von dem Rathaus), verschmilzt der vorangehende Artikel dem in einigen Fällen mit der Präposition von zu der Form vom (gegenüber vom Rathaus). Diese Variante wird in der Suchanfrage ebenfalls berücksichtigt. Insgesamt umfasst das Korpus nach Abzug einer hochgerechneten Fehlbelegrate etwa 244.093 auswertbare Belege für gegenüber mit einem Dativanschluss und etwa 4.424 auswertbare Genitivbelege. Die dritte Suchanfrage mit einem von-Anschluss an gegenüber erzielte hochgerechnet 9.262 auswertbare Belege, also etwa doppelt so viele wie die Genitivvariante. Damit liegt der Anteil der Dativbelege bei knapp 94,7 %, der Genitivanteil bei 1,7 % und der der vonErweiterung bei 3,59 %. Von allen drei Varianten wurde jeweils eine Zufallsstichprobe von 500 Belegen exportiert und untersucht.

3.1

Die Rektionsvarianten im Vergleich

Im Folgenden werden zunächst die Dativ- und Genitivbelege auf ihre Bedeutung hin analysiert. Unter den Dativbelegen finden sich – wie im Duden (2015) beschrieben – solche mit der ursprünglichen lokalen (18) sowie mit der vergleichenden Semantik (19): (18) »Gegenüber dem Gotteshaus aus dem 13. Jahrhundert befindet sich die 1887 erbaute Kartoffelbrennerei.« (NKU 04. 05. 2002) (19) »Die Zahl macht deutlich, um wie viel Prozent sich die Ausgaben in einem Quartal gegenüber dem Vorjahresquartal verändert haben.« (NUN 20. 07. 2005) Die dritte Bedeutungskategorie, die dem Duden (2015) zufolge eine »Beziehung zu einer Person oder Sache« beschreibt, umfasst allerdings eher heterogene Beispiele. Hier kann gegenüber sowohl eine Haltung (20) als auch ein (kommunikatives) Verhalten (21), (22) ausdrücken. In einigen Fällen wiederum ist ein Verhalten noch nicht eingetreten, wird jedoch, wie in Beispiel (23), gefordert. (20) »Mit dem Weggang Dürrs, der aus seiner Antipathie gegenüber dem zunehmenden Behördenstil von Ludewig in den letzten Wochen kein Hehl

162

Pia Winkel

mehr machte, wird die Aufgabe für den Bahnchef nicht leichter.« (B 03. 03. 1999, S. 3) (21) »Er konnte noch nichts dazu sagen, wie man sich gegenüber dem CDUKandidaten verhalten werde.« (NKU 23. 02. 2002) (22) »Genaueres dazu will die Stadt in der nächsten Sitzung des Schulbeirats vorstellen, sagte Schmidt-Kühnle gegenüber dem ›MM‹.« (M 03. 12. 2014, S. 17) (23) »Für Betreiber solcher Anlagen bestehe eine Anzeigenpflicht gegenüber dem Gesundheits- und Veterinäramt, sagte sie.« (NKU 31. 07. 2006) Den vier Beispielen ist gemeinsam, dass hier weniger eine abstrakte Gegenüberstellung stattfindet, wie es noch bei dem Vergleich der Fall ist, sondern dass sich die Haltung oder Verhaltensweise einer Entität auf eine zweite Entität richtet. Gegenüber könnte in diesen Beispielen übersetzt werden mit im Hinblick auf oder in Bezug auf oder einfach mit zu. Belege dieser Bedeutungskategorie werden daher in Tab. 1 als adressatenorientiert bezeichnet, auch weil die Funktion, eine »Beziehung« (Duden 2015) auszudrücken, zu allgemein gehalten ist und generell auf alle Verwendungsweisen von gegenüber, mehr noch: auf alle Präpositionen, zutrifft. Der Begriff des Adressaten ist hier zu verstehen als das Ziel, auf das eine (kommunikative) Haltung oder Handlung gerichtet ist, unabhängig davon, ob es sich um Personen, Gegenstände oder Ereignisse handelt. Tab. 1 führt nun die Verteilung der Dativbelege auf die drei semantischen Kategorien auf. Dativ- Lokal Vergleichend Adressatenrektion orientiert Absolut 38 238 216

Ambig Nicht auswertbar 4 4

Gesamt

Relativ 7,6 % 47,6 %

0,8 %

100 %

43,2 %

0,8 %

500

Tab. 1: Semantik der Belege mit Dativrektion

Von den 500 Belegen sind vier nicht auswertbar, da gegenüber hier einer anderen Wortart zuzuordnen ist und die Nominalphrase im Dativ nicht von gegenüber regiert wird. Vier weitere Fälle lassen sich selbst über den Satzkontext hinaus nicht eindeutig einer Kategorie zuordnen. Die restlichen Belege drücken überwiegend einen Vergleich oder eine Adressatenorientierung aus, wobei diejenigen mit vergleichender Semantik leicht überwiegen. Nur 7,6 % der Belege weisen die ursprüngliche lokale Semantik auf. Anders sieht es bei den Beispielen mit Genitivrektion aus (Tab. 2).

163

Der Genitiv nach gegenüber: Fehler oder Fortschritt?

Genitiv- Lokal rektion Absolut 455 Relativ

Vergleichend Adressatenorientiert 14 8

91,0 % 2,8 %

1,6 %

Ambig Nicht auswertbar 0 23

Gesamt

0,0 %

100 %

4,6 %

500

Tab. 2: Semantik der Belege mit Genitivrektion

Während sich nur 1,6 % der Belege der adressatenorientierten Kategorie (24) zuordnen lassen und die Belege mit vergleichender Semantik (25) mit 2,8 % ebenfalls nur selten vertreten sind, überwiegen diejenigen mit lokaler Semantik (26) deutlich. Die folgenden Beispiele veranschaulichen die drei Verwendungsweisen von gegenüber mit dem Genitiv : (24) »Vielleicht hätte ein Blick ins Protokoll genügt, um seine höchst seltsame Äußerung gegenüber des ›MM‹ zu verhindern.« (M 27. 10. 2011, S. 21) (25) »Der Preisvorteil des Ampera gegenüber eines Selbstzünders ist also recht gering.« (SOL 03. 03. 2012) (26) »Gegenüber des Rathauses stürzte ein Teil des Bürgersteigs ab.« (RHZ 30. 04. 2011, S. 18) Auch der Anteil der nicht auswertbaren Belege liegt hier höher, was allerdings damit zusammenhängt, dass gegenüber als Substantiv ein Genitivattribut anschließen kann: (27) »Kein Eisbrecher setzt sie nun auf einer Eisscholle aus, von der behauptet werden kann, sie sei das genaue Gegenüber des Südpols.« (T 2000, S. 2) Da die Suchanfrage Belege für gegenüber als Präposition mit Großschreibung am Satzanfang umfasst, ließen sich die formgleichen Substantivbelege nicht herausfiltern. Obwohl die Anzahl der Genitivbelege im Vergleich zu der der Dativbelege noch niedrig ist, zeigt sich doch eine semantische Abgrenzung. Während über 90 % der Belege mit Dativrektion einen Vergleich oder eine Adressatenorientierung beschreiben, scheint sich die Genitivrektion auf die lokale Semantik zu spezialisieren. Dies könnte auf eine allmähliche Bedeutungsaufsplittung zwischen den beiden Varianten hindeuten. Dabei ist einschränkend zu bedenken, dass die Anzahl der Belege mit Dativrektion (über 240.000) im Vergleich zur Genitivrektion (etwas über 4.000) zum jetzigen Zeitpunkt deutlich überwiegt, sodass auch die – verhältnismäßig – geringe Anzahl lokaler Belege bei der Dativrektion nichtsdestotrotz weitaus höher liegt als die – verhältnismäßig – hohe

164

Pia Winkel

Anzahl der Genitivbelege mit lokaler Semantik. Sollte sich der Genitiv jedoch weiter verbreiten, wäre es möglich, dass die lokale Semantik in Zukunft immer seltener über die Dativrektion ausgedrückt wird, sondern dass Letztere vornehmlich (oder dann möglicherweise ausschließlich) abstraktere Verhältnisse beschreibt. Diese Tendenz zeigt sich zugleich in der dritten Suchanfrage (Tab. 3). vonLokal Erweiterung Absolut 424 Relativ

Vergleichend Adressatenorientiert 2 0

84,8 % 0,4 %

0,0 %

Ambig Nicht auswertbar 1 73

Gesamt

0,2 %

100 %

14,6 %

500

Tab. 3: Semantik der Belege mit von-Erweiterung

Hier weisen ebenfalls fast alle auswertbaren Belege eine lokale Semantik auf, was zunächst nicht überrascht, da dem Duden (Bd. 9, 2016, S. 355) zufolge die vonErweiterung an gegenüber anschließen kann, wenn ein artikelloser geografischer Name folgt. Dies legt bereits nahe, dass auch die von-Erweiterung vornehmlich in lokalen Kontexten Verwendung findet. Entgegen den Normen folgen auf die von-Erweiterung aber nicht nur geografische Eigennamen (28), sondern auch solche Phrasen mit lokaler Semantik wie in (29), die der Duden (ebd.) als umgangssprachlich markiert: (28) »Die Ortschaft liegt gegenüber von Weener, am anderen Ufer der Ems.« (HAZ 11. 10. 2016, S.4) (29) »Am Samstag, 24. März, 11 Uhr, gibt es im Bürgergarten direkt gegenüber vom Bürgerhaus eine Aktion der Stadtbahngegner.« (M 21. 03. 2012, S. 30) Die von-Erweiterung als Anschluss an Präpositionen stellt den herangezogenen Grammatiken zufolge eine Ersatzform des Genitivs dar (vgl. z. B. Zifonun et al. 1997, S. 2079; Duden Bd. 4 2016, S. 625). Da auf von ausschließlich Phrasen im Dativ folgen können, wird dieser Anschluss verwendet, wenn der Genitiv nicht ausreichend gekennzeichnet ist (vgl. Zifonun et al. 1997, S. 2079). Dies deckt zwar Fälle wie in (28) ab, in (29) wäre der Kasus jedoch auch ohne die vonErweiterung eindeutig als Genitiv oder Dativ identifizierbar (gegenüber dem Bürgerhaus/des Bürgerhauses). Der Genitiv und die von-Erweiterung scheinen sich demnach nicht ausschließlich zu ergänzen.

Der Genitiv nach gegenüber: Fehler oder Fortschritt?

3.2

165

Erklärungsansätze

Warum gibt es nun drei verschiedene Rektionsvarianten für gegenüber und wie könnte die oben beschriebene semantische Spezialisierung zustande gekommen sein? Folgt man Di Meolas (2002; 2014) Theorie der Differenzierung von der Ursprungsstruktur, wäre es denkbar, dass die Kasusschwankung zwischen Dativ und Genitiv zunächst nur der formalen Abgrenzung zum Adverb und der Anpassung an die Gruppe der sekundären Präpositionen dient. Die Schwankung könnte dadurch bestärkt werden, dass der Genitiv als stilistisch höherstehender Kasus gilt und mit der Bildungssprache in Verbindung gebracht wird (vgl. Neubauer 2009, S. 166). Szczepaniak (2014, S. 34) und Klein (2018, S. 217) sprechen in diesem Zusammenhang vom Genitiv als Prestigekasus. Auf semantischer Ebene könnte sich dabei eine analoge Entwicklung vollziehen wie bei der Dativrektion, indem gegenüber mit einem Genitivanschluss zunächst die konkrete lokale Semantik als Ausgangspunkt nimmt, um sich mit zunehmender Verbreitung auf weitere Verwendungskontexte auszubreiten. Ob die von-Erweiterung einen weiteren Schritt in dem Differenzierungsprozess darstellt, worauf Belege wie in (29) hindeuten könnten, lässt Di Meola (2014, S. 134) offen. Gegen diese Reihenfolge der Entwicklung spricht die vergleichsweise hohe Beleganzahl der von-Erweiterung im Korpus. Diese liegt mit über 9.000 Belegen etwa doppelt so hoch wie die Anzahl der Belege mit Genitivanschluss (4.424 auswertbare Belege) und deutet damit auf eine stärkere Verbreitung hin. Einen Hinweis dafür, dass die von-Erweiterung sich früher als die Genitivrektion etabliert hat, liefert das Grimmsche Wörterbuch von 1897, welches für gegenüber neben der Dativrektion bereits die von-Erweiterung aufführt, wohingegen der Genitiv keine Erwähnung findet. Es ließe sich also auch ein Entwicklungsprozess ausgehend von der Dativrektion über die von-Erweiterung hin zur Genitivrektion annehmen. Die Verwendung der von-Erweiterung könnte dabei für Sprechende beziehungsweise Schreibende (unbewusst) den Schluss nahelegen, dass gegenüber einen Genitiv fordern kann, weil eine von-Erweiterung eben in der Regel nur bei genitivregierenden Präpositionen (z. B. aufgrund, zugunsten, innerhalb) auftritt. Die von-Erweiterung könnte somit als »Brücke« für den Genitiv dienen. Da sie außerdem fast ausnahmslos lokale Verhältnisse beschreibt, könnte sich die Analogie zugleich auf semantischer Ebene vollziehen, sodass der Genitiv zunächst nur in lokalen Kontexten auftreten kann. Mit zunehmender Verbreitung wäre es denkbar, dass sich die Genitivvariante verselbstständigt und nach und nach in anderen Bedeutungskontexten verwendet werden kann, was aber bisher nur in vereinzelten Fällen möglich ist (Tab. 2). Die von-Erweiterung scheint trotz höherer Verbreitung stärker auf die lokale Semantik beschränkt zu sein als die Genitivrektion, was mit ihrer formalen Funktion, den Kasus eindeutig zu markieren, zusammenhängen kann.

166

Pia Winkel

In welchem Verhältnis die von-Erweiterung und der Genitiv in Anschluss an eine Präposition auf syntaktischer Ebene tatsächlich stehen, ob sie sich ergänzen oder miteinander konkurrieren und ob die Abnahme der Belege mit lokaler Semantik bei der Dativrektion mit dem Aufkommen der von-Erweiterung und der Genitivrektion einhergeht, bedarf umfassenderer synchroner und diachroner Analysen, die ich ihm Rahmen meiner Dissertation durchführen werde.

4.

Im Zweifel für den Genitiv?

Der vorliegende Artikel sollte aufzeigen, dass ein vermeintlicher Fehler nicht immer nur eine Normverletzung darstellt, sondern dass dahinter durchaus eine Systematik stehen kann und es nicht immer nur eine »richtige« und eine »falsche« Variante gibt. Nach standardsprachlichen Normen mag die Genitivrektion nach gegenüber zwar (noch) nicht akzeptiert sein, aber ihre semantische Spezialisierung in Abgrenzung zur Dativvariante deutet darauf hin, dass sich die Sprache an dieser Stelle wandelt, dass sie sich weiterentwickelt. Dieser Prozess ist an mehreren Stellen in der Grammatik zu beobachten und ist unter anderem in dem Bedürfnis nach erfolgreicher Kommunikation begründet. Sprechende gestalten ihre Beiträge in der Regel so, dass ihr Gegenüber sie angemessen versteht, was die Grammatik mit ihren gefestigten Strukturen unterstützt (für Weiterführendes zu Maximen in der Kommunikation vgl. Albers in diesem Band). Gibt es aber für ein abstraktes Konzept keinen konventionalisierten Ausdruck, so bedienen sich Sprechende neuer Möglichkeiten, um das Gewünschte auszudrücken (vgl. Szczepaniak 2013, S. 29). Dies könnte möglicherweise ein Grund für die Bedeutungserweiterung bei gegenüber mit Dativrektion sein. Aber auch bei bestehenden grammatischen Ausdrücken etablieren sich neue Varianten, wie es bei der aufkommenden Genitivrektion zu beobachten ist. Dabei hat die Korpusanalyse gezeigt, dass der Genitiv nach gegenüber nicht willkürlich verwendet wird und die Schwankung nicht rein stilistisch bedingt ist, sondern dass hier eine ganz bestimmte Bedeutung favorisiert wird. Zwar entwickelt sich für die Genitivrektion keine völlig neue Bedeutungskomponente, aber es ist immerhin – entgegen Di Meolas (2014, S. 157–158) und Kleins (2018, S. 268) Ausführungen – eine Spezialisierung auf die lokale Semantik beim Genitiv erkennbar, während diese Bedeutung beim Dativ verhältnismäßig selten auftritt (wenngleich mit Blick auf die Trefferzahlen immer noch deutlich häufiger als die lokalen Genitivbelege). Entsprechend sind Zweifel in diesem Fall kein Zeichen mangelnden Sprachwissens, sondern vielmehr ein Ausdruck von Sprachsensibilität (für nähere Ausführungen vgl. Baumann/Daboczi in diesem Band). Diese Zweifel können durch mehrere Faktoren begünstigt werden, wie zum Beispiel durch die Verwendung der Genitivrektion (und der von-Erweiterung) in

Der Genitiv nach gegenüber: Fehler oder Fortschritt?

167

der Pressesprache, denn insbesondere Journalistinnen und Journalisten sowie Redakteurinnen und Redakteuren wird eine hohe Sprachkompetenz zugesprochen, sie fungieren daher als Vorbilder. Ambige Formen, also solche, in denen der Kasus nach gegenüber nicht eindeutig erkennbar ist, können ebenfalls Zweifel fördern. So hat eine zusätzliche Suchanfrage an das Zeitungskorpus ergeben, dass von 364 Belegen, in denen gegenüber ohne Kasuseinschränkung präpositional Verwendung findet und vor der Bezugsphrase steht, bei mehr als einem Drittel eine Form vorliegt, deren Kasus sich nicht eindeutig als Dativ oder Genitiv identifizieren lässt, wodurch sich ein Interpretationsspielraum eröffnet. Möglich ist weiterhin, dass gegenüber in Form eines Substantivs mit einem Genitivattribut die Akzeptanz eines Genitivs nach der Präposition zumindest stärken könnte (vgl. Bsp. (27)). Sollte sich die Genitivvariante neben der von-Erweiterung weiter etablieren, wäre es durchaus denkbar, dass sie in – wenn auch noch ferner – Zukunft gleichwertig mit der Dativrektion, aber mit spezieller Bedeutung verwendbar ist, sodass jeder sprachbewusste Reisende zweifellos ein Hotel »gegenüber des nördlichen Strands« (Trivago 2019) buchen kann, ohne dass er oder sie befürchten muss, einen Fehler zu machen.

Literatur COSMAS II (2019): COSMAS II–Corpus Search, Management and Analysis System. https://cosmas2.ids-mannheim.de/cosmas2-web/ (zuletzt abgerufen am 10. 06. 2019). Di Meola, Claudio (2002): Präpositionale Rektionsalternation unter dem Gesichtspunkt der Grammatikalisierung: Das Prinzip der »maximalen Differenzierung«. In: Cuyckens, Hubert/Radden, Günter (Hrsg.), Perspectives on Prepositions. Tübingen, S. 101–129. Di Meola, Claudio (2014): Die Grammatikalisierung deutscher Präpositionen. 2. Aufl. Tübingen. Duden (2015): Deutsches Universalwörterbuch. 8. Aufl. Berlin. https://www.munzinger.de/se arch/document?index=duden-d0& id=D000001371& type=text/html& query.key=fCvJ fEzE& template=/publikationen/duden/document.jsp#D00000057943 (zuletzt aufgerufen am 30. 05. 2019). Duden (2016): Das Wörterbuch der sprachlichen Zweifelsfälle. Bd. 9. 8. Aufl. Berlin. Duden (2016): Die Grammatik. Bd. 4. 9. Aufl. Berlin. Duden (2017): Die deutsche Rechtschreibung. Bd. 1. 27. Aufl. Berlin. https://www.mun zinger.de/search/document?index=duden-d1& id=D100000617& type=text/html& query.key=PUBSpKtl& template=/publikationen/duden/document.jsp#D10000031 673 (zuletzt abgerufen am 07. 06. 2019). Eisenberg, Peter (2013): Grundriss der deutschen Grammatik. Der Satz. 4. Aufl. Stuttgart, Weimar.

168

Pia Winkel

Grimm, Jacob/Grimm, Wilhelm (1897): Deutsches Wörterbuch. Bd. 5. http://www.woerter buchnetz.de/DWB?lemma=gegenueber (zuletzt abgerufen am 08. 06. 2019). Helbig, Gerhard/Buscha, Joachim (2013): Deutsche Grammatik. Ein Handbuch für den Ausländerunterricht. Berlin, München. Hindrichs, Ben (2019): Schatten der Zukunft über Bolivien. http://www.taz.de/!5586688/ (zuletzt abgerufen am 24. 05. 2019). Klein, Wolf Peter (2003): Sprachliche Zweifelsfälle als linguistischer Gegenstand. Zur Einführung in ein vergessenes Thema der Sprachwissenschaft. Linguistik online 16 (4). https://www.linguistik-online.net/16_03/klein.html (zuletzt abgerufen am 21. 05. 2019). Klein, Wolf Peter (2018): Sprachliche Zweifelsfälle im Deutschen. Theorie, Praxis, Geschichte. Berlin, Boston. Lindqvist, Christer (1994): Zur Entstehung von Präpositionen im Deutschen und Schwedischen. Tübingen. LL& P Immobilien (2019): Attraktive Büro-/Praxisräume gegenüber des Rathauses – ohne Maklerprovision! https://www.immowelt.de/expose/2PMSS4Y (zuletzt abgerufen am 21. 05. 2019). Neubauer, Skadi (2009): »Gewinkt oder gewunken – welche Variante ist richtig?« Tendenzen von Veränderungen im Sprachgebrauch aus Sicht der Sprachberatungsstelle der Martin-Luther-Universität Halle-Wittenberg. Frankfurt am Main. o. V. (2018): Was ist gramatikalisch richtig? gegenüber des Schlosses oder gegenüber dem Schloss. https://grammatikfragen.de/showthread.php?1488-Was-ist-gramatikalischrichtig-gegen%FCber-des-Schlosses-oder-gegen%FCber-dem-Schloss (zuletzt abgerufen am 21. 05. 20019). Schleidt, Daniel (2019): Mit dem Eintracht-Bus durch Davos. https://www.faz.net/aktuell/ rhein-main/wirtschaft/frankfurt-praesentiert-sich-beim-weltwirtschaftsforum-16006 918.html (zuletzt abgerufen am 24. 05. 2019). Szczepaniak, Renata (2014): Sprachwandel und sprachliche Unsicherheit. Der formale und funktionale Wandel des Genitivs seit dem Frühneuhochdeutschen. In: Plewina, Albrecht/Witt, Andreas (Hrsg.), Sprachverfall? Dynamik – Wandel – Variation. Berlin, Boston, S. 33–49. Trivago (2019): Hotel Rio Mar. Info. https://www.trivago.de/peniscola-82703/hotel/hotelrio-mar-91805 (zuletzt abgerufen am 21. 05. 2019). Zifonun, Gisela/Hoffmann, Ludger/Strecker, Bruno/Ballweg, Joachim (1997): Grammatik der deutschen Sprache. Berlin.

Carolin Baumann / Viktjria Dabjczi*

Kein Fehler! – Grammatische Zweifelsfälle als Ausdruck sprachlicher Kompetenz

1.

Einleitung: Sprachberatung und sprachliches Zweifeln

Seit 2007 hat die Universität Siegen eine Sprachberatung. Das Angebot umfasst einen kostenlosen Service per E-Mail, und so haben in den letzten zwölf Jahren sprachlich Ratsuchende aus ganz Deutschland und dem Ausland hunderte von E-Mails an [email protected] geschrieben. Die Homepage ist unter https://www.uni-siegen.de/phil/sprachberatung/ zu finden. Die in der Sprachberatung an die Siegener Sprachwissenschaftlerinnen gestellten Fragen stammen dabei nur in sehr seltenen Fällen von Deutschlernern, die etwa in der neuen Sprache an der einen oder anderen Stelle noch unsicher sind. Das Gros der Anfragen geht vielmehr von erwachsenen Muttersprachlern ein, von »kompetenten Sprechern« also, wie sie in der Sprachwissenschaft auch kategorisiert werden (vgl. Klein 2018, S. 21–24). Nicht selten ist selbst professionell mit Sprache befasst, wer Hilfe sucht bei der Frage nach der korrekten Schreibung beziehungsweise einer spezifischen grammatischen Form oder unsicher ist bezüglich der Bedeutung oder Verwendungsweisen eines bestimmten Wortes. Die Anfragenden arbeiten im Lehramt, in Lektoraten, Sekretariaten, bei Rundfunksendern, im Marketing, in Redaktionen oder der Unternehmenskommunikation, oder sie sind in anderen hoch qualifizierten Berufen tätig, zum Beispiel an Universitäten, in außeruniversitären Forschungseinrichtungen, Ingenieurbüros oder der kommunalen Verwaltung. Dies mag zunächst widersprüchlich erscheinen: Warum sollten es ausgerechnet professionelle Sprachbenutzerinnen und Sprachbenutzern und andere gut ausgebildete Muttersprachlerinnen und Muttersprachler sein, die einen Bedarf an Sprachberatung haben? Bei einem Blick auf die Fälle, in denen die * Dr. Carolin Baumann, Universität Siegen, Fakultät I (Philosophische Fakultät), Germanistik – Linguistik. Dr. Viktjria Dabjczi, Universität Siegen, Fakultät I (Philosophische Fakultät), Germanistik – Linguistik.

170

Carolin Baumann / Viktória Dabóczi

Anfragenden unsicher sind, mag dieser Zusammenhang nachvollziehbarer werden: Heißt es ich bin geboren oder ich wurde geboren? Gibt es das Wort vorzeigenswert? Oder nur vorzeigbar? Sachunkundig? Oder nur sachfremd? Schreibt man der Morgen beginnt mit Klavierüben oder Klavier üben? Hat etwas einen Umfang von bis zu 95 Zentimeter? Oder muss es Zentimetern heißen? Stellt man das Geschirr in der oder in die Spülmaschine ab?

Betrachtet man diese problematisierten Phänomene selbst (oder legt sie anderen kompetenten Sprecherinnen und Sprechern vor), so wird man finden, dass der jeweils Anfragende mit seinem Zweifel nicht allein ist. Es handelt sich offenbar nicht um eine vorübergehende Verwirrtheit, die eine kurze Frage an die Bürokollegin oder ein Blick in die einschlägigen Nachschlagewerke schnell beseitigen könnte. Häufig schreiben die Anfragenden auch, dass sie mit ebendieser Strategie nicht zu einer Lösung gekommen seien. Kontexte, in denen solche Zweifelsfälle aufkommen, sind entweder die eigene Sprachproduktion (»… ich beschäftige mich gerade mit meiner Abschlussarbeit …«, »Wir schreiben eine Love Story …«, »Ich sitze gerade an einer Übersetzung aus dem Französischen …«, »ich organisiere eine Podiumsdiskussion … und möchte die Veranstaltung korrekt ankündigen«) oder aber die Rezeption von Texten (»Je länger ich die Schachtel ansah, desto merkwürdiger erschien mir die Aufschrift«, »… ein Artikel im Mannheimer Morgen über einen ›Poetry Slamer‹ bringt mich irritiert dazu zu fragen …«, »…Kolleginnen von mir [schreiben] immer wieder …«, »mir fallen … in letzter Zeit immer häufiger … Formulierungen auf …«). Gelegentlich zeugen die Anschreiben der Ratsuchenden davon, dass es im Vorfeld der Anfrage an die Sprachberatung nicht bei Zweifeln und Rechercheversuchen eines Einzelnen geblieben ist, der dann schreibt, er habe eine Frage, ein Problem, sie zweifle, rätsele, bitte um Hilfe, Auskunft, Mitteilung oder Klärung, weil »das Sprachgefühl rebelliert«. So werden die Anfragen häufiger im Plural formuliert (»Bei uns kam die Frage auf …«). Mitunter geht einer E-Mail an die Sprachberatung aber offenbar auch eine echte Auseinandersetzung oder doch eine engagierte Diskussion mit Kollegen und Anverwandten voraus. So ist davon die Rede, man habe »das Problem im Vorfeld mit Kollegen erörtert«; die Schüler sagen »ja«, die Deutschlehrerin sage »nein«; es sei ein kleiner »grammatischer Disput« aufgekommen; ein Satz habe »im Kollegenkreis zu großen Debatten geführt«; im Büro gebe es gerade »heftige Diskussionen«; es sei »ein Streit ausgebrochen«.

Kein Fehler! – Grammatische Zweifelsfälle als Ausdruck sprachlicher Kompetenz

171

Der Dramatik, die diese Formulierungen abbilden, entsprechen Freude und Erleichterung, bisweilen auch Triumph, als Reaktion auf eine Antwort, auf Klärung und – vor allem – Erklärung. Um sprachliche Phänomene dieser Art, wie sie in der Sprachberatung regelmäßig Gegenstand interessierter, bisweilen verzweifelter Anfragen sind, in denen Grammatik es vermag, die Gemüter zu bewegen, mitunter gar zu erhitzen, um solche Fälle geht es im vorliegenden Beitrag: Es geht um sprachliche, genauer : grammatische Zweifelsfälle. Und das Zweifeln ist in diesen Fällen – in der einen wie in der anderen Lesart – kein Fehler! Im Folgenden werden wir uns aber zunächst der Frage nach den Vorstellungen widmen, die dem sprachlichen Zweifel gewissermaßen zugrunde liegen. Denn wer nach der richtigen Variante sucht, der hat einerseits ein Verständnis von sprachlicher Richtigkeit, von Regeln und Normen in der Sprache und andererseits vom Fehler, der als ein Bruch dieser Regeln erscheint und den es zu vermeiden gilt, nicht zuletzt, weil er als sozial stigmatisierend gilt. In Abschnitt 3 führen wir den Begriff des sprachlichen Zweifelsfalls grundlegend ein und grenzen ihn von dem des Fehlers ab. Wir geben dann einen Überblick über das breite Spektrum sprachlicher Zweifelsfälle, die bei der Sprachberatung der Universität Siegen und anderen Sprachberatungsstellen regelmäßig Gegenstand von Anfragen sind. Wir betrachten einige Fälle, die zugehörigen theoretischen Vorüberlegungen und die Sprachgebrauchsanalyse näher und zeigen, wie man auf dieser Basis auch zu Erkenntnissen über das Sprachsystem selbst kommen, in jedem Fall aber eine Gebrauchsempfehlung geben kann. Nach alldem resümieren wir, was uns die Zweifelsfälle zu sagen haben, über sprachliche Regeln, die Sprache und nicht zuletzt: über unsere eigene Sprachkompetenz.

2.

Regeln, Normen und Fehler

2.1

Frage nach sprachlicher Richtigkeit

Hinter jeder Anfrage an die Sprachberatung steht eine Vorstellung von richtig und falsch. Im eigenen Schreiben und Sprechen muss man sich ja auch ganz handfest für eine von mitunter mehreren möglichen Varianten entscheiden. Und wenn man Texte von anderen liest, ist stets die eigene sprachliche Intuition aktiv, die uns unvermittelt darauf aufmerksam macht, wenn wir es anders gemacht hätten. »Das ist doch falsch!« ist dann eine häufige, zumindest innerliche, Reaktion oder »Kann man das so sagen?«. Der Rat von Sprachexpertinnen und -experten wird eingeholt. Es finden sich in Anfragen an die Sprachberatung dementsprechend häufig Formulierungen, in denen die Zielvorstellung sprachlicher Richtigkeit ganz

172

Carolin Baumann / Viktória Dabóczi

explizit wird, zum Beispiel »Was ist nun richtig?«, »Aber müsste man nicht sagen …?«, »Heißt es … oder …?«, »Ich hätte gern gewusst, welche Version korrekt ist: …«. Dabei schwingt immer die Vorstellung mit, dass nur eine der beiden Varianten korrekt und damit akzeptabel sei. Daneben gibt es einige Anfragen, die nicht auf eine (einzig) korrekte, sondern auf die zu empfehlende, mithin auf die bessere von zwei möglichen Varianten zielen; so etwa in Formulierungen wie »Wäre … vorzuziehen?«, »Ist beides zulässig?«. Was in einer Sprachgemeinschaft als richtig und falsch, als empfehlenswert oder weniger geeignet gilt, ist dabei gar nicht immer leicht zu bestimmen. Wer legt fest, was im Zweifel richtig ist? Der Duden? Goethe und Thomas Mann? Die Tagesschausprecherinnen? Deutschlehrer? Sprachwissenschaftlerinnen? Sie alle sind Norminstanzen für die Sprachgemeinschaft; auf sie kann man sich im Zweifelsfall mit Aussicht auf Akzeptanz berufen (vgl. Hennig 2009). Sie alle sind aber auch Teil der Sprachgemeinschaft, und nicht immer sind die Auskünfte und Referenzen einheitlich – insbesondere wenn es um sprachliche Zweifelsfälle geht. So ist zunächst zu klären, was in der Sprache unter Regeln und Normen zu verstehen ist und worin sie gründen. Daraus ergeben sich zudem Vorstellungen davon, was ein sprachlicher Fehler und spezifischer : was ein Grammatikfehler ist. Eine linguistische Sprachberatung macht es sich vor diesem Hintergrund zur Aufgabe, das fragliche Phänomen zunächst zu erfassen, zu ermitteln, ob tatsächlich und, wenn ja, warum hier im Deutschen zwei Varianten nebeneinander existieren, und schließlich den Sprachgebrauch umfänglich zu untersuchen. Das Ergebnis einer solchen Sprachgebrauchsanalyse (vgl. Klein 2006) führt zu Aussagen über die Häufigkeit der im Zweifelsfall zur Disposition stehenden Varianten: Unter Umständen ist eine Variante absolut ungebräuchlich und somit gewöhnlich nicht zu empfehlen. Denn wir streben im Alltag tatsächlich in aller Regel einen unauffälligen Sprachgebrauch an. Wir beabsichtigen es normalerweise nicht, Ausdrucksmittel zu wählen, über die andere stolpern, an denen sie sich reiben, die sie kritisieren könnten, sondern solche, die so gefällig sind, dass sie keinerlei Aufmerksamkeit auf sich ziehen, so dass diese den Inhalten des Gesagten oder Geschriebenen vorbehalten bleibt. Außerdem kann eine Analyse des Sprachgebrauchs herausbringen, dass eine der fraglichen Varianten beispielsweise eher im süddeutschen, die andere im norddeutschen Raum gebräuchlich ist. Die Empfehlung zur Wahl einer der Varianten muss sich dann nach dem regionalen Zusammenhang richten, in dem die Formulierung verwendet werden soll. Auch stilistische, fachsprachliche und historische Aspekte können hier eine Rolle spielen. Und immer gilt: Es kommt auch auf den Kontext an, in dem Sprache gebraucht wird, um zu entscheiden, welche von zwei Varianten im Zweifelsfall zu wählen ist (vgl. Klein 2018).

Kein Fehler! – Grammatische Zweifelsfälle als Ausdruck sprachlicher Kompetenz

2.2

173

Normativitätsbegriffe: Sprachwissenschaft vs. Sprachöffentlichkeit

Die Betrachtung von Sprache und sprachlicher Variation bildet nicht nur das »Kerngeschäft« der Sprachwissenschaft, sondern sie steht, wie wir konkret in der Sprachberatung sehen, häufig im Mittelpunkt der öffentlichen Sprachreflexion (vgl. Hennig 2017). Dabei unterscheiden sich Herangehensweise und Interessen jedoch erheblich voneinander : Die Sprachwissenschaft versteht sich als Wissenschaft, deren Aufgabe es ist, das Sprachsystem zu beschreiben, auftretende Variation zu dokumentieren und einzuordnen (etwa als grammatische oder semantische Variation) sowie diese beispielsweise vor dem Hintergrund von Unterschieden zwischen Standardsprache und Dialekten (diatopische Variation) oder Sprachwandel zu erklären. In diesem Fall spricht man von einer deskriptiven (beschreibenden) Sprachbetrachtung, die die moderne Sprachwissenschaft dominiert (vgl. Hennig 2009, S. 14–15). Diese überwiegend deskriptive Haltung der modernen Sprachwissenschaft steht im Gegensatz zur präskriptivnormierenden Einstellung im 18., 19. und am Anfang des 20. Jahrhunderts, als Zweifel über sprachliche Phänomene als Unkenntnis über Regeln der Standardsprache abgestempelt wurde (vgl. Klein 2003, S. 20–26; 2018). Wie die Anfragen bei der Sprachberatung zeigen (»Was ist nun richtig?«, »Aber müsste man nicht sagen …?«, »Heißt es … oder …?«), hat die Sprachöffentlichkeit in der Regel ein anderes Bedürfnis als die moderne Sprachwissenschaft. Die Sprecherinnen und Sprecher zweifeln bezüglich eines konkreten sprachlichen Phänomens und sie brauchen eine konkrete Entscheidung, welche Variante sie nun verwenden sollen. Indem sie sich an eine (vermeintlich) »höhere sprachliche Instanz«, eine Sprachberatung, wenden, wünschen sie sich eine konkrete Entscheidung für eine Variante, also eine Anweisung als vorschreibende Haltung (präskriptive Sprachbetrachtung). Die beiden Interessen treffen sich zumindest teilweise dann, wenn es um den Wunsch nach Erklärung der Varianten geht. Auch hier zeigen sich jedoch Unterschiede, indem zweifelnde Ratsuchende eine Begründung dafür, warum die eine Variante richtiger ist, bekommen möchten, während die Sprachwissenschaft den Ursachen der Existenz der beiden Formen und möglichen Einflussfaktoren ihrer Verwendung nachgeht. Die beschriebenen Unterschiede können nach Hennig (2009) auf zwei grundlegend unterschiedliche Normverständnisse zurückgeführt werden, die sie in Anlehnung an die IdS-Grammatik (Zifonun et al. 1997) mit dem Begriff »Normativitätsdilemma« (Hennig 2009, S. 29) bezeichnet. Während die Sprachwissenschaft die Beschreibung der Gebrauchsnorm als ihren Gegenstand betrachtet, in deren Rahmen durchaus mehrere Varianten nebeneinander existieren können, geht die Sprachöffentlichkeit davon aus, dass bei zwei Varianten nur eine der Formen richtig sein kann oder die eine Form zumindest richtiger ist

174

Carolin Baumann / Viktória Dabóczi

als die andere. Klein bezeichnet dieses Phänomen als »Richtig-oder-FalschIdeologie«, die dadurch entsteht, dass sprachliche Varianten (und insbesondere Zweifelsfälle) in einem »hochgradig normativen Umfeld« wahrgenommen werden. Ferner kommt hinzu, dass die Entscheidung für richtig oder falsch nach dieser Ideologie stets und kontextlos gelten soll (vgl. Klein 2018, S. 25). In diesem Zusammenhang spricht Hennig (2009, S. 28–30) von der Zielnorm, die aus der Sicht der Sprachöffentlichkeit verpflichtenden Charakter haben sollte. Trotz der unterschiedlichen Motivationen und Herangehensweisen zeigen sich auch Überschneidungen in der wissenschaftlichen und öffentlichen Beschäftigung mit sprachlichen Varianten. Was lange fehlte, war die Fokussierung auf die Bedürfnisse der Öffentlichkeit, das heißt eine allgemeinverständliche Beschreibung von Varianten und das Verständnis dafür, dass die Sprachöffentlichkeit bei mehreren Varianten zumindest eine Empfehlung braucht. Vor diesem Hintergrund kann nicht verwundern, dass die Sprachwissenschaft lange als realitätsfern und nicht öffentlichkeitwirksam galt (vgl. Hennig 2009, S. 14–15) und »Entertainer« (Nübling/Szczepaniak 2011, S. 202) wie Bastian Sick (»Der Dativ ist dem Genitiv sein Tod«), die zwar keine fundierten Erklärungen und Einordnungen zu sprachlichen Varianten lieferten, gleichzeitig aber eine klare Vorgabe in einem verständlichen und sicherlich sehr unterhaltsamen Ton präsentierten, in den 2000er Jahren große Erfolge feierten (vgl. dazu auch ]gel 2008). Parallel dazu und als Reaktion darauf kann man vor allem mit den Arbeiten von Klein (2003; 2006) beginnend die explizite Beschäftigung mit Zweifelsfällen durch die Sprachwissenschaft beobachten, die unter anderem in den Neuauflagen von Ratgebern wie Duden 9 (seit 2016 mit dem Haupttitel »Wörterbuch der sprachlichen Zweifelsfälle«) mündeten. Das Bestreben nach einer sprachwissenschaftlich fundierten und dennoch für die Öffentlichkeit verständlichen Beschäftigung mit sprachlicher Variation hat gezeigt, dass das Thema eine vielschichtige Erklärung benötigt, das heißt es müssen mehrere sprachliche Ebenen und unterschiedliche Aspekte berücksichtigt werden. Vor allem die Frage, wann man über einen sprachlichen Fehler sprechen kann und wann nicht beziehungsweise was überhaupt solche Fehler sind, gilt als komplex, gleichzeitig aber essentiell auch für den öffentlichen Diskurs (z. B. bezüglich des Korrekturverhaltens von Deutschlehrkräften, vgl. Baumann/Dabjczi 2014). Im Folgenden gehen wir auf die Einordnung von sprachlichen Varianten vor dem Hintergrund des Fehlerbegriffs ein.

Kein Fehler! – Grammatische Zweifelsfälle als Ausdruck sprachlicher Kompetenz

2.3

175

Sprachliche Regeln zwischen System und Norm – Systemfehler und Normfehler

Bei Formulierungen wie *Peter geht in die Haus oder *Die Kinder hoffen an schönes Sommerwetter (* steht für ›ungrammatisch‹) sind sich kompetente Sprecherinnen und Sprecher des Deutschen schnell einig, dass in den beiden Sätzen grammatische Fehler vorliegen, die eventuell auf Unkenntnis der Regeln der deutschen Sprache zurückgehen (Genus des Substantivs Haus und Rektion des Verbs hoffen). Im Satz Das Mädchen ist bereits sechs Jahre alt, sie geht bald zur Schule liegt die Identifizierung eines Fehlers dagegen nicht mehr so deutlich auf der Hand, denn zumindest lässt sich die Wiederaufnahme von Mädchen durch sie aufgrund sprachinterner Konflikte (grammatisches Genus vs. natürliches Geschlecht) erklären. Bei Äußerungen wie Zwei Liter Milch ist/sind genug, die Wäsche wurde aufgehängt/aufgehangen oder mit starkem schwarzem Kaffee / mit starkem schwarzen Kaffee (siehe dazu Nübling 2011) ist die Entscheidung für die eine oder andere Variante beziehungsweise zwischen richtig und falsch schwierig und man kann damit rechnen, dass einzelne Sprecherinnen und Sprecher hier zu unterschiedlichen Ergebnissen kommen. Die aufgeführten Beispiele zeigen, dass sowohl sprachliche Regeln als auch Fehler kein homogenes Geflecht bilden; neben klaren Regeln und Verstößen gegen diese Regeln lassen sich zudem individuell »normale« Formen feststellen, die wiederum mit anderen individuell »normalen« Formen in Konflikt stehen und nicht per se als Fehler einzustufen sind. Der Grund dafür ist die Vielschichtigkeit der deutschen Sprache in ihrer historischen Entwicklung (alte und neue Formen konkurrieren) und in ihrer gegenwärtigen Variation (Dialekte, Fachsprachen, Sprachstile etc.). In diesem Zusammenhang unterscheidet Coseriu (1988) auf der sprachtheoretischen Ebene zwischen System und Norm. Die beiden Begriffe bilden unterschiedliche Ebenen der Sprache in ihrer Vielschichtigkeit ab (vgl. Coseriu 1988, S. 265). Unter Norm werden überindividuelle »normale Realisierungen« verstanden (Coseriu 1988, S. 267), die in der Sprache aktuell gebräuchlich sind. Das System stellt eine höhere Abstraktionsebene dar und umfasst alle möglichen Realisierungen, die in der Architektur einer Einzelsprache denkbar oder mit anderen Worten systemkonform wären (vgl. Coseriu 1988, S. 267). Dies bedeutet auf der einen Seite, dass das, was im System theoretisch möglich wäre, keiner tatsächlich existierenden (Gebrauchs-)Norm entsprechen muss. So stellt das System zum Beispiel zwei Möglichkeiten zur Verfügung, das Präteritum und Partizip Perfekt eines Verbs zu bilden, die wir als unregelmäßige, zum Beispiel laufen – lief – gelaufen (starkes Verb), und regelmäßige Konjugation, zum Beispiel raufen – raufte – gerauft (schwaches Verb), kennen. So wäre es dem System nach auch möglich, die Formen von laufen regelmäßig zu bilden – und Kinder im Spracherwerb sowie Lernende tun dies ja

176

Carolin Baumann / Viktória Dabóczi

auch häufig: laufen – *laufte – *gelauft. Nichtsdestoweniger ist das nicht die Norm; eine entsprechende Bildung würde einen Normverstoß darstellen. Auf der anderen Seite sind genau diese Möglichkeiten im System dafür verantwortlich, dass auf der Ebene der Norm mehrere Varianten nebeneinander auftreten können und gebraucht werden (bspw. die Formen gewunken und gewinkt). Hennig formuliert dies wie folgt: »… das System [spielt] eine entscheidende Rolle in Bezug auf grammatische Variation, indem es diese überhaupt erst ermöglicht« (Hennig 2017, S. 25). Vor diesem Hintergrund lässt sich der Unterschied zwischen den eingangs aufgeführten Beispielen in Bezug auf den Fehlerbegriff erklären und präzisieren: *Peter geht in die Haus stellt einen Systemfehler dar, denn Haus ist ein neutrales Substantiv, das feminine Genus ist hier keine mögliche Variante (nicht systemkonform). Das Mädchen ist bereits sechs Jahre alt, sie geht bald zur Schule kann dagegen als Normfehler gewertet werden, da die Wiederaufnahme von das Mädchen durch sie zwar gegen die grammatischen Kongruenzregeln, das heißt Regeln von der Übereinstimmung grammatischer Merkmale zwischen Verweis(Pronomen es/sie) und Bezugswort (Nominalphrase das Mädchen), verstößt, weibliche Personen werden jedoch gewöhnlich durch das Personalpronomen sie bezeichnet (zu System- und Normfehlern vgl. auch Eisenberg/Voigt 1990). Dieses zweite Beispiel zeigt also, dass zwei Möglichkeiten im System konfligieren, die grammatische und semantische Kongruenz (letztere auch Sinnkongruenz genannt); welche sich durchsetzt, entscheidet die Norm. Konfligierende Teilsysteme (vgl. ]gel 2008; Hennig 2017) stellen jedoch nur eine Ursache von Fehlern (in diesem Fall Normfehlern) dar. Wie ]gel zeigt, ist das Verhältnis von System und Norm sowohl synchron (zu einem bestimmten Zeitpunkt z. B. im Gegenwartsdeutschen) divers als auch diachron (in seiner historisch bedingten Veränderung) flexibel, entsprechend haben Fehlertypen unterschiedliche Genesen (vgl. ]gel 2008, S. 66–67). Synchron betrachtet ist das Sprachsystem hochkomplex und mehrdimensional. Daraus folgt, dass sich die Zuordnung eines Phänomens zu Norm oder System abhängig von der Dimension ändern kann. Bedeutet der Unterschied zwischen zwei Varianten einen funktionalen Unterschied, gehört es zur Ebene des Systems; sind zwei Varianten funktionsäquivalent, gehört die Variation zur Norm (vgl. ]gel 2008, S. 66). So macht es einen Bedeutungsunterschied aus, ob man die Präposition unter mit dem Dativ, zum Beispiel unter dem Tisch, oder mit dem Akkusativ, zum Beispiel unter den Tisch, verwendet. Anders verhält es sich bei der Wahl des Genitivs oder Dativs bei wegen: wegen des Tischs und wegen dem Tisch bedeutet das Gleiche. Generell sind Sprecherinnen und Sprecher, wie oben erwähnt, geneigt, sich unauffällig auszudrücken. Das bedeutet, dass sie prototypische Elemente innerhalb eines Teilsystems peripheren Elementen unbewusst vorziehen. Dies

Kein Fehler! – Grammatische Zweifelsfälle als Ausdruck sprachlicher Kompetenz

177

kann zu Normverletzungen führen, indem Strukturen dem Zentrum angenähert oder in ein anderes Teilsystem integriert werden (vgl. ]gel 2008). Als Beispiel kann man hier die immer häufiger auftretenden Präteritalformen schwomm statt schwamm oder empfohl statt empfahl erwähnen, die analog zu sog (gesogen) etc. gebildet werden (vgl. ausführlich Dammel 2014). Formen wie backte und melkte können als Integration in ein anderes Teilsystem, nämlich in die Flexionsklasse der schwachen Verben, verstanden werden. Auch die Kompetenz der Sprecherinnen und Sprecher, die in der Regel mehrere Varietäten, zum Beispiel verschiedene Dialekte oder Fachsprachen, beherrschen, erschwert die »empirische Isolierung des Systems und der Normen« (]gel 2008, S. 66). ]gel erwähnt beispielsweise den am-Progressiv (Peter ist am Packen/packen), der in der Schweiz durchaus auch zum Standard gehört, während er in bundesdeutschen Sprachregionen sehr unterschiedlich bewertet wird (vgl. ]gel 2008, S. 66). Diachron gesehen sind sowohl Systeme als auch Normen und ihr Verhältnis zueinander im permanenten Wandel. So gesehen ist es zwingend, dass die Veränderung der Sprache im Laufe der Zeit durch Fehler, vor allem Normfehler, aber auch Systemfehler, initiiert wird. Solche Fehler werden in der Sprachgeschichtsforschung daher als Innovationen bezeichnet, die die sprachliche Erneuerung erst ermöglichen (vgl. ]gel 2008, S. 67). Fehler ist also nicht gleich Fehler. Typen und Ursachen sind synchron wie diachron vielfältig. Vor dem Hintergrund des dynamischen Verhältnisses von System und Norm unterscheidet ]gel (2008) sechs Fehlertypen beziehungsweise Fehlerursachen im Bereich der grammatischen Fehler: Die ersten beiden Typen sind auf der Ebene des Systems verankert. So kann ein grammatischer Fehler sprachhistorisch ein Systemfehler sein, der heute jedoch zur Norm geworden ist. Als Beispiel kann hier eines Nachts erwähnt werden, das analog zu eines Tages gebildet wurde, obwohl Nacht als feminines Substantiv keine Genitivform mit dem s-Flexiv zulässt. Diese Genitivform ist also eigentlich nicht systemkonform, gilt jedoch als normal. Auf der anderen Seite kann ein grammatischer Fehler auch synchron ein reiner Systemfehler sein und trotzdem immer wieder verwendet werden. So findet man häufig die Form meines Erachtens nach, die systematisch eigentlich nicht möglich ist, weil die Präposition nach Dativ und nicht Genitiv fordert. Hier können einerseits Formen, wie meiner Meinung nach als Vorlage gelten, wo eine Dativ-Genitiv-Unterscheidung nicht möglich ist. Andererseits ist auch eine Vermischung der Fügungen meines Erachtens und meiner Meinung nach/meiner Ansicht nach als Erklärung denkbar. Die weiteren vier Fehlertypen sind auf der Ebene der Norm angesiedelt. Hier haben wir es ebenfalls mit Fällen zu tun, die diachron gesehen Normfehler waren/sind. Der Ausgang kann dabei unterschiedlich sein: Zum einen kann ein ursprünglicher Normfehler auf konfligierenden Teilsystemen beruhen und mittlerweile zur Norm gehören (z. B. die Form frohen Mutes statt früher frohes Mutes). Vor

178

Carolin Baumann / Viktória Dabóczi

diesem Hintergrund ist es ebenfalls möglich, dass die alte Norm noch nicht verdrängt ist und alte und neue Norm miteinander konkurrieren (Normvarianz). Hier kann man das Beispiel Er lehrt mich/mir das Kochen erwähnen, wo lehren mit doppeltem Akkusativ die alte Norm und mit Dativ und Akkusativ die neue Norm darstellt (vgl. dazu Eisenberg/Voigt 1990, S. 10–11). Als dritte Möglichkeit kann ein ursprünglicher Normfehler durch seinen peripheren Status begründet werden und der frühere Fehler kann nun zur Norm gehören. Dieser Fall gilt beim bekommen-Passiv (oder Rezipienten-Passiv) mit Verben des Nehmens wie in Anna bekommt die Weisheitszähne gezogen. Und schließlich kann ein Fehler aktuell ein Normfehler sein, wobei die betreffende Form von den Sprecherinnen und Sprechern trotzdem gebraucht wird. Die Ursache des Fehlers ist auch hier der periphere Status. So sind Formulierungen wie ein lilanes/ orangenes T-Shirt sehr häufig, obwohl die Adjektive lila und orange eigentlich nicht deklinierbar sind. Gleichzeitig ist die Deklination der Adjektive vor Nomina jedoch der Normalfall (also prototypisch) (vgl. ]gel 2008, S. 67–68). Aus gegenwärtiger Sicht sind ehemalige System- und Normfehler, die jedoch inzwischen zur Norm gehören, keine Fehler mehr. Bei den anderen Typen haben wir es mit Unsicherheiten und folglich häufig mit konkurrierenden Formen zu tun, die zu der besonderen Gruppe der Zweifelsfälle (vgl. Klein 2003) gehören. Auch sie können nicht einfach als Fehler eingestuft werden; im Hintergrund steckt viel mehr, unter anderem viel Kompetenz der Sprecher, wie wir im Folgenden zeigen werden.

3.

Zweifelsfälle

3.1

Das Spektrum sprachlicher Zweifelsfälle

Nach Klein (2003, S. 7) ist ein sprachlicher Zweifelsfall dann gegeben, wenn eine kompetente Sprecherin oder ein kompetenter Sprecher mit zwei meist formseitig teilidentischen, das heißt äußerlich sehr ähnlichen, und funktional äquivalenten Varianten konfrontiert ist und sich fragt, welche von beiden die korrekte ist; in der Regel zielt der Zweifelnde dabei auf standardsprachliche Korrektheit. Das Besondere am sprachlichen Zweifelsfall als Phänomen ist, dass kompetente Sprecherinnen und Sprecher in ihm aus ihrer automatischen Sprech- beziehungsweise Schreibroutine herausfallen. Plötzlich wird notwendig, was sonst in unserem gewissermaßen vollautomatischen und meist implizit bleibenden, von unbewusst befolgten Regeln geleiteten Sprachgebrauch nicht nötig ist: der Wechsel auf eine Ebene der metasprachlichen Reflexion. Es genügt dabei nicht, dass ein einzelner Sprecher oder eine einzelne Sprecherin zweifelt, vielmehr kann ein sprachlicher Zweifelsfall erst dann als solcher

Kein Fehler! – Grammatische Zweifelsfälle als Ausdruck sprachlicher Kompetenz

179

gelten, wenn sich nachweisen lässt, dass insgesamt mehrere Sprecherinnen und Sprecher das fragliche Phänomen im Sprechen oder Schreiben als Anstoß für eine Reflexion über die gewählten oder zu wählenden sprachlichen Formen erleben. Ob ein individueller Zweifelsfall auch allgemein als solcher gelten kann – und damit als Forschungsgegenstand der Linguistik interessant wird –, kann auf verschiedene Weise geklärt werden. Klein (2006, S. 584–586) spricht hier von Wegen der »Identifikation« eines sprachlichen Zweifelsfalls. So sind zunächst Grammatiken und Lexika zu befragen, ob der Fall hier als problematisch thematisiert wird. Sprachberatungsstellen erlauben mitunter den Zugriff auf die bei ihnen eingegangenen Fragen, so dass man hier auf die Suche nach Belegen für weitere kompetente Zweifel gehen kann. Aus einer Sammlung der DudenSprachberatung ist schon 1965 erstmalig ein Nachschlagewerk hervorgegangen, das heute als Duden Band 9 »Wörterbuch der sprachlichen Zweifelsfälle« erscheint. Auch dies ist eine wichtige Ressource zur Identifikation eines möglichen Zweifelsfalls. Empirische Untersuchungen wie Befragungen oder Sprachgebrauchsanalysen an großen Textsammlungen, sogenannte Korpora, können helfen, Variation nachzuweisen, die immerhin als Hinweis auf einen möglichen Zweifelsfall gelten kann, indem mehrere Varianten die Notwendigkeit der Entscheidung zwischen ihnen und damit die Möglichkeit des Zweifelns bedeuten. Schließlich ist auch immer die eigene sprachliche Intuition daraufhin zu befragen, ob sie den zur Disposition stehenden Zweifelsfall nachempfinden kann. Der »Königsweg« jedoch, so Klein (2003, S. 14), ist die Beobachtung der natürlichen metasprachlichen Thematisierung eines Zweifelsfalls, also etwa, wenn man mitbekommt, wie zwei Personen, die sich unterhalten, ihr eigentliches Gespräch unterbrechen, um in einen metasprachlichen Diskurs einzutreten und zu diskutieren, ob eine gewählte oder zu wählende Ausdrucksweise korrekt ist oder wie es anders lauten könnte oder müsste. Beobachtungen dieser Art sind jedoch, obwohl von Zeit zu Zeit durchaus möglich, zu selten, um bei einem spezifischen infrage stehenden Zweifelsfall darauf zu warten. So weicht die Linguistik in aller Regel auf die anderen Methoden zur Zweifelsfallidentifikation aus. Fälle, in denen kompetente Sprecherinnen und Sprecher wiederholt in Zweifel geraten, finden sich auf allen Ebenen der Sprachstruktur. Besonders häufig sind orthographische Zweifelsfälle Gegenstand von Anfragen bei Sprachberatungsstellen, das heißt Fragen, die die Rechtschreibung und Zeichensetzung betreffen. Dabei stehen Fragen der Groß- und Kleinschreibung, zum Beispiel bei Farbadjektiven wie in die Kleidung ist schwarz, aber in Rot gehalten, sowie der Getrenntund Zusammenschreibung, zum Beispiel der Unterschied zwischen so weit und soweit, häufig zur Disposition. In der Interpunktion stellen sich vor allem Kommafragen, zum Beispiel, ob in Doch (,) ob das passieren wird oder in Unfähig

180

Carolin Baumann / Viktória Dabóczi

(,) einen Kompromiss zu schließen (,) beendete er die Verhandlung Kommata gesetzt werden müssen oder nicht. Aber auch morphologische Zweifelsfälle, also solche der Wortbeugung (Flexion) und Wortbildung, werden ebenfalls regelmäßig angefragt. So, wenn in einer E-Mail an die Siegener Sprachberatung gefragt wird, ob es das Wort sachunkundig als Verneinung zu sachkundig gebe, oder ob sachfremd eine passende Alternative wäre. (Freilich spielt hier auch die Semantik eine Rolle.) Wortbildungsmorphologisch wird es auch mit der Bitte um Hilfe, wenn es plötzlich einen weiblichen Sekretar in der Institution gibt, wie dieser zu benennen sei, denn eine weibliche Form Sekretarin ist nirgends belegt; zudem besteht Verwechslungsgefahr mit der Sekretärin, die als »Schreibkraft« oder »Assistentin« einen anderen Beruf ausübt als ein Sekretar. (Sekretär lässt sich übrigens im einen wie im anderen Sinne, als Assistent und als Abteilungsleiter, verwenden.) Die Frage nach der Pluralform von Pergola – Pergolen oder Pergolas – fällt in den Zuständigkeitsbereich der Flexionsmorphologie. Wie auch Fragen der Wortstellung und des Satzbaus, die in den Bereich der Syntax fallen, sind morphologische Zweifelsfälle eher selten Gegenstand der Anfragen bei der Siegener Sprachberatung. Ein klassischer Zweifelsfall aus dem Bereich zwischen Morphologie und Syntax ist etwa die Wahl des korrekten Kasus nach einer Präposition, wobei vor allem sogenannte sekundäre Präpositionen betroffen sind, also solche, die im Laufe der Sprachgeschichte erst später entstanden sind: Heißt es wegen des Wetters oder darf man auch wegen dem Wetter sagen? Befindet sich das Schwimmbad gegenüber des Rathauses oder gegenüber dem Rathaus (vgl. dazu den Beitrag von Winkel in diesem Heft). Semantische oder lexikalische Fragestellungen nach dem Wortschatz oder der Bedeutung eines Wortes können Gegenstand sprachlichen Zweifels sein. Das betrifft etwa die kritische Anfrage, ob es die Wendung das Abitur schreiben gebe, ob letztens standardsprachlich sei, ob man sagen kann das besorgt mich tief, ob man am Empfang oder im Empfang arbeitet usw. In die Gruppe der pragmatischen Zweifelsfälle fallen sicherlich vor allem Fragen nach der korrekten Verwendung gegenderter Formen oder politisch korrekter Sprache. Hier kann eine linguistische Sprachberatung die sprachlichen Grundgegebenheiten klären, muss darüber hinaus aber auch psychologische, soziologische und politische Erwägungen anregen; eine im engeren Sinne linguistische (Er-)Klärung hilft in diesen Fällen häufig nicht weiter.

Kein Fehler! – Grammatische Zweifelsfälle als Ausdruck sprachlicher Kompetenz

3.2

181

Ausgewählte grammatische Zweifelsfälle aus dem Bereich der Komposition

Wir haben bisher gesehen, dass sprachliche Zweifelsfälle auf allen Ebenen sprachlicher Strukturen vorkommen. Als grammatische Zweifelsfälle im engeren Sinne sind in erster Linie die Zweifelsfälle aus dem Bereich der Morphologie und Syntax anzusehen. Ihrem Vorkommen nach besonders häufig sind hingegen Zweifelsfälle aus dem Bereich der Orthographie. Die Klassifikationsebenen sprachlicher Zweifelsfälle und ihre Kategorien, wie Klein (2003) sie differenziert, lassen sich jedoch keineswegs generell strikt trennen. Vielmehr sind sie auf Ebene der Phänomene vielfach miteinander verschränkt; sowohl was die sprachliche Strukturebene anbelangt als auch was mögliche Entstehungsursachen betrifft (vgl. dazu auch Abschnitt 2.3). 3.2.1 Grammatisch-orthographische Zweifelsfälle: Getrennt- und Zusammenschreibung Eine Gruppe innerhalb der häufigen orthographischen Fragen sind solche des folgenden Typs: Gibt es langdauernd zusammengeschrieben als Adjektiv? Oder muss man lang dauernd schreiben? Schreibt man dazu holen oder dazuholen? So weit wir sehen können oder soweit wir sehen können? Zeltstangen gleich oder zeltstangengleich?

Ob zwei Einheiten, die möglicherweise selbständige Wörter sind, getrennt- oder zusammengeschrieben werden, ist prima facie eine Frage der Orthographie. Nach Fuhrhop (2009, S. 53) gilt ganz grundlegend und allgemein: »Ein Wort wird zusammengeschrieben. Entsprechend werden ›Nicht-Wörter‹ (Syntagmen) getrennt geschrieben.« Was sich zunächst so selbstverständlich – und als Auskunft vielleicht wenig hilfreich – darstellt, beinhaltet die zentrale Frage: Handelt es sich bei der gesamten Einheit um ein einzelnes Wort oder nicht? Doch woher weiß man, ob etwas ein Wort ist oder nicht? Hier kommt nun die Grammatik ins Spiel: Ein Verbund aus zwei Wörtern ist dann ein Wort, wenn die Elemente durch Wortbildung miteinander verbunden sind; Fuhrhop (2009, S. 54) spricht hier vom »Wortbildungsprinzip«. Und nach dem »Relationsprinzip« (Fuhrhop 2009, S. 54) gilt, dass Einheiten dann zu einem Wort gehören (und damit zusammengeschrieben werden), wenn sie sich im Satz nicht getrennt als funktionale Einheiten interpretieren lassen.

182

Carolin Baumann / Viktória Dabóczi

Diese Prinzipien lassen sich in einigen Fällen leicht anwenden: In Die Tasse steht auf dem Schreibtisch sind die Einheiten schreib und tisch eindeutig zusammenzuschreiben, weil sie einerseits, nach dem Wortbildungsprinzip, über Komposition miteinander verbunden sind und zusammen einen spezifischen Begriff repräsentieren: eine bestimmte Art von Tisch, der in der Regel für eine Person gemacht ist, in einem Büro steht, bei der Verrichtung von Schreibtätigkeiten als Unterlage dient usw. Andererseits ist die Getrenntschreibung, also *Die Tasse steht auf dem schreib Tisch, nicht sinnvoll syntaktisch zu interpretieren: Was könnte schreib in diesem Kontext zwischen Artikel und Substantiv sein? Hier stehen gewöhnlich attributive Adjektive; eine solche Interpretation kommt für schreib aber nicht infrage, weil es sich schlicht nicht um ein Adjektiv handelt und auch die für attributiv verwendete Adjektive charakteristische Deklinationsendung fehlt (vgl. auf dem schönen Tisch). So kommt man zu dem Schluss, dass schreib nicht getrennt syntaktisch zu interpretieren ist, dass es mithin zum Kern der Nominalphrase gehört, das heißt Teil des Substantivs ist, das damit Schreibtisch lautet. In den bei der Sprachberatung angefragten Zweifelsfällen ist die Lage jedoch schwieriger. Die betreffenden Einheiten lassen sich recht gut syntaktisch getrennt interpretieren: So ist lang in lang dauernd eine adverbiale Bestimmung zu dauernd, das ja als Partizip zum Verb dauern gehört; gleiches gilt für dazu als adverbiale Bestimmung zu holen in dazu holen; so lässt sich außerdem als adverbiale Bestimmung zum Adjektiv weit verstehen, das sprachlich zeigend eine Quantifikation zum Ausdruck bringt; Zeltstangen kann als Dativergänzung zum Adjektiv gleich aufgefasst werden, nach der man mit »Wem oder was (gleich)?« fragen kann. Das Relationsprinzip liefert hier also keine Evidenz für Zusammenschreibung. Wendet man sich an das Wortbildungsprinzip, wird die Frage zur Ermessenssache. Zur Disposition steht hier das Wortbildungsverfahren der Univerbierung oder Zusammenrückung, das dadurch gekennzeichnet ist, dass ursprünglich syntaktisch miteinander verbundene Einheiten durch häufigen gemeinsamen Gebrauch einerseits und zunehmende Bedeutungsabstraktion andererseits zusammenwachsen. Ob nun im Einzelfall die Schwelle der Wortwerdung überschritten ist oder nicht, erscheint da als Frage der individuellen Abwägung. Bei lang dauernd / langdauernd und zeltstangengleich / Zeltstangen gleich wird man aus der gesprochenen Sprache auch Merkmale des Akzents und der Prosodie, das heißt der Betonung und des Tonhöhenverlaufs, heranziehen. Je nachdem, ob beide Einheiten getrennt betont werden oder unter einem gemeinsamen Tonbogen artikuliert werden, wird man entscheiden, ob eine adverbiale Modifikation beziehungsweise objektartige Ergänzung vorliegt oder ein komplexer Begriff, der sich unter Umständen nicht ausschließlich auf die Bedeutungen seiner Teile zurückführen lässt – etwa, wenn wir mit langdauernd

Kein Fehler! – Grammatische Zweifelsfälle als Ausdruck sprachlicher Kompetenz

183

nicht nur die zeitliche Erstreckung, sondern vielleicht auch eine gewisse Mühseligkeit und ermüdende Dauer eines Verfahrens meinen –, werden wir zur Getrennt- oder Zusammenschreibung tendieren. Nach Duden (2016, S. 412–413) ist Getrenntschreibung in diesen Fällen jedoch die Regel. Für soweit gilt Zusammenschreibung, wenn es einen Nebensatz einleitet, Getrenntschreibung, wenn es als adverbiale Bestimmung erscheint (vgl. Duden 2016, S. 416); der damit reklamierte Unterschied zwischen beispielsweise soweit ich sehe und so weit das Auge reicht ist jedoch bestenfalls ein gradueller mit Blick auf den Abstraktionsgrad der Bedeutung. Kein Wunder also, wenn man sich wundert. Und für dazu holen / dazuholen unterscheidet Duden (2016, S. 404–405) danach, ob das zeigende Element in dazu im Kotext der Verwendung eingelöst wird, zum Beispiel Ich habe dir einen Hamburger mitgebracht. Soll ich dir noch eine Cola dazu holen?, oder unbestimmt bleibt, zum Beispiel Wir fangen gleich an. Soll ich Peter dazuholen?. Auch hier scheint der Unterschied mit dem Abstraktionsgrad verknüpft und ein nur gradueller zu sein. Was diese Zweifelsfälle der Getrennt- und Zusammenschreibung jedoch gemeinschaftlich zeigen, ist, dass hinter der orthographischen Frage eine grammatische steckt: Wortbildung oder nicht? – und hinter der orthographischen Frage ferner eine Frage nach der Semantik der betreffenden Ausdrücke. 3.2.2 Grammatisch-regionale Zweifelsfälle: Fugenelemente Im November 2007 ging bei der Siegener Sprachberatung die Frage ein, ob die Rechtschreibreform mit ihrem Vereinheitlichungsgedanken versagt habe, wenn in Deutschland bei Komposita mit Advent immer -s- eingefügt würde, in Österreich hingegen nicht: Adventszeit vs. Adventzeit, Adventsmarkt vs. Adventmarkt, Adventskalender vs. Adventkalender usw. Zunächst einmal ist festzuhalten, dass es sich hier nicht um eine Frage der Rechtschreibung handelt; schließlich stellt sich auch im Gesprochenen die Frage, ob ein s zu artikulieren ist oder nicht. Somit ist der Zweifelsfall dem Bereich der (Wortbildungs-)Morphologie zuzuordnen. Dass der Anfragende dennoch auf die Rechtschreibung verweist, zeugt vom großen Bewusstsein für diesen Bereich als regelgeleitetes System. Nur in der Rechtschreibung, nicht aber in den (anderen, s. o.) Bereichen der Grammatik, gibt es explizite amtliche Regeln, die vom »Rat für deutsche Rechtschreibung« erlassen und vom Bundestag verabschiedet werden. Vielleicht rührt daher die Tendenz, Fragen sprachlicher Regeln zunächst der Rechtschreibung zuzuordnen (vgl. zum Stellenwert der Rechtschreibung im Bewusstsein der Sprecherinnen und Sprecher auch Hensel in diesem Heft). Der Aspekt von Wortbildung, genauer Komposition, um den es hier geht und für den tatsächlich bisweilen regional unterschiedliche Standardvarianten (so-

184

Carolin Baumann / Viktória Dabóczi

genannte diatopische Variation) zu Zweifelsfällen führen, sind die sogenannten Fugenelemente. Diese sind definiert als das lautliche Material, das in Komposita, also Zusammensetzungen aus zwei meist potenziell selbständigen Wortstämmen, zwischen die beiden Stämme tritt beziehungsweise um das das Erstglied des Kompositums gegenüber dem Stamm erweitert erscheint (vgl. Nübling/ Szczepaniak 2011, S. 196), also zum Beispiel -es- in Tagesablauf, -s- in Mittagshitze, -er- in Kinderwagen, -n- in Flaschenhals, -en- in Bärenhunger. Am verbreitetsten und am häufigsten bei der Bildung neuer Komposita beteiligt ist das Fugenelement -s-, um das es auch in der obigen Anfrage geht. Obwohl es sich historisch aus einer Flexionsendung entwickelt hat (vgl. dazu auch weiter unten), hat es heute überwiegend eine rein prosodisch-phonologische Funktion, indem es die zentrale Grenze im Kompositum durch zusätzliches lautliches Material markiert und so die Analyse des zusammengesetzten Wortes durch den Rezipienten erleichtert. Dies ist insbesondere in den Fällen nötig, in denen die Gliederung des Kompositums aus wortstrukturellen Gründen nicht leicht erkennbar ist, genauer : wenn das Erstglied des Kompositums seiner Struktur nach vom Ideal beziehungsweise Prototypen eines deutschen Wortes abweicht. Prototypisch für das Deutsche sind Einsilber wie Tisch, Buch, Hand oder Zweisilber mit trochäischer Betonungsstruktur wie Tasse, Himmel, Lampe, das heißt mit der Abfolge aus betonter und unbetonter Silbe, wobei letztere einen abgeschwächtes, dumpfes e als Silbenkern enthält. Nübling/Szczepaniak (2011, S. 207) sprechen hier von phonologischer Wortqualität. Ist diese also gering, was insbesondere bei komplexen Wörtern mit Prä- und/oder Suffix wie Verständlichkeit oder Belieferung der Fall ist, ist das Ende des Kompositionserstgliedes prosodisch schlechter zu erkennen, die Markierung mit dem Fugenelement -sist notwendig beziehungsweise, aus Perspektive der beschreibenden Sprachwissenschaftlerinnen gesprochen, wahrscheinlich. In der obigen Sprachberatungsfrage geht es um Komposita mit Erstglied Advent, einem Fremdwort, das zwar zweisilbig ist und darin dem Ideal eines Wortes im Deutschen entspricht, aber statt einer trochäischen eine jambische und somit vom Ideal stark abweichende Betonungsstruktur aufweist. Demnach kann Advent als Substantiv mit ambiger oder mittlerer phonologischer Wortqualität gelten; die Markierung der Kompositionsfuge mit Fugenelement -s-, so könnte man ableiten, ist entsprechend von unsicherer oder mittlerer Notwendigkeit. Vor diesem Hintergrund hat sich in Deutschland und Österreich tatsächlich eine je andere Standardvariante etabliert, was sich auch im Sprachgebrauch abbildet, wie eine Gebrauchsanalyse anhand eines großen Textkorpus zeigen kann. Verwendet wird hier das Deutsche Referenzkorpus (DeReKo) des LeibnizInstituts für deutsche Sprache in Mannheim mit rund 9,5 Millionen laufenden Wörtern, die aus Textquellen aus vier Ländern stammen (Tab. 1).

Kein Fehler! – Grammatische Zweifelsfälle als Ausdruck sprachlicher Kompetenz

D 1.176.213.098

CH 1.455.473.265

A 1.176.213.098

L 59.238.626

71,6 %

15,3 %

12,4 %

0,6 %

185

Tab 1: Absolute und relative Korpusgröße der Teilkorpora des Archivs W des Deutschen Referenzkorpus nach Ländern (D=Deutschland, CH=Schweiz, A=Österreich, L=Luxemburg) in laufenden Wörtern (Tokens) beziehungsweise Prozent

Da es empirisch nicht möglich ist, eine Hypothese positiv durch Beobachtung zu beweisen, wird in der empirischen Forschung meist der Weg über die Widerlegung gewählt. Dazu stellt man zunächst eine sogenannte Nullhypothese auf, die die gegenteilige Annahme zur eigentlich der Untersuchung zugrundeliegenden enthält. In unserem Falle wäre das: H0 : Der Staat hat keinen Einfluss auf das Vorkommen von s-verfugten und nicht verfugten Komposita mit Erstglied Advent.

Würde diese Annahme gelten, wäre zu erwarten, dass sich die s-verfugten und nicht verfugten Komposita einigermaßen gleich verhalten. Überdies würden wir annehmen, dass sich die Varianten gleichmäßig im Korpus verteilen; der Anteil beider Gruppen pro Land würde dem Anteil dieses Landes an der Textmenge insgesamt entsprechen, so wie man in einem Viertel eines Rosinenstutens auch ein Viertel der Rosinen erwarten würde, sofern diese gleichmäßig verteilt wären. Werfen wir also einen Blick auf die Verteilung einiger Komposita mit Advent als Erstglied (Tab. 2). Adventmarkt

D 259

CH 2

A 19.905

L 3

Adventsmarkt

13.303

2.385

41

22

Adventkalender

140

4

2.314

1

Adventskalender

21.623

2.991

103

46

Adventzeit

325

22

3.721

1

Adventszeit

29.256

6.573

649

78

Tab. 2: Absolute Häufigkeiten von Advent(s)markt, Advent(s)kalender und Advent(s)zeit im Archiv W des Deutschen Referenzkorpus nach Ländern

Schon auf den ersten Blick fällt auf, dass die Verteilung der jeweiligen beiden Varianten sehr unterschiedlich ausfällt und die Variante ohne Fugenelement immer in Österreich (A) die meisten Belege aufweist. Für alle anderen vertretenen Länder dominiert klar die Variante mit Fugenelement. Zudem wird deutlich, dass die drei Wörter insgesamt unterschiedlich häufig verwendet werden: Advent(s)zeit (40.625 Belege) am häufigsten, gefolgt von Advent(s)markt (35.920 Belege) und Advent(s)kalender (27.222 Belege). Advent(s)markt

186

Carolin Baumann / Viktória Dabóczi

ist unter den drei betrachteten Komposita dahingehend auffällig, dass das österreichische Teilkorpus, obwohl es nur 12,4 % am Gesamtkorpus ausmacht, den größten Teil der Belege stellt (55,4 %, erwartungsgemäß fast ausschließlich ohne Fugenelement). Da die absoluten Häufigkeiten aufgrund der unterschiedlich hohen Belegzahlen je nach Wort wenig aussagekräftig sind, betrachten wir auch die relativen Werte (Tab. 3). Adventmarkt

D (71,6 %) 1,28 %

CH (15,3 %) 0,00 %

A (12,4 %) 98,69 %

L (0,6 %) 0,01 %

Adventsmarkt

84,46 %

15,14 %

0,26 %

0,14 %

Adventkalender

5,69 %

0,16 %

94,10 %

0,04 %

Adventskalender

87,32 %

12,08 %

0,42 %

0,19 %

Adventzeit

7,99 %

0,54 %

91,45 %

0,02 %

Adventszeit

80,03 %

17,98 %

1,78 %

0,21 %

Tab. 3: Relative Häufigkeiten von Advent(s)markt, Advent(s)kalender und Advent(s)zeit im Archiv W des Deutschen Referenzkorpus nach Ländern

Hier wird nun endgültig die komplementäre Verteilung der beiden Varianten auf die Länderteilkorpora deutlich: Der größte Teil der Variante ohne Fugenelement ist jeweils für Österreich belegt; die Variante ohne Fugenelement verteilt sich einigermaßen erwartungsgemäß gleichmäßig auf die anderen Teilkorpora. Es bildet sich somit im allgemeinen Sprachgebrauch ab, was im individuellen Sprachgebrauch zum Zweifel führen kann: Für die Wortbildung von Komposita mit Erstglied Advent gelten in unterschiedlichen Regionen des deutschen Sprachgebiets verschiedene Varianten als normal. Und obwohl das Phänomen ein (wortbildungs-)morphologisches ist, werden diese Normen durch ihre Kodifizierung in (Rechtschreib-)Wörterbüchern fixiert, die Variation wird forciert und ein allmählicher Ausgleich zugunsten einer der beiden Varianten wird damit unwahrscheinlicher. 3.2.3 Grammatisch-diachrone Zweifelsfälle: Fugenelemente und Numerusbedeutung Ebenfalls um Fugenelemente geht es, wenn interessierte und kritische Sprecherinnen und Sprecher beziehungsweise Schreiberinnen und Schreiber die Siegener Sprachberaterinnen fragen, warum es denn Vogelpark und Kuhstall, aber Hühnerstall heiße. Sind nicht im Vogelpark ebenso wie im Kuhstall mehrere Vertreter der betreffenden Art anzutreffen und müsste es demnach nicht *Vögelpark und *Kühestall heißen? In Hühnerstall scheint doch immerhin eine Pluralform Hühner die Mehrzahl der Tiere zum Ausdruck zu bringen. Mit Recht,

Kein Fehler! – Grammatische Zweifelsfälle als Ausdruck sprachlicher Kompetenz

187

so scheint es, kann man fragen, wo da die Systematik bleibt, die man doch von der Grammatik einer Sprache erwartet. Und die Liste der in diesem Sinne fragwürdigen Fälle ließe sich beliebig erweitern: Stammt der Schweinebraten nicht in aller Regel von einem einzigen Schwein? Dann müsste es doch eher *Schweinbraten heißen, oder Schweinsbraten, das es ja immerhin regional gibt. Ist die Bischofskonferenz nicht üblicherweise durch die Teilnahme nicht nur eines Bischofs gekennzeichnet, sondern mehrerer? Wäre also eher *Bischöfekonferenz die logische Form? Was im Hintergrund dieses Zweifels steht, ist die historische Entwicklung der Fugenelemente -e- und -er-. Einige von ihnen gehen schon auf die althochdeutsche Zeit zurück. Dort hatten ihre vollvokalischen Vorläufer die Funktion, aus Wortwurzeln Stämme zu bilden, die auch in einfachen Wortformen vorkamen, oder als reiner Kompositionsvokal, ähnlich dem heutigen konsonantischen Fugenelement -s-, zwischen zwei Kompositionsglieder zu treten (vgl. Wilmanns 1911, S. 399; Demske 2001, S. 297). Heute gibt es diese Form der Stammbildung vor der Wortbeugung oder Wortbildung nicht mehr und auch die Kompositionsvokale sind keine in der Wortbildung produktiven Elemente. Die ursprünglichen Elemente fielen in einfachen Wortformen meist ganz weg oder wurden zu Flexionsendungen umfunktioniert. In Komposita fielen sie ebenfalls weg oder blieben, abgeschwächt zu dumpfem e beziehungsweise er, erhalten und wurden dann als Fugenelemente aufgefasst. So haben wir heute ein Fugenelement -e- in Schweinebraten, das denselben historischen Vorläufer hat wie die Pluralendung -e in Schweine; das gleiche gilt für -er- in Hühnerstall und die Pluralendung -er in Hühner. Funktional haben beide Elemente aber heute nichts mehr miteinander zu tun (vgl. auch Wegener 2003, S. 432). Eine etwas andere Geschichte hat das Fugenelement -s-, das heute das häufigste Fugenelement ist und zugleich dasjenige, das bei der Bildung neuer Komposita am ehesten Verwendung findet, aber auch am häufigsten Gegenstand sprachlicher Zweifelsfälle ist. -s- geht, anders als -e- und -er-, auf eine GenitivSingular-Endung zurück. Anders als die ursprünglich stammbildenden Elemente, die (bzw. deren Vorläufer) schon in althochdeutscher Zeit (ca. 8. bis 11. Jh. n. Chr.) existierten, gehörte es nicht schon immer zum Kompositum, sondern ist in frühneuhochdeutscher Zeit (ca. 14. bis 17. Jh. n. Chr.) zunächst bei der Entstehung der ersten Komposita dieses Typs aus syntaktischen Verbindungen praktisch »eingewachsen«. Dem Bildungsmuster liegen Fügungen mit Genitivattribut wie (des) Teufels Sohn oder (des) Hahnen Schrei zugrunde. Als im Frühneuhochdeutschen die Genitivattribute zunehmend hinter das Bezugssubstantiv gesetzt wurden, nicht mehr (des) Vaters Haus, sondern (das) Haus des Vaters, blieben einige sehr etablierte Wendungen in der ursprünglichen Reihenfolge bestehen. Vor dem Hintergrund der neuen Normen in der Wortstellung wurden die betreffenden Fügungen dann nicht länger als Syntagmen,

188

Carolin Baumann / Viktória Dabóczi

sondern als komplexe Worteinheiten aufgefasst, die als Vorlage für weitere, neue Bildungen dienten (vgl. dazu Demske 2001, S. 299). Das seitdem sehr produktive Wortbildungsmuster mit den Fugenelementen -s- und -(e)n- war geboren. In neuen Bildungen, die zahlreich folgten, immer noch folgen und deren Bestand den Ruf des Deutschen als äußerst kompositionsfreudige Sprache ausmacht, musste freilich kein Bezug mehr zu einer Genitivendung bestehen. Und so kommt es, dass es heute sowohl einer Interpretation als Genitiv Singular widersprechende Komposita wie Bischofskonferenz gibt als auch solche, in denen die Interpretation als Genitivendung gar nicht möglich ist, weil -s keine Endung im Flexionsparadigma des Erstgliedwortes ist, zum Beispiel Zeitungsjunge, ohne dass es *(der/die) Zeitungs gäbe. Dennoch erscheint es ganz natürlich, dass die Fugenelemente von Sprecherinnen und Sprechern mit den häufig formgleichen Flexionsendungen identifiziert werden – treten sie doch wie jene hinter den Stamm des Wortes und bilden eine in Laut und Schreibung identische Form. Diese Identifikation erscheint jedoch als ein Spezifikum der metasprachlichen Reflexion, denn die Tatsache, dass sich die teilweise semantisch inkompatible, teilweise flexionsmorphologisch nicht lizensierte Verwendung von Fugenelementen im System etabliert hat, spricht dafür, dass der Konflikt im impliziten Sprachvermögen der Sprecherinnen und Sprecher kein allzu großes Problem darstellt.

4.

Fazit: Kein Fehler! – »Kompetenzlinguistik«

Sprachliches Zweifeln, so viel sollte nach den gemachten Ausführungen klar geworden sein, ist keineswegs ein Zeichen sprachlicher Inkompetenz. Darin unterscheidet sich der Zweifelnde vom Verfehlenden, der Zweifelsfall vom Fehler. Mehr noch: Der Zweifelsfall ist gewissermaßen das Gegenstück zum Fehler. Wo letzterer die womöglich unreflektierte Performanz der Inkompetenz darstellt, ist sprachliches Zweifeln Metareflexion der eigenen Kompetenz und zeichnet gerade die kompetente Sprecherin und den kompetenten Sprecher aus, hebt sie ab von jenen, die in ihrem Sprachgebrauch nicht zweifeln, weil sie keine Kenntnis haben von sprachlicher Variation, weil sie mithin weniger variationsund sprachkompetent sind (vgl. Klein 2018, S. 23). Dennoch vermag die Klärung sprachlicher Zweifelsfälle die Sprachkompetenz der Sprecherinnen und Sprecher noch zu vermehren: Wer nämlich um die Variation in der Sprache weiß und dennoch nicht zweifelt, der ist in der Lage, je nach Kontext die mit Blick auf die vorliegende Kommunikationssituation, auf Ort und Rahmen, auf das soziale Verhältnis der Beteiligten und das Ziel der Interaktion, die jeweils angemessene sprachliche Form zu wählen. Klein (2018, S. 23) spricht in diesem Fall vom vollkompetenten Sprecher.

Kein Fehler! – Grammatische Zweifelsfälle als Ausdruck sprachlicher Kompetenz

189

Aufgabe der Linguistik und insbesondere der linguistischen Sprachberatungen ist es daher außerdem, nicht nur im Zweifelsfall Empfehlungen auszusprechen, sondern auch die Hintergründe des Zweifelsfalls, die zugrunde liegende Variation, den Norm- oder gar Systemkonflikt zu erläutern.

Literatur ]gel, Vilmos (2008): Bastian Sick und die Grammatik. Ein ungleiches Duell. In: Informationen Deutsch als Fremdsprache 35 (1), S. 64–84. Baumann, Carolin/Dabjczi, Viktjria (2014): Umnutzung entgegen des Sprachwandels: Irreguläre Flexionsformen als Prestigeträger? In: Habscheid, Stephan/Hoch, Gero/ Schröteler-von Brandt, Hildegard/Stein, Volker (Hrsg.), Zum Thema: Umnutzung. Alte Sachen, neue Zwecke. DIAGONAL Heft 35, Göttingen, S. 251–274. Coseriu, Eugenio (1988): Sprachkompetenz. Grundzüge der Theorie des Sprechens. Tübingen. Dammel, Antje (2014): Die schönen alten Formen… Grammatischer Wandel der deutschen Verbalflexion – Verfall oder Reorganisation? In: Plewnia, Albrecht/Witt, Andreas (Hrsg.), Sprachverfall? Dynamik – Wandel – Variation. Jahrbuch des Instituts für Deutsche Sprache 2013. Berlin, S. 51–70. Demske, Ulrike (2001): Merkmale und Relationen. Diachrone Studien zur Nominalphrase des Deutschen. Berlin, New York. Duden (2016): Das Wörterbuch der sprachlichen Zweifelsfälle. Richtiges und gutes Deutsch. 8. Aufl. Berlin. Eisenberg, Peter/Voigt, Gerhard (1990): Grammatikfehler? Praxis Deutsch 17 (102), S. 10–15. Fuhrhop, Nanna (2009): Orthografie. 3. Aufl. Heidelberg. Hennig, Mathilde (2009): Wie viel Varianz verträgt die Norm? Grammatische Zweifelsfälle als Prüfstein für Fragen der Normenbildung. In: Hennig, Mathilde/Müller, Christoph (Hrsg.), Wie normal ist die Norm? Sprachliche Normen im Spannungsfeld von Sprachwissenschaft, Sprachöffentlichkeit und Sprachdidaktik. Kassel, S. 14–38. Hennig, Mathilde (2017): Grammatik und Variation im Spannungsfeld von Sprachwissenschaft und öffentlicher Sprachreflexion. In: Konopka, Marek/Wöllstein, Angelika (Hrsg.), Grammatische Variation. Empirische Zugänge und theoretische Modellierung. Jahrbuch des Instituts für Deutsche Sprache 2016. Berlin, Boston. Klein, Wolf Peter (2003): Sprachliche Zweifelsfälle als linguistischer Gegenstand. Zur Einführung in ein vergessenes Thema der Sprachwissenschaft. Linguistik online 16 (4). http://www.linguistik-online.ch/16_03/klein.html (zuletzt abgerufen am 05. 08. 2019). Klein, Wolf Peter (2006): Vergebens oder vergeblich? Ein Modell zur Analyse sprachlicher Zweifelsfälle. In: Breindl, Eva/Gunkel, Lutz/Strecker, Bruno (Hrsg.), Grammatische Untersuchungen – Analysen und Reflexionen. Tübingen, S. 581–599. Klein, Wolf Peter (2018): Sprachliche Zweifelsfälle im Deutschen. Theorie, Praxis, Geschichte. Berlin, Boston. Nübling, Damaris (2011): Unter großem persönlichem oder persönlichen Einsatz? – Der sprachliche Zweifelsfall adjektivischer Parallel- vs. Wechselflexion als Beispiel für

190

Carolin Baumann / Viktória Dabóczi

aktuellen grammatischen Wandel. In: Köpke, Klaus-Michael/Ziegler, Arne (Hrsg.), Grammatik – Lehren, Lernen, Verstehen. Zugänge zur Grammatik des Gegenwartsdeutschen. Berlin, New York, S. 175–196. Nübling, Damaris/Szczepaniak, Renata (2011): Religion+s+freiheit, Stabilität+s+pakt und Subjekt(+s+)pronomen: Fugenelemente als Marker phonologischer Wortgrenzen. In: Müller, Peter O. (Hrsg.), Studien zur Fremdwortbildung. Hildesheim, S. 195– 222. Wegener, Heide (2003): Entstehung und Funktion der Fugenelemente im Deutschen, oder : warum wir keine *Autosbahn haben. Linguistische Berichte 196, S. 425–457. Wilmanns, Wilhelm (1911): Deutsche Grammatik. Gotisch, Alt-, Mittel- und Neu-hochdeutsch. Erste Abteilung: Lautlehre. Straßburg. Zifonun, Gisela/Hoffmann, Ludger/Strecker, Bruno/Ballweg, Joachim (1997): Grammatik der deutschen Sprache. Berlin, New York.

Gustav Bergmann*

Fähler. Ein Versuch über Fehler, Irrwege, Makel und Scheitern – und was mensch daraus lernen kann

Dieser Text stellt einen Versuch dar, das komplexe Feld der Fehler zu umkreisen. Selbst sicher fehlerhaft und unvollständig, setzt der Text Interesse und Wohlwollen der Leserschaft voraus, welche jedoch Anregungen, Ideen und einige provokante Thesen erwarten können.

1.

Von kleinen und ganz großen Fehlern

Es gibt kleine und sehr große, nützliche und sehr schädliche Fehler. Menschen sind zu vielem fähige Lebewesen, die mittlerweile alle Geschicke auf der Welt bestimmen. Somit sprechen wir vom Anthropozän. Die Menschen haben so große Eingriffe in die Welt vorgenommen, dass einige von ihnen in ihrer Hybris Allmachtsphantasien entwickeln. Sie maßen sich an, sich die Erde untertan zu machen, sie besser gestalten zu können, als sie von Natur beschaffen ist. Kluge Vertreterinnen und Vertreter der Menschheit weisen auf Probleme in komplexen Systemen hin. Gestaltendes Eingreifen kann schnell zu unerwarteten, unintendierten und gravierenden Wirkungen führen. Zum Einstieg ein paar typische Fehlermeldungen: »Fehler #404? This repair tool is not compatible with your operating system.« »Fahrfehler führte ins Kiesbett und nicht wieder hinaus.« »Richter bringt den Falschen in den Knast.« »Flughafen wird 3 mal so teuer und 10 Jahre später fertig als geplant.« »Havarie der Ölplattform Deep Water Horizon – Millionen von Liter Öl verpesten den Golf von Mexiko.« »In Fukushima trat das Restrisiko ein.« »Der Bestand an Insekten hat sich in den letzten zwei Jahren um 70 % reduziert.« Von Bert Brecht lernen wir :

* Univ.-Prof. Dr. Gustav Bergmann, Universität Siegen, Fakultät III (Wirtschaftswissenschaften – Wirtschaftsinformatik – Wirtschaftsrecht), Lehrstuhl Innovations- und Kompetenzmanagement.

192

Gustav Bergmann

»Wer a sagt, der muß nicht b sagen. Er kann auch erkennen, daß a falsch war.« (Brecht 2005, Der Jasager. Der Neinsager)

Brecht weist darauf hin, dass wir die Wege, die wir beschreiten, auch wechseln, also eine Pfadabhängigkeit vermeiden können. Fehler sind häufig Folge von schlechten Entscheidungen und unzureichender Kommunikation. Die Entscheidungen müssen so getroffen werden, dass eine Änderung später noch möglich ist, also reversibel. Systeme müssen danach so konstruiert werden, dass sie robust sind und Fehler in der Handhabung abfedern. Ein Versuch, Fehler zu vermeiden, kann paradoxerweise zu schlimmeren Folgen führen. Selbsttore schießen vor allem die, die sie unbedingt vermeiden wollen. Es geht also um das stete Bemühen, trotz Rückschlägen eine Verbesserung zu erzielen: »Ever tried. Ever failed. No matter. Try again. Fail again. Fail better.« (Beckett 1983)

Dann haben wir es auch noch mit Paradoxien und Widersprüchen zu tun: Das Ganze ist mehr als die Summe der Teile. 4 plus 5 ist 9? Was ist nun richtig? Es kommt wohl auf den Kontext an, welche Aussage zutreffend ist. Der Künstler Sigmar Polke hat vor vielen Jahren ein Bild mit Gleichungen kreiert, bei denen scheinbar falsche Resultate notiert sind. Er wollte auf die Uneindeutigkeit, die Ambiguität der Welt hinweisen. Einfache Algebra ist nichts weiter als eine triviale Vereinbarung. Die Synergetik kommt zu ganz anderen, nicht trivialen Erkenntnissen, da sie das Zusammenwirken der Elemente thematisiert. Der Kreter Epimenides sagte: »Alle Kreter lügen«. Er hat damit einen paradoxen Zusammenhang deutlich gemacht. Wenn er recht hat, stimmt die Aussage nicht. Ist es dann besser, nicht mehr recht haben zu wollen?

2.

Nichtrechthabenwollen und doch richtig liegen …

Ein Philosoph kann sich erlauben, nicht mehr recht haben zu wollen, eine Herzchirurgin kann das eher nicht. Dennoch wissen beide nicht unbedingt, was in einer betreffenden Situation richtig oder falsch ist, sie können es nur versuchen. Der Philosoph Martin Seel hat mit einem Buch angekündigt, nicht mehr recht haben zu wollen (Seel 2018). Welche Entspannung zieht in mein Gemüt. Endlich mal jemand, der nicht immerzu behauptet, recht zu haben und unbedingt recht zu bekommen. Philosophisch redlich erscheint es allemal, nicht Gewissheit, sondern Zweifel zu verbreiten und mit Fragen Diskurse zu eröffnen. Kann oder muss man denn nicht manchmal recht haben oder zumindest richtig liegen? Es gibt eben sehr unterschiedliche Situationen. Bei einer Operation muss die Wahrscheinlichkeit von Fehlgriffen und Behandlungsfehlern minimiert werden.

Fähler. Ein Versuch über Fehler, Irrwege, Makel und Scheitern

193

Es müssen Erfahrungen genutzt werden, um damit sichere Vorgehensweisen zu etablieren. Die Chirurgin muss trotz unübersichtlicher Lage die richtige Entscheidung treffen, die das Leben rettet. Dieser Text soll ein wenig Übersicht in der Unübersichtlichkeit verschaffen. Heutzutage haben wir es zunehmend mit Geschrei zu tun. Jeder hat eine Meinung, für die er oder sie dann auch noch Beifall bekommen möchte. Damit das geschieht, lebt man in der Resonanzblase, in der man von Zustimmern umringt ist und ungestört auch Blödsinn vertreten kann. Die Vision mancher Internet-Gurus, dass jeder seine special interest Medien nutzt, ist leider wahr geworden. So verfestigen sich Meinungen und gefühlte Wahrheiten auf Basis von Privatempirie. Im Fernsehen treten kaum noch Intellektuelle auf, schon gar keine Philosophen, denn die verharren im Zweifel, werfen Fragen auf und erhöhen so die empfundene Unsicherheit. Deshalb werden »Experten« zurate gezogen, die meinen, zwischen richtig und falsch unterscheiden zu können. Sie sprechen »Wahrheit« aus und bedienen ihr gläubiges Klientel. Noch fragwürdiger sind Verfälscher, Trickser und Lügner, die wider besseren Wissens Unwahrheiten in die Welt setzen. Besonders schlimme Folgen haben die Verführungskünste der Retropolitiker (Bergmann 2018): Sie schüren Ängste und Unsicherheiten, bewirken Anomie und bieten gerade ihren Wählern alles andere als Lösungen an. Sie sind reine Negation. Die Welt ist aufgrund der Vernetzung so uneindeutig und vielschichtig geworden, dass einfache Antworten und Gewissheiten kaum tragfähige Lösungen erzeugen, dennoch stehen sie hoch im Kurs. Schon hier sei angedeutet, dass gute, robuste, tragfähige und reversible Entscheidungen bestenfalls im Dialog entwickelt werden, einer Kommunikationsform, bei der alle Seiten respektvoll die anderen Gesichtspunkte, Sichtweisen, Interessen und Erkenntnisse berücksichtigen und bei der dann alle klüger werden und wahrscheinlich gute Entscheidungen und Lösungen ausfindig machen. Als Verfahren bieten sich hier die Mitgestaltungsformen (Soziokratie, Holokratie u. ä.) an, die wir mit unserem Team im Rahmen unseres Projektes »Wirtschaft demokratisch« (Bergmann/ Daub/Özdemir 2019) beforschen und behandeln.

3.

Was sind Fehler? Kommt drauf an …

Schauen wir auf die Definition: Ein Fehler ist die Abweichung eines Zustands, Vorgangs oder Resultats von einem Standard, den Regeln oder einem Ziel. Die Worte »Fehler«, »fehl«, »fehlen« oder »falsch« wurzeln etymologisch auf Betrug und Täuschung (lat.: falla oder fallere). Wer aber legt das Ziel fest? Wer darf abweichen? Und warum nicht? Ist es ein Fehler, den Diktator zu kritisieren? Ist es ein Fehler, die Quelle nicht anzugeben? Welchen Irrtum darf sich der CEO erlauben? Ist es ein Fehler, eine Firma zu kaufen, die Pflanzengift herstellt und der

194

Gustav Bergmann

zahllose gerichtliche Verfahren mit ungewissem Ausgang anhängen? Darf in einem kleinen Gremium über die Zukunft großer Teile der Landwirtschaft entschieden werden? Warum werden fatale Fehlentscheidungen oder Betrug von hoch dotierten Akteuren nicht sanktioniert? Warum dürfen hoch riskante Entscheidungen von wenigen getroffen werden, die bei positivem Ausgang im Wesentlichen den Kapitaleignern zugutekommen, deren negative Wirkungen aber von allen Stakeholdern kompensiert werden müssen? Wie steht es dabei mit der Güte der Entscheidungen, der Legitimation und der Verantwortung? Der deutsche Psychologe Hermann Weimer (1925) wies darauf hin, dass »bei weitem nicht alles, was falsch ist, ein Fehler« sein muss. Bemerkenswert ist, dass dieser kluge Herr einen sehr großen Fehler beging, einem Irrtum aufsaß. Er trat nämlich früh der NSDAP bei. So kann man sich intensiv mit Fehlern und Irrtümern beschäftigen und dennoch daraus das Entscheidende nicht lernen. Es ist anzumerken, dass Entscheidungen auf Werten basieren, dass alle Entscheidungen damit zugleich die zugrunde liegenden Werte offenbaren. So sind ja auch im modernen Nudging die Werte und Bewertungen der oft paternalistischen Beeinflussung enthalten. Was ist aber, wenn schon die Ziele falsch sind? Wer stellt die Anforderungen? Wer hat die Definitionsmacht? Was ist legal, was legitim? Was ist, wenn die anderen drängen, wenn kontrolliert wird, wenn andere Ziele dominieren? Wer darf bestimmen, und macht andauernd Fehler? Aus Fehlern lernen? Der größte Fehler soll sein, gar nichts zu machen. Stellen Sie vor, es geschieht ein Unfall und keiner hilft, weil er oder sie keinen Fehler machen will. Andere Fehler sind tödlich: Der GAU im Kernkraftwerk, der Kunstfehler im OP, die Feuerwehr, bei der die Pumpe oder Drehleiter nicht funktioniert. Manchmal ist es ein Fehler, die Vorschrift zu missachten, manchmal besteht genau darin der Fehler. Diese zahlreichen Fragen können nicht einfach beantwortet werden. Wir brauchen den Kontext, den Maßstab, eben eine Unterscheidung zwischen trivialen und nichttrivialen Situationen.

4.

Trivial oder non-trivial?

Wir haben es insofern mit unterschiedlichen Konstellationen zu tun: trivialen und non-trivialen Situationen und allen Varianten dazwischen. Wenn wir von Fehlern reden, dann meinen wir zuweilen triviale Abweichungen, manchmal aber auch fundamentale Fehlentscheidungen. Wichtig erscheint es deshalb, zwischen trivialen, funktionalen sowie fundamentalen, nicht-trivialen Fehlern zu unterschieden. Perfektion, Optima oder Makellosigkeit sind nur in trivialen Situationen erreichbar : Ein Optimum kann nur in Bezug auf ein Ziel eines Akteurs angestrebt werden. Die Umwelt muss als stabil angenommen werden und

Fähler. Ein Versuch über Fehler, Irrwege, Makel und Scheitern

195

es gibt keine konfliktären Ziele. Perfektion und Makellosigkeit führen schnell in die komplette Kontrolle und in neurotischen Wahn (Selbstoptimierung, Transhumanismus) (vgl. dazu Sandel 2008). Nur in überschaubaren, beherrschbaren Situationen kann Perfektion ein sinnvolles Ziel sein. Selbstverständlich muss in der Präzisionsfertigung eine Null-Fehler-Toleranz durchgesetzt werden, da sich ansonsten die Abweichungen in der Produktionskette multiplizieren. Gehen wir zunächst von einigen Beispielen aus. Die Ärztin mit ihrem Team oder die Feuerwehr trivialisieren komplexe Situationen, indem sie üben, Erfahrungen sammeln, sich also die meiste Zeit vorbereiten. Erst im Sonderfall, bei Auftreten von Komplikationen, wechseln sie das Vorgehen, ziehen weitere Fachleute zu Rate, versuchen, der Komplexität der Situation durch Steigerung der eigenen Varietät gerecht zu werden. »Normales«, routiniertes Verhalten kann hier zu großen Fehlern und zum Scheitern führen. Die innovative Entwicklung von Produkten führt von der uneindeutigen Non-Trivialität hoffentlich zu einem trivialen Produkt, das ohne Fehl und Tadel Nutzerinnen und Nutzer erfreut, indem es einfach das tut, wozu es bestimmt ist: Ein Staubsauger saugt Staub, ein Auto fährt sicher auch bei kalten Temperaturen, der Computer reagiert wie gewünscht auf Eingabebefehle, ohne ein Eigenleben zu produzieren. Eine Stufe höher, bei komplexen zwischenmenschlichen Systemen, kommt es schon auf eine gute, eindeutige Abstimmung an. Wie bei der Feuerwehr, im OP oder dem Hochseeschiff sind eindeutige Kommunikationen von Vorteil, solange eindeutige Krisenfälle vorliegen, deren Bewältigung man vorher in ihren Abläufen gemeinsam trainiert hat. Auch hiervon gibt es schlechte Varianten. In Diktaturen und allen anderen autoritären Systemen gibt es scheinbare Gewissheit. Alles abweichende Denken und Handeln wird inkriminiert. Die Angst schafft einheitliche Erkenntnisse. Alle hören auf ein Kommando: Ein Führer, ein Volk, eine Meinung. Diese diktatorischen Verhältnisse gibt es leider auch in Unternehmen oder Organisationen zu beobachten. Es darf von einem Verfahren, das bestimmt wurde, nicht abgewichen werden. Das System beobachtet sich nicht mehr selbst, die Situationen werden als zu klar und eindeutig klassifiziert. Möglicherweise wagt dann eine Person auf unterer Ebene nicht, eine Veränderung vorzunehmen, auf ein Problem aufmerksam zu machen oder ihre Intuition zu gebrauchen. So kann es sein, dass die Entwicklung eines Flugzeugs ein zu komplexes, nicht fehlerfreundliches oder gar unbeherrschbares Ergebnis erzeugt. Beispielsweise hat die Firma Boeing mit der 737 MAX 8 ein Flugzeug konstruiert, das in manchen Situationen trotz regelhaftem Verhalten der Piloten zum Absturz führte. Im Verlauf der darauffolgenden Untersuchungen gibt es erste Berichte, dass die fehlerhaften Produkte nicht das einzige Problem in diesem Unternehmen darstellen, sondern auch systemische Fehler zu beobachten sind, die durch Kostendruck und Profitorientierung verursacht sein können.

196

Gustav Bergmann

Die von Elizabeth Anderson (2019) beschriebenen »privaten Regierungen« in vielen Unternehmen tendieren zu autoritärem Gehabe. Es wird der Mensch in rein funktionaler Abhängigkeit gehalten, Kreativität, Menschlichkeit und Entwicklung erscheinen unter diesen Bedingungen kaum möglich. In solchen autoritären Organisationen sind der Umgang mit Fehlern hoch problematisch und die Prävention nur eingeschränkt möglich. Es entsteht meistens eine Angst- und Unsicherheitskultur, die es unwahrscheinlich macht, Fehler und Probleme frühzeitig gemeinsam zu lösen. Es bleibt zu hoffen, dass gerade in kontingenten Zeiten diese Form der autoritären Führung nicht mehr haltbar ist. Die betreffenden Organisationen büßen dermaßen an verarbeitbarer Komplexität ein, dass sie zum Aussterben verurteilt sind. Sie finden kaum noch die Fachkräfte, ihre Kreativität und Befähigung nehmen ab. Allein aufgrund von Machtstellungen und durch Subventionen unterstützt, können sich diese Unternehmen fatal lange halten. In der Governance-Debatte kann man den Trend zur Exklusion von Normen- und Wertediskussionen beobachten. Statt um die Organisation von Diskurs und Dialog, von Verhandeln und Vereinbaren, geht es sehr schnell um die vermeintlich effektive Durchführung und Anordnung. Es geht um Regelhaftigkeit (Compliance), ohne die Regeln zu hinterfragen. Es gibt in diesen vieldeutigen Zeiten eine deutliche Sehnsucht nach Eindeutigkeit, Klarheit und Stringenz, die aber eine zum Scheitern führende Trivialität in sich birgt. Auch wenn ich für mich scheinbar gute Entscheidungen treffe, kann dies für andere Personen negative Auswirkungen haben, die dann doch auf mich zurückwirken. Einzelne Staaten (und deren Despoten) bedrohen die Zukunftsfähigkeit der Weltgemeinschaft. Soziale Beziehungen sind nur streng hierarchisch in Funktionalität zu halten. Immer wenn wir versuchen, aus sozialen Organismen eine Maschine zu konstruieren, dann enden wir in starren, kollusiven Systemen mit immensem Kontrollaufwand und verkümmerter Kreativität. Mit der zentralen Unterscheidung möchte ich verschiedene Felder untersuchen: die Bildung, die Kunst, die Organisationen und zuletzt ganze Gesellschaften.

5.

Bildungsfehler und Lösungen?

Geht es um Ausbildung oder um Bildung? Geht es um Zensieren oder Befähigen? Ist es ein Fehler, gelbe Bäume zu zeichnen? In manchen Schulen schon. Als mein Sohn in der 3. Klasse der Grundschule war, malte er einen Wald mit gelben Baumstämmen. Die Lehrerin korrigierte ihn, Bäume seien braun und hätten grüne Blätter. Weinend kam er nach Hause. Nur meine plötzlich einsetzende Ataraxie hielt mich davon ab, zur Schule zu rennen, um der Lehrerin Nachhilfe in beobachterabhängiger und autobiografischer Wahrnehmung zu geben. Wir

Fähler. Ein Versuch über Fehler, Irrwege, Makel und Scheitern

197

druckten ein Foto eines sonnenbeschienenen Waldrands aus, das er am nächsten Tag mit zur Schule nahm. Er konnte seiner Lehrerin erklären, dass die Farbe nicht die Eigenschaft des Holzstammes ist. Heute studiert mein Sohn bildende Kunst an einer namhaften Akademie. Wer darf den Rotstift zücken? Wer entzückt sich an der Korrektur? Was nützt die richtige Lösung von trivialen Aufgaben? Noch immer wird in Schulen und Hochschulen überwiegend ein triviales Lernen praktiziert. Es werden richtige Lösungen und Repetition von Sachwissen verlangt, anstatt das Wie des Lernens zu betonen und damit non-triviale Befähigung zu betreiben. Es müsste bereits lange Universitäten und Akademien geben, in denen Folgenforschung betrieben wird, in denen kein privates, singuläres Lernen, sondern relationales, plurales, ökologisches und praktisches Lernen möglich ist und wo gemeinsam an komplexen Problemlösungen gearbeitet wird. Die meisten Menschen lernen doch nicht aufgrund von strenger Lehre, sondern trotz dieser sturen Methodik. Sie lernen nicht wegen, sondern trotz des eng reglementierten Unterrichts. Nein, nicht die Lehrerinnen und Lehrer sind schuld, sondern die Vorstellung von einer Bildung, die zur Ausbildung und zum Auswendiglernen degeneriert. Lehrerinnen und Lehrer versuchen, die Spielräume zu erweitern. Sie versuchen, den jungen Menschen Experimentierfelder zu eröffnen, sie nicht in einen unsinnigen Leistungswettbewerb zu zwingen. »Bildung…«, mit Peter Bieri gesprochen, »ist die wache, kenntnisreiche und kritische Aneignung von Kultur« (Bieri 2011, S. 62). Dabei werden immer mehrere Möglichkeiten erzeugt, es entstehen Offenheit und ein Vorrat von Kenntnissen und Fähigkeiten, die mensch irgendwann mal braucht. Es ist das Ende der Illusion der Einfachheit und Trivialität. Menschen lernen am besten in Freiräumen, die sie mitgestalten und mitentscheiden dürfen. Es ist ratsam, experimentelles Lernen auf Marktplätzen, in Vereinen, Gemeinschaften und im Netz zu erproben. Das meiste lernt man – wie Heinrich Böll es beschrieben hat – auf der Straße. Das ganze Dorf erzieht den Menschen, sagt man. Warum nur werden triviale »Paukstätten« errichtet, in denen die Schülerinnen und Schüler eher verängstigt als ermutigt werden? Es geht weiterhin um Konkurrenzkampf für persönliche Erfolge. In der erbarmungslosen Konkurrenz- und Marktgesellschaft sollen sich Wirtschaftsbürger durchkämpfen, für einen zweifelhaften materiellen Wohlstand sinnentleert arbeiten. Wir exportieren Tragödien in die abgehängte Welt und öden uns larmoyant an. Exzentriker sitzen im Mittelpunkt der Macht, bestimmen die Politik, welch Paradox. Vernunft wird diskreditiert und schrilles Auftreten goutiert. Jeder erfindet seine Wahrheit und pervertiert jedes verantwortliche Denken und Handeln. In einer gebildeteren Gesellschaft würden wir gemeinsam uns unseres Verstandes bedienen und gemeinsam Lösungen erarbeiten. Die moderne Wissenschaft kann sich nicht mehr mit einer trivialen Unterscheidung begnügen, was richtig und was falsch ist. Die newtonsche Physik gilt ja

198

Gustav Bergmann

auch nur unter den sehr besonderen Bedingungen der Erdoberfläche. Eine Empirie der Objektivität existiert nicht. Auch wenn ich noch so viele weiße Schwäne beobachte, kann es doch schwarze geben. Wenn ich im Wald Pilze suche und keine finde, heißt das nicht, dass dort keine sind. Deduktion schlägt zuweilen Induktion. Abduktion ist manchmal wirkungsvoller als Induktion und Deduktion. Es ist ein Springen aus der Box, eine Möglichkeit, den ganz großen Fehler zu vermeiden oder die ganz neue Möglichkeit zu entdecken. Wenden wir uns der Kunst zu.

6.

Kunstfehler

Reden wir über zwei Formen von Kunstfehlern. Ein Fußballspieler läuft an zum Freistoß, er hat das hundertmal trainiert, doch den Ball erwischt er nicht genau wie geplant, sein Standbein rutscht etwas weg. Das Spielgerät bekommt einen unglaublichen Effet, dient nicht als Vorlage für den Kopfball, sondern landet direkt im Tor. War das jetzt ein Fehler oder gelungen? Man kann nur versuchen, die Wahrscheinlichkeit für richtige Entscheidungen zu erhöhen. Es kommt vor, dass eine Gynäkologin die »falsche« Brust untersucht und dabei das Karzinom entdeckt, das unbedingt behandelt werden muss. Es kann sein, dass der Chirurg das falsche Bein operiert, weil die Routine zu einer Verwechslung führte. Fehler, Makel und Scheitern können also ungewollt positive wie negative Auswirkungen haben. Manche behaupten ja, dass das Gute als solches kaum angestrebt werden kann, sondern eher durch das Böse bewirkt wird. Einige erinnert diese Argumentation an die praktische moralische Entlastung in der Marktgesellschaft. Wenn wir unserem Egoismus, unserer Gier folgen, wird alles gut werden. »Ich bin ein Teil von jener Kraft, die stets das Böse will und stets das Gute schafft.« (Mephisto in Goethes Faust)

Interessant erscheint mir, dass Goethe eine Kritik an rein individuellem, rationalem Denken formulieren wollte, also das Denken und Handeln im Kalkül, welches die Intuition und das Unbewusste außen vor lässt. Verstehen und Erkennen kann eher in der Verbindung von Verstand und Gefühl gelingen. Einige Fehler sind gerade richtig. So ist Makellosigkeit nicht unbedingt ein Bestandteil der Schönheit, sie führt zu langweiligen, trivialen Ergebnissen. So lebt die Kunst von zufälligen Mängeln, kleinen Fehlern oder Irritationen. Das wirkliche Lernen findet jenseits der Irritation statt. Künstler wie Gerd Richter oder Wade Guyton arbeiten mit dem Zufall, dem Scheitern, den Kratzern, sie verfügen über keine vollständige Kontrolle. Sie lassen geschehen und emergieren, arbeiten mit »Fehlern« und schaffen neue Kunst. Der Jazzmusiker Herbie

Fähler. Ein Versuch über Fehler, Irrwege, Makel und Scheitern

199

Hancock schrieb in seiner Autobiografie (2018), wie ihn vermeintliche Fehler oftmals zu ganz neuen Harmonien geführt haben. Als junger Pianist spielte er mit Miles Davis, der selbst nur »schiefe« Töne intonierte und jede »fehlerhafte« Abweichung zugleich in die Musik integrierte, sodass sie sinnvoll klang. Ist eine Blue Note etwa falsch? Eher nicht, sie wurde von Jazzern erfunden. Spielst Du nach Noten oder frei, werde ich schon mal gefragt? Mal so, mal so. Kaum verstehen kann ich, wie sich die Musikkritik (besonders in klassischen Konzerten) auf vermeintliche Abweichungen (Fehler?) konzentrieren, ohne sich der Interpretation hinzugeben. Die optimale Leistung ist nur im Sinne eines Akteurs zu bestimmen. Optima sind insofern problematisch, als sie ein Ziel, eine Lösung bedingen und insofern trivial erscheinen. Ein Beispiel aus der modernen Poesie soll verdeutlichen, wie kontextabhängig die Fehlerbeurteilung ist und wie sehr Abweichungen zur Kunst führen können. Der leider viel zu früh verstorbene Dichter Thomas Kling erzeugte neue Formen der Dichtkunst: »TAGHIMMEL wer auf der haut liegt, auf dem gebogenen spaziert, auf der netzhaut: mr. bidwell der dem wind ins gesicht blickt der die rettet aus dem sirupglas die paddelnde wespe die sich jetzt auf den heißn balkonfliesn putzt, der die gelenkig keit von windhund wespe ins auge faßt fast alles nachbilder unter äußerst verschieb baren stratocumulus WOLKN NICHTS ANDRES ALS TESTBÖGEN & ZWAR RORSCHACH eingeschmuggelte devise: das unterste zuoberst, so gehört sich das«

Wer dieses Gedicht aus seinem Band Geschmacksverstärker (Kling 1989) als Deutschlehrerin oder -lehrer korrigiert, hätte eine Menge Rotstift einzusetzen. In der modernen Poesie sind »Fehler« erlaubt und erzeugen neue Denkweisen. Es wird auch out of the box gedichtet, die Reimform aufgelöst und die Grammatik gleich mit. Es kommt also immer auf den Kontext an, wie der Text wirkt. Andererseits sind eben in Bereichen, wo Fehler tödlich wirken oder zumindest hoch gefährliche Situationen erzeugen, diese möglichst zu vermeiden. Diese Kunstfehler erzeugen Tragik und Tod zum Beispiel in der Medizin. Hier sind Prozesse so zu gestalten, dass die Wahrscheinlichkeit von Fehlern und Unfällen reduziert wird. Hier sind die Organisationen so zu gestalten, dass die Kontexte und Regeln ein fehlerarmes Verhalten evozieren. Später werden noch Systemfehler ganz grundsätzlicher Art diskutiert.

200

7.

Gustav Bergmann

Mitgestaltung – relationale Entwicklung

Alle komplexen Formen des menschlichen Zusammenwirkens sind auf relationale Beziehungen angewiesen, die eben nicht eindeutig reagieren. Sie lassen viele Möglichkeiten zu, sind reversibel und können mehr Komplexität absorbieren. Man kann sie als koevolutiv bezeichnen. Demokratie, Diskurs und Dialog sind Verfahren, um die wirkliche Wirklichkeit zu ergründen, Fehler zu vermeiden und wirkliche gute Entscheidungen zu treffen. Der Diskurs allein kann dabei nicht zur Wahrheit vordringen. Nicht alle Meinungen und Sichtweisen sind zulässig. Eine Sichtweise oder eine Überzeugung muss ein argumentatives Niveau aufweisen. Auch schon in der Antike waren reine Doxa aus dem Dialog ausgeschlossen. Meinungen ohne fundierte Begründung: So ist schon geklärt, dass alle Menschen gleich sind, dass wir alle der Menschheit angehören und dass es keine Rassen gibt. Die Gleichberechtigung von Mann und Frau ist geklärt. Die Naturgesetze gelten auf der Erde, die auch keine Scheibe ist. Komplizierter wird es schon bei komplexen Fragen wie dem Klimawandel oder der Abnahme der Biodiversität. Es steht aber außer Frage, dass beides in vollem Gange ist und Menschen einen deutlichen Einfluss darauf haben (dazu Klimaretter 2018). Auch muss man, um am Diskurs teilnehmen zu dürfen, respektvoll und interessiert mit anderen (begründeten) Auffassungen umgehen. Genauer gesagt geht es darum, uns gegenseitig zu befähigen, gute Entscheidungen zu treffen sowie uns zu zähmen, maßvoll und überindividuell vernünftig zu handeln. Wer zum Beispiel die Demokratie und den Diskurs nur so lange aufrechterhalten will, bis er oder sie an die Macht kommt, kann nicht akzeptiert werden. Probleme, Fehler und Mängel sind Ergebnis schlechter Kommunikation. Sie haben eine zirkulär vernetzte Ursache: »Ja, mach nur einen Plan! Sei nur ein großes Licht! Und mach dann noch ’nen zweiten Plan, Gehn tun sie beide nicht..« (Brecht 2005, Das Lied von der Unzulänglichkeit menschlichen Strebens aus der Dreigroschenoper)

In nicht trivialen Situationen können die Planungen von Wenigen häufig der Komplexität nicht gerecht werden. Deswegen versucht man aus im Wesentlichen zwei Gründen, der Akzeptanz und Güte von Entscheidungen, eine organische, evolutive Planung und Gestaltung aller. Wir müssen uns in nicht-trivialen Situationen, also in unbestimmten, unübersichtlichen Situationen, entscheiden. Dieses kollaborative Entscheiden kann kein singuläres sein, es ist immer ein Entscheiden mit anderen, ein Mitentscheiden und in Folge ein Mitgestalten. Wir agieren in der Mitwelt. Mitwelt soll die gesamten Beziehungen zur ökologischen und sozialen Welt bezeichnen. Mitweltgestaltung ist eine Form der gemeinsamen Gestaltung von guten (nicht entfremdeten) Beziehungen zu sich selbst, den Dingen, den anderen Menschen und zur Natur. In der Mitweltöko-

Fähler. Ein Versuch über Fehler, Irrwege, Makel und Scheitern

201

nomie ist ein »menschliches Maß« gegeben (Bergmann/Daub 2012). Der Mensch hat hier die Möglichkeit, gestalterisch auf seine Mitwelt einzuwirken. Mitweltökonomie überwindet den Gegensatz zur Welt, die Entfremdung und Ausbeutung. Es wird hierbei eine solidarische, lebensdienliche und befähigende (Sen 1985; 2005) Ökonomie angestrebt. Die Mitweltökonomie ist deshalb auf deliberative und demokratische Entwicklung ausgerichtet und überwindet die rein individualistische Sichtweise. Alles Sein ist damit ein »Sozialprodukt«, eine Folge gemeinsamer, interaktiver Gestaltung. Boden ist hierbei keine auszubeutende Ressource, sondern eine kultivierte Erde, deren Qualität mit und durch die Nutzung an Wert gewinnt, statt zerstört zu werden. Ähnlich gilt das für menschliche Beziehungen, die nicht funktionalistisch, hierarchisch, sondern auf allseitige Entwicklung ausgerichtet sind (Bergmann 2019). Die sechs Elemente der Entwicklungsfähigkeit seien hier nochmals kurz genannt (Bergmann/Daub 2012): (1) Freiräume und Gleichfreiheit, also Freiheit als Möglichkeit, sich individuell anders entscheiden zu können, nein sagen zu können. Freiheit für alle bedingt relative Gleichheit und geringe Machtgefälle. (2) Gleichheit und Gerechtigkeit sind wesentliche Ansätze zur Lösung fast aller Probleme im sozialen Feld (vgl. Wilkinson/Pickett 2012). (3) Vielfalt und Pluralität, weil so das Spektrum der Möglichkeiten erweitert wird. (4) Zugänge, Selbstorganisation und Dezentralität. Kleine, zugängliche Spuren bieten mehr Möglichkeiten der Mitgestaltung. Nah am Ort des Geschehens kann häufig adäquater gehandelt werden. (5) Mitwirkung, Demokratie, Dialog, Teilhabe verstehen sich von selbst. (6) Maße und Regeln dienen der Eingrenzung des Entgrenzten, der gegenseitigen Zähmung zum Wohle aller.

8.

Solution or Failure Cycle – Flow or flop?

Das Prozessdesign des Solution Cycle beschreibt die effektive Vorgehensweise bei komplexen Problemstellungen. An anderer Stelle sind die Schrittfolgen vielfältig erläutert worden (Bergmann 2014; 2019); dieses Vorgehen beschreibt die Wege zu gelingenden Lösungen als einen Flowzustand. Wesentlich ist dabei, möglichst viele unterschiedliche Akteure in den Prozess zu integrieren und diese im Dialog sowohl die Probleme als auch die Lösungswege kreieren zu lassen. Ein pluraler, offener Dialog führt mit hoher Wahrscheinlichkeit zur Beschreibung der wesentlichen Problembereiche und dann zur Kreation passender Lösungen. Nach der möglichst intensiven und pluralen Phase der Diagnose (Erkennen und Klären) mündet der Prozess in die möglichst freie, abduktive Phase der Kreation.

202

Gustav Bergmann

Hier soll der Möglichkeitssinn geschärft werden. Auch die Auswahl und Verwirklichung sind gemeinsam zu entwickeln, damit die Vorgehensweise eine höhere Qualität aufweist und motivierend wirkt sowie Akzeptanz findet. Auf der anderen Seite lauert bei autoritativem Vorgehen das Scheitern aufgrund mangelnder Akzeptanz und Güte der Entscheidungen. Die Verwirklichung der gewählten Vorhaben und Ideen geschieht dann auch nah am Ort des Geschehens mit den Beteiligten. Wenn dann der Flow erreicht wurde, ist wiederum eine gemeinsame Reflexion notwendig, um gute und auch nicht so gute Erfahrungen zu systematisieren. Wenn autoritär vorgegangen wird, landet man mit hoher Wahrscheinlichkeit im Failure Cycle, die Entscheidungen werden »durchgepaukt«, Widerstände und Bedenken werden übergangen, die Motivation und Akzeptanz des Vorgehens sinken. Flops sind die Folge.

9.

Resiliente Systeme: die Organisation der Fehlervermeidung

In der analogen Welt hatten viele Fehler weniger Auswirkungen, da vieles repariert werden konnte und es jede Menge Puffer gab. Andererseits mussten einige gefährliche Arbeiten von Menschen durchgeführt werden, die heutzutage maschinell erledigt werden können. In meiner Jugend konnten noch britische Militärlastwagen zu Skiliften umgebaut und VW Käfer mit einem Damenstrumpf repariert werden. Es war eine analoge Zeit voll von robusten, vielseitig einsetzbaren Dingen. Auf dem Bauernhof konnte nahezu alles selbst erstellt werden und es entstand kein Abfall. Auch manche Industriebetriebe verfügten über so viele Gewerke, dass man von einer Woche auf die andere zu anderen Produktionen in der Lage gewesen wäre. Der Fuhrpark wurde selbst gepflegt, die Elektroinstallationen mit eigenen Multifunktionshandwerkern etabliert und die eigentliche Fertigung wies eine Tiefe von der Urproduktion bis zum variablen Markenprodukt auf. Alles war auf Fehlerfreundlichkeit angelegt, konnte spontan korrigiert werden, ohne dass der Begriff schon in Gebrauch war. Die Befähigungen und die Kompetenzen waren erheblich breiter entwickelt, sodass ein breiteres Spektrum vorlag, zumindest technische Probleme zu lösen. Die Häufigkeit von schlimmen Fehlern war aber auch viel größer, es entstanden mehr Unfälle, Menschen kamen zu Schaden. Heute laufen Produktionsprozesse in der Regel störungsfreier, sicherer, der Straßenverkehr verursacht deutlich weniger schwere Unfälle. Digitale Techniken ermöglichen die Reparatur sehr komplizierter Apparaturen oder lassen sogar zu, Menschen zu heilen. Es wäre interessant, beide Welten in Form von Resilienz, also in robusten, antwortfähigen und vertrauenswürdigen Systemen, zusammenzubringen.

Fähler. Ein Versuch über Fehler, Irrwege, Makel und Scheitern

203

Organization matters, könnte man sagen. Der soziale Kontext hat wirksamen Einfluss auf die Wahrscheinlichkeit der Fehlerentstehung, des Scheiterns oder des Gegenteils, der Fehlervermeidung und des Gelingens. Ein resilientes System verhindert keine Fehler, doch macht es sie unwahrscheinlicher und die Folgen sind weniger heftig. Karl Weick hat in langjährigen Studien die wichtigsten Merkmale für eine High Reliable Organization (HRO) extrahiert: Es ist eine vertrauensvolle Organisation, die inhärent resistent und resilient wirkt. Weil sich die Menschen in diesen Systemen gegenseitig vertrauen, benötigt man weniger Kontrolle, die Selbstorganisation wird stimuliert und viele Probleme und Fehler werden polyzentrisch erkannt und schnell abgestellt: – Die Konzentration auf Fehler beschreibt die intensive Beschäftigung auch mit kleineren Abweichungen. – Es gibt eine Abneigung gegen unzulässige Vereinfachungen und Interpretationen wie auch Schuldzuweisungen. – Es besteht eine hohe Sensibilität fu¨ r organisatorische Prozesse. – Man strebt nach Flexibilität und Resilienz. – Es gibt einen großen Respekt vor fachlichem Wissen und Können. Den HRO gemeinsam ist eine Achtsamkeitskultur, also eine lernorientierte Organisationskultur, die Probleme und Fehler aufmerksam behandelt und gru¨ndlich analysiert. Fehler sind dabei Gelegenheiten fu¨r Lernen und Entwicklung. Eine Kontrollkultur erzeugt hingegen hohe Kosten, zerstört Vertrauen und verunsichert. Die Selbstorganisation wird unterlaufen. Die Leistungs(un)kultur mit Rankings und individueller Erfolgsmessung führt in ein heilloses Konkurrenzdenken, das Zusammenarbeit erschwert. Der Arzt operiert mit großer Kunst, wenn er achtsam bleibt, voll konzentriert und mit Hilfe seiner Assistenten. Gemeinsam wird ein System der gegenseitigen Kritik und Kontrolle aufgebaut, das systematische Fehler vermeidet. Der Bergsteiger besteigt den Berg und kommt heil zurück, weil er aufmerksam bleibt und sich mit seinen Kumpanen abstimmt, keine unnötigen Risiken eingeht, sich vorher über das Wetter und die sonstigen Bedingungen genau informiert hat, Reserven vorsieht. Beide bedienen sich der entlastenden Routinen, bereiten ihre Aktionen gewissenhaft vor, betreiben Qualitätsmanagement. Gewöhnliche Situationen sind dabei gut zu bewältigen. Das Resilienzmanagement geht noch darüber hinaus. Es bewirkt das vorsorgende Training von Extremsituationen und Krisen, in denen die bisherige Erfahrung nicht allein weiterhilft. Residierte Systeme können Krisen besser überstehen und sind in der Lage, daraus Weiterentwicklung zu kreieren. In einer resilienten Organisation werden Entscheidungen gemeinsam entworfen, es gibt Resonanzräume für Kritik und Fehlerbenennung, es werden vornehmlich reversible Entscheidungen getroffen, die vorläufigen Charakter haben und nicht festlegend wirken. Dies ist insbesondere

204

Gustav Bergmann

bei komplexen und kontingenten Situationen und Entwicklungen bedeutend. Wenn der Fehler dennoch passiert, ist es wichtig, nicht einzelne Schuldige und einzelne Ursachen zu finden, weil es das nicht besser macht und auch keine wirkliche Erklärung liefert. Eine wirkliche lernfähige, vitale Organisation ermöglicht auch substanzielle Kreativität. Es werden Spielräume für Experimente eröffnet, bei denen man bewusst Scheitern in Kauf nimmt, um zu ganz neuen Lösungen vorzudringen. Robert K. Merton (2004) hat Serendipität wohl als erster ausführlich beschrieben. Er nimmt damit Bezug auf ein persisches Märchen, worin die drei Prinzen von Serendip den Weg nur fanden, indem sie Umwege machten und dabei viele überraschende Entdeckungen. So erscheint es zuweilen sinnvoll, auf Abwege zu gehen, um neue Sichtweisen zu entwickeln. Doch auch experimentelle Irrwege sind nicht immer ergebnisreich: »Irrtümer haben ihren Wert; jedoch nur hier und da. Nicht jeder, der nach Indien fährt, entdeckt Amerika.« (Erich Kästner)

Mit der Holokratie (Robertson 2015) und der evolutionären Organisation (Laloux 2015) wurden neue Verfahren und eine neue Kultur der Fehlerfreundlichkeit entwickelt. Es wird hierbei ein Umgang miteinander initiiert, sich auf Fehler oder Verbesserungsmöglichkeiten aufmerksam zu machen. Es werden extra Situationen erprobt, die Schwierigkeiten erzeugen und Probleme beinhalten, um so oft spielerisch (z. B. durch Theaterformen) zu erkennen, wo Bruchstellen sind, wo etwas weniger resilient und weniger robust gestaltet ist. In diesen Organisationsformen operiert man mit demokratischen Strukturen, wechselnder Leitungsfunktion und verzichtet auf Strategien und Langfristpläne zugunsten einer evolutiven, gemeinsamen Mitweltgestaltung.

10.

Organisierte Unverantwortlichkeit

In der Wirtschaft werden Fehler sehr unterschiedlich behandelt. In vielen Bereichen dürfen egoistische Entscheidungen ohne Verantwortung getroffen werden. Die Vorstände in Konzernen sind nur den Investoren und Kapitaleignern verantwortlich, ihre Entscheidungen haben oft eine weit über das Unternehmen reichende Auswirkung. Dennoch werden diese Akteure fast nur kritisiert, wenn sie Entscheidungen treffen, die den Kurswert oder die Gewinnsituation beeinträchtigen. Die Auswirkungen auf Arbeitnehmerschaft, auf die Umwelt oder die Gesellschaft brauchen fast nicht beachtet zu werden. So ist die Entscheidung des Vorstands der Bayer AG für den Kauf des umstrittenen Pharmakonzerns Monsanto von den Aktionärinnen und Aktionären vor allem kritisiert worden, weil der Kurs in Folge eingebrochen ist. Bei der Thyssenkrupp

Fähler. Ein Versuch über Fehler, Irrwege, Makel und Scheitern

205

AG wurden über Jahre gravierende Fehlentscheidungen auch in rein betriebswirtschaftlicher Hinsicht getroffen, viele Jahre wurde eine wenig vorsorgende und nachhaltige Politik betrieben. Heute haben der Staat, die Region und die Beschäftigten das Nachsehen. In diesen Vorstandsetagen darf über sehr bedeutende Bereiche entschieden werden, ohne die davon Betroffenen integrieren zu müssen (Bergmann/Daub/Özdemir 2019). Im Finanzkapitalismus werden Fehler extrem unterschiedlich beurteilt. Investoren und Eigentümer können in großem Stil Fehler begehen (lassen), betrügen und sich irren, sie werden nur in seltenen Fällen haftbar oder verantwortlich gemacht. Einfache Akteure am anderen Ende werden abgemahnt, wenn sie kleine Unkorrektheiten an den Tag gelegt haben. Wesentliche gesellschaftliche Entscheidungen werden in kleinen Zirkeln nach Maßgabe von Kapitalinteressen getroffen. Es ist ein struktureller Fehler, diese Machtballungen zuzulassen. Weder eine (ordo-)liberale noch eine sozialistische Konzeption von Wirtschaft hat solche Machtballungen und organisierte Unverantwortlichkeiten je für sinnvoll befunden. Zudem entspricht die Verantwortung des Eigentums dem Grundgesetz (GG Artikel 14 Absatz 2): »Eigentum verpflichtet. Sein Gebrauch soll zugleich dem Wohle der Allgemeinheit dienen.« Die Beeinflussung der Politik durch die kapitalkräftigen Lobbyisten scheint eine demokratische Änderung zu verunmöglichen. Die weltweiten ökonomischen Strukturen dienen einer sehr kleinen Gruppe von Nutznießern, die eine weitere Gruppe von Kapitaldienern bestens versorgen, um an diesem System nichts ändern zu müssen. Freiheit wird zuweilen sehr einseitig interpretiert, es ist eher an eine Steuerfreiheit, die Regellosigkeit und Freiheit von Auflagen gedacht. Freiheit kann gesellschaftlich aber nur verwirklicht werden, wenn sie als Freiheit für alle und unter Gleichen realisiert wird (Rosanvallon 2013; Pettit 2015).

11.

Systemfehler höchster Ordnung

»Wer die Wahrheit nicht weiß, der ist bloß ein Dummkopf. Aber wer sie weiß, und sie eine Lüge nennt, der ist Verbrecher!« (Brecht 2005, Leben des Galilei) »Kein schwierigerer Vormarsch als der zurück zur Vernunft!« (Brecht 2005, Dialoge aus dem Messingkauf)

Viele Jahre haben es sehr wenige Lobbyisten geschafft, die Wahrheit zu verdrängen, dass wir uns einer menschengemachten Zerstörung der Lebensgrundlagen gegenübersehen. Die Erwärmung der Erde und der rapide Rückgang der Biodiversität, die irreversiblen Schäden der Extraktion von Öl, Kohle und Gas führen nun zu einer bedrohlichen Lage. 40 Jahre Erkenntnis wurden vertan,

206

Gustav Bergmann

weil es einigen von der Industrie finanzierten Instituten gelang, medial eine Verfälschung der Wahrheit zu bewirken (Klimaretter 2018). Die andere große Verfälschung und Leugnung betrifft die zweite große Systemkrise: die überbordende Ungleichheit und Ungerechtigkeit. Auch hier werden von interessengeleiteten Forscherinnen und Forschern die Ungleichheit und ihre Folgen verschleiert und in Zweifel gezogen. Beide Systemkrisen sind eng miteinander verknüpft, bedingen einander und verstärken sich gegenseitig. Der größte Fehler ist vielleicht, dass wir bisher wenig tun, um den Untergang der Welt zu verhindern. Wir können uns eher vorstellen, dass die Welt untergeht, als eine Änderung am bisherigen System vorzunehmen. Mäßigung oder Änderung sind kaum sichtbar. Weiter wird übernutzt, extrahiert, verschmutzt. Wir produzieren eine kollektive Totalkrise, leben zunehmend entfremdet von uns selbst, den anderen, den ganz anderen, der Fauna und Flora, also mitweltentfremdet. Die Resonanz ist unterbrochen. Doch es gibt Anlass zur Zuversicht. Die Weltkrisen betreffen alle, »wir müssen andere retten, um uns zu retten«, formulierte es der Soziologe Ulrich Beck (2015). So haben wir (global) schon einmal unser Verhalten sehr schnell verändert: Als die Ozonschicht zu zerfallen drohte, waren wir schon nah dran an einer kollektiven Lösung. Dieses schwerwiegende Problem konnte durch das sofortige Verbot des Einsatzes von FCKWerreicht werden. Ende der 1980er Jahre hoffte nicht nur ich, es würde ein ökologisches Zeitalter anbrechen. Es folgte 1992 noch die Rio-Konferenz der Vereinten Nationen über Umwelt und Entwicklung, es wurde der Begriff Sustainable Development geprägt, und die schon von Alexander von Humboldt indizierte Umweltzerstörung hätte vermieden werden können. Doch es kam anders: Der Kapitalismus hatte gesiegt und wurde von allen Fesseln befreit. Der endliche Planet kann zwar vielen Menschen ein Zuhause bieten, aber nicht, wenn der Egoismus gefördert und moralisch entlastet wird. Die wenigen 10 bis 15 % der Weltbevölkerung in der westlichen Welt verursachen im Wesentlichen die Mitweltzerstörung. Die individuelle Freiheit in Ungleichheit führt zur Durchsetzung des Rechts der Stärkeren mit zunehmendem Zerstörungsdruck auf die Mitwelt. Es ist eine erbarmungslose Konkurrenzwirtschaft entstanden, die alle geistigen, kulturellen Errungenschaften der Menschheit in Vergessenheit geraten lässt. Wie konnten der Rechtsstaat, der Sozialstaat, die Demokratie und die Menschenrechte so sehr in Verruf geraten? Wie konnte es geschehen, dass wir zunehmend Lügner, Betrüger und korrupte Politiker in hohe und nächste Ämter bugsieren? Wie konnten wir so grandios scheitern? Wie konnten wir zulassen, dass Anmaßung, Größenwahn, Egoismus und Gier zum Leitprinzip werden? Aus der Vorstandsetage eines Agrarchemiekonzerns war schon vor Jahren zu vernehmen, dass, wenn die Bienen und Wespen aussterben sollten, die künstliche Befruchtung eingeführt werde. Dies ist ein Beispiel für die sehr fehlerhafte Ver-

Fähler. Ein Versuch über Fehler, Irrwege, Makel und Scheitern

207

tauschung von trivialen und nicht-trivialen Systemen: Rein technologische Lösungen sind oft unterkomplex, weil sie auf Maschinendenken beruhen, außerdem werden Effizienzvorteile durch neue Innovationen häufig durch den Rebound-Effekt wettgemacht. Statt weiter Energie zu verbrauchen, verwenden wir mehr und größere Aggregate. So enden wir im Kapitalozän, wo es nicht um die Belange der sozialen und ökologischen Mitwelt, sondern nur um die Vermehrung des Kapitals in immer weniger Händen geht. Wenn wir uns eine Produktionsfunktion denken, so besteht sie aus den Faktoren Natur (Boden), Arbeit und Kapital. Ohne Natur, die sowieso das Ganze hervorbringt (Photosynthese, Sonne, Wind, Wasser, Luft, Bodenschätze, Nahrung), kann gar nichts produziert werden. Mit Arbeit kann die Produktion gesteigert und kultiviert werden. Kapital ist aber nicht notwendig, steht heute aber im Mittelpunkt, während Menschen und Natur ausgebeutet werden. Wir haben mit zahlreichen Kolleginnen und Kollegen kürzlich die wesentlichen Elemente einer demokratischen Wirtschaftsordnung zusammengetragen (Bergmann/Daub/Özdemir 2019). Zentrale Lösungsvorschläge für ein nachhaltiges, lebensdienliches, gerechtes und auf Permanenz ausgerichtetes System sind dort entwickelt und beschrieben worden. Vor vielen Jahren hat Ota Sik (1979) schon eine humane Wirtschaftsdemokratie konzeptionell und bis ins Detail entwickelt. Im Rausch der neoliberalen Wende sind diese tragfähigen Ideen leider zunächst untergegangen. Ein erfrischender Vorschlag liest sich beispielsweise bei Rutger Bregmann (2017), der eine Utopie für Realisten vorgeschlagen hat: Er provoziert mit seiner visionären und doch realistischen Idee, nur noch 15 Stunden pro Woche zu arbeiten, die Grenzen zu öffnen und allen Menschen ein bedingungsloses Grundeinkommen zu geben. Meine Hoffnung liegt darin, dass wir uns in der wachsenden Krise zunehmend solidarischer verhalten, von schädlichem Konsum Abstand nehmen, uns begnügen und die wahren Werte des Lebens entwickeln. Es sind alles Phänomene, die mensch nicht kaufen kann. Es sind die Liebe, die Freundschaft und unsere Fähigkeiten. Das Schöne ist ja, dass selbst der Millionär keine Liebe oder Freundschaft kaufen und keine Fähigkeit ohne Üben entwickeln kann. »Es gibt kein richtiges im falschen Leben«, formulierte Theodor Adorno (1977, S. 43) in seinen Minima Moralia. Wir können uns danach in einem falschen System nicht richtig verhalten. Zunächst lautete der Satz: »Es läßt sich privat nicht mehr richtig leben.« Adorno wollte damit auf den engen Spielraum im sozialen Kontext hinweisen. Auch zeigte er auf, dass viele gutgemeinte Aktionen einen sehr negativen Effekt auslösen können. Wir tragen immer die Eigenschaften der Gesellschaft, in der wir uns befinden. Wo bleibt also unser Handlungsspielraum? Er könnte darin liegen, uns in der friedlichen Revolte (Camus 1953) solidarisch mit anderen zu verbinden, einfach nicht mehr mit-

208

Gustav Bergmann

zumachen, nicht mehr nur eigene Vorteile zu suchen. Wir können schlicht anfangen, weniger Schaden anzurichten. Das geht umso einfacher, wie das individuell mitweltverträgliche Verhalten strukturell unterstützt wird. Es kann nicht dem Einzelnen überantwortet werden, sich bei jeder Alltagsentscheidung nachhaltig und sozial gerecht zu verhalten. Wir können uns mit Alain Badiou (2016) politisch engagieren, entdecken und forschen, die Liebe alterieren und erfinderisch künstlerisch tätig werden. Wir können so handeln, dass mehr Möglichkeiten entstehen (von Foerster 1973), reversibel, behutsam, immer in Abstimmung mit anderen, denn wir (als einzelne Personen) haben keinen Anspruch auf die Veränderung der Welt, nur in dem Ausmaß, wie wir uns verändern und Verantwortung für die Folgen unserer Taten übernehmen können. Jeder Mensch kann bei sich anfangen und insbesondere dann, wenn man Bildung erfahren durfte, ein sicheres Einkommen hat und in einer freien Gesellschaft lebt. Es bleibt dennoch die wichtige Aufgabe des Politischen, den Menschen das gute Leben infrastrukturell zu ermöglichen. Richard Layard (2005) hat zum Beispiel darauf hingewiesen, dass in Ländern mit hoher Besteuerung alle besser leben. Wilkinson und Pickett haben ihre Forschungsergebnisse auf den Punkt gebracht, dass Gleichheit Glück bringt (Wilkinson/ Pickett 2012). Wir sollten uns unseres Verstandes bedienen und dabei die Liebe nicht vergessen. Denn ein Kluger versucht, die Folgen und Nebenwirkungen einzubeziehen. Er oder sie wissen, dass man nicht wirklich vernünftig handelt, wenn mensch nicht Kognition und Emotion in Einklang bringt und keinen Sinn im Leben findet, wenn man nicht über sich hinausdenkt und fühlt (Dworkin 2012). Kürzlich hat der Soziologe Hartmut Rosa (2018) ein Essay vorgelegt, das die Unverfügbarkeit der Welt beschreibt. Einige versuchen immer wieder, die Welt in den Griff zu nehmen, sie sich anzueignen und zu beherrschen, und sie enden in Einsamkeit und Vereinzelung. Der Monopolist verpasst das Entscheidende. Der Mensch ist eine Erscheinung des Ganzen, verbunden, es sei denn, es werden Verfügung und Aneignung angestrebt. Die Inbesitznahme lässt die Welt verstummen, die Beziehung wird funktional. Es soll beherrscht werden, versklavt. Doch damit endet die Lebendigkeit. Rodung führt zur Erosion, Zwang zur Hörigkeit. Das Eigensinnige, die Idiosynkrasien schwinden, es wird einverleibt und Eigentum gebildet, sodass das andere verdorrt, an Eigenleben einbüßt. Eine lebendige, lernfähige Organisation sieht anders aus. Hier werden Spielräume eröffnet, es wird gemeinsam gelernt, sich gegenseitig auf Probleme aufmerksam gemacht, deren Lösung im kreativen Dialog entwickelt wird. So sei mit Robert Musil daran erinnert, dass auch alles anders sein könnte: »Wenn es aber Wirklichkeitssinn gibt, und niemand wird bezweifeln, daß er seine Daseinsberechtigung hat, dann muß es auch etwas geben, das man Möglichkeitssinn

Fähler. Ein Versuch über Fehler, Irrwege, Makel und Scheitern

209

nennen kann… So ließe sich der Möglichkeitssinn geradezu als die Fähigkeit definieren, alles, was ebensogut sein könnte, zu denken und das, was ist, nicht wichtiger zu nehmen als das, was nicht ist. Man sieht, daß die Folgen solcher schöpferischen Anlage bemerkenswert sein können, und bedauerlicherweise lassen sie nicht selten das, was die Menschen bewundern, falsch erscheinen und das, was sie verbieten, als erlaubt oder wohl auch beides als gleichgültig. Solche Möglichkeitsmenschen leben, wie man sagt, in einem feineren Gespinst, in einem Gespinst von Dunst, Einbildung, Träumerei und Konjunktiven; Kindern, die diesen Hang haben, treibt man ihn nachdrücklich aus und nennt solche Menschen vor ihnen Phantasten, Träumer, Schwächlinge und Besserwisser oder Krittler.« (Musil 1987, S. 16)

Die Welt ist voller Lösungen. Alles haben wir schon einmal irgendwo gelöst. Der größte Fehler wäre ein Beharren auf den angestammten Gewohnheiten, ein Denken und Handeln nur für sich. Sinn entsteht nur im gemeinsamen Handeln, im Zusammenwirken. Wir sollten aufhören, gegen die Welt zu leben.

Literatur Adorno, Theodor W. (1997): Minima Moralia. Reflexionen aus dem beschädigten Leben. Frankfurt am Main. Anderson, Elizabeth S. (2019): Private Regierung. Wie Arbeitgeber über unser Leben herrschen (und warum wir nicht darüber reden). Berlin. Badiou, Alain (2016): Philosophie des wahren Glücks. Zürich. Beck, Ulrich (2017): Die Metamorphose der Welt. Berlin. Beckett, Samuel (1983): Worstward Ho. Dublin. Bergmann, Gustav (2014): Die Kunst des Gelingens. Wege zum vitalen Unternehmen – Ein Lernbuch. 3. Aufl. Sternenfels. Bergmann, Gustav (2018): Retropolitische Provokation und was wir dagegen tun ko¨ nnen. In: Hoch, Gero/Schro¨ teler-von Brandt, Hildegard/Schwarz, Angela/Stein, Volker (Hrsg.), Zum Thema: Provokation. DIAGONAL Heft 39. Göttingen, S. 123–140. Bergmann, Gustav (2019): Die (Un-)Möglichkeit der Mitweltgestaltung und Entwicklung. Versuch über die relationale Entwicklung und Befähigung: in: Hochmann, Lars/ Graupe, Silja/Korbun, Thomas/Panther, Stephan/Schneidewind, Uwe (Hrsg.), Möglichkeitswissenschaften: Ökonomie mit Möglichkeitssinn. Marburg, S. 419–442. Bergmann, Gustav/Daub, Jürgen (2012): Das menschliche Maß. Entwurf einer Mitweltökonomie. München. Bergmann, Gustav/Daub, Jürgen/Özdemir, Feriha (Hrsg.) (2019): Wirtschaft demokratisch. Göttingen. Bieri, Peter (2011): Wie wollen wir leben? St. Pölten. Brecht, Bert (2005): Ausgewählte Werke in sechs Bänden. Frankfurt am Main. Bregmann, Rutger (2017): Utopien für Realisten. Die Zeit ist reif für die 15-StundenWoche, offene Grenzen und das bedingungslose Grundeinkommen. Hamburg. Camus, Albert (1953): Der Mensch in der Revolte. Reinbek bei Hamburg. Dworkin, Richard (2012): Gerechtigkeit fu¨ r Igel. Berlin.

210

Gustav Bergmann

Hancock, Herbie (2015): Possibilities. New York. Klimaretter (2018): Klimawandel: »97-Prozent-Studie« bestätigt. http://www.klimaretter. info/forschung/nachricht/21052-klimawandel-97-prozent-studie-bestaetigt (zuletzt abgerufen am 12. 06. 2018). Kling, Thomas (1989): Geschmacksverstärker. Gedichte. Frankfurt am Main. Laloux, Frederic (2015): Reinventing Organizations. Ein Leitfaden zur Gestaltung sinnstiftender Formen der Zusammenarbeit. München. Layard, Richard (2005): Die glu¨ ckliche Gesellschaft. Kurswechsel für Politik und Wirtschaft. Frankfurt am Main, New York. Merton, Robert K. (2004): Auf den Schultern von Riesen. Ein Leitfaden durch das Labyrinth der Gelehrsamkeit. Frankfurt am Main. Musil, Robert: (1987) Der Mann ohne Eigenschaften. Reinbek bei Hamburg. Pettit, Philip (2015): Gerechte Freiheit. Ein moralischer Kompass für eine komplexe Welt. Berlin. Robertson, Brian (2016): Holacracy. Ein revolutionäres Management-System fu¨ r eine volatile Welt. München. Rosa, Hartmut (2018): Unverfügbarkeit. Wien, Salzburg. Rosanvallon, Pierre (2013): Die Gesellschaft der Gleichen. Hamburg. Sandel, Michael J. (2008): Plädoyer gegen die Perfektion. Ethik im Zeitalter der genetischen Technik. Berlin. Seel, Martin (2018): Nichtrechthabenwollen. Gedankenspiele. Frankfurt am Main. Sen, Amartya (1985): Commodities and Capabilities. Amsterdam. Sen, Amartya (2005): Human Rights and Capabilities. Journal of Human Development 6 (2), S. 151–166. Sik, Ota (1979): Humane Wirtschaftsdemokratie. Ein dritter Weg. Hamburg. von Foerster, Heinz (1973): On Constructing a Reality. In: Preiser, Wolfgang F. E. (Hrsg.), Enviromental Design Research, Band 2. Stroudsburg/PA, S. 35–46. Weick, Karl E./Sutcliffe, Kathleen M. (2003): Das Unerwartete managen. Stuttgart. Weimer, Hermann (1925): Psychologie der Fehler. Leipzig. Wilkinson, Richard/Pickett, Kate (2009): Gleichheit ist Glück. Warum gerechte Gesellschaften für alle besser sind. Berlin.

Astrid Bremer*

Neue urbane Quartiere – Ausdruck einer verfehlten Wachstumspolitik?

In Deutschland ist der Bedarf an innerstädtischem Wohnraum in den vergangenen Jahren stark gestiegen. Gleichzeitig ging der Anteil an preisgünstigen Wohnungen in den urbanen Gebieten zurück. 2050 wird zwei Drittel der Erdbevölkerung in Städten oder städtischen Ballungsräumen leben (UN-Habitat 2010). Der größte Teil des städtischen Wachstums wird in Asien und Afrika stattfinden. Doch auch Europa verzeichnet seit Beginn des 21. Jahrtausends einen starken Zuzug in die Städte. Die städtischen Gesellschaften befinden sich in einem bedeutenden demografischen, ökologischen, ökonomischen und infrastrukturellen Wandel, und die zunehmende Verstädterung rückt die Frage nach einer nachhaltigen Stadtentwicklung in den Mittelpunkt. Allerorts wird gebaut! Die derzeitige Stadtentwicklung steht unter einem großen Wachstumsdruck, und vor dem Hintergrund von dominierenden Immobilieninteressen orientiert sie sich einseitig auf die quantitative Ausweitung des Wohnungsbaus. Es entsteht der Eindruck, als stünden die Qualität der Architektur und der städtebaulichen Struktur der entstehenden Quartiere nicht im Fokus. Die qualitativen Aspekte von Stadtentwicklung, wie Nutzungsmischung und Gestalt des öffentlichen Raums, werden außer Acht gelassen (vgl. KleefischJobst/Köddermann/Jung 2017, S. 9–11). Diese Entwicklung steht konträr zu dem Leitbild, das Fachleute und die Minister der Europäischen Gemeinschaft in der »LEIPZIG CHARTA zur nachhaltigen europäischen Stadt« (BMUB 2007) fordern. Der vorliegende Beitrag spiegelt die neu entstandenen, innerstädtischen Quartiere an der in der Leipzig Charta geforderten nachhaltigen, sozial-integrativen Stadtentwicklungspolitik.

* Architektin Dipl.-Ing. Astrid Bremer, Universität Siegen, Fakultät II (Bildung – Architektur – Künste), Department Architektur – Städtebau.

212

Astrid Bremer

1.

Lebendiges Quartier statt Siedlung

1.1

Urbanität als Begriff einer marktgesteuerten Wachstumspolitik

Die in den vergangenen Jahren auf den innerstädtischen Konversionsflächen entstandenen Quartiere ähneln dem Siedlungsbau der Nachkriegsjahre: homogene Nutzungsstruktur und baulich wenig differenziert. Die in der Leipzig Charta geforderte Nutzungsmischung ist nicht zu finden. Bei der Entwicklung der neuen Quartiere wird das Stichwort »Urbanität« gerne als Vermarktungsinstrument genutzt: Es soll einen Ort städtischer Lebensweise symbolisieren und kaschiert dabei die oft im Vordergrund stehenden Interessen der Immobilienverwertung. Der Begriff der Urbanität wird gleichgesetzt mit Dichte, ähnlich wie bei der Entstehung der Großwohnsiedlungen in den 1960er und 1970er Jahren, wo als Reaktion auf den Siedlungsbau der Nachkriegsjahre mehr Urbanität gefordert wurde. Auch damals erhoffte man durch Verdichtung mehr »Leben« in den Quartieren. Die gebauten Großsiedlungen haben die theoretischen Grundsätze von Salin und anderen allerdings nicht erfüllt. Es wurde »nur« eine große Dichte an Wohnraum geschaffen, die Dichte an sozialen und kulturellen Angeboten oder an Bildungfsinfrastruktur fehlte. Die wirtschaftlichen Interessen überwogen bei der Realisierung, und die Siedlungen wurden schnell als »Fehlplanungen« abgetan. Bei der Entwicklung der neuen Quartiere ist die begriffliche Deutung von »Urbanität« so kritisch zu betrachten.

1.2

Nachhaltige Stadtentwicklung

Der Zuzug in die Städte markiert einen Wandel in der Stadtentwicklung. Wuchsen Städte und Gemeinden in Deutschland seit den 1950er Jahren vor allem durch die Ausdehnung der Siedlungsfläche ins Umland, so zeichneten sich Mitte der 1970er Jahre die »Grenzen des Wachstums« ab (vgl. Bott/Grassl/Andres 2018, S. 18). Die negativen Folgen der Suburbanisierung, wie der immense Ressourcen- und Flächenverbrauch, wurden deutlich und führten zu einem Umdenken. Bedingt durch den wirtschaftlichen Strukturwandel konnte zugleich ein zunehmender Funktionsverlust und das Brachfallen von Gebäuden und Flächen in den Innenbereichen der Städte festgestellt werden. Die mit dem europäischen Denkmalschutzjahr 1975 eingesetzte Wertschätzung der alten Stadtviertel und die kritische Haltung gegenüber der autogerechten Stadt manifestierte sich (vgl. Schott 2017, S. 17–18). Der im Jahr 1987 veröffentlichte Brundtland-Bericht definierte erstmals das Leitbild einer nachhaltigen Entwicklung, und zwar als »eine Entwicklung, die die Lebensqualität der gegenwärtigen Generation sichert

Neue urbane Quartiere – Ausdruck einer verfehlten Wachstumspolitik?

213

und gleichzeitig zukünftigen Generationen die Wahlmöglichkeit zur Gestaltung ihres Lebens erhält« (Bott/Grassl/Andres 2018, S. 13). Anfang des 21. Jahrhunderts sind sich die Fachleute einig über den eingeschlagenen Kurs einer nachhaltigen Stadtentwicklung. Dabei sollen die Erhaltung und nachhaltige Weiterentwicklung gewachsener Siedlungsstrukturen und die sogenannte »Innenentwicklung«, das heißt die Konzentration der Bebauung auf den bestehenden Siedlungsraum, Vorrang haben. Mit der »LEIPZIG CHARTA zur nachhaltigen europäischen Stadt« wurde 2007 diese Entwicklungspolitik von allen Ministern der Europäischen Gemeinschaft bekräftigt und sollte die Grundlage für eine zeitgemäße, europäische Stadtentwicklungspolitik schaffen. Diese spricht sich nachdrücklich für eine Stärkung der Innenstädte und der bestehenden Stadtquartiere aus und sieht in der kompakten, europäischen Stadt ein Beitrag zum Klimaschutz. Innerstädtische Konversionsflächen bieten die Möglichkeit eine nachhaltige Stadtquartiersentwicklung umzusetzen.

1.3

Neue innerstädtische Quartiere

Betrachtet man nun die neuen Quartiere, wie sie derzeit in Hamburg, Berlin, München, Frankfurt oder Köln entstehen, wird eine große Diskrepanz zwischen dem angestrebten Ideal und der Wirklichkeit deutlich. Es fehlen die von der Leipzig Charta geforderten Vorzüge der »kompakten, europäischen Stadt«: ihre kleinteilige Parzellierung, ihre Nutzungsmischung, ihre qualitativ hochwertigen öffentlichen Räume und ihr baukultureller Anspruch. Gerade die Mischung von verträglichen Nutzungen bestimmt den urbanen Charakter eines Quartiers (vgl. Reicher 2017, S. 10; Feldtkeller 2018). Unstrittig ist, dass die Entwicklung urbaner Quartiere, die Vielfalt an Nutzungen, an Lagen und räumlichen Atmosphären, an Orten des Aufenthalts und der Begegnung bedingt (vgl. Jacobs 1961; Scheuvens 2016; Frank et al. 2017; Sennett 2018). Die neuen Quartiere aber tendieren zum monofunktionalen Wohnungsbau und gleichen somit eher Siedlungen als den lebendigen Quartieren. Die öffentlichen Räume bieten nicht die Qualitäten und Raumfolgen, wie wir diese aus den Zentren der europäischen Städte, etwa aus Rom oder Paris, kennen. Die neuen Quartiere bilden keine »Adresse« aus und stiften kaum Identität und Identifikation der Bewohner mit den Quartieren (Abb. 1). Erdgeschosse, die durch ihre größeren Geschosshöhen eine vielfältige Nutzung zulassen und flexible Strukturen ermöglichen, fehlen, wodurch Transformationsfähigkeit und Nutzungsoffenheit ausgeschlossen werden. In den allseits geschätzten Quartieren gründerzeitlicher Prägung findet sich eine »urbane Vielfalt«: unterschiedlichste Bewohnergruppen und Milieus, eine

214

Astrid Bremer

Dichte an kulturellen Einrichtungen und Angeboten, Versorgungsmöglichkeiten, quirliges Stadtleben, sichtbar und erlebbar in den öffentlichen Räumen (Scheuvens 2016, S. 26). Die Leipzig Charta konkretisiert dieses Modell der »europäischen Stadt«, indem sie die damit verbundenen Werte, wie Nutzungsmischung und Relevanz des öffentlichen Raums, Mit- und Selbstbestimmung der Bürger und die soziale Integration anerkennt. Hiermit verweist sie auf die Grundsätze des Urbanen: den Mehrwert urbanen Lebens in dichten Stadtquartieren und Dichte als Möglichkeit zum Erhalt von Nachbarschaften und sozialem Zusammenhalt.

Abb. 1: Grüner Weg, Köln (Foto: Astrid Bremer)

Abb. 2: Sechzigstraße, Köln (Foto: Astrid Bremer)

Ein stetiger Wandel an Nutzungen – wie wir ihn aus Köln-Ehrenfeld, dem Hamburger Schanzenviertel und Berlin-Kreuzberg kennen, wo Baustruktur und Nutzungsmischung ermöglichen, dass ehemalige Handwerkerviertel in kulturelle Szeneviertel transformieren (Abb. 2) – kann in den neuen Quartieren nicht entstehen. Arbeiten und Wohnen sind in der Baustruktur voneinander getrennt und der Anteil der Wohnnutzung ist signifikant höher, sodass die gewünschte Durchmischung verhindert wird. »Unsere Vorstellungen vom Stadtleben, Stadtkultur, Stadtentwicklung und damit auch die Ziele von Stadtpolitik sind geprägt von der bürgerlichen Stadt des europäischen Mittelalters. Damals entfaltete sich Urbanität als eine besondere Lebensform – das Gegenüber von Privatheit und Öffentlichkeit – als besondere Form der Politik – die bürgerliche Demokratie – und als Form der Ökonomie – der Kapitalismus.« (Häußermann/Siebel 1987 S. 9–10)

Urbanität kann somit nicht begriffen werden als bloße Addition einzelner Elemente (Siebel 1994, S. 7). Urbane Vielfalt ist vielmehr das Ergebnis sozialer Prozesse. Sie braucht Zeit, um sich entwickeln zu können. Hierfür werden ro-

Neue urbane Quartiere – Ausdruck einer verfehlten Wachstumspolitik?

215

buste, flexibel Strukturen benötigt, die anpassungsfähig sind und urbane Vielfalt zulassen. Die Definition der »offenen Stadt«, wie Richard Sennett (2018) sie formuliert, spiegelt vielleicht am anschaulichsten diese Vielschichtigkeit und Komplexität des Urbanitätsbegriffs wider. »Die gebaute Umwelt ist eine Sache, wie die Menschen wohnen eine andere« (Sennett 2018, S. 9). Sennett führt die Begriffe »Ville« und »Cit8« ein und greift damit den Gedanken auf, dass »Stadt« zwei verschiedene Aspekte beinhaltete: den physischen Ort und eine aus Wahrnehmung, Verhaltensweisen und Glaubensüberzeugungen bestehende Mentalität (Sennett 2018, S. 9).

2.

Forderungen der Leipzig Charta werden nicht umgesetzt

Die Leipzig Charta hat, bezogen auf die gesamtstädtische Entwicklung zwei Kernbotschaften: Zum einen verpflichten sich die Unterzeichnenden zu einer integrierten Stadtentwicklungspolitik und der Schaffung der benötigten Rahmenbedingungen. Zum anderen wird betont, dass diese sich vor allem auf benachteiligte Stadtteile richten soll. Hiermit richtet sich die Leipzig Charta gegen den Trend der einseitig auf die ökonomische Dimension ausgerichteten Lissabon-Agenda (2000). In den 1990er Jahren stand die europäische Stadtpolitik im Zeichen des Kampfs gegen Armut und sozialer Ausgrenzung. Diese Zielsetzung verlagerte sich im Rahmen des Lissabon-Prozesses deutlich in Richtung Wachstum, Wettbewerbsfähigkeit und Beschäftigung. Mit der Leipzig Charta trat wiederum eine Kehrtwende ein (vgl. Frank 2008, S. 112). Sie sieht den sozialen Wohnungsbau als effektives Instrument der Förderung von Stabilität und Kohäsion im Stadtteil. Der Nachdruck liegt auf der sozialen Dimension der Stadtentwicklung. So gedacht, wird der soziale Wohnungsbau zu einem Schlüssel für soziale Vielfalt, Chancen auf Integration, für selbstbestimmtes Leben, Vereinbarkeit von Wohnen und Arbeiten, aber auch für den Zugang zu Bildungsund zu Freizeitangeboten (vgl. Kleefisch-Jobst/Köddermann/Jung 2017, S. 10). Dieser ganzheitliche, integrative Ansatz von Stadt wird in den vorbeschriebenen neuen Quartieren derzeit nicht umgesetzt. Mit einer den Immobilienmarkt in den Fokus stellenden Wachstumspolitik versäumt man die Chance, sozialdurchmischte, lebenswerte und somit nachhaltige Stadtteile zu entwickeln. Die Gründe für die skizzierte Fehlentwicklung sind vielschichtig: Insbesondere durch die »Renaissance der Innenstädte« und die Zunahme der Einpersonenhaushalte stieg die Nachfrage nach innerstädtischem Wohnraum. Verstärkt durch die Wirtschaftskrise 2008, entwickelten sich Immobilien zur lukrativen Geldanlage. Die Folge war ein explosionsartiger Anstieg der Mieten in den letzten Jahren (Abb. 3). Gleichzeitig verloren Kommunen durch den Verkauf

216

Astrid Bremer

innerstädtischer Konversionsflächen Einfluss auf deren Entwicklung. Trotz durchgeführten Gutachterverfahren und Bürgerbeteiligungen steuern vielerorts Immobilienfirmen, was und wie gebaut wird und nicht die zukünftige Bewohnerschaft. Leilani Farha (UN Special Rapporteur on the Right to Housing) warnt eindringlich vor einem Auseinanderdriften der Gesellschaft durch soziale Entmischung, infolge einer Politik die Wohnraum als Wirtschaftsgut betrachtet (UN-Human Right Council, 2017).

Abb. 3: Mietentwicklung 2004–2016, Quelle: Bundesinstitut für Bau, Stadt, und Raumforschung (BBSR) Wohnungsmarktbeobachtung

Das Recht eines jeden auf eine »menschenwürdige Wohnung« ist im Artikel 25 der UN-Menschenrechtscharta von 1948 verankert. Doch bezahlbaren und sozialen Wohnungsbau zu schaffen, ist in den vergangenen Jahren wieder zu einer großen Herausforderung für die Gesellschaft geworden. Ein breiter Diskurs über das soziale Zusammenleben und die Zukunftsfähigkeit von Städten hat eingesetzt. Sabine Kraft greift in ihrem Vortrag im Rahmen eines Workshops zur Vorbereitung der Ausstellung »Alle wollen wohnen, gerecht, sozial, bezahlbar« die Grundfragen des sozialen Wohnungsbaus auf und beschreibt den starken Rückgang der sozialen Mietwohnungen seit den 1980er Jahren, als Folge der Liberalisierungs- und Deregulierungspolitik, die zu einer Abschaffung der Gemeinnützigkeit und zur Privatisierung des Wohnungsbestands führte (Kraft 2014, S. 12–21). Zusätzlich bewirkte der Rückzug des Bundes aus der wohnungsbaupolitischen Zuständigkeit auch einen Bedeutungsverlust des sozialen Wohnungsbaus, was, angesichts des aktuellen Bedarfs, eine schwere Hypothek darstellt (vgl. Kleefisch-Jobst/Köddermann/Jung 2017, S. 10–17).

Neue urbane Quartiere – Ausdruck einer verfehlten Wachstumspolitik?

3.

217

Folgen der innerstädtischen Wachstumspolitik

Die Folgen der Stadtentwicklungspolitik der letzten Jahre – Anstieg der Mieten, Verdrängung von Einkommensschwächeren an die Ränder der Stadt und eine daraus resultierende soziale Entmischung – werden auch in Deutschland immer sichtbarer und äußern sich in lauter werdenden Bürgerprotesten, wie beispielsweise am 06. Mai 2019 mit Demonstrationen in neunzehn deutschen Städten und mit der Forderung nach Enteignung von Immobilienunternehmen. Die Unzufriedenheit der Bürger steigt und wird europaweit am Zulauf der populistischen Parteien deutlich. Bei ausbleibendem politischem Handeln droht auch in Deutschland eine Aufspaltung in arme und reiche Stadtteile und die Entstehung sozialer Brennpunkte. Die Leipzig Charta formuliert hierzu: »Es darf in Europa keine ›no go areas‹ geben. Die Bekämpfung sozialer Ausgrenzung in Städten ist ein integraler Bestandteil der europäischen Wertegemeinschaft. Die Existenz benachteiligter Stadtbezirke gefährdet die Attraktivität, die Wettbewerbsfähigkeit, die sozialen Integrationskräfte und die Sicherheit in Städten.« (BMUB 2018, o.S.)

Gerade im Hinblick auf die großen Herausforderungen der Zukunft, wie Klimawandel, Flüchtlingsströme und Ressourcenknappheit, ist eine stabile Stadtgesellschaft von großer Bedeutung (vgl. Bukow 2018, S. 79). Wenn sich die immobilienmarktgesteuerte Entwicklung weiterhin ungestört fortsetzt, droht nicht nur eine eintönige Stadtlandschaft, sondern Destabilisierung und Zerfallen der Stadtgesellschaft.

4.

Wie können wir Städte zukunftsfähig entwickeln?

Ein Umdenken ist nötig. Der Staat muss die in der Leipzig Charta formulierten Zielsetzungen konsequent umsetzen und sozial durchmischte Stadtteile entwickeln. Ein erneuter öffentlicher Diskurs der in der Leipzig Charta umfassenden und breit aufgestellten Ziele sollte eingeleitet werden. Dies ist auf unterschiedlichen Ebenen möglich. Auf der stadtplanerischen Ebene sind beispielsweise folgende Ansätze zu diskutieren. Mit der Anpassung der Baunutzungsverordnung (BauNVO Fassung 2017) und der Einführung des Baugebietstyps »Urbane Gebiete« wurde ein erster Schritt gemacht, die Nachverdichtung innerstädtischer Bereiche zu ermöglichen. Die neue Verordnung ermöglicht zwar eine flexible Zusammensetzung der Nutzungsarten, eine gleichgewichtige Nutzungsmischung wird allerdings nicht gefordert und fördert eine einseitige Verdichtung der Wohnnutzung. Mit der im ursprünglichen Referentenentwurf beschriebenen kleinteiligen Mischung und mischgenutzter Gebäude (vgl. Feldtkeller 2017) hätte das in der Leipzig Charta formulierte

218

Astrid Bremer

Leitbild deutlicher in der BauNVO umgesetzt werden können. Das »Französische Viertel« in Tübingen (1996–2008) ist eines der positiven Beispiele, die zeigen, dass die Mischung von Wohnen und Arbeiten zur Entstehung lebendiger, stabiler und urbaner Quartiere beiträgt. Auf der Förderebene muss der Bund wieder stärker in die Wohnungsbauförderung eingreifen. Die durch die Politik beschlossenen Fördermaßnahmen, wie das »Baukindergeld« und die »Mietpreisbremse« greifen bisher unzureichend. Das Beispiel der Stadt Wien mit ihrer weltweit einzigartigen Tradition des kommunalen geförderten Wohnungsbaus zeigt, wie wichtig eine öffentliche Förderung in einem zunehmend unter Druck stehenden Immobilienmarkt, als wesentliche Voraussetzungen einer sozial durchmischten und leistbaren Stadt, ist (vgl. Scheuvens 2016, S. 13). Auf der sozialpolitischen Ebene könnte eine Steuerung der Bodenpolitik erfolgen: Bei der »Vergabe nach Konzepten« sollten Grundstücke für sozial und ökologisch nachhaltige Entwurfskonzepte vergeben werden und nicht, wie bisher, an den Meistbietenden erkauft werden. Dies ermöglicht vor allem Genossenschaften und Baugruppen den Erwerb von Grundstücken. Das genossenschaftliche Projekt »Kaltbreite« in Zürich zeigt, dass vielfältiger Wohn-, Arbeitsund Lebensraum entsteht und das Projekt durch sein hohes soziales Engagement einen wichtigen Beitrag für das Quartier liefert (vgl. Dürr/Kuhn 2017, S. 28–31). Die skizzierten Maßnahmen sind beispielhaft für die Regulierungsmöglichkeiten des Staates.

5.

Schlussbemerkung

Vor zwölf Jahren haben die EU-Mitgliedstaaten mit der Leipzig Charta ein grundlegendes Dokument zur integrierten Stadtentwicklung beschlossen. Seitdem sind die Aufgaben für unsere Städte weiter gewachsen. Gesellschaftliche und wirtschaftliche Veränderungen fordern einen neuen Umgang mit dem komplexen System Stadt. Überall in Europa sehen sich die Städte Herausforderungen gegenüber, wie dem Klimawandel, der Digitalisierung, der Globalisierung, der Integration zugewanderter Menschen und der Stärkung des sozialen Zusammenhalts. Die neuen, innerstädtischen Quartiere können hierzu einen entscheidenden Beitrag liefern. Umso bedauerlicher, dass wir die gleichen Fehler, wie sie schon in den 1970er Jahren gemacht wurden, wiederholen und auf eine rein marktgesteuerte Wachstumspolitik bauen. Bleibt die Empfehlung auszusprechen, aus den Fehlern zu lernen, gegenzusteuern, das Wohnen wieder als Sozialgut anzuerkennen und zukunftsfähige, nachhaltige Städte sowie lebendige, urbane Quartier zu bauen. Die Leipzig Charta macht deutlich, dass alle für die Gegenwart und die Zukunft der Städte

Neue urbane Quartiere – Ausdruck einer verfehlten Wachstumspolitik?

219

verantwortlich sind und sich engagieren müssen: Bürgerinnen und Bürger, Politiker und Verwaltungen, Wirtschaft und gesellschaftliche Organisationen. Wozu denn sind die Städte da, wenn nicht für Menschen?

Literatur Berding, Nina/Bukow, Wolf-Dietrich/Cudak, Karin (Hrsg.) (2018): Die kompakte Stadt der Zukunft. Wiesbaden. BMUB (Bundesministerium für Umwelt, Naturschutz, Bau und Stadtentwicklung) (Hrsg.) (2007): LEIPZIG CHARTA zur nachhaltigen europäischen Stadt. 25. 05. 2007. https:// www.bmi.bund.de/SharedDocs/downloads/DE/veroeffentlichungen/themen/bauen/ wohnen/leipzig-charta.pdf;jsessionid=D9B95CB7473A7017DA50EA505E603CDF.1_ cid373?__blob=publicationFile& v=2 (zuletzt abgerufen am 05. 08. 2019). BMUB (Bundesministerium für Umwelt, Naturschutz, Bau und Stadtentwicklung) (2018): Häufig nachgefragt: Die Leipzig-Charta. 01. 06. 2018. https://www.bmi.bund.de/Shared Docs/faqs/DE/themen/bauen-wohnen/leipzig-charta/leipzig-charta.html#f10840626 (zuletzt abgerufen am 05. 08. 2019). Bott, Helmut/Grassl, Gregor C./Anders, Stephan (2018): Nachhaltige Stadtplanung. Lebendige Quartiere – Smart cities – Resilienz. München. Bukow, Wolf-Dietrich (Hrsg.) (2018): Wandel der Urbanität. Die Wiederentdeckung des Quartiers als Raum glokal-gesellschaftlicher Wirklichkeit. In: Berding, Nina/Bukow, Wolf-Dietrich/Cudak, Karin (Hrsg.), Die kompakte Stadt der Zukunft. Wiesbaden, S. 79–104. Dürr, Susanne/Kuhn, Gerd (2017): Wohnvielfalt. Gemeinschaftlich wohnen – im Quartier vernetzt und sozial orientiert. Ludwigsburg. Feldtkeller, Andreas (2017): Es wurde zu wenig experimentiert. Andreas Feldtkeller im Gespräch mit Christian Holl 20. 04. 2017. http://derarchitektbda.de/es-wurde-zu-we nig-experimentiert/ (zuletzt abgerufen am 05. 08. 2019). Feldtkeller, Andreas (2018): Städtebau: Quartiere offen für Vielfalt. In: Berding, Nina/ Bukow, Wolf-Dietrich/Cudak, Karin (Hrsg.), Die kompakte Stadt der Zukunft. Wiesbaden, S. 31–52. Frank, Susanne (2008): Stadtentwicklung durch die EU: Europäische Stadtpolitik und URBAN-Ansatz im Spannungsfeld von Lissabon-Strategie und Leipzig Charta. Raumforschung und Raumordnung 66 (2), S. 107–117. Frank, Ute/Lindenmayer, Verena/Loewenberg, Patrick/Rocneanu, Carla (Hrsg.) (2017): Hiatus. Architekturen für die gebrauchte Stadt. Basel. Häußermann, Hartmut/Siebel, Walter (1987): Neue Urbanität. Frankfurt am Main. Jacobs, Jane (1961): The Death and Life of Great American Cities. New York. Kleefisch-Jobst, Ursula/Köddermann, Peter/Jung, Karen (Hrsg.) (2017): Alle wollen wohnen. Gerecht, sozial, bezahlbar. Berlin. Kraft Sabine (2017): Blick zurück nach vorn. Einige Überlegungen zur Wiederbelebung des sozialen Wohnungsbaus. In: Kleefisch-Jobst, Ursula/Köddermann, Peter/Jung, Karen (Hrsg.), Alle wollen wohnen. Gerecht, sozial, bezahlbar. Berlin, S. 12–21. Reicher, Christa (2016): Städtebauliches Entwerfen. Wiesbaden.

220

Astrid Bremer

Salin, Edgar (1960): Urbanität. In: Deutscher Städtetag (Hrsg.), Erneuerung unserer Städte. Köln, S. 9–34. Scheuvens, Rudolf (2016): Urbane Stadt. Herausforderungen für Stadtentwicklung und Wohnbau. Werkstattbericht 159. Wien, S. 4–83. Schott, Dieter (2017): Kleine Geschichte der Europäischen Stadt. Aus Politik und Zeitgeschichte 67 (48), S. 11–18. Sennett, Richard (2018): Die offene Stadt. Eine Ethik des Bauens und Bewohnens. München. Siebel, Walter (1994): Was macht eine Stadt urban? Zur Stadtkultur und Stadtentwicklung. Oldenburg. UN-Habitat (2010): State of the World’s Cities 2010/2011: Bridging the Urban Divide. London, Nairobi. UN-Human Rights Council (2017): Report of the Special Rapporteur on Adequate Housing as a Component of the Right to an Adequate Standard of Living, and on the Right to Non-discrimination in this Context. 18. 01. 2017. https://documents-dds-ny.un.org/ doc/UNDOC/GEN/G17/009/56/PDF/G1700956.pdf ?OpenElement (zuletzt abgerufen am 05. 08. 2019).

Jörg Potthast*

Fehlermeldungen und Elitenversagen am Beispiel des Öffentlichen Verkehrs

1.

Exit, Voice und Elite

Um den Öffentlichen Verkehr (ÖV) in Deutschland ist es nicht gut bestellt. Die Bahn sei »ein einziges Chaos« (Knie 2017), der ÖV einer reichen Stadt wie München ein »Desaster« (Krügel 2017); das ganze Land stecke in einer »Mobilitätskrise« (Krüger 2018). Aber wie ist es eigentlich zu erklären, dass sich Krisendiagnosen häufen und doch wirkungslos bleiben? Diese Frage hat Albert O. Hirschman vor Jahrzehnten aufgeworfen und am Beispiel der Nigerianischen Eisenbahn so beantwortet: Jener Teil der Kundschaft, der sich potenziell am besten Gehör zu verschaffen wisse, habe es versäumt, Missstände frühzeitig zur Sprache zu bringen (Voice). Stattdessen seien die »potentially most vocal customers« (Hirschman 1970, S. 45), auf deren Rückmeldung es ankomme, stumm geblieben und zur Konkurrenz abgewandert (Exit). Dann war es auch schon zu spät; noch so eindeutige Warnsignale konnten offenbar nichts mehr bewirken: Selbst als Güter, die in großen Mengen anfallen und über lange Strecken transportiert werden (wie z. B. Erdnüsse), von ihrem prädestinierten Verkehrsmittel abgezogen und stattdessen auf LKWs verladen wurden (Hirschman 1970, S. 44), habe die Bahngesellschaft nicht reagiert. Stattdessen seien weitere Missstände hinzugekommen. Zunächst klingt dies so, als nehme Hirschman eine düstere Momentaufnahme zum Vorwand, um eine pauschale Kritik an wortmächtigen Eliten vorzutragen. Von einer abschließenden Verfallstheorie kann jedoch keine Rede sein. Statt die Angelegenheit für erledigt zu halten, fordert der Autor explizit dazu auf, gerade den Befund der verstummenden Wortmächtigen einer genaueren Untersuchung zu unterziehen und auf seine Generalisierbarkeit hin zu prüfen (Hirschman 1970, S. 45). Hirschman hat sich an dieser Aufgabe selbst beteiligt. Ausgehend vom bereits zitierten Fall der Nigerianischen Eisenbahn (Hirschman 1967: * Univ.-Prof. Dr. Jörg Potthast, Universität Siegen, Fakultät I (Philosophische Fakultät), Soziologie, insbesondere Workplace Studies.

222

Jörg Potthast

146–147) hat er sich anhand enorm vielfältiger, höchst konkreter und alltäglicher Beispiele damit befasst, wie Missstände gedeutet werden. Er hat dabei in einer wiederkehrenden und scheinbar trennscharfen Gegenüberstellung von Deutungsangeboten ein problematisches Muster erkannt, das maßgeblich auf die Entwicklung dieser Missstände zurückwirkt (Hirschman 1970; 1981; 1986; 1993): Die Vorstellung, es gehe im Anblick von Missständen darum, sich entweder für Protest und darüber angeregte politische Prozesse (Voice) oder für Wettbewerb (Exit) zu entscheiden, sei zwar höchst eingängig und wirkmächtig, beruhe aber auf einer unzulässigen Vereinfachung. Wer mit dieser Gegenüberstellung arbeite und die genannten Optionen als exklusiv ansehe, trage dazu bei, Voice zu schwächen (Hirschman 1970, S. 15–20). Der vorliegende Beitrag hält den makroskopischen Befund zur Lage der Nigerianischen Eisenbahn für übertragbar. Auch die Misere des ÖV in Deutschland ist dadurch gekennzeichnet, dass sich die Bedingungen für Voice verschlechtert haben. Es genügt daher nicht, wortmächtige Eliten zu identifizieren und dazu zu bewegen, ihre Stimme zu erheben. Vielmehr ist den variablen Bedingungen, unter denen Kritik etwas bewirkt, nachzugehen. Was genau kennzeichnet eine Situation, in der Exit und Voice als alternative Handlungsoptionen bereitstehen? Wie verändert sich das Zusammenspiel zwischen diesen Optionen? Mit welchen Folgen? Wie wird Voice unter Umständen dauerhaft geschwächt? Das Ziel dieser – im Fortgang interaktionsanalytisch angelegten – Untersuchung liegt darin, die Bedingungen für wirksame Kritik (über den bloßen Kontrast zu einer unwirksamen und verspäteten Kritik hinaus) zu spezifizieren. Gesetzt ist also, in Anlehnung an Hirschman: Der Umgang mit Kritik bietet Aufschluss über die Misere des ÖV. Die Frage ist, deutlich pointierter als bei Hirschman: Inwiefern muss sich Infrastrukturkritik, um wirksam zu sein, als elitäre Kritik neu erfinden? Ihrem Selbstverständnis nach sind Protestbewegungen, ob sie für eine ökologische Verkehrswende oder gegen Großprojekte wie Stuttgart 21 mobilisieren, keineswegs elitär. Ausgerechnet »Eliten« kommt die Aufgabe zu, rechtzeitig Fehlermeldungen vorzubringen? Stehen sie nicht gerade für eine mit Mühe überwundene Standesordnung? Da sich ihr Handeln weder auf demokratische Legitimation noch auf fachliche Expertise oder organisatorische Zuständigkeit stützt, müssen Eliten in demokratischen Gesellschaften als Fremdkörper gelten. Auch die in Anlehnung an Hirschman vorgeschlagene Definition, dass zur Elite gehört, für wen sich Exit und Voice als Alternativen darbieten, scheint zunächst fragwürdig: Halten sich Eliten überhaupt mit Kritik auf ? Oder zeichnen sie sich genau dadurch aus, dass sie machen (ohne Worte zu verlieren)? Der Forschungsstand zu Protestbewegungen gibt ebenso wenig Anlass, Infrastrukturkritik für eine elitäre Angelegenheit zu halten – auch dort nicht, wo er sich explizit und am Beispiel kontroverser Infrastrukturprojekte für Transfor-

Fehlermeldungen und Elitenversagen am Beispiel des Öffentlichen Verkehrs

223

mationen der Ökologiekritik interessiert (Centemeri 2017). Dem Aufruf, Kritik als eine gewöhnliche Praxisform zu betrachten (Boltanski/Th8venot 2007), scheint diese Annahme sogar diametral entgegengesetzt. Wenn die Soziologie der Kritik postuliert, dass alle Mitglieder einer Gesellschaft über kritische Kompetenzen verfügen (Boltanski/Th8venot 2007), dann kündigt die Frage nach einer elitären kritischen Praxis Widerspruch an. Wird Kritik in Anlehnung an dieses Forschungsprogramm als ein sozialer Prozess verstanden, ist dieser Widerspruch allerdings weniger schroff. Ob und wie Fehlermeldungen greifen und darüber eine kritische Dynamik in Gang setzen, gilt es dann, mit den Mitteln einer pragmatischen Soziologie, zum Gegenstand situierter Analysen zu machen. Entgegen ihrer gewohnten Ausrichtung, aber in Anlehnung an ihren pragmatischen Zugang lautet der Auftrag für die Soziologie der Kritik also, im Fall von Infrastrukturen, das Elitäre (und nicht das Gewöhnliche) in kritischen Operationen zu entdecken und zu bedenken. Im Bemühen, eine prozessuale Perspektive auf Kritik zu etablieren, hat sich die Soziologie der Kritik wiederholt auf Hirschman berufen (Boltanski et al. 1984, S. 6; Boltanski/Chiapello 2004, S. 15, 42) und ihn zwischenzeitlich auch zu ihrem wichtigsten Vorläufer erkoren (Boltanski/Chiapello 2004, S. XXX). Die bei Hirschman angelegte Frage nach einer elitären Praxis der Kritik hat das besagte Forschungsprogramm dagegen nicht gestellt. Gerade weil ökonomische Expertise mitsamt ihren Empfehlungen für Exit seit den frühen Arbeiten Hirschmans weiter an Durchschlagskraft gewonnen haben (Orl8an 2015), ist es jedoch höchste Zeit, dass sich Voice – gegebenenfalls auch nach elitärem Muster – neu erfindet, erprobt und beweist. Was ist Infrastrukturkritik? In welchem Sinn dürfen und müssen Fehlermeldungen, die auf Missstände im ÖV aufmerksam machen, elitär sein? Die beiden im Folgenden betrachteten Fälle (Zug; Bus) führen in den Landkreis Siegen-Wittgenstein. Haushalte verfügen dort im Durchschnitt über 1,5 Autos (1,2 im NRW-Landesdurchschnitt); wohnen drei oder mehr Personen im Haushalt, steigt diese Zahl auf 2,2 (Engelen et al. 2018, S. 30). Das Straßennetz ist (im interregionalen Vergleich) hervorragend ausgebaut. Es verfügt über eine Kapazität, die es mit der enormen Motorisierungsquote aufnehmen kann. Auf der anderen Seite hat Siegen bei 100.000 Einwohnern und knapp 20.000 Studierenden nur indirekt, das heißt über Gießen (52 Minuten ab Siegen Hauptbahnhof), Siegburg/Bonn (1 h 03 min), Köln (1 h 26 min), Hagen (1 h 34 min) oder Frankfurt am Main (1 h 43 min), Anschluss zum DB-Fernverkehr. Wer hier den ÖV nutzt, tut dies, weil er oder sie keine Alternative sieht. Fahrräder sind fast nur im Freizeitverkehr unterwegs, kommen also ihrerseits kaum als Alternative in Frage. Ihre Verkehrsleistung beschränkt sich auf vier Prozent aller Wege (Engelen et al. 2018). Unter Gesichtspunkten klimaschonender Mobilität ist die Lage in Siegen und Umgebung also vergleichsweise schlecht. Die Krise, die dem Öffentlichen Verkehr bundesweit attestiert wird, lässt sich hier exemplarisch

224

Jörg Potthast

erforschen. Im Fokus stehen dabei Aushandlungen um die Autorisierung, Eindämmung und Entfaltung von Fehlermeldungen, die deshalb zugänglich und dokumentiert sind, weil sie der Autor selbst vorgebracht hat. Die Versuche, das Beschwerdemanagement entlang von Exit/Voice-Verschränkungen zu kategorisieren (Abschnitte 2–4), brechen mit dem Einzug digitaler Techniken und sozialer Medien nicht ab (Abschnitt 5). Auf diese Weise soll außerdem möglichst bruchlos und schrittweise nachgezeichnet werden, was sich (für die Fahrgäste; für die Verkehrsunternehmen; für Intermediäre) mit einer Digitalisierung des Beschwerdemanagements ändert.

2.

Vorteil Voice?

Exit signalisiert Missstände, ohne sie anzusprechen. Wenn jemand diese Signale empfängt und verarbeitet, gilt Exit als die sowohl weniger kostspielige als auch elegantere Option: Lieber ein sauberer Schnitt als ein Palaver, das nicht zum Punkt kommt. Voice rechnet sich dagegen, wenn es über ein bloßes Signal hinaus auf die gehaltvolle Beschreibung eines Missstands ankommt (Hirschman 1981, S. 214). Aber wer würde das noch bestreiten? Schließlich hören und lesen wir seit einiger Zeit, wo immer wir Bewertungen abgeben: »Danke sehr, Ihre Rückmeldung macht uns besser. Überzeugen Sie sich bei nächster Gelegenheit selbst!« Zwar behalten die ÖV-Betreiber diese Rückmeldungen und den Umgang damit für sich, betreiben aber strategisch-kommunikativ eine enorme Aufwertung von Voice. Oder machen sie uns diesen Vorteil für Voice nur vor? Was dann? Wenn es – wie in den im Folgenden betrachteten Beispielen – Anlass gibt, eine Fehlermeldung zu wiederholen: Ist mir das nicht zu blöd? Sich gar mehrmals zu wiederholen, verstößt, wie entsprechende Krisenexperimente belegen (Garfinkel 1967), gegen mit Schamgrenzen bewehrte Gefühlsregeln (Hochschild 1979). Oder kennzeichnet es eine elitäre Praxis der Kritik, dass sie sich gegen den Standard der Exit-Eliten, die ihre Fehlermeldungen nicht ausführen und erst recht nicht wiederholen, hinwegsetzt? Beschwerden mit Gewicht (Zug). Ob in von der Deutschen Bahn oder ihren Konkurrentinnen betriebenen Zügen: Sobald ich als Erster-Klasse-Kunde mit »Bahncard 100« eine Fehlermeldung auch nur andeute, werde ich darin umgehend bestärkt. »Tun Sie das! Ihre Beschwerde hat Gewicht!« Wenn ich das Personal im Gegenzug darum bitte, Fehlermeldungen selbst vorzunehmen, ist die Antwort nicht weniger einhellig: »Sie können eine Fehlermeldung nicht delegieren.« Das sei, wie mir auch auf Nachfrage versichert wird, ganz in meinem Sinn. Fehlermeldungen, die das Personal vornimmt, fänden kein Gehör, auch wenn sie sich gegenüber Laiendarstellungen durch ein höheres Niveau an Sachkenntnis und Erfahrungswissen auszeichnen.

Fehlermeldungen und Elitenversagen am Beispiel des Öffentlichen Verkehrs

225

Der erste Teil dieser Auskunft präsentiert Exit und Voice nicht als trennscharfe Alternativen, sondern spricht eine Empfehlung aus, die auf eine Verschränkung hinausläuft: Ich werde gebeten, mit Abwanderung (Exit) zu drohen, weil Widerspruch (Voice) so mehr Gewicht beikomme (vgl. Hirschman 2010, S. 207). Der zweite Teil lässt mich stutzen: Wenn hier wirklich nur der Status zählt (»Bahncard 100«; »Erste Klasse«), geht es dann überhaupt um Voice? Kommt es auf Form und Inhalt einer Fehlermeldung an, die sich effizient bearbeiten lässt? Haben sich Unternehmen, deren Mitarbeiterinnen und Mitarbeiter derart fragwürdige Statuszuweisungen vornehmen, nicht schon aufgegeben? Die Situation erscheint verwickelt. Auf der einen Seite wird mir suggeriert, dass mit der industrieförmig-standardisierten Bearbeitung von Beschwerden auch eine feudale Statusordnung ins Spiel kommt: Die Fehlermeldungen privilegierter Fahrgäste haben Gewicht. Auf der anderen Seite gibt mir die Episode zu verstehen: Hier geht es gar nicht um Fehlermeldungen zu Betrieb und Technik, sondern um Reparaturen an einer symbolischen Ordnung, die zunächst der Kundschaft mit gehobenem Status zuteilwerden (vgl. Hochschild 1990). Oder lässt sich Kritik als eine (elitäre) Praxisform (Boltanski 1987) neu erfinden, die wirksame Fehlermeldungen hervorbringt, indem sie beides verbindet?

3.

Exit und Voice zweiter Ordnung

Wenn sie sich organisiert, wird Voice einerseits wirkungsvoller, andererseits aber auch anfällig für Missstände, die ihrerseits Exit oder Voice hervorrufen. Auch diesen Punkt hat Hirschman (2010, S. 210) schon gesehen, mitsamt einer vorschnellen Schlussfolgerung: Wer Exit auf dieser Ebene erneut zur Default-Option erklärt, nimmt eine unhaltbare Generalisierung vor. Allerdings betreiben noch andere Kräfte Raubbau an der organisierten Kritik. Es bedarf deshalb einer Unterstützung durch andere, organisatorisch nicht gebundene Formen der Kritik – auch um den Preis, dass diesen dann, ohne Mandat oder organisatorische Zuständigkeit, ein Ruch des Elitären anhaftet. Der vorliegende Abschnitt erkundet auch entlang des zweiten Beispiels (Bus) Bedingungen einer solchen Kritik. Voice ist kostspielig, während Exit, solange nicht Loyalität im Spiel ist (Hirschman 1981, S. 214), keine (unmittelbaren) Kosten verursacht. Wer würde sich für Voice entscheiden, wenn es auch Möglichkeiten gibt, sich ihre Errungenschaften zu erschleichen? Hat sich die Frage nach dem Verhältnis von Exit und Voice mit dem Hinweis auf die Trittbrettfahrer nicht zu Lasten von Voice erledigt – gerade im Fall von Infrastrukturen, die einer breiten Nutzung zugänglich sind? Hirschman weist diesen Schluss zurück. Wer so argumentiert, verkenne den Umstand, dass sich Kritik, um ihre Wirkung zu steigern, organisiert (Hirschman 1981, S. 214). Mit

226

Jörg Potthast

Gründung oder Eintritt haben sich Mitglieder solcher Organisationen also zu einem gegebenen Zeitpunkt gegen Exit und für Voice entschieden. Wird organisierte Kritik dann ihrerseits als Missstand wahrgenommen, stehen die Mitglieder zwar eventuell erneut vor die Alternative »Exit oder Voice?« In diesem Fall betrifft diese Unterscheidung jedoch nicht elementare Kategorien individuellen oder kollektiven Handelns, sondern ein Phänomen zweiter Ordnung. Werden diese Ebenen auseinandergehalten, dann lässt sich die Praxis elitärer Kritik in einer weiteren Hinsicht bestimmen. Es hat nämlich nichts mit Kritik oder auch elitärer Kritik zu tun, wenn jemand in einem Reflex moralischer Selbsterhöhung einen überlegenen Standpunkt reklamiert, um Trittbrettfahren (Exit) (als minderwertig) anzuprangern. Elitäre Kritik reagiert vielmehr auf das geschilderte Dilemma organisierter Kritik. Sie empfiehlt sich als Ergänzung und nicht als Alternative zu organisatorisch gebundener Kritik, auch nicht als Neuauflage einer »Künstlerkritik«, der von sicherlich bemerkenswerten Ausnahmen abgesehen (Groth et al. 2017), insgesamt ein höchst zweifelhafter Erfolg zu bescheinigen ist (Potthast 2001; Boltanski/Chiapello 2004). Die beiden von mir getätigten Serien von Fehlermeldungen beziehen sich also auf organisierte Felder. Dennoch handelt es sich nicht um organisierte Kritik, sondern, insbesondere im zweiten Fall (Bus) um Kritik zweiter Ordnung, die jene Instanzen kritisiert, die in ihrer organisierten Zuständigkeit für Fehlermeldungen versagen. Kritik dieser Art ist elitär, weil sie ihre Legitimation aus einer im Organigramm nicht vorgesehenen »höheren Ordnung« bezieht. Ebenso wenig beruft sie sich zur Legitimation auf die Ordnung des Marktes, so unbeirrt sich »der Markt« auch als Alternative zu »verkrusteten« Organisationen darstellt. Um darauf aufmerksam zu machen, dass an den Bushaltestellen am Campus »Adolf-Reichwein« (AR) der Universität Siegen Fahrgastunterstände fehlen (Abb. 1), versuche ich, ein Versäumnis organisierter Kritik herauszustellen: Kritik auf Umwegen (Bus). »Wenn es die Verkehrsbetriebe durchgehen lassen, dass die Studierenden im Regen stehen, wären Sie nicht zu einer Fehlermeldung verpflichtet?« Der Referent des Bürgermeisters, der zugleich »Universitätsbeauftragter« ist und dem ich (im November 2017) diese Frage stelle, sieht das nicht so. Also frage ich weiter : »Wenn die Stadt es durchgehen lässt, dass Studierende wie Angehörige der Universität und ihre Gäste im Regen stehen, wären Sie nicht qua organisierter Zuständigkeit zu einer Fehlermeldung verpflichtet?« Der Baudezernent der Universität, dem ich diese Frage (im Januar 2018) stelle, sieht das nur bedingt so. Also frage ich weiter : »Wenn der Baudezernent eine Bushaltestelle ohne Dach durchgehen lässt, wären Sie nicht qua organisierter Zuständigkeit zu einer Fehlermeldung verpflichtet?« Der Leiter des Referats Studierendenservice, dem ich diese Frage stelle, lädt mich ein, beim von ihm moderierten Runden Tisch ÖV (im Mai 2018), im Beisein von Vertreterinnen und Vertretern der Universität, der Stadt Siegen und der Verkehrsverbände, dieses Anliegen vorzutragen.

Fehlermeldungen und Elitenversagen am Beispiel des Öffentlichen Verkehrs

227

Abb. 1: Bushaltestellen am Campus der Universität Siegen im November 2017: mit Fahrgastunterstand (oben: Robert-Schumann-Straße) und ohne Fahrgastunterstand (unten: AdolfReichwein-Straße) (Fotos: Jörg Potthast)

Auch wenn es hier nicht darum geht, Whistle Blower über lange Phasen intensiver Kontaktarbeit zu ermutigen, Missstände aufzudecken und dabei ihre organisatorische Position beizubehalten (Kolhatkar 2019; vgl. Chateauraynaud/ Torny 1999): Mit beiläufigem Soufflieren, das eine organisatorische Zuständigkeit feststellt, lässt sich der geschilderte Vorgang nicht beschreiben. Im letzten Schritt erfährt meine organisatorisch ungebundene Fehlermeldung zweiter Ordnung eine Transformation. Bisher wusste sie privilegierte Kanäle im Hintergrund zu nutzen, die den aus diversen Gremien zusammengesetzten Anwe-

228

Jörg Potthast

senden am Runden Tisch ÖVanrüchig erscheinen mochten. Dann wechseln das Anliegen und sein Autor auf die Vorderbühne. Aus einem Privileg wird ein Tagesordnungspunkt. Kritik auf Umwegen (Bus). Oft und allzu beflissen werde ich als »Professor« aufgerufen – ganz so, als wolle sich dieses Gremium rituell versichern, dass ständische Privilegien hier illegitim und fehl am Platz sind. Im weiteren Verlauf der Sitzung stößt Kritik als elitäre Praxis erneut an eine Grenze. Als ich glaube, die Beteiligten nur daran erinnern zu müssen, dass der Universität bei der Förderung nachhaltiger Mobilität eine besondere Rolle zukommt, liege ich falsch. Einen solchen – elitären – Anspruch auf eine Vorreiterfunktion gibt es nicht, weder in Form einer symbolischen Erklärung, noch im konkreten Fall. Der von mir angeregte Ausbau der Bushaltestellen am Campus wird erst nach strenger Abwägung befürwortet. Unter anderem wird gefragt, ob für die Dachkonstruktion PKW-Stellplätze weichen müssen. Dass diese Frage vom ASTA kommt und trotzdem keinen der Anwesenden überrascht, lässt den Rückschluss zu, dass der ÖV nicht mehr im Ruf steht, einen verlässlichen Zugang zum Campus zu gewährleisten. Kritik auf Umwegen (Zug). Als ich (im Februar 2019) den Moderator des erwähnten Runden Tischs zur ÖV-Anbindung der Universität wissen lasse, dass mir die Pressesprecherin von Abellio-NRWein Telefonat zu Mängeln auf der Linie zwischen Siegen und Hagen angeboten hat, möchte er ein Missverständnis aus der Welt räumen: Ich könne mir nicht anmaßen, im Namen der Universität eine Fehlermeldung zu machen. Für die Pressesprecherin von Abellio seien weder ich noch er, sondern allein die Pressestelle der Universität ein legitimes Gegenüber. Auf mein Angebot, in das bevorstehende Gespräch mit Abellio weitere Anliegen aufzunehmen, geht er nicht ein. Wie schon im Fall des Fahrgastunterstands achtet er streng darauf, dass elitäre Kritik nur auf offiziellem Weg in organisierte Kritik überführt wird. Schleichwege, Abkürzungen oder einen komplizenhaften Austausch lehnt er ab.

Die Gründe für diese Ablehnung spiegeln die Umwege, die, wie oben geschildert, meine Fehlermeldung zur Bushaltestelle genommen hat. Sie beruhen auf einer staatsbürgerlichen Ordnung, die neben legitimierten Mandatsträgerinnen keine Komplizen duldet. Der Runde Tisch ÖV ist dagegen kein gewähltes politisches Organ; vielmehr wurde er eingesetzt, weil Politik mittels gewählter Vertretung an ihre Grenzen stieß. Im Rahmen einer »Demokratie der Unparteilichkeit« (Rosanvallon 2010, S. 108–130) hat er die formalen Zwänge gelockert, denen die Beteiligten durch ihre organisatorischen Rollen unterliegen. Er ließ, was als elitäre Praxis per eingeschlepptem Status illegitim wäre, als kollegiale Kritik (Rosanvallon 2010, S. 114–116) durchgehen. Eine solche Transformation zeigt Spielräume für Experimente mit elitärer Kritik, die nach einer kurzen Zwischenbilanz weiter ausgelotet werden. Zwischenbilanz: Wenn der Vorteil von Voice darin liegt, gehaltvolle Beschreibungen zu bieten, dann geben beide Fälle (Zug; Bus) Aufschluss darüber, dass er sich nicht ohne weiteres realisieren lässt. Vielmehr deutet sich an, dass Voice angesichts der Zwänge zur Wiederholung, die auf ihr lasten, Gefahr läuft,

Fehlermeldungen und Elitenversagen am Beispiel des Öffentlichen Verkehrs

229

sich beirren und beschämen zu lassen, und sich insofern als eine elitäre Praxis beweisen muss. Verschränken sich Exit und Voice zu Phänomenen höherer Ordnung, greift das Bild vom Trittbrettfahren nur bedingt. In solchen Konstellationen kann elitäre Kritik organisierte Kritik stützen, ohne dass (qua Organigramm oder Mandat) ein Platz für sie vorgesehen wäre. Diese Anhaltspunkte für Kritik als einer elitären Praxisform werden im Folgenden stärker auf technische Infrastrukturen bezogen, weiter ausgeführt und präzisiert.

4.

Infrastrukturkritik zur Unzeit

Infrastrukturkritik, der sich vorhalten lässt, sie komme »zur Unzeit«, verstummt. Es sei denn, sie nimmt Anleihen beim radikalen Präsens technikethnografischer Nutzungsforschung: Dann tritt an die Stelle eines laienhaften Makels (blind für infrastrukturelle Komplexität zu sein) ein elitärer Effekt, der dem Hier und Jetzt des Missstands zu Geltung verhilft. Gerade am hier betrachteten Standort scheinen elitäre Bezüge jedoch von vornherein fehl am Platz. Die Universität Siegen ist jung. Sie war nie – im Sinn einer ehrwürdigen Ordinarienuniversität – elitär. Ihre Gründung (1972) folgte strukturpolitischen Erwägungen. Es galt, einer Region, die absehbar vom Abzug der Schwerindustrie gezeichnet sein würde, mit höchstem Anspruch an soziale Inklusion eine Alternative zu bieten, wobei elitäre Gepflogenheiten aus dem Elfenbeinturm aufzugeben waren. Dieser auch an anderen Orten verfolgte, hier maßgeblich vom NRW-Wissenschafts- und Forschungsminister Johannes Rau (1970–1978) betriebenen Vision zufolge müssen sich Universitäten jeder Art von Schwelle, die zu sozialem Ausschluss führt, entsagen. Ausgerechnet dieses Ziel hat die Universität Siegen mit ihren eher entlegenen und verstreuten Standorten klar verfehlt. Der Gründungsvision zum Trotz war die Aufmerksamkeit für Effekte sozialer In- und Exklusion über »verkehrliche Mobilität« (Dangschat/Segert 2011) offenbar sehr niedrig. Kurzum: Der mit Abstand größte Campus der Universität, oberhalb des Ortsteils Siegen-Weidenau gelegen, ist mit dem ÖV ähnlich schlecht zu erreichen wie die Strände von Long Island nach dem Ausbau der Parkways für die armen und zu großen Teilen schwarzen Bewohnerinnen und Bewohner der Bronx (Winner 1980). Langdon Winners Analyse (1980) zufolge sind die Brücken über den Parkways zu niedrig für Busse. Darum seien sie dafür verantwortlich, dass die Strände für Leute, die auf dieses Verkehrsmittel angewiesen sind, unzugänglich bleiben. In der Rezeption wurden »Die Brücken des Robert Moses« zu einer Parabel (Joerges 1999) für sozial exklusive, wenn nicht rassistische, an Infrastrukturen delegierte Politik und haben in und mit der sozialwissenschaftlichen Technikforschung Furore gemacht. Indem sich Beiträge zu diesem For-

230

Jörg Potthast

schungszusammenhang immer wieder auf dieses Beispiel bezogen, haben sie sich versichert, zu einer Analyse imstande und autorisiert zu sein, die bis dahin kaum denkbar war : Infrastrukturen machen Politik (Artifacts have politics)! Bei der Erforschung einer solchen »Politik mit anderen Mitteln« (Latour 2006, S. 131; vgl. Latour 2008) ist deutlich geworden, dass es nicht damit getan ist, gegenüber der herkömmlichen politik- und sozialwissenschaftlichen Forschung eine Lücke zu schließen und etwaige Befunde nachzureichen. Statt einer etablierten Disziplin zuzuarbeiten, stoßen sich die erwähnten Beiträge an der disziplinären Arbeitsteilung zwischen Ingenieur- und Sozialwissenschaften. Auch wenn es ihr nur in Ansätzen gelungen ist, aus Winners Impuls ein konsistentes und konsequent verfolgtes Forschungsprogramm zu entwickeln, ist die Technikforschung weiterhin optimistisch, dass sich die Zumutung, eine disziplinäre Spezialisierung zurückzunehmen, in wirksame Infrastrukturkritik ummünzen lässt. Im Stil eines »blasierten Tourismus«, der »gerne mühelos Zugang zu unberührten Gegenden [hätte], aber ohne dort auf andere Touristen zu stoßen« (Latour 2014, S. 140), ist diese Kritik nicht zu haben. Sie lässt sich aber insofern als elitär kennzeichnen, als sie gegen die Grundordnung der Disziplinen arbeitet. Die von Winner angestoßene Diskussion bietet also einen weiteren Anhaltspunkt dafür, wie sich Voice unter Bedingungen stärken lässt, die ihr wenig zuträglich sind. Derzeit sind im Siegener ÖV vornehmlich Leute unterwegs, für die Exit keine Option ist. Wer die Wahl hatte, fährt Auto. Seit im ÖV Leute unter sich sind, die keine Wahl mehr haben, fehlt es an einer Lobby, die etwa den Verrat an der inklusiven Gründungsvision der Universität zur Sprache bringt. Doch damit nicht genug. Auch die optimistische Position scheint, seit die Universität angekündigt hat, in großen Teilen vom abseits gelegenen Campus in die Innenstadt zu ziehen (Benzler/Richter 2017), anderweitig besetzt. Seither sehen jene, die einen Umzug aller Fakultäten mit hohen Studierendenzahlen befürworten, Aussicht auf Besserung. Sie malen sich aus, dass sich die Probleme mit dem Busverkehr dann wie nebenbei erledigen. Jahrhundertchance (Bus). Ähnlich wie eine Informationsveranstaltung des Rektorats (Januar 2017) neigt der Runde Tisch ÖV dazu, diesen Hinweis auf eine bessere Zukunft gelten zu lassen und so deutlich zu priorisieren, dass aktuelle Missstände nicht der Rede wert sind. Es komme eben darauf an, groß zu denken. Der geplante Umzug sei eine Jahrhundertchance, die Universität und eine durch Leerstände gekennzeichnete Innenstadt gemeinsam voranzubringen. Da wäre es kleinlich, sich mit lokalen Widrigkeiten des ÖVaufzuhalten. Im Übrigen dürfe nicht verschwiegen werden, was sich in den letzten Jahren schon zum Besseren gewendet hat: Seit 2012 verkehren Expressbusse ohne Halt zwischen Campus und Hauptbahnhof; 2015 wurden Haltestellen am Fuß und kurz darauf im unteren Teil des Haardter Bergs ausgebaut.

Unter diesen Umständen meine Fehlermeldung aufrechtzuerhalten, zu wiederholen und zu bekräftigen, setzt voraus, über die asymmetrische Darstellung

Fehlermeldungen und Elitenversagen am Beispiel des Öffentlichen Verkehrs

231

hinwegzusehen, die einer »Jahrhundertchance« das Hier und Jetzt einer Situationsbeschreibung gegenüberstellt. Jahrhundertchance (Bus). Beim Runden Tisch ÖV hebe ich eigens hervor, dass ich eine radikale Vereinfachung vornehme. Als Laie und Nutzer bleibe mir auch gar nichts anderes übrig, als die Dinge beim Namen zu nennen. Nach dieser Vorrede halte ich mich demonstrativ kurz und frage, so naiv ich kann: »Warum hat diese Bushaltestelle eigentlich kein Dach?« Dass ich die Aufmerksamkeit der Runde gewinne, liegt maßgeblich daran, dass ich (schwarz-weiß auf DinA4-Blätter gedruckte) Fotos der besagten Bushaltestellen (Abb. 1) mitgebracht habe und im Stil eines Seminarleiters zirkulieren lasse.

Der Technikforschung ist diese radikal situierte, alltägliche Form von Kritik seit Längerem vertraut. Sie hat dabei allerdings nicht von elitärer Kritik, sondern, im Gegenteil, von »gewöhnlichen« oder »alltäglichen« Formen der Nutzung und Aneignung gesprochen (Beck 1997; vgl. De Certeau 1984). Alltägliche Formen der Nutzung und eigensinnigen Aneignung von Technik immer wieder zu entdecken, hat darüber die Hoffnung genährt, die Technikforschung könne imstande sein, eine (ehemals elitäre Kultur-) Kritik im Modus konstruktivistischer Beschreibung neu zu erfinden (vgl. Potthast/Guggenheim 2013, S. 156; Guggenheim 2020). Der ÖV spielt dabei eine interessante Rolle. Im Unterschied zum Individualverkehr, der es erlaubt, sich innerhalb der Statusordnung von Eigentümerinnen und Eigentümern einer Position zu vergewissern, behandelt er seine Nutzerinnen und Nutzer nach Maßgabe unpersönlicher Gleichheit. Autos verleihen Singularität, öffentliche Verkehrsmittel sind standardisierte Angebote und stehen im Dienst der Allgemeinheit. Diese Standards verweisen auf Prinzipien, die industrieller Effizienz Rechnung tragen müssen. Der ÖV verkehrt nach Fahrplan; in diesem Plan müssen wesentliche Abläufe aufeinander abgestimmt sein: die Verfügbarkeit des Personals (Arbeits- und Lenkzeiten) wie der eingesetzten Technik (Wartungsintervalle). Nutzerinnen und Nutzer sind dieser industriellen Ordnung zunächst äußerlich. Wie sehr diese industrielle Ordnung im Vordergrund steht, ist daran zu ersehen, dass Störungen, Unterbrechungen und Ausfälle routiniert auf Fehlnutzungen zurückgeführt werden. Nutzerinnen und Nutzer erscheinen wie Elemente, die es, um einen verlässlichen Betrieb zu gewährleisten, zu disziplinieren gilt (Ureta 2013). Gegen diese mächtige Vorstellung einer geschlossenen industriellen Welt haben sich Arbeiten zur situierten Aneignung und Nutzung positioniert (Suchman 1987). Grenzen der Gleichbehandlung zeigen sich etwa, wo die Abläufe ein Prinzip des »first come, first served« verlangen. Wer später zusteigt, ist gegenüber früher Zusteigenden in der Platzwahl eingeschränkt. Viele Nutzerinnen und Nutzer haben in dieser Hinsicht ganz erstaunliche Fertigkeiten entwickelt und wissen sich zuweilen auch über Reservierungssysteme hinweg-

232

Jörg Potthast

zusetzen. Wem es zum Beispiel gelingt, im Zug einem Kleinkind zu seinem Mittagschlaf zu verhelfen, wird unter Umständen mitten in einer hochstandardisierten Welt ein Prinzip häuslicher Ordnung geltend machen (Th8venot 2006; vgl. Potthast 2017). Wer ihn benutzt, nimmt Tag für Tag Einsicht in die kompromisshafte Ordnung des ÖV, belässt es dann aber, statt darin angelegten Konflikte zur Sprache zu bringen, bei einem Grummeln. Ähnliches gilt für Betriebsstörungen. Es fehlt den Fahrgästen nicht an Einsichten, die eine Kritik geradezu herausfordern. Aber selbst wenn sie sich dazu durchringen, verpufft ihre Kritik allzu rasch. Auch wenn dieser Nutzung zugestanden wird, eigenständige Formen mitzubringen, die einer vermeintlich geschlossenen industriellen Ordnung nicht nur »fremd« sind, sondern Kompromisse mit ihr eingehen, lässt sich argumentieren, dass normative Spannungen, statt Kritik zu provozieren, am »Normalbetrieb« mitwirken (Röhl 2017; vgl. Vollmer 2013). Besonders deutlich ist dies, wenn Fehlermeldungen als ein singuläres Anliegen erscheinen: Jahrhundertchance (Bus). Als ich mich Ende 2017 erkundige, warum die Fahrgäste am Campus (AR) der Universität Siegen, auf einem steilen Berg gelegen und darum nur mit motorisierten Fahrzeugen erreichbar, im Regen warten müssen, werde ich so behandelt, als sei ich der erste, der das fragt. Textbausteine (Zug). Als ich Ende 2018 dem Betreiber des Regionalzug (Abellio) zwischen Siegen und Hagen mitteile, dass dieser Zug seit Jahren zu Stoßzeiten überlastet und mit einer chronisch defekten Heizung unterwegs ist, verwendet das Kundenmanagement in seinen Antwortschreiben vorformulierte Textbausteine. Insofern lässt es durchblicken, dass ich nicht der erste bin, dem diese Mängel auffallen. Dies gilt auch für die Antwort auf meinen Hinweis, dass die (einzige) Toilette oft als defekt gekennzeichnet und verriegelt ist. Schlechte Presse (Zug). In der Vorbereitung auf mein Gespräch mit der Pressesprecherin von Abellio fällt mir auf, dass sich Fehlermeldungen zum ÖV häufen. Ich verweise darauf, dass die Presse in letzter Zeit zu einer merklich intensiveren Berichterstattung übergegangen ist und dass es inzwischen, Bundestag und alle Landesparlamente zusammengenommen, 177 »kleine Anfragen« zum Stichwort »Zugausfälle« gab (Stand 04. 03. 2019, seit 2012).

Gelegentlich lasse ich solche Hinweise auf die Quantität von Fehlermeldungen und ihre mediale Verstärkung einfließen, bemühe mich jedoch im Kern, wie zuvor im anderen Fall (der Fahrgastunterstand als pars pro toto für eine höchst unzuverlässige Busverbindung), um eine radikal minimalistische Rahmung: Decken (Zug). Im Januar 2019 bitte ich das Kundenmanagement von Abellio per E-Mail (in der Titelzeile) und die Pressesprecherin (im Februar 2019) am Telefon darum, bei winterlichen Temperaturen angesichts einer dauerhaft unzuverlässigen Heizung Decken vorzuhalten. Beim daraufhin von ihr angebotenen Telefonat sichert mir die Pressesprecherin zu, dieses Anliegen gleich am Folgetag im Kreis der Geschäftsführung zu beraten.

Fehlermeldungen und Elitenversagen am Beispiel des Öffentlichen Verkehrs

233

Auch im Fall der Bushaltestellen bekomme ich ein positives Signal. Zwischenzeitlich wird über die Website der Universität die Errichtung eines Fahrgastunterstands angekündigt. Dennoch ist der minimalistischen Rahmung kein durchschlagender Erfolg beschieden. Sie wird von allerlei Begleitumständen eingeholt, deren Ausblendung sich nur eine elitäre Kritik leisten konnte: Jahrhundertchance (Bus). Der Baugrund für ein Dach gehört dem Land, die Planung liegt bei der Stadt, Finanzmittel müssen eigens und mit entsprechendem Vorlauf beantragt werden. Zwischenzeitlich heißt es, die Stadt habe, weil sich die Universität zur Zukunft des Standorts bedeckt gehalten habe, die Planung solange eingefroren, bis belastbare Auskünfte vorliegen. Es sei nicht zu rechtfertigen, eine angeblich bis zu sechsstellige Summe an einem Standort zu investieren, der dann möglicherweise schon kurze Zeit später aufgegeben wird. Redesign ausgeschlossen (Zug). Auch im Fall Abellio erfahre ich viel über Rahmenbedingungen, die alles komplizierter machen. Hinsichtlich der Kapazität gebe es Messprobleme. Ein Zugbegleiter berichtet, es habe schon vor zwei Jahren eigens eine Fahrgastzählung stattgefunden. Die Erhebung fiel allerdings ausgerechnet in eine entspannte Zeit (Schulferien). Die Betreiberfirma könne gleich aus mehreren Gründen nicht von sich aus die Kapazität erhöhen. Sie sei auf langfristige Verträge mit den beauftragenden Verkehrsverbünden festgelegt; neue Züge ließen sich ohnehin nicht über Nacht beschaffen; an ein Redesign sei schon deshalb kaum zu denken, weil die Fahrzeuge den Betreibern nicht gehören, sondern geleast werden. Wenn es zu entscheiden gelte, ob ein Zug mit Minderleistung fahren oder ganz ausfallen soll, sei ersteres doch eindeutig im Interesse der Kundschaft vorzuziehen!

Die Technikforschung hat gut daran getan, die Perspektive der Nutzerinnen und Nutzer zu adeln. Aber es gibt, wie die Beispiele illustrieren, viele Bruchlinien zwischen einer alltäglichen und einer wirksamen Kritik. An dieser Stelle hilft der Optimismus jener Technikforschung, die die Nutzerinnen und Nutzer entdeckt und aufgewertet hat, weiter als die erdrückende Feststellung determinierender Technostrukturen. Was es genau heißt, exklusiv ingenieur- oder sozialwissenschaftlichen Problemformulierungen zu unterlaufen und insofern zu einer elitären Praxis der Kritik überzugehen, bedarf weiterer Klärung.

5.

Voice nach dem (digitalen) Shit storm?

Digitalisierung senkt die Eintrittshürden für Beschwerden; sie schafft kurzzeitig die Illusion elitärer Beteiligung, verschiebt dann aber den Standard zur Künstlerkritik (vgl. Boltanski/Chiapello 2004). Dies schwächt die organisierte Kritik und fördert Exit. Wenn sich Beteiligung als Illusion verrät, schlägt Voice von dauerhafter Bindung (der eine präventive Wirkung gegen Vandalismus zugesprochen wird) in Resignation um. Diese düstere Einschätzung beruht, zusätz-

234

Jörg Potthast

lich zu den hier verfolgten Fehlermeldungen im Raum Siegen, auf Beobachtungen zur Digitalisierung des Beschwerdemanagements bei den Berliner Verkehrsbetrieben (BVG). Fahrgast im Führerstand (Zug). Als ich mich (im Januar 2019) im Zug eingehend nach einem Heizungsdefekt erkundige, bleibt mein Hinweis, dass es sich hier um einen wiederholten, wenn nicht chronischen Defekt handelt, nicht ohne Wirkung. Der Zugbegleiter zeigt sich beeindruckt, wie weit ich mich in allen nur verfügbaren Kleidungsstücken vermummt habe. Nach einem kurzen Gespräch bittet er mich in den hinteren Führerstand des Zuges. Dort möge ich mich mit eigenen Augen überzeugen, dass die Heizung außer Betrieb ist und die Fehlermeldung vom System erfasst wurde.

Sicherlich verdanke ich diese Demonstration meinem Status als Kunde in der Ersten Klasse. Dieser Status beschränkt sich also nicht auf die Zusicherung, dass er Fehlermeldungen über das Online-Kontaktformular Wirksamkeit verleiht. Fahrgast im Führerstand (Zug). Ich genieße auch insofern einen privilegierten Zugang zur Betreiberfirma, als das Personal streckenweise in dem kleinen Abschnitt mitfährt, dessen vier mal vier Sitze für die Erste Klasse vorgesehen ist. Mitunter sitzen Passagiere und Personal hier also über längere Phasen einer zweieinhalbstündigen Strecke (zwischen Siegen und Essen) in Sicht- und Hörweite. Dieser geradezu nachbarschaftliche Kontakt hat meine Einladung in den Führerstand sicher begünstigt. Hinzu kommt, dass das Personal, das hier mitfährt, untereinander einen regen Austausch pflegt oder mit Auszubildenden Erfahrungen und Erlebnisse nachbereitet. Einige dieser Gespräche höre ich mit – und bin so bewandert, dass ich mich einklinken könnte.

Insofern illustriert das Beispiel ein außerdigitales Privileg: Körperliche Nähe und ein geteilter Fokus (Pütz 2017) schaffen Kontaktmöglichkeiten, die Fehlermeldungen begünstigen. Ist das ein umgekehrter Digital divide? Bleibt es ein Privileg weniger Reisender? Verschärft die Digitalisierung an dieser Stelle Statusunterschiede, so dass die Verantwortung jener, die einen derart privilegierten Zugang zu genießen, noch einmal gewachsen ist? Wer sich erkundigen möchte, warum die Campus-Bushaltestellen nur unzureichend überdacht sind, findet dafür kein Kontaktformular. Auch aus der Situation der Nutzung ergibt sich keine Gelegenheit für eine Fehlermeldung. Ich mag dann und wann mit dem Baudezernenten Bus gefahren sein, aber ansprechbar wurde er erst, als ich ihn (nach dem schon erwähnten Gespräch) erkennen konnte. Zunächst habe ich aber den persönlichen Referenten des Bürgermeisters angesprochen. Dieser Kontakt geht auf einen für Neuberufene arrangierten Spaziergang in der Siegener Oberstadt zurück: Dort hat er sich uns als Uni-Beauftragter der Stadtverwaltung vorgestellt. Persönlich werden (Bus). Auch weil er sich als Alumni der Siegener Sozialwissenschaften zu erkennen gegeben hatte, halte ich den persönlichen Referenten des Bürgermeisters selbst in einer denkbar profanen Angelegenheit für ansprechbar. Seine Antwort auf

Fehlermeldungen und Elitenversagen am Beispiel des Öffentlichen Verkehrs

235

meine E-Mail lässt nicht lange auf sich warten, schlägt aber einen unerwartet harschen Ton an. Das von mir vorgetragene Anliegen falle auf seinen Verfasser zurück. Diesen müsse man sich als schrulligen Professor vorstellen. Auf die Idee, dass diese durch und durch partikulare Anfrage die Allgemeinheit betrifft, könne wirklich nur kommen, wer sich herausnimmt, die Planungsgeschichte der Universität Siegen vollkommen zu ignorieren.

Der Universitätsbeauftragte der Stadtverwaltung lässt mir die Anfrage nach einem Wartehäuschen also nicht als unschuldige Fehlermeldung durchgehen. Vielmehr erkennt er darin die Fortsetzung grober Fehlentscheidungen, die Probleme aufgeworfen haben, die bis heute nachwirken. Beim Versuch, einer Industrieregion auf dem Reißbrett den Anschluss an die postindustrielle Gesellschaft zu sichern, seien nämlich die Anwohnerinnen und Anwohner unter die Räder geraten. Während man privaten Bauherren am (bis dahin industriell genutzten) Haardter Berg strenge Auflagen für ihre Eigenheime gemacht hatte, ließ die Universität unverhofft und über Nacht dort Gebäude erreichten, die sich geradezu demonstrativ über alle Vorgaben hinwegsetzten. Seither sei der Stadtteil Haardter Berg eine gespaltene Stadt. Hier die unter strengen Auflagen entstandene Bungalow-Siedlung, dort die krakenartigen Liegenschaften der Universität. Persönlich werden (Bus). Zunächst weiß ich gar nicht, wie mir geschieht. Wer sich nach einem Dach für eine Bushaltestelle erkundigt, rührt an einer lang zurückliegenden Kränkung, über die besser Stillschweigen geübt werden sollte? Am Runden Tisch ÖV (etwa ein halbes Jahr später) klärt sich dieser Zusammenhang nach und nach auf: Bergauf sind die hier benutzten Busse lauter als bergab. Das wurde in einem mühsam erarbeiteten Kompromiss zur Grundlage dafür, wie die Buslinien durch das Wohngebiet geführt werden. Der von mir angeregte Ausbau der Bushaltestellen gerät unter den Verdacht, diesen Kompromiss aufzukündigen. Angesichts der komplizierten Eigentumsverhältnisse und der besonderen Lage am Berg lasse schon die Frage nach einem für eine Dachkonstruktion erforderlichen Baugrund befürchten, dass die Linienführung der Busse geändert werden muss. Für den Referenten steht also fest: Die Anwohner werden nicht mit sich reden lassen. Aus ihrer Perspektive sind diejenigen, die sich beim Bau des Campus über alle Vorschriften hinweggesetzt haben, für die entstandenen Fehlentwicklungen bis heute nicht zur Rechenschaft gezogen worden. Wenn sich Angehörige der Universität zur Kritik am Status quo berufen sehen, melden sich dann nicht ausgerechnet diejenigen zu Wort, die sich der Rechenschaft für eine historische Fehlleistung entzogen haben?

Meine Initiative gerät also unversehens in ein Kraftfeld historischer Schuldzuweisungen. Sie rührt an das Tabu eines Kontaktabbruchs, in dessen Zuge weitere Planungen »auf Eis gelegt« wurden. Wenn der Preis für Kontaktabbruch so hoch ist, wie das Beispiel nahelegt, dann ist es nur verständlich, dass Verkehrsbetriebe andernorts inzwischen alles daran setzen, mittels offensiver digitaler Kommunikation Kontakte herzustellen und nicht mehr abreißen zu lassen. Eine Kam-

236

Jörg Potthast

pagne hat dabei so hohe Aufmerksamkeit gefunden, dass sie einen Exkurs aus dem Siegerland zu den Berliner Verkehrsbetrieben (BVG) rechtfertigt. »Weil wir Dich lieben« (BVG seit 2015), vielfach dokumentiert und preisgekrönt, habe so offensiv Kontakt gesucht, dass ein digitaler Shit storm nicht überraschend kam, sondern sogar einkalkuliert war. Die Herausforderung habe darin gelegen, die Kampagne über diesen kritischen Moment hinweg zu einem Dauererfolg zu führen (Wendt 2018). Im Fall der Bushaltestelle bin ich zwar keinem Shitstorm ausgesetzt, aber mich überrascht die harsche, persönliche Reaktion des Referenten. Sie trägt einerseits dazu bei, das Selbstverständnis meiner soziologischen Kritik in Frage zu stellen und zunächst betont nüchtern an der Sache dran zu bleiben. Insofern lässt sich der intensive Austausch mit dem Referenten als Geschichte einer Läuterung erzählen, die jener zur BVG-Kampagne durchaus ähnelt. Hier wie dort können die Parteien beanspruchen, sich in einer Phase etwas raueren Austauschs gewissermaßen »persönlich« kennengelernt zu haben. Haben sie das wahre Gesicht ihres Gegenübers gesehen? Sind sie sich »ohne Maske« und »auf Augenhöhe« begegnet? Wenn die Analogie stimmt, hat die BVG viel gespart. Sie hat ihrer Kundschaft auf relativ kostengünstige Weise mittels sozialer Medien »Nähe« vorgespielt (»weil wir Dich lieben«). Darf dieser Kontakt, als er eine Phase der Läuterung überstanden hat, als authentisch gelten? Das ist eher fragwürdig. Die Geschichte ist gut erzählt, aber Voice kommt der zwischenzeitliche Shit storm sicher nicht zugute. Eine auf Coolness getrimmte Umgangsform suggeriert Zugänglichkeit, lässt Fehlermeldungen aber unzulässig erscheinen. Die Dokumentationen zur BVG-Kampagne zeigen (ebd.), dass Missstände laufend zitiert und dankbar für komische und ironisch gebrochene Anschlusskommunikation genutzt werden. Gerade dieses Register einer zunehmend selbstreferentiellen Künstlerkritik ist einem ernsthaften Umgang mit Fehlermeldungen jedoch abträglich. Was ändert sich also für den ÖV, wenn Fehlermeldungen über soziale Medien ausgetauscht werden? Nach eigener Darstellung habe die Image-Kampagne einen doppelten Effekt: Zum einen sei es mit Fehlermeldungen wie mit der Kommunikation unter Freunden: Jetzt werde eben Tacheles geredet! Zum anderen seien Freunde, die in Dauerkontakt stehen, auch bei Verspätungen nachsichtig, so dass sie sich nicht zu Vandalismus und Gewalt hinreißen lassen. Die Kampagne beansprucht, mittels offensiver Kommunikation aus einer Behörde eine dauernd verfügbare Interaktionspartnerin zu machen (Geser 1989). Wenn dafür gesorgt sei, dass der digital vermittelte Kontakt nicht abreißt, dann sähen die Fahrgäste gnädig darüber hinweg, wenn sie nicht oder nur mit Einschränkungen weiterkommen. In Störungssituationen eine Art der Kommunikation aufrechtzuerhalten, in der nicht zugerechnet wird (Liebe), mag die Leute abhalten, eine Öffentlichkeit zu suchen, in der Urteile Äquivalenzanforderungen

Fehlermeldungen und Elitenversagen am Beispiel des Öffentlichen Verkehrs

237

unterliegen (Boltanski 2012). Insofern ist die Öffentlichkeitsarbeit darauf ausgelegt, Voice zu erschweren. (Dass eine zur Liebesbeziehung umdefinierten Nutzung öffentlicher Verkehrsmittel nicht in »häusliche Gewalt« umschlagen kann, halte ich für unbegründeten Optimismus.) Fehlermeldung und Beistand (Zug). Als es im Abellio wieder einmal sehr voll wird, verwickle ich einen Zugbegleiter, der direkt neben mir steht, in ein Gespräch darüber, ob ihm bald eine schwierigere Aufgabe bevorsteht: Wird er, wenn das Passagieraufkommen zu Stoßzeiten weiter steigt, Fahrgäste am Bahnsteig zurückweisen müssen? Der Zugbegleiter erwidert, die Überbelegung werde nicht von Dauer sein. Darauf kommt er in der Anfahrt zu den folgenden Haltestellen immer wieder zurück: Gleich würden viele Leute aussteigen. Dann müsse niemand mehr gedrängt stehen. Am Telefon mit der Pressesprecherin und bei einem Gespräch in der Verwaltung von Abellio (im März 2019) schildere ich dieses Problem und wiederhole die Frage: Ob sich der Betreiber dann immer noch herausreden könne, dass die Bemessung der Kapazität außerhalb seines Einflussgebietes liegt? Es bleibt jedoch bei der Auskunft, die mir der Verkehrsverbund im Februar 2019 zukommen ließ: Die Kapazität wird bis Dezember 2019 nicht erhöht. Die Sorge um die Arbeitsbedingungen der »Kundenbetreuer«, die ich zunächst vor Ort und später am Besprechungstisch des Unternehmens vorbringe, bringt die Anwesenden nicht aus der Ruhe. Die Frage falle in das Ressort des Vorstands für Qualitätsmanagement, der nicht am Gespräch beteiligt ist.

Der Versuch, meine Gesprächspartnerinnen auf eine Logik der Beziehung zu verpflichten, die sie in eindringlicher Weise darauf festlegt, sich dieser Sache anzunehmen, greift an dieser Stelle (und in dieser Richtung) nicht. Ein Merkmal elitärer Infrastrukturkritik ist darin zu sehen, dass sie eine adisziplinäre Haltung, wie sie die sozialwissenschaftliche Technikforschung fordert, tatsächlich durchhält und darum Fehlermeldungen nicht auf die soziale Logik symbolischer Distinktion zurückschrumpfen lässt, bei der es dann gar nicht mehr um technische Defekte, sondern nur noch um »people repair« (Henke 1999, S. 65) geht. So wie einem elitären Habitus (im Unterschied zu einer bloß gehobenen sozialen Statusposition) Selbstreflexivität fremd ist (Bourdieu 1982), muss sich elitäre Kritik an Missständen des ÖV so erfinden, dass sie unbeirrbar spezifisch bleibt. Sie beschäftigt sich also mit prosaischen Problemtiteln wie Verspätungen (Kuhr/Plöchinger 2018; Lehmann et al. 2018), Fahrgastunterständen, Heizungen, Toiletten. Mit konservativer Kulturkritik an Medienkampagnen / la BVG hält sie sich dagegen nicht auf. Sie nimmt einfach zur Kenntnis, dass die Werbesprache flächendeckend zum »Du« übergegangen ist. Sie stört sich nicht an der inszenierten Distanzlosigkeit eines »Berlin funktioniert zwar nicht, ist aber liebenswert«, sondern macht sich in umgekehrter Richtung, wenn immer es sich anbietet und eine Fehlermeldung voranbringt, demonstrative Kundennähe zunutze.

238

Jörg Potthast

Auch wenn es Kundinnen geben mag, die aus der Digitalisierung ÖV-bezogener Dienstleistungen Statusgewinne beziehen (Bös 2019), steht im Hintergrund dieser Umstellungen im Beschwerdemanagement eine andere Sorge, die von Siegener Busunternehmen und anderen ÖV-Betrieben geteilt wird: Es hakt bei der Rekrutierung neuer Mitarbeiterinnen und Mitarbeiter. Fehlermeldung und Beistand (Zug). Im Gespräch beim regionalen Sitz des Zugbetreibers Abellio in Hagen wird der Bereichsleiter Instandhaltung deutlich. Ihm sei angesichts der bekannten »Minderleistungen« ein mobiles Wartungsteam zugesprochen worden, das nun mit einem eigens beschafften Fahrzeug und entsprechender Ausstattung zum Einsatz kommen wird. (Das sei nicht nur kundenfreundlicher, sondern auch billiger, als den Zug in der Werkstatt reparieren zu lassen.) Allerdings hänge dieser Plan noch an einem seidenen Faden: Er sei sehr unsicher, ob er für diese Stelle an einem für solche Tätigkeiten ungünstigen Arbeitsmarkt überhaupt eine geeignete Person finden kann. Wenig später versuche ich, das Gespräch mit einer Bemerkung zum Abschluss zu bringen, die mir geradezu feierlich gerät: Ich sei froh, dass ihm – und nicht der Pressesprecherin (sie hatte sich schon in den nächsten Termin verabschiedet) eine neue Stelle zugesprochen wurde. Mein Gesprächspartner zeigt sich von diesem Hinweis und seinem ideologiekritischen Subtext (Instandhaltung geht vor Kommunikation) nicht beeindruckt.

Offensichtlich ist er nicht so sicher, dass sich sein Unternehmen zuerst wahrhaft dringenden Problemen der Verkehrsinfrastruktur zuwenden sollte, bevor es damit beginnt, digitale Dienstleistungen auszubauen und auf diesem Weg relevante Teile der Kundschaft vom Abwandern abzuhalten. Umso mehr bin ich überrascht, wie offensiv die erwähnte BVG-Kampagne mit der Kultur eines Betriebs bricht, der in industriellen Maßstäben Reparatur und Instandhaltung organisieren muss. Auch wenn die herkömmlichen Milieus (»Lokführerkinder«) nicht mehr ausreichen, um zu den aktuellen Bedingungen den Bedarf an Fachkräften zu decken, sind solche Kampagnen eher problematisch. Unter Umständen generieren sie so viel Aufmerksamkeit, dass sich die Abwanderung aus diesen Berufen in Teilen aufhalten lässt. Allerdings tragen sie keinesfalls dazu bei, Voice zu stärken: Weder durch eine abgesenkte erste Schwelle (mit dem Kontaktformular beginnt eine industrielle Bearbeitung von Fehlermeldungen), noch durch digitalen Dauerkontakt, der eine Prüfung auf Authentizität überstanden hat (Fehlermeldungen können dem Beziehungsstatus nichts anhaben). Vielmehr müssen elitäre Kritik und Feldforschung ein Auge für die Gelegenheit beweisen. Fahrgast im Führerstand (Zug). Als ich den Zugbegleiter, der mir Zugang zum Führerstand gewährt hatte, darum bitte, die Fehlermeldung über die ausgefallene Heizung selbst vorzunehmen, ist er ohne weiteres dazu bereit.

Auch das (vorerst abschließende) Gespräch bei Abellio gibt keinen Aufschluss dazu, ob dieser Mangel behoben wird. Ich belasse es darum bei dem vorsich-

Fehlermeldungen und Elitenversagen am Beispiel des Öffentlichen Verkehrs

239

tigen Hinweis, dass das Versprechen, die Kundschaft des ÖV zu einer digitalen Elite zu machen, eine kurze Halbwertszeit haben könnte. Es geht stattdessen, wie das Fazit noch einmal dringlich herausstellen wird, um das Betriebspersonal.

6.

Fazit: Kritik in Zeiten der Abwanderung

Detaillierte Fehlermeldungen sind, wo es eine ausgeprägte Ingenieurskultur gibt (die sich, etwa im Fall der Eisenbahn, weiterhin in einem breiten Amateurwesen fortsetzt), nicht ungewöhnlich. Ökonomische Expertise, die in allen denkbaren Varianten auf Exit setzt, versagt sich dagegen eine solche Detailschärfe. Sie bricht mit dem Partikularen und begreift sich genau darin als kritisch. Andr8 Orl8an geht sogar so weit, die Art und Weise, Ökonomie als eine kritische Praxisform zu betreiben, als konstitutiv für diese Disziplin zu bezeichnen (Orl8an 2011; vgl. Potthast 2015). Dieser durch eine disziplinäre Arbeitsteilung gestützten Praxis entgegen zu wirken, setzt voraus, Missstände gegen die Konventionen kritischer Abstraktion über eine Fall-zu-Fall-Expertise zu begründen. In dieser Hinsicht richtet sich Voice gegen eine ökonomische Beratungselite, die sich einredet und uns vormacht, Kritik in Reinform zu praktizieren. Inwiefern Voice gezwungen ist, sich im Fall von Infrastrukturen ihrerseits als eine elitäre Praxis zu erfinden, hat sich mit Blick auf eine Anforderung zur radikal verknappten Situierung (zur Unzeit) besonders deutlich gezeigt. Wo es einmal zu einem digitalen Shit storm kam, ist an eine solche Verknappung allerdings kaum noch zu denken. Die hier in zwei Fällen wiederholt getätigten und dokumentierten Fehlermeldungen führen zu einem Befund, der unter einem abstrakten Titel bestens bekannt ist und seinerseits auf Abwanderung hinweist: Mit dem vielfach attestierten »Fachkräftemangel« verliert der öffentliche Raum eine kritische Stimme, die für seine Qualität von besonderer Bedeutung ist; eine Qualität vor Ort, die sich mit digitalen Mitteln ebenso wenig kompensieren lässt wie mit Decken (für den Regionalzug) oder einem Fahrgastunterstand (für den Campus). Versagt diese Stimme, müssen andere mit den Konflikten zurechtkommen, die sich bei der miserablen Bus-Anbindung der entlegenen Campus-Standorte deutlich abzeichnen. Was Fahrgäste unter sich ausmachen (Bus). Der Campus AR liegt oberhalb einer Siedlung, deren Anwohnerinnen und Anwohner eine fortgeschrittene Altersstruktur aufweisen. Sofern sie auf Öffentliche Verkehrsmittel angewiesen sind, tun sie gut daran, nicht in den Stoßzeiten unterwegs zu sein. Andernfalls finden sie nicht nur keinen Sitzplatz, sondern überhaupt keinen Platz im Bus. (Regelmäßig lassen überbelegte Busse einzelne Bushaltestellen aus.) Beim Runden Tisch ÖV im Dezember 2018 heißt es dazu seitens der Verkehrsbetriebe lapidar: Das müssen die Fahrgäste eben unter sich aus-

240

Jörg Potthast

machen. Wenn nicht alle einsteigen können, sei eben denjenigen Priorität einzuräumen, die noch auf einen Anschluss (zum Regionalverkehr) angewiesen sind. Aber das müssten die Leute eben vor Ort hinbekommen. Umgekehrt sei es natürlich zu missbilligen, wenn die Pendlerinnen und Pendler unterwegs zur Universität auch noch die lokalen Buslinien »besetzen«.

So viel Verständnis für die heterogene Nutzung des ÖV aufzubringen, ist viel verlangt. Im Modus urbaner Blasiertheit, die von Unterschieden absieht, geht das nicht. Wenn die Leute hier über das Repertoire der perfektionierten Kontaktvermeidung (Hirschauer 1999) nicht hinauskommen; wenn sie nicht bereit sind, an dieser »Empathiegrenze« (Hochschild 2016) zu arbeiten, droht die Situation zu kippen (Potthast 2019): Mobilitätseingeschränkte Populationen werden gegeneinander ausgespielt und verhalten sich so; ältere Anwohnerinnen und Anwohner auf der einen Seite, Studierende und Angehörige der Universität auf der anderen. Für die einen wie für die anderen werden alltägliche Begegnungen in der Konkurrenz um überlastete und verspätete Busse unerfreulich ausfallen. Am 21. März 2019 berichtet die Website der Universität über Ausfälle im Linienverkehr. Die Siegener Zeitung meldet am gleichen Tag unter dem Titel »Grippe oder Psyche?«, dass die Ausfälle auf zahlreichen städtischen Buslinien einen vorläufigen Höchststand erreicht haben. Ob sich ein plötzlich erhöhter Krankenstand (Exit) auch als ein verabredeter Warnstreik (Voice) deuten lässt? Der erwähnte Bericht in der lokalen Presse verzichtet darauf, diese heikle Frage auch nur auszusprechen und einer möglichen Verschränkung von Exit und Voice weiter nachzugehen. Stattdessen wiederholt sie eine sattsam bekannte, aber merkwürdig leere Krisendiagnose, deren abstrakten Titel niemand in Abrede stellt: Die Region habe ein Problem mit Abwanderung und sei, angefangen in Sozial- und Pflegeberufen, vom »Fachkräftemangel« regelrecht bedroht. Die Zurückgelassenen erscheinen in und durch diese verarmten Krisendiagnosen noch rat- und sprachloser. Umso wichtiger ist es, dass Busfahrerinnen, Lokführer und Zugbegleiter nicht verstummen. Diese Leute sind als Fachkräfte besonders unersetzlich, insofern sie mit der Aufrechterhaltung öffentlicher Räume befasst sind (Joseph/Jeannot 1995) – solange sie davon absehen können, ihre Kundschaft nach Kriterien einer ständischen Ordnung zu behandeln, die Anliegen ihrer Fahrgäste zu »personalisieren« oder mit häuslicher oder gar mütterlicher Aufmerksamkeit zu bedenken (Hochschild 1990). Die Frage ist nur: Wie schaffen die das?

Fehlermeldungen und Elitenversagen am Beispiel des Öffentlichen Verkehrs

241

Literatur Beck, Stefan (1997): Umgang mit Technik. Kulturelle Praxen und kulturwissenschaftliche Forschungskonzepte. Berlin. Benzler, Guido/Richter, Ulf (2017): Strukturprägend. Hochschulen als Motor städtischer und gesellschaftlicher Entwicklung. Forschung & Lehre 24 (12), S. 1072–1075. Berliner Verkehrsbetriebe (BVG) (seit 2015): Weil wir Dich lieben. Imagekampagne. https://www.bvg.de/weilwirdichlieben (zuletzt abgerufen am 05. 08. 2019). Bös, Nadine (2019): Fünf Dinge, die am Bahnpendeln nerven. Frankfurter Allgemeine Zeitung, 27. 02. 2019. Boltanski, Luc/Darr8, Yann/Schiltz, Marie-Ange (1984): La d8nonciation. Actes de la recherche en sciences sociales 51 (1), S. 3–40. Boltanski, Luc (1987): Bezichtigung und Selbstdarstellung: Die Kunst, ein normales Opfer zu sein. In: Hahn, Alois/Kapp, Volker (Hrsg.), Selbstthematisierung und Selbstzeugnis: Bekenntnis und Geständnis. Frankfurt am Main, S. 149–169. Boltanski, Luc (2012/1990): Love and Justice as Competences. Cambridge. Boltanski, Luc/Chiapello, Eve (2004/1999): The New Spirit of Capitalism. London. Boltanski, Luc/Th8venot, Laurent (2007/1991): Über die Rechtfertigung. Eine Soziologie der kritischen Urteilskraft. Hamburg. Bourdieu, Pierre (1982/1979): Die feinen Unterschiede. Kritik der gesellschaftlichen Urteilskraft. Frankfurt am Main. Centemeri, Laura (2017): From Public Participation to Place-based Resistance. Environmental Critique and Modes of Valuation in the Struggles Against the Expansion of the Malpensa Airport. Historical Social Research/Historische Sozialforschung 42 (3), S. 97–122. De Certeau, Michel (1984/1980): The Practice of Everyday Life. Berkeley. Chateauraynaud, Francis/Torny, Didier (1999): Les sombres pr8curseurs. Une sociologie pragmatique de l’alerte et du risque. Paris. Dangschat, Jens/Segert, Astrid (2011): Nachhaltige Alltagsmobilität – soziale Ungleichheiten und Milieus. Österreichische Zeitschrift für Soziologie 36 (2), S. 55–73. Engelen, Katja/Maximini, Claudia/Stick, Anke/Kamp, Jenny (2018): Klimafreundliches Mobilitätskonzept für den Kreis Siegen-Wittgenstein. Aachen. Garfinkel, Harold (1967): Studies in Ethnomethodology. Englewood Cliffs. Geser, Hans (1989): Der PC als Interaktionspartner. Zeitschrift für Soziologie 18 (3), S. 230–243. Groth, Sören/Hebsaker, Jakob/Pohl, Lucas (2017): Kunst des Gehens. Taktiken im Ort des Automobils. Sub\urban. Zeitschrift für kritische Stadtforschung 5 (1/2), S. 257–266. Guggenheim, Michael (2020): How to Use ANT in Inventive Ways so that its Critique will not Run Out of Steam? In: Blok, Anders/Far&as, Ignacio/Roberts, Celia (Hrsg.), ANT Companion. London. S. 64–72. Henke, Christopher R. (1999–2000): The Mechanics of Workplace Order : Towards a Sociology of Repair. Berkeley Journal of Sociology 44 (1999–2000), S. 55–81. Hirschauer, Stefan (1999): Die Praxis der Fremdheit und die Minimierung von Anwesenheit. Eine Fahrstuhlfahrt. Soziale Welt 50 (3), S. 221–246. Hirschman, Albert O. (1967): Development Projects Observed. Washington.

242

Jörg Potthast

Hirschman, Albert O. (1970): Exit, Voice, and Loyalty. Responses to Decline in Firms, Organizations, and States. Cambridge. Hirschman, Albert O. (1981): Essays in Trespassing: Economics to Politics and Beyond. Cambridge. Hirschman, Albert O. (1986): Rival Views of Market Society and Other Recent Essays. New York. Hirschman, Albert O. (1993): Exit, Voice, and the Fate of the German Democratic Republic: An Essay in Conceptual History. World Politics 45 (2), S. 173–202. Hirschman, Albert O. (2010/1986): Abwanderung und Widerspruch. In: Neckel, Sighard/ Mijic, Ana/von Scheve, Christian/Titton, Monica (Hrsg.), Sternstunden der Soziologie. Wegweisende Theoriemodelle des soziologischen Denkens. Frankfurt am Main, S. 204– 225. Hochschild, Arlie Russell (1979): Emotion Work, Feeling Rules, and Social Structure. American Journal of Sociology 85 (3), S. 551–575. Hochschild, Arlie Russell (1990/1983): Das gekaufte Herz. Zur Kommerzialisierung der Gefühle. Frankfurt am Main. Hochschild, Arlie Russell (2016): Strangers in their Own Land. Anger and Mourning on the American Right. New York. Joerges, Bernward (1999): Die Brücken des Robert Moses: Stille Post in der Stadt- und Techniksoziologie. Leviathan 27 (1), S. 43–63. Joseph, Isaac/Jeannot, Gilles (Hrsg.) (1995): M8tiers du public: les comp8tences de l’agent et l’espace de l’usager. Paris. Knie, Andreas (2017): Zukunft von Bus- und Bahnverkehr: »Der ÖPNV funktioniert nicht intuitiv«. taz, 28. 01. 2017. Kolhatkar, Sheelah (2019): The Personal Toll of Whistle-Blowing. Why one Physician Took the Risk of Becoming an F.B.I. Informant to Expose Alleged Medicare Fraud. The New Yorker, 04. 02. 2019, S. 30–41. Krügel, Christian (2018): Die Münchner S-Bahn ist ein Desaster. Süddeutsche Zeitung, 03. 03. 2018. Krüger, Anja (2018): Die Deutsche Bahn und die Mobilitätskrise: Dieses Land ist unmodern. taz, 07. 10. 2018. Kuhr, Daniela/Plöchinger, Stefan (2017): Im Netz der Problemzonen: Die Bahn kommt – zu oft zu spät. Wieso? Wo liegen die Schwachstellen des Fernverkehrs in Deutschland? Süddeutsche Zeitung, 10. 03. 2017. Latour, Bruno (2006/1983): Gebt mir ein Laboratorium und ich werde die Welt aus den Angeln heben. In: Belliger, Andr8a/Krieger, David J. (Hrsg.), ANThology. Ein einführendes Handbuch zur Akteur-Netzwerk-Theorie. Bielefeld, S. 103–134. Latour, Bruno (2008): Pour un dialogue entre science politique et science studies. Revue franÅaise de science politique 58 (4), S. 657–678. Latour, Bruno (2014/2012): Existenzweisen. Eine Anthropologie der Modernen. Berlin. Lehmann, Hendrik/Jacobs, Stefan/Petzold, Ekkehard (2016): Datenjournalismusprojekt zur BVG. Warum kommt der Bus zu spät? Und warum kommt die Tram oft zu früh? Tagesspiegel, 30. 03. 2016. Orl8an, Andr8 (2011): L’empire de la valeur. Refonder l’8conomie. Paris.

Fehlermeldungen und Elitenversagen am Beispiel des Öffentlichen Verkehrs

243

Potthast, Jörg (2001): Review Essay : Der Kapitalismus ist kritisierbar. Le nouvel esprit du capitalisme und das Forschungsprogramm der »Soziologie der Kritik«. Berliner Journal für Soziologie 11 (4), S. 551–562. Potthast, Jörg (2015): Book Review. Andr8 Orl8an: L’Empire de la valeur. Refonder l’8conomie. Human Studies 38 (1), S. 185–190. Potthast, Jörg (2017): The Sociology of Conventions and Testing. In: Benzecry, Claudio/ Krause, Monika/Reed, Isaac Ariail (Hrsg.), Social Theory Now. Chicago, S. 337–360. Potthast, Jörg (2019/i.E.): Sozio-materielle Praktiken in irritierenden Situationen*. In: Gießmann, Sebastian/Röhl, Tobias/Trischler, Ronja (Hrsg.), Materialität der Kooperation. Wiesbaden, S. 387–412. Potthast, Jörg/Guggenheim, Michael (2013): Symmetrische Zwillinge. Zum Verhältnis von ANT und Soziologie der Kritik. In: Thielmann, Tristan/Schüttpelz, Erhard (Hrsg.), Akteur-Medien-Theorie. Bielefeld, S. 133–166. Pütz, Ole (2017): How Strangers Initiate Conversations: Interactions on Public Trains in Germany. Journal of Contemporary Ethnography 47 (4), S. 426–453. Röhl, Tobias (2017): Infrastrukturen der Störung. Zeitschrift für Theoretische Soziologie 6 (1), S. 103–109. Rosanvallon, Pierre (2010/2008): Demokratische Legitimität. Unparteilichkeit, Reflexivität, Nähe. Hamburg. Suchman, Lucy (1987): Plans and Situated Actions. The Problem of Human-Machine Communication. Cambridge. Th8venot, Laurent (2006): L’action au pluriel : Sociologie des r8gimes d’engagement. Paris. Ureta, Sebastian (2013): Waiting for the Barbarians: Disciplinary Devices on Metro de Santiago. Organization 20 (4), S. 596–614. Vollmer, Hendrik (2013): The Sociology of Disruption, Disaster and Social Change: Punctuated cooperation. Cambridge. Wendt, Juliane (2018): [Langer Atem I]: Wie die BVG aus einem Missverständnis ein Content Marketing Wunder schaffte. Content Marketing Portal. https://content-marke ting.com/wie-die-bvg-aus-einem-missverstaendnis-ein-content-marketing-wunderschaffte/ (zuletzt abgerufen am 04. 03. 2019). Winner, Langdon (1980): Do Artifacts have Politics? Daedalus 109 (1), S. 121–136.

Danksagung Der Autor bedankt sich bei allen Gesprächspartnerinnen und Gesprächspartnern für ihre Erreichbarkeit. Gewonnen hat der Text in der Diskussion vorläufiger Fassungen anlässlich der Vortragsreihe SOWIS (Univ. Siegen), bei einem Workshop zu »Arbeit an Kultur« (Viadrina-Univ. Frankfurt/Oder), bei einem Seminar zu »Siegen, Universitätsstadt« (Univ. Siegen) und durch kritische Anmerkungen von Asher Boersma, Michael Guggenheim, Wolfgang LudwigMayerhofer, Tobias Röhl, Gustav Roßler und Susann Wagenknecht. Ihnen allen vielen Dank!

Monika Jarosch*

Vom Fehler zur Abweichung – zum Generationenwechsel in der Beschreibung der Genauigkeit

1.

Abgrenzung und Gegenüberstellung möglicher Handlungsfelder

»Wo gehobelt wird, fallen Späne!« Die klassische geodätische Fehlerlehre besagt, dass alle Messungen mit Messfehlern behaftet sind. Verwirrend mag auf den ersten Blick ein Wandel in den Begrifflichkeiten zur Beschreibung der Genauigkeit einer Messung sein. Vom Prinzip her wird heute als »Abweichung« bezeichnet, was früher der »Fehler« war. Aber noch immer gibt es den ›Fehler‹, als ›übrigbleibender Fehler‹ im Sinne der alten Verbesserung einer Ausgleichung. Das Mysterium des wahren Wertes wird nie gelöst. Allenfalls der wahrscheinlichste Wert erschließt sich uns und gibt Auskunft über den ›übrigbleibenden Fehler‹. Hinzu kommt, dass in den Kulturen verschiedener Ingenieurstudiengänge ein völlig unterschiedliches Verständnis des Fehlerbegriffes etabliert ist. Dennoch vermag die Statistik eine Antwort zu liefern auf die immer wieder gestellte Frage, warum die Vermessungsingenieure eigentlich immer Fehler machen – »Können die das nicht richtig?« Dieser Beitrag führt in die Vielfalt der Aspekte rund um den Fehlerbegriff der Geodäsie ein, in Gegenüberstellung zu weiteren Ingenieurdisziplinen wie Bauwesen oder Maschinenbau. Die theoretische Geodäsie nach Friedrich Robert Helmert (1843–1917) bestimmt als Wissenschaft von der Ausmessung und Abbildung der Erdoberfläche die Erdfigur, das Schwerefeld der Erde und ihre Orientierung im Weltraum. Dem hingegen befasst sich die praktische Geodäsie mit der Aufgabe der Bau- und Katastervermessung. Die Geodäsie ist hiermit nicht eindeutig den Naturwissenschaften oder den Ingenieurwissenschaften zuzuordnen. Sie berührt die Astronomie ebenso wie die Geophysik und bedient sich der Mathematik als notwendiges Instrument.

* Univ.-Prof. Dr.-Ing. Monika Jarosch, Universität Siegen, Fakultät IV (NaturwissenschaftlichTechnische Fakultät), Lehrstuhl für Praktische Geodäsie und Geoinformation.

246

Monika Jarosch

Der komplexe Körper der Erde kann grob vereinfacht als Rotationsellipsoid oder auch als Kugel dargestellt werden. Die Frage nach der kürzesten Verbindung zweier Punkte auf diesen gekrümmten Flächen wird in der Landesvermessung behandelt und mit der geodätischen Linie beantwortet. Im Gegensatz hierzu begnügt sich die praktische Geodäsie mit ebenen Bezugsflächen. Eine Strecke zwischen zwei Punkten kann als gerade Linie einfach über den Satz des Pythagoras berechnet werden. Hier ist die Zuordnung der praktischen Geodäsie zu den Ingenieurdisziplinen gegeben. Die Diskussion und der Vergleich mit dem Bauwesen oder auch dem Maschinenbau liegen nahe. Die Körper der Betrachtung variieren, ebenso die Maßstäbe – vom Erdkörper in der Geodäsie über den Baukörper des Bauwesens bis hin zum Werkstück im Maschinenbau. Überall wird gemessen, in der praktischen Geodäsie, im Bauwesen und im Maschinenbau. Es sind dies vorrangig Strecken zwischen zwei Punkten zur Bestimmung von Koordinaten, Abständen, Längen oder sonstigen Körpermaßen ebenso wie Richtungen zur Beschreibung der relativen Lage zweier Punkte zueinander. Ergebnis sind zweidimensionale Lagekoordinaten oder auch dreidimensionale Raumkoordinaten. Und überall ist das Ergebnis einer solchen Messung unscharf, im Sinne von ungenau, unbestimmt und ungewiss! Der gesuchte wahre Wert einer gemessenen Größe kann selbst mit größter Sorgfalt nicht ermittelt werden. Grund hierfür sind Ungenauigkeiten der eingesetzten geodätischen Instrumente und verbliebene Restfehler des Gerätes nach Kalibrierung oder Justierung, möglicherweise auch das Messverfahren, weiter aktuelle Umwelteinflüsse wie beispielsweise die Temperatur oder der Luftdruck, bis hin zu persönlicher Eigenschaft des Beobachters, so seine Sehschärfe oder auch die körperliche Konstitution. Alle genannten Details beeinflussen das Messergebnis. Der Umgang mit diesem Umstand ist jedoch in den verschiedenen Ingenieurwissenschaften unterschiedlich ausgeprägt. Schon das Vorzeichen trennt die Welten. Der Einzelfehler einer Messung wird in der Geodäsie als »SOLL– IST«, dem hingegen im Bauwesen als »IST–SOLL« berechnet – betragsgleich, jedoch unterschiedlich im Vorzeichen (Tab. 1). Die Betrachtungsrichtung hat sich geändert. Geodäsie Fehler = Soll – Ist

Bauwesen Fehler = Ist – Soll

Tab. 1: Systematik der Disziplinen Geodäsie und Bauwesen

Die abweichende Betrachtungsweise hat den Dialog der Akteure der beiden Disziplinen deutlich erschwert und Generationen von Kolleginnen und Kollegen zur Verzweiflung gebracht. Was bedeuten – 4 cm? Ist die Sollgröße nun größer

Vom Fehler zur Abweichung

247

oder kleiner als der Wert, den man ermittelt hat? Je nach Berufsdisziplin unterscheiden sich die Antworten auf diese Frage. Ähnliches gilt für die Beurteilung der Größenordnung einer Abweichung beziehungsweise eines Fehlers. Was den einen stört, ist für den anderen vernachlässigbar. Während der Maschinenbau im mm-Bereich denkt und handelt, bewegt sich die angezielte optimale Genauigkeit des Vermessungsingenieurs bestenfalls im mm-Bereich.

2.

Der Fehler in der Geodäsie

Der Begriff des »Fehlers« ist in der Geodäsie eine historische Besonderheit, die offiziell erst im Jahre 2010 bereinigt wurde. Die klassische geodätische Fehlerlehre besagt, dass alle Messungen mit Messfehlern behaftet sind. Geodäten sprachen in der Vergangenheit lange von Fehlern und untersuchten deren Verhalten in Fehlerfortpflanzungsgesetzen. Nicht unberechtigt mag die Frage aufkommen, »ob die das denn nicht richtig können«. Im Verlaufe der Zeit ist jedoch auch im Vermessungswesen ein Bewusstsein für die negative Botschaft des Begriffes Fehler gewachsen. Der Begriff Fehler wurde daraufhin durch »Abweichung« ersetzt. Der beschriebene Sachverhalt, der sich dahinter verbirgt, blieb jedoch unverändert derselbe: Die vollkommen perfekte, fehlerfreie Messung gibt es nicht. Messungen, auch als Beobachtungen bezeichnet, sind Messgrößen am Messobjekt in vorgegebener Maßeinheit, so beispielsweise die Messung einer Strecke in der Einheit Meter [m] oder die Messung einer Richtung in der Einheit Grad [gon]. Eine Messung ist immer mit Ungenauigkeiten behaftet. Sie geben die wahren Abmessungen eines Objektes oder seinen wahren Ort nur mit Abweichungen wieder. Je nach Durchführung des Beobachters können Ergebnisse einer Messung sehr unterschiedlich ausfallen. Solange die Unterschiede klein bleiben, werden sie als Messabweichungen bezeichnet. Die wirkliche Größe – der wahre Wert – einer Höhe, einer Strecke oder einer Richtung kann durch Messungen nicht bestimmt werden. Es kann jedoch statistisch ein Bereich abgeschätzt werden, in dem der gemessene Wert wahrscheinlich liegt. Das Messergebnis ist ein aus Messwerten ermittelter Schätzwert für den wahren Wert der Messgröße, so beispielsweise 50,12 m für eine Strecke oder 47,491 gon für eine Richtung. Wir berühren hier die Themenbereiche der Fehlerlehre und der Ausgleichsrechnung. Eine Klassifikation der auftretenden Fehler erfolgt in drei prinzipiell verschiedene Fehlertypen mit unterschiedliche Wirkung auf die vorgenommene

248

Monika Jarosch

Beobachtung: Es sind dies grobe Fehler sowie systematische und zufällige Abweichungen einer Messung: – Grobe Fehler resultieren aus grob fehlerhaften Ablesungen, die sich im Zuge der eigentlichen Messung aus Zielverwechslungen ergeben oder auch bei manuellem Aufschrieb aus Zahlendrehern. Kontrollen und Proben müssen sicherstellen, dass für eine weitere statistische Auswertung alle groben Fehler eliminiert wurden. Diese realisieren die gleiche Messung mit anderer Anordnung. – Die Verfälschung der Messwerte durch gesetzmäßig wirkende äußere Einflüsse während der Messung werden als systematische Abweichungen – früher als systematische Fehler – bezeichnet. Das Ergebnis einer solchen Messung ist ein unrichtiger Messwert. Systematische Fehler können konstant oder zeitlich veränderlich auftreten und über ein funktionales Modell beschrieben werden. Ebenso sorgt die Eichung der Messinstrumente oder eine geeignete Messanordnung (2 Lagen) für eine Elimination der Effekte von systematischen Fehlern. – Sind grobe Fehler und systematische Abweichungen eliminiert, so verbleiben zufällige Abweichungen. Früher wurden diese als zufällige Fehler bezeichnet, denen die Fehlerrechnung gilt. Er stellt in Vorzeichen und Größe eine unregelmäßige Verfälschungen der wahren Messwerte dar, ist unvermeidbar und abhängig von Beobachter und Gerät. Man erhält grundsätzlich unsichere Messwerte und versucht, die Wirkung zufälliger Abweichungen durch mehrfaches Messen und Mittelung der Ergebnisse herabzusetzen. Das eigentliche Messergebnis besteht demzufolge aus zwei Komponenten: aus dem Wert der gemessenen Größe und der Genauigkeitsschätzung der zugehörigen Messung. Das Mysterium des wahren Wertes wird nie gelöst. Nur der wahrscheinlichste Wert erschließt sich uns und gibt Auskunft über den »übrigbleibenden Fehler«.

3.

Die Normenwelt – aus Alt mach Neu!

Der Wandel in den Begrifflichkeiten zur Beschreibung der Genauigkeit einer Messung ist in der DIN 18709 »Begriffe, Kurzzeichen und Formelzeichen im Vermessungswesen« in Teil 4 »Ausgleichungsrechnung und Statistik« für die Verarbeitung, Auswertung und Beurteilung der im Vermessungswesen anfallenden Daten abgebildet. Ursprünglich aus dem Jahre 1984 (Klein 2006), wurde 2010 die neue DIN 18709-4 veröffentlicht (DIN 2013). Vom Prinzip her wird heute als Abweichung bezeichnet, was früher der Fehler war.

(empirische) Varianz s2, s2

Fehlerfortpflanzungsgesetz Varianzfortpflanzungsgesetz

Quadrat des Mittleren Fehlers

(empirische) Standardabweichung s, s

Mittlerer Fehler

Durchschnittliche Abweichung t

Differenz zwischen dem Arithmetischen Mittelwert und den einzelnen Beobachtungen der Beobachtungsreihe

Übrigbleibender Fehler m

Verbesserung(en)

Ermittlung der Varianz einer Ergebnisgröße y, die von unkorrelierten Eingangsgrößen xi in Form der Funktion y=g(xi) abhängt

Quadrat der Standardabweichung

: (Summe der Beträge des übrigbleibenden Fehlers) / Anzahl

Maß für Positiver Wert der Wurzel! - Streuung einer Beobachtungsreihe Mit: s … sigma als alternative um ihren Mittelwert Bezeichnung für s - Streuung von Unbekannten (Parametern), die Funktionen mehrerer verschiedener Messwerte sind

(Wahrscheinlichster Wert – Beobachtungswert L)

Wahrscheinlichster Wert eines unbekannten Messwertes, der aus einer endlichen Beobachtungsreihe ermittelt wird = Erwartungswert E

Schätzwert für den wahren Wert, solange keine systematischen Abweichungen vorliegen

Arithmetischer Mittelwert x- = 8i xi/n

Erläuterung Unbekannt!

Neuer Begriff (aktuell) Wahrer Fehler e Wahrer Wert X – Beobachtungswert L

Alter Begriff (weggefallen)

Vom Fehler zur Abweichung

249

Neuer Begriff (aktuell)

Erläuterung

Tab. 2: Beschreibung der Genauigkeit einer Messung

Allgemeines Kovarianzfortpflanzungsgesetz Ermittlung der Varianz einer Fehlerfortpflanzungsgesetz Ergebnisgröße y, die von korrelierten Eingangsgrößen xi in Form der Funktion y=g(xi) abhängt

Alter Begriff (weggefallen)

(Fortsetzung)

250 Monika Jarosch

Vom Fehler zur Abweichung

251

Aber noch immer gibt es den Begriff des Fehlers. Abgesehen davon, dass er in den Köpfen der etablierten Akteure der alten Schule des Vermessungswesens nicht ausgelöscht werden kann, tritt er als grober Fehler oder übrigbleibender Fehler im Sinne der alten Verbesserung einer Ausgleichung immer noch explizit auf (Tab. 2). Der mittlere Fehler wurde zur Standardabweichung und das Quadrat des mittleren Fehlers zur Varianz. Dementsprechend wurde das Fehlerfortpflanzungsgesetz zum Varianzfortpflanzungsgesetz und das allgemeine Fehlerfortpflanzungsgesetz als allgemeine Form des Varianzfortpflanzungsgesetzes wurde zum Kovarianzfortpflanzungsgesetz (DIN 18709-4: 201009).

3.1

Der letzte Krieger: der »übrigbleibende Fehler«!

Zur Bestimmung einer gesuchten Größe (z. B. die Strecke zwischen 2 Punkten) werden immer Beobachtungsreihen durchgeführt: Man misst eine gesuchte Größe mehrfach, also nicht nur einmal, sondern n mal. Der wahre Wert X (großes X) einer jeden Messgröße ist immer unbekannt. Da der wahre Wert X unbekannt ist, bleibt auch der wahre Fehler e unbekannt (Tab. 2). Die Beobachtungsreihe lässt allenfalls eine Vermutung über ihre Größe zu: man schätzt den wahrscheinlichsten Wert ( x (kleines x). Der wahrscheinlichste Wert ( x erlaubt nun allerdings die Ermittlung des übrigbleibenden Fehlers v. Der übrigbleibende Fehler ist nun die Ausgangsgröße zur Berechnung häufig nachgefragter Genauigkeitsmaße.

3.2.

Was der »übrigbleibende Fehler« v verrät …

Der übrigbleibende Fehler gibt Aufschluss über zentrale, oft nachgefragte Genauigkeitsmaße. Grundsätzlich ist zur Bestimmung der Strecke zwischen zwei Punkten genau eine Messung erforderlich. Jede weitere Messung derselben Strecke ist eigentlich überflüssig (redundant); sie erhöht jedoch das Maß der Sicherheit, mit der die Messgröße als die gesuchte Streckenlänge angeboten wird. Die n-fache Beobachtung einer gesuchten Größe liefert (n–1) überschüssige Messungen. Wurde eine Messgröße mehrere Male beobachtet, so ist zu unterscheiden, ob die einzelnen Beobachtungen gleich- oder unterschiedlich genau waren. Unterschiedliche Genauigkeitsverhältnisse müssen beim Bilden des Mittelwertes mit einer Gewichtung der Beobachtungen berücksichtigt werden. Überschüssige Messungen einer Messungsreihe mit gleich gewichteten Beobachtungen lassen es zu, ein gängiges Maß zur Beurteilung der erzielten Ge-

252

Monika Jarosch

nauigkeit zu berechnen, die Standardabweichung s einer gesuchten Größe bei (n–1) überschüssigen Messungen: s¼

qffiffiffiffiffiffiffiffiffiffi Si vi vi ðn@1Þ

¼

qffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi v1 v1 þv2 v2þ...þ vn vn ðn@1Þ

Gleiches gilt für die durchschnittliche Abweichung t der Beobachtungen einer gesuchten Größe bei n Messungen, die im Allgemeinen jedoch seltener abgefragt wird: t ¼ :Si

jvi j n

¼:

jv1 jþjv2 jþjv3 jþ ...þ jvn j n

Im Beispiel zur Genauigkeitsbetrachtung einer Streckenmessung (Abb. 1) wurde eine gesuchte Strecke sechsmal gemessen. Es liegen also fünf überflüssige Messungen vor. Diese erlauben eine Angabe zur Qualität der durchgeführten Beobachtung. Ausgehend vom arithmetischen Mittel aller Messwerte werden die sechs übrigbleibenden Fehler und ihre Quadrate bereitgestellt. Aufsummiert und durch die Anzahl der überschüssigen Messungen geteilt erhält man das Quadrat der Standardabweichung. Ihre Wurzel liefert schließlich die Standardabweichung mit s = 3,4 mm. Stellt man diesen Zahlenwert der einfachen durchschnittlichen Abweichung t = : 3 mm gegenüber, so wird deutlich, dass die beiden Angaben zur erreichten Genauigkeit der Streckenmessung fast identisch ausfallen: Obwohl die Standardabweichung sehr viel aufwändiger ermittelt wurde, stellt die durchschnittliche Abweichung mit dem mittleren Betrag der übrigbleibenden Fehler in der Größenordnung eine durchaus gleichwertige Alternative zur Beurteilung der Beobachtungsgenauigkeit dar (Abb. 1).

3.3

Zur Auswirkung der »übrigbleibenden Fehler«

Nicht jede Größe kann direkt beobachtet werden. So ist beispielsweise die Fläche F eines Rechtecks nur über die Längen der begrenzenden Seiten a und b mit einer mathematischen Funktion als Produkt der Seiten F = a * b zu berechnen. Die Funktion F der beiden Variablen a und b sei stellvertretend für alle möglichen funktionalen Zusammenhänge zu verstehen. Sind die Eingangsgrößen a und b mit einem Fehler behaftet, so wird auch das Ergebnis der Funktion aus diesen Größen von diesem Fehler beeinflusst sein. Man spricht von der Fortpflanzung der Fehler, auch wenn der Messfehler durch die Messabweichung abgelöst wurde und das entsprechende Gesetz dazu mit Varianzfortpflanzungsgesetz bezeichnet ist. Es gilt hier, die Genauigkeit von

Vom Fehler zur Abweichung

253

Abb. 1: Beispiel zur Genauigkeitsbetrachtung einer Streckenmessung

Funktionen fehlerbehafteter Größen zu ermitteln. Wie wirkt sich ein Fehler in den eingesetzten Größen auf den Funktionswert aus? Das Varianzfortpflanzungsgesetz ermöglicht es, für eine allgemeine Funktion F mit F = F(L1, L2, …, Ln) der Beobachtungen Li die Standardabweichung der Funktion sF zu berechnen, wenn die Standardabweichungen si der Beobachtungen Li gegeben sind. Die Tür zur Standardabweichung einer beliebigen Funktion F der Beobachtungen Li wird über die partiellen Ableitungen Mi eben dieser Funktion nach den fehlerbehafteten Größen Li geöffnet. Zunächst multipliziert man die partiellen Ableitungen der Funktion F nach den Beobachtungen Li mit der Standardabweichung der jeweiligen Beobachtung si. Quadriert und aufsummiert erhält man die gesuchte Varianz der Funktion der Beobachtungen. Die Wurzel hieraus liefert die Standardabweichung sF der Funktion F. sF ¼

qEffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiC M 21 þ M 22 þ ::: þ M 2n

M i = @F/@Li * si Die Fortpflanzung der Auswirkung fehlerbehafteter Einzelgrößen auf die Gesamtfunktion gilt auch bei einer einfachen Summe F = L1 + L2 þ . . . : þ Ln .

254

Monika Jarosch

Werden n Messwerte addiert, deren Genauigkeit (Standardabweichung s) gleich groß ist, so wächst die Standardabweichung der Summe mit der Wurzel der pffiffiffi Anzahl der Messwerte sF = s n (Abb. 2).

Abb. 2: Beispiel zur Fehlerfortpflanzung einer Summe zweier Strecken

Wird dem hingegen aus einer Anzahl von n Messwerten, deren Genauigkeit jL jþ...þ jL j gleich groß ist, das arithmetische Mittel F ¼ 1 n n gebildet, so wächst die Standardabweichung umgekehrt proportional zur Wurzel der Anzahl der s Messwerte sF ¼ pffiffin, das heißt sie wird kleiner, das Ergebnis also besser. Die Varianz der Fläche eines Rechtecks, die aus fehlerbehafteten Seiten des Rechtecks berechnet wird, folgt entsprechend der bisherigen einfachen Betrachtung einer Summe durch partielle Ableitung des Produkts für F = a * b und der Anwendung des Varianzfortpflanzungsgesetzes (Abb. 3).

Abb. 3: Beispiel zur Fehlerfortpflanzung für eine Flächenberechnung

255

Vom Fehler zur Abweichung

4.

Vielerlei Maße

Die Fachterminologien der Ingenieurwissenschaften Bauwesen oder Maschinenbau weisen den Begriff »Fehler« gar nicht auf. Viel eleganter wird beispielsweise im Bauwesen die Tatsache behandelt, dass etwas »nicht ganz so geworden ist, wie es geplant war«. Die ideale ursprüngliche Zielsetzung wird als »Soll« in den Raum gestellt und mit dem »Ist« verglichen, von dem man annimmt, dass man seine tatsächliche Größe auch wirklich kennt. Im Maschinenbau ebenso wie im Bauwesen wird grundsätzlich davon ausgegangen, dass Maschinen oder Bauwerke zunächst computergestützt geometrisch konstruiert werden. Das Soll-Maß, auch als Nennmaß bezeichnet, wird als Angabe für ein Maschinen- oder Bauteil den Planungsunterlagen entnommen. Bezeichnung

Erläuterung

Tatsächliches Maß

Objekt

Beispiel: Länge l einer Garage 7,01 m

Nennmaß = Sollmaß Angabe für Objekt in den Planungsunterlagen

7,00 m

Kleinstmaß

maximal zulässige Abweichung vom Nennmaß nach unten

6,95 m

Größtmaß

maximal zulässige Abweichung vom Nennmaß nach oben

7,05 m

Maßtoleranz

Größtmaß – Kleinstmaß

10 cm

Istmaß

Messung am realen Objekt; mit Messfehlern behaftet; weicht geringfügig vom tatsächlichen Maß ab

7,02 m

Grenzabmaß

Abweichung von Istmaß zu Nennmaß

2 cm

Standardabweichung ca. Maßtoleranz / 5

2 cm

Tab. 3: Fehlerbetrachtung im Bauwesen (nach Jarosch 2005)

Beim Ist-Maß am realen Bauteil wird eingeräumt, dass es vom tatsächlichen Maß des betrachteten Maschinen- oder Bauteils nach der Fertigung geringfügig abweicht. Hier scheint sich der Messfehler zu verstecken. Um dem Rechnung zu tragen, kommen zwei weitere Maße ins Spiel – das Kleinst- und das Größt-Maß. Sie beschreiben die maximal zulässige Abweichung vom Nennmaß nach unten beziehungsweise nach oben. Hiermit soll die Funktionsfähigkeit sichergestellt werden. Die angegebenen Maße resultieren alleine aus der Anforderung an die Funktionsfähigkeit. Sie werden nicht dem Messprozess zugeordnet (vgl. Kuhlmann/Hesse/Holst 2017, S. 4). Ihre Differenz gibt die Maßtoleranz an. Teilt man diese dann durch 5, so entspricht das Ergebnis circa der Standardabweichung. Ergänzend wird das Grenzabmaß als Abwei-

256

Monika Jarosch

chung des Ist- vom Soll-Maß geführt. Die Beispielrechnung für eine fiktive Garage unterstreicht die Sinnhaftigkeit der getroffenen Größenfestlegungen (Tab. 3). Die Art und Weise der Abschätzung der Standardabweichung erscheint im ersten Augenblick jedoch willkürlich. Warum wird die Maßtoleranz pragmatisch durch 5 geteilt ? Warum nicht 4 oder 6? Das Ergebnis ist kritisch der statistischen Berechnung der Standardabweichung gegenüberzustellen.

5.

Beurteilung der Qualität einer Messung

Nachhaltig und überzeugend ist im beschriebenen Vorgehen dargelegt, dass man sehr wohl mit einem Fehler umgehen kann, ohne ihn als solchen zu benennen. Die Messung oder Beobachtung eines Punktes ist sowohl mit systematischen als auch zufälligen Effekten behaftet. Die Qualität der Aufnahme eines Ortes wird positiv beschrieben mit: (1) der Genauigkeit (Accuracy) (2) der Exaktheit (Precision) (3) der Auflösung (Resolution) Während systematische Effekte auf die Genauigkeit wirken, beeinflussen zufällige Effekte die Exaktheit. Anhand einer Zielscheibe lassen sich anschaulich das Zusammenspiel und die Beurteilung der Effekte erklären. Es sei das Zentrum der Zielscheibe die tatsächliche Koordinate eines Ortes, der bestimmt werden soll. Gemessene Koordinaten beziehungsweise aus Beobachtungen berechnete Koordinaten werden als Schüsse auf die Zielscheibe dargestellt (Tab. 4): – Die Genauigkeit ist umso höher, je näher der aufgenommene Punkt am Zentrum liegt. – Die Exaktheit ist umso besser, je näher wiederholte Beobachtungen eines Ortes zusammen liegen; Kriterium ist die Reproduzierbarkeit der Messung. – Die Auflösung ist umso besser, je genauer die Beobachtung einen Ort beschreibt. Kriterium für die Beurteilung ist, wie weit zwei Punkte voneinander entfernt sein müssen, um voneinander unterschieden werden zu können. – Ein weiterer Begriff – Trueness – lässt die zusätzliche Beurteilung von Messungen in Hinblick auf ihre Qualität zu. Die Trueness beschreibt, wie nah das Mittel eines Satzes von Beobachtungen an den aktuellen Wert kommt. Sie macht also eine Aussage zur Richtigkeit (Wahrheit) des Ergebnisses aus der Gesamtheit der Messungen.

257

Vom Fehler zur Abweichung

Zentrum = tatsächliche Koordinaten eines Ortes Beschreibungskategorie Ausprägung: hoch / gut Genauigkeit – Accuracy

Ausprägung: niedrig / schlecht

Besonderheiten

Exaktheit – Precision

Hohe Exaktheit und schlechte Genauigkeit: Vermutung eines systematischen Fehlers Auflösung – Resoultion

Trueness

(bei niedriger Genauigkeit und niedriger Exaktheit)

(bei niedriger Genauigkeit und hoher Exaktheit)

Tab. 4: Beurteilung der Qualität einer Messung

6.

Zur Rolle der Statistik

Die Statistik erlaubt es, dem Mittelwert x- und der Standardabweichung s eine einfache Bedeutung zuzuordnen. Die Abweichungen der (Mess-)Werte vieler natur- und ingenieurswissenschaftlicher Vorgänge vom Mittelwert x- = l lassen sich durch eine Verteilung beschreiben, die als Normalverteilung oder auch nach dem deutschen Mathematiker, Statistiker, Astronom, Geodät und Physiker Carl Friedrich Gauß

258

Monika Jarosch

(1777–1855) benannt als Gaußverteilung bezeichnet wird. Zufällige Messfehler sind Zufallsgrößen mit Normalverteilung. Ihre Form wird auch als Gauß’sche Glockenkurve (Abb. 4) bezeichnet und ist durch die Standardabweichung s = s in ihrer Breite beschrieben. Die Annahme der Normalverteilung zufälliger Messfehler ist Grundlage der Fehlerrechnung. Im Bereich der Abweichung : s vom Mittelwert liegen näherungsweise 68,27 % aller Messwerte. Verdoppelt man das betrachtete Intervall auf : 2 s, so sind bereits 95,45 % aller Messwerte zu finden. Erweitert man weiter auf : 3 s, sind bereits 99,73 % aller Messwerte erfasst. Im Umkehrschluss können für gegebene Wahrscheinlichkeiten maximale Abweichungen vom Mittelwert angegeben werden. 50 % aller Messwerte haben eine Abweichung von höchstens 0,675 s vom Mittelwert, 90 % haben eine Abweichung von höchstens 1,645 s vom Mittelwert, und schließlich sind bereits 95 % beziehungsweise 99 % der Messwerte maximal 1,960 s beziehungsweise 2,576 s vom Mittelwert entfernt.

Abb. 4: Gauß’sche Glockenkurve für Mittelwert m und Standardabweichung s (Hemmerich 2019)

Last but not least rettet die mathematische Statistik die Existenz des Fehlerbegriffes. »Hier ist er noch, hier darf er’s sein«: Im Umfeld statistischer Tests unterscheiden Hypothesentests Fehler der 1. und 2. Art. Beim Test einer Hypothese liegt ein Fehler 1. Art vor, wenn die Ausgangshypothese H0 (Nullhypothese) zurückgewiesen wird, obwohl sie in Wirklichkeit wahr ist. Die Ausgangshypothese ist hierbei die Annahme, die Testsituation befinde sich im »Normalzustand«. Wird also dieser Normalzustand nicht erkannt, obwohl er tatsächlich vorliegt, handelt es sich um einen Fehler 1. Art. Ein

Vom Fehler zur Abweichung

259

Beispiel hierfür : Der Angeklagte wird als schuldig verurteilt, obwohl er in Wirklichkeit unschuldig ist (Nullhypothese: der Angeklagte ist unschuldig). Signifikanzniveau oder Irrtumswahrscheinlichkeit ist die vor einem Test beziehungsweise einer Untersuchung festgelegte Wahrscheinlichkeit, bei einer Entscheidung einen solchen Fehler 1. Art zu begehen. Gängige Signifikanzniveaus sind 5 % (signifikant) oder 1 % (sehr signifikant). Beim Test einer Hypothese liegt ein Fehler 2. Art vor, wenn man die Nullhypothese beibehält, obwohl in Wirklichkeit die Alternativhypothese gilt. Im Gegensatz zum Fehler 1. Art, der eintritt, wenn die Nullhypothese fälschlicherweise abgelehnt wird, lässt sich die Wahrscheinlichkeit für den Fehler 2. Art meist nicht berechnen. Während die Nullhypothese H0 e stets eine dezidierte Aussage darstellt, so beispielsweise »Mittelwert = x«, ist die Alternativhypothese sehr viel globaler, da sie ja alle sonstigen Möglichkeiten umfasst (so beispielsweise die Hypothese H1 »Mittelwert ¼ 6 x«). Auch hierfür ein Beispiel: Ein Tester entnimmt im Rahmen einer Annahmekontrolle einer Sendung eine Stichprobe. Die Nullhypothese lautet, dass die Sendung den Lieferbedingungen entspricht. Die Alternativhypothese hierzu besagt, dass die Sendung den Lieferbedingungen nicht (!) entspricht (Gegenteil der Nullhypothese). Nimmt er die Sendung an, obwohl sie den Lieferbedingungen nicht entspricht, so begeht er einen Fehler 2. Art – die Nullhypothese wurde angenommen, obwohl sie falsch ist. Der Test bestätigte fälschlicherweise die Nullhypothese.

7.

Schlussbemerkungen

Eine Messung und der Umgang mit dem Messergebnis ist zentraler Bestandteil der Ingenieurdisziplinen der praktischen Geodäsie, des Bauingenieurwesens und des Maschinenbaus. Dies gilt für die Vergangenheit, die aktuelle Gegenwart und die Zukunft. Während sich die praktische Geodäsie im Reigen der Themenfelder Fehlerlehre, Ausgleichungsrechnung und Statistik mit Fehlern der Beobachtungen und ihrer Behandlung auseinandergesetzt hat, stand der Begriff Fehler im Sprachgebrauch des Bauingenieurwesens und des Maschinenbaus nicht im zentralen Fokus. Als Teil der Geschehnisse der aktuellen Gegenwart sollte die negative Botschaft des Begriffes Fehler beseitigt werden. So wurde 2010 im Zuge der Vereinheitlichung der Begriffe mit der DIN 18709 (Teil 4) der geodätische Sprachgebrauch angepasst. Der Begriff Fehler wurde durch den Begriff Abweichung abgelöst. Die Existenz des Fehlerbegriffs ist hiermit jedoch nicht zerstört. Er behauptet sich als wahrer, grober oder übrigbleibender Fehler in der DIN-Normung, in der etablierten Bezeichnung des Fehlerfortpflanzungsgesetzes und in Fehlern der

260

Monika Jarosch

1. und 2. Art der Hypothesentests in der Statistik. Wie könnte er auch in Vergessenheit geraten, denn: »Wo gehobelt wird, fallen Späne!«

Literatur DIN (Deutsches Institut für Normung e.V.) (2013): Geodäsie. Berlin, Wien, Zürich. Hemmerich, Wanja A. (2019): Normalverteilung. https://matheguru.com/stochastik/nor malverteilung.html (zuletzt abgerufen am 11. 06. 2019). Jarosch, Monika (2005): Erfassung und Dokumentation des Gebäudebestandes, Einheit A im Rahmen der Fortbildungsveranstaltung Bautechnische Analyse & Bewertung von Altbauten – Einheiten A-F, Interdisziplinäres Kompetenzzentrum Altbau InKA der Universität Siegen zu Forschung, Entwicklung und Dienstleistungen beim Planen und Bauen im Bestand, anerkannt durch die Architektenkammern NRW und Hessen sowie die Ingenieurkammer Bau NRW, 20. 10. 2005. Klein, Karl-Hans (2006): Zur Überarbeitung der DIN 18709 – Begriffe, Kurzzeichen und Formelzeichen im Vermessungswesen. Zeitschrift für Geodäsie, Geoinformation und Landmanagement 131 (6), S. 358–360. Kuhlmann, Heiner/Hesse, Christian/Holst, Christoph (2017): Standardabweichung vs. Toleranz. DVW-Merkblatt 12-2017. https ://www.dvw.de/sites/default/files/merk blatt/daten/2017/12_DVW-Merkblatt_Stdabw_Toleranz.pdf (zuletzt abgerufen am 11. 06. 2019).